Categorie
Economia Tecnologia

Il piano italiano per un cloud super protetto

Author: Wired

Leonardo, la società italiana leader del settore della difesa, sta collaborando con la startup Cubbit, che ha ideato un sistema cloud di archiviazione distribuito a livello territoriale, un avanzato sistema di archiviazione dati capace di garantirne la massima sicurezza e fruibilità. Il sistema sarà in grado di “frammentare” un dato, che sarà quindi depositato in molteplici nodi del cloud permettendo all’informazione di esistere in più punti ed essere sempre riproducibile. In caso di attacco malware, il nodo minacciato verrà isolato, così da impedire che l’aggressione si espanda. La capacità intrinseca di supercalcolo del sistema servirà a innalzare una barriera in grado di proteggere tutti gli altri nodi della rete.

La nuova architettura cloud utilizzerà un sistema di geo-distribuzione dei dati, che saranno cifrati, frammentati e replicabili contemporaneamente nelle diverse sedi di Leonardo. In questo modo, in caso di attacco fisico, cibernetico o in caso di disastro naturale in uno dei centri dell’azienda, il dato non andrà perso.

Il sistema sarà inizialmente sviluppato nelle sedi Leonardo di Genova e Chieti. A partire da qui, l’azienda realizzerà una serie di archivi nelle varie succursali per ridurre il traffico di dati “dal centro alla periferia e viceversa”. Lo scopo è rendere autonome tutte le sedi trasformandole in digital twin efficienti capaci “di analizzare tutti i dati in periferia”. Per il campione nazionale della difesa questa riduzione del trasferimento di dati produrrà un taglio delle emissioni di CO2, segnando un successo del progetto (anche) nell’ambito della sostenibilità.

Leonardo – che gestisce più di venti miliardi di dati utili allo sviluppo delle tecnologie e alla salvaguardia delle capacità dell’azienda – sarà la prima azienda del settore aerospazio, difesa e sicurezza a utilizzare questo tipo di tecnologia sviluppata da Cubbit. In una nota Leonardo annuncia di voler proseguire il percorso di ricerca iniziato con Cubbit. La prossima tappa dovrebbe essere l’esplorazione di “progettualità di nuova generazione, come il trasferimento di dati tra satelliti”.

Categorie
Tecnologia

Perché l’intelligenza artificiale non ucciderà il giornalismo

Author: Wired

Con la diffusione dei modelli di intelligenza artificiale generativa, in grado di realizzare un testo o un’immagine in pochi secondi partendo da una serie di istruzioni (prompt), si inizia a immaginare un mondo in cui questa nuova tecnologia prenderà il posto di alcune figure professionali. Secondo il parere degli esperti, però, l’intelligenza artificiale non solo non sostituirà questa professione, ma può rivelarsi uno strumento fondamentale. Sono tanti, infatti, gli ambiti e le funzionalità in cui l’intelligenza artificiale può rendere il lavoro del giornalista più agile.

La situazione in Italia

Il mestiere del giornalista è tra quelli che negli anni hanno dovuto più di tutti stare al passo con i tempi, trasformandosi e reinventandosi, soprattutto con l’arrivo di Internet e dei nuovi media. Rispetto ad altri paesi, però, non si è ancora capito a cercare di impiegare e sfruttare al meglio tutti i vantaggi che comporta l’impiego dell’intelligenza artificiale.Quello della stampa è un settore molto antico, che è nato con Gutenberg ed è passato per la macchina da scrivere – spiega a Wired Nicola Grandis, amministratore delegato di Asc27, la startup che si occupa di intelligenza artificiale e cybersecurity nata nel 2020 a Roma, e di Aida46, frutto dalla joint venture tra DigitalPaltforms e Asc27 -. Ma ecco che il giornalista ha imparato a evolversi: io ho amici giornalisti che ormai realizzano le videointerviste con lo smartphone, le battono al telefono e le pubblicano. Invece, a livello proprio industriale in Italia non si è ancora capito che l’ultimo dinosauro è quello che si è estinto urlando contro il meteorite. Ecco, l’intelligenza artificiale è un meteorite buono, però si l’industria italiana della della stampa, dell’informazione ci ricorda po’ questo ultimo dinosauro”.

Quello che emerge dal confronto con le redazioni italiane è, secondo Grandis, un livello più basso di preparazione del personale dell’editoria rispetto a quello di altri settori, ma a fare resistenza non sono i giornalisti. “Noi di Asc27 abbiamo sviluppato una piattaforma, Asimov, di derivazione militare, in ambito cybersecurity per l’applicazione nella difesa sicurezza nazionale – spiega Grandis -. Poi è stata introdotta nel mondo della news industry e altre sue declinazioni del mondo enterprise. Quello che abbiamo notato nel mondo della news industry italiana è che noi, all’inizio, pensavamo ci fosse una resistenza al cambiamento da parte dei giornalisti. Poi nel tempo siamo diventati amici di molti giornalisti che utilizzano privatamente la nostra piattaforma. Anzi, noi gliela diamo anche normalmente in comodato d’uso gratuito. Abbiamo notato che a livello di redazione, per l’organizzazione e tecnologicamente siamo indietro”.

Il primo passo sarebbe rivolgersi agli esperti.“Abbiamo incontrato altre figure molto pittoresche: per esempio, i consulenti, che anche datati, che fino a ieri facevano i siti web, mentre oggi sono esperti di intelligenza artificiale e magari provano a vendere i loro servizi alle redazioni – continua Grandis -. Quello che manca nel mondo del giornalismo italiano è la consapevolezza della necessità di rivolgersi a un’azienda che si occupi di intelligenza artificiale. Non serve una Business Unit fatta di ricercatori che fino a ieri facevano tutt’altro”.

Gli impieghi nel giornalismo

In che modo l’impiego dell’intelligenza artificiale può aiutare i giornalisti nel loro lavoro: “Il nostro software, Asimov, come tutte le buone intelligenze artificiali, ha l’obiettivo di sollevare le persone dai lavori ripetitivi e tediosi – continua Grandis -. All’interno di una redazione, dove possono giungere centinaia di comunicati stampa al giorno o all’ora, Asimov può fare una prioritizzazione di questi comunicati in modo che i giornalisti si possano dedicare maggiormente alle altre mansioni più importanti”. Assistere il giornalista nella fase di pubblicazione online, in modo tale che rispetti determinati requisiti che i motori di ricerca richiedono, creare un summary, trascrivere le interviste: sono solo alcune dei compiti che potrebbero ma che potrebbero venire sbrogliati da un sistema di intelligenza artificiale, come Asimov.

Anche la ricerca e la scelta delle immagini può essere velocizzata e resa più semplice attraverso l’utilizzo di un software: “Quando un giornalista scrive un pezzo – spiega Grandis -, Asimov in automatico gli propone un certo numero di immagini, alcune create con l’intelligenza artificiale, altre prese dalla libreria del giornale, cosicché in un secondo, se vede una che gli piace, la sceglie, oppure può andare avanti finché non ne trova un’altra”.

Categorie
Tecnologia

La moratoria sui sistemi di riconoscimento facciale in Italia è stata prorogata

Author: Wired

L’Italia ha confermato il divieto di installare sistemi di riconoscimento facciale in pubblico. Con il voto favorevole della Camera, i deputati hanno dato il via libera al decreto legge 51 del 2023, che contiene la proroga della moratoria sui sistemi di riconoscimento facciale, in scadenza a fine anno. L’emendamento, presentato da Marianna Madia, Lia Quartapelle e Filiberto Zaratti, tutti del Partito democratico, sposta così la scadenza al 31 dicembre 2025.

L’approvazione del decreto legge mette una volta per tutte la parola fine ai progetti orwelliani annunciati dal ministro dell’Interno, Matteo Piantedosi, di voler installare sistemi di riconoscimento facciale nelle zone commerciali, negli ospedali e nelle stazioni delle grandi città. Dichiarazioni piene di afflato propagandistico e povere di pragmatismo, come ha dimostrato il voto di oggi, 22 giugno 2023.

Povere, perché ogni tentativo di usare con leggerezza questi sistemi discriminatori e inefficaci è sempre stato, almeno finora, bloccato alacremente dal Garante della privacy. Tra questi, ricordiamo i molti avanzati da diversi amministratori comunali di destra, che negli ultimi anni hanno provato a installare telecamere biometriche un po’ dappertutto nelle città da loro governate.

Come lo scorso provvedimento, che aveva già sancito lo stop ai sistemi di riconoscimento facciale in pubblico in Italia, la moratoria prorogata consiste in un esplicito divieto, assoluto e inderogabile, di installare e usare dispositivi biometrici nei negozi, sui cartelloni pubblicitari e in altri luoghi accessibili al pubblico, come palestre o piscine.

Nel comparto pubblico, invece, i Comuni dovranno sempre sottostare al giudizio del Garante della privacy prima di procedere con l’installazione di questi sistemi, mentre non deve sottostare al parye del Garante l’autorità giudiziaria, salvo in caso di “trattamenti effettuati” nell’esercizio “delle funzioni giurisdizionali nonché di quelle giudiziarie del pubblico ministero”. Il divieto al riconoscimento biometrico è previsto anche dalla versione dell’Ai Act, il regolamento comunitario sull’intelligenza artificiale, votata arato di recente dal Parlamento europeo e ora soggetta a negoziazione con Commissione e Consiglio.

Categorie
Tecnologia

L’algoritmo di Instagram ha promosso contenuti pedopornografici

Author: Wired

Meta torna a essere accusata di favorire la circolazione di contenuti pedopornografici. L’algoritmo di Instagram, secondo un’indagine del Wall Street Journal in collaborazione con i ricercatori della Stanford University e dell’università del Massachusetts – sta promuovendo la pedofilia, creando connessioni tra gli utenti che vendono foto e video di minori, attraverso un sistema di raccomandazione già noto per riuscire a collegare tra loro persone che hanno interessi di nicchia. Chiaramente la vendita di contenuti pedopornografici viola non solo la policy della piattaforma, ma anche la legge federale: questo ha portato Meta a istituire una task force interna che possa risolvere la questione.

Dopo le rivelazioni della testata, infatti, la società ha riferito di di aver bloccato migliaia di hashtag che sessualizzano i bambini – alcuni con milioni di post – e di aver impedito ai suoi sistemi di consigliare agli utenti di cercare termini noti per essere associati ad abusi sessuali. Un intervento a cui Meta ne aggiungerà molti altri nel prossimo futuro. Il fatto che un gruppo di ricercatori e giornalisti sia riuscito a trovare con grande facilità comunità che promuovono la pedofilia sulla piattaforma dimostra che Instagram deve affrontare un problema molto grosso. È bastato che l’account creato per le indagini visualizzasse un solo account collegato alla pedopornografia per essere subito “invaso” da suggerimenti che avevano a che fare con la vendita illegale di foto e video di minori.

La piattaforma più importante per queste reti di acquirenti e venditori sembra essere Instagram”, hanno dichiarato i ricercatori. A quanto pare, gli sforzi compiuti dalla società non bastano per arginare la diffusione di questi contenuti sulla piattaforma. Solo a gennaio, per esempio, Instagram ha rimosso 490mila account per aver violato la sua policy sulla sicurezza dei bambini, eppure già nei mesi successivi l’impatto di questa azione risultava ridotto. E se vi state chiedendo il perché, ecco la risposta. Prima che il Wall Street Journal sollevasse la questione, in realtà, Instagram consentiva agli utenti di cercare termini che i suoi stessi sistemi sapevano essere associati a materiale pedopornografico, seppur restituendo un messaggio che recitava “Questi risultati possono contenere immagini di abusi sessuali su minori”. Ora, a quanto pare, l’opzione è stata disabilitata, ma non è chiaro perché prima non lo fosse.

Inoltre, sembrerebbe che i tentativi degli utenti di segnalare contenuti pedopornografici venissero spesso ignorati dall’algoritmo di Instagram, che continuava a promuovere imperterrito gli account su cui venivano vendute le immagini di bambini sessualizzati. Insomma, Meta sta cercando di combattere qualcosa che il suo algoritmo si rifiuta di eliminare.

Categorie
Tecnologia

Intelligenza artificiale, uno dei pionieri ora si occuperà dei suoi rischi

Author: Wired

Anche uno dei pionieri dell’intelligenza artificiale (Ia), l’informatico Geoffrey Hinton, si è unito al coro di esperti che stanno cercando di segnalare i rischi legati al rapido sviluppo di questa nuova tecnologia. Il settantaseienne britannico ha lasciato il suo ruolo a Google, dove lavorava da dieci anni, proprio per dedicarsi a quello che ha chiamato un lavoro più filosofico”, cioè parlare dei problemi di sicurezza dell’intelligenza artificiale.

Hinton è stato un pioniere dell’intelligenza artificiale e dello sviluppo delle reti neurali, avendo implementato e migliorato, nel 2012, la tecnologia su cui oggi si basano la gran parte dei sistemi Ia, assieme a due suoi ricercatori, Alex Krizhevsky e Ilya Sutskeve, cofondatore e chief scientist di OpenAi (che ha sviluppato ChatGPT).

Approccio critico

Dopo essere arrivato a Google nel 2013 e aver contribuito allo sviluppo della tecnologia di intelligenza artificiale della compagnia, Hinton ha deciso che era il momento di farsi da parte nell’ambito scientifico e dedicarsi alle implicazioni etiche e filosofiche legate alle Ia, quando Microsoft e OpenAi hanno lanciato ChatGpt. Come si legge sull’Mit Technology Review, al contrario di quanto lasciato intendere da altre testate nazionali e internazionali, Hinton non ha lasciato Google per poter criticare la compagnia.

In realtà, da una parte, si è detto troppo vecchio per il lavoro tecnico e, dall’altra, ha deciso di seguire il suo desiderio di parlare dei problemi di sicurezza dell’Ia senza dovermi preoccupare di come ciò interagisce con l’attività di Google, cioè senza l’autocensura che ogni manager di una compagnia di impone quando parla in pubblico.

L’informatico ha così definito la nuova generazione di modelli linguistici di grandi dimensioni, e in particolare ChatGpt, come alieni atterrati sulla terra senza che la gente se ne sia resa conto, “perché parlano un ottimo inglese”. Ed è in questa mancanza di consapevolezza, assieme all’incredibile intelligenza dimostrata dai sistemi Ia, che per Hinton si cela il rischio, piccolo ma per lui molto reale, che lo sviluppo senza limiti delle Ia si possa rivelare disastroso.

Vero o falso?

In particolare, la principale preoccupazione di Hinton riguarda un qualcosa che è già, in parte, davanti ai nostri occhi. Con questi sistemi sempre più abili a imitare la realtà, il rischio principale è che gli esseri umani perdano la capacità di distinguere cosa è vero e cosa è falso, soprattutto data la velocità con cui migliorano e apprendono nuove funzioni e nuove azioni.