Categorie
Tecnologia

Smettiamo di trattare i robot come degli esseri umani

Author: Wired

Hanson Robotics, l’azienda che produce Sophia e altri androidi realistici, è estremamente abile nel costruire macchine in grado di imitare le espressioni umane. Alcuni anni fa ho visitato la sede centrale dell’azienda a Hong Kong e ho incontrato il fondatore David Hanson, che in passato aveva lavorato a Disney. Il laboratorio dell’azienda sembrava uscito da Westworld o Blade Runner, con robot scollegati che guardano con aria triste in lontananza, facce raggrinzite appoggiate sugli scaffali e prototipi che balbettano sempre le stesse parole in un loop infinito.

Hanson e io abbiamo parlato dell’idea di aggiungere una vera intelligenza a queste macchine evocative. Ben Goertzel, noto ricercatore di intelligenza artificiale e amministratore delegato di SingularityNET, è a capo di un progetto per applicare i progressi dell’apprendimento automatico al software dei robot di Hanson, che consentirebbe agli androidi di rispondere al linguaggio umano.

A volte l’intelligenza artificiale alla base Sophia può fornire risposte passabili, ma la tecnologia non è così avanzata quanto GPT-4, il sistema che alimenta la versione più avanzata di ChatGPT e la cui creazione è costata più di 100 milioni di dollari. Naturalmente, anche ChatGPT e altri programmi di Ai all’avanguardia non sono capaci di rispondere in modo sensato alle domande sul futuro dell’intelligenza artificiale. Forse è meglio considerarli come imitatori dotati di conoscenze preternaturali che, per quanto capaci di ragionamenti sorprendentemente sofisticati, sono profondamente imperfetti e hanno solo una “conoscenza” limitata del mondo.

Le fuorvianti “interviste” a Sophia e compagnia a Ginevra ci ricordano come l’antropomorfizzazione dei sistemi di AI possa portarci fuori strada. La storia dell’intelligenza artificiale è costellata di esempi in cui gli esseri umani hanno fatto un uso eccessivo dei nuovi progressi nel campo.

Tendenza che viene da lontano

Nel 1958, agli albori del settore, il New York Times scrisse di uno dei primi sistemi di apprendimento automatico, una rudimentale rete neurale artificiale sviluppata per la Marina degli Stati Uniti da Frank Rosenblatt, uno psicologo della Cornell. “La Marina ha svelato oggi l’embrione di un computer elettronico che si aspetta sia in grado di camminare, parlare, vedere, scrivere, riprodursi ed essere cosciente della propria esistenza“, riportava il Times, un’affermazione audace riferita a un circuito in grado di imparare a individuare schemi in 400 pixel.

Guardando indietro alla copertura di Deep Blue – il supercomputer di Ibm capace di giocare a scacchi – di AlphaGo di DeepMind, e di molti dei progressi del deep learning nell’ultimo decennio – che discendono tutti direttamente dalla macchina di Rosenblatt – ci si trova sempre davanti allo stesso fenomeno: persone che prendono ogni avanzamento come un segno di un’intelligenza più profonda e simile a quella umana.

Questo non vuol dire che questi progetti – o anche la creazione di Sophia – non siano imprese notevoli, o potenzialmente passi avanti verso macchine più intelligenti. Ma per valutare i progressi di questa potente tecnologia è importante avere le idee chiare sulle capacità dei sistemi di AI. Per dare un senso ai progressi nel campo, il minimo che possiamo fare è smettere di fare domande stupide ai pupazzi animati.

Questo articolo è comparso originariamente su Wired US.

Categorie
Tecnologia

Google Bard ha qualche problema di sicurezza

Author: Wired

Non è passata neppure una settimana dal lancio di Google Bard in Italia, ed ecco che il sistema comincia già a mostrare le prime criticità, che gli esperti di sicurezza etichettano come pericolose se sfruttate al meglio dai cybercriminali. Nonostante il colosso tecnologico abbia definito il suo chatbot come uno strumento in grado di “dare la carica alla vostra immaginazione, esaltare la vostra produttività e aiutarvi a dare vita alle vostre idee”, i ricercatori di Check Point hanno scoperto anche un lato oscuro dell’AI di Google. Attraverso una serie di analisi attentamente condotte, infatti, questi sono riusciti a dimostrare che Bard può essere utilizzato per creare email di phishing, ammesso che la richiesta non gli venga palesata in maniera esplicita.

Chiedendo al chatbot di avere un esempio di un’email di phishing, però, i ricercatori sono riusciti ad aggirare il sistema e a ottenere un messaggio che simula alla perfezione la proposta di un servizio finanziario da utilizzare in un ipotetico attacco di phishing. Una richiesta che è stata esaudita da Bard, ma non da ChatGpt, che risulta essere ben più moderato quando si tratta di contenuti malevoli. Lo stesso atteggiamento, infatti, è stato assunto dai due chatbot quando i ricercatori hanno chiesto loro di produrre un esempio di un codice malware. Mentre ChatGpt ha fornito una spiegazione alquanto dettagliata del perché non fosse possibile rispondere a una richiesta di questo tipo, Bard è stato più generico. E non è tutto, perché alla richiesta di produrre un codice per un keylogger generico, il chatbot di Google non ha fatto alcuna obiezione, mentre ChatGpt ha subito riconosciuto la domanda come potenzialmente illecita.

Infine, entrambi i chatbot sembrano aver risposto in modo positivo quando i ricercatori di Check Poin hanno richiesto “un key logger volto a registrare gli input provenienti dalla tastiera allo scopo di registrare la sequenza di tasti digitata dall’utente”. A quanto pare, però, questo si tratta del solo caso in cui è stato possibile utilizzare ChatGpt per scopi malevoli nel corso dell’indagine. In linea di massima, infatti, Google Bard non sembrerebbe avere restrizioni particolari di sicurezza, il che permette a chiunque di utilizzarlo per organizzare truffe in rete.

Categorie
Tecnologia

OpenAi è pronta a collaborare con l’Europa sulle nuove regole sull’intelligenza artificiale

Author: Wired

Stiamo dialogando e sosteniamo i vertici della Commissione europea per iniziare a studiare come applicare il regolamento dell’Ai Act perché crediamo che i governi democratici debbano regolamentare questo settore, per fare in modo che vada a vantaggio di tutti e che non ci siano abusi”. Lo ha detto Anna Makanju, a capo delle politiche pubbliche di OpenAi, la società che ha sviluppato ChatGpt, nel corso della sua audizione presso il comitato di vigilanza sull’attività di documentazione della Camera dei deputati sul tema dell’intelligenza artificiale. “So che ci sono ancora dei temi aperti e bisognerà trovare una sintesi tra le diverse proposte, quelle di Presidenza, Parlamento e Consiglio, ma l’ultima bozza approvata dal Parlamento europeo sembra andare nella direzione giusta, soprattutto per quello che riguarda il rafforzamento delle misure di trasparenza nell’interazione con l’intelligenza artificiale: dobbiamo capire come applicarla nelle diverse funzioni dell’Ai, ma ci stiamo lavorando. Abbiamo anche avuto un interessante scambio sugli spazi di sperimentazione normativa: saremo pronti a farne uso e di questo abbiamo parlato la scorsa settimana con il commissario pertinente”, ha aggiunto la manager di OpenAi.

Sicurezza e trasparenza

Gli incontri hanno lo scopo di studiare l’applicazione dell’Ai all’interno della documentazione parlamentare a supporto dell’attività del Parlamento. Il comitato, presieduto dalla vicepresidente della Camera, Anna Ascani, in questa seduta focalizzato il suo interesse sulle potenzialità e le criticità dell’intelligenza artificiale nei confronti del grande pubblico. Alcune delle domande rivolte dal comitato alla rappresentante di OpenAi sono state generate proprio da ChatGpt4: al centro dei quesiti la sicurezza dei dati personali l’attendibilità delle fonti da cui vengono generate le risposte e la prevenzione delle fake news e contenuti pericolosi:

La nostra priorità è la sicurezza – ha spiegato Anna Makanju – e per questo, con un lavoro di sei mesi, abbiamo implementato lavorato sul modello Gpt4 per renderlo molto più sicuro del precedente: solo allora lo abbiamo lanciato sul mercato. Contiene una serie di mitigazioni che impediscono la creazione di contenuti nocivi e per metterle a punto ci siamo avvalsi di esperti esterni. L’addestramento non avviene sui dati del cliente, che vengono salvati solo per 30 giorni, proprio per garantire che non ci siano abusi o che vengano utilizzati per truffe o scopi commerciali. Tra l’altro, gli stessi utenti possono disabilitare la funzione ‘addestramento’ e così essere certi che le informazioni personali non vengano in alcun modo utilizzate per generare le risposte del modello”.

La manager ha aggiunto: “Abbiamo implementato dei database su fonti scientifiche per garantire che il modello possa disporre di una base certa di conoscenza più valida possibile. Anche ciò che proviene da internet viene filtrato dal nostro staff di addestramento, quindi non è un semplice copia-incolla: il nostro modello apprende, quindi man mano che impara capisce il significato dell’informazione e in un certo modo è come se la comprenda. Per prevenire la disinformazione, abbiamo impedito la creazione di chatbot con contenuti politici, questo per evitare che vi sia un proliferare di informazioni non corrette o di parte. Stiamo poi avorano anche sulle filigrane delle immagini per impedire alle persone di generare foto problematiche, pornografiche o violente. Le risposte, ovviamente, non sono ancora del tutto affidabili: le informazioni, per non essere suscettibili di quelle che definiamo ‘allucinazioni’, richiedono l’aumento di interazioni da parte degli utenti. Saranno mostrate le fonti per permettere alle persone di verificare di persona l’attendibilità delle informazioni. Serviranno però campagne di alfabetizzazione sull’intelligenza artificiale, per educare le persone ad utilizzare questi strumenti: noi produciamo un modello, poi bisogna lavorare con chi lo distribuisce”.

L’Ai farà perdere posti di lavoro?

Altro tema affrontato durante l’audizione, l’impatto della nuova tecnologia sul mondo del lavoro, su quanto l’automazione porterà alla perdita di posti di lavoro. “Questo strumento – ha spiegato ancora Anna Makanju – elimina compiti e mansioni, ma non per forza posti di lavoro: sicuramente ci sarà un impatto su una serie di professioni ma questo non significa che venga meno quella forza lavoro. In fase di addestramento pensavamo che, per esempio, l’ingegneria del software non fosse più necessaria, ma poi ci siamo resi conto che il tempo che prima si impiegava a redigere i codici sarebbe poi stato impegnato dagli stessi ingegneri informatici per revisionarli. L’Ai può essere utilizzata per preparare un testo legale, ma poi, come è stato dimostrato recentemente negli Stati Uniti, ci deve essere una revisione del prodotto finale. Probabilmente alcuni posti di lavoro verranno eliminati ma molti ne saranno creati e saranno professioni nuove, più creative, più strategiche”.

Categorie
Economia Tecnologia

Per l’ad di Microsoft Satya Nadella sull’intelligenza artificiale non si torna più indietro

Author: Wired

Sam Altman, ad di OpenAi, ritiene che questo succederà. È d’accordo con lui sul fatto che raggiungeremo il traguardo della superintelligenza, o intelligenza artificiale generale (Agi)?

Sono molto più concentrato sui benefici per tutti noi. Sono ossessionato dal fatto che la rivoluzione industriale non ha toccato le parti del mondo in cui sono cresciuto, se non molto dopo. Per questo, sto cercando qualcosa che possa essere ancora più grande, e che faccia davvero quello che la rivoluzione industriale ha fatto per l’Occidente per tutti nel mondo. Quindi non sono assolutamente preoccupato che l’Agi si manifesti, o si manifesti tra poco. Sarebbe ottimo, no? Questo significherebbe che 8 miliardi di persone avranno abbondanza. Sarebbe un mondo fantastico in cui vivere.

Qual è la vostra tabella di marcia per realizzare questa visione? In questo momento state integrando l’intelligenza artificiale nel vostro motore di ricerca, nei vostri database, nei vostri strumenti per gli sviluppatori. Non è quello che usano le persone più svantaggiate.

Ottima osservazione. Cominciamo a vedere quali sono le frontiere per gli sviluppatori. Una delle cose che mi entusiasma molto è riportare la gioia dello sviluppo. Microsoft è nata come azienda che realizzava strumenti, soprattutto strumenti per sviluppatori. Ma nel corso degli anni, a causa della complessità dello sviluppo dei software, l’attenzione di cui gli sviluppatori godevano un tempo sono stati stravolti. Quello che abbiamo fatto per il settore con Copilot è bellissimo da vedere. Ora i 100 milioni di sviluppatori che sono su GitHub possono divertirsi. Man mano che l’Ai trasforma il processo di programmazione, però, questi [numeri, ndr] possono crescere di 10 volte: 100 milioni possono diventare un miliardo. Quando si invia una richiesta a un Llm, lo si sta programmando.

Chiunque abbia uno smartphone e sappia parlare può diventare uno sviluppatore?

Assolutamente sì. Non è necessario scrivere una formula o imparare la sintassi o l’algebra. Se si dice che il prompting è solo sviluppo, le curve di apprendimento miglioreranno. Ora si può anche chiedere: “Che cos’è lo sviluppo?” Sarà democratizzato.

Per quanto riguarda l’accesso a tutti gli 8 miliardi di persone, a gennaio sono stato in India e ho assistito a una dimostrazione straordinaria. Il governo ha un programma chiamato Digital Public Goods (“beni pubblici digitali”), e uno di questi è un sistema di sintesi vocale. Nella dimostrazione, un agricoltore stava usando il sistema per chiedere informazioni su un programma di sovvenzioni di cui aveva sentito al telegiornale. Il sistema gli ha fornito informazioni sul programma e sui moduli da compilare per fare domanda. Normalmente, il sistema gli avrebbe detto dove trovare i moduli. Ma uno sviluppatore in India aveva addestrato Gpt su tutti i documenti del governo indiano, quindi il sistema li ha compilati automaticamente al suo posto, in una lingua diversa. Una cosa creata qualche mese prima sulla costa occidentale degli Stati Uniti è arrivata a uno sviluppatore in India, che ha poi realizzato una mod che permette a un agricoltore dell’India rurale di sfruttare i vantaggi di quella tecnologia con un bot WhatsApp su un telefono cellulare. Il mio sogno è che ognuno degli 8 miliardi di persone sulla Terra possa avere un tutor Ai, un medico Ai, un programmatore, e magari un consulente!

Categorie
Tecnologia

Ci stiamo concentrando sui rischi sbagliati dell’intelligenza artificiale?

Author: Wired

Capiamo che le persone siano preoccupate per come [l’intelligenza artificiale, ndr] può cambiare il nostro modo di vivere. Anche noi lo siamo – ha dichiarato il capo di OpenAi Sam Altman al Congresso statunitense all’inizio di maggio. Se le cose con questa tecnologia andassero male, possono andare molto male“.

Le voci fuori dal coro

Non tutti però condividono questo scenario apocalittico quando si parla di Ai. Yann LeCun, che ha vinto il premio Turing con Hinton e Bengio per lo sviluppo del deep learning, è critico nei confronti del pessimismo che circonda i progressi dell’Ai, e ad oggi non ha firmato l’appello del Center for Ai Safety.

Alcuni ricercatori nel settore che si occupano delle questioni legate all’Ai che hanno un effetto più immediato, tra cui i pregiudizi e la disinformazione, ritengono che l’improvviso allarmismo sui rischi teorici a lungo termine rappresenti una distrazione dai problemi attuali.

Meredith Whittaker, presidente della Signal Foundation e cofondatrice e consulente capo dell’Ai Now Institute, un’associazione senza scopo di lucro che si occupa di Ai e della concentrazione di potere nell’industria tecnologica, dichiara che molte delle persone che hanno firmato la lettera probabilmente ritengono che i rischi siano concreti, ma che l’allarme “non coglie i problemi reali“.

Whittaker aggiunge che il dibattito sulla minaccia esistenziale posta dall’intelligenza artificiale presenta le nuove capacità della tecnologia come il risultato di un naturale progresso scientifico piuttosto che come riflesso di prodotti modellati dagli interessi e dal controllo delle grandi aziende: “Questo discorso è una sorta di tentativo di cancellare il lavoro che è già stato fatto per identificare i danni concreti e le limitazioni molto significative di questi sistemi“.

Margaret Mitchell, ricercatrice di Hugging Face che ha lasciato Google nel 2021 dopo la diffusione di una ricerca che evidenziava le carenze e i rischi dei modelli linguistici di grandi dimensioni, sostiene che sia importante riflettere sulle ramificazioni a lungo termine dell’Ai. Ma aggiunge che i firmatari della dichiarazione del Center for Ai Safety non sembrano essersi concentrati su come dare priorità alle conseguenze nocive più immediate, come l’uso dell’Ai a scopo di sorveglianza. “Questa dichiarazione, così come è stata scritta e per le motivazioni alla base, mi fa pensare che sarà più dannosa che utile per capire a cosa dare priorità”, spiega.

Questo articolo è comparso originariamente su Wired US.