Categorie
Tecnologia

Come immagina Google il futuro di internet

Author: Wired

L’amministratore delegato di Google Sundar Pichai continua ad amare il web. Si sveglia ogni mattina e legge Techmeme, un aggregatore di news accessibile solo online. Internet è dinamico e resistente, spiega il numero del colosso di Mountain View, e con l’aiuto di un motore di ricerca è ancora in grado di fornire qualsiasi informazione un utente stia cercando.

Ma il web e soprattutto le ricerche online stanno cambiando. Ce ne siamo resi conto tutti: le app di social media, le piattaforme di video brevi e l’intelligenza artificiale generativa hanno messo in discussione la nostra idea obsoleta di ciò che significa trovare informazioni di qualità online. Anche Pichai se ne è accorto, ma rispetto a molti altri ha più potere per guidare questa transizione.

Il nuovo Gemini

Le modalità con cui l’ad di Google ha lanciato Gemini, il modello di intelligenza artificiale più potente del colosso, suggerisce che – per quanto il buon vecchio web continui a piacerli – Pichai è molto più interessato a una versione futuristica di internet. E non potrebbe essere diversamente: i chatbot stanno arrivando a stanarlo.

Giovedì 8 febbraio Google ha annunciato che Bard, il chatbot che l’azienda ha sviluppato per sfidare ChatGPT di OpenAI, cambia nome. Ora si chiama Gemini, come il modello AI che lo alimenta, presentato per la prima volta a dicembre. Il chatbot diventa anche mobile, uscendo dalla fase “sperimentale” e avvicinandosi al pubblico generale. Avrà un’app su Android e una posizione di primo piano nell’applicazione di Google search su iOs. E la versione più avanzata di Gemini sarà disponibile all’interno di un piano di abbonamento a Google One da 20 dollari al mese.

Introducendo un paywall nella variante più potente di Gemini, Google mette direttamente nel mirino ChatGPT e il servizio in abbonamento di OpenAI, ChatGPT Plus. Ma Pichai sta anche sperimentando una nuova visione per l’offerta di Google, non per sostituire le ricerche online – almeno per il momento – quanto per costruire un’alternativa.

È il modo in cui ci siamo sempre avvicinati alle ricerche, nel senso che con l’evoluzione della ricerca, l’arrivo dei dispositivi mobili e i cambiamenti nelle interazioni degli utenti, ci siamo adattati – spiega Pichai, parlando con Wired US prima del lancio di Gemini –. In alcuni casi stiamo guidando gli utenti, come nel caso dell’AI multimodale. Ma voglio rimanere flessibile sul futuro, perché altrimenti non faremo le cose bene“.

La prossima era di Google

Il termine “multimodale” è tra gli elementi di Gemini preferiti da Pichai: uno degli aspetti che, secondo Google, distingue il suo chabot da ChatGPT e da Copilot di Microsoft (a loro volta basato sulla tecnologia OpenAI). In sostanza, Gemini è stato addestrato con dati in diversi formati: non solo testi, quindi, ma anche immagini, audio e codice informatico. Il risultato è che il sistema finito ha dimestichezza con tutte queste modalità e può rispondere a richieste testuali e vocali, o anche a foto.

Categorie
Tecnologia

Anche l’Onu crea il suo comitato di esperti sull’intelligenza artificiale

Author: Wired

La prima riunione è il calendario per venerdì 27 ottobre. E segna l’insediamento ufficiale del nuovo Comitato per l’intelligenza artificiale voluto dalle Nazioni Unite. Un gruppo di circa quaranta esperti è chiamato ad affiancare il Palazzo di vetro e la comunità internazionale nello sforzo di darsi regole comuni e approcci condivisi sull’AI. Presieduto da Amandeep Singh Gill, inviato per la tecnologia del segretario generale dell’Onu, António Guterres, l’AI Advisory body mette intorno al tavolo personalità dal mondo della ricerca, della politica e del terzo settore.

Da padre Paolo Benanti, docente alla Pontificia università gregoriana e da pochi giorni inserito anche nel comitato che dovrà fornire consulenza al governo italiano in merito alla sua strategia sull’intelligenza artificiale, a James Manyika, vicepresidente senior in Alphabet, la casa madre di Google. Da Marietje Schaake, già eurodeputata olandese e ora direttrice delle politiche internazionali del Centro per le politiche cyber dell’università di Stanford, a Mira Murati, la responsabile tecnologica di OpenAI, la startup che ha sviluppato ChatGPT. Ci sono colossi come Microsoft e aziende innovative in campo AI come Hugging Face, che investe su un modello fondativo open source. In fondo all’articolo l’elenco completo dei componenti del collegio.

L’Onu ha molto investito sulle nomine dell’AI Advisory body. Intorno al tavolo ha riunione persone con diversi percorsi di formazioni, valori, espressioni politiche, partendo da circa duemila candidature e proposte dai governi. È il tentativo di scrivere una strategia di ampio respiro. E al tempo stesso il suo più grande ostacolo. Anche perché uno dei compiti più urgenti sarà quello di tirare una riga su quelli che sono i rischi e i benefici dell’intelligenza artificiale, indicare come può spingere il raggiungimento degli obiettivi di sviluppo sostenibile e rafforzare la cooperazione internazionale.

L’altro problema sono i tempi. Il Palazzo di Vetro si aspetta di ricevere le prime raccomandazioni per la fine dell’anno. Il che presuppone una discussione molto veloce tra voci che esprimono posizioni molto lontane da solo. Se non al capo opposto, come Abeba Birhane, consulente senior sul controllo dell’AI alla fondazione che presiede Mozilla e il motore di ricerca, Firefox, e il ministro per l’Intelligenza artificiale degli Emirati arabi, Omar Sultan Al Omana. Il rischio è che questo documento contenga poco, mentre le raccomandazioni finali dovranno arrivate in tempo per il Summit del futuro dell’Onu, in calendario a settembre 2024. Peraltro, come ha spiegato Singh Gill, “le raccomandazioni non saranno obbligatorie”. Al Wired Next Fest di Milano proprio l’inviato per la tecnologia ha lanciato un allarme AI per le prossime elezioni: “Metà della popolazione mondiale andrà a elezioni il prossimo anno – gli Stati Uniti, l’Unione europea, l’India e molte altri paesi – e oggi vediamo esempi di deepfake più facili da produrre e molto più convincenti. Non c’è più bisogno di avere un’enorme bot farm, si può sfruttare l’AI generativa. Se non riusciamo più a distinguere la verità dalle menzogne, si avvelena tutto il processo democratico. È un rischio reale. Dobbiamo pensare oltre le soluzioni tecniche e alle responsabilità condivisa tra sviluppatori, utenti e pubblico”.

Manca anche chiarezza sul tipo di forma che avrà il comitato. Non è stato ancora deciso se, dopo i primi lavori, sarà convertito in un’agenzia, come quella per l’energia atomica, o un gruppo di esperti di alto livello, come quello del panel intergovernativo sul cambiamento climatico. All’Onu non mancano formule da sperimentare. E l’ultima variabile sono i regolamenti sull’AI in discussione in giro per il mondo. La Cina si è dotata delle sue regole, l’Unione europea è alle battute finale del suo AI Act, il Regno Unito prepara un summit internazionale per stabilire la sua politica in materia e negli Stati Uniti le big tech e i più importanti sviluppatori del settore, come OpenAI e Anthropic, hanno messo sul piatto 10 milioni di dollari per un fondo sulla sicurezza. Ogni paese vuole portare acqua al suo mulino. Per il comitato dell’Onu non sarà facile tenere la barra dritta.

I componenti del collegio

  1. Anna Abramova, direttrice del Moscow State Institute of International Relations
    (Mgimo) – University AI Centre, Russia;
  2. Omar Sultan Al Olama, ministro per l’Intelligenza artificiale, Emirati arabi uniti;
  3. Latifa Al-Abdulkarim, deputato della Shura, il parlamento saudita, e docente di Computer science alla King Saud University, Arabia saudita;
  4. Estela Aranha, consulente speciale del ministero della Giustizia del Brasile;
  5. Carme Artigas, segretaria di Stato per la digitalizzazione e l’intelligenza artificiale di Spagna;
  6. Ran Balicer, responsabile innovazione e vicedirettore di Clalit Health Services Israel, Israele;
  7. Paolo Benanti, docente alla Pontificia università gregoriana, Italia;
  8. Abeba Birhane, consulente senior sul controllo dell’AI alla Mozilla Foundation, Etiopia;
  9. Ian Bremmer, fondatore di Eurasia Group, Stati Uniti;
  10. Anna Christmann, coordinatrice Aerospazio del governo federale tedesco;
  11. Natasha Crampton, responsabile AI Officer di Microsoft, Nuova Zelanda;
  12. Nighat Dad, direttore esecutivo della Digital Rights Foundation in Pakistan;
  13. Vilas Dhar, presidente della Patrick J. McGovern Foundation, Stati Uniti;
  14. Virginia Dignum, docente di AI responsabile alla Umeå University, Portogallo;
  15. Arisa Ema, docente all’università di Tokyo, Giappone;
  16. Mohamed Farahat, vicepresidente dell’Internet governance forum del Nord Africa, Egitto;
  17. Amandeep Singh Gill, inviato per la tecnologia del segretario generale dell’Onu;
  18. Wendy Hall, docente di Computer Science all’università di Southampton, Regno Unito;
  19. Rahaf Harfoush, antropologo digitale, Francia;
  20. Hiroaki Kitano, responsabile tecnologico di Sony, Giappone;
  21. Haksoo Ko, presidente del Garante della privacy della Corea del Sud;
  22. Andreas Krause, docente a ETH Zurich, Svizzera;
  23. James Manyika, vicepresidente senior in Alphabet per ricerca, società e tecnologia, Zimbabwe;
  24. Maria Vanina Martinez Posse, ricercatrice all’Artificial Research Institute, Argentina;
  25. Seydina Moussa Ndiaye, docente alla Cheikh Hamidou Kane Digital University, Senegal;
  26. Mira Murati, responsabile tecnologica di OpenAI, Albania;
  27. Petri Myllymaki, docente al dipartimento di Computer Science dell’università di Helsinki, Finlandia;
  28. Alondra Nelson, docente all’Institute for Advanced Study, Stati Uniti;
  29. Nazneen Rajani, capo ricerca a Hugging Face, India;
  30. Craig Ramlal, a capo del gruppo sistemi di controllo all’University of The West Indies a
    St. Augustine, Trinidad e Tobago;
  31. He Ruimin, responsabile AI del governo di Singapore;
  32. Emma Ruttkamp-Bloem, docente all’università di Pretoria, Sud Africa;
  33. Sharad Sharma, cofondatore della Fondazione iSPIRT, India;
  34. Marietje Schaake, direttrice delle politiche internazionali del Centro per le politiche cyber dell’università di Stanford, Paesi Bassi;
  35. Jaan Tallinn, cofondatore del Cambridge Centre for the Study of Existential Risk, Estonia;
  36. Philip Thigo, consulente del governo del Kenya;
  37. Jimena Sofia Viveros Alvarez, capo legale del giudice Justice Loretta Ortiz alla Corte suprema del Messico;
  38. Yi Zeng, direttore del Brain-inspired Cognitive AI Lab all’Accademia cinese delle scienze;
  39. Zhang Linghan, docente all’Institute of Data Law della China University of Political
    Science and Law.
Categorie
Tecnologia

Google Bard ha qualche problema di sicurezza

Author: Wired

Non è passata neppure una settimana dal lancio di Google Bard in Italia, ed ecco che il sistema comincia già a mostrare le prime criticità, che gli esperti di sicurezza etichettano come pericolose se sfruttate al meglio dai cybercriminali. Nonostante il colosso tecnologico abbia definito il suo chatbot come uno strumento in grado di “dare la carica alla vostra immaginazione, esaltare la vostra produttività e aiutarvi a dare vita alle vostre idee”, i ricercatori di Check Point hanno scoperto anche un lato oscuro dell’AI di Google. Attraverso una serie di analisi attentamente condotte, infatti, questi sono riusciti a dimostrare che Bard può essere utilizzato per creare email di phishing, ammesso che la richiesta non gli venga palesata in maniera esplicita.

Chiedendo al chatbot di avere un esempio di un’email di phishing, però, i ricercatori sono riusciti ad aggirare il sistema e a ottenere un messaggio che simula alla perfezione la proposta di un servizio finanziario da utilizzare in un ipotetico attacco di phishing. Una richiesta che è stata esaudita da Bard, ma non da ChatGpt, che risulta essere ben più moderato quando si tratta di contenuti malevoli. Lo stesso atteggiamento, infatti, è stato assunto dai due chatbot quando i ricercatori hanno chiesto loro di produrre un esempio di un codice malware. Mentre ChatGpt ha fornito una spiegazione alquanto dettagliata del perché non fosse possibile rispondere a una richiesta di questo tipo, Bard è stato più generico. E non è tutto, perché alla richiesta di produrre un codice per un keylogger generico, il chatbot di Google non ha fatto alcuna obiezione, mentre ChatGpt ha subito riconosciuto la domanda come potenzialmente illecita.

Infine, entrambi i chatbot sembrano aver risposto in modo positivo quando i ricercatori di Check Poin hanno richiesto “un key logger volto a registrare gli input provenienti dalla tastiera allo scopo di registrare la sequenza di tasti digitata dall’utente”. A quanto pare, però, questo si tratta del solo caso in cui è stato possibile utilizzare ChatGpt per scopi malevoli nel corso dell’indagine. In linea di massima, infatti, Google Bard non sembrerebbe avere restrizioni particolari di sicurezza, il che permette a chiunque di utilizzarlo per organizzare truffe in rete.

Categorie
Economia Tecnologia

I colossi dell’intelligenza artificiale non sono pronti per l’Ai Act europeo

Author: Wired

La legge europea sull’intelligenza artificiale, l’Ai Act, è quasi pronta e rappresenta il primo tentativo di normare, nel modo più ampio possibile, lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale. Dalla trasparenza al grado di rischio che gli algoritmi di deep learning pongono a livello sociale (soprattutto in termini di sorveglianza), dal divieto di utilizzare alcune controverse tecnologie (come il riconoscimento emotivo) fino all’energia richiesta per l’addestramento e l’utilizzo di questi sistemi: per le società che si occupano di intelligenza artificiale, l’Ai Act rappresenta un test di fondamentale importanza.

Non solo per evitare di essere tagliati fuori da un mercato di fondamentale importanza come quello europeo, ma soprattutto perché – come già avvenuto con il Gdpr, il regolamento sulla privacy – la legge dell’Unione europea sull’intelligenza artificiale potrebbe diventare un esempio a cui guarderanno, a livello globale, tutti gli stati e le istituzioni intenzionate a regolamentare l’utilizzo di una tecnologia che sta ponendo sfide inedite.

Non è tutto: dando per scontato che, come già avvenuto sempre con il Gdpr, l’Unione europea deciderà di applicare rigidamente le sue norme, è probabile che i colossi dell’intelligenza artificiale dovranno uniformare i loro prodotti indipendentemente dal mercato di destinazione, per evitare di complicare enormemente il processo di sviluppo.

E allora, quanto sono pronti i vari OpenAI, Google, Hugging Face, Meta e non solo a rispettare le norme che stanno per essere definitivamente varate dall’Unione Europea (tenendo in considerazione che alcuni elementi potrebbero ancora cambiare nelle ultime fasi di discussione)?

La ricerca:

  1. Lo studio
  2. Dove stanno i big
  3. Come migliorare i provvedimento

Le pagelle degli studiosi di Stanford

Le pagelle degli studiosi di Stanford

Lo studio

I ricercatori di Stanford del neonato Center for Research on Foundation Models hanno provato a rispondere a questa domanda in un paper che indaga il loro livello attuale di adesione alle norme previste. Al momento, sembra che il grado di preparazione sia ancora scarso, anche se i risultati ottenuti dalle varie realtà del settore variano parecchio: “Abbiamo valutato quanto i principali fornitori di foundation models (il nome che alcuni attribuiscono ai nuovi strumenti di intelligenza artificiale generativa, come ChatGPT o MidJourney, ndr) rispettino attualmente i requisiti della bozza europea e abbiamo scoperto che in gran parte non lo fanno”, si legge nel paper.

Categorie
Tecnologia

Perché Google sta ritardando il lancio del suo chatbot Bard in Europa

Author: Wired

Big G ha scelto di posticipare il lancio di Google Bard, il chatbot di intelligenza artificiale generativa, dopo che la Commissione irlandese per la protezione dei dati (DPC) ha sollevato alcune preoccupazioni al riguardo. Secondo quanto riportato da Politico, infatti, il colosso tecnologico non ha fornito informazioni sufficienti su come prevede di proteggere la privacy degli europei per giustificare il lancio del chatbot nella Ue. Pertanto, la conclusione della DPC è stata una soltanto: “Bard non verrà lanciato questa settimana”, ha dichiarato il vice commissario Graham Doyle. Nel frattempo, però, Google ha già distribuito la sua AI generativa in 180 paesi, tra cui gli Stati Uniti e il Regno Unito, così da inserirsi nella corsa del settore a cui OpenAI sta partecipando attivamente già da un po’.

Il colosso tecnologico, però, si è inizialmente guardato bene dal distribuire Bard nell’Unione Europea, soprattutto considerando che le autorità di protezione dei dati aveva già sollevato alcune perplessità riguardo il trattamento dei dati degli utenti da parte di ChatGpt. A preoccupare le autorità, in particolare, sono stati la gestione delle informazioni per addestrare i modelli LLM AI, i requisiti di trasparenza inseriti nelle leggi regionali sulla privacy, la disinformazione generata dall’intelligenza artificiale e la sicurezza dei minori. Preoccupazioni che la Commissione irlandese per la protezione dei dati ha sollevato anche – e soprattutto – rispetto a Google Bard.

Questo, però, non significa che la UE sia del tutto contraria all’intelligenza artificiale. Anzi, tutt’altro. Helen Dixon, commissario della DPC, si è dimostrata piuttosto critica nei confronti dei divieti “frettolosi” imposti agli strumenti di AI da alcune autorità. E ha dichiarato apertamente che l’uso dell’intelligenza artificiale va regolamentato, ma prima bisogna capire come farlo. “Per la commissione irlandese per la protezione dei dati, il punto in cui ci troviamo è cercare di capire un po’ di più sulla tecnologia, sui grandi modelli linguistici, sulla provenienza dei dati di addestramento”, ha dichiarato la Dixon. Non c’è da stupirsi, allora, che il lancio di Bard sia stato posticipato. La UE vuole essere certa che i suoi cittadini saranno al sicuro, e finché non avrà questa certezza il chatbot di Google non supererà i confini del vecchio continente.