Categorie
Tecnologia

Google ha lanciato Bard, il chatbot per sfidare ChatGpt

Author: Wired

Quando si parla di intelligenza artificiale (Ai) o di ricerca sul web, Google non è abituata a rincorrere. Oggi però il colosso si è dato da fare per dimostrare di essere ancora sul pezzo con il lancio di Bard, un chatbot pensato per competere con il popolarissimo ChatGPT.

Esattamente come ChatGpt, Bard sarà in grado di rispondere alle domande degli utenti e discutere di una gamma pressoché sconfinata di argomenti, con un livello di comprensione che a tratti sembra paragonabile a quello umano. Google ha mostrato a Wired US diversi esempi di risposte fornite dal chatbot, tra cui quella a una richiesta di attività per un bambino interessato al bowling e a una domanda su venti libri da leggere quest’anno.

Un altro aspetto che accumuna Bard e ChatGpt è la tendenza, in alcuni frangenti, a inventarsi fatti e comportarsi in modo strano. Google ha diffuso un esempio in cui il chatbot ha sbagliato il nome di una pianta, che era stata suggerita per la coltivazione in casa. “Bard è un esperimento iniziale, non è perfetto e ogni tanto sbaglierà“, spiega Eli Collins, vicepresidente della ricerca di Google, che lavora su Bard.

Google riporta di aver messo Bard a disposizione di un piccolo numero di tester: da oggi chiunque negli Stati Uniti e nel Regno Unito potrà richiedere l’accesso al sistema. 

Capacità e limiti

Il bot sarà raggiungibile tramite una pagina web dedicata, separata dalla normale interfaccia di ricerca di Google, offrirà tre risposte per ogni domanda, una scelta finalizzata a far capire agli utenti che il sistema genera risposte nel giro di qualche secondo e che a volte può commettere errori.

Sotto ogni risposta di Bard, Google consiglierà anche una query relativa a una ricerca web convenzionale. Per aiutare la società a perfezionare il suo chatbot, gli utenti potranno inoltre fornire un feedback alle risposte cliccando su un pollice in su o in giù e avranno la possibilità di inserire un commento più dettagliato.

Google riferisce che i primi utenti di Bard lo hanno trovato utile per generare idee o testi. Collins ammette che c’è anche chi è riuscito a far comportare il chatbot in modo non appropriato, senza però specificare quali restrizioni Google abbia cercato di imporre al sistema.

Categorie
Tecnologia

ChatGpt, prepariamoci all’invasione dei suoi cloni

Author: Wired

ChatGpt potrà anche essere l’algoritmo più famoso – e potenzialmente prezioso – del momento, ma le tecniche di intelligenza artificiale (Ai) utilizzate da OpenAi per realizzare il suo chatbot conversazionale non sono né uniche né tantomeno segrete. Diversi progetti rivali e cloni open source potrebbero presto rendere disponibili bot simili, che chiunque potrà copiare e riutilizzare. 

Stability Ai, una startup che ha già sviluppato e un’avanzata tecnologia open source per la generazione di immagini, sta lavorando a un concorrente diretto di ChatGpt: “Siamo a pochi mesi dal lancio“, dichiara Emad Mostaque, amministratore delegato della società. Anche altre startup concorrenti, tra cui Anthropic, Cohere e Ai21, stanno lavorando a chatbot analoghi a quello di OpenAi.

L’imminente ondata di sofisticati chatbot in arrivo renderà la tecnologia più variegata e abbordabile per i consumatori, oltre che più accessibile alle aziende, agli sviluppatori e a chi fa ricerca sull’Ai. Questo, a sua volta, potrebbe accelerare la corsa alla monetizzazione degli strumenti di intelligenza artificiale in grado di generare immagini, programmare e scrivere testi. Aziende affermate come Microsoft e Slack stanno già incorporando ChatGpt nei loro prodotti e molte startup si stanno affrettando a sfruttare la nuova Api di ChatGpt dedicata agli sviluppatori. Tuttavia, una più ampia disponibilità della tecnologia potrebbe anche complicare la ricerca finalizzata a prevedere e mitigare i rischi associati.

I timori dei ricercatori

La capacità di ChatGpt di fornire risposte convincenti a un’ampia gamma di domande fa sì che a volte il servizio si inventi fatti di sana pianta o assuma posizioni problematiche. Il chatbot inoltre può anche aiutare a svolgere attività dannose come la produzione di malware o campagne di spam e disinformazione. Per questi motivi, alcuni ricercatori hanno chiesto di rallentare la diffusione di sistemi simili per valutarne i rischi: “Non è necessario fermare la ricerca, ma certamente potremmo regolamentarne la diffusione su larga scala – afferma Gary Marcus, un esperto di Ai che ha cercato di attirare l’attenzione su problematiche come la disinformazione generata da questi sistemi –. Potremmo, per esempio, richiedere studi su centomila persone prima di rendere accessibili queste tecnologie a cento milioni di persone“.

Una maggiore disponibilità dei sistemi come ChatGpt e il lancio di versioni simili open source renderebbero più difficile limitare la ricerca o applicazioni più ampie. La competizione tra grandi e piccole aziende per integrare ChatGpt o creare alternative di pari livello tradisce poi una scarsa propensione al rallentamento, e sembra invece incentivare la proliferazione della tecnologia. La scorsa settimana, LLaMA, un modello di intelligenza artificiale sviluppato da Meta e simile a quello alla base di ChatGpt, è trapelato online dopo essere stato condiviso con alcuni ricercatori accademici. Il sistema potrebbe essere utilizzato come elemento costitutivo per la creazione di chatbot e il suo lancio ha scatenato la perplessità di chi teme che i modelli linguistici di grandi dimensioni e i chatbot costruiti su di essi, come ChatGpt, possano essere utilizzati per generare disinformazione oppure per automatizzare violazioni della sicurezza informatica. Alcuni esperti sostengono che l’allarmismo sia eccessivo, mentre altri suggeriscono che rendere la tecnologia più trasparente aiuterà a contrastare gli abusi. Meta ha rifiutato di rispondere alle domande di Wired US sulla fuga di notizie, ma la portavoce della società Ashley Gabriel ha rilasciato una dichiarazione rassicurante: “Sebbene il modello non sia accessibile a tutti e alcuni abbiano cercato di aggirare il processo di approvazione, riteniamo che l’attuale strategia di rilascio ci consenta di bilanciare responsabilità e trasparenza”. 

OpenAi fa scuola

ChatGpt è costruito sulla base di una tecnologia di generazione di testo disponibile da diversi anni, che è in grado di imitare la capacità di scrittura umana estrapolando gli schemi contenuti in enormi quantità di testi, in gran parte raccolti dal web. OpenAi ha intuito che l’aggiunta di un’interfaccia chat – oltre che di un ulteriore livello di apprendimento automatico basato sui feedback alle risposte del bot forniti dagli esseri umani – avrebbe potuto rendere la tecnologia più efficace e articolata.

Categorie
Tecnologia

Intelligenza artificiale, i 10 punti ancora irrisolti del regolamento europeo

Author: Wired

Dopo anni di negoziati, entro il 2023 è prevista l’approvazione del regolamento dell’Unione europea sull’intelligenza artificiale. Ma su molti punti dell’Artificial Intelligence Act (Ai Act) ancora non c’è accordo. Il Consiglio europeo ha idee opposte a quelle del Parlamento sul riconoscimento facciale in tempo reale, mentre all’interno dello stesso Europarlamento ci sono posizioni contrastanti sui sistemi di identificazione delle emozioni. Wired ha parlato con Brando Benifei, correlatore dell’Ai Act per l’Europarlamento e con Patrick Breyer, europarlamentare del Partito pirata tedesco, per identificare i 10 punti più controversi, che saranno al centro dei negoziati del trilogo, ovvero le riunioni tra Parlamento, Consiglio e Commissione che dovranno trovare una mediazione.

  1. Riconoscimento facciale in tempo reale
  2. Analisi delle emozioni
  3. Poligrafi e macchine della verità
  4. Verifica di impatto sui diritti fondamentali
  5. Il social scoring
  6. Punteggio sociale “di fatto”
  7. Repressione di una società libera e diversa
  8. Rischio disinformazione con Chat GPT
  9. Rischio di sostenere regimi che usano l’Ai per la repressione
  10. Rischio di fermare un gran numero di innocenti (soprattutto tra migranti e minoranze)

Brando Benifei, Mattia Fantinati e Max Schrems al Wired Next Fest 2022 di FirenzeBrando Benifei al Wired Next Fest 2022: “Tra un anno avremo le regole sull’intelligenza artificiale”

Nell’incontro di Firenze si è parlato con Max Schrems e Mattia Fantinati dello stato dell’arte della legislazione europea in fatto di digitale e intelligenza artificiale

Riconoscimento facciale in tempo reale

I sistemi di sorveglianza che identificano le persone mentre camminano in luoghi pubblici, come quando salgono le scale di una metropolitana sono proibiti nel regolamento proposto dalla Commissione. Ma sono previste eccezioni – come la lotta al terrorismo e la ricerca di persone scomparse – che permetterebbero a un giudice di attivarli. “Nel sistema informativo degli stati in qualsiasi momento ci sono centinaia di migliaia di ricercati per terrorismo – sottolinea Breyer -. Probabilmente i tribunali ordinerebbero di identificarli e questo significherebbe sorveglianza di massa biometrica permanente”. “Non abbiamo dati che il riconoscimento facciale in tempo reale aiuti la sicurezza conferma Benifei -, ma sappiamo, invece, che crea problemi di sicurezza”. Il grosso dei gruppi politici dell’Europarlamento sono stati convinti dalla campagna Reclaim your face per un bando totale alla sorveglianza di massa, ma il Consiglio ha aggiunto la “sicurezza nazionaletra le eccezioni per il suo utilizzo.

Analisi delle emozioni 

L’analisi biometrica dei movimenti per l’identificazione delle emozioni non è vietata dall’Ai Act, ma solo qualificata come tecnologia “a rischio”. Significa che i sistemi che usano questa applicazione dell’intelligenza artificiale sono elencati in un allegato al regolamento (che dovrà essere periodicamente aggiornato) e sono soggetti a specifiche procedure di certificazione. “Per me il riconoscimento delle emozioni andrebbe vietato con la sola eccezione della ricerca medica – afferma Benifei – ma il Parlamento non ha una maggioranza su questo, perché liberali di destra (Ppe) e i conservatori, sono contrari a vietare queste tecnologie ritenendo che possano essere utilizzate per la sicurezza”.

article imageLa “macchina della verità” alle frontiere di cui l’Europa preferiva non parlare

Poligrafi e macchine della verità

Tra le tecnologie di analisi biometrica delle emozioni considerate a rischio ma non vietati dall’Ai Act ci sono prodotti che promettono di identificare chi si muove in modo pericoloso nella folla (ad esempio, chi lascia un bagaglio incustodito), e ci sono poligrafi, ovvero vere e proprie macchine della verità. Tra queste, il sistema Iborder: basato su un algoritmo che analizza i micro-movimenti del viso è stato sperimentato ai confini dell’Europa per identificare sospetti terroristi. Nonostante abbia fornito risposte sbagliate a chi lo ha testato, la sua sperimentazione è stata descritta come una storia di successo dalla Commissione europea.

Verifica di impatto sui diritti fondamentali

Oggetto di accesa discussione tra il Parlamento e il Consiglio è la verifica di impatto per gli utilizzatori di sistemi di intelligenza artificiale qualificati come ad alto rischio. “Attualmente il regolamento prevede solo una certificazione per i produttori di questi sistemi. Si tratta di auto-verifiche su qualità dei dati e rischi di discriminazione, su cui vigilerà l’autorità nazionale di ogni paese membro e l’ufficio europeo sull’intelligenza artificiale spiega Benifei -. Noi vogliamo inserire un ulteriore obbligo di controllo da parte degli utilizzatori, ovvero pubbliche amministrazioni e imprese che utilizzano questi sistemi, ma il Consiglio non prevede questo meccanismo”.

article imageAnche in Italia il Garante della privacy blocca la più controversa startup di riconoscimento facciale al mondo

L’Autorità multa Clearview AI con una sanzione da 20 milioni di euro e il divieto di raccogliere foto di persone italiane e cancellare quelli esistenti. Ad accendere il faro sulla società anche l’inchiesta condotta da Wired Italia

Il social scoring

L’utilizzo dell’intelligenza artificiale per dare punteggi alle persone in base al loro comportamento è vietato nella proposta di regolamento, con un’eccezione per le piccole imprese contenuta nella bozza approvata dal Consiglio, ma cancellata in quella di mediazione redatta dalla commissione Giustizia dell’Europarlamento: “È opportuno esentare i sistemi di Ai destinati alla valutazione dell’affidabilità creditizia e del merito creditizio nei casi in cui sono messi in servizio da microimprese o piccole imprese per uso proprio”. 

Punteggio sociale di fatto

C’è il rischio che le tecnologie di riconoscimento delle emozioni vengano utilizzate per controllare minoranze nelle stazioni ferroviarie e alle frontiere con i migranti, nelle carceri e anche negli eventi sportivi – aggiunge Breyer -. In tutti i luoghi dove queste tecnologie sono state già testate”. L’esponente del Partito pirata sottolinea poi che “molte delle telecamere utilizzate per la registrazione e il monitoraggio dei movimenti sono tecnicamente in grado di riconoscere i volti, soprattutto se si acquistano da produttori cinesi”. Inoltre, “sarebbe molto facile per le forze dell’ordine attivare la funzione del riconoscimento facciale”, anche se non permesso dalla normativa europea. 

Repressione di una società libera e diversa

Nonostante il divieto di dare crediti sociali, per Breyer esiste il pericolo che le informazioni provenienti da sistemi di riconoscimento delle emozioni finalizzate a ragioni di sicurezza, possano essere utilizzate per identificare chi si comporta in modo diverso dalla massa e costituire, di fatto, un sistema di credito sociale che reprime chi voglia adottare comportamenti diversi da quelli della massa, come partecipare a manifestazioni politiche. 

Rischio disinformazione con ChatGPT

Nella proposta di compromesso dell’Europarlamento, i contenuti generati dall’intelligenza artificiale che sembrano scritti da una persona, così come le immagini deepfake – sono soggetti a obbligo di trasparenza verso gli utenti. Si obbliga a informare gli utenti, durante il momento dell’esposizione al contenuto (chatbot o deepfake) che è stato generato da un algoritmo. “Questo obbligo di trasparenza è previsto nella bozza dell’Europarlamento ma non nella posizione del Consiglio“, sottolinea Benifei.

fumettiLe risposte di ChatGPT e delle altre intelligenze artificiali sono piene di pregiudizi

Da Google Translate a Character.AI fino a Chatsonic, i sistemi di deep learning addestrati per conversare non riescono fare a meno di ripetere i più classici stereotipi, nonostante le premure dei programmatori

Rischio di sostenere regimi che usano l’Ai per la repressione

L’Iran ha annunciato di utilizzare il riconoscimento facciale per segnalare le donne che non indossano correttamente il velo, la Russia per identificare le persone da arrestare. L’utilizzo di questa tecnologia su larga scala in Europa, porterebbe le aziende a rafforzarne la produzione e questo avrebbe un impatto anche su regimi autoritari fuori dal continente”, avverte Breyer.

Rischio di fermare un gran numero di innocenti

Anche se le tecnologie di riconoscimento facciale raggiungono un’accuratezza del 99%, quando sono applicate su migliaia di persone, rischiano di identificare un numero enorme di cittadini innocenti – ricorda Breyer -. Uno studio dell’Istituto nazionale per la standardizzazione della tecnologia degli Stati Uniti ha rilevato la scarsa attendibilità di molte tecnologie di riconoscimento facciale biometrico sul mercato quando si tratta di persone non bianche – evidenzia l’europarlamentare -, probabilmente perché i dati di addestramento dell’algoritmo erano viziati: queste tecnologie tendono a essere utilizzate in zone con alti tassi di criminalità, dove vivono principalmente minoranze etniche”.

Categorie
Economia Tecnologia

ChatGPT scatena lo scontro tra Microsoft e Google

Author: Wired

In questi giorni in cui si parla di ChatGPT, il bot conversazionale sviluppato da OpenAI, c’è una frase che da dieci anni è diventata il mantra di tutti i lobbisti delle big tech per frenare le critiche sul loro strapotere e sul rischio per le scelte dei consumatori in presenza di un oligopolio di pochi attori sul mercato: on the internet competition is one click away. La frase, attribuita al co-fondatore di Google Larry Page, è stata ridimensionata da molti commentatori che hanno sostenuto come negli anni in realtà, fuori dal cerchio dei Gafam (Google, Apple, Facebook, Amazon, Microsoft) non ci fosse speranza di entrare sul mercato.

Se, però, i legislatori di tutto il mondo, e quelli europei in primis, col tempo hanno iniziato a frenare le acquisizioni di promettenti startup da parte di queste aziende e di limitarne i poteri con norme come il Digital Markets Act, da poco approvato, bisogna riconoscere che Page non aveva tutti i torti, e la sua Google se ne sta accorgendo.

bing chatgptBing con ChatGpt è inaccurato, permaloso e aggressivo

Il bot conversazionale può manifestare comportamenti che mettono a disagio gli utenti: ecco alcuni divertenti esempi

La fine del monopolio di Google?

Per chi fosse appena tornato da un viaggio di un mese al Polo Nord, senza connessione, qui tutto è cambiato, incluse le nostre certezze sul dove andare per fare una ricerca online. L’anno prossimo infatti potremmo non dire più googlare, ma bingare. Sì perché nel frattempo la comparsa di ChatGPT ha sparigliato le carte dimostrando poteri inaspettati come quello di resuscitare i morti, come solo le migliori soap opera e i film horror potevano fare finora. Si è tornato a parlare di Bing, il motore di ricerca di Microsoft. 

Il 7 febbraio, infatti, l’ad Satya Nadella ha annunciato l’integrazione di ChatGPT in Bing, possibile grazie al fatto che Microsoft è tra i grandi finanziatori della startup OpenAI, dietro il successo di ChatGPT. Anche il browser di Microsoft, Edge, godrà di tale integrazione, favorendo la competizione nei confronti del rivale Chrome di Google. Edge potrà, per esempio, riassumere pagine web e documenti in pochi istanti.

Anche se non è ancora disponibile per l’uso, c’è infatti una waiting list a cui ci si può iscrivere, si può già farsi un’idea di come funzionerà cliccando su uno degli esempi proposti come demo. In uno di questi si chiede a Bing un consiglio per un menu di tre portate per sei persone vegetariane. Il motore di ricerca presenta dunque una serie di risultati “classici” con a fianco una finestra in cui BingAI, alimentato da ChatGPT, dialoga e presenta una risposta corredata di fonti. 

Categorie
Tecnologia

Intelligenza artificiale, le big tech stanno ignorando i campanelli d’allarme dei chatbot

Author: Wired

Mentre si investono sempre più soldi in modelli linguistici di grandi dimensioni, i nuovi sistemi “chiusi” stanno invertendo la tendenza osservata nel corso della storia del linguaggio naturale. Tradizionalmente, i ricercatori hanno sempre condiviso i dettagli su aspetti come i set di dati di addestramento, i pesi assegnati ai parametri e il codice, allo scopo di favorire la riproducibilità dei risultati.

Sappiamo sempre meno su quali database sono stati addestrati i sistemi o come sono stati valutati, soprattutto per i sistemi più potenti che vengono lanciati come prodotti“, sottolinea Alex Tamkin, uno studente di dottorato della Stanford University, il cui lavoro si concentra sui modelli linguistici di grandi dimensioni.

Tamkin attribuisce alle persone che si occupano di etica dell’Ai il merito di aver sensibilizzato l’opinione pubblica su quanto sia pericoloso muoversi troppo velocemente e compromettere i sistemi quando la tecnologia viene distribuita a miliardi di persone. Senza il lavoro fatto negli ultimi anni, le cose potrebbero andare molto peggio.

Nell’autunno del 2020, Tamkin ha organizzato un simposio con il direttore delle politiche di OpenAi Miles Brundage sull’impatto sociale dei modelli linguistici di grandi dimensioni. Il gruppo interdisciplinare ha sottolineato la necessità che i leader del settore stabiliscano standard etici e adottino misure come valutazioni dei pregiudizi prima dell’implementazione e l’esclusione di determinati casi d’uso.

Tamkin ritiene che i servizi esterni di revisione dell’Ai debbano crescere di pari passo alle aziende che sviluppano la tecnologia, dal momento le valutazioni interne tendono a non essere all’altezza, e che i metodi di valutazione partecipativa che coinvolgono i membri della comunità e le altre parti interessate abbiano un grande potenziale per aumentare la partecipazione democratica nella creazione dei modelli di Ai.

Cambiare il focus 

Merve Hickok, direttrice di ricerca presso il centro di etica e politica dell’Ai della University of Michigan, sostiene che non è sufficiente cercare di convincere le aziende a mettere da parte o smorzare il clamore che circonda l’Ai, a regolamentarsi e ad adottare principi etici. Proteggere i diritti umani significa superare il dibattito sull’etica e passare a quello sulla legalità.

Sia Hickok che Hanna stanno seguendo il processo che quest’anno porterà l’Unione europea a finalizzare la sua legge sull’Ai per vedere come l’iniziativa tratterà i modelli che generano testo e immagini. Hickok ha dichiarato di essere particolarmente interessata a capire come i legislatori europei la responsabilità per i danni causati dai modelli creati da aziende come Google, Microsoft e OpenAi.

Alcune cose devono essere imposte perché abbiamo visto più e più volte che se non questo non succede, le aziende continuano a distruggere le cose e a far prevalere il profitto sui diritti esulle comunità“, spiega Hickok.

Mentre a Bruxelles viene ultimata la misurala, la posta in gioco rimane alta. Un giorno dopo l’errore della demo di Bard, il crollo delle azioni di Alphabet è costato circa 100 miliardi di dollari alla società. “È la prima volta che vedo una distruzione di ricchezza di questa portata a causa di un errore di un modello linguistico – dice Hanna, che però non è ottimista sulla possibilità che la vicenda convinca l’azienda a rallentare la sua corsa al lancio del sistema – Secondo me non trarranno alcun insegnamento“.

Questo articolo è apparso originariamente su Wired US.