Categorie
Tecnologia

Intelligenza artificiale, le big tech stanno ignorando i campanelli d’allarme dei chatbot

Da tempo i ricercatori sottolineano i rischi etici legati ai sistemi di intelligenza artificale in grado di generare testi, che però non stanno frenando la corsa al profitto del settore

Author: Wired

Mentre si investono sempre più soldi in modelli linguistici di grandi dimensioni, i nuovi sistemi “chiusi” stanno invertendo la tendenza osservata nel corso della storia del linguaggio naturale. Tradizionalmente, i ricercatori hanno sempre condiviso i dettagli su aspetti come i set di dati di addestramento, i pesi assegnati ai parametri e il codice, allo scopo di favorire la riproducibilità dei risultati.

Sappiamo sempre meno su quali database sono stati addestrati i sistemi o come sono stati valutati, soprattutto per i sistemi più potenti che vengono lanciati come prodotti“, sottolinea Alex Tamkin, uno studente di dottorato della Stanford University, il cui lavoro si concentra sui modelli linguistici di grandi dimensioni.

Tamkin attribuisce alle persone che si occupano di etica dell’Ai il merito di aver sensibilizzato l’opinione pubblica su quanto sia pericoloso muoversi troppo velocemente e compromettere i sistemi quando la tecnologia viene distribuita a miliardi di persone. Senza il lavoro fatto negli ultimi anni, le cose potrebbero andare molto peggio.

Nell’autunno del 2020, Tamkin ha organizzato un simposio con il direttore delle politiche di OpenAi Miles Brundage sull’impatto sociale dei modelli linguistici di grandi dimensioni. Il gruppo interdisciplinare ha sottolineato la necessità che i leader del settore stabiliscano standard etici e adottino misure come valutazioni dei pregiudizi prima dell’implementazione e l’esclusione di determinati casi d’uso.

Tamkin ritiene che i servizi esterni di revisione dell’Ai debbano crescere di pari passo alle aziende che sviluppano la tecnologia, dal momento le valutazioni interne tendono a non essere all’altezza, e che i metodi di valutazione partecipativa che coinvolgono i membri della comunità e le altre parti interessate abbiano un grande potenziale per aumentare la partecipazione democratica nella creazione dei modelli di Ai.

Cambiare il focus 

Merve Hickok, direttrice di ricerca presso il centro di etica e politica dell’Ai della University of Michigan, sostiene che non è sufficiente cercare di convincere le aziende a mettere da parte o smorzare il clamore che circonda l’Ai, a regolamentarsi e ad adottare principi etici. Proteggere i diritti umani significa superare il dibattito sull’etica e passare a quello sulla legalità.

Sia Hickok che Hanna stanno seguendo il processo che quest’anno porterà l’Unione europea a finalizzare la sua legge sull’Ai per vedere come l’iniziativa tratterà i modelli che generano testo e immagini. Hickok ha dichiarato di essere particolarmente interessata a capire come i legislatori europei la responsabilità per i danni causati dai modelli creati da aziende come Google, Microsoft e OpenAi.

Alcune cose devono essere imposte perché abbiamo visto più e più volte che se non questo non succede, le aziende continuano a distruggere le cose e a far prevalere il profitto sui diritti esulle comunità“, spiega Hickok.

Mentre a Bruxelles viene ultimata la misurala, la posta in gioco rimane alta. Un giorno dopo l’errore della demo di Bard, il crollo delle azioni di Alphabet è costato circa 100 miliardi di dollari alla società. “È la prima volta che vedo una distruzione di ricchezza di questa portata a causa di un errore di un modello linguistico – dice Hanna, che però non è ottimista sulla possibilità che la vicenda convinca l’azienda a rallentare la sua corsa al lancio del sistema – Secondo me non trarranno alcun insegnamento“.

Questo articolo è apparso originariamente su Wired US. 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.