Categorie
Tecnologia

A che punto siamo con l’intelligenza artificiale generale?

Author: Andrea Daniele Signorelli Wired

Potrebbero mancare pochi anni o non essere nemmeno all’orizzonte: perché prima di tutto bisogna capire di che cosa parliamo, quando parliamo di Agi

“Arriverà tra noi in tempi molto rapidi e poi dovremo capire che cosa possiamo fare. Sempre che si possa fare qualcosa”. Il soggetto di questa frase è la superintelligenza artificiale, mentre le funeste previsioni sul suo impatto – come forse avrete immaginato – appartengono al solito Elon Musk, uno che non si è mai tirato indietro quando c’è da prefigurare l’imminente avvento di una Ai in stile Skynet capace di mettere a rischio l’umanità.

Questa volta, però, qualcuno ha deciso di mettere mano alla tastiera e rispondere alle esternazioni del fondatore di Tesla e SpaceX: “Elon Musk non sa di cosa parla quando parla di Ai”, ha scritto su Twitter Jerome Pesenti, uno dei massimi esperti mondiali di intelligenza artificiale oggi a capo del dipartimento Ai di Facebook. “Non esiste nulla di simile alla Agi [Artificial General Intelligence, Ndr] e non siamo neanche lontanamente vicini a raggiungere l’intelligenza umana” (Elon Musk ha replicato: “Facebook fa schifo”). 

Chi ha ragione? Siamo davvero a pochi anni di distanza da un’intelligenza artificiale di livello umano oppure non è nemmeno ancora in vista? A dare retta ai pesi massimi del deep learning (il sistema algoritmico oggi sinonimo di Ai) ha ragione Pesenti: Andrew Ng (co-fondatore di Google Brain), Yann LeCun (vincitore del Turing Award 2018 oggi a Facebook), Yoshua Bengio (anche lui Turing Award 2018) e altri pionieri del settore sono concordi che l’avvento di una Agi – un’intelligenza artificiale dalle caratteristiche simili, pari o superiori a quelle umane – sia oggi fantascienza.

I progressi della Ai

Eppure non si possono negare i costanti e impressionanti progressi che sono alla base di queste fantasie sci-fi. Oltre agli arcinoti esempi di AlphaGo (algoritmo capace di sconfiggere il campione mondiale di un gioco incredibilmente complesso come il Go) e di AlphaZero (che dopo sole nove ore di allenamento è diventato imbattibile a scacchi), possiamo guardare anche al recente Gpt-3: il più vasto algoritmo di deep learning mai creato (175 miliardi di parametri, l’equivalente digitale delle nostre sinapsi) e addestrato con 450 gigabytes di dati all’interno dei quali è contenuta anche l’intera Wikipedia in lingua inglese.

Progettato per scrivere testi di ogni tipo, Gpt-3 è stato in grado di redigere un lungo editoriale dal sapore filosofico per il Guardian in cui – citando Matrix, la Rivoluzione industriale e lanciandosi in sottili ragionamenti logici – ha smontato la tesi secondo cui dovremmo temere le intelligenze artificiali troppo intelligenti. Eppure, neanche in questo caso ci troviamo di fronte a una vera dimostrazione di intelligenza. Per farla molto breve (qui trovate una spiegazione più dettagliata), Gpt-3 non ha la più pallida idea di cosa sta scrivendo e si limita a calcolare statisticamente – in seguito a un lunghissimo addestramento con milioni di dati – quale frase abbia più probabilità di completare logicamente quella precedente. Più che vera intelligenza, siamo di fronte a un’immensa opera di taglia e cuci probabilistico. 

Tutto questo, comunque, non significa che nei più avanzati laboratori del mondo non si stia realmente cercando di progettare l’intelligenza artificiale generale. Tutt’altro: sono in particolare due i centri di ricerca che lavorano esplicitamente a questo obiettivo: la londinese DeepMind (che ha progettato AlphaZero) e la statunitense OpenAi (ideatrice di Gpt-3 e finanziata inizialmente proprio da Elon Musk), che punta a diventare la prima società a costruire una macchina in grado di ragionare come un essere umano.

Proprio OpenAi ha recentemente messo a segno un altro colpo. Un algoritmo ricavato da Gpt-3 ha dimostrato di poter disegnare correttamente delle immagini basandosi solo sulla loro descrizione testuale. Il sistema in questione è stato battezzato Dall-E (che immagino sia un gioco di parole tra Wall-E e Dalì) ed è addestrato sfruttando centinaia di migliaia di coppie testo-immagine pescate su internet. A furia di associarli, Dall-E ha imparato a ricavare autonomamente delle immagini dai soli testi. Per esempio, chiedendo all’algoritmo di creare l’immagine cartoon di un pinguino che indossa un cappello blu, dei guanti rossi, una maglietta verde e dei pantaloni gialli il risultato è quello che vedete qui sotto.

Ancor più impressionante è il fatto che Dall-E sia stato in grado di creare dal nulla immagini in cui difficilmente può essere incappato online, com’è il caso di queste sedie a forma di avocado. Per quanto alla base ci sia sempre e comunque un modello statistico, è difficile continuare ad affermare che un’intelligenza artificiale non ha la più pallida idea di che cosa sta facendo e non comprende il significato delle parole quando è in grado di tradurle con impressionante precisione in immagini. Siamo di fronte a un altro passo che ci porta nella direzione di una vera intelligenza artificiale?

Che cos’è la Agi?

Prima di tutto, bisognerebbe capire che cosa si intende per intelligenza artificiale generale. La definizione più letterale è anche quella che ha più probabilità di essere un domani realizzata: una Ai in grado di risolvere molteplici problemi senza bisogno – come avviene con gli algoritmi di oggi – di essere riprogrammata da capo. In grado quindi di giocare a scacchi, scrivere testi, riconoscere immagini e altro ancora passando senza difficoltà da un compito all’altro; un po’ come facciamo noi esseri umani, che non abbiamo bisogno di imparare nuovamente da zero ogni volta che ci apprestiamo a portare a termine un obiettivo differente. “Da questo punto di vista, la Agi non sarebbe più intelligente di AlphaGo o Gpt-3, dovrebbe soltanto avere un maggior numero di abilità”, si legge sulla Mit Tech Review. “Sarebbe una Ai di carattere generale, non una vera e propria intelligenza”. 

Più spesso (almeno nell’immaginario collettivo) parlare di Agi significa però fare riferimento all’intelligenza artificiale di livello umano e quindi – come spiegò un altro pioniere del calibro di Marvin Minsky già negli anni ’70 – “una macchina in grado di leggere Shakespeare, fare politica, raccontare una barzelletta, litigare”. Non solo, “a quel punto, la macchina potrà insegnare a se stessa a una velocità incredibile. Nel giro di pochi mesi avrà raggiunto un livello geniale e pochi mesi dopo i suoi poteri saranno incalcolabili”.

Lasciando perdere il fatto che Minsky immaginava che ciò sarebbe avvenuto entro la fine degli anni ’70 (in confronto, Musk è un realista), questa definizione è la stessa che ancora oggi si sente ripetere quando si parla di superintelligenza artificiale, di singolarità tecnologica, dell’ultima invenzione dell’essere umano e di tutte le altre aspettative più o meno messianiche nei confronti di questa innovazione. Se poi si aggiunge al mix anche la possibilità che le Ai sviluppino una coscienza (un concetto ancor più sfuggente di quello già complesso di intelligenza), ecco che si rischia definitivamente di deragliare dai binari scientifici e finire dritti tra le braccia della fantascienza.

Quando arriveremo alla Agi?

Per capire a che punto siamo sulla strada dell’intelligenza artificiale generale è allora meglio limitarsi al senso più letterale del termine, quello che indica la conquista di una Ai di carattere generale, in grado di passare da un compito all’altro senza difficoltà. L’importanza di uno strumento del genere (e quanto queste Ai potrebbero così trasformarsi in fondamentali assistenti) si può intuire pensando a come sarebbe diverso il mondo se dovessimo utilizzare un computer per scrivere, un altro per inviare email, un terzo per navigare sul web, un quarto per vedere i film e così via, invece di avere a disposizione un computer general-purpose in grado di passare da una mansione all’altra senza alcuna difficoltà.

Come si arriva fin qui? Le strade oggi in fase di sperimentazione sono parecchie. Tra queste vale la pena di citare il metodo noto come transfer learning, che punta a permettere alle Ai di conservare parte dell’addestramento utilizzato per un compito anche per l’apprendimento di uno nuovo (un po’ come noi utilizziamo parte dell’addestramento per imparare ad andare in bicicletta anche per imparare ad andare in motorino). Ancor più affascinante è la possibilità che le Ai non si limitino più a scovare correlazioni, come fanno oggi, ma imparino a comprendere il rapporto di causa effetto (ovvero non limitarsi a capire che c’è una relazione tra le nuvole e la pioggia, ma che una è la causa dell’altra), dotandosi così di quel “buon senso” che – sempre secondo Yoshua Bengio – è fondamentale per fare qualche passo in avanti (in questo campo siamo però ancora agli inizi).

Se e quando si arriverà a un’intelligenza artificiale di carattere generale, avremo a quel punto compiuto un altro piccolo passo verso l’intelligenza artificiale di tipo umano. Già solo messa in questi termini, si capisce quanto la strada sia ancora lunga e come le previsioni di Elon Musk – tanto per cambiare – siano destinate a non realizzarsi. Potrebbero volerci decenni affinché una Ai riesca a superare il test di Turing, potrebbe non avvenire mai. Peggio ancora: potrebbe essere una delusione. Secondo un filosofo come John Searle, le macchine potranno ragionare a livello umano solo quando saremo in grado di fornire loro una configurazione materiale di complessità equivalente a quella del nostro cervello. Un obiettivo che non solo è ancora lontanissimo, ma che smonta qualunque possibilità di creare una macchina superiore all’uomo. E a quel punto, addio sogni di singolarità tecnologica e superintelligenza.

Leggi anche

Potrebbe interessarti anche

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.