Categorie
Tecnologia

L’intelligenza artificiale, chi guadagna dalla paura

E se dietro tutti i timori esistenziali legati alle nuove generazioni di algoritmi, come ChatGPT, ci fosse solo una sofisticata strategia di marketing?

Author: Wired

Nel mondo del marketing, poche strategie sono più vincenti di individuare un problema (magari inesistente) e poi convincere tutti di essere gli unici in grado di risolverlo. Partendo da questo presupposto, è legittimo porsi una domanda: e se dietro l’ormai nota lettera del Future of Life Institute – incentrata, in mezzo a qualche timore concreto, sui fantascientifici rischi esistenziali posti dall’avvento della super intelligenza artificiale – non si nascondesse altro che un’elaborata strategia di marketing? Anzi, uno scontro tra due strategie con obiettivi differenti e contrastanti?

Riavvolgiamo un attimo il nastro. Il 24 febbraio scorso, Sam Altman (fondatore di OpenAi, società produttrice di ChatGPT) pubblica un post, intitolato Prepararsi all’intelligenza artificiale generale e oltre, in cui sviluppa alcune riflessioni relative alla Agi (artificial general intelligence), termine con cui si indicano, per definizione, gli algoritmi di livello almeno pari a quello dell’essere umano (uno scenario per il momento inesistente e che non è affatto chiaro se e quando si realizzerà).

Lo scenario:

  1. La lettera
  2. Chi c’è dietro al Future of Life Institute
  3. Chi critica l’appello
  4. I veri “rischi”

La lettera

La lettera di Altman è di conseguenza piena di riferimenti a un’intelligenza artificiale “capace di accelerare in autonomia il suo stesso progresso” e che potrebbe “provocare grandi cambiamenti in maniera sorprendentemente rapida”. Ancora: “La Agi porterà con sé anche dei seri rischi in termini di abusi, gravi incidenti e sconvolgimenti sociali. Considerato però quanto è vasto il potenziale positivo della Agi, non pensiamo che sia possibile o desiderabile che la società ne interrompa per sempre lo sviluppo”.

Sam Altman parla insomma dell’intelligenza artificiale generale, che gli stessi ingegneri della sua società ambiscono a progettare, come se fosse un’entità che potrebbe sorgere da sé, che rischia di sfuggire al controllo umano, che pone colossali rischi ma possiede anche enormi potenzialità positive. Uno strumento, insomma, da trattare con estrema cautela.

Lette con la lente del marketing, le dichiarazioni di Altman si potrebbero interpretare così: solo noi di OpenAI siamo in grado di sviluppare in maniera sicura e tenere a bada questa tecnologia spaventosamente potente. Una narrazione perfetta per una startup sempre in cerca di nuovi finanziamenti e che, soprattutto, ambisce a porsi come simbolo stesso dell’inarrestabile avanzata dell’intelligenza artificiale.

Chi c’è dietro al Future of Life Institute

Passa circa un mese, ed ecco che il comunicato di OpenAi – che sottolineava quanto non fosse comunque “desiderabile che la società interrompa lo sviliuppo dell’intelligenza artificiale” – ottiene una sorta di risposta: la lettera aperta del Future of Life Institute con cui un migliaio di imprenditori, qualche scienziato informatico e celebrità di vario tipo, chiedono proprio ciò che Altman aveva esplicitamente rifiutato: interrompere per almeno sei mesi lo sviluppo di intelligenze artificiali più potenti di GPT-4.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.