Categorie
Tecnologia

È colpa dell’intelligenza artificiale se non riusciamo a contattare gli alieni?

Author: Wired

Oppure, se preferite, eccone un’altra versione, riformulata in termini più moderni (il paradosso è stato enunciato nel 1950): con 10 miliardi di (presunti) pianeti abitabili soltanto nella Via Lattea e miliardi di galassie nell’Universo, è mai possibile che la vita si sia sviluppata solo su questo insulso puntino roccioso che è la Terra? Se così fosse, per dirla con Carl Sagan, “sarebbe davvero un enorme spreco di spazio”. Ma allora, tornando a Fermi, se non siamo soli, come la matematica ci porterebbe a pensare, dove sono tutti quanti?

La formula degli alieni

Il più accreditato tentativo di quantificare il possibile numero di civiltà extraterrestri esistenti e in grado di comunicare con noi – ovvero abitanti della Via Lattea – si deve all’astronomo statunitense Frank Drake, che nel 1961 formulò l’equazione che porta il suo nome:

N = R* × fp × ne × fl × fi × fc × L

Come si vede, l’equazione contiene sette fattori: il tasso medio annuo di formazione di nuove stelle nella Via Lattea; la frazione di stelle che possiedono pianeti; il numero medio di pianeti che si trovano nella cosiddetta zona abitabile, cioè alla distanza giusta dalla propria stella, quella che consentirebbe la presenza di acqua liquida sulla loro superficie; la frazione di questi pianeti su cui effettivamente si è sviluppata la vita; la frazione di pianeti che ospitano vita intelligente; la frazione di pianeti in cui la vita intelligente è abbastanza evoluta da riuscire a comunicare con noialtri; la durata temporale di esistenza di queste civiltà. Alcuni di questi fattori, al momento, sono abbastanza noti: nella Via Lattea, per esempio, nasce in media una nuova stella ogni anno, e vi risiedono centinaia di miliardi di pianeti, un quinto dei quali si troverebbero nella zona abitabile. Sugli altri fattori, invece, brancoliamo ancora nel buio, e molte delle assunzioni avanzate finora sono semplici speculazioni o poco più: per questo, il valore di N è compreso in una forbice ancora molto allargata, che va da uno a diecimila. Certo è che se il numero fosse davvero dell’ordine delle decine di migliaia, la questione posta da Fermi suonerebbe ancora più paradossale: dove sono tutti quanti? Perché non siamo riusciti a comunicare con loro?

Il filtro dell’intelligenza artificiale

“L’ipotesi del grande filtro” spiega Garrett “è in definitiva una proposta di soluzione del paradosso di Fermi. Credo che l’arrivo delle Asi [acronimo di artificial superintelligence, cioè super-intelligenza artificiale, una forma di Ai non solo in grado di superare l’intelligenza umana – qualsiasi cosa significhi – ma anche di essere svincolata dalla curva di apprendimento degli esseri umani, nda] potrebbe proprio rappresentare uno tipo di filtro di questo genere. I recenti progressi nell’intelligenza artificiale, che potrebbero portare allo sviluppo di un’Asi, potrebbero ‘intersecarsi’ con una fase critica nello sviluppo di una civiltà, ossia il passaggio da specie monoplanetaria a specie multiplanetaria”. Che significa intersecarsi? Nella visione dello scienziato – che, per inciso, non è solo la sua: anche Stephen Hawking, tra gli altri, già nel 2014 aveva espresso il timore che l’intelligenza artificiale potrebbe portare alla fine della nostra civiltà – le super-intelligenze artificiali potrebbero progredire molto più rapidamente rispetto alle nostre capacità di controllarle e rispetto agli avanzamenti tecnologici che ci potrebbero permettere di esplorare e popolare altri pianeti. “Il rischio che qualcosa vada storto” scrive lo scienziato “è enorme e potrebbe portare alla caduta delle civiltà biologiche (ma anche di quelle basate sull’intelligenza artificiale) prima che abbiano la possibilità di diventare multiplanetarie. Ad esempio, se le nazioni si affidassero sempre di più a sistemi di intelligenza artificiale autonomi in competizione tra loro, le capacità militari potrebbero essere usate per uccidere e distruggere su una scala senza precedenti. Il che porterebbe alla distruzione della nostra civiltà, compresi gli stessi sistemi di intelligenza artificiale”.

Uno scenario kamikaze e apocalittico, insomma. A corredo del quale lo scienziato fornisce anche alcuni numeri: secondo le sue stime, la longevità tipica di una civiltà tecnologica sarebbe inferiore ai 100 anni, ossia il tempo intercorso tra il momento in cui siamo riusciti a ricevere e trasmettere messaggi nello Spazio (gli anni sessanta del secolo scorso) e il (presunto) momento di arrivo delle super-intelligenze artificiali (gli anni quaranta di questo secolo). Una finestra temporale decisamente piccola se confrontata con quelle cosmologiche e che ridimensiona drasticamente le possibili soluzioni dell’equazione di Drake, portando praticamente a zero il numero di civiltà con cui è possibile comunicare.

Speculazioni a parte, comunque, il lavoro di Garrett vuole essere più che altro un monito per uno sviluppo sostenibile e coscienzioso delle intelligenze artificiali: “Questa ricerca” conclude lo scienziato “non è semplicemente un avvertimento di una potenziale catastrofe. È più che altro un campanello d’allarme affinché l’umanità stabilisca quadri normativi solidi per regolare lo sviluppo dell’intelligenza artificiale e il suo utilizzo, specie in ambito militare. Siamo già pericolosamente vicini al precipizio in cui le armi autonome operano oltre i confini etici e aggirano il diritto internazionale. In un mondo del genere, cedere il potere ai sistemi di intelligenza artificiale per ottenere un vantaggio tattico potrebbe inavvertitamente innescare una catena di eventi altamente distruttivi in rapida escalation. In un batter d’occhio, l’intelligenza collettiva del nostro pianeta potrebbe essere annientata”. E non è quello che speriamo.

Author: Wired

Oppure, se preferite, eccone un’altra versione, riformulata in termini più moderni (il paradosso è stato enunciato nel 1950): con 10 miliardi di (presunti) pianeti abitabili soltanto nella Via Lattea e miliardi di galassie nell’Universo, è mai possibile che la vita si sia sviluppata solo su questo insulso puntino roccioso che è la Terra? Se così fosse, per dirla con Carl Sagan, “sarebbe davvero un enorme spreco di spazio”. Ma allora, tornando a Fermi, se non siamo soli, come la matematica ci porterebbe a pensare, dove sono tutti quanti?

La formula degli alieni

Il più accreditato tentativo di quantificare il possibile numero di civiltà extraterrestri esistenti e in grado di comunicare con noi – ovvero abitanti della Via Lattea – si deve all’astronomo statunitense Frank Drake, che nel 1961 formulò l’equazione che porta il suo nome:

N = R* × fp × ne × fl × fi × fc × L

Come si vede, l’equazione contiene sette fattori: il tasso medio annuo di formazione di nuove stelle nella Via Lattea; la frazione di stelle che possiedono pianeti; il numero medio di pianeti che si trovano nella cosiddetta zona abitabile, cioè alla distanza giusta dalla propria stella, quella che consentirebbe la presenza di acqua liquida sulla loro superficie; la frazione di questi pianeti su cui effettivamente si è sviluppata la vita; la frazione di pianeti che ospitano vita intelligente; la frazione di pianeti in cui la vita intelligente è abbastanza evoluta da riuscire a comunicare con noialtri; la durata temporale di esistenza di queste civiltà. Alcuni di questi fattori, al momento, sono abbastanza noti: nella Via Lattea, per esempio, nasce in media una nuova stella ogni anno, e vi risiedono centinaia di miliardi di pianeti, un quinto dei quali si troverebbero nella zona abitabile. Sugli altri fattori, invece, brancoliamo ancora nel buio, e molte delle assunzioni avanzate finora sono semplici speculazioni o poco più: per questo, il valore di N è compreso in una forbice ancora molto allargata, che va da uno a diecimila. Certo è che se il numero fosse davvero dell’ordine delle decine di migliaia, la questione posta da Fermi suonerebbe ancora più paradossale: dove sono tutti quanti? Perché non siamo riusciti a comunicare con loro?

Il filtro dell’intelligenza artificiale

“L’ipotesi del grande filtro” spiega Garrett “è in definitiva una proposta di soluzione del paradosso di Fermi. Credo che l’arrivo delle Asi [acronimo di artificial superintelligence, cioè super-intelligenza artificiale, una forma di Ai non solo in grado di superare l’intelligenza umana – qualsiasi cosa significhi – ma anche di essere svincolata dalla curva di apprendimento degli esseri umani, nda] potrebbe proprio rappresentare uno tipo di filtro di questo genere. I recenti progressi nell’intelligenza artificiale, che potrebbero portare allo sviluppo di un’Asi, potrebbero ‘intersecarsi’ con una fase critica nello sviluppo di una civiltà, ossia il passaggio da specie monoplanetaria a specie multiplanetaria”. Che significa intersecarsi? Nella visione dello scienziato – che, per inciso, non è solo la sua: anche Stephen Hawking, tra gli altri, già nel 2014 aveva espresso il timore che l’intelligenza artificiale potrebbe portare alla fine della nostra civiltà – le super-intelligenze artificiali potrebbero progredire molto più rapidamente rispetto alle nostre capacità di controllarle e rispetto agli avanzamenti tecnologici che ci potrebbero permettere di esplorare e popolare altri pianeti. “Il rischio che qualcosa vada storto” scrive lo scienziato “è enorme e potrebbe portare alla caduta delle civiltà biologiche (ma anche di quelle basate sull’intelligenza artificiale) prima che abbiano la possibilità di diventare multiplanetarie. Ad esempio, se le nazioni si affidassero sempre di più a sistemi di intelligenza artificiale autonomi in competizione tra loro, le capacità militari potrebbero essere usate per uccidere e distruggere su una scala senza precedenti. Il che porterebbe alla distruzione della nostra civiltà, compresi gli stessi sistemi di intelligenza artificiale”.

Uno scenario kamikaze e apocalittico, insomma. A corredo del quale lo scienziato fornisce anche alcuni numeri: secondo le sue stime, la longevità tipica di una civiltà tecnologica sarebbe inferiore ai 100 anni, ossia il tempo intercorso tra il momento in cui siamo riusciti a ricevere e trasmettere messaggi nello Spazio (gli anni sessanta del secolo scorso) e il (presunto) momento di arrivo delle super-intelligenze artificiali (gli anni quaranta di questo secolo). Una finestra temporale decisamente piccola se confrontata con quelle cosmologiche e che ridimensiona drasticamente le possibili soluzioni dell’equazione di Drake, portando praticamente a zero il numero di civiltà con cui è possibile comunicare.

Speculazioni a parte, comunque, il lavoro di Garrett vuole essere più che altro un monito per uno sviluppo sostenibile e coscienzioso delle intelligenze artificiali: “Questa ricerca” conclude lo scienziato “non è semplicemente un avvertimento di una potenziale catastrofe. È più che altro un campanello d’allarme affinché l’umanità stabilisca quadri normativi solidi per regolare lo sviluppo dell’intelligenza artificiale e il suo utilizzo, specie in ambito militare. Siamo già pericolosamente vicini al precipizio in cui le armi autonome operano oltre i confini etici e aggirano il diritto internazionale. In un mondo del genere, cedere il potere ai sistemi di intelligenza artificiale per ottenere un vantaggio tattico potrebbe inavvertitamente innescare una catena di eventi altamente distruttivi in rapida escalation. In un batter d’occhio, l’intelligenza collettiva del nostro pianeta potrebbe essere annientata”. E non è quello che speriamo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.