Categorie
Tecnologia

È colpa dell’intelligenza artificiale se non riusciamo a contattare gli alieni?

Author: Wired

Oppure, se preferite, eccone un’altra versione, riformulata in termini più moderni (il paradosso è stato enunciato nel 1950): con 10 miliardi di (presunti) pianeti abitabili soltanto nella Via Lattea e miliardi di galassie nell’Universo, è mai possibile che la vita si sia sviluppata solo su questo insulso puntino roccioso che è la Terra? Se così fosse, per dirla con Carl Sagan, “sarebbe davvero un enorme spreco di spazio”. Ma allora, tornando a Fermi, se non siamo soli, come la matematica ci porterebbe a pensare, dove sono tutti quanti?

La formula degli alieni

Il più accreditato tentativo di quantificare il possibile numero di civiltà extraterrestri esistenti e in grado di comunicare con noi – ovvero abitanti della Via Lattea – si deve all’astronomo statunitense Frank Drake, che nel 1961 formulò l’equazione che porta il suo nome:

N = R* × fp × ne × fl × fi × fc × L

Come si vede, l’equazione contiene sette fattori: il tasso medio annuo di formazione di nuove stelle nella Via Lattea; la frazione di stelle che possiedono pianeti; il numero medio di pianeti che si trovano nella cosiddetta zona abitabile, cioè alla distanza giusta dalla propria stella, quella che consentirebbe la presenza di acqua liquida sulla loro superficie; la frazione di questi pianeti su cui effettivamente si è sviluppata la vita; la frazione di pianeti che ospitano vita intelligente; la frazione di pianeti in cui la vita intelligente è abbastanza evoluta da riuscire a comunicare con noialtri; la durata temporale di esistenza di queste civiltà. Alcuni di questi fattori, al momento, sono abbastanza noti: nella Via Lattea, per esempio, nasce in media una nuova stella ogni anno, e vi risiedono centinaia di miliardi di pianeti, un quinto dei quali si troverebbero nella zona abitabile. Sugli altri fattori, invece, brancoliamo ancora nel buio, e molte delle assunzioni avanzate finora sono semplici speculazioni o poco più: per questo, il valore di N è compreso in una forbice ancora molto allargata, che va da uno a diecimila. Certo è che se il numero fosse davvero dell’ordine delle decine di migliaia, la questione posta da Fermi suonerebbe ancora più paradossale: dove sono tutti quanti? Perché non siamo riusciti a comunicare con loro?

Il filtro dell’intelligenza artificiale

“L’ipotesi del grande filtro” spiega Garrett “è in definitiva una proposta di soluzione del paradosso di Fermi. Credo che l’arrivo delle Asi [acronimo di artificial superintelligence, cioè super-intelligenza artificiale, una forma di Ai non solo in grado di superare l’intelligenza umana – qualsiasi cosa significhi – ma anche di essere svincolata dalla curva di apprendimento degli esseri umani, nda] potrebbe proprio rappresentare uno tipo di filtro di questo genere. I recenti progressi nell’intelligenza artificiale, che potrebbero portare allo sviluppo di un’Asi, potrebbero ‘intersecarsi’ con una fase critica nello sviluppo di una civiltà, ossia il passaggio da specie monoplanetaria a specie multiplanetaria”. Che significa intersecarsi? Nella visione dello scienziato – che, per inciso, non è solo la sua: anche Stephen Hawking, tra gli altri, già nel 2014 aveva espresso il timore che l’intelligenza artificiale potrebbe portare alla fine della nostra civiltà – le super-intelligenze artificiali potrebbero progredire molto più rapidamente rispetto alle nostre capacità di controllarle e rispetto agli avanzamenti tecnologici che ci potrebbero permettere di esplorare e popolare altri pianeti. “Il rischio che qualcosa vada storto” scrive lo scienziato “è enorme e potrebbe portare alla caduta delle civiltà biologiche (ma anche di quelle basate sull’intelligenza artificiale) prima che abbiano la possibilità di diventare multiplanetarie. Ad esempio, se le nazioni si affidassero sempre di più a sistemi di intelligenza artificiale autonomi in competizione tra loro, le capacità militari potrebbero essere usate per uccidere e distruggere su una scala senza precedenti. Il che porterebbe alla distruzione della nostra civiltà, compresi gli stessi sistemi di intelligenza artificiale”.

Uno scenario kamikaze e apocalittico, insomma. A corredo del quale lo scienziato fornisce anche alcuni numeri: secondo le sue stime, la longevità tipica di una civiltà tecnologica sarebbe inferiore ai 100 anni, ossia il tempo intercorso tra il momento in cui siamo riusciti a ricevere e trasmettere messaggi nello Spazio (gli anni sessanta del secolo scorso) e il (presunto) momento di arrivo delle super-intelligenze artificiali (gli anni quaranta di questo secolo). Una finestra temporale decisamente piccola se confrontata con quelle cosmologiche e che ridimensiona drasticamente le possibili soluzioni dell’equazione di Drake, portando praticamente a zero il numero di civiltà con cui è possibile comunicare.

Speculazioni a parte, comunque, il lavoro di Garrett vuole essere più che altro un monito per uno sviluppo sostenibile e coscienzioso delle intelligenze artificiali: “Questa ricerca” conclude lo scienziato “non è semplicemente un avvertimento di una potenziale catastrofe. È più che altro un campanello d’allarme affinché l’umanità stabilisca quadri normativi solidi per regolare lo sviluppo dell’intelligenza artificiale e il suo utilizzo, specie in ambito militare. Siamo già pericolosamente vicini al precipizio in cui le armi autonome operano oltre i confini etici e aggirano il diritto internazionale. In un mondo del genere, cedere il potere ai sistemi di intelligenza artificiale per ottenere un vantaggio tattico potrebbe inavvertitamente innescare una catena di eventi altamente distruttivi in rapida escalation. In un batter d’occhio, l’intelligenza collettiva del nostro pianeta potrebbe essere annientata”. E non è quello che speriamo.

Categorie
Economia Tecnologia

Internet “libera” e fondi per l’AI: cosa c’è nel patto digitale dell’Onu

Author: Wired

Stabile, sicura e non frammentata”. Descrive così internet la prima revisione del Global digital compact, il patto su digitale e AI che l’Onu, l’Organizzazione delle Nazioni Unite, vuole votare in un vertice sul futuro della tecnologia a New York, il prossimo settembre. Possono sembrare tre aggettivi scontati, ma uno, in particolare, non lo è. Perché mettendo nero su bianco che internet deve essere una infrastruttura integra e non frammentata, per l’ennesima volta l’Onu sbarra la strada ai tentativi della Cina e di altre nazioni di rimettere in discussione l’architettura della rete. E in parallelo il Palazzo di vetro vuole creare un sistema di studio e governance dell’AI parallelo a quello del clima, con consulenti scientifici, un vertice annuale e un fondo di sviluppo da 100 milioni.

Il braccio di ferro su internet

Ma andiamo con ordine. E torniamo a internet libera. È dal 2019 che Pechino, in vari modi, insiste per un nuovo protocollo di internet. E un nuovo sistema di governance, da sottrarre al modello multilaterale che oggi fa capo all’Internet governance forum. Obiettivo: spezzare internet in tante isole, la cosiddetta splinternet, più semplice da sorvegliare da parte dei governi. Pur avendo il sostegno di Russia, Arabia Saudita e di alcuni paesi africani, la Cina non è riuscita a ottenere consenso intorno al dossier, sempre respinto dalle assemblee internazionali. Ma non è detto che rinunci. Per questo è importante che all’interno del Global digital compact il Palazzo di vetro insista a mettere nero su bianco che l’internet multilaterale non si tocca. È, nelle pieghe del lessico curiale della diplomazia, un altolà al Dragone.

Il Global digital compact, al contrario, riconosce che il luogo dove discutere il futuro della rete e le sue evoluzioni è l’Internet governance forum (e non altri enti dove Pechino ha cercato di forzare la mano), che per questo l’Onu si impegna a finanziarlo, allargando la partecipazioni ai paesi più fragili, e che i 193 paesi delle Nazioni Unite assicurano di “promuovere la cooperazione internazionale” con l’obiettivo di “prevenire, identificare e affrontare tempestivamente i rischi di frammentazione di internet.

Le ricadute della rete

Perché la formula funzioni, non bastano gli impegni di principio del documento. Come lo stesso patto riconosce, ancora oggi 2,6 miliardi di persone non hanno accesso a internet. La bozza di patto chiede che un abbonamento di base alla banda ultralarga costi al massimo il 2% dello stipendio medio per il 40% più povero della popolazione mondiale, una sfida finanziaria per gli operatori di telecomunicazioni mondiali. Specie quelli del vecchio continente, i cui investimenti languono, soprattutto sulle tecnologie 5G. Settore dove invece è forte il Dragone, in espansione nelle forniture fuori casa. Il patto fissa un minimo di 10 megabit al secondo (Mb/s) come accesso universale alla rete e connessione assicurata a tutte le scuole del mondo entro il 2030. Entro la stessa data, l’Onu vuole assicurarsi che l’80% della popolazione mondiale abbia competenze di base in ambito informatico.

Secondo l’Istituto internazionale per la democrazia e l’assistenza elettorale, un ente intergovernativo, il patto deve guardare anche agli aspetti “hardware” di internet. E prevedere politiche che mettano al sicuro l’uso delle materie prime per i chip, il consumo di acqua per raffreddare i data center o la costruzione di cavi sottomarini per le telecomunicazioni, onde evitare che manchino le salvaguardie per garantire una rete aperta.

Categorie
Tecnologia

Le ricerche su Google stanno per cambiare per sempre

Author: Wired

Le soluzioni di AI generativa stanno diventando motori di ricerca sostitutivi, rimpiazzando le query degli utenti che in passato potevano essere eseguite nei motori di ricerca tradizionali – ha spiegato l’analista di Gartner Alan Antin in una dichiarazione allegata al rapporto –. Questo costringerà le aziende a ripensare la loro strategia di marketing“.

Cosa significa tutto questo per il web? “È un cambiamento dell’ordine mondiale – afferma Yu di BrightEdge –. Siamo in un momento in cui tutto nella ricerca sta iniziando a cambiare con l’intelligenza artificiale“.

Otto mesi fa BrightEdge ha sviluppato un sistema che ha ribattezzato parser generativo, in grado di monitorare cosa succede quando gli utenti interagiscono con i risultati online generati dall’AI. L’azienda riferisce che nell’ultimo mese il parser ha rilevato che Google chiede meno frequentemente alle persone se vogliono una risposta generata dall’AI – come accadeva nella fase sperimentale delle ricerche basate sull’intelligenza artificiale generativa – ipotizzando più spesso che sia così .

Le modifiche a Google Search hanno anche importanti implicazioni per l’attività pubblicitaria dell’azienda, che rappresenta la maggior parte delle sue entrate. In una recente riunione con gli investitori sui risultati trimestrali della società, Pichai non ha voluto divulgare le entrate derivanti dagli esperimenti di Google con l’AI generativa. Ma come ha sottolineato Paresh Dave su Wired US, “Google potrebbe ritrovarsi con meno opportunità di mostrare annunci di ricerca se le persone passano meno tempo a fare ricerche aggiuntive e più raffinate”. Di conseguenza, le tipologie degli annunci mostrati da Google potrebbero vedersi costrette a evolvere insieme agli strumenti di AI generativa dell’azienda.

Google ha dichiarato che darà priorità al traffico verso i siti web, i creatori di contenuti e i commercianti anche durante la fase di implementazione delle novità, senza però spiegare come intende farlo.

Durante un incontro con la stampa prima dell’I/O è stato chiesto a Reid se Google ritiene che gli utenti continueranno a cliccare sui link anche in presenza dei riepiloghi AI. Nella sua risposta, la responsabile delle ricerche ha evidenziato che finora l’azienda ha osservato come con le novità le persone tendano “scavare più a fondo, iniziando con l’AI Overview per poi cliccare su altri siti web“. In passato, ha proseguito Reid, chi effettuava una ricerca doveva curiosare in giro prima di approdare a un sito che gli fornisse le informazioni desiderate, mentre ora Google assembla una risposta estrapolata da vari portali. Secondo la logica del colosso, questo favorirà l’esplorazione: “Le persone useranno la ricerca più spesso, e questo rappresenta un’ulteriore opportunità di incanalare traffico prezioso“, ha detto Reid.

È una visione rosea del futuro delle ricerche online, che presuppone che le risposte generate dall’intelligenza artificiale spingano le persone a dedicare più tempo all’approfondimento. Google Search, insomma, promette ancora di farci trovare le informazioni dal mondo a portata di mano. Ora però è meno chiaro chi davvero ci sia dietro.

Questo articolo è apparso originariamente su Wired US.

Categorie
Economia Tecnologia

OpenAI perde uno dei suoi fondatori

Author: Wired

Ilya Sutskever, cofondatore e scienziato capo di OpenAI, ha annunciato il suo addio all’azienda di intelligenza artificiale. L’ex ricercatore di Google AI è uno dei quattro membri del consiglio di amministrazione che a novembre avevano votato a favore del licenziamento dell’amministratore delegato Sam Altman, dando inizio a diversi giorni di caos che avevano spinto quasi tutti i dipendenti dell’azienda a minacciare le dimissioni, prima che il reintegro di Altman ristabilisse la calma.

L’addio di Ilya Sutskever

Martedì Altman ha confermato la separazione da Sutskever in un post su X. Nei mesi successivi al ritorno dell’ad, Sutskever aveva partecipato solo raramente agli eventi pubblici della società. Non più tardi di lunedì, OpenAI aveva svelato una nuova versione di ChatGPT capace di conversare in modo più rapido ed “umano” con gli utenti. L’assenza di Sutskever alla presentazione, trasmessa in streaming dagli uffici dell’azienda a San Francisco, non era passata inosservata.

OpenAI non sarebbe quella che è senza di lui – ha scritto Altman nel suo post –. Sono felice di aver avuto l’opportunità di stare per molto tempo a contatto di un genio così straordinario e di una persona così concentrata sul raggiungimento del miglior futuro possibile per l’umanità“.

Contestualmente, Altman ha anche annunciato che il posto di Sutskever come chief scientist dell’azienda verrà preso da Jakub Pachocki, attuale direttore della ricerca di OpenAI (per cui lavora dal 2017).

Sutskever ha confermato la notizia sempre su X, accennando anche ai suoi progetti futuri: “Dopo quasi un decennio, ho preso la decisione di lasciare OpenAI. La traiettoria dell’azienda è stata a dir poco miracolosa e sono fiducioso del fatto che OpenAI costruirà un’intelligenza artificiale generale sicura e vantaggiosa“, ha scritto l’ormai ex capo scienziato di OpenAI, aggiungendo di essere “entusiasta del prossimo progetto, che per me è molto importante dal punto di vista personale e di cui condividerò i dettagli a tempo debito“.

In pubblico, Sutskever non ha mai spiegato nel dettaglio il suo ruolo nell’estromissione di Altman dello scorso novembre. Dopo il ritorno dell’ad tuttavia aveva scritto su X di essere “profondamente pentito per la mia partecipazione alle azioni del consiglio. Non ho mai avuto intenzione di danneggiare OpenAI”. In diverse occasioni, Sutskever si era detto convinto che OpenAI stesse lavorando alla cosiddetta intelligenza artificiale generale, o Agi, sottolineando la necessità di sviluppare la tecnologia in modo sicuro.

Un precursore dell’AI

Fin da giovane, Sutskever si è imposto come una delle figure chiave nel campo dell’apprendimento automatico, diventando un protetto di Geoffrey Hinton – un altro dei pionieri del machine learning – all’Università di Toronto. Con Hinton e Alex Krizhevsky, Sutskever ha creato un sistema di riconoscimento delle immagini chiamato AlexNet, che ha stupito il mondo dell’intelligenza artificiale per la sua precisione e ha contribuito a dare il via a una raffica di investimenti nelle reti neurali artificiali in un periodo in cui non erano ancora in voga.

Categorie
Economia Tecnologia

Cosa sappiamo su Mai-1, il nuovo modello di AI di Microsoft

Author: Wired

Non solo gli investimenti in OpenAI: Microsoft starebbe lavorando a un proprio modello di intelligenza artificiale generativa, strutturato abbastanza per competere con quelli di Alphabet e della stessa società di San Francisco. La notizia, lanciata da The Information e rilanciata dall’agenzia Reuters, indica anche che a superivsionare il progetto, internamente denominato Mai-1, sarebbe il cofondatore di Google DeepMind ed ex amministratore delegato della startup Inflection AI Mustafa Suleyman, che il colosso di Redmond ha assunto recentemente.

Pur non essendo ancora noto lo scopo per il quale la società amministrata da Satya Nadella stia lavorando a un modello interno (e qualcosa in questo senso si potrebbe scoprire alla conferenza degli sviluppatori Build di fine maggio), secondo l’agenzia stampa britannica la certezza è che il nuovo modello saràmolto più grandedei precedenti open source a cui Microsoft aveva dato vita e quindi costerà di più, per esempio, del più piccolo Phi-3-mini lanciato ad aprile con l’obiettivo di attirare una base di clienti più ampia con opzioni convenienti.

Nella nuova tecnologia, il colosso di Redmond ha già investito finora miliardi di dollari. L’apporto dato a OpenAI ha per esempio permesso a quest’ultima di implementare il proprio prodotto di punta ChatGPT e di fargli assumere un ruolo di primo piano nel panorama globale del settore che riguarda la tecnologia del momento.

Per quanto riguarda i dettagli tecnici, Microsoft avrebbe dedicato al progetto Mai-1 un ampio cluster di server equipaggiato con le unità di elaborazione grafica di Nvidia, oltre a una grande quantità di dati utili a migliorare il modello. Quest’ultimo avrà circa 500 miliardi di parametri. Un numero decisamente inferiore al miliardo di miliardi di parametri di Gpt-4 di OpenAI, ma superiore ai 3,8 miliardi di parametri di Phi-3-mini. Oltre a Suleyman, scelto a marzo scorso, al progetto dovrebbero lavorare diversi ex dipendenti di Inflection AI. Ciononostante, il modello di Microsoft non sarà ripreso dal chatbot Pi o da altri realizzati dalla startup.