Categorie
Economia Tecnologia

Ora OpenAI investe nei robot umanoidi

Author: Wired

Dopo il successo di Dall-E e ChatGPT, il prossimo obiettivo di OpenAI è lo sviluppo di nuovi modelli di intelligenza artificiale per far funzionare robot umanoidi parlanti, da mettere rapidamente sul mercato. Per farlo, la compagnia guidata da Sam Altman ha firmato un accordo di collaborazione con Figure AI, una startup che sta già lavorando alla creazione di quelli che spera essere i primi robot umanoidi accessibili al pubblico.

Come riporta Business Insider, Figure AI ha dichiarato che lo scopo dell’accordo con OpenAI è di “accelerare le tempistiche commerciali di Figure”, migliorando la capacità dei suoi robot di interagire con gli esseri umani ed elaborare informazioni e comandi, utilizzando la ricerca e i grandi modelli multimediali di OpenAi. Non è la prima volta che OpenAi mostra il suo interesse, e il suo impegno finanziario, verso lo sviluppo dei robot umanoidi, avendo già guidato un consistente round di investimenti nella startup di robotica 1X Technologies.

Oltre alla collaborazione con OpenAI, Figure ha già avuto il sostegno di Microsoft, Nvidia e anche del fondatore di Amazon, Jeff Bezos, per lo sviluppo dei suoi robot umanoidi e ha raccolto circa 675 milioni di dollari in finanziamenti che, a detta dell’azienda, porterebbero la sua valutazione finanziaria totale a 2,6 miliardi di dollari. La compagnia sostiene di essere già molto avanti nel lavoro e che il suo primo prototipo, il Figure-01, è in grado di fornire assistenza nella produzione, nella logistica, nelle operazioni di magazzino e nella vendita al dettaglio, diventando così un potenziale concorrente degli esseri umani che offrono manodopera.

“Siamo sbalorditi dai progressi compiuti finora da Figure e non vediamo l’ora di lavorare insieme per aprire nuove possibilità su come i robot possano essere utili nella vita di tutti i giorni – ha detto Peter Welinder, vicepresidente di OpenAI -. Con Figure vediamo un percorso per esplorare ciò che i robot possono raggiungere se alimentati dai nostri grandi modelli multimediali”. A gennaio 2024, il fondatore di Figure, Brett Adcock, ha condiviso su X un video in cui Figure-01 aziona una macchina per il caffè, affermando che la sua intelligenza artificiale sia riuscita a imparare solamente guardando gli esseri umani fare lo stesso. Adcock ha definito l’interazione una “pietra miliare rivoluzionaria” del settore.

Categorie
Economia Tecnologia

Intelligenza artificiale: appello per bloccare per 6 mesi lo sviluppo

Author: Wired

Il cosiddetto scenario Terminator sta preoccupando i più importanti esperti di intelligenza artificiale (Ia) e i dirigenti del settore. Citando potenziali rischi per la società e per gli esseri umani, circa mille persone, tra cui Elon Musk e i ricercatori di DeepMind, progetto di Google, hanno chiesto di fermare per almeno sei mesi l’addestramento di tutte le IA più potenti di GPT-4, il più avanzato sistema di OpenAi.

“Negli ultimi mesi, i laboratori di Ia hanno cominciato una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti, che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile”, sostengono Musk, i ricercatori di DeepMind di Alphabet e altri esperti mondiali dell’intelligenza artificiale come il canadese Yoshua Bengio, il britannico Stuart Russel e l’italiana Francesca Rossi, global leader per l’etica dell’Ia in Ibm.

Assieme a loro, altri mille scienziati, dirigenti ed esperti hanno sottoscritto la lettera aperta pubblicata dal Future for life institute, un’organizzazione senza scopo di lucro, il cui scopo è tenere sotto controllo i potenziali rischi catastrofici ed esistenziali posti all’umanità dallo sviluppo delle nuove tecnologie e, in particolare, dalle intelligenze artificiali.

L’appello

Nel lanciare il suo allarme, la lettera sottolinea come i sistemi di intelligenza artificiale come ChatGPT stiano diventando sempre più competitivi con gli esseri umani, aprendo a una serie di domande fondamentali. Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, renderci obsoleti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà?” si legge.

E a questi interrogativi, fino a oggi quasi esclusivamente fantascientifici, gli esperti hanno dato una risposta molto chiara: Queste decisioni non devono essere delegate a leader tecnologici non eletti”. Un’affermazione che riporta sul piano politico un dibattito etico fondamentale sullo sviluppo e sul futuro dell’umanità.

“Pertanto – continua la lettera – chiediamo a tutti i laboratori di Ia di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di aA più potenti di Gpt-4. Questa pausa deve essere pubblica, verificabile e deve includere tutti gli attori chiave. Se tale pausa non verrà attuata rapidamente, i governi dovrebbero intervenire per imporla”.

Pausa allo scopo di sviluppare e implementare “congiuntamente” una serie di protocolli di sicurezza condivisi, per rendere i sistemi di Ia più avanzati sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali. Allo stesso tempo, i governi dovrebbero “accelerare drasticamente lo sviluppo di solidi sistemi di governance delle Ia”, istituendo nuove autorità di regolamentazione, controllo, monitoraggio e sorveglianza, in grado di affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che saranno causati dalle Ia”.

Categorie
Tecnologia

ChatGpt, prepariamoci all’invasione dei suoi cloni

Author: Wired

ChatGpt potrà anche essere l’algoritmo più famoso – e potenzialmente prezioso – del momento, ma le tecniche di intelligenza artificiale (Ai) utilizzate da OpenAi per realizzare il suo chatbot conversazionale non sono né uniche né tantomeno segrete. Diversi progetti rivali e cloni open source potrebbero presto rendere disponibili bot simili, che chiunque potrà copiare e riutilizzare. 

Stability Ai, una startup che ha già sviluppato e un’avanzata tecnologia open source per la generazione di immagini, sta lavorando a un concorrente diretto di ChatGpt: “Siamo a pochi mesi dal lancio“, dichiara Emad Mostaque, amministratore delegato della società. Anche altre startup concorrenti, tra cui Anthropic, Cohere e Ai21, stanno lavorando a chatbot analoghi a quello di OpenAi.

L’imminente ondata di sofisticati chatbot in arrivo renderà la tecnologia più variegata e abbordabile per i consumatori, oltre che più accessibile alle aziende, agli sviluppatori e a chi fa ricerca sull’Ai. Questo, a sua volta, potrebbe accelerare la corsa alla monetizzazione degli strumenti di intelligenza artificiale in grado di generare immagini, programmare e scrivere testi. Aziende affermate come Microsoft e Slack stanno già incorporando ChatGpt nei loro prodotti e molte startup si stanno affrettando a sfruttare la nuova Api di ChatGpt dedicata agli sviluppatori. Tuttavia, una più ampia disponibilità della tecnologia potrebbe anche complicare la ricerca finalizzata a prevedere e mitigare i rischi associati.

I timori dei ricercatori

La capacità di ChatGpt di fornire risposte convincenti a un’ampia gamma di domande fa sì che a volte il servizio si inventi fatti di sana pianta o assuma posizioni problematiche. Il chatbot inoltre può anche aiutare a svolgere attività dannose come la produzione di malware o campagne di spam e disinformazione. Per questi motivi, alcuni ricercatori hanno chiesto di rallentare la diffusione di sistemi simili per valutarne i rischi: “Non è necessario fermare la ricerca, ma certamente potremmo regolamentarne la diffusione su larga scala – afferma Gary Marcus, un esperto di Ai che ha cercato di attirare l’attenzione su problematiche come la disinformazione generata da questi sistemi –. Potremmo, per esempio, richiedere studi su centomila persone prima di rendere accessibili queste tecnologie a cento milioni di persone“.

Una maggiore disponibilità dei sistemi come ChatGpt e il lancio di versioni simili open source renderebbero più difficile limitare la ricerca o applicazioni più ampie. La competizione tra grandi e piccole aziende per integrare ChatGpt o creare alternative di pari livello tradisce poi una scarsa propensione al rallentamento, e sembra invece incentivare la proliferazione della tecnologia. La scorsa settimana, LLaMA, un modello di intelligenza artificiale sviluppato da Meta e simile a quello alla base di ChatGpt, è trapelato online dopo essere stato condiviso con alcuni ricercatori accademici. Il sistema potrebbe essere utilizzato come elemento costitutivo per la creazione di chatbot e il suo lancio ha scatenato la perplessità di chi teme che i modelli linguistici di grandi dimensioni e i chatbot costruiti su di essi, come ChatGpt, possano essere utilizzati per generare disinformazione oppure per automatizzare violazioni della sicurezza informatica. Alcuni esperti sostengono che l’allarmismo sia eccessivo, mentre altri suggeriscono che rendere la tecnologia più trasparente aiuterà a contrastare gli abusi. Meta ha rifiutato di rispondere alle domande di Wired US sulla fuga di notizie, ma la portavoce della società Ashley Gabriel ha rilasciato una dichiarazione rassicurante: “Sebbene il modello non sia accessibile a tutti e alcuni abbiano cercato di aggirare il processo di approvazione, riteniamo che l’attuale strategia di rilascio ci consenta di bilanciare responsabilità e trasparenza”. 

OpenAi fa scuola

ChatGpt è costruito sulla base di una tecnologia di generazione di testo disponibile da diversi anni, che è in grado di imitare la capacità di scrittura umana estrapolando gli schemi contenuti in enormi quantità di testi, in gran parte raccolti dal web. OpenAi ha intuito che l’aggiunta di un’interfaccia chat – oltre che di un ulteriore livello di apprendimento automatico basato sui feedback alle risposte del bot forniti dagli esseri umani – avrebbe potuto rendere la tecnologia più efficace e articolata.