Categorie
Economia Tecnologia

OpenAI, la società di ChatGPT, ha licenziato l’amministratore delegato Sam Altman

Author: Wired

Sam Altman, che in qualità di amministratore delegato di OpenAI ha dato al mondo ChatGPT ed è diventato una delle persone più influenti nel campo della tecnologia, ha lasciato l’azienda dopo aver perso la fiducia del consiglio di amministrazione.

Un comunicato dell’azienda afferma che una revisione dei processi “ha concluso che non è stato costantemente sincero nelle sue comunicazioni con il consiglio, ostacolando la capacità di quest’ultimo di esercitare le proprie responsabilità“. Mira Murati, in precedenza chief technology officer di OpenAI, è stata nominata ad ad interim mentre OpenAI cerca un sostituto a tempo pieno, si legge nel comunicato.

Altman non ha risposto a una richiesta di commento. OpenAI ha rifiutato di commentare. Greg Brockman, che ha co-fondato OpenAI con Altman insieme a nomi di spicco del mondo dell’intelligenza artificiale e della tecnologia, tra cui Elon Musk, si dimetterà anche dal suo ruolo di presidente del consiglio di amministrazione della società, si legge nel comunicato. Non è stata fornita alcuna motivazione per il cambio di posizione di Brockman.

Le sorprendenti capacità di ChatGPT, come la risoluzione di problemi complessi e la gestione di domande che sembrano richiedere un ragionamento simile a quello umano, hanno sbalordito i ricercatori nel campo dell’AI, stupito il pubblico e innescato una corsa agli armamenti tra le grandi aziende tecnologiche per costruire AI più potenti. Il successo del bot ha trasformato Altman in una celebrità tecnologica, consultata dai leader mondiali sul futuro della tecnologia.

Giusto il 16 novembre Altman è intervenuto al vertice della Cooperazione economica Asia-Pacifico a San Francisco, dicendo a centinaia di leader aziendali e governativi che i sistemi di AI potrebbero risolvere i problemi più urgenti dell’umanità se il loro sviluppo fosse perseguito in modo responsabile. “In questo momento siamo sulla strada dell’autodistruzione come specie – ha detto Altman, seduto accanto ai dirigenti di Meta e Google -. Abbiamo bisogno di nuove tecnologie se vogliamo prosperare per decine, centinaia di migliaia e milioni di anni ancora“.

Altman ha riconosciuto che il successo non è certo, ma si è detto fiducioso che l’AI sarà alla fine benefica, descrivendo la tecnologia come il lavoro della sua vita, fin dall’infanzia. “Sarà la tecnologia più trasformativa e benefica che l’umanità abbia mai inventato“, ha detto.

OpenAI è stata fondata nel 2015 come associazione senza scopo di lucro che si occupa di sviluppare in modo sicuro IA più intelligenti degli esseri umani. È stata finanziata da Musk e da altri, tra cui Peter Thiel e il cofondatore di LinkedIn Reid Hoffman. OpenAI è diventata un’azienda a scopo di lucro nel 2019, poiché i costi di costruzione e formazione di sistemi di AI avanzati sono diventati impegnativi. Nel 2019 ha stretto una partnership con Microsoft, che ha visto il gigante del software investire un miliardo di dollari e fornire potenza di calcolo nel cloud per l’addestramento degli algoritmi di OpenAI. Quest’anno Microsoft ha accettato di investire altri 10 miliardi di dollari in OpenAI. Negli anni successivi alla sua creazione, OpenAI ha sviluppato una serie di progetti di AI all’avanguardia, ma l’introduzione di ChatGPT nel novembre 2022 ha rapidamente trasformato l’azienda in una delle realtà più importanti del pianeta.

Servizio aggiuntivo di Paresh Dave. Questo articolo è comparso originariamente su Wired US

Categorie
Tecnologia

ChatGpt nel mirino degli attacchi DDoS

Author: Wired

Già ieri abbiamo riportato dei malfunzionamenti di ChatGpt, che hanno reso il chatbot inaccessibile fino alle 17 del pomeriggio, quando poi tutto è tornato a funzionare alla perfezione – o quasi -. Oggi, invece, torniamo a parlarne per capire qual è stata davvero la causa dell’interruzione dei servizi di ChatGpt e delle Api del programma, ossia quegli strumenti che consentono gli sviluppatori di integrare il chatbot all’interno delle proprie applicazioni. Secondo quanto affermato dalla stessa OpenAI, infatti, questi malfunzionamenti sarebbero dovuti “a un modello di traffico anomalo che riflette un attacco DDoS”.

Stiamo riscontrando una domanda eccezionalmente elevata. Tenete duro mentre lavoriamo per ridimensionare i nostri sistemi”, così ieri ChatGpt aveva comunicato ai suoi utenti l’impossibilità di utilizzare il suo servizio, lasciando intendere che la causa poteva essere da ricercare negli attacchi DDos. Ma mentre OpenAI ha temporeggiato per rivelare ai suoi utenti la reale causa dell’interruzione dei suoi servizi, nella giornata di ieri la cybergang Anonymous Sudan ha rivendicato sin da subito la paternità degli attacchi. “Il collegamento a ChatGpt è completamente morto ormai in tutto il mondo, migliaia di segnalazioni su Twitter e sui social media, vediamo se ammetteranno che si tratta di un attacco DDoS”, hanno scritto i criminali sul loro canale Telegram, senza lasciare spazio a dubbi di alcun tipo riguardo la causa dei problemi del chatbot.

Più nel dettaglio, i cybercriminali hanno ammesso di aver colpito OpenAI utilizzando attacchi DDoS Layer 7, che permettono di prendere di mira un sito o un’applicazione con l’obiettivo di sopraffarne i servizi con un volume enorme di richieste, causandone il blocco completo poiché il sistema non riesce a elaborare tutte le richieste ricevute. Si tratta di attacchi molto efficaci – come dimostrato dalle numerose interruzioni riscontrate ieri sui servizi di ChatGpt -, perché mettono a dura prova le risorse del server e della rete degli obiettivi colpiti. D’altronde, la cybergang Anonymous Sudan aveva già dimostrato di apprezzare particolarmente questa tecnica lo scorso giugno, quando ha bloccato i servizi di Outlook.com, OneDrive e del portale Azure di Microsoft. Ora, a distanza di mesi, i criminali tornano a usare la stessa strategia per colpire il chatbot più utilizzato al mondo, probabilmente per inserirsi nella scena dei cyberattacchi legati alla guerra tra Israele e Hamas. Oppure chissà, il motivo resta ancora da capire.

Categorie
Economia Tecnologia

Anche Samsung lancia la sfida a OpenAI

Author: Wired

Una guerra all’ultimo bot. Dopo vari colossi del tech, tra i quali Amazon, anche Samsung si iscrive alla lista dei pretendenti a competere e, perché no, a superare OpenAI e il suo ChatGPT. Come riporta TechCrunch, la società coreana ha infatti presentato in occasione del Samsung AI Forum 2023 il proprio modello di intelligenza artificiale, Samsung Gauss.

L’innovazione prende il nome dal matematico Carl Friedrich Gauss, la cui teoria della distribuzione normale è ritenuta il fondamento dell’intelligenza artificiale e dell’apprendimento automatico.

Il prodotto, sviluppato dall’unità di ricerca dell’azienda di Seul, è composto da tre strumenti diversi: Samsung Gauss Language, Samsung Gauss Code e Samsung Gauss Image. Il primo è un modello linguistico di grandi dimensioni (Llm) capace di comprendere il linguaggio umano e di rispondere alle domande degli utenti, esattamente come fa ChatGPT. L’idea del colosso coreano sarebbe quella di incorporare il suo Llm nei telefoni, nei laptop e nei tablet di propria produzione.

Samsung Gauss Code, che può essere utilizzato insieme a code.i, è invece lo strumento che l’azienda ha scelto di dedicare agli sviluppatori di codice, che sarà in grado di supportare attraverso un’interfaccia interattiva. Come è facile intuire, Samsung Gauss Image consentirà agli utenti di generare immagini attraverso semplici comandi o di modificarle, aumentandone per esempio la risoluzione.

Attualmente Samsung ha messo il nuovo prodotto a disposizione esclusivamente del proprio personale, ma sarebbe pronta a fornirlo ai clienti “nel prossimo futuro”. Secondo quanto riportato dai media coreani e rilanciato da TechCrunch, l’intenzione della società di Seul sarebbe quella di mettere sul mercato il Galaxy S24 già dotato di Samsung Gauss.

Continueremo – ha affermato il vicepresidente esecutivo del Samsung Research Global AI Center Daehyun Kima sostenere e collaborare con l’industria e il mondo accademico sulla ricerca sull’intelligenza artificiale generativa”. Anche per questo, Samsung ha istituito un AI Red Team allo scopo di monitorare le questioni di sicurezza e privacy relative al percorso che porta dalla raccolta dei dati allo sviluppo dell’intelligenza artificiale.

Categorie
Tecnologia

Anche l’Onu crea il suo comitato di esperti sull’intelligenza artificiale

Author: Wired

La prima riunione è il calendario per venerdì 27 ottobre. E segna l’insediamento ufficiale del nuovo Comitato per l’intelligenza artificiale voluto dalle Nazioni Unite. Un gruppo di circa quaranta esperti è chiamato ad affiancare il Palazzo di vetro e la comunità internazionale nello sforzo di darsi regole comuni e approcci condivisi sull’AI. Presieduto da Amandeep Singh Gill, inviato per la tecnologia del segretario generale dell’Onu, António Guterres, l’AI Advisory body mette intorno al tavolo personalità dal mondo della ricerca, della politica e del terzo settore.

Da padre Paolo Benanti, docente alla Pontificia università gregoriana e da pochi giorni inserito anche nel comitato che dovrà fornire consulenza al governo italiano in merito alla sua strategia sull’intelligenza artificiale, a James Manyika, vicepresidente senior in Alphabet, la casa madre di Google. Da Marietje Schaake, già eurodeputata olandese e ora direttrice delle politiche internazionali del Centro per le politiche cyber dell’università di Stanford, a Mira Murati, la responsabile tecnologica di OpenAI, la startup che ha sviluppato ChatGPT. Ci sono colossi come Microsoft e aziende innovative in campo AI come Hugging Face, che investe su un modello fondativo open source. In fondo all’articolo l’elenco completo dei componenti del collegio.

L’Onu ha molto investito sulle nomine dell’AI Advisory body. Intorno al tavolo ha riunione persone con diversi percorsi di formazioni, valori, espressioni politiche, partendo da circa duemila candidature e proposte dai governi. È il tentativo di scrivere una strategia di ampio respiro. E al tempo stesso il suo più grande ostacolo. Anche perché uno dei compiti più urgenti sarà quello di tirare una riga su quelli che sono i rischi e i benefici dell’intelligenza artificiale, indicare come può spingere il raggiungimento degli obiettivi di sviluppo sostenibile e rafforzare la cooperazione internazionale.

L’altro problema sono i tempi. Il Palazzo di Vetro si aspetta di ricevere le prime raccomandazioni per la fine dell’anno. Il che presuppone una discussione molto veloce tra voci che esprimono posizioni molto lontane da solo. Se non al capo opposto, come Abeba Birhane, consulente senior sul controllo dell’AI alla fondazione che presiede Mozilla e il motore di ricerca, Firefox, e il ministro per l’Intelligenza artificiale degli Emirati arabi, Omar Sultan Al Omana. Il rischio è che questo documento contenga poco, mentre le raccomandazioni finali dovranno arrivate in tempo per il Summit del futuro dell’Onu, in calendario a settembre 2024. Peraltro, come ha spiegato Singh Gill, “le raccomandazioni non saranno obbligatorie”. Al Wired Next Fest di Milano proprio l’inviato per la tecnologia ha lanciato un allarme AI per le prossime elezioni: “Metà della popolazione mondiale andrà a elezioni il prossimo anno – gli Stati Uniti, l’Unione europea, l’India e molte altri paesi – e oggi vediamo esempi di deepfake più facili da produrre e molto più convincenti. Non c’è più bisogno di avere un’enorme bot farm, si può sfruttare l’AI generativa. Se non riusciamo più a distinguere la verità dalle menzogne, si avvelena tutto il processo democratico. È un rischio reale. Dobbiamo pensare oltre le soluzioni tecniche e alle responsabilità condivisa tra sviluppatori, utenti e pubblico”.

Manca anche chiarezza sul tipo di forma che avrà il comitato. Non è stato ancora deciso se, dopo i primi lavori, sarà convertito in un’agenzia, come quella per l’energia atomica, o un gruppo di esperti di alto livello, come quello del panel intergovernativo sul cambiamento climatico. All’Onu non mancano formule da sperimentare. E l’ultima variabile sono i regolamenti sull’AI in discussione in giro per il mondo. La Cina si è dotata delle sue regole, l’Unione europea è alle battute finale del suo AI Act, il Regno Unito prepara un summit internazionale per stabilire la sua politica in materia e negli Stati Uniti le big tech e i più importanti sviluppatori del settore, come OpenAI e Anthropic, hanno messo sul piatto 10 milioni di dollari per un fondo sulla sicurezza. Ogni paese vuole portare acqua al suo mulino. Per il comitato dell’Onu non sarà facile tenere la barra dritta.

I componenti del collegio

  1. Anna Abramova, direttrice del Moscow State Institute of International Relations
    (Mgimo) – University AI Centre, Russia;
  2. Omar Sultan Al Olama, ministro per l’Intelligenza artificiale, Emirati arabi uniti;
  3. Latifa Al-Abdulkarim, deputato della Shura, il parlamento saudita, e docente di Computer science alla King Saud University, Arabia saudita;
  4. Estela Aranha, consulente speciale del ministero della Giustizia del Brasile;
  5. Carme Artigas, segretaria di Stato per la digitalizzazione e l’intelligenza artificiale di Spagna;
  6. Ran Balicer, responsabile innovazione e vicedirettore di Clalit Health Services Israel, Israele;
  7. Paolo Benanti, docente alla Pontificia università gregoriana, Italia;
  8. Abeba Birhane, consulente senior sul controllo dell’AI alla Mozilla Foundation, Etiopia;
  9. Ian Bremmer, fondatore di Eurasia Group, Stati Uniti;
  10. Anna Christmann, coordinatrice Aerospazio del governo federale tedesco;
  11. Natasha Crampton, responsabile AI Officer di Microsoft, Nuova Zelanda;
  12. Nighat Dad, direttore esecutivo della Digital Rights Foundation in Pakistan;
  13. Vilas Dhar, presidente della Patrick J. McGovern Foundation, Stati Uniti;
  14. Virginia Dignum, docente di AI responsabile alla Umeå University, Portogallo;
  15. Arisa Ema, docente all’università di Tokyo, Giappone;
  16. Mohamed Farahat, vicepresidente dell’Internet governance forum del Nord Africa, Egitto;
  17. Amandeep Singh Gill, inviato per la tecnologia del segretario generale dell’Onu;
  18. Wendy Hall, docente di Computer Science all’università di Southampton, Regno Unito;
  19. Rahaf Harfoush, antropologo digitale, Francia;
  20. Hiroaki Kitano, responsabile tecnologico di Sony, Giappone;
  21. Haksoo Ko, presidente del Garante della privacy della Corea del Sud;
  22. Andreas Krause, docente a ETH Zurich, Svizzera;
  23. James Manyika, vicepresidente senior in Alphabet per ricerca, società e tecnologia, Zimbabwe;
  24. Maria Vanina Martinez Posse, ricercatrice all’Artificial Research Institute, Argentina;
  25. Seydina Moussa Ndiaye, docente alla Cheikh Hamidou Kane Digital University, Senegal;
  26. Mira Murati, responsabile tecnologica di OpenAI, Albania;
  27. Petri Myllymaki, docente al dipartimento di Computer Science dell’università di Helsinki, Finlandia;
  28. Alondra Nelson, docente all’Institute for Advanced Study, Stati Uniti;
  29. Nazneen Rajani, capo ricerca a Hugging Face, India;
  30. Craig Ramlal, a capo del gruppo sistemi di controllo all’University of The West Indies a
    St. Augustine, Trinidad e Tobago;
  31. He Ruimin, responsabile AI del governo di Singapore;
  32. Emma Ruttkamp-Bloem, docente all’università di Pretoria, Sud Africa;
  33. Sharad Sharma, cofondatore della Fondazione iSPIRT, India;
  34. Marietje Schaake, direttrice delle politiche internazionali del Centro per le politiche cyber dell’università di Stanford, Paesi Bassi;
  35. Jaan Tallinn, cofondatore del Cambridge Centre for the Study of Existential Risk, Estonia;
  36. Philip Thigo, consulente del governo del Kenya;
  37. Jimena Sofia Viveros Alvarez, capo legale del giudice Justice Loretta Ortiz alla Corte suprema del Messico;
  38. Yi Zeng, direttore del Brain-inspired Cognitive AI Lab all’Accademia cinese delle scienze;
  39. Zhang Linghan, docente all’Institute of Data Law della China University of Political
    Science and Law.
Categorie
Tecnologia

Il nuovo Gpt-4 è più affidabile, ma più facile da ingannare

Author: Wired

Gpt-4, il nuovo modello linguistico di OpenAI, è più affidabile del precedente Gpt-3.5, ma anche più vulnerabile a bias e jailbreaking – un attacco che mira ad aggirare le restrizioni software di un dispositivo al fine di installarne uno diverso da quello originale -. Lo rivela uno studio condotto da ricercatori delle università statunitensi in collaborazione con Microsoft, che ha messo in evidenza come Gpt-4 sia migliore del suo predecessore nel difendere la privacy degli utenti, evitare di fornire loro informazioni distorte e resistere a eventuali attacchi esterni. Al tempo stesso, però, i ricercatori hanno notato che gli utenti possono aggirare le restrizioni di sicurezza del nuovo modello di OpenAI con una maggiore facilità, perché questo “segue le informazioni fuorvianti in modo più preciso”, anche se queste risultano essere molto complicate.

A quanto pare, però, le vulnerabilità di cui parlano i ricercatori non sono state trovate nei prodotti basati su Gpt-4 rivolti ai consumatori, perché evidentemente sono stati applicati una serie di interventi “di mitigazione per affrontare potenziali danni che potrebbero verificarsi a livello della tecnologia del modello”. Nonostante questo, lo studio non lascia spazio a dubbi: il nuovo modello linguistico di OpenAI è più vulnerabile rispetto al suo predecessore. Per arrivare a questa conclusione i ricercatori hanno provato prima Gpt-3.5 e poi Gpt-4, interrogandoli su tematiche sensibili quali gli stereotipi, la privacy e l’etica delle macchine.

Più nel dettaglio, hanno prima utilizzato una serie di istruzioni che includevano parole da considerarsi come vietate. Poi hanno cercato di forzare la mano spingendo i modelli a infrangere le restrizioni della politica sui contenuti, e infine li hanno indotti a ignorare completamente le regole sulla sicurezza. “Il nostro obiettivo è incoraggiare altri nella comunità di ricerca a utilizzare e sviluppare questo lavoro, potenzialmente anticipando azioni nefaste da parte di avversari che potrebbero sfruttare le vulnerabilità per causare danni – ha affermato il team di ricercatori statunitensi –. Questa valutazionUe dell’affidabilità è solo un punto di partenza e speriamo di lavorare insieme ad altri per sviluppare i suoi risultati e creare modelli potenti e più affidabili in futuro”.