Categorie
Economia Tecnologia

I colossi dell’intelligenza artificiale non sono pronti per l’Ai Act europeo

Author: Wired

La legge europea sull’intelligenza artificiale, l’Ai Act, è quasi pronta e rappresenta il primo tentativo di normare, nel modo più ampio possibile, lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale. Dalla trasparenza al grado di rischio che gli algoritmi di deep learning pongono a livello sociale (soprattutto in termini di sorveglianza), dal divieto di utilizzare alcune controverse tecnologie (come il riconoscimento emotivo) fino all’energia richiesta per l’addestramento e l’utilizzo di questi sistemi: per le società che si occupano di intelligenza artificiale, l’Ai Act rappresenta un test di fondamentale importanza.

Non solo per evitare di essere tagliati fuori da un mercato di fondamentale importanza come quello europeo, ma soprattutto perché – come già avvenuto con il Gdpr, il regolamento sulla privacy – la legge dell’Unione europea sull’intelligenza artificiale potrebbe diventare un esempio a cui guarderanno, a livello globale, tutti gli stati e le istituzioni intenzionate a regolamentare l’utilizzo di una tecnologia che sta ponendo sfide inedite.

Non è tutto: dando per scontato che, come già avvenuto sempre con il Gdpr, l’Unione europea deciderà di applicare rigidamente le sue norme, è probabile che i colossi dell’intelligenza artificiale dovranno uniformare i loro prodotti indipendentemente dal mercato di destinazione, per evitare di complicare enormemente il processo di sviluppo.

E allora, quanto sono pronti i vari OpenAI, Google, Hugging Face, Meta e non solo a rispettare le norme che stanno per essere definitivamente varate dall’Unione Europea (tenendo in considerazione che alcuni elementi potrebbero ancora cambiare nelle ultime fasi di discussione)?

La ricerca:

  1. Lo studio
  2. Dove stanno i big
  3. Come migliorare i provvedimento

Le pagelle degli studiosi di Stanford

Le pagelle degli studiosi di Stanford

Lo studio

I ricercatori di Stanford del neonato Center for Research on Foundation Models hanno provato a rispondere a questa domanda in un paper che indaga il loro livello attuale di adesione alle norme previste. Al momento, sembra che il grado di preparazione sia ancora scarso, anche se i risultati ottenuti dalle varie realtà del settore variano parecchio: “Abbiamo valutato quanto i principali fornitori di foundation models (il nome che alcuni attribuiscono ai nuovi strumenti di intelligenza artificiale generativa, come ChatGPT o MidJourney, ndr) rispettino attualmente i requisiti della bozza europea e abbiamo scoperto che in gran parte non lo fanno”, si legge nel paper.

Categorie
Tecnologia

Bing vuole far navigare ChatGpt al posto nostro, ma arriva lo stop legale

Author: Wired

La scorsa settimana Microsoft Bing ha annunciato l’introduzione della nuova funzionalità “Browse with Bing”, che permetteva agli utenti di navigare in rete utilizzando il supporto di ChatGpt. L’opzione, lanciata nella versione di beta test, è stata però disabilitata da OpenAI dopo pochissimo tempo perché, in alcuni casi, permetteva di accedere in forma totalmente gratuita a contenuti a pagamento. Secondo quanto riportato dalla stessa compagnia, “se un utente richiede specificamente il testo completo di un’URL”, la funzione potrebbe soddisfare questa richiesta, indipendentemente dal fatto che la suddetta pagina fosse gratuita o visualizzabile previa abbonamento.

A partire dal 3 luglio, quindi, OpenAI ha scelto di disabilitare la funzione per precauzione, “al fine di tutelare i proprietari dei contenuti”. Nel frattempo, la società ha fatto sapere che sta lavorando per risolvere il problema, così da riuscire a ripristinare il servizio nel più breve tempo possibile. A quanto pare, infatti, alcuni utenti si sono accorti rapidamente della possibilità di utilizzare la nuova opzione di Bing per aggirare i paywall dei contenuti a pagamento, cominciando subito a condividere in rete suggerimenti utili per riuscire a usufruirne in maniera illecita.

E così, per evitare problemi di sorta, OpenAI si è vista costretta a disabilitare temporaneamente “Browse with Bing”. D’altronde, la società è già coinvolta in una serie di controversie legali alquanto spinose, inclusa l’accusa di aver utilizzato libri protetti da copyright come dati per addestrare i sistemi di intelligenza artificiale senza pagare gli autori o richiederne il consenso. E come non menzionare anche l’accusa di aver collaborato con piattaforme come Snapchat, Spotify, Stripe, Slack e Microsoft Teams per raccogliere segretamente i dati degli utenti. Insomma, OpenAI non sembra passarsela bene. E aggiungere a queste questioni legali l’ennesima causa per un comportamento illecito del suo chatbot era proprio quello che non ci voleva. Ma questo la società lo sa bene.

Categorie
Tecnologia

OpenAi è pronta a collaborare con l’Europa sulle nuove regole sull’intelligenza artificiale

Author: Wired

Stiamo dialogando e sosteniamo i vertici della Commissione europea per iniziare a studiare come applicare il regolamento dell’Ai Act perché crediamo che i governi democratici debbano regolamentare questo settore, per fare in modo che vada a vantaggio di tutti e che non ci siano abusi”. Lo ha detto Anna Makanju, a capo delle politiche pubbliche di OpenAi, la società che ha sviluppato ChatGpt, nel corso della sua audizione presso il comitato di vigilanza sull’attività di documentazione della Camera dei deputati sul tema dell’intelligenza artificiale. “So che ci sono ancora dei temi aperti e bisognerà trovare una sintesi tra le diverse proposte, quelle di Presidenza, Parlamento e Consiglio, ma l’ultima bozza approvata dal Parlamento europeo sembra andare nella direzione giusta, soprattutto per quello che riguarda il rafforzamento delle misure di trasparenza nell’interazione con l’intelligenza artificiale: dobbiamo capire come applicarla nelle diverse funzioni dell’Ai, ma ci stiamo lavorando. Abbiamo anche avuto un interessante scambio sugli spazi di sperimentazione normativa: saremo pronti a farne uso e di questo abbiamo parlato la scorsa settimana con il commissario pertinente”, ha aggiunto la manager di OpenAi.

Sicurezza e trasparenza

Gli incontri hanno lo scopo di studiare l’applicazione dell’Ai all’interno della documentazione parlamentare a supporto dell’attività del Parlamento. Il comitato, presieduto dalla vicepresidente della Camera, Anna Ascani, in questa seduta focalizzato il suo interesse sulle potenzialità e le criticità dell’intelligenza artificiale nei confronti del grande pubblico. Alcune delle domande rivolte dal comitato alla rappresentante di OpenAi sono state generate proprio da ChatGpt4: al centro dei quesiti la sicurezza dei dati personali l’attendibilità delle fonti da cui vengono generate le risposte e la prevenzione delle fake news e contenuti pericolosi:

La nostra priorità è la sicurezza – ha spiegato Anna Makanju – e per questo, con un lavoro di sei mesi, abbiamo implementato lavorato sul modello Gpt4 per renderlo molto più sicuro del precedente: solo allora lo abbiamo lanciato sul mercato. Contiene una serie di mitigazioni che impediscono la creazione di contenuti nocivi e per metterle a punto ci siamo avvalsi di esperti esterni. L’addestramento non avviene sui dati del cliente, che vengono salvati solo per 30 giorni, proprio per garantire che non ci siano abusi o che vengano utilizzati per truffe o scopi commerciali. Tra l’altro, gli stessi utenti possono disabilitare la funzione ‘addestramento’ e così essere certi che le informazioni personali non vengano in alcun modo utilizzate per generare le risposte del modello”.

La manager ha aggiunto: “Abbiamo implementato dei database su fonti scientifiche per garantire che il modello possa disporre di una base certa di conoscenza più valida possibile. Anche ciò che proviene da internet viene filtrato dal nostro staff di addestramento, quindi non è un semplice copia-incolla: il nostro modello apprende, quindi man mano che impara capisce il significato dell’informazione e in un certo modo è come se la comprenda. Per prevenire la disinformazione, abbiamo impedito la creazione di chatbot con contenuti politici, questo per evitare che vi sia un proliferare di informazioni non corrette o di parte. Stiamo poi avorano anche sulle filigrane delle immagini per impedire alle persone di generare foto problematiche, pornografiche o violente. Le risposte, ovviamente, non sono ancora del tutto affidabili: le informazioni, per non essere suscettibili di quelle che definiamo ‘allucinazioni’, richiedono l’aumento di interazioni da parte degli utenti. Saranno mostrate le fonti per permettere alle persone di verificare di persona l’attendibilità delle informazioni. Serviranno però campagne di alfabetizzazione sull’intelligenza artificiale, per educare le persone ad utilizzare questi strumenti: noi produciamo un modello, poi bisogna lavorare con chi lo distribuisce”.

L’Ai farà perdere posti di lavoro?

Altro tema affrontato durante l’audizione, l’impatto della nuova tecnologia sul mondo del lavoro, su quanto l’automazione porterà alla perdita di posti di lavoro. “Questo strumento – ha spiegato ancora Anna Makanju – elimina compiti e mansioni, ma non per forza posti di lavoro: sicuramente ci sarà un impatto su una serie di professioni ma questo non significa che venga meno quella forza lavoro. In fase di addestramento pensavamo che, per esempio, l’ingegneria del software non fosse più necessaria, ma poi ci siamo resi conto che il tempo che prima si impiegava a redigere i codici sarebbe poi stato impegnato dagli stessi ingegneri informatici per revisionarli. L’Ai può essere utilizzata per preparare un testo legale, ma poi, come è stato dimostrato recentemente negli Stati Uniti, ci deve essere una revisione del prodotto finale. Probabilmente alcuni posti di lavoro verranno eliminati ma molti ne saranno creati e saranno professioni nuove, più creative, più strategiche”.

Categorie
Economia Tecnologia

Per l’ad di Microsoft Satya Nadella sull’intelligenza artificiale non si torna più indietro

Author: Wired

Sam Altman, ad di OpenAi, ritiene che questo succederà. È d’accordo con lui sul fatto che raggiungeremo il traguardo della superintelligenza, o intelligenza artificiale generale (Agi)?

Sono molto più concentrato sui benefici per tutti noi. Sono ossessionato dal fatto che la rivoluzione industriale non ha toccato le parti del mondo in cui sono cresciuto, se non molto dopo. Per questo, sto cercando qualcosa che possa essere ancora più grande, e che faccia davvero quello che la rivoluzione industriale ha fatto per l’Occidente per tutti nel mondo. Quindi non sono assolutamente preoccupato che l’Agi si manifesti, o si manifesti tra poco. Sarebbe ottimo, no? Questo significherebbe che 8 miliardi di persone avranno abbondanza. Sarebbe un mondo fantastico in cui vivere.

Qual è la vostra tabella di marcia per realizzare questa visione? In questo momento state integrando l’intelligenza artificiale nel vostro motore di ricerca, nei vostri database, nei vostri strumenti per gli sviluppatori. Non è quello che usano le persone più svantaggiate.

Ottima osservazione. Cominciamo a vedere quali sono le frontiere per gli sviluppatori. Una delle cose che mi entusiasma molto è riportare la gioia dello sviluppo. Microsoft è nata come azienda che realizzava strumenti, soprattutto strumenti per sviluppatori. Ma nel corso degli anni, a causa della complessità dello sviluppo dei software, l’attenzione di cui gli sviluppatori godevano un tempo sono stati stravolti. Quello che abbiamo fatto per il settore con Copilot è bellissimo da vedere. Ora i 100 milioni di sviluppatori che sono su GitHub possono divertirsi. Man mano che l’Ai trasforma il processo di programmazione, però, questi [numeri, ndr] possono crescere di 10 volte: 100 milioni possono diventare un miliardo. Quando si invia una richiesta a un Llm, lo si sta programmando.

Chiunque abbia uno smartphone e sappia parlare può diventare uno sviluppatore?

Assolutamente sì. Non è necessario scrivere una formula o imparare la sintassi o l’algebra. Se si dice che il prompting è solo sviluppo, le curve di apprendimento miglioreranno. Ora si può anche chiedere: “Che cos’è lo sviluppo?” Sarà democratizzato.

Per quanto riguarda l’accesso a tutti gli 8 miliardi di persone, a gennaio sono stato in India e ho assistito a una dimostrazione straordinaria. Il governo ha un programma chiamato Digital Public Goods (“beni pubblici digitali”), e uno di questi è un sistema di sintesi vocale. Nella dimostrazione, un agricoltore stava usando il sistema per chiedere informazioni su un programma di sovvenzioni di cui aveva sentito al telegiornale. Il sistema gli ha fornito informazioni sul programma e sui moduli da compilare per fare domanda. Normalmente, il sistema gli avrebbe detto dove trovare i moduli. Ma uno sviluppatore in India aveva addestrato Gpt su tutti i documenti del governo indiano, quindi il sistema li ha compilati automaticamente al suo posto, in una lingua diversa. Una cosa creata qualche mese prima sulla costa occidentale degli Stati Uniti è arrivata a uno sviluppatore in India, che ha poi realizzato una mod che permette a un agricoltore dell’India rurale di sfruttare i vantaggi di quella tecnologia con un bot WhatsApp su un telefono cellulare. Il mio sogno è che ognuno degli 8 miliardi di persone sulla Terra possa avere un tutor Ai, un medico Ai, un programmatore, e magari un consulente!

Categorie
Tecnologia

Ci stiamo concentrando sui rischi sbagliati dell’intelligenza artificiale?

Author: Wired

Capiamo che le persone siano preoccupate per come [l’intelligenza artificiale, ndr] può cambiare il nostro modo di vivere. Anche noi lo siamo – ha dichiarato il capo di OpenAi Sam Altman al Congresso statunitense all’inizio di maggio. Se le cose con questa tecnologia andassero male, possono andare molto male“.

Le voci fuori dal coro

Non tutti però condividono questo scenario apocalittico quando si parla di Ai. Yann LeCun, che ha vinto il premio Turing con Hinton e Bengio per lo sviluppo del deep learning, è critico nei confronti del pessimismo che circonda i progressi dell’Ai, e ad oggi non ha firmato l’appello del Center for Ai Safety.

Alcuni ricercatori nel settore che si occupano delle questioni legate all’Ai che hanno un effetto più immediato, tra cui i pregiudizi e la disinformazione, ritengono che l’improvviso allarmismo sui rischi teorici a lungo termine rappresenti una distrazione dai problemi attuali.

Meredith Whittaker, presidente della Signal Foundation e cofondatrice e consulente capo dell’Ai Now Institute, un’associazione senza scopo di lucro che si occupa di Ai e della concentrazione di potere nell’industria tecnologica, dichiara che molte delle persone che hanno firmato la lettera probabilmente ritengono che i rischi siano concreti, ma che l’allarme “non coglie i problemi reali“.

Whittaker aggiunge che il dibattito sulla minaccia esistenziale posta dall’intelligenza artificiale presenta le nuove capacità della tecnologia come il risultato di un naturale progresso scientifico piuttosto che come riflesso di prodotti modellati dagli interessi e dal controllo delle grandi aziende: “Questo discorso è una sorta di tentativo di cancellare il lavoro che è già stato fatto per identificare i danni concreti e le limitazioni molto significative di questi sistemi“.

Margaret Mitchell, ricercatrice di Hugging Face che ha lasciato Google nel 2021 dopo la diffusione di una ricerca che evidenziava le carenze e i rischi dei modelli linguistici di grandi dimensioni, sostiene che sia importante riflettere sulle ramificazioni a lungo termine dell’Ai. Ma aggiunge che i firmatari della dichiarazione del Center for Ai Safety non sembrano essersi concentrati su come dare priorità alle conseguenze nocive più immediate, come l’uso dell’Ai a scopo di sorveglianza. “Questa dichiarazione, così come è stata scritta e per le motivazioni alla base, mi fa pensare che sarà più dannosa che utile per capire a cosa dare priorità”, spiega.

Questo articolo è comparso originariamente su Wired US.