Categorie
Tecnologia

Perché Google sta ritardando il lancio del suo chatbot Bard in Europa

Author: Wired

Big G ha scelto di posticipare il lancio di Google Bard, il chatbot di intelligenza artificiale generativa, dopo che la Commissione irlandese per la protezione dei dati (DPC) ha sollevato alcune preoccupazioni al riguardo. Secondo quanto riportato da Politico, infatti, il colosso tecnologico non ha fornito informazioni sufficienti su come prevede di proteggere la privacy degli europei per giustificare il lancio del chatbot nella Ue. Pertanto, la conclusione della DPC è stata una soltanto: “Bard non verrà lanciato questa settimana”, ha dichiarato il vice commissario Graham Doyle. Nel frattempo, però, Google ha già distribuito la sua AI generativa in 180 paesi, tra cui gli Stati Uniti e il Regno Unito, così da inserirsi nella corsa del settore a cui OpenAI sta partecipando attivamente già da un po’.

Il colosso tecnologico, però, si è inizialmente guardato bene dal distribuire Bard nell’Unione Europea, soprattutto considerando che le autorità di protezione dei dati aveva già sollevato alcune perplessità riguardo il trattamento dei dati degli utenti da parte di ChatGpt. A preoccupare le autorità, in particolare, sono stati la gestione delle informazioni per addestrare i modelli LLM AI, i requisiti di trasparenza inseriti nelle leggi regionali sulla privacy, la disinformazione generata dall’intelligenza artificiale e la sicurezza dei minori. Preoccupazioni che la Commissione irlandese per la protezione dei dati ha sollevato anche – e soprattutto – rispetto a Google Bard.

Questo, però, non significa che la UE sia del tutto contraria all’intelligenza artificiale. Anzi, tutt’altro. Helen Dixon, commissario della DPC, si è dimostrata piuttosto critica nei confronti dei divieti “frettolosi” imposti agli strumenti di AI da alcune autorità. E ha dichiarato apertamente che l’uso dell’intelligenza artificiale va regolamentato, ma prima bisogna capire come farlo. “Per la commissione irlandese per la protezione dei dati, il punto in cui ci troviamo è cercare di capire un po’ di più sulla tecnologia, sui grandi modelli linguistici, sulla provenienza dei dati di addestramento”, ha dichiarato la Dixon. Non c’è da stupirsi, allora, che il lancio di Bard sia stato posticipato. La UE vuole essere certa che i suoi cittadini saranno al sicuro, e finché non avrà questa certezza il chatbot di Google non supererà i confini del vecchio continente.

Categorie
Tecnologia

L’algoritmo di Instagram ha promosso contenuti pedopornografici

Author: Wired

Meta torna a essere accusata di favorire la circolazione di contenuti pedopornografici. L’algoritmo di Instagram, secondo un’indagine del Wall Street Journal in collaborazione con i ricercatori della Stanford University e dell’università del Massachusetts – sta promuovendo la pedofilia, creando connessioni tra gli utenti che vendono foto e video di minori, attraverso un sistema di raccomandazione già noto per riuscire a collegare tra loro persone che hanno interessi di nicchia. Chiaramente la vendita di contenuti pedopornografici viola non solo la policy della piattaforma, ma anche la legge federale: questo ha portato Meta a istituire una task force interna che possa risolvere la questione.

Dopo le rivelazioni della testata, infatti, la società ha riferito di di aver bloccato migliaia di hashtag che sessualizzano i bambini – alcuni con milioni di post – e di aver impedito ai suoi sistemi di consigliare agli utenti di cercare termini noti per essere associati ad abusi sessuali. Un intervento a cui Meta ne aggiungerà molti altri nel prossimo futuro. Il fatto che un gruppo di ricercatori e giornalisti sia riuscito a trovare con grande facilità comunità che promuovono la pedofilia sulla piattaforma dimostra che Instagram deve affrontare un problema molto grosso. È bastato che l’account creato per le indagini visualizzasse un solo account collegato alla pedopornografia per essere subito “invaso” da suggerimenti che avevano a che fare con la vendita illegale di foto e video di minori.

La piattaforma più importante per queste reti di acquirenti e venditori sembra essere Instagram”, hanno dichiarato i ricercatori. A quanto pare, gli sforzi compiuti dalla società non bastano per arginare la diffusione di questi contenuti sulla piattaforma. Solo a gennaio, per esempio, Instagram ha rimosso 490mila account per aver violato la sua policy sulla sicurezza dei bambini, eppure già nei mesi successivi l’impatto di questa azione risultava ridotto. E se vi state chiedendo il perché, ecco la risposta. Prima che il Wall Street Journal sollevasse la questione, in realtà, Instagram consentiva agli utenti di cercare termini che i suoi stessi sistemi sapevano essere associati a materiale pedopornografico, seppur restituendo un messaggio che recitava “Questi risultati possono contenere immagini di abusi sessuali su minori”. Ora, a quanto pare, l’opzione è stata disabilitata, ma non è chiaro perché prima non lo fosse.

Inoltre, sembrerebbe che i tentativi degli utenti di segnalare contenuti pedopornografici venissero spesso ignorati dall’algoritmo di Instagram, che continuava a promuovere imperterrito gli account su cui venivano vendute le immagini di bambini sessualizzati. Insomma, Meta sta cercando di combattere qualcosa che il suo algoritmo si rifiuta di eliminare.

Categorie
Tecnologia

Ci stiamo concentrando sui rischi sbagliati dell’intelligenza artificiale?

Author: Wired

Capiamo che le persone siano preoccupate per come [l’intelligenza artificiale, ndr] può cambiare il nostro modo di vivere. Anche noi lo siamo – ha dichiarato il capo di OpenAi Sam Altman al Congresso statunitense all’inizio di maggio. Se le cose con questa tecnologia andassero male, possono andare molto male“.

Le voci fuori dal coro

Non tutti però condividono questo scenario apocalittico quando si parla di Ai. Yann LeCun, che ha vinto il premio Turing con Hinton e Bengio per lo sviluppo del deep learning, è critico nei confronti del pessimismo che circonda i progressi dell’Ai, e ad oggi non ha firmato l’appello del Center for Ai Safety.

Alcuni ricercatori nel settore che si occupano delle questioni legate all’Ai che hanno un effetto più immediato, tra cui i pregiudizi e la disinformazione, ritengono che l’improvviso allarmismo sui rischi teorici a lungo termine rappresenti una distrazione dai problemi attuali.

Meredith Whittaker, presidente della Signal Foundation e cofondatrice e consulente capo dell’Ai Now Institute, un’associazione senza scopo di lucro che si occupa di Ai e della concentrazione di potere nell’industria tecnologica, dichiara che molte delle persone che hanno firmato la lettera probabilmente ritengono che i rischi siano concreti, ma che l’allarme “non coglie i problemi reali“.

Whittaker aggiunge che il dibattito sulla minaccia esistenziale posta dall’intelligenza artificiale presenta le nuove capacità della tecnologia come il risultato di un naturale progresso scientifico piuttosto che come riflesso di prodotti modellati dagli interessi e dal controllo delle grandi aziende: “Questo discorso è una sorta di tentativo di cancellare il lavoro che è già stato fatto per identificare i danni concreti e le limitazioni molto significative di questi sistemi“.

Margaret Mitchell, ricercatrice di Hugging Face che ha lasciato Google nel 2021 dopo la diffusione di una ricerca che evidenziava le carenze e i rischi dei modelli linguistici di grandi dimensioni, sostiene che sia importante riflettere sulle ramificazioni a lungo termine dell’Ai. Ma aggiunge che i firmatari della dichiarazione del Center for Ai Safety non sembrano essersi concentrati su come dare priorità alle conseguenze nocive più immediate, come l’uso dell’Ai a scopo di sorveglianza. “Questa dichiarazione, così come è stata scritta e per le motivazioni alla base, mi fa pensare che sarà più dannosa che utile per capire a cosa dare priorità”, spiega.

Questo articolo è comparso originariamente su Wired US.

Categorie
Tecnologia

ChatGpt, come chiedere di non utilizzare i propri dati personali

Author: Wired

Se temete che i vostri dati personali vengano “dati in pasto” a ChatGpt, ora potete smettere di preoccuparvene. In Europa, infatti, ora gli utenti possono utilizzare i moduli forniti da OpenAI per richiedere che le proprie informazioni non vengano utilizzate per addestrare l’intelligenza artificiale. In fondo, i motivi per cui un utente dovrebbero scegliere di evitare che ChatGpt acceda ai propri dati sono infiniti. A cominciare dal fatto che la società madre del chatbot non ha mai chiesto alcun permesso di accedere alle nostre informazioni personali, nonostante la privacy sia a tutti gli effetti un diritto. Per poi aggiungere la possibilità che l’AI possa generare contenuti dannosi per la reputazione degli utenti, sostituirli nei lavori di scrittura o utilizzare i loro dati senza che esista una regolamentazione ben precisa. Insomma, i motivi per cui scegliere di evitare che le proprie informazioni personali finiscano nelle mani di OpenAI sono tanti. Cerchiamo allora di capire come fare.

Chiedere a OpenAI di cancellare i vostri dati personali

Dopo la querelle con il Garante in Italia, OpenAI ha dichiarato che gli utenti in “determinate giurisdizioni”, come l’Unione Europea, possono opporsi al trattamento delle loro informazioni personali da parte dei suoi modelli di intelligenza artificiale compilando un modulo specifico. Per avanzare la richiesta, gli utenti dovranno fornire il proprio nome e cognome, il paese di appartenenza, gli estremi dell’interessato per il quale si effettua la richiesta, e le prove “provate” che il chatbot abbia davvero avuto accesso ai loro dati personali. Inoltre, gli utenti sono invitati a certificare di aver compilato il modulo con informazioni precise e dettagliate, e ad accettare che OpenAI non potrà proseguire con la rinuncia ai dati nel caso di invio di informazioni incomplete.

Eppure, come chiarisce la stessa compagnia, l’invio della richiesta non ne garantisce l’accettazione. Come aveva scritto la società in un post sul suo blog ufficiale, infatti: “Si prega di essere consapevoli del fatto che, in conformità con le leggi sulla privacy, alcuni diritti potrebbero non essere assoluti. Possiamo rifiutare una richiesta se abbiamo un motivo legittimo per farlo. Tuttavia, ci sforziamo di dare la priorità alla protezione delle informazioni personali e di rispettare tutte le leggi sulla privacy applicabili. Se ritenete che non abbiamo affrontato adeguatamente un problema, avete il diritto di presentare un reclamo all’autorità di vigilanza locale”.

Chiedere a OpenAI di non utilizzare i vostri dati per addestrare l’AI

La società è quindi tenuta a offrire il diritto di opporsi al trattamento delle proprie informazioni. Nonostante questo, è abbastanza evidente che la compagnia tenti in tutti i modi di convincere gli utenti a non avanzare la richiesta di rinuncia, promuovendo l’idea che l’AI “migliorerà nel tempo” e che la condivisione dei dati aiuta i modelli “a diventare più accurati e migliori nel risolvere problemi specifici”. Al di là di questi tentativi, però, sono due le opzioni offerte da OpenAI per richiedere che i propri dati non vengano utilizzati per addestrare il chatbot: compilando un modulo online o modificando le impostazioni dell’account.

Cerchiamo allora di capire come accedere alle impostazioni. Anzitutto, è necessario accedere al menù “Controllo dati” cliccando sui tre puntini accanto al nome dell’account in basso a sinistra sullo schermo, poi passare alla voce “Impostazioni” e infine cliccare sull’opzione “Mostra”. Una volta qui, non dovete far altro che scorrere l’interruttore per disattivare la “Cronologia chat e formazione”. In questo modo, quindi, gli utenti non solo rinunciano a dare i propri dati in pasto a ChatGpt ma eliminano – seppur non in maniera definitiva – anche la cronologia delle chat. Una volta disattivato il cosiddetto addestramento, gli utenti visualizzeranno un pulsante dai colori vivaci con suscritto “Abilita cronologia chat” al posto della cronologia stessa. Un’opzione super attraente che nasconde il fatto che, abilitando la cronologia, si abilita anche la possibilità di addestrare il chatbot con i propri dati. Insomma, l’opzione migliore per evitare che ChatGpt si alleni con le vostre informazioni personali è ricorrere al modulo fornito da OpenAI.

Categorie
Tecnologia

Intelligenza artificiale, uno dei pionieri ora si occuperà dei suoi rischi

Author: Wired

Anche uno dei pionieri dell’intelligenza artificiale (Ia), l’informatico Geoffrey Hinton, si è unito al coro di esperti che stanno cercando di segnalare i rischi legati al rapido sviluppo di questa nuova tecnologia. Il settantaseienne britannico ha lasciato il suo ruolo a Google, dove lavorava da dieci anni, proprio per dedicarsi a quello che ha chiamato un lavoro più filosofico”, cioè parlare dei problemi di sicurezza dell’intelligenza artificiale.

Hinton è stato un pioniere dell’intelligenza artificiale e dello sviluppo delle reti neurali, avendo implementato e migliorato, nel 2012, la tecnologia su cui oggi si basano la gran parte dei sistemi Ia, assieme a due suoi ricercatori, Alex Krizhevsky e Ilya Sutskeve, cofondatore e chief scientist di OpenAi (che ha sviluppato ChatGPT).

Approccio critico

Dopo essere arrivato a Google nel 2013 e aver contribuito allo sviluppo della tecnologia di intelligenza artificiale della compagnia, Hinton ha deciso che era il momento di farsi da parte nell’ambito scientifico e dedicarsi alle implicazioni etiche e filosofiche legate alle Ia, quando Microsoft e OpenAi hanno lanciato ChatGpt. Come si legge sull’Mit Technology Review, al contrario di quanto lasciato intendere da altre testate nazionali e internazionali, Hinton non ha lasciato Google per poter criticare la compagnia.

In realtà, da una parte, si è detto troppo vecchio per il lavoro tecnico e, dall’altra, ha deciso di seguire il suo desiderio di parlare dei problemi di sicurezza dell’Ia senza dovermi preoccupare di come ciò interagisce con l’attività di Google, cioè senza l’autocensura che ogni manager di una compagnia di impone quando parla in pubblico.

L’informatico ha così definito la nuova generazione di modelli linguistici di grandi dimensioni, e in particolare ChatGpt, come alieni atterrati sulla terra senza che la gente se ne sia resa conto, “perché parlano un ottimo inglese”. Ed è in questa mancanza di consapevolezza, assieme all’incredibile intelligenza dimostrata dai sistemi Ia, che per Hinton si cela il rischio, piccolo ma per lui molto reale, che lo sviluppo senza limiti delle Ia si possa rivelare disastroso.

Vero o falso?

In particolare, la principale preoccupazione di Hinton riguarda un qualcosa che è già, in parte, davanti ai nostri occhi. Con questi sistemi sempre più abili a imitare la realtà, il rischio principale è che gli esseri umani perdano la capacità di distinguere cosa è vero e cosa è falso, soprattutto data la velocità con cui migliorano e apprendono nuove funzioni e nuove azioni.