Categorie
Tecnologia

ChatGpt, come chiedere di non utilizzare i propri dati personali

Author: Wired

Se temete che i vostri dati personali vengano “dati in pasto” a ChatGpt, ora potete smettere di preoccuparvene. In Europa, infatti, ora gli utenti possono utilizzare i moduli forniti da OpenAI per richiedere che le proprie informazioni non vengano utilizzate per addestrare l’intelligenza artificiale. In fondo, i motivi per cui un utente dovrebbero scegliere di evitare che ChatGpt acceda ai propri dati sono infiniti. A cominciare dal fatto che la società madre del chatbot non ha mai chiesto alcun permesso di accedere alle nostre informazioni personali, nonostante la privacy sia a tutti gli effetti un diritto. Per poi aggiungere la possibilità che l’AI possa generare contenuti dannosi per la reputazione degli utenti, sostituirli nei lavori di scrittura o utilizzare i loro dati senza che esista una regolamentazione ben precisa. Insomma, i motivi per cui scegliere di evitare che le proprie informazioni personali finiscano nelle mani di OpenAI sono tanti. Cerchiamo allora di capire come fare.

Chiedere a OpenAI di cancellare i vostri dati personali

Dopo la querelle con il Garante in Italia, OpenAI ha dichiarato che gli utenti in “determinate giurisdizioni”, come l’Unione Europea, possono opporsi al trattamento delle loro informazioni personali da parte dei suoi modelli di intelligenza artificiale compilando un modulo specifico. Per avanzare la richiesta, gli utenti dovranno fornire il proprio nome e cognome, il paese di appartenenza, gli estremi dell’interessato per il quale si effettua la richiesta, e le prove “provate” che il chatbot abbia davvero avuto accesso ai loro dati personali. Inoltre, gli utenti sono invitati a certificare di aver compilato il modulo con informazioni precise e dettagliate, e ad accettare che OpenAI non potrà proseguire con la rinuncia ai dati nel caso di invio di informazioni incomplete.

Eppure, come chiarisce la stessa compagnia, l’invio della richiesta non ne garantisce l’accettazione. Come aveva scritto la società in un post sul suo blog ufficiale, infatti: “Si prega di essere consapevoli del fatto che, in conformità con le leggi sulla privacy, alcuni diritti potrebbero non essere assoluti. Possiamo rifiutare una richiesta se abbiamo un motivo legittimo per farlo. Tuttavia, ci sforziamo di dare la priorità alla protezione delle informazioni personali e di rispettare tutte le leggi sulla privacy applicabili. Se ritenete che non abbiamo affrontato adeguatamente un problema, avete il diritto di presentare un reclamo all’autorità di vigilanza locale”.

Chiedere a OpenAI di non utilizzare i vostri dati per addestrare l’AI

La società è quindi tenuta a offrire il diritto di opporsi al trattamento delle proprie informazioni. Nonostante questo, è abbastanza evidente che la compagnia tenti in tutti i modi di convincere gli utenti a non avanzare la richiesta di rinuncia, promuovendo l’idea che l’AI “migliorerà nel tempo” e che la condivisione dei dati aiuta i modelli “a diventare più accurati e migliori nel risolvere problemi specifici”. Al di là di questi tentativi, però, sono due le opzioni offerte da OpenAI per richiedere che i propri dati non vengano utilizzati per addestrare il chatbot: compilando un modulo online o modificando le impostazioni dell’account.

Cerchiamo allora di capire come accedere alle impostazioni. Anzitutto, è necessario accedere al menù “Controllo dati” cliccando sui tre puntini accanto al nome dell’account in basso a sinistra sullo schermo, poi passare alla voce “Impostazioni” e infine cliccare sull’opzione “Mostra”. Una volta qui, non dovete far altro che scorrere l’interruttore per disattivare la “Cronologia chat e formazione”. In questo modo, quindi, gli utenti non solo rinunciano a dare i propri dati in pasto a ChatGpt ma eliminano – seppur non in maniera definitiva – anche la cronologia delle chat. Una volta disattivato il cosiddetto addestramento, gli utenti visualizzeranno un pulsante dai colori vivaci con suscritto “Abilita cronologia chat” al posto della cronologia stessa. Un’opzione super attraente che nasconde il fatto che, abilitando la cronologia, si abilita anche la possibilità di addestrare il chatbot con i propri dati. Insomma, l’opzione migliore per evitare che ChatGpt si alleni con le vostre informazioni personali è ricorrere al modulo fornito da OpenAI.

Categorie
Tecnologia

Intelligenza artificiale, uno dei pionieri ora si occuperà dei suoi rischi

Author: Wired

Anche uno dei pionieri dell’intelligenza artificiale (Ia), l’informatico Geoffrey Hinton, si è unito al coro di esperti che stanno cercando di segnalare i rischi legati al rapido sviluppo di questa nuova tecnologia. Il settantaseienne britannico ha lasciato il suo ruolo a Google, dove lavorava da dieci anni, proprio per dedicarsi a quello che ha chiamato un lavoro più filosofico”, cioè parlare dei problemi di sicurezza dell’intelligenza artificiale.

Hinton è stato un pioniere dell’intelligenza artificiale e dello sviluppo delle reti neurali, avendo implementato e migliorato, nel 2012, la tecnologia su cui oggi si basano la gran parte dei sistemi Ia, assieme a due suoi ricercatori, Alex Krizhevsky e Ilya Sutskeve, cofondatore e chief scientist di OpenAi (che ha sviluppato ChatGPT).

Approccio critico

Dopo essere arrivato a Google nel 2013 e aver contribuito allo sviluppo della tecnologia di intelligenza artificiale della compagnia, Hinton ha deciso che era il momento di farsi da parte nell’ambito scientifico e dedicarsi alle implicazioni etiche e filosofiche legate alle Ia, quando Microsoft e OpenAi hanno lanciato ChatGpt. Come si legge sull’Mit Technology Review, al contrario di quanto lasciato intendere da altre testate nazionali e internazionali, Hinton non ha lasciato Google per poter criticare la compagnia.

In realtà, da una parte, si è detto troppo vecchio per il lavoro tecnico e, dall’altra, ha deciso di seguire il suo desiderio di parlare dei problemi di sicurezza dell’Ia senza dovermi preoccupare di come ciò interagisce con l’attività di Google, cioè senza l’autocensura che ogni manager di una compagnia di impone quando parla in pubblico.

L’informatico ha così definito la nuova generazione di modelli linguistici di grandi dimensioni, e in particolare ChatGpt, come alieni atterrati sulla terra senza che la gente se ne sia resa conto, “perché parlano un ottimo inglese”. Ed è in questa mancanza di consapevolezza, assieme all’incredibile intelligenza dimostrata dai sistemi Ia, che per Hinton si cela il rischio, piccolo ma per lui molto reale, che lo sviluppo senza limiti delle Ia si possa rivelare disastroso.

Vero o falso?

In particolare, la principale preoccupazione di Hinton riguarda un qualcosa che è già, in parte, davanti ai nostri occhi. Con questi sistemi sempre più abili a imitare la realtà, il rischio principale è che gli esseri umani perdano la capacità di distinguere cosa è vero e cosa è falso, soprattutto data la velocità con cui migliorano e apprendono nuove funzioni e nuove azioni.

Categorie
Economia Tecnologia

Musk, perché dobbiamo fermare quello che c’è in ognuno di noi

Author: Wired

“Oh, certo, è piuttosto diffuso. Posso parlare solo in merito all’Occidente quindi, per come lo intendo io, è certamente diffuso in America e in Europa occidentale. Non so se in Giappone, in Cina o in Africa ragionino in questo modo. L’America ha sempre avuto a che fare con la crescita, la colonizzazione, il dominio, l’estrazione e la fuga. Non si tratta quindi di una caratteristica esclusiva della classe dei miliardari tech. Però, ritengo che a rendere speciale questo gruppo sia il fatto che credono davvero di poterlo fare. Anche ai vecchi tempi miliardari come William Randolph Hearst o Howard Hughes potevano costruire un castello da qualche parte e difenderlo da qualsiasi cosa, ma non credevano necessariamente di dover distruggere necessariamente il mondo per farlo. Anche Alessandro Magno o Giulio Cesare dominavano il mondo ma non lo distruggevano a questo scopo. Questi nuovi miliardari, al contrario, credono di doversi lasciare alle spalle il mondo reale. Sono un po’ come un’intelligenza artificiale, in fin dei conti. Un’IA non è nel mondo reale, giusto? L’Ai elabora scenari basati su ciò che la gente ha detto nel passato. È come se questi miliardari cercassero di abbandonare il mondo materiale per passare a quello successivo. Ma questa mentalità, questo mindset, appunto, è decisamente diffuso. Questo è il motivo per cui ho scritto questo libro.

“Se riusciamo a vedere la versione più estrema di questa mentalità, possiamo esorcizzarla da noi stessi. Non mi interessa mettere in prigione Peter Thiel o Elon Musk. Non mi interessa di loro, in realtà. Non si tratta di fermarli. Si tratta di fermare l’Elon Musk che è in ognuno di noi”.

Un passaggio del tuo libro che mi ha colpito particolarmente è quando dici che per queste persone il presente è una forma di ostacolo verso qualcosa di più importante, ancora da costruire. Mi sembra terrificante.
“In parte, c’è questa idea di ‘altruismo efficace’, una sorta di filosofia in cui credono personaggi come Thiel, Musk e tutti quelli che sostengono che un giorno, in futuro, ci saranno trilioni di cyborg post-umani, creature artificiali e intelligenti sparse per la galassia. In quest’ottica, la salute e la felicità degli 8 miliardi di persone che vivono oggi, scompaiono in confronto alla quantità di gioia e felicità che queste moltitudini sperimenteranno più in là. Quindi va bene sacrificare i noi di oggi per raggiungere quel futuro. Queste persone vedono gli esseri umani nel nostro stato attuale, gli 8 miliardi di noi, come lo stadio larvale dell’essere. Siamo come piccoli vermi sulla terra. Ciò cui fanno riferimento è in realtà lo stadio successivo, come i Pokemon dopo che si sono evoluti. Quindi, se il mondo in cui ci troviamo io, tu e tutti noi è inteso come il primo stadio di una grande nave a razzo che sta decollando, bisogna far cadere il primo stadio in modo che gli astronauti possano continuare il loro viaggio. In quest’ottica, le masse sono il materiale per la creazione di denaro tramite i social network. Questo altro non è che, ancora una volta, il modo in cui le masse sono state viste dai dittatori fin dall’inizio della storia dei dittatori, ecco cosa siamo. E ognuno di loro ha la propria versione di questo concetto. Anche se a un certo livello pensano di aiutare davvero l’umanità, non si tratta dell’umanità di oggi. Per questo che non ho ancora firmato la lettera in favore di un pausa nello sviluppo dell’intelligenza artificiale (quella, molto criticata, del Future of Life Institute, nda) perché le persone che la stanno proponendo sembrano più preoccupate di alcuni rischi esistenziali per la loro visione futura. E sembra che stiano ancora ignorando i rischi reali e attuali per le persone già vulnerabili oggi”.

“Solo i più ricchi”

“Solo i più ricchi”

La lettera mi sembra un capolavoro di “lungotermismo”, che mette da parte reali problemi in favore di scenari assolutamente speculativi. Gli sviluppi più recenti nell’ambito dell’intelligenza artificiale, penso ad esempio al successo di ChatGPT, richiedono una critica diversa?
“Ci sono due campi molto diversi nel mondo della critica alla tecnologia e uno di questi, quello a cui generalmente appartengo, è più orientato alla giustizia sociale. Guardate come questi algoritmi mettono in prigione i neri più dei bianchi. Guardate come questi sistemi stanno ulteriormente esautorando i poveri. Guardate come sono distorti in questo o quell’altro modo. È così che sono stato cresciuto, con Neil Postman, Karl Marx e Bertolt Brecht. C’è poi un altro gruppo con cui ho sempre avuto problemi, dove troviamo Tristan Harris, Rebel Wisdom e le persone che guardano alle grandi meta-crisi del futuro dell’umanità. E mi sembra si tratti sempre di uomini bianchi dell’industria tecnologica che ci dicono di saperne di più di noi e che vogliono riqualificare gli esseri umani, o migliorare l’umano”.

“Mi sembra tutto ancora molto tecno-feticista: stiamo usando la tecnologia sulle persone in questo modo, mentre dovremmo usare la tecnologia sulle persone in quest’altro modo. Da un lato ogni rallentamento, ogni moratoria, ogni opportunità di fare una pausa è generalmente una buona cosa”.

“È per questo che ho scritto un intero libro intitolato Presente continuo. Quando tutto accade ora e l’argomentazione, che è stata per altro ampiamente ridicolizzata all’epoca, nel 2013, quando ho scritto il libro era esattamente ‘possiamo fare una pausa? Potete fermarvi per riflettere su ciò che state facendo come società? Possiamo fare una pausa e guardare a come stiamo costruendo la tecnologia?’. Quindi l’impulso di quella lettera mi trova generalmente d’accordo, ma alcuni aspetti specifici non li capisco. Quindi non ho potuto firmare. Non capisco sinceramente cosa si intenda per mettere in pausa la tecnologia in questa fase di ChatGPT. È come se mettessimo in pausa i social media in questa fase evoutiva di Facebook. Che cosa significa? Non la firmo perché non sono d’accordo. Non la firmo ancora perché mi sto soffermando a capire cosa significhi davvero”.

Categorie
Economia Tecnologia

ChatGPT è tornato disponibile in Italia

Author: Wired

Come si può leggere nella privacy policy, ChatGPT specifica che è possibile “che i contenuti che ci fornisci siano utilizzati per migliorare i nostri servizi, per esempio per allenare i modelli linguistici che alimentano ChatGPT”. In un post del blog aggiornato con le ultime funzioni in materia di privacy, il responsabile degli specialisti di Ai della società, Yaniv Markovski, spiega che l’azienda sta compiendo vari passi “per ridurre la quantità di dati personali nei nostri set di dati per l’allenamento degli algoritmi prima che siano utilizzati per migliorare i nostri modelli”.

Il commento del Garante

In una nota, il Garante della privacy riepiloga i passi avanti fatti con ChatGPT, che rispondono alle sue richieste. Quindi, numero uno: un’informativa rivolta a tutti gli utenti e non utenti, in Europa e nel resto del mondo, per illustrare quali dati personali e con quali modalità sono trattati per l’addestramento degli algoritmi e per ricordare che chiunque ha diritto di opporsi a tale trattamento. L’azienda ha anche “ampliato l’informativa sul trattamento dei dati riservata agli utenti del servizio rendendola ora accessibile anche nella maschera di registrazione prima che un utente si registri al servizio”. L’informativa è ora anche un bella vista nel messaggio di benvenuto.

Ora le persone che vivono in Unione europea, anche se non sono utenti di ChatGPT, possono opporsi all’uso dei dati, anche attraverso un modulo di richiesta online. L’azienda “ha previsto per gli interessati la possibilità di far cancellare le informazioni ritenute errate dichiarandosi, allo stato, tecnicamente impossibilitata a correggere gli errori”, scrive il Garante, e “ha chiarito, nell’informativa riservata agli utenti, che mentre continuerà a trattare taluni dati personali per garantire il corretto funzionamento del servizio sulla base del contratto, tratterà i loro dati personali ai fini dell’addestramento degli algoritmi, salvo che esercitino il diritto di opposizione, sulla base del legittimo interesse”. Inoltre OpenAi ha reso disponibile un modulo per esercitare il diritto di opposizione all’uso dei dati per allenare gli algoritmi, la schermata di dichiarazione dell’età e la richiesta della data di nascita per chi si registra, “prevedendo un blocco alla registrazione per gli utenti infratredicenni e, nell’ipotesi di utenti ultratredicenni ma minorenni che debbano confermare di avere il consenso dei genitori all’uso del servizio”.

L’Autorità riconosce i passi in avanti compiuti per coniugare il progresso tecnologico con il rispetto dei diritti delle persone e auspica che la società prosegua lungo questo percorso di adeguamento alla normativa europea sulla protezione dati – scrivono da piazzale Venezia, dove ora si attendono gli sviluppi sul fronte verifica dell’età e campagna di comunicazione -. L’Autorità proseguirà dunque nell’attività istruttoria avviata nei confronti di OpenAi e nel lavoro che porterà avanti la apposita task force costituita in seno al Comitato che riunisce le Autorità per la privacy dell’Unione europea“.

ChatGPTLe nuove protezioni per la privacy di ChatGPT

Dalla modalità “incognito” all’esportazione dei propri dati, le mosse di OpenAi vanno nella direzione indicata dal Garante della privacy. Ma non bastano a soddisfarle del tutto

Il blocco di ChatGPT

Il blocco di ChatGPT per gli utenti che si collegano dall’Italia è stato stabilito da OpenAi nella sera del 31 marzo scorso, a poche ore di distanza dal primo provvedimento del Garante della privacy per violazione del Gdpr (il regolamento europeo per il trattamento dei dati personali). Contestualmente l’azienda ha congelato gli abbonamenti di chi era iscritto al servizio e previsto un rimborso per le persone che avevano sottoscritto un’utenza a marzo. L’azione del Garante non prevedeva in automatico il blocco: se OpenAi fosse riuscita a esercitare il proprio chatbot senza il ricorso a dati personali, avrebbe potuto farlo. Uno scenario teorico, ça va sans dire. Con lo stop al servizio, inoltre, l’azienda si è cautelata da potenziali altre violazioni che si sarebbero potute verificare fintantoché non assolveva alle richieste del garante.

Categorie
Economia Tecnologia

AutoGPT, la guida: cosa cambia rispetto a ChatGPT

Author: Wired

Uno dei primi esempi di impiego è stato quello di assegnare a AutoGPT il compito di generare una ricetta nuova e non-convenzionale per una festa imminente tipo la Pasqua, memorizzarla in un file e interrompersi in ogni attività appena giunto allo scopo. Il neonato Chef-GPT – così è stato soprannominato – ha risposto che avrebbe cercato fra gli eventi più vicini per trovare quello adatto alla creazione di una ricetta unica. E così è iniziata la caccia, stabilendo che un sito di eventi sarebbe stato ideale, poi si è concentrato su aprile e alla fine ha scelto la Giornata della Terra del 22 aprile. Il risultato è stata la creazione di una ricetta: la Earth Day Quinoa Salad. Missione compiuta in 1 minuto e 46 secondi. Sembra una banalità ma se si riflette il software ha compiuto più azioni diverse per raggiungere lo scopo. Un chatbot convenzionale avrebbe assolto solo parzialmente al compito.

Perché AutoGPT è davvero speciale

Auto-GPT è un ulteriore tassello importante di sviluppo per il modello GPT perché è in grado di stabilire un percorso di avvicinamento e raggiungimento dell’obiettivo finale articolando azioni di diverso tipo: una specie di pensieri, ragionamenti e criticità. Nel caso della ricetta il primo pensiero dell’IA è stato quello di “cercare eventi imminenti per trovarne uno adatto alla creazione di una ricetta unica“. Sulla base di questa azione il ragionamento è stato quello di trovare un evento imminente capace di aiutarlo “a trovare una ricetta pertinente ed entusiasmante“. Le criticità sono state relative a potenziali vincoli o limitazioni alle azioni.

Come se non bastasse è concentrato di più tecnologie: si affida a GPT-4 per la generazione di testo e GPT-3.5 per l’archiviazione dei file e il riepilogo, si connette a internet per recuperare informazioni e dati, mette a disposizione una memoria a medio e lungo termine, nonché (opzionalmente) funzionalità di sintesi vocale tramite la tecnologia di ElevenLabs.

Come usare AutoGPT

AutoGPT è un software che non richiede competenze di sviluppo super professionali ma certamente è un po’ più complesso da usare rispetto a ChatGPT, soprattutto perché ha bisogno di strumenti che un comune utente normalmente non usa.

Ad ogni modo se si vuole sperimentare senza troppo impegno basta cercare su Google delle interfacce per AutoGPT già preconfezionate. Si pensi per esempio ad AgentGPT oppure GodMode, che non richiedono chiavi Api per procedere a un primo contatto.

Chi invece vuole testare seriamente AutoGPT deve disporre di una versione di Python 3.8 (o superiore), una chiave API OpenAI, una chiave API Pinecone; e una chiave API ElevenLabs se si desidera anche la funzione di sintesi vocale. Dopodiché, consultate tutte le informazioni utili disponibili sulla pagina GitHub del progetto AutoGPT GitHub, non resta che cliccare sul tasto verde Codice e scaricare il file Zip.

A quel punto il suggerimento è di usare uno strumento come PowerShell o comunque una interfaccia a riga di comando per digitare git clone https://github.com/Torantulino/Auto-GPT.git in modo da clonare il repository GitHub, poi digitare cd ‘Auto-GPT’ per avere accesso diretto alla directory dell’intero progetto. Poi ancora digitare pip install -r requirements.txt per avviare l’installazione. Infine, non resta che rinominare il file .env.template in .env e inserire la propria chiave API OpenAI. Dopodiché la strada è in discesa perché per usare AutoGPT basta poi dare un nome al bot e assegnare un obiettivo da raggiungere.