Categorie
Tecnologia

Gptbot è lo spider di OpenAI che raschia informazioni dalla rete

Author: Wired

Da molto tempo la rete pullula di spiderbot che raccolgono informazioni di ogni genere in maniera subdola, scivolando tra un sito all’altro. L’avvento dell’intelligenza artificiale sembra però aver aggiunto nuovi protagonisti a questo scenario. Di recente OpenAI ha infatti confermato l’esistenza di Gptbot, un programma che in gergo viene chiamato crawler e che viene utilizzato per raccogliere online contenuti utili ad addestrare il modello linguistico dell’azienda – in questo caso specifico potrebbe trattarsi di Gpt-5. Ovviamente non tutte le realtà online sono ben disposte a lasciare che lo spiderbot di OpenAI passi in rassegna il loro materiale al fine di fornire dati da imparare al suo modello linguistico; la piattaforma di informazione The Verge, per esempio, ha già preso provvedimenti per bloccare Gptbot.

Twitter content

This content can also be viewed on the site it originates from.

“Infangato il diritto d’autore”

Quello che non piace ai proprietari di siti e portali è che, come ha dichiarato l’editore americano Neil Clarke, “OpenAI e altri creatori di ‘AI’ hanno ripetutamente dimostrato di non avere rispetto per i diritti di autori, artisti e altri professionisti creativi”. I modelli linguistici, infatti, risultano per lo più “basati su opere protette da copyright di altri, prese senza autorizzazione o compenso”. E questo ha portato le comunità online a voler tenere il crawler lontano dai loro siti di riferimento, tanto che la stessa OpenA per mostrarsi accomodante nei confronti delle posizioni critiche ha condiviso un modo per bloccare Gptbot, anche resta poco chiaro se questo metodo “sarà sufficiente per evitare che i contenuti vengano raccolti” dal crawler.

Categorie
Tecnologia

Contro i deepfake dell’intelligenza artificiale un bollino non basta

Author: Wired

Ma quando si ha a che fare con la grande varietà di contenuti che l’Ai è in grado di generare e i numerosi modelli già disponibili, le cose si complicano. Ad oggi, non esiste uno standard per i watermark, il che significa che ogni azienda adotta un metodo diverso. Dall-E, per esempio, utilizza una filigrana digitale visibile (ma basta una rapida ricerca su Google per trovare molti tutorial che spiegano come rimuoverla), mentre altri servizi potrebbero utilizzare metadati o watermark a livello di pixel, non visibili agli utenti. Se da una parte alcuni di questi metodi possono essere difficili da eliminare, altri, come i watermark visibili, talvolta possono risultare inefficaci quando un’immagine viene ridimensionata. “Verrano trovati dei modi per corrompere i watermark“, commenta Gregory.

La dichiarazione della Casa Bianca cita specificamente l’uso di watermark per i contenuti audio e visivi generati dall’intelligenza artificiale, ma non parla dei testi.

Esistono modi per inserire un watermark nei testi generati da strumenti come ChatGPT, per esempio manipolando il modo in cui sono distribuite le parole, facendo comparire più frequentemente un determinato termine o un insieme di parole. Questi metodi sarebbero rilevabili da una macchina, ma non necessariamente da un utente umano.

Questo significa che le filigrane digitali dovrebbero essere interpretate da una macchina e poi segnalate a un visualizzatore o a un lettore. A complicare ulteriormente il quadro ci pensano poi i contenuti multimediali misti, come gli elementi audio, le immagini, i video e i testi che possono comparire in un singolo video di TikTok. Per fare un esempio, una persona potrebbe inserire un audio reale sopra un’immagine o un video manipolato. In questo caso, le piattaforme dovrebbero capire come segnalare che una sola componente della clip è stata generata dall’Ai.

Inoltre, limitarsi a etichettare un contenuto come generato dall’intelligenza artificiale non aiuta molto gli utenti a capire se si tratta di un elemento dannoso, fuorviante o destinato all’intrattenimento.

Ovviamente, i contenuti multimediali manipolati non sono un male se si fanno video su TikTok pensati per essere divertenti e intrattenere – sottolinea Hany Farid, professore alla UC Berkeley School of Information, che ha collaborato con la società di software Adobe alla sua iniziativa sull’autenticità dei contenuti –, ma è il contesto che conta davvero. Continuerà a essere estremamente difficile, ma le piattaforme hanno sempre fatto i conti con questi problemi negli ultimi 20 anni“.

L’era dell’inganno

L’ascesa dell’intelligenza artificiale nella coscienza pubblica ha reso possibile un’altra forma di manipolazione dei contenuti multimediali. Così come gli utenti potrebbero pensare che i contenuti generati dall’intelligenza artificiale sono reali, l’esistenza stessa di contenuti “sintetici” può far sorgere dubbi sull’autenticità di qualsiasi video, immagine o testo, consentendo ad attori malintenzionati di bollare come fake anche contenuti autentici, il cosiddetto “dividendo del bugiardo“. Gregory afferma che la maggior parte dei casi recenti rilevati da Witness non riguardano deepfake usati per diffondere falsità, ma persone che cercano di spacciare per contenuti generati dall’intelligenza artificiale dei media reali. Ad aprile, un legislatore dello stato del Tamil Nadu, nell’India meridionale, ha affermato che una registrazione audio trapelata in cui accusava il suo partito di aver rubato più di tre miliardi di dollari era “generata da una macchina” (non lo era). Nel 2021, nelle settimane successive al colpo di stato militare in Myanmar, è diventato virale il video di una donna che faceva aerobica mentre alle sue spalle sfilava un convoglio militare. Molte persone online hanno detto che la clip era contraffatta, ma anche in questo non era vero.

Al momento, non si può fare molto per impedire a un malintenzionato di inserire watermark su contenuti reali per farli sembrare falsi. Farid sostiene che uno dei modi migliori per difendersi dalla contraffazione o dall’alterazione dei watermark è la firma crittografica: “Se sei OpenAi, dovresti avere una chiave crittografica. E la filigrana conterrà informazioni che possono essere note solo alla persona che detiene la chiave“, spiega. Altri watermark possono essere aggiunti a livello dei pixel o addirittura nei dati di addestramento dell’Ai. Farid cita la Coalition for Content, Provenance, and Education, di cui è consulente, come uno standard che le aziende nel settore potrebbero adottare e rispettare.

Stiamo entrando rapidamente in un’epoca in cui è sempre più difficile credere a tutto ciò che leggiamo, vediamo o sentiamo online – continua Farid –, e questo significa non solo che saremo ingannati da cose false, ma anche che non crederemo a cose vere”.

Questo articolo è comparso originariamente su Wired US.

Categorie
Economia Tecnologia

Dopo internet, la Cina vuole controllare anche l’intelligenza artificiale

Author: Wired

Le nuove regole, che entreranno in vigore a partire dal 15 agosto, sono dislocate su 24 disposizioni. Tra queste c’è è l’obbligo per i fornitori di piattaforme di effettuare una revisione della sicurezza e di registrare i propri servizi presso i sistemi del governo. L’aderenza alle norme viene richiesta anche ai fornitori offshore di strumenti di intelligenza artificiale generativa, che in ogni caso non hanno sinora ricevuto il via libera dalle autorità cinesi. E difficilmente lo otterranno, se insegna qualcosa la storia della rete e dei social occidentali.

L’adesione ai valori socialisti

Nelle nuove linee guida non compaiono invece le disposizioni previste in bozza che prevedevano multe fino a 100 mila yuan (14 mila dollari) per le violazioni, nonché l’obbligo per gli operatori delle piattaforme di agire entro un periodo di grazia di tre mesi per correggere i contenuti problematici. Le nuove regole incoraggiano inoltre gli sviluppatori cinesi di chip, modelli e software di intelligenza artificiale a impegnarsi nella definizione di standard internazionali e negli scambi tecnologici. Altro segnale di quali siano le priorità strategiche individuate dal governo cinese, che ha di fatto chiesto ai suoi campioni privati di ri-orientare gli sforzi e gli investimenti nei settori più congeniali agli obiettivi politico-tecnologici del Partito.

Ci sono anche delle aggiunte, che confermano la tendenza a un maggiore accentramento decisionale, già evidente dalla riforma dell’apparato governativo e statale approvata durante le “due sessioni” legislative di marzo. Il testo indica infatti nella Commissione nazionale per lo sviluppo e la riforma e nel rinnovato ministero della Scienza e della tecnologia gli emittenti congiunti del regolamento. Le agenzie governative competenti avranno l’autorità di “supervisionare e ispezionare i servizi di intelligenza artificiale generativa in base alle loro responsabilità“, coi fornitori chiamati a cooperare e fornire spiegazioni riguardo alla fonte dei dati, alle regole di etichettatura e ai meccanismi degli algoritmi.

Insomma, niente briglia sciolta. Secondo le norme, i fornitori di servizi di intelligenza artificiale devono “aderire ai valori socialisti fondamentali” e non generare contenuti che “incitino alla sovversione del potere statale e al rovesciamento del sistema socialista, mettano in pericolo la sicurezza e gli interessi nazionali, danneggino l’immagine del paese, incitino alla secessione dal Paese, minino l’unità nazionale e la stabilità sociale, promuovano il terrorismo, l’estremismo, l’odio nazionale e la discriminazione etnica, la violenza, l’oscenità e la pornografia“.

La nuova campagna su internet

Regole che si sposano coi concetti espressi da Xi Jinping in un discorso pronunciato il 16 luglio durante un evento sulla cybersecurity che si è svolto a Pechino. Il presidente cinese ha dichiarato che il paese deve costruire una “solida” barriera di sicurezza intorno a Internet sotto la supervisione del Partito da lui diretto: “La Cina deve continuare a gestire, operare e garantire l’accesso a Internet in conformità con la legge. Dobbiamo aderire alla gestione di Internet da parte del Partito e al principio di far funzionare Internet per il popolo”. Contestualmente al suo discorso, il ministero della Pubblica Sicurezza ha avviato una campagna contro fake news e rumors online. L’obiettivo dichiarato è quello di informare meglio il pubblico sui danni della disinformazione.

D’altronde, la rete cinese ha maglie strette, pronte ad allargarsi e a richiudersi a seconda del momento. Lo stesso principio lo si vuole applicare all’intelligenza artificiale, settore in cui la Cina si è posta obiettivo di diventare leader mondiale entro il 2030. Già oggi, la Repubblica Popolare è il primo paese al mondo per numero di brevetti, spesso orientati sulle applicazioni pratiche delle nuove tecnologie. Già presente in diversi settori industriale e nel campo sanitario, l’intelligenza artificiale con caratteristiche cinesi sembra destinata ad avere sbocchi meno ludici ma più settoriali anche nella sua declinazione generativa. Sempre sotto lo sguardo attento di chi controlla il timone.

Categorie
Tecnologia

Smettiamo di trattare i robot come degli esseri umani

Author: Wired

Hanson Robotics, l’azienda che produce Sophia e altri androidi realistici, è estremamente abile nel costruire macchine in grado di imitare le espressioni umane. Alcuni anni fa ho visitato la sede centrale dell’azienda a Hong Kong e ho incontrato il fondatore David Hanson, che in passato aveva lavorato a Disney. Il laboratorio dell’azienda sembrava uscito da Westworld o Blade Runner, con robot scollegati che guardano con aria triste in lontananza, facce raggrinzite appoggiate sugli scaffali e prototipi che balbettano sempre le stesse parole in un loop infinito.

Hanson e io abbiamo parlato dell’idea di aggiungere una vera intelligenza a queste macchine evocative. Ben Goertzel, noto ricercatore di intelligenza artificiale e amministratore delegato di SingularityNET, è a capo di un progetto per applicare i progressi dell’apprendimento automatico al software dei robot di Hanson, che consentirebbe agli androidi di rispondere al linguaggio umano.

A volte l’intelligenza artificiale alla base Sophia può fornire risposte passabili, ma la tecnologia non è così avanzata quanto GPT-4, il sistema che alimenta la versione più avanzata di ChatGPT e la cui creazione è costata più di 100 milioni di dollari. Naturalmente, anche ChatGPT e altri programmi di Ai all’avanguardia non sono capaci di rispondere in modo sensato alle domande sul futuro dell’intelligenza artificiale. Forse è meglio considerarli come imitatori dotati di conoscenze preternaturali che, per quanto capaci di ragionamenti sorprendentemente sofisticati, sono profondamente imperfetti e hanno solo una “conoscenza” limitata del mondo.

Le fuorvianti “interviste” a Sophia e compagnia a Ginevra ci ricordano come l’antropomorfizzazione dei sistemi di AI possa portarci fuori strada. La storia dell’intelligenza artificiale è costellata di esempi in cui gli esseri umani hanno fatto un uso eccessivo dei nuovi progressi nel campo.

Tendenza che viene da lontano

Nel 1958, agli albori del settore, il New York Times scrisse di uno dei primi sistemi di apprendimento automatico, una rudimentale rete neurale artificiale sviluppata per la Marina degli Stati Uniti da Frank Rosenblatt, uno psicologo della Cornell. “La Marina ha svelato oggi l’embrione di un computer elettronico che si aspetta sia in grado di camminare, parlare, vedere, scrivere, riprodursi ed essere cosciente della propria esistenza“, riportava il Times, un’affermazione audace riferita a un circuito in grado di imparare a individuare schemi in 400 pixel.

Guardando indietro alla copertura di Deep Blue – il supercomputer di Ibm capace di giocare a scacchi – di AlphaGo di DeepMind, e di molti dei progressi del deep learning nell’ultimo decennio – che discendono tutti direttamente dalla macchina di Rosenblatt – ci si trova sempre davanti allo stesso fenomeno: persone che prendono ogni avanzamento come un segno di un’intelligenza più profonda e simile a quella umana.

Questo non vuol dire che questi progetti – o anche la creazione di Sophia – non siano imprese notevoli, o potenzialmente passi avanti verso macchine più intelligenti. Ma per valutare i progressi di questa potente tecnologia è importante avere le idee chiare sulle capacità dei sistemi di AI. Per dare un senso ai progressi nel campo, il minimo che possiamo fare è smettere di fare domande stupide ai pupazzi animati.

Questo articolo è comparso originariamente su Wired US.

Categorie
Tecnologia

Mission: Impossible porta al cinema il panico per l’intelligenza artificiale

Author: Wired

Mission Impossible porta al cinema il panico per l'intelligenza artificiale

Forse è per questo che l’Entità risulta essere una villain valida, anche se il modo in cui il film la personifica (cioè come una sorta di Occhio di Sauron nel trailer e come un buco nero sbrilluccicoso in altre scene) è un po’ banale. La maggior parte degli spettatori ha avuto solo esperienze fugaci con l’intelligenza artificiale, magari grazie a qualche minuto trascorso a sperimentare ChatGpt o a qualche chiacchierata al bar sul nuovo chatbot di Bing. La rappresentazione del funzionamento dell’Entità è zeppa di lacune e assurdità tecnologiche – oltre a un comodo interruttore di spegnimento sepolto in un sottomarino nascosto sotto i ghiacci dell’Artico – ma nulla di tutto ciò ha importanza per chi è in cerca di qualcosa di nuovo e misterioso da temere.

L’intelligenza artificiale, inoltre, è un nemico abbastanza innocuo. In un’epoca di politically correct in cui i film d’azione non possono semplicemente inventarsi un cattivo di un’altra nazionalità, di un’altra etnia o di un’altra organizzazione politica marginale, un supercomputer senziente e pretestuosamente malvagio probabilmente offenderà solo i difensori più accaniti dell’Ai, una parte significativa dei quali ammette già che la tecnologia potrebbe causare l’estinzione dell’umanità. La soluzione ideale per non sollevare critiche. Il nuovo Mission Impossibile ha bisogno di diventare un successo globale al botteghino per giustificare un budget di 290 milioni di dollari, e un nemico senza volto contro cui tutto il mondo può inveire liberamente è certamente un passo nella giusta direzione.

Forse l’Entità è un precursore di un futuro in cui i blockbuster d’azione saranno popolati da intelligenze artificiali diaboliche. I thriller d’azione Heart of Stone e The Creator, in uscita rispettivamente ad agosto e a settembre, hanno come antagoniste Ai malevole votate alla distruzione globale. Senza dubbio l’umanità prevarrà sempre alla fine di queste pellicole – è per vedere questo che la gente va al cinema – ma nel frattempo milioni di spettatori possono godersi l’esperienze di condividere la paura di ciò che verrà.

Questo articolo è comparso originariamente su Wired UK.