Categorie
Tecnologia

Contro i deepfake dell’intelligenza artificiale un bollino non basta

Author: Wired

Ma quando si ha a che fare con la grande varietà di contenuti che l’Ai è in grado di generare e i numerosi modelli già disponibili, le cose si complicano. Ad oggi, non esiste uno standard per i watermark, il che significa che ogni azienda adotta un metodo diverso. Dall-E, per esempio, utilizza una filigrana digitale visibile (ma basta una rapida ricerca su Google per trovare molti tutorial che spiegano come rimuoverla), mentre altri servizi potrebbero utilizzare metadati o watermark a livello di pixel, non visibili agli utenti. Se da una parte alcuni di questi metodi possono essere difficili da eliminare, altri, come i watermark visibili, talvolta possono risultare inefficaci quando un’immagine viene ridimensionata. “Verrano trovati dei modi per corrompere i watermark“, commenta Gregory.

La dichiarazione della Casa Bianca cita specificamente l’uso di watermark per i contenuti audio e visivi generati dall’intelligenza artificiale, ma non parla dei testi.

Esistono modi per inserire un watermark nei testi generati da strumenti come ChatGPT, per esempio manipolando il modo in cui sono distribuite le parole, facendo comparire più frequentemente un determinato termine o un insieme di parole. Questi metodi sarebbero rilevabili da una macchina, ma non necessariamente da un utente umano.

Questo significa che le filigrane digitali dovrebbero essere interpretate da una macchina e poi segnalate a un visualizzatore o a un lettore. A complicare ulteriormente il quadro ci pensano poi i contenuti multimediali misti, come gli elementi audio, le immagini, i video e i testi che possono comparire in un singolo video di TikTok. Per fare un esempio, una persona potrebbe inserire un audio reale sopra un’immagine o un video manipolato. In questo caso, le piattaforme dovrebbero capire come segnalare che una sola componente della clip è stata generata dall’Ai.

Inoltre, limitarsi a etichettare un contenuto come generato dall’intelligenza artificiale non aiuta molto gli utenti a capire se si tratta di un elemento dannoso, fuorviante o destinato all’intrattenimento.

Ovviamente, i contenuti multimediali manipolati non sono un male se si fanno video su TikTok pensati per essere divertenti e intrattenere – sottolinea Hany Farid, professore alla UC Berkeley School of Information, che ha collaborato con la società di software Adobe alla sua iniziativa sull’autenticità dei contenuti –, ma è il contesto che conta davvero. Continuerà a essere estremamente difficile, ma le piattaforme hanno sempre fatto i conti con questi problemi negli ultimi 20 anni“.

L’era dell’inganno

L’ascesa dell’intelligenza artificiale nella coscienza pubblica ha reso possibile un’altra forma di manipolazione dei contenuti multimediali. Così come gli utenti potrebbero pensare che i contenuti generati dall’intelligenza artificiale sono reali, l’esistenza stessa di contenuti “sintetici” può far sorgere dubbi sull’autenticità di qualsiasi video, immagine o testo, consentendo ad attori malintenzionati di bollare come fake anche contenuti autentici, il cosiddetto “dividendo del bugiardo“. Gregory afferma che la maggior parte dei casi recenti rilevati da Witness non riguardano deepfake usati per diffondere falsità, ma persone che cercano di spacciare per contenuti generati dall’intelligenza artificiale dei media reali. Ad aprile, un legislatore dello stato del Tamil Nadu, nell’India meridionale, ha affermato che una registrazione audio trapelata in cui accusava il suo partito di aver rubato più di tre miliardi di dollari era “generata da una macchina” (non lo era). Nel 2021, nelle settimane successive al colpo di stato militare in Myanmar, è diventato virale il video di una donna che faceva aerobica mentre alle sue spalle sfilava un convoglio militare. Molte persone online hanno detto che la clip era contraffatta, ma anche in questo non era vero.

Al momento, non si può fare molto per impedire a un malintenzionato di inserire watermark su contenuti reali per farli sembrare falsi. Farid sostiene che uno dei modi migliori per difendersi dalla contraffazione o dall’alterazione dei watermark è la firma crittografica: “Se sei OpenAi, dovresti avere una chiave crittografica. E la filigrana conterrà informazioni che possono essere note solo alla persona che detiene la chiave“, spiega. Altri watermark possono essere aggiunti a livello dei pixel o addirittura nei dati di addestramento dell’Ai. Farid cita la Coalition for Content, Provenance, and Education, di cui è consulente, come uno standard che le aziende nel settore potrebbero adottare e rispettare.

Stiamo entrando rapidamente in un’epoca in cui è sempre più difficile credere a tutto ciò che leggiamo, vediamo o sentiamo online – continua Farid –, e questo significa non solo che saremo ingannati da cose false, ma anche che non crederemo a cose vere”.

Questo articolo è comparso originariamente su Wired US.

Author: Wired

Ma quando si ha a che fare con la grande varietà di contenuti che l’Ai è in grado di generare e i numerosi modelli già disponibili, le cose si complicano. Ad oggi, non esiste uno standard per i watermark, il che significa che ogni azienda adotta un metodo diverso. Dall-E, per esempio, utilizza una filigrana digitale visibile (ma basta una rapida ricerca su Google per trovare molti tutorial che spiegano come rimuoverla), mentre altri servizi potrebbero utilizzare metadati o watermark a livello di pixel, non visibili agli utenti. Se da una parte alcuni di questi metodi possono essere difficili da eliminare, altri, come i watermark visibili, talvolta possono risultare inefficaci quando un’immagine viene ridimensionata. “Verrano trovati dei modi per corrompere i watermark“, commenta Gregory.

La dichiarazione della Casa Bianca cita specificamente l’uso di watermark per i contenuti audio e visivi generati dall’intelligenza artificiale, ma non parla dei testi.

Esistono modi per inserire un watermark nei testi generati da strumenti come ChatGPT, per esempio manipolando il modo in cui sono distribuite le parole, facendo comparire più frequentemente un determinato termine o un insieme di parole. Questi metodi sarebbero rilevabili da una macchina, ma non necessariamente da un utente umano.

Questo significa che le filigrane digitali dovrebbero essere interpretate da una macchina e poi segnalate a un visualizzatore o a un lettore. A complicare ulteriormente il quadro ci pensano poi i contenuti multimediali misti, come gli elementi audio, le immagini, i video e i testi che possono comparire in un singolo video di TikTok. Per fare un esempio, una persona potrebbe inserire un audio reale sopra un’immagine o un video manipolato. In questo caso, le piattaforme dovrebbero capire come segnalare che una sola componente della clip è stata generata dall’Ai.

Inoltre, limitarsi a etichettare un contenuto come generato dall’intelligenza artificiale non aiuta molto gli utenti a capire se si tratta di un elemento dannoso, fuorviante o destinato all’intrattenimento.

Ovviamente, i contenuti multimediali manipolati non sono un male se si fanno video su TikTok pensati per essere divertenti e intrattenere – sottolinea Hany Farid, professore alla UC Berkeley School of Information, che ha collaborato con la società di software Adobe alla sua iniziativa sull’autenticità dei contenuti –, ma è il contesto che conta davvero. Continuerà a essere estremamente difficile, ma le piattaforme hanno sempre fatto i conti con questi problemi negli ultimi 20 anni“.

L’era dell’inganno

L’ascesa dell’intelligenza artificiale nella coscienza pubblica ha reso possibile un’altra forma di manipolazione dei contenuti multimediali. Così come gli utenti potrebbero pensare che i contenuti generati dall’intelligenza artificiale sono reali, l’esistenza stessa di contenuti “sintetici” può far sorgere dubbi sull’autenticità di qualsiasi video, immagine o testo, consentendo ad attori malintenzionati di bollare come fake anche contenuti autentici, il cosiddetto “dividendo del bugiardo“. Gregory afferma che la maggior parte dei casi recenti rilevati da Witness non riguardano deepfake usati per diffondere falsità, ma persone che cercano di spacciare per contenuti generati dall’intelligenza artificiale dei media reali. Ad aprile, un legislatore dello stato del Tamil Nadu, nell’India meridionale, ha affermato che una registrazione audio trapelata in cui accusava il suo partito di aver rubato più di tre miliardi di dollari era “generata da una macchina” (non lo era). Nel 2021, nelle settimane successive al colpo di stato militare in Myanmar, è diventato virale il video di una donna che faceva aerobica mentre alle sue spalle sfilava un convoglio militare. Molte persone online hanno detto che la clip era contraffatta, ma anche in questo non era vero.

Al momento, non si può fare molto per impedire a un malintenzionato di inserire watermark su contenuti reali per farli sembrare falsi. Farid sostiene che uno dei modi migliori per difendersi dalla contraffazione o dall’alterazione dei watermark è la firma crittografica: “Se sei OpenAi, dovresti avere una chiave crittografica. E la filigrana conterrà informazioni che possono essere note solo alla persona che detiene la chiave“, spiega. Altri watermark possono essere aggiunti a livello dei pixel o addirittura nei dati di addestramento dell’Ai. Farid cita la Coalition for Content, Provenance, and Education, di cui è consulente, come uno standard che le aziende nel settore potrebbero adottare e rispettare.

Stiamo entrando rapidamente in un’epoca in cui è sempre più difficile credere a tutto ciò che leggiamo, vediamo o sentiamo online – continua Farid –, e questo significa non solo che saremo ingannati da cose false, ma anche che non crederemo a cose vere”.

Questo articolo è comparso originariamente su Wired US.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.