Categorie
Tecnologia

L’AI di Microsoft che crea video deepfake da una sola foto

Author: Wired

Qui sotto un medesimo discorso e espressioni facciali con tre differenti visi, tutti ricavati da una singola foto di partenza.

X content

This content can also be viewed on the site it originates from.

Naturalmente, ci sono esempi molto più divertenti, come per esempio quello che mostra la Gioconda che prende vita e canta stile rap Paparazzi.

X content

This content can also be viewed on the site it originates from.

Soltanto lo scorso febbraio, Alibaba aveva presentato una tecnologia per certi versi simile chiamata Emo (Emote Portrait Alive), mentre l’ormai celebre modello Sora di OpenAI ha dimostrato come si sia già evoluta la generazione di video realistici del tutto realizzati da intelligenza artificiale basandosi soltanto su prompt testuali. Vasa-1 è stata addestrata con video pubblici su YouTube e può al momento generare filmati a risoluzione 512×512 pixel con fino a 40 frame al secondo con minima latenza, quindi può essere utilizzata anche per interazioni in tempo reale e videoconferenze. Per il momento questo rimarrà un progetto di studio e il codice non sarà diffuso, ma rimane sempre attuale l’esigenza di sviluppare sistemi che possano evidenziare più facilmente se i contenuti siano non reali e creati da AI, un’esigenza sempre più urgente per controbattere a fake news e disinformazione.

Categorie
Tecnologia

Il processo per i deepfake porno con il volto di Giorgia Meloni

Author: Wired

Due persone sono finite a processo per aver diffuso online alcuni video pornografici deepfake in cui appariva il volto della presidente del Consiglio, Giorgia Meloni. I contenuti manipolati in questo modo sono aumentati di oltre il 400% negli ultimi anni, prendendo quasi sempre come vittime donne più o meno famose, tra cui Meloni. La presidente ha chiesto un risarcimento di 100mila euro, che ha promesso di destinare a un fondo per le donne vittime di violenza.

Come riporta la campagna Ban Deepfakes, i contenuti sessualmente espliciti realizzati con le manipolazioni grafiche colpiscono in modo particolare le donne. Oltre per questi contenuti, i deepfake vengono usati anche per portare a termine vere e proprie truffe, che possono avere come obiettivo la manipolazione psicologica delle persone sia a fini politici che economici.

I video deepfake di Meloni

Nel caso di Meloni, i video sarebbero stati pubblicati da due uomini, di 73 anni e 40 anni, rispettivamente padre e figlio, su siti pornografici statunitensi dove sono stati visti milioni di volte in diversi mesi, spingendo la leader di Fratelli d’Italia a denunciare i fatti. Le indagini sono cominciate nel 2020 e i due responsabili sono stati trovati tramite l’identificazione dello smartphone da cui sarebbero stati caricati i video incriminati.

I due sono stati accusati di diffamazione e diffusione di materiale pornografico contraffatto e potrebbero rischiare una sanzione penale. Meloni sarà chiamata a testimoniare sul caso a Sassari, il prossimo 2 luglio. Il team legale della presidente del Consiglio ha dichiarato che la somma richiesta in risarcimento è puramente simbolica e volta a lanciare un messaggio a tutte le donne vittime di questi abuso affinché sporgano denuncia.

Nel 2023 Wired Uk ha rilanciato una ricerca che identificava 35 diversi siti web che ospitano video pornografici deepfake o che incorporano i video insieme ad altro materiale per adulti. È emerso che il materiale è facilmente raggiungibile online attraverso i principali motori di ricerca.

Categorie
Tecnologia

L’intelligenza artificiale che censura i corpi delle donne

Author: Wired

Immaginate di scorrere il vostro feed di X e di imbattervi in una foto di una celebrità o di un’influencer che conoscete bene. Ma c’è qualcosa che non va: il suo abito è diverso da quello che ricordate, i suoi tatuaggi sono scomparsi, i suoi piercing sono stati rimossi. E se guardate bene, vi accorgete che la foto è stata modificata con l’intelligenza artificiale, per renderla più casta. Questo è quello che fa DignifAI, un account che si definisce “un movimento” e che ha lo scopo di restituire “dignità e rispetto” ai soggetti ritratti, ignorando completamente la loro volontà.

Cos’è DignifAI

DignifAI è un account di X che da fine gennaio 2024 pubblica foto modificate con l’intelligenza artificiale per rivestire, coprire o cambiare l’aspetto di persone, soprattutto donne, che appaiono in abiti ritenuti troppo succinti o provocanti. Il motto dell’account, che ha già raggiunto più di 36.000 follower, è “We’re putting clothes on degenerate women for fun”. DignifAI utilizza il deepfake che permette di creare immagini false ma realistiche, sfruttando algoritmi di apprendimento automatico in grado di produrre nuove immagini a partire da quelle esistenti, modificandole secondo certi criteri.

Le principali vittime di DignifAI sono donne, in particolare creator di OnlyFans e non solo. Anche celebrità internazionali, come la popstar Miley Cyrus, sono state censurate e rivestite con l’AI. In uno degli ultimi post, DignifAI ha trasformato una foto di Cyrus in abito trasparente, scattata durante gli ultimi Grammy, in una foto in cui indossa un abito lungo. In uno dei commenti si legge: “La parte più divertente è che tutte queste donne sembrano molto più attraenti quando indossano dei vestiti”.

X content

This content can also be viewed on the site it originates from.

Le origini di DignifAI

Chi si nasconde dietro DignifAI? L’identità dell’autore o degli autori di questo account è sconosciuta. L’unica informazione disponibile è che si tratta di un movimento nato su 4chan, un forum online noto per l’anonimato che offre ai suoi utenti e per i suoi contenuti controversi a cui non viene applicata censura. Su 4chan, infatti, sono nati molti fenomeni di odio, trollaggio e disinformazione che poi si sono diffusi sul web, come QAnon, il Gamergate o il Pizzagate.

Il manifesto di DignifAI, pubblicato su 4chan, rivela le motivazioni di questo movimento: “Con il potere dell’AI vogliamo vestire gli instahots, li vogliamo purificare dei loro tatuaggi e li vogliamo liberare dei loro piercing. E vogliamo allungare le loro gonne”. Il sito ufficiale include anche link a tutorial specifici per l’utilizzo di Stable Diffusion a questo scopo, così come istruzioni per repostare in maniera corretta sui social.

Categorie
Tecnologia

Putin si è fatto intervistare da un suo clone fatto con l’AI

Author: Wired

In Russia è tempo di campagna elettorale e dopo un anno in cui ha preferito schermarsi dalle telecamere e dai luoghi pubblici, il leader russo Vladimir Putin è tornato a tenere la sua conferenza stampa di fine anno. Questa volta però, ad aspettarlo non c’erano solo giornalisti e pubblico ma anche una riproduzione del presidente russo, prodotta con l’intelligenza artificiale, che gli ha posto alcune domande.

Dopo quasi 3 ore dall’inizio della conferenza stampa, evento ampiamente organizzato per mettere in buona luce il capo di stato, Putin è sembrato sorpreso di trovarsi a osservare sé stesso nel maxischermo dello studio, tanto da restare senza parole per alcuni secondi. Viso, corporatura, voce e persino la postura e la gestualità sono state riprodotte perfettamente dal video deepfake realizzato con l’intelligenza artificiale.

Il sosia in AI non si però presentato usando il nome di Putin, ma come uno studente dell’università di San Pietroburgo, anche se, per qualche secondo, sugli schermi dei televisori russi sono apparsi due identici Putin, uno di fianco all’altro. Ironizzando sulla sua stessa presenza, il deepfake ha chiesto al leader russo se esistano davvero suoi sosia in carne e ossa, come ipotizzato di frequente dai media occidentali, e quale fosse la sua opinione rispetto a pericoli posti dall’intelligenza artificiale.

Putin, quello vero (almeno per quanto ne sappiamo), ha risposto alle domande indicando il doppione come la sua “prima controfigura” e che “è impossibile evitare” l’intelligenza artificiale. Rivolgendosi direttamente al sosia, ha però anche tenuto a sottolineare che “può parlare come me e usare il mio tono di voce, ma che solo una persona può essere come me e parlare con la mia voce e quella persona sarò io”, come riporta la traduzione fornita da Cnbc.

I tre messaggi che hanno criticato velatamente Putin durante la conferenza stampa

I tre messaggi che hanno criticato velatamente Putin durante la conferenza stampa (Foto: Kevin Carboni)

Il doppione di Putin non è però stata l’unica sorpresa della conferenza stampa. Durante l’evento, il pubblico da casa è stato invitato a mandare messaggi per porre domande al leader e alcuni di questi sono sfuggiti alla censura. In particolare tre messaggi hanno provato a sfidare direttamente la narrazione putiniana della Russia, chiedendogli “Perché la tua realtà è diversa dalla nostra realtà?”, “Quando la vera Russia sarà la stessa che si vede in tv?” e “Quando sarà possibile trasferirsi nella Russia di cui ci parla dal primo canale?”. Chiaramente sia Putin che i conduttori in sala hanno ignorato questi messaggi.

Categorie
Tecnologia

Contro i deepfake dell’intelligenza artificiale un bollino non basta

Author: Wired

Ma quando si ha a che fare con la grande varietà di contenuti che l’Ai è in grado di generare e i numerosi modelli già disponibili, le cose si complicano. Ad oggi, non esiste uno standard per i watermark, il che significa che ogni azienda adotta un metodo diverso. Dall-E, per esempio, utilizza una filigrana digitale visibile (ma basta una rapida ricerca su Google per trovare molti tutorial che spiegano come rimuoverla), mentre altri servizi potrebbero utilizzare metadati o watermark a livello di pixel, non visibili agli utenti. Se da una parte alcuni di questi metodi possono essere difficili da eliminare, altri, come i watermark visibili, talvolta possono risultare inefficaci quando un’immagine viene ridimensionata. “Verrano trovati dei modi per corrompere i watermark“, commenta Gregory.

La dichiarazione della Casa Bianca cita specificamente l’uso di watermark per i contenuti audio e visivi generati dall’intelligenza artificiale, ma non parla dei testi.

Esistono modi per inserire un watermark nei testi generati da strumenti come ChatGPT, per esempio manipolando il modo in cui sono distribuite le parole, facendo comparire più frequentemente un determinato termine o un insieme di parole. Questi metodi sarebbero rilevabili da una macchina, ma non necessariamente da un utente umano.

Questo significa che le filigrane digitali dovrebbero essere interpretate da una macchina e poi segnalate a un visualizzatore o a un lettore. A complicare ulteriormente il quadro ci pensano poi i contenuti multimediali misti, come gli elementi audio, le immagini, i video e i testi che possono comparire in un singolo video di TikTok. Per fare un esempio, una persona potrebbe inserire un audio reale sopra un’immagine o un video manipolato. In questo caso, le piattaforme dovrebbero capire come segnalare che una sola componente della clip è stata generata dall’Ai.

Inoltre, limitarsi a etichettare un contenuto come generato dall’intelligenza artificiale non aiuta molto gli utenti a capire se si tratta di un elemento dannoso, fuorviante o destinato all’intrattenimento.

Ovviamente, i contenuti multimediali manipolati non sono un male se si fanno video su TikTok pensati per essere divertenti e intrattenere – sottolinea Hany Farid, professore alla UC Berkeley School of Information, che ha collaborato con la società di software Adobe alla sua iniziativa sull’autenticità dei contenuti –, ma è il contesto che conta davvero. Continuerà a essere estremamente difficile, ma le piattaforme hanno sempre fatto i conti con questi problemi negli ultimi 20 anni“.

L’era dell’inganno

L’ascesa dell’intelligenza artificiale nella coscienza pubblica ha reso possibile un’altra forma di manipolazione dei contenuti multimediali. Così come gli utenti potrebbero pensare che i contenuti generati dall’intelligenza artificiale sono reali, l’esistenza stessa di contenuti “sintetici” può far sorgere dubbi sull’autenticità di qualsiasi video, immagine o testo, consentendo ad attori malintenzionati di bollare come fake anche contenuti autentici, il cosiddetto “dividendo del bugiardo“. Gregory afferma che la maggior parte dei casi recenti rilevati da Witness non riguardano deepfake usati per diffondere falsità, ma persone che cercano di spacciare per contenuti generati dall’intelligenza artificiale dei media reali. Ad aprile, un legislatore dello stato del Tamil Nadu, nell’India meridionale, ha affermato che una registrazione audio trapelata in cui accusava il suo partito di aver rubato più di tre miliardi di dollari era “generata da una macchina” (non lo era). Nel 2021, nelle settimane successive al colpo di stato militare in Myanmar, è diventato virale il video di una donna che faceva aerobica mentre alle sue spalle sfilava un convoglio militare. Molte persone online hanno detto che la clip era contraffatta, ma anche in questo non era vero.

Al momento, non si può fare molto per impedire a un malintenzionato di inserire watermark su contenuti reali per farli sembrare falsi. Farid sostiene che uno dei modi migliori per difendersi dalla contraffazione o dall’alterazione dei watermark è la firma crittografica: “Se sei OpenAi, dovresti avere una chiave crittografica. E la filigrana conterrà informazioni che possono essere note solo alla persona che detiene la chiave“, spiega. Altri watermark possono essere aggiunti a livello dei pixel o addirittura nei dati di addestramento dell’Ai. Farid cita la Coalition for Content, Provenance, and Education, di cui è consulente, come uno standard che le aziende nel settore potrebbero adottare e rispettare.

Stiamo entrando rapidamente in un’epoca in cui è sempre più difficile credere a tutto ciò che leggiamo, vediamo o sentiamo online – continua Farid –, e questo significa non solo che saremo ingannati da cose false, ma anche che non crederemo a cose vere”.

Questo articolo è comparso originariamente su Wired US.