Categorie
Tecnologia

Contro i deepfake dell’intelligenza artificiale un bollino non basta

Author: Wired

Ma quando si ha a che fare con la grande varietà di contenuti che l’Ai è in grado di generare e i numerosi modelli già disponibili, le cose si complicano. Ad oggi, non esiste uno standard per i watermark, il che significa che ogni azienda adotta un metodo diverso. Dall-E, per esempio, utilizza una filigrana digitale visibile (ma basta una rapida ricerca su Google per trovare molti tutorial che spiegano come rimuoverla), mentre altri servizi potrebbero utilizzare metadati o watermark a livello di pixel, non visibili agli utenti. Se da una parte alcuni di questi metodi possono essere difficili da eliminare, altri, come i watermark visibili, talvolta possono risultare inefficaci quando un’immagine viene ridimensionata. “Verrano trovati dei modi per corrompere i watermark“, commenta Gregory.

La dichiarazione della Casa Bianca cita specificamente l’uso di watermark per i contenuti audio e visivi generati dall’intelligenza artificiale, ma non parla dei testi.

Esistono modi per inserire un watermark nei testi generati da strumenti come ChatGPT, per esempio manipolando il modo in cui sono distribuite le parole, facendo comparire più frequentemente un determinato termine o un insieme di parole. Questi metodi sarebbero rilevabili da una macchina, ma non necessariamente da un utente umano.

Questo significa che le filigrane digitali dovrebbero essere interpretate da una macchina e poi segnalate a un visualizzatore o a un lettore. A complicare ulteriormente il quadro ci pensano poi i contenuti multimediali misti, come gli elementi audio, le immagini, i video e i testi che possono comparire in un singolo video di TikTok. Per fare un esempio, una persona potrebbe inserire un audio reale sopra un’immagine o un video manipolato. In questo caso, le piattaforme dovrebbero capire come segnalare che una sola componente della clip è stata generata dall’Ai.

Inoltre, limitarsi a etichettare un contenuto come generato dall’intelligenza artificiale non aiuta molto gli utenti a capire se si tratta di un elemento dannoso, fuorviante o destinato all’intrattenimento.

Ovviamente, i contenuti multimediali manipolati non sono un male se si fanno video su TikTok pensati per essere divertenti e intrattenere – sottolinea Hany Farid, professore alla UC Berkeley School of Information, che ha collaborato con la società di software Adobe alla sua iniziativa sull’autenticità dei contenuti –, ma è il contesto che conta davvero. Continuerà a essere estremamente difficile, ma le piattaforme hanno sempre fatto i conti con questi problemi negli ultimi 20 anni“.

L’era dell’inganno

L’ascesa dell’intelligenza artificiale nella coscienza pubblica ha reso possibile un’altra forma di manipolazione dei contenuti multimediali. Così come gli utenti potrebbero pensare che i contenuti generati dall’intelligenza artificiale sono reali, l’esistenza stessa di contenuti “sintetici” può far sorgere dubbi sull’autenticità di qualsiasi video, immagine o testo, consentendo ad attori malintenzionati di bollare come fake anche contenuti autentici, il cosiddetto “dividendo del bugiardo“. Gregory afferma che la maggior parte dei casi recenti rilevati da Witness non riguardano deepfake usati per diffondere falsità, ma persone che cercano di spacciare per contenuti generati dall’intelligenza artificiale dei media reali. Ad aprile, un legislatore dello stato del Tamil Nadu, nell’India meridionale, ha affermato che una registrazione audio trapelata in cui accusava il suo partito di aver rubato più di tre miliardi di dollari era “generata da una macchina” (non lo era). Nel 2021, nelle settimane successive al colpo di stato militare in Myanmar, è diventato virale il video di una donna che faceva aerobica mentre alle sue spalle sfilava un convoglio militare. Molte persone online hanno detto che la clip era contraffatta, ma anche in questo non era vero.

Al momento, non si può fare molto per impedire a un malintenzionato di inserire watermark su contenuti reali per farli sembrare falsi. Farid sostiene che uno dei modi migliori per difendersi dalla contraffazione o dall’alterazione dei watermark è la firma crittografica: “Se sei OpenAi, dovresti avere una chiave crittografica. E la filigrana conterrà informazioni che possono essere note solo alla persona che detiene la chiave“, spiega. Altri watermark possono essere aggiunti a livello dei pixel o addirittura nei dati di addestramento dell’Ai. Farid cita la Coalition for Content, Provenance, and Education, di cui è consulente, come uno standard che le aziende nel settore potrebbero adottare e rispettare.

Stiamo entrando rapidamente in un’epoca in cui è sempre più difficile credere a tutto ciò che leggiamo, vediamo o sentiamo online – continua Farid –, e questo significa non solo che saremo ingannati da cose false, ma anche che non crederemo a cose vere”.

Questo articolo è comparso originariamente su Wired US.

Categorie
Economia Tecnologia

La X per sostituire Twitter potrebbe costare cara a Musk

Author: Wired

La nuova identità dell’ormai ex Twitter, ossia X, potrebbe essere oggetto di rivendicazioni legali da parte di altre società, incluse superpotenze come Meta e Microsoft. Lo riporta l’agenzia Reuters, specificando che sulla lettera X, il nome scelto da Elon Musk per il social network di cui è proprietario dallo scorso ottobre, detengono diritti di proprietà intellettuale diverse realtà.

C’è il 100% di probabilità che Twitter sia citata in giudizio da qualcuno”, ha spiegato all’agenzia stampa statunitense l’avvocato specializzato in marchi Josh Gerben, aggiungendo che quasi 900 marchi registrati attualmente attivi in vari settori contengono la lettera X.

I casi di Microsoft e Meta

Microsoft possiede dal 2003 un marchio identificato da tale lettera e legato alla comunicazione relativa alla sua console di videogiochi Xbox. Meta, che ha recentemente lanciato Threads, social simile proprio a Twitter, è invece proprietaria di un marchio federale registrato nel 2019 e rappresentato da una “X” blu e bianca e attivo in settori che includono software e social media.

Lo stesso colosso di Menlo Park aveva era peraltro incorso in problemi giudiziari quando, a ottobre 2021, aveva scelto di cambiare il proprio nome in Meta. In quell’occasione, a sfidare la società di Mark Zuckerberg per questioni legate alla proprietà intellettuale erano state la società di investimento Metacapital e la società di realtà virtuale MetaX. Un’altra causa aveva visto protagonista la società proprietaria, tra le altre, di Facebook, Instagram e Whatsapp a causa del logo con il simbolo dell’infinito.

Considerata la difficoltà nel proteggere una singola lettera, in particolare una così popolare commercialmente come la X – ha spiegato all’agenzia Reuters l’avvocato Douglas Masters, anch’egli specializzato in marchi – è probabile che la protezione di Twitter possa limitarsi a una grafica molto simile al loro logo X. Quest’ultimo però non è molto distintivo, quindi parliamo di una protezione molto limitata“.

A livello legale, anche negli Stati Uniti il proprietario di un marchio può rivendicare una violazione nel caso in cui altri marchi siano ritenuti potenzialmente in grado di causare confusione nel consumatore. Le sanzioni spaziano dalle multe al divieto di usarlo.

Categorie
Economia Tecnologia

I colossi dell’intelligenza artificiale non sono pronti per l’Ai Act europeo

Author: Wired

La legge europea sull’intelligenza artificiale, l’Ai Act, è quasi pronta e rappresenta il primo tentativo di normare, nel modo più ampio possibile, lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale. Dalla trasparenza al grado di rischio che gli algoritmi di deep learning pongono a livello sociale (soprattutto in termini di sorveglianza), dal divieto di utilizzare alcune controverse tecnologie (come il riconoscimento emotivo) fino all’energia richiesta per l’addestramento e l’utilizzo di questi sistemi: per le società che si occupano di intelligenza artificiale, l’Ai Act rappresenta un test di fondamentale importanza.

Non solo per evitare di essere tagliati fuori da un mercato di fondamentale importanza come quello europeo, ma soprattutto perché – come già avvenuto con il Gdpr, il regolamento sulla privacy – la legge dell’Unione europea sull’intelligenza artificiale potrebbe diventare un esempio a cui guarderanno, a livello globale, tutti gli stati e le istituzioni intenzionate a regolamentare l’utilizzo di una tecnologia che sta ponendo sfide inedite.

Non è tutto: dando per scontato che, come già avvenuto sempre con il Gdpr, l’Unione europea deciderà di applicare rigidamente le sue norme, è probabile che i colossi dell’intelligenza artificiale dovranno uniformare i loro prodotti indipendentemente dal mercato di destinazione, per evitare di complicare enormemente il processo di sviluppo.

E allora, quanto sono pronti i vari OpenAI, Google, Hugging Face, Meta e non solo a rispettare le norme che stanno per essere definitivamente varate dall’Unione Europea (tenendo in considerazione che alcuni elementi potrebbero ancora cambiare nelle ultime fasi di discussione)?

La ricerca:

  1. Lo studio
  2. Dove stanno i big
  3. Come migliorare i provvedimento

Le pagelle degli studiosi di Stanford

Le pagelle degli studiosi di Stanford

Lo studio

I ricercatori di Stanford del neonato Center for Research on Foundation Models hanno provato a rispondere a questa domanda in un paper che indaga il loro livello attuale di adesione alle norme previste. Al momento, sembra che il grado di preparazione sia ancora scarso, anche se i risultati ottenuti dalle varie realtà del settore variano parecchio: “Abbiamo valutato quanto i principali fornitori di foundation models (il nome che alcuni attribuiscono ai nuovi strumenti di intelligenza artificiale generativa, come ChatGPT o MidJourney, ndr) rispettino attualmente i requisiti della bozza europea e abbiamo scoperto che in gran parte non lo fanno”, si legge nel paper.

Categorie
Tecnologia

Bing vuole far navigare ChatGpt al posto nostro, ma arriva lo stop legale

Author: Wired

La scorsa settimana Microsoft Bing ha annunciato l’introduzione della nuova funzionalità “Browse with Bing”, che permetteva agli utenti di navigare in rete utilizzando il supporto di ChatGpt. L’opzione, lanciata nella versione di beta test, è stata però disabilitata da OpenAI dopo pochissimo tempo perché, in alcuni casi, permetteva di accedere in forma totalmente gratuita a contenuti a pagamento. Secondo quanto riportato dalla stessa compagnia, “se un utente richiede specificamente il testo completo di un’URL”, la funzione potrebbe soddisfare questa richiesta, indipendentemente dal fatto che la suddetta pagina fosse gratuita o visualizzabile previa abbonamento.

A partire dal 3 luglio, quindi, OpenAI ha scelto di disabilitare la funzione per precauzione, “al fine di tutelare i proprietari dei contenuti”. Nel frattempo, la società ha fatto sapere che sta lavorando per risolvere il problema, così da riuscire a ripristinare il servizio nel più breve tempo possibile. A quanto pare, infatti, alcuni utenti si sono accorti rapidamente della possibilità di utilizzare la nuova opzione di Bing per aggirare i paywall dei contenuti a pagamento, cominciando subito a condividere in rete suggerimenti utili per riuscire a usufruirne in maniera illecita.

E così, per evitare problemi di sorta, OpenAI si è vista costretta a disabilitare temporaneamente “Browse with Bing”. D’altronde, la società è già coinvolta in una serie di controversie legali alquanto spinose, inclusa l’accusa di aver utilizzato libri protetti da copyright come dati per addestrare i sistemi di intelligenza artificiale senza pagare gli autori o richiederne il consenso. E come non menzionare anche l’accusa di aver collaborato con piattaforme come Snapchat, Spotify, Stripe, Slack e Microsoft Teams per raccogliere segretamente i dati degli utenti. Insomma, OpenAI non sembra passarsela bene. E aggiungere a queste questioni legali l’ennesima causa per un comportamento illecito del suo chatbot era proprio quello che non ci voleva. Ma questo la società lo sa bene.

Categorie
Economia Tecnologia

I 7 colossi tech a cui l’Europa vuole mettere le briglie

Author: Wired

Sono sette le big tech che hanno comunicato all’Unione europea di rientrare nei parametri individuati per entrare nell’elenco dei gatekeeper dal Digital markets act (Dma), regolamento comunitario nato per mettere un freno al potere delle più grandi società tecnologiche e garantire alle aziende più piccole la possibilità di competere con loro.

Si tratta delle statunitensi Amazon, Apple, Alphabet, Meta e Microsoft, della sudcoreana Samsung e della cinese ByteDance, proprietaria di TikTok. Una lista alla quale nel 2024 dovrebbe aggiungersi anche Booking. È stato il commissario europeo per il mercato interno e i servizi Thierry Breton a svelare il 4 luglio i nomi dei colossi.

Twitter content

This content can also be viewed on the site it originates from.

Ai sensi del Dma, entrato in vigore a novembre, sono da considerarsi gatekeeper le aziende con oltre 45 milioni di utenti attivi mensili, una capitalizzazione di mercato di almeno 75 miliardi di euro, 7,5 miliardi di fatturato annuo e una piattaforma per gli utenti, come per esempio un’app o un social network. Rispettando tali parametri, le sette big tech citate da Breton saranno ora chiamate a rispettare regole più severe.

Tra gli altri obblighi che a tali società saranno imposti, c’è per esempio quello di far dialogare le proprie app di messaggistica con quelle della concorrenza, consentendo agli utenti finali di scegliere quale installare sul proprio dispositivo. Esse non potranno più favorire i propri servizi rispetto a quelli dei competitor, né impedire ai propri clienti di rimuovere software o app preinstallate.

L’Europa – spiega Breton – sta riorganizzando completamente il suo spazio digitale sia per proteggere meglio i cittadini dell’Ue, sia per migliorare l’innovazione per le startup e le aziende dell’Unione“. Finalità che potranno essere perseguite anche grazie alle multe previste nel caso in cui le aziende gatekeeper dovessero violare i vincoli imposti dal Dma, che arrivano in certi casi al 10% del fatturato globale annuo.

L’Unione europea confermerà la designazione dei gatekeeper entro il prossimo 6 settembre, al termine delle verifiche sui dati forniti dalle società, che avranno da quel momento in poi sei mesi per conformarsi al regolamento. Un punto interrogativo rimane su ByteDance: l’azienda cinese è infatti convinta di soddisfare i criteri quantitativi del Dma, ma non quelli generali relativi al possesso di una piattaforma obbligatoria per condurre affari online nell’Unione europea e al radicamento tra consumatori e imprese.