Categorie
Tecnologia

No, la causa delle alluvioni in Emilia Romagna non è una diga

Author: Wired

Non solo, la Protezione civile ha rilevato come durante l’intero evento estremo, questi 400 millimetri di pioggia si sono tradotti in circa 350 milioni di metri cubi di acqua caduti nelle zone più colpite dell’Emilia Romagna, pari a 800 chilometri di territorio. Mentre la capacità massima della diga di Ridracoli è di “appena” 33 milioni di metri cubi.

Inoltre, per sostenere la teoria del complotto, sono stati usati i dati di Romagna Acque, che ha effettivamente effettuato un’operazione di sversamento durante l’emergenza, ma pari a soli 700mila metri cubi d’acqua, come riporta il Corriere di Bologna. Decisione, si legge, presa di concerto con il presidente della provincia di Forlì-Cesena, che comporta l’uso del cosiddetto scarico di mezzofondo per alleggerire la diga e consentirle di raccogliere l’acqua piovana e trattenere la piena del fiume Bidente, così da evitare straripamenti.

Insomma, nono solo tutta la teoria del complotto è chiaramente falsa, ma va anche a mistificare un’azione intrapresa proprio per evitare ulteriori danni dovuti all’evento estremo che ha causato l’alluvione. Per questo Romagna Acque ha annunciato di aver già consegnato il materiale alle autorità per denunciare chiunque abbia contribuito a diffondere le informazioni false e diffamatorie, compreso il personaggio pubblico Red Ronnie, che già in passato ha contribuito alla diffusione di fake news.

Il video deepfake

La storia purtroppo non finisce qui, perché nei giorni successivi alla diffusione del primo video ha cominciato a circolare un secondo video falso che mostrerebbe il presidente dell’Emilia Romagna, Stefano Bonaccini, incolpare la diga di Ridracoli dell’alluvione. Tuttavia l’audio è stato contraffatto in maniera dozzinale ed è facilissimo capire perché.

Prima di tutto la voce che si sente nel video falso non è quella di Bonaccini, ma la stessa della persona che ha girato il primo video sulla diga di Ridracoli ed esposto le teorie del complotto. Poi nel video è stato lasciato il watermark di Clideo, lo strumento online con cui è stato truccato, e quello dell’agenzia Vista, dove si può reperire e ascoltare il video originale, completamente diverso da quello diffuso dai complottisti e relativo alla conferenza stampa di Bonaccini con la Protezione civile del 19 maggio.

Categorie
Tecnologia

Papa Francesco, i suoi deepfake sono un precedente pericoloso

Author: Wired

Recentemente i feed dei social media si sono riempiti di immagini che ritraevano Papa Francesco con addosso un improbabile piumino bianco. La foto – che si è immediatamente trasformata in un meme – è ovviamente falsa: è stata creata utilizzando lo strumento di intelligenza artificiale (Ai) Midjourney. Ciononostante, l’immagine è riuscita a ingannare molte persone, al punto da spingere alcune testate giornalistiche a definirlauno dei primi casi di disinformazione su larga scala derivante dall’intelligenza artificiale“.

Da sola, questa frase è in grado di suscitare un senso di inquietudine, un po’ come quando in Handmaid’s Tale si vede per la prima volta un personaggio con indosso un cappotto rosso. Cosa sarebbe successo se al posto di una foto falsa del papa avesse iniziato a circolare un’immagine spacciata per un scatto fatto sul campo di battaglia della guerra in Ucraina? O una foto del presidente statunitense Joe Biden che partecipa a una qualche riunione segreta? La prospettiva che l’Ai sia in grado di generare questo tipo di disinformazione è certamente spaventosa.

Far sì che decine di persone abbocchino a un deepfake del presidente ucraino Volodymyr Zelensky è ovviamente più complicato rispetto a ingannarle con una bizzarra foto del pontefice. Come ha sottolineato la settimana scorsa Charlie Warzel su The Atlantic , ogni persona adotta un'”euristica diversa per cercare di individuare la verità“, ed è più facile credere che Papa Francesco si presti a indossare un piumino che, per esempio, a immagini Ai che ritraggano il rocambolesco arresto di Donald Trump. Non è poi così difficile capire, quindi, perché molti di quelli che hanno visto l’immagine si siano limitati a riderci su, continuando a fare scrolling senza metterne l’autenticità.

La vicenda, tuttavia, crea un precedente preoccupante. Il creatore dell’immagine fake del Papa non stava cercando di ingannare nessuno. Anzi, parlando a BuzzFeed News ha dichiarato che voleva semplicemente creare delle immagini divertenti dopo aver assunto dei funghi allucinogeni. Ma se invece la foto facesse parte di una campagna di disinformazione? Ormai molti contenuti generati dall’intelligenza artificiale hanno raggiunto un tale livello di sofisticazione da rendere già difficile per occhi e orecchie umane individuarne l’origine.

Categorie
Economia Tecnologia

Intelligenza artificiale: appello per bloccare per 6 mesi lo sviluppo

Author: Wired

Il cosiddetto scenario Terminator sta preoccupando i più importanti esperti di intelligenza artificiale (Ia) e i dirigenti del settore. Citando potenziali rischi per la società e per gli esseri umani, circa mille persone, tra cui Elon Musk e i ricercatori di DeepMind, progetto di Google, hanno chiesto di fermare per almeno sei mesi l’addestramento di tutte le IA più potenti di GPT-4, il più avanzato sistema di OpenAi.

“Negli ultimi mesi, i laboratori di Ia hanno cominciato una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti, che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile”, sostengono Musk, i ricercatori di DeepMind di Alphabet e altri esperti mondiali dell’intelligenza artificiale come il canadese Yoshua Bengio, il britannico Stuart Russel e l’italiana Francesca Rossi, global leader per l’etica dell’Ia in Ibm.

Assieme a loro, altri mille scienziati, dirigenti ed esperti hanno sottoscritto la lettera aperta pubblicata dal Future for life institute, un’organizzazione senza scopo di lucro, il cui scopo è tenere sotto controllo i potenziali rischi catastrofici ed esistenziali posti all’umanità dallo sviluppo delle nuove tecnologie e, in particolare, dalle intelligenze artificiali.

L’appello

Nel lanciare il suo allarme, la lettera sottolinea come i sistemi di intelligenza artificiale come ChatGPT stiano diventando sempre più competitivi con gli esseri umani, aprendo a una serie di domande fondamentali. Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, renderci obsoleti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà?” si legge.

E a questi interrogativi, fino a oggi quasi esclusivamente fantascientifici, gli esperti hanno dato una risposta molto chiara: Queste decisioni non devono essere delegate a leader tecnologici non eletti”. Un’affermazione che riporta sul piano politico un dibattito etico fondamentale sullo sviluppo e sul futuro dell’umanità.

“Pertanto – continua la lettera – chiediamo a tutti i laboratori di Ia di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di aA più potenti di Gpt-4. Questa pausa deve essere pubblica, verificabile e deve includere tutti gli attori chiave. Se tale pausa non verrà attuata rapidamente, i governi dovrebbero intervenire per imporla”.

Pausa allo scopo di sviluppare e implementare “congiuntamente” una serie di protocolli di sicurezza condivisi, per rendere i sistemi di Ia più avanzati sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali. Allo stesso tempo, i governi dovrebbero “accelerare drasticamente lo sviluppo di solidi sistemi di governance delle Ia”, istituendo nuove autorità di regolamentazione, controllo, monitoraggio e sorveglianza, in grado di affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che saranno causati dalle Ia”.

Categorie
Tecnologia

Intelligenza artificiale, i 10 punti ancora irrisolti del regolamento europeo

Author: Wired

Dopo anni di negoziati, entro il 2023 è prevista l’approvazione del regolamento dell’Unione europea sull’intelligenza artificiale. Ma su molti punti dell’Artificial Intelligence Act (Ai Act) ancora non c’è accordo. Il Consiglio europeo ha idee opposte a quelle del Parlamento sul riconoscimento facciale in tempo reale, mentre all’interno dello stesso Europarlamento ci sono posizioni contrastanti sui sistemi di identificazione delle emozioni. Wired ha parlato con Brando Benifei, correlatore dell’Ai Act per l’Europarlamento e con Patrick Breyer, europarlamentare del Partito pirata tedesco, per identificare i 10 punti più controversi, che saranno al centro dei negoziati del trilogo, ovvero le riunioni tra Parlamento, Consiglio e Commissione che dovranno trovare una mediazione.

  1. Riconoscimento facciale in tempo reale
  2. Analisi delle emozioni
  3. Poligrafi e macchine della verità
  4. Verifica di impatto sui diritti fondamentali
  5. Il social scoring
  6. Punteggio sociale “di fatto”
  7. Repressione di una società libera e diversa
  8. Rischio disinformazione con Chat GPT
  9. Rischio di sostenere regimi che usano l’Ai per la repressione
  10. Rischio di fermare un gran numero di innocenti (soprattutto tra migranti e minoranze)

Brando Benifei, Mattia Fantinati e Max Schrems al Wired Next Fest 2022 di FirenzeBrando Benifei al Wired Next Fest 2022: “Tra un anno avremo le regole sull’intelligenza artificiale”

Nell’incontro di Firenze si è parlato con Max Schrems e Mattia Fantinati dello stato dell’arte della legislazione europea in fatto di digitale e intelligenza artificiale

Riconoscimento facciale in tempo reale

I sistemi di sorveglianza che identificano le persone mentre camminano in luoghi pubblici, come quando salgono le scale di una metropolitana sono proibiti nel regolamento proposto dalla Commissione. Ma sono previste eccezioni – come la lotta al terrorismo e la ricerca di persone scomparse – che permetterebbero a un giudice di attivarli. “Nel sistema informativo degli stati in qualsiasi momento ci sono centinaia di migliaia di ricercati per terrorismo – sottolinea Breyer -. Probabilmente i tribunali ordinerebbero di identificarli e questo significherebbe sorveglianza di massa biometrica permanente”. “Non abbiamo dati che il riconoscimento facciale in tempo reale aiuti la sicurezza conferma Benifei -, ma sappiamo, invece, che crea problemi di sicurezza”. Il grosso dei gruppi politici dell’Europarlamento sono stati convinti dalla campagna Reclaim your face per un bando totale alla sorveglianza di massa, ma il Consiglio ha aggiunto la “sicurezza nazionaletra le eccezioni per il suo utilizzo.

Analisi delle emozioni 

L’analisi biometrica dei movimenti per l’identificazione delle emozioni non è vietata dall’Ai Act, ma solo qualificata come tecnologia “a rischio”. Significa che i sistemi che usano questa applicazione dell’intelligenza artificiale sono elencati in un allegato al regolamento (che dovrà essere periodicamente aggiornato) e sono soggetti a specifiche procedure di certificazione. “Per me il riconoscimento delle emozioni andrebbe vietato con la sola eccezione della ricerca medica – afferma Benifei – ma il Parlamento non ha una maggioranza su questo, perché liberali di destra (Ppe) e i conservatori, sono contrari a vietare queste tecnologie ritenendo che possano essere utilizzate per la sicurezza”.

article imageLa “macchina della verità” alle frontiere di cui l’Europa preferiva non parlare

Poligrafi e macchine della verità

Tra le tecnologie di analisi biometrica delle emozioni considerate a rischio ma non vietati dall’Ai Act ci sono prodotti che promettono di identificare chi si muove in modo pericoloso nella folla (ad esempio, chi lascia un bagaglio incustodito), e ci sono poligrafi, ovvero vere e proprie macchine della verità. Tra queste, il sistema Iborder: basato su un algoritmo che analizza i micro-movimenti del viso è stato sperimentato ai confini dell’Europa per identificare sospetti terroristi. Nonostante abbia fornito risposte sbagliate a chi lo ha testato, la sua sperimentazione è stata descritta come una storia di successo dalla Commissione europea.

Verifica di impatto sui diritti fondamentali

Oggetto di accesa discussione tra il Parlamento e il Consiglio è la verifica di impatto per gli utilizzatori di sistemi di intelligenza artificiale qualificati come ad alto rischio. “Attualmente il regolamento prevede solo una certificazione per i produttori di questi sistemi. Si tratta di auto-verifiche su qualità dei dati e rischi di discriminazione, su cui vigilerà l’autorità nazionale di ogni paese membro e l’ufficio europeo sull’intelligenza artificiale spiega Benifei -. Noi vogliamo inserire un ulteriore obbligo di controllo da parte degli utilizzatori, ovvero pubbliche amministrazioni e imprese che utilizzano questi sistemi, ma il Consiglio non prevede questo meccanismo”.

article imageAnche in Italia il Garante della privacy blocca la più controversa startup di riconoscimento facciale al mondo

L’Autorità multa Clearview AI con una sanzione da 20 milioni di euro e il divieto di raccogliere foto di persone italiane e cancellare quelli esistenti. Ad accendere il faro sulla società anche l’inchiesta condotta da Wired Italia

Il social scoring

L’utilizzo dell’intelligenza artificiale per dare punteggi alle persone in base al loro comportamento è vietato nella proposta di regolamento, con un’eccezione per le piccole imprese contenuta nella bozza approvata dal Consiglio, ma cancellata in quella di mediazione redatta dalla commissione Giustizia dell’Europarlamento: “È opportuno esentare i sistemi di Ai destinati alla valutazione dell’affidabilità creditizia e del merito creditizio nei casi in cui sono messi in servizio da microimprese o piccole imprese per uso proprio”. 

Punteggio sociale di fatto

C’è il rischio che le tecnologie di riconoscimento delle emozioni vengano utilizzate per controllare minoranze nelle stazioni ferroviarie e alle frontiere con i migranti, nelle carceri e anche negli eventi sportivi – aggiunge Breyer -. In tutti i luoghi dove queste tecnologie sono state già testate”. L’esponente del Partito pirata sottolinea poi che “molte delle telecamere utilizzate per la registrazione e il monitoraggio dei movimenti sono tecnicamente in grado di riconoscere i volti, soprattutto se si acquistano da produttori cinesi”. Inoltre, “sarebbe molto facile per le forze dell’ordine attivare la funzione del riconoscimento facciale”, anche se non permesso dalla normativa europea. 

Repressione di una società libera e diversa

Nonostante il divieto di dare crediti sociali, per Breyer esiste il pericolo che le informazioni provenienti da sistemi di riconoscimento delle emozioni finalizzate a ragioni di sicurezza, possano essere utilizzate per identificare chi si comporta in modo diverso dalla massa e costituire, di fatto, un sistema di credito sociale che reprime chi voglia adottare comportamenti diversi da quelli della massa, come partecipare a manifestazioni politiche. 

Rischio disinformazione con ChatGPT

Nella proposta di compromesso dell’Europarlamento, i contenuti generati dall’intelligenza artificiale che sembrano scritti da una persona, così come le immagini deepfake – sono soggetti a obbligo di trasparenza verso gli utenti. Si obbliga a informare gli utenti, durante il momento dell’esposizione al contenuto (chatbot o deepfake) che è stato generato da un algoritmo. “Questo obbligo di trasparenza è previsto nella bozza dell’Europarlamento ma non nella posizione del Consiglio“, sottolinea Benifei.

fumettiLe risposte di ChatGPT e delle altre intelligenze artificiali sono piene di pregiudizi

Da Google Translate a Character.AI fino a Chatsonic, i sistemi di deep learning addestrati per conversare non riescono fare a meno di ripetere i più classici stereotipi, nonostante le premure dei programmatori

Rischio di sostenere regimi che usano l’Ai per la repressione

L’Iran ha annunciato di utilizzare il riconoscimento facciale per segnalare le donne che non indossano correttamente il velo, la Russia per identificare le persone da arrestare. L’utilizzo di questa tecnologia su larga scala in Europa, porterebbe le aziende a rafforzarne la produzione e questo avrebbe un impatto anche su regimi autoritari fuori dal continente”, avverte Breyer.

Rischio di fermare un gran numero di innocenti

Anche se le tecnologie di riconoscimento facciale raggiungono un’accuratezza del 99%, quando sono applicate su migliaia di persone, rischiano di identificare un numero enorme di cittadini innocenti – ricorda Breyer -. Uno studio dell’Istituto nazionale per la standardizzazione della tecnologia degli Stati Uniti ha rilevato la scarsa attendibilità di molte tecnologie di riconoscimento facciale biometrico sul mercato quando si tratta di persone non bianche – evidenzia l’europarlamentare -, probabilmente perché i dati di addestramento dell’algoritmo erano viziati: queste tecnologie tendono a essere utilizzate in zone con alti tassi di criminalità, dove vivono principalmente minoranze etniche”.