Categorie
Tecnologia

Metaverso, l’Interpol ha aperto un ufficio

Author: Wired

Secondo gli addetti ai lavori – Meta in primis – il metaverso non è solo un luogo virtuale per gli appassionati di videogiochi o per chi cerca esperienze di svago. Entro il 2026, spiega una ricerca della società di consulenza Gartner, il 25% degli utenti online trascorrerà almeno un’ora al giorno nel metaverso. Poiché non sarà di proprietà di un singolo operatore ma ci saranno diverse piattaforme, è sorto un problema di controllo e vigilanza degli spazi virtuali. Malintenzionati e criminali stanno già approfittando delle libertà concesse agli avatar nel metaverso, tanto che l’organizzazione internazionale Interpol ha deciso di intervenire. In vista di un aumento di presenze, i crimini nel metaverso rischiano di aumentare  

Come fermare i crimini nel metaverso

La Bbc conferma che l’Interpol aprirà uno spazio nel metaverso per investigare sui crimini virtuali. Nonostante ad oggi i vari spazi web 3.0 creati dalle aziende non siano molto popolati, ci sono già state numerose denunce. Non si tratta solo di reati legati al furto di denaro o di dati personali: alcune accuse di molestie verbali e sessuali avvenute fra avatar hanno attirato l’attenzione. Una donna di 21 anni ha detto di essere stata molestata dopo un’ora dall’ingresso nel metaverso, secondo un rapporto di SumOfUs, un’organizzazione no-profit che si occupa di difesa dei diritti umani. La giovane utente è stata condotta in una stanza privata durante una festa su Horizon Worlds, una piattaforma del metaverso creata da Meta. La donna ha affermato che il suo avatar è stato poi avvicinato da molti utenti senza che lei avesse la possibilità di reagire. Quando un utente viene toccato da un altro nel metaverso, i controller delle mani vibrano, “creando un’esperienza fisica molto disorientante e persino inquietante durante un’aggressione virtuale” ha detto la vittima a SumOfUs.

L’organizzazione ha anche osservato che “gli utenti di realtà virtuale hanno da tempo segnalato problemi di molestie sessuali, abusi verbali, insulti razzisti e invasione dello spazio personale in una miriade di app“. Di fronte all’attacco avvenuto nel metaverso, un portavoce di Meta ha fatto notare che l’utente aveva disattivato la funzione Personal Boundary, un’impostazione predefinita che impedisce ai non amici di avvicinarsi a meno di un metro e mezzo dal proprio avatar. Esistono inoltre diversi strumenti di sicurezza destinati ad aiutare le persone a stare al sicuro negli ambienti virtuali, tra cui il pulsante Safe Zone che consente agli utenti di bloccare le persone che danno fastidio e di segnalare contenuti inappropriati. Un’altra persona sentita da SumOfUs ha riferito che dopo l’accesso è stata avvicinata da un altro giocatore, che ha poi “simulato palpeggiamenti ed eiaculazioni con il suo avatar“. La vastità dei luoghi virtuali rende difficile controllare i comportamenti degli utenti e potrebbe mettere in pericolo minori o persone inesperte che provano il metaverso.

Palpeggiamenti virtuali 

Se su internet “tradizionale” ci si può offendere o scandalizzare per contenuti testuali o immagini inappropriate postate da altri, nello spazio virtuale si osservano da vicino e si percepiscono i comportamenti fisici degli altri. Uno user dietro un avatar può apparire gentile, ma se lasciato avvicinare dopo aver iniziato una conversazione – che può avvenire anche di persona tramite cuffie e visori – potrebbe iniziare a muovere il proprio personaggio virtuale verso un altro in modo inappropriato. Katherine Cross, che svolge ricerche sulle molestie online all’università di Washington, sostiene che quando la realtà virtuale è immersiva, i comportamenti tossici che si verificano in quell’ambiente sono reali. “Le molestie sessuali sono già un problema su internet, ma la presenza in VR aggiunge un ulteriore livello che rende l’evento più intenso”, ha detto Cross.

Categorie
Tecnologia

Intelligenza artificiale, i 10 punti ancora irrisolti del regolamento europeo

Author: Wired

Dopo anni di negoziati, entro il 2023 è prevista l’approvazione del regolamento dell’Unione europea sull’intelligenza artificiale. Ma su molti punti dell’Artificial Intelligence Act (Ai Act) ancora non c’è accordo. Il Consiglio europeo ha idee opposte a quelle del Parlamento sul riconoscimento facciale in tempo reale, mentre all’interno dello stesso Europarlamento ci sono posizioni contrastanti sui sistemi di identificazione delle emozioni. Wired ha parlato con Brando Benifei, correlatore dell’Ai Act per l’Europarlamento e con Patrick Breyer, europarlamentare del Partito pirata tedesco, per identificare i 10 punti più controversi, che saranno al centro dei negoziati del trilogo, ovvero le riunioni tra Parlamento, Consiglio e Commissione che dovranno trovare una mediazione.

  1. Riconoscimento facciale in tempo reale
  2. Analisi delle emozioni
  3. Poligrafi e macchine della verità
  4. Verifica di impatto sui diritti fondamentali
  5. Il social scoring
  6. Punteggio sociale “di fatto”
  7. Repressione di una società libera e diversa
  8. Rischio disinformazione con Chat GPT
  9. Rischio di sostenere regimi che usano l’Ai per la repressione
  10. Rischio di fermare un gran numero di innocenti (soprattutto tra migranti e minoranze)

Brando Benifei, Mattia Fantinati e Max Schrems al Wired Next Fest 2022 di FirenzeBrando Benifei al Wired Next Fest 2022: “Tra un anno avremo le regole sull’intelligenza artificiale”

Nell’incontro di Firenze si è parlato con Max Schrems e Mattia Fantinati dello stato dell’arte della legislazione europea in fatto di digitale e intelligenza artificiale

Riconoscimento facciale in tempo reale

I sistemi di sorveglianza che identificano le persone mentre camminano in luoghi pubblici, come quando salgono le scale di una metropolitana sono proibiti nel regolamento proposto dalla Commissione. Ma sono previste eccezioni – come la lotta al terrorismo e la ricerca di persone scomparse – che permetterebbero a un giudice di attivarli. “Nel sistema informativo degli stati in qualsiasi momento ci sono centinaia di migliaia di ricercati per terrorismo – sottolinea Breyer -. Probabilmente i tribunali ordinerebbero di identificarli e questo significherebbe sorveglianza di massa biometrica permanente”. “Non abbiamo dati che il riconoscimento facciale in tempo reale aiuti la sicurezza conferma Benifei -, ma sappiamo, invece, che crea problemi di sicurezza”. Il grosso dei gruppi politici dell’Europarlamento sono stati convinti dalla campagna Reclaim your face per un bando totale alla sorveglianza di massa, ma il Consiglio ha aggiunto la “sicurezza nazionaletra le eccezioni per il suo utilizzo.

Analisi delle emozioni 

L’analisi biometrica dei movimenti per l’identificazione delle emozioni non è vietata dall’Ai Act, ma solo qualificata come tecnologia “a rischio”. Significa che i sistemi che usano questa applicazione dell’intelligenza artificiale sono elencati in un allegato al regolamento (che dovrà essere periodicamente aggiornato) e sono soggetti a specifiche procedure di certificazione. “Per me il riconoscimento delle emozioni andrebbe vietato con la sola eccezione della ricerca medica – afferma Benifei – ma il Parlamento non ha una maggioranza su questo, perché liberali di destra (Ppe) e i conservatori, sono contrari a vietare queste tecnologie ritenendo che possano essere utilizzate per la sicurezza”.

article imageLa “macchina della verità” alle frontiere di cui l’Europa preferiva non parlare

Poligrafi e macchine della verità

Tra le tecnologie di analisi biometrica delle emozioni considerate a rischio ma non vietati dall’Ai Act ci sono prodotti che promettono di identificare chi si muove in modo pericoloso nella folla (ad esempio, chi lascia un bagaglio incustodito), e ci sono poligrafi, ovvero vere e proprie macchine della verità. Tra queste, il sistema Iborder: basato su un algoritmo che analizza i micro-movimenti del viso è stato sperimentato ai confini dell’Europa per identificare sospetti terroristi. Nonostante abbia fornito risposte sbagliate a chi lo ha testato, la sua sperimentazione è stata descritta come una storia di successo dalla Commissione europea.

Verifica di impatto sui diritti fondamentali

Oggetto di accesa discussione tra il Parlamento e il Consiglio è la verifica di impatto per gli utilizzatori di sistemi di intelligenza artificiale qualificati come ad alto rischio. “Attualmente il regolamento prevede solo una certificazione per i produttori di questi sistemi. Si tratta di auto-verifiche su qualità dei dati e rischi di discriminazione, su cui vigilerà l’autorità nazionale di ogni paese membro e l’ufficio europeo sull’intelligenza artificiale spiega Benifei -. Noi vogliamo inserire un ulteriore obbligo di controllo da parte degli utilizzatori, ovvero pubbliche amministrazioni e imprese che utilizzano questi sistemi, ma il Consiglio non prevede questo meccanismo”.

article imageAnche in Italia il Garante della privacy blocca la più controversa startup di riconoscimento facciale al mondo

L’Autorità multa Clearview AI con una sanzione da 20 milioni di euro e il divieto di raccogliere foto di persone italiane e cancellare quelli esistenti. Ad accendere il faro sulla società anche l’inchiesta condotta da Wired Italia

Il social scoring

L’utilizzo dell’intelligenza artificiale per dare punteggi alle persone in base al loro comportamento è vietato nella proposta di regolamento, con un’eccezione per le piccole imprese contenuta nella bozza approvata dal Consiglio, ma cancellata in quella di mediazione redatta dalla commissione Giustizia dell’Europarlamento: “È opportuno esentare i sistemi di Ai destinati alla valutazione dell’affidabilità creditizia e del merito creditizio nei casi in cui sono messi in servizio da microimprese o piccole imprese per uso proprio”. 

Punteggio sociale di fatto

C’è il rischio che le tecnologie di riconoscimento delle emozioni vengano utilizzate per controllare minoranze nelle stazioni ferroviarie e alle frontiere con i migranti, nelle carceri e anche negli eventi sportivi – aggiunge Breyer -. In tutti i luoghi dove queste tecnologie sono state già testate”. L’esponente del Partito pirata sottolinea poi che “molte delle telecamere utilizzate per la registrazione e il monitoraggio dei movimenti sono tecnicamente in grado di riconoscere i volti, soprattutto se si acquistano da produttori cinesi”. Inoltre, “sarebbe molto facile per le forze dell’ordine attivare la funzione del riconoscimento facciale”, anche se non permesso dalla normativa europea. 

Repressione di una società libera e diversa

Nonostante il divieto di dare crediti sociali, per Breyer esiste il pericolo che le informazioni provenienti da sistemi di riconoscimento delle emozioni finalizzate a ragioni di sicurezza, possano essere utilizzate per identificare chi si comporta in modo diverso dalla massa e costituire, di fatto, un sistema di credito sociale che reprime chi voglia adottare comportamenti diversi da quelli della massa, come partecipare a manifestazioni politiche. 

Rischio disinformazione con ChatGPT

Nella proposta di compromesso dell’Europarlamento, i contenuti generati dall’intelligenza artificiale che sembrano scritti da una persona, così come le immagini deepfake – sono soggetti a obbligo di trasparenza verso gli utenti. Si obbliga a informare gli utenti, durante il momento dell’esposizione al contenuto (chatbot o deepfake) che è stato generato da un algoritmo. “Questo obbligo di trasparenza è previsto nella bozza dell’Europarlamento ma non nella posizione del Consiglio“, sottolinea Benifei.

fumettiLe risposte di ChatGPT e delle altre intelligenze artificiali sono piene di pregiudizi

Da Google Translate a Character.AI fino a Chatsonic, i sistemi di deep learning addestrati per conversare non riescono fare a meno di ripetere i più classici stereotipi, nonostante le premure dei programmatori

Rischio di sostenere regimi che usano l’Ai per la repressione

L’Iran ha annunciato di utilizzare il riconoscimento facciale per segnalare le donne che non indossano correttamente il velo, la Russia per identificare le persone da arrestare. L’utilizzo di questa tecnologia su larga scala in Europa, porterebbe le aziende a rafforzarne la produzione e questo avrebbe un impatto anche su regimi autoritari fuori dal continente”, avverte Breyer.

Rischio di fermare un gran numero di innocenti

Anche se le tecnologie di riconoscimento facciale raggiungono un’accuratezza del 99%, quando sono applicate su migliaia di persone, rischiano di identificare un numero enorme di cittadini innocenti – ricorda Breyer -. Uno studio dell’Istituto nazionale per la standardizzazione della tecnologia degli Stati Uniti ha rilevato la scarsa attendibilità di molte tecnologie di riconoscimento facciale biometrico sul mercato quando si tratta di persone non bianche – evidenzia l’europarlamentare -, probabilmente perché i dati di addestramento dell’algoritmo erano viziati: queste tecnologie tendono a essere utilizzate in zone con alti tassi di criminalità, dove vivono principalmente minoranze etniche”.

Categorie
Tecnologia

Intelligenza artificiale, le big tech stanno ignorando i campanelli d’allarme dei chatbot

Author: Wired

Mentre si investono sempre più soldi in modelli linguistici di grandi dimensioni, i nuovi sistemi “chiusi” stanno invertendo la tendenza osservata nel corso della storia del linguaggio naturale. Tradizionalmente, i ricercatori hanno sempre condiviso i dettagli su aspetti come i set di dati di addestramento, i pesi assegnati ai parametri e il codice, allo scopo di favorire la riproducibilità dei risultati.

Sappiamo sempre meno su quali database sono stati addestrati i sistemi o come sono stati valutati, soprattutto per i sistemi più potenti che vengono lanciati come prodotti“, sottolinea Alex Tamkin, uno studente di dottorato della Stanford University, il cui lavoro si concentra sui modelli linguistici di grandi dimensioni.

Tamkin attribuisce alle persone che si occupano di etica dell’Ai il merito di aver sensibilizzato l’opinione pubblica su quanto sia pericoloso muoversi troppo velocemente e compromettere i sistemi quando la tecnologia viene distribuita a miliardi di persone. Senza il lavoro fatto negli ultimi anni, le cose potrebbero andare molto peggio.

Nell’autunno del 2020, Tamkin ha organizzato un simposio con il direttore delle politiche di OpenAi Miles Brundage sull’impatto sociale dei modelli linguistici di grandi dimensioni. Il gruppo interdisciplinare ha sottolineato la necessità che i leader del settore stabiliscano standard etici e adottino misure come valutazioni dei pregiudizi prima dell’implementazione e l’esclusione di determinati casi d’uso.

Tamkin ritiene che i servizi esterni di revisione dell’Ai debbano crescere di pari passo alle aziende che sviluppano la tecnologia, dal momento le valutazioni interne tendono a non essere all’altezza, e che i metodi di valutazione partecipativa che coinvolgono i membri della comunità e le altre parti interessate abbiano un grande potenziale per aumentare la partecipazione democratica nella creazione dei modelli di Ai.

Cambiare il focus 

Merve Hickok, direttrice di ricerca presso il centro di etica e politica dell’Ai della University of Michigan, sostiene che non è sufficiente cercare di convincere le aziende a mettere da parte o smorzare il clamore che circonda l’Ai, a regolamentarsi e ad adottare principi etici. Proteggere i diritti umani significa superare il dibattito sull’etica e passare a quello sulla legalità.

Sia Hickok che Hanna stanno seguendo il processo che quest’anno porterà l’Unione europea a finalizzare la sua legge sull’Ai per vedere come l’iniziativa tratterà i modelli che generano testo e immagini. Hickok ha dichiarato di essere particolarmente interessata a capire come i legislatori europei la responsabilità per i danni causati dai modelli creati da aziende come Google, Microsoft e OpenAi.

Alcune cose devono essere imposte perché abbiamo visto più e più volte che se non questo non succede, le aziende continuano a distruggere le cose e a far prevalere il profitto sui diritti esulle comunità“, spiega Hickok.

Mentre a Bruxelles viene ultimata la misurala, la posta in gioco rimane alta. Un giorno dopo l’errore della demo di Bard, il crollo delle azioni di Alphabet è costato circa 100 miliardi di dollari alla società. “È la prima volta che vedo una distruzione di ricchezza di questa portata a causa di un errore di un modello linguistico – dice Hanna, che però non è ottimista sulla possibilità che la vicenda convinca l’azienda a rallentare la sua corsa al lancio del sistema – Secondo me non trarranno alcun insegnamento“.

Questo articolo è apparso originariamente su Wired US. 

Categorie
Tecnologia

Stati Uniti, perché all’improvviso sono spuntati così tanti misteriosi oggetti volanti

Author: Wired

Stando alle notizie degli ultimi giorni, potrebbe sembrare che gli Stati Uniti siano improvvisamente finiti in mezzo a un picco di attività di spionaggio, con palloni e altri oggetti volanti individuati e abbattuti giorno dopo giorno, in rapida successione. In realtà, gli avvistamenti sono aumentati per una semplice modifica dei radar del Norad, il Comando di difesa aerospaziale congiunto tra Canada e Stati Uniti.

L’equilibrio multipolare, su cui si è retto il mondo dalla fine della guerra fredda, è andato rapidamente a destabilizzarsi nell’ultimo anno e la crescente competizione tra potenze si è fatta più intensa e diretta. Paesi che fino a poco tempo fa erano considerati anche come dei partner, oggi sono visti principalmente come rivali e nessuno vuole far conoscere le proprie mosse a un avversario.

Il pallone spia cinese sorvola Charlotte, nel North Carolina, il 4 febbraio 2023 Cosa raccontano i detriti del pallone spia abbattuto dagli Stati Uniti

I componenti si trovano ora in un laboratori odell’Fbi in Virginia. Secondo i funzionari del governo ha sorvolato tutte le infrastrutture e i siti di difesa nucleari

Il Norad

Anche per questo motivo, nonostante la presenza di palloni spia cinesi sia già stata rilevata nel corso degli anni, sia dagli Stati Uniti che da altri paesi, il Norad ha deciso di assumere delle contromisure solo ora, dopo la distruzione dell’aerostato che ha sorvolato infrastrutture e siti di difesa nucleari statunitensi.

In una dichiarazione rilasciata dal capo del Norad, il generale Glen Van Herck, il Comando di difesa ha spiegato come l’aumento delle scoperte e degli ingaggi aerei dipenda da una semplice modifica ai filtri dei radar, fino a oggi calibrati per identificare jet da combattimento o bombardieri supersonici. Velivoli che possono rappresentare una minaccia diretta alla sicurezza delle persone e dei paesi, dotati di una massa importante e capaci di muoversi ad altissime velocità.

Pertanto, i sistemi così impostati hanno ignorato tutti gli altri velivoli più piccoli e lenti che hanno attraversato lo spazio aereo canadese o statunitense, fino a oggi non considerati come minacce. Ma cambiando le relazioni tra paesi, si modificano anche i criteri di sicurezza e il Norad ha modificato le sue apparecchiature di sorveglianza per individuare anche gli oggetti volanti più piccoli e lenti, capaci di muoversi “alla velocità del vento”.

Le posizioni dei tre oggetti volanti non identificati abbattuti dagli Stati Uniti tra il 10 e il 12 febbraio 2023 (Foto: Google Maps)Cosa sappiamo sugli oggetti volanti abbattuti negli Stati Uniti

A una settimana di distanza dal pallone spia cinese, altri tre oggetti volanti sospetti hanno attraversato lo spazio aereo di Canada e Stati Uniti, finendo per essere colpiti dagli F-22 statunitensi

I detriti del pallone spia

Nel frattempo il 13 febbraio Washington ha fatto sapere di aver recuperato altri resti del pallone spia cinese abbattuto il 4 febbraio al largo di Myrtle Beach, in South Carolina. Si tratta dei pezzi più interessanti del velivolo: sensori e materiale elettronico, con cui le autorità statunitensi sperano di far luce sull’attività della sonda cinese, accusata di avere a bordo antenne capaci di intercettare le telecomunicazioni e raccogliere dati.

Categorie
Tecnologia

Armi, le possiedono 1,2 milioni di italiani

Author: Wired

L’omicidio di Martina Scialdone, uccisa a Roma dall’ex compagno Costantino Bonaiuti con un’arma regolarmente detenuta, ha riaperto il dibattito sulle armi da fuoco presenti nel nostro paese. Quante sono, cioè, quelle presenti nelle case degli italiani? Rispondere a questa domanda è tutt’altro che semplice.

Un punto di partenza è certamente rappresentato dalle licenze in corso di validità, ovvero dai permessi di porto d’armi rilasciati dalle questure. Secondo la Polizia di Stato, nel 2021 erano 1,2 milioni. Si tratta, per la maggior parte, di permessi per gli appassionati di caccia (631mila) e di tiro a volo (543mila). Nel grafico sottostante il dettaglio.

Beninteso, si sta parlando di licenze, ovvero di persone cui è stato riconosciuto il permesso di acquistare un’arma. In realtà, il numero di pistole e fucili che questi soggetti possono comprare è maggiore: un’unica licenza permette di comprare fino a 3 armi comuni e fino a 12 armi da fuoco sportive. Oltre a un numero illimitato di fucili e carabine da caccia.

Affermare quindi che in Italia ci siano 1,2 milioni di armi da fuoco legalmente detenute, ovvero tante quanti i titolari di porto d’armi, rischia seriamente di essere una stima per difetto. Senza contare che a queste si aggiungono quelle illegali. Come per esempio la Smith&Wesson calibro 38 trovata in uno dei covi del boss Matteo Messina Denaro.

Una stima di quelle che possono essere le armi da fuoco effettivamente presenti nel nostro paese, contando quelle legali, quelle illegali e quelle in dotazione alle armi da fuoco la si trova sul sito GunPolicy.org, portale della University of Sidney dedicata a questo tema. La stima più recente, perché di questo si tratta, risale al 2017 e parla di poco più di 8 milioni tra fucili e pistole possedute in Italia. Il che significa 13,02 armi da fuoco ogni 100 abitanti. Va detto, però, che il numero di persone titolari di una licenza per possedere un arma è in diminuzione, come mostra il grafico sottostante.

Sempre secondo la Polizia di Stato, nel 2018 erano 1 milione e 343mila gli italiani cui era stato rilasciato il porto d’armi. Nel 2021 questo numero è sceso a 1 milione e 222mila. Si tratta di un calo dell’8,9%. Beninteso: si tratta di permessi per l’acquisto di armi da fuoco. Per come è fatta la normativa, paradossalmente il numero di armi detenute legalmente potrebbe anche essere aumentato. Per non parlare di quelle illegali per le quali, però, non esistono dati ufficiali.