Categorie
Tecnologia

La Cina allenta la sua rete di riconoscimento facciale

Author: Wired

Sono passati due anni dal durissimo lockdown di Shanghai. È passato più di un anno da quando la Cina ha improvvisamente detto addio alle restrizioni anti Covid. Un apparato mastodontico, tra quarantene, controlli e tamponi obbligatori rapidamente archiviato. Quasi come non fosse mai esistito. Eppure, qualche prassi introdotta durante l’era pandemica è sin qui rimasta. Alcune stanno scomparendo proprio ora, mentre il governo cinese prova a stimolare non solo il turismo interno ma anche quello internazionale.

Basti guardare alle (per ora temporanee) politiche di free visa applicate a diversi Paesi europei, Italia compresa. Ecco allora che anche le strutture ricettive si stanno adeguando. Come ha scritto qualche giorno fa Caixin, media cinese specializzato in questioni finanziarie ed economiche, gli hotel di alcune metropoli del Paese hanno ricevuto dalle autorità locali l’ordine di smettere di scansionare i volti degli ospiti per il check-in. La misura sarebbe stata rimossa per alcune delle città principali e più visitate, vale a dire Pechino, Shanghai, Shenzhen e Hangzhou.

Addio al riconoscimento facciale negli hotel

La maggior parte degli hotel citati da Caixin ha dichiarato di aver ricevuto alla fine di marzo o all’inizio di aprile avvisi da parte dei dipartimenti di polizia locali che imponevano loro di consentire agli ospiti di effettuare il check-in senza utilizzare il riconoscimento facciale. Gli ospiti degli hotel possono ora completare la verifica dell’identità mostrando la carta d’identità, scansionando codici qr dedicati o compilando moduli online, mentre agli hotel che non hanno ancora rimosso le apparecchiature di riconoscimento facciale per il check-in è stato detto di inserire manualmente le informazioni personali degli ospiti nei loro sistemi.

Attenzione, perché la revoca del riconoscimento facciale negli hotel non è solo collegata alla rimozione di alcuni degli ultimi retaggi dell’era Covid. Alcuni alberghi avrebbero infatti ricevuto lo stesso ordine, ma su base meno “sistematica“, già durante il 2023 poco dopo la revoca della strategia zero Covid inizialmente voluta dal presidente Xi Jinping e contestata durante le proteste di fine novembre 2022.

La mossa si inserisce anche in un contesto nel quale il governo cinese sta intensificando la protezione dei dati personali, ponendo un freno all’espansione dell’utilizzo del riconoscimento facciale. Durante le recenti “due sessioni” legislative di marzo, alla Conferenza politica consultiva del popolo è stata recapitata una proposta per limitare l’uso del riconoscimento facciale nel settore turistico. E già lo scorso agosto, la potente Amministrazione cinese per il cyberspazio ha pubblicato una bozza di regole che consentiranno l’uso del riconoscimento facciale solo in presenza di uno scopo specifico e di una necessità sufficiente, con rigorose misure di protezione.

Categorie
Tecnologia

Il Garante della privacy indaga sul riconoscimento facciale per il Giubileo

Author: Wired

Il Garante della privacy vuole vederci chiaro sulla scelta del Comune di Roma di installare nuove telecamere in metropolitana, dotate di riconoscimento facciale, in vista del Giubileo del 2025. Dopo l’uscita che lo scorso 6 maggio l’Ansa ha dato notizia dell’implementazione del sistema di videosorveglianza da parte del Campidoglio, l’Autorità garante per la protezione dei dati personali ha preso carta e penna e chiesto chiarimenti.

In particolare, venivano riportate le dichiarazioni dell’assessore alla mobilità di Roma Eugenio Patanè durante l’ audizione congiunta delle commissioni Giubileo e Mobilità. Nel suo intervento l’assessore capitolino aveva aperto alla necessità, anche in vista del Giubileo del 2025, di realizzare una doppia gara da quasi 100 milioni di euro per lo restyling delle stazioni della metropolitana, per assumere nuovi vigilantes e un implementazione del sistema di videosorveglianza. Proprio quest’ultimo punto è diventato l’oggetto di attenzione da parte del Garante.

Il Campidoglio, infatti, prevede di installare nuovi dispositivi con riconoscimento facciale, che siano “in grado di verificare azioni scomposte” all’interno dei vagoni e sulle banchine da parte di chi, già in passato, si è reso protagonista di quelli che vengono definiti “atti non conformi”. Il Garante, tuttavia, deve esprimere la sua opinione nel trattamento di dati personali sensibili e di tecnologie rischiose come il riconoscimento facciale.

Peraltro, fino al termine del 2025, ricorda una nota dell’Autorità, esiste un divieto sull’installazione di impianti di videosorveglianza con sistemi di riconoscimento facciale attraverso l’uso di dati biometrici, in luoghi pubblici o aperti al pubblico da parte di soggetti pubblici o privati. L’unica eccezione viene fatta è rivolta solamente all’autorità giudiziaria, nell’esercizio delle sue funzioni e per prevenire o reprimere reati. Adesso, l’amministrazione avrà quindici giorni di tempo per poter rispondere ai quesiti che sono stati avanzato da parte dell’autorità amministrativa, dovendo specificare come avviene il riconoscimento facciale, la finalità e la base giuridica di tale trattamento dei dati biometrici e una copia della valutazione di impatto sulla protezione dei dati.

Categorie
Tecnologia

Le ingiustizie dell’intelligenza artificiale e le battaglie della società civile

Author: Wired

Il nostro ultimo report di ricerca si intitola Civil Society’s Struggle Against Algorithmic Injustice in Europe. Basato su interviste con attivisti e rappresentanti delle organizzazioni della società civile europea, esplora come le organizzazioni per i diritti digitali e la data justice definiscono gli errori dell’AI, come mettano in discussione l’uso dei sistemi di AI e sottolinea l’urgente necessità di questi dibattiti.

La nostra ricerca ha rivelato un panorama complessivo di preoccupazione, poiché la maggior parte delle persone intervistate condivide il punto di vista maggioritario presso studiosi e le studiose di AI: l’intelligenza artificiale può spesso essere razzista, discriminatoria e riduttiva quando si tratta di dare un senso agli esseri umani e analizzarne i comportamenti. Molti dei nostri intervistati hanno anche sottolineato ed enfatizzato come non dovremmo considerare gli errori dell’AI come un problema puramente tecnologico. Piuttosto, questi sono sintomi di questioni sociali sistemiche più ampie che precedono gli sviluppi tecnologici recenti. La polizia predittiva è un chiaro esempio. Poiché questi sistemi si basano su dati della polizia che riguardano il passato, potenzialmente falsificati o corrotti, possono perpetuare forme esistenti di discriminazione su base etnica, spesso portando alla profilazione razziale e persino ad arresti illegali.

L’AI sta già influenzando la nostra vita quotidiana

Per le organizzazioni della società civile europea, un problema chiave è la mancanza di consapevolezza tra il pubblico che l’AI sia già utilizzata per prendere decisioni in numerose aree della loro vita. Anche quando le persone ne sono consapevoli, infatti, spesso non è chiaro come operino queste black box, o chi dovrebbe essere ritenuto responsabile quando prendono una decisione ingiusta o iniquia.

Questa mancanza di visibilità significa anche che la lotta per la giustizia algoritmica non è solo una questione politica, ma anche simbolica, perché mette in discussione le nostre stesse idee di oggettività e precisione. I dibattiti sull’AI sono notoriamente dominati dall’isteria mediatica e dal panico, come ha mostrato il nostro primo rapporto di ricerca, pubblicato nel 2022. Di conseguenza, le organizzazioni della società civile europea sono costrette a perseguire due obiettivi: parlare chiaramente della questione e mettere in discussione la visione predominante che vede l’IA come una panacea automatizzata per la soluzione di problemi sociali complessi. L’importanza di dare il giusto nome al problema emerge con evidenza dai risultati del nostro nuovo report, dove gli intervistati e le intervistate si sono spesso dette riluttanti persino a utilizzare termini come “Etica dell’AI”, arrivando persino a non menzionare affatto “IA”. Invece, hanno spesso adottato termini alternativi e più specifici come “statistica avanzata”, “automatic decision making” o “sistemi Adm”.

Contenere il potere delle grandi aziende tecnologiche

Oltre a sensibilizzare il pubblico, uno dei principali problemi, secondo le organizzazioni della società civile europee che si battono per la giustizia algoritmica, è limitare il potere dominante delle grandi aziende tecnologiche. Diverse organizzazioni che abbiamo intervistato sono state coinvolte in iniziative connesse all’AI Act dell’Unione europea e, in alcuni casi, hanno persino giocato un ruolo diretto nel mettere in evidenza alcune questioni aperte e chiudere le falle che le aziende tecnologiche avrebbero potuto sfruttare.

Secondo alcune organizzazioni, ci sono elementi, come il riconoscimento facciale biometrico negli spazi pubblici, dove solo un divieto assoluto potrà sufficiente a scongiurare scenari di sorveglianza di massa. Altre organizzazioni, addirittura, si sono dette scettiche nei confronti della legislazione nel complesso, ritenendo che essa da sola non possa risolvere tutti i problemi presentati dalla continua diffusione dei sistemi algoritmici. La nostra ricerca mostra anche che, per affrontare il potere dei sistemi algoritmici, occorre smettere di considerare gli errori dell’IA come un problema puramente tecnologico, ma che serve iniziare a inquadrarlo come un problema espressamente politico. A dover essere risolto non è un difetto tecnologico del sistema o un suo glitch, ma le disuguaglianze sistemiche che questi sistemi perpetuano e da cui hanno origine.

Il report “Civil Society’s Struggle Against Algorithmic Injustice in Europe” dello Human Error Project è disponibile qui.

Questo articolo è apparso originariamente in lingua inglese sull’edizione europea di The Conversation. La testata e gli autori hanno acconsentito all’uso da parte di Wired.

Categorie
Economia Tecnologia

Che intenzioni ha il governo per vigilare sull’intelligenza artificiale

Author: Wired

C’è un motivo se la proposta di assegnare la supervisione del settore dell’intelligenza artificiale all’Agenzia nazionale per la cybersicurezza (Acn) ha retto 48 ore, prima di sparire dal pacchetto di norme sulla sicurezza informatica voluto dal ministro della Giustizia Carlo Nordio e presentato al Consiglio dei ministri di giovedì 25 gennaio. Perché per quel ruolo c’è un altro candidato in corsa, da più parti considerato più adatto. È l’Agenzia per l’Italia digitale (Agid), l’ufficio nato per coordinare la digitalizzazione della pubblica amministrazione, che da mesi è la pedina che intende giocarsi il sottosegretario all’Innovazione tecnologica, Alessio Butti. Il deputato comasco, arrivato quasi defilato a Palazzo Chigi, è sempre più ascoltato dalla presidente del Consiglio, Giorgia Meloni, che ha voluto mettere il cappello del suo partito sul tema dell’AI.

Fatto sta che il primo tentativo di individuare per legge a quale ente pubblico affidare il delicato compito di vigilare sull’intelligenza artificiale è stato bloccato. La nomina di un controllore del settore è prevista dal regolamento europeo sull’intelligenza artificiale, l’AI Act, in queste settimane al ciclo di approvazioni finali da parte del Consiglio europeo (2 febbraio, la data previsto) ed Europarlamento (entro aprile).

Il retroscena:

  1. Come scegliere il controllore
  2. Il ruolo di Fratelli d’Italia

Come scegliere il controllore

Proprio perché il testo dell’AI Act veleggia verso il voto, il sottosegretario alla presidenza del Consiglio dei ministri con delega ai servizi segreti, Alfredo Mantovano, ha spiegato in conferenza stampa che l’assegnazione all’Acn è stata espunta per evitare fughe in avanti. Insomma, un atto di cortesia istituzionale verso Bruxelles, tutt’altro che necessario però. La Spagna ha individuato un’agenzia per la supervisione dell’AI già lo scorso settembre. E lo ha fatto peraltro mentre Madrid aveva le redini della presidenza del Consiglio europeo con il mandato di chiudere l’accordo con il Parlamento sull’AI Act, raggiunto l’8 dicembre.

La fuga in avanti da frenare, piuttosto, è interna al governo. E riguarda l’impianto di controllo sull’intelligenza artificiale a cui Butti sta lavorando. L’AI Act, come emerge dal testo finale che Wired ha visionato, non impone di avere un solo referente, secondo la linea voluta dal Parlamento europeo, ma fa riferimento a varie autorità nazionali delegate. Se si analizzano i modelli applicati in finanza, per esempio, la palla passa agli enti di vigilanza deputati (in Italia sarebbe Consob). E negli articoli dedicati agli usi vietati e alle eccezioni, si menziona il fatto che i garanti nazionali dei dati personali e del mercato debbano spedire ogni anno alla Commissione un rapporto sull’uso dei sistemi di riconoscimento biometrico in tempo reale. In Italia, quindi, un compito a carico del Garante della privacy e dell’Antitrust. E ancora: laddove si menzionano la difesa delle infrastrutture critiche, è naturale cedere il passo all’Acn, che già le vigila sul fronte della cybersecurity.

Il ruolo di Fratelli d’Italia

Insomma, l’AI Act apparecchia una tavola con molti posti a sedere. Ma un padrone di casa ci vuole. Qualcuno che detti i tempi e le priorità, coordini il lavoro e sia un punto di riferimento verso l’esterno. Difficile pensare che il compito possa spettare a una autorità indipendente, come il Garante per la protezione dei dati o quello per la concorrenza e il mercato. Troppo autonomi e svincolati dalla politica, nella visione di Palazzo Chigi, per occuparsi della materia, scrivere regole e impostare gli ambienti di test (le cosiddette sandbox).

Categorie
Tecnologia

Il braccio di ferro sul riconoscimento facciale nell’AI Act

Author: Wired

I limiti previsti al riconoscimento facciale nei luoghi pubblici dall’AI Act, il regolamento europeo sull’intelligenza artificiale, sono sotto attacco nella fase di negoziazione. A denunciarlo è il parlamentare europeo Patrick Breyer, del Partito pirata, secondo cui, stante gli interventi sul testo riportati da una bozza ottenuta da Politico, la legge potrebbe aprire la strada all’introduzione di sorveglianza biometrica di massa in Unione europea, se gli stati membri dovessero approvarla nei prossimi passaggi al Consiglio europeo. Al Parlamento, invece, si tiene la barra ferma per una legge che tuteli il più possibile le persone.

Nel documento condiviso da Breyer sono depennati l’obbligo di usare il riconoscimento facciale solo nel caso di reati gravi, e non per quelli minori, e il divieto di usare la sorveglianza biometrica in tempo reale, indicati invece come presenti dal commissario al Mercato interno, Thierry Breton, durante la conferenza stampa di presentazione del regolamento, avvenuta lo scorso 9 dicembre.

Sembra che il documento condiviso da Politico abbia ceduto alle pressioni di alcuni paesi, Italia, Ungheria e Francia in testa, che chiedevano un regolamento più permissivo per l’uso di questi strumenti di controllo estremamente invadenti e pervasivi. “Con questa legge sull’intelligenza artificiale sembra che l’Unione europea intenda competere con la Cina non solo dal punto di vista tecnologico, ma anche in termini di repressione high-tech”, ha detto Breyer.

Se il testo non dovesse essere modificato, gli Stati potrebbero essere autorizzati a usare il riconoscimento facciale, tecnologia ampiamente soggetta a errori e discriminatoria, anche per tutti i reati minori. In questo modo si potrebbero perseguire anche i “potenziali sospetti” di crimini e non solo i criminali. Il testo non vieta nemmeno l’uso del riconoscimento facciale su chi partecipa a una manifestazione e apre la possibilità che, dice Breyer, “qualsiasi spazio pubblico in Europa possa essere sottoposto a una sorveglianza biometrica di massa permanente, sulla base di questi motivi”. Il testo è nelle fasi di finalizzazione e in particolare il Parlamento si è impegnato a non cedere sui diritti fondamentali.