Categorie
Tecnologia

La Cina allenta la sua rete di riconoscimento facciale

Author: Wired

Sono passati due anni dal durissimo lockdown di Shanghai. È passato più di un anno da quando la Cina ha improvvisamente detto addio alle restrizioni anti Covid. Un apparato mastodontico, tra quarantene, controlli e tamponi obbligatori rapidamente archiviato. Quasi come non fosse mai esistito. Eppure, qualche prassi introdotta durante l’era pandemica è sin qui rimasta. Alcune stanno scomparendo proprio ora, mentre il governo cinese prova a stimolare non solo il turismo interno ma anche quello internazionale.

Basti guardare alle (per ora temporanee) politiche di free visa applicate a diversi Paesi europei, Italia compresa. Ecco allora che anche le strutture ricettive si stanno adeguando. Come ha scritto qualche giorno fa Caixin, media cinese specializzato in questioni finanziarie ed economiche, gli hotel di alcune metropoli del Paese hanno ricevuto dalle autorità locali l’ordine di smettere di scansionare i volti degli ospiti per il check-in. La misura sarebbe stata rimossa per alcune delle città principali e più visitate, vale a dire Pechino, Shanghai, Shenzhen e Hangzhou.

Addio al riconoscimento facciale negli hotel

La maggior parte degli hotel citati da Caixin ha dichiarato di aver ricevuto alla fine di marzo o all’inizio di aprile avvisi da parte dei dipartimenti di polizia locali che imponevano loro di consentire agli ospiti di effettuare il check-in senza utilizzare il riconoscimento facciale. Gli ospiti degli hotel possono ora completare la verifica dell’identità mostrando la carta d’identità, scansionando codici qr dedicati o compilando moduli online, mentre agli hotel che non hanno ancora rimosso le apparecchiature di riconoscimento facciale per il check-in è stato detto di inserire manualmente le informazioni personali degli ospiti nei loro sistemi.

Attenzione, perché la revoca del riconoscimento facciale negli hotel non è solo collegata alla rimozione di alcuni degli ultimi retaggi dell’era Covid. Alcuni alberghi avrebbero infatti ricevuto lo stesso ordine, ma su base meno “sistematica“, già durante il 2023 poco dopo la revoca della strategia zero Covid inizialmente voluta dal presidente Xi Jinping e contestata durante le proteste di fine novembre 2022.

La mossa si inserisce anche in un contesto nel quale il governo cinese sta intensificando la protezione dei dati personali, ponendo un freno all’espansione dell’utilizzo del riconoscimento facciale. Durante le recenti “due sessioni” legislative di marzo, alla Conferenza politica consultiva del popolo è stata recapitata una proposta per limitare l’uso del riconoscimento facciale nel settore turistico. E già lo scorso agosto, la potente Amministrazione cinese per il cyberspazio ha pubblicato una bozza di regole che consentiranno l’uso del riconoscimento facciale solo in presenza di uno scopo specifico e di una necessità sufficiente, con rigorose misure di protezione.

Categorie
Economia Tecnologia

Come funziona l’AI di Inps che incrocia domanda e offerta di lavoro

Author: Wired

Un sistema di intelligenza artificiale che legge i curriculum e trova l’indice di affinità con le offerte di lavoro. Lo ha arruolato l’Inps per analizzare i profili delle persone iscritte al Sistema informativo per l’inclusione sociale e lavorativa (Siisl), la piattaforma del ministero del Lavoro dedicata a chi riceve l’assegno di inclusione o il supporto formazione e lavoro (con cui il governo Meloni ha sostituito dall’anno scorso il reddito di cittadinanza). Attraverso l’analisi di 18 variabili del profilo di un candidato, l’algoritmo stabilisce quanto è compatibile uno dei 173mila curriculum oggi presenti sulla piattaforma rispetto alla tipologia di lavoro offerto.

Obiettivo dichiarato dell’Istituto nazionale di previdenza sociale è “la semplificazione dell’interazione utente con la banca dati”, alimentata da un lato dai curriculum degli iscritti al Siisl, condizione necessaria per attivare i percorsi di sostegno e di rientro nel mondo del lavoro, e dall’altro dagli annunci delle agenzie per il lavoro. Il sistema di intelligenza artificiale mostrerà ai primi e alle seconde il livello di compatibilità. “Abbiamo concluso il periodo di training – spiega a Wired Massimiliano D’Angelo, direttore centrale tecnologia, informatica e innovazione dell’Inps -. Il sistema ora è operativo“.

Come funziona l’algoritmo

Come funziona l’AI della piattaforma dell’Inps? L’istituto ha lavorato al progetto con Accenture, con cui ha un contratto per la fornitura di servizi informatici. L’algoritmo di machine learning, che gira su sistemi di proprietà dell’ente, è basato su un modello open source, allenato su dataset in lingua italiana. L’elaborazione dell’indice di affinità si basa su 18 parametri, che afferiscono a cinque aspetti determinanti nella ricerca del lavoro: l’esperienza personale, la vicinanza alla sede, il percorso di formazione, le competenze e le aspirazioni. Tra i parametri vi sono livello di studi e corsi di formazione, il Comune di residenza e la disponibilità a trasferirsi, le conoscenze informatiche o quelle linguistiche, qualifiche professionali, preferenza sulla modalità di lavoro o sul tipo di contratto, le principali mansioni svolte. Un calderone di dati che il sistema legge e analizza.

L’algoritmo opera in due modi. Da un lato, spiega Pierpaolo Bonanni, dirigente dell’area technology innovation di Inps, “l’algoritmo calcola la distanza semantica tra le frasi usate nel curriculum e quelle usate nell’offerta di lavoro, come la descrizione del job title o il tipo di esperienza, dall’altro riconduce la descrizione del cittadino a campi categorici facilmente confrontabili poiché valori deterministici, come nel caso delle qualifiche professionali che possono essere ricondotte alle categorizzazioni ufficiali delle professioni”. Detto altrimenti: l’algoritmo può incrociare domande e offerte usando una molteplicità di variabili, scomponendo il problema complessivo del matching in problemi più piccoli. Nel caso delle categoria, l’algoritmo usa un sistema che confronta le definizioni con le classificazioni ufficiali delle professioni sviluppate da Istat nel 2011 e nel 2021. Nel caso invece della distanza semantica, alla base c’è il modello open source Sentence transformer, che elabora una percentuale di similarità del coseno tra le frasi che mette a confronto.

La gestione dei dati

A quel punto avviene la “pesatura” delle variabili, che si traduce nel riempimento del gradiente per ciascuna delle cinque macro-aree di analisi. Al momento Inps non mostra ai candidati il “punteggio” ricevuto per ciascuna variabile, per evitare che questo possa spingere la persona a modificare alcuni elementi di partenza per ottenere risultati più alti, ma sulla piattaforma è presente un filo diretto con gli sviluppatori per avere lumi sul funzionamento. Inoltre “il risultato non è vincolante – specifica D’Angelo -. Il sistema non esclude i candidati che hanno una affinità bassa rispetto a un’offerta e le agenzie del lavoro potranno vedere tutti i curriculum”. Al tempo stesso, aggiunge, il sistema non fa ricorso a dati “sulla situazione anagrafica, sociale, sanitaria ed economica della persona”.

Categorie
Tecnologia

Le ingiustizie dell’intelligenza artificiale e le battaglie della società civile

Author: Wired

Il nostro ultimo report di ricerca si intitola Civil Society’s Struggle Against Algorithmic Injustice in Europe. Basato su interviste con attivisti e rappresentanti delle organizzazioni della società civile europea, esplora come le organizzazioni per i diritti digitali e la data justice definiscono gli errori dell’AI, come mettano in discussione l’uso dei sistemi di AI e sottolinea l’urgente necessità di questi dibattiti.

La nostra ricerca ha rivelato un panorama complessivo di preoccupazione, poiché la maggior parte delle persone intervistate condivide il punto di vista maggioritario presso studiosi e le studiose di AI: l’intelligenza artificiale può spesso essere razzista, discriminatoria e riduttiva quando si tratta di dare un senso agli esseri umani e analizzarne i comportamenti. Molti dei nostri intervistati hanno anche sottolineato ed enfatizzato come non dovremmo considerare gli errori dell’AI come un problema puramente tecnologico. Piuttosto, questi sono sintomi di questioni sociali sistemiche più ampie che precedono gli sviluppi tecnologici recenti. La polizia predittiva è un chiaro esempio. Poiché questi sistemi si basano su dati della polizia che riguardano il passato, potenzialmente falsificati o corrotti, possono perpetuare forme esistenti di discriminazione su base etnica, spesso portando alla profilazione razziale e persino ad arresti illegali.

L’AI sta già influenzando la nostra vita quotidiana

Per le organizzazioni della società civile europea, un problema chiave è la mancanza di consapevolezza tra il pubblico che l’AI sia già utilizzata per prendere decisioni in numerose aree della loro vita. Anche quando le persone ne sono consapevoli, infatti, spesso non è chiaro come operino queste black box, o chi dovrebbe essere ritenuto responsabile quando prendono una decisione ingiusta o iniquia.

Questa mancanza di visibilità significa anche che la lotta per la giustizia algoritmica non è solo una questione politica, ma anche simbolica, perché mette in discussione le nostre stesse idee di oggettività e precisione. I dibattiti sull’AI sono notoriamente dominati dall’isteria mediatica e dal panico, come ha mostrato il nostro primo rapporto di ricerca, pubblicato nel 2022. Di conseguenza, le organizzazioni della società civile europea sono costrette a perseguire due obiettivi: parlare chiaramente della questione e mettere in discussione la visione predominante che vede l’IA come una panacea automatizzata per la soluzione di problemi sociali complessi. L’importanza di dare il giusto nome al problema emerge con evidenza dai risultati del nostro nuovo report, dove gli intervistati e le intervistate si sono spesso dette riluttanti persino a utilizzare termini come “Etica dell’AI”, arrivando persino a non menzionare affatto “IA”. Invece, hanno spesso adottato termini alternativi e più specifici come “statistica avanzata”, “automatic decision making” o “sistemi Adm”.

Contenere il potere delle grandi aziende tecnologiche

Oltre a sensibilizzare il pubblico, uno dei principali problemi, secondo le organizzazioni della società civile europee che si battono per la giustizia algoritmica, è limitare il potere dominante delle grandi aziende tecnologiche. Diverse organizzazioni che abbiamo intervistato sono state coinvolte in iniziative connesse all’AI Act dell’Unione europea e, in alcuni casi, hanno persino giocato un ruolo diretto nel mettere in evidenza alcune questioni aperte e chiudere le falle che le aziende tecnologiche avrebbero potuto sfruttare.

Secondo alcune organizzazioni, ci sono elementi, come il riconoscimento facciale biometrico negli spazi pubblici, dove solo un divieto assoluto potrà sufficiente a scongiurare scenari di sorveglianza di massa. Altre organizzazioni, addirittura, si sono dette scettiche nei confronti della legislazione nel complesso, ritenendo che essa da sola non possa risolvere tutti i problemi presentati dalla continua diffusione dei sistemi algoritmici. La nostra ricerca mostra anche che, per affrontare il potere dei sistemi algoritmici, occorre smettere di considerare gli errori dell’IA come un problema puramente tecnologico, ma che serve iniziare a inquadrarlo come un problema espressamente politico. A dover essere risolto non è un difetto tecnologico del sistema o un suo glitch, ma le disuguaglianze sistemiche che questi sistemi perpetuano e da cui hanno origine.

Il report “Civil Society’s Struggle Against Algorithmic Injustice in Europe” dello Human Error Project è disponibile qui.

Questo articolo è apparso originariamente in lingua inglese sull’edizione europea di The Conversation. La testata e gli autori hanno acconsentito all’uso da parte di Wired.

Categorie
Economia Tecnologia

Come Fratelli d’Italia si è preso la tecnologia

Author: Wired

Il primo appuntamento è il decreto legge che Palazzo Chigi intende varare entro fine marzo, basandosi sulla strategia consegnata dalla commissione intelligenza artificiale voluta da Butti. Il documento, di cui Wired ha potuto visionare il rapporto di sintesi, fornisce dieci indicazioni generali, su come applicare l’AI nella pubblica amministrazione, come stimolare la ricerca scientifica e come favorire il trasferimento tecnologico alle imprese. È di fatto il canovaccio della legge che il governo Meloni vuole scrivere e che affiderà a una fondazione la regia dei progetti. Una poltrona che, è facile immaginare, Fratelli d’Italia vorrà tenere per sé.

Mosse sulla scacchiera

L’attivismo del partito di destra nel controllo degli snodi di legge, appalti e finanziamenti non è nuovo. La prima prova è stato il blitz a marzo 2023 al vertice dell’Agenzia per la cybersicurezza nazionale (Acn), finita nel mirino del sottosegretario Alfredo Mantovano, con delega ai servizi segreti. L’ente ha 623 milioni in dote dal Piano nazionale di ripresa e resilienza (Pnrr), una sequenza di appalti da dover assegnare e un ruolo chiave nell’architettura dati e cloud nazionale.

Poi è stata la volta del lunghissimo braccio di ferro tra Lega e Fratelli d’Italia per la poltrona di amministratore delegato di Cdp Venture Capital, il Fondo nazionale innovazione nato nel 2020 sotto Cassa depositi e prestiti (Cdp) per sostenere lo sviluppo di startup in Italia. Il principale azionista della cassaforte del risparmio postale, il ministro leghista delle Finanze, Giancarlo Giorgetti, spingeva per rinnovare l’ad Enrico Resmini, ma Giovanbattista Fazzolari, sottosegretario della presidenza del Consiglio all’attuazione del programma e fedelissimo di Meloni, ha voluto un cambio. Al timone è approdato l’ex responsabile finanziario di Terna, Agostino Scornajenchi.

Il quale si trova nella stessa situazione che toccherà al successore di Amadeus alla conduzione del Festival di Sanremo: raccogliere un successo incredibile (Resmini ha portato a 3,1 miliardi gli asset gestiti dal fondo e aveva la stima di tutto il mondo dell’innovazione italiana) e preservarlo. Non sarà facile. Non solo per le mutate condizioni di mercato, ma anche perché avrà un governo ingombrante. Il sottosegretario Butti promette da tempo soldi alle startup: 150 milioni che dovrà gestire Cdp venture capital con Acn e Palazzo Chigi. E di recente Meloni ha piazzato una fiche da un miliardo sempre sul capitolo AI. Ma non solo. Proprio al G7 Urso ha parlato di creare un campione nazionale” dell’AI. E ha anche annunciato che tra i decreti collegati alla manovra economica varata nel 2023, c’è una legge sulle tecnologie abilitanti, tra cui blockchain, metaverso e realtà virtuale, che insieme ai provvedimenti gemelli su economia dello spazio e del mare, muoverà 320 milioni di investimenti.

Musk e l’etica

Ma al netto di poltrone, soldi e nomine, che tecnologia immagina Fratelli d’Italia? La narrazione si muove su due binari. Da un lato c’è la fascinazione per Elon Musk, ospite d’onore dell’edizione 2023 della festa del partito, Atreju. Il fondatore di Tesla e SpaceX e proprietario dell’ex Twitter, ribattezzato X, è l’emblema dell’innovatore per la destra nazionale. Più per le sue prese di posizione contro i movimenti di sinistra negli Stati Uniti o sul tema del calo demografico occidentale che per il suo approccio liberista all’economia, che mal si attaglia al vento dirigista che spira in Europa e che anima le strategie del governo. Ma Musk fa gioco, sia come potenziale partner industriale (si parla di coinvolgere l’internet satellitare di Starlink per compensare il mancato cablaggio di alcune aree del paese) sia come voce di tecnologo e visionario. Peccato che l’imprenditore sudafricano sia allergico alle regole sul digitale di cui l’Unione europea si sta dotando (vedi il caso Digital services act e X) e che l’Italia deve applicare. E con la sua narrativa lungotermista e apocalittica sull’AI che sterminerà l’umanità, alimenta le paure per difendere i suoi interessi e mettere i bastoni tra le ruote a potenziali concorrenti più abili. Insomma, non fa certo il gioco di Roma.

Dall’altro lato, il partito continua a insistere sull’“etica” nella tecnologia. La dichiarazione del G7 è zeppa di riferimenti a un’etica sull’intelligenza artificiale, che però, come ha osservato su Wired il presidente della Fondazione per la sostenibilità digitale, Stefano Epifani, non serve: “Con la scusa dell’etica degli algoritmi finiamo per convincerci che l’etica è negli algoritmi, dimenticando che siamo noi a dover dare un’etica a ciò che fanno gli algoritmi. Insomma: dopo lo Stato etico ci mancavano le intelligenze artificiali etiche”. Eppure è uno degli aggettivi che la destra al governo ama appaiare all’AI. Un connubio che sarebbe innocuo, finché resta nel pour parler, ma che diventa rischioso se ispira le regole. Un conto è il diritto, altro paio di maniche l’etica. Anche perché l’AI Act non copre i campi della sicurezza nazionale e della difesa. Sui quali a pronunciarsi dovranno essere i governi. E in Italia, ça va sans dire, Fratelli d’Italia vorrà dire la sua.

Categorie
Tecnologia

Meta e Google hanno messo nel mirino gli spyware made in Italy

Author: Wired

Prima Google, poi Meta. A distanza di pochi giorni l’industria di spyware e sistemi di sorveglianza è finita sotto la lente di due tra i colossi mondiali del digitale. Che raccontano di reti di account fasulli, trojan mascherati da app legittime, vulnerabilità sfruttate per infettare i dispositivi di giornalisti, attivisti, dissidenti e politici di opposizione. E puntano il dito contro alcune aziende italiane del settore. I nomi di Cy4Gate (che respinge gli addebiti), Negg Group e Ips Intelligence (che invece non hanno risposto alle domande di Wired), sono stati messi nero su bianco in due rapporti usciti a inizio febbraio e firmati dai reparti di cybersecurity di Big G e della holding di Facebook, Instagram e Whatsapp.

Il tempismo non è casuale. Lo scorso 6 febbraio a Londra, alla Lancaster House, 27 tra Stati e unioni internazionali, tra cui Italia, Francia, Stati Uniti e Regno Unito, 14 aziende del settore digitale (come Meta e Microsoft) e 12 tra organizzazioni non governative e università hanno sottoscritto il Pall Mall Process, un’iniziativa internazionale per mettere a freno l’uso indiscriminato di spyware e altri strumenti di sorveglianza online. “Il danno non è ipotetico”, scrive Google nell’attacco del suo rapporto: sebbene i fornitori rivendichino “l’uso legittimo dei loro strumenti da parte delle forze dell’ordine e dell’antiterrorismo”, si riscontra l’uso contro “giornalisti, attivisti per i diritti umani, dissidenti e politici di partiti di opposizione” (utenti ad alto rischio, secondo la definizione del colosso informatico). Secondo Meta, solo “un approccio comprensivo al blocco di questa minaccia nel nostro settore e nella società può porre un freno significativo ai gruppi spyware”.

Le italiane nel mirino

Entrambe le aziende fanno i nomi di alcune aziende italiane del settore. La prima è Cy4Gate. Partecipata da Elettronica e quotata in Borsa, l’azienda con sede a Roma si occupa di intelligenza artificiale e cybersecurity e a settembre 2023 iscriveva a bilancio ricavi per 44,9 milioni per i primi nove mesi dell’anno. Nel suo rapporto Meta dichiara di aver rimosso una rete di account falsi su Facebook e Instagram che sarebbero collegati a Cy4Gate, con immagini generate con l’intelligenza artificiale, usati per raccogliere informazioni pubbliche sui loro obiettivi.

Sulla stessa scia avrebbe agito, secondo Menlo Park, anche Rcs Lab, società controllata di Cy4Gate nata nel 1993 e specializzata in software dedicati alle attività investigative delle forze dell’ordine. Meta dice di aver abbattuto una rete di profili falsi, operativa da Italia, Kazakhstan e Mongolia. Tra le tecniche attribuite a Rcs Lab, vi sono account fake di dimostranti, giornalisti o giovane donne, sfruttati per ingannare le persone sorvegliate sui social (compreso LinkedIn), inviare link malevoli (usati per tracciare gli indirizzi Ip degli obiettivi) o spingerli a condividere email o numeri di telefoni o, ancora, per trasmettere documenti Word infettati (per esempio, volantini di petizioni governative). Con questi strumenti Rcs Lab avrebbe consentito di spiare giornalisti e dissidenti in Mongolia, Kazakhstan e Azerbaijan. A ottobre un’inchiesta di Irpi Media ha svelato l’esistenza di un prodotto di Gy4Gate, Gens.AI, pensato per creare avatar virtuale da destinare alle forze dell’ordine per attività di indagine. Google invece menziona il ricorso a spyware, come Epeius di Cy4Gate o Hermit di Rcs Lab, per colpire dispositivi con sistemi operativi iOs o Android.