Categorie
Economia Tecnologia

Cosa ha deciso il governo sull’intelligenza artificiale

Author: Wired

Sono stati suggeriti anche su codice penale da parte del Dipartimento per l’informazione e l’editoria, che ha la sua commissione per l’AI per mano del sottosegretario di Forza Italia, Alberto Barachini (su cui Meloni, indispettita dalla mossa, è voluta intervenire affidandone la regia a padre Paolo Benanti) e vagliati dal Guardasigilli, Carlo Nordio.

È prevista l’aggravante comune per AI, con l’aggiunta all’articolo 61 del codice penale del comma: “L’avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato”. Nel caso del reato di sostituzione di persona (articolo 494), la pena è la reclusione da uno a tre anni se si usano deepfake. Sono previste aggravanti per AI anche per la manipolazione di mercato, l’aggiotaggio, la ricettazione, la truffa, il riciclaggio.

La diffusione illecita di deepfake, con l’obiettivo di ingannare chi li vede, è punita su querela con la reclusione da sei mesi a tre anni. “Se dal fatto deriva un danno ingiusto, la pena è della reclusione da uno a cinque anni”, si legge. Il disegno di legge prevede l’azione di ufficio se è “commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate”.

Il governo si riserva, tra le altre cose, di designare in base all’AI Act, un’autorità di vigilanza del mercato e una di notifica. Entro un anno dovrà emettere “uno o più decreti legislativi per definire organicamente la disciplina nei casi di uso di sistemi di intelligenza artificiale per finalità illecite”. Palazzo Chigi e ministero della Giustizia trasmetteranno le bozze alle Camere per un parere, che dovrà arrivare entro 60 giorni, altrimenti l’esecutivo potrà procedere per la sua strada.

Diritto d’autore e bollino sull’AI

L’aggravante per AI riguarda anche la protezione del copyright, uno dei cardini della legge che ha richiesto, secondo Il Sole 24 Ore, un importante lavoro di allineamento. La legge integra le tutele e le violazioni con aggravanti per il ricorso dell’AI. E poi obbliga canali tv, radio e piattaforme di streaming a inserire un bollino che identifichi i contenuti realizzati o modificati dall’intelligenza artificiale, “un elemento o segno identificativo, anche in filigrana o marcatura incorporata purché chiaramente visibile e riconoscibile, con l’acronimo “IA” ovvero, nel caso audio, attraverso annunci audio”. Il bollino dovrà comparire a inizio e fine trasmissione, prima e dopo il contenuto generato con l’AI e alla fine di ogni interruzione pubblicitaria.

Le piattaforme social dovranno fornire sistemi per identificare i contenuti generati dall’AI. La legge sul copyright tutela i prodotti degli algoritmi, “nel caso in cui il contributo umano nell’ideazione e realizzazione dell’opera tramite l’uso dell’algoritmo sia creativo, rilevante e dimostrabile” e punisce gli abusi con una pena aumentata.

La pubblica amministrazione

Sarà Agid a guidare l’ingresso massivo dell’AI negli enti pubblici. In particolare dovrà fornire gli indirizzi a Consip, la centrale acquisti della pubblica amministrazioni, su programmi e aziende. Il governo spinge per un approccio “sovranista”, chiedendo che “vengano privilegiate quelle soluzioni che garantiscono la localizzazione ed elaborazione dei dati critici presso data center posti sul territorio nazionale, nonché modelli fondativi in grado di assicurare elevati standard in termini di trasparenza nelle modalità di addestramento e di sviluppo di applicazioni basate su AI generativa”. La parola passa al Polo strategico nazionale, l’infrastruttura su cui migrare i dati critici e strategici della pubblica amministrazione. L’AI nel pubblico dovrà essere trasparente, “assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo”, e utilizzata a supporto di decisioni prese dalla persona responsabile.

Categorie
Tecnologia

Le ingiustizie dell’intelligenza artificiale e le battaglie della società civile

Author: Wired

Il nostro ultimo report di ricerca si intitola Civil Society’s Struggle Against Algorithmic Injustice in Europe. Basato su interviste con attivisti e rappresentanti delle organizzazioni della società civile europea, esplora come le organizzazioni per i diritti digitali e la data justice definiscono gli errori dell’AI, come mettano in discussione l’uso dei sistemi di AI e sottolinea l’urgente necessità di questi dibattiti.

La nostra ricerca ha rivelato un panorama complessivo di preoccupazione, poiché la maggior parte delle persone intervistate condivide il punto di vista maggioritario presso studiosi e le studiose di AI: l’intelligenza artificiale può spesso essere razzista, discriminatoria e riduttiva quando si tratta di dare un senso agli esseri umani e analizzarne i comportamenti. Molti dei nostri intervistati hanno anche sottolineato ed enfatizzato come non dovremmo considerare gli errori dell’AI come un problema puramente tecnologico. Piuttosto, questi sono sintomi di questioni sociali sistemiche più ampie che precedono gli sviluppi tecnologici recenti. La polizia predittiva è un chiaro esempio. Poiché questi sistemi si basano su dati della polizia che riguardano il passato, potenzialmente falsificati o corrotti, possono perpetuare forme esistenti di discriminazione su base etnica, spesso portando alla profilazione razziale e persino ad arresti illegali.

L’AI sta già influenzando la nostra vita quotidiana

Per le organizzazioni della società civile europea, un problema chiave è la mancanza di consapevolezza tra il pubblico che l’AI sia già utilizzata per prendere decisioni in numerose aree della loro vita. Anche quando le persone ne sono consapevoli, infatti, spesso non è chiaro come operino queste black box, o chi dovrebbe essere ritenuto responsabile quando prendono una decisione ingiusta o iniquia.

Questa mancanza di visibilità significa anche che la lotta per la giustizia algoritmica non è solo una questione politica, ma anche simbolica, perché mette in discussione le nostre stesse idee di oggettività e precisione. I dibattiti sull’AI sono notoriamente dominati dall’isteria mediatica e dal panico, come ha mostrato il nostro primo rapporto di ricerca, pubblicato nel 2022. Di conseguenza, le organizzazioni della società civile europea sono costrette a perseguire due obiettivi: parlare chiaramente della questione e mettere in discussione la visione predominante che vede l’IA come una panacea automatizzata per la soluzione di problemi sociali complessi. L’importanza di dare il giusto nome al problema emerge con evidenza dai risultati del nostro nuovo report, dove gli intervistati e le intervistate si sono spesso dette riluttanti persino a utilizzare termini come “Etica dell’AI”, arrivando persino a non menzionare affatto “IA”. Invece, hanno spesso adottato termini alternativi e più specifici come “statistica avanzata”, “automatic decision making” o “sistemi Adm”.

Contenere il potere delle grandi aziende tecnologiche

Oltre a sensibilizzare il pubblico, uno dei principali problemi, secondo le organizzazioni della società civile europee che si battono per la giustizia algoritmica, è limitare il potere dominante delle grandi aziende tecnologiche. Diverse organizzazioni che abbiamo intervistato sono state coinvolte in iniziative connesse all’AI Act dell’Unione europea e, in alcuni casi, hanno persino giocato un ruolo diretto nel mettere in evidenza alcune questioni aperte e chiudere le falle che le aziende tecnologiche avrebbero potuto sfruttare.

Secondo alcune organizzazioni, ci sono elementi, come il riconoscimento facciale biometrico negli spazi pubblici, dove solo un divieto assoluto potrà sufficiente a scongiurare scenari di sorveglianza di massa. Altre organizzazioni, addirittura, si sono dette scettiche nei confronti della legislazione nel complesso, ritenendo che essa da sola non possa risolvere tutti i problemi presentati dalla continua diffusione dei sistemi algoritmici. La nostra ricerca mostra anche che, per affrontare il potere dei sistemi algoritmici, occorre smettere di considerare gli errori dell’IA come un problema puramente tecnologico, ma che serve iniziare a inquadrarlo come un problema espressamente politico. A dover essere risolto non è un difetto tecnologico del sistema o un suo glitch, ma le disuguaglianze sistemiche che questi sistemi perpetuano e da cui hanno origine.

Il report “Civil Society’s Struggle Against Algorithmic Injustice in Europe” dello Human Error Project è disponibile qui.

Questo articolo è apparso originariamente in lingua inglese sull’edizione europea di The Conversation. La testata e gli autori hanno acconsentito all’uso da parte di Wired.

Categorie
Economia Tecnologia

Come Fratelli d’Italia si è preso la tecnologia

Author: Wired

Il primo appuntamento è il decreto legge che Palazzo Chigi intende varare entro fine marzo, basandosi sulla strategia consegnata dalla commissione intelligenza artificiale voluta da Butti. Il documento, di cui Wired ha potuto visionare il rapporto di sintesi, fornisce dieci indicazioni generali, su come applicare l’AI nella pubblica amministrazione, come stimolare la ricerca scientifica e come favorire il trasferimento tecnologico alle imprese. È di fatto il canovaccio della legge che il governo Meloni vuole scrivere e che affiderà a una fondazione la regia dei progetti. Una poltrona che, è facile immaginare, Fratelli d’Italia vorrà tenere per sé.

Mosse sulla scacchiera

L’attivismo del partito di destra nel controllo degli snodi di legge, appalti e finanziamenti non è nuovo. La prima prova è stato il blitz a marzo 2023 al vertice dell’Agenzia per la cybersicurezza nazionale (Acn), finita nel mirino del sottosegretario Alfredo Mantovano, con delega ai servizi segreti. L’ente ha 623 milioni in dote dal Piano nazionale di ripresa e resilienza (Pnrr), una sequenza di appalti da dover assegnare e un ruolo chiave nell’architettura dati e cloud nazionale.

Poi è stata la volta del lunghissimo braccio di ferro tra Lega e Fratelli d’Italia per la poltrona di amministratore delegato di Cdp Venture Capital, il Fondo nazionale innovazione nato nel 2020 sotto Cassa depositi e prestiti (Cdp) per sostenere lo sviluppo di startup in Italia. Il principale azionista della cassaforte del risparmio postale, il ministro leghista delle Finanze, Giancarlo Giorgetti, spingeva per rinnovare l’ad Enrico Resmini, ma Giovanbattista Fazzolari, sottosegretario della presidenza del Consiglio all’attuazione del programma e fedelissimo di Meloni, ha voluto un cambio. Al timone è approdato l’ex responsabile finanziario di Terna, Agostino Scornajenchi.

Il quale si trova nella stessa situazione che toccherà al successore di Amadeus alla conduzione del Festival di Sanremo: raccogliere un successo incredibile (Resmini ha portato a 3,1 miliardi gli asset gestiti dal fondo e aveva la stima di tutto il mondo dell’innovazione italiana) e preservarlo. Non sarà facile. Non solo per le mutate condizioni di mercato, ma anche perché avrà un governo ingombrante. Il sottosegretario Butti promette da tempo soldi alle startup: 150 milioni che dovrà gestire Cdp venture capital con Acn e Palazzo Chigi. E di recente Meloni ha piazzato una fiche da un miliardo sempre sul capitolo AI. Ma non solo. Proprio al G7 Urso ha parlato di creare un campione nazionale” dell’AI. E ha anche annunciato che tra i decreti collegati alla manovra economica varata nel 2023, c’è una legge sulle tecnologie abilitanti, tra cui blockchain, metaverso e realtà virtuale, che insieme ai provvedimenti gemelli su economia dello spazio e del mare, muoverà 320 milioni di investimenti.

Musk e l’etica

Ma al netto di poltrone, soldi e nomine, che tecnologia immagina Fratelli d’Italia? La narrazione si muove su due binari. Da un lato c’è la fascinazione per Elon Musk, ospite d’onore dell’edizione 2023 della festa del partito, Atreju. Il fondatore di Tesla e SpaceX e proprietario dell’ex Twitter, ribattezzato X, è l’emblema dell’innovatore per la destra nazionale. Più per le sue prese di posizione contro i movimenti di sinistra negli Stati Uniti o sul tema del calo demografico occidentale che per il suo approccio liberista all’economia, che mal si attaglia al vento dirigista che spira in Europa e che anima le strategie del governo. Ma Musk fa gioco, sia come potenziale partner industriale (si parla di coinvolgere l’internet satellitare di Starlink per compensare il mancato cablaggio di alcune aree del paese) sia come voce di tecnologo e visionario. Peccato che l’imprenditore sudafricano sia allergico alle regole sul digitale di cui l’Unione europea si sta dotando (vedi il caso Digital services act e X) e che l’Italia deve applicare. E con la sua narrativa lungotermista e apocalittica sull’AI che sterminerà l’umanità, alimenta le paure per difendere i suoi interessi e mettere i bastoni tra le ruote a potenziali concorrenti più abili. Insomma, non fa certo il gioco di Roma.

Dall’altro lato, il partito continua a insistere sull’“etica” nella tecnologia. La dichiarazione del G7 è zeppa di riferimenti a un’etica sull’intelligenza artificiale, che però, come ha osservato su Wired il presidente della Fondazione per la sostenibilità digitale, Stefano Epifani, non serve: “Con la scusa dell’etica degli algoritmi finiamo per convincerci che l’etica è negli algoritmi, dimenticando che siamo noi a dover dare un’etica a ciò che fanno gli algoritmi. Insomma: dopo lo Stato etico ci mancavano le intelligenze artificiali etiche”. Eppure è uno degli aggettivi che la destra al governo ama appaiare all’AI. Un connubio che sarebbe innocuo, finché resta nel pour parler, ma che diventa rischioso se ispira le regole. Un conto è il diritto, altro paio di maniche l’etica. Anche perché l’AI Act non copre i campi della sicurezza nazionale e della difesa. Sui quali a pronunciarsi dovranno essere i governi. E in Italia, ça va sans dire, Fratelli d’Italia vorrà dire la sua.

Categorie
Economia Tecnologia

Perché il 2024 sarà l’anno dell’intelligenza artificiale per gli enti pubblici italiani

Author: Wired

Entro fine anno va messo nero su bianco un piano d’azione per arruolare l’intelligenza artificiale nei processi della pubblica amministrazione. È questo uno degli obiettivi che si è data l’Agenzia per l’Italia digitale (Agid), l’ufficio per la digitalizzazione degli enti pubblici nazionali, per il trienno 2024-26. Nel suo programma triennale per l’informatica, Agid ha indicato dicembre 2024 come la scadenza entro cui dovrà scrivere le linee guida per promuovere l’adozione dell’intelligenza artificiale nella pubblica amministrazione, quelle per bandire gare e appalti dedicati e quelle per sviluppare le prime applicazioni. A quel punto il manuale di istruzioni servirà per passare dalle teoria alla pratica.

I numeri dell’AI

Nel 2025 Agid punta a raggiungere quota 150 progetti di intelligenza artificiale negli enti pubblici, da portare a 400 nei 12 mesi successivi. In parallelo, sul fronte acquisti, nel 2025 l’obiettivo è di 100 procedure per acquistare servizi di AI, che nel 2026 devono aumentare fino a 300. Mentre nel campo delle applicazioni, i traguardi da raggiungere nel 2025 e nel 2026 sono rispettivamente di 50 e 100 progetti di sviluppo avviati. Gli esempi da copiare sono quelli di Inps, che ha adottato un sistema di analisi e smistamento automatici degli oltre 16mila messaggi di posta elettronica certificata che riceve in media ogni giorno, prima catalogati manualmente, risparmiando così 40mila ore di lavoro ogni anno. L’ente previdenziale sta anche migliorando le capacità di comprensione delle richieste degli utenti da parte del suo chatbot, dopo una fase di test nell’agosto 2023. Mentre Istat sta esplorando l’uso di AI per modellare i contesti semantici, partendo da richieste effettuate con un linguaggio naturale. Chissà se sono queste le frontiere tecnologiche a cui dovrebbe lavorare 3-I spa, la società pubblica partecipata dai due istituti più Inail per fornire software, fondata nel 2022 e mai partita, o se Agid troverà altri canali per alimentare lo sviluppo.

Tra le righe il programma messo a punto da Agid rafforza il suo ruolo come supervisore dell’intelligenza artificiale in Italia. Un compito che caldeggia da tempo il sottosegretario alla presidenza del Consiglio dei ministri con delega al digitale, Alessio Butti, sulla scia delle future previsioni dell’AI Act, il regolamento europeo sull’intelligenza artificiale.

Il provvedimento, ormai in attesa dell’ultimo via libera da parte del Parlamento europeo, impone di eleggere un ente nazionale perché vigili sul settore. Tuttavia non impone di avere una sola autorità, anzi suggerisce di dividere i compiti in base alle specificità (chi controlla i mercati finanziari dovrebbe occuparsi delle applicazioni di intelligenza artificiale per quel campo). Raccomanda, da ogni modo, che ci sia un referente. Che da tempo Palazzo Chigi ha identificato nell’Agid. Le ragioni sono presto dette: Agid già definisce le strategie nazionali in ambito digitale; dopo l’istituzione dell’Agenzia per la cybersicurezza nazionale, è stata alleggerita di tutti i compiti in ambito di cybersecurity; è un ente “generalista” ma controllato dal governo e non indipendente e, non da ultimo, ospita la segreteria tecnica del comitato nominato da Butti per elaborare la strategia nazionale sull’AI, attesa nelle prossime settimane.

Tutti gli altri progetti

E con l’aggiornamento del piano triennale, Agid si intesta la marcia a tappe forzate per inserire sistemi di intelligenza artificiale nel lavoro del pubblico. La strada è in salita. Nei prossimi tre anni non di sola AI si vivrà negli uffici dell’ente, nel quartiere dell’Eur a Roma. Solo per dare sostanza ai piani sugli algoritmi, Agid in parallelo deve completare entro un anno una ricognizione sulle basi dati “strategiche” in mano al pubblico, digitalizzarle entro il 2025 e dal 2026 promuoverle per allenare i sistemi di AI.

Categorie
Economia Tecnologia

Il Garante della privacy denuncia ancora ChatGPT

Author: Wired

A dieci mesi dal primo stop, che ha fatto il giro del mondo, il Garante della privacy italiano contesta a OpenAI, lo sviluppatore di ChatGPT, la violazione delle regole europee in materia di protezione dei dati personali. La denuncia arriva a valle dell’indagine condotta dall’autorità dopo che alla fine di marzo 2023 aveva imposto una limitazione temporanea dell’uso dei dati, perché in contrasto con le previsioni del Gdpr, il regolamento europeo in materia.

Da allora il Garante ha chiesto a OpenAI di conformarsi a una serie di regole per adeguarsi al contesto legislativo del vecchio continente. E in parallelo ha avviato un’istruttoria, per verificare se la società di Sam Altman avesse compiuto altri illeciti rispetto a quanto stabilito dal Gdpr. Una ipotesi che, stando alle conclusioni dell’autorità di piazza Venezia, si è verificata. Al punto da spedire al quartier generale di OpenAI un “atto di contestazione per aver violato la normativa in materia di protezione dei dati personali”, fa sapere il Garante in una nota. A questo punto OpenAI ha 30 giorni per fornire le proprie contro-deduzioni e difendersi dalle accuse.

Il momento è molto delicato, perché in queste settimane Consiglio e Parlamento europeo devono votare l’AI Act, il pacchetto di regole comunitarie sull’intelligenza artificiale. E che mette nel mirino proprio il modello linguistico di grandi dimensioni (large language model, Llm) utilizzato per addestrare ChatGPT, imponendo paletti più stringenti per le intelligenze artificiali di uso generale che possono avere un grande impatto sulla popolazione. Proprio come il chatbot di OpenAI. Proprio per questo l’autorità italiana ha fatto sapere che si muoverà nell’ambito della task force sull’intelligenza artificiale che il Consiglio dei garanti europei ha istituito l’anno scorso per evitare fughe in avanti e approcci in ordine sparso nella regolamentazione di questi strumenti.

Il primo round

L’anno scorso l’azione del Garante italiano della privacy fece scalpore. ChatGPT aveva iniziato da pochi mesi a diventare l’argomento per eccellenza di conversazione, quando da piazza Venezia era scattato il blocco temporaneo. Azione a cui OpenAI aveva risposto sospendendo il servizio del suo potente chatbot in Italia. Dopo circa un mese, la situazione si era appianata.

OpenAI aveva risposto alle contestazioni introducendo una sorta di versione in “incognito” per gli utenti, che consente didisattivare la cronologia delle chat su ChatGPT”. Poi si erano aggiunti gli abbonamenti business e semplificazioni per le modalità di esportazione dei propri dati. L’azienda non aveva fatto esplicito riferimento alla mossa del Garante italiano, ma i tempi e il domino di fascicoli di inchiesta aperti da altre autorità, dal Canada alla Spagna, facevano propendere per una mossa studiata per evitare il muro contro muro. Poi il 28 aprile era ripartito il servizio. OpenAI, d’altronde, rischiava una multa che poteva arrivare fino a 20 milioni di euro o fino al 4% del fatturato globale annuo. Bazzecole, rispetto ai 29 miliardi di valutazione raggiunti dopo l’ultima iniezione di capitale da parte di Microsoft. Wired ha richiesto un commento a OpenAI in merito.

[articolo in aggiornamento]