Categorie
Tecnologia

Come funzionano le prove Invalsi, dietro le quinte

Author: Wired

Nei giorni successivi, oltre al sindacato, una serie di associazioni e di sigle dei lavoratori (Associazione Roars, Alas, Usb Scuola, Unicobas scuola, Cub sur scuola, Organizzazione studenti Osa, i Cobas di Torino, Sardegna, Terni e Tuscia, gli autoconvocati, il Partito di rifondazione comunista, Priorità alla scuola, associazione Cattive ragazze, La nostra scuola Agorà 33, Per la scuola della Repubblica, Associazione nazionale docenti, Redazione professione docenti e Centro studi per la scuola pubblica) hanno annunciato un reclamo al Garante della privacy perché vieti il trattamento dei dati degli studenti fragili da parte di Invalsi. È bene precisare che nel 2018 e nel 2019 l’Autorità per la protezione dei dati ha espresso parere favorevole sugli schemi di trattamento prodotti dall’ente.

Individuare i fragili

L’indicazione di uno studente come fragile, istituita nel 2022 per raggiungere gli obiettivi del Pnrr in materia di scuola e colmare i divari tra i territori, è proprio uno degli elementi su cui ha voluto fare chiarezza la richiesta di accesso agli atti di Wired. L’indicatore serve a individuare persone che hanno difficoltà di apprendimento, dovrebbe attivare percorsi dedicati di sostegno e dipende, spiega Invalsi, dai “risultati conseguiti contemporaneamente nelle tre materie delle prove”. Cioè italiano, matematica e inglese.

Una premessa: nell’anno scolastico 2017-18 Invalsi è passato da quiz su carta a quelli al computer. Una pratica internazionale, allineata al Programma di valutazione internazionale dell’allievo (Pisa) varata dall’Organizzazione per la cooperazione e lo sviluppo economico (Ocse), un’ente per gli studi economici che riunisce 38 Stati (tra cui l’Italia). La prova Invalsi si basa su “una procedura, in parte automatizzata, che confronta la risposta fornita da ciascun/a allievo/a a ogni quesito con il repertorio delle possibili risposte corrette, attribuendo un punteggio pari a 1 se la risposta è corretta e pari a 0 se la risposta è errata“. Aggiungono da Invalsi: “I risultati sono espressi su una stessa scala che rimane invariata nel corso degli anni rispetto a una data e una materia” e si articolano in 5 livelli. Dove 3 è la media per passare il quiz.

Di conseguenza, si viene indicati come fragili se, in italiano o matematica, il quiz raggiunge “al massimo il livello 2”. Mentre per inglese, è fragile chi in lettura e ascolto raggiunga alla “III secondaria di I grado al massimo il pre-A12”, mentre all'”ultimo anno della scuola secondaria di secondo grado non abbia raggiunto il B1“. A quel punto avviene l’associazione tra l’indicatore di studente fragile e un codice identificativo dell’alunno, il Sidi (Sistema informativo dell’istruzione). Ma è chiaro che basta poi poco per convertire quel numero in un nome e un cognome.

Categorie
Economia Tecnologia

Come funziona l’AI di Inps che incrocia domanda e offerta di lavoro

Author: Wired

Un sistema di intelligenza artificiale che legge i curriculum e trova l’indice di affinità con le offerte di lavoro. Lo ha arruolato l’Inps per analizzare i profili delle persone iscritte al Sistema informativo per l’inclusione sociale e lavorativa (Siisl), la piattaforma del ministero del Lavoro dedicata a chi riceve l’assegno di inclusione o il supporto formazione e lavoro (con cui il governo Meloni ha sostituito dall’anno scorso il reddito di cittadinanza). Attraverso l’analisi di 18 variabili del profilo di un candidato, l’algoritmo stabilisce quanto è compatibile uno dei 173mila curriculum oggi presenti sulla piattaforma rispetto alla tipologia di lavoro offerto.

Obiettivo dichiarato dell’Istituto nazionale di previdenza sociale è “la semplificazione dell’interazione utente con la banca dati”, alimentata da un lato dai curriculum degli iscritti al Siisl, condizione necessaria per attivare i percorsi di sostegno e di rientro nel mondo del lavoro, e dall’altro dagli annunci delle agenzie per il lavoro. Il sistema di intelligenza artificiale mostrerà ai primi e alle seconde il livello di compatibilità. “Abbiamo concluso il periodo di training – spiega a Wired Massimiliano D’Angelo, direttore centrale tecnologia, informatica e innovazione dell’Inps -. Il sistema ora è operativo“.

Come funziona l’algoritmo

Come funziona l’AI della piattaforma dell’Inps? L’istituto ha lavorato al progetto con Accenture, con cui ha un contratto per la fornitura di servizi informatici. L’algoritmo di machine learning, che gira su sistemi di proprietà dell’ente, è basato su un modello open source, allenato su dataset in lingua italiana. L’elaborazione dell’indice di affinità si basa su 18 parametri, che afferiscono a cinque aspetti determinanti nella ricerca del lavoro: l’esperienza personale, la vicinanza alla sede, il percorso di formazione, le competenze e le aspirazioni. Tra i parametri vi sono livello di studi e corsi di formazione, il Comune di residenza e la disponibilità a trasferirsi, le conoscenze informatiche o quelle linguistiche, qualifiche professionali, preferenza sulla modalità di lavoro o sul tipo di contratto, le principali mansioni svolte. Un calderone di dati che il sistema legge e analizza.

L’algoritmo opera in due modi. Da un lato, spiega Pierpaolo Bonanni, dirigente dell’area technology innovation di Inps, “l’algoritmo calcola la distanza semantica tra le frasi usate nel curriculum e quelle usate nell’offerta di lavoro, come la descrizione del job title o il tipo di esperienza, dall’altro riconduce la descrizione del cittadino a campi categorici facilmente confrontabili poiché valori deterministici, come nel caso delle qualifiche professionali che possono essere ricondotte alle categorizzazioni ufficiali delle professioni”. Detto altrimenti: l’algoritmo può incrociare domande e offerte usando una molteplicità di variabili, scomponendo il problema complessivo del matching in problemi più piccoli. Nel caso delle categoria, l’algoritmo usa un sistema che confronta le definizioni con le classificazioni ufficiali delle professioni sviluppate da Istat nel 2011 e nel 2021. Nel caso invece della distanza semantica, alla base c’è il modello open source Sentence transformer, che elabora una percentuale di similarità del coseno tra le frasi che mette a confronto.

La gestione dei dati

A quel punto avviene la “pesatura” delle variabili, che si traduce nel riempimento del gradiente per ciascuna delle cinque macro-aree di analisi. Al momento Inps non mostra ai candidati il “punteggio” ricevuto per ciascuna variabile, per evitare che questo possa spingere la persona a modificare alcuni elementi di partenza per ottenere risultati più alti, ma sulla piattaforma è presente un filo diretto con gli sviluppatori per avere lumi sul funzionamento. Inoltre “il risultato non è vincolante – specifica D’Angelo -. Il sistema non esclude i candidati che hanno una affinità bassa rispetto a un’offerta e le agenzie del lavoro potranno vedere tutti i curriculum”. Al tempo stesso, aggiunge, il sistema non fa ricorso a dati “sulla situazione anagrafica, sociale, sanitaria ed economica della persona”.

Categorie
Tecnologia

Il supercomputer di Bologna e la sfida dell’intelligenza artificiale generativa

Author: Wired

Tra i progetti di sviluppo più rilevanti a livello europeo c’è Eurofusion, in cui l’infrastruttura di computazione ad alte prestazioni (High Performance Computing, Hpc) viene utilizzata a supporto della fusione nucleare. Si tratta di un ambito di applicazione in cui il supercalcolo può permettere di raggiungere risultati più rapidi e di valore?

“La comunità scientifica europea, che è impegnata nel nucleare e si raccoglie intorno al progetto Eurofusion, ha finora utilizzato marginalmente il supercalcolo a supporto delle proprie attività, fondamentalmente come un sistema ancillare. Oggi le prospettive stanno cambiando, in quanto con il nuovo ciclo di programmazione Eurofusion si è deciso di investire maggiormente sul calcolo Hpc. Si ritiene che a questo stadio della ricerca possa costituire un fattore abilitante, e soprattutto accelerante, in grado di rendere più rapido il processo di sviluppo. L’Italia, con l’agenzia Enea e il Cineca, ha vinto la gara per gestire questo sistema di supercalcolo, che dovrebbe essere inaugurato già durante l’estate. Si tratta di un passaggio rilevante perché segna la crescita dei dominici classici, sfruttando anche le potenzialità dell’intelligenza artificiale generativa”.

Quest’anno sarà ospitato al Tecnopolo di Bologna il G7 Tecnologia. È possibile davvero creare una sinergia a livello globale su questi temi della frontiera high tech? Oppure oggi la competitività internazionale e l’instabilità geopolitica rendono più complessa una reale collaborazione?

“Ospitare il G7 Tecnologia al Tecnopolo di Bologna è un’opportunità per affrontare la sfida di creare sinergie globali su temi tecnologici cruciali. Oltre a essere un orgoglio, da italiano, ospitare il G7 Tecnologia è un bellissimo riconoscimento che sottolinea l’impegno del nostro paese nella trasformazione digitale. Tuttavia, appunto, la crescente competitività e la complessità dello scenario geopolitico pongono ostacoli significativi a una piena collaborazione. Nonostante ciò, c’è un ottimismo nel potere trovare una convergenza su princìpi fondamentali che riguardano le tecnologie ad alto impatto, riconoscendo i rischi associati e cercando soluzioni condivise.

“A livello europeo, si auspica una politica industriale coesa per affrontare le sfide del presente e del prossimo futuro, riconoscendo la necessità di una scala di azione che sia quantomeno continentale. L’accordo su princìpi fondamentali può essere un punto di partenza per superare le complessità della competizione globale e costruire una collaborazione più proficua nel settore tecnologico. Questo processo richiede un impegno continuo nella definizione di politiche industriali europee solide, nonché la ricerca di un ragionevole equilibrio tra la competitività nazionale e la cooperazione internazionale”.

Categorie
Economia Tecnologia

Perché il 2024 sarà l’anno dell’intelligenza artificiale per gli enti pubblici italiani

Author: Wired

Entro fine anno va messo nero su bianco un piano d’azione per arruolare l’intelligenza artificiale nei processi della pubblica amministrazione. È questo uno degli obiettivi che si è data l’Agenzia per l’Italia digitale (Agid), l’ufficio per la digitalizzazione degli enti pubblici nazionali, per il trienno 2024-26. Nel suo programma triennale per l’informatica, Agid ha indicato dicembre 2024 come la scadenza entro cui dovrà scrivere le linee guida per promuovere l’adozione dell’intelligenza artificiale nella pubblica amministrazione, quelle per bandire gare e appalti dedicati e quelle per sviluppare le prime applicazioni. A quel punto il manuale di istruzioni servirà per passare dalle teoria alla pratica.

I numeri dell’AI

Nel 2025 Agid punta a raggiungere quota 150 progetti di intelligenza artificiale negli enti pubblici, da portare a 400 nei 12 mesi successivi. In parallelo, sul fronte acquisti, nel 2025 l’obiettivo è di 100 procedure per acquistare servizi di AI, che nel 2026 devono aumentare fino a 300. Mentre nel campo delle applicazioni, i traguardi da raggiungere nel 2025 e nel 2026 sono rispettivamente di 50 e 100 progetti di sviluppo avviati. Gli esempi da copiare sono quelli di Inps, che ha adottato un sistema di analisi e smistamento automatici degli oltre 16mila messaggi di posta elettronica certificata che riceve in media ogni giorno, prima catalogati manualmente, risparmiando così 40mila ore di lavoro ogni anno. L’ente previdenziale sta anche migliorando le capacità di comprensione delle richieste degli utenti da parte del suo chatbot, dopo una fase di test nell’agosto 2023. Mentre Istat sta esplorando l’uso di AI per modellare i contesti semantici, partendo da richieste effettuate con un linguaggio naturale. Chissà se sono queste le frontiere tecnologiche a cui dovrebbe lavorare 3-I spa, la società pubblica partecipata dai due istituti più Inail per fornire software, fondata nel 2022 e mai partita, o se Agid troverà altri canali per alimentare lo sviluppo.

Tra le righe il programma messo a punto da Agid rafforza il suo ruolo come supervisore dell’intelligenza artificiale in Italia. Un compito che caldeggia da tempo il sottosegretario alla presidenza del Consiglio dei ministri con delega al digitale, Alessio Butti, sulla scia delle future previsioni dell’AI Act, il regolamento europeo sull’intelligenza artificiale.

Il provvedimento, ormai in attesa dell’ultimo via libera da parte del Parlamento europeo, impone di eleggere un ente nazionale perché vigili sul settore. Tuttavia non impone di avere una sola autorità, anzi suggerisce di dividere i compiti in base alle specificità (chi controlla i mercati finanziari dovrebbe occuparsi delle applicazioni di intelligenza artificiale per quel campo). Raccomanda, da ogni modo, che ci sia un referente. Che da tempo Palazzo Chigi ha identificato nell’Agid. Le ragioni sono presto dette: Agid già definisce le strategie nazionali in ambito digitale; dopo l’istituzione dell’Agenzia per la cybersicurezza nazionale, è stata alleggerita di tutti i compiti in ambito di cybersecurity; è un ente “generalista” ma controllato dal governo e non indipendente e, non da ultimo, ospita la segreteria tecnica del comitato nominato da Butti per elaborare la strategia nazionale sull’AI, attesa nelle prossime settimane.

Tutti gli altri progetti

E con l’aggiornamento del piano triennale, Agid si intesta la marcia a tappe forzate per inserire sistemi di intelligenza artificiale nel lavoro del pubblico. La strada è in salita. Nei prossimi tre anni non di sola AI si vivrà negli uffici dell’ente, nel quartiere dell’Eur a Roma. Solo per dare sostanza ai piani sugli algoritmi, Agid in parallelo deve completare entro un anno una ricognizione sulle basi dati “strategiche” in mano al pubblico, digitalizzarle entro il 2025 e dal 2026 promuoverle per allenare i sistemi di AI.

Categorie
Economia Tecnologia

I supercomputer dell’Europa non sono pronti per l’intelligenza artificiale

Author: Wired

E qui vengono le dolenti note. Primo: nell’immediato usare i supercomputer anche per l’addestramento dell’AI significa scegliere a chi destinare la potenza di calcolo. La Commissione dovrà dare ordini di priorità e decidere come allocare le risorse al momento scarse.

Secondo: nel frattempo, spiega il funzionario, bisogna mettere mano al portafoglio e comprare un gran numero di rack, gli scaffali dove si collocano gli apparati hardware, e schede grafiche (graphics processing unit, gpu), cambiare l’architettura dei componenti e le connessioni per ridurre i tempi di collegamento tra le unità di calcolo. Tuttavia il mercato delle gpu è un collo di bottiglia. Il leader del settore è il colosso dei chip Nvidia, subissata dalla richieste, e secondo Tsmc, la principale azienda globale di produzione di microprocessori, la scarsità di offerta durerà almeno per tutto il 2024. Peraltro proprio Nvidia deve fornire l’hardware per il nono supercomputer della rete europea (di cui fa parte anche l’italiano Leonardo, impiantato a Bologna). È Jupiter e dovrebbe vedere la luce entro fine anno nel centro tedesco di supercalcolo a Jülich. Valore dell’appalto complessivo: 237 milioni. Il funzionario spiega che, con questi chiari di luna, non ci sono garanzie che Nvidia mandi in tempo i suoi chip, benché siano previste penalità per i ritardi.

La sfida del chip made in Europe

Terzo: Bruxelles potrebbe replicare con un chip made in Europe. La tecnologia, in questo caso, non manca: la società olandese Asml è il più importante produttore al mondo di macchine per la stampa dei chip. Non è cosa, però, che si fa con uno schiocco di dita. Il funzionario spiega che ci vorranno tre anni almeno per vedere i primi componenti e fino a 7 per un prodotto completo. Insomma, per realizzare un supercomputer con unità locali occorre aspettare il 2030. Tempo che l’Unione non ha, non solo per la corsa sfrenata dei suoi concorrenti. Ma anche perché già oggi i supercomputer della rete hanno una richiesta di poter accedere ai loro servizi che è il doppio della potenza installata. E decine di startup attendono di poter mettere piede nei centri di supercalcolo. Peraltro sotto questa iniziativa dedicata all’AI, le piccole imprese avrebbero accesso gratis ai supercomputer nella fase di sviluppo (non in quella di commercializzazione).

L’Hpc Ju ha in dote un miliardo, più 400 milioni di partner privati. Altri 2 miliardi sono in arrivo con il pacchetto AI. Di questi, dai 200 ai 400 milioni andranno solo in hardware, a seconda di quanta potenza di calcolo si vuole aggiungere negli otto centri in Italia, Spagna, Repubblica ceca, Finlandia, Lussemburgo, Bulgaria, Slovenia, Portogallo e, dal 2025, Germania. La Commissione esclude di appoggiarsi ai supercomputer privati, come quello di Eni a Pavia, perché l’alleanza andrebbe in conflitto con le regole sugli aiuti di Stato. A tendere la creazione delle fabbriche dell’AI può aiutare l’Europa a mettere a sistema le grandi moli di dati raccolte, agevolare le startup e compensare l’assenza di colossi tech con potenza di calcolo da sfruttare. Il progetto prevede anche la creazione di un programma di gemelli digitali delle città per pianificare lo sviluppo urbanistico futuri, dai consumi di energia alla difesa ambientale. Il problema, però, è al momento mancano i fondamentali. Senza i quali il piano della Commissione rischia di essere un gigante dai piedi d’argilla.