Categorie
Tecnologia

Come funzionano le prove Invalsi, dietro le quinte

Author: Wired

Nei giorni successivi, oltre al sindacato, una serie di associazioni e di sigle dei lavoratori (Associazione Roars, Alas, Usb Scuola, Unicobas scuola, Cub sur scuola, Organizzazione studenti Osa, i Cobas di Torino, Sardegna, Terni e Tuscia, gli autoconvocati, il Partito di rifondazione comunista, Priorità alla scuola, associazione Cattive ragazze, La nostra scuola Agorà 33, Per la scuola della Repubblica, Associazione nazionale docenti, Redazione professione docenti e Centro studi per la scuola pubblica) hanno annunciato un reclamo al Garante della privacy perché vieti il trattamento dei dati degli studenti fragili da parte di Invalsi. È bene precisare che nel 2018 e nel 2019 l’Autorità per la protezione dei dati ha espresso parere favorevole sugli schemi di trattamento prodotti dall’ente.

Individuare i fragili

L’indicazione di uno studente come fragile, istituita nel 2022 per raggiungere gli obiettivi del Pnrr in materia di scuola e colmare i divari tra i territori, è proprio uno degli elementi su cui ha voluto fare chiarezza la richiesta di accesso agli atti di Wired. L’indicatore serve a individuare persone che hanno difficoltà di apprendimento, dovrebbe attivare percorsi dedicati di sostegno e dipende, spiega Invalsi, dai “risultati conseguiti contemporaneamente nelle tre materie delle prove”. Cioè italiano, matematica e inglese.

Una premessa: nell’anno scolastico 2017-18 Invalsi è passato da quiz su carta a quelli al computer. Una pratica internazionale, allineata al Programma di valutazione internazionale dell’allievo (Pisa) varata dall’Organizzazione per la cooperazione e lo sviluppo economico (Ocse), un’ente per gli studi economici che riunisce 38 Stati (tra cui l’Italia). La prova Invalsi si basa su “una procedura, in parte automatizzata, che confronta la risposta fornita da ciascun/a allievo/a a ogni quesito con il repertorio delle possibili risposte corrette, attribuendo un punteggio pari a 1 se la risposta è corretta e pari a 0 se la risposta è errata“. Aggiungono da Invalsi: “I risultati sono espressi su una stessa scala che rimane invariata nel corso degli anni rispetto a una data e una materia” e si articolano in 5 livelli. Dove 3 è la media per passare il quiz.

Di conseguenza, si viene indicati come fragili se, in italiano o matematica, il quiz raggiunge “al massimo il livello 2”. Mentre per inglese, è fragile chi in lettura e ascolto raggiunga alla “III secondaria di I grado al massimo il pre-A12”, mentre all'”ultimo anno della scuola secondaria di secondo grado non abbia raggiunto il B1“. A quel punto avviene l’associazione tra l’indicatore di studente fragile e un codice identificativo dell’alunno, il Sidi (Sistema informativo dell’istruzione). Ma è chiaro che basta poi poco per convertire quel numero in un nome e un cognome.

Categorie
Economia Tecnologia

Cosa ha deciso il governo sull’intelligenza artificiale

Author: Wired

Sono stati suggeriti anche su codice penale da parte del Dipartimento per l’informazione e l’editoria, che ha la sua commissione per l’AI per mano del sottosegretario di Forza Italia, Alberto Barachini (su cui Meloni, indispettita dalla mossa, è voluta intervenire affidandone la regia a padre Paolo Benanti) e vagliati dal Guardasigilli, Carlo Nordio.

È prevista l’aggravante comune per AI, con l’aggiunta all’articolo 61 del codice penale del comma: “L’avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato”. Nel caso del reato di sostituzione di persona (articolo 494), la pena è la reclusione da uno a tre anni se si usano deepfake. Sono previste aggravanti per AI anche per la manipolazione di mercato, l’aggiotaggio, la ricettazione, la truffa, il riciclaggio.

La diffusione illecita di deepfake, con l’obiettivo di ingannare chi li vede, è punita su querela con la reclusione da sei mesi a tre anni. “Se dal fatto deriva un danno ingiusto, la pena è della reclusione da uno a cinque anni”, si legge. Il disegno di legge prevede l’azione di ufficio se è “commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate”.

Il governo si riserva, tra le altre cose, di designare in base all’AI Act, un’autorità di vigilanza del mercato e una di notifica. Entro un anno dovrà emettere “uno o più decreti legislativi per definire organicamente la disciplina nei casi di uso di sistemi di intelligenza artificiale per finalità illecite”. Palazzo Chigi e ministero della Giustizia trasmetteranno le bozze alle Camere per un parere, che dovrà arrivare entro 60 giorni, altrimenti l’esecutivo potrà procedere per la sua strada.

Diritto d’autore e bollino sull’AI

L’aggravante per AI riguarda anche la protezione del copyright, uno dei cardini della legge che ha richiesto, secondo Il Sole 24 Ore, un importante lavoro di allineamento. La legge integra le tutele e le violazioni con aggravanti per il ricorso dell’AI. E poi obbliga canali tv, radio e piattaforme di streaming a inserire un bollino che identifichi i contenuti realizzati o modificati dall’intelligenza artificiale, “un elemento o segno identificativo, anche in filigrana o marcatura incorporata purché chiaramente visibile e riconoscibile, con l’acronimo “IA” ovvero, nel caso audio, attraverso annunci audio”. Il bollino dovrà comparire a inizio e fine trasmissione, prima e dopo il contenuto generato con l’AI e alla fine di ogni interruzione pubblicitaria.

Le piattaforme social dovranno fornire sistemi per identificare i contenuti generati dall’AI. La legge sul copyright tutela i prodotti degli algoritmi, “nel caso in cui il contributo umano nell’ideazione e realizzazione dell’opera tramite l’uso dell’algoritmo sia creativo, rilevante e dimostrabile” e punisce gli abusi con una pena aumentata.

La pubblica amministrazione

Sarà Agid a guidare l’ingresso massivo dell’AI negli enti pubblici. In particolare dovrà fornire gli indirizzi a Consip, la centrale acquisti della pubblica amministrazioni, su programmi e aziende. Il governo spinge per un approccio “sovranista”, chiedendo che “vengano privilegiate quelle soluzioni che garantiscono la localizzazione ed elaborazione dei dati critici presso data center posti sul territorio nazionale, nonché modelli fondativi in grado di assicurare elevati standard in termini di trasparenza nelle modalità di addestramento e di sviluppo di applicazioni basate su AI generativa”. La parola passa al Polo strategico nazionale, l’infrastruttura su cui migrare i dati critici e strategici della pubblica amministrazione. L’AI nel pubblico dovrà essere trasparente, “assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo”, e utilizzata a supporto di decisioni prese dalla persona responsabile.

Categorie
Tecnologia

Synlab vittima di un cyberattacco: chiusi i punti prelievo e i laboratori in Italia

Author: Wired

I criminali informatici tornano a colpire l’Italia. Questa volta è la filiale nostrana di Synlab, network europeo di fornitura di servizi di diagnostica medica, a cadere vittima di un cyberattacco. Già nella mattinata di stamattina, infatti, il sito ufficiale della società ha cominciato a dare alcuni problemi tecnici, impedendo agli utenti di effettuare prenotazioni e/o scaricare referti medici. “Un’interruzione temporanea dell’accesso ai sistemi informatici e telefonici e ai servizi collegati”, come ci ha tenuto a comunicare Synlab dai suoi account social qualche ora fa, cercando così di tranquillizzare il più possibile i suoi clienti.

Il malfunzionamento, infatti, ha da subito messo in allerta utenti ed esperti di sicurezza, preoccupati che i cybercriminali potessero essere riusciti a infiltrarsi nei sistemi informatici della compagnia. Una preoccupazione che ha trovato conferma nel messaggio condiviso da Synlab sul suo account Facebook appena due ore fa: “Synlab informa tutti i pazienti e i clienti di aver subito un attacco hacker ai propri sistemi informatici su tutto il territorio nazionale. In via precauzionale, appena identificato l’attacco e secondo le procedure aziendali di sicurezza informatica, tutti i sistemi informatici aziendali in Italia sono stati immediatamente disattivati. L’azienda ha prontamente istituito una task force, costituita da professionisti interni ed esterni, ed è al lavoro per mitigare gli impatti e ripristinare quanto prima i propri sistemi, in collaborazione con le autorità competenti”.

Ancora una volta, quindi, è un fornitore di servizi sanitari a finire nel mirino dei criminali informatici e a vedere la propria attività completamente compromessa, o quasi. Secondo quanto annunciato da Synlab, infatti, al momento risultano sospese “tutte le attività presso i punti prelievo, i medical center e i laboratori in Italia, incluso il download e il ritiro dei referti”. Un problema non da poco per gli utenti, preoccupati che i malintenzionati possano aver messo le mani sui loro dati sensibili, e per la stessa Synlab, che si trova impossibilitata a erogare i propri servizi. Al momento, però, la società sembra concentrata a risolvere il problema, nella speranza di poter tornare operativa il prima possibile.

Categorie
Tecnologia

Torna Itasec, la principale conferenza italiana sulla cybersecurity

Author: Wired

Tra due settimane partirà l’ottava edizione di Itasec, la principale conferenza nazionale sulla sicurezza informatica, organizzata dal Cybersecurity National Lab del CINI (Consorzio interuniversitario nazionale per l’informatica), in collaborazione con l’Università degli Studi di Salerno e con il patrocinio dell’Agenzia per la Cybersicurezza Nazionale (ACN).

L’evento si terrà in presenza presso il Grand Hotel Salerno, dall’8 al 12 aprile 2024 e prevede la partecipazione di autorità, ricercatori ed esperti internazionali della cybersicurezza, nonché di professionisti del settore pubblico e privato, dell’industria e degli enti di ricerca.

Il programma di questa edizione conferma Itasec come momento di riferimento e incontro tra rappresentanti del mondo accademico e istituzionale. Ad aprire la Conferenza, lunedì 8 aprile alle 14:30, sarà infatti il workshop tenuto da Andrea Simoncini – professore ordinario di Diritto Costituzionale dell’Università degli Studi di Firenze – dedicato alle innovative regulatory sandbox e alle loro possibili implicazioni nel settore della Cybersicurezza e dell’Intelligenza Artificiale, con un focus specifico su un progetto di sandbox italiana a livello regionale per supportare le aziende nello sviluppo di prodotti digitali cyber-safe.

Martedì 9 aprile interverrà Bruno Frattasi, Direttore Generale dell’Agenzia per la Cybersicurezza Nazionale, che aprirà una serie di panel e keynote curati da ACN, che vedranno protagonisti Paolo Atzeni, Direttore Struttura di missione per lo sviluppo di capacità e competenze dell’Agenzia, Monica Scannapieco, Direttrice Struttura di missione per i Programmi di Ricerca e Awareness dell’ACN, e Liviana Lotti, Capo Divisione Programmi Industriali.

Di grande interesse il keynote “Scenari da Guerra Ibrida”, in programma per il pomeriggio del 10 aprile, tenuto da Giacinto Ottaviani, Ammiraglio di Squadra e Presidente del CASD, Centro Alti Studi per la Difesa.

Altro momento di riflessione importante sul tema delle competenze digitali e del gender gap nel settore cybersecurity quello in programma per mercoledì 10 aprile in cui interverranno Nello Iacono, coordinatore del progetto Repubblica Digitale del Dipartimento per la Trasformazione Digitale e autore del libro “Le sfide della società onlife. I rischi della rivoluzione digitale e le competenze indispensabili per affrontarla”, Anna Vaccarelli, tecnologa CNR e membro di Women for Security, e Rita Forsi di Women4Cyber.

Categorie
Economia Tecnologia

Come Fratelli d’Italia si è preso la tecnologia

Author: Wired

Il primo appuntamento è il decreto legge che Palazzo Chigi intende varare entro fine marzo, basandosi sulla strategia consegnata dalla commissione intelligenza artificiale voluta da Butti. Il documento, di cui Wired ha potuto visionare il rapporto di sintesi, fornisce dieci indicazioni generali, su come applicare l’AI nella pubblica amministrazione, come stimolare la ricerca scientifica e come favorire il trasferimento tecnologico alle imprese. È di fatto il canovaccio della legge che il governo Meloni vuole scrivere e che affiderà a una fondazione la regia dei progetti. Una poltrona che, è facile immaginare, Fratelli d’Italia vorrà tenere per sé.

Mosse sulla scacchiera

L’attivismo del partito di destra nel controllo degli snodi di legge, appalti e finanziamenti non è nuovo. La prima prova è stato il blitz a marzo 2023 al vertice dell’Agenzia per la cybersicurezza nazionale (Acn), finita nel mirino del sottosegretario Alfredo Mantovano, con delega ai servizi segreti. L’ente ha 623 milioni in dote dal Piano nazionale di ripresa e resilienza (Pnrr), una sequenza di appalti da dover assegnare e un ruolo chiave nell’architettura dati e cloud nazionale.

Poi è stata la volta del lunghissimo braccio di ferro tra Lega e Fratelli d’Italia per la poltrona di amministratore delegato di Cdp Venture Capital, il Fondo nazionale innovazione nato nel 2020 sotto Cassa depositi e prestiti (Cdp) per sostenere lo sviluppo di startup in Italia. Il principale azionista della cassaforte del risparmio postale, il ministro leghista delle Finanze, Giancarlo Giorgetti, spingeva per rinnovare l’ad Enrico Resmini, ma Giovanbattista Fazzolari, sottosegretario della presidenza del Consiglio all’attuazione del programma e fedelissimo di Meloni, ha voluto un cambio. Al timone è approdato l’ex responsabile finanziario di Terna, Agostino Scornajenchi.

Il quale si trova nella stessa situazione che toccherà al successore di Amadeus alla conduzione del Festival di Sanremo: raccogliere un successo incredibile (Resmini ha portato a 3,1 miliardi gli asset gestiti dal fondo e aveva la stima di tutto il mondo dell’innovazione italiana) e preservarlo. Non sarà facile. Non solo per le mutate condizioni di mercato, ma anche perché avrà un governo ingombrante. Il sottosegretario Butti promette da tempo soldi alle startup: 150 milioni che dovrà gestire Cdp venture capital con Acn e Palazzo Chigi. E di recente Meloni ha piazzato una fiche da un miliardo sempre sul capitolo AI. Ma non solo. Proprio al G7 Urso ha parlato di creare un campione nazionale” dell’AI. E ha anche annunciato che tra i decreti collegati alla manovra economica varata nel 2023, c’è una legge sulle tecnologie abilitanti, tra cui blockchain, metaverso e realtà virtuale, che insieme ai provvedimenti gemelli su economia dello spazio e del mare, muoverà 320 milioni di investimenti.

Musk e l’etica

Ma al netto di poltrone, soldi e nomine, che tecnologia immagina Fratelli d’Italia? La narrazione si muove su due binari. Da un lato c’è la fascinazione per Elon Musk, ospite d’onore dell’edizione 2023 della festa del partito, Atreju. Il fondatore di Tesla e SpaceX e proprietario dell’ex Twitter, ribattezzato X, è l’emblema dell’innovatore per la destra nazionale. Più per le sue prese di posizione contro i movimenti di sinistra negli Stati Uniti o sul tema del calo demografico occidentale che per il suo approccio liberista all’economia, che mal si attaglia al vento dirigista che spira in Europa e che anima le strategie del governo. Ma Musk fa gioco, sia come potenziale partner industriale (si parla di coinvolgere l’internet satellitare di Starlink per compensare il mancato cablaggio di alcune aree del paese) sia come voce di tecnologo e visionario. Peccato che l’imprenditore sudafricano sia allergico alle regole sul digitale di cui l’Unione europea si sta dotando (vedi il caso Digital services act e X) e che l’Italia deve applicare. E con la sua narrativa lungotermista e apocalittica sull’AI che sterminerà l’umanità, alimenta le paure per difendere i suoi interessi e mettere i bastoni tra le ruote a potenziali concorrenti più abili. Insomma, non fa certo il gioco di Roma.

Dall’altro lato, il partito continua a insistere sull’“etica” nella tecnologia. La dichiarazione del G7 è zeppa di riferimenti a un’etica sull’intelligenza artificiale, che però, come ha osservato su Wired il presidente della Fondazione per la sostenibilità digitale, Stefano Epifani, non serve: “Con la scusa dell’etica degli algoritmi finiamo per convincerci che l’etica è negli algoritmi, dimenticando che siamo noi a dover dare un’etica a ciò che fanno gli algoritmi. Insomma: dopo lo Stato etico ci mancavano le intelligenze artificiali etiche”. Eppure è uno degli aggettivi che la destra al governo ama appaiare all’AI. Un connubio che sarebbe innocuo, finché resta nel pour parler, ma che diventa rischioso se ispira le regole. Un conto è il diritto, altro paio di maniche l’etica. Anche perché l’AI Act non copre i campi della sicurezza nazionale e della difesa. Sui quali a pronunciarsi dovranno essere i governi. E in Italia, ça va sans dire, Fratelli d’Italia vorrà dire la sua.