Categorie
Economia Tecnologia

I large language model fatti in Italia

Author: Wired

Modello Italia dovrebbe diventare realtà – stando alle dichiarazioni dell’azienda – entro l’estate. Maggiori dettagli su questo modello si conosceranno quindi più avanti. In un’intervista condotta sempre da Wired il fondatore e amministratore delegato di iGenius, Uljan Sharka, ha fornito interessanti spiegazioni sul perché ritiene importante sviluppare sistemi italiani in un contesto globale come quello dell’intelligenza artificiale.

“Tutti i principali modelli oggi sul mercato sono addestrati su dataset che parlano in inglese. Questo genera un bias culturale estremamente pericoloso se pensiamo che, in futuro, molti servizi e prodotti saranno gestiti con un’interfaccia utente basata sul linguaggio naturale. Quando andiamo su modelli di larga scala si inserisce un bias culturale non indifferente e non accettabile. Stiamo sottovalutando l’effetto che la lingua ha sull’addestramento dei modelli” (una tesi simile è stata sostenuta anche dal fondatore della francese MistralAI, Arthur Mensch).

Magiq

L’importanza di possedere un large language model che rifletta le peculiarità della lingua italiana è al centro di un altro sistema del nostro paese: Magiq, sviluppato dalla statunitense My Maia e dalla società italiana di ricerca e sviluppo Synapsia. Magiq è un large language model base pensato per addestrare altri sistemi di intelligenza artificiale specializzati nella lingua italiana, partendo dal progetto Maia Life Copilot.

A differenza di ChatGPT e altri, Maia non ha l’ambizione di essere un’intelligenza artificiale di uso generale, ma di diventare uno strumento specializzato nell’assistenza quotidiana, sfruttando a questo scopo – come ha spiegato Stefano Mancuso, direttore operativo di Synapsia – “una rete neurale dedicata all’autoprofilazione (Neural Id) che le permette di fornire risposte e suggerimenti basati sul contesto specifico e sulle caratteristiche individuali dell’utente”.

Ospitato anch’esso su HuggingFace e open source, la creazione di Magiq ha richiesto la raccolta di milioni di esempi di testo da diverse fonti, la pulizia e la preparazione dei dati, l’addestramento del modello e la sua valutazione. Un team multidisciplinare di esperti in linguistica, cultura italiana e intelligenza artificiale ha lavorato al progetto.

Le questioni aperte

Anche altri progetti – come Llamantino dell’università di Bari (che sfrutta come base Llama di Meta) o quello appena annunciato da Fastweb (basato invece su Mistral) – hanno messo al centro l’importanza di uno strumento addestrato tramite la lingua italiana e non invece attraverso l’inglese, la lingua dominante del web e dell’intelligenza artificiale.

“Gli attuali modelli di intelligenza artificiale si affidano principalmente a dati in lingua inglese, ma una maggiore comprensione delle sfumature della lingua italiana può essere ottenuta dall’addestramento su set di dati in italiano accuratamente selezionati e di alta qualità”, si legge per esempio nel comunicato di Fastweb.

Si tratta di una questione importante, soprattutto perché l’addestramento nella nostra lingua permette di affinare la stesura dei testi, le traduzioni o la conoscenza di questioni nazionali. E anche per sfruttare al meglio questi modelli nel campo della pubblica amministrazione. Allo stesso tempo, l’enfasi costante sulla lingua italiana mostra come – prevedibilmente – tutti i modelli sviluppati in Italia abbiano una dimensione nazionale, senza neanche l’ambizione di competere a livello internazionale. Probabilmente, per alcuni usi specifici, degli Llm specializzati nella nostra lingua possono essere utili. Allo stesso tempo viene da porsi una domanda: se vogliamo competere – o almeno provare a competere – con i colossi del settore o sviluppare sistemi senza affidarci a sistemi terzi (sempre statunitensi, con l’eccezione di Mistral), non sarebbe il caso di operare a livello europeo?

Categorie
Economia Tecnologia

Perché il 2024 sarà l’anno dell’intelligenza artificiale per gli enti pubblici italiani

Author: Wired

Entro fine anno va messo nero su bianco un piano d’azione per arruolare l’intelligenza artificiale nei processi della pubblica amministrazione. È questo uno degli obiettivi che si è data l’Agenzia per l’Italia digitale (Agid), l’ufficio per la digitalizzazione degli enti pubblici nazionali, per il trienno 2024-26. Nel suo programma triennale per l’informatica, Agid ha indicato dicembre 2024 come la scadenza entro cui dovrà scrivere le linee guida per promuovere l’adozione dell’intelligenza artificiale nella pubblica amministrazione, quelle per bandire gare e appalti dedicati e quelle per sviluppare le prime applicazioni. A quel punto il manuale di istruzioni servirà per passare dalle teoria alla pratica.

I numeri dell’AI

Nel 2025 Agid punta a raggiungere quota 150 progetti di intelligenza artificiale negli enti pubblici, da portare a 400 nei 12 mesi successivi. In parallelo, sul fronte acquisti, nel 2025 l’obiettivo è di 100 procedure per acquistare servizi di AI, che nel 2026 devono aumentare fino a 300. Mentre nel campo delle applicazioni, i traguardi da raggiungere nel 2025 e nel 2026 sono rispettivamente di 50 e 100 progetti di sviluppo avviati. Gli esempi da copiare sono quelli di Inps, che ha adottato un sistema di analisi e smistamento automatici degli oltre 16mila messaggi di posta elettronica certificata che riceve in media ogni giorno, prima catalogati manualmente, risparmiando così 40mila ore di lavoro ogni anno. L’ente previdenziale sta anche migliorando le capacità di comprensione delle richieste degli utenti da parte del suo chatbot, dopo una fase di test nell’agosto 2023. Mentre Istat sta esplorando l’uso di AI per modellare i contesti semantici, partendo da richieste effettuate con un linguaggio naturale. Chissà se sono queste le frontiere tecnologiche a cui dovrebbe lavorare 3-I spa, la società pubblica partecipata dai due istituti più Inail per fornire software, fondata nel 2022 e mai partita, o se Agid troverà altri canali per alimentare lo sviluppo.

Tra le righe il programma messo a punto da Agid rafforza il suo ruolo come supervisore dell’intelligenza artificiale in Italia. Un compito che caldeggia da tempo il sottosegretario alla presidenza del Consiglio dei ministri con delega al digitale, Alessio Butti, sulla scia delle future previsioni dell’AI Act, il regolamento europeo sull’intelligenza artificiale.

Il provvedimento, ormai in attesa dell’ultimo via libera da parte del Parlamento europeo, impone di eleggere un ente nazionale perché vigili sul settore. Tuttavia non impone di avere una sola autorità, anzi suggerisce di dividere i compiti in base alle specificità (chi controlla i mercati finanziari dovrebbe occuparsi delle applicazioni di intelligenza artificiale per quel campo). Raccomanda, da ogni modo, che ci sia un referente. Che da tempo Palazzo Chigi ha identificato nell’Agid. Le ragioni sono presto dette: Agid già definisce le strategie nazionali in ambito digitale; dopo l’istituzione dell’Agenzia per la cybersicurezza nazionale, è stata alleggerita di tutti i compiti in ambito di cybersecurity; è un ente “generalista” ma controllato dal governo e non indipendente e, non da ultimo, ospita la segreteria tecnica del comitato nominato da Butti per elaborare la strategia nazionale sull’AI, attesa nelle prossime settimane.

Tutti gli altri progetti

E con l’aggiornamento del piano triennale, Agid si intesta la marcia a tappe forzate per inserire sistemi di intelligenza artificiale nel lavoro del pubblico. La strada è in salita. Nei prossimi tre anni non di sola AI si vivrà negli uffici dell’ente, nel quartiere dell’Eur a Roma. Solo per dare sostanza ai piani sugli algoritmi, Agid in parallelo deve completare entro un anno una ricognizione sulle basi dati “strategiche” in mano al pubblico, digitalizzarle entro il 2025 e dal 2026 promuoverle per allenare i sistemi di AI.

Categorie
Economia Tecnologia

Che intenzioni ha il governo per vigilare sull’intelligenza artificiale

Author: Wired

C’è un motivo se la proposta di assegnare la supervisione del settore dell’intelligenza artificiale all’Agenzia nazionale per la cybersicurezza (Acn) ha retto 48 ore, prima di sparire dal pacchetto di norme sulla sicurezza informatica voluto dal ministro della Giustizia Carlo Nordio e presentato al Consiglio dei ministri di giovedì 25 gennaio. Perché per quel ruolo c’è un altro candidato in corsa, da più parti considerato più adatto. È l’Agenzia per l’Italia digitale (Agid), l’ufficio nato per coordinare la digitalizzazione della pubblica amministrazione, che da mesi è la pedina che intende giocarsi il sottosegretario all’Innovazione tecnologica, Alessio Butti. Il deputato comasco, arrivato quasi defilato a Palazzo Chigi, è sempre più ascoltato dalla presidente del Consiglio, Giorgia Meloni, che ha voluto mettere il cappello del suo partito sul tema dell’AI.

Fatto sta che il primo tentativo di individuare per legge a quale ente pubblico affidare il delicato compito di vigilare sull’intelligenza artificiale è stato bloccato. La nomina di un controllore del settore è prevista dal regolamento europeo sull’intelligenza artificiale, l’AI Act, in queste settimane al ciclo di approvazioni finali da parte del Consiglio europeo (2 febbraio, la data previsto) ed Europarlamento (entro aprile).

Il retroscena:

  1. Come scegliere il controllore
  2. Il ruolo di Fratelli d’Italia

Come scegliere il controllore

Proprio perché il testo dell’AI Act veleggia verso il voto, il sottosegretario alla presidenza del Consiglio dei ministri con delega ai servizi segreti, Alfredo Mantovano, ha spiegato in conferenza stampa che l’assegnazione all’Acn è stata espunta per evitare fughe in avanti. Insomma, un atto di cortesia istituzionale verso Bruxelles, tutt’altro che necessario però. La Spagna ha individuato un’agenzia per la supervisione dell’AI già lo scorso settembre. E lo ha fatto peraltro mentre Madrid aveva le redini della presidenza del Consiglio europeo con il mandato di chiudere l’accordo con il Parlamento sull’AI Act, raggiunto l’8 dicembre.

La fuga in avanti da frenare, piuttosto, è interna al governo. E riguarda l’impianto di controllo sull’intelligenza artificiale a cui Butti sta lavorando. L’AI Act, come emerge dal testo finale che Wired ha visionato, non impone di avere un solo referente, secondo la linea voluta dal Parlamento europeo, ma fa riferimento a varie autorità nazionali delegate. Se si analizzano i modelli applicati in finanza, per esempio, la palla passa agli enti di vigilanza deputati (in Italia sarebbe Consob). E negli articoli dedicati agli usi vietati e alle eccezioni, si menziona il fatto che i garanti nazionali dei dati personali e del mercato debbano spedire ogni anno alla Commissione un rapporto sull’uso dei sistemi di riconoscimento biometrico in tempo reale. In Italia, quindi, un compito a carico del Garante della privacy e dell’Antitrust. E ancora: laddove si menzionano la difesa delle infrastrutture critiche, è naturale cedere il passo all’Acn, che già le vigila sul fronte della cybersecurity.

Il ruolo di Fratelli d’Italia

Insomma, l’AI Act apparecchia una tavola con molti posti a sedere. Ma un padrone di casa ci vuole. Qualcuno che detti i tempi e le priorità, coordini il lavoro e sia un punto di riferimento verso l’esterno. Difficile pensare che il compito possa spettare a una autorità indipendente, come il Garante per la protezione dei dati o quello per la concorrenza e il mercato. Troppo autonomi e svincolati dalla politica, nella visione di Palazzo Chigi, per occuparsi della materia, scrivere regole e impostare gli ambienti di test (le cosiddette sandbox).

Categorie
Economia Tecnologia

I supercomputer dell’Europa non sono pronti per l’intelligenza artificiale

Author: Wired

E qui vengono le dolenti note. Primo: nell’immediato usare i supercomputer anche per l’addestramento dell’AI significa scegliere a chi destinare la potenza di calcolo. La Commissione dovrà dare ordini di priorità e decidere come allocare le risorse al momento scarse.

Secondo: nel frattempo, spiega il funzionario, bisogna mettere mano al portafoglio e comprare un gran numero di rack, gli scaffali dove si collocano gli apparati hardware, e schede grafiche (graphics processing unit, gpu), cambiare l’architettura dei componenti e le connessioni per ridurre i tempi di collegamento tra le unità di calcolo. Tuttavia il mercato delle gpu è un collo di bottiglia. Il leader del settore è il colosso dei chip Nvidia, subissata dalla richieste, e secondo Tsmc, la principale azienda globale di produzione di microprocessori, la scarsità di offerta durerà almeno per tutto il 2024. Peraltro proprio Nvidia deve fornire l’hardware per il nono supercomputer della rete europea (di cui fa parte anche l’italiano Leonardo, impiantato a Bologna). È Jupiter e dovrebbe vedere la luce entro fine anno nel centro tedesco di supercalcolo a Jülich. Valore dell’appalto complessivo: 237 milioni. Il funzionario spiega che, con questi chiari di luna, non ci sono garanzie che Nvidia mandi in tempo i suoi chip, benché siano previste penalità per i ritardi.

La sfida del chip made in Europe

Terzo: Bruxelles potrebbe replicare con un chip made in Europe. La tecnologia, in questo caso, non manca: la società olandese Asml è il più importante produttore al mondo di macchine per la stampa dei chip. Non è cosa, però, che si fa con uno schiocco di dita. Il funzionario spiega che ci vorranno tre anni almeno per vedere i primi componenti e fino a 7 per un prodotto completo. Insomma, per realizzare un supercomputer con unità locali occorre aspettare il 2030. Tempo che l’Unione non ha, non solo per la corsa sfrenata dei suoi concorrenti. Ma anche perché già oggi i supercomputer della rete hanno una richiesta di poter accedere ai loro servizi che è il doppio della potenza installata. E decine di startup attendono di poter mettere piede nei centri di supercalcolo. Peraltro sotto questa iniziativa dedicata all’AI, le piccole imprese avrebbero accesso gratis ai supercomputer nella fase di sviluppo (non in quella di commercializzazione).

L’Hpc Ju ha in dote un miliardo, più 400 milioni di partner privati. Altri 2 miliardi sono in arrivo con il pacchetto AI. Di questi, dai 200 ai 400 milioni andranno solo in hardware, a seconda di quanta potenza di calcolo si vuole aggiungere negli otto centri in Italia, Spagna, Repubblica ceca, Finlandia, Lussemburgo, Bulgaria, Slovenia, Portogallo e, dal 2025, Germania. La Commissione esclude di appoggiarsi ai supercomputer privati, come quello di Eni a Pavia, perché l’alleanza andrebbe in conflitto con le regole sugli aiuti di Stato. A tendere la creazione delle fabbriche dell’AI può aiutare l’Europa a mettere a sistema le grandi moli di dati raccolte, agevolare le startup e compensare l’assenza di colossi tech con potenza di calcolo da sfruttare. Il progetto prevede anche la creazione di un programma di gemelli digitali delle città per pianificare lo sviluppo urbanistico futuri, dai consumi di energia alla difesa ambientale. Il problema, però, è al momento mancano i fondamentali. Senza i quali il piano della Commissione rischia di essere un gigante dai piedi d’argilla.

Categorie
Tecnologia

Cos’è la RAG, il futuro dell’intelligenza artificiale

Author: Wired

L’intelligenza artificiale è una delle tecnologie più innovative e promettenti del nostro tempo, capace di trasformare il modo in cui viviamo, lavoriamo e comunichiamo. Tuttavia, l’AI non è una singola entità, ma un insieme di diverse applicazioni e metodi che si basano su vari modelli e algoritmi. Tra questi, i Large Language Models (LLM) sono tra i più popolari e potenti, in grado di generare testi naturali e realistici a partire da un input o una domanda. Esempi di LLM sono GPT-3, BERT e T5, che hanno dimostrato prestazioni impressionanti in diversi compiti di comprensione e produzione del linguaggio.

Tuttavia, i LLM hanno anche dei limiti, che ne ostacolano l’efficacia e l’affidabilità. Uno di questi limiti è la dipendenza esclusiva dai dati di addestramento, che possono essere incompleti, obsoleti o inaccurati. Inoltre, i LLM non sono in grado di integrare le informazioni provenienti da fonti esterne, che potrebbero essere più aggiornate, rilevanti e verificate. Questo significa che i LLM possono generare testi che sono coerenti e informativi, ma non necessariamente corretti o pertinenti.

Retrieval Augmented Generation

Per superare questi limiti una soluzione potrebbe derivare dalla Retrieval Augmented Generation (RAG). Un paper del 2020, “Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks”, firmato da Patrick Lewis e altri autori di Facebook AI Research, ha fatto conoscere la RAG agli sviluppatori di AI generativa. La RAG è un modello che unisce le capacità generative dei LLM con le capacità di reperire informazioni da una fonte di conoscenza esterna. Così facendo, la RAG riesce a creare testi più ricchi, corretti e rilevanti, basati su dati aggiornati e specifici per il settore o per l’ente. In questo modo, la RAG può integrare il testo generato con informazioni supplementari, precise e particolari, che aumentano la qualità e la pertinenza del testo.

La RAG funziona in due fasi: nella prima, il modello riceve un input o una domanda e cerca i documenti più rilevanti da una collezione di fonti esterne. Nella seconda, il modello usa i documenti recuperati e l’input per generare il testo finale, che incorpora le informazioni trovate. La RAG può essere applicata a diversi tipi di input, come parole chiave, frasi, domande o immagini, e può generare diversi tipi di output, come risposte, riassunti, articoli o descrizioni.

I vantaggi della RAG

I vantaggi della RAG sono molteplici. Innanzitutto, la RAG migliora la capacità dei modelli di linguaggio di rispondere a domande complesse e specifiche, integrando le ultime e più rilevanti informazioni. Inoltre, la RAG aiuta ad attenuare problemi come le allucinazioni e la perdita di dati, rendendo le interazioni con l’IA più affidabili. Inoltre, la RAG consente ai modelli di linguaggio di adattarsi a diversi compiti e domini, sfruttando la flessibilità e la varietà delle fonti di conoscenza.