Categorie
Economia Tecnologia

I large language model fatti in Italia

Author: Wired

Modello Italia dovrebbe diventare realtà – stando alle dichiarazioni dell’azienda – entro l’estate. Maggiori dettagli su questo modello si conosceranno quindi più avanti. In un’intervista condotta sempre da Wired il fondatore e amministratore delegato di iGenius, Uljan Sharka, ha fornito interessanti spiegazioni sul perché ritiene importante sviluppare sistemi italiani in un contesto globale come quello dell’intelligenza artificiale.

“Tutti i principali modelli oggi sul mercato sono addestrati su dataset che parlano in inglese. Questo genera un bias culturale estremamente pericoloso se pensiamo che, in futuro, molti servizi e prodotti saranno gestiti con un’interfaccia utente basata sul linguaggio naturale. Quando andiamo su modelli di larga scala si inserisce un bias culturale non indifferente e non accettabile. Stiamo sottovalutando l’effetto che la lingua ha sull’addestramento dei modelli” (una tesi simile è stata sostenuta anche dal fondatore della francese MistralAI, Arthur Mensch).

Magiq

L’importanza di possedere un large language model che rifletta le peculiarità della lingua italiana è al centro di un altro sistema del nostro paese: Magiq, sviluppato dalla statunitense My Maia e dalla società italiana di ricerca e sviluppo Synapsia. Magiq è un large language model base pensato per addestrare altri sistemi di intelligenza artificiale specializzati nella lingua italiana, partendo dal progetto Maia Life Copilot.

A differenza di ChatGPT e altri, Maia non ha l’ambizione di essere un’intelligenza artificiale di uso generale, ma di diventare uno strumento specializzato nell’assistenza quotidiana, sfruttando a questo scopo – come ha spiegato Stefano Mancuso, direttore operativo di Synapsia – “una rete neurale dedicata all’autoprofilazione (Neural Id) che le permette di fornire risposte e suggerimenti basati sul contesto specifico e sulle caratteristiche individuali dell’utente”.

Ospitato anch’esso su HuggingFace e open source, la creazione di Magiq ha richiesto la raccolta di milioni di esempi di testo da diverse fonti, la pulizia e la preparazione dei dati, l’addestramento del modello e la sua valutazione. Un team multidisciplinare di esperti in linguistica, cultura italiana e intelligenza artificiale ha lavorato al progetto.

Le questioni aperte

Anche altri progetti – come Llamantino dell’università di Bari (che sfrutta come base Llama di Meta) o quello appena annunciato da Fastweb (basato invece su Mistral) – hanno messo al centro l’importanza di uno strumento addestrato tramite la lingua italiana e non invece attraverso l’inglese, la lingua dominante del web e dell’intelligenza artificiale.

“Gli attuali modelli di intelligenza artificiale si affidano principalmente a dati in lingua inglese, ma una maggiore comprensione delle sfumature della lingua italiana può essere ottenuta dall’addestramento su set di dati in italiano accuratamente selezionati e di alta qualità”, si legge per esempio nel comunicato di Fastweb.

Si tratta di una questione importante, soprattutto perché l’addestramento nella nostra lingua permette di affinare la stesura dei testi, le traduzioni o la conoscenza di questioni nazionali. E anche per sfruttare al meglio questi modelli nel campo della pubblica amministrazione. Allo stesso tempo, l’enfasi costante sulla lingua italiana mostra come – prevedibilmente – tutti i modelli sviluppati in Italia abbiano una dimensione nazionale, senza neanche l’ambizione di competere a livello internazionale. Probabilmente, per alcuni usi specifici, degli Llm specializzati nella nostra lingua possono essere utili. Allo stesso tempo viene da porsi una domanda: se vogliamo competere – o almeno provare a competere – con i colossi del settore o sviluppare sistemi senza affidarci a sistemi terzi (sempre statunitensi, con l’eccezione di Mistral), non sarebbe il caso di operare a livello europeo?

Author: Wired

Modello Italia dovrebbe diventare realtà – stando alle dichiarazioni dell’azienda – entro l’estate. Maggiori dettagli su questo modello si conosceranno quindi più avanti. In un’intervista condotta sempre da Wired il fondatore e amministratore delegato di iGenius, Uljan Sharka, ha fornito interessanti spiegazioni sul perché ritiene importante sviluppare sistemi italiani in un contesto globale come quello dell’intelligenza artificiale.

“Tutti i principali modelli oggi sul mercato sono addestrati su dataset che parlano in inglese. Questo genera un bias culturale estremamente pericoloso se pensiamo che, in futuro, molti servizi e prodotti saranno gestiti con un’interfaccia utente basata sul linguaggio naturale. Quando andiamo su modelli di larga scala si inserisce un bias culturale non indifferente e non accettabile. Stiamo sottovalutando l’effetto che la lingua ha sull’addestramento dei modelli” (una tesi simile è stata sostenuta anche dal fondatore della francese MistralAI, Arthur Mensch).

Magiq

L’importanza di possedere un large language model che rifletta le peculiarità della lingua italiana è al centro di un altro sistema del nostro paese: Magiq, sviluppato dalla statunitense My Maia e dalla società italiana di ricerca e sviluppo Synapsia. Magiq è un large language model base pensato per addestrare altri sistemi di intelligenza artificiale specializzati nella lingua italiana, partendo dal progetto Maia Life Copilot.

A differenza di ChatGPT e altri, Maia non ha l’ambizione di essere un’intelligenza artificiale di uso generale, ma di diventare uno strumento specializzato nell’assistenza quotidiana, sfruttando a questo scopo – come ha spiegato Stefano Mancuso, direttore operativo di Synapsia – “una rete neurale dedicata all’autoprofilazione (Neural Id) che le permette di fornire risposte e suggerimenti basati sul contesto specifico e sulle caratteristiche individuali dell’utente”.

Ospitato anch’esso su HuggingFace e open source, la creazione di Magiq ha richiesto la raccolta di milioni di esempi di testo da diverse fonti, la pulizia e la preparazione dei dati, l’addestramento del modello e la sua valutazione. Un team multidisciplinare di esperti in linguistica, cultura italiana e intelligenza artificiale ha lavorato al progetto.

Le questioni aperte

Anche altri progetti – come Llamantino dell’università di Bari (che sfrutta come base Llama di Meta) o quello appena annunciato da Fastweb (basato invece su Mistral) – hanno messo al centro l’importanza di uno strumento addestrato tramite la lingua italiana e non invece attraverso l’inglese, la lingua dominante del web e dell’intelligenza artificiale.

“Gli attuali modelli di intelligenza artificiale si affidano principalmente a dati in lingua inglese, ma una maggiore comprensione delle sfumature della lingua italiana può essere ottenuta dall’addestramento su set di dati in italiano accuratamente selezionati e di alta qualità”, si legge per esempio nel comunicato di Fastweb.

Si tratta di una questione importante, soprattutto perché l’addestramento nella nostra lingua permette di affinare la stesura dei testi, le traduzioni o la conoscenza di questioni nazionali. E anche per sfruttare al meglio questi modelli nel campo della pubblica amministrazione. Allo stesso tempo, l’enfasi costante sulla lingua italiana mostra come – prevedibilmente – tutti i modelli sviluppati in Italia abbiano una dimensione nazionale, senza neanche l’ambizione di competere a livello internazionale. Probabilmente, per alcuni usi specifici, degli Llm specializzati nella nostra lingua possono essere utili. Allo stesso tempo viene da porsi una domanda: se vogliamo competere – o almeno provare a competere – con i colossi del settore o sviluppare sistemi senza affidarci a sistemi terzi (sempre statunitensi, con l’eccezione di Mistral), non sarebbe il caso di operare a livello europeo?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.