Author: IlSoftware
Il dato rappresenta un asset fondamentale per le organizzazioni, poiché fornisce informazioni preziose e insight essenziali che guidano le decisioni strategiche e operative di qualunque realtà d’impresa. In un’era in cui la tecnologia e la digitalizzazione giocano un ruolo centrale, la capacità di raccogliere, analizzare e interpretare i dati è diventata un elemento distintivo per il successo aziendale.
Tempo addietro si parlava di data lake, grandi volumi di dati, archiviati a partire da svariate fonti in un unico repository. I dati potevano essere memorizzati in formato grezzo ed estratti quando necessario per le attività di analisi ed elaborazione. Nel frattempo ne è passata di acqua sotto i ponti: oggi le aziende che gestiscono dati a ogni livello possono avvantaggiarsi concretamente dei benefici derivanti dalle soluzioni di intelligenza artificiale e in particolare avvalersi dei moderni modelli generativi.
Gli attuali modelli generativi consentono di estrarre valore dall’immensa “dote” di dati aziendali dei quali dispone ogni realtà d’impresa. E lo fanno usando un approccio stocastico: più dati si passano all’algoritmo, più informazioni si possono derivare e più contenuti di valore è possibile produrre. Un’accurata fase di addestramento del modello, che possa contare su dati di qualità come quelli di un’azienda, fa emergere le relazioni probabilistiche che esistono fra i vari dati. In un altro articolo abbiamo evidenziato le differenze tra modelli stocastici e deterministici.
Abbiamo avuto l’opportunità di confrontarci su questi temi con Fabio Ferrari, fondatore e presidente di Ammagamma, società che progetta e sviluppa soluzioni di intelligenza artificiale per le aziende.
Ammagamma è una realtà che sviluppa soluzioni e servizi innovativi di intelligenza artificiale per le aziende, dal 2013. Ha sede a Modena ed è composta da un team multidisciplinare di oltre 90 matematici, ingegneri, storici, filosofi e designer che aiutano le imprese a innovare i processi con l’AI, contribuendo allo sviluppo di una società consapevole delle potenzialità, delle implicazioni e dell’impatto di questa tecnologia.
Fabio Ferrari, Ammagamma (F.F., nel seguito): Ammagamma propone una soluzione tecnologia, basata su modelli di AI, per estrarre il maggior valore da ogni “concetto” di riferimento dello spazio ontologico di riferimento. Questo approccio tecnologico matematico è fortemente integrato con un progetto di accompagnamento “culturale” per facilitare l’adozione dell’applicazione all’interno dell’organizzazione.
F.F.: Operiamo con lo scopo di fornire al cliente la migliore esperienza tecnologica, pertanto il nostro sviluppo si basa su una pluralità di architetture e possibilità, per facilitare sia lo sviluppo del progetto, su macchine locali e/o in cloud, che il rilascio della soluzione al cliente. Quest’ultimo può quindi essere gestito in locale o in cloud.
F.F.: Noi riteniamo sia fondamentale disporre oggi di un’infrastruttura distribuita, mista e fortemente aggiornata. Detto questo noi non entriamo nello specifico delle infrastrutture analizzando la tipologia di dispositivi presenti. Abbiamo un approccio aperto non vincolandoci a fornitori e licenze specifiche.
F.F.: Negli ultimi anni, i Large Language Models (LLM), noti anche come Foundational Models, sono stati addestrati utilizzando grandi set di dati e modelli con un numero enorme di parametri. Poiché i modelli sono diventati sempre più grandi, la messa a punto di tutti i parametri comporta costi significativi. Pertanto, i ricercatori si sono concentrati sulla messa a punto efficiente, nota come Parameter-Efficient Fine-Tuning (PEFT).
Low-Rank Adaptation (LoRA) proposto dal team Microsoft, prevede il congelamento dei pesi del modello pre-addestrato (ad esempio, GPT-3) e la messa a punto con un modello molto più piccolo, ottenendo eccellenti risultati di messa a punto su domini di informazioni ben definiti. L’idea è quella di utilizzare la piccola rete LoRA, inserita in livelli specifici, per rendere il modello adattabile a diversi compiti specifici.
L’impresa, anche guardando al concetto di sovranità digitale, tanto caro al legislatore europeo, può oggi diventare indipendente per quanto riguarda l’elaborazione dei suoi dati servendosi dell’intelligenza artificiale. “Il ferro” torna inevitabilmente a essere protagonista. Così come la capacità del networking locale.
Per chi volesse approfondire, Sebastian Raschka, altro “peso massimo” nel campo dell’intelligenza artificiale, ha recentemente spiegato come dedicarsi al fine tuning dei LLM utilizzando LoRA. Da parte sua, invece, Microsoft ha presentato Windows AI Studio, una soluzione che si prefigge come obiettivo quello di facilitare l’ottimizzazione e personalizzazione dei modelli generativi in ambito locale usando WSL (Windows Subsystem for Linux). In particolare, QLoRA (Quantized Low-Rank Adaptation) permette di addestrare modelli generativi composti da un vasto numero di parametri usando GPU locali abbinate a un quantitativo di VRAM ridotto.
Un’altra lettura che ci sentiamo di consigliare è la guida “GPU Survival Toolkit for the AI age: The bare minimum every developer must know“, elaborata da Rijul Rajesh. Il documento contiene una serie di informazioni pratiche sul “kit di sopravvivenza” che ogni sviluppatore di soluzioni basate sull’intelligenza artificiale deve avere per sé.
Sebbene Pat Gelsinger tenda sviare l’attenzione sulla fase di inferenza, Rajesh sottolinea che CUDA, piattaforma di elaborazione parallela sviluppata da NVidia, permette oggi di sfruttare appieno le potenzialità delle GPU. Offre anche una guida dettagliata su come usare il framework CUDA su un sistema Linux, facendo leva sul parallelismo al posto del classico approccio sequenziale lato CPU.
Author: Multiplayer.it A quanto pare il team di Tales of Kenzera: ZAU è stato colpito…
Author: GamesVillage.it Zenless Zone Zero ha appena pubblicato il brano musicale collaborativo “ZENLESS” con il…
Author: Webnews Il caldo di questi giorni ti stai sfinendo? Per combattere l’afa ovunque tu…
Author: Tom's Hardware Se siete in cerca di una soluzione pratica e veloce per cucinare…
Author: GAMEmag Durante il Capcom Next tenutosi ieri sera, il publisher ha confermato che un…
Author: Schneider Electric This audio was created using Microsoft Azure Speech Services The 2023 edition…