Categorie
HardwareSoftware

Google: come usare l’IA per abbattere la bolletta della luce

I data center rappresentano l’ossatura di molti servizi, applicazioni e sistemi che utilizziamo tutti i giorni su smartphone, personal computer, e dispositivi di ogni tipo. Una semplice applicazione di mappe, musicale, o anche l’ultimo gioco online, sono tutte applicazioni che si affidano per disporre di tutte le informazioni necessarie a grossi stabilimenti posizionati anche a centinaia di chilometri di distanza. Nel caso di Google ogni ricerca viene processata in un data center, così come ogni video di YouTube viene immagazzinato in una struttura il più possibile vicina a noi per poter essere gestito rapidamente.

È facile intuire pertanto che questi grossi edifici che processano centinaia di milioni, forse miliardi, di dati tutto il giorno devono principalmente essere efficienti dal punto di vista energetico. Al loro interno troviamo migliaia di processori, hard-disk e attrezzature di rete avanzate che comportano inevitabilmente un consumo energetico drasticamente elevato. In più, l’attrezzatura stipata nei rack deve essere raffreddata con sistemi di dissipazione notevolmente più potenti di quelli che usiamo nei nostri computer tradizionali: secondo stime recenti il 2% delle emissioni di gas serra in tutto il mondo sono dovute proprio ai data center.

Non è pertanto una sorpresa che gran parte dell’evoluzione tecnologica si basa sul rendere più efficienti (e potenti) i sistemi che utilizziamo quotidianamente, e non è una sorpresa che questa evoluzione è ambita e ricercata anche e soprattutto per il miglioramento dell’efficienza computazionale dei data center. Da una parte si prova a realizzare sistemi informatici che consumano meno energia possibile a parità di potenza, dall’altra si cerca di posizionare i data center all’interno di location con un clima freddo. Altri ancora posizionano i loro stabilimenti nei fondali oceanici, in modo da sfruttarne le fredde acque.

Anche un abbassamento di pochi punti percentuali nel consumo energetico si traduce in risparmi enormi da parte delle grosse compagnie che macinano dati per professione, ma Google ha in mente una nuova strategia con cui spera in un risparmio nell’energia “spesa” per la dissipazione del calore di circa il 40%. Il segreto alla base della nuova strategia è l’intelligenza artificiale, o per meglio dire il machine learning. Alla base delle nuove procedure ci sarà la divisione DeepMind, che si occupa proprio di AI, che ha sviluppato un algoritmo che dovrebbe intuire dati in maniera apparentemente impossibile anche per i più validi cervelloni di Big G.

Il machine learning utilizza i dati raccolti dai sensori dei data center e li gestisce in modo da creare un algoritmo general purpose che impara autonomamente come controllare il raffreddamento delle strutture in ogni istante in tempo reale. In questo modo si vuole raggiungere, almeno per quella specifica componente, il massimo dell’efficienza energetica possibile. Nel data center in cui è stato applicato questo sistema Google è riuscita a mantenere l’uso di energia applicata per il raffreddamento all’interno delle soglie previste, ovvero del 40% inferiore rispetto ai livelli normali. Un risultato notevole a tal punto che Google prevede di adottare lo stesso sistema all’interno di tutti i propri data center entro la fine dell’anno.

La peculiarità dell’uso dell’intelligenza artificiale “per risparmiare sulla bolletta della luce” è che il sistema può essere impiegato all’interno di qualsiasi ambiente senza richiedere cambiamenti di alcun tipo. Grazie alla sua natura general purpose, può essere efficace anche in ambiti completamente diversi, come nell’ottimizzazione dell’uso di acqua nelle strutture o addirittura per ottimizzare il consumo energetico dell’intera rete nazionale. Mustafa Suleyman, co-fondatore di DeepMind, ha già dichiarato di essere entrato in contatto con alcune realtà per portare la nuova tecnologia al di fuori di Google, come in impianti industriali di società terze.

DeepMind ha pianificato il rilascio di documenti in cui verranno spiegati nel dettaglio i benefici del machine learning in questo particolare ambito, come è stato sviluppato l’algoritmo e come potrà essere implementato nel prossimo futuro.

Autore: Le news di Hardware Upgrade

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.