Categorie
Tecnologia

L’intelligenza artificiale che prevede il tempo meglio dei centri meteo

Author: Wired

Secondo Matthew Chantry, che lavora sulle previsioni di apprendimento automatico presso l’ECMWF, al momento GraphCast è il modello AI più affidabile in circolazione. “Nel corso del tempo sarà sempre migliore – afferma – e questo è davvero entusiasmante. L’altro vantaggio è che il software è l’unico predittore meteorologico AI a offrire previsioni sulle precipitazioni, un compito particolarmente difficile per i modelli AI, perché la fisica che produce la pioggia tende a verificarsi a una risoluzione molto più alta di quella supportata dai dati utilizzati per addestrarli”.

Nonostante gli ottimi risultati ottenuti dal sistema di Google, l’integrazione dell’intelligenza artificiale nelle previsioni meteorologiche ha ancora molta strada da fare. Il modello di intelligenza artificiale dell’azienda non è progettato per fornire previsioni complessive, che descrivono nel dettaglio i diversi risultati potenziali di una tempesta o di un altro evento meteorologico. E a questo c’è da aggiungere che in generale l’AI tende a sottostimare la forza di alcuni degli eventi meteorologici più preoccupanti, come le tempeste di categoria 5. Una tendenza che dipende dal fatto che gli algoritmi prediligono previsioni più vicine alle condizioni meteorologiche medie, e che spinge l’AI a essere molto cauta quando si tratta scenari disastrosi.

La sfida del cambiamento climatico

Affidarsi ai dati storici per l’addestramento dell’AI ci pone poi di fronte a un dilemma: cosa succede se il clima del futuro finisce con l’essere troppo diverso da quello del passato? Considerando che si basano su leggi fisiche, i modelli meteorologici tradizionali sono “immuni” ai cambiamenti del clima terrestre. Il meteo cambia, ma le regole che lo governano no. Ma vale lo stesso per l’intelligenza artificiale?

Secondo Battaglia, la capacità del modello AI di Deepmind di prevedere un’ampia varietà di eventi meteorologici come compresi gli uragani – nonostante ne abbia visti relativamente pochi nei suoi dati di addestramento – suggerisce che il sistema abbia interiorizzato la fisica dell’atmosfera. Tuttavia, questo è un buon motivo per addestrare il modello su dati il più possibile aggiornati.

Quando il mese scorso, l’uragano Otis si è abbattuto su Acapulco, in Messico, la sua intensità e le ripercussioni su milioni di persone sono sfuggite a tutti i modelli meteo , compresi quelli basati sull’intelligenza artificiale. I meteorologi stanno ancora cercando di capire perché questo sia accaduto, anche esaminando le lacune nella comprensione delle condizioni insolite dell’oceano o dei processi che governano una tempesta e possono spingerla a rafforzarsi rapidamente. Qualunque dato acquisito su questo fronte confluirà non solo nei modelli convenzionali di fisica meteorologica, ma anche nei set di dati che alimentano i nuovi modelli basati sull’intelligenza artificiale come GraphCast.

Ma il colosso tecnologico non è il solo a lavorare in questa direzione. Anche l’ECMWF sta creando un modello di previsione meteorologica basato sull’intelligenza artificiale, ispirato a GraphCast. La scommessa dell’agenzia – che punta a lanciare previsioni basate sull’AI nel giro di un anno o due – è che la sua esperienza in materia di fisica dell’atmosfera possa aiutare lo sviluppo di un modello ancora più avanzato rispetto a quello di Google.

Questo articolo è comparso originariamente su Wired US.

Categorie
Tecnologia

L’Europa è a caccia di intelligenza artificiale per far evolvere le previsioni meteo

Author: Wired

I dati vengono elaborati nel supercomputer di Bologna, dove Ecmwf ha spostato alcuni impianti dalla sede di Reading, nel Regno Unito, dopo la Brexit. L’ente fa sapere che “non c’è trasferimento di dati tra il centro e Huawei”. Per allenare Pangu, il colosso cinese utilizza Era5, un dataset che rianalizza i dati meteo raccolti con cadenza oraria dal 1940 a oggi (e disponibile per tutti). Chantry spiega che, messi a confronto, il modello fisico e quello basato sugli algoritmi hanno dimostrato “capacità simili” e “risultati comparabili”. Tuttavia, quando si analizza il livello di energia di un scenario meteo, se su grandi scale i due sistemi si comportano allo stesso modo, su scale ridotte e più locali l’intelligenza artificiale è, per ora, meno accurata. E quindi meno precisa nell’identificare eventi estremi come cicloni tropicali. Almeno per ora.

Chantry spiega che l’obiettivo è trovare “il giusto bilanciamento tra i modelli fisici e quelli di machine learning. Vogliamo fornire un nostro contributo alla ricerca scientifica e vogliamo feedback dagli utenti”. Il machine learning consente di fare molti più calcoli in un tempo più ridotto. Pangu, dice Hauwei, viaggia mille volte più veloce dei sistemi tradizionali del centro europeo. Tradotto: si risparmia in termini computazionali. Anche quando tra le mani ha un supercomputer come quello di Bologna. Per Chantry si può tradurre in un investimento nell’assimilazione dei dati, un processo ancora costoso, o nelle “previsioni probabilistiche”. Ossia quelle che, data la stessa base di parametri di partenza, ipotizzano diversi “scenari futuri, tutti plausibili”. “È molto importante avere questa incertezza – sottolinea lo studioso –, per esempio per avere una migliore visioni su possibili eventi pericolosi”.

Il business del meteo

L’utilizzo dell’intelligenza artificiale nelle previsioni meteo non è una novità. Ibm, che nel 2016 ha acquistato per due miliardi di dollari The Weather Company, una delle più importanti società del settore, e l’ha piazzata sotto l’ombrello della sua Ai, Watson, ricorda che si fa ricorso agli algoritmi dal 1970. Tuttavia, ricordano dall’Ecmwf (che pure lavora sul tema dal 2018), grandi passi in avanti sono stati compiuti tra febbraio 2022 e aprile 2023, con una serie di ricerca sull’accuratezza delle previsioni meteo da parte di sistemi di machine learning da parte di Huawei, Nvidia e Google Deepmind. D’altronde, quello delle previsioni meteorologiche è un settore che per Expert market research, un centro studi di mercato, nel 2027 arriverà a valere 3,85 miliardi di dollari (con un tasso di crescita annua dal 2022 del 5,6%).

I maggiori operatori in corsa si dividono tra Stati Uniti e Cina. L’Unione europea sta rispondendo con il suo “gemello digitale” della Terra, Destination Earth, un progetto che vuole portare a termine entro il 2030 per creare una replica del nostro pianeta per simulare gli effetti dell’innalzamento delle temperature o di altri fenomeni climatici. Al momento Bruxelles ha piazzato una fiche da 150 milioni di euro sul progetto fino al 2024. A fine giugno ha assegnato i primi appalti per la piattaforma dei servizi. A guidare la cordata è la multinazionale inglese Serco, specializzata in tecnologie informatiche per la difesa e i governi. Ne fanno parte, tra le altre, anche l’italiana Exprivia, il campione francese dell’industria militare Thales Alenia, mentre il cloud sarà gestito dalla multinazione d’Oltralpe Ovhcloud.

Categorie
Tecnologia

Arrivano le proiezioni climatiche più accurate di sempre

Author: Wired

I fatti di cronaca, quando si legano al meteo, non possono che sottolineare continuamente una necessità: disporre di previsioni sempre più accurate. Infatti, le proiezioni del clima che usiamo ad oggi si riferiscono ad una copertura spaziale di alcune centinaia di chilometri. La scorsa primavera alcuni ricercatori del Centro Mediterraneo per i cambiamenti climatici (CMCC) hanno pubblicato su Nature un articolo che presenta VHR-PRO_IT (Very High-Resolution PROjections for ITaly), un tool digitale open access in grado di realizzare una proiezione climatica oraria con una risoluzione di circa 2,2 km. La proiezione si estende al momento fino al 2050, e copre la penisola italiana e alcune aree limitrofe.

Previsioni meteo: l’importanza del downscaling

Normalmente, le proiezioni del clima sono il risultato delle simulazioni dei modelli climatici globali, definiti GCM. Queste stime si uniscono ai dati osservati empiricamente e costituiscono “la miglior fonte di informazione per comprendere le dinamiche e l’evoluzione del clima passato, presente e futuro” come spiega un paper dedicato al tema dell’Ispra. Il limite di queste proiezioni è la bassa risoluzione spaziale, dato che si riferiscono a uno spazio compreso orientativamente tra i 250 e i 600 chilometri. Chiaramente, le informazioni che ne emergono sono poco utili a chi è interessato a valutare gli impatti specifici del meteo e del clima che cambia a livello quanto più locale e dettagliato. E sotto i 200 km questi GCM non sono adatti a fornire informazioni attendibili. Per questo si parla di downscaling, ovvero di come incrementare la risoluzione spaziale dei modelli GCM. In particolare, il downscaling può essere statistico o dinamico: quest’ultimo impiega un modello Regional Climate Model (RCM) che si innesta sul GCM e realizza proiezioni climatiche su un’area limitata, normalmente di circa 10-50 km. Come riporta l’Ispra, “ciò garantisce una rappresentazione più dettagliata delle caratteristiche geografiche e dei processi fisici che influenzano il clima nel dominio di interesse. Nel corso dell’ultimo decennio diversi progetti internazionali hanno utilizzato modelli RCM per generare proiezioni regionali del clima futuro”.

Una persona si rinfresca agli Australian OpenIl mese più caldo da migliaia di anni

È luglio del 2023, secondo gli esperti della Nasa. Che tuttavia invitano a prepararsi al peggio: nel 2024 le temperature saranno ancora più alte

Proiezioni dettagliate fino al 2050

Il nuovo strumento creato dal CMCC è stato realizzato grazie al rapido aumento della potenza di calcolo digitale che consente di eseguire modelli climatici regionali con griglie chilometriche anche inferiori ai 4 km. Non è un caso infatti che per realizzarlo i ricercatori del CMCC abbiano impiegato il supercomputer Galileo100 e che VHS-PRO sia nato all’interno del progetto europeo Highlander: la presenza e il lavoro di macchine dedicate all’high performance computing sono sempre più diffusi in Italia, che oggi si usano anche per generare previsioni climatiche e ridurre i rischi associati ai cambiamenti climatici. Il tutto per sviluppare una gestione più smart e sostenibile delle risorse naturali e del territorio europeo. A questo scopo risponde il nuovo strumento creato dal CMCC.

HPC davinci-1 è il supercomputer di Leonardo, installato a GenovaL’Europa vuole diventare una potenza dei supercomputer

A Bologna si inaugura Leonardo, il quarto supercomputer più potente al mondo. E nel 2024 con il progetto Jupiter l’obiettivo è superare Stati Uniti e Giappone

Il Very High-Resolution PROjections for ITaly impiega un modello di RCM chiamato Convection-Permitting Regional Climate Model (CP-RCM) e copre uno spazio temporale di 60 anni, dal 1989 al 2050. Secondo quanto riportato su Nature, i CP-RCM si stanno dimostrando strumenti promettenti per rappresentare le caratteristiche delle precipitazioni orarie (cioè ciclo diurno, struttura spaziale, distribuzione dell’intensità ed estremi) e la loro sensibilità ai cambiamenti climatici. Soprattutto, un dettaglio spaziale più specifico consente di monitorare lo stato di ambienti a rischio come le zone costiere o singole montagne. Oppure di entrare in un’analisi dinamica e specifica degli spazi urbani e fare delle rilevazioni legate ad esempio alla prevenzione delle ondate di calore o all’individuazione dello stato di umidità del suolo. Si tratta di fattori che consentono di predisporre strategie di adattamento e politiche di intervento e prevenzione. Tutto parte come sempre dalla conoscenza del dato, e questo strumento è un passo avanti nella definizione delle previsioni metereologiche.