nouvelles

Le « calcul magique » météo IA de Google est lancé dans Nature : 30 secondes simulent 22 jours de météo, et l'efficacité augmente de 100 000 fois !

2024-07-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nouveau rapport de sagesse

Editeur : Service éditorial

[Introduction à la nouvelle sagesse] Google a proposé un nouveau modèle de circulation atmosphérique basé sur ML, NeuralGCM, qui permet d'économiser plusieurs ordres de grandeur de calculs par rapport aux modèles traditionnels basés sur la physique et de réduire les coûts de calcul de 100 000 fois, ce qui équivaut à 25 ans de progrès dans le domaine des hautes températures. calcul des performances. Pour les prévisions météorologiques sur 2 à 15 jours, cette méthode est plus précise que le modèle physique SOTA.

Tôt ce matin, le PDG de Google, Pichai, a publié un article sur X, annonçant que NeuralGCM avait réalisé une avancée majeure dans le domaine de la modélisation climatique !

"NeuralGCM combine la modélisation basée sur la physique avec l'intelligence artificielle pour simuler l'atmosphère 100 000 fois plus efficacement que d'autres modèles, fournissant ainsi aux scientifiques de nouveaux outils pour prédire le changement climatique."


Ce résultat de recherche a également été publié dans Nature. La plupart des membres de l'équipe de recherche proviennent de Google Research et de DeepMind, ainsi que de scientifiques du MIT, de Harvard et du CEPMMT.


Adresse papier : https://www.nature.com/articles/s41586-024-07744-y

Le modèle développé par Google, appelé NeuralGCM, peut simuler l'atmosphère terrestre de manière rapide, efficace et précise.

Son importance est d'aider les scientifiques à faire des prévisions précises sur le climat de la Terre à une époque où la Terre se réchauffe à un rythme sans précédent...

Quelles régions seront confrontées à une sécheresse prolongée à mesure que les températures mondiales augmentent ? Où les inondations côtières dues aux tempêtes tropicales majeures seront-elles plus fréquentes ? Comment la saison des incendies de forêt va-t-elle changer à mesure que les températures augmentent ?

Face à ces problèmes urgents qui doivent être résolus, le modèle de circulation générale (GCM) traditionnel basé sur la physique semble quelque peu poussé à bout. Il manque de stabilité face aux simulations météorologiques et climatiques à long terme.

NeuralGCM est une méthode basée sur l'apprentissage automatique qui combine la modélisation physique traditionnelle pour améliorer considérablement la précision et l'efficacité de la simulation.

Cette approche génère des prévisions météorologiques sur 2 à 15 jours qui sont plus précises que les modèles physiques de pointe actuels et reproduisent les températures des 40 dernières années avec plus de précision que les modèles atmosphériques traditionnels.

Il s’agit d’une étape importante vers le développement de modèles climatiques plus puissants et plus faciles à utiliser.


NeuralGCM a simulé le modèle spécifique de changement d'humidité du 26 décembre 2019 au 8 janvier 2020

NeuralGCM transforme la modélisation climatique

Bien que les modèles climatiques traditionnels se soient améliorés au cours des dernières décennies, ils souffrent souvent d'erreurs et de biais dus à une compréhension incomplète du fonctionnement du climat terrestre et de la manière dont les modèles sont construits.

Ces modèles divisent l'espace allant de la surface à l'atmosphère en cubes de 50 à 100 kilomètres de côté, puis prédisent les changements météorologiques dans chaque cube sur une période donnée.

Le modèle calcule ensuite le mouvement de l'air et de l'humidité sur la base de lois physiques généralement acceptées, qui constituent la base des prévisions météorologiques.

Mais le problème est que l’échelle de 50 à 100 kilomètres est vraiment trop grande.

De nombreux processus climatiques importants, notamment les nuages ​​et les précipitations, varient à des échelles inférieures à la taille des cubes utilisés dans les modèles actuels (de millimètres à kilomètres).

De plus, la compréhension physique de certains processus, tels que la formation des nuages, par les scientifiques est incomplète.

En conséquence, ces modèles traditionnels s'appuient non seulement sur des principes fondamentaux, mais utilisent également des modèles simplifiés pour générer des approximations appelées « paramétrages » afin de simuler des processus à petite échelle et mal compris.

Ces approximations simplifiées réduisent inévitablement la précision des modèles climatiques basés sur la physique.

Alors, comment NeuralGCM résout-il ce problème ?

Comme les modèles traditionnels, NeuralGCM divise toujours l'atmosphère terrestre en cubes et calcule la physique des processus à grande échelle tels que le mouvement de l'air et de l'eau.

La différence est que NeuralGCM ne s'appuie plus sur des approximations « paramétriques » développées par les scientifiques pour simuler des changements météorologiques à petite échelle, mais utilise des réseaux de neurones pour apprendre les principes physiques de ces événements à partir des données météorologiques existantes.

Une innovation clé de NeuralGCM est que le solveur numérique pour les processus à grande échelle a été réécrit de zéro en JAX.

Cela permet aux chercheurs d'utiliser l'optimisation basée sur le gradient pour ajuster le comportement « en ligne » des systèmes couplés sur plusieurs pas de temps.

En revanche, les efforts antérieurs visant à utiliser l'apprentissage automatique pour améliorer les modèles climatiques ont rencontré des difficultés importantes en matière de stabilité numérique, car ils utilisent une formation « hors ligne » qui ignore les différences entre les processus à petite et à grande échelle qui s'accumulent au fil du temps.

Un autre avantage de l’écriture de l’intégralité du modèle en JAX est qu’il fonctionne efficacement sur des TPU et des GPU, alors que les modèles climatiques traditionnels fonctionnent principalement sur des CPU.


NeuralGCM combine des solveurs de dynamique des fluides traditionnels et des réseaux de neurones pour la physique à petite échelle. Ces composants sont réunis via un solveur d'équations différentielles pour faire avancer le système chronologiquement.

L'équipe de Google a utilisé les données météorologiques du CEPMMT de 1979 à 2019 pour entraîner une série de modèles NeuralGCM à des résolutions de 0,7°, 1,4° et 2,8°.

Bien que NeuralGCM soit formé sur la base de données de prévisions météorologiques, l’équipe a conçu NeuralGCM comme modèle atmosphérique général.

Prévisions météorologiques et prévisions climatiques précises

Les récents modèles d’apprentissage automatique (ML) de l’atmosphère terrestre, notamment GraphCast de Google DeepMind, ont démontré une précision révolutionnaire dans les prévisions météorologiques.

Jusqu’à présent, la recherche sur les prévisions ML s’est principalement concentrée sur les prévisions à court terme, ce qui est loin des années ou des décennies nécessaires aux prévisions climatiques.

Étant donné que les prévisions climatiques sur plusieurs décennies sont difficiles à vérifier de manière fiable, l'équipe de Google a évalué les performances de NeuralGCM en matière de prévisions à l'échelle climatique et en tant que modèle météorologique à l'aide du benchmark WeatherBench 2 établi.

Le modèle déterministe de NeuralGCM à une résolution de 0,7° est comparable aux modèles de pointe actuels en termes de précision des prévisions météorologiques, et la précision des prévisions météorologiques peut atteindre 5 jours.

Cependant, les modèles déterministes ne disposent pas de l’incertitude quantitative nécessaire pour établir des prévisions utiles sur de longues périodes.

Les ensembles de prévisions sont générés à partir de conditions de départ légèrement différentes pour produire une gamme de conditions météorologiques tout aussi probables. Ces ensembles produisent des prévisions météorologiques probabilistes qui sont généralement plus précises que les prévisions déterministes.

Le modèle d'ensemble de NeuralGCM à une résolution de 1,4° surpasse le précédent SOTA en termes de précision de prédiction de 5 à 15 jours.

Cette amélioration des performances est due au fait que NeuralGCM génère des prévisions météorologiques d'ensemble, comparables au modèle SOTA basé sur la physique du CEPMMT-ENS.

Parmi les modèles ML publiés, NeuralGCM est le premier à le faire.

Les prévisions d'ensemble de NeuralGCM sont plus précises que celles d'ECMWF-ENS 95 % du temps sur des prévisions allant de 2 à 15 jours.

NeuralGCM surpasse également les modèles atmosphériques de pointe en matière de prévisions climatiques à l'échelle temporelle.

NeuralGCM simulant uniquement la composante atmosphérique du climat terrestre, l'équipe de Google a comparé ses performances avec des modèles atmosphériques basés sur la physique.

Lors de la prévision des températures entre 1980 et 2020, l'erreur moyenne du modèle déterministe de 2,8° de NeuralGCM est un tiers de l'erreur du modèle atmosphérique (AMIP), soit 0,25 contre 0,75 degrés Celsius.


Comparaison des performances de NeuralGCM et d'AMIP dans la prévision de la température moyenne mondiale à 1 000 hPa entre 1980 et 2020

Étant donné que les modèles atmosphériques traditionnels ont du mal à simuler certains aspects de l'atmosphère terrestre, les climatologues utilisent parfois des modèles à plus haute résolution tels que X-SHiELD, qui, bien que plus précis, sont plus coûteux en calcul.

Comparé à X-SHiELD, le modèle déterministe à 1,4° de NeuralGCM a obtenu 15 à 50 % d'erreur en moins dans la prévision des données d'humidité et de température pour 2020 fournies par la National Oceanic and Atmospheric Administration (NOAA).

Au cours de la simulation climatique de 2020, NeuralGCM a également prédit des modèles de cyclones tropicaux qui correspondaient au nombre et à l'intensité des tempêtes observées dans la même région cette année-là.

NeuralGCM est le premier modèle basé sur l'apprentissage automatique capable de générer de tels modèles.


NeuralGCM prédit la trajectoire des cyclones tropicaux à l'échelle mondiale en 2020 (le nombre et l'intensité des tempêtes prévus correspondent au nombre et à l'intensité réels des cyclones enregistrés dans l'ensemble de données de réanalyse v5 (ERA5) du CEPMMT)

Ouvert, rapide et efficace

NeuralGCM est plusieurs fois plus rapide en termes de vitesse de calcul et de coût que les modèles climatiques traditionnels basés sur la physique.

Son modèle à 1,4° est plus de 3 500 fois plus rapide que X-SHiELD, ce qui signifie que si les chercheurs simulaient l'atmosphère d'un an avec X-SHiELD, cela prendrait 20 jours, contre seulement 8 minutes avec NeuralGCM.

De plus, les scientifiques n’ont besoin que d’un ordinateur doté d’un seul TPU (Tensor Processing Unit) pour exécuter NeuralGCM, tandis que l’exécution de X-SHiELD nécessite l’utilisation d’un supercalculateur de 13 000 CPU (Central Processing Units).

Dans l’ensemble, le coût de calcul de la simulation climatique utilisant NeuralGCM est 100 000 fois inférieur à celui de X-SHiELD, ce qui équivaut à 25 ans de progrès dans le calcul haute performance.

NeuralGCM simule l'atmosphère plus rapidement que les modèles physiques de pointe tout en générant des prédictions avec la même précision

Dans ce graphique, NeuralGCM rivalise avec deux modèles physiques NCAR CAM et NOAA X-SHiELD, en comparant le nombre de jours de simulation atmosphérique qu'ils génèrent en 30 secondes de temps de calcul.

Les trois modèles fonctionnent à des résolutions différentes, X-SHiELD ayant la résolution la plus élevée (0,03°), NCAR CAM6 ayant une résolution de 1,0° et NeuralGCM ayant la résolution la plus basse (1,4°).

Il convient de mentionner que même si NeuralGCM fonctionne à basse résolution, sa précision est comparable à celle des modèles haute résolution.

Ensuite, avec une précision comparable, on peut voir que NeuralGCM peut générer 22,8 jours de simulation atmosphérique en 30 secondes, tandis que X-SHiELD, en tant que modèle physique haute résolution qui doit être exécuté sur un superordinateur, ne peut être généré que pendant 9 minutes!

Cela élimine également les avantages du NCAR CAM6, qui était auparavant privilégié par les chercheurs en raison de son faible coût de calcul.

L'équipe Google a divulgué le code source et les poids du modèle de NeuralGCM sur GitHub pour une utilisation non commerciale. Ils espèrent que d’autres chercheurs pourront facilement ajouter de nouveaux composants pour tester les hypothèses et améliorer la fonctionnalité du modèle.

De plus, comme NeuralGCM peut être exécuté sur un ordinateur portable et ne nécessite pas le support d’un superordinateur, davantage de chercheurs en climatologie sont en mesure d’utiliser ce modèle de pointe dans leur travail.

Conclusions et orientations futures

NeuralGCM ne modélise actuellement que l'atmosphère terrestre, mais l'équipe de Google espère éventuellement intégrer d'autres aspects du système climatique terrestre, tels que les océans et le cycle du carbone, dans le modèle.

De cette manière, NeuralGCM sera en mesure de faire des prévisions sur des échelles de temps plus longues, non seulement en prévoyant le temps sur des jours et des semaines, mais également sur des échelles de temps climatiques.

Dans l’ensemble, NeuralGCM propose une nouvelle façon de construire des modèles climatiques qui pourraient être plus rapides, moins coûteux en calcul et plus précis que les modèles existants.

Les références:

https://www.nature.com/articles/s41586-024-07744-y

https://research.google/blog/fast-accurate-climate-modeling-with-neuralgcm/

https://x.com/sundarpichai/status/1815512751793721649