Comment sont-ils construits et utilisés?Olivier Talagrand, Katia Laval et Jean Pailleux - Décembre 2018 Show
Les modèles numériques Les modèles numériques sont maintenant devenus omniprésents dans les sciences de l’atmosphère et de l’océan. Ils sont utilisés quotidiennement dans les services météorologiques pour la production de leurs prévisions. Ils ont fourni les "projections" sur lesquelles le Groupe d’experts Intergouvernemental sur l’Évolution du Climat (GIEC) a fondé, dans ses rapports successifs, l’essentiel de ses conclusions quant à l’évolution future du climat. Ils sont aussi utilisés pour de nombreux travaux de recherche. Que sont exactement ces modèles, qui paraissent un peu mystérieux à beaucoup, même parmi ceux qui possèdent un réel bagage scientifique ? Comment sont-ils construits et utilisés ? Et surtout, quel crédit peut-on accorder aux résultats qu’ils produisent ? C’est à ces questions que cette note, qui s’adresse à des lecteurs informés mais nullement spécialistes, cherche à donner des éléments de réponse. Les modèles numériques sont des logiciels pour ordinateurs qui calculent l’évolution de l’écoulement atmosphérique ou océanique à partir d’un état de départ donné. Ils ont été conçus à l’origine, à la fin des années 1940, au moment du développement des premiers calculateurs électroniques, pour servir à la prévision météorologique. Et c’est à cette application qu’ils restent aujourd’hui principalement utilisés. Pour donner une première idée de ce dont ils sont maintenant capables, la figure 1 présente une prévision effectuée par le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, voir encart ci-dessous. Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT) Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, en anglais European Centre for Medium-Range Weather Forecasts, ECMWF, https://www.ecmwf.int/) est un organisme international installé à Reading, en Grande-Bretagne. Sa mission première est de fournir des prévisions météorologiques aux États membres, mission qu’il assure quotidiennement depuis 1980. Outre deux prévisions quotidiennes de base à échéance de quinze jours, il produit des prévisions d’ensemble, destinées à quantifier l’incertitude sur la prévision aux différentes échéances. Il produit aussi d’autres types de prévisions (prévisions saisonnières, prévision des vagues sur l’océan).Le CEPMMT fournit également différents services aux États membres et à la communauté internationale. Il gère plusieurs composantes du programme Copernicus d’observation de la Terre, soutenu par l’Union Européenne. Il produit aussi des réanalyses d’observations passées, c’est-à-dire des descriptions détaillées de l’évolution quotidienne de l’écoulement atmosphérique, obtenues à l’aide des modèles et des systèmes d’assimilation actuels. L’analyse ERA-Interim, qui commence en 1979, est maintenue à jour en permanence.Il effectue en outre, en liaison avec des groupes de recherche européens ou non, des recherches de pointe sur la prévision météorologique numérique et ses multiples applications. Le CEPMMT est formellement un service commun aux services météorologiques des États membres. En novembre 2018, il compte 22 États membres de plein droit et 12 États associés. La carte du haut présente l’état de l’atmosphère sur l’Atlantique Nord et l’Europe Occidentale le 20 septembre 2018, à 00:00
UTC. L’une et l’autre de ces deux quantités (dont, comme on peut le voir, les variations spatiales sont similaires) décrivent les structures de grande échelle de la circulation atmosphérique, structures dont la formation, l’amplification, le déplacement, les interactions mutuelles éventuelles et la disparition finale gouvernent la météorologie des latitudes moyennes. L’état du 20 septembre a servi de point de départ à une prévision à 8 jours d’échéance effectuée par le modèle du CEPMMT. L’état ainsi prévu est présenté sur la carte intermédiaire, et l’état réel correspondant sur la carte inférieure. La similarité entre ces deux derniers états, et leur différence commune avec l’état de départ de la prévision, sont absolument évidentes. C’est là un exemple typique de ce qu’est à l’heure actuelle une bonne prévision. Figure 1. Un exemple de prévision à 8 jours effectuée par le modèle du CEPMMT. La figure 2, relative elle aussi au géopotentiel à 500 hPa, présente l’évolution de la qualité des prévisions produites par le CEPMMT depuis 1981. La quantité représentée en ordonnée est un coefficient de corrélation statistique qui mesure les performances comparées de deux prévisions : d'une part la prévision produite par le modèle, d'autre part une prévision «climatologique» qui consisterait à prévoir pour demain et les jours qui suivent l'état climatologique moyen pour le jour considéré. Cette corrélation prendrait la valeur 1 pour une prévision parfaite, et la valeur 0 pour une prévision climatologique. Plus elle est élevée, et plus la prévision du modèle est bonne. Les différentes courbes de la figure présentent à partir du haut l’évolution de la corrélation à 3, 5, 7 et 10 jours d’échéance. On voit sans surprise que la qualité des prévisions décroît à mesure que l’échéance augmente. Mais surtout cette qualité a augmenté depuis 1981, à toutes échéances, de façon quasi-systématique. Les prévisions à 5 jours sont maintenant meilleures que les prévisions à 3 jours en 1981, et les prévisions à 7 jours meilleures que les prévisions à 5 jours. Cette amélioration progressive est due à l’augmentation du nombre des observations, et à l’amélioration de la qualité du modèle de prévision lui-même. On voit aussi que la qualité des prévisions dans l’hémisphère austral, inférieure à l’origine à celle des prévisions de l’hémisphère boréal, lui est devenue égale à partir de l’année 2000 environ. Cela est dû à l’accroissement du nombre des observations satellitaires, qui couvrent également les deux hémisphères, tandis que les observations au sol sont beaucoup plus nombreuses dans l’hémisphère boréal. Figure 2. Variation au cours du temps de la qualité des prévisions du
géopotentiel à 500 hpa effectuées par le CEPMMT (voir explications dans le texte) L’"effet papillon" bien connu nous dit que l’écoulement atmosphérique est chaotique, en ce sens qu’une petite incertitude sur l’état initial de l’écoulement peut conduire rapidement à une grande incertitude sur la prévision. Sans discuter plus avant cet aspect important, les figures ci-dessus montrent que des progrès sont encore réalisés dans la qualité des prévisions. Les principes de la modélisation numériqueLes modèles numériques sont fondés sur les lois physiques qui régissent le monde macroscopique, familières à tout étudiant en physique, et dont personne ne doute qu’elles régissent, en particulier, les mouvements de l’atmosphère. Ce sont :
L’approche sous-jacente aux modèles est bien fondée au départ sur ces lois physiques de base. Elle n’est en particulier pas fondée,
comme on pourrait se le demander, sur l’ajustement empirique de multiples coefficients destinés à permettre une simulation réaliste de l’écoulement. Le principe sur lequel est construit un modèle numérique est simple, et d’ailleurs très général
dans l’étude numérique d’écoulements fluides de toutes natures. Le volume de l’atmosphère est divisé en mailles (Figure 3), à l’intérieur de chacune desquelles on définit les quantités d’intérêt météorologique. Pour ce qui est par exemple de la température de l’air, tous les processus jugés pertinents sont pris en compte :
À cela s’ajoute l’apport par l’écoulement lui-même d’air de température différente venant des mailles voisines. Un bilan similaire, effectué pour chacune des variables dans chacune des mailles du modèle, permet de calculer de proche en proche l’évolution de l’ensemble de l’écoulement sur la durée de la prévision. Figure 3. Représentation schématique d’un Modèle de Circulation Atmosphérique (L. Fairhead, LMD/IPSL) Les modèles constituent donc une formulation numériquement utilisable des lois physiques qui régissent l’écoulement. Cette formulation est nécessairement approchée, et donc imparfaite. Dans la version actuelle du modèle du CEPMMT (novembre 2018), la distance horizontale entre deux mailles est d’environ 9 km, et la direction verticale est divisée en 137 niveaux, s’étendant jusqu’à une altitude de 80 km. Cela conduit à environ 900 millions de mailles, et environ 4 milliards de variables dont l’évolution est explicitement calculée. Le pas temporel correspondant est de 450 secondes. Les spécialistes distinguent dans leur jargon la "dynamique" d’un modèle de sa "physique". La "dynamique" décrit comment le mouvement évolue sous l’effet des forces mécaniques et de la rotation de la Terre. La "physique" décrit les effets radiatifs et de conduction thermique, les effets de viscosité et de frottement et, aussi, tous les aspects du cycle de l’eau. En simplifiant, la dynamique décrit les processus thermodynamiquement réversibles, et la physique les processus irréversibles. On inclut dans la seconde la description de l’effet des processus d’échelle inférieure à la maille du modèle, non résolus par celui-ci. Ces processus influent néanmoins sur les processus explicitement résolus, et leur effet statistique est représenté par ce qu’on appelle les paramétrisations sous-maille. La définition et la validation de ces paramétrisations est l’un des problèmes importants de la modélisation numérique. La dynamique, construite sur des lois physiques parfaitement connues, est décrite de façon considérée désormais comme totalement sûre (même si des recherches actives sont toujours menées pour améliorer par exemple l’efficacité numérique des algorithmes, ou bien élargir leur degré de généralité). Il n’en est pas de même de la physique, qui est d’ailleurs constamment enrichie par l’introduction de nouveaux processus (effets des lacs et nappes d’eau, interactions avec la végétation, ruissellement des eaux de surface et souterraines, …). Contrairement à la dynamique, la physique contient, en ce qui concerne par exemple les effets radiatifs des nuages ou les interactions avec la végétation, de nombreuses formulations empiriques ou phénoménologiques, qui ne découlent pas directement de la physique de base. Et c’est d’ailleurs bien en ce qui concerne la physique, et en particulier le cycle complexe de l’eau, que les modèles actuels sont les plus limités et leurs prévisions les moins précises. L’expérience quotidienne nous montre que les précipitations sont plus difficiles à prévoir que la pression au sol, même si la seconde est indispensable à la prévision des premières. Différents types de modèles numériquesL’approximation hydrostatique sur laquelle sont construits les modèles utilisés actuellement pour la prévision météorologique à grande échelle stipule simplement que la pression en tout point est proportionnelle à la masse de fluide située au-dessus de ce point. Elle est valide quand l’accélération verticale du fluide est négligeable devant la gravité. Du fait de la présence dans l’atmosphère de mouvements convectifs intenses, mais localisés, qui transportent des quantités d’énergie importantes vers les couches élevées de l’atmosphère, l’approximation hydrostatique perd sa pleine validité pour des échelles horizontales inférieures à 20 km environ. Des modèles non hydrostatiques ont donc été développés pour représenter les échelles plus fines. Ils permettent, entre autres, de simuler explicitement les phénomènes convectifs, mais leur coût élevé ne leur permet de couvrir à ce jour qu’une aire limitée de la surface terrestre. Météo-France a ainsi développé le modèle AROME (Applications de la Recherche à l'Opérationnel à Méso-Echelle), non-hydrostatique, qui couvre la France métropolitaine et les régions avoisinantes avec une résolution spatiale horizontale de 1,3 km, 90 niveaux dans la direction verticale, et est intégré plusieurs fois par jour à une échéance allant jusqu'à 48 h. Les modèles non hydrostatiques à haute résolution permettent une prévision beaucoup plus précise des phénomènes météorologiques intenses. Mais ils exigent par contre, du fait de leur aire limitée, la définition de conditions aux limites latérales appropriées. Ces conditions aux limites sont extraites d’un modèle de plus grande échelle. Le CEPMMT travaille au développement d’un modèle non-hydrostatique global. D’autres modèles encore servent à la prévision de l’océan en tant que tel. Ils sont fondés, mutatis mutandis, sur les mêmes principes que les modèles atmosphériques. De même que l’eau, par ses effets radiatifs et thermodynamiques, est un composant essentiel de la circulation atmosphérique, le sel, par les variations de densité qu’il entraîne, est un composant essentiel de la circulation océanique. Les échéances de prévisibilité, qui se comptent en jours pour l’atmosphère, se comptent plutôt en mois pour l’océan. L’état interne de l’océan, qui est opaque à toute forme de rayonnement électromagnétique, est beaucoup moins bien observé et connu que celui de l’atmosphère. Le programme français Mercator produit chaque jour des prévisions de l’état de l’océan global à une résolution spatiale de 1/12° et à échéance de 9 jours (donc courte pour l’océan ; voir le bulletin Mercator Océan pour les différents produits mis en ligne dans le cadre de ce programme). Aux échéances mensuelles ou saisonnières, les interactions entre l’atmosphère et l’océan ne peuvent plus être ignorées. Ces interactions mutuelles sont à l’origine de phénomènes spécifiques, comme le phénomène El Niño bien connu, qui n’existeraient pas dans l’un ou l’autre milieu isolément. Des modèles couplés ont donc été progressivement développés, qui produisent d’ores et déjà des prévisions utiles à l’échéance saisonnière. De nombreux modèles numériques ont été développés à d’autres fins : dispersion de traceurs ou de polluants, hydrologie, chimie atmosphérique. La plupart de ces modèles sont utilisés en association avec un modèle purement atmosphérique ou océanique, qui leur fournit les conditions physiques permettant de représenter les processus spécifiques qu’ils doivent simuler. La modélisation du climatMême si c’est la prévision à échéance relativement courte, nécessitant en particulier une définition précise de conditions initiales appropriées, qui a été à l’origine de la modélisation numérique de l’atmosphère, celle-ci a trouvé dès la fin des années 1960 une autre utilisation, qui suscite à l’heure actuelle beaucoup plus de questions et d’interrogations, quelquefois dubitatives. Il s’agit de la simulation du climat et de la prévision de son évolution à long terme. Des Modèles de Circulation Générale (MCG) ont ainsi été développés à partir des modèles météorologiques, sans
modification des principes sur lesquels ceux-ci étaient construits. Mais il a fallu pour cela développer des composantes nouvelles, qui ont en retour bénéficié à la prévision météorologique. La différence la plus importante résulte de ce que l’effet des océans doit être pris en compte, plus encore qu’aux échéances mensuelles ou saisonnières, aux échéances climatiques. À titre d’exemple de ce que peuvent produire les Modèles de Circulation Générale, la Figure 4 présente le champ de température de l’air à la surface de la Terre, moyennée sur une année. La carte du haut montre le champ observé, la carte du bas le champ produit par le Modèle de Circulation Générale de l’Institut Pierre Simon Laplace. On voit que, s’il existe des différences, les variations spatiales des températures, en latitude, mais aussi entre les continents et les océans, sont très similaires. Figure 4. Champ de température de l’air à la surface de la terre, moyenné sur une année. Les simulations climatiques servent en particulier à effectuer
les "projections" présentées et discutées dans les rapports successifs du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC ; le cinquième de ces rapports a été publié en 2013-2014, la publication du prochain est prévue pour 2022 ; un rapport spécial a été récemment publié en octobre 2018). La figure 5, extraite du dernier rapport du GIEC, présente des comparaisons entre les observations relatives à la période 1910-2010 et des simulations issues de modèles. Figure 5. Comparaison
d’observations et de simulations numériques sur la période 1910-2010. Sur chacune des sous-figures, la courbe pleine représente les observations, les bandes de couleur bleue et rouge clair le résultat de simulations numériques effectuées respectivement sans et avec le forçage anthropique (détails dans le texte). Les observations, représentées par des courbes pleines sur chacune des sous-figures, portent :
On remarque tout d’abord que la température et le contenu thermique de l’océan ont augmenté dans toutes les régions, surtout depuis 1960 (à la seule exception de l’Océan Austral, dont le contenu thermique a diminué depuis la fin des
années 1990). Les simulations numériques sont représentées par les bandes de couleur :
On voit que (à la seule exception de l’Océan Antarctique, où l’on n’a de toute façon observé aucune évolution significative) les modèles numériques simulent toujours beaucoup mieux la réalité observée quand l’effet de serre anthropique est pris en compte. Ce résultat, outre qu’il conforte l’idée que les modèles numériques sont capables de simuler la structure thermique de l’atmosphère et de l’océan superficiel, conforte aussi l’idée que l’échauffement récent du climat est dû pour l’essentiel à l’effet de serre anthropique. Cela étant, il reste une marge d’incertitude, visible dans la largeur des bandes de couleur de la Figure 5. Une étude détaillée montre que les désaccords entre les résultats produits par les différents modèles viennent de leur "physique", et particulièrement du cycle de l’eau. Et encore plus précisément, pour ce qui est du cas présent des projections climatiques, de la représentation de l’effet radiatif des nuages. Comme dans le cas de la prévision météorologique, les faiblesses des modèles numériques résident beaucoup plus dans leur "physique" que dans leur cœur dynamique. Le cycle de l’eau, en particulier, et les flux d’énergie qui lui sont associés, restent assez mal connus, et mal représentés dans les modèles. C’est par la combinaison d’acquisition et d’analyse d’observations, de travaux théoriques, et d’expériences de simulations appropriées, que l’on pourra continuer à améliorer cet aspect des modèles numériques. La modélisation des atmosphères planétairesUne autre preuve du niveau de qualité physique atteint par les Modèles de Circulation Générale est fournie par les atmosphères extra-terrestres. Les Modèles de Circulation Générale terrestres ont été adaptés à ces différents objets en en modifiant les paramètres pertinents :
Dans chacun de ces trois cas, et sans qu’il ait été nécessaire de recourir à des modifications non justifiées par ce que l’on sait de la physique, les modèles ont produit un régime de circulation atmosphérique et une structure thermique en bon accord, et quelquefois même en excellent accord, avec les observations disponibles. La Figure 6 présente le champ de température martien, moyenné en
longitude, à l’équinoxe de printemps boréal. Figure 6. Champ de température de l’atmosphère martienne, moyenné en longitude dans un plan méridien, à l’équinoxe de printemps boréal. En dehors de ces diverses applications, toutes destinées à simuler et étudier une atmosphère réelle, la modélisation numérique est aussi utilisée à l’étude de processus spécifiques, menée dans des situations de simplification plus ou moins idéalisées. On peut citer par exemple l’étude de la convection thermique, de la formation des dépressions des latitudes moyennes ou bien encore de la formation et de l’évolution des cyclones tropicaux. Ces études de processus sont extrêmement instructives, et aident beaucoup à la compréhension des multiples aspects de la dynamique et de la thermodynamique de l’atmosphère et de l’océan. La modélisation numérique de l’écoulement atmosphérique, même si la possibilité en avait été anticipée dès le début du XXe siècle, est née, on l’a dit plus haut, avec les premiers ordinateurs électroniques (voir Le changement climatique : histoire et enjeux, Chapitre V : De nouveaux outils bouleversent le paysage scientifique, pour une histoire des débuts de la modélisation numérique). Et ses progrès, particulièrement en ce qui concerne la prévision météorologique, ont toujours suivi de près la croissance de la puissance des ordinateurs : l’augmentation de la résolution spatiale des modèles, quand elle était possible dans les contraintes imposées par les conditions opérationnelles, a toujours résulté à ce jour en une amélioration de la qualité des prévisions (bien entendu, toutes les autres composantes du système de prévision, comme les algorithmes numériques, la représentation des processus sous-maille, l’assimilation des observations, ont toujours été continûment améliorées en parallèle avec l’augmentation de la résolution spatiale). Mais la croissance de la puissance des ordinateurs commence à diminuer et, sauf nouvelle révolution technologique qui pourrait relancer cette croissance (on parle régulièrement d’ordinateurs quantiques), le jour viendra où l’on ne pourra plus compter sur l’augmentation de la puissance de calcul pour améliorer les modèles numériques. Cela modifiera significativement, sinon la science fondamentale elle-même, du moins le travail quotidien des chercheurs. Observation et modélisation numériquePour reprendre une remarque souvent faite, la modélisation numérique ne remplacera jamais l’observation, qui est à la base même de la science. Mais elle vient en sus de l’observation, en lui ajoutant la formulation, explicite et quantifiée, des lois physiques qui lui sont sous-jacentes. La modélisation est extrêmement utile à l’observation, et d’abord en ce qu’elle aide souvent à définir ce qui doit être observé. Toutes les campagnes de mesures atmosphériques sont maintenant précédées de simulations numériques destinées à identifier les quantités les plus pertinentes à observer. Tout projet de mise en œuvre d’un nouvel instrument d’observation (porté par satellite par exemple) est précédé d’expériences de simulation, dans lesquelles des observations virtuelles similaires à ce qu’on attend de l’instrument envisagé sont introduites dans l’intégration d’un modèle numérique. L’impact des observations virtuelles sur, par exemple, la qualité d’une prévision météorologique est ainsi quantifié. Ces expériences ne produisent certes pas des résultats parfaitement fiables (elles conduisent en général à des conclusions qui se révèlent a posteriori trop optimistes quant à l’impact des nouvelles observations), mais elles n’en sont pas moins extrêmement utiles, en indiquant dans quelles directions il faut améliorer les systèmes d’observation. Ensuite, la modélisation permet de tirer un plein profit des observations disponibles. Un excellent exemple en est fourni par la définition des conditions initiales des prévisions météorologiques numériques. De très nombreuses observations, satellitaires ou non, sont effectuées chaque jour sur l’atmosphère, dont la nature, la distribution spatio-temporelle, la résolution et la précision sont extrêmement variables. Ces observations (plus de 107 par période de 24 heures) doivent être "synthétisées" pour en tirer la description la plus exacte possible de l’état de l’écoulement atmosphérique à l’instant initial de la prévision. Cela est obtenu en combinant les observations avec un modèle numérique dans un processus appelé assimilation. L’assimilation des observations, construite sur des algorithmes puissants progressivement développés en parallèle avec la modélisation elle-même, est maintenant devenue une composante essentielle de la prévision météorologique : les grands centres de prévision, tels que le CEPMMT ou Météo-France, consacrent autant de ressources de calcul à assimiler 24 heures d’observations qu’à effectuer 10 jours de prévision à haute résolution. L’observation et la modélisation numérique, en ce qui concerne au moins l’atmosphère, sont désormais intimement liées. Chacune des deux perdrait beaucoup d’intérêt et d’utilité si l’autre n’existait pas. La modélisation numérique de l’écoulement atmosphérique s’est progressivement développée à partir de son objectif premier, la prévision météorologique. Une représentation réaliste de l'océan et de multiples processus a été ajoutée au fil des années dans les différents modèles utilisés pour des applications diverses. Dans le vaste cadre de la prévision climatique, des Modèles du Système Terre sont maintenant développés : ces modèles simulent, en plus des mouvements de l’atmosphère et de l’océan, leurs interactions avec la végétation et la cryosphère, les réservoirs d’eau divers, et avec les cycles de différentes espèces chimiques (dont particulièrement le dioxyde de
carbone). Voir aussi les FAQs :Quelle est la différence entre «météorologie» et «climatologie»? Les modèles climatiques ont-ils une valeur prédictive? Qu'est ce que permet un modèle numérique du climat ?Un modèle climatique est la représentation numérique de la planète et des interactions entre ses différents réservoirs qui modulent le climat : l'atmosphère, l'océan et les surfaces continentales. L'espace géographique numérique est composé de cases, appelées les mailles.
Quelles sont les utilités des modèles climatiques ?Les modèles permettent de déterminer dans quelle mesure les changements climatiques observés peuvent être dus à la variabilité naturelle, à l'activité humaine ou à une combinaison des deux.
Comment les modèles climatiques nous Aident1.3- Le climat du futur
Les modèles climatiques s'appuient sur : la mise en équations des mécanismes essentiels qui agissent sur le système Terre ; • des méthodes numériques de résolution. pouvant atteindre le mètre ; des modifications des régimes de pluie et des événements climatiques extrêmes.
Comment les modèles informatiques PeuventLes observations associées aux modélisations montrent l'impact majeur des activités humaines libérant des gaz à effet de serre sur le réchauffement climatique. Les modèles prévoient les conséquences du réchauffement climatique sur l'ensemble des sous-systèmes composant la planète.
|