Télécharger le fichier original (Mémoire de fin d’études)
A quoi ressemble un modèle de prévision nu-mérique du temps ?
Coeur dynamique
Prévoir les états futurs d’un système dynamique, c’est résoudre les équations aux dérivées partielles faisant intervenir la variable temporelle et caractérisant l’évolution de ce système. Lors de l’étude de systèmes mécaniques simples, les équations différentielles en présence sont solvables explicitement dès lors que les conditions initiales sont connues (ex : oscillateur harmonique). Par opposition, l’atmosphère est régie par les équations de la dynamique des fluides de Navier-Stokes qui, de par leurs caractéristiques mathématiques, ne peuvent être résolues analytiquement. Ainsi, pour calculer les états futurs de l’atmosphère décrits par un vecteur d’état comprenant 7 variables, la seule possibilité trouvée à ce jour repose sur l’utilisation de techniques d’analyse numérique. En effet, ces méthodes basées sur une discrétisation de l’espace et du temps, permettent d’approximer les états futurs des différentes variables caractérisant l’atmosphère, en calculant, pas de temps après pas de temps, la progression de l’atmosphère d’un état initial vers un état prédit à un instant t.
Ainsi, les modèles de prévision numérique du temps considèrent une atmo-sphère découpée selon une grille tridimensionnelle. Concernant la coordonnée ver-ticale, différents types de coordonnées peuvent être utilisés : altitude, masse, pres-sion, pression hydrostatique, ou hybride (voir section 3.1). Différentes grilles de discrétisation horizontale ont été proposées. La figure 1.3 présente en particulier la maille étirée du modèle global français ARPEGE (coefficient d’étirement c “ 2 2), la maille icosaédrique triangulaire du modèle allemand ICON, la maille « cubed-sphere » du modèle américain GFS, la maille octaédrique gaussienne réduite du modèle européen IFS et celle appellée « Ying-Yang » du modèle canadien GEM. L’évolution temporelle de l’atmosphère est quant à elle discrétisée selon un pas de temps ∆t. En chacun des points de la grille et à chaque pas de temps, les modèles calculent les futures valeurs du vecteur d’état en estimant les tendances temporelles de ces variables pronostiques grâce aux équations de la dynamique. Généralement, la méthode numérique utilisée dans la plupart des modèles mé-téorologiques est le schéma semi-implicite qui moyenne les tendances sur un ou plusieurs pas de temps. Il est dit semi-implicite car les termes linéaires sont réso-lus de manière implicite alors que les termes non-linéaires utilisent des formules explicites (Benacchio and Wood, 2016).
Le schéma semi-implicite n’étant pas inconditionnellement stable numérique-ment, celui-ci peut amener à des prévisions irréalistes. Ainsi, il est souvent couplé des schémas centrés implicites itératifs, aussi nommés prédicteur-correcteur dans le cas d’un schéma à 2 itérations, afin de converger vers le schéma implicite de Crank-Nicolson plus stable (Seity, 2020).
Différentes techniques d’estimation des dérivées spatiales impliquées dans les équations ont été mises au point. Avant les années 1970, la plupart des modèles étaient basés sur des méthodes en point de grille où les dérivées impliquées étaient calculées par différences finies explicites (Williamson, 2007). Cependant, pour as-surer qualité et stabilité des prévisions, ces méthodes sont soumises à la condition CFL : pendant un pas de temps, le transport des phénomènes météorologiques par le vent (advection) et la propagation d’une onde ne doivent pas dépasser un car-reau de la grille du modèle. Pour remédier en partie à ce problème, des méthodes de transformée spectrale proposées par Eliasen et al. (1970) et Orszag peuvent être utilisées : le calcul des dérivées du vecteur d’état se fait dans l’espace spectral des harmoniques de ce vecteur. L’efficacité de la méthode est améliorée avec la Fast Fourier Transform (Williamson, 2007).
Enfin, pour caractériser le phénomène d’advection, les méthodes semi- lagran-giennes ont permis un gain significatif des modèles de prévision du temps : Hor-tal (1998) constate une amélioration d’un facteur 72 grâce à ces changements algorithmiques. Celles-ci, basées sur la méthode des caractéristiques, modélisent l’advection par le vent de différentes quantités via le calcul de trajectoires lagran-giennes (aussi appelées caractéristiques). Ainsi, à partir des champs météorolo-giques connus à l’instant t, on cherche à estimer les champs météorologiques en chaque point de grille à l’instant t ` ∆t (pour les schémas semi-lagrangien à 2 pas de temps). Pour cela, des rétrotrajectoires (trajectoires dans le passé) ensemen-cées sur les points de grille du modèle à l’instant t ` ∆t sont calculées. Celles-ci transportent, par le vent à l’instant t, les parcelles d’air issues des points de grilles du modèle vers leur point de départ (pied de la caractéristique ou point d’origine de la trajectoire) à l’instant t. Une fois le point de départ estimé, des méthodes d’interpolation permettent de retrouver, à partir des champs météorologiques déjà connus à l’instant t, la valeur des variables pronostiques à ces points de départ (différents des points de grille) à l’instant t et donc, implicitement, aux points de grille à l’instant t ` ∆t. Le champ de vent utilisé pour l’advection étant pris à l’instant t est donc supposé constant sur l’intervalle [t,t ` ∆t]. Cependant, celui-ci n’est pas optimal pour modéliser le transport à l’instant t ` ∆t. Des schémas permettent alors de mieux estimer, par itérations successives, le champ de vent advectif (Seity, 2020).
Avec les méthodes semi-lagrangiennes, la condition CFL devient moins contrai-gnante sur le choix du pas de temps. Les méthodes autorisent alors de plus grands pas de temps, améliorant significativement la rapidité des calculs. Le seul critère en vigueur est le critère de Lipschitz interdisant le croisement de trajectoires.
En parallèle de ces méthodes semi-lagrangiennes et spectrales, un schéma de diffusion horizontale est ajouté afin de reproduire la cascade d’énergie de Kolmogo-rov et donc de dissiper l’énergie cinétique à l’échelle de la maille par les processus sous mailles. Ainsi, ce schéma apparaît comme un filtre évitant une accumulation de bruit à l’échelle de la maille par blocage spectral.
Ainsi, la résolution des équations de la dynamique des fluides (équations de Navier-Stokes) permet de modéliser l’écoulement de l’atmosphère autour de la Terre. Cette partie, nommée le coeur dynamique, assure principalement la pro-pagation horizontale des mouvements de l’atmosphère. Les ondes de gravité ainsi que les ondes acoustiques y sont aussi développées et des techniques numériques sont parfois utilisées pour filtrer les ondes non météorologiques.
Paramétrisation physique
Les termes de forçage des équations définissant les tendances temporelles des variables pronostiques, ne doivent pas non plus être négligés. Contrairement au coeur dynamique, ces forçages concernent des phénomènes physiques ayant lieu à des échelles plus petites que celle du modèle et ne pouvant être résolus explicite-ment par celui-ci. Par exemple, aucun modèle météorologique n’a une résolution assez fine pour reproduire la formation de gouttes de pluie à partir de gouttelettes nuageuses ou la réflexion du rayonnement solaire sur les molécules composant l’air. Ces phénomènes physiques dits sous-maille comprennent essentiellement le rayonnement, la microphysique nuageuse (changement d’état des hydrométéores), la convection (interaction vitesse verticale et changements de phase, formation de nuages cumuliformes tels que les cumulus et cumulonimbus), la représentation de la couche limite atmosphérique et sa turbulence, les ondes de gravités orogra-phiques et les caractéristiques de la surface (végétation, ville, …). Pour rendre compte de ces processus physiques, des schémas dits de paramétrisations, basés sur des lois physiques statistiques, vont reproduire l’influence moyenne de ces phé-nomènes de petite échelle à l’échelle de la maille du modèle. Ces lois sont propres chaque paramétrisation et estiment, par exemple, le chauffage, flux turbulents et source secondaire.
Plus précisément, ces paramétrisations intègrent des variables internes et les relient aux variables d’état à l’instant t en modélisant les processus à l’origine d’une altération des variables d’état. Concernant la température, ces schémas mo-délisent les processus diabatiques produisant un chauffage dû aux flux radiatifs, aux changements d’état de l’eau ou à la friction. D’autres forçages doivent être pris en compte, tels que les flux turbulents et la production de quantités secondaires tels que les aérosols ou les composants chimiques de l’atmosphère.
Cependant, en raison d’un fort coût numérique mais aussi par manque de connaissance, ces schémas ne peuvent représenter l’ensemble des phénomènes phy-siques et leur complexité. Seuls les phénomènes physiques prépondérants sont mo-délisés et même simplifiés (Stensrud, 2011). Par exemple, ces processus sont consi-dérés comme homogènes (homogénéité statistique) horizontalement ; les équations les régissant sont donc unidimensionelles en z (hauteur). Autrement dit, ces para-métrisations représentent la physique uniquement sur une colonne atmosphérique indépendante (Hourdin, 2011).
Puisque chaque modèle utilise des paramétrisations qui lui sont propres, nous présentons par la suite les paramétrisations mises en place à Météo-France, et plus particulièrement dans les modèles AROME et ARPEGE (convection profonde).
Rayonnement : Le chauffage (tendance de température) dû au rayonnement étant proportionnel à la divergence des flux radiatifs, la paramétrisation du rayon-nement doit estimer le bilan de flux radiatifs solaire et thermique au sommet et à la base de chaque couche atmosphérique supposée suffisamment fine pour que les propriétés optiques y soient constantes (Hogan, 2019; Seity, 2020). Pour ce faire, il faut prendre en compte différents phénomènes tels que :
l’absorption du rayonnement par les différentes espèces chimiques présentes dans l’atmosphère ;
la diffusion du rayonnement de l’échelle moléculaire à l’échelle d’un nuage ;
la réflexion du rayonnement solaire à la surface terrestre due à son albédo ;
l’émission infra-rouge par la Terre et l’atmosphère.
Ainsi, à partir du rayonnement solaire au sommet de l’atmosphère et son angle zé-nithal (dépendant de l’heure), mais aussi à partir des caractéristiques de la surface (albédo, température de surface, émissivité,…) et des caractéristiques de l’atmo-sphère (présence de nuages, gaz, aérosols,…), ce schéma peut, en théorie, calculer quasiment parfaitement la luminance sur l’ensemble de l’atmosphère. Cependant, réaliser ces calculs pour tout angle solaire d’incidence, longueur d’onde, épaisseur optique et espèce chimique donnés est très coûteux et ne peut être utilisé tel quel dans les modèles de prévision du temps. Pour remédier à ce problème, à chaque niveau vertical, la couche atmosphérique est supposée isotrope (étude du rayon-nement uniquement sur la verticale) et avec des propriétés optiques homogènes. Ainsi, seuls les flux verticaux sont estimés. Par ailleurs, les nuages y sont repré-sentés de manière approchée, c’est-à-dire en considérant un pourcentage de zone nuageuse au sein d’une maille de la grille du modèle et en utilisant des hypothèses sur le recouvrement nuageux sur la verticale.
Pour ce qui est du rayonnement infra-rouge, le schéma de paramétrisation est relativement similaire à celui du rayonnement solaire, seuls les phénomènes inhé-rents au rayonnement solaire tel que l’angle zénithal ne sont pas pris en compte.
Microphysique nuageuse : Les schémas de microphysique reproduisent l’évo-lution des différentes classes d’hydrométéores contenus dans l’atmosphère tels que l’eau nuagueuse, les gouttes de pluie, les cristaux de glace primaire (aussi dit « pris-tine ice »), la neige, les graupels, la grêle, le grésil, … En particulier, ils s’attachent décrire les processus microphysiques exo ou endothermiques entre les différents hydrométéores. Ainsi, ils permettent d’estimer les flux de chaleur latente et donc de calculer le chauffage dû à ces processus. Historiquement, pour décrire ces hy-drométéores, deux approches ont été mises en place : les modèles à moments dits « bulk » et les modèles détaillés (Planche, 2011; Khain et al., 2015).
Dans les schémas à moments, chaque classe d’hydrométéores est décrite par un spectre en nombre ou en masse totale des hydrométéores. La forme de ce spectre est fixée et suit en générale une forme exponentielle de type Marshall-Palmer, log-normale ou gamma. Celle-ci est décrite par les moments d’ordre i ayant une signification physique, c’est-à-dire, le moment d’ordre 0 correspond au nombre total de particules, celui d’ordre 3 à la masse totale et celui d’ordre 6 la réflectivité radar (Milbrandt and Yau, 2005). La complexité de ces schémas de microphysique dépend ainsi du nombre de moments considérés pour décrire le spectre de chaque hydrométéore mais aussi du nombre de classes d’hydrométéores considérés. Les modèles les plus simples ne décrivent que deux classes (Kessler, 1969) alors que les modèles les plus aboutis peuvent aller jusqu’à cinq voire six classes (Hong and Lim, 2006) .
Les schémas de microphysique détaillés, également appelés spectraux ou « bin », considèrent, quant à eux, une distribution en taille des hydrométéores. Cette fois-ci, le spectre des hydrométéores ne suit pas une distribution fixée. Il est discrétisé en taille où chaque point de grille correspond à une boite nommée « bin » dans la littérature anglaise ; ces schémas demandant ainsi un nombre de variables pro-portionnel au nombre de boite (« bin »), soit environ 200-300 variables. Ainsi, les processus microphysiques déplacent les hydrométéores dans la distribution en taille : une gouttelette nuageuse grossissant pour donner une goutte de pluie se déplacera dans la boite suivante dans la distribution en taille. Deux approches existent. Les modèles « bin » considèrent chaque boite avec des intervalles de taille fixe où les hydrométéores changent de boite en grossissant. Les méthodes lagran-giennes quant à elles, gardent un nombre constant d’hydrométéores par boite mais modifient l’intervalle de chaque boite. Malgré leur réalisme, ces schémas, de par le très grand nombre de variables et équations nécessaires, demandent un coût en mémoire et en temps de calcul important et ne sont donc pas utilisés en prévision numérique du temps opérationnel. Cependant, des alternatives mixant schémas détaillés et à moments ont été mises en place. Par exemple, le schéma d’Onishi and Takahashi (2012), utilise une représentation détaillée pour les espèces inter-venant dans les processus chauds (vapeur, eau liquide) et une représentation à moments pour les processus froids (glace, eau surfondue, …).
Ainsi, chaque hydrométéore peut être vu comme un réservoir dont le contenu varie en fonction des processus microphysiques. Pour représenter cette évolution, il faut prendre en compte les phénomènes de nucléation (condensation/sublimation sur des noyaux de condensation dès qu’il y a sursaturation), collision-collection (modification du moment d’ordre 0), autoconversion, accrétion (gouttelettes en pluie), aggrégation de cristaux de glace, givrage, fonte, évaporation, sublimation, éclatement de gouttelettes, sédimentation, etc. Ceux-ci, calculés uniquement si le réservoir source n’est pas vide, suivent en général des équations empiriques com-plexes. Cependant, en raison de la définition des classes d’hydrométéores, certains processus deviennent des phénomènes à seuil dans les modèles. Par exemple, à partir d’une certaine taille (seuil d’autoconversion de la pluie), les gouttes nua-geuses s’agrègent par collection pour former des petites gouttes de pluie soumises
la sédimentation. L’ordre de calcul des différents processus, propre à chaque schéma de microphysique, est important et définit la qualité du schéma. Les pro-cessus rapides interviennent en premier alors que la sédimentation agit toujours en dernier.
Parfois couplé à un schéma de diffusion horizontale, le schéma semi-lagrangien se charge ensuite d’advecter, par le vent moyen, les hydrométéores estimées par le schéma de microphysique. Enfin, un schéma de condensation sous maille vient souvent compléter le schéma microphysique, en permettant, via l’utilisation de distributions statistiques, de ne créer un nuage que sur une fraction de la maille du modèle.
Convection profonde : Pour représenter la formation de nuages cumuliformes au sein de la maille d’un modèle global, il est nécessaire de modéliser les mou-vements d’ascendance dit « updrafts » à l’origine de la convection précipitante (Bechtold, 2019a,b,c).
Ne pouvant cependant représenter toutes les ascendances réelles sous-mailles, il faut alors modéliser une ascendance moyenne représentant le mouvement verti-cal total dans la maille. Il s’agit donc de calculer un flux de masse en prenant en compte les phénomènes d’entrainement (apport d’air sec de l’environnement dans l’ascendance) et de détrainement (perte de l’ascendance dans l’environnement), tout en prenant en compte les phénomènes de microphysique générant le nuage cumuliforme (Bechtold, 2009). L’activation de ces schémas est soumis à une fonc-tion de déclenchement qui peut dépendre de la vitesse verticale (Bretherton et al., 2004) et/ou de la flottabilité (Berg and Stull, 2005). Ainsi, différentes hypothèses de fermeture ont été proposées. On compte trois principaux schémas conceptuels (Piriou, 2020). Dans un premier temps, les schémas dits Concitional Instability of the First Kind (CIFK) s’appuient sur l’hypothèse que la convection est pilotée par la Convective Available Potential Energy (CAPE), c’est à dire l’énergie dispo-nible pour qu’une particule d’air puisse s’élever et créer un cumulus. Dans ce cas, seul le mouvement ascendant est pris en compte. Dans les schémas Conditional Instability of the Second Kind (CISK), la convection est supposée pilotée par une convergence d’humidité en surface qui va générer l’ascendance. Ces modèles font donc intervenir un mouvement horizontal. Enfin, les modèles Wind Induced Sur-face Heat Exchange (WISHE) supposent une convection liée à une humidification dans les basses couches de l’atmosphère due à une forte évaporation au sol.
Tous les modèles de convection n’utilisent pas la notion de flux de masse (Bech-told, 2009). Par exemple, le schéma de Kuo (1974) se base sur un bilan d’humidité alors que le schéma de Betts and Miller (1986) calcule les tendances de tempé-rature et humidité dues à la convection à partir d’un ajustement du profil de référence de température et d’humidité. Cependant, tous ces schémas modélisent les précipitations dues à la convection profonde.
Turbulence / Convection peu profonde : Pour représenter la couche limite atmosphérique et ses tourbillons, les schémas de turbulence considèrent que ces tourbillons peuvent être représentés comme les fluctuations de température et de vent autour d’un état moyen de l’atmosphère, selon la décomposition de Reynolds (Stull, 1988). Le système d’équations obtenu à partir des équations de Navier-Stokes comprend des termes dits de Reynolds dont l’estimation est l’enjeu principal des schémas de turbulence. L’une des principales méthodes consiste à relier ces flux turbulents aux gradients verticaux de vent et température par un coefficient de diffusion (K-gradient) (Sandu, 2019a,b,c). Différentes approches ont été mises en place pour estimer ces coefficients (théorie de la similitarité de Monin-Obukhov, définition des profils de K de Troen et Mahrt,…). Pour les modèles de grande échelle, ces transports sont calculés en fonction des variables du modèle (vent, humidité, température). Cependant, pour les modèles de moyenne échelle, tels que les modèles résolvant la convection profonde, il est nécessaire de prendre en compte l’intensité de la turbulence en représentant l’évolution diurne de l’énergie cinétique turbulente.
Au delà des modèles de turbulence locale, des modèles de convection peu pro-fonde s’attachent à modéliser les ascendances et la turbulence pour la convection peu précipitante. Ces modèles utilisant la méthode Eddy-Diffusivity/Mass-Flux peuvent à la fois modéliser la turbulence de petites échelles en faisant l’analogie avec la diffusion mais aussi les thermiques (ascendance) à l’origine de la convection peu profonde avec la notion de flux de masse (Siebesma and Teixeira, 2000). Ainsi, les flux turbulents humides y sont décrits à la fois par la méthode des K-gradients et par un flux de masse.
Surface : Les schémas de surface permettent de modéliser l’évolution de la surface. Ils estiment en particulier l’évolution de la température et l’humidité du sol connaissant les caractéristiques de ce sol (relief, albédo, longueur de rugosité) et ses flux radiatifs (Balsamo, 2019a,b,c). Ainsi, chaque maille du modèle est caractérisée par différents types de surface en proportions variables (ville, végétation, mer, lac). Pour chacun d’eux, l’estimation des flux de chaleur latente et sensible définissant les tendances d’humidité et température est différente. En particulier, pour la végétation, cette estimation dépend de l’état de la végétation représentée par, entre autres, le LAI (Leaf Area Index ; Bréda, 2008). L’évolution de l’albédo est aussi prise en compte en modélisant la fonte de la neige. Notons que la température du sol et l’albédo calculés par le schéma de surface sont utilisés dans le schéma de rayonnement pour estimer le rayonnement solaire réfléchi et le rayonnement infra-rouge émis par la surface.
Ces schémas s’intéressent aussi aux effets du relief sur l’atmosphère (onde de gravité, traînée orographique, etc). Ainsi, ils calculent aussi les tendances du vent proportionnelles à la divergence du flux de quantité de mouvement tout comme le schéma de turbulence (cf ci-dessous). Comme les modèles atmosphériques repré-sentent une atmosphère commençant au premier niveau du modèle situé à quelques mètres du sol, les quantités calculées par les schémas de surface sont reportées à ce premier niveau vertical du modèle et non à la surface-même.
Aspect chaotique de l’atmosphère
Pourquoi les météorologistes ont-ils tant de peine à prédire le temps avec quelque certitude ? Pourquoi les chutes de pluie, les tempêtes elles-mêmes nous semblent-elles arriver au hasard … un dixième de degré en plus ou en moins en un point quelconque, le cyclone éclate ici et non pas là … Si on avait connu ce dixième de degré, on aurait pu le savoir d’avance, mais les observations n’étaient ni assez serrées, ni assez précises, et c’est pour cela que tout semble dû à l’intervention du hasard. Ici encore nous retrouvons le même contraste entre une cause minime, inappréciable pour l’observateur, et des effets considérables, qui sont quelquefois d’épouvantables désastres. » Henri Poincaré – Science et Méthode (1908)
En parallèle de toutes les avancées sur la modélisation de l’atmosphère, une découverte va révolutionner la vision de la prévisibilité des états futurs de l’atmo-sphère, passant d’une vision déterministe à une vision ensembliste.
Dès la fin du XIXe siècle, Henri Poincaré s’est intéressé au problème à trois corps, c’est-à-dire aux interactions gravitationelles entre 3 corps. Ces travaux me-nant à la découverte d’une sensibilité de la solution des équations aux conditions initiales, posent les axes de la théorie du chaos. En particulier, Henri Poincaré y propose de nombreux concepts spécifiques à cette théorie (espace de phases, notion de bifurcation, … ; Letellier, 2020a,b).
Par la suite, en 1963, Edward Lorenz s’est intéressé à la convection naturelle de Rayleigh-Bénard (Lorenz, 1963). Ce phénomène se produit, lorsqu’un fluide est situé dans un gradient thermique vertical important : une source chaude en dessous et une source froide au dessus. La surface chaude située en bas va ré-chauffer le fluide à son contact par conduction. Or, à partir d’une certaine valeur du nombre de Rayleigh (nombre caractérisant la proportion entre conduction et convection), le fluide va perdre en densité, être plus léger que son environnement et va donc s’élever par la poussée d’Archimède. Une fois arrivée au contact de la source froide, cette parcelle de fluide va se refroidir, s’alourdir en gagnant en densité et va donc retomber. Ces rouleaux de convection sont bien connus des atmosphériciens puisqu’ils ont lieu au sein de la couche limite et expliquent les cellules de Bénard.
Dans son étude de la convection naturelle, Edward Lorenz a simplifié les équa-tions jusqu’à obtenir un système dynamique de trois équations différentielles à 3 degrés de libertés : où x est proportionnel à l’intensité du mouvement de convection, y à la différence de température entre les ascendances et subsidences, et z à l’écart du profil ver-tical de température au profil linéaire. Les degrés de liberté sont P r le Nombre de Prandtl , Rar le nombre de Rayleigh réduit (Rar “ Ra{Rac, rapport entre le nombre de Rayleigh et le nombre de Rayleigh critique correspondant à la situa-tion où la convection commence à l’emporter sur la conduction) et β la longueur caractéristique de l’expérience β “ 8{3 ą 0.
Grâce à l’arrivée des ordinateurs, Lorenz calcule les 6000 premières itérations de la solution de ce système pour P r “ 10, Rar “ 28 et β “ 8{3. Il montre en particulier l’instabilité de la solution à long terme. En représentant la solution du système dans l’espace des phases px, y, zq à l’instar d’Henri Poincaré, Lorenz découvre que la trajectoire du système se ramène toujours à la même structure topologique quelles que soient les conditions initiales (excepté pour les conditions initiales situées aux point fixes). Cette structure en forme de papillon est aujour-d’hui connue sous le nom d’attracteur étrange de Lorenz, apportant étrangement de l’ordre dans le chaos atmosphérique. Cependant, ces trajectoires restent non périodiques, rendant le système chaotique.
Ainsi, toutes les solutions du système étant instables à long terme, le système devient sensible aux conditions initiales. Une différence minime dans ces conditions initiales amènent à long terme à des différences notoires de la position du système sur l’attracteur étrange et donc des différences notoires de l’état de l’atmosphère.
La notion de prévisibilité apparaît alors. On définit ainsi l’horizon de prévi-sibilité, l’instant au delà duquel le système initialisé par des conditions proches prend une trajectoire radicalement différente. En dessous de cet horizon de prévi-sibilité, l’erreur quadratique moyenne d’une prévision est inférieure à la différence quadratique moyenne entre deux états de l’atmosphère choisis aléatoirement (Joly and Descamps, 2009). Au delà de cet horizon de prévisibilité, il est en revanche, impossible de prévoir les états futurs de l’atmosphère.
La prévisibilité des phénomènes météorologiques est par ailleurs reliée à leur taille caractéristique. L’horizon de prévisibilité est beaucoup plus faible pour un phénomène de petite taille que pour un phénomène d’échelle synoptique. Ainsi, il est donc illusoire de chercher à prévoir une structure au delà de sa durée de vie. Par exemple, cet horizon se situe autour de huit à quinze jours pour les régimes de temps, deux à trois jours pour les dépressions, ou quatre à huit heures pour la convection profonde (cumulonimbus) (Joly and Descamps, 2009).
Enfin, d’un point de vue plus pratique, les réseaux d’observations n’étant pas parfaits que ce soit au niveau de l’incertitude de mesures ou de la répartition spatiale des stations de mesures, les conditions initiales des modèles météorolo-giques opérationnels ne peuvent être connues parfaitement. Ainsi, en raison de la sensibilité aux conditions initiales et à l’aspect chaotique de l’atmosphère vue précédemment, cette incertitude rend les prévisions météorologiques opérationnelles incertaines. Aux incertitudes des conditions initiales s’ajoutent les incertitudes des modèles eux-mêmes, pouvant amener à des prévisions différentes.
Illustration des incertitudes des modèles dans le cas d’une dépression des moyennes lati-tudes
L’objectif de cette section est d’illustrer l’incertitude de la prévision d’une dé-pression à l’aide du modèle global français ARPEGE. Plus particulièrement, on se focalisera sur les incertitudes liées à la représentation de la convection profonde mais aussi à la valeur même d’un paramètre incertain dans la représentation de la microphysique nuageuse. Ces illustrations sont tirées d’études préliminaires ef-fectuées en partenariat avec le Laboratoire de Météorologie Dynamique. Elles ont été présentées à de nombreux workshop et font l’objet actuellement d’articles sou-mis (Rivière et al., 2021; Wimmer et al., 2021) au journal Weather and Climate Dynamics dont un publié (Rivière et al., 2021).
Dépression Stalactite du 30/09/2016 au 02/10/2016 et bandes transporteuses d’air chaud
Nous allons nous intéresser à la dépression nommée « Stalactite », particulière-ment bien étudiée pendant la période d’observation intense n°6 de la campagne de mesure internationale NAWDEX (North Atlantic Waveguide Downstream impact EXperiment ; Schäfler et al., 2018). Cette dépression, née au large de Terre-Neuve le 30 septembre 2016, s’est intensifiée lors de sa traversée de l’Océan Atlantique Nord. Elle a atteint sa maturité près de l’Islande avec un minimum dépression-naire avoisinant les 960hPa le 02 octobre 2016 à 21hUTC. En particulier, quelques heures avant ce point culminant, l’avion instrumenté Falcon 20 de l’équipe Service des Avions Français Instrumentés pour la Recherche en Environnement (SAFIRE) a réalisé, entre autres, le vol F7, échantillonnant une zone soumise à de nombreux processus diabatiques dont l’estimation est incertaine, la bande transporteuse d’air chaud de la dépression. Ce vol se situant exactement dans la zone nuageuse d’as-cendance de la bande transporteuse d’air chaud (voir figure 1.3), il servira de base pour les deux illustrations de l’incertitude de la prévision du modèle ARPEGE. Cette dépression et son évolution sont particulièrement intéressantes pour plu-sieurs raisons. D’une part, cette tempête a connu un creusement explosif avoisinant les 26hPa en 24h, faisant d’elle une bombe météorologique. D’autre part, son inten-sification est étroitement liée à la prévisibilité d’un anticyclone sur la Scandinavie et d’un changement de régime de temps sur l’Océan Atlantique Nord. En effet, la figure 1.4 montre la corrélation entre le champ de géopotentiel à 500hPa de l’analyse (prévision corrigée par les observations) ARPEGE et différents régimes de temps, pendant le cycle de vie de la dépression Stalactite et le blocage (anticy-clone scandinave) succédant. Plus la corrélation avec un régime de temps est élevée, plus la situation météorologique s’apparente au régime de temps correspondant.
FIGURE 1.3 – A gauche, géopotentiel à 500hPa en couleur et pression au niveau de la mer en isoligne, le 2 octobre 2016 à 12hUTC. Le vol F7 du Falcon20 de SAFIRE réalisé pendant la période d’observation intense n°6 de NAWDEX apparaît en trait noir épais, la section verticale en gris. A droite, image dans le canal visible du capteur VIIRS du satellite Suomi NPP (NASA Worldview) avec la trajectoire du vol F7 du Falcon 20 de SAFIRE en rouge
Au niveau de l’Océan Atlantique Nord, quatre régimes de temps sont possibles. Le premier concerne les situations dites de blocage scandinave, assimilées à un anticyclone d’altitude prépondérant sur la péninsule scandinave comme décrit sur la figure 1.4b. Deux autres types de circulation avec un rail dépressionaire zonal sont possibles. Ceux-ci se basent sur l’indice d’Oscillation Nord Atlantique (North Atlantic Oscillation (NAO)), défini comme l’écart par rapport à la moyenne cli-matique de la différence de pression entre Lisbonne et Reykvajik. Lorsque cet indice est positif, donc régime de temps NAO positif, le rail des dépressions est situé plutôt vers le Nord de l’Europe, tandis que pour un indice NAO négatif, les dépressions ont tendances à aller vers le Sud de l’Europe. Le dernier régime de temps est la dorsale atlantique où un anticyclone s’étend sur l’océan Atlantique Nord, forçant les dépressions à arriver par le Nord de l’Europe. Sur la figure 1.4 a, la dépression Stalactite naît dans un régime NAO positif assez marqué. Mais au cours de maturation de la dépression, un régime de blocage va se mettre en place, suggérant une intensification d’un anticyclone sur la Scandinavie. Ce changement de situation, coïncidant avec la phase de maturation du cyclone extra-tropical, est ainsi étroitement lié à la dynamique de la dépression. Il est donc fondamen-tal de bien prévoir l’évolution de la tempête et de son impact sur l’ondulation du Jet Stream et l’anticyclone d’altitude en aval du jet. Plus particulièrement, la zone d’intérêt se situe dans la bande transporteuse d’air chaud de la dépression Stalactite.
Table des matières
Introduction
I Prévision d’Ensemble
1 Incertitudes des modèles de prévision du temps
1.1 Prévision Numérique du temps
1.1.1 Modèles globaux
1.1.2 Modèles régionaux
1.2 A quoi ressemble un modèle de prévision numérique du temps ?
1.2.1 Coeur dynamique
1.2.2 Paramétrisation physique
1.3 Aspect chaotique de l’atmosphère
1.4 Illustration des incertitudes des modèles dans le cas d’une dépression des moyennes latitudes
1.4.1 Dépression Stalactite du 30/09/2016 au 02/10/2016 et bandes transporteuses d’air chaud
1.4.2 Incertitudes liées à une paramétrisation : sensibilité aux schémas de convection profonde
1.4.3 Incertitudes liées à la paramétrisation-même : sensibilité aux paramètres de la microphysique
2 Représenter la distribution de probabilité de l’état de l’atmosphère via la Prévision d’Ensemble
2.1 Perturbation des conditions initiales
2.1.1 Perturbation aléatoire
2.1.2 Perturbation des modes instables de la dynamique
2.1.3 Assimilation d’Ensemble
2.1.4 Descente d’échelle des modèles ensemblistes globaux
2.2 Perturbation des conditions de surface
2.2.1 Perturbation des schémas de surface
2.2.2 Perturbation des analyses de surface
2.2.3 Perturbation de la topographie
2.3 Perturbation des conditions de bords pour les modèles à aire limitée
2.3.1 A partir de prévisions d’ensemble globales
2.3.2 A partir de prévisions globales déterministes
2.4 Erreurs de modélisation dues aux paramétrisations
2.4.1 Approche multi-modèles
2.4.2 Approche multi-physiques
2.4.3 SKEB
2.4.4 SPPT
2.4.5 Perturbation de paramètres
2.4.6 Paramétrisations physiques stochastiques
2.5 Perturbation de la dynamique
2.6 Évaluation des systèmes de prévision d’ensemble par des scores probabilistes
2.6.1 Scores déterministes
2.6.2 Diagramme de Talagrand – Histogramme de rang
2.6.3 Diagramme de fiabilité
2.6.4 Courbe ROC
2.6.5 Brier et CRPS
2.6.6 Rapport Dispersion/Erreur
2.6.7 Calcul des scores probabilistes
3 Prévision d’Ensemble AROME : Outils et objectifs
3.1 AROME
3.1.1 Coeur dynamique
3.1.2 Paramétrisations physiques et dynamiques
3.2 Prévision d’Ensemble régionale PEARO
3.2.1 EDA : l’Assimilation d’Ensemble AROME
3.2.2 Perturbation de la surface
3.2.3 Couplage avec la PEARP
3.2.4 Erreurs de modélisation
3.3 Objectif de la thèse : perturbation des paramètres d’entrée des paramétrisations
3.3.1 Limite de la méthode SPPT
3.3.2 Test des méthodes de perturbations de paramètres dans la PEARO
II Analyse de sensibilité du modèle AROME aux paramètres incertains des paramétrisations physiques et dynamique
4 Des méthodes d’analyse de sensibilité locales aux méthodes globales
4.1 Principe des analyses de sensibilité
4.2 Etape 2 : plan d’expérience
4.3 Etape 4 : Mesure de l’influence et utilisation des indices de Sobol’
4.4 Méthode de Morris
5 Application des méthodes d’analyse de sensibilité globale au modèle AROME
5.1 Identification d’une liste de paramètres incertains
5.2 Choix de la sortie d’AROME pour analyser l’impact des paramètres
5.3 Configuration des méthodes de Morris et de Sobol’
5.3.1 Choix des paramètres de Morris
5.3.2 Estimation des indices de Sobol’
5.4 Réduction du coût de calcul
6 Sensibilité du modèle AROME à divers paramètres d’entrée des paramétrisations
6.1 Résumé de l’article
6.2 Article
III Représentation des erreurs de modélisation dans la PEARO
7 Optimisation des méthodes de perturbations de paramètres
7.1 Échantillon de 1000 PP à partir du jeu de données de l’analyse de sensibilité
7.2 Optimisation de la méthode PP selon le CRPS
7.3 Optimisation de la méthode RPP
7.3.1 A partir de distributions gaussiennes
7.3.2 A partir des distributions du B-CRPS-PP
7.3.3 A partir des distributions des 50 meilleurs B-CRPS-PP et du plan d’expérience de Morris
7.3.4 A partir des distributions obtenues avec un émulateur de CRPS
7.4 Réduction à la perturbation de 8 paramètres
8 Évaluation des nouvelles méthodes de représentation des erreurs de modélisation
8.1 Evaluation globale des méthodes PP et RPP
8.1.1 Impact de la perturbation de paramètres
8.1.2 Impact de l’optimisation selon le CRPS
8.1.3 Optimisation selon une ou 3 saisons
8.1.4 Réduction à 8 paramètres
8.2 Optimisation de la méthode PP
8.3 Optimisation de la méthode RPP
8.4 Configuration opérationnelle
8.5 Caractéristique des différentes représentations de l’erreur de modélisation
8.5.1 Biais des membres du B-CRPS-PP
8.5.2 Différence de dispersion entre l’été 2018 et 2020
8.6 Evaluation des méthodes de représentation des erreurs de modélisation sur différents cas d’étude
8.6.1 Cas de convection sur la France
8.6.2 Cas de la tempête Gabriel
8.6.3 Bilan des études de cas
8.7 Synthèse des résultats
Conclusion
Annexes
A Impact des schémas de convection profonde sur la dynamique de la dépression Stalactite i
B ANASYG – Représentation schématique des situations météorologiques