Étude sur l’épaisseur du brouillard
Dans la section précédente, la simulation du cas observé lors de la POI-13 a permis demontrer que le modèle Code_Saturne Atmo était capable de reproduire correctement les principaux processus mis en jeu dans le brouillard depuis sa formation jusqu’à sa dissipation, même si l’épaississement des couches stables reste un point faible de nos simulations.
En revanche, une faible épaisseur du brouillard a été observée pendant la phase de formation, notamment entre l’heure de formation et 03 TU. D’après les radiosondages de 00 TU et 03 TU, nous pouvons clairement observer que la couche de brouillard était d’environ 170 m à 00 TU atteignant environ 200 m à 03 TU (Fig. 3.11).
Simulation démarrant à 21 TU
Dans cette simulation, on n’a pas de terme de rappel au forçage de grande échelle. L’évolution du brouillard est donc fortement dépendante des champs initiaux. Partant d’un état initial plus proche de l’heure de formation du brouillard, l’épaississement de la couche de brouillard est mieux reproduit que dans la simulation démarrant à 12 TU. Les hauteurs du brouillard à 00 TU et 03 TU sont environ 50 m (contre 10 m) et 100 m (contre 30 m) respectivement (voir la figure 3.12). Cette amélioration pourrait être liée à la phase de transition entre couche instable et couche stable.
À 21 TU, les couches stables au voisinage du sol sont déjà présentes dans la figure 3.11. L’inversion thermique au voisinage du sol favorise la formation, l’air plus chaud se trouvant au dessus de l’air froid. La couche limite atmosphérique est donc dans un état 82 Ch.3 – Étude détaillée du brouillard à l’aide d’un modèle colonne thermiquement stable conduisant à une turbulence relativement peu développée, ce qui facilite l’apparition du brouillard. Dans le cas démarrant à 12 TU, bien avant l’heure de formation du brouillard, le modèle va très rapidement oublier ses conditions initiales. Dans ces conditions, sur cette situation où les processus d’advection ne sont pas totalement négligeables, l’ajout d’un terme de forçage est important et l’on ne peut se contenter de la modélisation des équilibres verticaux locaux décrit par le modèle 1D.
En regardant les résultats sur la visibilité mesurée à 2 m (Fig. 3.12(b)), on constate que l’apparition du brouillard a lieu à peu près à la bonne heure. Cependant, sa dissipation se produit un peu trop tard. De plus, on constate que le contenu en eau liquide nuageuse prévu est trop élevé, avec un maximum 0.9 g:kg1 (valeurs observées dans des brouillards : 0.1 à 0.5 g:kg1). C’est peut être dû à la sous-estimation par notre modèle du mélange vertical par la turbulence ralentissant l’épaississement de la couche de brouillard par érosion de l’inversion, la sédimentation n’étant pas assez efficace pour diminuer les contenus en eau liquide. La comparaison aux températures mesurées à différents niveaux sur le mât nous montrent une forte sous-estimation par notre modèle, d’environ 2.5 C pendant la phase de formation du brouillard mais aussi tout au long de sa phase de développement. Cela se traduit par une apparition trop rapide du brouillard et par une légère surestimation de la teneur en eau liquide dans la partie basse de la couche de brouillard. Si l’on s’intéresse au flux de chaleur sensible,on constate une surestimation du flux au cours de l’évolution de brouillard (depuis sa formation jusqu’à sa dissipation vers 8-9 TU) ce qui traduit bien que les couches au voisinage du sol ne sont pas assez mélangées thermiquement. Le transport turbulent n’étant pas assez efficace, les gouttelettes crées par refroidissement radiatif sont retenues dans la partie basse de la couche de brouillard. Ceci conduit aussi à sous-estimer son développement vertical. Notre modèle semble avoir du mal à éroder au cours du temps la forte inversion sommitale comme en témoigne l’évolution des profils de température présentée sur la figure 3.12(e). Il faut toutefois relativiser cette analyse pour les premiers instants de simulation où l’équilibre du modèle n’est peut être pas atteint.
Dans ce contexte il est intéressant de regarder la sensibilité de notre modèle aux valeurs de viscosité turbulente.
Influence de la viscosité turbulente
Les échanges turbulents sont caractérisés par des flux turbulents verticaux (pour le vent, la température potentielle et la vapeur d’eau). Dans cette simulation sans nudging, on donne un seuil minimum pour le coefficient de viscosité turbulente min = 0:05 m2:s1.
D’après la figure 3.13, on constate que les résultats concordent bien mieux avec les observations. Le brouillard apparaît à la bonne heure (Figs. 3.13(a) et 3.13(b)), il se forme à partir du sol par refroidissement radiatif (Fig. 3.13(c)) et puis prend de l’ampleur sur la verticale. La hauteur de la couche de brouillard atteint environ 80 m à 00 TU et 170 m à 03 TU. Cette hauteur se compare mieux aux mesures que dans le cas de la simulation précédente. La répartition de l’eau liquide nuageuse sur la verticale semble aussi plus réaliste avec maximum 0.65 g:kg1. Pour les profils verticaux, la hauteur de la couche d’inversion à 00 TU n’est pas vraiment améliorée, mais cela semble plus lié à la structure thermique au dessus de la couche de brouillard où le très léger réchauffement des couches supérieures entre 21 TU et 00 TU n’est pas reproduit ainsi que le brutal refroidissement entre 00 TU et 06 puisque le profil modélisé n’évolue que sous l’effet du refroidissement radiatif modélisé. Ceci illustre bien la nécessité de tenir compte du forçage atmosphérique de plus grande échelle.
Toutefois cette analyse doit être nuancée puisque nous ne sommes pas tout à fait sûrde l’exactitude du radiosondage de 00 TU.
De plus, la phase de dissipation n’est pas reproduite correctement. Comme le cas précédent, le modèle prédit une surestimation de contenu de l’eau liquide entre 09 TU et 12 TU, qui se traduit par la présence de brouillard au lieu d’un stratus près du sol (Fig. 3.13(b)). Le stratus se forme par l’évolution du brouillard puis se développe en liaison avec le refroidissement advectif observé entre 00 TU et 06 TU au dessus de la couche de brouillard (Fig. 3.13(e)). Au moment où le brouillard se dissipe, on observe un changement du gradient de température (Fig. 3.13(c)) au voisinage du sol avec une configuration compatible avec le réchauffement du sol par le rayonnement solaire. Au vu de ces résultats, il est intéressant de voir l’apport de la prise en compte des effets advectifs par l’utilisation de la technique du nudging.
Influence du nudging
Dans cette simulation, on choisit de prendre un coefficient de nudging faible près du sol, un plus fort à 15 km, et variant linéairement avec l’altitude : Cn = 105+6:6 103(z).
On constate ici (Fig. 3.14) que le fait ou non d’imposer un terme d’advection à travers la technique de nudging change les résultats, notamment l’évolution du contenu en eau liquide nuageuse et de la visibilité horizontale pour la phase de dissipation. Les résultats obtenus sont satisfaisants. Les heures de formation et dissipation concordent bien avec les observations. En plus, on constate que les profils verticaux sont plus lissés dans cette simulation conformément aux observations. La répartition de l’eau liquide nuageuse est aussi plus homogène. Toutefois cette prise en compte ne permet pas totalement de bien décrire l’évolution des profils de température au dessus de la couche de brouillard et notamment le refroidissement observé entre 00 TU et 06 TU (Fig. 3.14(e)) ce qui donnerait envie d’encore renforcer le coefficient de nudging dans cette couche. On voit donc, comme on pouvait s’y attendre, que nos résultats sont fortement influencés par la prise en compte de ce nudging. Il est donc intéressant de mesurer la sensibilité de notre modèle au coefficient de nudging.
Bilan
Dans cette partie, nous avons effectué quatre simulations avec des conditions initiales identiques (démarrant à 21 TU), l’une sans advection, puis avec un seuil minimum de viscosité turbulente, et les deux autres avec un terme de rappel au forçage de grande échelle (forte ou faible valeur du coefficient de nudging).
La première expérience illustre la nécessité de maintenir de la turbulence dans les couches stables même une faible valeur, ce que ne semble pas être capable de reproduire notre modèle k » sans « clipping ». Comme attendu la bonne modélisation de la turbulence dans les couches stables est essentielle pour bien décrire la formation du brouillard.
Néanmoins cette formation résultant aussi du refroidissement infrarouge des couches atmosphérique au voisinage du sol, une étude plus détaillée de la capacité des modèles de rayonnement à bien le reproduire serait nécessaire.
En ce qui concerne le nudging, son maniement pour reproduire le forçage atmosphérique dus aux phénomènes advectifs est délicat. Une trop faible valeur ne permet pas de prendre en compte des changements brutaux mais une valeur trop forte empêche les équilibres du modèle de se mettre en place.
Comme nous l’avons déjà mentionné lors que l’analyse de nos résultats pour le cas démarré à 12 TU, l’épaississement de la couche de mélange est assez sensible au choix de la fermeture turbulente. Aussi les résultats sont sensiblement différents sur l’énergie cinétique turbulente. Un même type d’étude est effectué avec le modèle de Louis. Les résultats sont présentés en annexe A. On retrouve en grande partie les mêmes constats si ce n’est que le modèle de Louis utilisant un nombre de Richardson critique de 0.5 en stable est beaucoup moins sensible à l’utilisation d’un min même si cela améliore un peu les résultats.
Objectif de l’étude
Lorenz (Lorenz, 1965) a montré que la prévision parfaite du temps ne peut être atteinte, car i) les équations du comportement atmosphérique ne sont pas encore parfaitement connues et sont seulement des approximations, et ii) l’état initial n’est pas parfaitement déterminé. En fait, même un modèle parfait ne pourrait produire une prévision parfaite, car les erreurs dans les conditions initiales iront en s’amplifiant lors de la prévision et celle-ci divergera de la réalité, le système atmosphérique étant chaotique.
Cette difficulté provient pour une part de la complexité des mécanismes physiques mis en oeuvre lors du passage à la saturation. Ce phénomène à seuil est très sensible aux conditions initiales, mais aussi à l’équilibre délicat entre les échanges radiatif, la turbulence et les processus microphysiques dépendant entres autres de la nature et de la taille des aérosols servant de noyaux de condensation. Dans ce domaine les modèles 3D de méso-échelle n’ont pas encore la résolution verticale suffisante pour décrire cet équilibre notamment en cas de stratification thermique stable même si l’on a vu que cela restait une difficulté pour la modélisation 1D.
Aussi, aujourd’hui encore l’approche 1D est utilisée à des fins opérationnelles (Bergot et al., 2005). Dans ce domaine des progrès sensibles ont été réalisés en améliorant sensiblement la connaissance de l’état initial par assimilation de données locales à l’aide de techniques variationelles. Il reste que, dans ces approches, le couplage avec un modèle de méso-échelle par détermination directe des termes d’advection horizontale n’a pas donné les améliorations escomptées en raison notamment de la nécessité de lisser les gradients horizontaux obtenus directement à partir des sorties des modèles opérationnels.
Dans ce chapitre, nous nous proposons de revisiter ces conclusions en utilisant des techniques d’assimilation de données déjà anciennes mais simples de mise en oeuvre, basée sur des techniques de Cressman pour l’interpolation sur la verticale et de « nudging » pour le forçage synoptique à méso-échelle. La démarche que nous avons suivie est la suivante.
Dans une première étape le modèle 1D a été validé sur les situations les mieux documentées de l’expérience ParisFog. Ce travail présenté dans Zhang et al. (in revision) a permis de définir une version de référence du modèle. Cette version est à l’état de l’art en ce qui concerne la turbulence, la représentation des nuages dans les modèles de transfert radiatif, la modélisation de la nucléation et de la sédimentation à l’aide d’un modèle semi-spectral donnant accès à la distribution en taille de gouttes d’eau. Dans ce travail la technique d’assimilation de données par Cressman et nudging a été utilisée pour simuler l’évolution de la couche de brouillard dans des conditions les plus proches possibles des observations afin de tester les différentes paramétrisations déjà évoquées.
Nous proposons d’utiliser le modèle 1D en mode prévision durant l’ensemble de la campagne ParisFog afin d’étudier l’apport d’un couplage avec le modèle de méso-échelle MM5. Nous présentons d’abord la méthodologie utilisée (conditions initiales, forçage atmosphérique, . . . ), les scores statistiques utilisés, puis les résultats obtenus pour différentes options concernant le nudging sont présentés.
Méthodologie
Afin de tester cette méthode nous avons travaillé sur l’ensemble de la période Paris- Fog, de novembre 2006 à mars 2007, pour laquelle nous disposions de toutes les données nécessaires à cette étude. Ainsi nous réalisons chaque jour une prévision à 36 h en partant 92 Ch.4 – Étude statistique durant la campagne ParisFog de 00 TU ou 12 TU, heures où les données du radiosondage de Trappes sont disponibles pour initialiser le modèle.
Condition initiale
La reconstruction d’un champ initial est une étape importante, la restriction du nombre et de la qualité des données oriente la manière d’initialiser le modèle. On va donc lister d’abord les différentes données disponibles pendant la période simulée.
1. Les données issues du modèle MM5 (The Fifth-Generation NCAR/Penn State Mesoscale Model) sur 4 jours, de J à J + 3. Il est installé et utilisé en prévision expérimentale quotidienne au LMD à l’École Polytechnique pour une prévision à 96 h à partir des réseaux de 00 TU. Il prévoit et simule l’ensemble des paramètres météorologiques avec notamment une description explicite des nuages avec une résolution horizontale d’environ 5 km. On peut observer des écarts importants entre les valeurs données par ce modèle et les mesures in-situ au voisinage du sol.
2. Les radiosondages de Trappes. Ces radiosondages fournissent des données sur la température, l’humidité, le vent et la pression. Ces données sont en général assez fiables malgré quelques données manquantes. Au voisinage du sol, dans les premières centaines de mètres, elles peuvent aussi s’écarter des mesures du SIRTA à Palaiseau en raison de la variation des conditions locales entre Trappes et Palaiseau distants d’environ 23 km.
3. Les mesures des mâts de 30 mètres installés en zone 1 et zone 3 sur le site du SIRTA.
Pour nos simulations, le modèle est initialisé à 00 TU (ou 12 TU) en utilisant les radiosondages du Trappes en couplant avec les données du mât pour les niveaux bas.
Pour compléter l’initialisation, on utilise les données provenant du dispositif dans le sol du SIRTA pour calculer la température profonde dans le sol, intervenant dans le bilan énergétique de surface comme température de rappel. Celle-ci est considérée comme égale à la moyenne sur les 5 derniers jours de la température mesurée à -50 cm.
Un contrôle des données a été effectué afin de retirer les situations où des données sont manquantes ou manifestement erronées, comme par exemple dans le cas de température en K négative. Au total 55 échantillons sont retenus pour cette étude, dont 4 échantillons seront retirer lors du calcul de l’occurence des situation de brouillard (en raison des données erronées de visibilité).