Le Système Global d’Observation des Océans

Apport des données Argo

L’observation opérationnelle de l’océan est ainsi devenue une réalité. La capacité d’observer l’océan en temps réel via les mesures des satellites et via les réseaux in-situ comme Argo ont permis la mise en place de modèles d’analyse et de prévision de tout l’océan analogues aux modèles métérologiques. Ainsi le centre Mercator Océan fournit maintenant en routine des analyses et prévisions océaniques sur l’ensemble des océans. Des cartes de prévisions à 5, 7 ou 14 jours des courants, température, salinité sont actualisées de façon quotidienne ou heb- domadaire. A ce jour le réseau Argo représente une des plus importantes sources de données in-situ en assurant une couverture globale spatiale et temporelle. Le nombre d’études utilisant les données Argo grandit et des résultats notables ont été obtenus 3. Les données Argo sont également utilisées de manière systématique au sein des systèmes d’océanographie opérationnelle. Il est donc nécessaire de continuer acquérir une bonne connaissance de “la donnée Argo” et de ses limitations pour une utilisation optimale et une pérennisation du réseau.
Les flotteurs Argo ont permis de combler les manques significatifs présents dans le réseau global d’échantillonnage de l’océan (Roemmich and the Argo Steering Team [2009]). Ainsi, ils fournissent des informations très utiles quant à l’estimation de l’état en surface des océans et de la structure 3D de la température et de la salinité. Les cartes globales du niveau de la mer obtenues par altimétrie satellitaire, à des échelles hebdomadaires comme annuelles, peuvent maintenant être interprétées grâce à une meilleure connaissance complète de la structure tridimensionnelle des champs de température et de salinité. Dès lors les modèles océaniques globaux et climatiques peuvent être plus précisément initialisés, testés, et contraints.
(Guinehut et al. [2012]. De plus Juza et al. [2011b,a] ont montré, en particulier, que le réseau Argo est un système d’observations in-situ bien adapté à l’étude d’indices climatiques. Notamment il capture une grande partie de la variabilité saisonnière et interannuelle du contenu thermique de l’océan global.
Depuis le déploiement du réseau Argo la communauté océanographique a démontré les apports essentiels des données Argo dans les systèmes d’assimilation de données et de modélisation numérique, ainsi que leur cohérence avec les données altimétriques et les autres types de données in-situ (documentés dans Roemmich and the Argo Steering Team [2009]). Les études conduites par la communauté au sein de GODAE4 détaillées dans Oke et al. [2009] exposent les différentes approches utilisées pour quantifier l’impact de ces observations dans des systèmes avec assimilation de données. Il est usuel de quantifier l’impact des observations au sein d’un système de prévisions/analyse sous la forme d’OSEs 5 (Oke and Schiller [2007],
Smith and Haines [2009] et Oke et al. [2014]). Mercator Océan met régulièrement en oeuvre ces techniques pour quantifier l’apport des données Argo. Les récentes études menées (Turpin et al. [2015]) mettent en évidence l’apport très important des données Argo au niveau global et régional. Une réduction de la couverture du réseau Argo dégrade systématiquement et de façon marquée la qualité des analyses et prévisions océaniques. D’autre part les résultats d’une étude réalisée au CEP- MMT6, basée sur la même approche que celle décrite pour le système de Mercator Océan montrent l’importance des observations Argo pour initialiser des modèles couplés océan/atmosphère pour la prévision saisonnière (Oke et al. [2014]). Enfin l’OSE utilisant le système MOVE-G d’assimilation de données japonais souligne que l’impact des données Argo est plus important en salinité qu’en température. Ce résultat est cohérent avec les conclusions des études passées (Oke and Schiller [2007]).

Objectifs de la thèse

Les systèmes d’observations océaniques fournissent aux océanographes un grand nombre d’estimations de diverses quantités géophysiques (température, salinité, niveau de surface de la mer, vitesses des courants . . . ) à des résolutions spatiales et temporelles hétéroclites. De telles observations peuvent être utilisées pour créer des références communes sous forme d’atlas climatologiques construits sur de longues périodes (World Atlas Ocean documenté dans Levitus et al. [1998, 2005, 2013]). La description de l’état complet de l’océan et la prévision de son évolution nécessitent cependant d’intégrer ces observations dans des systèmes d’assimilation. On combine alors les observations avec un modèle océanique. Par conséquent caractériser les erreurs du modèle est alors primordial. Celles-ci peuvent être évaluées par comparaison entre la quantité simulée et la quantité observée. On attend de la part des modèles océaniques qu’ils parviennent à représenter certaines caractéristiques décisives de l’état et de la variabilité physique de l’océan. Grâce aux données Argo il est maintenant possible d’évaluer ces caractéristiques à différentes profondeurs en température et en salinité. Dans cette thèse nous confrontons les observations Argo et une simulation numérique libre dans le but d’évaluer la capacité d’un modèle de circulation générale au 1/4° dont elle est issue, à reproduire correctement les caractéristiques principales de la circulation océanique. Les études Kamenkovich et al. [2009, 2011], Vecchi and Harrison [2005], Guinehut et al. [2012] et Oke et al. [2014] s’intéressent aux capacités de reconstructions de divers champs océaniques à l’aide des observations Argo. Certains facteurs tels que les mouvements des flotteurs, leurs cycles d’échantillonnage, les tourbillons à méso-échelles peuvent influencer la qualité et la précision des résultats obtenus. Analyser de tels facteurs est essentiel à la compréhension des limitations du système d’observations Argo. Certaines étapes préliminaires aux estimations statistiques réalisées dans cette thèse ont été effectuées dans le but d’évaluer l’impact de facteurs tels que le nombre et les mouvements des flotteurs selon les régions ob- servées. Nos choix en ce qui concerne l’approche d’estimation en tiendront compte.
Plusieurs études témoignent des nouvelles analyses scientifiques rendues possibles grâce au réseau global Argo. Cependant ce potentiel implique un besoin de validation et de contrôle de qualité au sein de ce large jeu de données. En effet, Gaillard et al. [2009] et Roemmich and Gilson [2010] soulignent que connaître les variations des échelles spatiales en température et salinité est nécessaire pour améliorer les contrôles de qualité mais aussi pour caractériser au mieux la dynamique océanique et spécifier les schémas d’assimilation de données. L’un des objectifs de cette thèse concerne la caractérisation des échelles spatiales et temporelles en température et salinité de la surface à 1500 m, et il a été motivé par plusieurs faits :
– L’assimilation de données permet en pratique de déterminer la meilleure combinaison entre les observations et un des états à priori de l’océan représenté par un modèle numérique. Une part importante en assimilation de données consiste à déterminer dans quelle mesure le modèle est réaliste. Il s’agit de lui affecter un poids approprié dans le but d’approcher la réalité et d’améliorer les capacités d’analyse et de prévision du modèle. Ce poids doit prendre en compte les échelles spatio-temporelles des erreurs modèles (qui sont souvent approximées par les échelles du signal océanique lui même).
– Le système d’assimilation de Mercator Ocean basé sur la formulation SEEK utilise des informations sur les échelles de corrélation. En effet une caractéristique importante au sein de cette formulation est la spécification de la matrice de covariance d’erreurs de prévision du modèle. Sa définition repose sur une technique de localisation impliquant l’utilisation d’échelles de corrélation spatiales. Parce que la matrice de covariance d’erreurs de prévision du modèle est construite à partir d’un nombre fini d’anomalies de l’état de l’océan, on choisit de mettre à zéro les covariances à partir d’une certaine distance définie comme étant deux fois l’échelle de corrélation spatiale. Ce choix est légitime du fait que l’ensemble fini des anomalies n’est plus significatif à partir d’une certaine distance du point d’analyse. Ces échelles ont été estimées jusqu’à présent en surface via les anomalies des hauteurs d’eau observées par satellites (SLA, SSALTO/DUACS), et à faible profondeur (100 et 300 m) à partir de champs 2D en température issus de la ré-analyse globale au 1/4◦ GLORYS2V1 (GLobal Ocean ReanalYsis ans Simulation, Ferry et al. [2012]; Lellouche et al. [2013]). Cependant Kessler et al. [1996], Jacobs et al. [2001] ont souligné des dépendances en fonction des latitudes et de la profondeur au sein des échelles spatiales. Il s’agit donc de poursuivre au mieux la caractérisation des échelles spatiales en température et salinité de la surface à 1500 mètres, ainsi que leur variation en fonction de la profondeur, et des latitudes et longitudes.
– Par ailleurs ces échelles permettent aussi de définir une “bulle d’influence” au voisinage du point d’analyse et d’y sélectionner les données utilisées (Lellouche et al. [2013]). Les observations utilisées dans le cadre de l’assimilation de données possèdent une contribution différentes selon leurs nature et qualité (Turpin et al. [2015]). Il est donc intéressant de savoir mesurer objectivement la quantité d’information apportée par les données Argo par comparaison aux observations de natures différentes composants les jeux de données assimilés.
On dispose également d’outils permettant d’évaluer la contribution relative des observations dans n’importe quel système d’assimilation de données : l’un d’eux est le DFS pour Degrees of Freedom. La notion de DFS permet d’estimer la contribution relative des observations mais il est aussi intéressant de comprendre le lien entre les échelles de corrélation spatiales et la contribution relative des observations. Cette dépendance est illustrée par la suite avec un exemple simplifié pour ensuite tester différentes méthodes de calcul approximatif du DFS applicables facilement à des systèmes d’assimilation tel que celui opéré à Mercator Océan.

Structure du manuscrit

Dans cette thèse j’ai tout d’abord exploité les observations hydrographiques issues du réseau Argo, pour caractériser les erreurs d’un modèle global au 1/4° n’ayant pas assimilé de données Argo (chapitre 3). Dans ce contexte, il a fallu utiliser des méthodes d’interpolation afin d’extraire de la simulation numérique choisie pour l’étude, le pendant exact (en temps et en espace) des observations Argo. Cette étape correspond à la colocalisation au point d’observation des sorties modèles en température et salinité. Dans un deuxième temps j’ai effectué un traitement statistique en temps et en espace dans le but d’obtenir les erreurs modèles moyennes ainsi que les variances d’erreurs en température et salinité en surface et en profondeur. L’analyse de ces résultats permet d’évaluer le comportement de la simulation numérique au regard des observations Argo.
La variabilité océanique possède une large gamme d’échelles spatiales et temporelles.
Afin d’étudier plus finement la manière dont cette simulation numérique reconstruit les champs océaniques de température et de salinité, nous avons caractérisé les échelles spatiales des erreurs modèles et du signal océanique lui même (chapitre 4). J’ai développé une méthode pour l’estimation de ces échelles spatiales à partir des observations Argo. Une analyse de l’impact de l’échantillonnage du réseau Argo sur l’estimation de ces échelles grâce à des simulations et un calcul d’erreur formelle ont été menés. Les échelles spatiales de corrélation en température et en salinité de la surface à 1500 m ont été, enfin, calculées à partir d’anomalies par rapport à la climatologie et par rapport aux sorties modèles sur une période de plusieurs années. Les résultats ont été analysés afin de mettre en évidence les variations géographiques de ces échelles, les variations en profondeur et les variations entre température et salinité.
Dans un troisième temps, j’ai analysé les méthodes basées sur le contenu en information. Ces méthodes permettent de mesurer directement l’impact ou la contribution relative des observations dans un système d’assimilation comme celui mis en oeuvre à Mercator Ocean. J’ai mené une étude de sensibilité (bruit de mesure, longueur de corrélation) et testé différentes méthodes permettant d’approximer le contenu en information dans un contexte d’analyse objective. Ces tests ont permisde déterminer la formulation qui conviendrait le mieux à une implémentation dans le système d’assimilation de données de Mercator Ocean.

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *