Cycle de plongée et flux de données Argo
Les flotteurs Argo dérivent au grè des courants à une profondeur nominale de 1000 mètres. Tous les 10 jours, ils exécutent un cycle identique préprogrammé de descente, dérive en immersion, descente à l’immersion maximale et remontée.
Pendant les quelques heures de remontée, ils mesurent la température et la salinité (via la conductivité) de 2000 mètres à la surface. En surface, les données sont alors transmises aux satellites (ARGOS ou Iridium) obtenant une série des positions des flotteurs et de profils de mesure. Lorsque cette transmission est terminée, le flotteur revient à sa profondeur de parking jusqu’au prochain cycle. Les données
Argo sont disponibles selon deux modalités :
– en temps réel, où seules des corrections automatiques sont faîtes,
– en temps différé, où des corrections sont réalisées par des experts scientifiques.
Résultats prometteurs du réseau Argo
Une revue de l’apport des données Argo pour l’océanographie est donnée dans Freeland et al. [2010]. Les utilisations de ces données sont nombreuses et variées.
Les données Argo ont tout d’abord un apport majeur pour l’analyse et la prévision océanique. Elles sont systématiquement utilisées dans les systèmes d’océanographie opérationnelle et possèdent un fort impact sur la qualité des analyses et prévisions océaniques (Martin et al. [2014]; Turpin et al. [2015]). Les observations Argo sont aussi très utiles pour l’initialisation de modèles couplés océan/atmosphère pour la prévision saisonnière et, à terme, la prévision décennale. Enfin le réseau Argo est devenu un outil indispensable pour l’étude du changement climatique et du rôle de l’océan sur le climat. Les données permettent de caractériser par exemple, très précisément le réchauffement de l’océan (Von Schuckmann and Le Traon [2011]) et les évolutions de salinité liées au changement du cycle hydrologique (Durack and Wijffels [2010]).
Participation très active de la France
La France est très active dans tous les aspects du programme Argo : développement de l’instrumentation (flotteurs Provor et Arvor et leurs dérivés), contribution au réseau par le déploiement de 60 à 80 flotteurs/an (soit environ 8% de l’effort international), centre de données (un des deux centres mondiaux de traitement se trouve au centre Coriolis de Brest), validation des mesures, recherche (circulation océanique, climat, biogéochimie) et océanographie opérationnelle (via Mercator Océan et Copernicus/MyOcean). La contribution française à Argo est coordonnée au sein de la structure inter-organismes Coriolis (composante in situ de l’océanographie opérationnelle) coordonnée par l’Ifremer et qui regroupe les principaux organismes français impliqués dans l’océanographie (CNES,CNRS/INSU, Ifremer, IPEV, IRD, Météo-France, SHOM). La France coordonne également la contribution européenne (Euro-Argo) et accueille depuis 2014 la structure légale européenne Euro-Argo ERIC 4 sur le site de l’Ifremer à Brest.
Les nouveaux défis pour Argo
La première priorité et le premier défi pour Argo sont de maintenir le réseau actuel sur le long terme. Le second défi pour Argo est de faire évoluer le réseau pour répondre à de nouvelles questions scientifiques et élargir son domaine d’applications.
L’observation des mers marginales est à la portée de la technologie actuelle, celle des zones polaires, complexe du fait de l’absence de possibilité de transmission directe en zone couverte de glace et des conditions climatiques extrêmes fait l’objet de travaux expérimentaux. Des évolutions majeures sont, en revanche, nécessaires pour l’observation de l’océan sous 2000 mètres et pour l’étude de la biogéochimie
et des écosystèmes marins. Les mesures profondes sont nécessaires pour le suivi du climat et la prévision décennale et à plus long terme. Elles sont aussi importantes pour mieux comprendre les mécanismes de la montée du niveau moyen des mers. L’évolution d’Argo vers la biogéochimie est particulièrement prometteuse (Claustre et al. [2010]).
Mercator Ocean, Centre francais d’analyse et de prévision océanique
Histoire et projets européens
Mercator Océan est un opérateur français de services en information océanique temps réel et différé : c’est le centre français d’analyse et de prévision océanique.
Les systèmes numériques et les modèles développés par Mercator Océan sont capables de décrire l’état physique de l’océan à tout instant, en surface comme en profondeur, à l’échelle du globe ou d’une région du globe : température, salinité, hauteur de mer, épaisseur des glaces, des courants. Mercator Océan délivre ses produits océanographiques (analyses et prévisions, bulletins et cartes) et fournit son expertise partout dans le monde.
Les années 2000 ont été marqués par le projet européen d’océanographie opérationnelle, « MyOcean » qui visait la mise en place (définition, conception, développement et validation) d’une capacité européenne intégrée pour la surveillance, l’analyse et la prédiction des océans, en s’appuyant sur l’ensemble des compétences et moyens existants au niveau européen. Le projet « MyOcean » s’est appliqué à uniformiser les capacités propres en océanographie de chaque pays européen. Les challenges au sein de « MyOcean » étaient :
– d’éviter les duplications de moyens
– de rendre tous les sous-systèmes européens interopérables
– de définir et de faire appliquer les mêmes procédures (standards, normes de qualité) de développement et de qualification opérationnelle à chaque système
– de définir une architecture et une organisation qui mettent toutes ces capacités (compétences et moyens) en ordre de marche de façon intégrée
– de prouver que cette organisation est fiable, robuste, durable et répond aux exigences de qualité de service imposées par l’Europe.
Le 31 Mars 2012, le projet « MyOcean » céda la place à « MyOcean2 ». My- Ocean2 a duré 30 mois (Avril 2012/septembre 2014). Il a été prolongé par le projet « MyOcean Follow on » jusqu’à fin avril 2015. « MyOcean2 » s’est employé en particulier à travailler davantage à la réponse aux besoins des utilisateurs qui viennent de multiples horizons : agences européennes et nationales, services opérationnels, conventions intergouvernementales, instituts de recherche et laboratoires,entreprises liées au secteur maritime (sécurité, énergie, environnement, pêche…). « MyOcean2 » et « MyOcean Follow on » ont rassemblé 59 partenaires sur 28 pays, c’est à dire près de 350 experts au service d’un service unique au monde. Fort de la capacité démontrée en mode pilote depuis 2009 via les projets européens de recherche « MyOcean 1 et 2 » et « MyOcean Follow on », Mercator Océan a été chargé par la Commission Européenne fin 2014 de la mise en place du Service Copernicus de surveillance des océans 5. Le service européen de surveillance des océans entre maintenant dans sa phase opérationnelle. Le programme Copernicus anciennement le GMES (Global Monitoring for Environement and Security) a pour ambition de donner à l’Union européenne une capacité autonome et opérationnelle en matière d’infrastructures d’observation spatiale et in situ.
Modèle océanique et systèmes d’assimilation
Modeles océaniques
Les systèmes mis en oeuvre à Mercator Océan reposent sur un modèle mathématique d’océan décrit par les équations primitives (NEMO-OPA), avec ou sans assimilation de données, modélisant l’état actuel, futur ou passé de la physique ou la biogéochimie océanique à une résolution horizontale et verticale donnée. Un même système génère différents types de produits en fonction de la configuration choisie. La configuration utilisée pour la simulation étudiée dans cette thèse est basée sur la grille au 1/4◦ tripolaire ORCA025. La résolution horizontale est de 27 km à l’Equateur et de 6 km vers les pôles de la grille. 75 niveaux verticaux sont utilisés pour discrétiser l’océan ; la discrétisation est de 1m à la surface de la mer jusqu’à 450m dans les couches du fond, avec 22 niveaux sur les 100 premiers mètres. La version 3.1 du code NEMO (Madec [2008]) est utilisée. Ce dernier est composé du modèle océanique OPA (Madec et al. [1998]) couplé au modèle de glace de mer LIM2 EVP (Fichefet and Maqueda [1997]). Tous deux sont forcés par des flux atmosphériques de résolution temporelle de 3h issus du Centre Européen de Prévision à Moyen Terme (CEPMMT). Les flux océan-atmosphère sont les conditions limites à la surface océanique des équations primitives que le modèle intègre dans le temps. Ces flux sont calculés à partir de variables atmosphériques à l’aide des formules aérodynamiques globales (Bulk CORE) décrites dans Large and Yeager [2009].
Méthodes d’assimilation
L’assimilation de données est le procédé mathématique qui consiste à corriger, à l’aide d’observations (satellitaires et in-situ), l’état de l’océan d’une prévision océanique, afin de produire une analyse et des prévisions de l’état océanique. Le schéma d’assimilation de données SAM2 (Système d’assimilation de données Mercator Océan version 2, voir le tableau 2.1) par méthode séquentielle d’ordre réduit est utilisé dans la plupart des systèmes opérationnels Mercator (Lellouche et al. [2013]). Ce schéma d’assimilation permet de combiner de façon optimale des observations (données altimétriques SSALTO/DUACS, données in-situ de température de surface SST, anomalie de hauteurs d’eau SLA, et les profils T/S issus du centre Coriolis) et des prévisions de modèles océaniques pour produire une analyse de l’océan. On estime que cette analyse représente l’état de l’océan le plus probable compte tenu des observations disponibles et de la prévision. La méthode SAM2 repose sur certaines étapes du filtre de Kalman d’ordre réduit basé sur la formulation SEEK (Singular Extended Evolutive Kalman), initialement développé par les équipes MEOM6 du LGGE7 (Pham et al. [1998]).
Dans l’ensemble des systèmes de prévision utilisés à Mercator Océan, la matrice de covariance d’erreur de prévision est basée sur un ensemble d’anomalies d’états de l’océan 3D. Ces anomalies sont obtenues à partir d’une longue simulation numérique avec ou sans assimilation de l’ordre d’une dizaine d’années, à laquelle on retire une moyenne glissante sur une période de temps fixée en utilisant un filtre de Hanning (plus de détails dans Lellouche et al. [2013]). Lors d’un cycle d’assimilation centré sur un jour N d’une année donnée, l’ensemble des anomalies d’états de l’océan est selectionné pour chaque année de la simulation numérique sur une fenêtre de 120 jours centrée en N. Cet ensemble forme alors la matrice de covariance d’erreurs de prévision. Dans le but aussi de réduire le coût numérique, la matrice de covariance d’erreurs de prévision est donc décomposée selon une base de vecteurs d’anomalies fixe et variant saisonnièrement (de type EOFs 3D avec 200 à 300 membres). Par conséquent la solution qui minimise l’écart quadratique entre les observations et leur équivalent modèle est calculée dans une espace réduit, sous forme d’une combinaison linéaire de modes d’erreurs du modèle. La correction calculée, appelée incrément, est appliquée progressivement sur la fenêtre d’assimilation (7 jours) pour limiter le choc d’initialisation au pas de temps où le modèle corrigé est redémarré (Incremental Analysis Update, Lellouche et al. [2013]). Le système de prévision basé sur la configuration ORCA025-LIM2 nommé PSY 3V 3R3, est décrit dans Lellouche et al. [2013]. Les systèmes d’analyse ont une grande dépendance au type et au nombre d’observations qui sont assimilés, en particulier les données Argo et les données satellites altimétriques. Le système PSY 3V 3R3 opérationnel depuis 2005, assimile systématiquement les données altimétriques, les champs de température de surface de la mer et les profils verticaux de température et salinité issus des différents instruments tels que les profileurs Argo, les bathythermographes (XBT), les bouées (TAO, TRITON, PIRATA, les bathysondes (CTD) ou plus récemment les profils de température et de salinité obtenus à partir de mammifères marins. L’ensemble de ces données sont collectées, vérifiées puis distribuées par Coriolis.