Evaluation des ressources en eau dans le Sénégal oriental
Généralité sur la Télédétection et des SIG
La télédétection est définie de plusieurs manières, mais dans ce qui suit nous n’allons retenir que deux définitions qui relatent plus son objectif. Ainsi, selon Lillsand et Kiefer (1987), la télédétection est la science et l’art d’obtenir l’information sur un objet, surface ou phénomène à travers l’analyse des données acquises par un moyen qui n’est pas en contact avec l’objet, la surface ou le phénomène à étudier. Une seconde définition proposée par le Centre Canadien de Télédétection (CCT) semble être plus complète et définit la télédétection comme étant une technique d’acquisition d’images qui permet d’obtenir de l’information sur la surface de la Terre sans contact direct avec celle-ci. Ainsi, la télédétection offre une perspective unique sur la compréhension de l’évolution de l’occupation des sols, des phénomènes environnementaux, du climat et de l’utilisation des terres à travers l’analyse multitemporelle des images satellitaires. Elle permet de comparer l’état d’un même lieu à des dates différentes à partir d’images prises à des périodes différentes (Smara, 2003). Ce qui fait qu’elle reste un outil qui joue un rôle important dans la fourniture de données spatiales et dans la détermination et l’amélioration du suivi des ressources naturelles de la Terre. En télédétection les données peuvent être utilisées dans diverses applications notamment dans les domaines de l’agriculture, la foresterie, les ressources en eau, l’utilisation des terres, la dynamique urbaine, la géologie, l’environnement, les ressources marines, la surveillance et l’atténuation des catastrophes et le développement des infrastructures (Lillesand et Kiefer, 2000). L’intérêt des données de télédétection réside dans le fait qu’elles peuvent avoir une couverture répétitive par des capteurs calibrés pour détecter les changements (observations répétitives allant de quelques minutes à quelques jours avec la possibilité d’avoir une couverture mondiale) et offrent une meilleure alternative pour la gestion des ressources naturelles par rapport aux méthodes traditionnelles (Chandra et Ghosh 2007; Ranganath et al. 2007; Mukherjee 2008).
Principe de la télédétection
En télédétection, les éléments essentiels pour l’acquisition d’image sont: (1) une plateforme pour porter l’instrument (2), l’objet qui représente la cible à observer et (3) l’instrument ou capteur pour observer la cible. L’image satellitaire est obtenue en enregistrant le rayonnement renvoyé vers l’espace à l’aide de divers capteurs spatioportés. Présentement, les acquisitions d’images en télédétection se font par l’intermédiaire de deux catégories de capteurs : les capteurs passifs et les capteurs actifs. Les systèmes de télédétection passive englobent tous les processus qui consistent à capter et à enregistrer l’énergie solaire qui est soit réfléchie (la portion visible) ou absorbée et retransmise (infrarouge thermique) par la cible. Les dispositifs de télédétection qui mesurent l’énergie disponible naturellement (rayonnement électromagnétique) sont des capteurs passifs. Ainsi, le capteur passif ne peut percevoir l’énergie réfléchie que lorsque le soleil illumine la Terre. Cette technologie ne peut pas enregistrer d’images la nuit (ce qui limite fortement le nombre de prises de vue). Cependant, l’énergie dégagée naturellement (l’infrarouge thermique) peut être enregistrée de jour comme de nuit. La position du soleil est également une limite pour les longueurs d’onde les plus fréquemment utilisées. Les systèmes de télédétection passive ne peuvent pas également enregistrer d’information sous une couverture nuageuse dense qui, pour toutes les longueurs d’onde le rayonnement électromagnétique (émis et réfléchi) est perturbé par l’atmosphère : c’est l’effet atmosphérique qui limite fortement la transmission du rayonnement électromagnétique. Figure 26. Principe de fonctionnement de la Télédétection optique (passive) Le RADAR (Radio Detection and Ranging) est un système actif (Fig.24) qui fournit sa propre source d’énergie électromagnétique. Les détecteurs, qu’ils soient aéroportés ou spatioportés, émettent de la radiation micro-onde dans une série d’impulsions à partir d’une antenne qui est positionnée vers la surface, perpendiculaire à la direction du mouvement. Lorsque l’énergie atteint la cible, une portion de l’énergie est réfléchie vers le détecteur. La dispersion de la radiation micro-onde est alors détectée, mesurée et chronométrée. Le temps requis par l’énergie pour atteindre la cible et retourner au détecteur détermine la distance de la cible. En enregistrant le délai et l’amplitude de l’énergie réfléchie par toutes les cibles lors du passage du système, une image à deux dimensions de la surface est produite. Puisque le RADAR a sa propre source d’énergie, des images peuvent être obtenues de jour comme la nuit. Puisque l’énergie micro-onde peut également pénétrer à travers les nuages et la pluie, le RADAR est considéré comme un détecteur toutes saisons (Centre Canadien de Télédétection). Ainsi deux modes d’acquisitions sont employées par le RADAR : la polarisation parallèle (émission et réception identiques) et la polarisation croisée (émission et réception opposées). Ces différents modes d’émission/réception présentent des intérêts dans plusieurs domaines, selon la géométrie des Evaluation des ressources en eau dans le socle birimien du éléments étudiés. La polarisation VV (émission et réception verticale) est très sensible aux éléments verticaux, ce qui la rend très efficace pour les études de rugosité de la surface marine, et la détermination de la vitesse du vent. Par contre, le RADAR fonctionnant en mode HH procurera des informations plus pertinentes sur le sol situé sous une culture, tel que du blé, du fait de son fort pouvoir de pénétration dans un couvert végétal essentiellement vertical. Ce mode de polarisation donne de très bons résultats pour la détection de l’eau et la discrimination de la glace (ESA, 2002). Figure 27. Principe de fonctionnement du Radar (active)
Les caractéristiques des images
L’énergie électromagnétique peut être perçue de façon photographique ou de façon électronique. Le processus photographique utilise une réaction chimique sur une surface sensible à la lumière pour capter et enregistrer les variations d’énergie. Il est important, en télédétection, de distinguer les termes « image » et « photographie ». Une image est une représentation graphique, quel que soit la longueur d’onde ou le dispositif de télédétection qui a été utilisé pour capter et enregistrer l’énergie électromagnétique. Une photographie désigne spécifiquement toute image captée et enregistrée sur une pellicule photographique. Les photographies enregistrent habituellement les longueurs d’onde entre 0,3 et 0,9 mm (les portions visible et infrarouge réfléchies). Avec ces définitions, nous constatons que toute photographie est une image, mais que les images ne sont pas toutes des photographies. À moins de parler d’images enregistrées par un procédé photographique, nous utilisons donc le terme image. Une photographie peut être présentée et affichée en format numérique en divisant l’image en petits morceaux de taille et de forme égales, que nous nommons pixels. La luminosité de chaque pixel est représentée par une valeur numérique. Chaque pixel est doté d’une valeur représentant les différents niveaux de luminosité. L’ordinateur affiche chaque valeur numérique comme un niveau de luminosité. Les capteurs enregistrent alors électroniquement l’énergie en format numérique (en rangées de chiffres).
Le rayonnement électromagnétique
Le rayonnement électromagnétique correspond à l’ensemble des radiations émises par une source qui peut être soit le soleil, soit la surface terrestre ou océanique ou l’atmosphère, ou bien encore le capteur satellitaire lui-même, sous forme d’ondes électromagnétiques ou de particules. Lorsque le satellite ne fait que capter le signal réfléchi, on parle de la télédétection passive et lorsque le satellite émet une onde vers la cible et enregistre l’écho, on parle de la télédétection active. Ces plates-formes peuvent être situées près de la surface terrestre, par exemple au sol, dans un avion ou un ballon ; ou à l’extérieur de l’atmosphère terrestre, par exemple sur un véhicule spatial ou un satellite (Toumi, 2013). Le rayonnement électromagnétique est mesuré par les «cellules» du capteur (une cellule=1pixel) dans différentes bandes spectrales. Des images numériques sont ensuite composées à partir de ces valeurs mesurées.
Le spectre électromagnétique
Le spectre électromagnétique représente la répartition des ondes électromagnétiques en fonction de leur longueur d’onde, de leur fréquence ou bien encore de leur énergie (Fig.28).
Les bandes spectrales
Ce sont les zones du spectre électromagnétique dans lesquelles sont effectuées les mesures. Le proche infrarouge Le proche infrarouge (0.7μm à 1,6μm) est la partie du spectre électromagnétique qui vient juste après le visible (couleur rouge). Comme pour le visible, ce que le radiomètre mesure dans le proche infrarouge, c’est une luminance correspondant au rayonnement solaire réfléchi par la surface terrestre. Ce domaine du spectre électromagnétique est très utilisé en télédétection pour différencier les surfaces naturelles qui se caractérisent par de très importantes variations de la réflectance à cette longueur d’onde. Il permet également l’étude des surfaces continentales, et notamment de distinguer les surfaces végétalisées des surfaces minérales, car les surfaces couvertes par la végétation se distinguent par une forte réflectance dans les longueurs d’onde du proche infrarouge, alors qu’elles réfléchissent peu le rayonnement dans le visible. – L’infrarouge moyen L’infrarouge moyen (1,6μm à 4μm) permet de façon générale d’étudier les teneurs en eau des surfaces. Il est très utilisé en foresterie et en agriculture, notamment pour cartographier les couverts végétaux en état de stress hydrique. L’atmosphère est en grande partie opaque aux rayonnements du moyen infrarouge qui sont absorbés par la vapeur d’eau. Seules quelques fenêtres atmosphériques permettent la transmission du rayonnement. Elles sont centrées sur les longueurs d’onde 2,5μm, 3,5μm et 5μm. – L’infrarouge thermique Dans ce domaine spectral (4μm à 15μm), le rayonnement dépend des propriétés d’émissivité des surfaces et les capteurs satellitaires mesurent la température apparente des objets. En effet, une partie du rayonnement visible et proche infrarouge atteignant la surface de la Terre est absorbée par les objets, puis réémise sous forme de chaleur à une plus grande longueur d’onde. – L’infrarouge lointain L’infrarouge lointain (15μm à 100μm) n’est utilisé ni pour l’observation de la terre, ni pour l’étude de l’atmosphère, mais pour étudier la formation des galaxies et des étoiles. Les détecteurs, appelés bolomètres utilisent cette gamme de longueurs d’onde pour mesurer l’intensité du rayonnement infrarouge émis par les corps célestes. Dans ce domaine spectral (1cm à 1m), les longueurs d’onde centimétriques sont grandes par rapport aux ondes visibles et infrarouges. Cela confère aux hyperfréquences des propriétés particulières et notamment la possibilité d’observer la surface de la Terre par tous les temps, de jour comme de nuit. L’atmosphère est en effet quasiment transparente à ces longueurs d’onde qui traversent sans problème les couches nuageuses. Ce domaine est celui des capteurs radars et des radiomètres à micro-ondes passives, utilisés notamment en océanographie pour l’étude des glaces de mer et la détection des nappes d’hydrocarbures.
La résolution spatiale (taille du pixel)
Elle correspond à la capacité de discerner 2 structures petites et proches sur une image, elle dépend de la taille du pixel. Plus elle est élevée, plus il est possible de zoomer l’image et d’identifier clairement des petites structures (rues, bâtiments, mobiliers urbains…). Le détail qu’il est possible de discerner sur une image dépend de la résolution spatiale du capteur utilisé. La résolution spatiale est fonction de la dimension du plus petit élément qu’il est possible de détecter. La résolution spatiale d’un capteur passif dépend principalement de son champ de vision instantanée (CVI). Le CVI est défini comme étant le cône visible du capteur (A) et détermine l’aire de la surface « visible » à une altitude donnée et à un moment précis (B). La grandeur de cette aire est obtenue en multipliant le CVI par la distance de la surface au capteur (C) (Fig.29). Cette aire est appelée la superficie de résolution ou cellule de résolution et constitue une étape critique pour la détermination de la résolution spatiale maximale du capteur (CCT). La résolution spatiale dépend de l’altitude du capteur et de l’angle de prise de vue. Pour une même surface couverte, plus la résolution spatiale est élevée, plus l’image est «lourde».
RESUME |