Imagerie optique
Dans cette section, nous rappelons les bases fondamentales de l’imagerie optique. Les concepts exposés relèvent de plusieurs domaines (optique, traitement du signal, statistiques) et s’appuient sur les ouvrages et références suivants : [KE01, MBM01, RJ98, Réf04, Wal07].
Généralités
Le principe du capteur optique est le suivant : la lumière (photons), réfléchie par une cible présente à la surface de la Terre et éclairée par le soleil, est captée par des instruments optiques très sensibles puis convertie en signal électrique au travers de détecteurs micro-électroniques photo-sensibles appelés dispositifs à transfert de charge (DTC). Ces détecteurs DTC, disposés suivant une matrice rectangulaire ou le long d’une barette linéaire, convertissent l’intensité lumineuse reçue en un signal électrique, qui est ensuite numérisé afin d’obtenir une image. Le capteur optique est ainsi dit passif. Les canaux situés sur les satellites optiques recouvrent généralement deux gammes de longueur d’ondes :
– le spectre du visible avec des longueurs d’ondes variant entre 380 et 780 nm ;
– le domaine de l’infra-rouge avec des longueurs d’ondes variant entre 780 nm et 12.7 µm ; on note en particulier l’usage des bandes fréquentielles suivantes : entre 780 et 890 nm pour le proche infra-rouge (NIR, near infra-red), entre 1.58 et 1.75 µm pour l’infra-rouge à ondes courtes (SWIR, short wave infra red) et entre 10.2 et 12.7 µm pour l’infra-rouge thermique (thermal infra red).
Système d’acquisition
La charge utile des systèmes imageurs optiques embarqués sur les satellites est notamment composée d’un dispositif optique et d’un radiomètre constitué de détecteurs DTC mesurant la quantité de lumière issue de la zone imagée. Deux types de géométrie d’acquisition sont utilisés sur les plateformes satellitaires optiques : les acquisitions à géométrie linéaire (en configuration « line-pushbroom » ou « line-panoramic », en anglais) et les acquisitions à géométrie surfacique (en configuration « area-frame », en anglais). Avec une géométrie d’acquisition de type linéaire, les images sont formées ligne par ligne. L’acquisition de l’image dans une dimension (« along-track ») est assurée par le défilement du satellite le long de sa trajectoire. L’acquisition dans l’autre dimension (« across-track ») peut s’effectuer de deux manières :
– en configuration « râteau » (ou « pushbroom ») : un système de barettes DTC alignées, permettant d’acquérir simultanément une ligne de pixels de l’image sans mouvement de la part du dispositif optique, est alors adopté (cas des satellites SPOT) ;
– en configuration « panoramique » (ou « panoramic ») : un dispositif optique à miroir tournant, permettant d’accéder à une large fauchée, est alors utilisé (cas des satellites LANDSAT). Avec une géométrie d’acquisition de type surfacique, tous les points d’une large surface rectangulaire au sol sont simultanément imagés (cas du satellite KOSMOS). Par ailleurs, on distingue deux modes d’acquisition :
– le mode panchromatique, où le capteur mesure la luminance des objets imagés dans une large gamme de fréquences et qui se caractérise par l’obtention de données en noir et blanc finement résolues spatialement ;
– le mode multi-bandes (multi-spectral) où le capteur mesure la luminance des objets imagés dans plusieurs bandes spectrales plus étroites ; par combinaison de celles-ci on obtient alors des images en couleur, généralement moins bien résolues spatialement. Selon le mode et l’application choisis, le dispositif instrumental à utiliser varie. Par exemple, le satellite optique français Spot 5 lancé en 2002 possède deux nouveaux instruments : le HRVIR (haute résolution visible et infra-rouge) dédié à l’acquisition d’images multi-spectrales et le HRS (haute résolution stéréoscopique) dédié à l’acquisition stéréoscopique d’images panchromatiques.
Caractéristiques radiométriques
Les données optiques satellitaires sont classiquement codées sur 8 ou 16 bits, ce qui correspond respectivement à une gamme de 256 ou 65536 niveaux possibles. La résolution radiométrique d’un capteur se définit par sa capacité à différencier de faibles variations d’intensité reçue (« contrastes détectables ») et dépend également de la durée d’éclairement. Une forte résolution radiométrique nécessite un important nombre de niveaux disponibles pour coder l’image (dynamique importante requise). Comme souligné dans [KE01], une importante dynamique de l’image est un « atout essentiel pour les outils de corrélation automatique » utilisés dans les applications de stéréoscopie optique, car cela permet de discerner de nombreux détails présentant des différences de radiométrie très faibles.
Caractéristiques spatiales
La résolution spatiale d’un capteur est lié au pouvoir séparateur de l’instrument optique utilisé. Celui-ci est donné par le critère de Rayleigh indiquant le plus petit angle solide que l’instrument est capable de résoudre, en fonction du diamètre de l’optique et de la longueur d’onde considérée. La cellule de résolution spatiale est définie par l’aire de la surface visible, à une distance donnée, par un élément DTC du système imageur. Cette cellule est déterminée par le champ de vision instantané (CVI) de l’élément DTC : un CVI faible correspond à une résolution spatiale fine. La fonction de transfert de modulation (FTM) d’un capteur optique, encore appelée fonction de transmission du contraste, mesure sa capacité à transférer un contraste depuis une cible « spécimen » jusqu’au plan image du système d’acquisition (ce contraste se dégradant lorsque la fréquence spatiale des objets imagés augmente). La FTM est définie comme le rapport qui lie l’amplitude d’un signal vu par un capteur à l’amplitude sinusoïdale réelle de la cible imagée, en fonction de la fréquence spatiale de celle-ci. La FTM permet de prédire et de modéliser la qualité des images produites par ce système lorsque celui-ci est soumis à des conditions variables.
Spécificités géométriques
L’acquisition d’une image optique peut être réalisée en visée verticale (on parle alors de prise de vue au nadir) ou en visée oblique. En visée au nadir, les façades verticales des objets n’apparaissent pas sur l’image. La localisation planimétrique dans l’image des contours au sol d’un objet (par exemple, l’emprise d’un bâtiment) coïncide ainsi avec la localisation planimétrique des contours élevés de cet objet (par exemple, le toit du bâtiment). Le phénomène de parallaxe étant absent, il devient alors plus délicat d’extraire des informations de hauteurs par des mesures manuelles. Une image acquise avec une visée oblique se caractérise par la présence de plusieurs parties « cachées » c’est-à-dire par la présence de plusieurs objets ou zones de la scène qui ne peuvent être vus par le capteur, étant donné l’angle de visée du système imageur et leur environnement (présence d’objets occultants). Notons qu’en visée oblique, la résolution spatiale n’est pas constante le long de la fauchée. Le procédé d’ortho-rectification permet de transformer une image présentant une visée oblique en une image de la même scène acquise avec une visée au nadir et nécessite de connaître l’élévation des objets.
Propriétés statistiques et filtrage des images
Tout système de détection optique se caractérise par la présence de deux sources de bruit essentiellement :
– le bruit inhérent au capteur numérique utilisé, souvent modélisé par un bruit additif Gaussien ;
– le bruit de photons, dû à la nature corpusculaire de la lumière, suivant une loi de Poisson. Plusieurs types de filtres ont été développés dans la littérature pour exploiter les images optiques parmi lesquels figurent les filtres moyenneurs, les filtres médians, les filtres passe-bas, les filtres gaussiens, les filtres à rehaussement de contours (Roberts, Sobell, Prewitt, Laplacien …) ou encore les filtres morphologiques. Notons cependant, que contrairement aux données RADAR (voir section 1.2), les images optiques présentent la plupart du temps un rapport initial signal à bruit suffisamment bon pour permettre une interprétation visuelle directe et intuitive de l’image par un photo-interprète.
Imagerie RADAR à synthèse d’ouverture (RSO)
Dans cette section, nous présentons les bases fondamentales de l’imagerie RADAR à synthèse d’ouverture (RSO). Les notions exposées relèvent de plusieurs domaines (électro-magnétisme, traitement du signal, statistiques) et s’inspirent des ouvrages suivants : [Tis04, Tup97, Cel06, Nic06, Maî01, MS08, Den09, EFM+09].
Généralités
Le principe du RADAR imageur est le suivant : une antenne émettrice envoie un train d’ondes électro-magnétiques, dont la rétrodiffusion par la scène est mesurée par une antenne réceptrice. Les ondes utilisées se caractérisent par leur longueur d’onde λ (appartenant aux domaines des micro-ondes) et leur polarisation. Leur propagation se caractérise par la direction de visée et par la largeur du faisceau lumineux (dépendant de l’ouverture d’antenne). La plupart du temps, une même antenne est utilisée à l’émission et à la réception ; on parle alors de RADAR monostatique. Le capteur RADAR correspond ainsi à un capteur actif, c’est-à-dire qu’il est lui-même sa propre source d’énergie. Il permet ainsi d’acquérir des images de jour comme de nuit. Les systèmes RADAR présentent l’avantage d’être faiblement touchés par les conditions météorologiques (nuages, pluie…). Les phénomènes perturbateurs proviennent essentiellement de la ionosphère aux basses fréquences et de la troposphère aux hautes fréquences. Le signal RADAR présente la particularité d’être un signal complexe, dû à la nature cohérente des ondes électro-magnétiques utilisées ; il contient donc deux types d’informations : l’amplitude et la phase. L’acronyme RADAR, « ratio detection and ranging », se réfère à la capacité du système à déterminer la distance séparant le capteur de la cible imagée à partir de la mesure du temps entre émission et réception. Dans [Den09], il est fait référence aux trois quantités mesurées directement par un RADAR :
– une énergie (celle rétrodiffusée par une cible) ;
– une distance (celle liée au temps d’aller-retour capteur-cible) ;
– une fréquence (celle liée à l’effet Doppler, induit par le mouvement du porteur lors de l’acquisition).
Les longueurs d’ondes utilisées en RADAR couvrent diverses bandes fréquentielles, présentées en figure 1.1 et s’étalant entre 0,225 GHz et 94 GHz (ce qui correspond à des longueurs d’onde variant entre 133 et 0.3 cm). Les bandes intermédiaires (X, C, S et L) figurent parmi les plus utilisées en imagerie RADAR. Le choix de la bande dépend fortement de l’application visée. Par exemple, la bande X (utilisée par le satellite allemand TerraSAR-X) est particulièrement bien adaptée à des applications en cartographie ou en détection d’objets dans le cadre de l’imagerie RADAR haute résolution.
Introduction |