Imagerie satellitaire optique et RADAR à haute résolution

Imagerie optique

Dans cette section, nous rappelons les bases fondamentales de l’imagerie optique. Les concepts exposés relèvent de plusieurs domaines (optique, traitement du signal, statistiques) et s’appuient sur les ouvrages et références suivants : [KE01, MBM01, RJ98, Réf04, Wal07].

Généralités

Le principe du capteur optique est le suivant : la lumière (photons), réfléchie par une cible présente à la surface de la Terre et éclairée par le soleil, est captée par des instruments optiques très sensibles puis convertie en signal électrique au travers de détecteurs micro-électroniques photo-sensibles appelés dispositifs à transfert de charge (DTC). Ces détecteurs DTC, disposés suivant une matrice rectangulaire ou le long d’une barette linéaire, convertissent l’intensité lumineuse reçue en un signal électrique, qui est ensuite numérisé afin d’obtenir une image. Le capteur optique est ainsi dit passif. Les canaux situés sur les satellites optiques recouvrent généralement deux gammes de longueur d’ondes :
– le spectre du visible avec des longueurs d’ondes variant entre 380 et 780 nm ;
– le domaine de l’infra-rouge avec des longueurs d’ondes variant entre 780 nm et 12.7 µm ; on note en particulier l’usage des bandes fréquentielles suivantes : entre 780 et 890 nm pour le proche infra-rouge (NIR, near infra-red), entre 1.58 et 1.75 µm pour l’infra-rouge à ondes courtes (SWIR, short wave infra red) et entre 10.2 et 12.7 µm pour l’infra-rouge thermique (thermal infra red).

Système d’acquisition 

La charge utile des systèmes imageurs optiques embarqués sur les satellites est notamment composée d’un dispositif optique et d’un radiomètre constitué de détecteurs DTC mesurant la quantité de lumière issue de la zone imagée. Deux types de géométrie d’acquisition sont utilisés sur les plateformes satellitaires optiques : les acquisitions à géométrie linéaire (en configuration « line-pushbroom » ou « line-panoramic », en anglais) et les acquisitions à géométrie surfacique (en configuration « area-frame », en anglais). Avec une géométrie d’acquisition de type linéaire, les images sont formées ligne par ligne. L’acquisition de l’image dans une dimension (« along-track ») est assurée par le défilement du satellite le long de sa trajectoire. L’acquisition dans l’autre dimension (« across-track ») peut s’effectuer de deux manières :
– en configuration « râteau » (ou « pushbroom ») : un système de barettes DTC alignées, permettant d’acquérir simultanément une ligne de pixels de l’image sans mouvement de la part du dispositif optique, est alors adopté (cas des satellites SPOT) ;
– en configuration « panoramique » (ou « panoramic ») : un dispositif optique à miroir tournant, permettant d’accéder à une large fauchée, est alors utilisé (cas des satellites LANDSAT). Avec une géométrie d’acquisition de type surfacique, tous les points d’une large surface rectangulaire au sol sont simultanément imagés (cas du satellite KOSMOS). Par ailleurs, on distingue deux modes d’acquisition :
– le mode panchromatique, où le capteur mesure la luminance des objets imagés dans une large gamme de fréquences et qui se caractérise par l’obtention de données en noir et blanc finement résolues spatialement ;
– le mode multi-bandes (multi-spectral) où le capteur mesure la luminance des objets imagés dans plusieurs bandes spectrales plus étroites ; par combinaison de celles-ci on obtient alors des images en couleur, généralement moins bien résolues spatialement. Selon le mode et l’application choisis, le dispositif instrumental à utiliser varie. Par exemple, le satellite optique français Spot 5 lancé en 2002 possède deux nouveaux instruments : le HRVIR (haute résolution visible et infra-rouge) dédié à l’acquisition d’images multi-spectrales et le HRS (haute résolution stéréoscopique) dédié à l’acquisition stéréoscopique d’images panchromatiques.

Caractéristiques radiométriques

Les données optiques satellitaires sont classiquement codées sur 8 ou 16 bits, ce qui correspond respectivement à une gamme de 256 ou 65536 niveaux possibles. La résolution radiométrique d’un capteur se définit par sa capacité à différencier de faibles variations d’intensité reçue (« contrastes détectables ») et dépend également de la durée d’éclairement. Une forte résolution radiométrique nécessite un important nombre de niveaux disponibles pour coder l’image (dynamique importante requise). Comme souligné dans [KE01], une importante dynamique de l’image est un « atout essentiel pour les outils de corrélation automatique » utilisés dans les applications de stéréoscopie optique, car cela permet de discerner de nombreux détails présentant des différences de radiométrie très faibles.

Caractéristiques spatiales 

La résolution spatiale d’un capteur est lié au pouvoir séparateur de l’instrument optique utilisé. Celui-ci est donné par le critère de Rayleigh indiquant le plus petit angle solide que l’instrument est capable de résoudre, en fonction du diamètre de l’optique et de la longueur d’onde considérée. La cellule de résolution spatiale est définie par l’aire de la surface visible, à une distance donnée, par un élément DTC du système imageur. Cette cellule est déterminée par le champ de vision instantané (CVI) de l’élément DTC : un CVI faible correspond à une résolution spatiale fine. La fonction de transfert de modulation (FTM) d’un capteur optique, encore appelée fonction de transmission du contraste, mesure sa capacité à transférer un contraste depuis une cible « spécimen » jusqu’au plan image du système d’acquisition (ce contraste se dégradant lorsque la fréquence spatiale des objets imagés augmente). La FTM est définie comme le rapport qui lie l’amplitude d’un signal vu par un capteur à l’amplitude sinusoïdale réelle de la cible imagée, en fonction de la fréquence spatiale de celle-ci. La FTM permet de prédire et de modéliser la qualité des images produites par ce système lorsque celui-ci est soumis à des conditions variables.

Spécificités géométriques 

L’acquisition d’une image optique peut être réalisée en visée verticale (on parle alors de prise de vue au nadir) ou en visée oblique. En visée au nadir, les façades verticales des objets n’apparaissent pas sur l’image. La localisation planimétrique dans l’image des contours au sol d’un objet (par exemple, l’emprise d’un bâtiment) coïncide ainsi avec la localisation planimétrique des contours élevés de cet objet (par exemple, le toit du bâtiment). Le phénomène de parallaxe étant absent, il devient alors plus délicat d’extraire des informations de hauteurs par des mesures manuelles. Une image acquise avec une visée oblique se caractérise par la présence de plusieurs parties « cachées » c’est-à-dire par la présence de plusieurs objets ou zones de la scène qui ne peuvent être vus par le capteur, étant donné l’angle de visée du système imageur et leur environnement (présence d’objets occultants). Notons qu’en visée oblique, la résolution spatiale n’est pas constante le long de la fauchée. Le procédé d’ortho-rectification permet de transformer une image présentant une visée oblique en une image de la même scène acquise avec une visée au nadir et nécessite de connaître l’élévation des objets.

LIRE AUSSI :  Cours Lua: Bright –A C‐like Lua Derivative

Propriétés statistiques et filtrage des images 

Tout système de détection optique se caractérise par la présence de deux sources de bruit essentiellement :
– le bruit inhérent au capteur numérique utilisé, souvent modélisé par un bruit additif Gaussien ;
– le bruit de photons, dû à la nature corpusculaire de la lumière, suivant une loi de Poisson. Plusieurs types de filtres ont été développés dans la littérature pour exploiter les images optiques parmi lesquels figurent les filtres moyenneurs, les filtres médians, les filtres passe-bas, les filtres gaussiens, les filtres à rehaussement de contours (Roberts, Sobell, Prewitt, Laplacien …) ou encore les filtres morphologiques. Notons cependant, que contrairement aux données RADAR (voir section 1.2), les images optiques présentent la plupart du temps un rapport initial signal à bruit suffisamment bon pour permettre une interprétation visuelle directe et intuitive de l’image par un photo-interprète.

Imagerie RADAR à synthèse d’ouverture (RSO) 

Dans cette section, nous présentons les bases fondamentales de l’imagerie RADAR à synthèse d’ouverture (RSO). Les notions exposées relèvent de plusieurs domaines (électro-magnétisme, traitement du signal, statistiques) et s’inspirent des ouvrages suivants : [Tis04, Tup97, Cel06, Nic06, Maî01, MS08, Den09, EFM+09].

Généralités

Le principe du RADAR imageur est le suivant : une antenne émettrice envoie un train d’ondes électro-magnétiques, dont la rétrodiffusion par la scène est mesurée par une antenne réceptrice. Les ondes utilisées se caractérisent par leur longueur d’onde λ (appartenant aux domaines des micro-ondes) et leur polarisation. Leur propagation se caractérise par la direction de visée et par la largeur du faisceau lumineux (dépendant de l’ouverture d’antenne). La plupart du temps, une même antenne est utilisée à l’émission et à la réception ; on parle alors de RADAR monostatique. Le capteur RADAR correspond ainsi à un capteur actif, c’est-à-dire qu’il est lui-même sa propre source d’énergie. Il permet ainsi d’acquérir des images de jour comme de nuit. Les systèmes RADAR présentent l’avantage d’être faiblement touchés par les conditions météorologiques (nuages, pluie…). Les phénomènes perturbateurs proviennent essentiellement de la ionosphère aux basses fréquences et de la troposphère aux hautes fréquences. Le signal RADAR présente la particularité d’être un signal complexe, dû à la nature cohérente des ondes électro-magnétiques utilisées ; il contient donc deux types d’informations : l’amplitude et la phase. L’acronyme RADAR, « ratio detection and ranging », se réfère à la capacité du système à déterminer la distance séparant le capteur de la cible imagée à partir de la mesure du temps entre émission et réception. Dans [Den09], il est fait référence aux trois quantités mesurées directement par un RADAR :
– une énergie (celle rétrodiffusée par une cible) ;
– une distance (celle liée au temps d’aller-retour capteur-cible) ;
– une fréquence (celle liée à l’effet Doppler, induit par le mouvement du porteur lors de l’acquisition).
Les longueurs d’ondes utilisées en RADAR couvrent diverses bandes fréquentielles, présentées en figure 1.1 et s’étalant entre 0,225 GHz et 94 GHz (ce qui correspond à des longueurs d’onde variant entre 133 et 0.3 cm). Les bandes intermédiaires (X, C, S et L) figurent parmi les plus utilisées en imagerie RADAR. Le choix de la bande dépend fortement de l’application visée. Par exemple, la bande X (utilisée par le satellite allemand TerraSAR-X) est particulièrement bien adaptée à des applications en cartographie ou en détection d’objets dans le cadre de l’imagerie RADAR haute résolution.

Table des matières

Introduction
1 Imagerie satellitaire optique et RADAR à haute résolution
1.1 Imagerie optique
1.1.1 Généralités
1.1.2 Système d’acquisition
1.1.3 Caractéristiques radiométriques
1.1.4 Caractéristiques spatiales
1.1.5 Spécificités géométriques
1.1.6 Propriétés statistiques et filtrage des images
1.2 Imagerie RADAR à synthèse d’ouverture (RSO)
1.2.1 Généralités
1.2.2 Formation des images .
1.2.3 Caractéristiques radiométriques
1.2.4 Caractéristiques spatiales
1.2.5 Spécificités géométriques
1.2.6 Propriétés statistiques et filtrage des images
1.3 Nouveaux capteurs satellitaires optiques et RADAR à haute résolution
1.4 Comparatif imagerie optique – imagerie RADAR : avantages et inconvénients
2 État de l’art en reconstruction 3D du bâtiment à partir d’images optiques et RADAR à haute résolution
2.1 Généralités
2.2 Reconstruction des bâtiments en imagerie optique
2.2.1 Détection des bâtiments et extraction de leurs contours
2.2.2 Estimation des hauteurs de bâtiments
2.2.3 Génération de MNS ou de MNE et reconstruction 3D des bâtiments
2.2.4 Conclusions : Performances et limites
2.3 Reconstruction des bâtiments en imagerie RADAR
2.3.1 Extraction de primitives caractéristiques et génération d’emprises de bâtiments
2.3.2 Estimation des hauteurs de bâtiments
2.3.3 Génération de MNT en milieu urbain
2.3.4 Génération de MNS ou de MNE et reconstruction 3D des bâtiments
2.3.5 Conclusions : Performances et limites
2.4 Reconstruction des bâtiments par fusion d’informations optiques-RADAR
2.4.1 Recalage de données optiques et RADAR à résolution métrique
2.4.2 Reconstruction 3D à partir d’une image optique et d’une image RADAR
2.4.2.1 Détection de bâtiments et extraction de leurs contours
2.4.2.2 Estimation des hauteurs de bâtiments
2.4.2.3 Génération de MNS ou de MNE et reconstruction 3D des bâtiments
2.4.3 Reconstruction 3D à partir d’une image optique et d’un couple RADAR
2.4.3.1 Détection de bâtiments et extraction de leurs contours
2.4.3.2 Estimation des hauteurs de bâtiments
2.4.3.3 Génération de MNS ou de MNE et reconstruction 3D des bâtiments
2.4.4 Conclusions : Performances et limites
2.5 Applications de la reconstruction 3D des bâtiments
3 Présentation de la chaîne de traitements proposée
3.1 Description de la chaîne complète
3.1.1 Objectifs, fonctionnalités et contraintes
3.1.2 Choix stratégiques
3.1.3 Organisation de la chaîne proposée
3.2 Hypothèses de travail
3.2.1 Modélisation des bâtiments
3.2.2 Conditions d’acquisition
3.2.3 Conséquences sur la modélisation des signatures de bâtiments
3.3 Présentation des données
3.3.1 Jeu de données complet
3.3.2 Scènes d’intérêt
3.3.3 Vérité terrain
Conclusion

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *