Traitement statistique d’images hyperspectrales pour la détection d’objets diffus
Modèle
Champs de Markov couples convolutifs Soient deux processus : Y = (Ys)s∈S est le processus d’observation et X = (Xs)s∈S est le processus de classes. S est l’ensemble des sites s de l’image, qui est régie par un système de voisinage noté (Ns)s∈S. Les variables Xs sont à valeurs dans Ωx et les vecteurs Ys sont à valeurs dans R Λ. Dans le cas de la modélisation d’une image hyperspectrale, les vecteurs Ys représentent les spectres de l’image et Λ est le nombre de bandes spectrales de ces spectres. Dans le cadre de la modélisation par champs de Markov couples (CMC) [Pieczynski et Tebbache, 2], le couple (X, Y) a une distribution de champ de Markov : p(x, y) ∝ Y s∈S p(xs, ys|xNs , yNs ). (5.1) Nous supposons que (X, Y) est stationnaire, et retenons uniquement les cliques de deux éléments. Dans le cadre du modèle de Markov couple que nous proposons, nous faisons l’hypothèse que YNs et (Xs, Ys) sont indépendants conditionnellement à XNs : p(xs, ys|xNs , yNs ) = p(xs, ys|xNs ). (5.2) Cette densité peut s’écrire sous la forme suivante : p(xs, ys|xNs ) = p(ys|xs, xNs )p(xs|xNs ). (5.3) La figure 5.1 illustre le graphe de dépendances du modèle correspondant à (5.2). Nous détaillons maintenant les deux termes formant la densité (5.3). Nous supposons que X a une distribution de champ de Markov, reposant sur une fonction de Ising/Potts : p(xs|xNs ) ∝ exp − X s ∈Ns α 1 − 2δ xs xs ; (5.4) où α est un paramètre du modèle et δxs est la fonction de Kronecker de xs.
Modèle Y X
(a) Champ de Markov caché à bruit indépendant. Y X (b) Champ de Markov couple convolutif. Figure 5.1 – Graphes de dépendances dans le cadre d’un 4-voisinage. Les arêtes en couleur sont les arêtes additionnelles par rapport au modèle de champ de Markov caché à bruit indépendant. La distribution p(ys|xs, xNs ) régit la manière dont les classifications X influencent l’observation Y. De manière générique, nous l’écrivons : p(ys|xs, xNs ) = gxs,xNs (ys). (5.5) Le choix de la fonction g dépend notamment du modèle de bruit souhaité, et donc de l’application recherchée. Dans la suite de ce chapitre, g permettra la prise en compte d’un phénomène de convolution dans la modélisation.
Segmentation et mesure de confiance Segmentation bayésienne
La segmentation bayésienne des images peut être obtenue entre autres par les estimateurs du MAP [Geman et Geman, 1984] et du MPM [Marroquin et al., 1987]. Rappelons que l’expression du MAP est : xˆ MAP = arg max ω∈Ω |S| x p(X = ω|Y = y); (5.6) et que le MPM s’exprime ∀s ∈ S comme : xˆ MPM s = arg max ω∈Ωx p(Xs = ω|Y = y). (5.7) Le calcul de ces deux estimateurs repose sur la markovianité a posteriori du couple (X, Y) qui rend possible la simulation de p(X|Y = y). Ces deux estimateurs sont comparés dans la section 5.3. Mesure de confiance pour le MPM Nous nous intéressons à la détermination d’une mesure de confiance associée à la segmentation en chaque site s ∈ S. Une telle mesure peut aisément être déduite dans le cadre de la segmentation au sens du MPM. En effet, les estimateurs de Xs sont par construction les classes les plus probables par rapport à la distribution a posteriori p(xs|y). Le choix du MPM est une décision « dure » dans Ωx qui ne reflète pas la confiance avec laquelle la décision a été prise. En effet, nous pouvons rencontrer des situations variables, comme : 69 Chapitre 5. Champs de Markov couples convolutifs — le cas le plus favorable : la classe retenue est beaucoup plus probable que les autres ; — les cas ambigus, plus complexes : les probabilités a posteriori sont très proches entre les classes. Nous introduisons ici une mesure de confiance complémentaire du résultat de segmentation. Elle est notée u x et s’appuie sur la différence de probabilités estimée entre les classes retenues par le MPM et les autres classes. Nous avons ainsi ∀s ∈ S : u x s = min ω6=ˆxMPM s h p(Xs = ˆx MPM s |y) − p(Xs = ω|y) i (5.8) La carte de confiance résultante u x = (u x s )s∈S prend ses valeurs entre (segmentation très incertaine) et 1 (segmentation très sûre).2.3 Modèle d’observation Distribution du bruit Le choix d’un modèle d’observation permet notamment de spécifier la forme de gxs,xNs (ys) (5.5). Nous supposons que le bruit est de distribution normale multivariée : gxs,xNs (ys) ∼ N (µxs,xNs , Σ); (5.9) où µxs,xNs ∈ R Λ est un paramètre de moyenne et Σ ∈ R Λ×Λ est la matrice de covariance du bruit. Celle-ci est supposée identique pour toutes les classes. Nous supposons qu’elle est pentadiagonale et que les paramètres ne varient pas d’une composante de ys à l’autre 1 : Σ = σ 2 ρ1 ρ2 ρ1 ρ2 ρ2 ρ1 ρ2 ρ1 σ 2 (5.) σ correspond à l’écart-type des intensités, et ρ1, ρ2 sont les paramètres de corrélation entre les éléments consécutifs des observations ys. Modèle de convolution Nous nous intéressons aux phénomènes de convolution, pour lesquels même en l’absence de bruit l’image présente une dégradation par rapport à la classification recherchée. Cette dernière s’exprime comme un mélange des contributions associées à xs et à xNs : µxs,xNs = fsµxs + X r∈Ns frµxr ; (5.) où µxs ∈ R Λ est la moyenne associée à la classe de xs dans Ωx. Ce mélange est pondéré par une fonction formée des coefficients f = (fr)r∈{s}∪Ns , qui représente la fonction d’étalement spatiale du chapitre 3. Notons que f ne dépend pas de s car le champ (X, Y) est stationnaire. Le modèle de champ de Markov couple que nous proposons peut ainsi permettre la prise en compte de phénomènes de convolution. Ces hypothèses sont issues de l’application aux images de l’instrument MUSE : le bruit est stationnaire spectralement, et présente des corrélations limitées spectralement (cf. chapitre 9) 5.2. Modèle Remarque 5.2.1. Dans (5.), si tous les termes (fr)r∈Ns sont nuls, le modèle devient un modèle de champ de Markov caché à bruit indépendant. Modèle de détection Nous nous intéressons à l’application de ce modèle dans un contexte de détection ; qui ne prend en général que deux possibilités en compte : la présence et l’absence d’un signal d’intérêt. Cela se traduit par une segmentation à K = 2 classes : — l’absence de signal, que nous associons à la classe ω, se manifeste par la présence de bruit seul : µω = Λ ; — la présence d’un signal associé à la classe ω1 correspond à une moyenne µ. Remarque 5.2.2. Ce cadre peut être enrichi dans le cadre de la segmentation, en prenant en compte différents niveaux d’atténuation dans le signal recherché. Cela peut permettre de modéliser K − 1 classes intermédiaires par µωk = k K µωK .2.4 Formulation alternative du modèle La présentation du modèle dans le contexte des champs de Markov couple s’est appuyée sur la markovianité du couple (x, y) pour détailler immédiatement les distributions p(xs, ys|xNs , yNs ). Dans cette partie, nous présentons une formulation différente de ce modèle. Par commodité, nous notons ici zs la valeur prise par i lorsque xs = ωi 2 , et le vecteur z = (zs)s∈S. En vectorisant z et y, le modèle des observations est : y = h(z ⊗ µ) + b (5.) où ⊗ est le produit de Kronecker, b ∈ R Λ|S| représente le bruit et h ∈ R Λ|S|×Λ|S| est l’opérateur de convolution : h = IΛ ⊗ f; (5.) où f ∈ R |S|×|S| représente la fonction d’étalement spatial. Pour restreindre la convolution à une région de 3 × 3 sites (c’est-à-dire {s} ∪ Ns), il faut rendre chaque colonne de f 9-parcimonieuse 3 . Dans le cadre du modèle présenté, f ne contient que ces 9 coefficients. Nous supposons que b est un bruit normal multivarié, de matrice de covariance Ξ ∈ R Λ|S|×Λ|S|. Nous supposons que le bruit n’est pas corrélé entre sites. La matrice Ξ est donc bloc-diagonale : Ξ = I|S| ⊗ Σ; (5.) où Σ est la matrice de covariance introduite en (5.9). Nous disposons de l’expression de la vraisemblance du modèle : p(y|z) ∼ N (h(z ⊗ µ), Ξ) (5.) Nous supposons de plus que p(Z) est une distribution de champs de Markov régulée par la distribution (5.4). L’expression de cet a priori et de la vraisemblance permet enfin de calculer la distribution a posteriori p(z|y) ∝ p(y|z)p(z). Ainsi, le problème de segmentation par CMco présenté dans ce chapitre peut être assimilé à un problème de déconvolution bayésienne d’images hyperspectrales, dans le cas où l’inconnue z est à valeurs dans {, 1} et a une distribution de champs de Markov.
Table des figures |