Méthodes avancées de séparation de sources applicables aux mélanges linéaires-quadratiques
Algorithmes d’optimisation
Dans cette partie, nous allons présenter les algorithmes d’optimisation utilisés afin de minimiser la fonction de coˆut J, définie dans l’équation (4.15). Si les paramètres θj et ϑj,k des distributions a priori sont connus, nous pouvons facilement adapter la méthode LQ-NMF décrite dans (Meganem et al, 2014b) à la fonction de coˆut (4.15) juste en tenant compte du terme de régularisation R, défini par (4.16), lors du calcul du gradient par rapport aux éléments de la matrice Aˆ , c-à-d les paramètres ˆaj (i) et ˆaj,k(i). Cependant, en pratique, les paramètres des densités de probabilité ne sont pas exactement connus, bien que nous puissions avoir une idée sur leurs domaines de variation possibles. Par exemple, si nous savons que la scène observée est composée de pixels très mélangés, alors nous devons choisir des grandes valeurs pour les paramètres ˆθj . En outre, puisque les valeurs des coefficients quadratiques aˆj,k(i) sont réparties dans l’intervalle [0, 0.5], les paramètres ϑˆ j,k devraient prendre des grandes valeurs (correspondant à des petites variances des densités demi-gaussiennes). Ainsi, la fonction de coˆut J doit ˆetre minimisée non seulement par rapport aux coefficients de mélange et les spectres des sources, mais aussi par rapport aux paramètres des distributions a priori. Notons que cet objectif peut ˆetre atteint en utilisant les méthodes de Monte Carlo par Chaˆınes de Markov (MCMC) (S. Moussaoui and Carteret, 2006; Dobigeon et al, 2008) au prix d’une augmentation significative du temps de calcul. Les trois algorithmes d’optimisation que nous proposons dans les trois sous-sections suivantes sont beaucoup plus rapides que les algorithmes MCMC. 4.3.5.1 Algorithme du gradient projeté (Grd LQ-MAP) La première méthode d’optimisation utilisée est l’algorithme du gradient projeté. Il s’agit d’un algorithme du gradient à pas fixe, qui projette, après chaque itération, les valeurs des paramètres de mélange, des spectres des sources et des paramètres des distributions a priori estimées dans leurs domaines de variation possibles. Les dérivées de J par rapport aux différentes inconnues sont énumérées ci-dessous.
Algorithme multiplicatif projeté (Grd Mult-MAP)
L’un des algorithmes les plus utilisés pour la méthode NMF linéaire est l’algorithme multiplicatif. L’avantage de cet algorithme est que les valeurs des pas d’apprentissage sont auto-adaptatives à chaque itération. La méthode de base développée par Lee et Seung (Lee and Seung, 2001) pour le modèle linéaire consiste à réaliser, à chaque itération, les règles de mise à jour suivantes : Aˆ ← Aˆ ((XSˆ T )
(Aˆ SˆSˆ T + ε), (4.29) Sˆ ← Sˆ ((Aˆ T X)
(Aˆ T Aˆ Sˆ + ε), (4.30) o`u représente la division élément par élément et ε est une petite valeur ajoutée au dénominateur pour éviter une division par zéro
Algorithme du gradient projeté modfié (Grd LQ-MAP-modif ) Dans cette partie, nous décrivons les modifications apportées à l’algorithme du gradient projeté présenté dans l’Algorithme 1 afin de tenir compte de la contrainte de somme égale à 1 des fractions d’abondance directement dans le calcul des dérivées. En effet, lors du calcul du gradient dans la Section 4.3.5.1, nous avons tenu compte de la structure spécifique de la matrice Sˆ, c-à-d du fait que les dernières lignes de cette matrice sont les produits deux à deux de ses premières lignes (voir l’équation (4.27)). Néanmoins, nous n’avons pas utilisé la structure de la matrice Aˆ , due à la contrainte somme égale à un des fractions d’abondance, dans le calcul du gradient par rapport aux paramètres ˆam(l) fourni dans l’équation (4.19). Pour tenir compte de cette structure, nous réécrivons la dernière fraction d’abondance ˆaL de chaque pixel i en fonction de toutes les autres fractions d’abondance de ce pixel : ˆaL(i) = 1 − PL−1 j=1 aˆj (i).
Remerciements |