Algorithme proximal parallèle et régularisation hybride pour la résolution de problèmes inverses en présence de bruit non-additif
Comme nous l’avons rappelé dans le chapitre 2, les méthodes d’optimisation convexeont montré leur efficacité pour la résolution de problèmes inverses. Nous disposons d’une part, des algorithmes de type POCS et des algorithmes par blocs [Combettes, 2003], qui permettent, entre autre, d’inclure des contraintes de variation totale. D’autre part, certaines méthodes de débruitage sont fondées sur les transformées en ondelettes [Mallat, 1997], et plus généralement sur des trames [Candès, Donoho, 2002; Le Pennec, Mallat, 2005; Selesnick et al., 2005; Chaux et al., 2006]. Dans le chapitre 3, nous avons rappelé que les algorithmes appartenant à la classe des algorithmes explicite-implicite [Daubechies et al., 2004; Figueiredo, Nowak, 2003; Bect et al., 2004; Combettes, Wajs, 2005] permettent de minimiser une somme de deux fonctions appartenant à la classe Γ0(H) sous condi- caces lorsqu’il s’agit de minimiser un critère composé d’un terme de fidélité aux données lisse, par exemple une fonction quadratique, et un a priori non lisse, tel qu’une norme ℓ1, permettant de favoriser la parcimonie dans les coefficients de trame [Bioucas-Dias, Figueiredo, 2007; Beck, Teboulle, 2009]. Ces méthodes sont donc adaptées à la restau- ration d’images dégradées par une convolution et du bruit gaussien. Dans le chapitre 3, nous avons également présenté l’algorithme de Douglas-Rachford [Lions, Mercier, 1979; Douglas, Rachford, 1956; Eckstein, Bertekas, 1992], proposé dans [Combettes, Pesquet, 2007a], qui permet de résoudre des problèmes de restauration d’images en relachant la condition de Lipschitz différentiabilité imposée par l’algorithme explicite-implicite. En contrepartie la connaissance explicite des opérateurs proximaux de chaque fonction est requise. Cet algorithme est étendu à la minimisation d’une somme finie de fonctions con- vexes dans [Combettes, Pesquet, 2008]. Il est fondé sur le calcul de l’opérateur proximal associé à chacune des fonctions. L’un des principaux avantages de cet algorithme, appelé « algorithme proximal parallèle » (PPXA : Parallel ProXimal Algorithm), est sa structure parallèle qui permet une implantation simple, sur une architecture multicoeurs. PPXA est bien adapté aux problèmes de déconvolution en présence de bruit additif gaussien, où l’opérateur proximal associé au terme de fidélité aux données prend une forme explicite [Combettes, Pesquet, 2008]. Dans ce type d’application, cet algorithme permet d’inclure facilement des contraintes supplémentaires dans le critère, et ainsi d’obtenir de meilleurs résultats en déconvolution. Pour minimiser une somme de deux fonctions incluant un terme quadratique, une autre classe d’algorithme parallèle a été récemment proposé par Fornasier et al. dans [Fornasier, 2007; Fornasier, Schönlieb, 2009]. Quand le bruit est non-nécessairement additif gaussien et pour une classe plus large d’opérateurs linéaires, l’opérateur proximal associé au terme de fidélité aux données ne possède pas de forme explicite, ce qui conduit à une limitation dans l’utilisation de PPXA ; de plus, les algo- rithmes dans [Fornasier, 2007] et [Fornasier, Schönlieb, 2009] ne sont pas applicables. Par conséquent, d’autre solutions doivent être proposées.
Pour une image dégradée par un opérateur linéaire et du bruit de Poisson, une première solution est de considérer la transformée de Anscombe [Dupé et al., 2009]. Une seconde est l’approximation quadratique du terme d’attache aux données poissonien, proposée dans le chapitre 3. Les deux approches font appel à l’utilisation d’algorithmes proximaux imbriqués [Dupé et al., 2009; Chaux et al., 2009]. L’utilisation de tels algorithmes peut apparaître limitée pour deux raisons principales : la parallélisation des itérations semble difficile, et le nombre de fonctions à minimiser est en pratique limité à trois. Plus récem- ment, des approches liées aux techniques de « lagrangien augmenté » [Hestenes, 1969; Fortin, Glowinski, 1983] ont été considérées dans [Goldstein, Osher, 2008; Setzer et al., 2010; Afonso et al., 2010]. Ces méthodes sont bien adaptées quand l’opérateur linéaire est un opérateur de convolution, en utilisant des techniques de diagonalisation dans le do- maine de Fourier. Pour une classe plus large d’opérateurs linéaires, un système linéaire de grande taille doit être résolu numériquement à chaque itération de l’algorithme.L’objectif du présent chapitre est de proposer une adaptation de PPXA pour minimiserun critère plus général, applicable à une large classe de problèmes de restauration, tels que des données dégradées par un opérateur de convolution ou un opérateur de convolution décimée, en présence d’un bruit non-nécessairement additif gaussien (bruit de Poisson, bruit de Laplace,. . .). Une convolution décimée se rencontre en particulier dans des prob- lèmes de super-résolution. Pour parvenir à cet objectif, lorsque l’opérateur proximal ne peut pas être calculé explicitement, nous montrerons qu’une approche par décomposition permettra de contourner cette difficulté. Ceci est la principale contribution de ce chapitre.