Stratégie d’optimisation adaptative

Stratégie d’optimisation adaptative

Enjeux et démarche

Dans le chapitre précédent, j’ai montré l’existence d’un intervalle pour le paramètre de régularisation permettant de s’assurer que le minimum global de J0 corresponde à la solution du maximum de vraisemblance déterministe (1.45). Cependant, il est connu que le critère J0 présente un grand nombre de minima locaux, et les algorithmes de descente à gradient-proximal n’ont pas de garantie de convergence vers le minimum global mais seulement vers un point critique de J0 .

L’étude du comportement des algorithmes en fonction du paramètre dans le chapitre précédent a mis en évidence les avantages et inconvénients des deux pénalités 0 et CEL0, en lien avec leurs propriétés bien connues.– Lenombreimportant de minima locaux de J0 et l’absence de garantie de convergence des algorithmes de minimisation sous-optimaux utilisés rendent les résultats dépen dants de l’initialisation.

Dans certains scénarios, nous avons proposé une initialisa tion éclairée qui permet d’obtenir des performances encourageantes avec l’algorithme IHT, mais dans la plupart des cas les résultats restent aléatoires.

Le minimum global de J0 est préservé dans le critère JCEL0, ce qui n’est pas forcé ment le cas pour d’autres critères régularisés proposés dans la littérature. Nous avons donc utilisé les algorithmes à gradient-proximal dédiés à la minimisation de JCEL0 dans le chapitre précédent.

Nous avons montré que ceux-ci permettent d’obtenir une solution proche de la solution globale, qui correspond à la solution du maximum de vraisemblance lorsque est choisi dans le bon intervalle.– Il est également connu qu’il y a moins de minima locaux sur JCEL0 que sur J0 : c’est ce qui nous a permis notamment d’initialiser les algorithmes par le vecteur nul pour obtenir les bonnes performances évoquées ci-dessus.

Néanmoins, l’utilisation seule de JCEL0 et des algorithmes associés avec une initiali sation par le vecteur nul ne permet pas d’atteindre la limite de résolution théorique donnée par l’étude sur le paramètre de régularisation . 

 Ces premiers résultats sont la preuve que les problèmes de convergence et donc d’initiali sation dans les algorithmes de minimisation à faible complexité comme ceux à gradient proximal ne sont pas entièrement résolus. L’objectif de ce chapitre est de proposer un schéma d’optimisation avec des algorithmes à gradient-proximal qui augmente la probabilité d’obtenir la solution globale pour tous les scénarios et indépendamment de l’initialisation, y compris pour des sources proches.

J’étudie ainsi préalablement en détail les minimiseurs de J0 et JCEL0 pour comprendre les phénomènes qui entrent en jeu. On rappelle que plusieurs des notations utilisées sont définies au début du chapitre 2

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *