Sur quelques méthodes de régularisation appliquées à une classe de problèmes de Cauchy inverse
Théorie de régularisation
La régularisation de problèmes mal-posés, due initialement à Tikhonov, cherche à redénir les notions d’inversion et de solution (quasi-solution, solution approchée,..), de façon que la ‹‹solution régularisée›› obtenue par ‹‹inversion régularisée›› dépende continûment des données et soit proche de la solution exacte (supposant que celle-ci existe pour des données proches des valeurs eectivement obtenues par la mesure).
Rappels d’analyse fonctionnelle
En d’autres termes, on remplace le problème initial mal posé par un autre ‹‹ problème approximant›› bien posé. Opérateur de régularisation Dans la pratique, les opérateurs les plus rencontrés sont des opérateurs diérentiels, donc l’expression u ∈ D(A) exprime une certaine régularité. Les opérateurs de régularisation sont un outil qui permet de faire correspondre à un élément d’un espace fonctionnel donné son régularisé, i.e., un élément du même espace mais possédant des propriétés de régularité plus importantes et qui lui est en même temps proche par rapport à la norme considérée. Considérons le problème inverse Ax = y où A H1 dans H2 est un opérateur compact injectif.On suppose que y ∈ R(A), i.e., le problème inverse possède une solution unique. Dénition 1.3.1. Une famille d’opérateurs linéaires bornés {Rα (t)}α>0 H1 dans H2 , α > 0 est dite « famille régularisante » pour l’opérateur A si ∀x ∈ H1 ,RαAx converge vers x, quand α −→ 0, i.e., RαA converge simplement vers I. Remarque 1.3.1. Si Rα est une famille régularisante pour l’opérateur A : H1 → H2 où H1 est de dimension innie, alors les opérateurs Rα ne sont pas uniformément bornés, i.e., il existe une suite (αn) ⊂ R+ telle que lim n→+∞ Rαn = +∞ La donnée initiale y ∈ H2 n’est jamais connue exactement : il y a toujours un bruit qui vient la perturber. Notons y δ la donnée perturbée où le nombre δ > 0 est le niveau du bruit, i.e., |y − y δ | ≤ δ. Notons x δ α = Rαy δ l’approximation de la solution du problème inverse Ax = y obtenue avec l’opérateur de régularisation et la donnée perturbée. En utilisant l’inégalité triangulaire sur |x − x δ α |, on obtient x − x α,δ = (x −Rαy) + (Rαy − x δ α ) ≤ δ kRαk + Rαy − x δ α . (1.3.19) Le premier terme de droite de l’équation (1.3.19) représente la majoration de l’erreur due au niveau de bruit. Par la Remarque(1.3.1) , nous avons vu que lim α→0 kRαk = +∞. Donc il ne faut pas choisir α trop petit sinon l’erreur peut devenir très grande. Par contre le second terme de droite de (1.3.19) tend vers 0 quand α tend vers 0 par dénition de Rα. Nous allons faire tendre le niveau de bruit δ vers 0 et nous allons choisir une stratégie de régularisation de manière à ne pas commettre une trop grande erreur sur la vraie solution x. Proposition 1.3.1. [61] Soient X, Y deux espaces de Hilbert, et A : X −→ Y un opérateur linéaire fermé. Alors la famille de régularisation {Rα}α>0 est bornée (uniformément) si et seulement si R(A) est fermée dans Y .
Choix optimal
Soit α = α δ,y(δ) , si α ne dépend pas de y(δ) mais seulement de δ, alors nous disons que α est un choix a priori. Si non α est dit choix a posteriori. 18 KHELILI Besma 2018 LMA U. Annaba Chapitre 1 1.3 Problèmes inverses, problème mal-posés et théorie de régularisation L’idée de la stratégie est de choisir le paramètre de régularisation tel que Au − y(δ) Y = δ (1.3.20) Un algorithme de régularisation {Rα}α>0 est dit régulier si δ → 0, αopt (δ) → 0 et Rαopt(δ)y(δ) → uˆ (1.3.21) Choix du paramètre de régularisation Dans les applications, un choix de la stratégie de régularisation a-posteriori est préférable à une stratégie de régularisation a-priori. On adopte la démarche suivante pour y ∈ D A −1 g et δ > 0, on choisit y(δ) ∈ Y tel que y(δ) − y Y ≤ δ, et uˆ = A −1 g y, uα = Rαy, uδ α = Rαy(δ) (1.3.22) où Rα = (A ∗A + αI) −1 A ∗ pour α > 0. (1.3.23) (i) Méthode de Mozorov : [61] Dans la méthode de Mozorov, le paramètre α est choisi tel que : A uδ α − y(δ) = δ (1.3.24) (ii) Méthode d’Arcangeli : L’équation devant être satisfaite est : A uδ α − y(δ) = δ √ α.
Introduction |