IDENTIFICATION DE SOURCE DANS UNE
EDP PARABOLIQUE
Problème direct et problème inverse
Deux problèmes sont dits inverses l’un de l’autre si la formulation de l’un met l’autre en cause. Une définition plus opérationnelle est qu’un problème inverse consiste à déterminer des causes connaissant des effets. Ainsi, ce problème est l’inverse de celui appelé problème direct, consistant à déduire les effets, les causes étant connues. Nous sommes plus habitués à étudier des problèmes directs et nous avons appris à poser, puis résoudre des problèmes pour lesquels les causes sont données, et l’on en cherche alors les effets. La résolution du problème inverse passe en général par une étape initiale de modélisation du phénomène, dite problème direct.
Problème bien-posé et mal-posé
En 1923, Hadamard a introduit la notion de problème bien-posé. Il s’agit d’un problème dont : – La solution existe. – La solution est unique. – La solution dépend continûment des données. Un problème qui n’est pas bien-posé au sens de la définition ci-dessus est dit problème mal-posé. Beaucoup de problèmes inverses peuvent être formulés en une équation intégrale Ax = y. Soit A : U → V un opérateur de U sous espace d’un espace normé X dans V sous espace d’un espace normé Y . L’équation Ax = y est dite bien-posée si A est bijectif et A−1 : V → U est continu, autrement Ax = y est dite mal-posée. Dans les années récentes beaucoup de problèmes de la physique mathématique sont en réalité mal-posés. Théorème 1.2.1. Soit X un espace normé, l’opérateur identité I : X → X est compact si et seulement si X est de dimension finie. Théorème 1.2.2. Soit A : X → Y un opérateur compact entre espaces de Hilbert, R(A) est fermé si et seulement s’il est de dimension finie. Théorème 1.2.3. Soit A : X → Y un opérateur compact avec X et Y des espaces normés. Alors Ax = y est mal-posée si X est de dimension infinie. Preuve. On suppose que A−1 existe et est continu. Alors I = A−1A : X → X est un opérateur compact, par conséquent X est de dimension finie. Remarque 1.2.1. • Si A : X → Y un opérateur linéaire compact entre espaces de Hilbert avec R(A) de dimension infinie, alors R(A) est non fermé (ce qui implique que A−1 est non borné). Dans ce cas l’équation intégrale Ax = y est mal-posée. • En général pour les opérateurs intégraux compacts avec un noyau non-dégénéré, R(A) est non fermé. 1.3 THÉORIE DE RÉGULARISATION 3 Les problèmes inverses ne vérifient souvent pas l’une ou l’autre des trois conditions introduites par Hadamard mais la problématique la plus importante est le manque de continuité, qui se traduit par l’instabilité lors de la résolution numérique. Dans le but de construire une solution approchée stable d’un problème mal-posé, cela nécessite l’application des méthodes dites méthodes de régularisation.
Théorie de régularisation
Soit A un opérateur linéaire borné compact, on veut approcher la solution x de l’équation Ax = y, en pratique le second membre y ∈ Y n’est jamais connu exactement mais seulement avec une erreur δ > 0. Alors le but c’est de résoudre l’équation perturbée Axδ = y δ , (1.1) avec ky − y δ k ≤ δ. On suppose que y ∈ R(A) et que l’opérateur A est injectif, ce qui implique l’existence et l’unicité de la solution x de l’équation exacte Ax = y. On général l’équation (1.1) n’est pas solvable car on ne peut pas supposer que y δ ∈ R(A), alors comment construire une approximation x δ de x qui dépend continûment de y δ ? Définition 1.3.1. Soient X et Y des espaces normés et soit A : X → Y un opérateur linéaire borné injectif. Alors la famille d’opérateurs linéaires bornés Rα : Y → X, α > 0, telle que limα→0 RαAx = x pour tout x ∈ X est appelée schéma de régularisation de A, le paramètre α est dit paramètre de régularisation. Les opérateurs Rαy → A−1 y lorsque α → 0 pour tout y ∈ R(A). D’après la définition si-dessus et la compacité de l’opérateur A, on a le théorème suivant . Théorème 1.3.1. Soient X et Y des espaces normés et soit A : X → Y un opérateur compact injectif, on suppose que X est de dimension infinie, alors on a (i) Rα n’est pas borné uniformément, i.e., il existe une suite αj telle que kRαj k → ∞ lorsque j → ∞. (ii) RαAx ne converge pas uniformément, i.e., RαA ne converge pas en norme vers l’opérateur identité I. Preuve. (i) Supposons le contraire, alors il existe c > 0 tel que kRαk ≤ c quand α → 0. Donc pour tout y ∈ R(A) et α > 0, on a kRαyk ≤ ckyk. Puisque Rαy → A−1 y lorsque α → 0, on en déduit que kA−1k ≤ ckyk pour tout y ∈ R(A), donc A−1 est un opérateur borné ce qui implique que I = A−1A : X → X est compact, alors d’après le théorème 1.2.1 X est de dimension finie ce qui est une contradiction avec dimX = ∞. (ii) supposons que RαA converge en norme, i.e., kRαA − Ik → 0, lorsque α → 0, alors il existe α > 0 tel que kRαA − Ik < 1 2 et pour tout y ∈ R(A) on a kA −1 yk = kA −1 y − RαAA−1 y + Rαyk ≤ kA −1 y − RαAA−1 yk + kRαyk ≤ kA −1 ykkI − RαAk + kRαkkyk ≤ 1 2 kA −1 yk + kRαkkyk, ce qui donne kA −1 yk ≤ 2kRαkkyk, i.e., A−1 est borné, donc I est un opérateur compact, ce qui conduit encore à une contradiction. On définit un schéma de régularisation qui approche x solution de l’équation Ax = y par : x α,δ := Rαy δ . En écrivant x α,δ − x = Rαy δ − Rαy + RαAx − x, 1.3 THÉORIE DE RÉGULARISATION 5 on aura l’estimation suivante kx α,δ − xk ≤ δkRαk + kRαAx − xk. Alors la stratégie (principe de Morozov (voir section 1.3.2)) est de choisir α = α(δ) de telle sorte que x α,δ → x, lorsque δ → 0. 1.3.1 Régularisation de Tikhonov La méthode de régularisation la plus courante est la méthode de Tikhonov. Théorème 1.3.2. Soient X et Y des espaces de Hilbert et soit A : X → Y un opérateur compact. L’opérateur αI + A∗A : X → X est bijectif et admet un inverse borné pour tout α > 0. De plus, si A est injectif alors Rα := (αI + A ∗A) −1A ∗ , (1.2) définit un schéma de régularisation avec kRαk ≤ 1/2 √ α. Définition 1.3.2. Soient Xet Y des espaces de Hilbert, A : X → Y et y ∈ Y , la fonction Jα définie par Jα(x) := kAx − yk 2 + αkxk 2 , pour x ∈ X (1.3) est dite la fonctionnelle de Tikhonov. Théorème 1.3.3. Soit A : X → Y un opérateur compact entre espaces de Hilbert et soit α > 0, alors pour tout y ∈ Y il existe un unique x α ∈ X tel que kAxα − yk 2 + αkx α k 2 = inf x∈X Jα(x), i.e., x α est l’unique minimum de la fonctionnelle de Tikhonov (1.3), de plus x α est l’unique solution de l’équation normale (αI + A ∗A)x α = A ∗ y, et peut être écrite sous la forme x α = Rαy avec Rα donnée par (1.2). 1.3.2 Principe de Morozov Soit A : X → Y un opérateur compact entre espaces de Hilbert, injectif et à image dense, soit y = Ax et y δ ∈ Y satisfaisant ky δ − yk ≤ δ, alors il existe un unique α = α(δ) tel que kAxα,δ − y δ k = δ et x α,δ → x, quand δ → 0. Voir ([16] Théorème 2.17). 1.4 Décomposition en valeurs singulières Définition 1.4.1. Soit A : X → Y un opérateur compact entre espaces de Hilbert avec A∗ : Y → X, l’opérateur adjoint et soit (λn)n≥1 les valeurs propres de l’opérateur compact auto-adjoint A∗A : X → X, les racines carrées µn = √ λn sont dites valeurs singulières de A. Théorème 1.4.1. Soient X et Y deux espaces de Hilbert, A : X → Y un opérateur linéaire compact avec A∗ l’opérateur adjoint. Soit (µn)n≥1, la suite des valeurs singulières de A telle que µ1 ≥ µ2… > 0 alors il existe (xn)n≥1 ⊂ X et (yn)n≥1 ⊂ Y des systèmes orthonormés avec Axn = µnyn et A∗ yn = µnxn.
0.1 Thème de recherche |