Sur quelques méthodes de régularisation appliquées à une classe de problèmes de Cauchy inverse

Sur quelques méthodes de régularisation appliquées à une classe de problèmes de Cauchy inverse

Théorie de régularisation

La régularisation de problèmes mal-posés, due initialement à Tikhonov, cherche à redénir les notions d’inversion et de solution (quasi-solution, solution approchée,..), de façon que la ‹‹solution régularisée›› obtenue par ‹‹inversion régularisée›› dépende continûment des données et soit proche de la solution exacte (supposant que celle-ci existe pour des données proches des valeurs eectivement obtenues par la mesure).

Rappels d’analyse fonctionnelle

En d’autres termes, on remplace le problème initial mal posé par un autre ‹‹ problème approximant›› bien posé. Opérateur de régularisation Dans la pratique, les opérateurs les plus rencontrés sont des opérateurs diérentiels, donc l’expression u ∈ D(A) exprime une certaine régularité. Les opérateurs de régularisation sont un outil qui permet de faire correspondre à un élément d’un espace fonctionnel donné son régularisé, i.e., un élément du même espace mais possédant des propriétés de régularité plus importantes et qui lui est en même temps proche par rapport à la norme considérée. Considérons le problème inverse Ax = y où A H1 dans H2 est un opérateur compact injectif.On suppose que y ∈ R(A), i.e., le problème inverse possède une solution unique. Dénition 1.3.1. Une famille d’opérateurs linéaires bornés {Rα (t)}α>0 H1 dans H2 , α > 0 est dite « famille régularisante » pour l’opérateur A si ∀x ∈ H1 ,RαAx converge vers x, quand α −→ 0, i.e., RαA converge simplement vers I. Remarque 1.3.1. Si Rα est une famille régularisante pour l’opérateur A : H1 → H2 où H1 est de dimension innie, alors les opérateurs Rα ne sont pas uniformément bornés, i.e., il existe une suite (αn) ⊂ R+ telle que lim n→+∞ Rαn = +∞ La donnée initiale y ∈ H2 n’est jamais connue exactement : il y a toujours un bruit qui vient la perturber. Notons y δ la donnée perturbée où le nombre δ > 0 est le niveau du bruit, i.e., |y − y δ | ≤ δ. Notons x δ α = Rαy δ l’approximation de la solution du problème inverse Ax = y obtenue avec l’opérateur de régularisation et la donnée perturbée. En utilisant l’inégalité triangulaire sur |x − x δ α |, on obtient x − x α,δ = (x −Rαy) + (Rαy − x δ α ) ≤ δ kRαk + Rαy − x δ α . (1.3.19) Le premier terme de droite de l’équation (1.3.19) représente la majoration de l’erreur due au niveau de bruit. Par la Remarque(1.3.1) , nous avons vu que lim α→0 kRαk = +∞. Donc il ne faut pas choisir α trop petit sinon l’erreur peut devenir très grande. Par contre le second terme de droite de (1.3.19) tend vers 0 quand α tend vers 0 par dénition de Rα. Nous allons faire tendre le niveau de bruit δ vers 0 et nous allons choisir une stratégie de régularisation de manière à ne pas commettre une trop grande erreur sur la vraie solution x. Proposition 1.3.1. [61] Soient X, Y deux espaces de Hilbert, et A : X −→ Y un opérateur linéaire fermé. Alors la famille de régularisation {Rα}α>0 est bornée (uniformément) si et seulement si R(A) est fermée dans Y .

Choix optimal

Soit α = α  δ,y(δ)  , si α ne dépend pas de y(δ) mais seulement de δ, alors nous disons que α est un choix a priori. Si non α est dit choix a posteriori. 18 KHELILI Besma 2018 LMA U. Annaba Chapitre 1 1.3 Problèmes inverses, problème mal-posés et théorie de régularisation L’idée de la stratégie est de choisir le paramètre de régularisation tel que Au − y(δ) Y = δ (1.3.20) Un algorithme de régularisation {Rα}α>0 est dit régulier si δ → 0, αopt (δ) → 0 et Rαopt(δ)y(δ) → uˆ (1.3.21) Choix du paramètre de régularisation Dans les applications, un choix de la stratégie de régularisation a-posteriori est préférable à une stratégie de régularisation a-priori. On adopte la démarche suivante pour y ∈ D  A −1 g  et δ > 0, on choisit y(δ) ∈ Y tel que y(δ) − y Y ≤ δ, et uˆ = A −1 g y, uα = Rαy, uδ α = Rαy(δ) (1.3.22) où Rα = (A ∗A + αI) −1 A ∗ pour α > 0. (1.3.23) (i) Méthode de Mozorov : [61] Dans la méthode de Mozorov, le paramètre α est choisi tel que : A uδ α − y(δ) = δ (1.3.24) (ii) Méthode d’Arcangeli : L’équation devant être satisfaite est : A uδ α − y(δ) = δ √ α.

Table des matières

Introduction
Contenu de la thèse
1 Rappels d’analyse fonctionnelle
1.1 Eléments de la théorie spectrale
1.1.1 Opérateurs linéaires bornés
1.1.2 Spectre d’un opérateur linéaire et décomposition spectrale
1.1.3 Opérateurs non bornés
1.1.4 Spectre et résolvante d’un opérateur non borné
1.2 Théorie de Riesz-Fredholm
1.2.1 Diagonalisation des opérateurs auto-adjoints compacts
1.2.2 Famille spectrale et résolution de l’identité
1.2.3 Fonction d’opérateurs auto-adjoint
1.3 Problèmes inverses, problème mal-posés et théorie de régularisation
1.3.1 Problèmes inverses et problèmes mal-posés
1.3.2 Notions de problème inverse
1.3.3 Exemples des problèmes inverses mal-posés
1.3.4 Théorie de régularisation
1.3.5 Choix optimal
2 Régularisation d’un problème inverse elliptique dans un domaine non borné par la méthode des conditions aux limites auxiliaire
2.1 Formulation du problème
2.1.1 Problème direct et problème inverse
2.2 Méthode de régularisation
3 Méthode des conditions aux limites auxiliaires modifiée pour une classe de problèmes elliptiques mal-posés
3.1 Problème de Cauchy pour l’équation de Laplace
3.1.1 Introduction
3.1.2 Méthode de régularisation et estimation de la convergence
4 Régularisation d’un problème inverse elliptique abstrait par la méthode des conditions aux limites auxiliaires modifiée
4.1 Formulation du problème
4.1.1 Problème direct et problème inverse
4.2 Résultats préliminaires fondamentaux
4.3 Analyse du problème
4.4 Approximation et stabilisation
4.4.1 Description de la méthode
5 Régularisation d’un problème de Cauchy biparabolique abstrait par la méthode des conditions aux limites auxiliaires modifiée
5.1 Introduction
5.1.1 Formulation du problème
5.2 Analyse du problème
5.2.1 Caractère mal posé du problème inverse et résultat de stabilité conditionnelle
5.2.2 Caractère mal posé du problème inverse (5.1.8)
5.2.3 Approximation et stabilisation
5.2.4 Régularisation et estimations d’erreurs
Conclusion et perspectives

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *