Système de Cauchy pour opérateurs Parabolique et Hyperbolique

Système de Cauchy pour opérateurs Parabolique et Hyperbolique

Les systèmes distribués singuliers trouvent leurs applications dans plusieurs phénomènes tels que le contrôle des réactions enzymatiques (cf J. P. Kernevez [10] et la bibliographie de ce travail), le contrôle de la transmission de l’énergie électrique, le contrôle de la forme des plasmas… L’étude de tels systèmes et en particulier celui de leur contrôle est donc d’un intérêt réel. Dans cette thèse nous nous intéressons au problème de contrôle de systèmes distribués singuliers pour des opérateurs de type parabolique et de type hyperbolique. La diculté de l’étude du problème de contrôle pour ce type de système réside dans le fait que, contrairement au cas classique les problèmes singuliers peuvent admettre ou non des solutions, et lorsqu’ils admettent des solutions ces dernières présentent des phénomènes d’instabilité. Rappelons alors quelques notions de la théorie du contrôle.

Contrôle de systèmes distribués non singuliers

Les systèmes distribués sont les systèmes gouvernés par des équations aux dérivées partielles (e.d.p) (ou integro-dierentielles) ou encore un système dont l’équation d’état est une e.d.p. c’est à dire une équation de la forme : A(y) = B(v), (1.1) où  y est l’état du système que l’on étudie  A représente un opérateur aux dérivées partielles (ou integro-dierentielles), linéaire ou non, stationnaire ou d’évolution (dépendant du temps).Des conditions supplémentaires aux frontières doivent être ajoutées à l’équation (1.1) et si A est un opérateur d’évolution il est nécessaire d’ajouter des conditions initiales. Exemple 1.1 (Exemples d’opérateurs A). • Opérateur stationnaire linéaire du type elliptique : A = ∆ ( opérateur de Laplace ) • Opérateur stationnaire non linéaire : A = ∆ + (Id) 2 • Opérateur d’évolution linéaire du type parabolique : A = ∂ ∂t − ∆ ( opérateur de la chaleur ) • Opérateur d’évolution non linéaire : A = ∂ ∂t − ∆ + (Id) 2  v est la variable de contrôle ; une variable qui peut-être ”distribuée” dans le domaine où les phénomènes modélisés par (1.1) sont étudiés ; la variable v peut également apparaître de manière ”frontière” à travers des conditions aux limites ; c’est ce qui est pris en compte par la forme (formelle) de (1.1) avec l’opérateur B. Exemple 1.2 (Exemples de contrôles) Ω étant un ouvert de frontière Γ, Q = Ω×]0, T[ et Σ = Γ×]0, T[. a) On considère le système :  ∆y = f + v dans Ω y = 0 sur Γ le contrôle v est « distribué ». b) Soit le système :    ∂y ∂t − ∆y = f dans Q y = v sur Σ y(0) = y 0 sur Γ le contrôle v est « frontière ».  1.1 Contrôle de systèmes distribués non singuliers 7 Dans la théorie classique du contrôle de systèmes distribués, il est supposé que : (H1)  Pour v choisi dans un ensemble convenable, l’équation (1.1) a une unique solution dans un ensemble convenable . Désignons alors par y(v) la solution de l’équation (1.1) ; c’est l’état du système. On dénit ainsi une application : v −→ y(v) (1.2) contrôle état On introduit ensuite la fonction coût qui à chaque v de l’ensemble des contrôles associe un nombre J(v) donné par : J(v) = φ(y(v)) + ψ(v). (1.3) Dans (1.3) les fonctionnelles φ et ψ sont respectivement dénies sur l’ensemble des états et sur l’ensemble des contrôles et sont à valeurs réelles. Dans la plupart des applications, la fonctionnelle ψ est une fonction d’une norme de v, elle dénit donc un espace de Banach U. Le choix de l’espace U où prendre le contrôle v est donc imposé par la fonction coût. Une fois U xé, on sait où est B(v) pour v dans U ce qui xe (à peu près) le cadre fonctionnel où résoudre l’équation (1.1) ; on introduit ainsi un espace Y de Banach où l’on cherche y. Dans ce contexte l’hypothèse (H1) est précisée comme suit : Pour v ∈ U, l’équation (1.1) admet une unique solution y(v) ∈ Y. (1.4) Toujours dans la théorie classique, une hypothèse souvent faite est que : (H2) : L’application v −→ y(v) de U dans Y est diférentiable. Cette hypothèse est complétée par : (H3)  Les fonctionnelles y −→ φ(y) et v −→ ψ(v) sont diérentiables de Y dans R et de U dans R. Le problème de contrôle est alors de trouver : inf J(v) (1.5) lorsque v parcourt U ou un sous-ensemble Uad de U de contrôles dits admissibles ; l’ensemble Uad exprime les contraintes sur v donc v ∈ Uad. (1.6) Le cas où v parcourt U tout entier est dit « sans contraintes ». Dans ce cas Uad = U. 8 Introduction Exemple 1.3 Reprenons le b) de l’exemple 1.2 qui peut modéliser la distribution de la température dans un milieu donné. On peut associer à l’état du système la fonction coût : J(v) = |y − 25| 2 + N|v| 2 25o étant une température idéale, y l’état du système et v le contrôle qui peut représenter le coût. Trouver alors u qui réalise inf J(v) revient à trouver u qui amène l’état y le plus près possible de l’état idéal 25o tout en minimisant l’énergie, le coût  Cela étant, les objectifs visés en théorie classique du contrôle sont les suivants : i) étudier l’existence de u ∈ Uad réalisant le minimum dans (1.5), on dit alors que u est un contrôle optimal, ii) donner des conditions nécessaires et, si possible, susantes exprimant que u est contrôle optimal ; iii) obtenir des propriétés du (ou des) contrôle(s) optimal(aux) à partir des conditions ii) ; iv) obtenir des algorithmes numériques. A cette liste peuvent aussi s’ajouter les questions de contrôlabilté et d’observabilité. Pour établir i) nous utiliserons systématiquement, pour le sujet qui nous concerne dans cette thèse, le résultat classique du contrôle optimal suivant : Théorème 1.1 Soit J : Uad ⊂ U −→ R ∪ {+∞}. On suppose que : 1. Uad est non vide, convexe et fermé (dans U) 2. J est propre i.e ∃ v0 ∈ Uad telle que J(v0) 6= +∞ 3. J est coercive au sens lim|v|→+∞ J(v) = +∞ 4. J s.c.i faible de U dans R 5. J est strictement convexe alors il existe u ∈ Uad unique telle que J(u) ≤ J(v), ∀ v ∈ Uad. Pour établir ii) nous utiliserons le résultat suivant : Théorème 1.2 Soit J : Uad ⊂ U −→ R, G-dierentiable. Si J admet un minimum u sur Uad, convexe, fermé non vide de U alors : J 0 (u)(v − u) ≥ 0, ∀ v ∈ Uad. 

Contrôle de systèmes distribués singuliers 

Si de plus Uad = U (cas sans contrainte) et si u est un minimum, on a l’équation d’Euler : J 0 (u) = 0. Enn et pour terminer cette brève présentation de la théorie classique, on décrit maintenant et toujours de manière formelle, la structure des conditions nécessaires pour le problème (1.5). Soit donc u un contrôle optimal et soit y(u) = y l’état optimal correspondant. Il existe alors un triplet (u, y, p) vériant le système d’optimalité (S.O) suivant : (S.O)    A(y) = B(u) A0 (y) ∗p = φ 0 (y) (B 0 (u) ∗p + ψ 0 (u), v − u) ≥ 0, ∀ v ∈ Uad. Dans (S.O), A0 (y) ∗ (resp. B 0 (u) ∗ ) désigne l’adjoint de la dérivée, supposée exister, de A (resp. B) au point y (resp. u). Grâce à (H1), l’état adjoint p est déni de manière unique par l’équation (S.O)2. Il y’a lieu d’insister sur ce point car dans les cas singuliers, la situation sera diérente puisque l’hypothèse (H1) ne sera pas satisfaite. Dans (S.O)3, on suppose généralement que Uad est convexe ; l’inégalité (S.O)3 est la traduction de la condition d’optimalité dans le théorème 1.2. Les systèmes distribués singuliers sont les systèmes dont l’équation d’etat présente des singularités telles que :  des instabilités  des phénomènes d’explosion  des solutions multiples et des phénomènes de bifurcation. Des séries d’applications (phénomènes à états multiples dans des réactions chimiques, contrôle de structures exibles instables, problèmes périodiques (en temps) se posant dans le transport d’énergie électrique, etc.) nous poussent à abandonner l’hypothèse (H1). Nous sommes ainsi amenés à considérer des situations où l’équation (1.1) n’a soit pas de solution, soit possède un nombre arbitrairement élevé et même inni de solutions, soit des solutions instables. L’approche dans ce cas est le suivant : on se donne à partir de la fonction coût, les espaces de Banach U et Y et on considère l’ensemble des couples (v, z) qui vérient : v ∈ U, z ∈ Y (1.7) 10 Introduction et A(z) = B(v) (1.8) Tout couple (v, z) vériant (1.7)(1.8) est appelé couple « contrôle-état ». Il n’est pas indispensable que (1.8) admette une solution unique ou une innité de solutions pour un v donné ; il peut arriver aussi que pour v donné (1.8) n’admette pas de solution dans Y ; il sut seulement de veiller à ce que l’ensemble des couples (v, z) liés par (1.7)(1.8) ne soit pas vide ! Les contraintes s’expriment par : v ∈ Uad ⊂ U, z ∈ Yad ⊂ Y; (1.9) et il faut vérier, dans chaque situation particulière, que l’ensemble des couples contrôle-état (v, z) admissibles, c’est-à-dire vériant (1.8)(1.9) n’est pas vide. La fonction coût est dans ce cas une fonction du couple (v, z) : J(v, z) = φ(z) + ψ(v), (1.10) le problème de contrôle est alors le suivant : inf J(v, z), (v, z) admissible (1.11) Si (u, y) est une solution de (1.11), on dit que c’est un couple optimal. Remarque 1.1 Les problèmes posés de la sorte contiennent tous les cas étudiés auparavant. En eet, si l’hypothèse (H1) est vériée alors il sut de remplacer dans (1.10), z par la solution y(v) de (1.8) car c’est le seul choix possible ; on retrouve alors la situation classique rappelée à la section précédente. Comme dans le cas classique, les objectifs principaux sont :  étudier l’existence de couples optimaux,  donner des conditions nécessaires et, si possible, susantes pour qu’un couple (u, y) soit un couple optimal ;  obtenir des propriétés des couples optimaux ;  obtenir des algorithmes numériques d’approximation. Nous verrons que les conditions nécessaires s’expriment par un « système d’optimalité singulier  » en abrégé (S.O.S) qui a formellement la même structure que le (S.O). En d’autres termes si (u, y) est un couple optimal, il existe un triplet (u, y, p) solution du système d’optimalité singulier : (S.O.S)    A(y) = B(u) A0 (y) ∗p = φ 0 (y) (B 0 (u) ∗p + ψ 0 (u), v − u) ≥ 0, ∀ v ∈ Uad. Il est formellement identique à (S.O) mais a une diérente interprétation. L’équation ”A(y) = B(u)” dans (S.O.S) n’est pas « bien posée » au sens où l’opérateur A0 (y) ∗ n’est pas inversible. Dans le (S.O.S) il faut donc considérer globalement le système en (u, y, p).

  Problèmes d’évolution de type parabolique

 Les EDP paraboliques du second ordre sont des généralisations naturelles de l’équation de la chaleur. • Equations paraboliques Dans cette partie on suppose que Ω est un ouvert, borné de R n , et ΩT = Ω × [0, T] pour un temps T > 0 xé. Considérons le problème avec condition au bord et condition initiale :    ut + Lu = f dans ΩT u = 0 sur Γ × [0, T] u = g sur Ω × {t = 0} (2.8) où f : ΩT −→ R et g : Ω −→ R sont données et u : ΩT −→ R est l’inconnue, u = u(x, t). La lettre L désigne pour chaque temps t un opérateur diérentiel partiel du second ordre, ayant la forme : Lu = − Xn i,j=1 (a ij (x, t)uxi )xj + Xn i=1 b i (x, t)uxi + c(x, t)u (2.9) pour des coecients donnés a ij , bi , c (i, j = 1, 2, …, n). Dénition 2.11 On dira que l’opérateur diérentiel partiel ∂ ∂t + L est (uniformément) parabolique s’il existe une constante θ > 0 telle que : Xn i,j=1 a ij (x, t)ξiξj ≥ θ|ξ| 2 (2.10) ∀(x, t) ∈ ΩT , ξ ∈ R n .

Problème d’évolution de type hyperbolique 

 Remarque 2.2 Il faut noter en particulier que pour chaque temps xé 0 ≤ t ≤ T, l’opérateur L est un opérateur uniformément elliptique en la variable spatiale x. Un exemple immédiat est le cas où a ij ≡ δij , bi ≡ c ≡ f ≡ 0 dans quel cas L ≡ −∆ et l’EDP ut + Lu = 0 devient l’équation de la chaleur. • Solutions faibles Supposons toujours que a ij = a ji , (i, j = 1, …., n). et que L a la forme (2.9). On dénit maintenant, par analogie avec la notation introduite dans la partie précédente, la forme bilinéaire fonction du temps : B(u, v;t) := Z Ω Xn i,j=1 a ij (., t)uxi vxj + Xn i=1 b i (., t)uxi v + c(., t)uv! dx (2.11) pour u, v ∈ H1 0 (Ω) et p.p. tout 0 ≤ t ≤ T. Dénition 2.12 On dira qu’une fonction u ∈ L 2 (0, T; H 1 0 (Ω)), avec u 0 ∈ L 2 (0, T; H −1 (Ω)) est une solution faible du problème parabolique avec condition initiale et condition au bord (2.8) si : 1. hu 0 , vi + B(u, v;t) = hf, vi pour chaque v ∈ H1 0 (Ω) et p.p. tout 0 ≤ t ≤ T et 2. u(0) = g. Théorème 2.5 (Existence et unicité d’une solution faible). Il existe une unique solution faible de (2.8). 2.4 Problème d’évolution de type hyperbolique Les équations hyperboliques du second degré sont des généralisations naturelles de l’équation des ondes. • Equations hyperboliques Comme dans la partie ci-dessus, notons ΩT = Ω×[0, T], où T > 0 et Ω ⊂ R n est un ouvert, borné. Considérons alors le problème avec condition initiale et condition au bord :    utt + Lu = f dans ΩT u = 0 sur Γ × [0, T] u = g, ut = h sur Ω × {t = 0} (2.12) 22 Pré requis : Les fondamentaux où f : ΩT −→ R et g, h : Ω −→ R sont données et u : ΩT −→ R est l’inconnue, u = u(x, t). La lettre L désigne pour chaque temps t un opérateur diérentiel partiel du second ordre, ayant la forme : Lu = − Xn i,j=1 (a ij (x, t)uxi )xj + Xn i=1 b i (x, t)uxi + c(x, t)u (2.13) pour des coecients donnés a ij , bi , c (i, j = 1, 2, …, n). Dénition 2.13 On dira que l’opérateur diérentiel partiel ∂ 2 ∂t2 +L est (uniformément) hyperbolique s’il existe une constante θ > 0 telle que : Xn i,j=1 a ij (x, t)ξiξj ≥ θ|ξ| 2 (2.14) ∀(x, t) ∈ ΩT , ξ ∈ R n . Un exemple immédiat est le cas où a ij ≡ δij , bi ≡ c ≡ f ≡ 0 dans quel cas L ≡ −∆ et l’EDP utt + Lu = 0 devient l’équation des ondes. Les EDP hyperboliques du second ordre générales modélisent la transmission des ondes dans des milieux hétérogènes non isotropes. • Solutions faibles Supposons d’abord que L a la forme (2.13). Nous supposons maintenant que : a ij , bi , c ∈ C 1 (ΩT ), (i, j = 1, …., n) (2.15) f ∈ L 2 (ΩT ) (2.16) g ∈ H 1 0 (Ω), h ∈ L 2 (Ω). (2.17) Nous supposons toujours que a ij = a ji , (i, j = 1, …., n). Introduisons la forme bilinéaire fonction du temps : B(u, v;t) := Z Ω Xn i,j=1 a ij (., t)uxi vxj + Xn i=1 b i (., t)uxi v + c(., t)uv! dx (2.18) pour u, v ∈ H1 0 (Ω) et p.p. tout 0 ≤ t ≤ T. Dénition 2.14 On dira qu’une fonction u ∈ L 2 (0, T; H 1 0 (Ω)), avec u 0 ∈ L 2 (0, T; L 2 (Ω)), u 00 ∈ L 2 (0, T; H −1 (Ω)), est une solution faible du problème hyperbolique avec condition initiale et condition au bord (2.12) à condition que : 2.4 Problème d’évolution de type hyperbolique 23 1. hu 00, vi + B(u, v;t) = hf, vi pour chaque v ∈ H1 0 (Ω) et p.p. tout 0 ≤ t ≤ T et 2. u(0) = g, u 0 (0) = g. Théorème 2.6 (Existence et unicité d’une solution faible). Il existe une solution faible unique de (2.12). 

Table des matières

1 Introduction
1.1 Contrôle de systèmes distribués non singuliers
1.2 Contrôle de systèmes distribués singuliers
2 Pré requis : Les fondamentaux
2.1 Espaces de Sobolev
2.2 Formule d’intégration par parties
2.3 Problèmes d’évolution de type parabolique
2.4 Problème d’évolution de type hyperbolique
3 Système de Cauchy pour opérateur parabolique
3.1 Introduction
3.2 Position du problème
3.3 Méthode de Pénalisation
3.3.1 Convergence de la méthode
3.3.2 Système d’optimalité approché
3.4 Système d’optimalité singulier fort
3.5 Système d’optimalité singulier faible
4 Système de Cauchy pour opérateur hyperbolique
4.1 Introduction
4.2 Position du problème
4.3 Méthode de Pénalisation
4.3.1 Système d’optimalité approché
4.3.2 Convergence de la méthode
4.4 Système d’optimalité singulier fort
4.5 Système d’optimalité singulier faible
5 Conclusion et perspectives

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *