Quelques résultats asymptotiques

 Quelques résultats asymptotiques

Introduction La quantité d’information dont nous disposons pour optimiser le critère d’un problème d’optimisation stochastique, peut avoir des répercussions plus ou moins importantes sur le coˆut de ce problème. La dépendance entre les différents paramètres de sortie d’un problème et la structure d’information, a été étudiée auparavant par Artstein [10] qui montre, sous des hypothèses de convexité, la continuité par rapport `a la topologie de convergence forte de la fonction marginale d’un problème d’optimisation stochastique lorsque l’on perturbe la contrainte de mesurabilité. On trouve également dans les articles d’Allen [2] et de Cotter [31] le même type de résultats appliqués `a un problème de maximisation d’une fonction d’utilité concave strictement monotone. Nous allons établir le même type de résultats. Nous montrerons également une propriété de Lipschitz vérifiée par la fonction valeur. Nous allons étudier la discrétisation complète d’un problème statique d’optimisation stochastique et nous allons montrer que l’erreur de discrétisation est la somme de deux erreurs dont l’une est issue de la discrétisation de la structure d’information et l’autre de l’approximation de l’espérance du critère. Nous appliquerons ensuite nos résultats asymptotiques `a l’étude de deux exemples de problème d’optimisation statique. Nous discuterons `a la fin du chapitre de l’interaction entre la discrétisation et les contraintes de mesurabilité et de la manière pratique de discrétiser les contraintes de mesurabilité, en se tentant d’apporter une réponse `a la question suivante “Comment traduire dans le problème discret les contraintes de mesurabilité du problème continu ?”. 

Intégrandes normales

Nous avons rassemblé dans cette section quelques résultats concernant les intégrandes normales , le lecteur intéressé pourra consulter l’article de Berliocchi et Lasry [21] très complet sur le sujet. Dans toute la suite de ce chapitre, (Ω, F, P) désigne un espace mesurable, muni d’une probabilité P et ξ : Ω 7→ Ξ une variable aléatoire. 49 Quelques resultats asymptotiques 50 Quelques resul ´ tats asymptotiques IV.2 Définition IV.1. Si B est un borélien de R p , une application J de B × Ξ dans R est appelée intégrande normale si : – pour presque tout ξ ∈ Ξ, l’application J(·, ξ) est s.c.i. sur B, – il existe une fonction J˜ : B×Ξ → R borélienne telle que J˜(·, ξ) = J(·, ξ) pour presque tout ξ ∈ Ξ. Une première conséquence de cette définition est que si u est une application mesurable de Ξ dans B et J une intégrande normale alors la fonction : ξ 7→ J(u(ξ), ξ), est mesurable sur Ξ. Nous énon¸cons maintenant quelques propriétés des intégrandes normales : – si J est une intégrande normale, alors λJ est une intégrande normale pour tout λ ∈ R ; – si J et J 0 sont des intégrandes normales, alors (J+J 0 ) et inf(J, J 0 ) sont des intégrandes normales; – si (Jn)n∈N est une famille d’intégrandes normales, alors sup n∈N Jn est une intégrande normale. Exemple IV.2. Soit C un borélien de B ×Ξ ; on supposera que, pour presque tout ξ ∈ Ξ, la tranche Cξ = {a ∈ B | (a, ξ) ∈ C} est fermée dans B. Alors la fonction caractéristique XC de C : XC(a, ξ) = ( 0 si (a, ξ) ∈ C, +∞ si (a, ξ) ∈/ C. est une intégrande normale positive. Définition IV.3. Soit B un borélien de R n . Une application J : B × Ξ 7→ R est dite de Carathéodory si : – J(·, ξ) est continue sur B pour presque tout ξ ∈ Ξ, – J(u, ·) est mesurable sur Ξ pour tout u ∈ B. Proposition IV.4. Toute fonction de Carathéodory est une intégrande normale. IV.2 Pénalisation des contraintes de mesurabilité Soient B une sous-tribu de BΞ, J : R n × Ξ 7→ R, une intégrande normale et Γ une multi-application mesurable à valeurs non vides fermées et le problème P suivant : P    minE[J(u(ξ), ξ)] , u est B-mesurable, u(ξ) ∈ Γ(ξ) P − p.s..

Penalisalion des contraintes de mesurabilite

La problématique est la suivante : on cherche à déterminer des hypothèses sous lesquelles il sera possible de remplacer le problème P par le problèle :    minE[FB(u(ξ), ξ)] , u est BΞ-mesurable, u(ξ) ∈ Γ(ξ) P − p.s.. Ou` FB est une fonction qui dépend de B. Zvi Artstein [10] à montré que dans le cas ou` J(·, ξ) est convexe et que Γ est indépendant de ξ que l’on peut prendre : FB(γ) = E[JB(γ(ξ), ξ)] ou` : JB(u, ξ) def = E(J(u, ·) | B). (IV.1) Nous allons montrer que ce résultat reste valable dans d’autre cas sans supposer que J(·, ξ) est convexe. Nous étudierons ensuite la continuité de la fonction V . Notre approche repose sur le lemme technique suivant due à Dynkin et Evstigneev. Lemme IV.5 (Dynkin, Evstigneev [41]). Soient B une sous-tribu de F, J : R n ×Ξ → R une intégrande normale. Posons g(u, ·) = E(J(u, ·) | B). On suppose qu’il existe une application m ∈ L 1 R (F) telle que ∀u ∈ R n , |J(u, ξ)| ≤ m(ξ) P − p.s., alors pour toute application u : Ξ → R n B-mesurable on a : g(u(ξ), ξ) = E(J(u(ξ), ξ) | B). Considérons le problème suivant : P 0    min E[g(u(ξ), ξ)] , u est BΞ-mesurable, u(ξ) ∈ Γ(ξ) P − p.s.. Avec : g(u, ξ) = E(J(u, ξ) | B). Théorème IV.6. On suppose que Γ est une multi application B-mesurable `a valeurs non vides et compactes dans R n et qu’il existe une application m ∈ L 1 R (Ξ) telle que ∀u ∈ R n , |J(u, ξ)| ≤ m(ξ). Alors il existe une variable aléatoire u telle que : 1. u est B-mesurable ; 2. u est solution du problème P 0 ; 3. u est solution du problème P. Preuve : Soit la multi-application M définie par : M(ξ) def = ½ u ∈ Γ(ξ) | g(u, ξ) ≤ inf v∈Γ(ξ) g(v, ξ) ¾ .  Quelques resultats asymptotiques IV.2 M est une multi-application B-mesurable, `a valeurs non vides et fermées. Par un théorème de sélection mesurable, il existe une sélection B-mesurable de M, c’est-`a-dire : ∃u : Ξ → R n B-mesurable tel que u(ξ) ∈ M(ξ). Puisque u(ξ) ∈ M(ξ) P − p.s. alors u(ξ) ∈ Γ(ξ) P − p.s.. Par ailleurs, il est clair qu’une telle sélection mesurable réalise le minimum de P 0 . Nous avons déj`a que u vérifie les contraintes du problème P, il nous reste `a montrer l’optimalité de u. Soit v B-mesurable telle que v(ξ) ∈ Γ(ξ) P − p.s.. Alors, par optimalité de u pour le problème P 0 on a que : E [g(u(ξ), ξ)] ≤ E [g(v(ξ), ξ)] . (IV.2) Par le lemme IV.5 on a : g(u(ξ), ξ) = E (J(u(ξ), ξ) | B) et g(v(ξ), ξ) = E (J(v(ξ), ξ) | B) ; (IV.3) et par une propriété de l’espérance conditionnelle : E [g(u(ξ), ξ)] = E [J(u(ξ), ξ)] et E [g(v(ξ), ξ)] = E [J(v(ξ), ξ)] ce qui combiné `a l’inégalité (IV.2) donne : E [J(u(ξ), ξ)] ≤ E [J(v(ξ), ξ)] ; (IV.4) ce qui prouve que u est également solution du problème P. ¤ Proposition IV.7. On suppose que Γ est une multi application B-mesurable `a valeurs non vides et compactes et qu’il existe une application m ∈ L 1 R (F) telle que |J(u, ξ)| ≤ m(ξ). Soit u une solution du problème P, alors u est solution du problème P 0 . Preuve : Soient u une solution du problème P et v une solution du problème P 0 . D’après le théorème IV.6, nous pouvons toujours supposer que v est B-mesurable. L’application v vérifie donc les contraintes du problème P et du fait de l’optimalité de u on a : E [J(u(ξ), ξ)] ≤ E [J(v(ξ), ξ)] . (IV.5) Cette dernière inégalité associée `a une propriété de l’espérance conditionnelle nous donne : E[E (J(u(ξ), ξ) | B)] ≤ E[E (J(v(ξ), ξ) | B)]. (IV.6) On associe cette fois-ci l’inégalité précédente au lemme IV.5 pour obtenir la relation suivante : E[g(u(ξ), ξ)] ≤ E[g(v(ξ), ξ)]. (IV.7) Etan ´ t donné que v est optimal pour P 0 alors u est également optimal pour P 0.

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *