PRINCIPES DE MOYENNISATION POUR DES EQUATIONS DIFFENTIELLES STOCHASTIQUES AVEC PETITE DIFFUSION

PRINCIPES DE MOYENNISATION POUR DES EQUATIONS DIFFENTIELLES STOCHASTIQUES
AVEC PETITE DIFFUSION

Processus aléatoires 

Soit (Ω, A,P) un espace de probabilité et T un ensemble d’indice (T = [a, b], T = [0, +∞] etc…) Un processus stochastique X(t, ω) à valeurs dans un espace mesurable (E, ξ) est une application T × Ω → E qui est mesurable par rapport à la mesure produit λ ⊗ P où λ est la mesure de Lebesgue sur T, Xt(ω) ou X(t, ω). La fonction t → X(t, ω) est appelée trajectoire ou réalisation de Xt . A t fixé, la fonction ω → X(t, ω) est une variable aléatoire Xt adaptée à la filtration Ft si Xt est Ft-mesurable. 

Martingales locales 

Définition 1 :(Martingale) [3] . Soit (Ω, F, {Fn}n, P) un espace probabilisé filtré. Une martingale par rapport à la filtration {Fn}n est un processus stochastique {Xn}n∈N tel que 1. E(|Xn|) < ∞ pour tout n ∈ N ; 2. {Xn}n est adapté à la filtration {Fn}n ; 3. E(Xn+1|Fn) = Xn pour tout n ∈ N. Définition 2 (Temps d’arrêt)[5] : Une variable aléatoire S à valeurs dans N∪ {+∞} est un temps d’arrêt pour une filtration {Fn, n ∈ N} si {S = n} ∈ Fn pour tout n ∈ N. Si T est un temps d’arrêt et X = (Xt)t≥0 un processus, on rappelle que X T désigne le processus arrêté : pour tout t ≥ 0, X T t = Xt∧T . On a vu que si X est une martingale alors X T l’est aussi (il s’agit de la martingale arrêtée), Définition 3 (Martingale locale) [4] : Un processus M = (Mt)t≥0 est appelé une martingale locale (continue) s’il s’écrit Mt = M0 + Nt ou M ` 0 est une variable aléatoire F0-mesurable et (Nt)t≥0 est un processus adapté à trajectoires continues tel qu’il existe une suite croissante (Tn)n≥0 de temps d’arrêt avec Tn % +∞ et pour tout n le processus arrêté N Tn est une martingale uniformément intégrable. On dit que la suite de temps d’arrêt Tn % +∞ si pour tout n le processus arrêté N Tn est une martingale uniformément intégrable. Lorsque M0 = 0, on parle de martingale locale issue de 0. 5 Chapitre 1 :Préliminaire Définition 4 (Semi-martingale) [4] :Une semi-martingale X est un processus continu qui peut être écrit sous la forme X = A + M , ou M ` est une martingale locale et A est un processus à variation finie. Proposition 1 :(Inégalité de Bernstein)[24] Soit M une martingale locale continue issue de 0, alors P[M∗ ∞ ≥ x;hM, Mi∞ ≤ y] ≤ exp(− x 2 2y ). Théorème 1 (Inégalité de Burkholder [13]). Soit M une martingale continue telle que E(hM, Mi p/2 T ) < ∞ où T > 0 est fixé, M0 = 0 et p ≥ 2. Alors, i) il existe une constante C 0 p (ne dépendant pas de M) telle que ∀t ≤ T , E(|Mt | p ) ≤ C 0 pE(hM, Mi p/2 t ). ii) il existe une constante Cp (ne dépendant pas de M) telle que E(sup t≤T |Mt | p ) ≤ CpE(hM, Mi p/2 T ). 

 Mouvement Brownien 

 Un processus stochastique Bt est un mouvement brownien ou un processus de Wiener standard si B0 = 0 (on dit que Bt est issu de 0 ) et si pour tous réels 0 < t1 < t2 < … < tn, les variables aléatoires Bt1 −Bt0 , …, Btn −Btn−1 sont indépendantes et suivent une distribution gaussienne centrée réduite (on dit que le brownien est standard si m = 0 et σ = 1) telle que    E(Bt+h − Bt) = 0 E(Bt+h − Bt) 2 = h Dans le cas général, lorsque le brownien n’est pas centré réduit, on a    E(Btk − Btk−1 ) = m(tk − tk−1) E(Btk − Btk−1 − m(tk − tk−1))2 = σ 2 (tk − tk−1) Le vecteur (Bt0 , Bt1 , …, Btn ) est un vecteur gaussien. Le processus Bt suit une loi gaussienne de moyenne mt et de variance σ 2 t. Pour simuler un mouvement brownien, il suffit de se donner un pas de temps h et d’écrire Bnh = (Bh − B0) + (B2h − Bh) + … + (Bnh − B(n−1)h) Les accroissements Xn = Bnh − B(n−1)h étant indépendants et gaussiens, il suffit donc de 6 Chapitre 1 :Préliminaire simuler une loi gaussienne Xn et d’utiliser la formule de récurrence Bnh = B(n−1)h + Xn 1.1.3 Processus de Markov Définition 6 [20] : Une fonction de transition sur (E, E) est une famille de probabilité (Ps,t)0≤s s ≥ 0 , Bt−Bs est indépendant de {Bu}u≤s ; 3. La loi de Bt − Bs est la loi normale N (0, t − s) 

 Propriétés de Markov 

Nous avons déjà un sens à la notion de propriété de Markov. Nous en donnons ici une autre forme très utile tant en pratique qu’au niveau de l’intuition. Soit Ω =ˆ {ωˆ : R+ → E}, il est appelé espace canonique. Posons Xˆ t(ω) = ω(t) et notons F∞ la tribu F∞ = σ(Xˆ s, s ∈ R) = σ(Xˆ s, s ∈ Q) 7 Chapitre 1 :Préliminaire Proposition 2 [20] : Si Z est une variable aléatoire de (Ω, F∞, P) dans R mesurable (c’est à dire une fonction mesurable par rapport à la tribu engendrée par les variables aléatoires Xs pour tout s ou X ` est un processus de Markov) bornée alors E(θtZ|Ft) = EXt (Z) = K(Xt), (1.2) ou K ` (x) = E(Z|X0 = x) = Ex(Z) , θt est l’opérateur de translation. Démonstration. Il suffit de vérifier la propriété pour Z de la forme Z = f1(Xt1 )…fn(Xtn ), avec t1 < … < tn. Par définition de θt , θtZ = f1(Xt+t1 )…fn(Xt+tn ).Donc E(θtZ|Ft) = E(E(θtZ|Ft+tn−1 )|Ft) = E(f1(Xt+t1 )…fn−1(Xt+tn−1 )E(fn(Xt+tn )|Ft+tn−1 )|Ft) = E(f1(Xt+t1 )…fn−1(Xt+tn−1 )Ptn−tn−1 (fn)(Xt+tn−1 )|Ft) Donc E(θtZ|Ft) = Pt1 (f1Pt2−t1 (f2Pt3−t2 (f4…(fn−1Ptn−tn−1 fn)…)))(Xt) = EXt (Z).

 Processus de diffusion 

Le cas générique 

 Dans la suite, a et b sont des fonctions de R d à valeurs respectivement dans R d × R d et R d telles que : (i) les applications x → a(x) et x → b(x) sont mesurables (pour les tribus boréliennes) et localement bornées, (ii) pour tout x, la matrice a(x) est symétrique et positive, c’est-à dire que pour tout λ ∈ R d , haλ, λi = X d i,j=1 aijλiλj ≥ 0 . On associe au couple (a, b) l’opérateur différentiel du second ordre Lf(x) = 1 2 X d i,j=1 aij (x)∂ 2 ijf(x) + X d i=1 b(x)∂if(x) 8 Chapitre 1 :Préliminaire Définition 9 [20] : Un processus de Markov X = (Ω, F, Ft , Xt , Px) à valeurs dans R d est appelé processus de diffusion de générateur L si (i) les trajectoires de X sont continues, (ii) pour tout x ∈ R d et f ∈ C∞ K , Ex[f(Xt)] = f(x) + Ex[ Z t 0 Lf(Xs)ds]. On dit dans ce cas que X admet a pour coefficient de diffusion et b pour coefficient de dérive.

 Équation différentielle stochastique (EDS)

 On se donne deux fonctions b et a définies sur R à valeurs dans R ∗ + et R respectivement. On veut donner un sens à l’équation dXt = b(t, Xt)dt + a(t, Xt)dBt (1.3) ou B ` t est un mouvement Brownien standard sur R, ou sous forme intégrale : Xt = X0 + Z t 0 b(s, Xs)ds + Z t 0 a(s, Xs)dBs (1.4) Remarque 1 : Si a(s, x) = 0, alors l’équation (1.3) est tout simplement une équation différentielle ordinaire c’est à dire l’équation est de la forme dx(t) dt = b(t, x(t)). Soit (Ω, F,(Ft)t∈R+ , P) un espace de probabilité filtré et (Bt)t∈R+ un mouvement Brownien. On se donne un intervalle [0, T] et s ∈ [0, T]. On pose Fs,t = σ(Bu − Bs; s ≤ u ≤ t). Alors,(X x t )t∈[s,T] est solution de l’ E.D.S. : X x t = X + Z t s b(r, Xx r )dr + Z t s a(r, Xx r )dBr (1.5) si X x t est Fs,t-mesurable pour tout t ∈ [s, T] et satisfait (1.5). Hypothèses : (H1) :Conditions de Lipschitz : Il existe L > 0 telle que |b(t, y) − b(t, x)| ≤ L|x − y| |a(t, y) − a(t, x)| ≤ L|x − y| pour tout t ∈ [0, T]. (H2) : Les fonctions t → b(t, x) et t → a(t, x) sont continues pour tout x ∈ R. On en déduit qu’il existe A > 0 telle que pour tout x ∈ R et t ∈ [0, T], |b(t, y)| + |a(t, x)| ≤ A(1 + |x|). 9 Chapitre 1 :Préliminaire Théorème 2. [13]. Sous les hypothèses (H1) et (H2), l’équation différentielle stochastique (1.4) admet une unique solution pour toute condition initiale x, appartenant à L p , pour tout p ≥ 2. 

Table des matières

1 Préliminaires
1.1 Processus aléatoires
1.1.1 Martingales locales
1.1.2 Mouvement Brownien
1.1.3 Processus de Markov
1.1.4 Processus de diffusion
1.2 Les principes des grandes déviations (PGD)
1.2.1 Grandes déviations
1.2.2 Le théorème de Schilder
1.2.3 Le théorème de Freidlin – Wentzell
1.2.4 Le Théorème de la Limite Centrale (TLC)
1.2.5 Déviations modérées
2 PGD pour le processus de Markov ergodique exponentiel
2.1 Les hypothèses et les résultats principaux
2.1.1 Formulation du PGD
2.1.2 Hypothèses sur le processus de Markov (ξt)t≥0
2.1.3 Hypothèses sur la diffusion
2.1.4 Les fonctions de taux
2.2 Quelques définitions et les résultats préliminaires
3 Déviations modérées sur les principes de la moyenne
3.1 Le principe de grandes déviations de ηˆε
3.1.1 Tension exponentielle de Rε
3.1.2 Le principe de déviations modérées local de Rε
3.1.3 Identification de la fonction de taux I . 40
3.2 Équivalence exponentielle de ηε et ηˆε

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *