PRINCIPES DE MOYENNISATION POUR DES EQUATIONS DIFFENTIELLES STOCHASTIQUES
AVEC PETITE DIFFUSION
Processus aléatoires
Soit (Ω, A,P) un espace de probabilité et T un ensemble d’indice (T = [a, b], T = [0, +∞] etc…) Un processus stochastique X(t, ω) à valeurs dans un espace mesurable (E, ξ) est une application T × Ω → E qui est mesurable par rapport à la mesure produit λ ⊗ P où λ est la mesure de Lebesgue sur T, Xt(ω) ou X(t, ω). La fonction t → X(t, ω) est appelée trajectoire ou réalisation de Xt . A t fixé, la fonction ω → X(t, ω) est une variable aléatoire Xt adaptée à la filtration Ft si Xt est Ft-mesurable.
Martingales locales
Définition 1 :(Martingale) [3] . Soit (Ω, F, {Fn}n, P) un espace probabilisé filtré. Une martingale par rapport à la filtration {Fn}n est un processus stochastique {Xn}n∈N tel que 1. E(|Xn|) < ∞ pour tout n ∈ N ; 2. {Xn}n est adapté à la filtration {Fn}n ; 3. E(Xn+1|Fn) = Xn pour tout n ∈ N. Définition 2 (Temps d’arrêt)[5] : Une variable aléatoire S à valeurs dans N∪ {+∞} est un temps d’arrêt pour une filtration {Fn, n ∈ N} si {S = n} ∈ Fn pour tout n ∈ N. Si T est un temps d’arrêt et X = (Xt)t≥0 un processus, on rappelle que X T désigne le processus arrêté : pour tout t ≥ 0, X T t = Xt∧T . On a vu que si X est une martingale alors X T l’est aussi (il s’agit de la martingale arrêtée), Définition 3 (Martingale locale) [4] : Un processus M = (Mt)t≥0 est appelé une martingale locale (continue) s’il s’écrit Mt = M0 + Nt ou M ` 0 est une variable aléatoire F0-mesurable et (Nt)t≥0 est un processus adapté à trajectoires continues tel qu’il existe une suite croissante (Tn)n≥0 de temps d’arrêt avec Tn % +∞ et pour tout n le processus arrêté N Tn est une martingale uniformément intégrable. On dit que la suite de temps d’arrêt Tn % +∞ si pour tout n le processus arrêté N Tn est une martingale uniformément intégrable. Lorsque M0 = 0, on parle de martingale locale issue de 0. 5 Chapitre 1 :Préliminaire Définition 4 (Semi-martingale) [4] :Une semi-martingale X est un processus continu qui peut être écrit sous la forme X = A + M , ou M ` est une martingale locale et A est un processus à variation finie. Proposition 1 :(Inégalité de Bernstein)[24] Soit M une martingale locale continue issue de 0, alors P[M∗ ∞ ≥ x;hM, Mi∞ ≤ y] ≤ exp(− x 2 2y ). Théorème 1 (Inégalité de Burkholder [13]). Soit M une martingale continue telle que E(hM, Mi p/2 T ) < ∞ où T > 0 est fixé, M0 = 0 et p ≥ 2. Alors, i) il existe une constante C 0 p (ne dépendant pas de M) telle que ∀t ≤ T , E(|Mt | p ) ≤ C 0 pE(hM, Mi p/2 t ). ii) il existe une constante Cp (ne dépendant pas de M) telle que E(sup t≤T |Mt | p ) ≤ CpE(hM, Mi p/2 T ).
Mouvement Brownien
Un processus stochastique Bt est un mouvement brownien ou un processus de Wiener standard si B0 = 0 (on dit que Bt est issu de 0 ) et si pour tous réels 0 < t1 < t2 < … < tn, les variables aléatoires Bt1 −Bt0 , …, Btn −Btn−1 sont indépendantes et suivent une distribution gaussienne centrée réduite (on dit que le brownien est standard si m = 0 et σ = 1) telle que E(Bt+h − Bt) = 0 E(Bt+h − Bt) 2 = h Dans le cas général, lorsque le brownien n’est pas centré réduit, on a E(Btk − Btk−1 ) = m(tk − tk−1) E(Btk − Btk−1 − m(tk − tk−1))2 = σ 2 (tk − tk−1) Le vecteur (Bt0 , Bt1 , …, Btn ) est un vecteur gaussien. Le processus Bt suit une loi gaussienne de moyenne mt et de variance σ 2 t. Pour simuler un mouvement brownien, il suffit de se donner un pas de temps h et d’écrire Bnh = (Bh − B0) + (B2h − Bh) + … + (Bnh − B(n−1)h) Les accroissements Xn = Bnh − B(n−1)h étant indépendants et gaussiens, il suffit donc de 6 Chapitre 1 :Préliminaire simuler une loi gaussienne Xn et d’utiliser la formule de récurrence Bnh = B(n−1)h + Xn 1.1.3 Processus de Markov Définition 6 [20] : Une fonction de transition sur (E, E) est une famille de probabilité (Ps,t)0≤s s ≥ 0 , Bt−Bs est indépendant de {Bu}u≤s ; 3. La loi de Bt − Bs est la loi normale N (0, t − s)
Propriétés de Markov
Nous avons déjà un sens à la notion de propriété de Markov. Nous en donnons ici une autre forme très utile tant en pratique qu’au niveau de l’intuition. Soit Ω =ˆ {ωˆ : R+ → E}, il est appelé espace canonique. Posons Xˆ t(ω) = ω(t) et notons F∞ la tribu F∞ = σ(Xˆ s, s ∈ R) = σ(Xˆ s, s ∈ Q) 7 Chapitre 1 :Préliminaire Proposition 2 [20] : Si Z est une variable aléatoire de (Ω, F∞, P) dans R mesurable (c’est à dire une fonction mesurable par rapport à la tribu engendrée par les variables aléatoires Xs pour tout s ou X ` est un processus de Markov) bornée alors E(θtZ|Ft) = EXt (Z) = K(Xt), (1.2) ou K ` (x) = E(Z|X0 = x) = Ex(Z) , θt est l’opérateur de translation. Démonstration. Il suffit de vérifier la propriété pour Z de la forme Z = f1(Xt1 )…fn(Xtn ), avec t1 < … < tn. Par définition de θt , θtZ = f1(Xt+t1 )…fn(Xt+tn ).Donc E(θtZ|Ft) = E(E(θtZ|Ft+tn−1 )|Ft) = E(f1(Xt+t1 )…fn−1(Xt+tn−1 )E(fn(Xt+tn )|Ft+tn−1 )|Ft) = E(f1(Xt+t1 )…fn−1(Xt+tn−1 )Ptn−tn−1 (fn)(Xt+tn−1 )|Ft) Donc E(θtZ|Ft) = Pt1 (f1Pt2−t1 (f2Pt3−t2 (f4…(fn−1Ptn−tn−1 fn)…)))(Xt) = EXt (Z).
Processus de diffusion
Le cas générique
Dans la suite, a et b sont des fonctions de R d à valeurs respectivement dans R d × R d et R d telles que : (i) les applications x → a(x) et x → b(x) sont mesurables (pour les tribus boréliennes) et localement bornées, (ii) pour tout x, la matrice a(x) est symétrique et positive, c’est-à dire que pour tout λ ∈ R d , haλ, λi = X d i,j=1 aijλiλj ≥ 0 . On associe au couple (a, b) l’opérateur différentiel du second ordre Lf(x) = 1 2 X d i,j=1 aij (x)∂ 2 ijf(x) + X d i=1 b(x)∂if(x) 8 Chapitre 1 :Préliminaire Définition 9 [20] : Un processus de Markov X = (Ω, F, Ft , Xt , Px) à valeurs dans R d est appelé processus de diffusion de générateur L si (i) les trajectoires de X sont continues, (ii) pour tout x ∈ R d et f ∈ C∞ K , Ex[f(Xt)] = f(x) + Ex[ Z t 0 Lf(Xs)ds]. On dit dans ce cas que X admet a pour coefficient de diffusion et b pour coefficient de dérive.
Équation différentielle stochastique (EDS)
On se donne deux fonctions b et a définies sur R à valeurs dans R ∗ + et R respectivement. On veut donner un sens à l’équation dXt = b(t, Xt)dt + a(t, Xt)dBt (1.3) ou B ` t est un mouvement Brownien standard sur R, ou sous forme intégrale : Xt = X0 + Z t 0 b(s, Xs)ds + Z t 0 a(s, Xs)dBs (1.4) Remarque 1 : Si a(s, x) = 0, alors l’équation (1.3) est tout simplement une équation différentielle ordinaire c’est à dire l’équation est de la forme dx(t) dt = b(t, x(t)). Soit (Ω, F,(Ft)t∈R+ , P) un espace de probabilité filtré et (Bt)t∈R+ un mouvement Brownien. On se donne un intervalle [0, T] et s ∈ [0, T]. On pose Fs,t = σ(Bu − Bs; s ≤ u ≤ t). Alors,(X x t )t∈[s,T] est solution de l’ E.D.S. : X x t = X + Z t s b(r, Xx r )dr + Z t s a(r, Xx r )dBr (1.5) si X x t est Fs,t-mesurable pour tout t ∈ [s, T] et satisfait (1.5). Hypothèses : (H1) :Conditions de Lipschitz : Il existe L > 0 telle que |b(t, y) − b(t, x)| ≤ L|x − y| |a(t, y) − a(t, x)| ≤ L|x − y| pour tout t ∈ [0, T]. (H2) : Les fonctions t → b(t, x) et t → a(t, x) sont continues pour tout x ∈ R. On en déduit qu’il existe A > 0 telle que pour tout x ∈ R et t ∈ [0, T], |b(t, y)| + |a(t, x)| ≤ A(1 + |x|). 9 Chapitre 1 :Préliminaire Théorème 2. [13]. Sous les hypothèses (H1) et (H2), l’équation différentielle stochastique (1.4) admet une unique solution pour toute condition initiale x, appartenant à L p , pour tout p ≥ 2.
1 Préliminaires |