Théorème central limite et convergence du processus des sommes partielles 

Représentations des processus stables

Nous rappelons à présent deux représentations des processus α-stables qui nous serviront par la suite dans les chapitres 3 et 4. Nous allons supposer dans cette partie que β = µ = 0.
Soit (E, E , m) un espace de mesure σ-finie et E 0 = {A ∈ E : m(A) < ∞}.
On commence par définir une mesure aléatoire α-stable M . Soit (Ω, F , P ) l’espace probabilisé sous-jacent et L 0 (Ω) l’ensemble des variables aléatoires réelles sur cet espace.

Processus stationnaires du second ordre

Processus stationnaires du second ordre : fonction d’autocovariance, densité spectrale et mémoire

Dans la suite, on s’intéresse à des processus stochastiques définis sur I ⊂ R où I correspond, suivant le processus étudié, à N (temps discret) ou à R + (temps continu). On rappelle les définitions et propriétés des processus stationnaires du second ordre (voir [Gir+12]).

Organisation de la thèse

Estimations et simulations de processus stables

Nous avons rappelé à présent les propriétés sur les lois et processus stables qui nous serviront par la suite. Dans la première partie de cette thèse, on va s’intéresser à l’estimation de lois et processus (localement) stables et à la simulation de ces processus.
Le chapitre 2 correspond à la version française de l’article [LV+19] soumis en collaboration avec J. Lévy Véhel et A. Philippe. Dans ce chapitre, on s’intéresse à des méthodes d’estimation pour les lois stables.
En particulier, on estime l’indice de stabilité α ainsi que le paramètre d’échelle σ pour une loi stable Sα (σ, 0, 0) en utilisant les expressions des log-moments :

Échantillonnage de processus stationnaires du second ordre définis en temps continu

L’échantillonnage de processus a toujours été une question intéressante puisqu’il permet de modéliser à la fois des données en temps continu dont nous n’avons accès qu’à un certain nombre d’observations (grâce à un capteur par exemple) soit de modéliser un processus dont il nous manque des données.

Introduction

Une première approche d’échantillonnage proposée consiste à regarder de manière régulière le processus aux instants (nh) n∈Z , avec h un pas de temps fixé ([BT58]). Cependant, cette méthode ne permet pas de retrouver précisément la densité spectrale f du processus initial (et donc aussi sa fonction de covariance) car cette méthode produit des alias de f , c’est à dire d’autres densités spectrales compatibles avec les valeurs du processus aux instants (nh) n∈Z.
Ainsi, [SS60] proposent d’étudier certains échantillonnages irréguliers afin d’avoir des méthodes sans alias. Une première étude aux instants aléatoires (nh + γ n ) n∈Z où h est un pas de temps fixé et les γ n sont des variables i.i.d. N (0, σ 2 ) avec σ h mène à un échantillonnage qui admet lui-aussi des alias. Une deuxième étude pour un échantillonnage aléatoire additif aux instants (t n ) n∈Z tels que t n = t n−1 + γ n avec des (γ n) n i.i.d. de densité p sur R + et supposée dans L 2 mène à un échantillonnage sans alias (sous certaines conditions sur la loi commune des γ n) [SS60 ; GR57]. On peut trouver d’autres échantillonnages dans la littérature.
Par exemple, [BB10] proposent d’étudier des processus gaussiens stationnaires aux instants (t (n) 0 , . . . , t (n) n ) tels que t (n) k+1 − t (n) k = δ nLk avec (δ n ) n suite déterministe positive tendant vers 0 et (Lk ) k suite de variables aléatoires positives tandis que [LM94] s’intéressent à un échantillonnage à l’aide d’un processus ponctuel stationnaire.

Exemple d’estimation avec des mouvements de Lévy multistables

Lorsque α ∈ C 1 ([0, 1], ]1, 2[), comme décrit après le Théorème 4.2.2, les mouvements de Lévy multistables vérifient toutes les conditions nécessaires à l’application du théorème de convergence des moments d’ordre p. En particulier, pour 0 < θ < 1, on a la convergence en probabilité de l’estimateur b αN,p,θ (t 0 ) défini en (4.3.1) vers α(t 0 ) pour 0 < p < α(t 0 ) et vers p pour α(t 0 ) < p < 2.
Pour les simulations, on va fixer le paramètre p < 1 et θ = 1/2. Dans la Figure 4.3, on va s’intéresser à l’estimation de la fonction d’intensité des mouvements de Lévy multistables qu’on va considérer. On peut remarquer que l’estimateur arrive bien à estimer la fonction d’intensité même en cas de changements rapides.

Exemple d’estimation avec des mouvements linéaires multifractionnaires multistables

Bien que la convergence de l’estimateur pour toute valeur de p n’a pas été vérifiée pour les mouvements linéaires multifractionnaires multistables, ces processus vérifient les conditions du Théorème 4.2.1 lorsque h − 1 α est une fonction positive (voir Section 6.1 de [LG13]) où α est la fonction d’intensité et h est la fonction de localisation de ce processus. Pour de tels processus, on a ainsi, pour 0 < p < α(t 0 ).
Comme h est à valeurs dans ]0, 1[, pour ces processus α à valeurs dans ]1, 2[. On prend donc p < 1 pour l’estimation de la fonction d’intensité des mouvements linéaires multifractionnaires multistables considérés.
Les mouvements linéaires multifractionnaires multistables sont des processus difficiles à étudier car ils sont paramétrés par deux fonctions. Cependant, on constate dans les Figures 4.4 et 4.5 que la fonction d’intensité est bien estimée et ceci pour différentes formes pour α et h.
Nous n’avons pas étudié la fonction de localisation dans nos travaux. Cependant, il est possible de l’estimer à partir des log-moments du processus sur une fenêtre d’observation (voir [LG13])

Introduction

Les séries temporelles à longue dépendance ont diverses applications dans de nombreux domaines, notamment l’hydrologie, l’économie et les télécommunications (voir [Ber+13] chap. 2). La plupart des articles sur ce sujet considèrent les processus à temps discret. Cependant, certains modèles et méthodes d’estimation ont été étendus aux processus en temps continu (voir [TC05a], [Via+94], [CR96], [Com96]).
Dans [TC05a], Tsai et Chan ont introduit le modèle des processus à temps continu CARFIMA(p,H,q) (autorégressifs, moyenne mobile, fractionnairement intégrés). Sous la condition de forte dépendance H ∈]1/2, 1[, ils donnent la fonction d’autocovariance du processus CARFIMA qui est stationnaire. Ces propriétés sont étendues au cas H ∈]0, 1[ dans [Tsa09]. Dans [Via+94], des processus ARMA fractionnaire et à temps continu sont construits. Sous certaines conditions, ces processus sont gaussiens stationnaires et centrés. De plus, Viano et al donnent des résultats sur la fonction d’autocovariance et précisent la dépendance asymptotique de ces processus. Dans [CR96], Comte et Renault présentent une famille de modèles à longue mémoire : le processus fractionnaire à moyenne mobile en temps continu.
L’inférence statistique pour les processus en temps continu est généralement construite à partir d’un processus échantillonné. Dans [TC05a], la méthode d’estimation est basée sur l’estimation par maximum de vraisemblance pour des données de séries temporelles à espacement déterministe irrégulier.
Nous nous intéressons aux données irrégulièrement espacées lorsque les intervalles d’échantillonnage sont des variables aléatoires positives indépendantes et de même loi. À la vue des résultats en temps discret, l’échantillonnage aléatoire a un effet sur la structure de dépendance du processus. En effet, [PV10] montrent que l’intensité de la longue mémoire est préservée lorsque la loi des intervalles d’échantillonnage est L 1 , mais ils montrent aussi des situations menant à une réduction de la mémoire. Dans ce chapitre, X = (Xt ) t∈R + est un processus stationnaire du second ordre à temps continu de fonction d’autocovariance σ X (.) et (T n ) n≥0 est une marche aléatoire indépendante de X. Les intervalles d’échantillonnage T j +1 − T j = ∆j sont supposés i.i.d de densité commune s à support sur R + . L’origine des observations est fixée à l’origine des temps : T 0 = 0. Sans perte de généralités, X est supposé être un processus centré.
Nous adoptons la définition la plus courante de la longue mémoire. A savoir, pour un processus stationnaire U ayant une fonction de covariance σU.

LIRE AUSSI :  Quelques résultats asymptotiques

Processus à longue mémoire

Dans cette section, nous considérons les processus de longue mémoire avec une forme spécifique de fonction de covariance. L’hypothèse est satisfaite, par exemple pour les modèles CARFIMA.

Normalité asymptotique du processus des sommes partielles

Nous avons vu dans la section précédente que le caractère gaussien du processus initial n’était pas maintenu après échantillonnage (voir Proposition 5.2.2). Cependant, nous allons montrer dans cette partie que nous pouvons trouver asymptotiquement un processus gaussien.

Comparaison entre le sous échantillonnage et l’agrégation temporelle

Les mêmes notations que dans les sections précédentes sont conservées : on part de X = (Xt ) t∈R + , un processus centré stationnaire du second ordre à temps continu de fonction d’autocovariance σ X (.) et d’une marche aléatoire (T n ) n≥0 indépendante de X. Les intervalles d’échantillonnage T j +1 − T j = ∆j sont i.i.d. de densité de probabilité commune s à support sur R + .De plus, T 0 = 0.
Nous voulons considérer le processus agrégé R T h+1 T h Xt dt comme une variablealéatoire. Pour cela, nous avons besoin d’hypothèses supplémentaires sur l’intégrabilité de X pour garantir que R b a |Xt |dt < ∞ pour 0 ≤ a < b < ∞ et sur la mesurabilité de X. Si nous supposons que X a des trajectoires continues ([MS70 ; Kub70 ; Kaw81]) ou que sup t∈[a,b] E(|Xt |) < ∞ pour tout 0 ≤ a < b < ∞ et si le processus X : [0, ∞[×Ω → R est conjointement mesurable, l’intégrale stochastique R b a Xtdt est bien définie et est une variable aléatoire.

Existence d’une densité spectrale pour le processus échantillonné

De nombreux estimateurs pour les processus à longue mémoire sont basés sur le comportement de la densité spectrale (voir [Gir+12] pour un récapitulatif et une analyse de ses estimateurs et [Gro+18]). Dans cette section, nous étudions l’existence de la densité spectrale du processus échantillonné Y. Dans la proposition suivante, nous montrons l’existence de densité spectrale pour X et Y sous une condition L p pour la fonction d’autocovariance et nous établissons la relation entre les densités spectrales de X et Y.

Convergence de l’estimateur local Whittle

Dans de nombreux travaux, la question de l’estimation du paramètre de longue  mémoire d a été traitée sous différentes conditions sur le processus. Dans le cas où le comportement de la densité spectrale est connue autour de l’origine et de la forme f (u) ∼ b|u| −2d , on va utiliser des estimateurs semi-paramétriques. Geweke et Porter-Hudak [GP83] ont introduit l’estimateur du log-périodogramme b d GP H basé sur la minimisation de la fonction objectif.

Preuve de la Proposition 6.4.1

Sans perte de généralité, on peut supposer pour la preuve que λ = 1 et c = 1. Afin de simplifier l’expression des calculs, on pose α := 1 − 2d ∈]0, 1[. Dans cette preuve, la constante C peut changer d’une ligne à une autre.

Table des matières

1 Introduction 
1.1 Processus stables
1.1.1 Quelques rappels sur les lois et processus stables
1.1.2 Représentations des processus stables
1.2 Processus stationnaires du second ordre
1.2.1 Processus stationnaires du second ordre : fonction d’autocovariance, densité spectrale et mémoire
1.2.2 Théorème central limite et convergence du processus des sommes partielles
1.3 Organisation de la thèse
1.3.1 Partie I : Estimations et simulations de processus stables
1.3.2 Partie II : Échantillonnage de processus stationnaires du second ordre définis en temps continu
I Estimation et simulation de processus stables
2 Estimateurs explicites et combinés pour les paramètres de lois stables 
2.1 Introduction
2.2 Méthodes d’estimation
2.2.1 Log-moments dans le cas symétrique
2.2.2 Performance numérique de chaque estimateur
2.2.3 Estimateur combiné
2.3 Lois stables asymétriques
2.3.1 Adaptation des estimateurs pour le cas asymétrique
2.3.2 Test de symétrie
2.4 Cas de variables stables non-identiquement distribuées
2.4.1 Perturbations déterministes .
2.4.2 Perturbations aléatoires
2.5 Quelques applications de l’estimateur combiné
2.5.1 Résultats numériques sur des données synthétisées : mouvement de Lévy multistable
2.5.2 Application en finance
2.6 Annexe
3 Simulation de processus multistables 
3.1 Processus localisables
3.2 Processus multistables définis par un champ stochastique
3.2.1 Cas des espaces de mesure finie
3.2.2 Cas des espaces de mesure σ-finie
3.3 Grille multistable
3.4 Exemples de simulation
3.4.1 Mouvement de Lévy multistable
3.4.2 Mouvement linéaire multifractionnaire multistable
3.5 Lemmes techniques
4 Estimation de la fonction d’intensité de processus multistables
4.1 Introduction
4.2 Convergence des moments empiriques de processus multistables autour d’un point
4.3 Estimation de la fonction d’intensité du processus multistable
4.3.1 Exemple d’estimation avec des mouvements de Lévy multistables
4.3.2 Exemple d’estimation avec des mouvements linéaires multifractionnaires multistables
II Échantillonnage de processus stationnaires du second ordre définis en temps continu
5 Échantillonnage aléatoire de processus stationnaires à temps continu 
5.1 Introduction
5.2 Résultats généraux dans le domaine temporel
5.2.1 Loi du processus échantillonné
5.2.2 Mémoire du processus échantillonné
5.3 Processus à longue mémoire
5.3.1 Préservation du paramètre du mémoire lorsque E[T1 ] < ∞ 142
5.3.2 Perte de mémoire lorsque E[T 1] = ∞
5.4 Comparaison entre le sous échantillonnage et l’agrégation temporelle
5.5 Annexe
6 Étude spectrale de l’échantillonnage de processus stationnaires 
6.1 Introduction
6.2 Existence d’une densité spectrale pour le processus échantillonné
6.3 Asymptotique du périodogramme
6.4 Inférence pour le paramètre de longue mémoire
6.4.1 Convergence de l’estimateur local Whittle
6.4.2 Variance asymptotique
6.5 Annexe
6.5.1 Preuve du Lemme 6.2.1
6.5.2 Preuve de la Proposition 6.2.2
6.5.3 Preuve de la Proposition 6.2.3
6.5.4 Preuve de la Proposition 6.4.1
Bibliographie 

projet fin d'etude

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *