Théorie des Valeurs Extrêmes

Théorie des Valeurs Extrêmes

Vers la théorie des valeurs extrêmes

L’étude de la fréquence des événements rares qui peuvent résulter de différents phénomènes (pluviométrie, crue, tremblement de terre, fissures critiques,· · ·) constitue un problème majeur et de grand intérêt, car la prise en compte du risque dû à ces événements peut efficacement aider à éviter de réelles catastrophes. A titre d’exemple, notons qu’une estimation correcte du risque de crue, fournit des informations indispensables pour le dimensionnement des digues et de leur importance. Dans le cadre de ce travail, une bonne estimation de la valeur maximale des profondeurs des piqûres de corrosion dans une structure aide à anticiper le risque de perforation de celle-ci ou celui de sites potentiels d’amorçage de fissures de taille critique pouvant causer une rupture brutale dans le cas d’une structure sollicitée mécaniquement au contact d’un mileu corrosif. On citera par exemple la fatigue-corrosion. Dans un tel contexte, l’objectif de ce travail, est de prévoir la valeur maximale des profondeurs de piqˆures sur une surface donnée, ainsi que l’incertitude sur son estimation. Du point de vue statistique, cela se ram`ene à l’analyse des queues de distributions en cherchant à estimer les quantiles extrêmes dépassés avec une probabilité p tr`es faible. Pour aborder ce type de probl`eme, les approches classiques basées sur les fréquences empiriques et les tests d’adéquation montrent rapidement leurs limites quand il s’agit des queues de distribution. Deux probl`emes apparaissent : a) Fréquences empiriques : Pour une variable aléatoire X donnée, qui admet comme réalisation l’échantillon de taille n, x1 < x2 < · · · < xn, une approximation de la fonction de répartition de cet échantillon peut être exprimée via la fonction de répartition empirique suivante : Fˆ n (x) = i n si x ∈ [xi , xi+1[ (2.1) L’estimation par exemple de la probabilité P (X > xi) pour i = 1, · · · n est donnée par 1−Fˆ n (xi). Le probl`eme se pose lorsqu’on souhaite estimer P (X > x) avec x > xn. Avec la construction cidessus (eq. 2.1), cette probabilité est nulle. En d’autre termes, on ne peut pas attribuer de probabilité pour des événements non observés. Ce probl`eme a été mis en évidence par ([BV64]) et ([BGST04]). b) Tests d’adéquation : Les tests classiques (c.f (1.6.1) par exemple), mesurent l’ajustement des données dans la partie centrale de l’intervalle o`u est observé l’échantillon ([Gar02]). Ainsi, dans le contexte o`u on s’intéresse aux queues des distributions, l’extrapolation aux quantiles ex31 Theorie des Valeurs Extrêmes trêmes peut conduire à des estimations grossi`eres. Cela intervient en particulier lorsque p < 1 n ([EAD02, HM82]). Dieblot et al. ([DGG03]) proposent le test ET (Exponential Tail) pour vérifier si la fonction de répartition du modèle testé est bien adaptée aux queues de distribution. Cela se justifie par le fait que les parties centrales de plusieurs distributions peuvent présenter un comportement similaire, alors que dans les queues des écarts importants apparaissent engendrant des estimations pouvant varier sensiblement, surtout pour les tr`es faibles probabilités p. Face à ces difficultés, la littérature s’est intéressée au comportement asymptotique de la loi du maximum, avec l’idée que la connaissance de cette loi permet la détermination du comportement des valeurs extrêmes situées en queues de distribution. Pour cela, il existe deux approches classiques. La première est basée sur les maxima par bloc alors que la seconde est basée sur la notion de dépassement de seuil. Dans la littérature, c’est la première approche qui a été étudiée. Les premiers résultas théoriques sont essentiellement dus à Fisher et Tippet (1928), puis à Gnedenko (1943). Mais c’est à partir des années 50 que cette branche des statistiques s’est développée avec notamment les travaux de Jenkinson ([Jen55]) et l’ouvrage de Gumbel ([Gum58]). Ce dernier constitue une référence classique. Plus tard, la littérature s’est enrichie en particulier avec les ouvrages de Leadbetter et al. ([LLR83]), de Resnick ([Res87]) ainsi que des travaux de Galambos ([Gal95, Gal87]). Ce dernier ayant traité et proposé un historique des principaux résultats. Récemment, la modélisation des valeurs extrêmes s’est accrue, en particulier dans le domaine des finances avec comme ouvrage de référence, celui de Embrechts et al. ([EKM97]). Quant à la deuxième approche, elle a été développée dans l’optique de proposer une alternative à l’approche des maxima par bloc, dont la principale critique est la perte d’information due au fait qu’on ne conserve que la valeur maximale pour chaque bloc. Un des résultats fondamentaux dans la théorie des valeurs extrêmes est le théorème qui stipule l’existence d’une loi asymptotique des dépassements de seuil (les exc`es). Celui-ci a été démontré par Pickands ([Pic75]) ainsi que par Balekema et al. ([BdH74, BdH78a, BdH78b]). Parmi les travaux ayant contribués au développement de cette approche, on cite ceux de Davidson et al. ([DS90]). Dans ce chapitre, nous présenterons les principaux résultats théoriques liés aux deux approches en illustrant leurs différences.

LIRE AUSSI :  Bibliographie mathématique à l’usage des lycées

L’approche des maxima par blocs

Théorème fondamental des valeurs extrêmes

Dans ce qui suit, on désigne par X la variable aléatoire (v.a) qui représente la profondeur et de fonction de distribution F. On suppose que les données observées sont des réalisations d’une suite de variables aléatoires X1, X2, · · · Xn indépendantes et identiquement distribuées (i.i.d) de même loi F. On désigne par X1,n ≤ · · · ≤ Xn,n la statistique d’ordre associée. Le théorème fondamental des valeurs extrêmes est analogue au théorème central limite (TCL) rapporté à la somme d’une suite de variables aléatoires de même espérance et de variance finie ; qui convergent vers une loi normale. Le résultat du théorème TVE est le suivant : Théorème 2.1 (Fisher-Tippet). Soit Mn = max (X1, · · · , Xn). S’il existe deux suites normali32 santes réelles (an)n≥1 > 0 et (bn)n≥1 et une distribution non-dégénérée1 G telles que P  Mn − bn an ≤ x  = F n (anx + bn) loi −→ G (x), n → +∞ (2.2) alors G est nécessairement de l’un des trois types suivant : Type Fréchet : G (x) ≡ φα (x) =  0 si x ≤ 0 exp (−x −α) si x > 0 (2.3) Type Weibull : G (x) ≡ ψα (x) =  exp (− (−x) α ) si x ≤ 0 1 si x > 0 (2.4) Type Gumbel : G (x) ≡ Λ (x) = exp (− exp (−x)) x ∈ R (2.5) avec α un paramètre strictement positif. La variable Mn−bn an est appelée maximum normalisé. Remarque : On note que les deux suites normalisantes ne peuvent être ignorées car la loi du maximum serait dégénérée dans la mesure o`u P (Mn ≤ x) = F n (x) tend vers 0 ou 1 puisque F (x) ∈ [0, 1]. Exemples : – Loi de Cauchy (Type Fréchet) : Soit X1 une variable qui suit la loi de Cauchy de paramètre 1. La densité de cette loi est f (x) = 1 π(1+x2) , x ∈ R. On montre que : P  πMn n ≤ x  = P  X1 ≤ nx π n n→+∞ −→ exp 

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *