Notion de variable aléatoire

Notion de variable aléatoire

La notion de variable aléatoire peut être directement liée à la définition du hasard. En d’autres termes, une variable aléatoire représente le résultat d’une épreuve dont on ne connait pas par avance le résultat, qu’on ne peut donc pas prédire de manière exacte. Une variable aléatoire est donc particulièrement indiquée pour représenter le résultat d’une mesure : en général on ne trouve pas le même résultat lorsqu’on recommence la mesure. Une variable aléatoire est caractérisée par l’ensemble des valeurs qu’elle peut prendre et par l’expression mathématique de la probabilité d’avoir ces valeurs. Cette expression définit la loi de probabilité (ou distribution de probabilité) de l’épreuve considérée. Ainsi, à une épreuve donnée on peut associer une variable aléatoire et identifier la loi suivie par celle-ci. Dans notre situation, les grandeurs aléatoires qu’on souhaite modéliser sont à valeurs réelles, ce sont des variables aléatoires continues. Pour une variable aléatoire X, l’expression donnant la probabilité pour que X prenne sa valeur dans un intervalle de valeurs possibles se définit de la manière suivante : Soit (Ω, A,P) un espace probabilisé où Ω est l’univers et A une σ-algèbre de Ω qui représente l’ensemble des évènements et P une mesure de probabilité, telle que P(Ω) = 1.Une autre grandeur qui décrit la loi de distribution d’une variable aléatoire est la fonction caractéristique. Elle permet de déterminer, de façon unique, la loi de probabilité de X. Si X a pour densité f, la fonction caractéristique est la transformée de Fourier de la densité de probabilité. Les valeurs en zéro des dérivées successives de la fonction caractéristique permettent de calculer les moments de la variable aléatoire. La fonction s’écrit donc comme : 2.2. Notion de variable aléatoire 25 φX(x) = ∫ R e ixtf(t)dt. (2.6) La fonction caractéristique est parfois le meilleur moyen de caractériser une variable aléatoire lorsque celle-ci ne possède pas de forme explicite pour sa densité de probabilité. Nous verrons que c’est le cas des variables aléatoires suivant les lois stables de Lév

Loi de probabilité gaussienne

La loi normale appelée aussi loi gaussienne, est une des principales distributions de probabilité qu’on évoque fréquemment pour interpréter les observations. Elle se présente comme une limite de nombreuses distributions. Elle est décrite par une courbe en « cloche » symétrique autour de la valeur moyenne (qu’on notera µ). On sait, par exemple, qu’une loi de probabilité binômiale de 2.2. Notion de variable aléatoire 26 paramètre n tend vers la loi normale quand ce paramètre n devient très grand. Plus généralement, on remarque souvent que lors d’observations expérimentales, la moyenne calculée sur un échantillon tend à suivre une loi normale quand la taille de l’échantillon augmente, même si l’échantillon initial a une toute autre distribution de probabilité. Ces simples constatations montrent l’importance de la loi normale et traduisent le fait qu’elle attire d’autres lois de probabilité. Cette importance de la loi normale qui se présente comme un attracteur s’énonce par la propriété plus générale du théorème de la limite centrale vu à la fois comme modèle pour décrire des situations pratiques mais aussi comme un outil théorique dont on en parlera dans le paragraphe qui suit après avoir défini ce qu’est une loi de probabilité « attracteur ». On dit que la variable aléatoire X suit une loi gaussienne (ou normale) de paramètre µ ∈ R et σ 2 > 0 et on note X ∼ N (µ, σ2 ) si X possède la densité de probabilité f(x) = 1 √ (2σ 2π) exp(− (x − µ) 2 2σ 2 ). (2.8) Lorsque les deux paramètres µ = 0 et σ 2 = 1 on dit que la variable aléatoire qui suit une loi normale est centrée réduite. Les figures 2.2 et 2.3 représentent des lois de distribution de probabilité normales.

LIRE AUSSI :  Modèles sans modélisation explicite de la limitation par le substrat 

Version simplifiée du théorème de la limite centrale

 Le théorème de la limite centrale nous dit à quoi on peut s’attendre en matière d’une somme de variables aléatoires indépendantes (de même loi) et identiquement distribuées lorsqu’on la centre, en lui soustrayant sa moyenne, et qu’on la réduit, en la divisant par son écart-type. Sous des conditions assez larges, la loi de probabilité (de la moyenne) tend vers une loi normale centrée réduite, ce qu’on peut écrire : Soit (Xn)n>1 une suite de variables aléatoires réelles indépendantes et identiquement distribuées telles que µ = E(X1) < +∞ et σ 2 = √ V ar(X1) > 0. On note X¯ n = 1 n ∑n j=1 Xj la moyenne empirique. Alors pour n → +∞, √ n σ (X¯ n − E(X1)) → Y ∼ N (0, 1) On peut écrire encore Y1 + … + Yn ≈ nµ + σ √ nN (0, 1) (2.9) Comme bon nombre de phénomènes naturels sont dûs à la superposition de causes nombreuses plus ou moins indépendantes, il est tout à fait légitime de s’attendre à ce qu’ils soient distribués selon des lois possédant la propriété d’attractivité. Or, une vaste classe de lois plus générales que la loi normale joue le même rôle lorsque les Xn n’ont pas de variance finie. Pour ces lois, il faut réduire la somme des variables aléatoires dans (2.9) par un coefficient différent de n 1 2 . Ces lois forment la famille des lois α-stables. Elles ont été introduites par Lévy [61]. Après avoir parlé de la simulation d’une variable aléatoire de loi gaussienne sur ordinateur, on abordera la notion de loi α-stable et la généralisation du théorème centrale limite. 

Simulation de la réalisation d’une variable aléatoire

 Afin de réaliser des simulations numériques de marche aléatoire, il est nécessaire de pouvoir simuler numériquement les sauts et les temps d’attente associés. Il s’agit donc de simuler la réalisation de variables aléatoires dont on connait les lois de distribution de probabilité. Une telle approche est communément appelée « méthode de Monte-Carlo ». D’une manière générale, toutes les procédures de simulation d’échantillons pseudo-aléatoires sont basées sur le théorème suivant qui stipule que toutes les distributions sont liées à la loi uniforme :  Théorème de la réciproque : Pour une variable aléatoire de fonction de répartition F, on note G sa réciproque généralisée, définie par G(ω) = inf {x ∈ R | F(x) ≥ ω} . Si U désigne une variable aléatoire réelle uniforme sur [0,1], alors la variable aléatoire X = G(U) a pour fonction de répartition F. Par exemple la variable aléatoire Y = − ln(U)/λ est distribuée selon la loi exponentielle de paramètre λ,

Cours gratuitTélécharger le cours complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *