Définition d’une probabilité et axiomatique
Avant d’introduire les variables aléatoires, nous allons nous inspirer de la définition de Ross (8). Nous définirons la notion de probabilité ainsi que l’axiomatique des probabilités. En mathématiques, une probabilité est une fonction réelle notée P, qui à chaque événement A dont on ne peut prédire l’issue, fait correspondre un réel d’un espace n noté: P: A –+ P(A). Définition 2.1.1. On suppose qu’une expérience d’un ensemble fondamental S est répétée plusieurs fois exactement dans les mêmes conditions. Soit E un évènement favorable, c’est-à-dire que l’on veut voir se produire, on définit n(E) le nombre de fois que E s’est produit lors des n répétitions. Alors P(E) la probabilité que l’évènement E se produise est P(E) = lim n(E). n–+oo n Admettons qu’un nombre P(E) existe et respecte les trois axiomes suivants. Axiome 2.1.1. Soit un ensemble fondamental S et un évènement E quelconque. o ~ P(E) ~ 1, P(S) = 1. Axiome 2.1.2. Pour chaque paire d’évènements mutuellement exclusifs El, E2′ E3, …. P(E) est la probabilité que l’évènement E se réalise.
2.3 Densité d’une variable aléatoire continue La fonction J, mentionnée précédemment dans (2.2.1 ), sera dénommée densité de probabilité de la variable aléatoire X. En utilisant la définition d’une variable aléatoire continue, on peut évaluer la probabilité que X prenne une valeur dans A. Il suffit d’intégrer la densité de probabilité sur A. Puisque X prend obligatoirement une valeur, on peut déduire une contrainte sur la fonction J : P {X E (-oo,oon = [ : J (x) dx = 1. Alors, pour un problème spécifique de probabilité, on peut retrouver la probabilité que X soit dans l’intervalle A = [a, b]. En utilisant (2.2 .1), on obtient P (a ::; x ::; b) = lb J (x) dx ::; 1. Cette intégrale représente l’aire sous la courbe dans l’intervalle [a, b] . Alors la probabilité d’être dans [a, b] est le rapport entre l’aire sous la courbe dans [a, b] sur l’aire sous la courbe dans [-00,00]. En posant [a, b] = (-00,00) on obtient le résultat précédent, et lorsque [a, b] ç (-00,00) on peut affirmer que la probabilité sera inférieure à 1. Si l’on veut trouver la probabilité qu’une variable aléatoire continue prenne une certaine valeur, on utilise (2.3) et en posant a=b on trouve p (X = a) = la f (x) dx = o. Puisque la probabilité qu’une variable aléatoire ait une valeur fixe est nulle, on peut alors établir que P (x < a) = P (x ::; a) = F(a) = [aoo f (x) dx. Définition 2.3.1. Soit f une fon ction continue non-négative. Alors f est une densité si : [ : f (x) dx = l. Exemple 2. 3.1. Supposons que X est une variable aléatoire continue dont la densité est f( x) = {kX~ si x E [0,1], sinon. Pour trouver la valeur de k , puisque f respecte la condition pour être une densité, c’est-à-dire [ : f (x) dx = 1. Par la densité définie précédemment, on trouve que 1 = lo kx2 dx = – = – {:} k = 3. I kx311 k o 3 0 3 Alors f est bien une densité et est définie ainsi f (x) = ‘ ‘ . Trouvons { 3X2 si x E [0 1] o sinon. maintenant P (x> ~) P ( x > ~) = rI 3x2dx = x3 11 = 1 _ (~) 3 = ~. 2 J1 /2 1/2 2 8 Par la densité de f définie précédemment, P (x> ~) = ~.
Fonction de répartition d ‘une variable aléatoire continue
Il existe une fonction, exprimant l’aire sous la courbe accumulée de la densité sur l’intervalle (-00, a]. Cette fonction est dénommée fonction de répartition. On la notera F. Dans la plupart du temps, la fonction de répartition d’une variable aléatoire continue nous permet d’évaluer en chaque point P(x < a). Définition 2.4.1. Soit F une fonction et f la densité d’une variable aléatoire continue X. F est la fonction de répartition de X si F(a) = P(X E (-00, al) = [a O (/ (x) dx. En dérivant la fonction de répartition, on obtient d da (F (a)) = f ( a ) . Donc la densité d’une variable aléatoire est la dérivée de la fonction de répartition. Exemple 2.4.1. En utilisant F(a) = [a()(/ (x) dx la fonction de répartition associée à la densité de l’exemple (2.3.1 ) { 0 si x:S 0, F (a) = x3 si 0 < x < 1, . o sinon. On peut donc calculer facilement P (x > ~) = 1 – F (~) = i. Alors la densité et la fonction de répartition d’une variable aléatoire continue sont reliées l’une à l’autre.
Loi normale La loi normale est une loi de probabilité très populaire depuis des années et est très utilisée pour évaluer certaines probabilités. Elle a été étudiée par le mathématicien français de Moivre, en 1733. La loi normale était souvent utilisée pour approximer des probabilités de loi binomiale dont le paramètre n était très grand. On dit qu’une variable aléatoire X de paramètres /-L et a-2 est normale si la densité f(x) est donnée par f(x) = _1_e-Cx-JL)2/2a 2,vx E IR . .j’ha- Pour trouver l’espérance et la variance pour une loi normale /-L et a-2 , il faut étudier la loi normale centrée réduite. La loi centrée réduite est une variable aléatoire normale de paramètres /-L = 0, a-2 = 1, on la nomme Z. Alors la densité sera: Pour passer de la loi normale à la normale centrée réduite, il suffit de poser le changement de variable Z = (X – /-L) / a-. Donc, on a : E(Z) = 100 _1_xe-x2 /2dx = __I_ e_x2 / 2 IOO = o. En intégrant par partie ~xe-x2/2, on peut montrer que Var(Z) = 1. Puisque X = v 21f M + aZ, E(X) = M et (X) = a2 . La fonction de répartition n’est pas définie puisqu’il n’existe pas de primitive à la densité. Alors, il existe une table pour la loi normale centrée réduite qui permet d’exprimer une approximation de l’aire sous la courbe cumulée représentée par a(x). Pour approximer a(x), il suffit d’approximer: a(x) = j –e-Y /2dy. x 1 2 -00 v’2n 1
Puisque la loi normale est symétrique en M, on a que a(O) = 2 et a( -x) = 1 – a(x). Alors, on a P(Z ::; X) = a(x) Si la loi normale n’est pas centrée réduite, il faut passer par le changement de variable Z = (X – M) / a. 2.7 Définition d’un vecteur aléatoire continu Un vecteur aléatoire continu X = (Xl, X 2 , . .. ,Xn ) est un vecteur de ]Rn telle que pour tout i E [1, n], Xi est une variable aléatoire continue. Il existe, pour ces vecteurs, une fonction de répartition conjointe ou simultanée à une paire de variables. Pour débuter, prenons un vecteur aléatoire avec une paire de variable aléatoire X et Y . Définition 2.7.1. Soit X et Y deux variables aléatoires continues. On nomme F la fonction de répartition conjointe de X, Y tel que pour tous a, b E (-00,00) : F(a, b) = P(X ::; a, Y ::; b) On peut généraliser avec Xl, X 2 , … , Xn variables aléatoires dans ]Rn. Cette définition est directement liée à la définition de la fonction de répartition d’une seule variable aléatoire. Le but d’étudier plusieurs variables aléatoires est de tenter de caractériser le lien simultanément. On peut déduire, par la suite, les fonctions de répartitions de chacune des variables aléatoires. Définition 2.7.2. Les fonctions de répartitions marginales de X et de Y sont déduites par la fonction de répartition jointe telle que : Fx(a) = F(a, (0) et Fy(b) = F(oo,b).
Conclusion
Le présent travail de recherche étudie le comportement de la nouvelle loi exponentielle bidimensionnelle de type Raftery dans le cas de la dépendance positive et négative, ainsi que les estimateurs du paramètre de dépendance à l’aide de la méthode de chocs comonotones récemment introduit par Genest, Mesfioui et Shoulz (2018). La contribution originale de ce travail consiste à proposer et étudier deux extensions du modèle classique de Raftery. Ces modèles se basent sur la méthode des chocs comonotones. Pour faire un retour sur les objectifs principaux de ce travail, l’extension du modèle exponentiel bidimensionnel de Raftery au cas de variables aléatoires non échangeables a été établie. Par ailleurs, le présent travail a permis de constater que pour toutes les simulations des estimateurs du paramètre de dépendance que ce soit pour les deux modèles de Raftery proposés, l’estimateur par la corrélation de Spearman est celle qui possède la plus petite erreur quadratique moyenne. Le présent travail permet de conclure que l’estimation par la corrélation de Pearson est moins précise. Plus spécifiquement, nous avons déduit une mesure de concordance puis la structure de corrélation de ce modèle pour établir un estimateur du paramètre de dépendance. Une étude comparative de ces deux approches basées sur plusieurs simulations a été explorée. Le présent travail a également permis d’établir des algorithme de simulation de la fonction de survie des deux familles de Raftery étudiés précédemment. Quelques simulations ont été effectués pour constater la tendance de la survie du modèle lorsque le paramètre de dépendance augmente. La copule de Raftery a également été simuler pour observer la tendance linéaire du modèle dans le second cas.
Résumé |