Construction d ‘une copule à travers une distribution multidimensionnelle

Définition d’une probabilité et axiomatique

Avant d’introduire les variables aléatoires, nous allons nous inspirer de la définition de Ross (8). Nous définirons la notion de probabilité ainsi que l’axiomatique des probabilités. En mathématiques, une probabilité est une fonction réelle notée P, qui à chaque événement A dont on ne peut prédire l’issue, fait correspondre un réel d’un espace n noté: P: A –+ P(A). Définition 2.1.1. On suppose qu’une expérience d’un ensemble fondamental S est répétée plusieurs fois exactement dans les mêmes conditions. Soit E un évènement favorable, c’est-à-dire que l’on veut voir se produire, on définit n(E) le nombre de fois que E s’est produit lors des n répétitions. Alors P(E) la probabilité que l’évènement E se produise est P(E) = lim n(E). n–+oo n Admettons qu’un nombre P(E) existe et respecte les trois axiomes suivants. Axiome 2.1.1. Soit un ensemble fondamental S et un évènement E quelconque. o ~ P(E) ~ 1, P(S) = 1. Axiome 2.1.2. Pour chaque paire d’évènements mutuellement exclusifs El, E2′ E3, …. P(E) est la probabilité que l’évènement E se réalise.

2.3 Densité d’une variable aléatoire continue La fonction J, mentionnée précédemment dans (2.2.1 ), sera dénommée densité de probabilité de la variable aléatoire X. En utilisant la définition d’une variable aléatoire continue, on peut évaluer la probabilité que X prenne une valeur dans A. Il suffit d’intégrer la densité de probabilité sur A. Puisque X prend obligatoirement une valeur, on peut déduire une contrainte sur la fonction J : P {X E (-oo,oon = [ : J (x) dx = 1. Alors, pour un problème spécifique de probabilité, on peut retrouver la probabilité que X soit dans l’intervalle A = [a, b]. En utilisant (2.2 .1), on obtient P (a ::; x ::; b) = lb J (x) dx ::; 1. Cette intégrale représente l’aire sous la courbe dans l’intervalle [a, b] . Alors la probabilité d’être dans [a, b] est le rapport entre l’aire sous la courbe dans [a, b] sur l’aire sous la courbe dans [-00,00]. En posant [a, b] = (-00,00) on obtient le résultat précédent, et lorsque [a, b] ç (-00,00) on peut affirmer que la probabilité sera inférieure à 1. Si l’on veut trouver la probabilité qu’une variable aléatoire continue prenne une certaine valeur, on utilise (2.3) et en posant a=b on trouve p (X = a) = la f (x) dx = o. Puisque la probabilité qu’une variable aléatoire ait une valeur fixe est nulle, on peut alors établir que P (x < a) = P (x ::; a) = F(a) = [aoo f (x) dx. Définition 2.3.1. Soit f une fon ction continue non-négative. Alors f est une densité si : [ : f (x) dx = l. Exemple 2. 3.1. Supposons que X est une variable aléatoire continue dont la densité est f( x) = {kX~ si x E [0,1], sinon. Pour trouver la valeur de k , puisque f respecte la condition pour être une densité, c’est-à-dire [ : f (x) dx = 1. Par la densité définie précédemment, on trouve que 1 = lo kx2 dx = – = – {:} k = 3. I kx311 k o 3 0 3 Alors f est bien une densité et est définie ainsi f (x) = ‘ ‘ . Trouvons { 3X2 si x E [0 1] o sinon. maintenant P (x> ~) P ( x > ~) = rI 3x2dx = x3 11 = 1 _ (~) 3 = ~. 2 J1 /2 1/2 2 8 Par la densité de f définie précédemment, P (x> ~) = ~.

Fonction de répartition d ‘une variable aléatoire continue

Il existe une fonction, exprimant l’aire sous la courbe accumulée de la densité sur l’intervalle (-00, a]. Cette fonction est dénommée fonction de répartition. On la notera F. Dans la plupart du temps, la fonction de répartition d’une variable aléatoire continue nous permet d’évaluer en chaque point P(x < a). Définition 2.4.1. Soit F une fonction et f la densité d’une variable aléatoire continue X. F est la fonction de répartition de X si F(a) = P(X E (-00, al) = [a O (/ (x) dx. En dérivant la fonction de répartition, on obtient d da (F (a)) = f ( a ) . Donc la densité d’une variable aléatoire est la dérivée de la fonction de répartition. Exemple 2.4.1. En utilisant F(a) = [a()(/ (x) dx la fonction de répartition associée à la densité de l’exemple (2.3.1 ) { 0 si x:S 0, F (a) = x3 si 0 < x < 1, . o sinon. On peut donc calculer facilement P (x > ~) = 1 – F (~) = i. Alors la densité et la fonction de répartition d’une variable aléatoire continue sont reliées l’une à l’autre.

Loi normale La loi normale est une loi de probabilité très populaire depuis des années et est très utilisée pour évaluer certaines probabilités. Elle a été étudiée par le mathématicien français de Moivre, en 1733. La loi normale était souvent utilisée pour approximer des probabilités de loi binomiale dont le paramètre n était très grand. On dit qu’une variable aléatoire X de paramètres /-L et a-2 est normale si la densité f(x) est donnée par f(x) = _1_e-Cx-JL)2/2a 2,vx E IR . .j’ha- Pour trouver l’espérance et la variance pour une loi normale /-L et a-2 , il faut étudier la loi normale centrée réduite. La loi centrée réduite est une variable aléatoire normale de paramètres /-L = 0, a-2 = 1, on la nomme Z. Alors la densité sera: Pour passer de la loi normale à la normale centrée réduite, il suffit de poser le changement de variable Z = (X – /-L) / a-. Donc, on a : E(Z) = 100 _1_xe-x2 /2dx = __I_ e_x2 / 2 IOO = o. En intégrant par partie ~xe-x2/2, on peut montrer que Var(Z) = 1. Puisque X = v 21f M + aZ, E(X) = M et (X) = a2 . La fonction de répartition n’est pas définie puisqu’il n’existe pas de primitive à la densité. Alors, il existe une table pour la loi normale centrée réduite qui permet d’exprimer une approximation de l’aire sous la courbe cumulée représentée par a(x). Pour approximer a(x), il suffit d’approximer: a(x) = j –e-Y /2dy. x 1 2 -00 v’2n 1

Puisque la loi normale est symétrique en M, on a que a(O) = 2 et a( -x) = 1 – a(x). Alors, on a P(Z ::; X) = a(x) Si la loi normale n’est pas centrée réduite, il faut passer par le changement de variable Z = (X – M) / a. 2.7 Définition d’un vecteur aléatoire continu Un vecteur aléatoire continu X = (Xl, X 2 , . .. ,Xn ) est un vecteur de ]Rn telle que pour tout i E [1, n], Xi est une variable aléatoire continue. Il existe, pour ces vecteurs, une fonction de répartition conjointe ou simultanée à une paire de variables. Pour débuter, prenons un vecteur aléatoire avec une paire de variable aléatoire X et Y . Définition 2.7.1. Soit X et Y deux variables aléatoires continues. On nomme F la fonction de répartition conjointe de X, Y tel que pour tous a, b E (-00,00) : F(a, b) = P(X ::; a, Y ::; b) On peut généraliser avec Xl, X 2 , … , Xn variables aléatoires dans ]Rn. Cette définition est directement liée à la définition de la fonction de répartition d’une seule variable aléatoire. Le but d’étudier plusieurs variables aléatoires est de tenter de caractériser le lien simultanément. On peut déduire, par la suite, les fonctions de répartitions de chacune des variables aléatoires. Définition 2.7.2. Les fonctions de répartitions marginales de X et de Y sont déduites par la fonction de répartition jointe telle que : Fx(a) = F(a, (0) et Fy(b) = F(oo,b).

Conclusion

Le présent travail de recherche étudie le comportement de la nouvelle loi exponentielle bidimensionnelle de type Raftery dans le cas de la dépendance positive et négative, ainsi que les estimateurs du paramètre de dépendance à l’aide de la méthode de chocs comonotones récemment introduit par Genest, Mesfioui et Shoulz (2018). La contribution originale de ce travail consiste à proposer et étudier deux extensions du modèle classique de Raftery. Ces modèles se basent sur la méthode des chocs comonotones. Pour faire un retour sur les objectifs principaux de ce travail, l’extension du modèle exponentiel bidimensionnel de Raftery au cas de variables aléatoires non échangeables a été établie. Par ailleurs, le présent travail a permis de constater que pour toutes les simulations des estimateurs du paramètre de dépendance que ce soit pour les deux modèles de Raftery proposés, l’estimateur par la corrélation de Spearman est celle qui possède la plus petite erreur quadratique moyenne. Le présent travail permet de conclure que l’estimation par la corrélation de Pearson est moins précise. Plus spécifiquement, nous avons déduit une mesure de concordance puis la structure de corrélation de ce modèle pour établir un estimateur du paramètre de dépendance. Une étude comparative de ces deux approches basées sur plusieurs simulations a été explorée. Le présent travail a également permis d’établir des algorithme de simulation de la fonction de survie des deux familles de Raftery étudiés précédemment. Quelques simulations ont été effectués pour constater la tendance de la survie du modèle lorsque le paramètre de dépendance augmente. La copule de Raftery a également été simuler pour observer la tendance linéaire du modèle dans le second cas.

Table des matières

Résumé
Table des matières
1 Introduction
2 R appels sur les varia bles et les vect eurs a léatoir es continus
2.1 Espace échantillonnage
2.1.1 Ensemble des résultats
2.1.2 Définit ion d ‘une probabilité et axiomatique.
2.2 Définit ion d ‘une variable aléatoire continue
2.3 Densité d’une variable aléatoire continue
2.4 Fonction de répart ition d’une variable aléatoire cont inue
2.5 Espérance et variance d ‘une variable aléatoire continue
2.5. 1 Espérance d ‘une variable aléatoire continue .
2.5.2 Variance d ‘une variable aléatoire continue
2.6 Exemples de variables aléatoires continues
2.6.1 Loi exponentielle
2.6.2 Loi Gamma
2.6 .3 Loi normale
2.7 Définition d ‘un vecteur aléatoire continu
2.8 Densité d ‘un vecteur aléatoire continu
2.9 Densité marginale d ‘un vecteur aléatoire continu.
2.10 Exemples de vecteurs aléatoires continus
3 Rappel sur les copules
3.1 Théorème de Sklar .
3.2 Définition des copules
3.3 Construction d ‘une loi multidimensionnelle à t ravers une copule
3.4 Construction d ‘une copule à travers une distribution multidimensionnelle
3.5 Copules de survie
3.6 Quelques copules classiques
3.6.1 Copule Indépendante
3.6.2 Bornes de Fréchet-Hoeffding
3.6.3 Copule Archimédienne
3.6.4 Simulation de quelques copules classiques.
3.7 Mesures de concordance : Tau de Kendall et rho de Spearman
3.7.1 Tau de Kendall
3.7.2 Rho de Spearman
3.8 Expression du Tau de Kendall et Rho de Spearman de la copule sousjacente
4 Nouvelle loi exponentielle bidimensionnelle de type Raftery
4.1 Modèle exponentiel bidimensionnel de Raftery
4.2 Nouveau modèle exponentiel bidimensionnel de type Raftery
4.2.1 Structure de corrélation du modèle exponentiel proposée E.(e, À1 ‘ À2)
4.3 Copule de survie associée à la famille E.(e ,À1,À2
4.3.1 Algorithme de simulation de la copule de survie de la famille E.(e,À I ,À2
4.4 Mesures de concordances correspondantes à la famille E.(e, À1 ‘ À2) 47
4.4.1 Tau de Kendall de la famille E.(e, À1′ À2)
4.4.2 Rho de Spearman de la famille E.(e, À1’ À2)
4.5 Étude de l’estimateur des moments du paramètre de dépendance de la copule de Raftery
4.5.1 Estimateur du paramètre de dépendance à partir de la corrélation 49
4.5.2 Estimateur du paramètre de dépendance à partir du rho de Spearmann.
4.5.3 Estimateur du paramètre de dépendance à partir du tau de Kendall 50
4.6 Comparaison des estimateurs par simulation
4.7 Fonction de survie de la famille exponentielle bivariée E.(e, À1 ‘ À2)
4.7.1 Algorithme de simulation de la fonction de survie de la famille E.(e,À1,À2
5 Extension du modèle de Raftery au cas de dépendance négative
5.1 Modèle exponentiel bidimensionnel négatif de type Raftery .
5.2 Structure de corrélation de la famille E.-(À1, À2′ e)
5.3 Copule de survie
5.3.1 Algorithme de simulation de la copule de survie de la famille E.(e, À1′ À2)
5.4 Rho de Spearman
5.5 Étude de l’estimateur des moments du paramètre de dépendance de la copule de Raftery au cas de dépendance négative
5.5.1 Estimateur du paramètre de dépendance à partir de la corrélation 64
5.5.2 Estimateur du paramètre de dépendance à partir de la corrélation de Spearman
5.6 Comparaison des estimateurs par simulation
5.6.1 Algorithme de simulation de la fonction de survie de la famille E-(B,À1 ,À2 )
6 Conclusion
Bibliographie

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *