Limites opérationnelles la prise en compte des extrêmes

Limites opérationnelles la prise en compte des extrêmes

 Calcul de VaR en assurance

La transposition de la VaR (et de la TVaR) aux problématiques d’assurance est récente et impose une approche radicalement différente de l’approche bancaire. En effet, la situation de référence du monde bancaire consiste à estimer la VaR sur un échantillon important de gains / pertes sur un portefeuille ou une position. Les données sont disponibles en quantité, avec une fréquence importante. Les approches de type VaR historique sont ainsi le socle sur lequel sont construits de nombreux modèles bancaires (cf. Christoffersen et al. (2001)). L’adaptation des techniques bancaires au portefeuille d’actifs d’un assureur nécessite un certain nombre d’aménagements, essentiellement pour tenir compte de la durée de détention plus importante.

On pourra par exemple se reporter à Fedor et Morel (2006) qui présentent des analyses quantitatives sur ce sujet. Dans le cadre de la détermination du capital de solvabilité, de nouvelles difficultés apparaissent ; la nature des données disponibles invalidant l’approche historique. Il convient ici de revenir sur les situations d’assurance dans lesquelles on est amené à évaluer des VaR ; en pratique on peut en distinguer principalement deux, dont on va voir qu’elle imposent des approches différentes : − le calcul d’une provision via un quantile à 75 % de la distribution des sinistres ; − la détermination du niveau du capital de solvabilité (SCR) pour contrôler une probabilité de ruine en imposant que celle-ci soit inférieure à 0,5 % à horizon un an.

La première situation constitue une simple évolution par rapport à la situation qui prévaut actuellement ; en effet, les provisions sont aujourd’hui calculées sur la base d’une espérance (approche best estimate, cf. Blum et Otto (1998)). On conçoit que, du point de vue de la technique statistique, les deux calculs (calcul d’une espérance et calcul d’une VaR à 75 %) ne soient pas fondamentalement distincts. En particulier on dispose dans les deux cas de données permettant de mettre en oeuvre les techniques classiques de statistique inférentielle. En pratique, on propose souvent une modélisation de la charge des sinistres à l’aide d’un modèle paramétrique et tout se ramène alors à l’estimation des paramètres de la loi considérée (cf. Partrat et Besson (2005) pour une revue des lois les plus utilisées en pratique).

Notations

Considérons un n-échantillon de variables aléatoires (v.a.) 1, , n X … X indépendantes et identiquement distribuées (i.i.d.) de fonction de répartition F et de fonction de survie F : 1 () x Fx 6 − . La statistique d’ordre associée sera notée , 1, , , nn n X … X et est définie par 102 Mesure et gestion des risques en assurance – Pierre Thérond min , , max , , {X1 , 1, 1, 1 … = ≤ ≤…≤ = … XX X X XX n nn n n n n } − { } . Par ailleurs, on notera uF la fonction de répartition de la v.a. u X qui représente le surplus au-delà du seuil u de X, lorsque X dépasse le seuil u, soit ( ) : Pr Pr | [ ] u u F x X x X u xX u = ≤ = −≤ >     . On notera de plus Fx la borne supérieure du support de X de fonction de répartition F, soit x x Fx F : sup | ( ) 1 = { ∈ < \ } .

Enfin, nous noterons Nu le nombre d’observations qui dépassent le seuil u, soit 1 1 i n u Xu i N > = = ∑ . 3. Estimation de quantiles extrêmes Plaçons-nous dans la situation standard où l’on observe directement des réalisations du phénomène dont on souhaite déterminer la valeur qu’il ne dépassera qu’avec une faible probabilité. L’objet de ce paragraphe est de préciser les différentes méthodes d’estimation possibles et de mesurer les erreurs d’estimation commises relativement à la quantité de données disponibles. Les différentes méthodes sont illustrées à partir d’un échantillon simulé de réalisations d’une variable aléatoire de loi de Pareto de première espèce.

Estimation naturelle

Comme k n, X est un estimateur naturel du quantile d’ordre 1 1 − − (k n ) , un estimateur naturel de 1 F ( ) p − ( p ∈]0;1[) est ( ) ( ) -[ ]-1, -[ ], [ ]- 1 -[ ] n pn n n pn n pn pn X pn pn X + + , où [.] désigne l’opérateur partie entière. Cette méthode nécessite pour être efficace en pratique un volume de données jamais disponible dans notre contexte.

Ajustement à une loi paramétrique

Une méthode naturelle consiste à ajuster l’ensemble des données à une loi paramétrique puis à estimer la fonction quantile au niveau de probabilité souhaité. En effet, on rappelle que si ˆ θ est l’estimateur du maximum de vraisemblance (e.m.v.) du paramètre θ de la loi de X, alors ( ) 1 ˆ θF p − est l’e.m.v. de ( ) 1 θF p − . De plus, les méthodes quantiles bootstrap BC (BCa) (cf. Modélisations avancées en assurance 103 Efron et Tibshirani (1993) et le paragraphe 4) permettent d’obtenir des intervalles de confiance de l’estimation.

Cette méthode d’estimation se décompose en deux étapes : − ajustement à une loi paramétrique : choix d’une ou plusieurs lois, estimation des paramètres, tests d’adéquation ; − inversion de la fonction de répartition (analytiquement quand c’est possible, numériquement sinon). La principale difficulté de cette méthode consiste en le choix des lois paramétriques qui vont être utilisées. Elles doivent répondre à la double contrainte de permettre une évaluation numérique de leur fonction quantile aux ordres souhaités et doivent être en adéquation avec les données.

Ce dernier point est particulièrement problématique dans la mesure où l’estimation des paramètres est effectuée sur l’ensemble de la distribution observée et représente rarement bien les valeurs extrêmes. À moins d’être assuré que la loi choisie pour l’ajustement est la véritable loi d’où sont issues les données, ce qui est exceptionnel en pratique, l’intérêt de cette méthode apparaît très limité dans un contexte d’estimation de quantiles extrêmes.

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *