Sommaire: Statistique inférentielle avancée
1 Introduction
2 Concepts de l’inférence statistique
2.1 Le modele statistique
2.2 Modele parametrique ou non parametrique
2.3 Fonction de vraisemblance
2.4 Statistiques
2.5 Exhaustivite
2.6 La famille exponentielle
3 Estimation parametrique optimale
3.1 Introduction
3.2 Reduction de la variance
3.3 Completude
3.4 L’estimation sans biais et de variance minimale
3.5 Information de Fisher et ecacite
3.5.1 Score et matrice d’information
3.5.2 Information et exhaustivite
3.5.3 Borne de Cramer-Rao et ecacite
4 Maximum de vraisemblance et estimation bayesienne
4.1 Introduction
4.2 Proprietes asymptotiques de l’estimateur de maximum de vraisemblance
4.3 Intervalles de conance asymptotiques
4.3.1 Cas d’un parametre reel
4.3.2 Cas d’un parametre vectoriel
4.4.1 Principe de la methode
4.4.2 Exemple du contr^ole de qualite
5 Tests d’hypotheses optimaux
5.1 Introduction
5.2 Denitions
5.3 Tests d’hypotheses simples
5.4 Tests d’hypotheses composites
5.5 Test du rapport des vraisemblances maximales
6 Estimation non parametrique de quantites reelles
6.1 Les outils de la statistique non parametrique
6.1.1 Statistiques d’ordre et de rang
6.1.2 Loi de probabilite empirique
6.2 Estimation de l’esperance d’un echantillon
6.2.1 Estimation ponctuelle
6.2.2 Intervalle de conance
6.3 Estimation de la variance d’un echantillon
6.3.1 Estimation ponctuelle
6.3.2 Intervalle de conance
6.3.3 Lien entre moyenne et variance empiriques
6.4 Estimation des moments de tous ordres
6.5 Estimation des quantiles
6.5.1 Proprietes des quantiles empiriques
6.5.2 Estimation ponctuelle
6.5.3 Intervalle de conance
6.6 Lois asymptotiques des extr^emes
7 Estimation fonctionnelle
7.1 Estimation de la fonction de repartition
7.1.1 Estimation ponctuelle
7.1.2 Intervalle de conance
7.2 Estimation de la densite
7.2.1 Rappels sur les histogrammes
7.2.2 La methode du noyau
8 Tests d’adequation bases sur la fonction de repartition empirique
8.1 Problematique des tests d’adequation
8.2 Rappels sur les graphes de probabilite
8.3 Cas d’une loi entierement speciee
8.4 Cas d’une famille de lois
9 Tests non paramétriques sur un échantillon
9.1 Tests d’échantillon
9.1.1 Le test de Spearman
9.1.2 Le test de Kendall
9.2 Tests sur l’esperance et la mediane
9.2.1 Tests asymptotiques sur l’esperance
9.2.2 Tests sur la mediane
10 Tests non parametriques sur plusieurs echantillons
10.1 Test de Kolmogorov-Smirnov
10.2 Tests de rang
10.2.1 Le test de la mediane
10.2.2 Le test de Wilcoxon-Mann-Whitney
10.2.3 Le test de Kruskal-Wallis
11 Annexe A : Rappels de probabilites pour la statistique
11.1 Variables aleatoires reelles
11.1.1 Loi de probabilite d’une variable aleatoire
11.1.2 Variables aleatoires discretes et continues
11.1.3 Moments et quantiles d’une variable aleatoire reelle
11.2 Vecteurs aleatoires reels
11.2.1 Loi de probabilite d’un vecteur aleatoire
11.2.2 Esperance et matrice de covariance d’un vecteur aleatoire
11.3 Convergences et applications
11.4 Quelques resultats sur quelques lois de probabilite usuelles
11.4.1 Loi binomiale
11.4.2 Loi geometrique
11.4.3 Loi de Poisson
11.4.4 Loi exponentielle
11.4.5 Loi gamma et loi du chi-2
11.4.6 Loi normale
11.4.7 Lois de Student et de Fisher-Snedecor
12 Annexe B : Lois de probabilite usuelles
12.1 Caracteristiques des lois usuelles
12.1.1 Variables aleatoires reelles discretes
12.1.2 Variables aleatoires reelles continues
12.1.3 Vecteurs aleatoires dans IN d et dans IR d
12.2 Tables de lois
12.2.1 Table 1 de la loi normale centree reduite
12.2.2 Table 2 de la loi normale centree reduite
12.2.3 Table de la loi du 2
12.2.4 Table de la loi de Student
12.2.5 Tables de la loi de Fisher-Snedecor
13 Annexe C : Introduction a R
13.1 Les bases de R
13.2 Commandes pour les deux premiers TD en R
13.3 Quelques commandes utiles de R
13.4 Les lois de probabilite usuelles en R
13.5 Les principaux tests d’hypotheses en R
13.6 Les graphiques dans R
13.6.1 Graphique simple
13.6.2 Autres fonctions graphiques
13.6.3 Parametrage de la commande plot
Bibliographie
♣ Extrait du cours
Chapitre 1 Introduction
Comme son nom l’indique, le cours de premier semestre de Principes et Methodes Statistiques (PMS) a presente les principes et les methodes de base d’une analyse statistique de donnees. On peut resumer rapidement son contenu de la facon suivante :
Statistique descriptive : le but est de decrire et resumer l’information contenue dans les donnees a l’aide de representations graphiques (diagrammes en b^atons, histogrammes, graphes de probabilite) et d’indicateurs statistiques (moyenne, variance, mediane, quantiles, …). Tous les exemples vus portent sur des donnees unidimensionnelles.
L’extension a des descriptions de donnees multidimensionnelles sera vue dans le cours d’Analyse Statistique Multidimensionnelle (ASM).
Statistique inferentielle : le but est de faire des previsions et prendre des decisions au vu des donnees. Nous avons vu deux grandes categories de methodes :
{ L’estimation, ponctuelle et par intervalles de conance, avec la methode des moments et la méthode du maximum de vraisemblance.
{ Les tests d’hypotheses, avec les tests parametriques sur un ou deux echantillons et les tests du 2.
Le but du cours de Statistique Inferentielle Avancee (SIA) est d’approfondir et d’etendre ces notions, en allant plus loin dans la theorie mathematique sous-jacente.
Nous commencerons par donner des concepts generaux sur l’inference statistique, en introduisant la notion de modele statistique. Puis nous etudierons des proprietes d’optimalite des notions deja etudiees : comment trouver un estimateur optimal? Qu’est-ce qu’un test optimal et comment le trouver? Nous etudierons une nouvelle methode d’estimation, l’estimation bayesienne, qui ouvre un champ tres important de la statistique moderne.
Nous distinguerons la statistique parametrique, qui suppose l’existence d’un modele connu avec des parametres inconnus, et la statistique non parametrique, qui ne fait pas ces hypotheses. Dans ce contexte, nous verrons comment estimer des fonctions de repartition et des densites de probabilite.
Enn, nous etudierons des tests non parametriques, permettant de determiner si des observations sont independantes et de meme loi ou presentent une tendance, de tester une moyenne ou de comparer des echantillons sans faire d’hypotheses sur un modele sousjacent, ou de tester l’adequation d’un modele.