Modélisation et analyse prédictive des risques et des conséquences post accident vasculaire cérébral
Modèles et modélisation
Les modèles sont utilisés dans la plupart des disciplines scientifiques comme substituts de la réalité. Il se peut qu’il soit pratiquement impossible de mener des expériences sur un système physique, et donc faire recours à un modèle soit pour remplacer le dit système ou bien le généraliser à de nouvelles situations. Un modèle d’évolution décrit le comportement d’un système à l’aide d’un langage mathématique. Ce dernier pourrait être un ensemble d’équations différentielles comme il pourrait être une règle pour combiner des observations passées. Les modèles mathématiques présentent un intérêt et une utilisation particuliers pour l’ingénierie et la science. Étant donné qu’ils sont utilisés et revêtent une importance dans tant de domaines différents, il existe bien entendu une grande variété de types de modèles et de techniques de modélisation. Il existe également plusieurs domaines étudiant l’acte de modélisation, chacun avec sa propre nomenclature. L’art de la modélisation consiste à trouver un équilibre permettant de répondre aux questions posées ou de se poser de nouvelles questions. La complexité du modèle dépendra alors du problème et de la réponse requise, de sorte que différents modèles et analyses peuvent être appropriés pour un même ensemble de données. Dans cette thèse, l’intérêt est porté particulièrement à la modélisation statistique avec ses différents approches et modèles. La modélisation statistique peut être considérée comme un outil puissant pour développer et tester des théories à travers l’explication causale, la prédiction et la description. Dans de nombreuses disciplines, il existe une utilisation quasi-exclusive de la modélisation statistique pour l’exploration causale, selon laquelle les modèles à fort pouvoir explicatif sont d’un pouvoir prédictif élevé. Dans différents domaines, tels que l’économie, la psychologie, l’éducation et les sciences de l’environnement, les modèles statistiques sont majoritairement utilisés pour l’explication causale, et les modèles possédant un pouvoir explicatif élevé jouissent d’un pouvoir prédictif inhérent. Dans des domaines tels que le traitement du langage naturel, la bio-informatique et l’épidémiologie, l’accent mis sur l’explication causale par rapport à la prédiction empirique est plus mitigé. La caractéristique clé d’un modèle statistique est que la variabilité est représentée à l’aide de distributions de probabilités. Ces distributions forment les éléments de base à partir desquels le modèle est construit. En règle générale, le modèle doit tenir compte des variations aléatoires et systématiques. Le caractère aléatoire associé à la distribution de probabilité explique la dispersion aléatoire dans les données, tandis que le modèle systémique est supposé être généré par la structure du modèle. Concernant le volet modèles et modélisation, nous nous intéressons majoritairement au modèle linéaire à effets mixtes et au modèle espace-état.Ces différentes approches de modélisation ont largement servi à l’obtention des résultats clés de cette thèse. C’est pourquoi nous présentons et décrivons soigneusement les modèles, l’intuition, les hypothèses et les compromis derrière chacune des méthodes que nous considérons. En premier lieu, nous examinons le modèle linéaire (LM), qui est le point de départ fondamental de tous les modèles d’analyse prédictive. Nous présentons également des extensions de ce modèle, à savoir, le modèle linéaire généralisé (GLM), le modèle additif (AM) et le modèle additif généralisé (GAM). La figure 1.1 donne un aperçu général des liens existants entre différents modèles d’analyse prédictive. Elle montre également que nous pouvons combiner des modèles mixtes et additifs pour obtenir une classe de modèle plus sophistiquée à savoir le modèle additif mixte généralisé (GAMM). En second lieu, nous donnons une emphase spéciale au modèle linéaire à effets mixtes (LMM). Dans ce sens, nous définissons le (LMM) et les notions d’effets fixes et aléatoires. Nous estimons les paramètres de variance de ce modèle via la méthode du maximum de vraisemblance (ML) et celle du maximum de vraisemblance restreint (REML). Nous décrivons et comparons trois algorithmes permettant d’optimiser le calcul de ces estimations : Espérance-maximisation (E-M), Newton-Raphson (NR) et Score de Fisher (Fisher scoring). Nous généralisons le (LMM) au modèle linéaire mixte généralisé (GLMM). Finalement, nous fournissons une description des modèles espace-état que nous jugeons nécessaire à la compréhension du chapitre 4. Des méthodes d’estimation de tels modèles sont ensuite expliquées en deux temps : l’estimation des variables cachées avec le filtre de Kalman, puis celle des paramètres avec l’algorithme E-M.
Modèle linéaire
Le modèle linéaire (LM) est le modèle statistique de base que l’on utilise pour analyser une expérience où l’on étudie sur n unités expérimentales les variations d’une variable réponse y en fonction de facteurs qualitatifs ou quantitatifs, appelés aussi variables explicatives. Le modèle linéaire s’écrit : Yi = µi + i . (1.1) i est le numéro de l’unité expérimentale. µi est l’espérance de Yi et inclut l’effet de variables explicatives. i est une variable aléatoire résiduelle, appelée erreur, incluant la variabilité du matériel expérimental, celle due aux variables explicatives non incluses dans le modèle, et celle due aux erreurs de mesure. Selon la nature des variables incluses dans la partie explicative µi du modèle, on distingue trois grandes catégories de modèle linéaire : Lorsque les variables explicatives sont quantitatives, le modèle est appelé modèle de régression : simple s’il n’y a qu’une seule variable explicative, multiple sinon. Lorsque les variables explicatives sont qualitatives, elles sont appelées facteurs et le modèle ainsi construit est un modèle d’analyse de la variance. Lorsque les variables explicatives sont à la fois de nature quantitatives et qualitatives, le modèle ainsi construit est un modèle d’analyse de la covariance. Structure aléatoire Nous supposerons que la variable aléatoire Yi a une distribution normale avec une moyenne µi et une variance σ 2 , : Yi ∼ N
Propriétés de l’estimateur
Les estimateurs des moindres carrés sont non biaisés : E(βˆ) = β. (1.7) On peut également montrer que si les observations ne sont pas corrélées et ont une variance constante σ 2 , la matrice de variance-covariance de l’estimateur MCO s’écrit : var(βˆ) = (X0X) −1 σ 2 . (1.8) Une autre propriété de l’estimateur MCO est que sa variance est la plus faible parmi tous les estimateurs non biaisés, c’est-à-dire c’est le meilleur estimateur linéaire sans biais (BLEU). Puisqu’aucun autre estimateur sans biais ne peut avoir une variance plus faible pour une taille d’échantillon fixe, nous disons que les estimateurs MCO sont efficaces.
Introduction générale |