Dans de nombreux secteurs industriels, l’optimisation de la maintenance de systèmes de plus en plus complexes apparait comme l’un des verrous technologiques à leur développement. C’est notamment le cas dans le domaine ferroviaire où l’infrastructure comme les matériels roulants sont soumis à des exigences de disponibilité, sécurité, coûts, rentabilités de plus en plus élevées.
Du fait de la complexité de ces systèmes et pour en comprendre intimement le fonctionnement, il est nécessaire de recourir à des simulations du comportement du système étudié sur son cycle de vie, en injectant dans la simulation les caractéristiques des stratégies de maintenance utilisée (type de maintenance, échéancier de surveillance, qualité des diagnostic, type d’actions de maintenance …). Ainsi il devient possible, pour une fonction coût donnée, d’optimiser la maintenance.
Généralement, par « optimisation des politiques de maintenance », on entend le réglage, pour un contexte donné (modèles de dégradation, type et contexte d’exploitation, répartition des coûts . . .), des paramètres de la stratégie de maintenance. Cette optimisation est généralement proposée sur un horizon temporel large (au delà de la durée de vie du système) et est réalisée une fois pour toute.
Cette thèse se propose d’aborder le problème du réajustement en ligne des référentiels de maintenance tenant compte d’un retour d’expérience cumulatif (défaillances observées au cours du temps). Il s’agit de s’adapter à un contexte possiblement variable (composants fournis par de nouveaux sous-traitants ou apparition de nouveaux modes de défaillance). L’objectif final est de proposer un outil d’optimisation dynamique qui ajuste automatiquement les caractéristiques des politiques de maintenance.
Ces travaux, ce sont déroulés au sein du laboratoire Génie des Réseaux de Transports Terrestres et Informatique Avancée (GRETTIA) de l’Institut Français des Sciences et Technologies des Transport, de l’Aménagement et des Réseaux (IFSTTAR) dans le cadre du projet de recherche SurFer (Surveillance Active Ferroviaire), piloté par la société Bombardier Transport et financé par le FUI (Fonds Uniques Interministériel) et dont l’objectif principale est l’amélioration de la disponibilité des matériels roulants ferroviaire.
Les modèles graphiques probabilistes suscitent un grand intérêt dans de nombreux domaines de recherche, notamment en intelligence artificielle, en statistiques, et dans les domaines des sciences cognitives[Kayser 2004] et de la philosophie [Drouet 2007]. Cet intérêt pour les MGP s’explique principalement par leur simplicité de mise en place et leur capacité à modéliser la connaissance et le raisonnement dans l’incertain.
Les modèles graphiques probabilistes constituent une famille de modèles mathématiques permettant de mettre en place un raisonnement automatique dans l’incertain. ils comprennent entre autres les Réseaux Bayésiens (RB), les Chaînes de Markov (CM) et les réseaux de Petri. Dans ce document, seul seront abordés les réseaux bayésiens et les chaînes de Markov .
Les MGP sont représentés par des graphes où les nœuds modélisent des variables aléatoires et les arcs des relations entre ces variables. Cette représentation présente le double avantage d’être modulaire et de permettre la ré-utilisation des résultats démontrés dans la théorie des graphes. Si besoin, quelques rappels sur la théorie des probabilités et la théorie des graphes sont donnés dans les annexe D etE.
L’objectif principal d’un réseau bayésien est de représenter de manière compacte la loi jointe d’un vecteur aléatoire X = (X1,…,Xn) en utilisant les relations de dépendances entre les variables (X1,…,Xn). Un réseau bayésien est composé d’une partie qualitative donnée par un graphe, et d’une partie quantitative obtenue à partir de lois de probabilités conditionnelles entre certaines variables du graphe.
Le premier algorithme d’inférence pour les réseaux bayésiens est proposé au début des années 80 par [Pearl 1986], mais son utilisation est restreinte aux réseaux les plus simples, les polyarbres (voir définition à l’annexe E ). Il s’agit de protocoles de communication entre les nœuds d’un réseau par passage de messages asynchrones. Cette technique permet à chaque nœud du réseau d’échanger des informations avec les nœuds voisins, et assure ainsi une cohésion globale. La complexité de cet algorithme est polynomiale par rapport au nombre de variables du réseau.
Cette méthode, initialement limitée aux arbres, a été étendue aux réseaux quelconques par l’algorithme d’arbre de jonction (JT) [Jensen 1990, Lauritzen 1988]. Cet algorithme s’applique en trois étapes de transformation du graphe : la moralisation, la triangulation, et la construction de l’arbre de jonction correspondant ; suivie d’une étape de propagation de l’information par passage de messages, appelée induction, jusqu’à cohérence. Les notions de moralisation et de triangulation d’un graphe sont expliquées dans l’annexe E. La complexité algorithmique de l’algorithme JT est exponentielle par rapport à la taille de la plus grande clique.
A partir de l’algorithme de passage de messages, une autre méthode appelée algorithme « coupe cycle » ou plus souvent cut-set conditionning est proposée dans [Pearl 1986]. Elle consiste à instancier un certain nombre de variables de manière à ce que le graphe résultant soit un arbre. Pour chaque instanciation, la propagation de l’information s’effectue par passage de messages. Puis les résultats de toutes les instanciations sont combinés pour répondre à la requête. La complexité algorithmique de cette méthode d’inférence augmente de manière exponentielle en fonction de la taille de l’ensemble de coupe.
Algorithme d’élimination de variables L’algorithme d’élimination de variables, proposé initialement par [Nevin Lianwen Zhang 1994] et généralisé par [Dechter 1999], consiste à marginaliser la distribution de probabilité jointe d’un réseau, en procédant variable par variable. Chaque marginalisation sur une variable Xi donne lieu à une somme des probabilités de cette variable. Parfois, cette somme vaudra 1, ce qui conduira à l’élimination de la variable Xi . On procédera alors à la marginalisation sur une des variables restantes et ainsi de suite jusqu’à ce que la distribution soit marginalisée. Dans cet algorithme, un ordre pour l’élimination des variables doit être préalablement défini, et la complexité algorithmique de l’inférence dépend de ce choix. Trouver un ordre d’élimination de variable optimal est un problème NP-difficile [Dechter 1999].
Introduction générale |