Sûreté de fonctionnement : la science des défaillances

Sûreté de fonctionnement : la science des défaillances

Avant toute chose, il est nécessaire de définir ce que vont désigner les mots «système» et «composant» dans cette thèse. Un système est un assemblage de com-posants liés entre eux et destinés à accomplir une ou plusieurs fonctions. Un système est considéré « en panne » lorsqu’il n’est plus en mesure d’accomplir la fonction qui lui est dévolue.
Un système non réparable est un système non entretenu qui ne peut pas retourner seul à un meilleur état une fois qu’il cesse de fonctionner correctement. Un système réparable est un système qui, après avoir perdu une ou plusieurs fonctionnalités, peut être restauré par une action de maintenance.
La sûreté de fonctionnement est l’aptitude d’un système à satisfaire à une ou plusieurs fonctions requises dans des conditions données [Villemeur 1988]. Elle permet notamment d’évaluer statistiquement le risque pris en fonction des choix de politiques de maintenance, à travers quatre aptitudes regroupées sous le sigle FMDS (ou RAMS en anglais) : la fiabilité, la maintenabilité, la disponibilité, et la sécurité.
Nous allons donc brièvement introduire chacune de ces grandeurs, même si l’es-sentiel des travaux de cette thèse portent sur l’estimation de la fiabilité, voire de la disponibilité.

Cadre général

Fiabilité
La fiabilité d’un système est son aptitude à rester constamment opérationnel pendant une durée donnée.
C’est la probabilité que le système fonctionne au-delà de l’instant t. On peut aussi la voir comme la probabilité qu’il soit toujours dans un état de fonctionnement jusqu’à l’instant t. On l’appelle aussi fonction de survie.
La fiabilité est définie par la fonction R : N∗ 7→[0, 1] :
R(t) = P (Première défaillance > t)
= P (Système non défaillant sur [0, t])
= P (X1 ∈ U; . . . ; Xt ∈ U)
avec U l’ensemble des états de fonctionnement et Xt l’état du système à l’instant t.
Il est possible de tirer de cette définition de la fiabilité d’autres métriques in-téressantes, telles que le taux de défaillance, défini par λ(t) = −R1(t) dRdt(t) . [Pham 2006]
Lorsque le taux instantané de défaillance diminue avec le temps, on parle de « mortalité infantile » : les systèmes ayant des « défauts de jeunesse » ont des défaillances précoces, les systèmes qui « survivent » sont intrinsèquement robustes. Cela peut aussi décrire une situation de rodage.
Lorsque le risque de défaillance augmente avec le temps, cela indique un phéno-mène d’usure. Dans le cas général, le taux de défaillance n’est pas monotone. On a souvent une première période de mortalité infantile (élimination des systèmes défectueux, rodage), avec un λ décroissant, puis éventuellement une période de pannes aléatoires avec un λ constant, et enfin une période d’usure avec un λ croissant. C’est ce qu’on appelle communément courbe de baignoire (figure 1.2).
Maintenabilité
La maintenabilité d’un système est son aptitude à être remis rapidement dans un état opérationnel.
C’est la probabilité que la maintenance du système soit achevée au temps t, sachant que le système est défaillant à l’instant initial.
La maintenabilité est définie par la fonction M : N∗ 7→[0, 1] :
M(t) = P (Système réparé dans l’intervalle [0, t])
Disponibilité
La disponibilité d’un système est son aptitude à être dans un état opérationnel à un instant donné.
C’est la probabilité que le système soit dans un état de fonctionnement à l’instant t, quels que soient ses états passés.
La disponibilité est définie par la fonction A : N∗ 7→[0, 1] :
A(t) = P (Système non défaillant à l’instant t) = P (Xt ∈ U)
avec U l’ensemble des états de fonctionnement.
Une disponibilité importante est compatible avec une fiabilité faible, pour peu que l’appareil puisse être maintenu très fréquemment et rapidement.
Sécurité
La sécurité d’un système est son aptitude à ne pas connaître de pannes considé-rées comme catastrophiques pendant une durée donnée.
C’est la probabilité que le système évite de faire apparaître, dans des conditions données, des événements critiques ou catastrophiques.
La fiabilité, la maintenabilité, la disponibilité et la sécurité sont ainsi des éléments permettant de quantifier la sûreté de fonctionnement. Nous allons maintenant exposer différentes stratégies de maintenance, ainsi que leurs avantages et inconvénients.

Politiques de maintenance

L’optimisation des stratégies de maintenance est un point clé de toute industrie, pour des raisons économiques, sécuritaires, et réglementaires. Il peut s’agir d’ac-tions d’entretien du système, ou de renouvellements. Les différentes actions sont regroupées suivant le schéma 1.3.
La maintenance corrective est une maintenance effectuée après la détection d’une défaillance. Elle vise à rétablir un état opérationnel que le système avait quitté. La maintenance palliative est une solution provisoire, alors que la maintenance curative a pour objet de rétablir le système dans un état de fonctionnement. La maintenance palliative doit être suivie d’une maintenance curative. Faire le choix d’une mainte-nance corrective entraîne nécessairement une période d’indisponibilité du système.
La maintenance préventive, quant à elle, consiste en un entretien qui permet de maintenir les équipements en bon état de fonctionnement, en prévoyant l’inspection, la détection et la correction des défaillances naissantes, soit avant qu’elles ne se produisent, soit avant qu’elles ne s’aggravent et conduisent à une panne.
La maintenance systématique désigne des opérations effectuées systématique-ment, soit selon un calendrier, avec une périodicité temporelle fixe, soit selon une périodicité d’usage, telle qu’un nombre de pièces produites, ou encore un nombre d’heures de fonctionnement. Cette maintenance nécessite de choisir pertinemment la périodicité, qui soit un bon compromis entre un trop grand nombre de maintenances qui coûterait cher, et un trop petit nombre de maintenance qui n’assurerait pas de façon certaine la disponibilité du matériel.
La maintenance conditionnelle est effectuée après que l’information renvoyée par un ou plusieurs indicateurs indique que l’équipement va bientôt tomber en panne ou que ses performances se détériorent. L’enjeu est ici de déterminer des seuils pertinents d’alerte, de définir à partir de quel niveau d’information de l’indicateur il est nécessaire d’intervenir. Si cette maintenance a l’avantage d’agir au plus près de la défaillance, elle présente l’inconvénient de ne pas pouvoir prévoir à l’avance la charge de maintenance (comme les moyens à mettre en œuvre ou le personnels à mobiliser), qui n’est connue qu’au moment du dépassement du seuil de l’indicateur.
La maintenance prévisionnelle cherche quant à elle à prédire à l’avance l’instant de défaillance, ou tout au moins l’instant de dépassement d’un seuil de dégradation conduisant à un déclenchement d’une maintenance préventive conditionnelle. Ceci permet d’agir au plus près de la défaillance, ou juste avant l’événement redouté, et ainsi de gagner en disponibilité et en coût d’entretien. Cela permet d’anticiper la charge de maintenance, ce qui peut aussi être un gain pour une entreprise. L’élaboration d’une politique de maintenance optimale – par rapport aux cri-tères de la sûreté de fonctionnement et par rapport aux coûts – pour une situation donnée constitue un problème scientifique et technique majeur. Il y a notamment un consensus fiabilité-maintenabilité à trouver. La connaissance disponible sur le système peut aider à élaborer une stratégie de maintenance. Nous allons donc d’abord présenter un processus d’élaboration d’une maintenance optimale, puis nous nous intéresserons à l’étape sur laquelle les travaux ont porté : la modélisation du processus de dégradation.

Processus de dégradation

Maintenance basée sur la fiabilité

Un moyen pour établir une maintenance avec une fiabilité et une disponibilité requises, au coût le plus bas, est d’utiliser ce qu’on appelle la maintenance basée sur la fiabilité (MBF).
La première description générale de la MBF a été proposée par nowlan [Now-lan et Heap 1978]. L’ouvrage de zwingelstein [Zwingelstein 1996] est une des principales références en français au sujet de la MBF.
C’est une méthode essentiellement basée sur la connaissance exacte du compor-tement fonctionnel et du dysfonctionnement des systèmes. L’ensemble des connais-sances disponibles sur la fiabilité du système, l’historique de ses défaillances, sont étudiés, afin d’effectuer une analyse détaillée des modes de défaillance et de leurs effets. L’approche MBF inclut aussi des calculs de la probabilité de défaillance et de fiabilité du système. La tâche de maintenance est ainsi dimensionnée en fonction des conséquences des défaillances, et non par rapport aux défaillances proprement dites. Il s’agit alors de comprendre comment le dysfonctionnement se produit et de trouver les actions de maintenance nécessaires pour que les phénomènes identifiés ne se produisent pas.
L’analyse MBF permet de déterminer les tâches de maintenance appropriées, c’est-à-dire le plan de maintenance le plus pertinent, pour traiter chacun des modes de défaillance identifiés ainsi que leurs conséquences. Elle permet d’optimiser la disponibilité des équipements avec le coût le plus bas possible, au niveau de fiabilité requis. L’opérateur évite ainsi la sur-qualité (coûteuse) et la sous-qualité (à l’origine des défaillances).
La mise en œuvre d’une telle démarche pour un système donné nécessite tou-jours :
1. un modèle représentant le ou les processus de dégradation du système ;
2. un modèle représentant les différentes solutions de maintenance envisageables ;
3. une fonction d’utilité pour évaluer chaque politique de maintenance réalisable.
L’objectif de l’approche MBF est finalement de maximiser la fonction d’utilité en ajustant les paramètres de maintenance pour réaliser le meilleur compromis possible entre les coûts d’entretien et la disponibilité du système.
La modélisation du système est généralement l’étape la plus délicate de la MBF. L’objectif est d’expliquer au mieux le processus d’évolution des différents états de fonctionnement du système. L’éventuel Retour d’EXpérience (REX) facilite la com-préhension des processus de dégradation des composants du système et de leurs interactions. La présence et l’exploitation d’un REX présentent également l’avan-tage de fournir une modélisation relativement proche de la réalité. En revanche, s’il n’y a pas ou peu de données REX exploitables, il appartient aux experts de propo-ser leur modèle, ce qui peut conduire parfois à l’introduction de biais importants. Le reste de la méthode dépend des choix de l’utilisateur, comme expliqué dans la section 2.1.4.

Éléments bibliographiques

Une étape importante de la MBF est donc la modélisation du processus de dé-gradation du système ou de ses composants, appelée également analyse de fiabilité.
Les travaux ayant porté sur ce sujet étant très denses, l’état de l’art sera orienté dans le cadre d’étude de cette thèse, qui se positionne par rapport à des travaux antérieurs tous basés sur des systèmes à espace d’états discrets et finis. Il existe aussi un grand nombre de méthodes à espace d’état continu, mais qui ne font pas l’objet de cette thèse.
Pour modéliser la défaillance d’un système à espace d’état discrets et finis, il existe deux grandes classes de modèles : les modèles de survie et les modèles de dégradation.
Établir un modèle de survie consiste à décrire la durée de fonctionnement de l’entité, du composant, par une loi de probabilité [Lawless 2011 ; Nelson 2004].
Toutes les lois statistiques sont envisageables. La plus connue est la loi expo-nentielle. Cette loi modélise la durée de vie d’un phénomène sans mémoire, ou sans vieillissement, ou sans usure : le taux de défaillance ne dépend pas de l’âge du système. La loi exponentielle est pertinente par exemple dans le domaine de la ra-dioactivité [Rutherford et Soddy 1903]. On rencontre aussi souvent la loi de Weibull [Weibull 1951], qui présente l’avantage de pouvoir modéliser chacune des trois phases de défaillance de la courbe en baignoire (voir section 1.1.2) en fonction des valeurs de son paramètre de forme [Singpurewalla et Shi Song 1988]. La loi Gamma [Laplace 1836] permet également de modéliser les trois phases de la vie d’un système (cf. figure 1.2) mais elle présente une décroissance trop rapide pour beaucoup d’applications. La loi Log-normale [Francis 1879], quant à elle, modélise la durée de vie par une courbe en forme de cloche. Elle ne représente que la première et la dernière phases de la vie d’un système. La loi de Bertholon [Bertholon 2001] présente l’avantage de mixer une loi exponentielle et une loi de Weibull et donc permet de modéliser dans un même contexte la phase de maturité et la phase de vieillesse d’un système.

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *