Télécharger le fichier original (Mémoire de fin d’études)
Contexte du travail et motivations
Le développement de la technologie a accompagné les industries des systèmes méca-niques vers des usines hautement automatisées et intelligentes dans lesquelles les machines intelligentes et les réseaux de capteurs interagissent mutuellement. Avec le développement de ces technologies, un nouveau concept, l’industrie 4.0, a été introduit par les allemands et symbolisant le début de la 4e révolution industrielle [129]. Les trois premières révolutions industrielles ont entraîné des changements radicaux dans la fabrication, à savoir la mé-canisation, l’utilisation de l’électricité et de l’automatisation (l’électronique). L’industrie 4.0 repose sur l’exploitation des données numériques de fabrication et s’accompagne de trois améliorations technologiques, l’Internet des Objets Industriels (IIoT), l’Intelligence Artificielle (IA), et les systèmes cyber-physiques (CPS) (et plus récemment le Jumeau Numérique (DT)) qui ont progressé au cours de la dernière décennie.
Les CPS sont définis comme des systèmes physiques (typiquement un système de pro-duction) et une représentation numérique de son état, grâce à des capteurs installés sur le système de production [91]. Les CPS n’étaient pas nécessairement interconnectés avant l’industrie 4.0, mais doivent l’être actuellement. L’IIoT est un réseau d’appareils indus-triels connectés qui peuvent communiquer entre eux et fournir des données aux utilisateurs par le biais d’Internet. Le déploiement de l’IIoT enrichit les sources d’informations dis-ponibles dans l’atelier. En effet, grâce à leur connectivité aisée (de type plug&play), ils permettent de mettre à disposition facilement une information. Par conséquent, l’utilisa-tion croissante de capteurs et de machines en réseau a entraîné la génération continue de données complexes, à haut volume et à grande vitesse, également appelées Big Data [62].
En effet, de grands volumes de données collectés dans les industries sont partielle-ment stockés et restent sous-exploités. L’analyse de ces données devient plus importante car c’est un levier majeur d’amélioration de la performance industrielle, permise par les développements rapides sur le domaine des données. En revanche, une analyse manuelle de ces données devient impossible du fait du grande volume de données hétérogènes. Par conséquent, l’analyse de données automatique par l’Intelligence Artificielle (IA) est néces-saire [140]. En effet, l’analyse de toutes ces données peut apporter un avantage concurren-tiel important aux entreprises, car elles sont en mesure d’évaluer de manière significative l’ensemble des processus [116]. Ces processus peuvent se trouver à une échelle globale telle que la gestion de la chaîne logistique, gestion des relations clients, ou bien à une échelle réduite comme l’ordonnancement des ordres de fabrication, le contrôle qualité, et le diag-nostic et la détection de défauts dans les procédés de fabrication et d’assemblage [70].
Dans le cadre de l’analyse de données, la détection des défauts dans les procédés de fabrication joue un rôle clé dans la traçabilité et l’optimisation de la production. Elle s’appuie généralement sur la surveillance en cours de process, pour laquelle une littérature abondante est disponible. Globalement, il existe 4 approches de détection de défauts : méthodes traditionnelles, méthodes basées sur des modèles physiques, méthodes basées sur la connaissance, méthodes basées sur les données. La dernière approche a suscité beaucoup plus d’intérêt ces dernières années en raison de l’augmentation de la puissance de calcul ainsi que la disponibilité des données. Par exemple, la classification et le clustering ont été appliqués avec succès au processus d’usinage intelligent [83]. De même, de nombreuses approches de détection de défauts ont été développées pour les opérations de vissage [4].
Dans la littérature, 79% des méthodes de détection de défauts basées sur les données proviennent des méthodes basées sur l’apprentissage automatique (ML) supervisées [114]. C’est à dire que ces méthodes requirent la connaissance de la vérité terrain afin d’établir un modèle mathématique pour la surveillance process. Plusieurs techniques ont été propo-sées, telles que les réseaux neuronaux convolutifs (CNN) [113], les systèmes flous [45], ou les machines à vecteurs de support [104]. Une limitation générale est que la connaissance du domaine est rarement intégrée dans les approches. De plus, plusieurs modèles d’appren-tissage peuvent être proposés et il n’existe pas de consensus sur la meilleure architecture à adopter pour une application donnée. En outre, les ensembles de données d’entraînement sont généralement issus d’expériences menées dans des conditions de laboratoire idéales, où une personne peut manuellement étiqueter chacune des quelques opérations comme correcte ou incorrecte. À l’inverse, connaître la vérité terrain dans un contexte industriel, avec un rythme de production intensif, n’est généralement pas possible. C’est la raison pour laquelle les méthodes d’apprentissage non-supervisées sont souvent nécessaire sur les applications industrielles.
De plus, même si des étiquettes pouvaient être fournies, ces méthodes sont générale-ment entraînées sur un nombre limité de défauts connus, avec peu ou pas d’observation de ces défauts. Dans le cas où le processus est mature et a été étudié en profondeur, ses principales défaillances sont bien connues et peuvent être surveillées avec succès. Mais pour les processus moins étudiés, la détection de défauts inconnus est un problème impor-tant. De plus, en plus de la capacité de détection de défauts inconnus, il est souhaitable d’intégrer les connaissances associées aux défauts nouvellement détectés dans le modèle de surveillance. Ainsi, des défauts inconnus peuvent potentiellement survenir en production et, même connus, les défauts sont souvent manquants dans les jeux de données indus-trielles d’entraînement. Ceci est expliqué par le fait que la fiabilité sur une production industrielle doit être de 100%, et donc, même si les défauts sont connus, les jeux de don-nées résultants sont très déséquilibrés (même pour un grand volume de données) et il est difficile (voir impossible) d’apprendre les défauts. C’est pourquoi des méthodes per-mettant la découverte de nouveaux défauts sont cruciales. Pourtant elles sont rarement discutées explicitement dans la littérature.
Enfin, il convient de noter que de nombreux travaux de recherche se concentrent sur un aspect unique, une stratégie de processus avec un seul jeu de paramètres opératoires (i.e. contexte), ce qui n’est pas suffisant pour les applications pratiques où une multitude de paramètres existent et affectent la signature des défauts. En effet, un changement mi-neur sur un paramètre (i.e. changement de contexte) peut nuire à la fiabilité du modèle de surveillance. Cela est expliqué par le fait que l’hypothèse de l’indépendance et l’iden-tiquement distribuées (i.e. iid) des données sur laquelle repose la plupart des modèles d’apprentissage automatique n’est potentiellement plus respectée. Pour y remédier, une stratégie intuitive consiste alors à apprendre un nouveau modèle de surveillance sur les données issues du nouveau contexte de production. Cette approche requière néanmoins un nombre suffisant de données pour apprendre un modèle de surveillance. De plus, toutes les connaissances apprises sur les anciens contextes (i.e. en termes de défauts et de modèles appris) deviennent obsolètes, ce qui affecte négativement l’efficacité de la surveillance process (absence d’exploitation des connaissances apprises). Par conséquent, il convient de concevoir des mécanismes permettant d’exploiter les connaissances antérieures sur de nouveaux contextes. À cet effet, des travaux de l’Adaptation au Domaine et de Trans-fert Learning sont généralement proposés pour adresser ces problèmes. En revanche, ces derniers se reposent sur des réseaux de neurones profonds (boite-noire) [164, 166] qui nécessitent un volume de données important. De plus, ces derniers nécessitent dans la plupart des jeux d’apprentissage (domaine source) où la vérité terrain est connue, ce qui est rarement le cas en industrie.
Table des matières
Introduction
Contexte du travail et motivations
Plan de la thèse
État de l’art
Contributions
I État de l’art
1 Détection de défauts et diagnostic dans les systèmes industriels
1.1 Définitions de base
1.1.1 Types de défauts
1.1.2 Aperçu du processus de diagnostic des défauts
1.2 Méthodes de surveillance process
1.2.1 Méthodes traditionnelles
1.2.2 Méthodes basées sur la connaissance
1.2.3 Méthodes basées-modèle
1.3 Méthodes basées sur les données
1.3.1 Approches supervisées
1.3.2 Approches non-supervisés
1.3.3 Discussion
1.4 Conclusion
2 Modèle à mélange de gaussiennes
2.1 Modèle de Mélange de Gaussiennes
2.1.1 GMM
2.1.2 Maximum de vraisemblance
2.1.3 L’algorithme d’Espérance-Maximisation (EM)
2.1.4 Limitations de l’algorithme EM
2.1.5 Critères de sélection de modèle
2.1.6 Lien entre gaussiennes et clusters
2.2 Décisions avec rejet
2.2.1 Rejet de distance
2.2.2 Rejet d’ambiguïté
2.2.3 Conclusion
2.3 Réduction de modèles
2.3.1 Formalisation du problème
2.3.2 Mesures de dissimilarité
2.3.3 Réduction gloutonne
2.3.4 Affinement
2.3.5 GMRC
2.4 Conclusion
3 Ontologie
3.1 Notions de base
3.1.1 Définition
3.1.2 Les catégories de l’ontologie
3.1.3 Les utilisations d’ontologie
3.1.4 Évolution de l’ontologie
3.2 Ontologie pour le diagnostic de défauts
3.2.1 Partage du vocabulaire
3.2.2 Raisonnement sur les causes de défauts
3.2.3 Calcul des similarités
3.2.4 Synthèse
3.3 Approches hybrides
3.3.1 L’apprentissage automatique pour l’ontologie
3.3.2 L’ontologie pour l’apprentissage automatique
3.3.3 Quelques critiques des approches citées
3.4 Conclusion
II Contributions
4 Découverte itérative de connaissances pour la détection de défauts
4.1 L’architecture proposée
4.1.1 Architecture globale de détection de défaut inconnu
4.1.2 Peuplement de l’ODD
4.1.3 Enrichissement de l’ODD
4.2 Expérimentations
4.2.1 Protocole Expérimental
4.2.2 Détection et apprentissage de nouveaux défauts
4.2.3 Robustesse
4.3 Conclusion
5 Généralisation et exploitation des connaissances
5.1 Formalisation du problème
5.2 Description de la solution
5.2.1 Évolution de la structure l’ontologie
5.2.2 Mécanisme 1 : Réduction intra-contexte
5.2.3 Mécanisme 2 : Généralisation inter-contextes
5.2.4 Algorithme de réduction de modèle gaussien
5.3 Expérimentations
5.3.1 Protocole expérimental
5.3.2 Mécanisme 1 : Réduction intra-contexte
5.3.3 Mécanisme 2 : Généralisation inter-contextes
5.3.4 Discussions et pistes d’amélioration
5.4 Conclusion
6 Decouverte et généralisation de connaissances en vissage
6.1 Présentation du métier
6.1.1 Notions de base sur les assemblages boulonnés
6.1.2 Détection de défauts et surveillance
6.2 Découverte incrémentale de nouveaux défauts
6.2.1 Protocole expérimental
6.2.2 Peuplement de l’ontologie
6.2.3 Classification et enrichissement
6.2.4 Conclusion
6.3 Généralisation des connaissances
6.3.1 Protocole expérimental
6.3.2 Réduction intra-contextes
6.3.3 Généralisation inter-contextes
6.3.4 Conclusion
6.4 Industrialisation de l’architecture
6.5 Conclusion
Conclusion
Perspectives
Bibliographie
Annexe
Résultats de la généralisation (chapitre 5)
Courbes de vissage
Télécharger le rapport complet