Philosophie de la commande prédictive
La stratégie de la commande prédictive est très similaire à la stratégie utilisée pour la conduite automobile. Le conducteur connaît la trajectoire de référence désirée (le tracé de la route) sur un horizon de commande fini (celui du son champ visuel), et en prenant en compte les caractéristiques de la voiture (modèle mental du comportement du véhicule), il décide quelles actions (accélérer, freiner ou tourner le volant) il faut réaliser afin de suivre la trajectoire désirée. Seule la première action de conduite est exécutée à chaque instant, et la procédure est répétée à nouveau pour les prochaines actions.
Cette conception consiste à prendre en compte, à l’instant présent, le comportement futur, en utilisant explicitement un modèle numérique du système afin de prédire la sortie dans le futur sur un horizon fini. Cependant, il n’existe pas une stratégie unique mais plutôt tout un ensemble de méthodes de commande prédictive, assez similaires, bâties autour de principes communs, mais présentant néanmoins quelques différences dans l’interprétation des concepts clés.
Une des richesses de ces méthodes provient du fait que, pour une consigne connue ou pré calculée (au moins sur un certain horizon), il est ainsi possible d’exploiter pleinement les informations de trajectoires prédéfinies situées dans le futur, puisque le but de la stratégie prédictive est de faire coïncider la sortie du processus avec cette consigne dans le futur, sur un horizon fini, en accord avec le diagramme temporel , c’est pourquoi cette méthode apparaît tout indiquée dans les problèmes de poursuite et plus spécialement de suivi de trajectoire. C’est le cas de nombreux servomécanismes et notamment de la commande d’axes en machine outil ou en robotique, domaines où les trajectoires à suivre sont parfaitement connues.
Commande prédictive généralisée
Développée par Clarke et al en 1987, la commande prédictive généralisée (GPC) est devenu l’un des algorithmes de commande prédictive les plus répandus.
Cette partie du chapitre présente la procédure pour obtenir une loi de commande GPC et ses principales caractéristiques. L’idée de base de la GPC est de calculer une séquence de commandes futures de telle façon qu’une fonction de coût à plusieurs composantes soit minimale sur un certain horizon de prédiction. L’indice à optimiser est une fonction quadratique qui mesure la distance entre la sortie prédite du système et une séquence de référence, plus une fonction quadratique qui mesure l’effort de commande.
Les spécificités de la commande GPC sont l’existence d’une solution optimale analytique, le fait qu’elle soit compatible avec des systèmes instables ou à phase non minimale, et enfin la notion de l’horizon de commande et d’incréments de commande.
Réseaux de neurones artificiels
Un réseau de neurones artificiels est un processeur parallèle de traitement d’informations distribuées, qui présente une propension naturelle à la mémorisation et à l’exploitation de connaissances relatives à l’environnement dans lequel il est immergé, connaissances acquises à partir de l’expérience.
Sa structure repose sur une interconnexion massive de cellules élémentaires de traitement d’information, appelées neurones formels, dont la représentation est un graphe dirigé . L’analogie entre un réseau de neurones formels et le cerveau est suscitée par deux remarques : un réseau de neurones artificiels acquiert la connaissance de son environnement par l’intermédiaire d’un apprentissage qui “simule” la plasticité du cerveau.
En cours d’apprentissage, le réseau peut être amené à modifier sa structure en créant ou en supprimant des neurones ou des liaisons entre neurones.
la connaissance acquise par un réseau de neurones est encodée par les forces ou Intensités évolutives des connexions établies entre neurones formels.
Les forces des connexions liant les neurones réfèrent aux valeurs des poids ou coefficients synaptiques qui définissent les paramètres du modèle interne du réseau.
Il apparaît que l’intérêt des réseaux de neurones artificiels réside dans le parallélisme de leur structure, leur capacité d’adaptation ainsi que leur mémoire distribuée.
Il est important de citer également la capacité de généralisation des réseaux de neurones qui émerge de l’apprentissage. La capacité de généralisation désigne l’aptitude d’un réseau à présenter un comportement acceptable en réponse à des stimuli externes de son environnement non rencontrés lors de l’apprentissage (interpolation et extrapolation).
Architectures des réseaux de neurones
Aujourd’hui de nombreux termes sont utilisés dans la littérature pour désigner le domaine des réseaux de neurones artificiels.
Il n’y a pas de définition universellement acceptée de réseau de neurones. On considère généralement qu’un réseau de neurones est constitué d’un grand ensemble d’unités (ou neurones), ayant chacune une petite mémoire locale. Ces unités sont reliées par des canaux de communication (les connexions, aussi appelées synapses d’après le terme biologique correspondant), qui transportent des données numériques.
Les unités peuvent uniquement agir sur leurs données locales et sur les entrées qu’elles reçoivent par leurs connexions. Nous distinguons deux types de réseaux : les réseaux non bouclés et les réseaux bouclés.
Réseaux non bouclés : Les neurones peuvent être ordonnés d’une façon telle qu’il n’y a aucune connexion « vers l’arrière » (terme anglais : « Feed-Forward » neural network).
Un réseau de neurones non bouclé est donc représenté graphiquement par un ensemble de neurones connectés entre eux, l’information circulant des entrées vers les sorties sans retour en arrière : si l’on représente le réseau comme un graphe dont les nœuds sont les neurones et les arêtes les connexions entre ceux-ci, le graphe d’un réseau non bouclé est acyclique : si l’on se déplace dans le réseau, à partir d’un neurone quelconque, en suivant les connexions, on ne peut pas revenir au neurone de départ . Les neurones qui effectuent le dernier calcul de la composition de fonctions sont les neurones de sortie ; ceux qui effectuent des calculs intermédiaires sont les neurones cachés.
Propriété fondamentale des réseaux de neurones
La propriété fondamentale des réseaux de neurones est l’approximation parcimonieuse. Cette expression traduit deux propriétés distinctes : d’une part, les réseaux de neurones sont des approximateurs universels, et d’autre part, une approximation à l’aide de réseau de neurones nécessite, en général, moins de paramètres ajustables que les approximateurs usuels. La propriété d’approximation universelle peut s’énoncer de la façon suivante : Toute fonction bornée suffisamment régulière peut être approchée uniformément, avec une précision arbitraire, dans un domaine fini de l’espace de ses variables, par un réseau de neurones comportant une couche de neurones cachés en nombre fini, possédant tous la même fonction d’activation, et un neurone de sortie linéaire.
Lorsque l’on veut modéliser un processus à partir des données, on cherche toujours à obtenir les résultats les plus satisfaisants possibles avec un nombre minimum de paramètres ajustables. Dans cette optique, a montré que : Si le résultat de l’approximation est une fonction non linéaire des paramètres ajustables, elle est plus parcimonieuse que si elle est une fonction linéaire des ces paramètres.
De plus, pour des réseaux de neurones à fonction d’activation sigmoïdale, l’erreur commise dans l’approximation varie comme l’inverse du nombre de neurones cachés, et elle est indépendante du nombre de variables de la fonction à approcher.
Par conséquent, pour une précision donnée, donc pour un nombre de neurones cachés donné, le nombre de paramètres du réseau est proportionnel au nombre de variables de la fonction à approcher.
Ce résultat s’applique aux réseaux de neurones à fonction d’activation sigmoïdale puisque la sortie de ces neurones n’est pas linéaire par rapports aux poids synaptiques.
La spécificité des réseaux de neurones réside donc dans le caractère parcimonieux de l’approximation : à précision égale, les réseaux de neurones nécessitent moins de paramètres ajustables (les poids des connexions) que les approximateurs universels couramment utilisés ; plus précisément, le nombre de poids varie linéairement avec le nombre de variables de la fonction à approcher, alors qu’il varie exponentiellement pour la plupart des autres approximateurs .
Table des matières
Introduction
Contexte
Sujet(motivations)
Organisation de la thèse
Listes des figures
CHAPITRE I : Commande prédictive généralisée linéaire
I.1. Historique
I.2. Introduction
I.3. Philosophie de la commande prédictive
I.4. Commande prédictive généralisée
I.4.1.Modélisation du système
I.4.2.Fonction de coût
I.4.3. Calcul des prédictions de la sortie
I.4.3.1. Prédicteur optimal
I.4.3.2. Prédicteur optimal sous forme matricielle
I.4.4. Détermination de la solution optimale
I.4.4.1. Principe de la loi de commande
I.4.4.2. loi de commande
I.4.5. Structure RST du régulateur
I.4.6. Choix des paramètres de réglage
I.4.7. Exemple illustratif
I.5. Conclusion
CHAPITRE II : Réseaux de neurones artificiels
II.1. Introduction
II.2. Réseaux de neurones artificiels
II.3. Architectures des réseaux de neurones
II.3.1. Définition
II.3.2.Réseaux non bouclés
II.3.3. Réseaux bouclés
II.4. Propriété fondamentale des réseaux de neurones
II.5. Apprentissage des réseaux de neurones
II.5.1. Mécanismes d’apprentissage
II.5.1.1. Apprentissage supervisé
II.5.1.2. Apprentissage non supervisé
II.5.2 Apprentissage et adaptation
II.6. Conclusion
CHAPITRE III : Modélisation par réseaux de neurones
III.1. Introduction
III.2. Définition d’un processus et d’un modèle
III.2.1. Processus
III.2.2. Modèles
III.2.2.1. Objectifs de la modélisation
III.2.2.2. Classification des modèles
III.3. Conception d’un modèle
III.3.1. Choix d’un modèle-hypothèse
III.3.2. Du modèle-hypothèse au prédicteur ou au simulateur
III.3.3. Modèles-hypothèses et leurs prédicteurs associés
III.4. Conception de modèles NARMAX
III.5. Conclusion
CHAPITRE IV : Commande prédictive généralisée non linéaire
IV.1. Introduction
IV.2. Revue de la commande neuronale
IV.2.1. Approches de la commande neuronale
IV.2.1.1. Commande neuronale directe
IV.2.1.2. Commande neuronal indirecte
IV.2.1.3. Structure de commande avec le modèle neuronal inverse
IV.3. Commande prédictive généralisée non linéaire
IV.3.1. Introduction
IV.3.2. Commande prédictive généralisée neuronale
IV.3.2.1. Introduction
IV.3.2.2. Fonction de coût
IV.3.2.3. Prédicteur neuronal
IV.3.2.4. Exemple de simulation
IV.3.2.5. Avantages et inconvénients
IV.3.3. Commande prédictive généralisée linéarisée
IV.3.3.1. Introduction
IV.3.3.2. Linéarisation instantanée
IV.3.3.3. Implémentation de la loi de commande
IV.3.3.4. Exemple de simulation
IV.3.3.5. Avantages et inconvénients
IV.4. Conclusion
CHAPITRE V : Application à un simulateur de conduite
V.1. Introduction
V.2. Plates–formes mobiles utilisées dans les simulateurs de conduite
V.2.1. Plates-formes à base fixe
V.2.2. Plates-formes à structure série
V.2.3. Plates-formes à structure parallèle
V.2.4. Plates-formes à structure hybride
V.3. Stratégies de contrôle des plates-formes de restitution du mouvement
V.3.1. Algorithme de restitution de mouvement
V.4. Description d’un simulateur à deux degrés de liberté
V.4.1. Modélisation de la plateforme
V.4.2. Restitution du mouvement
V.4.2.1. Extraction de la position désirée
V.4.2.2. Élaboration de la loi de commande prédictive
V.5. Conclusion
Conclusion générale
Conclusion
Perspectives
Annexe
Méthode du gradient simple
Méthodes de gradients du second ordre
Références bibliographiques