Bilan sur les algorithmes par modèles locaux
Dans cette section, nous avons présenté un certain nombre de méthodes classiques d’optimisation par modèles locaux. Ces méthodes s’appuient sur des bases théoriques solides, prouvant leur convergence dans un certain cadre. Dans le cas où la connaissance du gradient est acquise, ces méthodes sont particulièrement adaptées. Notons que plusieurs méthodes ont été développées pour résoudre ce type de problème avec des codes de calcul numériques notamment dans le cadre de l’optimisation multidisciplinaire . Les méthodes par gradient ont été utilisées plus généralement pour l’optimisation du profil d’une aile d’avion pour des solveurs aérodynamiques ou le dimensionnement d’une structure . Bien que les différences finies augmentent le coût numérique de l’optimisation, celles-ci sont utilisées pour la résolution de problèmes d’optimisation multidisciplinaire comme dans COELHO et collab. où un modèle approché de l’optimisation multidisciplinaire est construit pour en réduire le coût. De fait, les méthodes par gradient seront utilisées comme référence afin de valider les différentes approches qui seront développées par la suite. Notons que ce calcul dit de référence sera d’autant plus coûteux qu’il sera associé à un multi-start pour trouver le minimum global.
Bien que certaines méthodes utilisent des modèles locaux qui ne sont pas basés sur le gradient, notamment l’algorithme Cobyla qui construit des approximations linéaires successives de la fonction objectif f , nous allons par la suite plutôt nous intéresser aux méthodes utilisant des méta-modèles globaux de type Efficient Global Optimisation
Différents méta-modèles
De nombreux méta-modèles ont été proposés dans la littérature parmi lesquels les modèles polynomiaux avec notamment les interpolations quadratiques, le chaos polynomial , les modèles de régression par Processus gaussien, ou Gaussian process (GP) aussi dénommés krigeage, ou kriging détaillés dans le livre de WILLIAMS et RASMUSSEN [2006], les modèles de Fonctions à base radiale, ou Radial Basis Function (RBF) , les Réseaux de neurones artificiels, ou Artificial Neural Network (ANN) .Parmi les méta-modèles disponibles dans la littérature, l’interpolation par Processus gaussien, ou Gaussian process (GP) apporte un avantage majeur : elle permet d’obtenir une approximation de l’erreur commise par l’interpolation, donnée par la variance du GP. Cette information est utilisée en optimisation pour permettre l’exploration de zones de X qui sont mal représentées par le méta-modèle mais potentiellement intéressantes. Cette incertitude sur l’interpolation sera par la suite exploitée dans ces travaux de thèse afin de mettre en place un processus d’enrichissement adaptatif . Nous rappelons donc dans la section suivante le principe de construction des GP.
Optimisation par exploitation du méta-modèle
Grâce à la moyenne du GP µ, il est possible d’obtenir une approximation d’une fonction objectif f que l’on cherche à minimiser. Plusieurs solutions sont alors possibles pour résoudre le problème d’optimisation à l’aide du méta-modèle :
Une méthode où le méta-modèle n’est pas amélioré, la solution du problème d’optimisation est évaluée sur l’information fournie par le méta-modèle uniquement.
Une méthode où le méta-modèle est enrichi à l’optimum fourni par la méthode précédente et on itère ensuite jusqu’à convergence. Cette méthode sera nommée Surrogate Based Optimization (SBO) par la suite.
Une méthode où l’enrichissement est effectué sur la base d’un compromis entre exploration du domaine de conception X (ou espace de design) et exploitation du méta-modèle. Pour cela, l’information fournie par la variance du GP est utilisée et nous nous limiterons à la méthode qui s’appelle Efficient Global Optimization (EGO).
Bilan sur les méthodes d’optimisation
Dans cette section nous avons passé en revue plusieurs approches permettant de résoudre un problème d’optimisation par l’utilisation de méta-modèles locaux ou globaux. L’un des inconvénients majeurs des méta-modèles locaux est qu’il est nécessaire de construire le modèle approché à chaque itération. Or, dans le cadre de notre étude, la fonction objectif est obtenue à partir d’un code numérique coûteux, sans information sur le gradient et son évaluation par différences finies alourdit encore le coût numérique. En revanche, ces méthodes, très utilisées dans la littérature nous servirons à définir des résultats de référence. D’autre part, les méta-modèles globaux permettent de fortement réduire le coût numérique de l’optimisation en limitant les appels à la fonction objectif (dans le cadre de l’optimisation sans connaissance du gradient). Cependant, nous avons observé la sensibilité de ces méthodes au DoE sur lequel le méta-modèle est construit. Pour y remédier, des critères tels que l’amélioration espérée proposent un compromis entre exploitation et exploration afin d’enrichir le méta-modèle au fur et à mesure du processus d’optimisation. Ces méthodes semblent donc être les plus intéressantes pour notre étude. L’un des objectifs de la thèse est de proposer une adaptation de ces méthodes pour l’optimisation multidisciplinaire.
Formulations d’optimisation multidisciplinaire
De nombreuses formulations ont été proposées dans la littérature pour résoudre ce type de problème. Plusieurs revues de ces méthodes ont aussi été proposées notamment dans BALLING et SOBIESZCZANSKI-SOBIESKI [1996]; MARTINS et LAMBE [2013]; BREITKOPF et COELHO [2013]; MARTINS et NING [2021] ainsi que plusieurs analyses sur les performances numériques et qualitatives de ces méthodes . Nous allons classer ces différentes formulations selon deux critères : La façon dont est résolue la MDA : les approches couplées où la solution de la MDA est obtenue à partir d’une méthode itérative ar opposition aux approches découplées où l’objectif est d’obtenir la solution de la MDA uniquement pour le paramètre optimal de la MDO. L’approche devra alors résoudre le problème couplé tout en cherchant le paramètre optimal. Par exemple, des contraintes d’égalité des variables de couplage peuvent être ajoutées au problème d’optimisation afin que celles-ci vérifient les équations de la MDA. Le nombre de niveaux d’optimisation avec les formulations à un niveau, où un seul optimiseur est utilisé pour la résolution de la MDO par opposition aux formulations multi-niveaux où des problèmes d’optimisation sur les disciplines sont ajoutés à celui de la recherche des paramètres de design optimal. L’objectif est de coupler ces problèmes afin de distribuer la complexité du problème. Plusieurs optimiseurs sont alors mis en place. À partir de ces deux critères, nous identifions quatre groupes de formulation :
La formulation Optimisation multidisciplinaire faisable, ou Multidisciplary Feasible (MDF) qui consiste à utiliser un seul algorithme d’optimisation sur les paramètres x du système. La fonction objectif est alors estimée à partir de la solution de la MDA obtenue par un solveur dédié pour chaque choix de paramètres x. La formulation Individual Discipline Feasible (IDF) , cherche à trouver la solution de la MDO et la solution de la MDA simultanément. Pour cela, des contraintes d’égalité sont ajoutées pour que les résidus des solveurs disciplinaire soient nuls. La formulation impose donc de manipuler les paramètres de design et les variables de couplage en même temps. La formulation Modular Analysis and Unified Derivatives (MAUD) HWANG et MARTINS [2018], dérivée de la formulation IDF, utilise des méthodes de linéarisation du problème couplé par le calcul des dérivées des résidus des solveurs disciplinaires afin de définir une direction pour la formulation IDF. Une autre extension de la formulation IDF est proposée via la formulation Simultaneous Analysis and Design (SAND) .
Les formulations Concurrent SubSpace Optimization (CSSO)(SOBIESZCZANSKI-SOBIESKI [1988]), Bilevel Integrated System Synthesis(BLISS)(SOBIESZCZANSKI-SOBIESKI et collab. [2000]), Asymmetric Subspace Optimization (ASO)(CHITTICK et MARTINS [2009]) définissent plusieurs niveaux de problème mais la solution de la MDA est donnée par un algorithme dédié pour chaque paramètre. Ce sont des approches MDF distribuées.
Les approches Collaborative Optimization (CO) (BRAUN [1996]; BRAUN et collab. [1996]; ALLISON et collab. [2005]), Analytical Target Cascading (ATC) (KOKKOLARAS et collab. [2002]; TOSSERAMS et collab. [2008]) sont des approches IDF distribuées.
Table des matières
Introduction
1 État de l’art
1.1 Quelques notions en optimisation
1.2 Optimisation multidisciplinaire
1.3 Réduction d’ordre de modèle
1.4 Utilisation de la réduction d’ordre de modèle dans un contexte multi-query
1.5 Synthèse du chapitre
1.6 Références
2 Optimisation monodisciplinaire combinée à la réduction d’ordre de modèle
2.1 Introduction
2.2 Approximation de la quantité d’intérêt
2.3 Estimation de l’erreur commise
2.4 Utilisation du modèle réduit dans le cadre de l’optimisation
2.5 Application
2.6 Bilan du Chapitre
2.7 Références
3 Optimisation multidisciplinaire combinée à la réduction d’ordre de modèle
3.1 Introduction
3.2 Description de la résolution de la MDA par DPOD+I
3.3 Application sur un cas aéroélastique
3.4 Application sur un deuxième cas aéroélastique
3.5 Optimisation multidisciplinaire
3.6 Bilan du Chapitre
3.7 Références
Conclusion et perspectives
A Annexes I
A.1 Approximation de ˆfob j par Expansion par chaos polynomial, ou Polynomial Chaos Expansion (PCE)
A.2 Expansion Karhunen-Loève
A.3 Interpolation des termes de l’expansion Karhunen-Loève (KL) par des GPs
A.4 Illustration de la résolution d’un problème Optimisation multidisciplinaire, ou MultiDisciplinary Design Optimization (MDO) par Efficient Global Multidisciplinary Optimization (EGMDO)
A.5 Références
B Liste des acronymes