Télécharger le fichier original (Mémoire de fin d’études)
Approche paramétrique ou non paramétrique
Suivant le degré de confiance apporté au modèle déterministe du système étudié, deux approches sont envisageables :
Approche paramétrique L’approche paramétrique est la voie priviligiée pour les pro-blèmes dont le modèle mécanique déterministe f existe et est robuste. On considère alors que l’aléa ne porte que sur les variables d’entrées ξ. Pour n’importe quelle réa-lisation J observée, on peut associer des valeurs des variables d’entrée qui, injectées dans le modèle, conduisent à cette réalisation (∀J ∃ ξ : f (ξ) = J , voir FI G . 1.1).
L’effort de modélisation probabiliste porte dans ce cas sur les paramètres du sys-tème mécanique. Des mesures d’échantillons et des jugements d’experts (permettant d’introduire la physique supposée des phénomènes) permettent de leurs associer des lois de probabilité adaptées. Nous nous placerons dans la suite dans une vision para-métrique de l’aléa.
Approche non-paramétrique L’approche non-paramétrique permet de modéliser l’aléa dans les cas où il n’est pas possible de trouver un modèle déterministe qui per-mette l’association de paramètres d’entrée à une réalisation. Les opérateurs du sys-tème mécanique sont alors directement probabilisés. Dans le cas du calcul de struc-tures par éléments finis, on cherche à construire une modélisation probabiliste de la matrice de rigidité sous certaines contraintes (matrice symétique, définie positive, ca-ractère bande) [Soize, 2000] avec la condition de maximum d’entropie. Cette approche permet d’augmenter la prédictibilité du modèle, l’ensemble des observations J pou-vant être atteintes. En prenant des assertions plus faibles sur le modèle et en le proba-bilisant, on prend en compte l’incertitude de modélisation en plus de l’incertitude des causes. On note cependant qu’il est alors impossible de faire une étude de sensibilité sur les causes de l’aléa.
Probabilité de défaillance en fatigue
La quantité d’intérêt dans le projet APPROFI est la probabilité de défaillance dans le cas d’une rupture en fatigue.
Probabilité de défaillance
La probabilité de défaillance P f est définie par une fonction de performance G (ξ) qui associe à un événement ξ une performance. Le système est sain si la fonction de performance retourne une valeur supérieure à zéro pour un évènement ξ, défaillant si elle est inférieure ou égale à zéro. Les valeurs de ξ satisfaisant G (ξ) = 0 définissent la surface d’état limite. La probabilité de défaillance peut être calculée par une méthode de Monte-Carlo comme le rapport entre le nombre de réalisations défaillantes nG 0 et le nombre nMC de réalisations totales, nG 0 P f = nMC (1.1)
Le nombre de réalisations nécessaires peut être très important puisqu’il est directe-ment lié à la probabilité de défaillance attendue. Pour quantifier l’incertitude sur la probabilité de défaillance, on peut calculer son coefficient de variation, C.O.VP f = 1 − P f (1.2) P f nMC
Dans un cadre plus général, la probabilité de défaillance est définie par P f = Θ fξ(x )d x (1.3) : G(ξ) 0} {θ∈ avec fξ(x ) la fonction de densité de probabilité jointe de l’ensemble des variables d’en-trée.
Cas de la fatigue
Dans le cas de la défaillance en fatigue, une manière de procéder est de considérer que la fonction de performance est issue de la comparaison entre une sollicitation S et une capacité de résistance R . G(ξ) = R(ξ) −S(ξ) (1.4)
Si l’on considère que l’on connaît les fonctions de densité de probabilité de la résis-tance et de sollicitation, le calcul de la probabilité de défaillance revient à calculer l’aire à l’intersection des courbes de probabilité de résistance et de sollicitation (FIG. 1.2).
La sollicitation correspond à l’endommagement de la pièce qui dépend naturelle-ment de l’histoire du chargement. Calculer l’endommagement pour l’ensemble des évolutions du chargement possible est hors de portée. Le concept de chargement équivalent pour la fatigue est donc introduit. Il s’agit de transformer une évolution temporelle quelconque du chargement en un chargement sinusoïdal d’amplitude Fe q constante sur un nombre Ne q = 10n cycles (en général n = 6), qui conduit à un en-dommagement équivalent. Ceci est effectué par une étude statistique des chargements possibles, transformés en chargements élémentaires, que nous ne détaillerons pas ici.
La fonction de performance consiste alors à comparer l’endommagement issu d’un chargement équivalent de fatigue à 10n cycles avec la résistance du matériau à cette endommagement. L’endommagement issu d’un chargement équivalent de fatigue à 10n cycles est par exemple calculé en pratique à l’aide du critère de Smith Topper Watson (SWT). Celui-ci prend en compte l’amplitude de déformation principale totale sur un cycle stabilisé ∆εI et la contrainte principale maximale sur ce cycle σI . S = EσI∆εI (1.5) avec E le module d’Young.
Le problème qui consiste à savoir si une structure soumise à un chargement com-plexe va être défaillante est ainsi simplifié en une comparaison entre :
– d’une part, une sollicitation donnée par le calcul sur un cycle stabilisé du critère SWT pour une entrée définie par un ensemble de fonctions de densité de probabilité ;
– d’autre part, une résistance dont on connaît la fonction de densité de probabilité. Dans le projet APPROFI, la résistance selon le critère SWT a été qualifiée à partir d’essais sur des éprouvettes en traction et suit une loi normale à coefficient de varia-tion constant (10,35%) de moyenne µR dépendant du nombre de cycles équivalents considéré : µR = 680,154×6,252Ne−q0,1994 (1.6)
Les entrées considérées comme aléatoires sont les paramètres matériaux et le char-gement donné par l’amplitude équivalente en fatigue.
Dans le cas d’un problème mécanique linéaire, une relation linéaire peut être établie entre le critère SWT et les entrées du modèle. Cette relation est simple à caractériser à l’aide d’un unique calcul mécanique, avec un coût de calcul assez faible.
Dans un cas non linéaire, la dépendance entre les variables d’entrée et le critère SWT est non linéaire. La caractériser pour l’ensemble du domaine de variation des variables d’entrée est peut être faisable comme nous le verrons mais présente un coût de calcul élevé. Une technique de méta-modèle est donc plutôt utilisée.
Calcul de la réponse stochastique
Dans un cadre plus général que celui du projet APPROFI, le calcul de la réponse stochastique peut s’effectuer de nombreuses manières. On note J (U ) une quantité d’intérêt cible, qui peut par exemple être le déplacement d’un point particulier ou la contrainte maximale dans une certaine direction. Différentes informations au sens probabiliste peuvent être recherchées :
– les moments statistiques comme la moyenne µJ = E (J (U )) ; – la probabilité d’événements particuliers : PJ = P ({J (U )
– la représentation complète de J (U ) (distribution de probabilité).
Les approches fréquentielles du type Monte-Carlo/Quasi Monte-Carlo [Caflisch, 1998] pourront être employées dans tous les cas, avec comme limitation le grand nombre de tirages nécessaires à leur convergence. Des méthodes d’intégration directe peuvent permettre de calculer les moments statistiques de J (U ), par exemple les méthodes de Gauss, Clenshaw-Curtis, etc. Elles seront plus ou moins efficaces selon la forme de la fonction à intégrer. Les méthodes fiabilistes sont dédiées aux calculs de probabilité d’événements particuliers.
Il est aussi possible de représenter complètement la solution U (M , θ) sur une base de fonctions et de chercher à résoudre le problème stochastique complet sur cette base [Ghanem et Spanos, 1991a]. On construit alors un méta-modèle du problème sur le-quel les méthodes d’intégration directe ou fiabilistes pourront être appliquées avec un très faible coût de calcul. Des méthodes de développement en série, telles que le développement de Taylor ou la décomposition de Neumann [Yamazaki et al., 1988], permettent également la construction d’un méta-modèle, particulièrement pour de faibles variations des paramètres du modèle.
Approches fréquentielles
Les approches fréquentielles reposant sur le théorie des grands nombres peuvent être employées pour évaluer les moments statistiques d’une quantité d’intérêt J (U ), des probabilités d’événements particuliers, ou sa fonction de répartition. Cette mé-thode est classique pour traiter des problèmes probabilistes. Elle consiste à générer numériquement un grand nombre M de réalisations caractéristiques des paramètres variables, puis à calculer de manière déterministe les M réponses correspondantes pour la quantité d’intérêt J . Une étude statistique de ces M résultats permet enfin de caractériser la distribution de J et d’estimer sa fonction densité de probabilité. La convergence de la méthode est au pire en 1M , il est donc nécessaire de procéder à un grand nombre de tirages quand le précision souhaitée est grande.
Méthodes d’intégration directes
Les méthodes d’intégration directe peuvent être utilisées pour évaluer les moments statistiques d’une quantité d’intérêt J (U ) ou des probabilités d’événements particu-liers. Par exemple, la moyenne de cette quantité µJ = E (J (U )) est par définition : µJ = E (J (U )) = J (U (x ))d Pξ(x ) avec ξ l’ensemble des données aléatoires du problème. Ce problème d’intégration peut être résolu en utilisant des méthodes d’intégration numérique. Le calcul de µJ est ainsi approché par :
µJ ≈ J (xk )ωk
k =1
où les xk sont les points d’intégration et les ωk sont les poids associés. La résolution du problème demande le calcul de M problèmes déterministes pour la détermination des U (xk ). Différents choix sont possibles pour les points et les poids d’intégration. En prenant des points d’intégration aléatoires vérifiant les distributions de probabilité et un poids constant ωk = M1 , avec M le nombre de points, on retrouve une méthode de Monte-Carlo.
Dans la méthode de Quasi Monte-Carlo, les points d’intégration sont choisis de ma-nière déterministe. Cette méthode permet d’obtenir de meilleurs taux de convergence que la méthode de Monte-Carlo pour des petites dimensions stochastiques.
Des méthodes de quadrature peuvent aussi être utilisées. Dans la quadrature de Gauss, dans un cas unidimensionnel, les xk sont définis comme les n racines du ne polynôme orthogonal associé à la mesure de probabilité d Pξ. Les poids ωk sont obte-nus par intégration des interpolants de Lagrange aux point xk . On peut alors intégrer exactement des fonctions polynomiales de degré (2n −1). Dans le cas d’une dimension m > 1, les points d’intégration sont obtenus par tensorisation des quadratures unidi-mensionnelles associées aux mesures d Pξi :
µJ ≈ ••• ω1,k1 • • •ωm,km J ( U (x1,k1 , • • • , xm,km ))
k1 =1 km =1
Le nombre de points d’intégration M est donné par M = nm . L’inconvénient de cette méthode est la croissance exponentielle du nombre de points d’intégrations M avec l’augmentation de la dimension stochastique m.
En grande dimension stochastique, on peut utiliser des quadratures dites « creuses » [Matthies et Keese, 2005] qui permettent de limiter le nombre de points d’intégration. Avec ces méthodes, on obtient une croissance polynomiale de M avec la dimension stochastique m. Afin de réduire le nombre de points d’intégration, il sera préférable d’utiliser des quadratures dites « imbriquées » (Clenshaw-Curtis, Gauss-Patterson,etc.).
Méthodes fiabilistes
Les méthodes fiabilistes [Lemaire, 1997] s’attachent aux calculs de probabilité d’événements. Elles sont particulièrement performantes dans le cas de probabilités faibles (10−3). Elles sont ainsi utilisées pour le calcul de la probabilité de défaillance, mais d’autres applications seraient envisageables.
Surface d’état limite
La probabilité de défaillance est définie par :
P f = Θ fξ(x )d x
{θ∈ : G(ξ) 0}
Le calcul de cette intégrale pose deux difficultés majeures :
– la densité de probabilité jointe fξ(x ) est le plus souvent inconnue, l’information connue étant les lois de probabilité des paramètres du problème ;
– la détermination du domaine de défaillance {θ ∈ Θ : G (ξ) 0} est coûteuse.
FORM, SORM
La première difficulté peut être résolue en opérant une transformation (par exemple de Rosenblatt ou de Nataf ) permettant de se ramener à des variables aléa-toires de base, gaussiennes centrées réduites indépendantes. On a alors :
P f = Θ fξ(y )d y
{θ∈ : G (y ) 0}
avec fξ(y ) la densité de répartition d’une loi gausienne centrée d’un vecteur aléatoire de taille m. Cette densité de répartition est fortement décroissante. Les points qui contribuent le plus dans l’intégrale de la probabilité de défaillance sont donc ceux qui sont les plus proches de l’origine de l’espace normal.
Le point de défaillance le plus probable est le point le plus proche de l’origine. Il est calculé en résolvant un problème de minimisation et est noté P ∗ de coordonnées y ∗. L’indice de fiabilité β de la structure est défini géométriquement comme la distance entre l’origine et la surface d’état limite (figure 1.3) :
β = y ∗ où y ∗ = argmin y 2
{y ∈ Θ : G (y ) 0}
On peut montrer que si G (y ) est linéaire : P f = Φ(−β) avec Φ(•) la fonction de répartition d’un vecteur aléatoire centré gaussien à variables indépendantes.
Table des matières
Introduction
1 Méthodes pour la propagation des incertitudes
1 Introduction
2 Modélisation probabiliste des incertitudes
2.1 Espace probabilisé
2.2 Variable aléatoire
2.3 Espace des variables aléatoires de carré sommable
2.4 Approche paramétrique ou non paramétrique
3 Probabilité de défaillance en fatigue
3.1 Probabilité de défaillance
3.2 Cas de la fatigue
4 Calcul de la réponse stochastique
4.1 Approches fréquentielles
4.2 Méthodes d’intégration directes
4.3 Méthodes fiabilistes
4.4 Méthodes de perturbation
4.5 Méthode spectrale
5 Méta-modèle
5.1 Détermination des coefficients
5.2 Choix des points d’approximation
5.3 Krigeage
6 Bilan
2 Méthode LATIN et stratégie multiparamétrique
1 Introduction
2 Définition du problème de référence
2.1 Loi de comportementmatériau
2.2 Conditions d’admissibilité et définitions des espaces
3 Méthode LATIN
4 Étape locale
4.1 Direction de recherche simple
4.2 Direction de recherche optimisée
5 Étape linéaire
5.1 Direction de recherche
5.2 Mise à jour de la direction de recherche
5.3 Résolution
6 Stratégie multiparamétrique
3 Réduction de modèle et stratégies multirésolutions
1 Introduction
2 POD
2.1 Construction de la POD
2.2 Exemple
2.3 Bilan
3 Réduction de modèle
4 Réduction de modèle avec la PGD
4.1 Méthode de Galerkin
4.2 Minimisation de résidu
5 Stratégiesmultirésolutions
5.1 Solveurs de Krylov
5.2 SLDLT
4 Méthode LATIN, PGD, et stratégie multiparamétrique
1 Introduction
2 Technique de réduction de modèle PGD et méthode LATIN
2.1 Minimisation d’une erreur en direction de recherche
2.2 Fonction temps unique
2.3 Enrichissement du modèle réduit
2.4 Détails des itérations de la LATIN
3 Qualité de la décomposition PGD
3.1 Comparaison avec une décomposition effectuée à la dernière itération
3.2 Influence du maillage et du nombre de pas de temps
4 Réduction de modèle PGD et stratégie multiparamétrique
4.1 Paramètres variables possibles
4.2 Élimination de couples non pertinents
4.3 Cas d’un plan d’expérience ordonné
4.4 Cas d’un plan d’expérience aléatoire
5 Diminution du temps de calcul de la décomposition PGD
1 Introduction
2 Régularisation de la direction de recherche
2.1 Influence sur le taux de convergence
3 Détermination des fonctions temporelles
3.1 Produit de dérivées aux sens de Galerkin discontinu
3.2 Résolution
3.3 Mise à jour individuelle
4 Détermination des fonctions spatiales
4.1 Version 1 (V1), issue du cas viscoélastique
4.2 Version 2 (V2), développée pour les quantités déviatoriques
4.3 Version 3 (V3), méthode itérative pour la détermination des fonctions spatiales
4.4 Comparaison des trois méthodes
5 Illustration des performances
5.1 Répartition du temps de calcul pour le premier calcul
5.2 Répartition du temps de calcul pour un deuxième calcul
6 Application au cas test du projet APPROFI
1 Présentation du logiciel 3D
2 Définition du problème
3 Comparaison avec ABAQUS
4 Multiparamétrique, plan d’expérience complet
5 Multiparamétrique, cas interactif
Conclusion et perspectives
Résumé, algorithme LATIN
Bibliographie
Approche