Modélisation directe des diverses réponses de la Terre à la source sismique

Télécharger le fichier original (Mémoire de fin d’études)

Observations des diverses réponses de la Terre à la source sismique

Lors des séismes, le mouvement relatif rapide des plaques tectoniques 3 en action résulte en un champ de déformation mesurable à la surface de la Terre. Les mesures de ce champ de déformation constituent l’ensemble des données utilisées pour contraindre les caractéristiques de la source d’un séisme. Nous détaillons ci-dessous les différents types d’observations utilisées dans ce cadre.

Les observations sismologiques

Les ruptures sismiques génèrent un champ d’onde responsable des « tremblements » de la Terre ressentis aux alentours de la rupture. Ce champ d’onde est enregistré localement, et globalement sur la planète, par des appareils de mesure appelés sismomètres. Il existe deux grands types de sismomètres : les accéléromètres qui enregistrent l’accélération du mouvement du sol et les vélocimètres qui enregistrent sa vitesse.
Les accéléromètres enregistrent les mouvements forts du sol sous la forme d’accélérogrammes. Ils sont notamment utiles pour contraindre les propriétés cinématiques hautes fréquences (1-2 Hz) des séismes quand ils se situent proches de la faille rompue car leurs enregistrements ne saturent pas à haute fréquence, même pour des séismes de très fortes magnitudes. A trop haute fréquence (f > 1 − 2 Hz) néanmoins, les accélérogrammes deviennent très dépendants de la complexité 3D du milieu que l’on connaît relativement mal. Dans le cadre d’inversions faille-finie, on se limite généralement à des fréquences inférieures à 0.5 Hz, pour lesquelles la complexité du milieu joue peu. Par ailleurs, on procède généralement, dans ce même cadre, à une double intégration des accélérogrammes car les sismogrammes en déplacement sont plus ap-propriés pour représenter les mouvements basses fréquences associés aux séismes. Cette double intégration est une limitation majeure de l’emploi des accélérogrammes dans ce cadre, car des petites perturbations dans les enregistrements en accélération sont amplifiées par la double intégration et transformées en longues périodes qui distordent significativement les traces. La procédure la plus simple pour traiter ces artéfacts est d’appliquer au signal un filtre passe-haut. Les fréquences de coupure utilisées sont généralement de l’ordre de 0.05-0.1 Hz [Festa and Zollo, 2012], même s’il arrive que l’on puisse descendre plus bas.
Pour contraindre les comportements plus basse fréquence des séismes, les sismogrammes en-registrés par des vélocimètres sont préférables aux accélérogrammes. En effet, ces sismogrammes
3. ou simplement de deux blocs crustaux dans le cas de séismes intraplaques.

Observations des diverses réponses de la Terre à la source sismique

ne nécessitent qu’une seule intégration et sont donc moins sensibles à de petites perturbations. Les enregistrements de stations situées sur l’ensemble de la planète, à des distances azimuthales de 30◦ à 90◦ peuvent être utilisés pour contraindre la distribution spatiale de la source dans toutes les directions. Ces données lointaines, appelées télésismiques sont naturellement basses fréquences car la Terre agît comme un filtre passe-bas naturel et les hautes fréquences sont fortement atténuées à de telles distances. De plus, les temps de trajets étant plus longs, il est facile de séparer les différents paquets d’ondes, les ondes de volume (P et S) notamment, qui sont comme nous le verrons plus loin relativement simples à modéliser. Toutefois, les enregistre-ments télésismiques ne contiennent pas ou peu de composantes « champs proches » qui peuvent contribuer contraindre la source (e.g. Delouis and Legrand [1999]).

Les observations géodésiques

Les observations géodésiques sont des mesures de déplacement du sol au cours du temps. Elles sont très utiles pour contraindre la distribution spatiale des ruptures sismiques. Les deux techniques géodésiques les plus utilisées sont le Global Positioning System (GPS) et l’interféro-métrie radar.
Le système GPS est constitué d’une constellation de satellites qui permet à des récepteurs à la surface de la Terre de se localiser précisément. Avec le déploiement d’un grand nombre de stations GPS, qui permet une détermination robuste de l’orbite des satellite dans un référentiel terrestre méthodiquement défini (le référentiel terrestre international, appelé ITRF pour Inter-national Terrestrial Reference Frame) [Altamimi et al., 2011], l’utilisation de récepteurs double fréquence et de logiciels de post-traitement performants [King and Bock, 1999], les mesures GPS ont acquis une précision millimétrique. Dans le cadre de l’étude de la source, le GPS est ma-joritairement utilisé pour déterminer la composante statique du déplacement co-sismique aux points de mesure des stations disponibles. Comme la composante statique décroît avec la dis-tance plus rapidement que l’amplitude des ondes sismiques, les déplacements enregistrés près de la faille rompue peuvent contraindre les détails de la distribution de glissement mais le pouvoir de résolution devient très vite inconséquent à mesure que l’on s’éloigne de la source. Malheu-reusement, la majorité des grands séismes, qui nous intéressent particulièrement, se situent en contexte de subduction et l’essentiel de la faille rompue est presque toujours sous l’océan. Les stations GPS, situées à terre, contraignent donc généralement peu les détails de la rupture. Cependant, ces dernières années ont vues l’émergence de stations géodésiques sous-marines, apportant donc potentiellement des contraintes beaucoup plus fortes sur les distributions de glissement. La précision de ces instruments reste néanmoins très limitée à l’heure actuelle (de l’ordre de plusieurs dizaines de centimètres dans le cas récent du séisme de Tohoku-Oki). Par ailleurs, le GPS n’est plus exclusivement utilisé pour déterminer la composante statique du déplacement mais également pour en déduire des séries temporelles. Le GPS haute fréquence (jusqu’à 10 Hz), qui est alors assimilable à un sismogramme en déplacement, permet d’éviter les problèmes associés à l’intégration des sismogrammes en vitesse ou en accélération.
L’interférométrie radar, appelée InSAR pour Interferometric Synthetic Aperture Radar est une autre technique de géodésie spatiale utilisée pour mesurer le champ de déplacement généré par un séisme à la surface de la Terre. Cette méthode permet de dériver de deux images SAR des cartes de déplacement en utilisant les différences de phase entre les deux images radar. Si l’une des deux images a été acquise avant un séisme et l’autre après, l’interférogramme obtenu contiendra le champ de déplacement co-sismique dans la direction de visée du satellite. La réso-lution de l’interférogramme dépend de la fréquence du radar mais est de l’ordre du centimètre pour les satellites les plus utilisés. Contrairement au GPS, qui ne donne le déplacement qu’à l’endroit où est positionnée une station, l’InSAR donne accès au champ de déplacement sur de vastes étendues spatiales, en dehors des zones spécifiques où les deux images sont décor-rélées notamment là où la topographie est trop accentuée. Il ne donne, en revanche, que le déplacement dans la direction de visée du satellite alors que le GPS le mesure selon toutes les direction. De plus, l’échantillonnage en temps des données InSAR est largement moins fréquent que pour le GPS, car il nécessite que le satellite revienne au-dessus de la zone d’intérêt. Le laps de temps entre deux passages, de l’ordre du mois avec les satellites d’ancienne génération ERS-1, ERS-2, ALOS et ENVISAT, est en passe d’être réduit à moins d’une semaine avec le lancement du programme SENTINEL. La réduction de ce temps de récurrence permettra d’iso-ler le signal co-sismique de la phase post-sismique qui, étant difficilement séparables, limitaient l’interprétation des données. La donnée InSAR est très utilisée dans le cadre de l’étude de la source en domaine continental depuis le séisme de Landers (Mw 7.1) en 1992 [Massonnet et al., 1993]. Comme pour le GPS, l’InSAR n’est utilisable que sur des terres émergées et les grands séismes ont généralement lieux sous les océans, ce qui limite l’intérêt de la donnée pour ces derniers. Dans le cas où la rupture a lieu à terre, il est difficile de corréler deux images radar trop différentes et les très forts séismes (Mw > 8 0) produisent généralement des déformations proches de la faille trop importantes pour construire des interférogrammes complets.

Les observations tsunami

Les données que nous avons passées en revue jusqu’ici sont toutes limitées par leur éloigne-ment à la source dans le cas des grands séismes de subduction qui ont lieu pour leur majeure partie sous les océans. La composante statique du champ de déplacement décroissant plus rapi-dement avec la distance à la source que le champ d’onde, cela est particulièrement dommageable pour les données géodésiques qui ont un potentiel de résolution sur les modèles de glissement excellent lorsqu’elles sont acquises près de la source.
Les séismes se déroulant sous les océans, justement, génèrent une déformation du fond de ceux-ci induisant une élévation de la colonne d’eau se situant au-dessus qui se propage ensuite comme une onde de gravité, plus communément appelée vague tsunami. La propagation des tsunamis peut être enregistrée en mer par divers appareils de mesure. Les premiers appareils uti-lisés pour faire des mesures sur les tsunamis ont été les marrégraphes. Cependant ces dispositifs, placés dans les ports, n’étaient pas conçus pour enregistrer des tsunamis et leur utilisation dans ce cadre s’est vite vue très limitée, notamment à cause de leur faible fréquence d’échantillonnage et de la faible profondeur des stations qui rend complexe la modélisation de la vague comme nous le verrons dans le paragraphe 3.3. Le développement du système « Deep-ocean Assessment and Reporting of Tsunamis » (DART) donne aujourd’hui accès à des mesures de hauteur de vagues tsunami en océan profond 4 que l’on peut ainsi modéliser beaucoup plus précisément que les marrégrammes. Le système DART présente, par ailleurs, l’intérêt de détecter la taille potentielle d’un tsunami avant qu’il n’atteigne les côtes, ce qui, présentant un grand intérêt pour l’alerte tsunami, a amené au développement d’un réseau couvrant l’essentiel des zones de subduction (Figure I.3). Ce système a été très récemment complété, au Japon, par des bouées GPS 5, plus proches des côtes mais toujours en océan relativement profond (plusieurs centaines de mètres) qui se sont avérées très performantes pour enregistrer le passage du tsunami qui a suivi le séisme de Tohoku-Oki le 11 Mars 2011. Des dispositifs sous-marins enregistrant les variations de pression en temps réel (desquelles on peut déduire la hauteur d’eau à la surface) se sont également révélés très utiles lors de ce tsunami. Ces dispositifs se présentent sous la forme de stations isolées [Hino et al., 2001; Maeda et al., 2011] ou d’une série de capteurs disposés le long de câbles enregistrant différents signaux liés aux séismes 6. Toutes ces technologies récentes sont amenées à se développer dans les zones de subduction à fort potentiel tsunamigénique car, en plus de fournir de précieuses informations sur la source, elles peuvent évaluer l’amplitude des tsunamis avant qu’ils n’atteignent les côtes. Leur intégration dans les systèmes d’alerte tsunami présente donc un intérêt majeur (e.g., Melgar and Bock [2013]).

LIRE AUSSI :  Les contraintes imposées aux associations sportives

Modélisation directe des diverses réponses de la Terre à la source sismique

Les fonctions de Green G, qui lient les observations au modèle de source, décrivent la ré-ponse physique de la Terre à l’excitation sismique. Leur calcul implique la résolution de divers problèmes physiques, selon le type d’observations, que nous allons détailler ci-dessous. Ce calcul doit être répété pour toutes les sous-failles discrétisées. En conséquence, le temps de calcul des diverses méthodes de résolution est toujours à prendre en compte et amène un décalage entre l’état de l’art de la modélisation directe et les méthodes utilisées dans le cadre des inversions.

Modélisation de la composante statique

Nous avons vu que les séismes génèrent un champ de déformation statique à la surface de la Terre mesurable à l’aide de la géodésie. Cette composante statique du champ de déformation co-sismique peut également se modéliser.
Steketee [1958] a montré que le champ de déplacement ui(x1,x2,x3) dû à une dislocation ∆uj (ξ1,ξ2,ξ3) à travers une surface Σ dans un milieu élastique isotrope où δjk est le symbole de Kronecker, λ et µ les paramètres de Lamé, et νk la direction normale sortante à l’élément de surface dΣ. uji est la ième composante du déplacement au point (x1,x2,x3) du à la jème direction dû point force de magnitude F au point (ξ1,ξ2,ξ3).
Mansinha and Smylie [1971] ont résolu analytiquement cette intégrale et adapté leurs équa-tions à une source rectangulaire sur une faille inclinée. Cette solution analytique fut reprise par Okada [1985] qui en dériva les premières modélisations numériques de sources sismiques dans un demi espace homogène infini. Dans ce dernier article devenu célèbre, l’auteur précisa : « […] l’analyse de données réelles repose généralement toujours sur l’hypothèse d’une Terre assimilable à un demi-espace isotrope infini et sur la configuration de source la plus simple, principalement pour les trois raisons suivantes. Premièrement, ces approximations rendent le problème beaucoup plus simple. Deuxièmement, le modèle de source lui-même n’est pas unique. Troisièmement, la qualité des données du mouvement crustal est généralement mauvaise, du moins jusqu’à présent. Les deux derniers facteurs rendent souvent sans intérêt de comparer les données réelles avec les prédictions d’un modèle de source élaboré » 8. Ces assertions, très justes en 1985, sont aujourd’hui dépassées car (1) la qualité et la quantité des données co-sismiques exploitables ont considérablement augmenté ces dernières décennies et (2) les capacités de cal-cul actuelles permettent de résoudre numériquement des problèmes beaucoup plus complexes et notamment, comme nous le verrons dans le chapitre 4, d’appréhender la non-unicité d’un problème inverse. Pour s’approcher d’une réalité infiniment complexe, les modélisations se sont donc tout naturellement complexifiées à mesure que les développements numériques et obser-vationnels le permirent.
Zhu and Rivera [2002] ont incorporé un degré de complexité supplémentaire en introduisant des couches aux propriétés élastiques différentes dans leur modèle de Terre par la technique des matrices propagatives de Thompson-Haskell. Par calcul des modes propres, Pollitz [1996] a permis de calculer la réponse à une dislocation faille-finie à la surface d’une Terre sphérique 8. « […] the analyses of actual observations are stil l mostly based upon the simplest assumption of an isotropic homogeneous half space and the simplest source configuration, largely for the fol lowing three reasons. First, it is most convenient and useful as the first approximation model. Second, the source model itself is inherently nonunique. Third, the quality of crustal movement data is general ly poor at least up to the present. The last two factors often make it meaningless to compare the data with the prediction of an elaborate source or Earth model. » [Okada, 1985] stratifiée. Le développement de la modèlisation par éléments finis permet même aujourd’hui de modéliser des problèmes 3D de grande complexité (e.g. Masterlark [2003], Romano et al. [2014]). Cependant, comme pour le cas de la modélisation de la propagation du champ d’onde, cette dernière méthode reste relativement coûteuse en temps de calcul et se confronte encore au problème de notre connaissance limitée de la complexité d’une zone de subduction.

Modélisation du tsunami

Lors d’un séisme de subduction, le plancher océanique s’élève (et subside par endroit). L’eau étant assimilable à un liquide incompressible, cette élévation du plancher océanique engendre quasi-instantanément une élévation de la surface de l’eau au dessus de l’équipotentielle. En résulte un tsunami, qui se modélise comme la propagation d’une onde de gravité initiée par la masse d’eau élevée au dessus de l’équipotentielle. On peut prédire la propagation d’une telle onde en résolvant l’équation du mouvement d’Euler couplée à l’équation de continuité.

Table des matières

Introduction générale 
I Modélisation directe et inversion de la source sismique 
1 Analyse de la source de grands séismes. Pourquoi ? Comment ?
2 Observations des diverses réponses de la Terre à la source sismique
2.1 Les observations sismologiques
2.2 Les observations géodésiques
2.3 Les observations tsunami
3 Modélisation directe des diverses réponses de la Terre à la source sismique
3.1 Modélisation des ondes sismiques
3.2 Modélisation de la composante statique
3.3 Modélisation du tsunami
4 Le problème inverse
4.1 L’inverse généralisée
4.2 Les méthodes globales
4.3 L’approche Bayésienne
5 Les problématiques de cette thèse
II Contraindre les modèles de source par inversion jointe d’un maximum de données complémentaires : Application au séisme de Tohoku-Oki
1 Introduction
2 Data
2.1 Teleseismic Broadband Data
2.2 Accelerograms
2.3 High-rate GPS Data
2.4 Static GPS Data
2.5 Sea-floor geodesy
2.6 Tsunami records
3 Forward modelling
3.1 Fault discretization
3.2 Modelling of seismic data
3.3 Modelling of static geodetic data
3.4 Modelling of tsunami data
4 Inversion Procedure
5 Results
5.1 A patchy shallow slip distribution
5.2 Data Fit
5.3 Resolution tests
5.4 Surface wave prediction
6 Discussion
6.1 Slip distribution and seismicity
6.2 Stress drop and slab interface properties
6.3 The crucial role of normal faulting in the over-riding plate
6.4 A rupture scenario to reconcile the different observations
7 Conclusion
III Améliorer la modélisation physique du problème direct pour améliorer les modèles de source : le cas critique de l’initiation d’un tsunami par un séisme
1 Introduction
2 Forward modeling
2.1 Displacement field generated by shallow finite fault dislocation
2.2 Calculation of the bathymetry effect
2.3 Importance of BE in the calculation of tsunami Green’s functions
3 Importance of BE on slip inversions
3.1 Data
3.2 Inversion Procedure
3.3 Neglecting the bathymetry effect can induce large over-prediction of the inverted slip distribution
3.4 Data fit and resolution tests
3.5 Ability of the tsunami-based model to predict the geodetic measurements
4 Conclusion
IV Quantifier les incertitudes sur les modèles de source par approche Bayésienne du problème inverse : Application au séisme de Sumatra-Andaman
1 Introduction
2 Data
2.1 Geodetic data
2.2 Tsunami observations
3 3D fault geometry and the computation of the Green’s functions
4 Accounting for data and model uncertainties
4.1 The Bayesian framework
4.2 Cd
4.3 Cearth
4.4 Cpost
4.5 Ctime
5 Results
5.1 Bayesian exploration of probable source models
5.2 Data fit
6 Discussion
6.1 Comparison with independent seismic observations
6.2 Oblique slow slip beneath the Andaman islands ?
7 Conclusion
Conclusion générale 
Références bibliographiques 

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *