Télécharger le fichier original (Mémoire de fin d’études)
Rappel théorique pour les tomographies électriques et sismiques
Ce chapitre est consacré à une présentation des tomographies électrique et sismique. Nous invitons les lecteurs non familiers avec ces techniques à consulter par exemple Loke (2009) ou Reynolds (1997) pour la tomographie électrique et Aki and Lee (1976) ou Taillandier (2008) pour la tomographie sismique.
La résolution d’un problème de tomographie en géophysique permet d’estimer la distribution spatiale de la propriété physique du milieu investigué à partir des données mesurées et d’un modèle mathématique dit problème direct.
Les méthodes électriques, communément appelées méthodes électriques à courant continu, ou méthodes électriques DC (de l’anglais direct current), utilisent la circulation d’un courant « continu » pour déterminer la résistivité apparente du sous-sol. Elles mesurent l’intensité du courant et la différence de potentiel entre les différentes électrodes d’un dispositif de mesure suivant une géométrie donnée d’électrodes, par exemple : pôle-pôle, pôle-dipôle, dipôle-dipôle, etc. L’étude de la distribution du potentiel ainsi mesuré nous renseigne sur la distribution des résistivités apparente du milieu investigué (Dahlin, 2004 ; Binley and Kemna, 2005). Les résistivités vraies de chacune des cellules du modèle sont ensuite établies dans un processus itératif en fonction des écarts entre les résistivités apparentes observées et calculées (appelés résidus) jusqu’à converger vers un modèle de résistivités vraies final minimisant ces résidus.
La méthode sismique utilise quant à elle la propagation des ondes sismiques pour imager le sous-sol ou déterminer ses propriétés mécaniques en se basant sur l’étude des temps de trajet des ondes de volume (P ou S) se propageant dans toutes les directions à partir d’un point source. La tomographie sismique permet plus particulièrement d’imager les variations de vitesses du sous-sol en 2D ou 3D à partir des temps d’arrivée observés sur les enregistrements sismiques. L’approche générale se base sur l’hypothèse selon laquelle une source sismique produit un signal avec des longueurs d’onde très faibles par rapport à la taille des hétérogénéités rencontrées dans le milieu traversé (approximation haute fréquence). Dans ce cas, la propagation d’une onde sismique peut être correctement modélisée par des rais qui se propagent depuis les positions de source vers les positions de récepteur à travers un modèle discret du milieu dont chaque cellule est associée à une vitesse. Les vitesses de chacune des cellules du modèle sont ensuite corrigées dans un processus itératif en fonction des écarts entre les temps observés et calculés (appelés résidus) jusqu’à converger vers un modèle de vitesse final minimisant ces résidus (Lehmann, 2007 ; Nowack and Li, 2009).
La tomographie électrique
La tomographie de résistivité électrique (ERT pour Electrical Resistivity Tomography en anglais) ou imagerie de résistivité électrique, ou encore par abus de langage panneau électrique, est une méthode géophysique permettant d’obtenir la distribution de la résistivité électrique des matériaux (roches ou structures) en profondeur (2D et 3D selon le dispositif d’acquisition mis en place et les procédés d’inversion/modélisation appliqués) à partir de mesures de potentiel électrique en surface. La prospection électrique (initialement basée sur quatre électrodes) est automatisée en ERT le long d’un profil multi-électrodes (2D) ou sur une surface (3D). Ce type d’acquisition présente l’avantage de fournir des résultats fiables en 2D ou 3D, et d’être rapidement mis en œuvre.
Le principe d’acquisition en électrique
Le principe de base de la prospection électrique est d’injecter dans le sol un courant électrique d’intensité I entre deux électrodes A et B et de mesurer la différence de potentiel ΔV induite entre une autre paire d’électrodes M et N (Figure 2).
La résistivité apparente d’un terrain hétérogène correspond à la résistivité d’un terrain homogène qui, pour une configuration identique des électrodes et un même courant injecté, donnerait la même mesure ΔV. Elle est fonction de la résistivité, de la géométrie des diverses couches et de la disposition des électrodes. Il existe plusieurs dispositifs d’électrodes utilisés en pratique : Schlumberger, Wenner-α, dipôle-dipôle, pôle-pôle, etc. Pour plus de détails, on trouvera dans Dahlin (2004) une revue des principaux dispositifs de mesure en tomographie électrique ainsi qu’une étude sur les avantages et les inconvénients de chacun d’entre eux. Dans la pratique, il n’existe pas de dispositif universel adapté à tous les cas de figure. Le choix dépend du niveau de bruit sur le site de mesure, de la géométrie de la structure qu’on veut imager, de la résolution recherchée et de la rapidité de l’acquisition par rapport aux phénomènes transitoires qu’on veut étudier ou du temps nécessaire pour réaliser les mesures (Binley and Kemna, 2005).
Après filtrage des données brutes de résistivité apparente (mesurées sur le terrain) sur la base de critère de qualité, de courant émis ou de potentiel mesuré, celles-ci sont agencées de manière à obtenir une coupe (pseudo-section) de résistivité apparente du sous-sol. Cette dernière est construite (automatiquement) en reportant conventionnellement la valeur de la résistivité apparente mesurée au centre du dispositif et à une pseudo-profondeur dépendant de l’écartement entre les électrodes. On obtient ainsi une section des résistivités apparentes en fonction d’une pseudo-profondeur (Figure 4).
Le traitement des données en électrique
Le résultat de l’inversion dépend énormément de la qualité des données mesurées (Menke, 1984). En tomographie électrique, une simple répétition des mesures ne permet pas, en général, d’identifier les données de mauvaise qualité. Un exemple est le cas du mauvais contact des électrodes avec le sol (communément appelé résistance de prise). L’écart type obtenu des mesures de répétition est en général très petit. Intervertir les électrodes de potentiel et de courant permet d’identifier ce problème. En effet, comme l’échange des électrodes de courant avec les électrodes de potentiel n’affecte pas la mesure de la résistance (principe de réciprocité), la différence entre la mesure directe et sa réciproque (erreur de réciprocité) donnerait une estimation du niveau du bruit dans les données (Binley et al., 1995). Ainsi, en plus d’identifier les mesures de mauvaise qualité, ces erreurs peuvent être utilisées pour l’estimation des paramètres du bruit pour l’inversion, comme cela a été proposé par Binley et al. (1995) et Slater et al. (2000).
Dans la pratique, toutes les mesures ayant une erreur de réciprocité supérieure à 5% sont en général écartées avant l’inversion. Il faut noter que les mesures réciproques doublent le nombre de mesures, et par conséquent, elles augmentent le temps d’acquisition. Dans beaucoup de cas en tomographie électrique de surface, les mesures de réciprocité ne sont pas réalisées. On se contente le plus souvent d’un contrôle de qualité visuel en affichant la pseudo-section de résistivité apparente. Toutes les mesures présentant un changement brusque de la résistivité apparente sont systématiquement écartées. De plus, certains effets causés par la présence d’hétérogénéités superficielles proches des électrodes de potentiel et/ou de courant peuvent aussi être identifiés car ils affectent tous les écartements utilisant ces électrodes. En général, ces mesures ne sont pas utilisées lors de l’inversion mais certains auteurs (Modin et al., 1994 ; Ritz et al., 1999 ; Ferahtia et al., 2009) proposent l’utilisation d’un filtre médian pour réduire cet effet.
Afin d’obtenir une image quantitative représentant les variations de résistivité interprétée comme réelle (et non apparente) en fonction de la vraie profondeur, il est nécessaire d’inverser la pseudo-section de résistivité apparente ainsi filtrée (Figure 5). Cette inversion des données est réalisée suivant un processus itératif qui tente de minimiser l’écart entre la pseudo-section de résistivités apparentes mesurées et une pseudo-section recalculée à partir d’un modèle de résistivité électrique. Ce modèle est modifié à chaque itération jusqu’à ce que les données mesurées et calculées atteignent une concordance acceptable ou jusqu’à ce qu’aucune nouvelle amélioration ne soit possible. Afin de prendre en compte les morphologies rencontrées, la topographie de chaque profil est incluse lors de l’inversion.
La section de résistivité inversée (Figure 5) sera ensuite utilisée pour l’interprétation. Elle fournit des informations quantitatives permettant de caractériser l’origine des différentes anomalies mises en évidence : résistivité, géométrie des horizons, profondeur, pendage. Les résultats de l’inversion sont présentés sous forme d’une coupe (section) présentant la distribution des résistivités calculées le long du profil en fonction de la profondeur.
Figure 5 : Exemple de résultat d’une inversion. En haut, la pseudo-section de résistivités apparentes mesurées. En bas, le modèle de résistivité issu de l’inversion. Au centre, la pseudo-section de résistivités apparentes calculée sur la base du modèle de résistivité par une inversion dite robuste (norme L1). L’erreur (ABS) constitue la différence entre les deux premières pseudo-sections (ici 4.4%).
La modélisation en électrique
L’équation de Poisson est à la base de la modélisation des méthodes électriques de résistivité DC. En introduisant la loi d’Ohm (3) dans la première et la troisième équation de Maxwell, il est possible de trouver une nouvelle formulation de la loi de conservation des charges pour un milieu hétérogène de conductivité variable dans l’espace.
où Φ est le potentiel électrique, σ est la conductivité électrique, I est l’intensité du courant électrique et δ est la fonction Dirac.
L’équation de Poisson est une équation différentielle aux dérivées partielles elliptiques. En général, des conditions aux frontières de type Neumann sont appliquées à l’interface sol-air et des conditions mixtes ou de Dirichlet sont appliquées aux limites latérales et verticales du modèle. En terme mathématique, si l’on considère un domaine fermé R3 entouré de la surfaceSE ; tel queS est la surface qui délimite l’interface sol-air etE est la surface qui délimite le domaine sur les côtés et en bas.
tel que :
• Sur la frontièreS la composante normale de la densité de courant (flux électrique) est nulle ( ), ce qui donne α = 0 et β=1. J .n 0
• Pour des conditions mixtes : la composante normale de la densité de courant (flux 0 et Φ = 0) sur la frontièreE , ce qui donne électrique) et le potentiel sont nuls ( J .n r : n.et β=1; r est un vecteur unitaire dans la direction radiale. r 2
• Pour des conditions de Dirichelet : le potentiel est nul (Φ=0) sur la frontièreE , ce qui donne : α = 1 et β=0.
La tomographie sismique
De nombreux ouvrages scientifiques présentent de façon détaillée le formalisme théorique décrivant la propagation des ondes sismiques, que ce soit dans le domaine de la sismologie (Aki and Richards, 1980 ; Chapman, 2004), de la géophysique appliquée (Sheriff and Geldart, 1995) ou de l’ingénierie géotechnique (Richart et al., 1970). L’objectif ici n’est donc pas de détailler la théorie de propagation des ondes élastiques, mais plutôt de présenter les propriétés principales des différents types d’onde et leur intérêt pour la caractérisation des propriétés mécaniques de la subsurface. Dans un milieu élastique, les solides homogènes et isotropes soumis à l’effet d’une contrainte (impact, vibration, etc.) subissent des déformations liées à la propagation de différents types d’onde. On distingue ainsi les ondes de volume (compression et cisaillement) qui se propagent dans toutes les directions, et les ondes de surface (Rayleigh, Love, Scholte, etc.) qui sont guidées par des interfaces entre deux milieux de propriétés différentes. Dans cette thèse, nous ne considérerons que les ondes de compression P (ondes de volume) qui se propagent avec une vitesse Vp.
Lorsqu’une onde de volume se propageant depuis la surface dans un milieu 1 à la vitesse V1 rencontre un milieu 2 de vitesse V2 avec un angle d’incidence i1 par rapport à la perpendiculaire au plan de l’interface entre les deux milieux (Figure 6), une partie de l’énergie est réfléchie vers la surface avec un angle égal à i1 (Figure 6a). Le reste de l’énergie est réfracté (Figure 6b) dans le milieu 2 avec un angle i2 défini par la loi de Snell-Descartes tel que : sin i1 V1 (8) sin i2 V2
Lorsque V2 est inférieur à V1, l’angle i2 est inférieur à l’angle i1, et l’onde réfractée est systématiquement orientée vers la profondeur. À l’inverse, lorsque V2 est supérieur à V1, i2 est toujours supérieur à i1. Quand i1 est égal à l’angle critique ic (tel que sin ic = V1/V2), i2 est égal à 90°. L’onde réfractée se propage alors le long de l’interface à la vitesse V2 dans les deux milieux, entraînant la formation d’une onde conique qui remonte à la surface à la vitesse V1 et avec un angle d’émergence égal à ic en tout point de l’interface (Figure 6b). À partir d’une certaine distance à la source (liée à l’épaisseur du milieu 1 et aux vitesses V1 et V2), l’onde conique émergente arrive en surface avant l’onde directe se propageant le long de la surface dans le milieu 1. Enfin, lorsque i1 est supérieur à l’angle critique ic, la loi de Snell-Descartes n’est plus satisfaite et toute l’énergie est réfléchie.
(b) Réfraction simple (en B) avec un angle d’incidence i1 et un angle de réfraction i2 (d’après Milsom et Eriksen, 2011).
Les ondes de volume sont utilisées depuis de nombreuses années en prospection sismique, notamment en sismique réfraction pour estimer les variations de vitesse dans le sous-sol lorsque celles-ci sont croissantes avec la profondeur. La sismique réfraction se base sur l’étude des temps de trajet des ondes de volume (P et S) se propageant dans toutes les directions à partir d’un point source. Les temps de première arrivée sont pointés automatiquement ou manuellement en fonction du niveau de bruit présent sur les données. La tomographie sismique permet d’imager les variations de vitesse du sous-sol en 2D ou 3D à partir de ces temps d’arrivée observés sur les enregistrements sismiques.
Le principe d’acquisition en sismique
Dans la plupart des prospections sismiques, les ondes sismiques sont enregistrées à l’aide de géophones répartis à intervalle régulier le long d’un profil (Figure 7). Ces géophones sont composés d’une masse magnétique montée sur un ressort à l’intérieur d’une bobine. Lors du passage d’une onde dans le sol, les vibrations engendrées dans le géophone mettent la masse magnétique en mouvement. La bobine produit alors une force électromotrice (et donc un signal électrique) proportionnelle à la vitesse de déplacement du sol (Mari et al., 2001 ; Milsom et Eriksen, 2011). En fonction de l’orientation du ressort et de la bobine, on enregistre le déplacement du sol dans différentes directions. En proche surface, on utilise généralement des géophones mono-composantes.
Pour générer des ondes de compression, on utilise généralement une plaque en métal posée au sol que l’on vient percuter verticalement avec une masse ou un engin de chute de poids accéléré. En utilisant des géophones à composante verticale, on peut alors enregistrer les ondes P qui sont générées lors de l’impact. Ce type de source offre un rendement élevé et produit un signal très énergétique et fortement répétable. Elle permet de réaliser des acquisitions avec un grand nombre de positions de source sur de relativement grandes distances (à l’échelle d’une acquisition classique de proche surface, c’est-à-dire plusieurs centaines de mètres). Parallèlement à ces sources impulsionnelles, on utilise fréquemment des sources vibratoires dans le domaine pétrolier.
Lors de la mise en place du dispositif d’acquisition, l’espacement entre les géophones et leur nombre dépend des caractéristiques du milieu a priori (profondeur d’investigation et résolution latérale souhaitées) et des diverses contraintes matérielles et logistiques (type d’enregistreur disponible, longueur de câble, accessibilité du site, etc.). Pour dimensionner le dispositif, il est souvent nécessaire de se baser sur des résultats de modélisation directe obtenus à partir de modèles synthétiques issus de connaissances a priori sur le milieu. En sismique réfraction, une règle simple (mais souvent imprécise) recommande de choisir une longueur de dispositif égale à au moins huit fois la profondeur d’investigation souhaitée (Milsom et Eriksen, 2011). De même, on choisit généralement un écartement inter-géophone inférieur ou égal à la taille minimale de l’objet étudié. Dans la plupart des cas, on effectue des tirs dits “en offset”, situés aux extrémités de la ligne de géophones (tirs directs et tirs inverses). Ces tirs doivent être positionnés suffisamment loin du dispositif pour permettre d’imager les réfracteurs les plus profonds. En présence de fortes variations latérales et pour la réalisation d’une tomographie, on réalise plusieurs tirs à intervalles réguliers à l’intérieur du dispositif (Figure 7). Pour la réalisation de grands profils, la réalisation de dispositifs consécutifs ne permettant pas de conserver une bonne couverture de rais aux jonctions entre les dispositifs, l’avancement répété d’un demi-dispositif (Roll-along) est dans ce cas souvent utilisé de manière à conserver une bonne couverture dans ces zones (Figure 7).
Le traitement des données en sismique
La tomographie de vitesse nécessite la connaissance du temps de parcours de la première arrivée. Pour ce faire, le temps doit être pointé sur chacune des traces sismiques (Figure 8). Le pointé peut être réalisé manuellement ou par des méthodes semi-automatiques ou par des méthodes entièrement automatiques. Dans tous les cas, un contrôle de qualité visuel est nécessaire. De plus, il est parfois préférable de réduire le bruit de fond avant d’entamer l’opération de pointé. Les temps de propagation mesurés aux différents géophones sont souvent reportés sur un graphique temps/géophone également appelé hodochrone (ou courbe dromochronique). Pour extraire les temps de première arrivée à partir d’un enregistrement, il est également nécessaire de connaître avec précision l’instant t0 auquel la masse vient heurter le support (dans le cas d’une source impulsionnelle). Pour cela, on utilise le plus souvent un accéléromètre fixé sur la masse et relié à l’enregistreur. Au moment de l’impact, l’accéléromètre envoie un signal électrique au sismographe qui déclenche alors l’enregistrement. On peut également utiliser un système de déclenchement “par contact”. Avec ce système, le contact entre la masse et la plaque (toutes deux métalliques dans ce cas) ferme un circuit électrique relié au sismographe et démarre alors l’enregistrement. Il est fréquent que le déclenchement soit décalé de quelques millisecondes entre plusieurs positions consécutives de la source sismique. Un traitement a posteriori permet alors de s’affranchir des différences de temps de déclenchement de l’enregistrement.
Une étape de détermination de l’erreur réalisée sur le pointé est également nécessaire. Cette opération permet d’appréhender l’erreur faite sur le pointé des temps de première arrivée par l’analyse de la cohérence des temps entre deux points où la source et le géophone sont placés de manière réciproque (ces temps doivent être égaux selon le principe de réciprocité). L’erreur sur le pointé est obtenue en calculant l’écart type des erreurs individuelles de temps de trajets entre chaque couple source-récepteur.
Figure 8 : Exemple de tir sismique avec application d’un gain de type AGC. Les flèches indiquent : les premières arrivées de l’onde P directe (en rouge) ; les premières arrivées de l’onde P réfractée (en bleu) ; des réflexions des ondes P (en jaune) ; les ondes de surface (en vert). Les premiers temps d’arrivée pointés manuellement sont représentés par les points rouges.
La modélisation en sismique
La figure 9 est un exemple de discrétisation en grille cartésienne d’un modèle de lenteur s = (sj)j (inverse de la vitesse). Sur cette figure est également représentée la trajectoire d’un rai entre une source et un récepteur. Dans l’approximation haute-fréquence un rai correspond, selon le principe de Fermat, à la trajectoire des temps extrema, ou d’un point de vue de la propagation des ondes, en milieu isotrope, à la trajectoire perpendiculaire aux fronts d’onde.
Les données observées dobs correspondent aux temps de première arrivée pointés sur les sismogrammes tobs. Les données synthétiques d sont les temps de première arrivée t = (ti)i calculés pour un modèle s donné par la résolution de l’équation eikonale. On peut alors établir la relation entre le temps de première arrivée ti, le modèle de lenteur (sj)j et les longueurs des segments du rai li,j dans chaque maille du milieu discrétisé.
Table des matières
Introduction
Organisation du manuscrit
Contributions originales
Chapitre 1 : Etat de l’art des problèmes direct et inverse en méthodes électrique et sismique
1.1 Problème direct en électrique
1.2 Problème direct en tomographie sismique
1.3 Inversion séparée
1.4 Inversion en tomographie électrique
1.5 Inversion en tomographie sismique
1.6 Inversion conjointe
1.6.1 Propriété physique commune
1.6.2 Propriétés physiques reliées par une ou plusieurs relations
1.6.3 Propriétés physiques ne présentant pas de liens entre elles
Conclusion
Chapitre 2 : Rappel théorique pour les tomographies électriques et sismiques
2.1 La tomographie électrique
2.1.1 Le principe d’acquisition en électrique
2.1.2 Le traitement des données en électrique
2.1.3 La modélisation en électrique
2.2 La tomographie sismique
2.2.1 Le principe d’acquisition en sismique
2.2.2 Le traitement des données en sismique
2.2.3 La modélisation en sismique
2.3 Champ d’application des méthodes électriques et sismiques
Conclusion
Chapitre 3 : Méthodologie de l’inversion coopérative par zonation
3.1 Définitions
3.2 Problème inverse en tomographie électrique et sismique
3.2.1 La fonction coût des moindres carrés
3.2.2 La méthode de Gauss-Newton
3.2.3 La solution des moindres carrés
3.3 Extraction de l’information a priori : zonation par classification fuzzy c-means (FCM)
3.4 L’algorithme d’inversion coopérative
3.5 La mise en oeuvre pratique de l’inversion coopérative
3.5.1 La discrétisation des modèles
3.5.2 Le calcul des données synthétiques
3.5.3 La résolution du système linéaire tomographique
3.5.4 Le critère d’arrêt
3.5.5 Le choix du paramètre de régularisation
3.5.6 L’implémentation et les performances informatiques
3.6 Application sur des données synthétiques
3.6.1 Modèle 1
3.6.2 Modèle 2
Conclusion
Chapitre 4 : Application sur des données réelles
4.1 Contexte général
4.2 Objectifs de l’étude géophysique de 2016
4.3 Acquisition des données et site d’étude
4.3.1 Equipement
4.3.2 Configuration d’acquisition et implantation
4.3.3 Positionnement des mesures
4.3.4 Qualité des données
4.4 Traitement des données
4.4.1 Données électriques
4.4.2 Données sismiques
4.5 Information structurale supplémentaire
4.6 Inversion
Conclusion
Discussion
Conclusion générale et perspectives
Bibliographie
Annexes
Annexe 1 – A new structural cooperative inversion approach applied to the combined tomography of DC resistivity and seismic traveltime
Annexe 2 – Forage AUB121