Les techniques utilisant le phénomène de Résonance Magnétique Nucléaire permettent l’analyse de composés chimiques associés à un noyau d’intérêt. Son utilisation pour l’étude des organismes vivant est relativement récente (début des années 80) et se développe spécifiquement pour une utilisation in vivo à travers deux modalités : L’imagerie de résonance magnétique (IRM) qui permet l’accès à une information anatomique et fonctionnelle précieuse pour le diagnostique de pathologie. La Spectroscopie de résonance magnétique qui via l’obtention de spectre et donnant accès à une information sur la composition biochimique sur le tissus ou organe étudié.
L’avantage de ces méthodes est leur caractère non destructif et non invasif. Des suivis sont donc possibles in vivo sans modification de l’organisme. Leur utilisation permet d’apporter un diagnostic complet à la fois physiologique et biochimique.
La spectroscopie de Résonance Magnétique (SRM) est une méthode analytique, en premier lieu utilisée en chimie, qui permet l’identification et la quantification des composés d’un échantillon. Sa principale différence avec l’Imagerie par Résonance Magnétique nucléaire (IRM) est l’obtention d’un spectre informant sur la physiologie et la biochimie de l’objet d’étude au lieu de l’image de ses structures (image anatomique pour les organismes vivants).IRM et SRM puisent toutes les deux leurs origines dans le principe de Résonance Magnétique Nucléaire (RMN), décrit en 1946 par les prix Nobel Edward Purcell [17] et Felix Bloch . En 1950, Erwin L. Hahn découvre l’écho de spin qui sera la base de la RMN moderne. La même année, W. Proctor et W. Dickinson découvrent indépendamment le phénomène de déplacement chimique [20] (Fig1c), qui sera une découverte fondamentale pour les applications de spectroscopie RMN en chimie organique.
A cette époque, la RMN était seulement utilisée pour déterminer le moment magnétique des noyaux. C’est seulement au milieu des années 1970 que la RMN fut véritablement utilisée pour analyser des composés in vitro. Lauterbur , Mansfield [21] et Grannell s’inspirent des travaux de thèse de 1952 de Robert Gabillard [22] en utilisant l’idée d’ajouter des gradients de champ en plus du champ magnétique statique pour déterminer la position du signal RMN, leur permettant de produire la première image anatomique in vivo. A partir de ce moment, la RMN in vivo fut inventée et renommée IRM pour l’imagerie (notamment à cause du terme nucléaire effrayant à l’époque et associé à la médecine nucléaire dans la pratique). Suivant la même tendance, la spectroscopie RMN in vivo fut renommée SRM.
Dans les années 1980, le premier IRM à usage clinique était disponible. Depuis, bien des améliorations ont suivi, en termes notamment d’intensité des champs magnétiques disponibles, de gradients, d’impulsions, de séquences et enfin d’applications. La SRM permet d’obtenir un signal émanant de différents noyaux. Le proton (1H) est le noyau le plus utilisé en clinique pour des applications sur le cerveau, principalement du fait de sa très grande sensibilité et de son abondance. Le spectre obtenu dans le cerveau sera altéré en fonction de la pathologie. Néanmoins les changements dans le spectre ne peuvent être compris sans une analyse quantitative et statistique entre des groupes de patients.
Dans ces cas, la SRM 1H est principalement utilisée pour des recherches cliniques et précliniques. Dans ce manuscrit, la spectroscopie (généralement non localisée), permettant l’analyse chimique de composés, sera nommée spectroscopie de haute résolution (dû à la qualité des spectres obtenus où on se rapproche de spectres de raies) et celle qui concerne l’application in vivo de la méthode sera nommée SRM.
Nous allons voirqu’une problématique de la SRM repose sur le faible pouvoir de séparation entre les différentes fréquences du spectre ainsi que sur les phénomènes de relaxation, phénomènes clef in vivo atténuant le signal et rendant difficile la qualification et la quantification de certains métabolites, notamment ceux ayant une structure complexe et possédant des couplages scalaires (notions fondamentales de l’expression d’un spectre RMN comme nous le verrons).
Il existe différents moyens pour s’affranchir de ces contraintes, l’une d’entre elle est l’augmentation du champ statique B0 qui permet d’augmenter la dispersion spectrale. Néanmoins, une telle augmentation s’accompagne en pratique de contraintes in vivo: inhomogénéités de champ plus grandes, augmentation de la puissance des impulsions et donc de la puissance absorbée par les tissus. De plus ces hauts champs sont rares. Les mesures in vivo impliquent des contraintes fortes en termes de temps d’acquisition, tests limités de reproductibilité, faibles concentrations des composés biochimiques étudiés, temps de relaxations courts. Ces contraintes sont moins remarquables en spectroscopie haute résolution des liquides. Néanmoins, le besoin de résolution spectrale supplémentaire reste une problématique commune à la haute résolution et à la SRM in vivo. Le développement in vivo de la spectroscopie commença dans les années 1980 par l’analyse de tissus postmortem. L’un des principaux inconvénients était la présence d’une quantité importante d’eau noyant littéralement les composantes spectrales des métabolites. Avec l’avènement des séquences dites de pré-saturation, le signal de l’eau est abaissé à l’amplitude des principaux pics des métabolites. Parallèlement en imagerie, le développement de séquences basées sur l’usage de gradients permet de diminuer le temps d’acquisition mais aussi d’augmenter la résolution.
INTRODUCTION GENERALE |