Simulations d’examens TEP-FDG de lésions athéromateuses
Simulations numériques d’examens TEP
Du patient aux fantômes numériques
L’évaluation de méthodes de quantification nécessite de disposer de don nées • réalistes et représentatives de la pathologie étudiée, • dont on connaît et maîtrise la distribution réelle du radiotraceur, • reproductibles en moyenne. En effet, plus le réalisme des données est grand, plus l’extrapolation des conclusions à l’homme est immédiate. La connaissance de la distribution d’ac tivité réelle, appelée vérité terrain, est nécessaire afin de déterminer les erreurs absolues de mesure.
Sa maîtrise est un critère important à considérer lorsque l’impact de paramètres individuels est étudié. La reproductibilité en moyenne (en terme de faisabilité et de mise en œuvre) permettra, compte tenu du bruit dans les données, de réaliser des études statistiques. La production de données peut être réalisée directement sur l’homme ou sur des modèles simplifiés (ta bleau 4.1). Aucune approche n’est idéale selon ces critères et il s’agira d’établir un compromis entre ceux-ci.
Les acquisitions cliniques présentent l’avantage de refléter exactement (à condition d’un recrutement adapté des patients) le type de données que l’on souhaite évaluer. En revanche, l’accès à la vérité terrain est limité puisqu’il est alors nécessaire de réaliser des prélèvements de tissus et de mesurer l’activité restante par des moyens plus ou moins précis : compteurs à puits, autoradio graphie.
La vérité terrain n’est pas maîtrisée et compte tenu des difficultés à réaliser plusieurs acquisitions sur un même patient, les images ne sont pas reproductibles en moyenne, limitant la réalisation d’études statistiques fiables.
Des modèles animaux sont souvent développés afin de reproduire au mieux la pathologie humaine que l’on souhaite étudier. Les modèles animaux ont les mêmes inconvénients que pour l’homme mais autorisent des prélè vements non réalisables chez l’homme.
L’accès à la vérité terrain est facilité puisque l’animal peut être sacrifié et faire l’objet d’études histologiques. La va lidation des modèles et la différence de taille avec l’homme, compte tenu de la faible résolution spatiale des tomographes, sont des écueils majeurs à l’utilisa tion de ces données bien que l’usage des micro-TEP haute résolution permette de compenser partiellement ce problème.
Lorsque l’accès et la maîtrise de la vérité terrain sont indispensables avec une grande précision, on préfère employer des objets synthétiques, ou fan tômes, par opposition aux sources d’origine biologique. Les difficultés de mise en œuvre sont faibles et permettent de produire un grand nombre de données.
Cependant, malgré des modèles de plus en plus nombreux et sophistiqués disponibles pour des applications variées, ces objets sont peu flexibles et leur réalisme est souvent assez limité. Des programmes informatiques ont été développés afin de simuler numé riquement des acquisitions de Tomographie par Emission (TE). Ces outils mo délisent de façon plus ou moins sophistiquée le parcours des photons de leur lieu d’émission jusqu’au tomographe.
Ce type de données permet l’accès et la maîtrise de la vérité terrain et la reproductibilité des images en moyenne est assurée. Le réalisme des images dépend donc de la précision des modèles utilisés (patient, physique, …). Simulations numériques d’examens TEP Les simulateurs numériques utilisent des modèles analytiques ou stochas tiques du parcours des photons dans la matière.
Les simulateurs analytiques consistent en la projection des photons selon des modèles mathématiques dé terministes. Peu de simulateurs analytiques sont actuellement disponibles au public. Citons le programme ASIM (Analytic PET SIMulator) (Comtat et al. 2000). Les photons sont projetés selon un modèle ligne-intégrale puis les pro jections ainsi obtenues sont filtrées afin de modéliser la réponse finie du détec teur et sont enfin bruitées selon une distribution de Poisson.
Les contributions des coïncidences diffusées et fortuites sont estimées, bruitées et ajoutées aux coïncidences vraies simulées analytiquement. Les méthodes analytiques per mettent de produire un grand nombre de données rapidement et sont particu lièrement intéressantes pour l’évaluation de méthodes de reconstruction ou de traitement d’image où le réalisme des données n’est pas crucial. Les méthodes stochastiques reposent sur une approche Monte-Carlo (MC) et consistent, à l’inverse des méthodes analytiques, à simuler le parcours des particules par calcul probabiliste des interactions.