Méthode Aubert
La méthode développée par Aubert et al. (2016) est une méthode de détection automatique de la courbe spinal et des têtes fémorales dans les images radiographiques. Elle permet de venir identifier de manière automatique les structures caractéristiques de la colonne vertébrale. Cet algorithme combine une recherche par apprentissage du déplacement de motifs en utilisant les réseaux neuronaux profonds et une correction en utilisant une Analyse en Composantes Principales (ACP) sur un modèle statistique de colonnes vertébrales. La base d’apprentissage est issue d’un échantillonnage aléatoire de régions rectangulaires de l’image (« patch ») autour des vertèbres allant de T1 à L5. Le déplacement de chacun des patchs avec la position réelle du corps vertébral est calculé pour permettre au modèle de Réseau de Neurones Profonds (DNN) de s’entraîner. Un modèle 2D de colonnes vertébrales est utilisé pour la correction par ACP. Les structures le composant sont les têtes fémorales, le centre du plateau sacré et le centre des vertèbres. Le centre des têtes fémorales et les informations du plateau sacré servent de repère 3D à l’algorithme. Il sert d’initialisation au modèle statistique moyen 2D dans l’image frontale. L’algorithme fait ensuite converger le modèle en faisant déplacer les patchs issus de l’image par rapport à la base d’apprentissage en détectant le centre des vertèbres dans les images. Si la convergence d’un centre vertébrale atteint celui du modèle, on fixe le point détecté avec un poids d’importance. La forme de la colonne est optimisée à chaque itération de convergence par rapport au modèle statistique. Les centres vertébraux ayant le mieux convergé servent à attirer les autres points dont la détection est moins exacte. L’un des principaux problèmes de cet algorithme préopératoire est que la base d’apprentissage pour le réseau neuronal contient des images de vertèbres, mais aucune n’est instrumentée. Cela signifie que l’algorithme ne reconnaît pas l’instrumentation comme une catégorie d’objets qu’il connait.
Méthode
Lecron Une autre méthode de reconstruction a été développée par Lecron et al. (2012). Elle est l’ajustement d’une méthode préopératoire pour le cas du postopératoire (cf Boisvert & Moura (2011)), mais sa base de données reste celle de colonne vertébrale préopératoire. Elle est basée sur un modèle de type « Multilevel Statistical », cela veut dire que la base de données se trouve sous la forme d’un arbre avec un niveau inter-vertébral et un niveau inter-individus. À partir de l’identification de points anatomiques à l’initialisation (ils ne sont pas précisés dans l’article), le modèle parcourt la base de données (307 sujets préopératoires) pour inférer six points anatomiques par vertèbre qui sont détaillés dans la figure 1.10. Ces six points sont les parties supérieures et inférieures des deux pédicules et le milieu des plateaux supérieurs et inférieurs de la vertèbre. La séparation des données se fait à l’aide de l’Analyse en Composantes Multiniveaux (même principe que l’ACP, mais sur un arbre de données). Si on analyse la méthode de fonctionnement de cet algorithme, on peut voir que le modèle se base sur une base de données préopératoire.
Cela implique que le modèle statistique ne contient aucune information postopératoire et va devoir sélectionner une colonne vertébrale préopératoire à l’aspect le plus proche. Il faudra aussi, comme la méthode actuelle de Humbert et al. (2009), retoucher les points du modèle. De plus, des informations importantes comme la taille et la position des murs vertébraux ne sont pas saisies directement sur la radiographie mais sont issues de la statistique préopératoire. On vient donc trouver le positionnement de points sur une radiographie postopératoire grâce à une base de données préopératoire. La forme et les caractéristiques sont très différentes. La précision de la reconstruction est augmentée par rapport à la méthode d’Humbert. Cela est dû à une meilleure intégration de la discontinuité d’une colonne instrumentée par l’approche « Multi-niveaux » contrairement aux méthodes classiques. Le fait que la recherche de solution est divisée en groupes d’éléments ou de structures permet d’obtenir cette amélioration. On vient comparer les solutions à l’intérieur d’un même groupe et entre les groupes. L’intragroupe va représenter la variation entre vertèbres et l’inter-groupe la variation entre les différentes colonnes de la base de données. C’est donc une méthode de reconstruction qui a été élaborée pour répondre aux problèmes liés au préopératoire. Son modèle statistique se base sur des reconstructions préopératoires, mais son application au cas du postopératoire donne des résultats intéressants. Un récapitulatif des erreurs en fonction du nombre de points saisis en entrée est présenté dans le tableau 1.2. On observe donc que l’erreur quadratique est inversement proportionnelle au nombre de points. L’erreur varie de 9 mm à 2 mm, ce qui montre que le nombre de points saisi en entrée à un grand impact sur la précision de la reconstruction 3D.
Méthode Kadoury
Cette méthode utilise l’approche des « Multi-Level Manifold Ensemble » de Kadoury et al. (2016). Le principe de fonctionnement qui est explicité dans la figure 1.11 est le suivant : on récupère l’aspect global de la colonne vertébrale par traitement d’image sous la forme de contours, cela donne l’entrée du modèle pour permettre d’avoir une méthode entièrement automatique. On retrouve la reconstruction 3D dans un arbre de données contenant 543 reconstructions de patients scoliotiques postopératoires. Une optimisation de la fonction d’énergie de l’arbre est ensuite réalisée pour obtenir le modèle 3D de la colonne vertébrale le plus proche du cas réel. Le parcours de l’arbre se fait grâce à une ACP dans un cadre non linéaire. Une fois que l’on a la fonction d’énergie minimisée, on crée une carte non linéaire avec la moyenne des « feuilles » de l’arbre. Après avoir obtenu le plus proche voisin de la représentation de la colonne, on recale grâce à la base de données statistiques l’enveloppe de la colonne trouvée sur les radiographies en vue frontale et sagittale postopératoires. Cet affinage est réalisé grâce à un champ aléatoire de Markov (MRFs). Les points descripteurs du modèle sont les mêmes que pour l’approche de Lecron et al. (2012) et se basent sur le modèle de Mitulescu et al. (2002) (voir figure 1.10).
L’enveloppe de la colonne ne varie pas selon le type de chirurgie, ce qui explique que l’algorithme de Kadoury et al. (2016) utilise l’enveloppe comme paramètre d’entrée d’un modèle statistique, car elle est constante peu importe la chirurgie du dos réalisée. Cependant, l’action du chirurgien n’est pas standardisée et va dépendre de la manière dont il va chercher à redresser la colonne (nombre de vis, angle, etc.). Les informations comme les rotations, la position des plateaux, la position des pédicules, etc. sont issues de la statistique et non de l’image. Cela est problématique, car le lien entre la courbure de la colonne vertébrale et le positionnement des vertèbres peut amener à des contraintes que la statistique ne peut pas reconnaître dans une reconstruction postopératoire. En effet, les variations sur l’enveloppe de la colonne vertébrale seront nombreuses. Cela demande une grande variabilité de types de redressement dans la base de données pour avoir une référence statistique cohérente. Les vertèbres restent cependant avec une RAV plus ou moins importante selon si le chirurgien a décidé de la redresser ou non. Ces incohérences peuvent induire des erreurs dans la reconstruction.
Validation Dans la littérature, il existe des métriques subjectives et qualitatives pour évaluer les résultats d’algorithmes de remplissage (Guillemot & Le Meur (2014)). Il n’y a aucune quantification de la qualité de remplissage, la seule manière d’évaluer les algorithmes est de mettre les différents résultats côte à côte. On peut cependant proposer des métriques qui sont habituellement utilisées pour évaluer la qualité en compression ou traitement d’images. La définition du rapport signal/bruit de crête (PSNR) a d’abord été envisagée pour évaluer de manière quantitative le remplissage. Elle a été utilisée par Vreja & Brad (2014) pour comparer différents algorithmes de compression d’image. C’est une mesure de la distorsion entre l’image compressée reconstruite et l’image originale. Les paramètres d’entrée sont la dynamique de l’image d qui représente l’échelle des valeurs de l’image (exemple : 0 à 255 pour une image 8 bits), ainsi que l’erreur quadratique moyenne (EQM) qui représente la différence entre l’image de référence et l’image que l’on veut traiter. La métrique PSNR donne une valeur en dB qui représente la détérioration du signal suite à un traitement comparé à l’image de référence. PSNR = 10×log10( d2 EQM ) (3.9) Cette métrique, très employée pour la comparaison d’images, devrait fournir des informations plus ou moins pertinentes, car on vient remplacer l’instrumentation qui est très blanche et uniforme par de la texture aillant une intensité proche de celle de l’os.
Ces résultats montreront donc clairement une amélioration, mais ne permettront pas d’évaluer l’ampleur de cette dernière. On peut proposer une seconde métrique : MSSSIM qui est également utilisée pour évaluer la compression d’images. L’intérêt de cette métrique est qu’elle prend en compte d’autres paramètres que la différence entre les deux images, ce qui représente mieux l’amélioration apportée par les différentes méthodes de remplissages. Cet algorithme a été développé par Wang et al. (2003). Cette validation permet d’évaluer la qualité en prenant en compte la « perception humaine » : Multiscale Structural Similarity (MSSSIM). Plus le score (en %) est élevé, plus la ressemblance en terme de contraste, structure et intensité est grande et donc l’algorithme est performant. Le calcul de la MSSSIM prend donc en compte le contraste c j, les structures s j et l’intensité lM à différentes échelles (M correspond à l’échelle), de plus les exposants αM, βj et γ j sont utilisés pour régler l’impact des différents paramètres d’évaluation : MSSSIM(x, y) = [lM(x, y)]αM ×Δ MΠj =1 [c j(x, y)]βj [s j(x, y)]γ j (3.10) Le sous-échantillonnage permet à l’algorithme d’évaluer le contraste et la structure à différent niveau de densité ce qui correspondrait aux faits de pouvoir agrandir l’image pour en observer les détails (ce qui est généralement réalisé par les experts en reconstruction ou les algorithmes de détection).
INTRODUCTION |