La place du digital dans l’évaluation cognitive
La digitalisation d’outil d’évaluation neuropsychologique
Nous avons eu un aperçu dans la partie précédente de toute l’importance des nouveaux paradigmes d’évaluation rendus possibles grâce à l’informatique et qui sont fréquemment utilisés en recherche que ce soit pour les précisions de mesure ou bien dans le cadre des analyses computationnelles menées sur des données comportementales. D’un point de vue clinique, l’évaluation neuropsychologique informatisée a débuté dans les années 1940-1950 avec Ward C. Halstead et son étudiant Ralph Reitan lors de la mise en place de la Halstead-Reitan Neuropsychological Test Battery. L’informatique apportait alors le cadre nécessaire et suffisant pour la standardisation de l’évaluation neuropsychologique. Cependant, malgré des débuts précoces, le champ de la neuropsychologie clinique s’est montré fortement opposé à cette nouvelle méthode d’évaluation (Russell, 1995). Dans un chapitre dédié à l’histoire des sciences dans le cadre de l’évaluation neuropsychologique (Russell, 2012) Russel regrette le manque de développement méthodologique de l’évaluation neuropsychologique et la volonté commune des neuropsychologues à garder une méthode flexible et dominée par le sens clinique. Mon expérience en tant que neuropsychologue dans différents lieux d’exercice m’a pour le moment montré la non-uniformité de la passation de certains tests ou même les batteries d’évaluations proposées face à la suspicion de telle ou telle pathologie. S’ajoute à cette problématique celle de la rentabilité / efficacité du bilan neuropsychologique : toujours plus de bilans dans un temps restreint ne peuvent que nuire à la contribution diagnostique et au patient lui-même. Une tentative de formalisation et d’unification des méthodes pour l’évaluation cognitive commence à émerger dans certains domaines afin d’étendre la standardisation du bilan cognitif. C’est le cas pour les pathologies vasculaires avec la batterie GRECOGVASC (Roussel & Godefroy, 2016), mais aussi plus récemment en neurochirurgie éveillée (Mandonnet & Herbet, 2021). Une enquête menée par le ELGGN (European Low-Grade Glioma Network) menée en 2017 avait d’ailleurs montré la nécessité de standardisation des tests utilisés en péri et peropératoire pour les patients porteurs d’un gliome de bas grade (Rofes et al., 2017). Cependant, malgré cette volonté d’uniformisation des méthodes, les neuropsychologues ont toujours tendance à piocher parmi les tests sans égard vis-à-vis de la puissance statistique et des Facque Valentine – Thèse de doctorat – 2021 95 conditions de standardisation permise par la passation d’une batterie complète. Une des batteries de tests cognitifs pensées comme un tout : GRECOGVASC (Barbay, Diouf, Roussel, & Godefroy, 2019; Puy et al., 2018) et le logiciel AmiensCog permettant d’obtenir une aide à l’interprétation des scores prenant en compte des phénomènes de compensations interfonctions cognitives (Roussel et al., 2015).
Les enjeux de la digitalisation dans l’évaluation cognitive
Le contexte
Une étude (Cazin, 2013) estimait en 2012 en France à plus de 3.000 psychologues spécialisés en neuropsychologie avec une activité principale consacrée à l’évaluation des fonctions cognitives (pour 94% d’entre eux) (Chicherie & Ponchel, 2015). Plus récemment, une étude (Direction de la Recherche des Études de l’Évaluation et des Statistiques (DREES), 2019) montrait que les effectifs s’élevaient à 25.607 orthophonistes en France avec un taux de croissance de la profession d’environ 4% par an. Ces augmentations traduisent l’augmentation de la demande des bilans cognitifs qu’ils soient neuropsychologiques ou orthophoniques, liée à la prise de conscience globale dans le milieu médical que prendre soin de la cognition était primordial pour la qualité de vie ultérieure des patients. Les outils d’évaluation en psychologie doivent répondre à 3 conditions : 1/ l’outil doit être fidèle, c’est-à-dire fournir des résultats identiques pour une même condition (ex. : une même personne qui se pèse 3 fois sur le même pèse-personne doit obtenir trois fois le même résultat dans la limite de la marge d’erreur de l’outil), 2/ l’outil doit être valide, c’est-à-dire que le score obtenu reflète ce que l’on souhaite mesurer (ex. : si on passe un test afin de mesurer notre créativité culinaire, la mesure ne doit pas être confondue avec nos connaissances en cuisine ni notre capacité technique à la réaliser), 3/ l’outil doit être standardisé et normé. Une fois un score fidèle et valide obtenu, l’outil doit disposer de normes permettant de l’interpréter (ex. : si après une épreuve on obtient la note de 13/20, il est difficile de savoir si on a mieux ou moins bien réussi que les autres de la classe, il faut comparer notre score à celle des autres élèves), par ailleurs la normalisation n’est possible que si l’outil est présenté dans un cadre standardisé, c’est-à-dire si l’ensemble des sujets disposent des mêmes conditions de réalisation Facque Valentine – Thèse de doctorat – 2021 96 (ex. : si pour la même épreuve, un élève la réalise avec un examinateur l’encourageant verbalement tout du long et l’autre non, leur score sera potentiellement différent, mais ne reflètera pas une différence au niveau de leurs capacités respectives). La standardisation des outils d’évaluation est la plus difficile à faire respecter dans la pratique courante. Elle vient se heurter à la subjectivité de chacun, mais également à l’expérience clinique. Par exemple, dans le cadre de l’évaluation neuropsychologique proposée aux patients de neurochirurgie, il est très probable que les premiers patients vus au début de la mise en place de cette nouvelle évaluation n’aient pas eu la même fluidité et aisance au cours de leurs évaluations que les patients vus 4 ans après plus d’une centaine d’évaluations et une certaine d’automatisations du processus d’évaluation, permettant une plus grande aisance et présence dans l’interaction patient-neuropsychologue. Au-delà des aspects de standardisation, la durée de passation d’un bilan complet dans une version papier crayon est généralement longue afin de permettre d’approfondir toutes les raisons d’un trouble. La durée de la cotation est généralement égale à la durée de la passation. Pour un bilan d’environ 4h avec la totalité des tests passés en papier crayon, il faut compter généralement 4h de cotation, de comparaison à la norme, de rédaction de compte rendu. Les neuropsychologues ou orthophonistes semblent alors passer plus de temps à être dans une posture d’évaluateur que dans une posture d’accompagnement, à prêter plus d’attention à bien faire démarrer le chronomètre, à bien faire attention à comment présenter le test, aux réponses du participant et aux résultats et performances pendant le test plutôt qu’à l’humain qui leur fait face. Cette charge dédiée à la gestion du test pourrait être, de surcroît de nos jours, déléguée à un support technologique pour laisser ces professionnels exercer leur clinique. À ce jour, une enquête (Rabin et al., 2014) des différents tests utilisés en neuropsychologie montre que parmi les 693 outils renseignés par une cohorte de 512 neuropsychologues canadiens et américains, seuls 6% des outils étaient digitaux et dans l’ensemble rarement utilisés. Une revue de littérature sur les différents bénéfices et point d’attention lors du développement digital sont rapportés par Miller et Barr (Miller & Barr, 2017).
Évaluation cognitive en milieu écologique
Dans une revue de littérature faisant un focus sur les évolutions permises par les applications mobiles pour la santé (mHealth) entre 2002 et 2012 (Fiordelli, Diviani, & Schulz, 2013), Fiordelli dénote une nette accélération après les années 2007 (et l’arrivée des premiers iPhone). D’un point de vue de la santé mentale la majorité se sont attaché à promouvoir les comportements « sains », par exemple des applications pour accompagner les fumeurs à arrêter de fumer. Une petite partie seulement s’est intéressée à de la surveillance à distance et/ou de la collection de données. Parmi elles on peut citer la collection à distance de données comme dans l’Ecological Momentary Assessment (Moskowitz & Young, 2006) ou encore Cognition Kit une plateforme qui permet la collection de données à partir d’équipements portatifs afin de Facque Valentine – Thèse de doctorat – 2021 98 comprendre au mieux la cognition dans la vie quotidienne3 . On peut également souligner les études effectuées au sein de l’ICM avec notamment le protocole ECOCAPTURE@HOME et les résultats scientifiques qui en découlent dans l’évaluation des patients apathiques (Godefroy et al., 2021).
L’outil digital et les limites de la pathologie
Puisqu’il est possible de faire des inférences au niveau des métadata d’un smartphone, nous souhaitons prendre ce problème sous une autre perspective et mettre en exergue que certains troubles cognitifs peuvent changer l’expérience utilisateur. Par exemple, un patient présentant des troubles de l’inhibition aura tendance à cliquer dès que possible / taper sur l’écran de la tablette dès qu’une information apparaît. Imaginer des outils d’évaluation digitaux d’un trouble devient alors un véritable challenge et demande une connaissance approfondie des troubles qui vont être évalués afin d’anticiper la grande majorité des comportements qui pourrait arriver pendant l’évaluation. Au même titre qu’une adaptabilité à un handicap (par exemple le daltonisme) doit être pensée dans le développement des tests papier-crayons ou digitaux, une attention particulière doit être pensée pour les troubles cognitifs qui découleraient d’une pathologie. Ainsi, si nous cherchons par exemple à évaluer la mémoire chez des patients souffrant d’Alzheimer, il faudra réfléchir dans le déroulement du test digital à toute l’expérience d’un point de vue du patient et non plus d’un individu neurotypique.