Les opérateurs humains créateurs de sécurité
Évolution vers des modes de pensées complexes et dynamiques
Les années 50 sont marquées par une modification profonde de la nature du travail qui évolue d’une forte dépendance au faire vers une forte dépendance au penser. En effet, en multipliant les dispositifs capables d’accomplir partiellement ou entièrement une tâche auparavant exécutée par un humain (Parasuraman et al. 2000), l’automatisation du travail oblige les opérateurs à modifier, voire à abandonner certains aspects physiques et routiniers de l’activité au profit de tâches cognitives et complexes telles que la supervision, la prise de décision ou la résolution de problème. Plusieurs phénomènes sont alors caractéristiques de cette transition : (i) la nature du contrôle du domaine de travail change et devient un contrôle à distance possible via une interface, (ii) les opérateurs deviennent des superviseurs de systèmes automatiques et leur intervention n’est nécessaire qu’en cas de situations imprévues pour lesquelles les machines n’ont pas été conçues, (iii) l’utilisation des interfaces instaure une distance spatiale et/ou temporelle entre les opérateurs et leur domaine de travail.
Face à cette complexité croissante, assurer la sécurité des systèmes sociotechniques est un véritable challenge pour les facteurs humains et les sciences de la sécurité. Toute la problématique étant d’optimiser le lien (i.e. le couplage) entre l’organisation du travail (i.e. les opérateurs et les machines) et le domaine de travail (i.e. ce sur quoi agit l’organisation) dans le but de faciliter le contrôle et assurer les exigences de sécurité et performance. Lorsqu’on s’intéresse à la gestion de la sécurité dans les systèmes sociotechniques complexes, il est nécessaire d’aborder la question de l’erreur humaine. Woods et ses collègues (2010) distinguent deux approches de l’erreur humaine qui vont nous permettre d’identifier deux stratégies différentes en termes de gestion des risques. La première approche repose sur un raisonnement causal destiné à identifier puis supprimer a posteriori, la cause de l’accident. « L’erreur humaine » est ici considérée comme la cause de l’échec. Dans cette logique, et pour assurer les exigences de performance et de sécurité, la stratégie repose sur l’élimination des causes, autrement dit l’élimination des « opérateurs humains » alors jugés peu fiables. L’idée sous-jacente est qu’en réduisant la responsabilité des humains (i.e. leurs degrés de liberté), et en donnant plus de poids aux systèmes automatiques ou en renforçant les procédures rigides, les erreurs seront réduites. La sécurité est alors synonyme de réglementation, procédures standardisées, systèmes automatisés et réduction des degrés de liberté. La seconde approche considère les situations de travail comme des situations dynamiques. Les opérateurs ne doivent plus seulement respecter les règles prescrites mais doivent constamment s’adapter à des évènements aléatoires et imprévus et être en mesure d’apporter des solutions adaptées. Comprendre comment les erreurs surviennent nécessite alors d’identifier la dynamique sous-jacente à ces situations, les ressources disponibles (humaines et matérielles) et les actions possibles pour la contrôler (i.e. leurs degrés de liberté). La sécurité est ici synonyme de flexibilité et d’adaptation. En fournissant aux opérateurs des degrés de liberté leur permettant de s’adapter et de faire face à la complexité, autrement dit en concevant des espaces de travail qui favorisent l’expression des compétences, la sécurité en sera améliorée (Falzon 2013). Alors que la première approche considère l’opérateur humain comme la cause de la défaillance, la seconde l’envisage comme un créateur de sécurité.
Comme l’écrit Rasmussen (1986) : « La variabilité humaine est importante pour l’adaptation et l’apprentissage, et la capacité à s’adapter aux particularités des systèmes et à optimiser l’interaction est la raison même de la présence des agents dans un système. Pour optimiser le rendement, pour développer des compétences harmonieuses et efficaces, il est important d’avoir l’occasion de faire l’expérience d’essais et d’erreurs… ». Ainsi l’erreur est nécessaire au développement des compétences humaines et à l’amélioration des capacités adaptatives des opérateurs. Une stratégie de sécurité pertinente consisterait donc à concevoir des environnements de travail qui tolèrent l’erreur, autrement dit des environnements au sein desquels les opérateurs peuvent progresser, apprendre via l’exploration des degrés de libertés et où les potentielles erreurs n’entraineraient pas nécessairement des conséquences catastrophiques (Flach et al. 2008, Falzon 2008). Cette dernière vision marque une transition dans la façon de percevoir le risque et l’erreur et nécessite de nouvelles méthodes d’analyses capables de capturer la dynamique du système, les contraintes, les pressions, les moyens en termes de ressources et l’ensemble des possibilités d’actions disponibles pour assurer le contrôle.
Des besoins méthodologiques spécifiques
Face à ces nouveaux besoins méthodologiques, les méthodes séquentielles1 , épidémiologiques2 ou basées sur l’identification des causes sont devenues insuffisantes et l’approche systémique3 a été envisagée comme une solution adaptée (Hollnagel 2008 ; Underwood & Waterson 2013 ; Salmon et al. 2011). Au sein de l’approche systémique, la sécurité est considérée comme une propriété émergente qui résulte des interactions non linéaires entre les composants multiples du système sociotechnique (Leveson 2004).
Le système est analysé comme un tout et tient compte des différents éléments organisationnels, techniques et humains impliqués. Lors d’une analyse d’ordre systémique, les objectifs sont multiples : comprendre les relations entre les différents composants du système, identifier les forces et vulnérabilités du système étudié, puis mettre en œuvre des actions d’améliorations appropriées en matière de sécurité (Leveson 2004). L’Ingénierie cognitive des systèmes, plus communément appelé « Cognitive Systems Engineering », propose un cadre théorique et méthodologique pour répondre à ces objectifs. Sur la base des travaux menés par Jens Rasmussen et ses collègues au laboratoire Risø au Danemark (Rasmussen 1986 ; Rasmussen et al. 1994), la Cognitive Work Analysis (CWA) s’est développée pour répondre aux nouvelles exigences du travail engendrées par l’automatisation de l’activité.
Cette méthode d’analyse du travail propose un ensemble de concepts destinés à analyser et modéliser les contraintes propres aux domaines de travail complexes, dynamiques, pour lesquels la capacité à comprendre et agir de façon adaptative face aux situations imprévues est essentielle (Roth & Bisantz 2013, p240). L’objectif est de fournir des recommandations pour la conception d’innovations techniques (interfaces, aide décisionnelles…) et/ou organisationnelles (structure des équipes, allocation des fonctions…) qui favorisent les comportements adaptatifs et flexibles. Cependant, et malgré une contribution scientifique importante, la CWA présente certaines limites poussant les experts à repenser ses fondements et développer de nouvelles méthodes alternatives (Lind 1994 ; Lind 2003 ; Naikar et al. 2005 ; Naikar et al. 2006 ; Miller & Sanderson 2000 ; Ashoori & Burns 2011 ; Morineau & Flach 2019).