Vers une formalisation de l’interprétation

La lignée structuraliste, le problème de l’identité

La base du structuralisme se trouve la recherche de points de com-paraison entre langues, issue des grammaires comparées. Que ces langues soient séparées par l’espace, le temps ou les deux, la méthode consiste en la recherche de stabilités entre figures d’expressions et idées véhiculées (par exemple le proto-morphème pe- dans les diverses expressions de «pied» et de ses dérivés dans les langues indo-européennes).
La grande idée de Saussure [56] fut donc de considérer dans ce cas la na-ture de l’élément de base de la comparaison. Reconnaissant la langue comme système, il exprime que c’est la présomption de connaissance de ce dernier qui permet d’aboutir à l’identification de ses constituants (et donc de com-mencer véritablement la description).
Même si l’on isole le signe dans un schéma de relations entre ses parties (signifié et signifiant), il faut toujours considérer que l’élément est indisso-ciable du tout systémique auquel il appartient et qu’il constitue. L’impor-tance n’est donc pas seulement portée sur la nature et la signification des relations entre les parties du signe, mais surtout sur les relations entre les signes.
Un autre exemple de cette difficulté réside dans la notion même de pa-radigme. Toujours dans le cadre des comparaisons entre langues, on doit identifier des classes de comparaison pour les termes. Par exemple, pour identifier le «sens» du préfixe dé-, il faut considérer un ensemble de termes comme défaire, démonter, démolir, etc. Bien des classes de comparaison sont pourtant disponibles pour chacun de ces termes, comme faire, refaire, dé-faire, mais c’est avant tout la présomption de l’objet à mettre en évidence, et du rôle qu’il joue dans le système de la langue qui détermine les effets locaux utilisés pour mettre en évidence sa nature et même son existence. Quand nous énonçons le terme de présomption, il faut en fait avouer que l’on s’intéresse à l’identité de l’élément. Plus qu’une évidence, cette iden-tité doit en fait être construite. Les relations paradigmatiques qu’entretient une unité signifiante se basent sur son identité, mais en fait elles la forment par là-même. Un mot (comme signification), par exemple, va pouvoir être classé dans diverses classes sémantiques (et supporter des relations au sein de celles-ci) parce qu’il a été identifié, mais cependant ce sont les classes admises et les classes injustifiées (plus qu’impossibles, puisque l’on peut tou-jours s’amuser à regrouper un ensemble aléatoire de termes et les unifier par un contexte ou même un texte) qui vont construire ou peut-être simplement traduire cette identité. À un autre niveau, si l’on décompose cette entité à classer, c’est sur la base du partage d’un de ses composants avec d’autres entités que son appartenance à une classe sera justifiée. Le morphème ‘faire’ dans l’exemple précédent est «le même» dans tous les verbes énoncés, alors que d’autres composants y entretiennent des relations de différence (‘re’ et ‘dé’ par exemple). Ainsi, dans une approche formelle, un point de départ est nécessaire dans la description d’une unité sémantique (un signifié). Celle-ci peut n’être que partielle, comme l’identification d’une classe qui contient cette unité. À partir d’une spécification minimale, l’ensemble de la notion peut ainsi se construire, cette construction faisant partie d’un processus in-terprétatif. Ainsi, la fameuse notion de généricité – spécificité n’est donc qu’une conséquence de ces deux principes fondamentaux (identité et diffé-rence). L’organisation paradigmatique repose sur la notion de substitution, et suppose donc une identité de l’unité transposée à travers les contextes.
Cet apparent paradoxe n’a, en fait, pas tant d’hermétisme, si l’on consi-dère la double identité du «mot». La première est une identité de forme (une simple chaîne de caractères), la seconde une identité de contenu, du moins pour ce qui est des classes et des relations sémantiques.
Le sauvetage du TALN – C’est ainsi que nous pouvons espérer manipu-ler le sens via l’outil informatique. La machine manipulera de purs signifiants (suites de caractères), auxquels sont naturellement attribuées des relations inhérentes d’identité et de différence formelles. Le signifié ne sera donc capté qu’au prix de la mise en place de relations entre ces signifiants, en fait de paradigmes. Nous pourrons tout de même nous permettre de «confondre», du point de vue de la machine, ces deux notions, puisqu’une seule d’entre elles sera réellement manipulée. La notion de sémème (cf. infra) ne posera donc plus de problème lors de sa formalisation : elle sera considérée dans son autonomie comme étant le signifiant (permettant un pointage vers sa place dans la chaîne syntagmatique), mais supportera la lourde notion de signifié quand elle sera intégrée dans une structure sémantique. De toute façon, la signification ne viendra pas de la machine, nous exigerons simplement que les manipulations qu’elle aura à effectuer soient en cohérence avec la vision de son utilisateur. L’acte interprétatif de mise en relation du signifiant avec le signifié ne relève que de l’humain.

Le problème du global et du local. L’alternative hermé-neutique

Reprenons tout de même un instant le paradoxe évoqué précédemment, et qui couvre bien plus de domaines (scientifiques ou non) qu’il n’y paraît. Pour le résumer à nouveau, disons qu’un élément signifiant fait partie d’un système qui lui donne sa signification, basée sur les relations qu’il entretient avec les autres entités, ces relations étant contraintes par la nature même de cet élément… on tourne en rond.
En quelque sorte, pour échapper à ce cercle vicieux (ou vertueux ?), force nous est de prendre parti pour une des deux considérations, du global ou du local. Quelques premiers indices sont que l’on s’occupe de langue natu-relle, que l’on veut traiter des textes, et que l’on a trop de respect pour la notion de sens pour attribuer une seule de ses occurrences à un texte donné, c’est-à-dire que l’on souhaite prendre en compte des données exté-rieures dans l’attribution du sens : «contexte» 1, connaissances et intentions de l’interprète, etc.
Il n’y a donc plus de raison de faire durer le suspense : on donnera naturellement la primauté à la notion de globalité, et on couvrira même par la primauté la notion de détermination.
Mais pourquoi ? Naïvement, quand on approche un texte, on n’y verra qu’une suite de symboles, qui, seulement une fois interprétés, permettront d’atteindre une compréhension de l’ensemble. Cette vision est en fait par trop empreinte de la théorie de l’information, et du langage comme simple code à analyser. Le principal problème est en fait la difficulté d’attribuer une signification stable à un élément isolé. Les nombreux travaux sur la polysé-mie qui ravagent le TALN en sont une bonne preuve. Des systèmes d’une complexité effroyable sont développés pour résoudre des problèmes que ne rencontre aucun interprétant humain, puisque ce dernier ne considère pas (et ne peut d’ailleurs pas considérer, la plupart du temps) le terme polysé-mique de façon absolue (voir par exemple [64]). Mais ne sombrons pas dans une critique trop facile. Les objectifs des outils de traitement qui se heurtent de plein fouet à la polysémie ne sont pas les nôtres, puisqu’ils tentent de parvenir à une compréhension automatisée, alors que nous nous contente-rons largement d’une interprétation assistée. L’approche formalisatrice est dès lors très différente, la polysémie étant rencontrée sur le chemin du calcul du sens, et la notion d’interprétation ne comporte pas de calcul. Par contre, et comme nous l’avons vu au premier chapitre, il s’agit bien de l’objet texte qui se trouve en situation : avant d’être perçu comme une composition d’unités inférieures, le texte se voit déjà attribuer un ensemble de considérations. Sa situation sociale et historique, l’intention de l’individu qui l’aborde, sont attribuables prioritairement à la totalité du texte (et dans certains cas, avant même que celui-ci soit analysé). Par contre, ces considé-rations globales sur le texte peuvent être projetées sur ses éléments, pour s’y trouver justifiées, modifiées ou servir de base dans la découverte d’autres aspects.
D’un point de vue plus formel, la prise en compte de ces rapports de la globalité vers la localité nécessite des outils de description particuliers. La relation est en effet bien plus qu’une simple projection, puisque des phé-nomènes locaux peuvent également avoir des répercussions sur l’ensemble. Il nous faudra dès lors envisager des rapports bilatéraux, sans nous enfer-mer dans un dogmatisme purement globaliste. La première tâche sera alors de disposer d’un moyen d’expression compatible avec les deux niveaux. De plus, se limiter à deux niveaux (de façon grossière le mot et le texte) n’est pas non plus suffisant. La notion de localité, toute relative, peut s’étendre du morphème jusqu’au syntagme. Des travaux comme ceux de J. Kristeva [33, 34] n’hésitent pas à descendre jusqu’aux qualifications sémantiques des phonèmes pour appuyer des thématiques globales chères à la psychanalyse. Mais ces problèmes pourront être résolus par une souplesse accordée à l’iden-tité formelle des unités locales.
Un deuxième aspect à considérer dans notre approche a bien sûr trait à la simple et incontournable opérationnalité de tout système informatisé. Les principaux paradigmes de description sémantique acceptables dans un en-vironnement structuraliste se limitaient à l’expression de dépendances fonc-tionnelles entre entités lexicales, dépendances dont on regrette la stricte et rigide localité. L’alternative que nous sélectionnerons sera le principe de la microsémantique, ou description de la signification par des éléments séman-tiques inférieurs à l’unité lexicale. Cette description par définition locale nous semble en effet assez souple pour supporter le poids du global dont nous dé-sirons la charger, et de plus essentiellement pratique car manipulable par la machine. Le principe qui servira de liaison entre localité et globalité sera la justification des entités locales par leur rôle dans des structures dont la zone d’influence n’est rien de moins que le texte. Le principe d’une inter-prétation sera donc la supposition de l’existence de telles structures, et leur actualisation par des unités locales. D’un point de vue informatique, ceci n’a rien que de très connu, puisqu’il se fait une différence simple entre structure déclarée et instanciée. Aborder un texte quelconque sous la lumière d’une symbolique particulière, par exemple, commencera par la mise en place de structures générales, avec de grands thèmes entretenant entre eux des rela-tions également stabilisées. Ces connaissances a priori permettent une mise en place de telles données globales avec un minimum de relations directes avec le texte (repérage de quelques mots ou expressions). Dès lors, un début de justification apparaît, non pas en ce qui concerne l’attribution ex-nihilo d’un trait à une unité linguistique, mais pour l’utilisation d’un tel trait en fonction des objectifs de l’interprétation. Par la suite, nous verrons comment ces attributions minimales permettent d’en repérer d’autres, et d’enrichir les structures du texte, et d’en repérer de nouvelles. Une interprétation sera donc un continuel aller-retour entre ces deux niveaux.
Dès lors, la question se pose quant à la nature de l’outil descriptif local, capable de supporter ces notions qualifiant le texte.

La sémantique du local

Le palier local, que l’on peut dans un premier temps associer à la notion de mot ou de morphème, sous-entend généralement une description de l’or-ganisation sémantique du signifié associé. Pour cela, elle met en place des unités sémantiques inférieures, dont la nature et la justification peut varier d’une théorie à l’autre.

Diverses possibilités

Du point de vue du TALN, où domine le souci d’opérationnalité, les questions sur la nature de ces unités inférieures sont rares. Le souci de leur manipulation les ramène classiquement à des unités symboliques manipulées par la logique.
Dès lors que la question se pose, la réponse est souvent recherchée dans le cognitif, lieu privilégié d’explication des phénomènes du langage et de la compréhension comme nous l’avons vu. Les travaux de J.-P. Desclés [16] sur la grammaire applicative et cognitive, cherche ainsi une justification des archétypes descriptifs, la grammaire cognitive de Langacker également [35, 36]. D’autre modèles proposent un point de vue encore plus absolu, comme les travaux mathématiques de R. Thom [61], répercutés dans la langue par B. Pottier [46, 47]. On peut dans ce cas parler de noèmes, par l’universa-lisme qu’oblige une mathématisation forte. Bien que séduisants, ces modèles perdent malheureusement en opérationnalité, notamment par la perte de la centrale notion de continuité qu’entraîne le passage à la machine.
Une dernière possibilité est de rester dans le linguistique, et de revendi-quer son autonomie en utilisant des descripteurs de forme langagière. Cette alternative permet d’échapper aux lourdes présuppositions d’un cognitivisme ou d’un universalisme, tout en restant manipulable. Sa réalisation passe par l’utilisation de marqueurs sémantiques, ou @sèmes, et l’on parle alors de microsémantique.

Exemples d’utilisation de la microsémantique

Les plus célèbres noms associés à une mise en pratique de ce paradigme sont les célèbres Katz et Fodor [29]. Auparavant, et également après eux, la notion de marqueur sémantique fut utilisée pour guider l’analyse syn-taxique (par exemple pour exprimer la nécessité d’avoir un sujet animé pour certains verbes). Mais Katz et Fodor vont plus loin, car ils tentent de re-pérer toutes les caractéristiques sémantiques d’un mot par l’énumération de ces marqueurs. Leur plus célèbre exemple traduit leur intérêt comme centré autour du problème de la polysémie. En effet, ils utilisent les marqueurs sé-mantiques pour distinguer les différents sens (ou acceptions ?) de bachelor, qui couvrent des domaines divers, du diplômé à l’otarie mâle. Les marqueurs sémantiques forment donc un arbre de signification, dont la racine est le mot lui-même, et chaque branche supporte un marqueur dans le but de distinguer les différents sens (/humain/, /animal/, /mâle/, etc.) ou de décrire le nœud terminal d’un sens (comme /privé de femelle à la saison des amours/ 2).
Comme on peut le voir à la lueur de cet exemple, il s’agit bien d’une polysémie forte qui est traitée ici (voire une homonymie). Cependant, l’in-tention est louable, puisqu’elle donne aux marqueurs sémantiques (du moins
• certains d’entre eux) un rôle différenciateur. Le principal problème de cette méthode est que les sens qui doivent être distingués n’ont pas leurs relations validées sur des critères proprement sémantiques, puisqu’il s’agit d’une iden-tité de forme.
Une autre mise en place d’un système de marqueurs microsémantiques est celle de Paul Guiraud et de ses sèmes [21]. La tâche est plus audacieuse, puisqu’il s’agit de la constitution d’un système de primitives pouvant couvrir toutes les significations. Cette démarche prend un caractère gênant quand l’auteur entreprend de compter les sèmes, et d’extraire une loi numérique liant le nombre de sèmes attribués à une entrée lexicale au nombre de syllabes que celle-ci contient, démontrant ainsi la loi de Zipf (les mots les plus courts sont les plus polysémiques).
Ainsi, répondant à un principe structuraliste classique, les sèmes sont bien utilisés pour distinguer différentes unités sémantiques, mais exclusive-ment pour résoudre les problèmes de polysémie. C’est-à-dire que les unités que l’on souhaite distinguer n’ont pas de proximité interprétative, où la pré-pondérance du global empêche justement le rapprochements de significations disparates dont le seul point commun est celui de la forme.
De plus, dans l’hypothèse d’une effective description par ce moyen de l’ensemble des significations des unités lexicales, leur assemblage et mise en cohésion au niveau d’un énoncé atteint des complexités opératoires exponen-tielles.
La sémantique interprétative, qui elle aussi met en place un système de description reposant sur des sèmes, permet avant tout de préciser le rôle de ceux-ci dans un objectif interprétatif. Elle s’ancre bien dans un paradigme différentiel, mais encore doit-elle bien construire cette notion de différence.

La microsémantique différentielle

Retournons donc nous réfugier au sein du paradigme structuraliste et avant de nous intéresser à la nature de ces sèmes, exprimons clairement les rôles qu’il convient de leur attribuer, et les fonctions qu’ils devront remplir.
— Les sèmes devront traduire les distinctions et similarités entre les sens des unités lexicales, mais sur une base sémantique. Ceci accordera une justification à leur nature.
— Les sèmes ne devront pas être utilisés pour capter le sens d’une entité lexicale, mais traduire une interprétation de celle-ci. Il s’agira donc d’une relativisation.
— Les sèmes devront être la projection sur une entité lexicale de consi-dérations sémantiques globales. Les sèmes devront donc avoir un rôle organisateur, et concrétiseront l’interprétation. Ceci leur accordera donc, dans leur ensemble, et pour un texte, une cohérence.
Malgré ces intentions exposées, le danger rôde toujours autour des sèmes, car de telles caractéristiques (surtout la deuxième) ne peuvent empêcher une profusion de leur énumération. Essentiellement, nous verrons que c’est la troisième caractéristique qui nous sauvera du naufrage. Le paradoxe que nous évoquions sera toujours présent dans une descrip-tion sémantique à base de sèmes. Ces entités inférieures au «mot» traduiront l’appartenance à une classe pour que se mettent en place les oppositions entre signifiés, et c’est leur présence qui traduira la donnée globale dont elles dé-pendent, le cercle reste donc toujours aussi fermé… Et pour en sortir, nul artifice, si ce n’est le recours à l’humain, ne gardant de cette description par des sèmes que son aspect formalisateur.

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *