Documente Academic
Documente Profesional
Documente Cultură
DOI : 10.4000/books.editionsmsh.7055
Éditeur : Éditions de la Maison des Édition imprimée
sciences de l’homme, Éditions Ophrys ISBN : 9782735110315
Année d'édition : 2004 Nombre de pages : 264
Date de mise en ligne : 4 juillet 2017
Collection : Cogniprisme
ISBN électronique : 9782735119233
http://books.openedition.org
Référence électronique
FUCHS, Catherine (dir.). La linguistique cognitive. Nouvelle édition [en ligne]. Paris : Éditions de la
Maison des sciences de l’homme, 2004 (généré le 17 août 2017). Disponible sur Internet : <http://
books.openedition.org/editionsmsh/7055>. ISBN : 9782735119233. DOI : 10.4000/
books.editionsmsh.7055.
Ce document a été généré automatiquement le 17 août 2017. Il est issu d'une numérisation par
reconnaissance optique de caractères.
La linguistique a été l'une des disciplines pionnières participant dès le milieu des armées 1950 au
« programme cognitiviste », conjointement avec la psychologie et l'intelligence artificielle.
Le présent ouvrage a pour objectif de présenter les problématiques théoriques, les recherches
actuelles et les acquis de la linguistique cognitive. La première partie de l'ouvrage est consacrée à
un panorama des principaux courants contemporains, qui se réclament de deux grands
paradigmes théoriques : d'une part, le paradigme classique du cognitivisme (appelé paradigme
computo-représentationnel symbolique), qui a été adopté par les « grammaires formelles », et
notamment par la grammaire chomskienne ; et d'autre part, un paradigme alternatif encore en
émergence (parfois appelé paradigme constructiviste), représenté principalement par les
« grammaires cognitives », mais auquel se rattachent également certains tenants de la
linguistique fonctionnaliste, ainsi que des approches typologiques et diachroniques des langues.
La seconde partie de l'ouvrage est consacrée aux interactions entre la linguistique cognitive et
d'autres disciplines des sciences cognitives abordant le langage non plus à partir de l'étude
spécifique de la structure et du fonctionnement des langues, mais en tant que faculté supérieure
de l'espèce humaine mise en œuvre par des sujets (c'est l'objet de la psycholinguistique),
donnant lieu à l'activation de certaines zones du cerveau (c'est l'objet de la
neuropsycholinguistique), et susceptible d'être simulée sur ordinateur (c'est l'objet de
l'intelligence artificielle).
CATHERINE FUCHS
Directeur de recherche au CNRS. Dirige le laboratoire « Langues, Textes, Traitements
informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII).
catherine.fuchs@ens.fr
2
SOMMAIRE
Les auteurs
Bibliographie
Glossaire
Index
4
Les auteurs
1 Jacques FRANÇOIS
Professeur à l’université de Caen. Dirige le « Centre de recherche inter-langue sur la
signification en contexte » (UMR 6170, CNRS/Caen). jacques.francois@crisco.unicaen.fr
2 Catherine FUCHS
Directeur de recherche au CNRS. Dirige le laboratoire « Langues, Textes, Traitements
informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris
VII).
catherine.fuchs@ens.fr
3 Jean-François LE NY
4 Professeur émérite à l’université de Paris-Sud. Groupe « Cognition Humaine » du
Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (UPR 3251,
CNRS/Université Paris XI, Orsay). http://jfleny@wanadoo.fr
5 Jean-Luc NESPOULOUS
6 Professeur à l’université de Toulouse-Le Mirail. Dirige le laboratoire Jacques Lordat (EA
1941) et l’Institut des Sciences du Cerveau de Toulouse (IFR 96). http://nespoulo@univ-
tlse2.fr
7 Alain PEYRAUBE
Directeur de recherche au CNRS et directeur d’études à l’École des hautes études en
sciences sociales, Centre de recherches linguistiques sur l’Asie Orientale (UMR 8563,
EHESS/CNRS, Paris). http://peyraube@ehess.fr
8 Alain ROUVERET
Professeur à l’université Paris 7-Denis Diderot. Laboratoire de « Linguistique formelle »
(UMR 7110, CNRS/Paris-VII).
http://alain.rouveret@linguist.jussieu.fr
9 Gérard SABAH
10 Directeur de recherche au CNRS. Laboratoire d’Informatique pour la Mécanique et les
Sciences de l’Ingénieur, (UPR 3251, CNRS/Université Paris XI, Orsay). http://
Gerard.Sabah@limsi.fr
11 Bernard VICTORRI
Directeur de recherche au CNRS. Laboratoire « Langues, Textes, Traitements
5
il était entendu que le linguiste étudie la « langue » (c’est-à-dire le code, envisagé alors
comme un phénomène social), indépendamment des sujets et des circonstances de la
« parole » individuelle. Dans l’approche chomskienne, où la linguistique est réputée
n’être en définitive qu’une branche de la psychologie, l’objet d’étude du linguiste (la
« compétence », entendue comme mécanisme génératif participant de l’équipement
biologique de l’espèce humaine) n’en reste pas moins distinct de l’objet d’étude du
psychologue (la « performance »). C’est précisément sur la base de distinctions de ce type
que se sont développées des sous-disciplines travaillant aux interfaces avec la
linguistique, comme la psycholinguistique (branche de la psychologie cognitive) ou la
neurolinguistique (branche des neurosciences cognitives) – qui tendent d’ailleurs
actuellement à se conjoindre en une neuropsycholinguistique.
actuels, après avoir été longtemps reléguée par le cognitivisme (Carruthers et Boucher
1998 : voir plus bas).
Enjeux et perspectives
26 Le bref retour historique qui vient d’être proposé permet de comprendre les origines des
diverses approches qui se réclament, à l’heure actuelle, de la linguistique cognitive. Pour
présenter ces approches, il serait tentant d’opposer frontalement, au plan théorique et
épistémologique, d’un côté celles qui participent du paradigme computo-
représentationnel symbolique, et de l’autre celles qui s’en démarquent : les premières
correspondant aux grammaires formelles, les secondes à la mouvance plus large
constituée autour des grammaires cognitives et des grammaires néo-fonctionnalistes.
Révélateurs à cet égard sont les deux titres d’ouvrages suivants : Langage et cognition :
introduction au programme minimaliste de la grammaire generative (Pollock 1997 : illustratif de
l’approche chomskienne) et An Introduction to Cognitive Linguistics (Ungerer et Schmid
1996 : illustratif de l’approche des grammaires cognitives).
27 Mais, à y regarder de près, on constate que la situation actuelle est beaucoup plus
nuancée et évolutive que ne le laisserait penser une telle présentation schématique. En
effet, un certain nombre de développements récents ont conduit à assouplir le paradigme
cognitiviste classique, comme en témoigne, par exemple, la relative diversification des
points de vue (pourtant tous issus de ce paradigme originel) exposés dans Dupoux (2002).
Deux types de facteurs ont contribué à cette évolution : des facteurs internes, liés à la
dynamique propre de l’élaboration théorique au sein de la discipline, et des facteurs
externes, liés au développement des autres sciences de la cognition et au dialogue
interdisciplinaire.
28 À l’intérieur de la linguistique, la plupart des propositions novatrices qui ont été avancées
récemment ont trait à la question de l’architecture des connaissances linguistiques et de la
modularité. Depuis plusieurs années, divers auteurs, bien que tenants d’une linguistique
cognitive « modulariste », plaident pour un mode d’organisation des modules du langage
différent de celui de la grammaire chomskienne, et remettent en question la place
centrale accordée au module syntaxique au sein d’une architecture en série. Ainsi Kiefer
(1995), tout en prônant une « linguistique cognitive modulaire étendue », envisage-t-il
l’interface avec la structure conceptuelle comme devant se faire, non pas simplement
avec le module sémantique, mais en parallèle avec chacun des trois modules constitutifs,
selon lui, de la grammaire (à savoir la syntaxe, la morphologie et la sémantique). De son
côté, Jackendoff (2002), tout en se situant explicitement dans une perspective cognitiviste
computationnelle, propose un modèle fondé sur une architecture parallèle tripartite, avec
une syntaxe (à base lexicale) réduite et deux modules phonologique et sémantique
beaucoup plus importants. Cette évolution d’une partie de la linguistique cognitiviste en
direction de calculs parallèles et distribués rappelle l’évolution comparable en matière de
traitement automatique de la langue dans le domaine de l’intelligence artificielle ; elle
n’est pas sans écho non plus du côté des neurosciences (où les études sur l’activité des
réseaux corticaux ont montré que ceux-ci forment des assemblées qui fonctionnent de
façon totalement distribuée), ni du côté de la psychologie (Fodor lui-même, défenseur
inconditionnel d’une modularité généralisée dans les années 1980, en est venu à tenir une
position beaucoup moins tranchée concernant l’autonomie et l’indépendance des divers
modules : cf. Fodor 2000). Quant aux tenants d’une approche « interactiviste », pour
14
communication), et que l’aire de Broca enregistre elle aussi les gestes des personnes avec
lesquelles un sujet humain communique (Rizzolati et al. 2002).
31 Une illustration tout à fait convaincante de la façon dont le dialogue interdisciplinaire
peut contribuer à réduire le fossé entre les deux grands paradigmes évoqués plus haut, se
trouve dans Carruthers et Boucher 1998 à propos de la question des liens entre le langage et
la pensée. Dans le chapitre introductif de ce recueil, les auteurs montrent comment, en
philosophie, en psychologie et en linguistique, deux thèses opposées au départ
(participant chacune de l’un des deux paradigmes) se sont trouvées rapprochées dans
maints travaux récents. La première (typique de l’option innéiste et modulariste du
paradigme classique), selon laquelle la pensée serait communicable indépendamment du
moyen de transmission – et donc du langage –, a été quelque peu bousculée par les
approches connexionnistes et les traitements parallèles distribués. La seconde (typique de
l’option « interactionniste » du paradigme émergent), d’après laquelle le langage serait la
condition nécessaire requise pour l’exercice de la pensée, a été elle aussi été remise en
question. Au total, une position « intermédiaire » affaiblissant les deux thèses initiales a
conduit à transcender l’opposition entre les deux : la pensée serait certes possible sans le
langage, mais le langage serait constitutivement requis dans la pensée, en ce sens qu’il
existerait une forme spécifiquement humaine de pensée construite à travers le langage (le
« thinking for speaking » de Slobin 1996, confirmé par ses expériences). C’est ainsi que
s’est trouvée réhabilitée par les recherches récentes en linguistique cognitive et dans les
disciplines connexes, cette vieille question philosophique, qui avait déjà reçu – on le
notera au passage – une réponse circonstanciée très comparable dans le cadre d’une
théorie linguistique pré-cognitive, la théorie « psycho-mécanique » de Guillaume (cf. son
ouvrage posthume de 1964) : la pensée, indépendante du langage, se saisirait elle-même
via la langue, et révélerait ainsi ses schèmes cognitifs (voir Valette 2003). Sous une forme
très différente, on retrouve là ce que certains neuroscientistes ont, depuis longtemps,
soutenu à l’encontre des tenants d’un strict « localisationnisme » : à savoir l’idée que c’est
l’ensemble du cerveau qui pense et qui raisonne, et que le langage constitue le moyen qui
permet à la pensée de se penser elle-même (voir Lecours et al. 1987).
32 Au point où elle en est arrivée aujourd’hui, la linguistique cognitive se doit de relever un
double défi : développer des modèles susceptibles d’être confrontés aux pratiques
expérimentales des disciplines connexes en sciences cognitives, tout en affermissant sa
posture théorique au sein même de la linguistique. S’il est clair que la linguistique
cognitive n’avait rien à gagner d’une crispation sur des positions dogmatiques et d’un
affrontement (souvent plus idéologique que véritablement scientifique) entre les deux
paradigmes évoqués plus haut, à l’inverse, elle n’a certainement rien à gagner non plus
d’un « effet de mode » laxiste qui conduirait à considérer comme approche cognitive du
langage « l’étude de la façon dont nous exprimons et échangeons des idées et des
pensées » (selon les termes de Dirven et Verspoor 1998), c’est-à-dire en définitive toute
entreprise onomasiologique ! En revanche, une réflexion ouverte tout à la fois aux acquis
des grandes théories de linguistique générale intégrables dans un modèle cognitif, et aux
apports de la linguistique cognitive pour les questions de linguistique générale, ne saurait
que profiter à la discipline.
16
langage sous un angle différent de celui des linguistes : non plus à partir de l’étude
spécifique du fonctionnement des langues, mais en tant que faculté supérieure de l’espèce
humaine, mise en oeuvre par des sujets, localisée dans certaines zones du cerveau, et
pouvant donner lieu à des simulations sur ordinateur.
40 L’article de Jean-François Le Ny introduit à la démarche du psychologue travaillant sur le
langage dans une perspective cognitive. La psycholinguistique, en tant que branche de la
psychologie cognitive, s’est constituée en plusieurs étapes historiques et est traversée par
divers grands courants théoriques, mais ce qui fonde cette (sous-) discipline, c’est la place
centrale qu’elle accorde à l’expérimentation pour aborder la question des bases
cognitives du langage dans l’esprit des locuteurs. Son objectif est en effet de spécifier
l’« architecture fonctionnelle » sous-jacente du langage, en s’attachant à l’étude des
représentations mentales (qui rendent possible l’existence du langage) et à celle des
processus mentaux (qui traitent le langage). Diverses techniques et méthodes
expérimentales sont utilisées pour étudier ces questions : qu’il s’agisse du recueil de
données sur des compétences linguistiques explicitement interrogées, ou surtout de
l’exploration indirecte d’activités internes implicites (comme par exemple le phénomène
« d’amorçage• ») par calcul des temps de réponse pour effectuer une tâche linguistique. La
position intermédiaire de la psychologie, dans le travail interdisciplinaire avec la
neurobiologie et la linguistique, apparaît ici clairement : pour tenter d’appréhender un
processus neurobiologique se produisant dans le cerveau (l’activation et sa propagation
dans des configurations de neurones, lors d’un amorçage) et censé affecter des
« représentations mentales » définies sur la base de significations linguistiques, le
psychologue observe et mesure un indice indirect, le temps de réponse. Les sous-
domaines de la psycholinguistique sont nombreux (acquisition du langage, production du
langage, troubles du langage, etc.), mais c’est plus particulièrement à la problématique de
la compréhension du langage que Jean-François Le Ny consacre la dernière partie de son
article. Si comprendre un énoncé c’est construire du sens, ce fonctionnement cognitif
repose sur un ensemble de processus largement automatiques et non-conscients, qui se
déroulent dans la mémoire de travail et engagent une série d’échanges entre perception
et mémoire à long terme (où, entre autres, les significations de mots sont supposées être
stockées dans un « lexique mental »). Pour les tenants des approches « interactionnistes »
aujourd’hui très répandues, la construction du sens procède par combinaison et
assemblage d’informations sémantiques complexes et diverses (informations issues des
connaissances lexicales mais aussi des données grammaticales, informations calculées par
inférences, informations extra-linguistiques livrées par la situation d’énonciation•).
41 L’article de Jean Luc Nespoulous présente les réflexions d’un neuropsycholinguiste
s’interrogeant sur les structures cérébrales ou réseaux neuronaux mobilisé(e)s lors du
traitement cognitif d’une composante de « l’architecture fonctionnelle du langage » dans
une activité langagière donnée ; son angle d’approche spécifique de cette problématique
de « l’architecture cérébrale » est celui des dysfonctionnements observés en pathologie
du langage. Chez les aphasiques, une lésion cérébrale focale induit des perturbations
sélectives, dont l’observation constitue une voie d’approche privilégiée des composantes
et sous-composantes (« modules ») de la faculté de langage qui, dans le fonctionnement
verbal normal, interagissent constamment et peuvent donc difficilement être
appréhendées de façon isolée. Trois grands types de phénomènes symptomatologiques
sont particulièrement recherchés en aphasiologie : les « doubles dissociations », les
« dissociations simples » et les « associations ». Le premier type correspond au cas où,
19
chez un sujet, une composante A (par exemple le traitement des noms) est perturbée et
une composante Β (par exemple le traitement des verbes) est préservée, alors que, chez
un autre sujet, A est préservée et Β perturbée. Ce cas semble privilégié pour conclure à
l’autonomie de A et de B, et donc pour conforter la thèse « modulariste » ; néanmoins la
variabilité des performances d’un même sujet selon la tâche (par exemple dénomination
ou discours continu), et surtout le manque de finesse des matériaux linguistiques
généralement utilisés (par exemple noms d’objets et verbes d’action) ne permettent pas
vraiment de tirer de conclusion définitive sur la nature exacte – syntaxique ou lexico-
sémantique – de la composante impliquée. Le second type (traitement d’un sous-
ensemble de phénomènes linguistiques ou d’une tâche A perturbé et d’un autre sous-
ensemble ou d’une autre tâche Β préservé, mais pas de dissociation inverse attestée)
permet de postuler, non pas l’existence de modules autonomes, mais des degrés de
complexité relative intra-modulaire ou inter-tâches. Le troisième type, quant à lui,
concerne les associations de plusieurs symptômes, intra-langagiers ou non (par exemple
aphasie et désorientation spatiale, ou aphasie et apraxie), qui posent la question cruciale
de savoir si l’on a affaire à plusieurs systèmes cognitifs distincts ou bien à un seul système
représentationnel profond commun à des domaines apparemment différents. La
problématique de la localisation de la « zone du langage » dans le cerveau a été
considérablement renouvelée ces vingt dernières années : l’activité linguistique apparaît
désormais comme largement distribuée, non seulement dans l’hémisphère gauche (sans
doute heu privilégié, sinon de la « grammaire », du moins du traitement des aspects les
plus formels du langage) mais aussi dans l’hémisphère droit (mobilisé pour traiter les
aspects les plus élaborés, y compris la pragmatique). En conclusion de son article, Jean-
Luc Nespoulous ouvre diverses pistes nouvelles auxquelles la recherche
neuropsycholinguistique devrait désormais s’ouvrir, comme par exemple observer la
gestion des éléments du lexique mental en contexte (et non plus isolés), étudier les
stratégies langagières palliatives des sujets cérébrolésés (mais aussi des sujets sains en
situation difficile), et prendre en compte les variabilités inter-sujets, inter-tâches et
même intra-tâche.
42 Enfin, l’article de Gérard Sabah propose un tour d’horizon des problèmes qui se posent au
spécialiste d’intelligence artificielle confronté au traitement automatique de la langue.
Après l’optimisme des débuts de l’intelligence artificielle au début des années 1950, qui
espérait pouvoir simuler par des programmes d’ordinateur tous les aspects de
l’intelligence humaine (et notamment l’activité de langage) en prenant appui sur la
théorie de l’information, et les premiers systèmes traitant les textes par mots-clés, la
question s’est très vite posée de savoir comment représenter les divers types de
connaissances (linguistiques et extra-linguistiques) nécessaires au traitement du langage.
Si les grammaires formelles, dans leurs nombreuses versions, ont pu fournir des bases
pour le traitement syntaxique, la nécessité de modèles sémantiques et discursifs s’est
rapidement fait sentir ; à cet égard, la diversité et l’hétérogénéité des sources
linguistiques auxquelles se sont alimentés les traitements automatiques mérite d’être
signalée. La nécessité de construire des systèmes robustes et totalement explicites impose
en effet des types des contraintes bien souvent ignorées des linguistes théoriciens, et
l’orientation récente vers le traitement de très gros corpus infléchit encore davantage les
travaux vers la recherche d’heuristiques efficaces. Par ailleurs, l’élaboration de systèmes
de communication homme-machine en langue naturelle oblige les concepteurs à prendre
en compte non seulement toutes les composantes linguistiques du message mais aussi le
20
contexte cognitif de l’humain qui dialogue avec la machine (ses attentes, ses
interprétations préférentielles, ses inférences, etc.). Dans cette perspective, la question de
l’architecture des systèmes et du mode de coopération des différents types de
connaissances revêt une importance primordiale. Au total, le paradigme symbolique,
constitutif du cognitivisme, et l’analogie postulée entre représentations mentales et
représentations de l’intelligence artificielle se trouvent questionnés dans diverses
réalisations récentes (systèmes multiagents, intelligence distribuée, systèmes hybrides
symboliques-connexionnistes, etc.).
43 Au terme de ce parcours, le lecteur aura – nous l’espérons – pu mesurer combien la
position pionnière occupée historiquement par la linguistique (conjointement avec la
psychologie et l’intelligence artificielle) au sein des sciences cognitives naissantes a
permis à cette discipline de renouveler profondément ses problématiques théoriques au
fil des ans, et de s’engager dans des collaborations inter disciplinaires fécondes visant à
explorer le fonctionnement du langage et des langues dans l’esprit et le cerveau humains.
NOTES DE FIN
1. Je remercie François Clarac, Daniel Kayser et Jean-Luc Nespoulous pour leurs remarques et
suggestions à la lecture d’une première version de cette présentation. Je dois en particulier à F.
Clarac les précisions historiques concernant le tournant cognitif des neurosciences, ainsi que la
référence aux travaux récents de Rizzolati.
AUTEUR
CATHERINE FUCHS
Directeur de recherche au CNRS. Dirige le laboratoire « Langues, Textes, Traitements
informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII).
21
1 En 1968, dans un recueil qui a fait date, Oswald Ducrot, Moustafa Safouan, Dan Sperber,
Tzvetan Todorov et François Wahl demandaient « Qu’est-ce que le structuralisme ? ».
Plusieurs livres collectifs posent aujourd’hui la même question pour les sciences
cognitives, l’un des plus récents étant celui d’Ernest Lepore et Zenon Pylyshyn, publié en
1999 et intitulé précisément « What is Cognitive Science ? ». Il existe une certaine
analogie entre les deux mouvements. Comme le structuralisme, le mouvement cognitif
regroupe dans un même projet plusieurs domaines disciplinaires. La linguistique figure
comme composante essentielle dans l’un et dans l’autre. Mais les disciplines partenaires
ne sont plus les mêmes – sciences humaines hier, sciences dures aujourd’hui. Le
développement du projet cognitif correspond en fait à un changement de perspective
majeur dans le paysage épistémologique, à une recomposition des champs disciplinaires
qui a une incidence directe sur le statut de la linguistique comme science.
2 Contrairement au structuralisme, ce programme a constitué d’emblée une entreprise
collective, impliquant plusieurs disciplines. On connaît l’importance de l’enjeu. Il s’agit de
parvenir à une meilleure connaissance du fonctionnement de l’esprit, à travers une
meilleure compréhension des différentes facultés qu’il développe et des systèmes de
connaissances qu’il maîtrise, des conditions de leur mise en œuvre, de leur acquisition,
éventuellement de leur origine. La spécificité du projet cognitif est de chercher à
atteindre cet objectif en convoquant toutes les disciplines susceptibles, potentiellement,
de jeter une lumière nouvelle sur les phénomènes mentaux et leur structure. C’est le cas
de l’informatique et de l’intelligence artificielle, puisque l’on peut utiliser les ordinateurs
pour simuler des processus habituellement attribués à l’intelligence humaine (il faut se
souvenir que le programme cognitif a émergé au début des années 1950 « dans un climat
fortement marqué par la naissance de l’informatique et le développement des notions et
des techniques de traitement formel de l’information », cf. Andler 1992). C’est aussi le cas
des neurosciences qui, depuis leur entrée en scène dans les années 1980, ont permis des
progrès considérables dans notre compréhension du fonctionnement et de l’architecture
23
ne peut être une réduction. Le fait, révélé par les techniques nouvelles d’imagerie
cérébrale fonctionnelle, que les écarts par rapport aux principes généraux de la
grammaire ont pour corrélats des comportements particuliers dans l’activité électrique
du cerveau ne signifie pas que les phénomènes linguistiques doivent être expliqués en
termes neurologiques. Nul ne sait à ce jour comment les propriétés qui semblent être
définitoires des langues naturelles – caractère combinatoire, infinité discrète,
dépendance structurale – sont implantées physiquement dans les structures cellulaires et
neuronales. Et les questions phonologiques, morphologiques, syntaxiques ou sémantiques
qui constituent le fonds commun des recherches linguistiques – les pluriels brisés de
l’arabe, le système casuel de l’islandais, le déplacement de l’objet dans les langues
germaniques, la généricité – n’auraient aucune place dans un programme à orientation
neurologique.
11 La linguistique peut donc s’articuler au projet cognitif sans se confondre avec celles des
sciences dures qui, comme la neurolinguistique, sont spécifiquement intéressées au
langage. Cette conclusion rejoint la conception qui sous-tend le projet cognitif dans son
essence. Chaque discipline partenaire possède déjà son objet et ses méthodes
d’investigation propres et, pour aucune, il n’est question de fondation ou de refondation.
Ce qui est demandé à chacune, c’est au contraire de contribuer, dans la mesure de ses
ressources, à faire du fonctionnement de l’esprit une question empirique.
12 Dans ce qui suit, je m’attacherai à montrer que les grammaires formelles• définissent des
modèles adéquats de la cognition linguistique. Sous cette étiquette, on peut regrouper les
différents modèles chomskiens qui se sont succédé depuis Aspects of the Theory of Syntax
(1965) jusqu’au Programme Minimaliste (The Minimalist Program, 1995), ainsi que les
grammaires dites d’unification• qui se sont développées depuis le début des années 1980.
C’est dans les textes de Chomsky que l’ancrage cognitif de la théorie linguistique est le
plus nettement affirmé, c’est donc à eux que je me référerai dans cet essai. Je ferai surtout
porter l’effort sur le modèle des Principes et Paramètres et sur le Programme
Minimaliste. Il s’agira de montrer comment est conçue dans les grammaires génératives•
l’articulation du grammatical et du cognitif, d’évaluer l’apport de la linguistique
chomskienne à la réflexion• cognitive (plutôt que de faire comme si cet apport allait de
soi), mais aussi de déterminer si les questions rendues accessibles par la linguistique
chomskienne et les résultats qu’elle a obtenus sont à la portée de la recherche cognitive
ou au contrainte hors de son atteinte.
La Grammaire Universelle
15 Chomsky n’a cessé de répéter dans ses écrits que la rapidité et l’uniformité du processus
d’apprentissage, ainsi que l’exceptionnelle complexité de ce qui est appris, ne peuvent
être pleinement expliquées sans l’hypothèse d’un équipement inné préspécifié. L’une des
premières formulations de cette idée se trouve dans son ouvrage publié en 1965, Aspects of
the Theory of Syntax :
« Il semble évident que l’acquisition linguistique est fondée sur la découverte par
l’enfant de ce qui, d’un point de vue formel, constitue une théorie profonde et
abstraite une grammaire générative de sa langue – dont les concepts ne sont reliés
à l’expérience que de loin, par des chaînes longues et complexes d’étapes
inconscientes de type quasiment déductif. (...) tout cela [les propriétés du processus
d’apprentissage] ne permet pas d’espérer que la structure de la langue puisse être
apprise par un organisme qui ne disposerait d’aucune information préalable sur son
caractère général. » (Chomsky 1971 : 83-84).
16 À cette information préalable, Chomsky donne dans Aspects le nom de Grammaire
Universelle (Universal Grammar). D’abord définie comme l’ensemble des caractéristiques
partagées par toutes les langues et qui, de ce fait, n’ont pas besoin d’être mentionnées
dans les grammaires particulières, la Grammaire Universelle (abrégé en G.U.) en vient
très vite à désigner l’« état initial » de l’apprenant, la structure cognitive « instinctive »
servant de base à l’acquisition, qui fait que l’enfant, plongé dans un environnement
linguistique, n’a d’autre choix que d’apprendre à parler et qui, conjointement, explique
que les langues partagent les propriétés qu’elles partagent.
17 Pour se faire une idée plus exacte de la nature et de la forme de G.U., c’est-à-dire des
hypothèses initiales sur la nature du langage avec lesquelles l’enfant aborde
l’apprentissage, on doit considérer les caractéristiques de ce qui est appris. On sait par
exemple que les langues humaines ont un caractère doublement articulé, que ce sont des
organisations hiérarchiquement structurées qui s’expriment en linéarité et en
successivité, que les opérations qui les affectent sont crucialement dépendantes de la
structure et obéissent à des contraintes de localité, qu’elles distinguent les verbes et les
noms... On peut concevoir G.U. comme un ensemble structuré de règles et de principes,
préspécifiant la forme des grammaires possibles et incorporant une information
minimale sur ce que sont les langues naturelles. On sait que, dès Aspects, Chomsky
proposait de distinguer deux types d’universaux linguistiques, les universaux de
substance qui renvoient aux matériaux basiques dont sont faites les langues, les traits
distinctifs de la phonologie, les parties du discours de la syntaxe, matériaux sans lesquels
aucune langue naturelle ne peut être construite, et les universaux formels, répertoire de
règles et de principes qui déterminent l’architecture générale du dispositif grammatical
et le fonctionnement des dérivations•.
18 En même temps, s’il est clair que G.U. doit être structurée, la diversité même des langues
exclut que cette structure soit trop spécifiée. Dans le cas contraire, l’enfant rencontrerait
constamment dans la langue à laquelle il est exposé des phénomènes hors d’atteinte des
27
règles et des principes mis à disposition par G.U. (sur ce point, voir par exemple Chomsky
1971 :46). L’hypothèse que fait sienne le modèle des Principes et Paramètres est que les
langues sont moins différentes les unes des autres qu’elles ne paraissent, qu’elles
partagent infiniment plus que la « double articulation » et que ces propriétés partagées
ont le statut d’universaux linguistiques. On est évidemment là aux antipodes de l’idée de
l’infinie variabilité des langues humaines soutenue par les fonctionnalistes, par Martinet
(1960) en particulier.
19 Si les principes capturent ce qu’il y a d’universel dans le langage, ce sont les paramètres
qui, dans ce modèle, caractérisent l’espace restreint dans lequel s’inscrit la variation
possible. Les principes sont essentiellement inviolables et rigides, les choix paramétriques
définissent des mesures d’accompagnement protocolaires, déterminant dans chaque
système comment tel ou tel principe est mis en œuvre.
20 Les paramètres isolés au début des années 1980 – le paramètre du « sujet nul » caractérisé
par Rizzi (1982), le paramètre directionnel associé au marquage casuel et au marquage
thématique proposé par Travis (1984), celui qui distingue entre les langues où le
mouvement des expressions interrogatives est explicite et celles où il intervient en Forme
Logique• et n’est donc pas manifesté par une modification de l’ordre linéaire (Huang 1982)
– illustrent bien le fonctionnement de la notion dans l’économie générale de G.U. Un petit
nombre de paramètres fondamentaux fixés différemment dans des systèmes linguistiques
relativement proches peuvent entraîner des variations considérables entre ces systèmes.
Quand la valeur d’un paramètre est fixée, la riche structure déductive de G.U. permet de
dériver tout un réseau des propriétés corrélées. Dans cette approche, les données
comparatives et typologiques permettent de préciser les limites relativement étroites
dans lesquelles s’inscrit la variation et, du même coup, d’accéder à l’invariant, c’est-à-dire
de préciser le contenu des principes universels.
21 Très tôt, cependant, la caractérisation des paramètres comme des dimensions de
variation attachées aux principes syntaxiques est apparue comme à la fois trop restrictive
et trop lâche. Dès 1984, Borer a suggéré que la variation paramétrique affecte
exclusivement le système flexionnel• des langues et que les paramètres sont attachés aux
morphèmes et aux mots fonctionnels individuels, comme partie intégrante de
l’information contenue dans leur entrée lexicale. Cette approche est dotée d’un pouvoir
explicatif potentiellement plus grand que la précédente puisqu’elle localise la variation
dans une propriété définitoire des langues naturelles, l’existence sur les mots fléchis
d’une morphologie nominale et verbale. Elle est aussi plus restrictive puisqu’elle exclut la
possibilité qu’un paramètre ne soit pas la propriété d’un trait d’un élément contenu dans
le lexique•. Chomsky et Lasnik (1993) développent la même idée en posant que les
paramètres sont exclusivement associés aux têtes fonctionnelles, c’est-à-dire aux
catégories qui codent les spécifications de temps, de mode, de personne, de nombre, de
définitude des domaines flexionnels, proposition et groupe nominal. De fait, la dimension
fonctionnelle/morphologique est directement impliquée dans un phénomène découvert
par Emonds (1978) et réanalysé par Pollock (1989), celui du site de réalisation variable du
verbe en fonction de la langue et du type propositionnel. Ces deux auteurs, en comparant
la distribution des modificateurs adverbiaux dans les propositions finies du français et de
l’anglais, ont montré que les formes verbales fléchies occupent dans l’arborescence des
28
positions plus hautes dans les langues dotées d’une flexion riche (c’est le cas du français,
qui sur ce point se comporte comme les langues romanes à sujet nul disposant d’une
forme distincte aux six personnes de la conjugaison) que dans celles où la morphologie
d’accord est pauvre ou absente (c’est le cas de l’anglais). Les énoncés suivants montrent
que certains adverbes s’intercalent entre le verbe et l’objet en français, mais pas en
anglais où, par contre, ils apparaissent entre le sujet et le verbe :
(4) a. Jean rencontre souvent Marie dans les cafés
b. *John meets often Mary
c. *Jean souvent rencontre Marie dans les cafés
d. John often meets Mary
22 Plutôt que de supposer que la position de l’adverbe varie d’une langue à l’autre, les
auteurs font l’hypothèse que c’est le site de réalisation du verbe qui change dans une
configuration structurale et catégorielle qui pour l’essentiel demeure invariante.
Admettons que la structure fonctionnelle de la proposition inclue une catégorie Temps
(T), intermédiaire entre le domaine lexical qui coïncide avec le groupe verbal, et la
périphérie, site de réalisation des marqueurs de subordination et des interrogatifs. Si les
adverbes qui, comme souvent, quantifient l’événement sont insérés à la périphérie gauche
du groupe verbal, (4) indique qu’en français le verbe fléchi se déplace au-delà de l’adverbe
pour s’adjoindre à T, alors qu’en anglais il conserve sa position originelle.
(5) a. [Jean T [souvent [rencontre Marie]]]
b. [Jean rencontre + T [souvent [t Marie]]]
(6) [John T [often [meets Mary]]]
23 Pollock (1989) établit que la distribution de la négation dans les deux langues, distincte de
celle des adverbes, et la prise en compte des infinitives où ces distributions sont
différentes de ce qu’elles sont dans les propositions finies imposent de conclure à
l’existence de deux têtes fonctionnelles distinctes dans le domaine flexionnel, que l’on
peut identifier comme Temps (T) et Accord (Agreement, abrégé en Agr). (7) reprend la
structure fonctionnelle de la proposition adoptée par Belletti (1990), dans laquelle Agr est
plus haute que Τ :
(7) [... C [... Agr... [Neg [... Τ [... V...]]]]]
24 En français, le verbe lexical• peut conserver sa position originelle V ou accéder à la
catégorie Τ dans les infinitives. Dans les propositions finies, il précède le marqueur de
négation pas et est réalisé dans Agr. Dans les interrogatives directes, il monte dans la
périphérie de la proposition jusqu’à C. En anglais, le verbe lexical (contrairement aux
auxiliaires) ne quitte jamais le domaine lexical. Cette analyse suppose que la structure
fonctionnelle des propositions est uniforme d’une langue à l’autre et d’un type
propositionnel à un autre et inclut les mêmes catégories organisées suivant la même
hiérarchie. Dans les structures où le verbe lexical est réalisé en surface dans T, dans Agr
ou dans C, il est nécessaire de définir une opération de mouvement de tête, affectant V et
l’adjoignant aux catégories supérieures. Les variations observées reflètent des variations
dans l’espace syntaxique parcouru par le verbe déplacé.
25 Ce type d’approche a été étendu à l’étude de la structure interne du groupe nominal,
désormais analysé comme une projection de la catégorie fonctionnelle D (Déterminant) et
incluant une tête intermédiaire entre D et N, la catégorie Nombre (Ritter 1991). C’est,
dans ce cas, la distribution des épithètes adjectivales qui sert de révélateur de la position
occupée par la tête nominale. La variation observable dans la position du nom à
l’intérieur de l’expression nominale – en anglais, le nom suit systématiquement tous les
29
modificateurs adjectivaux ; dans les langues celtiques, il les précède tous à quelques
exceptions près ; dans les langues romanes, il s’intercale dans les séquences adjectivales –
peut être ramenée à une différence dans la portée du mouvement du nom (Cinque 1994 ;
Longobardi 1994 ; Rouveret 1994).
26 La distribution des arguments• nominaux dans différents types de langues et dans
différents types de propositions se prête au même type d’analyse. On peut montrer par
exemple que dans les langues celtiques, langues VSO, l’argument sujet quitte bien sa
position originelle interne au groupe verbal, mais parcourt un espace syntaxique plus
restreint qu’en français : il occupe le spécificateur de T, non celui de Agr. Par contre,
comme en français, la tête verbale atteint la tête• flexionnelle la plus haute Agr. L’ordre
linéaire résultant est donc VSO (Rouveret 1994). Dans certaines constructions contenant
un auxiliaire, le verbe et l’argument objet forment manifestement un constituant, ce qui
confirme à la fois la généralité du schéma propositionnel (7) et l’hypothèse que dans les
séquences VSO, la position initiale du verbe résulte d’un déplacement.
27 L’étude par Rizzi (1997) de la périphérie gauche de la proposition a révélé qu’elle
constitue elle aussi un domaine relativement complexe, hautement structuré et associant
plusieurs projections fonctionnelles articulées hiérarchiquement – les projections des
têtes que Rizzi baptise Finitude, Topique, Focus, Force–, et que ces ressources
catégorielles sont disponibles dans des systèmes linguistiques typologiquement
différents, comme le révèlent la morphosyntaxe des complémenteurs•, la distribution des
adverbes « topicalisés », la place du verbe dans les propositions finies des langues
germaniques, la syntaxe des interrogatives dans les langues romanes... Enfin, Cinque
(1999) pousse la logique de cette approche à ses plus extrêmes conséquences et identifie
dans la structure de la proposition autant de catégories fonctionnelles que de classes
d’adverbes – chaque adverbe occupant le spécificateur de la tête correspondante.
28 Les résultats empiriques considérables accumulés par la syntaxe paramétrique depuis une
vingtaine d’années constituent un progrès essentiel dans la connaissance du langage et
dans la caractérisation du savoir linguistique tacite des individus. Comme nous le verrons
plus loin, ce sont aussi ces résultats qui servent de base à la théorisation minimaliste.
relativement riche comme le français que dans une langue où la morphologie verbale est
quasiment absente, comme l’anglais. Dans cette perspective, un lien direct est établi
entre, d’une part, la collection de catégories fonctionnelles et les ressources
morphologiques dont dispose une langue L et, d’autre part, la structure en constituants et
l’ordre des mots observables dans L. Les différences dans l’ordre des mots résultent de la
capacité variable qu’ont les différentes catégories fonctionnelles de déclencher le
mouvement, propriété elle-même déterminée pour une part par les affixes
morphologiques abrités par ces catégories.
30 Mais on notera, touchant les phénomènes évoqués, des situations de décalage. Des
langues qui ont les mêmes ressources morphologiques peuvent avoir des syntaxes
différentes. L’allemand dispose de paradigmes verbaux aussi riches que ceux de l’italien,
mais le verbe conserve sa position d’origine dans les subordonnées. Inversement, des
langues qui disposent de ressources morphologiques différentes peuvent avoir des
syntaxes identiques – le verbe a la même syntaxe en allemand et dans les langues
Scandinaves continentales où il n’est spécifié ni pour le nombre, ni pour la personne. Le
pouvoir explicatif de l’approche paramétrique dépend donc de la possibilité de replacer
ces phénomènes d’interaction entre syntaxe et morphologie dans une perspective
théorique plus large, rendant pleinement explicite la nature de cette interaction et
apportant en particulier une réponse à la question suivante :
(8) Les propriétés morphologiques d’une langue L
déterminent-t-elles les processus syntaxiques dans L
ou sont-elles le réflexe de ces processus ?
31 La question posée touche aux fondements mêmes de la faculté de langage. Des
corrélations entre variation syntaxique et variation morphologique sont observables dans
le domaine de la typologie, de la comparaison et de la diachronie. Mais ces corrélations
doivent-elles être interprétées comme une indication forte que les opérations
syntaxiques, les déplacements en particulier, sont motivées par la nécessité de satisfaire
les exigences morphologiques des différents éléments qui composent la phrase, comme le
supposent l’approche paramétrique et le Programme Minimaliste ? Ou, au contraire, sont-
elles mieux interprétées dans les termes d’une théorie qui considère la morphologie
comme étant non pas la cause, mais le réflexe des opérations syntaxiques ?
Contrairement à la conception selon laquelle la syntaxe est « guidée » (driven) par la
morphologie, la seconde théorie, défendue par Bobaljik (2000), est compatible avec des
situations dans lesquelles une variation syntaxique se laisse observer en l’absence de
toute variation morphologique. Il existe dans les langues de nombreux exemples de cette
situation. Ainsi, rien ne distingue la morphologie verbale du portugais européen de celle
des autres langues romanes à sujet nul. Pourtant, la syntaxe de la cliticisation en
portugais européen diffère sensiblement de celle des langues voisines3.
Paramètres et acquisition
32 J’ai rappelé au début de cette section quelle est la solution proposée par le modèle des
Principes et Paramètres pour résoudre le problème logique de l’acquisition du langage et
le rôle décisif joué par la notion de paramètre dans l’explication. La destination première
de la notion de paramètre est d’opérer le départ entre ce que l’enfant n’a pas à apprendre
parce qu’il le sait déjà (sans savoir qu’il le sait) et ce qu’au contraire il doit acquérir pour
construire la grammaire de sa langue. L’idée qui sous-tend cette présentation est que
31
initialement proposés soit ne constituent pas des dimensions de variation unitaires, soit
ne correspondent pas à des dimensions primitives. Le premier cas est illustré par la
propriété « sujet nul ». Il existe des langues dans lesquelles le verbe est uniformément
dépourvu de morphologie personnelle, mais qui néanmoins possèdent cette propriété –
c’est le cas du chinois et d’autres langues de l’Asie orientale. Cette situation montre que la
richesse de la flexion verbale ne peut être la seule dimension impliquée dans le
phénomène et que d’autres propriétés – syntaxiques celles-là – jouent un rôle
discriminant. Le deuxième cas est illustré par le « paramètre de la tête », évoqué plus
haut, fixant dans chaque domaine la position de la tête par rapport à son complément.
Dans un travail de grande portée, Kayne (1994) propose une théorie de la structure en
constituants, la théorie de l’antisymétrie, dans laquelle l’organisation hiérarchique des
catégories détermine intégralement l’ordre linéaire des éléments lexicaux
correspondants. Il intègre à sa théorie un axiome de correspondance linéaire qui garantit
que si α c-commande asymétriquement β, alors α précède ß. Située dans une perspective
cognitiviste, cette hypothèse a une importance considérable puisqu’elle réduit de façon
appréciable le nombre d’options structurales que l’enfant doit considérer dans l’analyse
des séquences. Mais elle a pour nous un intérêt plus immédiat puisqu’elle implique que
des ordres linéaires différents recouvrent toujours des structures hiérarchiques
différentes. Ainsi, les configurations VO et OV ne sont pas structuralement identiques.
Kayne suppose que toutes les langues présentent un ordre sous-jacent spécificateur-tête-
complément. Dans le cas qui nous intéresse, cela signifie que les configurations VO sont
basiques, alors que les configurations OV sont dérivées et mettent au moins en jeu un
déplacement du complément par-dessus le verbe. On sait par exemple qu’en japonais les
expressions interrogatives n’occupent pas la position initiale de proposition et que les
éléments complémenteurs sont réalisés en position finale. Kayne propose que la
deuxième propriété résulte du déplacement dans le spécificateur de la catégorie C de la
proposition complément. Si c’est le cas, les expressions interrogatives ne sauraient être
réalisées dans le spécificateur de C, qui est occupé par la proposition elle-même. En bref,
l’ordre complément + verbe, illustré par le japonais, le turc, est selon Kayne corrélé à des
choix morphologiques et dérivationnels spécifiques. Il n’existe pas de « paramètre de la
tête », mais plutôt un ensemble complexe de facteurs syntaxiques et morphologiques qui
conspirent pour déclencher le déplacement du complément par-dessus la tête qui le
sélectionne.
36 Certains auteurs maintiennent que, pour rendre compte de l’étendue effective de la
variation, la théorie doit accueillir conjointement les notions de macroparamètre et de
microparamètre. Les premiers conservent toute leur puissance explicative lorsqu’on
étudie des langues typologiquement éloignées et non reliées génétiquement. Au
contraire, on a toutes les chances de découvrir des microparamètres lorsqu’on compare
des dialectes proches les uns des autres qui, par définition, ont fait les mêmes choix
macroparamétriques. Baker (1996) soutient qu’il existe un paramètre unique isolant les
langues polysynthétiques de toutes les autres. Une question analogue se pose pour le
paramètre configurationnel/non configurationnel, proposé jadis par Ken Hale. Touchant
le second, je crois que le scepticisme est de mise et qu’une langue que l’on est tenté de
caractériser comme non configurationnelle est simplement une langue que l’on n’a pas
encore suffisamment analysée.
37 Inversement, on peut admettre que la seule notion syntaxiquement pertinente est celle
de microparamètre et que, très générale ment, plusieurs microparamètres interviennent
33
dans l’explication des macropropriétés. Plusieurs travaux récents sur les langues romanes
médiévales ont montré par exemple que la phénoménologie V2 « romane » ne coïncidait
pas avec celle qui s’observe dans les langues germaniques contemporaines, la seule
caractéristique absolument commune étant l’existence d’une « inversion germanique »
plaçant le sujet immédiatement derrière le verbe fini lorsque la position initiale est
occupée par un autre élément. D’autres dimensions sont incluses dans la caractérisation
classique du paramètre V2 germanique, qui apparaît ainsi relever d’une concomitance de
facteurs non spécifiques. Chacune de ces autres dimensions pourrait être endossée par un
microparamètre.
Une autre caractéristique de la faculté de langage est que les deux pôles qu’elle relie, celui
du son et celui du sens, se trouvent eux-mêmes à l’interface avec d’autres facultés
cognitives, le système acoustique-articulatoire et le système cognitif-intentionnel. Il est
légitime de se demander si ces deux conditions d’adéquation externes – la nécessité de
dériver une représentation phonétique décodable par le système articulatoire et une
représentation sémantique interprétable par le système conceptuel – ne sont pas ce qui
détermine pour une bonne part les caractéristiques internes de l’objet et, par suite, la
forme de la théorie adéquate.
41 La thèse minimaliste forte consiste à poser que les grammaires des langues naturelles
représentent effectivement des solutions optimales à la fois au problème de l’association
du son et du sens et de la mise en relation de la faculté de langage avec les deux autres
capacités cognitives avec lesquelles elle se trouve en relation d’interface.
42 En d’autres termes :
(9) Le langage est un système configuré de façon optimale pour connecter entre
elles des représentations phonétiques lisibles par le système acoustique-
articulatoire et des représentations sémantiques lisibles par le système cognitif-
intentionnel.
43 La syntaxe minimaliste elle-même est conçue comme un mécanisme computationnel,
contraint exclusivement par des principes d’économie qui ont pour effet de limiter les
options possibles aux opérations qui sont les moins coûteuses et, en même temps,
permettent de créer des structures convergentes. Elle n’invoque que des règles et des
opérations dont la présence est imposée par des considérations d’interface ou par
l’hypothèse que le langage est configuré de façon optimale.
44 Cette approche, comme le souligne Uriagereka (1999), tranche avec la conception
fonctionnaliste. Là où le fonctionnalisme demande si le langage est organisé de façon
optimale à des fins de communication, le minimalisme demande si le langage est organisé
de façon optimale pour décrire l’interaction avec les autres systèmes cognitifs. Elle
tranche aussi avec celle qui est défendue dans le modèle des Principes et Paramètres
puisqu’elle implique qu’une grammaire satisfaisant de façon optimale les conditions
d’adéquation descriptive et explicative n’est pas nécessairement la plus adéquate. Une
grammaire ne peut être pleinement évaluée sans que soit prise en compte sa capacité à
satisfaire les conditions imposées par les autres systèmes cognitifs avec lesquels elle est
en relation d’interface. En d’autres termes, des écarts sont possibles par rapport à ce
qu’impose la nécessité conceptuelle, mais ces écarts doivent être motivés par les
conditions d’interface imposées par l’extérieur.
45 Son caractère radical rend difficile l’évaluation de la thèse minimaliste forte. Chomsky
prend soin de souligner que le minimalisme n’est pas (encore) une théorie, seulement un
programme définissant une stratégie de recherche. Cette stratégie consiste à débusquer
et à éliminer de l’appareillage théorique complexité et stipulations, à rechercher les
configurations ou les connexions « parfaites » et à contrôler et valider l’argument de la
nécessité conceptuelle posant que, toutes choses égales par ailleurs, le langage a
exclusivement recours à des procédés qui permettent de connecter le son et le sens6.
46 Pour que la notion de perfection appliquée au langage ne soit pas empiriquement vide, il
convient d’identifier les imperfections possibles. Et de fait, le langage semble bien, au
35
premier abord, renfermer des imperfections, petites ou grandes. Au nombre des petites,
on doit compter diverses redondances, le fait par exemple que dans les formes
morphologiquement complexes, une seule et même dimension flexionnelle puisse avoir
plusieurs réalisations morphologiques.
47 En grec ancien, la dimension « parfait » a dans la forme lé-lu-ka trois exposants distincts.
Inversement, certaines formes sont ambiguës au sens où elles peuvent réaliser
morphologiquement plusieurs dimensions. C’est le cas par exemple du latin insul-is qui
recouvre à la fois le datif et l’ablatif pluriel de insula « île ». D’autres aspects de la
morphologie flexionnelle – existence de verbes irréguliers, présence de systèmes casuels
morphologiques extraordinairement complexes dans certaines langues, absence totale de
marques casuelles dans d’autres – paraissent difficilement conciliables avec la nécessité
conceptuelle et ne peuvent guère être pris en compte par des conditions d’interface.
L’existence même de la morphologie flexionnelle, c’est-à-dire la présence d’affixes de
personne et de nombre sur les verbes et de marques de nombre et de cas sur les noms,
semble être une imperfection majeure, en même temps qu’une propriété définitoire des
langues naturelles.
48 Une seconde caractéristique paraissant constituer une imperfection manifeste concerne
le site de réalisation des expressions nominales : celles-ci peuvent en effet ne pas être
réalisées dans les positions où elles reçoivent leur interprétation thématique. On peut de
ce point de vue opposer les énoncés suivants :
(10) a. Il semble que Pierre parle le chinois couramment,
b. Pierre semble parler le chinois couramment.
(11) a. Cicéron a écrit cette lettre en 52 avant J.-C.
b. Cette lettre a été écrite par Cicéron en 52 avant J.-C.
49 Les deux membres de chaque paire partagent la même valeur de vérité. Mais dans les
exemples (b), Pierre et cette lettre n’occupent pas la position qui leur confère un rôle
thématique, alors qu’ils l’occupent dans les exemples (a). Pourquoi les langues disposent-
elles conjointement de ces deux types de structures ? Et si la mise en relation des
structures (b) avec les structures (a) est assurée par une opération de déplacement,
pourquoi les langues ont-elle recours à un procédé qui semble ne pas être
conceptuellement motivé ?
50 Touchant la première imperfection, Chomsky observe que le statut d’un affixe
morphologique varie selon la catégorie lexicale à laquelle il est attaché. Il faut distinguer
par exemple la marque de nombre apparaissant sur les noms et celle qui apparaît sur les
verbes et les adjectifs. La première n’est pas une imperfection puisqu’elle véhicule un
contenu sémantique – elle dénote la pluralité et contribue de ce fait à la construction de
la référence ; la seconde est redondante puisqu’elle ne fait que redupliquer la première.
Des remarques analogues valent pour les cas dans les langues qui disposent d’un système
de cas morphologiques. Dès Lectures on Government and Binding, Chomsky (1981) avait
observé que le datif, l’ablatif, les autres cas obliques ne doivent pas recevoir le même
statut que le nominatif et l’accusatif. Les premiers sont des cas inhérents, les seconds des
cas structuraux. La réinterprétation minimaliste de cette opposition est que les premiers
sont sémantiquement interprétables, puisqu’ils manifestent le rôle thématique du nom
qui les porte et, du même coup, lui confèrent un rôle syntaxique. Les seconds ne le sont
pas et constituent de fait des imperfections. Mais – et c’est là exactement la position de la
grammaire traditionnelle–, ils permettent de construire ou de manifester une relation
entre deux termes. Sur ce point, ils remplissent un rôle analogue aux marques de nombre
36
évoquées plus haut qui, attachées aux verbes et aux adjectifs, constituent des marques
d’accord non interprétables, mais permettant la construction d’une relation avec des
entités sur lesquelles ces dimensions sont interprétables.
51 Ce qu’indique la discussion précédente, c’est que certaines dimensions flexionnelles
peuvent être interprétables ou ne pas l’être, et que leur interprétabilité dépend de la
catégorie sur laquelle elles sont réalisées. Admettons qu’une représentation d’interface
est mal formée si elle contient des objets non interprétables au niveau concerné (F.P ou
F.L.)7. Ces traits devront donc nécessairement être éliminés avant que la dérivation
n’atteigne le niveau d’interface pertinent.
52 La proposition de Chomsky est que, si l’on raisonne dans ces termes, il est possible de
réduire les deux imperfections mentionnées précédemment à une seule. Le mouvement
est par excellence la stratégie permettant d’établir une relation entre deux objets. Il
permet donc de placer les traits non interprétables au contact des traits interprétables
qui leur correspondent et donc de vérifier et d’éliminer les premiers au moyen des
seconds. On se souvient que dans cette approche, la notion d’interprétabilité aux
interfaces joue un rôle crucial. L’hypothèse avancée est que les déplacements syntaxiques
sont motivés par la nécessité d’éliminer les traits non interprétables. Les cibles des
déplacements sont identifiées par le fait qu’elles portent de tels traits. Les imperfections
constatées ont donc une fonction computationnelle.
53 Le déplacement, tel qu’il vient d’être caractérisé, représente la solution optimale au
problème suivant : comment assigner deux types de propriétés à la même expression, des
propriétés sémantiques (thématiques) et des propriétés syntaxiques (grammaticales et
informationnelles) ? Dans les structures suivantes (où les sites d’origine contiennent une
trace du terme déplacé, symbolisée t) :
(12) a. [Jean] est arrivé [t]
b. [Jean] est facile à contenter [t]
54 On peut poser que la position la plus basse est exclusivement dédiée à la propriété
Patient, la plus haute à la propriété Sujet/Topique. Le déplacement de la première dans la
seconde est une opération permettant d’associer au même argument ces deux
caractéristiques – en fait une opération de « dernier recours », car la seule qui permette
de dériver le résultat cherché. Techniquement, le déplacement sera déclenché par la
nécessité d’éliminer les traits non interprétables attachés à la catégorie d’accueil.
Adoptons une représentation propositionnelle simplifiée dans laquelle la catégorie T est
l’unique tête fonctionnelle du domaine flexionnel et posons que T est doté d’un trait de
Cas [nominatif] et du trait [EPP] qui note la propriété Sujet/Topique, l’un et l’autre
ininterprétables sur cette catégorie. Seul le déplacement du contenu argumental Jean
dans le spécificateur de T permet de satisfaire ces deux traits et donc de les éliminer.
55 En bref, si l’on poursuit la logique minimaliste, on doit conclure que les imperfections du
code linguistique – apparition de marques morphologiques là où elles ne sont pas
interprétables, occurrence des arguments nominaux dans des positions autres que celles
où ils reçoivent leur interprétation thématique – cessent d’être des imperfections
lorsqu’on les replace conjointement dans le fonctionnement global du système
linguistique.
37
La forme du dispositif
d’une tête à une autre tête (par exemple, l’adjonction d’une racine verbale à un affixe de
temps), qui n’étend pas la structure, soit une opération syntaxique.
61 En résumé, dans le Programme Minimaliste, les structures syntaxiques sont construites
au moyen d’une dérivation qui inclut un mécanisme pour mettre en place la structure en
constituants (Merge) et un mécanisme pour dériver les dépendances syntaxiques (Move) 8.
Sans entrer plus avant dans le détail, on voit en quoi cette approche à la formation des
structures se distingue des précédentes. Il y a mise en œuvre simultanée du lexical, du
structural et du relationnel. On ne postule plus un cadre syntaxique vide, constitué par un
ensemble de positions syntaxiques catégoriellement étiquetées et hiérarchiquement
ordonnées, dans lequel seraient insérées, puis déplacées, les unités lexicales. Une position
n’est créée qu’au moment où l’item lexical qui lui correspond est combiné avec un autre
item ou avec une structure déjà construite. Il n’existe pas de structure profonde qui
constituerait le point de départ de la dérivation. On a désormais affaire à un système
dynamique où des morceaux de structure sont fusionnés et déplacés, au fur et à mesure
que le cycle se déploie.
Économie/Localité
(14) Condition du Lien Minimal (MLC, cf. Chomsky 1995 : 296) α peut monter vers
une cible Κ seulement s’il n’existe pas d’opération Move β, satisfaisant le dernier
recours et prenant Κ pour cible, où β est plus près de K.
69 Chomsky discute l’exemple (15a), dans lequel le groupe nominal John s’est déplacé hors de
la proposition enchâssée en ciblant la catégorie Τ de la proposition matrice. Au point de la
dérivation où intervient cette opération, la structure de (15a) est à peu près (15b) :
(15) a. *John seems that it was told t that Mary left
b. Τ seems that it was told John that Mary left
70 Dans l’enchâssée, it vérifie le trait de Cas et le trait EPP de T. La difficulté est que it est
plus proche du Τ matrice que John. Par suite, le déplacement de John dans la proposition
racine pour satisfaire le trait EPP et le trait de Cas du Τ matrice est bloqué par MLC. On
voit que dans ce raisonnement, le calcul de la localité est opéré à partir de la catégorie Τ
dont un ou plusieurs traits doivent être vérifiés. De fait, Chomsky propose d’intégrer MLC
dans la définition même du mouvement, conçu comme Attract (ce sont les traits non
interprétables sur la catégorie cible du déplacement qui attirent les traits du terme
déplacé).
71 On peut aborder dans les mêmes termes l’agrammaticalité• de l’énoncé suivant,
impliquant le déplacement long d’un adjoint interrogatif pardessus l’argument
interrogatif sujet de la proposition enchâssée :
(16) *Comment ne sais-tu pas [qui a résolu le problème t] ?
72 L’idée générale sous-jacente à MLC est que les relations locales doivent être établies dans
l’espace syntaxique minimal dans lequel elles peuvent être satisfaites. Cette idée peut être
interprétée en termes cognitifs : la quantité de structure qui doit être explorée dans le
calcul et l’établissement d’une relation locale doit être minimisée le plus possible 9.
73 Un autre principe contraignant le fonctionnement des dérivations et explicitement
formulé par Chomsky comme un principe d’économie est que dans toutes les situations
où les opérations Merge et Move sont l’une et l’autre des options disponibles pour
satisfaire une exigence computationnelle, c’est Merge qui a la préférence. L’hypothèse que
Merge est un processus moins coûteux que Move est naturelle, puisque Move est une
opération complexe mettant en jeu deux opérations Copy et Merge. L’un des phénomènes
pour lequel cette condition est pertinente est la distribution des explétifs dans les
constructions à montée (cf. Chomsky 1995, 2001).
74 Enfin, le dispositif minimaliste inclut une notion supplémentaire réglant le
fonctionnement du cycle dérivationnel. Il s’agit de la notion de phase, introduite par
Chomsky (2001). Les phases marquent les étapes de la dérivation auxquelles les parties
internes d’un objet syntaxique deviennent inaccessibles à toute manipulation syntaxique
ultérieure. L’impénétrabilité des phases implique en particulier que tous les traits non
interprétables doivent avoir été vérifiés et éliminés au cours de la phase qui inclut la
catégorie qui les porte. Deux projections syntaxiques sont identifiées comme définissant
des phases : CP (correspondant aux propositions dans lesquelles la périphérie est activée
par la présence d’un marqueur de subordination ou d’une expression interrogatives) et vP
(v est la tête la plus haute des groupes verbaux). Seuls les termes occupant la frange de
ces domaines – la tête ou le spécificateur – sont accessibles à la computation intervenant
au cours de la phase suivante. L’hypothèse que les dérivations procèdent par phase a
évidemment pour effet de restreindre l’espace syntaxique que doit prendre en compte la
41
computation à chaque étape, pour produire des représentations d’interface bien formées
10.
75 D’autres principes d’économie ont été proposés dans la littérature. Certains chercheurs,
par exemple, ont défini un principe d’économie des structures qui impose d’associer à
chaque collection d’items lexicaux la représentation structurale la plus parcimonieuse,
celle qui implique un nombre minimal de catégories et de projections. Cette proposition
n’est pas directement compatible avec l’hypothèse de l’uniformité.
76 En bref : la grammaire est conçue comme un système computationnel permettant de faire
correspondre, à un choix d’éléments lexicaux – la numération–, par le biais d’une
dérivation optimale sélectionnant à chaque étape les opérations les plus économiques,
deux interfaces (F.L. et F.P.) avec les modules cognitifs conceptuel et phonétique. Dans ce
dispositif, les considérations d’économie fonctionnent non seulement comme principe
heuristique, guidant la construction des théories, mais aussi comme principe constitutif
de l’architecture du langage, une propriété de l’objet lui-même.
En résumé
Extensions
78 Quelle forme peut ou doit prendre le programme cognitif lorsqu’il prend le langage pour
objet ? On sait qu’il n’existe aujourd’hui sur cette question aucun consensus entre les
linguistes, les psychologues et les neurolinguistes, ni même entre les linguistes eux-
mêmes. Parmi eux, certains ont considéré qu’aucune théorie existante ne satisfaisait
l’exigence cognitive et qu’un champ d’étude spécifique, entièrement nouveau, devait être
défini. C’est la position adoptée par Langacker (1987) qui a développé un modèle de
description, la « grammaire cognitive », laquelle s’impose de ne recourir qu’à des notions
et à des principes directement interprétables en termes psychologiques et mentaux. Il
faut admettre que la distinction « figure »/« ground » que l’on trouve dans son dispositif
comme principe psychologique moteur de l’activité langagière ou sa théorie de la
catégorisation ne suffisent pas à fonder une linguistique nouvelle. Il doit être clair
également que pour décider de la pertinence cognitive d’une théorie, c’est l’ensemble du
dispositif qu’il faut considérer, et non pas telle ou telle caractéristique isolée. Or, la
42
grammaire de Langacker dit fort peu sur le rôle de la morphologie, sur la variation
linguistique, sur le processus d’acquisition.
79 La présentation qui précède a montré que, par bien des aspects, les questions
minimalistes sont aussi des questions cognitivement pertinentes et que les solutions
proposées sont le plus souvent interprétables en termes cognitifs. Ce que propose le
Programme Minimaliste peut donc légitimement être considéré comme un modèle
(abstrait) de la cognition linguistique. Dans cette section, je me propose d’évoquer
certaines directions de recherche, potentiellement pertinentes dans une perspective
cognitive, qui ont été jusqu’ici laissées en suspens ou ignorées par la recherche
minimaliste.
84 Les traits, non les catégories, sont en effet désormais les unités qui se déplacent
(lorsqu’elles sont attirées par un autre trait, entraînant avec elles l’expression qui les
porte). Ce sont aussi les unités qui sont effacées, ce qui suppose qu’une catégorie conserve
son identité et donc son label lorsqu’elle s’est défaite des traits non interprétables qui lui
avaient été assignés.
85 Cette conception ouvre des perspectives nouvelles sur l’acquisition, le changement
linguistique, la variation. Le processus d’acquisition consiste à identifier la collection de
traits fonctionnels assignés à chaque item lexical et formant grammatical, à découvrir
leurs exigences et leur capacité à déclencher le mouvement. Le changement diachronique
se ramène au fait que la composition en traits d’un item ou les propriétés de ces traits se
sont modifiées. Si ce point de vue est correct, un changement ne peut être exclusivement
syntaxique, il est aussi lexical et morphologique. La variation typologique peut également
être prise en charge sur cette base.
86 Un prolongement naturel de ces idées consisterait à adopter l’une des propositions de la
morphologie distribuée (cf. Marantz 1997) et à poser que la variation tient aux diverses
combinaisons de traits réalisées par les langues sur telle ou telle catégorie fonctionnelle.
Toute langue en effet opère un choix dans un ensemble de propriétés ou de traits
universellement disponibles. La catégorie du nombre en latin distingue seulement entre
singulier et pluriel et ignore le duel. Il n’y a aucune raison, conceptuelle ou empirique, de
supposer que la catégorie du duel est présente de façon sous-jacente dans le système
nominal du latin. Mais la langue choisit aussi la façon dont certains traits vont être
compactés en morphèmes occupant les nœuds terminaux de la syntaxe. Par exemple, les
désinences nominales du latin présentent une combinaison des traits de cas, de genre et
de nombre. Une part de la variation linguistique peut être dérivée de la réalisation d’un
trait sur une catégorie fonctionnelle plutôt que sur une autre, dans un modèle où des
comportements syntaxiques spécifiques sont associés à la présence ou à l’absence d’un
trait donné11. Cette approche se distingue d’une analyse fondée sur l’hypothèse de
l’uniformité, dans laquelle à chaque dimension grammaticale correspond une catégorie
fonctionnelle autonome.
positions occupées par les mots à l’intérieur des phrases. Dans cette conception défendue
par la morphologie distribuée, la syntaxe ne manipule pas des mots, mais des morphèmes
fonctionnels et des racines (en fait, elle manipule les matrices de traits correspondant aux
morphèmes et aux racines, l’insertion lexicale n’intervenant que tardivement).
Dérivation et flexion sont elles-mêmes des processus syntaxiques, traités par le système
computationnel. C’est au cours de la dérivation syntaxique que sont construits les mots
morphologiquement complexes, par la même opération élémentaire, Merge, qui est à
l’œuvre dans la construction des constituants et des phrases et qui se borne à combiner
deux nœuds terminaux (ou un nœud terminal et un constituant déjà construit) pour
former une structure binaire branchante. Dans plusieurs travaux récents, Marantz
s’attache à montrer que les approches dans lesquelles la notion de « morphème »
constitue l’unité fondamentale de la langue et où tous les mots se décomposent
obligatoirement en racines et éléments fonctionnels se trouvent indirectement
confirmées par les expériences neurolinguistiques portant sur la reconnaissance des
mots. La technique MEG (magnétoencéphalographie), en particulier, permet de mesurer
une opération mentale automatique, comme l’accès au lexique, et de tester des
hypothèses sur le traitement de l’information lexicale. Utilisant cette technique,
Pylkkänen et Marantz (2003) établissent qu’il faut distinguer plusieurs étapes dans la
reconnaissance des mots (qui mettent en jeu des régions différentes du cerveau et
n’excèdent pas conjointement une durée de 400 nanosecondes) : une première étape,
sensible à la fréquence et à la séquence des sons dans le mot, mais pas à la fréquence
lexicale, une deuxième étape correspondant à l’activation du lexique mental, sensible à la
fréquence lexicale, c’est-à-dire au nombre des mots voisins qui « sonnent » comme le
mot-cible. Il apparaît que si la probabilité phonotactique• facilite le traitement des unités
de niveau inférieur au mot, une densité élevée de mots proches inhibe au contraire la
reconnaissance du mot-cible. Leur découverte est qu’une caractérisation adéquate des
familles pertinentes dans la deuxième étape du processus suppose qu’une distinction soit
opérée entre les items lexicaux qui sont morphologiquement reliés – comme acid, acidic,
acidity – et ceux qui n’ont de ressemblance que phonologique – cut, cup ou brand, brandy.
Lorsqu’il appartient à une famille morphologique authentique dont l’un des membres a
été évoqué de façon récente, la reconnaissance du mot-cible n’est pas retardée, elle est au
contraire facilitée. Par contre, une densité élevée de mots sans lien morphologique inhibe
plutôt la reconnaissance du mot-cible.
Interfaces
91 Il est à peu près certain d’autre part que les interfaces du Programme Minimaliste
recouvrent non pas un niveau unique, comme le laisse entendre la présentation ci-dessus,
mais un ensemble de niveaux reliés entre eux par des règles de correspondance, de
nature dérivationnelle ou non. Prenons l’exemple de l’interface de la faculté de langage
avec le système acoustique-articulatoire. Le mapping• des signaux acoustiques sur les
représentations lexicales est un procesus complexe dont on peut penser qu’il est
médiatisé par plusieurs niveaux de représentation. Dans ce processus, il est nécessaire de
distinguer clairement les propriétés des niveaux phonétiques et phonologiques. Comme
le note Phillips (à paraître) :
« À un bout du processus de perception de la parole, dans le système auditif
périphérique, on trouve une représentation relativement fidèle de l’acoustique de
la parole, dont on s’attend à ce qu’elle ne soit pas substantiellement modifiée par
une exposition à des langues différentes. À l’autre bout du processus, on trouve les
46
NOTES
1. À (1), on peut opposer la caractérisation proposée par le Nouveau Petit Robert (2002),
d’essence fonctionnaliste : « processus par lequel un organisme acquiert la conscience des
événements et objets de son environnement. »
2. Le texte fondateur du modèle des Principes et Paramètres est Chomsky (1981). L’article de
Chomsky et Lasnik dans Chomsky (1995) présente un état final de cette théorie, intégrant les
48
développements des années 1980 et 1990. Pour une introduction, on peut consulter en français la
préface et le postscript de Chomsky (1987), et, en anglais, Ouhalla (1999).
3. Pour une solution à ce paradoxe, cf. Nash et Rouveret (2002).
4. Une difficulté, purement pratique, rencontrée par l’approche paramétrique a été soulignée par
Clark (1992). Elle réside dans le fait que la grammaire servant d’input est ambiguë. Les
chercheurs travaillant sur l’acquisition ont donc tenté d’identifier pour la fixation de la valeur de
chaque paramètre des déclencheurs non ambigus, permettant à l’enfant de construire la
grammaire-cible le plus rapidement possible (voir par exemple le travail de Watanabe 1994 sur
l’acquisition des paramètres syntaxiques déclenchant le mouvement du verbe vers T et/ou vers
Agr). La tâche n’est pas toujours facile.
5. L’article qui donne le tableau le plus complet du Programme Minimaliste est le chapitre 4 de
Chomsky (1995), « Categories and Transformations ». Il doit être complété par Chomsky (2001),
« Derivation by Phase ». Pour une bonne introduction au minimalisme, on se reportera à Ouhalla
(1999), part IV. Le beau livre de Jean-Yves Pollock (1997) est plus qu’une introduction, un état des
lieux de la théorie à la fin des années 1990.
6. La présentation précédente doit être nuancée. C’est en effet une épistémologie antiminmaliste
qui est développée dans le passage suivant d’Aspects, cité par Milner (2002 : 229) : « Lorsque les
empiristes s’efforcent de montrer comment les hypothèses touchant un dispositif d’acquisition
linguistique peuvent être réduites au minimum conceptuel, leur tentative est tout à fait hors de
propos. Le vrai problème est justement de développer sur la structure une hypothèse qui soit
assez riche pour rendre compte de l’acquisition linguistique... » (Chomsky 1971 :84-85). Milner
observe que cette critique ne concerne pas seulement le processus d’acquisition et pas seulement
l’empirisme ; elle concerne également la construction de la théorie grammaticale, et vise aussi
certaines versions du structuralisme. Leur parcimonie conceptuelle condamnait ces dernières à
l’impuissance dans toutes les situations où les relations étudiées, les relations syntaxiques par
exemple, ne pouvaient pas s’inscrire dans un simple tableau d’oppositions. On peut noter qu’à
l’époque d’Aspects, il s’agissait surtout de sauver les phénomènes, quitte à s’écarter de l’idéal
minimaliste, en « construisant des systèmes d’hypothèses à la fois nombreuses et réfutables ».
C’est bien là la stratégie que suivent les sciences gailéennes. C’est aussi celle qui a été adoptée
tout au long des années 1980 et 1990 par les chercheurs travaillant dans le cadre du modèle des
Principes et Paramètres. Le Programme Minimaliste représente donc bien un renversement
majeur. Mais la situation est aujourd’hui à l’opposé de ce qu’elle était dans les années 1960. Du
fait de l’accumulation de généralisations empiriques sur une multiplicité de langues et de la
multiplication d’outils conceptuels sophistiqués, l’épistémologie minimaliste retrouve sa
légitimité. C’est sur ces résultats que s’exerce la théorisation minimaliste. L’exigence minimaliste
a donc toujours été présente, mais elle est limitée de façon absolue par la nécessité de préserver
le contenu empirique de la linguistique, science galiléenne. Milner défend un point de vue
différent du nôtre, puisque pour lui, « le minimalisme épistémologique est radicalement
antigaliléen », cf. Milner (2002 : 229).
7. C’est là le contenu du Principe de l’Interprétation Intégrale mentionné page 56.
8. Une autre opération élémentaire s’est adjointe Move à dans les développements récents - Agree
(« Accorder ») - dont nous ne dirons rien ici.
9. La MLC est la transposition en termes dérivationnels de la Condition de Minimalité que Rizzi
(1990) avait formulée en termes représentationnels. Cinque (1990) et Rizzi (1990) ont montré
qu’au regard de cette condition de localité, tous les termes « intervenants » n’ont pas le même
effet de blocage. Les expressions interrogatives contenant une expression nominale, telles que
quel livre, dans quelle librairie sont plus facilement extractables que les quantificateurs·
interrogatifs (quoi, où). D’autre part, un argument objet interrogatif intervenant bloque le
déplacement d’un adjoint interrogatif, mais l’inverse n’est pas vrai :
(i) a. Quel problème ne sais-tu pas [comment résoudre tt] ?
49
AUTEUR
ALAIN ROUVERET
Directeur de recherche au CNRS et directeur d’études à l’École des hautes études en sciences
sociales, Centre de recherches linguistiques sur l’Asie Orientale (UMR 8563, EHESS/CNRS, Paris).
50
Introduction
1 On regroupe sous l’appellation « grammaires cognitives » un courant de recherche en
linguistique qui est né dans les années 1980, sur la côte Ouest des Etats-Unis. Les
principaux tenants de ce courant l’appellent plus volontiers « linguistique cognitive »,
mais nous avons ici préféré éviter ce terme, qui peut porter à confusion puisque d’autres
courants, radicalement opposés, comme celui des grammaires génératives, revendiquent
aussi cette étiquette1.
2 Ce courant a rapidement acquis une large audience internationale, grâce notamment aux
textes fondateurs de quatre auteurs : Ronald Langacker, avec le premier tome de
Foundations of Cognitive Grammar (Langacker 1987) ; Leonard Talmy, avec deux articles
essentiels : « Lorce Dynamics in Language and Thought » et « The Relation of Grammar to
Cognition » (Talmy 1988a et 1988b), articles repris dans l’ouvrage récent Towards a Cognitive
Semantics (Talmy 2000) ; Georges Lakoff, avec Women, Fire and Dangerous Things (Lakoff
1987) ; et enfin Gilles Fauconnier, avec un ouvrage écrit d’abord en français, Espaces
mentaux (Fauconnier 1984), aussitôt traduit en anglais (Fauconnier 1985), et réédité par la
suite avec une nouvelle préface (Fauconnier 1994).
3 Ce courant s’est solidement structuré avec notamment la création d’une association
(International Cognitive Linguistics Association) qui organise une conférence
internationale régulière, édite une revue (Cognitive Linguistics) depuis 1990, et une
collection (« Cognitive Linguistics Research », une quinzaine d’ouvrages parus à ce jour).
Il s’est étendu et renforcé, avec un grand nombre d’études portant sur les langues les plus
diverses, et aussi de nouvelles contributions théoriques qui ont élargi les approches
fondatrices : on peut ainsi citer, entre autres, les ouvrages d’Eve Sweetser (From Etymology
to Pragmatics, 1990), d’Adele Goldberg (Constructions – a Construction GrammarApproach to
Argument Structure, 1995), ou de Mark Turner (The Literary Mind, 1996).
51
4 Les fondements théoriques des grammaires cognitives reposent sur quelques principes,
lesquels donnent à ce courant son unité et son originalité. En premier lieu, l’activité de
langage, tout en ayant ses spécificités, doit être régie par des mécanismes cognitifs généraux,
à l’œuvre dans toutes les activités cognitives. Ainsi, par exemple, comme nous aurons
l’occasion de le voir plus en détail, l’opposition gestaltiste entre figure et fond se retrouve
dans l’organisation des énoncés linguistiques. Plus généralement, la perception visuelle et
l’expérience sensori-motrice jouent un rôle central dans la compréhension de la structure
sémantique du langage.
5 Il y a donc sur ce point une opposition radicale avec les conceptions fodorienne et
chomskienne des relations entre langage et cognition. Le langage n’est pas une faculté
autonome innée, dont les propriétés computationnelles seraient uniques et singulières,
sans équivalent dans le reste du système cognitif. Comme l’écrit Langacker (1987 : 12-13) :
« Le langage est partie intégrante de la cognition humaine. Pour rendre compte de
la structure linguistique, il faut donc se rattacher à ce que l’on connaît des
processus cognitifs en général, même si l’on fait l’hypothèse d’un « module »
spécifique du langage (Fodor 1983) ou d’une faculté de langage [en français dans le
texte] innée. Si une telle faculté existe, elle est malgré tout englobée dans un cadre
général de nature psychologique, car elle est le fruit de l’évolution et de la mise en
place de structures d’origine moins spécialisée. Même si les plans d’élaboration des
capacités langagières sont génétiquement codés dans l’organisme humain, leur
réalisation comme système linguistique complètement spécifié au cours de
l’acquisition du langage et leur implementation dans l’utilisation quotidienne du
langage dépendent clairement de l’expérience et sont inextricablement liées à des
phénomènes psychologiques de nature non spécifiquement linguistique. Il n’y a
donc aucun argument solide en laveur d’une dichotomie radicale entre l’aptitude
linguistique et les autres aspects de l’activité cognitive. Au lieu de se raccrocher au
moindre indice confortant à première vue la thèse de la singularité et de
l’isolement du langage, il vaudrait mieux travailler plus sérieusement à
l’intégration des acquis de la linguistique et de la psychologie cognitive. » (Traduit
par B. Victorri)
6 En conséquence, les grammaires cognitives rejettent totalement la primauté et
l’autonomie accordées par les grammaires génératives à la syntaxe. L’étude des structures
syntaxiques n’est pas une finalité en soi, qui permettrait de découvrir l’essence même du
langage. Au contraire, les constructions syntaxiques sont, au même titre que les autres
éléments constitutifs des langues (les unités lexicales et grammaticales), des structures
symboliques, porteuses de sens, qui contribuent à la signification globale des énoncés.
7 C’est donc la sémantique qui est placée au cœur du dispositif. La finalité du langage est de
construire des structures sémantiques complexes, que Talmy appelle « représentations
cognitives », Langacker « structures conceptuelles » et Fauconnier « espaces mentaux ».
L’étude de la grammaire consiste à rendre compte de la manière dont les unités
linguistiques, sortes de « briques » élémentaires symboliques, se combinent pour
produire des représentations complexes. Chaque différence de forme correspond à des
différences dans la représentation construite. Ainsi, pour Langacker (1987 : 39), les deux
énoncés suivants n’ont pas le même sens :
(1) He sent a letter to Susan
(2) He sent Susan a letter
8 Même s’ils décrivent le même événement, ils ne le présentent pas de la même manière :
l’énoncé (1), à cause de la préposition to, met en relief la trajectoire de la lettre, alors que
l’énoncé (2) met l’accent sur le résultat de l’action, la possession de la lettre par Susan.
52
Le sens grammatical
11 S’appuyant sur la distinction classique pour les unités linguistiques entre classes ouvertes
(noms, verbes, etc.) et classes fermées (prépositions, déterminants, etc.), Talmy (2000, vol.
I : 21) définit deux « sous-systèmes » au sein des langues, qui ont des fonctions
sémantiques nettement différenciées : le sous-système grammatical, qui détermine la
structure de la représentation cognitive évoquée par un énoncé, et le sous-système
lexical, qui en détermine le contenu.
12 Le sous-système grammatical, qui fait l’objet de cette section, contient donc les
morphèmes grammaticaux (libres ou liés), tels que les prépositions, les conjonctions, les
flexions nominales et verbales, etc. Mais il ne se limite pas à ces morphèmes. Il comporte
aussi des éléments plus abstraits, tels que les catégories grammaticales (parties du
discours), les sous-catégories (le fait pour un nom d’être massif ou comptable, par
exemple), les fonctions syntaxiques (sujet, objet, etc.) et les constructions syntaxiques
(l’ordre des mots, notamment). Ainsi, la distinction est plus subtile que celle qui est
53
opérée traditionnellement. Un mot comme chien, par exemple, présente à la fois des
aspects grammaticaux et lexicaux. En tant que nom comptable (caractéristique qu’il
partage avec des mots comme chat, table, arbre, etc.), il relève du sous-système
grammatical. Et c’est uniquement en tant que lexème• possédant un contenu sémantique
qui l’oppose aux autres noms comptables qu’il fait partie du sous-système lexical. Le point
clé, qui fait tout l’intérêt de cette approche, c’est de considérer que les aspects
grammaticaux sont aussi porteurs de sens en eux-mêmes, indépendamment des aspects
lexicaux. La même remarque s’applique aux autres classes ouvertes (verbes, adjectifs,
etc.). Notamment, pour un bon nombre de verbes de mouvement, c’est pratiquement
l’intégralité de leur sens qui relève de la sémantique grammaticale, comme on le verra ci-
dessous avec un exemple (le verbe anglais arrivé).
13 Cette sémantique grammaticale est essentiellement configurationnelle : le rôle du sous-
système grammatical est d’organiser les différents éléments évoqués par un énoncé les
uns par rapport aux autres en une scène complexe cohérente. C’est sans doute dans ce
domaine que les apports des grammaires cognitives ont été les plus riches et les plus
profonds, grâce essentiellement aux travaux de Langacker et Talmy. Ces deux auteurs ont
élaboré, chacun avec sa propre terminologie, un cadre théorique et un outillage
conceptuel novateurs, du moins dans le champ) de la linguistique nord-américaine. Il faut
en effet noter que ces travaux sont assez proches, par bien des aspects, des théories
énonciatives, issues d’une tout autre tradition, qui ont été développées de ce côté-ci de
l’Atlantique, notamment par Antoine Culioli (1990, 1999).
14 Le sens grammatical est d’abord conçu en termes de propriétés et de relations
topologiques• et cinématiques•, représentées chez Langacker par des schémas
diagrammatiques.
15 Ainsi, l’entité évoquée par un nom est représentée par une région dans un espace
multidimensionnel que l’on appelle son domaine (et qui dépend bien sûr du contenu
sémantique du nom). L’opposition entre comptable et massif se traduit par une propriété
topologique : la région est bornée (c’est un fermé) dans le cas d’un nom comptable, alors
qu’elle ne l’est pas (c’est un ouvert) dans le cas d’un massif.
16 Les unités linguistiques relationnelles, comme les prépositions, sont représentées dans
ces diagrammes par des relations géométriques statiques entre les régions correspondant
aux entités. Ces relations sont en général asymétriques : l’une des entités, appelée
« trajecteur » (trajector), joue un rôle particulier par rapport aux autres, appelées
« repères » (landmarks), qui servent de points de référence pour localiser le trajecteur.
Pour prendre un exemple simple, les deux prépositions above et below correspondent à un
même diagramme représentant deux entités X et Y disposées le long d’un axe vertical
dans le domaine constitué par l’espace physique orienté. La différence entre les énoncés X
is above Y et Y is below X consiste en une inversion du trajecteur et du repère : dans le
premier énoncé, X est le trajecteur, alors qu’il est le repère dans le second.
17 Les procès, évoqués par des verbes, sont représentés par des schémas qui comportent une
dimension supplémentaire : le temps. Autrement dit, un procès sera représenté par la
succession le long de l’axe du temps d’une série de diagrammes statiques, le premier
correspondant à la situation au début du procès, et le dernier à la situation résultante.
L’opposition entre procès perfectifs et imperfectifs est rendue, comme pour l’opposition
massif/comptable, par l’existence ou non de bornes, cette fois sur l’axe temporel.
54
agoniste étant l’entité focalisée par l’énoncé). Ces forces sont aussi différenciées suivant
que la tendance intrinsèque des entités est orientée vers l’action ou le repos. Prenons un
exemple :
(3) The ball was rolling along the green
(4) The ball kept (on) rolling along the green.
22 L’apport du modal keep dans l’énoncé (4) consiste à mettre en scène l’herbe comme un
antagoniste exerçant une force supposant à la force, plus puissante, sous-tendant le
mouvement de la balle (l’agoniste).
23 De même, on peut rendre compte de l’opposition entre les causatifs made et let dans des
énoncés tels que :
(5) The ball’s hitting it made the lamp topple from the table
(6) The plug’s coming loose let the water flow from the tank.
24 Dans (5), l’emploi de made s’explique par la mise en œuvre d’un antagoniste (la balle)
l’emportant sur l’agoniste (la lampe) tendant au repos. Dans (6) au contraire,
l’antagoniste (la bonde) exerce une force plus faible sur l’agoniste (l’eau) qui tend au
mouvement.
25 Les mêmes mécanismes s’appliquent aussi à des situations plus abstraites dans lesquelles
les forces ne sont plus de nature physique : elles peuvent être d’ordre psychologique,
sociale, argumentative, etc. Talmy rend compte ainsi, notamment, de la sémantique de
marqueurs aspectuels (tels que try, finally, etc.) et modaux (should, have to, etc.).
26 Contrairement à ce que cette présentation beaucoup trop rapide pourrait laisser penser,
Langacker et Talmy ne limitent pas leurs analyses à l’anglais. Ils les étendent au contraire
à une grande variété de langues (notamment amérindiennes), y compris les langues des
signes, montrant ainsi l’universalité de leur cadre théorique.
27 Cette sémantique configurationnelle mérite donc bien son appellation de « cognitive ».
C’est une théorie dans laquelle les marques grammaticales, au sens large, servent à
construire de véritables images mentales forgées par le langage. Les entités et
événements évoqués par les énoncés ne sont pas simplement décrits : ils sont mis en
scène, présentés selon un certain point de vue, avec des éléments saillants et un arrière-
plan, dans des configurations dynamiques qui évoluent dans le temps en fonction des
forces qui animent les entités représentées. Le parallèle avec la perception visuelle,
omniprésent, correspond bien à une conception unifiée du système cognitif : même
quand les domaines représentés sont plus abstraits que l’espace perceptif dans lequel se
meuvent les objets physiques, ce sont les mêmes mécanismes qui sont à l’œuvre pour
donner « à voir » ces configurations abstraites.
Le sens lexical
28 En ce qui concerne la sémantique lexicale, nous retiendrons deux aspects essentiels :
d’une part la théorie du prototype, directement inspirée de travaux de psychologie
cognitive, et d’autre part le mécanisme de la métaphore, à laquelle il est donné un rôle
fondamental.
29 La notion de prototype a été popularisée par la psychologue Eleanor Rosch (cf. Rosch
1975, 1978 ; Rosch et Mervis 1975). Le point de départ consiste à remarquer que, au plan
cognitif, l’appartenance d’un élément à une catégorie n’est pas traitée de manière binaire,
en tout ou rien, mais plutôt de manière graduelle. Il existe, comme le confirment les
56
études expérimentales, de « bons » exemplaires et de moins bons, pour les catégories des
oiseaux, des meubles, des couleurs, des formes, etc. Cela conduit à refuser de définir les
sens d’un mot comme on le fait en logique, par un ensemble de conditions, nécessaire et
suffisant, qu’une entité doit satisfaire pour pouvoir être désignée par le mot en question.
Il faut plutôt le définir comme un ensemble de traits, plus ou moins caractéristiques : plus
une entité possède de traits associés au mot, plus elle a vocation à être désignée par ce
mot.
30 On aboutit donc, là aussi, à une représentation géométrique du sens. On peut en effet
définir une distance entre entités désignées par un même mot, distance plus ou moins
grande suivant le nombre de traits qu’elles partagent. Le sens du mot est alors représenté
par une région, au centre de laquelle se trouvent les meilleurs exemplaires (ceux qui
possèdent le maximum de traits) : plus on s’éloigne de ce centre, moins le mot est
pertinent. Les frontières de cette région sont donc floues, ce qui correspond aux
hésitations des locuteurs (et aux désaccords entre locuteurs) sur la désignation
d’exemplaires particulièrement atypiques. C’est le centre de la région associée à un mot
que l’on appelle le prototype.
31 Lakoff (1987 : 74-76), par exemple, analyse dans ce cadre les différents sens du nom
mother, montrant que les traits prototypiques (la femme qui a donné naissance à l’enfant,
qui a fourni le matériel génétique, qui le nourrit et l’élève, qui est l’épouse du père) ne
sont pas des conditions nécessaires à l’emploi de ce mot. Quand ces diverses conditions
sont remplies par des femmes différentes, on peut appeler mother n’importe laquelle
d’entre elles.
32 Deux remarques importantes s’imposent :
• Comme le font remarquer Ungerer et Schmid (1996 : 39)2, il existe une certaine ambiguïté
sur la nature précise des prototypes, notamment chez Lakoff (1986) : tantôt ils sont
identifiés aux meilleurs exemplaires, les plus « typiques », ceux qui viennent les premiers à
l’esprit des locuteurs, tantôt ils ont le statut plus abstrait d’une représentation mentale,
d’une image cognitive associée au mot ou à la catégorie évoquée par le mot.
• Les traits définitoires, dans ce cadre théorique, n’ont rien à voir avec les traits différentiels
(les « sémèmes ») des sémantiques lexicales issues du structuralisme. Ce ne sont pas des
éléments minimaux rendant compte des oppositions entre lexèmes. Au contraire, pour les
grammaires cognitives, ce sont toutes les propriétés cognitivement pertinentes qui doivent
être prises en compte dans la définition d’un mot. Langacker, notamment, récuse toute
séparation entre connaissances lexicales et connaissances encyclopédiques (cf. Langacker
1987 : 154-161) : certains traits sont bien sûr plus centraux que d’autres, mais là encore ce
n’est qu’une question de degré sur un continuum impliquant tout le réseau des
connaissances associées à un concept donné.
33 Pour rendre compte de la polysémie lexicale, la théorie du prototype telle que nous
venons de la présenter doit être sérieusement amendée. En effet, une même unité lexicale
peut évoquer des entités appartenant à des catégories conceptuelles nettement distinctes,
même si elles entretiennent des relations de voisinage sémantique. Ces différences ne
sauraient être ramenées à un simple éloignement par rapport à un même prototype,
chaque catégorie étant elle-même justifiable d’un traitement autonome en terme de
prototypie. La solution proposée par des auteurs comme Lakoff (1987) est directement
inspirée de la notion de « ressemblance de famille » introduite par Ludwig Wittgenstein
dans sa célèbre analyse du mot Spiel (jeu, cf. Wittgenstein 1958 : 6667). On aboutit alors à
57
35 Même si cette théorie a été forgée avant tout pour les unités lexicales, elle a été aussi
appliquée à des unités grammaticales, comme les classifieurs du Dyirbal (langue
aborigène australienne) analysés par Lakoff (1987). Pour prendre un autre exemple, les
prépositions du français, Claude Vandeloise (1993, 1995) définit pour chaque préposition
un ensemble de traits définitoires dont aucun, à lui seul, n’est nécessaire : chaque emploi
de la préposition fait appel à un sous-ensemble de traits qui définit le sens de la
préposition dans cet emploi particulier. La préposition peut donc changer de sens d’un
emploi à l’autre, du moins en partie, si ce n’est pas le même sous-ensemble de traits qui
est utilisé dans les deux cas. Par exemple, pour l’analyse de la préposition dans dans des
expressions de la forme X dans Y, Vandeloise propose les traits suivants :
(a) Y contrôle la position de X.
(b) S’il y a déplacement, X se déplace vers Y plutôt que l’inverse.
(c) X est inclus (ou inclus partiellement) dans Y ou dans la fermeture convexe de la
partie contenante de Y.
(d) Y protège X.
(e) Y cache X.
36 Comme on peut le constater, ces traits ne font appel à des relations géométriques
(« configurationnelles ») que marginalement : ils sont plutôt de nature fonctionnelle. À
cet égard, la ressemblance de famille de tous ces traits est caractérisée, pour Vandeloise,
par une relation fonctionnelle générale, qu’on peut appeler la « contenance » (containment
en anglais). De même, la ressemblance de famille pour les traits associés à la préposition
sur s’inscrit aussi dans une relation fonctionnelle générale, le « support ». Ces exemples 3
montrent que, dans le foisonnement des propositions théoriques au sein des grammaires
cognitives, la coupure entre sémantique grammaticale et sémantique lexicale n’est pas
toujours revendiquée : certains s’en tiennent à une vision purement configurationnelle
des marqueurs grammaticaux, alors que d’autres font aussi appel à des propriétés
fonctionnelles, voire socio-anthropologiques, pour décrire ces mêmes marqueurs.
58
37 Si la théorie du prototype étendu est utilisée pour traiter une partie des phénomènes de
polysémie, d’autres mécanismes viennent compléter le dispositif, et, en premier lieu, la
métaphore, qui, comme nous l’avons annoncé, joue un rôle capital en sémantique lexicale
pour les tenants des grammaires cognitives. En effet, à la suite de Lakoff et Johnson
(1980), la métaphore est considérée comme un mécanisme général de la pensée,
permettant d’utiliser le domaine de l’expérience sensori-motrice pour appréhender des
concepts plus abstraits. Nous ne sommes généralement pas conscients des métaphores
dans lesquelles nous pensons, mais nous pouvons les mettre en évidence en étudiant les
traces qu’elles ont inscrites dans les langues. Cette étude permet donc de remplir un
double objectif : d’une part, au plan linguistique, de rendre compte d’une grande partie de
la polysémie lexicale, et d’autre part, au plan cognitif, de mieux comprendre un
mécanisme central de la pensée.
38 Prenons un exemple : la métaphore, très répandue dans les langues, qui projette sur l’axe
vertical le domaine de variation de n’importe quelle variable quantitative. On dit ainsi en
français que les prix « montent », qu’ils « atteignent des sommets », qu’ils
« dégringolent », etc. Cette métaphore, ancrée dans l’expérience perceptive quotidienne
(le niveau de l’eau monte dans un récipient quand sa quantité augmente), explique la
lexicalisation de sens quantitatifs d’un grand nombre d’unités linguistiques exprimant le
mouvement vertical et l’altitude (monter, descendre, niveau, sommet, élevé, bas, au-dessus de,
etc.). Mais au-delà du langage, c’est le raisonnement sur le concept même de variation
quantitative qui s’appuie sur cette métaphore, comme le montre la représentation
graphique des fonctions mathématiques où la valeur de la fonction est indiquée sur un
axe orienté conçu et présenté comme l’axe vertical.
39 La métaphore s’exerce sur tous les champs de l’expérience. Tout nouveau domaine,
notamment, est immédiatement investi par le lexique du domaine le plus apte à
développer une correspondance analogique opératoire : ainsi a-t-on pu assister
récemment à l’introduction d’un vocabulaire biologique et médical en informatique, avec
l’apparition des « vers » et des « virus » informatiques, plus ou moins « bénins » ou
« virulents », qui « contaminent » les ordinateurs insuffisamment « immunisés » contre
ces « infections » (cf. l’analyse de cet exemple par Fauconnier 1997 : 18-24).
40 Parmi les métaphores les plus structurelles, Lakoff insiste sur l’universalité de la
conception du temps comme un double déplacement spatial : nous « avançons » vers
l’avenir et l’avenir « vient vers nous ». Les événements passés « sont derrière nous », ils
« s’éloignent », alors que d’autres « arrivent » à grands pas (l’observateur est fixe et le
temps « passe »). Mais nous pouvons aussi dire que nous « entrons » dans une nouvelle
ère, et que nous « nous rapprochons » d’une échéance (le temps est immobile et
l’observateur se déplace). Ces métaphores structurelles sont aussi à l’origine de
phénomènes de grammaticalisation : par exemple, le fait que des verbes de déplacement,
comme le verbe aller, en français, soient devenus des marqueurs temporels (Il va faire beau
) est expliqué par la métaphore du temps comme déplacement spatial.
41 D’une manière générale, les métaphores ne sont pas limitées, là encore, à la sémantique
lexicale. Elles sont aussi invoquées pour rendre compte de la polysémie des unités
grammaticales. C’est ainsi qu’Eve Sweester (1990, chap. 3) propose pour les verbes
modaux (may, must, can, etc.) une évolution diachronique des emplois déontiques (John
may go) aux emplois épistémiques John may be there) et énonciatifs (« speech-act modalities
» : He may be a university professor, but he sure is dumb) qui serait due à un mécanisme
métaphorique. Partant d’une analyse en termes de forces et d’obstacles, proche de la
59
théorie de Talmy, elle présente cette évolution comme une extension de l’application de
ces forces du domaine physique et social (déontique) au domaine des processus mentaux
et du raisonnement (épistémique), et au domaine des actes de langage et de
l’argumentation (énonciatif).
Le sens syntaxique
42 Comme on l’a vu, dans l’optique des grammaires cognitives, chaque unité grammaticale
ou lexicale est porteuse de sens. Il en est de même des constructions syntaxiques qui
contribuent elles aussi à l’élaboration du sens global d’un énoncé, de manière autonome
par rapport aux unités qu’elles agencent. Comme l’écrit Langacker (1987 : 12) :
« Je soutiens que la grammaire elle-même, c’est-à-dire les modes de regroupement
de morphèmes en configurations de plus en plus grandes, est intrinsèquement
symbolique, et donc porteuse de sens. Il est dès lors aussi dénué de sens de postuler
une séparation entre une composantes lexicale et une grammaticale que de diviser
un dictionnaire en deux parties, l’une listant les entrées lexicales et l’autre les
définitions. » (Traduit par B. Victorri).
43 On doit donc attribuer à chaque construction syntaxique un sens qui lui soit propre et qui
permette de rendre compte des effets différentiels obtenus par des permutations de
construction sur un même matériau sémantique. Ainsi, reprenons le couple d’exemples
que nous avons donné dans l’introduction :
(7) He sent a letter to Susan
(8) He sent Susan a letter.
44 Pour caractériser la différence de sens entre les deux constructions, Langacker (1987 : 40)
introduit les deux autres couples suivants :
(9) The shortstop threw a ball to the fence
(10) * The shortstop threw the fence a ball
(11) ? Your cousin gave a new coat of paint to the fence
(12) Your cousin gave the fence a new coat of paint.
45 Ce sont les différences d’acceptabilité de ces couples qui lui permettent d’avancer que la
construction oblique (Χ V Y to Ζ) profile la trajectoire de Y allant de X vers Z, expliquant
la moins grande acceptabilité de (11), alors que la construction ditransitive (Χ V Ζ Y)
profile l’état résultant : la possession de Y par Z, d’où l’inacceptabilité de (10).
46 Prenons un autre exemple, le problème classique connu sous le nom de la « montée du
sujet » (subject raising, Langacker 2000, chap. 11). Soit l’énoncé suivant :
(13) Don is likely to leave.
47 Constatant que Don n’est pas le « sujet logique » de likely, les analyses les plus courantes
(notamment dans le cadre des grammaires génératives) consistent à supposer une
structure logique de la forme : [Don leave] is likely dont l’énoncé (13) dériverait par montée
du sujet de la subordonnée vers la proposition principale. Cet énoncé serait donc
parfaitement « équivalent » à l’énoncé plus « normal » :
(14) That Don will leave is likely.
48 Langacker récuse cette analyse pour différentes raisons. Notamment, il note que les deux
constructions ne sont pas toujours équivalentes, dans la mesure où des différences
sémantiques sensibles peuvent se constater, comme dans le couple d’énoncés4 :
(15) Julius Caesar struck me as honest
(16) It struck me that Julius Caesar was honest.
60
54 Notamment, comme l’a particulièrement bien montré Adele Goldberg, les constructions
syntaxiques peuvent compléter une structure globale qui n’est que partiellement remplie
par les unités lexicales présentes dans l’énoncé. Il est alors indispensable de prendre en
compte pleinement le sens de la construction syntaxique pour pouvoir expliquer le sens
global obtenu. Pour illustrer ce point, observons les énoncés suivants (Goldberg 1995 :
152) :
(19) They laughed the poor guy out of the room
(20) Frank sneezed the tissue off the table
(21) Mary urged Bill into the house
(22) Sue let the water out of the bathtub
(23) Sam helped him into the car
(24) They sprayed the paint onto the wall.
55 Le mouvement qui est évoqué par chacun de ces énoncés ne peut raisonnablement être
attribué ni au verbe lui-même, ni à une compositionnalité qui ne prendrait en compte que
la sémantique des unités lexicales impliquées. Il faut donc attribuer à la construction
syntaxique elle-même un sens qui permette d’intégrer les éléments présents dans une
structure globale cohérente. Goldbeig, qui appelle cette construction « caused-motion
construction », propose le schéma suivant : X causes Yto move Ζ, où X, Y et Ζ sont les trois
arguments du verbe, ce qui permet effectivement de rendre compte du sens global
obtenu, et de la forte productivité de cette construction en anglais.
sens où il permet d’intégrer la plupart des travaux que nous avons passés en revue dans
une perspective plus large, centrée sur le discours, englobant sémantique et pragmatique.
Pour Fauconnier, les formes linguistiques sont des instructions de construction de
configurations cognitives, structurées et interconnectées, qui se mettent en place au fur
et à mesure du déroulement de la parole :
« Une expression langagière n’a pas de sens en elle-même, mais plutôt un potentiel
de sens, et ce n’est que dans le cadre d’un discours complet, en contexte, que le sens
est véritablement produit. Le déploiement du discours met en œuvre des
constructions cognitives complexes. Elles comportent la mise en place de domaines
structurés liés les uns aux autres par des connecteurs ; ceci s’effectue sur la base
d’indices linguistiques, contextuels et situationnels. Les indices grammaticaux, s’ils
jouent un rôle crucial dans ce processus de construction, ne suffisent pas par eux-
mêmes à le déterminer. » (Traduit par B. Victorri)
57 Ce sont ces configurations cognitives que Fauconnier appelle des espaces mentaux. Ils
forment un réseau qui s’enrichit tout au long du discours. L’espace de départ s’appelle la
base du système. À tout moment, on peut distinguer deux autres espaces particuliers : le
point de vue, sorte de repère à partir duquel sont spécifiés de nouveaux éléments, et le
focus, l’espace qui reçoit ces nouveaux éléments. Base, point de vue et focus ne sont pas
forcément distincts (notamment au début du discours). Certaines expressions
linguistiques, les « constructeurs d’espace » (space builders), servent à construire de
nouveaux espaces à partir du point de vue, ou de la base, à laquelle il est toujours possible
de revenir. D’autres expressions servent à changer de point de vue ou de focus. D’autres
encore servent à spécifier les relations entre espaces, notamment les relations
d’accessibilité (le statut énonciatif d’un espace par rapport au point de vue dont il est
issu). D’autres enfin servent, naturellement, à introduire du contenu, en évoquant de
nouvelles entités, relations et événements qui viennent enrichir la structure du focus.
Bien entendu, une même expression linguistique peut jouer plusieurs de ces rôles à la
fois.
58 Une notion fondamentale est celle de correspondance (mapping) : les relations entre
espaces mettent en place des liens entre certains éléments de ces espaces, permettant
ainsi un transfert d’une partie de la structure d’un espace vers un autre. Prenons un
exemple très simple (Fauconnier, 1997 : 42-43) :
(25) Maybe Romeo is in love with Juliet.
59 À lui seul, cet énoncé construit deux espaces (figure 4). En effet, maybe est un
constructeur d’espace qui, en l’occurrence, spécifie une relation modale épistémique : le
nouvel espace est présenté comme une situation « possible », non pleinement validée par
le locuteur. Le réseau comporte donc une base (l’espace Β de la figure) dans laquelle sont
représentés les éléments a et b, associés aux noms Romeo etJuliet. Toutes les connaissances
partagées entre les interlocuteurs sur les deux personnes ont vocation à être
représentées dans cet espace. En revanche la relation amoureuse supposée est
représentée dans un autre espace mental M, qui est le focus actuel, accessible à partir du
premier (qui est donc aussi le point de vue) par la relation modale de possibilité (indiquée
sur la figure par la ligne en pointillés). Deux élé ments a’et b’sont arguments de la relation
amoureuse (notée LOVE) dans l’espace M. Ils sont aussi mis en correspondance avec les
éléments a et b de l’espace Β (relation d’identité notée id sur la figure), ce qui permet de
transférer dans ce nouvel espace tout ou partie des connaissances présentes dans l’espace
B, à commencer par les noms Romeo et Juliet, que l’on peut donc attribuer respectivement
à a’et b’.
63
60 Il est important de noter que ce transfert s’opère par défaut, uniquement dans la mesure
où les données transférées ne contredisent pas des relations explicites dans M. Par
exemple, s’il existait dans B une relation entre a et b qui implique que Roméo ne peut pas
aimer Juliette, celle-ci n’apparaîtrait pas dans M : en construisant l’espace modalisé M, le
locuteur nierait implicitement la validité de cette relation dans ce nouveau cadre
hypothétique ainsi évoqué. Même les noms Romeo et Juliet auraient pu ne pas être
transférés dans la correspondance, si l’énoncé avait été le suivant :
(26) Maybe, Romeo and Juliet’s names are really Dick and Jane.
61 Dans ce cas, les éléments a’ et b’ auraient bien sûr pour nom Dick et Jane, mais la
correspondance permet de leur attribuer la plupart des autres propriétés des éléments a
et b de l’espace B, l’hypothèse présentée dans M consistant à considérer les mêmes
personne munies d’un nouveau nom. Ce jeu de correspondance permet notamment de
traiter tous les problèmes d’analogie contrefactuelle, casse-tête des approches logiques
du langage, qu’on peut illustrer par les exemples suivants (Fauconnier 1997 : 106-110 et
126-127) :
(27) In France, Watergate wouldn’t have done Nixon any harm
(28) Coming home, I drove into the wrong house and collided with a tree I don’t
have.
62 Au-delà de ces phénomènes subtils, Fauconnier montre que la théorie des espaces
mentaux permet de traiter de manière adéquate, outre les conditionnels et autres
modalités, les principaux systèmes grammaticaux qui opèrent au niveau du texte, depuis
l’anaphore jusqu’aux différents systèmes modaux. En particulier, les notions de base, de
point de vue et de focus sont particulièrement adaptées à la représentation des temps
verbaux, notamment des temps relatifs et des interactions entre temps et modalités.
63 Qui plus est, la théorie des espaces mentaux constitue un excellent cadre pour traiter des
métaphores. Fauconnier et Turner (1998) ont introduit une opération, appelée blending,
que l’on pourrait traduire par « mixage », qui consiste à créer une nouvelle structure
conceptuelle à partir de la fusion de deux structures existantes. Par le jeu des
correspondances, chacun des deux espaces de départ transfère une partie de sa structure
64
Conclusion
66 Depuis son apparition, le courant des grammaires cognitives ne s’est donc pas seulement
amplifié et diversifié, il a aussi gagné en profondeur et en cohérence. Il faut souligner que
ce renforcement ne l’a pas conduit à se refermer sur lui-même : il s’est aussi sensiblement
ouvert à des problématiques plus centrées sur l’usage du langage. Nous avons déjà signalé
les convergences avec la tradition continentale des théories de l’énonciation. On assiste
aussi depuis quelques années à un rapprochement avec les linguistiques fonctionnelles (
cf. François, dans ce volume). Des ouvrages comme ceux de Tomasello (1998) et de Barlow
et Kemmer (2000) ont permis de confronter ces deux paradigmes théoriques et de mettre
en évidence leurs points communs. De plus en plus, ces deux courants apparaissent
comme complémentaires. Si les fonctionnalistes définissent avant tout le langage comme
un outil de communication, ils comptent parmi les contraintes essentielles imposées à ce
système de communication les propriétés de l’appareil cognitif général des locuteurs, ce
qui les conduit à adopter sur de nombreux points des conceptions voisines de celles
exposées ici. Ainsi, pour ne prendre qu’un exemple, Van Valin et LaPolla (1997) intègrent
dans leur appareillage théorique des pans entiers des grammaires cognitives, à
commencer par la théorie des constructions développée par Goldberg. De leur côté, les
tenants des grammaires cognitives ont, dès l’origine, accordé une place importante à
l’utilisation du langage (usage-based models : cf. Langacker 1988) et à la pragmatique,
notamment dans les travaux de Fauconnier (1997) et de Sweetser (1990).
65
67 Pour les chercheurs en sciences cognitives non spécialisés en linguistique, les grammaires
cognitives représentent aujourd’hui une alternative séduisante aux grammaires
génératives qui ont longtemps dominé le paysage théorique en sciences du langage,
notamment en psycholinguistique. Psychologues et spécialistes des neurosciences
devraient trouver davantage matière à expérimentation dans cette approche qui relie
étroitement les phénomènes linguistiques à des mécanismes cognitifs généraux. Du point
de vue de la neurobiologie, Gerald Edelman avait déjà lancé un appel en ce sens il y a une
dizaine d’années, en soutenant que la grammaire cognitive « s’accorde davantage avec les
bases biologiques des fonctions cérébrales et corporelles, et avec les données
psychologiques sur la catégorisation » (Edelman 1992 : 386). En ce qui concerne les
modélisateurs et les spécialistes de la cognition artificielle, la place donnée dans ces
travaux au continu et à l’émergence représente un véritable défi, puisque cela nécessite
d’abandonner les formalismes logico-algébriques traditionnellement utilisés dans les
modèles linguistiques pour se tourner vers d’autres outils mathématiques, comme la
géométrie différentielle et la théorie des systèmes dynamiques, et d’inventer de nouveaux
outils informatiques capables de les implémenter. Le connexionnisme a
incontestablement permis de progresser dans cette direction (cf. notamment le plaidoyer
de Langacker (1991 : 526-536) en faveur de « l’alternative connexionniste »), mais il est
clair aujourd’hui que ces avancées ont été insuffisantes pour aboutir à des modèles qui
rendent compte de la théorie dans son ensemble. D’autres efforts sont donc nécessaires.
L’enjeu est de taille : on peut en effet penser que l’absence d’un cadre de formalisation
adéquat constitue le principal obstacle que doivent sur monter les grammaires cognitives
pour jouer pleinement leur rôle dans les recherches pluridisciplinaires en sciences
cognitives.
NOTES
1. Il faut d’ailleurs noter qu’un certain nombre de tenants du courant des grammaires cognitives,
comme Langacker et Lakoff, sont d’anciens générativistes ayant rompu avec l’orthodoxie
chomskienne. Lakoff, notamment, a été au début des années 1970 l’un des chefs de file de la
« sémantique générative », l’une des premières dissidences du courant chomskien (cf. Dubois-
Charlier et Galmiche 1972, pour une présentation des débats entre générativistes à cette période).
2. Voir aussi Kleiber (1990 : 60).
3. Voir aussi l’analyse par Brugman (1988) de la préposition anglaise over, qui entre également
dans le cadre de la théorie du prototype étendu, mais avec des traits entièrement
configurationnels.
4. On peut faire les même constats en français sur des exemples du type : Marie semble malade/Il
semble que Marie soit malade
ou, bien pire :
Marie paraît malade/Il paraît que Marie est malade.
66
AUTEUR
BERNARD VICTORRI
Directeur de recherche au CNRS. Laboratoire « Langues, Textes, Traitements informatiques,
Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII).
67
Le fonctionnalisme linguistique et
les enjeux cognitifs
Jacques François
fondées sur l’usage »), le psychologue M. Tomasello déclare à son tour que si l’on veut
comprendre un jour les complexités multiples du langage, ce n’est pas d’un surplus de
formalisations mathématiques que l’on a besoin, mais plutôt de plus de coopération entre
psychologues et linguistes pour s’entraider à « déterminer comment les processus
cognitifs et sociaux fondamentaux opèrent dans le domaine particulier de la
communication linguistique humaine » (1998 : XXI).
4 Nous verrons dans la section 1 en quoi la controverse sur la notion d’explication est
directement liée à l’opposition entre une linguistique centrée sur le calcul syntaxique et
sur l’hypothèse de l’autonomie de la faculté de langage et une linguistique cherchant à
expliquer les structures linguistiques à partir d’un jeu de motivations internes et
externes, en l’occurrence cognitives et sociales, lesquelles se combinent
harmonieusement dans les thèses de W. Croft (cf. § 3) sur l’évolution des langues et de T.
Givón (cf. § 5) sur la phylogénèse du langage.
7 C’est dans cette optique qu’Abraham (1999) présente un tableau comparatif d’une
douzaine de caractéristiques majeures distinguant les deux entreprises, formaliste et
fonctionnaliste. J’en retiens quelques points forts :
assignent au langage une fonction assignent au langage une fonction primaire d’interaction
primaire d’information autant que d’information
8 Une démarche calculatoire telle que la préconise le courant forma liste doit adopter une
méthode hypothético-déductive, elle ne peut pas se satisfaire de généralisations
statistiques, elle ne peut pas tenir compte à la fois des deux fonctions d’information et
d’interaction et accorde la priorité à celle qui est le plus aisément formalisable. Elle
conçoit l’universalité de la grammaire en termes d’universaux de substance (classes de
mots) et non d’universaux implicatifs ou de tendances ordonnées en hiérarchies, elle
renvoie la discussion des motivations cognitives du lexique et de l’extension
métaphorique des concepts lexicaux comme des catégories grammaticales à une
grammaire de performance, enfin elle admet le principe des coupes de synchronie
décrivant des états de langue stabilisés comme prérequis de l’analyse diachronique. La
prise en compte des motivations pragmatiques de l’énoncé, de ses conditions d’emploi en
contexte discursif ou de son appartenance à un genre textuel constituent une tâche
secondaire. Abraham y voit « une division raisonnable du travail » (1999 :78).
9 Dans le même ouvrage, S. Anderson (1999) pousse à son terme cette ligne de
raisonnement. Il reproche aux fonctionnalistes de ne pas se contenter de formuler
l’hypothèse d’une perméabilité des structures syntaxiques vis-à-vis de facteurs de
signification et d’usage, mais de concevoir la mise en évidence de cette perméabilité
comme une stratégie de recherche (ibid. : 120). Selon Anderson, la méthode des
formalistes consiste à formuler l’hypothèse que des composantes distinctes du savoir
linguistique ont un fonctionnement autonome et que les phénomènes complexes sont
70
12 Dans le même volume, le point de vue fonctionnaliste sur ce qui constitue proprement
une explication en grammaire est défendu particulièrement par M. Durie (1999) et D.
Payne (1999). Durie (ibid. : 418) est largement en accord avec Abraham (cf. § 2.1) sur les
bases générales du désaccord avec le structuralisme en général, mais plus spécialement
avec l’héritage saussurien. Selon les fonctionnalistes :
• La structure du langage ne peut être expliquée et internalisée qu’en termes de discours et de
parole, ce qui contredit le souci des formalistes de se cantonner au niveau de l’unité-phrase
et de ne tenir compte que de la fonction d’information au détriment de la fonction
d’interaction ;
• les contraintes du monde réel, du tempe et de l’espace qui s’appliquent à la communication
humaine (par exemple l’intentionnalité humaine, et les contraintes imposées par le medium
de la communication, verbale ou signée) doivent être prises en compte 2, ainsi que les
contraintes de l’appareil phonatoire ;
• il en est de même des aptitudes et des propensions des êtres humains au-delà du domaine
strictement linguistique, y compris les opérations du sens commun et les présuppositions
71
22 L’identification des universaux implicationnels du langage, qui repose sur les travaux
fondateurs de J. Greenberg (1963, 1966), s’effectue en quatre pas successifs (cf. Croît 1990 :
62-3). Le premier pas est l’énumération des paires de propriétés dont la compatibilité est
testée dans un échantillonnage aussi représentatif que possible de langues. Pour une
paire de propriétés {A +/-, Β +/-} le croisement des valeurs A +/-et Β +/-est représenté sur
une table dite « tétrachorique » (tableau 1).
Tableau 1
La forme des tables tétrachoriques
Propriété A + Propriété A -
74
Propriété B +
Propriété B -
23 Le deuxième pas est la découverte de la distribution empirique des types attestés et non
attestés, illustrée par la disposition dans la table des Ν (nombre de langues de
l’échantillon présentant la paire de propriétés) et des Ø (aucune langue attestée) ou [Ø]
(nombre insignifiant de langues attestées). Trois possibilités se présentent :
24 (I) Il s’agit d’un universel absolu, par exemple : « Toutes les langues ont des voyelles
orales » (alors qu’elles peuvent avoir ou pas des voyelles nasales)5.
Tableau 2
L’universel absolu de la présence de voyelles orales
orales + N N
orales - Ø Ø
25 (II) Il s’agit d’un universel implicationnel, par exemple : « Si une langue dispose le nom
avant le démonstratif, alors elle dispose le nom [i.e. l’antécédent] avant la proposition
relative » :
Tableau 3
L’universel implicationnel Ν Dem → Ν Rel
Dem N N Dem
Rel N N Ø
N Rel N N
26 (III) Il s’agit d’une équivalence logique, par exemple : « Dans les langues avec prépositions,
le génitif suit presque toujours le nom régissant tandis que dans les langues avec
postpositions•, il le précède presque toujours » :
Tableau 4
Une équivalence logique
N Gen Gen N
Préposition N [Ø]
Postposition [Ø] N
75
d’ordre modificateur-tête et celle de poids relatif dans la mesure où l’adjectif régi a peu
de chances d’être notablement plus lourd que le nom régissant, il s’agit donc plus
vraisemblablement d’adjectifs mobiles dont l’ordre N-Adj n’est que dominant. En
revanche, pour les relatives, le facteur de poids relatif est prépondérant et celui de
mobilité peu vraisemblable compte tenu de la structure propositionnelle de la relative. Ce
facteur de poids relatif est typiquement d’ordre cognitif puisqu’il met en cause les
conditions de traitement, c’est-à-dire l’empan de la mémoire de travail 7.
32 Les langues à cas se distribuent en trois types principaux de marquage casuel. Dans le
système nominatif-accusatif les fonctions syntaxiques de sujet et d’objet déterminent
l’assignation du cas : les sujets sont exprimés au cas nominatif, les objets au cas accusatif.
Les fonctions syntaxiques suffisent à déterminer le cas. Dans le système ergatif-absolutif• la
transitivité du prédicat est le facteur déterminant : les sujets de prédicats transitifs sont
exprimés par le cas ergatif, ceux de prédicats intransitifs et les compléments d’objet de
prédicats transitifs sont exprimés au cas absolutif. Enfin dans le système actif-inactif, qui
touche un nombre de langues très limité, ce sont les rôles sémantiques qui déterminent
l’assignation de marques casuelles : les constituants agentifs• sont au cas « actif », les
constituants non-agentifs au cas « inactif ».
33 La variation de marquage du sujet dans le système ergatif en fonction de la présence ou
de l’absence d’un objet révèle la concurrence entre deux motivations : le sujet de la
proposition à un seul actant peut certes subir l’événement, mais s’il le contrôle, il reçoit
un marquage neutre (dit « absolutif », souvent non marqué) qui laissera la place à un
marquage ergatif si le patient est mentionné. C’est un facteur d’instabilité qui favorise
l’interférence avec des propriétés cognitives de deux ordres, représentationnelles et
mandatives, qui entraînent le phénomène dit d’ergativité partagée. Les premières
concernent les classes de représentation des événements (par exemple l’aspect
intrinsèque ou « aktionsart• », les propriétés d’actance) et des participants (par exemple
le caractère comptable vs. massif, animé vs. non animé, etc.), les secondes la deixis•
temporelle•, la visée aspectuelle, les modalités logiques et énonciatives, la référence et la
deixis nominales•.
34 La hiérarchie d’animation de Silverstein (1976), qui peut jouer un rôle déterminant dans le
marquage casuel hybride, combine effectivement des propriétés cognitives des deux
ordres. Le parangon de l’animé est l’allocutaire, suivi du locuteur et d’un pronom de3 e
personne. C’est donc la propriété de participation à l’acte de communication qui domine.
Le quatrième degré de l’échelle est représenté par les noms propres, lesquels assurent
une fonction référentielle (toujours une propriété énonciative), et les degrés inférieurs
distinguent les humains, les animaux et les objets inanimés (propriétés
représentationnelles). L’ergativité partagée est la combinaison des marquages casuels
ergatif et accusatif dans une langue, distribuée à travers ses sous-systèmes. Les langues
ERG/ACC présentent donc un marquage casuel hybride. Dans ces langues, la probabilité
d’un marquage ERG pour l’agent ou, inversement, d’un marquage ACC pour le patient est
inversement proportionnelle à leur « naturalité », c’est-à-dire à la conformité entre le
statut intrinsèque du participant et le rôle sémantique qu’il doit assumer dans l’énoncé.
77
35 Les agents les plus naturels sont l’allocutaire et le locuteur parce qu’ils sont des humains
engagés dans l’acte de co-énonciation. Inversement, les objets inanimés sont des patients
naturels. Si cette corrélation prototypique entre la classe conceptuelle et/ou énonciative
des participants et leur rôle sémantique est respectée, aucun marquage spécial n’est
nécessaire. En revanche, plus l’agent ou le patient est éloigné du prototype
correspondant, plus il a de chances d’être marqué respectivement comme ERG ou ACC (cf.
tableau 5).
Tableau 5
Modèle du marquage casuel hybride accusatif ou ergatif en fonction de la hiérarchie d’animation
1e personne ++ Ø -- ACC
3e personne + Ø - ACC
Humain - ERG + Ø
Animal -- ERG ++ Ø
conception de la grammaire défendue par Croft (2000) dans le cadre d’une théorie du
changement linguistique par différenciation dans les réplications• d’énoncés et
stabilisation sous l’effet de pressions sociales (cf. § 3 ci-dessous).
55 (2) des catégories sémantiques telles qu’argument et prédicat, ainsi que des catégories
ontologiques, par exemple objet, lieu, action, événement, etc
56 (3a) des catégories syntaxiques naturelles N, SN, V, SV, etc.
57 La contre-proposition de Braine consiste à substituer la primitive (3b) à (3a) :
58 (3b) une tendance à classer les mots et les syntagmes que (1) ne permet pas de classer,
comme référant à des instances des catégories de (2).
59 Ce qu’il rejette, c’est l’idée que « les catégories syntaxiques de langues existent dès le
début de l’acquisition du langage comme des catégories innées ayant une réalité
biologique et psychologique distincte de leurs membres canoniques » (p. 91). Selon ses
observations, les catégories syntaxiques émergent sous l’effet conjoint des primitives (1)
et (3b). Ce faisant, il pose une question cruciale à propos de la fonctionnalité du langage :
si les enfants commencent par des catégories sémantiques, pourquoi les langues ont-elles
des catégories syntaxiques dont l’extension ne correspond pas à celle de ces catégories
sémantiques ? Il y répond prudemment en listant quelques facteurs critiques de disparité
entre catégorisation sémantique et syntaxique :
I. Les limites floues des catégories sémantiques plausibles du langage de la pensée ;
II. le recouvrement et la concurrence entre catégories sémantiques (telles que les rôles
sémantiques) et catégories pragmatiques (par exemple les fonctions de topique et de focus)
qui doivent être corrélées aux structures syntaxiques ;
III. la sensibilité des apprenants aux similarités phonologiques entre les mots ;
IV. et le nombre restreint de positions structurales distinguables en raison de la linéarité
obligée du discours.
63 S. Lamb est connu pour avoir conçu dans les années 1960 (cf. Lamb 1966) un modèle de
grammaire « stratificationnelle » qui, comme le souligne Jackendoff (2002 : 128) était la
première esquisse d’une théorie multigénérative. En effet, dans la version la moins
sophistiquée, chacune des strates phonémique, morphémique, lexémique et sémémique
(Lamb était originellement un adepte de la tagmémique• de K. Pike) présentait une
composante combinatoire, respectivement la phonotactique (combinant les phonèmes en
morphèmes), morphotactique (combinant ceux-ci en lexèmes), lexotactique (combinant
les lexèmes en propositions) et sémotactique (combinant les sèmes lexicaux en sémèmes).
Le modèle a connu moins de succès que la théorie Sens-Texte assez apparentée de I.
Mel’chuk, sans doute parce que les représentations multistratiques, évoquant des
tableaux de connexions électriques, étaient d’un maniement difficile. Mais, dès 1971,
Lamb évoquait la validité cognitive des réseaux de combinaison des unités phonémiques,
morphémiques et lexémiques et de la corrélation entre lexèmes et sémèmes. Et, en 1999,
il a fourni une version explicitement « neuro-cognitive » de sa théorie en la combinant
avec le modèle « néo-associationniste » de traitement neurophysiologique du langage de
N. Geschwind (1965).
64 Lamb (1999 : 140, figure 8-10) distingue d’une part trois sous-systèmes linguistiques, celui
de la production grammaticale précédant la production phonologique, celui de la
reconnaissance phonologique précédant inversement la reconnaissance grammaticale et
celui des connexions lexicales abrégé en « lexis », et d’autre part quatre sous-systèmes
extralinguistiques, de perception somatique (ou proprioception), de perception auditive
et de perception visuelle (sur trois niveaux de repérage en deux dimensions, deux
dimensions et demie, et trois dimensions). Les trois sous-systèmes linguistiques sont en
rapport avec des catégories conceptuelles d’un premier niveau, dites catégories
objectales, et à l’inverse des catégories de production articulatoire en rapport avec les
mécanismes de la parole. La lexis sert d’interface entre les catégories objectales et les
catégories abstraites qui constituent le second niveau des catégories conceptuelles, ce qui
revient à dire qu’un objet peut être catégorisé avant l’acquisition du langage (ceci est un
chat), mais que l’attribution à cette catégorie d’une catégorie superordonnée (un chat est
84
(1997 : 340), on peut supposer qu’il a en tête des schèmes cognitifs universels du type
proposé par Heine (cf. § 2.3).
73 T. Givon (1995 : 393-445 ; 1998) partage le point de vue de T. Deacon sur la co-évolution
plausible entre le cerveau, l’esprit et le langage, mais en linguiste et typologue il précise
les modalités de l’évolution de la capacité de langage en distinguant une première phase
de symbolisation lexicale suivie d’une seconde phase d’émergence de la grammaire.
74 Givón suppose en premier lieu que le système humain de traitement du langage s’est
développé primairement comme une extension graduelle du système de traitement de
l’information visuelle. Il argumente en trois points :
a. 1. Dans le cerveau du primate, on a pu montrer que l’information visuelle suit deux voies à
partir de l’aire primaire visuelle, la voie ventrale ou temporale pour la vision des objets et
la voie dorsale ou pariétale pour l’attention visuelle et les relations spatiales (1995 :408,
figure 1).
2. La reconnaissance des objets est le précurseur visuel des concepts lexicaux et celle des
relations spatiales et du mouvement est celui des informations propositionnelles sur les
états et les événements (ibid,. : 409).
3. Tous les modules du cerveau concernant le langage se révèlent adjacents à un précurseur
prélinguistique plausible. Or, l’aire sémantique médio-temporale qui connecte à la
réception l’information conceptuelle et visuelle se situe sur la voie ventrale de traitement
de l’information visuelle (ibid. : 422, figure 6).
75 Givón en conclut que le premier code lexical du langage humain était un code visuel et
gestuel iconique, et que le passage à un code auditif-oral doit avoir eu lieu plus tard sous
l’effet de différentes pressions adaptatives. Le système de codage visuel-gestuel est
initialement iconique et naturel, mais non automatisé. C’est par répétition et ritualisation
des actes de communication que le code de communication devient abstrait, arbitraire et
automatique. À ce stade, l’iconicité originelle devient en effet une entrave. La
conséquence est, selon Givón, que le système de codage gestuel perd son avantage
adaptatif initial. C’est lié à l’extension des relations sociales du cercle étroit des intimes –
où la communication est essentiellement manipulative, à base de commandes et de
requêtes – à une société ouverte sur des étrangers où des informations déclaratives
explicitement codées prennent le pas.
76 L’avantage adaptatif des actes de langage déclaratifs est énorme, facilitant les tâches
essentielles dans une société humaine plus complexe. La planification conjointe
d’activités futures, la coopération et la coordination de tâches collectives, l’apprentissage
à partir de l’expérience des autres et l’instruction et la transmission de valeurs culturelles
et de savoir-faire techniques, tout cela est largement dépendant d’informations
déclaratives (ibid. : 434).
77 Givón esquisse un tableau suggestif des conditions de transition entre la phase de
symbolisation lexicale et de protogrammaire et la phase ultérieure de symbolisation
grammaticale. Les règles de la protogrammaire concernent l’intonation, la mise en ordre
des items lexicaux, elles stipulent la disposition de l’information importante en tête, le
respect de l’iconicité• chronologique, l’omission de l’information prédictible, peu
importante ou non pertinente. Ces règles ne sont en fait rien d’autre que le reflet de
l’organisation du traitement de l’information visuelle. Le développement de la grammaire
87
6. Conclusion
78 Les travaux abordés dans ce chapitre attestent le rapprochement qui s’est effectué dans
les deux dernières décennies du XXe siècle entre les orientations fonctionnelle et
cognitive en théorie grammaticale. Ce rapprochement résulte du développement de la
typologie fonctionnelle des langues qui ne tient plus seulement compte de motivations
internes au langage, mais a développé à la suite de l’article pionnier de J. DuBois (1985)
l’analyse du jeu complexe de compétitions et de coopérations entre motivations internes
et externes (celles-ci d’ordre cognitif, énonciatif et plus particulièrement, chez W. Croft,
d’ordre social) qui stabilise les langues ou les fait évoluer. Les analyses de R. Langacker
sur la transitivité ou la catégorisation syntaxique vont dans le même sens que celles de
Givon (1995) ou Croft (1990) parce que ces auteurs intègrent le point de vue des
représentations cognitives dans leur approche fonctionnelle. Cette intégration permet de
comprendre pourquoi les langues, tout en stabilisant des structures arbitraires,
conservent un fond d’iconicité (cf. Givon au § 5.2).
79 Il se peut que le dernier ouvrage de R. Jackendoff (2002) favorise un rapprochement plus
vaste entre d’une part les « théories de la grammaire fondées sur l’usage » (le
regroupement des linguistiques fonctionnelles et cognitives selon M. Tomasello) et le
modèle d’« architecture parallèle », c’est-à-dire de génération de structures de trois
types, phonologiques, syntaxiques et sémantiques-conceptuelles, préconisé par
Jackendoff. Trois arguments plaideraient dans ce sens :
• Jackendoff préconise un amaigrissement drastique de la composante syntaxique au profit
d’un corps plus étendu de règles (morpho) phonologiques et sémantiques et de règles
d’interface entre phonologie et syntaxe et entre syntaxe et sémantique. Il réfute la validité
d’une grammaire centrée sur la syntaxe, ce qui va dans le même sens que, par exemple, la
Functional Grammar de S. Dik (1978, 1997), la grammaire des rôles et de la référence de R. Van
Valin (cf. Van Valin et LaPollac 1997) ou la Théorie Sens-Texte de I. Mel’chuk.
• Il montre que cette architecture parallèle favorise la prise en compte à la fois des faits de
langue (relevant de la grammaire interne du locuteur) et des processus du traitement en
réception et en production, parce que les composantes d’interface corrèlent des structures
des trois ordres de la phonologie vers la sémantique pour modéliser la réception et de la
sémantique vers la phonologie pour modéliser la production.
• Il se place sur le terrain des fonctionnalistes qui, tels Givón ou Lamb, cherchent à saisir la
place du langage dans le comportement cognitif global de l’individu en prenant en compte le
traitement du langage au niveau neurocognitif, et de ceux qui cherchent à penser la
diachronie et l’émergence des langues à partir d’un modèle biologique, tels Croft ou Deacon.
Le sous-titre de son ouvrage, Brain, Meaning Grammar, Evolution, et l’ordre de mention de ses
quatre composantes sont significatifs : le développement du cerveau permet l’activité
88
NOTES
1. Cette critique concerne uniquement les tenants du fonctionnalisme intégratif et, à l’intérieur
même du camp fonctionnaliste, Croft exprime les mêmes réticences à l’égard des thèses
intégrativistes. Il souligne qu’il n’a pas encore été démontré que les motivations concurrentes
postulées par les typologistes soient le résultat d’interactions communicationnelles entre
locuteurs et qu’aucune expérience psycholinguistique n’a encore prouvé que l’économie et
l’iconicité sont bien, comme l’affirme Haiman, les deux moteurs principaux de la structuration
linguistique (1995 : 515).
2. Ce qui est plus particulièrement développé dans la Cognitive Grammar de R. Langacker et
rappelle que celle-ci constitue un embranchement des grammaires fonctionnelles (cf. Croft 1993).
Les travaux de B. Heine (1993, 1997a, 1997b ; Heine et Kuteva 2002), qui dégagent un catalogue
fini de schèmes cognitifs sources de grammaticalisation à travers les langues, vont dans le même
sens.
3. La notion d’extension métaphorique de l’agentivité a été particulièrement développée par T.
Givón (1989).
89
4. À ce titre, les règles de « linking » entre syntaxe et sémantique de R. Jackendoff (2002) ont aussi
un caractère « fonctionnel ».
5. Si une seule cellule de la table tétrachorique est validée, on est en présence de la combinaison
de deux universaux absolus, par exemple : « Toutes les langues ont des consonnes et ont des
voyelles. »
6. Tesnière (1969 : 23-25) distingue deux types purs de linéarisation des constituants, centrifuge
(c’est-à-dire dépendant-régissant), et centripète (régissant-dépendant). Les ordres dits
centrifuges ou centripètes « accusés » révèlent une corrélation absolue, les ordres dits « mitigés »
seulement une corrélation préférentielle entre un ordre dominant pour les syntagmes verbaux et
un ordre dominant inverse pour les syntagmes nominaux.
7. À titre d’illustration, en allemand un contenu propositionnel peut être rattaché à un
antécédent nominal par une construction participiale préposée avec participe final ou par une
relative postposée avec pronom initial et verbe conjugué final. On observe que la participiale
n’est représentée qu’en langue écrite, car l’attente de l’antécédent constitue une charge
excessive de la mémoire de travail à l’oral. En outre, dans de nombreux cas, l’équivalence entre le
pronom relatif et la variante courte et tonique du démonstratif favorise le déplacement en
seconde position du verbe conjugué dans la relative, ce qui allège également la charge de la
mémoire de travail, par exemple : Ich habe einen Freund, der ist mehrmals rund um die Welt gereist
(« j’ai un ami, qui/il a fait plusieurs fois le tour du monde »).
8. Par exemple en turc pour « j’ai un livre » : Kitab < livre > -im < moi > var < existant>
9. Par exemple en breton pour « j’ai un vélo bleu » ur < un > veto c’hlas < bleu> am < pour moi > eus
< est>.
AUTEUR
JACQUES FRANÇOIS
Professeur à l’université de Caen. Dirige le « Centre de recherche inter-langue sur la signification
en contexte » (UMR 6170, CNRS/Caen). jacques.francois@crisco.unicaen.fr
90
Grammaire diachronique et
cognition : l’exemple du chinois
Alain Peyraube
organiser nos perceptions et nos idées dans des voies similaires. Comment s’établit
concrètement ce lien entre linguistique cognitive et grammaire historique ?
4 Dans leur introduction à la linguistique cognitive, Ungerer et Schmid (1996) mentionnent
dans leur dernier chapitre intitulé « Other issues in cognitive linguistics » quelques
questions qui ne ressortissent pas à proprement parler à la linguistique cognitive, mais
qui ont développé, sous l’influence de cette dernière, des lignes de recherche originales et
prometteuses. Ils citent ainsi les études sur l’iconicité, sur la grammaticalisation, sur le
changement lexical et sur l’apprentissage et l’enseignement des langues étrangères.
5 Depuis cinq ans, en fait, les relations entre linguistique cognitive et grammaire historique
ne se limitent plus à quelques avancées théoriques et méthodologiques concernant la
seule notion de grammaticalisation2. La linguistique cognitive a beaucoup renouvelé
l’approche des diachroniciens, du moins pour ceux d’entre eux qui se rattachent au
courant fonctionnaliste de la linguistique, encore que la division entre courant formaliste
et courant fonctionnaliste tende de plus en plus à devenir caduque, comme l’a souligné
Langacker (1999). À l’inverse, les études diachroniques ont aussi, de leur côté, contribué à
ouvrir de nouvelles perspectives au sein de la linguistique cognitive.
6 Deux exemples seront pris dans cet article pour montrer comment les liens entre ces
deux domaines de la linguistique sont devenus plus étroits : l’évolution des structures
locatives et celle des pronoms interrogatifs en chinois. Il s’agit de deux secteurs
importants dont l’étude permet de mieux comprendre ces catégories fondamentales de la
cognition humaine que sont l’espace et l’interrogation.
8 On admettra, avec Klein et Nüse, que cette référence spatiale est articulée autour de trois
composantes essentielles : la structure de l’espace, le contenu sémantique, la dépendance
contextuelle. La seconde de ces composantes, qui nous intéresse ici plus particulièrement,
concerne la signification des expressions spatiales dans une langue donnée.
9 Exemple :
(1) shu fang zai zhuozi shang
livre poser à table sur
Le livre est posé sur la table.
(2) ta zuo zai feiji shang
elle asseoir à avion dans
Elle est assise dans l’avion.
10 Le locatif shang « sur » exprime une relation spatiale entre deux objets. Le premier de ces
deux objets, le « thème• » est localisé relativement au second, le « relatum• ». Comment
rendre compte des différentes significations du locatif shang ? Trois stratégies sont
possibles :
i. La polysémie infinie, stratégie qui consiste à dresser une liste de toutes les occurrences du
mot (« sur », « dans », etc.) et à renoncer à lui attribuer une signification uniforme ;
92
ii. la contextualisation totale, qui suppose que la signification du mot dépend entièrement du
contexte ;
iii. le noyau et les opérations, solution qui cherche à isoler une sorte de « noyau de
signification » qui peut être décrit de façon précise et qui est modifiable ensuite par diverses
opérations sémantiques menant à des usages spécifiques. Ce noyau de signification
correspond aussi à un usage particulier, mais il est particulièrement fréquent et typique.
11 C’est cette dernière hypothèse qui sera adoptée dans la suite de ce chapitre. Cela dit,
comme le soulignent Klein et Nüse (1997), la dérivation peut s’opérer de deux façons et
engendrer deux modèles différents :
a. La signification lexicale propre (signification de base) est générale et ce sont les
connaissances contextuelles, dans des énoncés particuliers, qui ajoutent des spécifications
conduisant à l’interprétation particulière ;
b. la signification lexicale est elle-même spécifique (elle représente une signification
prototypique) et l’utilisation du mot dans un contexte particulier la dévie plus ou moins de
ce prototype•.
Tableau 1
NOYAU OPÉRATIONS
13 Le modèle « signification de base », dont Klein et Nüse montrent qu’il est préférable pour
l’analyse des prépositions spatiales, et qui est confirmé par des expérimentations
chronométriques, n’est manifestement pas celui qu’il convient de privilégier pour rendre
compte de l’évolution des structures locatives du chinois, comme nous allons le voir.
Chinois contemporain
14 Comme le suggèrent les exemples (1) et (2) ci-dessus, la structure locative du chinois est
généralement composée, dans cet ordre, d’une préposition de lieu (zai « à »), d’un nom (
zhuozi « table » ou feiji « avion ») et d’un locatif (shang « sur ») qui exprime la position
relative des choses. L’ensemble forme un « mot de lieu ». Seuls les « mots de lieu »
peuvent être les régis d’une préposition de lieu. Les noms ordinaires, c’est-à-dire qui ne
sont pas suivis d’un locatif, n’ont pas cette possibilité (cf. Peyraube 1980) :
(3a) * wo dao shan qu
je à montagne aller
(3b) wo dao shan shang qu
je à montagne sur aller
Je vais à la montagne.
15 Les locatifs forment une classe fermée. Ils peuvent être monosyllabiques ou
dissyllabiques. Les dissyllabes sont obtenus en ajoutant un suffixe (bianr, mianr ou tou) ou
un préfixe (yi ou zhï) au monosyllabe.
16 La liste des locatifs monosyllabiques est la suivante :
93
Tableau 2
li « dans » + + + (liwai)
dongxi
dong « à l’est de » + + + () () dongnam
dongbei
xinan
xi « à l’ouest de » + + + () () xibei
dongxi
dongnan
nan « au sud de » + + + () ()
xinan
dongbei
bei « au nord de » + + + () ()
xibei
dangzhong
zhong « au milieu de » () zhongjian
dangzhongjian
dangjian
jian « au milieu de » () zhongjian
dangzhongjian
pang « à côté de » +
nei « dans » () ()
Chinois archaïque
18 En chinois archaïque (XIe-IIe siècle av. J.-C.), langue qui représente le chinois classique par
excellence, les caractéristiques des expressions spatiales sont les suivantes : (i) il n’y a pas
de différence entre un mot de lieu et un nom ordinaire, autrement dit les locatifs sont
94
syntaxiquement optionnels ; (ii) les locatifs, dont certains d’entre eux existent dès
l’époque pré-archaïque (XIVe-XIe siècle av. J.-C.) sont seulement monosyllabiques ; (iii) les
prépositions (la plupart du temps la préposition yu « à »), à la différence des locatifs, sont
nécessaires pour introduire les expressions de lieu. Exemple :
(4) gong hong yu che (Zuo Zhuan, Ve siècle av. J.-C.)
prince mourir à char
Le prince est mort dans le char.
19 Lorsque le locatif est présent, il exprime un sens réel et concret :
(5) Meng Sun li yu fang wai (Zuo zhuan)
Meng Sun être-debout à pièce hors-de
Meng Sun était debout, en dehors de la pièce.
20 Si le locatif wai était absent dans l’exemple qui précède, la phrase serait correcte, mais
signifierait « Meng Sun était debout, dans la pièce ».
Chinois médiéval
21 Dans la langue prémédiévale, période qui correspond à la dynastie des Han (206 av. J.-C. —
220), les caractéristiques des structures spatiales ont changé. D’abord, les noms ordinaires
ne sont plus — ou beaucoup moins — utilisés comme mots de lieu. Pour qu’ils le soient, il
faut qu’ils soient désormais suivis de locatifs. Ces derniers deviennent donc
progressivement des mots fonctionnels, même s’ils expriment encore le plus souvent une
« position précise relative des choses » (le dingxiangxing de Lü Shuxiang, 1984 : 294).
Ensuite, la préposition locative yu « à » n’est plus vraiment nécessaire pour introduire un
syntagme locatif. Exemple :
(6) Huang gong yu furen Cai Ji xi chuan zhong
(Shiji, Ier siècle av. J.-C.)
Huang prince et épouse Cai Ji s’amuser bateau dans
Le prince Huang et son épouse se sont divertis dans le bateau.
22 Il est probable qu’en chinois classique une telle phrase aurait nécessité la présence d’une
préposition yu « à » entre le verbe xi « s’amuser » et le nom chuan « bateau » et se serait
dispensée, en revanche, du locatif zhong « dans » qui suit le nom.
23 En haut-médiéval, qui correspond à la période des Six Dynasties (220-581), un certain
nombre de locatifs monosyllabiques commencent à exprimer une « position vague » (le
fanxiangxing de Lü Shuxiang), une localisation indifférenciée. La fonction grammaticale
des locatifs prime alors sur la valeur sémantique du locatif. Cela est surtout vrai pour les
locatifs shang « sur » et zhong « dans », mais aussi pour qian « devant », xia « sous », etc. (
cf. Li Chongxin 1992). Dans les exemples qui suivent, extraits d’un même texte, shang et
qian sont synonymes, ils expriment bien cette position vague :
(7) Changwen shang xiao zai zhe che zhong... Wenruo
yi xiao zuo zhe xi qian (Shi shuo xin yu, Ve siècle av. J.-C.)
Changwen encore petit transporter à char dans...
Wenruo aussi petit assis à genoux devant
Changwen était encore petit, il fut transporté dans le char...
Wenruo aussi était petit, il était assis sur (ses) genoux.
(8) sui chang da you bao zhe xi shang (Shi shuo xin yu)
même-si grandir grand encore porter à genoux sur
Il avait beau avoir grandi, (il le) portait
encore sur ses genoux.
95
24 En bas-médiéval (VIe-ΧΙIΙe siècle), la situation est encore plus claire. Presque tous les
locatifs peuvent avoir cette valeur de localisation indifférenciée, comme cela avait déjà
été remarqué à la fin du XIXe siècle par le philologue Yu Yue (18211907). Une étude
exhaustive menée par Wang Ying (1995) sur tous les locatifs employés dans 1928 poèmes
de la dynastie des Tang (618-907) révèle ainsi, par exemple, que dong « à l’est de » peut
avoir le sens de wai « hors de, à l’extérieur de », que xi « à l’ouest de » signifie parfois nei
« dans », etc.
25 De fait, si on compare plusieurs éditions d’un même texte de l’époque, il est fréquent de
trouver des locatifs différents dans des éditions différentes. Dans les recueils de poèmes
de Wang Fanzhi (VIIIe siècle), par exemple, on trouve xia « sous » à la place de nei
« dans », shang « sur » à la place de wai « hors de », et même dong « à l’est de » à la place
de xi « à l’ouest de », ou xia « sous » à la place de shang « sur ».
26 Cette situation indique que les locatifs ont été vidés de leur sens précis et concret (« sur »
et « sous » pour l’axe vertical, « dans » pour la contenance, « devant » et « derrière » pour
l’axe sagittal, etc.) et n’expriment plus qu’une position vague. On peut même considérer
qu’ils ont subi un processus de grammaticalisation et qu’ils sont devenus de simples
marqueurs fonctionnels servant à transformer les noms auxquels ils sont attachés en
mots de lieu.
27 Quelques siècles plus tard, ils reprendront leur sens concret originel pour exprimer à
nouveau une localisation, une position précise.
Conclusion
Tableau 3
Personne Qui ?
Objet/Activité Quoi ?
Espace Où ?
Temps Quand ?
Qualité/Manière Comment ?
32 Jackendoff (1983 : 56), de son côté, parle de catégories ontologiques, qu’il présente ainsi :
Tableau 4
Personne …
Objet Chose
Activité Action
… Événement
Espace Lieu
… Direction
Temps …
Qualité Manière
… Quantité
33 Peyraube et Wu (2000) ont analysé dans le détail l’emploi de tous les pronoms
interrogatifs dans une dizaine d’œuvres chinoises représentatives du haut-archaïque (XI e-
VIe siècle av. J.C.) et du bas-archaïque (V e-IIe siècle av. J.-C.). Pour chacune de ces deux
périodes, une distinction a été opérée entre plusieurs catégories sémantiques : OBJET/
ACTIVITÉ correspondant aux pronoms « quoi ?/quel ? », PERSONNE (« qui ? »), QUALITÉ/
97
MANIÈRE (« comment ? »), CAUSE/RAISON (« pourquoi ? »), TEMPS (« quand ? »), ESPACE
(« où ? »), QUANTITÉ (« combien ? »).
34 Pour la période du haut-archaïque, une dizaine de pronoms sont utilisés. Quatre d’entre
eux sont courants (avec plus de 40 occurrences) et expriment des sens divers, comme
l’indique le tableau suivant (un minimum de 5 occurrences a été retenu pour la
caractérisation des significations) :
Tableau 5
shei 48 qui ?
35 [he1 et he2 correspondent à des caractères d’écriture différents ; il s’agit de deux mots
distincts]
36 Exemples :
(9) jin er he jian ? (Shang shu, vers VIIe siècle av. J.-C.)
maintenant vous quoi prendre-pour-exemple
Qu allez-vous prendre pour exemple, maintenant ?
(10) ren zhi wei yan hu de yan ? (Shi jing, vers VIII e siècle av. J.-C.)
gens part.-déterminative faire mot comment être-efficace part.-finale
Comment des mots fabriqués par des gens (deviennent-ils si) efficaces ?
(11) shi wei shi wei hu bu gui ? (Shi jing)
lumière estomper lumière estomper
pourquoi négation revenir
La nuit tombe, la nuit tombe,
pourquoi ne revient(-il) pas ?
37 Pour la période du bas-archaïque, sept pronoms interrogatifs sont couramment utilisés
(plus de cent occurrences) sur une quinzaine attestés. Ils expriment aussi des sens divers,
comme l’indique le tableau suivant (un minimum de 40 occurrences a été retenu pour la
caractérisation des significations) :
Tableau 6
38 Exemples :
(12) xi wei xiao zhong ? (Xunzi, IVe siècle av. J.-C.)
quoi appeler petit loyauté
Qu’est-ce que (vous) appelez une petite loyauté ?
(13) wu shei qi ? Qi tian hu ? (Lun yu, Ve siècle av. J.-C.)
je qui décevoir décevoir Ciel part.-finale
Qui (vais) je décevoir ? Le Ciel ?
40 On remarque aussi que bon nombre de ces pronoms interrogatifs sont polysémiques, en
bas-archaïque comme en haut-archaïque : he1, par exemple, qui signifie « quoi ?/quel ? »,
mais aussi « comment ? » ou « pourquoi ? » à la fois en haut-archaïque et en bas-
archaïque ; hu « comment ? » ou « pourquoi ? » en haut-archaïque ; wu « comment ? » ou
« où ? » en bas-archaïque.
41 Comment rendre compte de cette polysémie ? On peut considérer que les catégories sont
formées autour de prototypes qui fonctionnent comme des points de référence cognitifs.
Ces catégories ne sont donc pas homogènes et elles ont des frontières qui ne sont pas
délimitées précisément. Elles sont composées d’unités plus ou moins représentatives. Ce
sont les unités les plus représentatives qui sont les prototypes. De plus, ces prototypes de
catégories cognitives ne sont pas définitivement fixés, ils peuvent varier en fonction du
contexte. On a alors affaire à un « changement prototypique », semblable au
« changement sémantique » de la sémantique historique traditionnelle.
99
43 Quelles conclusions peut-on en tirer sur les contours cognitifs des catégories auxquelles
correspondent les pronoms interrogatifs ?
1. Le système des pronoms interrogatifs pour la PERSONNE est simple. Il y a un seul pronom
prototypique qui, de plus, n’est jamais employé pour d’autres catégories.
2. Un autre pronom prototypique est couramment utilisé pour la catégorie OBJET/ACTIVITÉ. Il y
a assurément une relation cognitive spéciale entre ces deux catégories, ce qui n’est pas
surprenant3. Le même pronom est aussi employé pour la catégorie CAUSE/RAISON après qu’un
changement prototypique est intervenu entre le haut-archaïque et le bas-archaïque
(changement qui a transféré les traits importants de la catégorie OBJET/ACTIVITÉ à la
catégorie CAUSE/RAISON et qu’on peut caractériser comme un changement de prototype
global vers un prototype plus spécifique).
3. La catégorie QUALITÉ/MANIÈRE, elle, est assez floue. Il existe bien de nombreux pronoms
correspondants, mais aucun d’entre eux n’est manifestement prototypique.
4. Les catégories ESPACE et TEMPS, enfin, sont moins nécessaires et donc moins fondamentales
dans le modèle cognitif, lié sans doute au modèle culturel des Chinois de l’Antiquité.
Conclusion
47 Les nouvelles analyses sur la polysémie (vieille question linguistique, mais qui n’est
toujours pas définitivement résolue), sur les transferts conceptuels, métaphoriques ou
métonymiques, jouent un rôle central en linguistique cognitive5. Il en va de même de la
notion de prototype, reprise de la psychologie expérimentale, et introduite aussi bien en
syntaxe qu’en sémantique. Il ne fait pas de doute que ces préoccupations majeures de la
linguistique cognitive ont renouvelé passablement les études en syntaxe et sémantique
diachroniques.
48 Il n’est pas moins évident que les langues étant des produits historiques (elles n’ont pas
été créées par les gens qui les utilisent aujourd’hui), elles doivent être aussi expliquées
par rapport aux forces, aux tendances qui les ont formées et qui les ont fait évoluer (cf.
Heine 1997 : 1-16). Et de même que la structure des langues peut refléter les modèles de
conceptualisation de l’homme parce qu’elle est en grande partie basée sur ces modèles,
l’évolution des structures linguistiques apporte des informations précieuses sur la nature
du changement conceptuel, qui détermine aussi l’organisation conceptuelle actuelle.
49 Une approche cognitive qui intègre la dimension diachronique — et aussi la diversité des
langues — aura assurément un pouvoir explicatif plus grand qu’une approche qui
ignorera cette dimension.
50 Les rapports entre grammaire historique, linguistique typologique et linguistique
cognitive ne peuvent que se renforcer tant ils apparaissent aujourd’hui décisifs.
NOTES
1. Sur les liens étroits qui existent entre linguistique typologique et linguistique cognitive, cf.
Croft (1999).
2. Pour une analyse des mécanismes et des motivations du changement grammatical dans les
langues, en dehors du phénomène de grammaticalisation, cf. Peyraube (2002).
3. Une enquête menée par Heine, Claudi et Hünnemeyer (1991 : 56) sur quatorze langues
différentes révèle que toutes ces langues ont les mêmes interrogatifs pour OBJET (exemple :
« qu’est-ce qu’elle a bu ? ») et pour ACTIVITÉ (exemple : « qu’est-ce qu’elle a fait ? »).
4. On peut la comparer avec le modèle de progression des catégories métaphoriques de Heine,
Claudi et Hünnemeyer (1991 : 55) : PERSONNE > OBJET > PROCESSUS > ESPACE > TEMPS > QUALITÉ.
5. Cf. les discussions très détaillées que leur consacre, par exemple, Lakoff (1987).
101
AUTEUR
ALAIN PEYRAUBE
Directeur de recherche au CNRS et directeur d’études à l’École des hautes études en sciences
sociales, Centre de recherches linguistiques sur l’Asie Orientale (UMR 8563, EHESS/CNRS, Paris).
peyraube@ehess.fr
102
Éléments de psycholinguistique
cognitive : des représentations à la
compréhension
Jean-François Le Ny
1 Bien que les relations entre linguistique et psychologie se soient nouées très tôt, et soient
déjà présentes, pour l’Europe, dans le travail fondateur de Ferdinand de Saussure, c’est
dans le contexte de la théorie de l’information (ou « de la communication ») qu’elles se
sont cristallisées dans leur orientation contemporaine, c’est-à-dire cognitive. En 1951
paraît le livre de G.A. Miller, Langage et communication et, en 1954, se crée de façon
volontariste la « première psycholinguistique », qui intègre les idées du behaviorisme
finissant (C.E. Osgood) et de la linguistique de T.A. Sebeok.
2 C’est dans les années qui suivent que se dessinent les deux évolutions qui, l’une et l’autre,
contribuent à la substitution du paradigme cognitif à l’orientation behavioriste. En 1957
paraît Syntactic Structures, et en 1965 Aspects of the Theory of Syntax : à partir de là, la
théorisation de Chomsky imprègne profondément tout un courant de la recherche
(Mehler et Noizet, 1974), qu’on désigne parfois comme « deuxième psycholinguistique ».
Celle-ci reprend naturellement l’idée de Chomsky que « la linguistique est une branche de
la psychologie cognitive », mais aussi l’interprétation qui en est donnée par la primauté
accordée à la syntaxe, le caractère fortement déductif de la formalisation linguistique qui
la fonde, et le caractère radical de l’innéisme appliqué à la fonction biologique de
langage : celui-ci est vu comme un organe mental, une faculté spécifique à l’espèce
humaine, doté d’une grammaire universelle, préalable à toute acquisition d’une langue
particulière. La psycholinguistique qui en dérive s’efforce de valider par les moyens de
l’expérimentation les conceptions générativistes de Chomsky : elle repose sur l’idée que le
traitement du message linguistique est d’abord (y compris temporellement) syntaxique,
qu’il s’effectue fondamentalement sur la base d’une reconnaissance de structures de
phrase qui sont indépendantes du sens, et que c’est seulement de façon secondaire qu’y
est introduite l’interprétation sémantique. Cette seconde psycholinguistique est
fortement marquée par l’idée de traitement symbolique, illustrée notamment, en position
104
Techniques et méthodes
10 Un certain nombre de techniques expérimentales ont montré, à l’usage, leur fécondité
pour l’exploration conjointe des représentations, ou des relations entre représentations,
et des processus. On peut utilement les subdiviser en trois classes, distinguées en fonction
d’une propriété fondamentale qui affecte tous les aspects du langage : le degré
d’implication délibérée (ou volontaire), et consciente, des participants dans les tâches
qu’on leur demande d’accomplir. On emploie souvent « explicite » lorsque l’activité
mentale est fortement délibérée et consciente, et « implicite » lorsque les modes de
fonctionnement sont automatiques et non conscients ; il faut bien distinguer ce « non
conscient » de l’« inconscient », au sens psychanalytique du mot. Le langage peut
fonctionner selon l’une ou l’autre de ces deux modalités, explicite ou implicite, ou selon
des degrés intermédiaires, et il convient de l’étudier en en tenant compte.
11 Une première classe de techniques expérimentales de la psycholinguistique fait appel à
des activités explicites. Elle vise à recueillir des données, souvent simples, sur de larges
échantillons de locuteurs quelconques, dont on veille à ce qu’ils soient représentatifs
d’une population ou sous-population linguistique déterminée : les adultes français
instruits (le plus souvent des étudiants), les enfants scolarisés ayant de tel à tel âge, les
personnes âgées, etc. Ces expériences reposent le plus souvent sur des questions, directes
et faciles, auxquelles les participants répondent sans peine : « Citez cinq sortes de mots
désignant des membres de la catégorie suivante (par exemple “poisson”) », « Regroupez,
parmi les mots suivants, ceux qui se ressemblent par leur signification », « Indiquez si ces
phrases sont ou non grammaticalement correctes », « Produisez quatre compléments
d’objet des verbes suivants », « Indiquez, sur une échelle de 1 à 9, le degré de familiarité
qu’ont subjectivement pour vous les mots de la liste suivante », etc. C’est dans cette
catégorie de techniques que se range celle d’« association libre », qui est ancienne et
demeure importante : « Donnez le premier mot qui vous vient à l’esprit en réponse au
mot suivant ».
12 Toutes ces techniques font appel aux compétences et à l’intuition de locuteurs
quelconques, et c’est seulement par l’utilisation de ces locuteurs multiples qu’elles se
distinguent de techniques qu’utilisent aussi, sous une autre forme, les linguistes qui font
appel à leur intuition de la langue et de l’usage, celle d’un locuteur expert. Beaucoup des
données recueillies par les techniques psycholinguistiques qu’on vient de décrire
conduisent à l’élaboration de « normes » langagières, considérées, elles aussi, comme
statistiquement représentatives d’une population linguistique déterminée : elles sont une
description des régularités existant dans les esprits des locuteurs de cette population, et
elles n’ont de ce fait aucune sorte de valeur prescriptive. Elles se sont, à l’usage, révélées
être très robustes, c’est-à-dire reproductibles, et certaines de leurs propriétés les plus
générales sont communes à une pluralité de langues, du moins celles qui ont été mises en
œuvre jusqu’ici. Par extension non démentie, on les regarde comme universelles.
107
13 La validité de ces données normatives vient en effet de ce qu’elles sont bien corrélées
avec d’autres données, de caractère psychologique ou linguistique. Un exemple très
caractéristique, et important, concerne les divers effets de fréquence que l’on rencontre à
chaque pas en psycholinguistique. Supposons que l’on fasse estimer, comme dans l’avant-
dernier exemple ci-dessus, la familiarité subjective d’un vaste ensemble de mots, jugée
sur une échelle de 1 à 9. Ce n’est à première vue que l’expression d’un sentiment assez
vague dans l’esprit des locuteurs ; et pourtant le classement de ces degrés se montre
statistiquement robuste. Qui plus est, si on le confronte au classement des fréquences
d’usage de ces mêmes mots dans la langue, tel qu’il est fourni aujourd’hui à partir de
décomptes par ordinateur réalisés sur de vastes bases de textes, on trouve une corrélation
statistique extrêmement forte : plus un mot apparaît subjectivement familier aux
locuteurs, plus il est objectivement fréquent dans la langue, tous environnements
linguistiques confondus. Causalement, c’est évidemment la seconde caractéristique qui
doit être considérée comme déterminant la première : plus un mot est fréquent dans des
textes (et, par extension non démentie, dans le discours oral), plus sa probabilité est
grande d’être rencontrée par un locuteur quelconque, et donc d’être traitée
cognitivement par ses processus de langage. Et plus, par voie de conséquence,
l’accumulation de ces rencontres doit normalement avoir augmenté l’état de disponibilité
du mot dans la mémoire de chaque locuteur, et le sentiment de familiarité qui en dérive.
Ce n’est pas tout, puisque d’autres mesures, réalisées avec d’autres techniques, font
apparaître aussi de fortes corrélations : plus le mot est familier et fréquent, et plus il est
perçu rapidement prononcé rapidement, ou jugé rapidement comme étant un mot de la
langue.
14 À côté de la première catégorie de techniques explicites, il en existe une deuxième, qui
prend en compte des paramètres débordant les précédents. Elles reposent sur des tâches
similaires à celles qui ont été décrites, mais ce qui en est retenu, c’est le temps avec lequel
elles sont accomplies. Ainsi pourra-t-on, par exemple, présenter des mots qu’il faut
percevoir, dans des conditions de perceptibilité qui peuvent varier, ou qui sont à
prononcer à voix haute, ou pour lesquels on demande une « décision lexicale » : indiquer
si une suite de lettres, telle que « busareau » ou « colonie », constitue ou non un mot
français, dans une séquence de mots vrais et de non-mots présentés au hasard. Toutes ces
tâches sont à nouveau très élémentaires et faciles. Mais les données auxquelles on
s’intéresse sont seulement les « temps de réponse » qui leur correspondent ; ceux-ci sont
parfois spécifiés (« temps de perception », « temps de dénomination », « temps de
décision lexicale », etc.), et se mesurent généralement en millisecondes, avec des
différences utiles de l’ordre de la dizaine de millisecondes. Des techniques similaires
peuvent être appliquées à des activités plus complexes ; par exemple on mesure souvent
des temps de lecture de phrases dont on a spécifié de nombreuses caractéristiques
(longueur, structure syntaxique, complexité, fréquence des mots, etc.) et dont on fait
varier une propriété expérimentale.
15 L’intérêt théorique de toutes ces mesures de « temps de... » tient à ce qu’elles constituent
une expression mesurable d’une réalité plus profonde, le « temps de traitement » qui,
dans l’esprit/cerveau des participants, correspond à l’exécution de la tâche considérée.
Plusieurs décennies de recherche montrent deux choses : 1. Ces temps sont
statistiquement très stables dans des conditions bien fixées ; 2. Ils sont statistiquement
très variables en fonction des conditions. L’exploitation de ces deux propriétés fait d’eux
des indicateurs précieux pour l’analyse fine du fonctionnement mental. Des modèles plus
108
il dispose pour créer un objet physique, l’énoncé, dont il sait implicitement qu’il produira,
dans l’esprit du compreneur, la représentation qu’il vise. Comprendre consistera pour le
récepteur, sur l’autre versant, à utiliser les processus physiologiques et mentaux dont il
dispose, ainsi que les connaissances diverses, linguistiques et générales, dont il est
porteur pour construire une représentation mentale qui interprète l’énoncé, c’est-à-dire
qui corresponde, avec plus ou moins d’exactitude, à celle qui constituait la visée cognitive
du locuteur.
23 Cette façon de psychologiser le sens sous forme de représentations mentales n’invalide en
rien la notion de sens univoque, c’est-à-dire de représentation terminale partagée, ou
partageable, par une communauté de compreneurs. Dans les cas favorables, l’existence de
mécanismes neuronaux et cognitifs universels, de connaissances linguistiques communes
et de références conceptuelles similaires garantit que cette représentation terminale
partagée comporte peu de variabilité interindividuelle. Dans d’autres cas, elle en
comporte beaucoup : ce peut être de l’ambiguïté et de l’incompréhension, ou ce peut être
de la richesse. La variabilité du sens, qui exprime la flexibilité du langage, en est une
propriété naturelle : elle relève, elle aussi, de régularités et donc d’une explication
psycholinguistique. C’est le cas par exemple, dans la production ou la compréhension de
métaphores (Gineste et Scart-Lhomme 1999 ; Franquart-Declercq et Gineste 2001 ; Le Ny
et Franquart-Declercq 2001, 2002).
24 Le fonctionnement cognitif fin qui assure la compréhension repose sur un ensemble de
processus fondamentalement automatiques et, pour l’essentiel, inconnus du compreneur.
Ils se déroulent dans la mémoire de travail de celui-ci, par un échange incessant entre la
perception et la mémoire à long terme qui réalise la construction du sens. Les travaux des
nombreux chercheurs ayant contribué à l’étude de ces processus, parmi lesquels on peut
citer ceux de Kintsch (1988, 1998) ou de Gernsbacher (1990,1994), se sont déroulés dans ce
cadre. Si l’on s’en tient à la compréhension d’une phrase, deux moments principaux en
sont l’activation de significations préexistantes, notamment lexicales, et leur assemblage,
contrôlé par des règles de compétence syntaxiques et sémantiques. « Assemblage » est ici
un équivalent de nature psychologique de ce qu’on appelle, dans divers autres contextes,
« prédication• » : deux exemples caractéristiques en sont l’assemblage nom + adjectif,
sémantiquement chose + propriété (ou état d’une propriété), et l’assemblage sujet + verbe
+ objet, sémantiquement agent + action + patient. Des deux on peut donner une notation
propositionnelle (Pa, Pab), qui renvoie à l’idée précédemment mentionnée que les
prédicats et les propositions ont aussi une existence mentale, celle de schémas cognitifs
fondamentaux.
25 Les significations de mots sont supposées être stockées dans le lexique mental de tout
locuteur sous forme d’unités lexicales connectées entre elles, et dont chacune comporte
une représentation de la forme du mot (représentation double chez les locuteurs lettrés,
phonologique et orthographique) et une, ou plusieurs, signification(s) associée(s). Au
cours de la compréhension, chaque mot m, doit d’abord, dans le flux du discours oral ou
écrit, être perçu et reconnu. Un premier ensemble de processus est mis en œuvre de
façon cyclique pour assurer cette fonction. Le principe général en est qu’ils opèrent par
comparaison de l’information entrante perceptive, que véhicule la forme physique du
mot, avec les représentations des formes lexicales en mémoire à long terme. Ces
processus de reconnaissance (Gineste et Le Ny 2002 ; Ségui et Ferrand 2000, pour une
présentation résumée) sont aujourd’hui généralement conçus dans le cadre de modèles
connexionnistes : ils concernent d’abord la forme du mot, et activent initialement la
111
représentation qui lui correspond. On peut sans doute imputer aux mêmes processus la
reconnaissance des flexions, en tant que marques perceptives associées aux mots,
variables selon les langues, et celle de relations internes à l’énoncé, par exemple l’ordre
des mots quand il est pertinent.
26 Un autre processus fondamental prend directement la suite du précédent, en quelques
centaines de millisecondes : l’« accès » à la signification du mot, conçu aussi aujourd’hui
comme une activation. Ce processus peut inclure, pour les mots ambigus ou
polysémiques, une phase de désambiguïsation, c’est-à-dire de sélection de l’acception qui
convient au contexte. Ces questions ont, elles aussi, été bien étudiées expérimentalement.
Dans le même registre se déroule l’interprétation sémantique des flexions associées aux
mots et de leur ordre. Elle assure notamment l’attribution des rôles thématiques, en
particulier ceux d’agent et de patient.
27 À l’issue de cette phase, qui concerne chaque mot mi du message, la signification de celui-
ci est active dans la mémoire de travail du compreneur, et elle est venue s’ajouter à la
signification déjà activée des mots antérieurs. L’activation concernant mi peut d’ailleurs
avoir été précédée par des phénomènes d’anticipation, c’est-à-dire de pré-activation de m
i suscitée par les mots antérieurs à lui – comme on l’a vu plus haut à propos de
l’amorçage. Elle peut, de son côté, produire une pré-activation de la signification de mots
attendus postérieurement à mi sur la base d’expectations probabilistes stockées en
mémoire.
28 À ces informations sémantiques, issues des connaissances lexicales, s’ajoutent dans la
mémoire de travail celles qui sont fournies par l’interprétation des données
grammaticales de surface (marques morphosyntaxiques, ordre des mots, mots antérieurs
proches, pour les anaphores, etc.), celles qui viennent des inferences, et enfin celles qui
sont apportées, à l’extérieur du langage, par la situation d’énonciation. Dans les
conceptions interactionnistes (connexionnistes) aujourd’hui dominantes, on cherche à
comprendre comment toutes ces informations, nombreuses et complexes, sont combinées
et assemblées pour construire le sens. Une hypothèse qui se trouve au premier plan est
que cette construction se fait dans des cadres ou schémas de grande ampleur, mais
hautement spécifiés, comme celui de « représentation de situation » (Le Ny 2000), une
notion très présente dans les recherches actuelles.
29 De la façon dont s’effectue la prédication on peut donner une idée en s’appuyant sur les
travaux, linguistiques (François, 2003) et psycholinguistiques, qui concernent la
sémantique des verbes (François 2003) : le fonctionnement des verbes transitifs, ceux qui
donnent lieu à des énoncés de structure SVO, est très caractéristique à cet égard. Il
apparaît que la représentation mentale des verbes transitifs dans la mémoire des
locuteurs est associée à, et d’une certaine façon « contient », la représentation de leurs
agents et patients possibles : or ce sont ceux-ci qui sont destinés à devenir les sujets et les
objets des phrases que ces locuteurs produiront ou interpréteront dans le futur. Cela,
implicitement, les locuteurs le savent.
30 Ferretti, McRae et Hatherell (2001), McRae, Ferretti et Amyote (1997) ont montré
expérimentalement, notamment par les techniques d’amorçage sémantique décrites ci-
dessus, que la présentation d’un verbe est capable d’amorcer celle de ses agents, patients
et instruments. Autrement dit, en suivant l’interprétation standard, quand un tel verbe V
apparaît, il pré-active ses patients possibles dans l’esprit/cerveau des locuteurs. Cela vaut
au laboratoire, mais aussi sans doute dans le discours naturel : dans le flux d’un énoncé
SVO typique, la perception d’un nom un instant après la perception de V devrait ainsi
112
Conclusion
31 Les échanges de données, d’analyses, d’hypothèses, entre la linguistique et la psychologie
cognitive du langage continuent donc à être très intenses. La façon dont la
psycholinguistique a été conceptualisée dans son court passé, et dont ont été envisagées
les relations entre les deux disciplines qui s’y rencontrent, a indubitablement varié, et on
peut s’attendre à ce qu’elle change encore. Comme nous l’avons indiqué, ces relations
s’établissent aujourd’hui le plus souvent de façon locale, à propos de la résolution de
questions particulières, et non dans le cadre d’une théorie très générale du langage. Mais
ces échanges témoignent de ce qu’une connaissance scientifique du langage et, au-delà,
de la cognition repose sur la mise en œuvre de plusieurs approches, différentes mais
complémentaires, qu’une bonne stratégie de recherche doit veiller à faire converger.
AUTEUR
JEAN-FRANÇOIS LE NY
Professeur émérite à l’université de Paris-Sud. Groupe « Cognition Humaine » du Laboratoire
d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (UPR 3251, CNRS/Université
Paris XI, Orsay).
113
Jean-Luc Nespoulous
De la linguistique à la psycholinguistique et à la
neuropsycholinguistique : origines et évolution
1 En 1941, Roman Jakobson octroyait leurs premières lettres de noblesse aux « évidences
externes » que la théorie linguistique est selon lui en droit d’aller chercher dans des
domaines, fort divers en apparence, comme l’acquisition du langage par l’enfant ou la
pathologie du langage, particulièrement celle qui fait suite à des lésions du système
nerveux central dans le contexte de ce que la neurologie nomme « aphasie »1 (Jakobson,
1968).
2 De telles « évidences », toujours selon Jakobson, sont censées per mettre la validation ou
l’invalidation de tel ou tel concept opératoire forgé, dans un souci d’autonomie
disciplinaire, par les tenants de la linguistique générale issue des enseignements de
Ferdinand de Saussure en Europe, et de Leonard Bloomfield, aux USA.
3 Vers la fin des années 1960, et dans le contexte de l’émergence du courant cognitiviste 2, la
nécessité est alors réaffirmée d’une étude des processus sous-jacents à la production et à
la compréhension du langage chez le sujet normal et/ou pathologique, étude laissée de
côté par les tenants de la démarche linguistique évoquée ci-dessus, ainsi que par le
courant behavioriste en psychologie.
4 Dès lors, et particulièrement dans le domaine de la pathologie du langage, trois
disciplines se trouvent légitimement et inéluctablement convoquées : la linguistique, la
psycholinguistique et la neuro-psycholinguistique.
114
5 Le rôle spécifique de chacune des trois disciplines ne pose guère problème. En bref :
• La linguistique spécifie les propriétés structurales de telle ou telle langue naturelle à chacun
de ses niveaux d’organisation : phonologique, morphologique, syntaxique... Son objet est
donc l’identification de l’« architecture structurale » des langues et, à travers ces dernières et
leur diversité, de l’architecture structurale du langage dans l’espèce humaine ;
• la psycholinguistique, de son côté, s’assigne pour objectif de caractériser les niveaux de
représentation et les processus cognitifs présidant au traitement par l’esprit humain – si
possible en temps réel – desdites structures linguistiques, et ce en production comme en
compréhension, à l’oral comme à l’écrit. Son objet est donc de spécifier l’« architecture
fonctionnelle » sous-jacente du langage ;
• la neuropsycholinguistique, pour sa part, tente, encore fort modestement, de « réconcilier
l’esprit et le corps » (= le cerveau), dans un effort d’identification des structures cérébrales
ou réseaux neuronaux mobilisé(e)s lors du traitement cognitif de telle ou telle composante
de l’« architecture fonctionnelle » du langage dans telle ou telle activité langagière. Son
objet est donc d’appréhender l’« architecture cérébrale », neuronale, du langage.
6 Pour être complémentaires, ces trois disciplines n’en entretiennent pas moins des
relations hiérarchiques. Ainsi, s’il est possible d’être linguiste sans être psycholinguiste, il
semble clairement impossible d’être psycholinguiste sans de solides connaissances en
linguistique. De même, s’il est envisageable d’être psycholinguiste sans être neuro
psycholinguiste3, il semble impossible de s’intéresser au substrat biologique de la parole
et du langage, dans un domaine comme la pathologie du langage, sans de solides
connaissances en psycholinguistique et en linguistique (Nespoulous 1997).
7 Ensemble, ces trois disciplines permettent – certes de manière encore fort limitée,
compte tenu de la complexité du comportement verbal – de faire avancer trois des
interrogations fondamentales en matière de sciences cognitives :
• L’interrogation sur le « quoi ? », c’est-à-dire sur la nature des phénomènes linguistiques
étudiés ;
• l’interrogation sur le « comment ? », c’est-à-dire sur la nature des opérations mentales sous-
jacentes aux comportements verbaux ;
• l’interrogation sur le « où ? », c’est-à-dire sur les réseaux cérébraux – compacts ou distribués
– à l’origine de ces comportements4.
calcule, l’esprit humain planifie, l’esprit humain anticipe. Il n’est donc pas cette bête
machine fonctionnant sur la seule base d’une suite ordonnée d’activations et d’inhibitions
« gauche-droite », telle que d’aucuns ont pu en rêver aux débuts de l’intelligence
artificielle.
10 D’autres linguistes, tels Wells (1951) et Hockett (1955, 1958, 1967), affichent également un
réel intérêt pour ce que de tels phénomènes (« slips of the tongue ») sont susceptibles de
révéler sur le fonctionnement langagier.
11 Vers la fin des années 1960 et au début des années 1970, les articles se multiplient. Ils
émanent alors aussi bien de linguistes que de psycholinguistes. Parmi eux, le célèbre
article de V. Fromkin, paru dans Language en 1971 : « The Non-Anomalous Nature of
Anomalous Utterances », suivi deux ans plus tard par un volume entier édité par la même
V Fromkin, Speech Errors as Linguistic Evidence, et par un dernier, en 1980, Errors in
Linguistic Performance. Dans ces trois publications, elle relève un certain nombre de
« notions linguistiques » qui semblent, du fait de la nature de certaines erreurs, posséder
une « réalité psychologique », c’est-à-dire correspondre à diverses opérations mentales
de l’esprit humain en situation de production langagière. Ainsi, l’observation, chez les
sujets normaux aussi bien que chez les patients cérébrolésés, de divers phénomènes de
substitution, d’omission, d’addition et de déplacement des unités linguistiques
appartenant aux deux niveaux d’articulation des langues naturelles, permettent de
valider des notions telles que celle de « segment », de « trait phonétique/phonémique »,
de « groupe consonantique » en tant que séquence de segments discrets (à la différence
des affriquées7), de « syllabe », de « contrainte phonotactique », d’« accent », de
« catégorie grammaticale », de « trait sémantique »...
12 À partir des publications de Fromkin, l’objectif des travaux en la matière va toutefois plus
loin que celui des linguistes de la première époque. Il s’agit à présent de tenter d’utiliser
ces dérives et erreurs de parole pour édifier, petit à petit et au fur et à mesure des
observations, des « modèles de performance » rendant compte, de manière plausible8, (a)
de l’architecture fonctionnelle du langage dans le cerveau/esprit humain9 et (b) des
différentes opérations cognitives qui sous-tendent l’activité langagière. C’est à cette tâche
que va se consacrer à son tour, quelques années plus tard, M. Garrett, ultérieurement
relayé par S. Shattuck-Hufhagel. Comme ses prédécesseurs, M. Garrett va surtout utiliser
les erreurs de performance, occasionnelles, recueillies auprès de sujets normaux pour
bâtir son modèle de production de phrases. Toutefois, constatant que les aphasiques
constituaient une population propice à la production en grand nombre d’erreurs de
performance, il va également s’intéresser à ces derniers à partir des années 1980 et son
modèle sera dès lors souvent utilisé par les neuropsycholinguistes dans leur tentative
d’identification des processus cognitifs perturbés chez tel ou tel patient, un rôle que joue
de plus en plus souvent aujourd’hui le modèle de P. Levelt.
13 L’examen des modèles linguistiques utilisés dans l’analyse des erreurs de performance
permet de constater que, contrairement à ce que d’aucuns prétendent, il n’a pas fallu
attendre l’avènement de la grammaire générative pour que soit appréhendé, de manière
pertinente et efficace, le déterminisme sous-jacent – psycholinguistique de celles-ci 10. Si
ce dernier courant a, de toute évidence, joué un rôle crucial, voire quasi exclusif à un
certain moment, dans le développement de cette discipline, il semble clairement
déraisonnable de considérer un tel modèle comme le seul à posséder des propriétés
« psycho-ou neuro-compatibles » ! Si un tel courant n’a donc pas le monopole intrinsèque
de la neurocompatibilité, il appartient toutefois aux autres courants linguistiques, et en
116
Doubles dissociations
parfois le seul à être cité – requiert le plus souvent la mise en confrontation de deux
patients.
19 Lorsqu’un patient P1 fait montre de la perturbation d’un système (ou sous-système ou
composante) A et de la préservation concomitante d’un système (ou sous-système ou
composante) B, alors qu’un patient P2 témoigne de l’existence de la dissociation inverse,
conclusion est tirée de l’autonomie fonctionnelle des systèmes ou sous-systèmes A et Β dans
l’architecture fonctionnelle du langage dans le cerveau/esprit humain, y compris, bien
entendu, dans le cerveau/esprit humain du sujet normal, par extrapolation et en vertu du
postulat de transparence déjà mentionné (Séron 1993).
20 Une même conclusion de l’autonomie fonctionnelle de divers systèmes ou sous-systèmes
cognitifs peut être atteinte, quoique plus rarement, chez un seul et même patient. C’est
du moins ce que certaines études de cas ont permis d’avancer : ainsi, Rapp, Benzing et
Caramazza (1995) ont rapporté le cas d’un patient qui avait de mauvaises performances
en production de noms vs. de verbes à l’oral alors qu’il présentait le « pattern » inverse en
production écrite, un double profil symptomatologique qui n’est pas aisé à interpréter,
sauf à multiplier, d’une manière peut-être exagérée, les représentations et les entités
fonctionnelles sous-jacentes au comportement verbal.
21 Bien évidemment, l’observation de telles doubles dissociations tend à renforcer la validité
de modèles « modulaires » du fonctionnement du langage. Il convient toutefois de
demeurer prudent sur ce point. S’il est vrai que, le plus souvent, la lésion cérébrale ne
vient pas perturber la totalité des aspects de la fonction linguistique, laissant ainsi
émerger une certaine sélectivité des atteintes, les « doubles dissociations » sont loin de se
manifester toujours par des phénomènes de « tout ou rien » (100 % vs. 0 %) ; il s’agit bien
plus fréquemment de simples contrastes phénoménologiques, certes statistiquement
significatifs, entre composante(s) langagière(s) (mieux) préservée(s) et composante(s)
langagière(s) (davantage) perturbée(s) (Shallice 1988) !
22 Quoi qu’il en soit, la neuropsychologie du langage a, de fait, permis de mettre en évidence
un certain nombre de dissociations de ce type, ce qui semble indiquer clairement que, en
matière linguistique de même que dans d’autres domaines cognitifs, « tout n’est pas dans
tout et réciproquement » !
23 Certaines de ces « doubles » dissociations sont même considérées comme « fortes » et
« robustes » (Shallice 1988), dont, à titre d’exemple, la dissociation « Noms/Verbes ».
24 Certains travaux menés sur des sujets aphasiques au cours des deux dernières décennies
semblent en effet avoir mis en évidence une double dissociation dans la gestion de ces
deux catégories de constituants linguistiques. Ainsi, certains patients seraient meilleurs
dans la production et/ou dans la compréhension de noms que dans celle de verbes,
d’autres patients présentant la tendance préférentielle inverse (Miceli et al. 1984, 1988 ;
Zingeser et Berndt, 1990 ; Bates et al. 1991 ; Chen et Bates 1998). Plus précisément, les
patients présentant une aphasie de Broca avec agrammatisme• – ordinairement à la suite
d’une lésion prérolandique12 gauche – produiraient plus aisément les noms que les verbes
alors que les patients présentant une aphasie de Wernicke – ordinairement à la suite
d’une lésion rétrorolandique13 gauche – géreraient mieux les verbes que les noms. Dans
quelques cas, certains auteurs vont même jusqu’à parler de déficit sélectif dans la gestion
des noms (Daniele et al. 1994 ; Miozzo et al. 1994 ; Breen et Warrington 1994 ; De Renzi et
Di Pellegrino 1995) ou dans la gestion des verbes (McCarthy et Warrington 1985 ;
118
Caramazza et Hillis 1991 ; Ardila et Rosselli 1994 ; Kremin 1994 ; Mitchum et Berndt 1994 ;
Orpwood et Warrington 1995 ; Manning et Warrington 1996)14.
25 Un examen attentif de la littérature neuropsycholinguistique permet cependant
d’identifier (au moins) trois limitations dans les travaux visant à valider une telle
dissociation :
• Tout d’abord, certaines études – reposant pourtant sur le même type de protocole
expérimental et ayant recours aux mêmes populations de patients que celles que nous
venons de citer – ne retrouvent pas la double dissociation Noms/Verbes, soit que les noms et
les verbes « souffrent » de manière équivalente dans les deux groupes de patients (Basso et
al. 1990), soit que les noms soient systématiquement mieux traités que les verbes dans tous
les cas (Williams et Canter 1987 ; Kohn et Pearson 1989) ;
• ensuite, d’autres études, plus fines, proposant un paradigme expérimental plus extensif – et
comportant donc différentes tâches mobilisant le même matériau linguistique (par exemple,
dénomination vs. discours continu) – montrent que les performances varient chez les mêmes
patients d’une tâche à une autre (Nespoulous et al. 1988 ; Berndt et al. 1997b ; Jonkers 1998 ;
Bastiaanse et jonkers 1998 ; Berndt et al. 1997a), une observation qui vient tempérer quelque
peu l’interprétation strictement modulariste du lexique mental telle que privilégiée par les
auteurs précédents (cf. Joanette et Goulet 1991, pour une revue critique de l’étude de
Zingeser et Berndt) ;
• enfin, et surtout, ces études reposent presque toujours sur la comparaison d’épreuves de
production (ou de compréhension) de Noms d’Objets vs. Verbes d’Action. Dès lors, il n’est
plus possible de savoir si la double dissociation observée est déterminée par l’appartenance
des items lexicaux testés à deux classes grammaticales distinctes, comme le suggère
pourtant l’intitulé des articles déjà publiés, ou par leurs statuts conceptuels respectifs.
26 Dans un tel contexte, de nouvelles études sont actuellement en cours (Nespoulous 1999),
contrastant la production de noms d’action et de verbes d’action dans des tâches de
production et de compréhension. Dès lors, si la double dissociation Noms/Verbes persiste
dans un tel protocole nouveau, elle ne pourra être interprétable qu’en termes
grammaticaux puisque la représentation sémantique sera maintenue constante dans les
deux cas. Les agrammatiques auraient alors véritablement un déficit spécifique dans le
traitement des verbes et les anomiques* présenteraient un déficit spécifique dans le
traitement des noms, que ces derniers renvoient à des objets, comme dans les études
précédentes, ou à des actions.
27 Si, au contraire, les deux types d’items lexicaux (noms et verbes d’action) sont également
perturbés, tout au moins chez certains patients (les agrammatiques, en particulier), il
conviendra alors de conclure à l’existence d’un déficit « de plus haut niveau »,
transcendant les variations de catégories grammaticales. Dès lors, la double dissociation
identifiée dans les travaux initiaux ne pourra(it) s’expliquer qu’en termes lexico-
sémantiques et fonctionnels – entités vs. procès – et non point sur la base de la
dichotomie Nom/Verbe. Les agrammatiques apparaîtraient alors comme présentant un
problème de gestion de la « fonction prédicative », en des termes empruntés à Luria et
repris par Jakobson (1956) ; les anomiques, de leur côté, présentant plutôt un problème de
lexicalisation des entités.
28 Ainsi, même certaines dissociations dites « fortes » ou « robustes » ne le sont pas
nécessairement et définitivement, pour peu que l’on examine les phénomènes
pathologiques avec une minutie qui n’a pas toujours été de saison !
119
29 De plus, depuis quelques années, certains chercheurs, ayant « obtenu » des doubles
dissociations après avoir lésé des systèmes connexionnistes ignorant tout des notions de
représentations, de fonctions et de modules, ont tenté de remettre en cause non point
leur existence même, mais les inférences qu’elles ont induites en matière de
« modularité » du fonctionnement de l’esprit et du cerveau humain (Plaut 1995 ; Juola et
Plunkett 2000 ; Dunn et Kirsner 200315).
30 On retrouve là la légitimité de la mise en garde et de la prudence de T. Shallice qui, dans
son ouvrage de 1988, disait clairement que (a) si des modules existent, alors les doubles
dissociations constituent un moyen de les identifier mais (b) qu’il serait trompeur de
conclure que puisqu’il existe des doubles dissociations, alors les modules doivent
également exister.
Dissociations simples
31 Si un même patient fait montre d’une perturbation dans le traitement d’un sous-
ensemble A de phénomènes linguistiques (phonologiques, morphologiques,
syntaxiques...) et/ou dans une tâche X, et de la préservation concomitante d’un autre
sous-ensemble Β de phénomènes et/ou dans une tâche Y, ET SI aucun autre patient ne
témoigne de l’existence de la dissociation inverse, conclusion est tirée (a) que les sous-
ensembles A et B, et/ou les tâches X et Y, n’ont pas à être différenciés dans l’architecture
fonctionnelle du langage dans le cerveau/esprit humain et (b) qu’ils ne se différencient
qu’en termes de complexité intrinsèque, le sous-ensemble B et/ou la tâche Y étant ainsi
considérés comme plus simples, cognitivement moins coûteux, par rapport au sous-
ensemble A et/ou à la tâche X16.
32 C’est là, à l’évidence, un type de dissociation qui intéresse autant le linguiste, à la
recherche d’« évidences externes », que le psycholinguiste et le neuropsycholinguiste.
33 Tous les modèles linguistiques, depuis l’avènement de la linguistique générale,
débouchent sur l’identification de hiérarchies structurales : les systèmes linguistiques –
les langues – ne sont point des systèmes « démocratiques » au sein desquels toute entité
vaut autant que toute autre. La « théorie de la marque », issue des travaux de
Troubetzkoy en phonologie, dans les armées 1930, postule ainsi l’existence de phonèmes
marqués, structuralement plus complexes, et de phonèmes non-marqués,
structuralement plus simples, au sein d’un seul et même système phonologique.
34 Dans un tel domaine, l’aphasie apporte des « évidences externes » importantes dans la
mesure où s’il a été relativement aisé de montrer qu’un patient gérait mieux les
phonèmes « non-marqués » que les phonèmes « marqués » (Blumstein 1973 ; Nespoulous
1984), nul n’a jamais observé le phénomène inverse... Il y aurait eu alors « double
dissociation » (cf. supra).
35 Pareillement, en termes de structures syllabiques, toujours au niveau phonologique, la
nature des erreurs engendrées par les aphasiques, tout particulièrement par les
aphasiques de Broca, a permis de valider divers modèles de phonologie métrique, prenant
en compte la structure syllabique (Nespoulous et al. 1998 ; Nespoulous 1998 ; Béland et
Paradis 1998). Ainsi, le patient a-t-il le plus souvent tendance à simplifier la structure
syllabique des représentations lexico-phonologiques de sa langue et, donc, à remplacer
des structures « branchantes » (par ex. CCV, CVCC, etc.) par des structures plus simples de
type : CVCVCV...
120
45 Par rapport à une telle architecture « postulée », l’ouvrage du psycholinguiste et, plus
encore, du neuropsycholinguiste est tout tracé : (a) il s’agit, d’une part, grâce aux doubles
dissociations, de valider la modularité, ou le « traitement fonctionnellement différentiel »,
des diverses composantes de la langue. Il s’agit ensuite (b) de valider les échelles de
complexité intra-modulaires ou intertâches, via la mise en évidence de dissociations
simples. Nombreux sont les travaux, particulièrement en pathologie du langage, qui ont
tout à la fois attesté la validité d’une telle démarche et bon nombre des caractérisations
structurales échafaudées par les linguistes.
Associations symptomatoogiques
46 Moins fréquemment étudiées que les deux cas de dissociations précédentes, les
associations symptomatologiques n’en constituent pas moins un domaine intéressant, et
délicat, en neuropsycholinguistique contemporaine.
47 De fait, à l’exception des cas « purs22 », la plupart des patients aphasiques engendrent, au
moins au niveau superficiel, plusieurs symptômes, voire même, chez certains, une
myriade symptomatologique qui conduit inéluctablement au double questionnement
suivant :
1. le patient souffre-t-il de plusieurs déficits « associés », que ces derniers restent dans la sphère
verbale ou qu’ils franchissent la frontière verbale/non verbale, du fait, éventuellement, de la
proximité anatomique de différents réseaux fonctionnels différents ?
2. ou y a-t-il, au-delà de l’hétérogénéité symptomatologique de surface, quelque principe,
mécanisme ou dénominateur « commun », susceptible de valider une interprétation unitaire
du déterminisme sous-jacent de l’ensemble des symptômes observés ?
53 Quelles que soient les réponses à ces différentes questions, celles-ci seront cruciales :
• Ou bien elles contribueront à étayer l’existence d’un seul système représentationnel profond,
sous-tendant les performances dans des domaines apparemment différents ; il y aura alors
« associations symptomatologiques » fortes interdomaines !
• ou bien elles contribueront à étayer l’hypothèse selon laquelle l’esprit/cerveau humain
dispose de systèmes cognitifs authentiquement distincts, et les modularistes auront alors
quelques nouveaux arguments objectifs !
54 En termes neurocognitifs, la problématique des éventuelles associations
symptomatologiques interdomaines, chez l’homme, ouvre également une perspective fort
prometteuse, mais non nouvelle, en matière de comparaison homme/animal. Ainsi, par
exemple, les perturbations interdomaines (incluant le langage) observées parfois chez
l’homme cérébrolésé ET les perturbations – obligatoirement non verbales induites chez
certains primates dans certaines conditions expérimentales (exérèses• ou
enregistrements unitaires•) constituent un enjeu majeur pour la recherche en sciences
cognitives. La question fondamentale est ici encore la suivante : les corrélats cérébraux
du langage chez l’homme, les corrélats cérébraux d’autres fonctions mentales supérieures
(toujours) chez l’homme ET les corrélats cérébraux de certains comportements chez
l’animal sont-ils fondamentalement différents OU, l’autonomie du langage étant alors
battue en brèche, cette habileté cognitive primordiale dans l’espèce humaine emprunte-t-
elle des réseaux fonctionnels déjà utilisés par d’autres fonctions, chez l’homme ainsi que
chez les animaux « supérieurs »23 ?
55 À travers les trois types de phénomènes exposés ci-dessus – doubles dissociations,
dissociations simples et associations – systématiquement recherchés par le
neuropsycholinguiste, une première incursion peut donc être faite dans le
fonctionnement de l’esprit humain, en matière de langage mais aussi en matière de
cognition au sens plus général du terme. Les travaux des trente dernières années dans le
contexte de la neuropsycholinguistique cognitive attestent de l’intérêt d’une telle
démarche, et ce même si, à l’évidence, la route est encore très longue !
59 Sans remettre en question les apports de cette méthode – complétée utilement par
l’arrivée des premières générations de scanners (permettant d’effectuer des observations
du vivant des patients) – il convient d’insister sur le caractère réductionniste d’une telle
conclusion « cartographique ».
60 Deux points, au minimum, ne peuvent dorénavant plus être ignorés. D’une part, du fait de
la localisation désormais très précise des lésions cérébrales responsables d’une aphasie, le
nombre d’exceptions au dogme de la localisation cérébrale n’a fait que croître :
• Patients avec une même symptomatologie mais présentant des lésions différentes ;
• patients avec une « même » lésion et présentant une symptomatologie différente ;
• patients avec de grosses lésions et une symptomatologie réduite ;
• patients avec une petite lésion et une symptomatologie lourde et diversifiée.
61 En d’autres termes, les exceptions sont nombreuses, qui viennent tempérer
l’enseignement neurologique classique (cf. Basso et al. 1985).
62 D’autre part, et plus crucialement, les lésions hémisphériques droites sont loin de n’avoir
aucun impact sur le fonctionnement langagier. En dehors des cas d’« aphasie croisée 24 »
(Joanette et al. 1982 ; Puel et al. 1982), qui semblent bien montrer que tout n’est pas
systématiquement et inéluctablement « précâblé » dans le cerveau, les patients
cérébrolésés droits – habituellement considérés comme nonaphasiques – s’avèrent
fréquemment perturbés dans divers aspects du traitement du langage. Depuis les travaux
initiaux de J. Eisenson (1959) et d’E. Weinstein (1964), la liste ne fait que s’allonger des
processus linguistiques perturbés par lésion droite (Joanette 1980) :
• La compréhension des métaphores (Pakzad et Nespoulous 1997) ;
• la compréhension des actes de parole indirects (Champagne 2001) ;
• la compréhension d’humour, des sarcasmes (Hannequin et al. 1987) ;
• le traitement des inférences et de l’implicite dans le discours (Duchêne 1997) ;
• le traitement de certains aspects de la prosodie (Hannequin et al. 1987).
63 De telles observations conduisent parfois à considérer que si la « grammaire », dans ses
aspects les plus formels et formalisables, est plutôt gérée par l’hémisphère gauche, le
« langage », pragmatique inclusivement, semble nécessiter la mobilisation de
l’hémisphère droit, le langage ou, plus précisément, ce que ce dernier a de plus élaboré et
de plus sophistiqué dans son fonctionnement. Dès lors, il n’est plus possible d’écarter les
cérébrolésés droits du champ d’étude du neuropsycholinguiste, de même qu’il devient
insoutenable de voir que ces patients sont rarement pris en charge, sur le plan
thérapeutique, au motif essentiel qu’ils ne sont pas, officiellement, aphasiques !
64 Les apports de l’imagerie fonctionnelle cérébrale, chez le sujet sain, semblent bien (a)
aller dans la même direction que celle qui vient d’être évoquée et (b) démontrer que
l’hémisphère droit est bel et bien actif dans bon nombre de tâches linguistiques. Sans
conduire nécessairement au rejet de l’existence de systèmes fonctionnels distincts dans le
cerveau humain, de telles observations, au cours des vingt dernières années, font
clairement nécessité d’appréhender l’activité linguistique comme largement distribuée
dans le cerveau, distribuée à l’intérieur de l’hémisphère gauche mais aussi dans
l’hémisphère droit. Exception faite, sans doute, des traitements sensori-moteurs de bas
niveau, bien strictement localisés dans les cortex primaires, et plutôt dans l’hémisphère
gauche pour le traitement d’informations/stimuli linguistiques, il convient de constater
que, dès que la tâche devient quelque peu plus complexe, c’est-à-dire dès que celle-ci
devient « authentiquement cognitive », l’activité requiert la mobilisation de réseaux
125
passablement distribués. L’histoire de cette nouvelle époque dans l’étude des corrélations
« structure-fonction » au plan linguistique, voire à un niveau cognitivement supérieur (cf.
supra), n’en est encore qu’à ses débuts !
65 Il suffit, pour s’en convaincre, d’examiner certaines méta-analyses effectuées au cours des
dernières années à partir de divers travaux ayant pour objet de confronter les données
obtenues, en imagerie fonctionnelle, dans telle ou telle tâche langagière spécifique, la
dénomination, par exemple. Ainsi, Jean-François Démonet – sur la base de plusieurs
dizaines études avec imagerie portant sur la dénomination d’objets – a examiné les
régions cérébrales impliquées dans la production de mots isolés (Démonet et al. en
révision). Si Indefrey et Levelt (2000) étaient parvenus25 à la conclusion que différentes
zones de l’hémisphère gauche jouaient un rôle spécifique dans la gestion de certains
processus nécessaires à l’effectuation d’une telle tâche, Jean François Démonet montre
que, dans bien des cas, une activité significative dans l’hémisphère cérébral droit est
également relevée !
NOTES
1. Chez un sujet ayant acquis une langue et l’ayant utilisée sans difficultés pendant de
nombreuses années, l’« aphasie » est la conséquence d’une lésion cérébrale focale, ordinairement
localisée dans l’hémisphère gauche. L’intérêt majeur du « modèle aphasique » réside dans le fait
qu’une telle pathologie vient perturber, de manière souvent sélective, tel ou tel aspect de la
fonction linguistique (Cf. infra).
2. Consécutive au Symposium Hixon qui eut lieu au California Institute of Technology en 1948.
3. C’est clairement ce que firent les cognitivistes dits « fonctionnalistes », ces derniers
privilégiant le fonctionnement de l’esprit humain au détriment de celui du cerveau qui l’abrite !
4. À terme, cette dernière approche devrait être en mesure de fournir également des
informations sur le « comment » neurophysiologique sous-jacent aux comportements verbaux à
l’étude, mais en l’état actuel d’avancement de la science, les résultats à disposition sont encore
fort limités.
127
5. Sans oublier S. Freud, certes dans une optique différente. Cf. Psychopathologie de la vie
quotidienne, dont la première édition, en allemand, date de 1901.
6. Le corpus de Meringer comporte plus de 8 000 erreurs de parole, de lecture et d’écriture.
7. Telles que le segment situé à l’initiale du mot « John », en anglais, ou à l’intervocalique du mot
« mucho », en espagnol.
8. Nous préférons personnellement parler de « plausibilité psychologique » que de « réalité
psychologique ».
9. Nous utilisons à dessein l’expression hybride « cerveau/esprit » afin de ne sous-estimer
aucune des deux démarches majeures en sciences cognitives : la démarche fonctionnaliste (cf.
supra) et la démarche neuroscientifique (cf. infra).
10. Il n’est, pour s’en convaincre, que de consulter les travaux de Wells, de Hockett, cf. supra.
11. Ici encore, l’existence de différentes composantes structurales au sein des langues naturelles
n’a pas attendu l’avènement de la grammaire générative et transformationnelle !
12. C’est-à-dire qualifiant la zone corticale située en avant du sillon de Rolando (séparant le lobe
frontal du lobe pariétal).
13. C’est-à-dire qualifiant la zone corticale située en arrière du sillon de Rolando (séparant le lobe
frontal du lobe pariétal).
14. Parallèlement, certains travaux en imagerie fonctionnelle cérébrale semblent parvenir à des
résultats similaires : implication du lobe frontal gauche (où se trouve l’aire de Broca) dans le
traitement des verbes et du lobe temporal inférieur dans le traitement des noms (Damasio et
Tranel 1993).
15. L’article de Dunn et Kirsner est abondamment commenté dans le numéro de Cortex dans
lequel il a été publié, en février 2003.
16. Il convient toutefois de noter que cette notion de « simplicité » ou « complexité » n’est pas
aisée à caractériser. Certaines tâches peuvent paraître plus aisées que d’autres sur certains points
mais plus difficiles sur d’autres. Ainsi, par exemple, la répétition peut sembler plus difficile que la
lecture à haute voix du fait de la fugacité (en temps réel) du stimulus en répétition et de sa
permanence, sur la feuille de papier, en lecture à haute voix. On peut toutefois penser que la
répétition maintient le locuteur dans la même modalité, orale, à l’entrée du message comme à sa
sortie, alors que la lecture à haute voix requiert de « jongler » avec deux modalités distinctes :
l’écrit d’entrée et l’oral de sortie !
17. Cf. Fossard 1999, 2001 ; Grosz et Weinstein 1995.
18. Les fragments discursifs en italique correspondent à des fragments « référentiels », même
s’ils ne sont pas toujours adéquats, compte tenu de la version standard du conte.
19. Cf. la « dissociation automatico-volontaire » de Baillarger-Jackson.
20. au moins en français, l’équivalent, en anglais, du « n’est-ce-pas ? » français étant loin d’être
figé et automatique (cf. « Tag Questions » au sein desquelles il convient de « calculer » l’auxiliaire
adéquat compte tenu du contexte, de même que la forme interrogative ou interro-négative de cet
appendice discursif).
21. Ce même patient était absolument incapable d’énoncer un message « référentiel » du type : le
verre est sur la table !
22. Les patients présentant un déficit spécifique, conduisant à une symptomatologie homogène.
Ces cas sont relativement rares en clinique neurologique, ce qui n’atténue en rien leur validité et
leur portée.
23. C’est là une des thématiques scientifiques majeures de l’Institut des sciences du cerveau de
Toulouse, particulièrement en matière de « catégorisation ».
24. « Aphasie » par lésion de l’hémisphère dit « mineur », cf. Joanette et al. (1982).
25. Peut-être sur la base de Régions d’Intérêt (ROI = « Regions of Interest ») un peu « larges » !
128
AUTEUR
JEAN-LUC NESPOULOUS
Professeur à l’université de Toulouse-Le Mirail. Dirige le laboratoire Jacques Lordat (EA 1941) et
l’Institut des Sciences du Cerveau de Toulouse (IFR 96).
129
Historique
2 Nous montrons dans cette partie comment, en traitement automatique des langues, on
s’est rendu compte, petit à petit, de la nécessité d’utiliser des connaissances pour
comprendre une langue. Non seulement des connaissances sur la langue elle-même (quels
mots lui appartiennent, quelles règles de grammaire elle suit...), mais aussi des
connaissances générales sur le monde, sur la culture de celui qui parle, sur la situation de
communication, sur la pratique des relations humaines, etc., tout un ensemble de choses
qui semblent a priori indépendantes des connaissances linguistiques.
4 En 1952, la première conférence sur la traduction automatique est organisée au MIT par
Bar-Hillel, et, suite à la première démonstration de traduction automatique qui a lieu en
1954 (organisée par l’université de Georgetown et IBM), de nombreux travaux sont
développés sur ce sujet, avec un optimisme que l’on peut considérer aujourd’hui comme
exagéré. Les principaux travaux concernent la recherche dans des dictionnaires, et la
traduction est vue comme une substitution de mots suivie d’un éventuel
réordonnancement grammatical. Pratiquement aucun aspect linguistique n’est considéré
dans ces traitements essentiellement limités aux mots.
5 Bar-Hillel (1964) montre que des connaissances contextuelles et encyclopédiques sont
nécessaires et pose ainsi le problème fondamental de la représentation des connaissances et
de leur utilisation qui, à cette époque, est considéré comme insoluble. Les aspects
cognitifs (dans le sens élémentaire de liés à la notion de connaissance, mais sans rapport
avec les processus humains de traitement de l’information) commencent à apparaître,
mais on conclut alors à l’impossibilité de les prendre en considération.
6 C’est également l’avis du gouvernement américain qui, à la suite du fameux rapport
ALPAC (Automatic Language Processing Advisory Council) (ALPAC 1966), estimant que la
traduction automatique coûte environ deux fois plus cher que la traduction humaine et
donne des résultats nettement inférieurs, décide de ne plus financer ce type d’études.
7 D’un autre côté, les années 1950 voient l’apparition d’idées fonda mentales pour ce
domaine : en 1956, à l’école d’été de Dartmouth, on assiste à la naissance de l’intelligence
artificielle. Posant comme conjecture que tout aspect de l’intelligence humaine peut être
décrit avec assez de précision pour qu’une machine le simule, les figures les plus
marquantes de l’époque (McCarthy, Minsky, Newell et Simon) y discutent des possibilités
de créer des programmes d’ordinateur « se comportant intelligemment ». Ce point de vue
mène au cognitivisme qui a fortement influencé la psychologie, la linguistique,
l’informatique, la philosophie...
8 Les travaux de McCarthy sur les relations entre la logique et la notion de liste débouchent
sur le langage LISP (McCarthy et al. 1960) et sur Logic Theorist (Newell et Simon 1956), le
premier programme de traitement symbolique, qui mène à la notion de recherche
heuristique.
Communication et information
10 Reddy (1979) recense par ailleurs environ 80 métaphores visant à étayer l’approche du
langage comme un « conduit par lequel des idées transitent ».
11 Ce modèle suppose en conséquence que l’intention communicative est directement issue
du sens littéral du discours et peut être reconnue à partir de la grammaire et des
conventions de la langue : la communication est possible car l’intention communicative
est conventionnellement codée dans le message lui-même.
12 Ainsi, dans ce premier modèle, la langue est considérée comme un objet qui possède une
structure interne cohérente et peut être étudiée indépendamment de son usage.
Toutefois, divers exemples indiquent qu’il faut plus qu’un langage commun pour qu’un
auditeur puisse identifier l’intention réelle qu’un locuteur veut communiquer.
13 En outre, comme les différents mécanismes du processus de compréhension sont
supposés se déclencher dès le début de la production, les contraintes temporelles et la
rapidité de la compréhension impliquent que l’architecture sous-jacente est séquentielle.
Pour ce qui concerne les mises en œuvre informatiques, la compréhension est vue comme
un ensemble de transformations successives d’un langage de représentation dans un
autre. Cela correspond aux premiers modèles de traitement automatique des langues, où
les phrases de la langue sont supposées correspondre à des faits réels.
14 On suppose en outre qu’il est possible de créer un système formel de représentation tel
que (a) pour chaque fait il existe une formule du système de représentation, (b) chaque
phrase peut être liée à une telle formule et (c) des calculs formels sur ces représentations
simulent les raisonnements sur les faits du monde.
15 Les opérations réalisées sur les structures de représentations ne se justifient pas par
rapport à la langue, mais par les correspondances entre ces représentations et le monde
représenté ; on peut d’ailleurs remarquer que ce modèle correspond à celui pour lequel
des philosophes du langage comme Frege (1892) avaient argumenté bien avant
l’apparition de l’intelligence artificielle ! Une différence essentielle reste que l’immense
majorité des systèmes d’intelligence artificielle est totalement dépourvue de moyens de
perception et d’action sur le monde réel : fondamentalement, le programmeur sert
d’intermédiaire lors de la construction des représentations, ce qui modifie complètement
le processus cognitif que l’on cherche à modéliser. Ces systèmes supposent (généralement
implicitement) que les mécanismes d’analyse, production et inferences fondées sur des
systèmes symboliques plus ce lien avec une interprétation humaine implicite et externe,
peuvent suppléer cette absence de perception et d’action... La question est alors de savoir
dans quelle mesure ces derniers processus ne sont pas des préalables nécessaires à toute
signification ; nous proposons, en fin du présent texte, quelques idées pour aller dans ce
sens.
16 Cette quête du sens s’est retrouvée de façon très simpliste dans les premiers programmes
de traitement automatique des langues, analysés de plus près ci-dessous.
17 Malgré le coup d’arrêt subi par les travaux sur la traduction automatique, les disciples de
Minsky au MIT développent divers systèmes traitant des textes en anglais et fondés sur
l’utilisation de mots clefs. Leurs résultats (en particulier le comportement assez
spectaculaire d’ELIZA) relancent les recherches sur la compréhension automatique du
langage.
132
Fillmore, pour lequel une ossature fondée sur cette notion de cas est attachée à chaque
verbe du lexique, et Schank qui ne définit de structure de cas que pour les onze actions
primitives qui constituent la base de sa dépendance conceptuelle.
28 Une caractéristique de ce type de théorie est d’être une des rares à autoriser des
traitements automatiques dans le cas de phrases non normées (c’est-à-dire ne respectant
pas une syntaxe dite correcte). D’un point de vue plus pragmatique, et puisque de
nombreux systèmes divers ont été proposés, on peut se demander lequel choisir. Dans
l’état actuel, on ne peut répondre que relativement à un problème donné, et seules des
considérations d’efficacité sont alors un bon guide pour choisir un système de cas.
29 Alors que les grammaires formelles (et les théories voisines) sont surtout destinées à
mettre en évidence la structure syntaxique d’une phrase (avec comme conséquence
importante la notion de grammaticalité, précisant si une séquence de mots forme ou non
une phrase correcte), les grammaires systémiques• de Halliday donnent priorité au
contexte d’utilisation du langage plutôt que de le considérer comme un système formel
isolé : elles se sont surtout concentrées sur l’ organisation fonctionnelle du langage et les
liens qui existent entre la forme d’un texte d’une part et le contexte, ou les situations dans
lesquelles ce texte peut apparaître, d’autre part. Il ne s’agit donc pas de grammaires
génératives mais plutôt de grammaires des descriptives : elles caractérisent les phrases par
des ensembles de traits qui peuvent ensuite être utilisés par d’autres processus. Là réside
un des aspects les plus intéressants de ces grammaires pour l’intelligence artificielle : le
passage de traits d’une procédure à une autre – procédé informatique très simple à
réaliser – permet de tenir compte d’aspects contextuels et de prendre des décisions
fondées sur plusieurs processus qui interagissent tout en conservant une certaine
modularité. Si peu de systèmes les ont utilisées seules pour l’analyse de phrases, elles
forment néanmoins une part importante des connaissances syntaxique de SHRDLU
(Winograd 1972) ; il faut également signaler une importante grammaire systémique
développée pour la génération par Fawcett, ainsi que le système Pennman (Bateman
1991 ; Matthiesen et Bateman 1992).
30 Un avantage important des grammaires systémiques réside dans le fait que la
spécification des règles syntaxiques semble plus naturelle et plus économique que dans
les grammaires formelles. En outre, le niveau d’abstraction de ces grammaires permet de
comparer utilement les mécanismes divers que des langues différentes utilisent pour
traiter du même phénomène.
31 Enfin, soulignons l’importance que revêtent ces grammaires pour l’intelligence artificielle
sur deux plans. Théoriquement, elles sont fondamentales par l’approche de la sémantique
et même de la pragmatique qu’elles permettent, en particulier pour tout ce qui concerne
la gestion des dialogues homme-machine. Pratiquement, les techniques de gestion
d’arbres étant particulièrement bien maîtrisées en informatique, leur mise en œuvre
concrète sur ordinateur est très aisée.
32 Diverses théories grammaticales viennent ensuite, qui donnent au lexique une
importance primordiale. Elles visent à expliciter les articulations entre le niveau lexical,
le niveau syntaxique et le niveau sémantique ; elles aboutissent, en général, à des modèles
plus riches et d’une souplesse plus grande que celui de Chomsky pour les traitements
automatiques.
33 De façon analogue aux grammaires systémiques, les grammaires fonctionnelles veulent
donner un rôle prédominant, dans la description des expressions linguistiques, aux
135
l’incapacité des théories linguistiques à rendre compte de tous les phénomènes qu’on
trouve dans les langues par le fait qu’aucune de ces théories n’est construite à partir du
recensement exhaustif des faits à expliquer. Donnant une importance primordiale aux
faits attestés, il part alors d’un modèle du langage aussi limité que possible et n’y
introduit que les abstractions nécessaires à l’explication des observations. Cela débouche
essentiellement sur la constitution de lexiques-grammaires explicitant les possibilités de
combinaisons des mots entre eux (l’hypothèse de base de Gross étant qu’aucune
convergence ni règle générale n’est possible, il faut recenser tous les exemples
possibles...).
39 Enfin, pour Mel’chuk non plus, le lexique ne constitue pas un domaine à part. Il est
présent à tous les niveaux de son modèle et recouvre les notions de « mots pleins » et de
fonctions lexicales. Partant d’une idée voisine de celle de Gross, il cherche à décrire la
langue à partir d’un recensement lexical exhaustif, mais donne un rôle beaucoup plus
important à la sémantique. On peut considérer, en outre, que son étape sémantique
regroupe ce qui, chez Chomsky, correspond aux structures profondes, à la composante
sémantique et au lexique.
40 Ces travaux présentent un intérêt important pour les sciences cognitives (même si la
sémantique n’est pas toujours au centre de leurs préoccupations) puisqu’ils visent à
rendre explicite la façon dont la forme reflète les notions sémantiques, c’est-à-dire à
rendre indissociables la forme et le sens.
41 On peut également évoquer les grammaires sémantiques. Il s’agit là davantage d’une façon
pragmatique de construire des programmes efficaces que d’un outil linguistique. Les
catégories non terminales de la grammaire sont des classes sémantiques, définies par le
concepteur à partir du domaine considéré. Le traitement d’une phrase consiste alors à
vérifier des correspondances sémantiques avec la grammaire sans trop se préoccuper de
la syntaxe ; celle-ci reste implicite et correspond simplement à l’ordre dans lequel
peuvent apparaître les diverses catégories sémantiques. Permettant de traiter des
énoncés non normés, ces grammaires sont très souples et faciles à mettre en oeuvre dans
des domaines restreints. Ce dernier point implique toutefois que la compréhension même
est assez limitée (perte de nombreuses nuances) et que le produit obtenu est difficilement
transportable dans un autre domaine.
Évolutions récentes
44 Divers analyseurs ont été proposés dans ce sens en restant dans le domaine symbolique,
parmi lesquels on peut citer, pour le français : Gaudinat et al. (1998), Hull (2000), Vergne
(2003).
45 Un obstacle essentiel à la réalisation d’un analyseur robuste est l’absence d’une
grammaire complète couvrant toutes les formes possibles d’une langue. Une autre
approche s’est alors développée grâce à l’énorme quantité de textes électroniques
maintenant disponibles : il est devenu possible d’appliquer sérieusement des méthodes
statistiques (et d’apprentissage) au traitement automatique des langues. L’analyse
statistique consiste à supprimer les mots grammaticaux et à calculer les fréquences
d’apparition des mots ou des groupes de mots. Ces fréquences indiquent les structures
associatives privilégiées et donne des indications sur leurs contextes d’apparition. Les
techniques statistiques sont très utiles dans le domaine des étiqueteurs automatiques,
avec des taux actuels de bonnes reconnaissances de 95 % à 98 % (Manning et Schütze
1999). En général, les analyseurs statistiques existants engendrent toutes les analyses
possibles pour chaque phrase d’un texte et utilisent ensuite des fréquences d’occurrence
des séquences de mots afin de sélectionner l’analyse la plus probable parmi celles
proposées. Charniak (1997), par exemple, décrit un analyseur statistique qui infère une
grammaire à partir d’un corpus de textes syntaxiquement annotés.
46 Les gros corpus de textes sur support électronique, disponibles pour des langues variées,
sont de plus en plus nombreux. Ces corpus, une fois annotés avec des informations
linguistiques, constituent un matériau très utile, tant pour les recherches linguistiques
que pour les applications en traitement automatique des langues. Des travaux sur ce type
de corpus existent pour l’anglais depuis une dizaine d’années et ont permis le
développement d’une linguistique de corpus et une amélioration considérable des
programmes de traitement automatique. Leur utilité est également reconnue pour le
français, tant en linguistique (Blanche-Benveniste 1996) qu’en traitement automatique
(Habert et al. 1997), et les premiers corpus annotés commencent également à être
disponibles (Véronis et Khouri 1995 ; Abeillé et al. 2000).
47 Enfin, ces corpus ont également permis le développement de techniques d’évaluation
sérieuses. Pour ce qui concerne l’écrit, s’il était possible d’évaluer et de comparer de
façon assez précise des systèmes d’étiquetage morpho-syntaxiques (cf. campagne GRACE,
Chibout et al. 2000), il était en revanche beaucoup plus difficile d’évaluer les analyseurs
syntaxiques. Mais on commence maintenant à considérer des protocoles pour l’évaluation
des systèmes de compréhension (Blache et al. 1997). Remarquons toutefois que ces
mesures restent fondées sur des comparaisons avec des étiquetages réalisés par des
experts, certes, mais comportant inévitablement une certaine part d’arbitraire ; elles
n’ont donc rien d’absolu.
Production
48 Domaine légèrement plus récent que l’analyse, la génération de textes passe parfois pour
plus « facile », peut-être seulement parce qu’il est plus rapide de combler des réponses « à
trous » toutes prêtes et que cela suffit à bien des systèmes informatiques2. En réalité les
difficultés sont également très complexes dans la mesure où, chez l’homme, cette tâche
s’effectue sous de sévères contraintes, mettant en jeu de grandes quantités de
connaissances de nature très différentes – contraintes de temps bien sûr pour le langage
138
parlé, contraintes d’espace également, peut-être moins fortes mais néanmoins présentes,
pour l’écrit.
49 Une tendance actuelle consiste à n’avoir qu’une seule grammaire pour la génération et
pour l’analyse (grammaires bidirectionnelles•) ; les grammaires systémiques et les
grammaires d’unification sont souvent utilisées dans ce dessein. D’autres formalismes
très prisés sont la grammaire « sens-texte » de Mel’chuk, et les grammaires d’arbres•
introduites par Joshi (pour une réalisation importante pour le français, voir G-TAG de
Danlos 1996).
50 Les premiers systèmes de génération restent sous l’influence de la linguistique
chomskienne et la priorité est donnée aux aspects syntaxiques plutôt qu’aux aspects
sémantiques ou pragmatiques. Leur objectif est d’ailleurs de tester l’adéquation et la
cohérence de théories linguistiques, ainsi que la couverture de grammaires (par
génération aléatoire d’un grand nombre de phrases), plutôt que d’exprimer des contenus
sémantiques dans des contextes donnés. Les systèmes d’Yngve et de Friedman sont de
bons représentants de cette catégorie.
51 Les systèmes de Simmons et Slocum, Goldman, McDonald visent l’expression de contenus
par la production de phrases isolées, mais ne sont pas toujours en mesure d’organiser une
suite d’idées en un discours cohérent et les aspects pragmatiques (adéquation des
contenus au contexte) sont là encore totalement ignorés.
52 Ce n’est qu’avec les systèmes des années 1980 qu’un texte est considéré comme un tout,
structuré à différents niveaux, ou que la communication est vue comme une action
indirecte pour atteindre des buts. Quelques systèmes ultérieurs considèrent d’autres
modalités que le langage lors de la génération (images, dessins, gestes) ou cherchent à
modéliser des théories psychologiques.
53 Enfin, des systèmes comme GIBET ou GEORGETTE tiennent un meilleur compte de
l’interlocuteur et visent à déterminer quelles informations donner à quel moment, et
donc anticipent les interprétations dont ce dernier est susceptible.
54 Après cette revue historique des théories linguistiques utilisées dans le traitement
automatique des langues, nous allons à présent aborder divers aspects de l’étude du
langage dans la perspective de l’intelligence artificielle.
56 Si l’on souhaite développer des méthodes facilement généralisables et qui abordent les
vrais problèmes de front, il devient patent qu’une sémantique objective et universelle –
qui considère les connaissances comme des axiomes, et la construction du sens comme
procédant exclusivement en termes de règles formelles à partir de ces axiomes – n’est pas
très utile du point de vue technologique, car elle ne conduit pas à des implantations
flexibles et ergonomiques (les résultats obtenus dans des conditions d’expérimentation
excessivement contrôlées ne pouvant pas s’extrapoler à des situations de communication
réelles). Il est en effet essentiel que la notion de sens que manipule une entité avec
laquelle nous communiquons ait des rapports étroits avec ce qu’est le sens pour l’humain.
Sinon, nos possibilités de communication seraient très difficiles, pour ne pas dire
impossibles : pour qu’une intelligence (artificielle ou non) soit reconnue comme telle par
l’être humain, elle doit lui paraître analogue à la sienne !
57 Pour garantir l’ergonomie des interprétations construites par la machine, c’est-à-dire
leur conformité aux attentes des utilisateurs, le système mis en œuvre doit avoir des
connaissances quant à la cognition humaine (en effet, pour dialoguer efficacement le
système doit avoir une bonne représentation de son interlocuteur et de son
fonctionnement). Si on a explicité ces connaissances, on pourra alors utiliser ce qu’on sait
du fonctionnement cognitif humain face au langage pour simuler le système lui-même
(même si ce n’est pas une obligation, c’est souvent une source d’inspiration extrêmement
utile).
58 Par ailleurs, la compréhension n’est pas fondée uniquement sur un ensemble de critères
logiques d’évaluation : elle est aussi le résultat émergeant de processus cognitifs qu’on ne
sait pas toujours décrire d’une façon algorithmique. L’énoncé en cours de traitement peut
admettre plusieurs interprétations candidates construites en parallèle, et c’est le contexte
qui doit faire converger le système vers une interprétation résultante, souvent unique :
l’état du contexte cognitif agit alors comme un faisceau d’hypothèses qui favorise l’essor
des interprétations les plus cohérentes. Il s’agit d’un mécanisme prédictif techniquement
très différent des analyses classiques, réalisé par des processus totalement automatiques
(c’est-à-dire non contrôlés ni réflexifs).
59 Par exemple, en analyse syntaxique, les interprétations préférées respectent
habituellement les principes de « l’attachement minimal » (ne pas postuler des nœuds de
l’arbre syntaxique potentiellement inutiles) et de la « clôture différée » (tant que cela est
grammaticalement possible, rattacher les nouveaux éléments au syntagme en cours de
traitement). Dans un souci de construire des modèles du langage plus abstraits, on
pourrait être tenté de fonder le processus d’interprétation sur des principes généraux de
ce genre, mais il faudrait alors préciser un moyen de détecter leurs exceptions. Or, il est
très difficile d’isoler les éléments de jugement pertinents (l’étude statistique de corpus
permet certes de révéler les règles générales, mais ne donne pas le moyen de traiter les
cas particuliers). C’est pourquoi ces régularités ne peuvent pas être utilisées comme des
règles formelles d’analyse. En revanche, on peut les expliquer comme un effet émergent
de l’organisation concurrentielle des processus interprétatifs : les interprétations qui
vérifient l’attachement minimal et la clôture différée sont généralement les plus simples
à construire et, par conséquent, les premières à être perçues.
60 Bien entendu, la pensée rationnelle participe aussi à la compréhension, mais seulement
après une perception spontanée du sens (cette division permet de différencier les
« vraies » ambiguïtés soulevées par la communication, qu’une planification dynamique
devrait résoudre, et les ambiguïtés artificielles, qui restent inaperçues sans une étude
140
65 Toutes les études sur le langage ont souligné la diversité et la complexité des
connaissances nécessaires à un système de compréhension automatique des langues. Le
problème essentiel est de déterminer comment toutes ces sources de connaissances
collaborent, quelles relations elles entretiennent, quels modèles de processus sont
pertinents et quelles architectures informatiques permettent de les mettre en œuvre de
la façon la plus efficace possible.
66 Si les premiers programmes de traitement automatique des langues utilisèrent des
architectures en série, impliquant des communications fixes et limitées entre les
modules, il apparaît qu’un ordre précis des opérations à effectuer ne peut être valable
dans tous les cas.
67 On peut donc considérer qu’une certaine intégration (permettant l’utilisation simultanée,
dans un seul module, de toutes les connaissances, cf. Sabah et Rady 1983) est souhaitable,
mais sa mise en œuvre reste difficile : il faut expliciter, dans les règles mêmes de
traitement, comment interagissent les diverses connaissances. Les modifications sont
donc relativement difficiles, surtout dans un domaine où une mise au point
expérimentale est nécessaire. En outre, on ne connaît aucune théorie linguistique qui
intègre réellement toutes les connaissances nécessaires à la compréhension.
68 La coopération de sources de connaissances plus ou moins indépendantes s’impose donc
pratiquement. Elle permet une expression plus déclarative des connaissances : les
connaissances de même nature sont regroupées en modules qui coopèrent ; l’utilisation
des connaissances n’est pas liée à ces connaissances elles-mêmes, elle est gérée
indépendamment par un contrôleur. On débouche alors sur les architectures modernes
de systèmes multi-agents, dont nous avons montré par ailleurs (Sabah 1990 ; Sabah et
Briffault 1993) qu’ils devaient être augmentés par la prise en considération de processus
automatiques et de processus réflexifs, une structure de mémoire élaborée permettant de
faire le pont entre ces deux types de processus.
69 Ainsi, l’exemple suivant, extrait de La maison d’Apre-Vent de Dickens : « Et il m’a dit,
ajouta-t-il, en jouant de petits accords aux endroits où je mettrai des points, que
Chécoavins avait laissé. Trois enfants. Sans mère. Et que la profession de Chécoavins. Étant
141
impopulaire. La génération montante des Chécoavins. Était dans une situation très difficile... »
montre qu’un système de compréhension 1) ne peut prévoir toutes les situations qu’il
rencontrera et 2) doit être capable de se reconfigurer dynamiquement en modifiant ses
procédures de traitement (ici, modifier l’analyse syntaxique pour ne donner aux « . »
qu’une valeur de représentation pragmatique). Et il ne faut pas croire que cet exemple
soit aussi isolé qu’il le semble a priori : on trouve des conversations courantes ainsi que
des textes de nombre d’auteurs (Poe, Carroll, Vian, Anglade...) mettant en jeu des
fonctionnements de ce type. Une linguistique cognitive doit donc rendre compte de ces
aspects créatifs et imprévisibles du langage et les processus informatiques être
suffisamment souples pour les utiliser efficacement.
70 On peut distinguer deux types de mémoire relativement indépendantes : une mémoire
volatile très rapide et efficace, mais de faible portée, dont le contenu se renouvelle
constamment, et où ont lieu les opérations interprétatives, et une mémoire plus stable,
qui persiste dans le temps et qui conserve les résultats de ces opérations (la mémoire à long
terme). La mémoire volatile peut se diviser à son tour en une partie consciente réduite (la
mémoire à court terme), et une partie subliminaire, un peu plus large (à laquelle nous
réservons le nom de mémoire de travail). La mémoire à court terme est relativement
limitée (certains psychologues parlent de sept « registres ») et, pour réutiliser les
structures mentales qui n’y sont plus disponibles, il faut qu’elles aient été sauvegardées
dans la mémoire à long terme. Avec cette organisation générale de la mémoire, les
connaissances contenues dans la mémoire à long terme sont évoquées par les unités
linguistiques (rappel associatif). Elles sont ensuite transférées dans la mémoire de travail
où les opérations interprétatives établissent une cohérence vis-à-vis du contexte cognitif
(ce qui correspond à la reconnaissance de la cohésion de l’énoncé). Une interprétation
cohérente franchit le seuil de la conscience et apparaît dans la mémoire à court terme.
Cette perception consciente déclenche un processus d’acquisition automatique et un
traitement rationnel contrôlé. La thèse d’Alejandro Bassi Acuña proposait un mécanisme
informatique simulant ce type de comportement (Bassi Acuña 1995).
71 Nous évoquons en conclusion quelques analogies entre ce type d’architecture des
systèmes informatiques et l’architecture des traitements mis en œuvre par l’homme.
74 Bien que la question ne soit pas encore formulée très clairement, un nombre significatif
de chercheurs en intelligence artificielle critiquent les modèles informatiques de
planification (Suchman 1987 ; Agre et Chapman 1990) ou de raisonnement purement
rationnels (Winograd et Flores 1989) et soulignent les limites, probablement inhérentes,
des programmes fondés sur la seule manipulation de symboles. Bien sûr, cela n’est pas
neuf ; c’est même une antienne, récurrente depuis le Dreyfus des années 1960 !
75 2) La métaphore des réseaux : l’esprit est ramené au fonctionnement du cerveau et
l’intelligence est conçue comme la diffusion d’activations, non symboliques, dans des
réseaux. Ancrées dans les recherches en neurobiologie et en neuropsychologie, les
recherches en connexionnisme tentent de développer des techniques efficaces pour le
traitement des informations floues ou incertaines (un réseau connexionniste est conçu
pour simuler les méthodes de traitement de l’information, d’apprentissage et de
mémorisation fondées sur le réseau de neurones du cerveau ; il fonctionne par association
et reconnaissance, sans utiliser de règle explicite). Bien qu’on soit encore très loin d’une
réelle analogie avec le fonctionnement cérébral, les possibilités de collaboration entre les
techniques connexionnistes et les systèmes symboliques restent assez prometteuses
(systèmes dits hybrides). L’approche connexionniste, fondée avant tout sur la notion
d’interaction, ne distingue pas les représentations linguistiques des autres. Pour traiter des
systèmes de règles linguistiques, les systèmes connexionnistes « localistes » (dont les
nœuds permettent de représenter n’importe quel élément – mots, concepts, objets réels,
phrases...) sont amenés à introduire un grand nombre de nœuds médiateurs pour
spécifier les noms des relations entre éléments de la représentation, ce qui peut poser des
problèmes d’efficacité dans le traitement des rétroactions.
76 3) La pensée est conçue comme un phénomène collectif produit par de nombreux événements
élémentaires, ce qui débouche principalement sur les techniques actuelles d’intelligence
artificielle distribuée qui tentent de dépasser les algorithmes génétiques ou les réseaux
connexionnistes, en restant ou non dans le cadre symbolique – un algorithme génétique
est un programme informatique qui utilise des règles s’inspirant de la sélection naturelle,
des mutations et des mécanismes de reproduction ; dans un tel algorithme, des
programmes relativement simples peuvent interagir et se modifier afin de produire un
programme qui est plus efficace pour résoudre un problème donné. Nous avons montré
(Sabah 1999) que les architectures d’intelligence artificielle distribuée, qui permettent un
contrôle dynamique, étaient nécessaires pour prendre en considération tous les aspects
imprévisibles des langues. Nous avons également souligné (Sabah 2000) qu’elles n’étaient
pas toujours suffisantes et qu’il fallait de plus donner aux programmes des capacités
d’autoreprésentation permettant des raisonnements sur leur propre comportement. Bien
que plus récents, les courants (2) et (3) ne se démarquent pas essentiellement de
l’hypothèse forte initiale, qui reste cruciale en ce sens qu’elle implique un niveau d’ana
lyse complètement séparé du niveau neurobiologique comme du niveau sociologique et
culturel.
77 Les approches évoquées ci-dessus ont un point commun, d’un autre ordre : elles se situent
toutes dans le cadre d’une intelligence formelle sans relation avec les perceptions du
monde dans lequel elle évolue. Cela implique, plus ou moins consciemment de la part des
chercheurs, un mode de raisonnement paradoxal : tandis que les éléments immatériels
143
sont généralement déniés, c’est en fait un pur esprit seul qui est modélisé, et par des
modèles qui ne tiennent aucun compte des effets du corps...
78 En effet, le langage et les phénomènes de compréhension sont si complexes qu’on les
étudie de façon isolée en remettant à plus tard l’étude des interactions avec les autres
phénomènes. De cela résulte la nécessité d’utiliser un ensemble phénoménal de
connaissances, de mécanismes de planification et de prise de décision, et une mémoire
permettant un stockage et une recherche très efficaces (ce qui représente d’ailleurs
l’essentiel des travaux d’intelligence artificielle et de traitement automatique des langues,
qui – soulignons-le – n’ont pas réellement essayé de trouver d’autre solution).
79 Or, les raisonnements et les mécanismes de planifications qui reposent uniquement sur le
raisonnement formel rencontrent un certain nombre de problèmes, dus aux
caractéristiques suivantes de nos connaissances :
• Le manque de complétude : dans une tâche réelle, il est impossible de savoir tout ce qui est
pertinent ;
• le manque de précision : on ne peut connaître avec une précision exacte tout sur les
variables pertinentes ;
• la variabilité : ce qui est vrai à un moment donné peut ne plus l’être au moment de l’action
et comme on sait qu’il est pratiquement impossible d’énumérer tout ce qui n’est pas modifié
par une action (le fameux frame problem), on ne peut être sûr d’avoir une représentation
exacte du monde ;
• le temps d’accès : même si on pouvait tout savoir, cela impliquerait un fonctionnement de la
mémoire (stockage, recherche et calcul) impossible en pratique.
80 D’un autre côté, la mémoire humaine n’est pas seulement associative, elle est aussi
prospective et reflexive. Elle est organisée autour des choses importantes pour la vie et nous
permet de structurer le monde pour que nous n’ayons pas à nous remémorer des choses
inutiles : le monde, avec ses contraintes, est là pour nous les révéler selon les besoins (il
ne s’agit pas d’organisation a priori, mais des moyens d’accéder directement à
l’information voulue : comment une description nous permet-elle de naviguer dans la
mémoire et de retrouver très rapidement les éléments pertinents ?).
81 Le premier point important est donc que la désincarnation prive les machines des sources
d’information les plus riches.
82 Le deuxième point est relatif au mécanisme de la catégorisation, central pour tout ce qui
touche au langage : pour structurer le monde, on construit sans cesse des relations entre
objets et l’on construit des classes d’objets similaires, on les nomme et l’on construit à
nouveau des classes linguistiques au niveau méta pour ces nouveaux éléments. Pour ce
faire, notre point de référence essentiel est nous-mêmes, et nos catégories sont donc
fondées sur nos caractéristiques physiques propres. Le corps joue ainsi un rôle
fondamental dans tous les processus intellectuels qui restent subordonnés à nos besoins
essentiels (les fonctions vitales doivent avoir priorité sur tout le reste, et ce de façon
totalement inconsciente). Conséquence importante sur le mécanisme d’apprentissage :
aucune connaissance ne peut être acquise sans point de référence. Même si on pouvait
envisager de construire une intelligence sans contrepartie corporelle, il est inconcevable
d’en construire une qui ne posséderait pas le concept de corps !
83 Ainsi, nos programmes doivent-ils être capables de se représenter eux-mêmes et de relier
leurs expériences à cette représentation.
144
Conclusion
87 Les approches symboliques sont fondées sur l’hypothèse de représentations mentales, qui
débouche sur une analogie forte entre les représentations supposées exister dans nos
esprits et les représentations de l’intelligence artificielle : même si ces dernières sont
fondamentalement différentes de celles des humains, à un certain niveau de description,
elles sont considérées comme analogues. Cette hypo thèse est cruciale en ce sens qu’elle
implique un niveau d’analyse complètement séparé du niveau neurobiologique comme du
niveau sociologique et culturel.
88 En restant dans ce cadre purement symbolique, on peut souligner l’importance de la
notion de réflexivité (la capacité pour un système de raisonner sur son propre
comportement) pour la compréhension du langage. Là aussi, d’un point de vue
psychologique, on retrouve des analogies entre les modèles multi-agents réflexifs et des
notions très élémentaires liées à la conscience humaine. Certes, ces programmes ne
prétendent pas être un modèle du fonctionnement de la conscience ! Néanmoins, des
similarités avec des idées qui apparaissent dans le domaine de la métacognition peuvent
être notées. Malgré nombre de différences, liées aussi bien aux distinctions entre les
composants de la machine humaine et de la machine informatique qu’à leur organisation,
il semble exister une certaine ressemblance entre le modèle réparti et réflexif et une
certaine conception de la conscience, particulièrement si l’on s’intéresse aux aspects
fonctionnels du contrôle. Cette caractéristique d’autoreprésentation et d’autoréférence me
semble une qualité déterminante de l’intelligence, ce dont les programmes d’intelligence
artificielle doivent tenir compte.
89 Enfin, on peut remettre en cause le point de vue purement symbolique. Les recherches en
connexionnisme tentent actuellement d’apporter quelques éléments allant dans ce sens,
grâce à des techniques efficaces pour le traitement des informations floues ou
incertaines. Bien qu’on soit encore très loin d’une réelle analogie avec le fonctionnement
cérébral, les possibilités de collaboration entre les techniques connexionnistes et les
systèmes symboliques restent assez prometteuses (systèmes dits hybrides).
90 Actuellement, pour ce qui concerne les traitements automatiques des langues, la
sémantique est le goulet d’étranglement pour les mises en œuvre en vraie grandeur, et
145
j’ai développé l’idée que la prise en considération des aspects perceptuels, en liaison avec
les mécanismes d’apprentissage, donnerait une meilleure base pour la sémantique.
91 Pour aller encore plus loin, on peut dire que le traitement automatique des langues et la
communication homme-machine doivent développer des processus de base nécessaires
pour tous les autres processus de raisonnement, à l’image de l’être humain chez qui le
langage est l’outil essentiel qui lui permet de telles « compétences cognitives ».
92 Le langage devient ainsi la base des raisonnements symboliques qui, eux, sont essentiels
pour l’apprentissage, celui-ci étant évidemment nécessaire à l’acquisition de langage et
de symboles, d’où le caractère central des questions de réflexivité et d’amorçage. Le but
essentiel des recherches évoquées ci-dessus est de comprendre les principes de base de
l’intelligence en général afin d’en réaliser une instance artificielle. Pour ce faire, la
« symbiose entre l’intelligence artificielle et les sciences cognitives » (une formule
empruntée à Jacques Pitrat) me semble une voie aussi naturelle et nécessaire que
prometteuse.
NOTES
1. Pour alléger le texte, nous n’avons pas indiqué toutes les références mentionnées dans cette
section ; on pourra consulter Sabah (1988), Fuchs et Le Goffic (1992) pour trouver ces références,
ainsi que d’autres qui viennent compléter cet historique.
2. Les références complètes de ce paragraphe pourront se trouver en consultant Zock et Sabah
(2002).
AUTEUR
GÉRARD SABAH
Directeur de recherche au CNRS. Laboratoire d’Informatique pour la Mécanique et les Sciences de
l’Ingénieur, (UPR 3251, CNRS/Université Paris XI, Orsay).
146
Bibliographie
Ouvrages
Abeille A. 1993. Les nouvelles syntaxes : grammaires d’unification et analyse du français. Paris, Colin.
Andler D. (dir.). 1992. Introduction aux sciences cognitives. Paris, Gallimard.
Baker M. 1988. Incorporation. A Theory of Grammatical Function Changing. Chicago, University of
Chicago Press.
— 1996. The Polysynthesis Parameter. Oxford, Oxford University Press.
Baldwin J. M. 1902. Development and Evolution. New York, Macmillan.
Bar-Hillel Y. 1964. Language and Information. Reading MA, Addison Wesley.
Barlow M., Kemmer S. (dir.). 2000. Usage-Based Models of Language. Stanford CA, CLSI Publications.
Bates E., McWhinney B. (dir.). 1989. The Crosslinguistic Study of Sentence Processing. Cambridge,
Cambridge University Press.
Belletti A. 1990. Generalized Verb Movement. Turin, Rosenberg et Sellier.
Blake Β. 1994. Case. Cambridge, Cambridge University Press.
Blanc N., Brouillet D. 2003. Mémoire et compréhension : lire pour comprendre. Paris, In press.
Blumstein Sh. 1973. A Phonological Investigation of Aphasic Speech. La Haye, Mouton.
Borer H. 1984. Parametric Syntax. Dordrecht, Foris.
Chibout K., J. Mariani, N. Masson et F. Néel. 2000. Ressources et évaluation en ingénierie de la langue.
Bruxelles-Paris, De Boeck-Université Duculot.
Boysson-Bardies B. (de). 1996. Comment la parole vient aux enfants. Paris, Odile Jacob.
Brugman Cl. M. 1988. The Story of Over : Polysemy, Semantics, and the Structure of the Lexicon. New
York, Garland.
Caron J. 1989. Précis dep sycholinguistique. Paris, PUF.
Carruthers P., BoucherJ. (dir.). 1998. Language and Thought : Interdisciplinary Themes. Cambridge,
Cambridge University Press.
Chomsky Ν. 1957. Syntactic Structures. La Haye, Mouton. Traduction française de M. Braudeau :
Structures syntaxiques. Paris, Éditions du Seuil, 1979.
— 1965. Aspects of the Theory of Syntax. Cambridge MA, MIT Press. Traduction française de J.-Cl.
Milner, Aspects de la théorie syntaxique, Paris, Le Seuil, 1971.
147
— 1981. Lectures on Government and Binding. Dordrecht, Foris. Traduction française de Ρ. Pica, V.
Déprez et A. Azoulay-Vicente, Théorie du gouvernement et du liage : les conférences de Pise, [Document
électronique].
— 1986. Knowledge of Language. Its Nature, Origin, and Use. New York, Praeger.
— 1987. La nouvelle syntaxe. Paris, Le Seuil. Traduction française de Α. Rouveret, Some Concepts and
Consequences of the Theory of Government and Binding, Cambridge MA, MIT Press.
— 1995. The Minimalist Program. Cambridge MA, MIT Press.
— 2000. New Horizons in the Study of Language and Mind. Cambridge, Cambridge University Press.
— 2002. On Nature and Language. Cambridge, Cambridge University Press. Cinque G. 1990. Types of
A’-Dependencies. Cambridge MA, MIT Press.
— 1999. Adverbs and Functional Heads. A Cross-Linguistic Perspective. New York, Oxford University
Press.
Cinque G., J. Koster, J.Y. Pollock, L. Rizzi et R. Zanuttini (dir.). 1994. Paths Towards Universal
Grammar Studies in Honor of Richard S. Kayne. Washington, Georgetown University Press.
Coseriu E. 2002. L’homme et son langage. Paris, Peeters [spécialement la section C. Lexique :
213-410],
Croft W. 1990. Typology and Universals. Cambridge, Cambridge University Press.
— 2000. Explaining Language Change — An evolutionary Approach. Londres, Longman.
Culioli A. 1990. Pour une linguistique de l’énonciation, vol. I. Gap-Paris, Ophrys.
— 1999. Pour une linguistique de l’énonciation, vol. II et III. Gap-Paris, Ophrys.
Darnell M. et al. 1999. Functionalism and Formalism in Linguistics [2 vol.]. Amsterdam, Benjamins.
Deacon T. 1997. The Symbolic Species — The Co-evolution of Language and the Brain. New-York,
Norton.
Denhière G., Baudet S. 1992. Lecture, compréhension de texte et science cognitive. Paris, PUF.
Dik S. C. 1978. Functional Grammar. Amsterdam-New York-Londres, North-Holland.
— 1997. The Theory of Functional Grammar. Part 1 : The Structure of the Clause. Part 2 : Complex and
Derived Constructions. Berlin, De Gruyter.
Dirven R., Verspoor M. 1998. Cognitive Exploration ofLanguage and Linguistics. Amsterdam-
Philadelphia, Benjamins.
Ducrot Ο., T. Todorov., D. Sperber, M. Safouan, F. Wahl. 1968. Qu’est-ce que le structuralisme? Paris,
Le Seuil.
Dupoux E. (dir.). 2002. Les langages du cerveau. Paris, Odile Jacob.
Dupuy J.-P. 1994 [2e éd. 1999]. Aux origines des sciences cognitives. Paris, La Découverte.
Edelman G. M. 1992. Biologie de la conscience. Paris, Odile Jacob. Traduction de l’anglais par A.
Gerschenfeld, Bright Air, Brilliant Fire : On the Matter of Mind, New York, Basic Books, 1992.
Ehrlich M.-F. 1994. Mémoire et compréhension du langage. Lille, Presses Universitaires de Lille.
Elman J. et al. 1996. Rethinking Innateness, A Connectionist Perspective on Development. Cambridge MA,
MIT Press.
Fauconnier G. 1984. Espaces mentaux. Paris, Minuit.
— 1985. Mental Spaces. Cambridge MA, MIT Press.
— 1994. Mental Spaces. Cambridge, Cambridge University Press.
— 1997. Mappings in Thought and Language. Cambridge, Cambridge University Press.
Fauconnier G., Sweetser E. (dir.). 1996. Space, Worlds and Grammar. Chicago, University of Chicago
Press.
148
Fayol M. 1985. Le récit et sa construction : une approche de psychologie cognitive. Neuchâtel, Delachaux
et Niestlé.
Feyereisen P, M. Hupet,J. Berrewaerts, Y Chariot, L. Demanet, G. Doose et M.-A. Schaelstraete.
2002. Parler et communiquer chez la personne âgée : psychologie du vieillissement cognitif. Paris, PUF.
Fillmore C., Kay P. 1993. Construction Grammar, manuscrit non publié. Berkeley, University of
California.
FodorJ. A. 1983. The Modularity of Mind. Cambridge MA, MIT Press.
— 2000. The Mind doesn’t Work that Way : the Scope and Limit of Computational Psychology. Cambridge
MA, MIT Press.
François J. 2003. La prédication verbale et les cadres prédicatifs. Louvain, Peeters.
Fromkin V. A. 1973. Speech Errors as Linguistic Evidence. La Haye, Mouton.
— (dir.). 1980. Errors in Linguistic Performance : Slips of the Tongue, Ear, Penand Hand. New York,
Academic Press.
Fuchs C., Le Goffic Ρ. 2003 [1992]. Les linguistiques contemporaines : repères théoriques. Paris,
Hachette.
Fuchs C., Robert S. (dir.). 1999. Language Diversity and Cognitive Representations. Amsterdam-
Philadelphia, Benjamins.
Gardner H. 1985. The Mind’s New Science : A History of the Cognitive Revolution. New York, Basic
Books. Basic Books Paperback with new Epilogue, 1987. Traduction française de J.-L. Peytavin,
Histoire de la révolution cognitive : la nouvelle science de l’esprit, Paris, Payot, 1993.
Gernsbacher, M. A. 1990. Language Comprehension as Structure Building. Hillsdale NJ, Erlbaum.
— (dir.). 1994. Handbook of Psycholinguistics. San Diego, San Diego Academic Press.
Gineste M.D., Le Ny J.F. 2002. Psychologie cognitive du langage. De la reconnaissance à la comprehension.
Paris, Dunod.
Givón T. 1989. Code, Mind and Context. Chicago, Chicago University Press.
— 1995. Functionalism and Grammar. Amsterdam, Benjamins.
Goldberg A. 1995. Constructions - a Construction GrammarApproach to Argument Structure. Chicago,
University of Chicago Press.
Greenbeig J. H. 1966. Language Universals : with Special Reference for Feature Hierarchies. La Haye,
Mouton.
Guillaume G. 1964. Langage et science du langage. Paris, Nizet.
Habert B., A. Nazarenko et A. Salem. 1997. Les linguistiques de corpus. Paris, Armand Colin.
Hannequin D., Ρ. Goulet et Y. Joanette. 1987. La contribution de l’hémisphère droit à la communication
verbale. Paris, Masson.
Harris Ζ. 1968. Mathematical Structures of Language. New-York, Wiley. Traduction française de C.
Fuchs, Structures mathématiques du langage, Paris, Dunod, 1971.
Hawkins J. 1983. Word Order Universals. New York, Academic Press.
Heine B. 1993. Auxiliaries. Cognitive forces and Grammaticalization. Oxford, Oxford University Press.
— 1997a. Possession. Cognitives Sources, Forces, and Grammaticalization. Cambridge, Cambridge
University Press.
— 1997b. Cognitive Foundations of Grammar. Oxford, Oxford University Press.
Heine B., U. Claudi et F. Hünnemeyer. 1991. Grammaticalization. A Conceptual Framework. Chicago,
The University of Chicago Press.
Heine B., Kuteva T. 2002. World Lexicon of Grammaticalization. Amsterdam, Benjamins.
149
Hockett Ch. F. 1955. A Manual of Phonology. Bloomington IN, Indiana University Press.
— 1958. A Course in Modern Linguistics. New York, Macmillan.
Houdé Ο., B. Mazoyer et Ν. Tsourio-Mazoyer. 2002. Cerveau et psychologie. Paris, PUF.
Jackendoff R. 1983. Semantics and Cognition. Cambridge MA, MIT Press.
— 2002. Foundations of language - Brain, meaning grammar, evolution. Oxford, Oxford University
Press.
Jakobson R. 1963. Essais de linguistique générale. Paris, Minuit.
— 1968. Langage enfantin et aphasie. Paris, Minuit.
— 1976. Six leçons sur le son et le sens. Paris, Minuit.
Jonkers R. 1998. Comprehension and Production of Verbs in Aphasic Speakers. Enschede, Print Partners
Ipskamp.
Kail M., Fayol M. (dir.). 2000. L’acquisition du tangage. Le langage en émergence. Paris, PUF.
Kayne R. 1994. The Antisymmetry of Syntax. Cambridge MA, MIT Press.
Keller R. 1994. On Language Change : the Invisible Hand in Language. London, Routledge.
Kintsch W. 1998. Comprehension : A Paradigm for Cognition. New York-Cambridge, Cambridge
University Press.
Kleiber G. 1990. La sémantique du prototype, catégories et sens lexical. Paris, PUF.
Kolinsky R.,J. Morais et J. Ségui (dir.). 1991. La reconnaissance des mots dans les différentes modalités
sensorielles : études de psycholinguistique cognitive. Paris, PUF.
Lakoff G. 1987. Women, Fire and Dangerous Things. Chicago IL, University of Chicago Press.
Lakoff G., Johnson M. 1980. Metaphors we Live by. Chicago IL, University of Chicago Press.
Lakoff G., Núñez Rafael E. 2000. Where Mathematics Comes from. New York, Basic Books.
Lamb S. 1966. Outline of Stratificational Grammar. Washington, Georgetown University Press.
— 1999. Pathways of the Brain The Neurocognitive Basis of Language. Amsterdam, Benjamins.
Langacker R. W. 1987. Foundations of Cognitive Grammar, vol. I : Theoretical Prerequisites. Stanford
CA, Stanford University Press.
— 1990. Concept, Image and Symbol : The Cognitive Basis of Grammar. Berlin, Mouton de Gruyter.
— 1991. Foundations of Cognitive Grammar, vol. II : Descriptive Application. Stanford CA, Stanford
University Press.
— 2000. Grammar and Conceptualization. Berlin, Mouton de Gruyter.
Lass R. 1980. On Explaining Language Change. Cambridge, Cambridge University Press.
Lazard G. 1994. L’Actance. Paris, PUF.
Lecocq P., Segui J. (dir.). 1989. L’accès lexical. Lille, Presses Universitaires de Lille.
Le Ny J.-F. 1989. Science cognitive et comprehension du langage. Paris, PUF.
Lepore E., Pylyshyn Z. (dir.). 1999. What is Cognitive Science? Maiden MA, Blackwell.
Levelt W. J. M. 1989. Speaking : from Intention to Articulation. Cambridge MA, MIT Press.
Lü Shuxiang. 1984. Hanyuyufa lunwenji. Pékin, Shangwu yinshuguan.
Luria A. R. 1966. Higher Cortical Functions in Man. Londres, Travistock Publications.
Manning C. D., Schütze H. 1999. Foundations of Statistical Natural Language Processing. Cambridge
MA, MIT Press.
Manzini M. R., Savoia L. (à paraître). Morfosintassi dei dialetti italiani Bologne, Il Mulino.
Marcus M. 1980. A theory of syntactic recognition for natural language. Cambridge MA, MIT Press.
150
Talmy L. 2000. Towards a Cognitive Semantics. Cambridge MA, MIT Press, 2 volumes.
Tesnière L. 1969 [1959] [dernière éd. 1988]. Eléments de syntaxe structurale. Paris, Klincksieck (2 e
éd.).
Tomasello M. (dir.). 1998. The New Psychology of Language. Cognitive and Functional Approaches to
Language Structure. Mahwah NJ, Laurence Erlbaum Associates.
Troubetzkoy N. S. 1939. Grundzüge der Phonologie. Travaux du Cercle Linguistique de Prague, 7.
Turner M. 1996. The Literary Mind. Oxford, Oxford University Press.
Ungerer F., Schmid H. J. 1996. An Introduction to Cognitive Linguistics. London, Longman.
Van Valin R. D., LaPolla R.J. 1997. Syntax : Structure, Meaning Function. Cambridge, Cambridge
University Press.
Vandeloise C. (dir.). 2003. Langues et cognition. Paris, Hermès.
Varela F. 1988 [rééd. 1996]. Invitation aux sciences cognitives. Paris, Seuil.
Whorf Β. 1956. Language, Thought and Reality. Cambridge MA, MIT Press. Traduction française de
Cl. Carme, Linguistique et anthropologie : essai, Paris, Denoël, 1969.
Winograd T. 1972. Understanding natural language. Edinburgh, Academic Press.
Winograd T., Flores F. 1989. L’intelligence artificielle en question. Paris, PUF.
Wittgenstein L. 1958. Philosophical Investigations. Traduction anglaise par G. E. M. Anscobe, (2 e éd.),
Oxford, Blackwell. [Titre original, Philosophische Untersuchungen, 1953] ; [Traduction française de J.
Faure, Remarques philosophiques, Paris, Gallimard, 1975].
Bastiaanse R., Jonkers R. 1998. « Verb retrieval in action naming and spontaneous speech in
agrammatic and anomic patients ». Aphasiology, 12, 11 : 951-969.
Bateman J. 1991. « Uncovering textual meanings : a case study involving systemic-functional
resources for the generation of Japanese texts », in C. Paris et al (dir.), Natural Language Generation
in Artificial Intelligence and Computational Linguistics. Dordrecht, Kluwer : 125-153.
Bates E., S. Chen, O. Tzeng, P. Li et M. Opie. 1991. « The noun-verb problem in Chinese aphasia ».
Brain and Language, 41 : 203-223.
Béland R., Paradis C. 1998. « Is there a link between phonemic paraphasias and loanwords? », in
W. Ziegler et Κ. Deger (dir.), Clinical Phonetics and Linguistics. London, Whurr Publishers Ltd. :
336-348.
Berndt R. S., A. N. Haendiges, C. Mitchum et J. Sandson. 1997a. « Verb retrieval in aphasia. 1.
Characterizing single word impairments ». Brain and Language, 56 : 68106.
— 19975. « Verb retrieval in aphasia. 2. Relationship to sentence processing ». Brain and Language,
56 : 107-137.
Blache P., J. Guizol, F. Levy, A. Nazarenko, S. N’Guema, M. Rolbert, R. Pasero et P. Sabatier. 1997.
Évaluer des systèmes de compréhension de textes. Actes des Journées scientifiques et techniques,
Avignon.
Blanche-Benveniste C. 1996. « De l’utilité du corpus linguistique ». Revue française de linguistique
appliquée, Vol. I, 2 : 25-43.
Bobaljik D. 2000. « The Rich Agreement Hypothesis ». Article non publié. McGill University.
Bobrow D. 1968. « Natural language input for a computer problem solving system », in M. L.
Minsky (dir.), Semantic information processing, Cambridge MA, MIT Press : 133-215.
Braine M. 1992. « What Sort of Innate Structure is Needed to “Bootstrap” into Syntax? ».
Cognition, 45 : 77-100.
Breen K., Warrington E. 1994. « A study of anomia : evidence for a distinction between nominal
and prepositional language ». Cortex, 30 : 231245.
Campion N., Rossi J.-R 1999. « Inférences et compréhension de textes ». L’Année psychologique, 99 :
493-527.
Caramazza Α., Hillis A. E. 1991. « Lexical organization of nouns and verbs in the brain ». Nature,
349 : 788-790.
Cardebat D., N. Candelon, L. Kuznierek, G. Viallard, J.-F. Démonet et J. Lambert. 2000. « La
génération de mots isolés chez les sujets normaux ». Acta neurologica Belgica, 100 : 24-33.
Carstairs A. 1983. « Paradigm economy ». Journal of Linguistics, 19 : 115-128.
Champagne M. 2001. Compréhension des actes de parole non-littéraux chez le sujet normal et
chez le sujet cérébrolésé droit. Thèse de doctorat, EHESS.
Charniak E. 1997. « Statistical Parsing with a Context-free Grammar and Word Statistics », Actes
du 14thNational Conference on Artificial Intelligence AAAI97, Californie, Menlo Park, AAAI Press.
Chen S., Bates E. 1998. « The dissociation between nouns and verbs in Broca’s and Wernicke’s
aphasia : findings from Chinese ». Aphasiology, 12 : 536.
Chomsky Ν. 1956. « Three Models for the Description of Language », IRE. Transactions on
Information Theory. Traduction fançaise, 1968, « Trois modèles de description du langage »,
Langages, 9 : 51-76.
— 1993. « A Minimalist Program for Linguistic Theory », in N. Chomsky, 1995. The Minimalist
Program. Cambridge MA, MIT Press : 167-217.
153
Emonds J. 1978. « The verbal complex V’-V in French ». Linguistic Inquiry, 9 : 151-175.
Fauconnier G., Turner M. 1996. « Blending as a Central Process of Grammar », in A. Goldberg
(dir.), Conceptual Structure, Discourse, and Language, Stanford CA, CSLI Publications.
— 1998. « Blends », in J.P Koenig (dir.), Discourse and Cognition : Bridging the gap, Stanford CA, CSLI
Publications.
Ferrand L. (dir.). 2001. Psychologicfrançaise, 46,1 (La production du langage).
Ferretti T. R., K. McRae et A. Hatherell. 2001. Integrating verbs, situation schemas, and thematic
role concepts. Journal of Memory and Language, 44, 516-547.
Fossard M. 1999. « Résolution pronominale, focus de discours et mémoire de travail. Quelles
implications pour la Maladie d’Alzheimer? ». Revue Parole, 11/12 : 289312.
— 2001. Aspects cognitifs de l’anaphore pronominale. Approche psycholinguistique et ouverture
neuropsycholinguistique auprès de deux patients atteints de la démence de type Alzheimer.
Thèse de doctorat en sciences du langage, Université de Toulouse-Le Mirail.
François J. (dir.). 1998. « Orientations récentes en grammaire fonctionnelle, entre sciences
cognitives et biologie ». Verbum XX, 3.
Franquart-Declercq C., Gineste M.D. 2001. « L’enfant et la métaphore ». L’Année psychologique, 101 :
723-752.
Frege G. 1892. « Ueber Sinn und Bedeutung ». Zeitschriftfür Philosophie und Philosophie-Kritik, 100 :
25-50.
Fromkin V.A. 1971. « The non-anomalous nature of anomalous utterances ». Language, 47 (1) :
27-52.
Fuchs C. 1999. « Diversity in cognitive representations : a challenge for cognition », in C. Fuchs et
S. Robert (dir.), Language Diversity and Cognitive Representations. Amsterdam-Philadelphia,
Benjamins : 3-19.
— 2003. « Les langues entre universalisme et relativisme », inJ.-F. Dortier (dir.), Le cerveau et la
pensée. Auxerre, Sciences Humaines Éditions : 143-151.
Garrett M. F. 1980. « Levels of processing in sentence production », in B. Butterworth (dir.),
Language Production, Vol I. Speech and Talk, Londres, Academic Press : 177220.
Gaudinat Α., J.-P Goldman et Ε. Wehrli. 1998. « Le système de synthèse FIPSVox : syntaxe,
phonétisation et prosodie ». Actes XXII’JEP, Martigny Switzerland : 139-142.
Geschwind N. 1965. « Disconnection syndromes in animals and man ». Brain, 88 : 237-294 et
585-644.
Gineste M.-D., Scart-Lhomme V. 1999. « Comment comprenons-nous les métaphores? ». L’Année
psychologique, 99 : 447-492.
Givón T. 1998. « On the co-evolution of language, mind and brain ». Evolution of Communication,
21 : 45-116.
Goldberg A. 2003. « Constructions : a New Theoretical Approach to Language », Trends in Cognitive
Science, 7, 5 : 219-224.
Green Β., A. K. Wolf, C. Chomsky et Κ. Laughery. 1963. « Baseball : an automatic question
answerer », in E. A. Feigenbaum et J. Feldman (dir.), Computers and Thought, New York, McGraw-
Hill : 207-216.
Greenberg J. H. 1963. « Some Universals of Grammar with Particular Reference to the Order of
Meaningful Elements », in J. H. Greenberg (dir.), Universals of Grammar, Cambridge MA, MIT Press :
73-113. (2e éd., 1966 : 58-90.)
155
Klein W., Nüse R. 1997. « La complexité du simple : l’expression de la spatialité dans le langage
humain », in M. Denis (dir.), Langage et cognition spatiale, Paris, Masson : 1-23.
Kohn S. Ε., M. P. Lorch et D. M. Pearson. 1989. « Verb finding in aphasia ». Cortex, 25 : 57-69.
Kremin H. 1994. « Selective impairments of action naming : arguments and a case study ».
Linguistische Berichte, 6 : 62-82.
Lakoff G. 1993. « The contemporary theory of metaphor », in A Ortony (dir.), Metaphor and
Thought, Cambridge, Cambridge University Press : 202-251.
Langacker R. W. 1988. « A usage-based model », in B. Rudzka-Ostyn (dir.), Topics in cognitive
Linguistics, Amsterdam, Benjamins : 127-161.
— 1999. « Assessing the cognitive linguistic enterprise », in T. Janssen et G. Redeker (dir.),
Cognitive Linguistics : Foundations, Scope, and Methodology, Berlin, Mouton de Gruyter : 13-59.
Lashley K. S. 1951. « The problem of serial order in bahavior », in L. A. Jefferess (dir.), Cerebral
mechanisms in Behavior : the Hixon Symposium, New York, Wiley.
Lazard G. 2004 : « What are we typologists doing? », in Z. Frajzyngier (dir.), Linguistic Diversity and
Language Theories, Amsterdam, Benjamins.
Le Ny J.-F. 2000. « La sémantique des verbes et la représentation des situations ». Syntaxe et
sémantique, 2 : 17-54.
Le Ny J.-F., Franquart-Declercq C. 2001. « Flexibilité des significations, traits sémantiques et
compréhension des métaphores verbales ». Verbum, XXIII, 4 : 385-400.
— 2002. « Signification des verbes, relations verbe/patient et congruence sémantique ». Le
Langage et l’Homme, XXXVII : 9-26.
Lecours A. R. et al. 1987. « Jacques Lordat, or the birth of cognitive neuropsychology », in E.
Kieller et M. Gropnick (dir.), Motor and Sensory Processes of Language, Hillsdale NJ, L. Erlbaum
Associates.
Li Chongxing. 1992. « Chusuoci fazhan lishi de chubu kaocha », in Z. Hu, N. Yang et S. Jiang (dir),
Jindai hanyuyanjiu, Pékin, Shangwhu yinshuguan : 243-263.
Longobardi G. 1994. « Reference and proper names : a theory of N-movement, in syntax and
logical form ». Linguistic Inquiry, 25 : 609-665.
Manning L., Warrington E. 1996. « Two routes to naming : a case study ». Neuropsychologia, 34 :
808-817.
Marantz Α. 1997. « No escape from syntax : don’t try morphological analysis in the privacy of
your own lexicon », in A. Dimitriadis, L. Siegel et al. (dir.), University of Pennsylvania Working Papers
in Linguistics, 4, 2 : 201225.
Mc Carthy R., Warrington E. 1985. « Category specificity in an agrammatic patient : the relative
impairment of verb retrieval and comprehension ». Neuropsychologia, 23 : 709-727.
McRae K., T. R. Ferretti et L. Amyote. 1997. « Thematic roles as verb specific concepts ». Language
and Cognitive Processes, 12 : 137-176.
Martins D., Le Bouédec Β. 1998. « La production d’inférences lors de la compréhension de textes
chez des adultes : une analyse de la littérature ». L’Année psychologique, 98 : 511-543.
Miceli G., M. C. Silveri, U. Nocenti et A. Caramazza. 1988. « Patterns of dissociation in
comprehension and production of nouns and verbs ». Aphasiology, 2 : 351-358.
Miceli G., M. C. Silveri, G. Villa et A. Caramazza. 1984. « On the basis of the agrammatic’s difficulty
in producing main verbs ». Cortex, 20 : 207-220.
Miozzo Α., M. Soardi et S. Cappa. 1994. « Pure anomia with spared action naming due to a left
temporal lesion ». Neuropsychologia, 32 : 1101-1109.
157
Mitchum C. C., Berndt R. 1994. « Verb retrieval and sentence construction : effects of targeted
intervention », in M. J. Riddoch et G. W. Humphreys (dir.), Cognitive Neuropsychology and Cognitive
Rehabilitation, Hove, Lawrence Erlbaum : 317-348.
Nash L., Rouveret A. 2002. « Cliticization as Unselective Attract. » Catalan Journal of Linguistics, 1 :
157-199.
Nespoulous J.-L. 1980. « De deux comportements verbaux de base : référentiel et modalisateur. De
leur dissociation dans le discours aphasique ». Cahiers de psychologie, 23 : 195-210.
— 1981. « Two basic types of semiotic behavior. Their dissociation in aphasia ». Publication Series
ofthe Toronto Semiotic Circle, II et III : 173-213.
— 1994. « Le Langage. Introduction : Linguistique, neurolinguistique et neuropsycholinguistique.
Un parcours en quatre étapes », in X. Seron et M. Jeannerod (dir.), Neuropsychologie humaine,
Bruxelles, Mardaga : 317-319.
— 1997. « Invariance et variabilité dans la symptomatologie linguistique des aphasiques
agrammatiques : le retour du comparatisme? », in C. Fuchs et S. Robert (dir.), Diversité des langues
et représentations cognitives, Gap-Paris, Ophrys : 227-239.
— 1998. « Segmental errors in aphasia as (psycho) linguistic evidence of the nature of
phonological representations », in W. Ziegler et Κ. Deger (dir.), Clinical Phonetics and Linguistics,
Londres, Whurr Publishers Ltd. : 323-335.
— 1999. « De la linguistique... à la psycholinguistique et à la neuropsycholinguistique. Une
illustration : le traitement (spécifique?) des verbes par le cerveau/esprit humain », in J. François
et B. Victorri (dir.), Sémantique du lexique verbal, Caen-Paris, Université de Caen-CNRS : 159-166.
— 1999. « Universal vs. language specific constraints in agrammatic aphasia ». In C. Fuchs et S.
Robert (dir.), Language Diversity and Cognitive Representations, Amsterdam-Ρhiladelphie,
Benjamins : 195-207.
Nespoulous J.-L., Y. Joanette, R. Béland, D. Caplan et A. R. Lecours. 1984. « Phonologic
disturbances in aphasia : Is there a markedness effect in aphasic phonetic errors? », in F. Rose
(dir.), Advances in neurology. Progress in aphasiology, New York, Raven : 203-213.
Nespoulous J.-L., M. Dordain, C. Perron, B. Ska, D. Bub, D. Caplan, J. Mehler et A. R. Lecours. 1988.
« Agrammatism in sentence production without comprehension deficits : reduced availibility of
syntactic structures and/or of grammatical morphemes? A case study ». Brain and Language, 33 :
273295.
Nespoulous J.-L., Ch. Code, J. Virbel et A. R. Lecours. 1998. « Hypotheses on the dissociation
between “referential” and “modalizing” verbal behaviour in aphasia ». Applied Psycholinguistics,
19 : 311-331.
Nespoulous J.-L., Moreau N. 1998. « “Repair strategies” and the production of segmental errors in
aphasia : epentheses vs. syncopes in consonantal clusters », in E. VischBrink et R. Bastiaanse,
Linguistic Levels in Aphasia, San Diego, Singular Publishing Group Inc. : 133-146.
Nettle D. 1999. « Functionalism and its difficulties in biology and linguistics », in M. Darnell et al.
(dir.), Functionalism and formalism in linguistics, Amsterdam-Philadelphia, Benjamins, vol. I :
445-467.
Newell Α., Simon H. 1956. « The Logic Theory Machine, A Complex Information Processing
System ». IRE Trans. Information Theory, 2 : 6179.
Orpwood L., Warrington E. 1995. « Word specific impairments in naming and spelling out but not
reading ». Cortex, 31 : 239-266.
158
Pakzad S., Nespoulous J.-L. 1997. « Compréhension des métaphores chez les cérébrolésés droits :
du traitement différentiel des métaphores “opaques” et “transparentes” ». Revue Parole, 3/4 :
299-322.
Payne D. 1999. « What counts as explanation? A functionalist approach to word order », in M.
Darnell et al. (dir.), Functionalism and formalism in linguistics, Vol. I, Amsterdam-Philadelphia,
Benjamins : 137-165.
Petrick S. 1973. « Transformational analysis, Natural language processing », in X. Rustin (dir.),
Natural Language Processing, New York, Academic Press : 27-41.
Peyraube A. 2002. « L’évolution des structures grammaticales ». Langages, 146 : 46-58.
Peyraube Α., Wu F. 2000. « Shanggu hanyu yiwen daici de fazhan yu yanbian ». Zhongguo yuwen, 4 :
311-326.
Phillips C. 1996. Order and Structure. Thèse de doctorat. MIT.
— À paraître. « Levels of representation in the electrophysiology of speech perception ». Cognitive
Science.
Piattelli-Palmarini M. 2002. « Portrait d’un cognitiviste “classique” : ce que j’ai appris auprès de
Jacques Mehler », in E. Dupoux (dir.), Les langages du cerveau, Paris, Odile Jacob : 13-30.
Plath W. 1976. « Request : A natural language question-answering system ». IBM Journal of research
and development, 20, 4 : 326-335.
Plaut D. C. 1995. « Double dissociation without modularity. Evidence from connectionist
neuropsychology ». Journal of Clinical and Experimental Neuropsychology, 17 : 291-321.
Pollock J.-Y. 1989. « Verb movement, Universal Grammar, and the structure of IP ». Linguistic
Inquiry, 20 : 365424.
Puel M., Y. Joanette, M. Levrat, J.-L. Nespoulous, M.-F. Viala, A. R. Lecours et A. Rascol. 1982.
« Aphasie croisée chez les droitiers. II. Étude neurolinguistique et neuropsychologique d’un cas.
Évolution sur deux ans ». Revue neurologique, 8-9 : 587-600.
Pylkkänen L., Marantz A. 2003. « Tracking the time course of word recognition with MEG ».
Trends in Cognitive Sciences, 7 : 5.
Rapp B., L. Bebzing et A. Caramazza. 1995. « The Modality-Specific Representation of
Grammatical Category ». Paper presented at the 36th meeting of the Psychonomic Society, Los
Angeles.
Rastier F. 1998. « La linguistique cognitive », in O. Houdé et al. (dir.), Vocabulaire de sciences
cognitives, Paris, PUF : 15-17.
Reddy M. 1979. « The conduit metaphor, Metaphor and thoughts », in A. Orthony (dir.), Metaphor
and Thought, Cambridge MA, MIT Press : 164-201.
Ritter Ε. 1991. « Two functional categories in noun phrases : evidence from Modern Hebrew », in
S. Rothstein (dir.), Syntax and Semantics, 26, San Diego, Academic Press : 37-62.
Rizzi L. 1997. « The fine structure of the left periphery », in L. Haegeman (dir.), Elements of
Grammar, Dordrecht, Kluwer : 281337.
Rizzolatti et al. 2002. « Motor and cognitive functions of the ventral pre motor cortex ». Current
Opinion in Neurobiology, 12 : 148154.
Rosch E., Mervis C. B. 1975. « Family resemblances : studies in the internal structure of
categories ». Cognitive psychology, 7 : 573-605.
Rosch E. 1975. « Cognitive representations of semantic categories ». Journal of Experimental
Psychology, 104 : 193-233.
159
Glossaire
1 Absolutif : dans les langues dites ergatives, l’absolutif est la marque de l’actant unique
d’un procès (même s’il contrôle celui-ci) et du Patient quand il se présente dans une
proposition en présence d’un actant Agent.
2 Actant : expression linguistique référant à un participant à un état, un événement ou une
action.
3 Adjacente : relation linéaire se vérifiant dans une séquence entre deux termes qui ne sont
pas séparés par un troisième terme.
4 Adposition : constituant rattachant un syntagme nominal postposé (préposition) ou
préposé (postposition) à une unité régissante.
5 Affixe : morphème lié qui est attaché à un radical ou à une racine pour former un mot
complexe.
6 Agentivité, agentif : propriété de la représentation d’un actant (l’Agent) conçue comme
contrôlant un procès et qui spécifie ce procès comme une action ou une activité.
7 Agrammaticalité : propriété d’une représentation syntaxique qui n’est pas générée par les
opérations grammaticales disponibles dans une langue particulière et est donc exclue par
la grammaire de cette langue.
8 Agrammatisme : perturbation, chez certains aphasiques, de la production du langage se
traduisant par la simplification des marqueurs morphosyntaxiques de la langue et
conduisant les patients à recourir à un « style télégraphique ».
9 Aktionsart : propriété du type de procès dénoté par une expression predicative, en
particulier un verbe, relativement à son déroulement temporel (caractère statique ou
dynamique, momentané ou duratif, transitionnel, résultatif, etc.).
10 Aléthique : type de modalité d’une proposition en termes de vérité (grec aletheia) :
possiblement, nécessairement, impossiblement ou non nécessairement vrai.
11 Allomorphie : alternance dans les différentes réalisations que peut avoir un morphème
donné dans des contextes différents.
12 Amorçage : technique expérimentale utilisée en psycholinguistique, qui consiste à
présenter successivement au sujet deux éléments de langue et à lui demander de prendre
une décision lexicale sur le second (par exemple : est-ce un mot du français ou non ?).
162
L’hypothèse est que le temps requis pour cette décision sur le second élément est
déterminé par la nature du premier élément et par le rapport – de forme ou de sens –
existant entre les deux : le premier sert donc d’« amorce ».
13 Analyse componentielle : traitement du sens lexical dans lequel le signifié de chaque unité
est distingué de celui des autres par les traits sémantiques qui lui sont associés et qui
constituent autant d’éléments de la signification.
14 Anaphore : un élément de la langue, employé dans un discours, est dit anaphorique
lorsqu’il renvoie à un autre élément du même discours, sans lequel il n’aurait pas
d’interprétation. (exemples : Pierre sera heureux si Marie le reçoit. Je t’ai donné mon livre,
donne-moi le tien).
15 Anomie : également appelé « manque du mot », l’anomie, fréquente chez les aphasiques
mais également observable chez le sujet normal, réside en une difficulté, durable ou
épisodique, d’accès au lexique.
16 Apraxie : difficulté de planification et d’exécution des gestes en l’absence de
perturbations des mécanismes qui président à la motricité élémentaire.
17 Argument : expression nominale ou propositionnelle entretenant avec un verbe (ou un
nom ou une préposition) une relation sémantique. La présence, explicite ou non, des
arguments sélectionnés par un prédicat verbal est requise pour que la proposition où
figure ce prédicat soit bien formée. Dans une relation prédicat-argument, le prédicat peut
être assimilé à une fonction et l’argument à un objet saturant une variable de cette
fonction.
18 Auxilliation : pour un verbe, perte de valeur prédicative et réduction au statut d’auxiliaire
(type de grammaticalisation).
19 Causativité, causatif : propriété d’une expression prédicative, en particulier un verbe ou
syntagme verbal, caractérisée par le fait que l’un des participants au procès (le causateur)
fait subir un changement à un autre participant (le patient), éventuellement dans sa
relation avec un tiers (destinataire, locatif, etc.).
20 Cible : dans l’expression d’une relation spatiale entre deux objets, l’objet (entité) à
localiser par rapport à l’autre objet est appelé « cible » ou encore « trajecteur » :
exemple : le mot « livre » dans la phrase le livre est sur la table. « Cible » correspond au
terme anglais « trajector ». Voir aussi « site », et « relatum ».
21 Cinématique : étude du mouvement.
22 Classeflexionnelle : classe d’unités lexicales dont les membres présentent la même
morphologie flexionnelle.
23 Compétence : dans la perspective de la grammaire générative, la compétence d’un sujet
parlant une langue est l’ensemble des règles qu’il maîtrise du fait même qu’il est locuteur
de cette langue : la possibilité de construire et de reconnaître une infinité de phrases
grammaticales, de les interpréter, de déceler les ambiguïtés, d’identifier les phrases
synonymes, etc. La « compétence » se distingue la « performance ».
24 Complémenteur : mot grammatical qui marque le statut subordonné d’une proposition
complément (que est un complémenteur).
25 Compositionnalité (Principe de-) : les sens des mots étant représentés par des symboles
élémentaires, on combine ceux-ci entre eux afin de représenter le sens des éléments
(groupes nominaux, groupes verbaux, etc.) dans lesquels ils interviennent. Globalement,
163
le sens de la phrase entière est calculé de la même façon, par combinaison des
représentations de ses composants (il faut noter que ce mécanisme est quelque peu
restrictif et ne permet pas de rendre compte de toutes les finesses de l’utilisation du
langage...).
26 Compositionnel (processus) : processus de construction du sens d’une forme composée
dans lequel le sens des unités qui la composent est préservé et reconnaissable.
27 Configuration d’assignation casuelle : dans le modèle Principes et Paramètres de Chomsky,
tout groupe nominal doit être marqué comme portant l’un des Cas abstraits mis à
disposition par la grammaire. L’assignation n’est possible que si la catégorie qui assigne le
Cas et l’expression nominale qui le reçoit figurent l’une par rapport à l’autre dans une
configuration structurale déterminée. Dans les premiers états de la théorie, deux
relations structurales autorisaient l’assignation casuelle : la relation de gouvernement et
la relation spécificateur-tête. Chomsky a montré par la suite que l’assignation des Cas
structuraux - le nominatif et l’accusatif en particulier - mettait toujours en jeu une
configuration spécificateur-tête.
28 Contrefactuelle (-Analogie) : on appelle « contrefactuelle » une construction qui donne
pour vraie une proposition qui, dans le monde réel, est admise comme fausse (exemple : si
Pierre avait réussi laisse entendre que Pierre n’a pas réussi, tout en évoquant la réussite de
Pierre dans un monde contrefactuel). Les constructions de ce type permettent à certains
raisonnements et à certaines analogies d’opérer (exemple : si jetais toi, je ne me marierais
pas).
29 Constructiviste : nom donné au courant qui, dans les sciences cognitives, se démarque du
paradigme cognitiviste classique. Ce courant cherche à expliquer les phénomènes
observés comme résultant de constructions dynamiques faisant émerger des formes
signifiantes.
30 Co-texte : également appelé « contexte linguistique », le co-texte se définit comme
l’ensemble des segments linguistiques qui, dans un texte, environnent une expression
donnée, c’est-à-dire qui précèdent ou suivent cette expression.
31 Deixis nominale : propriété d’un syntagme nominal qui pointe sur un participant à la
situation d’énonciation (exemple : veuillez me changer ce billet/).
32 Deixis temporelle : propriété d’une expression adverbiale (exemple : maintenant, la semaine
dernière) ou d’un morphème grammatical (exemple : je vais revenir) référant à un
intervalle de temps repéré par rapport au moment de l’énonciation.
33 Déontique : type de modalité d’une proposition en termes de contrainte extérieure :
permis, obligatoire, interdit, dénué d’obligation.
34 Dérivationnel : 1. morphologie, se dit d’un affixe qui permet la dérivation dans le lexique
d’un mot à partir d’un autre ;
2. en syntaxe, désigne une théorie de la grammaire dans laquelle à un énoncé donné sont
associées plusieurs représentations syntaxiques reliées par les règles de la grammaire ;
« dérivationnel » s’oppose à « représentationnel ».
35 Dérivations : 1. des opérations qui, étape par étape, modifient la forme ou la structure
d’un objet syntaxique ou morphologique ;
2. dans une théorie dérivationnelle de la syntaxe, ensemble des opérations ordonnées qui
permettent de construire une structure superficielle à partir d’une structure profonde ;
3. dans le programme minimaliste de Chomsky, ensemble des opérations qui font
164
l’extraposition gauche et n’imposent aucun ordre sur leur récriture. Une règle de ces
grammaires représente un ensemble (qui peut être infini) de règles usuelles ; elle permet
d’indiquer les sous-chaînes qui peuvent être ignorées lors de l’application de la règle et
éventuellement réordonnées et analysées ensuite par d’autres règles. Cela permet de se
concentrer, lors de l’écriture d’une règle, sur les seuls constituants pertinents, en
négligeant les sous-chaînes intermédiaires non spécifiées.
51 Grammaire d’unification : le principe de base de cette grammaire est d’utiliser le même
formalisme pour représenter les éléments du dictionnaire, les règles de grammaire et les
représentations des phrases. Un constituant est décrit par un ensemble de couples :
{(attribut = valeur)} où chaque couple est considéré comme une description partielle de ce
constituant, indépendante des autres. L’ordre de ces couples n’est pas pertinent. Les
mécanismes d’analyse consistent alors à « unifier » – quand c’est possible – ces
descriptions (ajouter un couple à une description partielle, ou généraliser les valeurs d’un
même attribut). Voir unification.
52 Grammaire formelle : mécanisme pleinement explicite qui spécifie, à partir d’un ensemble
donné d’éléments (le vocabulaire), l’ensemble des suites qui appartiennent au langage
défini par cette grammaire. Les premières grammaires génératives étaient formelles en ce
sens, puisqu’il s’agissait de construire des systèmes formels générant des langages aussi
proches que possible des langues naturelles. Par la suite, « formel » en est venu à signifier
simplement « explicite ».
53 Grammaire générative : 1. procédé de calcul fondé sur des règles (règles de réécriture ou
transformations), permettant de générer et d’énumérer toutes les phrases d’une langue
(et seulement elles) conçues formellement comme des séquences d’unités.
2. théorie grammaticale qui se donne pour objet la construction de grammaires des
langues particulières au sens de 1.
54 Grammaire lexicale fonctionnelle : grammaire d’unification qui utilise la notion
d’équations simultanées permettant d’interpréter sémantiquement une structure
construite par une grammaire non contextuelle. Cette théorie vise à modéliser la
connaissance syntaxique nécessaire pour préciser les relations entre les aspects
sémantiques prédicatifs importants dans le sens d’une phrase et les choix des mots et des
structures des phrases destinés à exprimer ces relations.
55 Grammaire logique : alors que dans les théories classiques les symboles utilisés dans les
règles de récriture sont de simples identificateurs, dans les grammaires logiques, ces
symboles peuvent être également des variables ou des prédicats (faisant à leur tour
intervenir des constantes, des variables ou d’autres prédicats). L’application d’une règle
de récriture entraîne alors des opérations d’unification, afin qu’une variable qui apparaît
dans une règle ait la même valeur dans toute la règle.
Ce mécanisme permet de spécifier des conditions qui vont restreindre les possibilités
d’application d’une règle en explicitant des contraintes sur la nature des variables qui
apparaissent dans la règle. On peut ainsi tenir compte du contexte d’application des
règles de la grammaire.
56 Grammaire sémantique : les catégories non terminales de ce type de grammaire sont des
classes sémantiques, définies par le concepteur à partir du domaine à traiter. Le
traitement d’une phrase consiste alors à vérifier des correspondances sémantiques avec
la grammaire sans trop se préoccuper de la syntaxe ; celle-ci reste implicite et correspond
simplement à l’ordre dans lequel peuvent apparaître les diverses catégories sémantiques.
166
Il s’agit plus d’une façon pragmatique de construire des programmes efficaces que d’une
théorie linguistique véritable.
57 Grammaire syntagmatique généralisée : un aspect important des grammaires
syntagmatiques généralisées est la considération de règles sémantiques en parallèle avec
les règles syntaxiques. Elles ont le grand intérêt de remettre en cause les rôles respectifs
de la syntaxe et de la sémantique et de se diriger vers une théorie formelle intégrée.
58 Grammaire systémique : une grammaire systémique est centrée sur l’organisation
fonctionnelle du langage et les liens qui existent entre la forme d’un texte d’une part et le
contexte (ou les situations) dans lesquelles ce texte peut apparaître, d’autre part. Il ne
s’agit donc pas d’une grammaire générative mais d’une grammaire descriptive : elle
caractérise les phrases par des ensembles de traits (représentant les choix qu’un locuteur
effectue parmi les options qui s’offrent à lui au moment de parler), traits qui peuvent
ensuite être utilisés par d’autres processus.
Là, réside un des aspects les plus intéressants de ces grammaires pour l’intelligence
artificielle : le passage de traits d’une procédure à une autre - procédé informatique très
simple à réaliser - permet de tenir compte d’aspects contextuels et de prendre des
décisions fondées sur plusieurs processus qui interagissent tout en conservant une
certaine modularité.
59 Grammaire transformationnelle : extension du modèle initial de Chomsky qui organise les
connaissances syntaxiques en trois volets : 1. une grammaire permettant d’engendrer un
ensemble de structures abstraites (structures profondes) qui correspondent à des phrases
noyaux (phrases simples, déclaratives à la forme active).
2. un ensemble de règles de transformations, agissant sur les arbres de dérivation et
permettant de réordonner les chaînes terminales, d’y ajouter ou d’en supprimer certains
éléments. On engendre ainsi toutes les formes possibles de phrases (structure de surface).
3. des règles morpho-phonémiques permettent ensuite de construire, à partir de ces
chaînes terminales, la suite de phonèmes ou de caractères correspondant à la phrase
(prononcée ou écrite).
60 Grammaticalisation : type de changement linguistique attesté dans de très nombreuses
langues, par lequel des mots du lexique en viennent à fonctionner comme de purs outils
grammaticaux : ainsi, en français moderne, les termes lexicaux pas, mie et goutte n’ont
plus leur sens plein originel lorsqu’ils forment avec ne l’expression de la négation. On
nomme aussi « grammaticalisation » l’approche linguistique par laquelle on étudie ce
phénomène.
61 Homéomorphe : qui a une structure fortement similaire (sans que l’on puisse être assuré
d’un strict isomorphisme).
62 Iconicité chronologique : propriété d’une unité transphrastique (paragraphe, tour de
parole, etc.) dont l’enchaînement des propositions ou phrases élémentaires reflète
directement la succession des événements (exemple : Je suis venu, j’ai vu, j’ai vaincu).
63 Implicationnel : universaux caractérisés par la reconnaissance d’une relation
d’implication entre deux types d’observation ; par exemple : toutes les langues qui
distinguent le duel du pluriel distinguent également le pluriel du singulier. La plupart de
ces universaux ne sont que des tendances universelles ; par exemple : quand dans une
langue L, le verbe est régulièrement introduit avant/après ses actants dans la
proposition, généralement dans le syntagme nominal, le nom est régulièrement introduit
avant/après ses membres.
167
64 Lexique : composant de la grammaire d’une langue qui regroupe les entrées lexicales de
tous les mots et morphèmes de cette langue, spécifiant l’appartenance catégorielle et les
propriétés de sous-catégorisation et de sélection de chacun. On conçoit de plus en plus le
lexique, non comme une liste non structurée des particularités et des idiosyncrasies d’une
langue, mais comme un réseau sophistiqué d’entrées partageant des spécifications de
traits.
65 Linguème : unités de structure linguistique concrétisées dans des énoncés particuliers qui
peuvent être hérités par réplication (W. Croît).
66 « Main invisible » (Processus de la-) : processus initialement conçu par Adam Smith pour
expliquer la régulation de phénomènes économiques : bien que les locuteurs n’en soient
pas conscients, leurs productions linguistiques respectent des principes statistiques dont
les universaux implicationnels sont une illustration.
67 Mapping : en mathématique, procédure par laquelle tout objet d’un premier ensemble est
systématiquement associé à un objet d’un deuxième ensemble.
68 Paradigme : ensemble des formes fléchies présentées par une classe d’items lexicaux -
déclinaison d’une classe de noms, conjugaison d’une classe de verbes. On range
habituellement ces formes en fonction des traits grammaticaux qu’elles réalisent.
69 Performance : dans la perspective de la grammaire générative, la performance désigne les
réalisations langagières effectives produites par les sujets parlants, sur la base de leur
compétence des règles de la langue.
70 Phonologie : étude des sons de la langue en tant que traits distinctifs permettant
d’opposer un mot à un autre (quelles que soient par ailleurs les différences de réalisations
phoniques non pertinentes).
71 Phonotactique : on parle de contrainte phonotactique pour désigner les relations
séquentielles que peuvent ou ne peuvent pas entretenir entre eux les phonèmes d’une
langue.
72 Postposition : Voir Adposition.
73 Pragmatique : l’aspect pragmatique du langage concerne les caractéristiques de son
utilisation dans des situations de communication. La pragmatique étudie tout ce qui, dans
le sens d’un énoncé, tient à la situation dans laquelle cet énoncé est employé, par-delà la
structure syntaxique et sémantique.
74 Prédication : opération par laquelle un prédicat est assemblé avec un ou des arguments
pour former une proposition atomique. Ce terme peut être employé en contexte
linguistique ou psycholinguistique.
75 Prédicats (Calcul des-) : le calcul des propositions permet des formes de raisonnement
calculant la véracité de propositions selon les seules propriétés des propositions
composantes d’être vraies ou fausses. Le calcul des prédicats inclut le calcul des
propositions, et comporte en plus les notions de prédicat, de quantificateur universel et
de quantificateur existentiel. L’intérêt principal du calcul des prédicats est qu’il permet
l’introduction de la notion de « variable ».
76 Productivité : dénote la propriété de certains schémas et processus de construction,
relevant le plus souvent de la morphologie dérivationnelle, auxquels la langue a recours
de façon récurrente pour former des mots ou des expressions nouvelles.
168
77 Pronom clitique : pronom personnel dont la propriété est de n’avoir aucune autonomie
accentuelle ou prosodique et de devoir occuper dans la phrase une position où il est
phonologiquement hé à un mot sur lequel il prend appui. Contrairement aux affixes, les
clitiques constituent des unités syntaxiques autonomes. Contrairement aux mots, ils
doivent former une unité phonologique avec un autre terme. On parle aussi de pronom
faible ou de pronom atone.
78 Pronom fort : pronom définissant une unité autonome du point de vue accentuel,
prosodique et syntaxique.
79 Pronom nul : élément pronominal qui a toutes les propriétés d’un pronom ordinaire,
pouvant éventuellement occuper la même position dans la structure, mais dépourvu de
réalisation phonétique.
80 Prototype (Théorie du –) : théorie développée par la psychologue Eleanor Rosch, selon
laquelle tous les éléments d’une classe ne sont pas représentatifs au même titre les uns
que les autres, de la dite classe ; le degré de représentativité est appelé « degré de
prototypicalité » : ainsi un moineau est un oiseau plus prototypique qu’une autruche par
exemple.
81 Quantificateur : 1. qui, en logique, désigne un opérateur (quantificateur universel,
quantificateur existentiel) ;
2. se dit en grammaire formelle d’un déterminant ou d’un pronom dont la signification
peut être représentée par une expression contenant un tel opérateur (aucun, quelque,
tous appartiennent à cette classe). Les expressions quantifiées désignent la réalité par une
opération de parcours des valeurs particulières dans le domaine notionnel défini par le
nom lexical.
82 Référence : acte intentionnel visant à renvoyer à une entité ou à un événement du monde
(réel ou fictif) par le biais d’une expression linguistique.
La référence est à distinguer de la « dénotation » (ou « référence virtuelle »), qui elle-
même doit être distinguée de la « signification ».
83 Répérentialité : propriété d’une expression linguistique qui dans un discours réfère à une
entité ou un procès repérables dans le monde actuel ou dans un monde virtuel.
84 Relatum : dans l’expression d’une relation spatiale entre deux objets, celui qui sert de
repère à la localisation est appelé « relatum », par exemple le mot « table » dans la phrase
le livre est sur la table. Cette terminologie est utilisée par Klein et Nüse (1997). Un terme
plus courant, qui correspond à l’anglais « landmark », est « site » (ou encore « repère »).
Cf. aussi « cible », « site ».
85 Replication : dans la théorie du changement linguistique de W. Croft c’est la production
d’un énoncé reproduisant une structure linguistique. Les variations accidentelles de la
structure, partagées par de nombreux locuteurs, peuvent induire un changement
structural.
86 Site : dans l’expression d’une relation spatiale entre deux objets, celui qui sert de repère à
la localisation est appelé « site », par exemple le mot « table » dans la phrase le livre est
sur la table. « Site » correspond au terme anglais « landmark ». Cf. aussi « cible »,
« relatum ».
87 Structure profonde : 1. dans le modèle Principes et Paramètres de Chomsky, c’est le niveau
de structure (D-structure) qui est une représentation pure des relations de dépendance
lexicale entre éléments, chaque argument occupant la position où il est thématiquement
169
interprété ;
2. Niveau éliminé dans le Programme Minimaliste où le point de départ des dérivations
n’est pas une structure, mais une collection d’items lexicaux et d’éléments fonctionnels,
la numération.
88 Structure superficielle : 1. dans le modèle Principes et Paramètres de Chomsky, c’est le
niveau de représentation (S-structure) résultant de l’application à la D-structure des
opérations de mouvement déplaçant les arguments nominaux et les expressions
interrogatives et relatives ; une structure superficielle n’est bien formée que si toutes les
expressions nominales ont reçu un Cas et si les affixes ont trouvé un support lexical ; la S-
structure est un objet abstrait puisqu’elle contient les traces laissées dans leur position
originelle par le mouvement des termes déplacés ; d’autres opérations sont nécessaires
pour dériver la représentation phonétique et la représentation de Forme Logique.
2. Dans le Programme Minimaliste, la S-structure perd toute pertinence puisque ce n’est
pas un niveau d’interface.
89 Supplétion : processus morphologique par lequel une racine en remplace une autre dans
la formation de la flexion d’un item lexical.
90 Tagmémique : variante du structuralisme linguistique américain (Kenneth Pike) inspirée
par la glossématique de L. Hjelmslev.
91 Tête flexionnelle : catégorie fonctionnelle dont le contenu, affixal ou non, réalise l’une des
dimensions flexionnelles de la langue, le temps, la personne, le nombre, le genre, etc.
92 Théorie modulaire : théorie dans laquelle le dispositif grammatical se compose de
plusieurs sous-systèmes autonomes avec leurs règles de fonctionnement, leurs principes
et leur vocabulaire notionnel propres, appelés modules.
93 Topicalité : propriété d’une expression linguistique référant à une entité à partir de
laquelle est représenté et exprimé le procès auquel réfère l’énoncé (exemple : ta voiture, tu
pourrais me la prêter une journée ?).
94 Topologique (Relation-) : relation géométrique invariante quand on déforme continûment
la figure, comme, par exemple, la propriété d’être à l’intérieur ou à l’extérieur d’une
courbe fermée dans le plan.
95 Traces (Théorie des-) : pour rendre compte de l’influence de la structure profonde sur la
prononciation dans certaines phrases, Chomsky propose une variante de sa théorie où les
deux composants (phonologique et sémantique) agissent uniquement sur la structure de
surface ; elle implique alors que celle-ci contient des traces (des marques qui ne seront
plus visibles dans l’énoncé) qui reflètent les informations pertinentes de la structure
profonde ainsi que des transformations.
96 Unification : l’unification, dans une grammaire utilisant des systèmes de traits
syntaxiques, est une procédure permettant de combiner deux catégories en une seule,
pourvu qu’elles ne contiennent pas d’informations contradictoires. On désigne sous
l’étiquette de grammaire d’unification les modèles grammaticaux qui, comme LFG, GPSG,
HPSG, ont recours à cette procédure.
97 Verbe lexical : forme verbale dotée de contenu et sélectionnant un ou plusieurs
arguments ; s’oppose à « auxiliaire ».
170
Index
A
acquisition (— du langage) : 3, 19, 21, 27, 33, 34, 42, 55, 61, 63, 71, 75, 105, 107-109, 122-124,
126, 155, 165, 171, 215, 221
activation : 21, 68, 127, 164, 167, 168, 174, 216
agrammatique, agrammatisme : 180, 181
algorithme génétique : 217
ambiguïté, désambiguïsation : 83, 166, 168, 212
amorçage : 21, 163, 164, 168, 169, 221
analyseur : 108, 199, 202, 207, 208
anaphore, anaphorique : 19, 95, 168, 192, 211
anomisme, anomique : 180, 181, 184
anticipation : 168, 174
aphasie, aphasique : 6, 21, 22, 171, 175, 176, 177, 179, 182-185, 187, 188, 190, 191
— croisée : 190
— de Wernicke : 179
approche interne : 14, 30
architecture
— en série : 13, 213
— fonctionnelle (de l’esprit) : 3, 20, 21, 35, 171, 172, 175, 178, 182
— neuronale : 3
— parallèle : 13, 109, 132
— séquentielle : 198
association : 47, 216
association libre : 160
automate (théorie des) : 8
171
C
cognitif (tournant —) : 6, 9
cognitivisme : 8, 10-12, 24, 197
communication homme-machine : 23, 195, 210, 221
compétence (—/performance) : 4, 9, 21, 33, 101, 103, 105, 108, 133, 158-160, 167, 200, 204,
221
compositionnalité, compositionnel : 18, 90-92, 201
compréhension : 3, 27, 28, 30, 43, 74, 106, 108, 121, 155-157, 165-167, 169, 172, 179, 180,
190-192, 198, 199, 202, 205, 207, 208, 212-214, 216, 217, 220
(— du langage) :6, 21, 172, 220
computation, computationnel : 7, 8, 13, 29-31, 48, 52, 54, 59, 60, 63, 67, 74
computo-représentationnel symbolique (paradigme —) : 8
concept, 3, 19, 28, 34, 46, 57, 65, 83, 86, 102, 118, 119, 121, 126, 127, 130, 156, 157, 171, 216,
219
conceptuelle (structure —) : 13, 75, 95, 148
configuration : 17-19, 21, 37, 44, 45, 57, 63, 77, 81, 82, 85, 92, 93, 96, 111, 163, 164
connexionnisme, connexionniste : 11, 14, 15, 98, 167, 168, 216, 220
construectviste : 10
contexte, contextuel : 23, 30, 102, 106, 121, 137, 138, 143, 148, 150, 155, 167, 168, 171, 172,
176, 180, 189, 192, 194, 196, 202, 203, 205, 208-212, 215
continuum, continu : 14, 83, 98, 180
corpus : 11, 23, 207, 208, 212
cybernétique : 7, 8, 10
D
diachronie, diachronique : 5, 11, 20, 41, 55, 63, 87, 102, 105, 132, 135, 136, 150, 151, 174
discours : 19, 22, 35, 77, 92, 93, 101, 104, 105, 108, 121, 123, 131, 156, 157, 159, 161, 165, 167,
169, 180, 183, 184, 191, 198, 210
dissociation : 22, 177-179, 181-184, 186, 189
— simple : 22, 181, 185, 186, 189
Double — : 22, 177-182, 186, 189
dynamique : 5, 11, 12, 55, 80, 92, 212
Ε
économie : 17, 36, 48, 55-60, 65, 66, 128
enactivisme, enactiviste : 10
énonciation (théorie de 1’—, des opérations énonciatives) : 6, 21, 78, 97, 115, 116, 166, 168
espaces mentaux : 19, 73, 75, 76, 92, 93, 95, 96
172
expérimentation : 14, 15, 20, 29, 97, 139, 155, 158, 211
F
figure (—/fond, « ground ») : 18, 74, 79
focalisation, focal : 22, 75, 106, 176,
fonctionnalisme, fonctionnaliste, néo-fonctionnalisme, néo-fonctionnaliste : 10, 12, 14, 19,
35, 48, 55, 71, 72, 97, 136
formel, formalisme, formaliste : 14, 29, 71, 98-104, 107, 108, 133, 136, 158, 204, 209, 211,
212
G
génération (— de textes) : 203, 209, 210
géométrie, géométrique : 11, 78, 82, 84, 85, 96, 98
Gestalt, gestaltiste : 18, 74, 79
grammaire
— bidirectionnelle : 209
— chomskienne : 8, 9, 13, 15
— cognitive : 10, 12, 18-20, 46, 61, 73-76, 78, 83, 85, 86, 88, 92, 96-98, 124, 133
— de cas : 202
— de construction : 14, 124
— d’unification : 9, 204, 209
— fonctionnelle : 204-206
— formelle : 2, 12, 19, 23, 27, 32, 135, 202-204
— générative : 8, 12, 32, 34, 73, 75, 89, 97, 101, 107, 175, 203
— lexicale fonctionnelle : 204, 205
— sémantique : 206
— universelle : 9, 17, 33, 34, 76, 129, 155, 205
— systémique : 203, 204, 209 théorie des — : 8, 200
grammaticalisation : 19, 87, 99, 107, 118-120, 136, 143
I
iconicité, iconique : 102, 130-132, 136
imagerie cérébrale, imagerie fonctionnelle cérébrale, neuro-imagerie : 124, 191, 193
inférence : 21, 23, 165, 168, 181, 191, 199
information (théorie de l’—) : 7, 23, 155, 197
inné, innéisme, innéiste, innéité : 15, 17, 34, 74, 107, 108, 122, 123, 155
intelligence : 23, 28, 195, 196, 211, 216, 217, 219, 220
173
— artificielle : 1, 6-8, 13, 14, 23, 24, 28, 157, 174, 195, 196, 198, 200, 202-205, 210, 213,
215-221
— distribuée : 24
interaction, interactionnisme, interactionniste, interactif : 14, 15, 20, 21, 95, 158, 168, 177,
218
invariants (interlangues) : 2, 5, 11
L
langage : 173
lexicale : 13, 18, 36, 50, 53-55, 67, 68, 75, 82-88, 90, 92, 116, 126, 127, 129, 131, 138, 167, 168,
204, 206
décision— : 162, 163
lexique : 11, 13, 21, 23, 36, 43, 53, 67, 86, 102, 105, 126, 127, 156, 167, 180, 192, 199, 200, 202,
204-206
linguistique interne : 30
localisation (— cérébrale), localisationnisme : 14, 16, 190
logique : 7, 30, 35, 39, 42, 47, 53, 56, 57, 89, 95
— intensionnelle : 201
— minimaliste : 52
M
mémoire
— à court terme : 156, 214
— à long terme : 21, 66, 105, 156, 157, 163, 166, 167, 214, 215
— de travail : 21, 113, 156, 157, 166, 168, 214, 215
— sémantique : 156
métaphore : 19, 86, 87, 95, 166, 190, 197, 211, 215
minimalisme, minimaliste, programme minimaliste : 12, 17, 18, 32, 39, 41, 46-48, 51, 53-56,
59-66, 68, 69
modalité, modal : 81, 94, 95, 114, 119, 124, 129, 160, 184, 210
modularité, modulaire, module, modularisme, modulariste : 5, 9, 13-15, 22, 29, 42, 60, 62,
109, 130, 157, 176-178, 180, 181, 186, 188, 203, 213, 214
morphologie, morphologique : 4, 13, 18, 32, 36, 37, 39-41, 43-45, 49-52, 61, 63-67, 69-71, 99,
117, 172, 181, 186, 192, 199
mots clefs : 199, 200
multi-agents : 24, 214, 220
Ν
naturaliste (approche —, thèse —) : 3, 11, 30, 31
174
Ο
onomasiologie, onomasiologique : 2, 16
ontogénèse : 99, 105, 122
optimalité, optimal : 17, 47, 48, 52, 55, 60, 163
Ρ
palliative (stratégie —) : 23, 193
paramètre (principe et —), paramétrique : 17, 32, 35, 39, 41-43, 45, 46, 48, 55, 60, 63, 103
macro — : 43-45
micro — : 43, 45
pathologie du langage : 6, 21, 171-173, 186, 194
pensée : 2, 5, 7, 9, 12, 15, 16, 19, 28, 29, 76, 86, 117, 123, 156, 204, 212, 215, 216
performance : 4, 22, 101, 103, 108, 133, 159, 174, 175, 178, 180, 188, 193
phonétique : 4, 60, 68, 175
forme — : 47
représentation — : 9, 17, 47, 48
phonologie, phonologique : 18, 32, 35, 56, 68, 69, 100, 108, 109, 123, 132, 181-183, 186
phylogénèse, phylogénie : 99, 100, 105, 125, 128
polysémie, polysémique : 11, 18, 20, 83, 84, 86, 87, 90, 138, 148, 150, 168
— lexicale : 137
postulat de soustractivité : 177
postulat de transparence : 176, 178
pragmatique : 4, 6, 19, 23, 92, 97, 102, 106, 107, 123, 157, 158, 191, 203, 204, 206, 209, 210,
214
procès : 79, 116, 181
processus : 5, 20, 21, 28-31, 33, 34, 41, 42, 59, 61, 63, 65-69, 71, 80, 87, 90, 96, 99, 100, 102,
117, 119, 121, 127, 132, 136, 143, 156, 157, 159, 161-168, 172, 175, 187, 190, 192, 193,
196-200, 203, 205, 211-215, 219, 221
— computationnel : 29
production : 3, 105, 108, 121, 125-127, 156, 157, 165, 169, 172
— du langage : 21, 165, 205
profilage : 18, 75, 79, 80
protolangage, protogrammaire : 128, 131
prototype : 18, 20, 82-84, 86, 115, 138, 139, 144, 148-150
psycholinguistique : 4, 12, 20, 21, 28, 30, 97, 124, 155-161, 164-166, 169, 171-173, 175, 176,
194
175
R
raisonnement : 2, 5, 7, 58, 65, 76, 86, 87, 102, 118, 164, 195, 196, 198, 216-219, 221
relativité linguistique : 11
représentation : 8, 10, 22, 24, 29, 47, 51-57, 60, 65, 68-71, 75, 79, 82, 86, 90, 91, 94, 95, 114,
116-118, 125, 127, 155-157, 159, 163-169, 172, 178, 181, 183, 184, 186, 198, 201, 205, 211,
214-220
— cognitive : 75, 77, 132
— des connaissances : 196
— mentale : 17, 20, 21, 24, 31, 83, 116, 159, 166, 169, 174, 220
— schématique : 18, 90, 91
— sémantique : 9, 17, 47, 76, 180
réseau
— connexionniste : 117, 216, 217
— neuronal : 21, 125, 164, 172
ressemblance de famille : 84, 85
S
saillance, saillant : 79, 81
sémantique : 4, 6, 8, 11, 13, 14, 18, 19, 21-23, 32, 47, 51, 52, 57, 64, 71, 74-78, 80-89, 92, 96,
109, 114, 115, 122-124, 130, 132, 137, 138, 142-145, 148, 150, 156-158, 163, 164, 167-169, 175,
181, 200-202, 204-207, 209, 211, 221
— générative : 18
— interprétative : 18
statistique : 7, 102, 161, 208, 212
symbolisation, symbolique : 5, 8-10, 12, 14, 18, 23, 24, 29, 68, 71, 75, 129, 131, 133, 156, 197,
199, 207, 215-217, 220, 221
sub — : 10, 14
syntaxe : 4, 9, 11, 13, 17-19, 22, 23, 32, 35, 36, 38-41, 43-45, 48, 51, 54-60, 62-67, 69, 71, 75,
77, 88, 90, 92, 96, 100, 102, 103, 105, 106, 108, 109, 113, 117, 119, 122-124, 129, 131, 132, 150,
155, 156, 158, 162, 167, 168, 172, 181, 183, 186, 197, 199-209, 212, 214
système hybride : 24, 216
Τ
temps, temporel, temporalité : 5, 19, 21, 33, 35-38, 40, 42, 48, 50, 54, 79, 81, 87, 90, 95,
104-106, 114, 116, 119, 121, 122, 124, 141, 144, 145, 148-150, 162-164, 172, 198, 209, 214, 218
topologie, topologique : 18, 78, 80
traitement automatique des langues : 195, 196, 198, 199, 201, 207, 208, 210, 213, 215, 218,
221
176
typologie (des langues), typologique : 2, 11, 19, 20, 36, 39, 41, 55, 63, 99, 101, 109, 111, 117,
118, 120, 122, 131, 133, 135, 151
U
unification : 18, 31, 32, 90, 96, 133
universaux (— linguistiques,
— du langage) : 35, 102, 108
V
variabilité, variation : 2, 5, 12, 19, 22, 23, 35, 36, 38, 40-45, 61, 63, 64, 86, 111, 114, 120, 122,
125, 127, 128, 166, 181, 192, 218
Ζ
zone (— du langage) : 22, 189