Sunteți pe pagina 1din 178

La linguistique cognitive

Catherine Fuchs (dir.)

DOI : 10.4000/books.editionsmsh.7055
Éditeur : Éditions de la Maison des Édition imprimée
sciences de l’homme, Éditions Ophrys ISBN : 9782735110315
Année d'édition : 2004 Nombre de pages : 264
Date de mise en ligne : 4 juillet 2017
Collection : Cogniprisme
ISBN électronique : 9782735119233

http://books.openedition.org

Référence électronique
FUCHS, Catherine (dir.). La linguistique cognitive. Nouvelle édition [en ligne]. Paris : Éditions de la
Maison des sciences de l’homme, 2004 (généré le 17 août 2017). Disponible sur Internet : <http://
books.openedition.org/editionsmsh/7055>. ISBN : 9782735119233. DOI : 10.4000/
books.editionsmsh.7055.

Ce document a été généré automatiquement le 17 août 2017. Il est issu d'une numérisation par
reconnaissance optique de caractères.

© Éditions de la Maison des sciences de l’homme, 2004


Conditions d’utilisation :
http://www.openedition.org/6540
1

La linguistique a été l'une des disciplines pionnières participant dès le milieu des armées 1950 au
« programme cognitiviste », conjointement avec la psychologie et l'intelligence artificielle.

Le présent ouvrage a pour objectif de présenter les problématiques théoriques, les recherches
actuelles et les acquis de la linguistique cognitive. La première partie de l'ouvrage est consacrée à
un panorama des principaux courants contemporains, qui se réclament de deux grands
paradigmes théoriques : d'une part, le paradigme classique du cognitivisme (appelé paradigme
computo-représentationnel symbolique), qui a été adopté par les « grammaires formelles », et
notamment par la grammaire chomskienne ; et d'autre part, un paradigme alternatif encore en
émergence (parfois appelé paradigme constructiviste), représenté principalement par les
« grammaires cognitives », mais auquel se rattachent également certains tenants de la
linguistique fonctionnaliste, ainsi que des approches typologiques et diachroniques des langues.
La seconde partie de l'ouvrage est consacrée aux interactions entre la linguistique cognitive et
d'autres disciplines des sciences cognitives abordant le langage non plus à partir de l'étude
spécifique de la structure et du fonctionnement des langues, mais en tant que faculté supérieure
de l'espèce humaine mise en œuvre par des sujets (c'est l'objet de la psycholinguistique),
donnant lieu à l'activation de certaines zones du cerveau (c'est l'objet de la
neuropsycholinguistique), et susceptible d'être simulée sur ordinateur (c'est l'objet de
l'intelligence artificielle).

Signe incontestable de jeunesse, ce foisonnement des approches témoigne aussi de la vigueur de


la réflexion dans un domaine particulièrement complexe - celui des liens entre la diversité des
langues et la faculté de langage, et de leur inscription dans l'architecture et le fonctionnement de
l'esprit et du cerveau - où nombre de questions demeurent encore sans réponse, voire même
informulées.

CATHERINE FUCHS
Directeur de recherche au CNRS. Dirige le laboratoire « Langues, Textes, Traitements
informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII).
catherine.fuchs@ens.fr
2

SOMMAIRE

Les auteurs

Pour introduire à la linguistique cognitive


Catherine Fuchs
Langage, linguistique et cognition
De la linguistique générale à la linguistique cognitive
Les grandes problématiques de la linguistique cognitive
Le tournant cognitif et le paradigme cognitiviste en linguistique
Les avatars du cognitivisme : les nouveaux courants de la linguistique cognitive
Enjeux et perspectives
Pour aborder l’ouvrage

I. Les courants de la linguistique cognitive

Grammaire formelle• et cognition linguistique


Alain Rouveret
La perspective interne sur le langage
Paramètres, Grammaire Universelle et acquisition
Le Programme Minimaliste : une grammaire cognitive
Extensions
En guise de conclusion : cognitif vs. grammatical

Les grammaires cognitives


Bernard Victorri
Introduction
Le sens grammatical
Le sens lexical
Le sens syntaxique
La construction dynamique du sens
Conclusion

Le fonctionnalisme linguistique et les enjeux cognitifs


Jacques François
1. La notion d’explication dans la controverse entre fonctionnalisme et formalisme en
linguistique
2. Facteurs cognitifs dans la conception fonctionnaliste des universaux du langage
3. Le poids des motivations cognitives et celui des pressions sociales dans le changement
linguistique
4. L’ontogénèse : comment l’acquisition des relations sémantiques précède celle des relations
syntaxiques
5. La prise en compte de contraintes cérébrales dans le traitement et l’émergence du langage
6. Conclusion

Grammaire diachronique et cognition : l’exemple du chinois


Alain Peyraube
Évolution des structures locatives en chinois
Histoire des pronoms interrogatifs du chinois
Conclusion
3

II. Regards croisés sur le langage

Éléments de psycholinguistique cognitive : des représentations à la compréhension


Jean-François Le Ny
Les questions générales
Techniques et méthodes
Les sous-domaines de la psycholinguistique et les problèmes de la compréhension
Conclusion

Linguistique, pathologie du langage et cognition


Des dysfonctionnements langagiers à la caractérisation de l’architecture fonctionnelle du langage
Jean-Luc Nespoulous
De la linguistique à la psycholinguistique et à la neuropsycholinguistique : origines et évolution
De l’intérêt de l’étude des erreurs langagières pour l’appréhension de l’architecture structurale
et fonctionnelle du langage
De l’observation des comportements pathologiques à l’édification de l’architecture structurale et
fonctionnelle du langage chez le sujet normal
L’articulation « esprit » - « cerveau »
Conclusion : quelques orientations et défis de la neuropsycholinguistique pour le XXI e siècle

Intelligence artificielle, linguistique et cognition


Gérard Sabah
Historique
Informatique et communication homme-machine
Quelques objets centraux de l’intelligence artificielle
Conclusion

Bibliographie

Glossaire

Index
4

Les auteurs

1 Jacques FRANÇOIS
Professeur à l’université de Caen. Dirige le « Centre de recherche inter-langue sur la
signification en contexte » (UMR 6170, CNRS/Caen). jacques.francois@crisco.unicaen.fr
2 Catherine FUCHS
Directeur de recherche au CNRS. Dirige le laboratoire « Langues, Textes, Traitements
informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris
VII).
catherine.fuchs@ens.fr
3 Jean-François LE NY
4 Professeur émérite à l’université de Paris-Sud. Groupe « Cognition Humaine » du
Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (UPR 3251,
CNRS/Université Paris XI, Orsay). http://jfleny@wanadoo.fr
5 Jean-Luc NESPOULOUS
6 Professeur à l’université de Toulouse-Le Mirail. Dirige le laboratoire Jacques Lordat (EA
1941) et l’Institut des Sciences du Cerveau de Toulouse (IFR 96). http://nespoulo@univ-
tlse2.fr
7 Alain PEYRAUBE
Directeur de recherche au CNRS et directeur d’études à l’École des hautes études en
sciences sociales, Centre de recherches linguistiques sur l’Asie Orientale (UMR 8563,
EHESS/CNRS, Paris). http://peyraube@ehess.fr
8 Alain ROUVERET
Professeur à l’université Paris 7-Denis Diderot. Laboratoire de « Linguistique formelle »
(UMR 7110, CNRS/Paris-VII).
http://alain.rouveret@linguist.jussieu.fr
9 Gérard SABAH
10 Directeur de recherche au CNRS. Laboratoire d’Informatique pour la Mécanique et les
Sciences de l’Ingénieur, (UPR 3251, CNRS/Université Paris XI, Orsay). http://
Gerard.Sabah@limsi.fr
11 Bernard VICTORRI
Directeur de recherche au CNRS. Laboratoire « Langues, Textes, Traitements
5

informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII). http://


bernard.victorri@ens.fr
6

Pour introduire à la linguistique


cognitive
Catherine Fuchs

1 Le présent ouvrage a pour objectif de présenter la linguistique cognitive, en caractérisant


les types de faits, les problématiques et les paradigmes théoriques qui relèvent de façon
spécifique d’une linguistique « cognitive » (par différence avec la linguistique générale),
et d’illustrer les collaborations interdisciplinaires dans lesquelles cette branche de la
linguistique se trouve engagée1

Langage, linguistique et cognition


2 Pour les sciences de la cognition, qui étudient le fonctionnement de l’esprit et du cerveau,
le langage constitue un objet d’investigation de première importance : l’espèce humaine
est en effet la seule à disposer de cette « faculté supérieure » particulièrement complexe.
Plusieurs disciplines engagées dans l’étude de la cognition s’intéressent donc au langage :
psychologues, philosophes, anthropologues, spécialistes de neurosciences ou
d’intelligence artificielle – pour ne citer qu’eux – s’attachent, chacun dans son ordre, à
caractériser la place de la faculté de langage dans la cognition naturelle ou artificielle, et
à en étudier le fonctionnement.
3 L’approche du langage opérée par la linguistique est, quant à elle, tout à la fois plus
centrale et plus spécifique que celle des diverses disciplines qui viennent d’être évoquées.
Plus centrale, car elle est la seule science à avoir le langage pour objet d’étude exclusif,
plus spécifique, car c’est à partir de l’étude de la structure des langues qu’elle aborde cet
objet : selon une définition devenue classique, la linguistique est « la science du langage
appréhendé à travers la diversité des langues naturelles ».
4 L’intérêt des spécialistes des langues pour des questions d’ordre cognitif (au sens large)
ne date pas d’aujourd’hui, et l’on ne saurait sous-estimer la longue tradition qui existe en
la matière : les grandes théories de linguistique générale qui ont vu le jour depuis plus
d’un siècle (cf. Fuchs et Le Goffic 2003) – sans parler des travaux des ancêtres
7

grammairiens, rhétoriciens et logiciens depuis l’Antiquité – ont, sans conteste, alimenté


de multiples façons la réflexion sur les rapports entre les langues, la pensée, le
raisonnement, l’action, etc. Pour autant, cette problématique générale et relativement
diffuse ne se confond pas avec celle, plus circonscrite, de ce que l’on est convenu
d’appeler la « linguistique cognitive ».

De la linguistique générale à la linguistique cognitive


5 La linguistique générale s’est donné pour mission d’étudier la structure des langues –
depuis les sons (les « signifiants », au plan de l’expression) jusqu’aux sens (les
« signifiés », au plan du contenu) – et de rechercher des invariants interlangues.
6 Par-delà les descriptions locales et parcellaires, de nombreuses théories linguistiques
générales ont été élaborées depuis le début du XXe siècle. Les unes cherchant
prioritairement à constituer des modèles d’ensemble de la langue, les plus opératoires
possible : c’est le cas, par exemple, des grammaires formelles, mais aussi de divers
modèles « onomasiologiques » (c’est-à-dire orientés des sens vers les sons), comme ceux
de Mel’chuk, Martin, Pottier, etc. Les autres se souciant principalement de comparer les
langues, afin de ; dégager des propriétés communes, par-delà les variations observées
d’une langue à l’autre : c’est le cas, notamment, des approches typologiques, comme celles
de Comrie, Lazard, Seiler, etc.
7 À cette double exigence, constitutive de toute démarche de linguistique générale, la
linguistique cognitive est venue en ajouter une troisième : lapertinence cognitive. Sous la
dénomination de « linguistique cognitive », on s’accorde en effet à regrouper un
ensemble de courants qui partagent – par-delà leurs différences – un objectif commun :
celui de proposer des théories de la langue qui soient non seulement opératoires et
générales, mais également susceptibles de s’articuler de façon explicite avec des modèles
généraux de l’architecture fonctionnelle de l’esprit et/ou de l’architecture neuronale du
cerveau. Dans cette perspective, le système des règles de la langue (intériorisé par les
locuteurs) est objet d’étude pour le linguiste en tant qu’il constitue une composante de
l’esprit humain et qu’il a, d’une manière ou d’une autre, une inscription physique dans le
cerveau : une telle approche est dite « naturaliste ».
8 Pour autant, la linguistique cognitive ne saurait se dissoudre dans la psychologie, les
neurosciences ou l’informatique : l’enjeu est, pour elle, d’affirmer la spécificité de son
objet (le langage à travers les langues), et de conserver la maîtrise de ses concepts et de
ses méthodes, tout en veillant à ce que ceux-ci puissent s’articuler avec ceux des
disciplines connexes, dans le cadre de paradigmes théoriques plus généraux partagés par
les différentes disciplines. C’est donc de l’intérieur même du système des langues et à
partir de l’étude de l’organisation structurale et signifiante de ce système que la
linguistique cognitive propose d’appréhender les liens entre langage, esprit et cerveau.
9 À cet égard, la linguistique cognitive ne remet pas en question la classique répartition des
rôles entre la linguistique (qui étudie le système de règles intériorisé par tout sujet
parlant) et d’autres disciplines, notamment la psychologie (qui étudie le fonctionnement
effectif ou les dysfonctionnements de ce système, chez des sujets, dans des situations
concrètes de production, de compréhension ou d’acquisition du langage). Cette
distribution des tâches remonte au début du XXe siècle, lorsque la linguistique s’est
affirmée comme discipline autonome en se démarquant de la psychologie : pour Saussure,
8

il était entendu que le linguiste étudie la « langue » (c’est-à-dire le code, envisagé alors
comme un phénomène social), indépendamment des sujets et des circonstances de la
« parole » individuelle. Dans l’approche chomskienne, où la linguistique est réputée
n’être en définitive qu’une branche de la psychologie, l’objet d’étude du linguiste (la
« compétence », entendue comme mécanisme génératif participant de l’équipement
biologique de l’espèce humaine) n’en reste pas moins distinct de l’objet d’étude du
psychologue (la « performance »). C’est précisément sur la base de distinctions de ce type
que se sont développées des sous-disciplines travaillant aux interfaces avec la
linguistique, comme la psycholinguistique (branche de la psychologie cognitive) ou la
neurolinguistique (branche des neurosciences cognitives) – qui tendent d’ailleurs
actuellement à se conjoindre en une neuropsycholinguistique.

Les grandes problématiques de la linguistique


cognitive
10 Adopter une perspective cognitive en linguistique, c’est s’interroger sur l’ensemble des
connaissances spécifiques que maîtrise l’esprit humain au travers de la faculté de langage,
elle-même appréhendée à partir du système des langues ; et c’est se demander comment
ces connaissances sont organisées pour pouvoir être acquises et mises en œuvre dans
l’activité de langage. De là découle toute une série de questions, auxquelles des éléments
de réponse différents seront apportés selon le type de paradigme épistémologique retenu
(voir plus loin).
11 Un premier ordre de questions concerne l’architecture structurelle des connaissances
linguistiques constitutives de la faculté de langage : combien de types et de niveaux
différents de connaissances (phonétiques, morphologiques, syntaxiques, sémantiques,...)
sont-ils intériorisés dans l’esprit des sujets parlants ? La pragmatique• (calcul de la
référence•, du sens non littéral, prise en compte du cotexte• linguistique dans le calcul du
sens, etc.) en fait-elle partie ? La syntaxe en constitue-t-elle le « noyau dur » ? Toutes ces
connaissances peuvent-elles à elles seules caractériser entièrement la faculté de
langage ?...
12 Un deuxième ordre de questions a trait à l’architecture fonctionnelle de ces connaissances
dans l’esprit et le cerveau humain : sous quelle forme sont-elles organisées ? S’il s’agit de
« modules » (c’est-à-dire de sous-systèmes fonctionnellement et informationnellement
spécialisés), ceux-ci sont-ils « encapsulés » (c’est-à-dire totalement autonomes) ou bien
sont-ils interdépendants ? Et le langage lui-même constitue-t-il un module
« périphérique » de simple entrée/sortie d’informations (comme les modules de
perception, ou d’action motrice), totalement indépendant du système « central » (qui
serait le siège de la pensée) ? Par ailleurs, à quels types de calculs la maîtrise effective de
ces connaissances correspond-elle, et comment ces diverses connaissances peuvent-elles
être représentées, simulées ou émulées artificiellement ?...
13 Un troisième ordre de questions touche à ce que l’on pourrait appeler « la dynamique du
langage », qui engage à plusieurs titres la dimension de la variabilité linguistique. Derrière
la diversité des langues, peut-on postuler l’existence d’universaux ou bien d’invariants
interlangues ? subsidiairement, quelle est la marge des variations interlangues et celles-ci
ont-elles un quelconque impact cognitif ? S’agissant de l’évolution des systèmes
linguistiques au cours du temps, quelle place faire à la diachronie• dans une perspective
9

cognitive ? et que peut-on dire de l’émergence de la faculté de langage au cours de


l’évolution phylogénétique ? Enfin, au plan ontogénétique, la rapidité et la relative
uniformité de l’apprentissage du langage par l’enfant s’expliquent-elles par la simple
répétition ou imitation, ou par le fait que les connaissances linguistiques seraient
constitutives de l’équipement biologique de l’espèce, ou bien encore pour d’autres
raisons ? À l’inverse, comment ces connaissances peuvent-elles se dégrader
accidentellement ou sous l’effet du vieillissement ?
14 Un quatrième ordre de questions est relatif aux liens entre le langage et d’autres facultés
humaines, caractéristiques du fonctionnement symbolique de l’esprit (pensée,
raisonnement, mémoire, etc.) : le langage est-il une condition nécessaire de la pensée ?
Les processus de traitement du langage sont-ils radicalement différents de ceux qui sont
engagés dans d’autres activités cognitives, notamment dans la perception (vision,
audition,...) ? Quels rapports peut-il y avoir, par exemple, entre la compréhension du
langage oral et la perception de la musique ? Les émotions interfèrent-elles avec la faculté
de langage ?...
15 Ces grandes questions engagent, on le voit, la façon dont la Linguistique s’articule aux
autres disciplines des sciences cognitives travaillant sur le langage (psychologie,
philosophie, neurosciences, intelligence artificielle...), et la nature du paradigme
épistémologique qu’elle partage avec celles-ci.
16 C’est précisément l’inscription de la linguistique au sein d’un vaste programme
pluridisciplinaire qui a marqué les débuts officiels de la linguistique cognitive. Il est
classiquement admis (cf. Rastier 1998) que ce « tournant cognitif » s’est produit au milieu
des années 1950 aux USA. On ne saurait toutefois oublier qu’en Europe à peu près à la
même époque, et de façon totalement indépendante de cette mouvance dite
« cognitiviste », des linguistes ont également joué un rôle pionnier en matière
d’interdisciplinarité et renouvelé l’approche théorique du langage et des langues, en
ouvrant résolument celle-ci sur des problématiques d’ordre cognitif, comme l’a fait par
exemple Jakobson ; que l’on songe également à Culioli, travaillant pendant de nombreuses
années avec le psychologue Bresson (lui-même inscrit dans la lignée théorique de Piaget)
et le logicien Grize, et aussi avec des spécialistes de pathologie du langage (Laplanche,
Bourguignon) dans le domaine de l’aphasie et de la schizophrénie : un tel travail
interdisciplinaire, profondément original, a sans conteste inspiré l’élaboration de la
« théorie des opérations énonciatives » (cf. les recueils d’articles réunis plus tard dans
Culioli 1990 et 1999), précurseur de maintes approches ultérieures en sémantique et en
pragmatique linguistiques.

Le tournant cognitif et le paradigme cognitiviste en


linguistique
17 Revenons à présent à ce que l’on est convenu d’appeler le « tournant cognitif » en
linguistique. En 1956 aux États-Unis, des représentants de plusieurs disciplines
scientifiques différentes se réunissaient (lors de deux conférences, l’une à Cambridge,
l’autre à Dartmouth) autour d’un projet épistémologique commun, connu sous le nom de
« programme cognitiviste » : le linguiste Noam Chomsky côtoyait le psychologue Herbert
Simon et le spécialiste d’intelligence artificielle Marvin Minsky dans cette entreprise
pluridisciplinaire, qui visait à caractériser le fonctionnement de l’esprit à travers les
10

facultés qu’il développe, et notamment à travers la faculté de langage. L’hypothèse


fondatrice de ce projet était que, de façon générale, la cognition humaine pourrait être
définie, à la manière d’une machine, en termes de calculs (« computations »),
correspondant au traitement des divers types d’informations reçues par l’humain.
18 C’est ainsi que la linguistique s’est trouvée – par l’intermédiaire des tenants d’une
approche formelle de la langue – partie prenante de l’entreprise « cognitiviste » dès ses
débuts, participant à ce que d’aucuns qualifient parfois de « révolution des sciences
cognitives » (selon les termes de Gardner 1985).
19 Il convient toutefois de rappeler que l’étape de 1956, réputée marquer la naissance de la
linguistique cognitive, avait été précédée, dès le tournant des années 1940, par la période
de la « cybernétique », dont les pères fondateurs ont pour noms von Neumann, Wiener,
Turing, McCulloch. La cybernétique visait à instaurer une nouvelle « science de l’esprit »
en s’appuyant notamment sur la logique mathématique (pour décrire le fonctionnement
du raisonnement), sur la théorie des systèmes (pour formuler les principes généraux
gouvernant tout système complexe) et sur la théorie de l’information (comme théorie
statistique du signal et des canaux de communication) : voir sur ce point les ouvrages
introductifs de Varela (1988) et de Dupuy (1994). L’idée même d’une pensée fonctionnant
comme un calcul, à l’instar d’une machine, et d’un cerveau dont les constituants
incarneraient des principes logiques, est constitutive de l’approche cybernétique : de là
procèdera l’invention de l’ordinateur, selon les principes de von Neumann. Or c’est à
cette tradition que se rattachent les tout débuts de la linguistique dite « computationnelle »,
c’est-à-dire du courant s’inspirant de l’étude des langages formels pour élaborer des
traitements automatiques des langues ; si, en la matière, on évoque habituellement la
grammaire generative de Chomsky (et notamment son article de 1956 sur la parenté entre
théorie des grammaires et théorie des automates), il ne faut pas oublier que c’est à Harris
(dont Chomky fut l’élève) que l’on doit la notion de « structures mathématiques du
langage » (reprise dans le titre d’un ouvrage ultérieur de 1968). La remarque n’est pas
aussi anecdotique qu’il pourrait sembler à première vue : les voies de recherche et les
intérêts respectifs de la grammaire chomskienne, d’un côté, et des spécialistes de
traitement automatique de la langue, de l’autre, ont en effet partiellement divergé au fil
des ans (bien que les deux soient souvent confondus sous l’étiquette ambiguë de
« linguistique computationnelle »), ce qui s’explique dans une certaine mesure par leurs
différences d’enracinement historique.
20 À l’approche cybernétique avait donc succédé le « cognitivisme » des années 1950. Si
celui-ci reprenait l’idée de calcul, en revanche la nature de ce calcul avait changé : il
s’agissait désormais d’un calcul sur des représentations symboliques ; d’où le nom de «
paradigme computo-représentationnel symbolique » donné au paradigme épistémologique
constitutif du courant cognitiviste classique. Les calculs y sont définis en termes
d’opérations sur des symboles, c’est-à-dire sur des éléments qui représentent ce à quoi ils
sont censés correspondre. Les symboles sont considérés comme ayant une réalité à la fois
physique (ils seraient « inscrits » dans le cerveau) et sémantique (ils « représenteraient »
le monde objectif). Dans cette perspective, la cognition se laisse caractériser comme un
traitement d’informations mettant en jeu (au niveau symbolique) des règles de
manipulation de symboles caractérisés comme des éléments physiques (au niveau
neurobiologique) et représentant adéquatement le monde réel (au niveau sémantique).
On remarquera au passage que si le cognitivisme des années 1950 se fondait largement
sur la métaphore de « l’esprit-machine » (partagée par la psychologie cognitive, la
11

philosophie cognitive, et l’intelligence artificielle), en revanche l’analogie avec le cerveau


– épisodiquement présente depuis McCulloch et Pitts, puis à travers certains
représentants comme Ashby ou Arbib – n’a été massivement exploitée que vers la fin des
années 1980, dans le cadre du rapprochement avec les neurosciences cognitives. Celles-ci,
de leur côté, avaient également connu un tournant cognitif vers la fin des années 1950 :
F.O. Schmitt organisa au MIT pendant une décennie des réunions pluridisciplinaires
autour des neuroscientistes internationaux les plus réputés, à l’origine des
« Neurosciences Research Programs » ; et en 1960 se tenait à Paris la première réunion de
l’« International Brain Research Organisation » : les neurosciences cognitives se sont
développées à mesure que progressait la connaissance des réseaux neuronaux.
21 Le paradigme computo-représentionnel symbolique est le paradigme théorique auquel se
rattachent, en linguistique, la grammaire chomskienne (Chomsky 1965, 1981, 1995) et, à sa
suite, un certain nombre d’autres modèles formels en grammaire (« grammaires
d’unification » : cf. Abeillé 1993) qui, tous, accordent une place centrale à la notion de
« système formel ». Les caractéristiques de cette approche peuvent être sommairement
résumées à grands traits comme suit. La démarche adoptée est de nature
hypothéticodéductive, et les exemples étudiés sont forgés par le linguiste sur la base de sa
compétence de la langue, en tant que sujet parlant. L’approche est « modulariste » (Fodor
1989) : il est fait l’hypothèse que le module « langue » est spécifique par rapport aux
autres modules cognitifs, et une place centrale est accordée à la syntaxe, conçue comme
devant assurer l’interface entre une représentation sémantique logique
vériconditionnelle et une représentation phonétique. La conception du langage est
représentationnelle : le langage est caractérisé comme instrument d’expression de la
pensée, permettant la transmission d’informations à propos du monde. Enfin, la
modélisation a, de façon classique, recours à des calculs d’ordre logico-algébrique. Cette
approche linguistique s’inscrit dans le cadre plus général du développement des sciences
cognitives et des neurosciences (en lien avec la biologie moléculaire et la génétique) ; la
« grammaire universelle » proposée par Chomsky fait écho, en matière de langage, à
l’idée d’un code génétique se transmettant de génération en génération : c’est « l’instinct
du langage » (selon les termes de Pinker 1994).

Les avatars du cognitivisme : les nouveaux courants


de la linguistique cognitive
22 Depuis l’émergence de ce premier courant, au milieu des années 1950, la linguistique
cognitive s’est progressivement diversifiée au fil des ans, à l’instar des autres disciplines
engagées dans l’étude de la cognition.
23 On sait en effet que, dans les différents secteurs des sciences cognitives, un certain
nombre de critiques à l’encontre du strict paradigme « cognitiviste » se sont fait jour (en
neurosciences, en psychologie, en informatique, en philosophie, en éthologie...) : voir, sur
ce point, Varela (1988). Dans ce débat, largement ouvert, la question du sens revêt une
importance capitale. Certaines approches récusent le traitement séquentiel et localisé de
l’information (constitutif du paradigme cognitiviste), au profit de traitements parallèles
et distribués. Sur cette lancée, diverses alternatives à l’orientation symbolique ont été
proposées en termes de réseaux massivement interconnectés, vecteurs de « propriétés
émergentes » globales identifiables à une faculté cognitive (à l’instar des systèmes « auto-
12

organisés » de la cybernétique) : dans cette perspective dite « sub-symbolique », le sens ne


résiderait pas dans les symboles, mais dans des schémas d’activité complexe émergeant
d’une interaction entre plusieurs symboles. D’autres critiques, plus radicales encore, se
sont portées sur la notion même de « représentation » : dans une perspective qualifiée de
« constructiviste• » (ou encore d’« enactiviste• »), la cognition est abordée comme une
activité consistant à faire émerger dynamiquement des significations, et non pas à traiter
ou à réfléchir des informations pré-existantes.
24 En écho à ces évolutions, de nouveaux courants sont apparus au sein de la linguistique
cognitive, se démarquant – plus ou moins fortement selon les cas – du paradigme
cognitiviste initial : il s’agit principalement du courant des « grammaires cognitives », nées
sur la côte Ouest des États-Unis (Lakoff 1980,1987 ; Langacker 1987,1991, 2000 ; Talmy
2000), mais également du courant « néo-fonctionnaliste » (représenté notamment par Givón
1989, 1995 ; voir aussi Heine 1997). Quelles que soient, par ailleurs, leurs différences
internes, ces courants se distinguent de l’approche chomskienne par les caractéristiques
suivantes. La démarche adoptée est plus inductive, et le recours aux corpus textuels n’est
pas exclu. L’approche est « interactionniste » : une place centrale est accordée à la
sémantique, réputée informer la syntaxe et le lexique avec lesquels elle interagit ;
l’hypothèse de la spécificité d’un module « langue » est récusée, et l’existence de
mécanismes cognitifs généraux (communs au langage, à la perception, à l’action...) est
postulée. La conception du langage est davantage « émergentiste » que
représentationnelle : le langage est envisagé comme instrument de conceptualisation
active du monde et/ou comme instrument de communication. Enfin, les types de
modélisation proposés recourent à la géométrie, aux systèmes dynamiques, au
connexionnisme, plutôt qu’à l’algèbre et à la logique mathématique. On aura compris que,
pour ces nouveaux courants de linguistique cognitive, qui s’intéressent principalement à
l’aspect dynamique des langues et du langage, le « noyau dur » réside moins dans les
règles de grammaire que dans les opérations de construction de la signification : d’où
l’importance accordée à des phénomènes comme la polysémie ou la métaphore, par
exemple.
25 On notera par ailleurs que ces courants entretiennent des liens assez étroits avec les
approches diachroniques des langues (Sweetser 1990 ; Croft 2000), ainsi qu’avec les
approches typologiques (voir Croft 1999) à la recherche d’« invariants inter-langues »
(Lazard 1994, 2004 ; Seiler 2000). Il est intéressant de remarquer, à ce propos, que si le
cognitivisme linguistique avait renoué d’une certaine façon avec l’approche naturaliste et
organiciste du langage, représentée au XIXe siècle par Schleicher et Hovelacque, les
nouveaux courants de linguistique cognitive tendent, de leur côté, à réactualiser la
question dite de la « relativité linguistique ». Cette question avait été, on le sait, soulevée
dans la première moitié du XXe siècle par Sapir (1949) puis par Whorf (1956), sur la lancée
du courant spiritualiste du siècle précédent (Humboldt ; Steinthal ; Paul), qui avait donné
naissance à l’ethnopsychologie (ou « psychologie des peuples »). La question, largement
occultée pendant plusieurs décennies de cognitivisme, a été remise au goût du jour sur
des bases théoriques et expérimentales renouvelées, aussi bien en linguistique cognitive
(Vandeloise 2003) qu’en psycholinguistique cognitive (Slobin 1996) et en neuro-
psycholinguistique (Nespoulous 1999) ; à l’heure actuelle, il s’agit là d’un enjeu majeur
pour une approche cognitive des invariants et de la variation inter-langues : sur ce point,
voir Fuchs 1999, 2003 ; Pütz et Verspoor 2000 ; Hickman 2002. Corrélativement, la
question des liens entre activité de langage et activité de pensée resurgit dans les débats
13

actuels, après avoir été longtemps reléguée par le cognitivisme (Carruthers et Boucher
1998 : voir plus bas).

Enjeux et perspectives
26 Le bref retour historique qui vient d’être proposé permet de comprendre les origines des
diverses approches qui se réclament, à l’heure actuelle, de la linguistique cognitive. Pour
présenter ces approches, il serait tentant d’opposer frontalement, au plan théorique et
épistémologique, d’un côté celles qui participent du paradigme computo-
représentationnel symbolique, et de l’autre celles qui s’en démarquent : les premières
correspondant aux grammaires formelles, les secondes à la mouvance plus large
constituée autour des grammaires cognitives et des grammaires néo-fonctionnalistes.
Révélateurs à cet égard sont les deux titres d’ouvrages suivants : Langage et cognition :
introduction au programme minimaliste de la grammaire generative (Pollock 1997 : illustratif de
l’approche chomskienne) et An Introduction to Cognitive Linguistics (Ungerer et Schmid
1996 : illustratif de l’approche des grammaires cognitives).
27 Mais, à y regarder de près, on constate que la situation actuelle est beaucoup plus
nuancée et évolutive que ne le laisserait penser une telle présentation schématique. En
effet, un certain nombre de développements récents ont conduit à assouplir le paradigme
cognitiviste classique, comme en témoigne, par exemple, la relative diversification des
points de vue (pourtant tous issus de ce paradigme originel) exposés dans Dupoux (2002).
Deux types de facteurs ont contribué à cette évolution : des facteurs internes, liés à la
dynamique propre de l’élaboration théorique au sein de la discipline, et des facteurs
externes, liés au développement des autres sciences de la cognition et au dialogue
interdisciplinaire.
28 À l’intérieur de la linguistique, la plupart des propositions novatrices qui ont été avancées
récemment ont trait à la question de l’architecture des connaissances linguistiques et de la
modularité. Depuis plusieurs années, divers auteurs, bien que tenants d’une linguistique
cognitive « modulariste », plaident pour un mode d’organisation des modules du langage
différent de celui de la grammaire chomskienne, et remettent en question la place
centrale accordée au module syntaxique au sein d’une architecture en série. Ainsi Kiefer
(1995), tout en prônant une « linguistique cognitive modulaire étendue », envisage-t-il
l’interface avec la structure conceptuelle comme devant se faire, non pas simplement
avec le module sémantique, mais en parallèle avec chacun des trois modules constitutifs,
selon lui, de la grammaire (à savoir la syntaxe, la morphologie et la sémantique). De son
côté, Jackendoff (2002), tout en se situant explicitement dans une perspective cognitiviste
computationnelle, propose un modèle fondé sur une architecture parallèle tripartite, avec
une syntaxe (à base lexicale) réduite et deux modules phonologique et sémantique
beaucoup plus importants. Cette évolution d’une partie de la linguistique cognitiviste en
direction de calculs parallèles et distribués rappelle l’évolution comparable en matière de
traitement automatique de la langue dans le domaine de l’intelligence artificielle ; elle
n’est pas sans écho non plus du côté des neurosciences (où les études sur l’activité des
réseaux corticaux ont montré que ceux-ci forment des assemblées qui fonctionnent de
façon totalement distribuée), ni du côté de la psychologie (Fodor lui-même, défenseur
inconditionnel d’une modularité généralisée dans les années 1980, en est venu à tenir une
position beaucoup moins tranchée concernant l’autonomie et l’indépendance des divers
modules : cf. Fodor 2000). Quant aux tenants d’une approche « interactiviste », pour
14

justifier cette option et le privilège accordé à la sémantique, ils se sont progressivement


attachés à caractériser les modes de réalisation, au plan des formes, des schèmes
sémantico-conceptuels. Les modèles qu’ils proposent, pour spécifier l’interpénétration de
la syntaxe et du lexique par la sémantique, recourent nécessairement à des notations
symboliques et, sur un certain nombre de points, rejoignent ceux qui viennent d’être
évoqués plus haut (voir par exemple les « grammaires de construction » : Fillmore et Kay
1993 ; Goldberg 1995 et 2003). Au sein de la linguistique cognitive, la distance entre les
deux paradigmes originairement opposés tend, on le voit, à se réduire ; comme le note
Langacker (1999), l’opposition entre formalisme et fonctionnalisme est en passe de
devenir caduque.
29 Par ailleurs, l’évolution récente des autres sciences de la cognition a également contribué,
de l’extérieur, à rapprocher les positions : voir par exemple, dans Dupoux (2002), le
constat de l’évolution des sciences cognitives « classiques » (d’obédience strictement
cognitiviste) vers des sciences cognitives qualifiées de « pas si classiques » par Piattelli-
Palmarini. Certes, le dialogue interdisciplinaire n’a pas été conduit sur les mêmes bases,
s’agissant des linguistes du paradigme classique (défenseurs de l’approche dite « interne »
du langage) ou des linguistes du paradigme émergent (attentifs aux analogies entre
cognition linguistique et non-linguistique). Chacun a privilégié, pour ainsi dire, « ses »
psychologues et psycholinguistes, « ses » neurobiologistes et neurolinguistes, et « ses »
informaticiens : très schématiquement, on pourrait dire que là encore, on a pu retrouver,
d’un côté, les tenants du modularisme, de la localisation cérébrale, du symbolique, du
discontinu et de l’algorithmique ; et de l’autre, les tenants de l’interactionnisme, des
réseaux distribués, du sub-symbolique, du continu et du connexionnisme.
30 Mais ici aussi, toute opposition frontale serait réductrice : tous les cas de figure
intermédiaires se rencontrent au plan théorique, et les résultats des travaux
expérimentaux ont conduit à assouplir chacune des deux positions. À cet égard, l’on ne
saurait trop insister sur le rôle essentiel de l’ expérimentation, pour tester les paradigmes
qui sous-tendent les diverses théories de linguistique cognitive : qu’il s’agisse des
expérimentations qui se pratiquent en neuropsycholinguistique (où l’on peut désormais
s’appuyer sur l’outil performant que constituent les diverses techniques d’imagerie
cérébrale), ou des expérimentations conduites en intelligence artificielle (où, à côté de la
réalisation de systèmes à visée applicative, existe également une activité de modélisation
à des fins de simulation, d’expérimentation et d’apprentissage automatique). À cet égard,
la position de la grammaire chomskienne ne laisse pas d’être quelque peu paradoxale : la
linguistique serait une branche de la psychologie, mais la seconde n’aurait pas de rôle à
jouer dans la validation des construits théoriques de la première ! Quoi qu’il en soit, force
est de reconnaître que les linguistes ont jusqu’à présent été assez peu présents dans des
collaborations effectives avec la psychologie – et encore beaucoup moins avec les
neurosciences : combien de linguistes engagés en neurolinguistique ? combien de
linguistes cherchant à construire une théorie « neuro-compatible » (à l’instar, par
exemple, de Lamb 1999) ? Or les acquis récents de ces disciplines en matière de
fonctionnement du langage ne sauraient manquer d’avoir un impact sur le
développement des approches théoriques de la linguistique cognitive : que l’on songe,
pour ne prendre qu’un exemple, au fait que chez le singe l’aire comparable à l’aire de
Broca (crucialement impliquée, chez l’homme, dans l’exercice du langage) est l’aire F5, où
l’on a découvert les fameux « neurones miroir » (essentiels pour l’imitation et la
15

communication), et que l’aire de Broca enregistre elle aussi les gestes des personnes avec
lesquelles un sujet humain communique (Rizzolati et al. 2002).
31 Une illustration tout à fait convaincante de la façon dont le dialogue interdisciplinaire
peut contribuer à réduire le fossé entre les deux grands paradigmes évoqués plus haut, se
trouve dans Carruthers et Boucher 1998 à propos de la question des liens entre le langage et
la pensée. Dans le chapitre introductif de ce recueil, les auteurs montrent comment, en
philosophie, en psychologie et en linguistique, deux thèses opposées au départ
(participant chacune de l’un des deux paradigmes) se sont trouvées rapprochées dans
maints travaux récents. La première (typique de l’option innéiste et modulariste du
paradigme classique), selon laquelle la pensée serait communicable indépendamment du
moyen de transmission – et donc du langage –, a été quelque peu bousculée par les
approches connexionnistes et les traitements parallèles distribués. La seconde (typique de
l’option « interactionniste » du paradigme émergent), d’après laquelle le langage serait la
condition nécessaire requise pour l’exercice de la pensée, a été elle aussi été remise en
question. Au total, une position « intermédiaire » affaiblissant les deux thèses initiales a
conduit à transcender l’opposition entre les deux : la pensée serait certes possible sans le
langage, mais le langage serait constitutivement requis dans la pensée, en ce sens qu’il
existerait une forme spécifiquement humaine de pensée construite à travers le langage (le
« thinking for speaking » de Slobin 1996, confirmé par ses expériences). C’est ainsi que
s’est trouvée réhabilitée par les recherches récentes en linguistique cognitive et dans les
disciplines connexes, cette vieille question philosophique, qui avait déjà reçu – on le
notera au passage – une réponse circonstanciée très comparable dans le cadre d’une
théorie linguistique pré-cognitive, la théorie « psycho-mécanique » de Guillaume (cf. son
ouvrage posthume de 1964) : la pensée, indépendante du langage, se saisirait elle-même
via la langue, et révélerait ainsi ses schèmes cognitifs (voir Valette 2003). Sous une forme
très différente, on retrouve là ce que certains neuroscientistes ont, depuis longtemps,
soutenu à l’encontre des tenants d’un strict « localisationnisme » : à savoir l’idée que c’est
l’ensemble du cerveau qui pense et qui raisonne, et que le langage constitue le moyen qui
permet à la pensée de se penser elle-même (voir Lecours et al. 1987).
32 Au point où elle en est arrivée aujourd’hui, la linguistique cognitive se doit de relever un
double défi : développer des modèles susceptibles d’être confrontés aux pratiques
expérimentales des disciplines connexes en sciences cognitives, tout en affermissant sa
posture théorique au sein même de la linguistique. S’il est clair que la linguistique
cognitive n’avait rien à gagner d’une crispation sur des positions dogmatiques et d’un
affrontement (souvent plus idéologique que véritablement scientifique) entre les deux
paradigmes évoqués plus haut, à l’inverse, elle n’a certainement rien à gagner non plus
d’un « effet de mode » laxiste qui conduirait à considérer comme approche cognitive du
langage « l’étude de la façon dont nous exprimons et échangeons des idées et des
pensées » (selon les termes de Dirven et Verspoor 1998), c’est-à-dire en définitive toute
entreprise onomasiologique ! En revanche, une réflexion ouverte tout à la fois aux acquis
des grandes théories de linguistique générale intégrables dans un modèle cognitif, et aux
apports de la linguistique cognitive pour les questions de linguistique générale, ne saurait
que profiter à la discipline.
16

Pour aborder l’ouvrage


33 Les contributions ici rassemblées émanent de linguistes se réclamant (à des titres divers)
d’une linguistique cognitive, et de spécialistes d’autres secteurs des sciences cognitives
interagissant avec la linguistique.
34 La première partie de l’ouvrage propose un panorama des principaux courants existant
actuellement au sein de la linguistique cognitive, vus de l’intérieur même de la discipline.
35 La contribution d’Alain Rouveret présente l’évolution récente de la théorie de Chomsky
(de l’approche dite des « principes et paramètres » des années 1980 à l’actuel
« programme minimaliste »). Dans ce cadre théorique, la langue est caractérisée en
termes de calculs (syntaxiques) sur des représentations mentales et ces connaissances
intériorisées dans l’esprit de chaque locuteur sont postulées participer de l’équipement
biologique de l’espèce humaine. La notion de « grammaire universelle » avancée par
Chomsky se propose d’expliquer la rapidité et l’uniformité de l’apprentissage du langage
par l’enfant, quelle que soit la langue, par l’existence de caractéristiques communes aux
langues (des « principes » universaux innés) : seule resterait à apprendre par l’enfant,
selon la langue, la sélection des valeurs des différents « paramètres » attachés aux
principes. Le « programme minimaliste » vise à épurer au maximum le modèle et à rendre
compte du caractère jugé « optimal » de l’organisation du langage – notamment des
principes d’économie contraignant le calcul syntaxique, en vue de permettre d’associer à
une configuration d’items lexicaux, d’une part une représentation phonétique (décodable
par le système acoustique-articulatoire), et d’autre part une représentation sémantique
(interprétable par le système conceptuel). Comme le souligne Alain Rouveret à la fin de
son article, la théorie chomskienne est appelée à se prononcer sur plusieurs questions
d’importance pour une linguistique cognitive, notamment celle du « minimalisme » de
l’ensemble du dispositif grammatical (non seulement du noyau dur syntaxique, mais aussi
de la morphologie, de la phonologie• et de la sémantique), et celle de l’interface entre ce
dispositif et chacun des deux systèmes acoustique articulatoire d’un côté, conceptuel de
l’autre.
36 La contribution de Bernard Victorri présente le courant des « grammaires cognitives »
qui se sont développées sur la côte Ouest des USA à partir des années 1980, et qui sont
historiquement issues d’un courant dissident du chomskisme (appelé « sémantique
générative » pour se démarquer de la « sémantique interprétative » de Chomsky).
Langacker, Lakoff, Talmy, Fauconnier sont les représentants les plus connus de ce
courant, dont les deux postulats principaux sont l’existence de mécanismes cognitifs
généraux régissant l’activité de langage (au même titre notamment que la perception
visuelle ou l’expérience sensori-motrice) et le caractère central de la sémantique (conçue
comme une activité de construction de structures symboliques complexes à partir
d’unités lexicales et grammaticales). Au sein de ce courant, les travaux menés en
sémantique grammaticale (Talmy) visent à établir les configurations cognitives (images
mentales, sortes de « mises en scène ») construites par les énoncés ; ces configurations
sont représentées à l’aide de diagrammes schématisant les relations topologiques et
cinématiques entre éléments, et il est fait appel à diverses notions directement
interprétables en termes psychologiques (comme par exemple l’opposition entre
« figure » et « fond », reprise de la théorie de la Gestalt, à propos du « profilage »). La
construction du sens d’un énoncé est décrite en termes d’unification des représentations
17

schématiques associées aux différents éléments, dans une perspective seulement


partiellement compositionnelle. Au plan lexical, la théorie du « prototype• » reprise de
Rosch constitue l’une des grandes sources d’inspiration, qui alimente notamment les
nombreux travaux sur la polysémie d’unités lexicales, donnant lieu à des représentations
géométriques du sens ; par ailleurs, une grande importance est accordée au phénomène
de la « métaphore » (Lakoff), considéré comme un mécanisme général de la pensée,
massivement présent dans les langues, permettant d’appréhender des concepts abstraits
à travers l’expérience sensorimotrice. Enfin, au plan du discours, la théorie des « espaces
men taux » (Fauconnier) se propose de représenter la construction progressive, au fil du
texte, de configurations cognitives structurées (à partir des « instructions » livrées par les
formes linguistiques) et interconnectées : de nombreux phénomènes sémantiques et
pragmatiques (systèmes modaux et temporels, anaphore’, métaphores, analogie
contrefactuelle•...) sont ainsi abordés en termes de relations entre les espaces construits.
37 La contribution de Jacques François est consacrée au « néo-fonctionnalisme »
linguistique, qui connaît un essor important depuis les années 1980, notamment en
matière de développement de grammaires et de typologie des langues. Se démarquant lui
aussi de l’approche des grammaires formelles, ce courant (dont Givón est le représentant
emblématique) met l’accent sur la fonction de communication du langage et s’efforce de
caractériser les relations de correspondance entre les formes d’un système linguistique et
les fonctions encodées par ces formes. Postulant que l’acquisition du langage repose sur
des principes généraux du développement cognitif et que l’activité de langage peut
façonner les systèmes linguistiques, les néofonctionnalistes insistent sur le rôle des
relations et catégories sémantiques pour l’acquisition des structures syntaxiques. Ils
abordent la problématique des universaux (linguistiques et cognitifs) et du changement
linguistique dans une perspective typologique, s’interrogeant notamment sur la nature
des liens entre schemes cognitifs universels et variété des moyens d’expression : la notion
de « grammaticalisation• » y occupe une place centrale. Comme l’indique Jacques François
à la fin de son article, les théories néo-fonctionnalistes proposent des pistes de réflexion
sur plusieurs questions essentielles pour une linguistique cognitive soucieuse de penser
les liens entre langage, esprit et cerveau : comme par exemple la question de la variabilité
interindividuelle dans le traitement du langage, ou celle de l’émergence phylogénétique
de la faculté de langage.
38 L’option « dynamiciste » que partagent les deux courants des grammaires cognitives et du
néo-fonctionnalisme explique qu’ils se trouvent également en phase avec certaines
études diachroniques (intimement liées aux approches typologiques), dont la
contribution d’Alain Peyraube propose une illustration. Développant de façon détaillée
deux exemples particuliers empruntés à l’histoire de la langue chinoise – l’évolution des
structures locatives et celle des pronoms interrogatifs –, cet article permet de saisir en
quoi la linguistique historique a pu bénéficier de certains développements théoriques des
grammaires cognitives (en particulier à travers le traitement de la polysémie et de la
métaphore, ou le recours à la notion de prototype), mais aussi pourquoi, inversement,
l’intégration de la dimension diachronique et typologique constitue un apport nécessaire
à la linguistique cognitive : comprendre l’évolution des structures linguistiques est en
effet une condition pour appréhender la nature du changement conceptuel qui, en retour,
éclaire l’organisation conceptuelle présente.
39 Les articles réunis dans la seconde partie de l’ouvrage sont consacrés aux interactions
entre la linguistique cognitive et d’autres disciplines des sciences cognitives abordant le
18

langage sous un angle différent de celui des linguistes : non plus à partir de l’étude
spécifique du fonctionnement des langues, mais en tant que faculté supérieure de l’espèce
humaine, mise en oeuvre par des sujets, localisée dans certaines zones du cerveau, et
pouvant donner lieu à des simulations sur ordinateur.
40 L’article de Jean-François Le Ny introduit à la démarche du psychologue travaillant sur le
langage dans une perspective cognitive. La psycholinguistique, en tant que branche de la
psychologie cognitive, s’est constituée en plusieurs étapes historiques et est traversée par
divers grands courants théoriques, mais ce qui fonde cette (sous-) discipline, c’est la place
centrale qu’elle accorde à l’expérimentation pour aborder la question des bases
cognitives du langage dans l’esprit des locuteurs. Son objectif est en effet de spécifier
l’« architecture fonctionnelle » sous-jacente du langage, en s’attachant à l’étude des
représentations mentales (qui rendent possible l’existence du langage) et à celle des
processus mentaux (qui traitent le langage). Diverses techniques et méthodes
expérimentales sont utilisées pour étudier ces questions : qu’il s’agisse du recueil de
données sur des compétences linguistiques explicitement interrogées, ou surtout de
l’exploration indirecte d’activités internes implicites (comme par exemple le phénomène
« d’amorçage• ») par calcul des temps de réponse pour effectuer une tâche linguistique. La
position intermédiaire de la psychologie, dans le travail interdisciplinaire avec la
neurobiologie et la linguistique, apparaît ici clairement : pour tenter d’appréhender un
processus neurobiologique se produisant dans le cerveau (l’activation et sa propagation
dans des configurations de neurones, lors d’un amorçage) et censé affecter des
« représentations mentales » définies sur la base de significations linguistiques, le
psychologue observe et mesure un indice indirect, le temps de réponse. Les sous-
domaines de la psycholinguistique sont nombreux (acquisition du langage, production du
langage, troubles du langage, etc.), mais c’est plus particulièrement à la problématique de
la compréhension du langage que Jean-François Le Ny consacre la dernière partie de son
article. Si comprendre un énoncé c’est construire du sens, ce fonctionnement cognitif
repose sur un ensemble de processus largement automatiques et non-conscients, qui se
déroulent dans la mémoire de travail et engagent une série d’échanges entre perception
et mémoire à long terme (où, entre autres, les significations de mots sont supposées être
stockées dans un « lexique mental »). Pour les tenants des approches « interactionnistes »
aujourd’hui très répandues, la construction du sens procède par combinaison et
assemblage d’informations sémantiques complexes et diverses (informations issues des
connaissances lexicales mais aussi des données grammaticales, informations calculées par
inférences, informations extra-linguistiques livrées par la situation d’énonciation•).
41 L’article de Jean Luc Nespoulous présente les réflexions d’un neuropsycholinguiste
s’interrogeant sur les structures cérébrales ou réseaux neuronaux mobilisé(e)s lors du
traitement cognitif d’une composante de « l’architecture fonctionnelle du langage » dans
une activité langagière donnée ; son angle d’approche spécifique de cette problématique
de « l’architecture cérébrale » est celui des dysfonctionnements observés en pathologie
du langage. Chez les aphasiques, une lésion cérébrale focale induit des perturbations
sélectives, dont l’observation constitue une voie d’approche privilégiée des composantes
et sous-composantes (« modules ») de la faculté de langage qui, dans le fonctionnement
verbal normal, interagissent constamment et peuvent donc difficilement être
appréhendées de façon isolée. Trois grands types de phénomènes symptomatologiques
sont particulièrement recherchés en aphasiologie : les « doubles dissociations », les
« dissociations simples » et les « associations ». Le premier type correspond au cas où,
19

chez un sujet, une composante A (par exemple le traitement des noms) est perturbée et
une composante Β (par exemple le traitement des verbes) est préservée, alors que, chez
un autre sujet, A est préservée et Β perturbée. Ce cas semble privilégié pour conclure à
l’autonomie de A et de B, et donc pour conforter la thèse « modulariste » ; néanmoins la
variabilité des performances d’un même sujet selon la tâche (par exemple dénomination
ou discours continu), et surtout le manque de finesse des matériaux linguistiques
généralement utilisés (par exemple noms d’objets et verbes d’action) ne permettent pas
vraiment de tirer de conclusion définitive sur la nature exacte – syntaxique ou lexico-
sémantique – de la composante impliquée. Le second type (traitement d’un sous-
ensemble de phénomènes linguistiques ou d’une tâche A perturbé et d’un autre sous-
ensemble ou d’une autre tâche Β préservé, mais pas de dissociation inverse attestée)
permet de postuler, non pas l’existence de modules autonomes, mais des degrés de
complexité relative intra-modulaire ou inter-tâches. Le troisième type, quant à lui,
concerne les associations de plusieurs symptômes, intra-langagiers ou non (par exemple
aphasie et désorientation spatiale, ou aphasie et apraxie), qui posent la question cruciale
de savoir si l’on a affaire à plusieurs systèmes cognitifs distincts ou bien à un seul système
représentationnel profond commun à des domaines apparemment différents. La
problématique de la localisation de la « zone du langage » dans le cerveau a été
considérablement renouvelée ces vingt dernières années : l’activité linguistique apparaît
désormais comme largement distribuée, non seulement dans l’hémisphère gauche (sans
doute heu privilégié, sinon de la « grammaire », du moins du traitement des aspects les
plus formels du langage) mais aussi dans l’hémisphère droit (mobilisé pour traiter les
aspects les plus élaborés, y compris la pragmatique). En conclusion de son article, Jean-
Luc Nespoulous ouvre diverses pistes nouvelles auxquelles la recherche
neuropsycholinguistique devrait désormais s’ouvrir, comme par exemple observer la
gestion des éléments du lexique mental en contexte (et non plus isolés), étudier les
stratégies langagières palliatives des sujets cérébrolésés (mais aussi des sujets sains en
situation difficile), et prendre en compte les variabilités inter-sujets, inter-tâches et
même intra-tâche.
42 Enfin, l’article de Gérard Sabah propose un tour d’horizon des problèmes qui se posent au
spécialiste d’intelligence artificielle confronté au traitement automatique de la langue.
Après l’optimisme des débuts de l’intelligence artificielle au début des années 1950, qui
espérait pouvoir simuler par des programmes d’ordinateur tous les aspects de
l’intelligence humaine (et notamment l’activité de langage) en prenant appui sur la
théorie de l’information, et les premiers systèmes traitant les textes par mots-clés, la
question s’est très vite posée de savoir comment représenter les divers types de
connaissances (linguistiques et extra-linguistiques) nécessaires au traitement du langage.
Si les grammaires formelles, dans leurs nombreuses versions, ont pu fournir des bases
pour le traitement syntaxique, la nécessité de modèles sémantiques et discursifs s’est
rapidement fait sentir ; à cet égard, la diversité et l’hétérogénéité des sources
linguistiques auxquelles se sont alimentés les traitements automatiques mérite d’être
signalée. La nécessité de construire des systèmes robustes et totalement explicites impose
en effet des types des contraintes bien souvent ignorées des linguistes théoriciens, et
l’orientation récente vers le traitement de très gros corpus infléchit encore davantage les
travaux vers la recherche d’heuristiques efficaces. Par ailleurs, l’élaboration de systèmes
de communication homme-machine en langue naturelle oblige les concepteurs à prendre
en compte non seulement toutes les composantes linguistiques du message mais aussi le
20

contexte cognitif de l’humain qui dialogue avec la machine (ses attentes, ses
interprétations préférentielles, ses inférences, etc.). Dans cette perspective, la question de
l’architecture des systèmes et du mode de coopération des différents types de
connaissances revêt une importance primordiale. Au total, le paradigme symbolique,
constitutif du cognitivisme, et l’analogie postulée entre représentations mentales et
représentations de l’intelligence artificielle se trouvent questionnés dans diverses
réalisations récentes (systèmes multiagents, intelligence distribuée, systèmes hybrides
symboliques-connexionnistes, etc.).
43 Au terme de ce parcours, le lecteur aura – nous l’espérons – pu mesurer combien la
position pionnière occupée historiquement par la linguistique (conjointement avec la
psychologie et l’intelligence artificielle) au sein des sciences cognitives naissantes a
permis à cette discipline de renouveler profondément ses problématiques théoriques au
fil des ans, et de s’engager dans des collaborations inter disciplinaires fécondes visant à
explorer le fonctionnement du langage et des langues dans l’esprit et le cerveau humains.

NOTES DE FIN
1. Je remercie François Clarac, Daniel Kayser et Jean-Luc Nespoulous pour leurs remarques et
suggestions à la lecture d’une première version de cette présentation. Je dois en particulier à F.
Clarac les précisions historiques concernant le tournant cognitif des neurosciences, ainsi que la
référence aux travaux récents de Rizzolati.

AUTEUR
CATHERINE FUCHS
Directeur de recherche au CNRS. Dirige le laboratoire « Langues, Textes, Traitements
informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII).
21

I. Les courants de la linguistique


cognitive
22

Grammaire formelle• et cognition


linguistique
Alain Rouveret

1 En 1968, dans un recueil qui a fait date, Oswald Ducrot, Moustafa Safouan, Dan Sperber,
Tzvetan Todorov et François Wahl demandaient « Qu’est-ce que le structuralisme ? ».
Plusieurs livres collectifs posent aujourd’hui la même question pour les sciences
cognitives, l’un des plus récents étant celui d’Ernest Lepore et Zenon Pylyshyn, publié en
1999 et intitulé précisément « What is Cognitive Science ? ». Il existe une certaine
analogie entre les deux mouvements. Comme le structuralisme, le mouvement cognitif
regroupe dans un même projet plusieurs domaines disciplinaires. La linguistique figure
comme composante essentielle dans l’un et dans l’autre. Mais les disciplines partenaires
ne sont plus les mêmes – sciences humaines hier, sciences dures aujourd’hui. Le
développement du projet cognitif correspond en fait à un changement de perspective
majeur dans le paysage épistémologique, à une recomposition des champs disciplinaires
qui a une incidence directe sur le statut de la linguistique comme science.
2 Contrairement au structuralisme, ce programme a constitué d’emblée une entreprise
collective, impliquant plusieurs disciplines. On connaît l’importance de l’enjeu. Il s’agit de
parvenir à une meilleure connaissance du fonctionnement de l’esprit, à travers une
meilleure compréhension des différentes facultés qu’il développe et des systèmes de
connaissances qu’il maîtrise, des conditions de leur mise en œuvre, de leur acquisition,
éventuellement de leur origine. La spécificité du projet cognitif est de chercher à
atteindre cet objectif en convoquant toutes les disciplines susceptibles, potentiellement,
de jeter une lumière nouvelle sur les phénomènes mentaux et leur structure. C’est le cas
de l’informatique et de l’intelligence artificielle, puisque l’on peut utiliser les ordinateurs
pour simuler des processus habituellement attribués à l’intelligence humaine (il faut se
souvenir que le programme cognitif a émergé au début des années 1950 « dans un climat
fortement marqué par la naissance de l’informatique et le développement des notions et
des techniques de traitement formel de l’information », cf. Andler 1992). C’est aussi le cas
des neurosciences qui, depuis leur entrée en scène dans les années 1980, ont permis des
progrès considérables dans notre compréhension du fonctionnement et de l’architecture
23

du cerveau humain. La linguistique et la philosophie de l’esprit se trouvent donc coexister


dans le projet cognitif avec une « science de la vie » – la psychologie expérimentale –, et
avec des « sciences dures » – les neuro-sciences –, auxquelles il faut adjoindre plusieurs
disciplines-charnières – dans le domaine qui nous intéresse, la psycholinguistique et la
neurolinguistique. Il est clair que la linguistique n’occupe pas dans cet ensemble une
place privilégiée et que ses méthodes et ses concepts ne sont pas empruntés ou détournés
par les autres disciplines. En fait, c’est une condition inhérente au programme cognitif
que chaque discipline partenaire y conserve son individualité. Il revient à chacune de
définir son appareillage notionnel et ses méthodes et, sur ce point, il faut admettre que
l’éclectisme règne. Cette dernière caractéristique établit une distinction tranchée entre
l’entreprise cognitive et le paradigme• structuraliste qui, à partir de l’objet « langue »,
s’était attaché à définir des procédures d’analyse transposables d’un champ disciplinaire
à l’autre.
3 Il reste que, même si elles diffèrent d’une discipline à l’autre, les méthodes de description
adoptées, la mise en place des procédures expérimentales et la construction des théories
doivent procéder d’une conception commune et partagée de ce qu’est la cognition. Dans
le cas contraire, la notion même de programme cognitif serait vide de sens. Puisque l’on
s’intéresse à ce qui se passe dans la « boîte noire » quand une faculté cognitive s’exerce et
aux tâches qu’elle accomplit, on doit se demander quelle est la nature de l’activité de
pensée, consciente ou inconsciente, qui est ainsi engagée. Soit la caractérisation
suivante :
(1) L’activité cognitive doit être conçue comme un traitement de l’information,
c’est-à-dire comme un ensemble de processus computationnels opérant sur des
séquences de symboles et dérivant des représentations1.
4 Dans cette conception computationnelle et symbolique, la cognition accomplit
essentiellement la même chose que les ordinateurs qui ne font rien d’autre que manipuler
des symboles en suivant les règles formelles que leur fixent les programmes qui leur sont
intégrés. Un autre aspect de la conception computationnelle est que les systèmes
cognitifs, les systèmes perceptuels en particulier, sont modulaires, c’est-à-dire constitués
d’un ensemble de sous-systèmes distincts, fonctionnellement et informationnellement
spécialisés. Cette position, soutenue en particulier par Fodor (1989), implique par
exemple que les processus perceptuels et les tâches qu’ils accomplissent ne peuvent être
influencés par les processus mentaux supérieurs mettant en jeu la pensée consciente.

La perspective interne sur le langage


5 Dans la constellation disciplinaire formée par les sciences cognitives, la linguistique se
trouve intégrée avec les autres sciences humaines et certaines sciences sociales à un
paradigme incluant aussi des sciences dites « exactes » ou « dures ». Or cette cohabitation
soulève la question du statut de la linguistique et de sa place au sein de la constellation.
6 La linguistique s’occupe en effet d’un objet empirique, le langage, sur lequel
l’expérimentation n’est pas possible dans les mêmes conditions qu’ailleurs. Elle n’a pas un
accès direct au type de phénomènes qui intéressent la recherche cognitive dure puisque
si elle traite des objets de langue, les phrases, les énoncés, elle n’est aucunement préparée
à aborder les processus mentaux qui gouvernent leur production. Le décalage est encore
accentué par le développement, durant les deux dernières décennies, de techniques
d’observation nouvelles, extrêmement sophistiquées, permettant une meilleure
24

compréhension du système nerveux : enregistrement de l’activité des neurones


individuels et de l’ensemble du cerveau, explication des processus perceptuels et cognitifs
en terme d’activité biochimique, modélisation computationnelle de ces processus. Le fait
que le projet cognitif intègre comme pièce maîtresse à son dispositif cette dimension
expérimentale et technologique amène à se demander si la linguistique cognitive peut
être autre chose qu’une psycholinguistique ou une neurolinguistique.
7 La position soutenue par Chomsky depuis la fin des années 1950, réaffirmée dans les
articles réunis dans New Horizons in the Study of Language and Mind (Chomsky 2000),
consiste à défendre la légitimité de la « linguistique interne ». Est dite « interne » une
approche qui prend les énoncés de la langue comme autant de phénomènes autonomes
dont on peut isoler, étudier et représenter les propriétés structurales et la signification
hors des caractéristiques du contexte situationnel, discursif et sociolinguistique dans
lequel il prend place. Dans cette conception, le langage n’est pas un objet public et social,
dont les locuteurs individuels n’auraient qu’une connaissance partielle, mais un objet
strictement individuel, dont la connaissance est interne à l’esprit humain. Ce qui, selon
Chomsky, doit intéresser le linguiste, c’est l’étude de cet objet mental, une entité à
laquelle il réfère sous l’étiquette de I-language (où I-vaut pour « interne », mais aussi pour
« individuel ») et qui doit être prise comme un aspect du monde pouvant être soumis à
une enquête rationnelle. Plus précisément, le langage humain est un objet
« psychologique », composante de l’esprit humain, physiquement représenté dans le
cerveau, et faisant partie de l’équipement biologique de l’espèce, qui, précisément parce
qu’il est ce type d’objet, peut et doit être analysé suivant les mêmes méthodes
d’investigation que celles qui sont en œuvre dans les sciences de la nature.
8 Cette thèse « naturaliste » a plusieurs conséquences. Si elle est adoptée, il n’y a aucune
raison de supposer que les langues naturelles doivent recevoir le même traitement que
les langages formels de la logique ou des mathématiques qui sont des langages inventés,
ou que les règles linguistiques attribuées aux individus par la théorie doivent être
directement accessibles à la conscience et ne peuvent relever d’une connaissance tacite.
En fait, la science du langage doit tenter de se construire comme une science galiléenne,
c’est-à-dire une science émettant des propositions réunissant les trois caractéristiques
suivantes : être formalisées (mathématisées), être dotées de contenu empirique et de
pouvoir prédictif, être falsifiables expérimentalement. Une autre conséquence de la thèse
naturaliste concerne la relation de la linguistique aux autres sciences et à la philosophie.
Contrairement à ce que voudraient certains des philosophes intéressés, comme Putnam,
au problème de la relation entre l’esprit et le corps, il est nécessaire et suffisant, selon
Chomsky, que l’étude du langage satisfasse les contraintes qui gouvernent toute enquête
rationnelle sur un objet empirique, et n’a pas à satisfaire des exigences supplémentaires.
9 Chomsky attache enfin une grande importance à ce qu’il appelle le « problème de
l’unification » (voir les articles réunis dans Chomsky 2000). Science de la nature, la
linguistique ne peut, dans l’état actuel de nos connaissances, être unifiée avec aucune
autre science de la nature, encore moins être « réduite » à une autre activité scientifique.
Seule une approche naturaliste qui traite le langage dans une perspective interne, comme
un ensemble de computations sur des représentations mentales, est à même de rendre
compte de toute sa complexité.
10 Il est souhaitable de chercher à établir des passerelles entre ce que l’on sait des processus
mentaux, du langage en particulier, et les théories du cerveau, mais l’unification entre les
deux domaines est un objectif à très long terme et, pour être effective, cette unification
25

ne peut être une réduction. Le fait, révélé par les techniques nouvelles d’imagerie
cérébrale fonctionnelle, que les écarts par rapport aux principes généraux de la
grammaire ont pour corrélats des comportements particuliers dans l’activité électrique
du cerveau ne signifie pas que les phénomènes linguistiques doivent être expliqués en
termes neurologiques. Nul ne sait à ce jour comment les propriétés qui semblent être
définitoires des langues naturelles – caractère combinatoire, infinité discrète,
dépendance structurale – sont implantées physiquement dans les structures cellulaires et
neuronales. Et les questions phonologiques, morphologiques, syntaxiques ou sémantiques
qui constituent le fonds commun des recherches linguistiques – les pluriels brisés de
l’arabe, le système casuel de l’islandais, le déplacement de l’objet dans les langues
germaniques, la généricité – n’auraient aucune place dans un programme à orientation
neurologique.
11 La linguistique peut donc s’articuler au projet cognitif sans se confondre avec celles des
sciences dures qui, comme la neurolinguistique, sont spécifiquement intéressées au
langage. Cette conclusion rejoint la conception qui sous-tend le projet cognitif dans son
essence. Chaque discipline partenaire possède déjà son objet et ses méthodes
d’investigation propres et, pour aucune, il n’est question de fondation ou de refondation.
Ce qui est demandé à chacune, c’est au contraire de contribuer, dans la mesure de ses
ressources, à faire du fonctionnement de l’esprit une question empirique.
12 Dans ce qui suit, je m’attacherai à montrer que les grammaires formelles• définissent des
modèles adéquats de la cognition linguistique. Sous cette étiquette, on peut regrouper les
différents modèles chomskiens qui se sont succédé depuis Aspects of the Theory of Syntax
(1965) jusqu’au Programme Minimaliste (The Minimalist Program, 1995), ainsi que les
grammaires dites d’unification• qui se sont développées depuis le début des années 1980.
C’est dans les textes de Chomsky que l’ancrage cognitif de la théorie linguistique est le
plus nettement affirmé, c’est donc à eux que je me référerai dans cet essai. Je ferai surtout
porter l’effort sur le modèle des Principes et Paramètres et sur le Programme
Minimaliste. Il s’agira de montrer comment est conçue dans les grammaires génératives•
l’articulation du grammatical et du cognitif, d’évaluer l’apport de la linguistique
chomskienne à la réflexion• cognitive (plutôt que de faire comme si cet apport allait de
soi), mais aussi de déterminer si les questions rendues accessibles par la linguistique
chomskienne et les résultats qu’elle a obtenus sont à la portée de la recherche cognitive
ou au contrainte hors de son atteinte.

Paramètres, Grammaire Universelle et acquisition2


13 Ce sont essentiellement deux objectifs qui, par-delà leurs différences, unissent les
versions successives du modèle génératif depuis la fin des années 1970 :
(2) construire des modèles explicites, c’est-à-dire formalisables, des langues
naturelles ;
(3) proposer une théorie explicative de la compétence des individus, offrant une
caractérisation de ce savoir et précisant comment il est acquis.
14 (2) définit la linguistique comme une science galiléenne si l’on ajoute que la validité d’un
modèle doit être contrôlée expérimentalement. (3) définit la linguistique comme une
science cognitive puisque le comportement langagier repose à l’évidence sur des
capacités mentales. Il s’agit de caractériser à la fois la capacité cognitive qui permet à
l’enfant d’apprendre une langue naturelle dans un temps relativement court, hors de tout
26

enseignement explicite, à partir d’une expérience par définition variable et fragmentaire,


et le savoir linguistique qui en résulte. Or les savoirs résultants, les langues naturelles,
varient considérablement d’une communauté linguistique à une autre. Dans la mesure où
l’on ne peut appréhender le langage qu’à travers cette diversité, celle-ci va déterminer la
façon dont, dans le modèle, s’articulent l’universel et le particulier.

La Grammaire Universelle

15 Chomsky n’a cessé de répéter dans ses écrits que la rapidité et l’uniformité du processus
d’apprentissage, ainsi que l’exceptionnelle complexité de ce qui est appris, ne peuvent
être pleinement expliquées sans l’hypothèse d’un équipement inné préspécifié. L’une des
premières formulations de cette idée se trouve dans son ouvrage publié en 1965, Aspects of
the Theory of Syntax :
« Il semble évident que l’acquisition linguistique est fondée sur la découverte par
l’enfant de ce qui, d’un point de vue formel, constitue une théorie profonde et
abstraite une grammaire générative de sa langue – dont les concepts ne sont reliés
à l’expérience que de loin, par des chaînes longues et complexes d’étapes
inconscientes de type quasiment déductif. (...) tout cela [les propriétés du processus
d’apprentissage] ne permet pas d’espérer que la structure de la langue puisse être
apprise par un organisme qui ne disposerait d’aucune information préalable sur son
caractère général. » (Chomsky 1971 : 83-84).
16 À cette information préalable, Chomsky donne dans Aspects le nom de Grammaire
Universelle (Universal Grammar). D’abord définie comme l’ensemble des caractéristiques
partagées par toutes les langues et qui, de ce fait, n’ont pas besoin d’être mentionnées
dans les grammaires particulières, la Grammaire Universelle (abrégé en G.U.) en vient
très vite à désigner l’« état initial » de l’apprenant, la structure cognitive « instinctive »
servant de base à l’acquisition, qui fait que l’enfant, plongé dans un environnement
linguistique, n’a d’autre choix que d’apprendre à parler et qui, conjointement, explique
que les langues partagent les propriétés qu’elles partagent.
17 Pour se faire une idée plus exacte de la nature et de la forme de G.U., c’est-à-dire des
hypothèses initiales sur la nature du langage avec lesquelles l’enfant aborde
l’apprentissage, on doit considérer les caractéristiques de ce qui est appris. On sait par
exemple que les langues humaines ont un caractère doublement articulé, que ce sont des
organisations hiérarchiquement structurées qui s’expriment en linéarité et en
successivité, que les opérations qui les affectent sont crucialement dépendantes de la
structure et obéissent à des contraintes de localité, qu’elles distinguent les verbes et les
noms... On peut concevoir G.U. comme un ensemble structuré de règles et de principes,
préspécifiant la forme des grammaires possibles et incorporant une information
minimale sur ce que sont les langues naturelles. On sait que, dès Aspects, Chomsky
proposait de distinguer deux types d’universaux linguistiques, les universaux de
substance qui renvoient aux matériaux basiques dont sont faites les langues, les traits
distinctifs de la phonologie, les parties du discours de la syntaxe, matériaux sans lesquels
aucune langue naturelle ne peut être construite, et les universaux formels, répertoire de
règles et de principes qui déterminent l’architecture générale du dispositif grammatical
et le fonctionnement des dérivations•.
18 En même temps, s’il est clair que G.U. doit être structurée, la diversité même des langues
exclut que cette structure soit trop spécifiée. Dans le cas contraire, l’enfant rencontrerait
constamment dans la langue à laquelle il est exposé des phénomènes hors d’atteinte des
27

règles et des principes mis à disposition par G.U. (sur ce point, voir par exemple Chomsky
1971 :46). L’hypothèse que fait sienne le modèle des Principes et Paramètres est que les
langues sont moins différentes les unes des autres qu’elles ne paraissent, qu’elles
partagent infiniment plus que la « double articulation » et que ces propriétés partagées
ont le statut d’universaux linguistiques. On est évidemment là aux antipodes de l’idée de
l’infinie variabilité des langues humaines soutenue par les fonctionnalistes, par Martinet
(1960) en particulier.

Paramètres et architecture fonctionnelle

19 Si les principes capturent ce qu’il y a d’universel dans le langage, ce sont les paramètres
qui, dans ce modèle, caractérisent l’espace restreint dans lequel s’inscrit la variation
possible. Les principes sont essentiellement inviolables et rigides, les choix paramétriques
définissent des mesures d’accompagnement protocolaires, déterminant dans chaque
système comment tel ou tel principe est mis en œuvre.
20 Les paramètres isolés au début des années 1980 – le paramètre du « sujet nul » caractérisé
par Rizzi (1982), le paramètre directionnel associé au marquage casuel et au marquage
thématique proposé par Travis (1984), celui qui distingue entre les langues où le
mouvement des expressions interrogatives est explicite et celles où il intervient en Forme
Logique• et n’est donc pas manifesté par une modification de l’ordre linéaire (Huang 1982)
– illustrent bien le fonctionnement de la notion dans l’économie générale de G.U. Un petit
nombre de paramètres fondamentaux fixés différemment dans des systèmes linguistiques
relativement proches peuvent entraîner des variations considérables entre ces systèmes.
Quand la valeur d’un paramètre est fixée, la riche structure déductive de G.U. permet de
dériver tout un réseau des propriétés corrélées. Dans cette approche, les données
comparatives et typologiques permettent de préciser les limites relativement étroites
dans lesquelles s’inscrit la variation et, du même coup, d’accéder à l’invariant, c’est-à-dire
de préciser le contenu des principes universels.
21 Très tôt, cependant, la caractérisation des paramètres comme des dimensions de
variation attachées aux principes syntaxiques est apparue comme à la fois trop restrictive
et trop lâche. Dès 1984, Borer a suggéré que la variation paramétrique affecte
exclusivement le système flexionnel• des langues et que les paramètres sont attachés aux
morphèmes et aux mots fonctionnels individuels, comme partie intégrante de
l’information contenue dans leur entrée lexicale. Cette approche est dotée d’un pouvoir
explicatif potentiellement plus grand que la précédente puisqu’elle localise la variation
dans une propriété définitoire des langues naturelles, l’existence sur les mots fléchis
d’une morphologie nominale et verbale. Elle est aussi plus restrictive puisqu’elle exclut la
possibilité qu’un paramètre ne soit pas la propriété d’un trait d’un élément contenu dans
le lexique•. Chomsky et Lasnik (1993) développent la même idée en posant que les
paramètres sont exclusivement associés aux têtes fonctionnelles, c’est-à-dire aux
catégories qui codent les spécifications de temps, de mode, de personne, de nombre, de
définitude des domaines flexionnels, proposition et groupe nominal. De fait, la dimension
fonctionnelle/morphologique est directement impliquée dans un phénomène découvert
par Emonds (1978) et réanalysé par Pollock (1989), celui du site de réalisation variable du
verbe en fonction de la langue et du type propositionnel. Ces deux auteurs, en comparant
la distribution des modificateurs adverbiaux dans les propositions finies du français et de
l’anglais, ont montré que les formes verbales fléchies occupent dans l’arborescence des
28

positions plus hautes dans les langues dotées d’une flexion riche (c’est le cas du français,
qui sur ce point se comporte comme les langues romanes à sujet nul disposant d’une
forme distincte aux six personnes de la conjugaison) que dans celles où la morphologie
d’accord est pauvre ou absente (c’est le cas de l’anglais). Les énoncés suivants montrent
que certains adverbes s’intercalent entre le verbe et l’objet en français, mais pas en
anglais où, par contre, ils apparaissent entre le sujet et le verbe :
(4) a. Jean rencontre souvent Marie dans les cafés
b. *John meets often Mary
c. *Jean souvent rencontre Marie dans les cafés
d. John often meets Mary
22 Plutôt que de supposer que la position de l’adverbe varie d’une langue à l’autre, les
auteurs font l’hypothèse que c’est le site de réalisation du verbe qui change dans une
configuration structurale et catégorielle qui pour l’essentiel demeure invariante.
Admettons que la structure fonctionnelle de la proposition inclue une catégorie Temps
(T), intermédiaire entre le domaine lexical qui coïncide avec le groupe verbal, et la
périphérie, site de réalisation des marqueurs de subordination et des interrogatifs. Si les
adverbes qui, comme souvent, quantifient l’événement sont insérés à la périphérie gauche
du groupe verbal, (4) indique qu’en français le verbe fléchi se déplace au-delà de l’adverbe
pour s’adjoindre à T, alors qu’en anglais il conserve sa position originelle.
(5) a. [Jean T [souvent [rencontre Marie]]]
b. [Jean rencontre + T [souvent [t Marie]]]
(6) [John T [often [meets Mary]]]
23 Pollock (1989) établit que la distribution de la négation dans les deux langues, distincte de
celle des adverbes, et la prise en compte des infinitives où ces distributions sont
différentes de ce qu’elles sont dans les propositions finies imposent de conclure à
l’existence de deux têtes fonctionnelles distinctes dans le domaine flexionnel, que l’on
peut identifier comme Temps (T) et Accord (Agreement, abrégé en Agr). (7) reprend la
structure fonctionnelle de la proposition adoptée par Belletti (1990), dans laquelle Agr est
plus haute que Τ :
(7) [... C [... Agr... [Neg [... Τ [... V...]]]]]
24 En français, le verbe lexical• peut conserver sa position originelle V ou accéder à la
catégorie Τ dans les infinitives. Dans les propositions finies, il précède le marqueur de
négation pas et est réalisé dans Agr. Dans les interrogatives directes, il monte dans la
périphérie de la proposition jusqu’à C. En anglais, le verbe lexical (contrairement aux
auxiliaires) ne quitte jamais le domaine lexical. Cette analyse suppose que la structure
fonctionnelle des propositions est uniforme d’une langue à l’autre et d’un type
propositionnel à un autre et inclut les mêmes catégories organisées suivant la même
hiérarchie. Dans les structures où le verbe lexical est réalisé en surface dans T, dans Agr
ou dans C, il est nécessaire de définir une opération de mouvement de tête, affectant V et
l’adjoignant aux catégories supérieures. Les variations observées reflètent des variations
dans l’espace syntaxique parcouru par le verbe déplacé.
25 Ce type d’approche a été étendu à l’étude de la structure interne du groupe nominal,
désormais analysé comme une projection de la catégorie fonctionnelle D (Déterminant) et
incluant une tête intermédiaire entre D et N, la catégorie Nombre (Ritter 1991). C’est,
dans ce cas, la distribution des épithètes adjectivales qui sert de révélateur de la position
occupée par la tête nominale. La variation observable dans la position du nom à
l’intérieur de l’expression nominale – en anglais, le nom suit systématiquement tous les
29

modificateurs adjectivaux ; dans les langues celtiques, il les précède tous à quelques
exceptions près ; dans les langues romanes, il s’intercale dans les séquences adjectivales –
peut être ramenée à une différence dans la portée du mouvement du nom (Cinque 1994 ;
Longobardi 1994 ; Rouveret 1994).
26 La distribution des arguments• nominaux dans différents types de langues et dans
différents types de propositions se prête au même type d’analyse. On peut montrer par
exemple que dans les langues celtiques, langues VSO, l’argument sujet quitte bien sa
position originelle interne au groupe verbal, mais parcourt un espace syntaxique plus
restreint qu’en français : il occupe le spécificateur de T, non celui de Agr. Par contre,
comme en français, la tête verbale atteint la tête• flexionnelle la plus haute Agr. L’ordre
linéaire résultant est donc VSO (Rouveret 1994). Dans certaines constructions contenant
un auxiliaire, le verbe et l’argument objet forment manifestement un constituant, ce qui
confirme à la fois la généralité du schéma propositionnel (7) et l’hypothèse que dans les
séquences VSO, la position initiale du verbe résulte d’un déplacement.
27 L’étude par Rizzi (1997) de la périphérie gauche de la proposition a révélé qu’elle
constitue elle aussi un domaine relativement complexe, hautement structuré et associant
plusieurs projections fonctionnelles articulées hiérarchiquement – les projections des
têtes que Rizzi baptise Finitude, Topique, Focus, Force–, et que ces ressources
catégorielles sont disponibles dans des systèmes linguistiques typologiquement
différents, comme le révèlent la morphosyntaxe des complémenteurs•, la distribution des
adverbes « topicalisés », la place du verbe dans les propositions finies des langues
germaniques, la syntaxe des interrogatives dans les langues romanes... Enfin, Cinque
(1999) pousse la logique de cette approche à ses plus extrêmes conséquences et identifie
dans la structure de la proposition autant de catégories fonctionnelles que de classes
d’adverbes – chaque adverbe occupant le spécificateur de la tête correspondante.
28 Les résultats empiriques considérables accumulés par la syntaxe paramétrique depuis une
vingtaine d’années constituent un progrès essentiel dans la connaissance du langage et
dans la caractérisation du savoir linguistique tacite des individus. Comme nous le verrons
plus loin, ce sont aussi ces résultats qui servent de base à la théorisation minimaliste.

La relation de la syntaxe à la morphologie

29 Reconsidérons le squelette fonctionnel schématisé en (7). Si l’hypothèse de l’uniformité


est adoptée, il faut, pour rendre compte de la variation syntaxique, supposer que la même
catégorie fonctionnelle peut ou non « attirer » la tête verbale. Quelle dimension
grammaticale détermine le choix de l’une ou l’autre option ? Le type de réponse qui a été
donné à cette question consiste à proposer qu’au moins certains mouvements de têtes
sont motivés par une exigence morphologique. Plus précisément, on a admis que les
catégories fonctionnelles de la syntaxe constituent une source plausible pour les affixes•
exprimant les dimensions correspondantes, qu’ils soient dérivationnels• (cf. Baker 1988)
ou flexionnels (cf. Pollock 1989). Si l’on fait l’hypothèse que l’affixe de temps réside dans
T, l’affixe de personne-nombre dans Agr et que la deuxième catégorie occupe une position
plus haute dans l’arborescence que la première, il devient possible d’établir une
corrélation simple et immédiate entre l’ordre des affixes dans les mots construits et la
hiérarchie des catégories fonctionnelles dans le domaine flexionnel (cf. Belletti 1990). La
plausibilité initiale de cette approche vient de l’observation que dans le paradigme (4), le
verbe fléchi a un parcours syntaxique plus long dans une langue à morphologie
30

relativement riche comme le français que dans une langue où la morphologie verbale est
quasiment absente, comme l’anglais. Dans cette perspective, un lien direct est établi
entre, d’une part, la collection de catégories fonctionnelles et les ressources
morphologiques dont dispose une langue L et, d’autre part, la structure en constituants et
l’ordre des mots observables dans L. Les différences dans l’ordre des mots résultent de la
capacité variable qu’ont les différentes catégories fonctionnelles de déclencher le
mouvement, propriété elle-même déterminée pour une part par les affixes
morphologiques abrités par ces catégories.
30 Mais on notera, touchant les phénomènes évoqués, des situations de décalage. Des
langues qui ont les mêmes ressources morphologiques peuvent avoir des syntaxes
différentes. L’allemand dispose de paradigmes verbaux aussi riches que ceux de l’italien,
mais le verbe conserve sa position d’origine dans les subordonnées. Inversement, des
langues qui disposent de ressources morphologiques différentes peuvent avoir des
syntaxes identiques – le verbe a la même syntaxe en allemand et dans les langues
Scandinaves continentales où il n’est spécifié ni pour le nombre, ni pour la personne. Le
pouvoir explicatif de l’approche paramétrique dépend donc de la possibilité de replacer
ces phénomènes d’interaction entre syntaxe et morphologie dans une perspective
théorique plus large, rendant pleinement explicite la nature de cette interaction et
apportant en particulier une réponse à la question suivante :
(8) Les propriétés morphologiques d’une langue L
déterminent-t-elles les processus syntaxiques dans L
ou sont-elles le réflexe de ces processus ?
31 La question posée touche aux fondements mêmes de la faculté de langage. Des
corrélations entre variation syntaxique et variation morphologique sont observables dans
le domaine de la typologie, de la comparaison et de la diachronie. Mais ces corrélations
doivent-elles être interprétées comme une indication forte que les opérations
syntaxiques, les déplacements en particulier, sont motivées par la nécessité de satisfaire
les exigences morphologiques des différents éléments qui composent la phrase, comme le
supposent l’approche paramétrique et le Programme Minimaliste ? Ou, au contraire, sont-
elles mieux interprétées dans les termes d’une théorie qui considère la morphologie
comme étant non pas la cause, mais le réflexe des opérations syntaxiques ?
Contrairement à la conception selon laquelle la syntaxe est « guidée » (driven) par la
morphologie, la seconde théorie, défendue par Bobaljik (2000), est compatible avec des
situations dans lesquelles une variation syntaxique se laisse observer en l’absence de
toute variation morphologique. Il existe dans les langues de nombreux exemples de cette
situation. Ainsi, rien ne distingue la morphologie verbale du portugais européen de celle
des autres langues romanes à sujet nul. Pourtant, la syntaxe de la cliticisation en
portugais européen diffère sensiblement de celle des langues voisines3.

Paramètres et acquisition

32 J’ai rappelé au début de cette section quelle est la solution proposée par le modèle des
Principes et Paramètres pour résoudre le problème logique de l’acquisition du langage et
le rôle décisif joué par la notion de paramètre dans l’explication. La destination première
de la notion de paramètre est d’opérer le départ entre ce que l’enfant n’a pas à apprendre
parce qu’il le sait déjà (sans savoir qu’il le sait) et ce qu’au contraire il doit acquérir pour
construire la grammaire de sa langue. L’idée qui sous-tend cette présentation est que
31

l’essentiel de la connaissance linguistique est présente avant toute expérience et que le


système de savoir est plus simple qu’il n’apparaît superficiellement. En même temps, si
les différents loci de variation sont désignés par G.U. (au principe x est associé le
paramètre y), la tâche essentielle de l’enfant au cours de l’apprentissage est
l’identification et la fixation de la valeur de tous les paramètres en jeu dans la grammaire
de sa langue. La tâche d’apprentissage est encore facilitée par l’organisation modulaire du
dispositif grammatical. Une théorie modulaire• est une théorie dans laquelle les
dimensions de variation sont réparties entre différents sous-systèmes (théorie du Cas,
théorie thématique, théorie du liage...). Il est clair que plus une théorie est modulaire,
plus la variation autorisée dans chaque module est restreinte.
33 Mais si l’on adopte la perspective de la psychologie du développement, le problème se
pose dans des termes différents puisqu’il s’agit de rendre compte du processus
d’apprentissage en temps réel et de préciser comment le développement des capacités
cognitives générales chez l’enfant interagit avec la tâche d’apprentissage. Les linguistes
générativistes intéressés à l’acquisition se sont demandé si (tous) les principes de G.U.
étaient présents et « actifs » dès le début de l’apprentissage, si certains d’entre eux
étaient programmés génétiquement pour ne devenir opératoires qu’à des étapes
ultérieures du processus d’acquisition, ou si les grammaires initiales échappaient, au
moins par certains de leurs aspects, à une caractérisation dans les termes de G.U. Ils se
sont aussi demandé si la valeur des paramètres était fixée de façon quasi immédiate, ce
qui « s’accorderait avec l’idéalisation classique de l’acquisition instantanée défendue dans
Aspects » (Jakubowicz 1995), ou si chaque paramètre recevait une valeur initiale qui, au
contact de l’expérience, était soit maintenue, soit modifiée4. Sur toutes ces questions et
sur d’autres qui ne sont pas évoquées ici, je me permets de renvoyer à la présentation
deJakubowicz (1995).

Microparamètres vs. macroparamètres

34 On peut se demander aujourd’hui si l’approche paramétrique initiée au début des années


1980 a pleinement atteint son objectif et ouvert la voie à une meilleure compréhension de
l’articulation entre l’universel et le particulier dans le langage. Une première
constatation se fait jour, étroitement corrélée à ce qui vient d’être dit de la relation entre
syntaxe et morphologie. S’il a été possible dans les deux dernières décennies d’isoler
quelques macroparamètres, subsumant des paquets de propriétés corrélées organisées en
réseau, la situation rencontrée le plus fréquemment, lorsqu’on compare deux systèmes
génétiquement reliés et géographiquement proches, est celle d’une collection de
propriétés ponctuelles variant indépendamment les unes des autres. Les études
comparatives des dialectes italiens menées par Manzini et Savoia (à paraître), celle de la
morpho-syntaxe de la relativisation dans les langues celtiques par Rouveret (2002)
appuient une conception microparamétrique dans laquelle chaque locus de variation est
caractérisé sur la base d’une seule propriété fonctionnelle, c’est-à-dire d’un trait unique.
La notion originale de paramètre, comme dimension de variation induisant une cascade
d’effets empiriques, est supplantée par une autre conception dans laquelle les paramètres
codent individuellement, dans le lexique, les exigences morphosyntaxiques des têtes
fonctionnelles.
35 Le scepticisme des chercheurs à l’encontre de la notion classique de paramètre a en partie
sa source dans l’observation que certains des macroparamètres qui avaient été
32

initialement proposés soit ne constituent pas des dimensions de variation unitaires, soit
ne correspondent pas à des dimensions primitives. Le premier cas est illustré par la
propriété « sujet nul ». Il existe des langues dans lesquelles le verbe est uniformément
dépourvu de morphologie personnelle, mais qui néanmoins possèdent cette propriété –
c’est le cas du chinois et d’autres langues de l’Asie orientale. Cette situation montre que la
richesse de la flexion verbale ne peut être la seule dimension impliquée dans le
phénomène et que d’autres propriétés – syntaxiques celles-là – jouent un rôle
discriminant. Le deuxième cas est illustré par le « paramètre de la tête », évoqué plus
haut, fixant dans chaque domaine la position de la tête par rapport à son complément.
Dans un travail de grande portée, Kayne (1994) propose une théorie de la structure en
constituants, la théorie de l’antisymétrie, dans laquelle l’organisation hiérarchique des
catégories détermine intégralement l’ordre linéaire des éléments lexicaux
correspondants. Il intègre à sa théorie un axiome de correspondance linéaire qui garantit
que si α c-commande asymétriquement β, alors α précède ß. Située dans une perspective
cognitiviste, cette hypothèse a une importance considérable puisqu’elle réduit de façon
appréciable le nombre d’options structurales que l’enfant doit considérer dans l’analyse
des séquences. Mais elle a pour nous un intérêt plus immédiat puisqu’elle implique que
des ordres linéaires différents recouvrent toujours des structures hiérarchiques
différentes. Ainsi, les configurations VO et OV ne sont pas structuralement identiques.
Kayne suppose que toutes les langues présentent un ordre sous-jacent spécificateur-tête-
complément. Dans le cas qui nous intéresse, cela signifie que les configurations VO sont
basiques, alors que les configurations OV sont dérivées et mettent au moins en jeu un
déplacement du complément par-dessus le verbe. On sait par exemple qu’en japonais les
expressions interrogatives n’occupent pas la position initiale de proposition et que les
éléments complémenteurs sont réalisés en position finale. Kayne propose que la
deuxième propriété résulte du déplacement dans le spécificateur de la catégorie C de la
proposition complément. Si c’est le cas, les expressions interrogatives ne sauraient être
réalisées dans le spécificateur de C, qui est occupé par la proposition elle-même. En bref,
l’ordre complément + verbe, illustré par le japonais, le turc, est selon Kayne corrélé à des
choix morphologiques et dérivationnels spécifiques. Il n’existe pas de « paramètre de la
tête », mais plutôt un ensemble complexe de facteurs syntaxiques et morphologiques qui
conspirent pour déclencher le déplacement du complément par-dessus la tête qui le
sélectionne.
36 Certains auteurs maintiennent que, pour rendre compte de l’étendue effective de la
variation, la théorie doit accueillir conjointement les notions de macroparamètre et de
microparamètre. Les premiers conservent toute leur puissance explicative lorsqu’on
étudie des langues typologiquement éloignées et non reliées génétiquement. Au
contraire, on a toutes les chances de découvrir des microparamètres lorsqu’on compare
des dialectes proches les uns des autres qui, par définition, ont fait les mêmes choix
macroparamétriques. Baker (1996) soutient qu’il existe un paramètre unique isolant les
langues polysynthétiques de toutes les autres. Une question analogue se pose pour le
paramètre configurationnel/non configurationnel, proposé jadis par Ken Hale. Touchant
le second, je crois que le scepticisme est de mise et qu’une langue que l’on est tenté de
caractériser comme non configurationnelle est simplement une langue que l’on n’a pas
encore suffisamment analysée.
37 Inversement, on peut admettre que la seule notion syntaxiquement pertinente est celle
de microparamètre et que, très générale ment, plusieurs microparamètres interviennent
33

dans l’explication des macropropriétés. Plusieurs travaux récents sur les langues romanes
médiévales ont montré par exemple que la phénoménologie V2 « romane » ne coïncidait
pas avec celle qui s’observe dans les langues germaniques contemporaines, la seule
caractéristique absolument commune étant l’existence d’une « inversion germanique »
plaçant le sujet immédiatement derrière le verbe fini lorsque la position initiale est
occupée par un autre élément. D’autres dimensions sont incluses dans la caractérisation
classique du paramètre V2 germanique, qui apparaît ainsi relever d’une concomitance de
facteurs non spécifiques. Chacune de ces autres dimensions pourrait être endossée par un
microparamètre.

Le Programme Minimaliste : une grammaire cognitive5


38 Le Programme Minimaliste, s’il maintient fermement les objectifs (2) et (3), marque une
tentative pour réévaluer les fondements même de la discipline et pour éradiquer tous les
concepts dont la présence dans le dispositif n’est imposée ni par la nécessité conceptuelle,
ni par l’évidence empirique. En simplifiant beaucoup, on peut dire que le modèle des
Principes et Paramètres est construit sur une critique des notions de règle grammaticale
spécifique et de construction particulière, la complexité des phénomènes étant rapportée
à l’interaction des paramètres avec les principes généraux de G.U., et que dans le
Programme Minimaliste, ce sont les principes eux-mêmes qui sont soumis à la critique.

Minimalisme méthodologique/minimalisme de substance

39 Le Programme Minimaliste recouvre en réalité deux entreprises parallèles. Il s’agit tout


d’abord de construire une théorie du langage élégante, n’intégrant que les concepts, les
principes et les mécanismes minimalement nécessaires à la description et à l’explication
des données observables. Ce minimalisme-là ne fait que refléter une exigence
méthodologique qui sous-tend toute enquête rationnelle et ne constitue en aucun cas une
nouveauté dans le paradigme génératif, puisqu’il a toujours joué un rôle moteur
déterminant dans la pratique des chercheurs et dans l’évolution des modèles. Mais
l’ambition du Programme Minimaliste va bien au-delà. La visée n’est pas seulement de
construire la meilleure théorie, celle qui remplit de façon optimale les exigences
d’adéquation empirique et d’élégance conceptuelle, mais aussi de vérifier si l’objet
« langage » est lui-même articulé de façon optimale ou, ce qui revient au même, de
déterminer pourquoi il est comme il est. On n’a plus affaire alors à une question de
méthode, mais à une question portant sur la substance même de l’objet étudié.
40 La question minimaliste par excellence, celle dont procèdent toutes les autres, est en effet
la suivante : pourquoi G.U. est-elle configurée comme elle l’est ? Peut-on expliquer qu’elle
ait précisément les propriétés qu’elle a ? À cette question, Chomsky donne une forme
inattendue : le langage est-il un système parfait ? Et l’hypothèse de travail qu’il adopte est
que le langage est, de fait, proche de la perfection. Réponse aussi surprenante que la
question, si l’on continue à caractériser le langage humain comme un système biologique.
La perfection en question ne peut donc être évaluée qu’en relation avec une propriété
intrinsèque du langage. Or, de façon inhérente, une langue établit un lien nécessaire
entre son et sens. La tâche première de toute théorie linguistique est de caractériser ce
lien entre la représentation de la parole – la Forme Phonétique (F.P) – et la représentation
des propriétés logiques et sémantiques des mots et des phrases – la Forme Logique (F.L.).
34

Une autre caractéristique de la faculté de langage est que les deux pôles qu’elle relie, celui
du son et celui du sens, se trouvent eux-mêmes à l’interface avec d’autres facultés
cognitives, le système acoustique-articulatoire et le système cognitif-intentionnel. Il est
légitime de se demander si ces deux conditions d’adéquation externes – la nécessité de
dériver une représentation phonétique décodable par le système articulatoire et une
représentation sémantique interprétable par le système conceptuel – ne sont pas ce qui
détermine pour une bonne part les caractéristiques internes de l’objet et, par suite, la
forme de la théorie adéquate.
41 La thèse minimaliste forte consiste à poser que les grammaires des langues naturelles
représentent effectivement des solutions optimales à la fois au problème de l’association
du son et du sens et de la mise en relation de la faculté de langage avec les deux autres
capacités cognitives avec lesquelles elle se trouve en relation d’interface.
42 En d’autres termes :
(9) Le langage est un système configuré de façon optimale pour connecter entre
elles des représentations phonétiques lisibles par le système acoustique-
articulatoire et des représentations sémantiques lisibles par le système cognitif-
intentionnel.
43 La syntaxe minimaliste elle-même est conçue comme un mécanisme computationnel,
contraint exclusivement par des principes d’économie qui ont pour effet de limiter les
options possibles aux opérations qui sont les moins coûteuses et, en même temps,
permettent de créer des structures convergentes. Elle n’invoque que des règles et des
opérations dont la présence est imposée par des considérations d’interface ou par
l’hypothèse que le langage est configuré de façon optimale.
44 Cette approche, comme le souligne Uriagereka (1999), tranche avec la conception
fonctionnaliste. Là où le fonctionnalisme demande si le langage est organisé de façon
optimale à des fins de communication, le minimalisme demande si le langage est organisé
de façon optimale pour décrire l’interaction avec les autres systèmes cognitifs. Elle
tranche aussi avec celle qui est défendue dans le modèle des Principes et Paramètres
puisqu’elle implique qu’une grammaire satisfaisant de façon optimale les conditions
d’adéquation descriptive et explicative n’est pas nécessairement la plus adéquate. Une
grammaire ne peut être pleinement évaluée sans que soit prise en compte sa capacité à
satisfaire les conditions imposées par les autres systèmes cognitifs avec lesquels elle est
en relation d’interface. En d’autres termes, des écarts sont possibles par rapport à ce
qu’impose la nécessité conceptuelle, mais ces écarts doivent être motivés par les
conditions d’interface imposées par l’extérieur.
45 Son caractère radical rend difficile l’évaluation de la thèse minimaliste forte. Chomsky
prend soin de souligner que le minimalisme n’est pas (encore) une théorie, seulement un
programme définissant une stratégie de recherche. Cette stratégie consiste à débusquer
et à éliminer de l’appareillage théorique complexité et stipulations, à rechercher les
configurations ou les connexions « parfaites » et à contrôler et valider l’argument de la
nécessité conceptuelle posant que, toutes choses égales par ailleurs, le langage a
exclusivement recours à des procédés qui permettent de connecter le son et le sens6.

Imperfections, interprétabilité et mouvement

46 Pour que la notion de perfection appliquée au langage ne soit pas empiriquement vide, il
convient d’identifier les imperfections possibles. Et de fait, le langage semble bien, au
35

premier abord, renfermer des imperfections, petites ou grandes. Au nombre des petites,
on doit compter diverses redondances, le fait par exemple que dans les formes
morphologiquement complexes, une seule et même dimension flexionnelle puisse avoir
plusieurs réalisations morphologiques.
47 En grec ancien, la dimension « parfait » a dans la forme lé-lu-ka trois exposants distincts.
Inversement, certaines formes sont ambiguës au sens où elles peuvent réaliser
morphologiquement plusieurs dimensions. C’est le cas par exemple du latin insul-is qui
recouvre à la fois le datif et l’ablatif pluriel de insula « île ». D’autres aspects de la
morphologie flexionnelle – existence de verbes irréguliers, présence de systèmes casuels
morphologiques extraordinairement complexes dans certaines langues, absence totale de
marques casuelles dans d’autres – paraissent difficilement conciliables avec la nécessité
conceptuelle et ne peuvent guère être pris en compte par des conditions d’interface.
L’existence même de la morphologie flexionnelle, c’est-à-dire la présence d’affixes de
personne et de nombre sur les verbes et de marques de nombre et de cas sur les noms,
semble être une imperfection majeure, en même temps qu’une propriété définitoire des
langues naturelles.
48 Une seconde caractéristique paraissant constituer une imperfection manifeste concerne
le site de réalisation des expressions nominales : celles-ci peuvent en effet ne pas être
réalisées dans les positions où elles reçoivent leur interprétation thématique. On peut de
ce point de vue opposer les énoncés suivants :
(10) a. Il semble que Pierre parle le chinois couramment,
b. Pierre semble parler le chinois couramment.
(11) a. Cicéron a écrit cette lettre en 52 avant J.-C.
b. Cette lettre a été écrite par Cicéron en 52 avant J.-C.
49 Les deux membres de chaque paire partagent la même valeur de vérité. Mais dans les
exemples (b), Pierre et cette lettre n’occupent pas la position qui leur confère un rôle
thématique, alors qu’ils l’occupent dans les exemples (a). Pourquoi les langues disposent-
elles conjointement de ces deux types de structures ? Et si la mise en relation des
structures (b) avec les structures (a) est assurée par une opération de déplacement,
pourquoi les langues ont-elle recours à un procédé qui semble ne pas être
conceptuellement motivé ?
50 Touchant la première imperfection, Chomsky observe que le statut d’un affixe
morphologique varie selon la catégorie lexicale à laquelle il est attaché. Il faut distinguer
par exemple la marque de nombre apparaissant sur les noms et celle qui apparaît sur les
verbes et les adjectifs. La première n’est pas une imperfection puisqu’elle véhicule un
contenu sémantique – elle dénote la pluralité et contribue de ce fait à la construction de
la référence ; la seconde est redondante puisqu’elle ne fait que redupliquer la première.
Des remarques analogues valent pour les cas dans les langues qui disposent d’un système
de cas morphologiques. Dès Lectures on Government and Binding, Chomsky (1981) avait
observé que le datif, l’ablatif, les autres cas obliques ne doivent pas recevoir le même
statut que le nominatif et l’accusatif. Les premiers sont des cas inhérents, les seconds des
cas structuraux. La réinterprétation minimaliste de cette opposition est que les premiers
sont sémantiquement interprétables, puisqu’ils manifestent le rôle thématique du nom
qui les porte et, du même coup, lui confèrent un rôle syntaxique. Les seconds ne le sont
pas et constituent de fait des imperfections. Mais – et c’est là exactement la position de la
grammaire traditionnelle–, ils permettent de construire ou de manifester une relation
entre deux termes. Sur ce point, ils remplissent un rôle analogue aux marques de nombre
36

évoquées plus haut qui, attachées aux verbes et aux adjectifs, constituent des marques
d’accord non interprétables, mais permettant la construction d’une relation avec des
entités sur lesquelles ces dimensions sont interprétables.
51 Ce qu’indique la discussion précédente, c’est que certaines dimensions flexionnelles
peuvent être interprétables ou ne pas l’être, et que leur interprétabilité dépend de la
catégorie sur laquelle elles sont réalisées. Admettons qu’une représentation d’interface
est mal formée si elle contient des objets non interprétables au niveau concerné (F.P ou
F.L.)7. Ces traits devront donc nécessairement être éliminés avant que la dérivation
n’atteigne le niveau d’interface pertinent.
52 La proposition de Chomsky est que, si l’on raisonne dans ces termes, il est possible de
réduire les deux imperfections mentionnées précédemment à une seule. Le mouvement
est par excellence la stratégie permettant d’établir une relation entre deux objets. Il
permet donc de placer les traits non interprétables au contact des traits interprétables
qui leur correspondent et donc de vérifier et d’éliminer les premiers au moyen des
seconds. On se souvient que dans cette approche, la notion d’interprétabilité aux
interfaces joue un rôle crucial. L’hypothèse avancée est que les déplacements syntaxiques
sont motivés par la nécessité d’éliminer les traits non interprétables. Les cibles des
déplacements sont identifiées par le fait qu’elles portent de tels traits. Les imperfections
constatées ont donc une fonction computationnelle.
53 Le déplacement, tel qu’il vient d’être caractérisé, représente la solution optimale au
problème suivant : comment assigner deux types de propriétés à la même expression, des
propriétés sémantiques (thématiques) et des propriétés syntaxiques (grammaticales et
informationnelles) ? Dans les structures suivantes (où les sites d’origine contiennent une
trace du terme déplacé, symbolisée t) :
(12) a. [Jean] est arrivé [t]
b. [Jean] est facile à contenter [t]
54 On peut poser que la position la plus basse est exclusivement dédiée à la propriété
Patient, la plus haute à la propriété Sujet/Topique. Le déplacement de la première dans la
seconde est une opération permettant d’associer au même argument ces deux
caractéristiques – en fait une opération de « dernier recours », car la seule qui permette
de dériver le résultat cherché. Techniquement, le déplacement sera déclenché par la
nécessité d’éliminer les traits non interprétables attachés à la catégorie d’accueil.
Adoptons une représentation propositionnelle simplifiée dans laquelle la catégorie T est
l’unique tête fonctionnelle du domaine flexionnel et posons que T est doté d’un trait de
Cas [nominatif] et du trait [EPP] qui note la propriété Sujet/Topique, l’un et l’autre
ininterprétables sur cette catégorie. Seul le déplacement du contenu argumental Jean
dans le spécificateur de T permet de satisfaire ces deux traits et donc de les éliminer.
55 En bref, si l’on poursuit la logique minimaliste, on doit conclure que les imperfections du
code linguistique – apparition de marques morphologiques là où elles ne sont pas
interprétables, occurrence des arguments nominaux dans des positions autres que celles
où ils reçoivent leur interprétation thématique – cessent d’être des imperfections
lorsqu’on les replace conjointement dans le fonctionnement global du système
linguistique.
37

La forme du dispositif

56 L’adoption de la perspective minimaliste a conduit à l’abandon de plusieurs notions et


principes intégrés aux modèles précédents. Deux des niveaux de représentation
précédemment incorporés au dispositif – la structure D (la « structure profonde• » des
premiers modèles génératifs) et la structure S (« structure superficielle• ») – sont éliminés
parce que leur existence ne relève pas d’une nécessité conceptuelle et n’est pas non plus
motivée par des conditions externes. Seuls sont maintenus les deux niveaux d’interface,
la forme logique F.L. et la forme phonologique F.P., parce que le système conceptuel
exploite les représentations mises à disposition par le premier et que le système
acoustique-articulatoire utilise celles qui sont fournies par le second. De fait, les trois
composantes que doit minimalement intégrer toute théorie grammaticale sont d’une part
le lexique, d’autre part les deux interfaces, F.L. et F.R (on peut considérer le lexique
comme une troisième interface en relation avec le dispositif grammatical). Dans la
tradition générative, c’est une dérivation qui assure la mise en relation de ces trois
composantes. Les deux interfaces sont composées d’items empruntés au lexique et le rôle
de la dérivation est précisément d’associer et de combiner entre eux les items lexicaux.
57 Les modèles précédents intégraient des systèmes de règles (phrase structure rules) mettant
en place la structure en constituants. Le statut de ces règles est assez indécis puisqu’elles
répètent des informations déjà contenues dans les entrées lexicales des items, leur cadre
de sous-catégorisation, leur sélection argumentale et thématique (cf. Stowell 1981). Mais
aucune proposition spécifique n’avait été avancée sur la façon de construire la structure
en constituants sans recourir à ce type de règles. Dans le Programme Minimaliste, ce rôle
est dévolu à une opération élémentaire, Merge, qui se saisit de deux objets syntaxiques –
items lexicaux ou/et combinaisons d’éléments lexicaux – et leur substitue un objet
syntaxique unique qui correspond à un constituant, c’est-à-dire à un morceau de
structure. C’est en ce sens que la représentation de la structure en constituants peut être
dite « nue » (bare phrase structure) : elle se compose exclusivement d’objets présents dans
la numération.
58 Les principes de composition et de manipulation qui constituent le système
computationnel (CS) spécifient aussi dans quelles conditions le mouvement est possible.
Nous savons déjà qu’autre chose que la simple combinaison des têtes et des constituants
est nécessaire et que la grammaire doit disposer d’une opération de déplacement. Soit
Move l’opération qui déplace les éléments et expressions lexicales pourvus de traits
« actifs », c’est-à-dire non interprétables, ou capables d’éliminer les traits non
interprétables des catégories fonctionnelles. Move correspond à la combinaison de deux
opérations élémentaires, Copy et Merge. Copy cible un constituant et produit une copie qui
est ajoutée à l’objet syntaxique déjà construit.
59 CS construit la structure de l’intérieur vers l’extérieur et de bas en haut, par la mise en
œuvre des opérations Merge et Move. Un groupe verbal combinant un verbe et un
complément propositionnel comme croire que la terre est ronde, ne peut être construit
avant que la complétive elle-même l’ait été.
60 Merge et Move partagent une propriété essentielle : ces deux opérations doivent l’une et
l’autre étendre la structure. Cette condition implique par exemple qu’un déplacement ne
peut sélectionner comme cible la position complément d’une tête déjà projetée (qui par
définition est de même niveau qu’elle). Et il n’est pas sûr que l’adjonction par mouvement
38

d’une tête à une autre tête (par exemple, l’adjonction d’une racine verbale à un affixe de
temps), qui n’étend pas la structure, soit une opération syntaxique.
61 En résumé, dans le Programme Minimaliste, les structures syntaxiques sont construites
au moyen d’une dérivation qui inclut un mécanisme pour mettre en place la structure en
constituants (Merge) et un mécanisme pour dériver les dépendances syntaxiques (Move) 8.
Sans entrer plus avant dans le détail, on voit en quoi cette approche à la formation des
structures se distingue des précédentes. Il y a mise en œuvre simultanée du lexical, du
structural et du relationnel. On ne postule plus un cadre syntaxique vide, constitué par un
ensemble de positions syntaxiques catégoriellement étiquetées et hiérarchiquement
ordonnées, dans lequel seraient insérées, puis déplacées, les unités lexicales. Une position
n’est créée qu’au moment où l’item lexical qui lui correspond est combiné avec un autre
item ou avec une structure déjà construite. Il n’existe pas de structure profonde qui
constituerait le point de départ de la dérivation. On a désormais affaire à un système
dynamique où des morceaux de structure sont fusionnés et déplacés, au fur et à mesure
que le cycle se déploie.

Économie/Localité

62 Dans le modèle des Principes et Paramètres, la réalité du construit théorique était


garantie par les prédictions qu’il autorise touchant non seulement les regroupements
typologiques et le changement diachronique, mais aussi l’acquisition. Dans les différents
articles qui fondent le Programme Minimaliste, Chomsky fait l’hypothèse que la faculté
de langage est configurée de façon optimale et que son fonctionnement est réglé par des
principes d’économie. S’il en est bien ainsi, la tâche d’apprentissage s’en trouve
grandement facilitée puisque le nombre d’options que l’apprenant doit prendre en
compte dans la construction de la grammaire de sa langue est considérablement réduit, la
situation idéale étant celle où l’apprenant n’a en réalité aucun choix puisqu’à chaque
étape, une seule option se présente à lui.
63 La référence à la notion d’économie n’est pas absolument nouvelle dans le champ
linguistique. Plusieurs linguistes structuralistes ou fonctionnalistes y ont eu recours. Le
point important pour nous est que ces chercheurs ont construit les notions d’économie et
de simplicité comme des principes constitutifs de l’objet « langage », de son architecture,
de son fonctionnement, et pas seulement comme des caractéristiques vers lesquelles doit
tendre toute théorie scientifique.
64 Conférant à la construction de la théorie un contenu réaliste, ils ont posé que ce qui est
préférable pour le linguiste est aussi ce qui est préférable pour le locuteur ou l’auditeur,
ou encore pour l’enfant en situation d’apprentissage. C’est bien ainsi que procède
Jakobson lorsqu’il fait valoir la supériorité de l’analyse componentielle• et postule la
réalité du système dichotomique binaire en phonologie (cf. Jakobson et Halle 1956 ;
Jakobson 1976). L’organisation phonologique fondée sur les traits distinctifs et le principe
binaire qui correspond à la caractérisation la plus simple et la plus économique pour le
linguiste doivent nécessairement faire partie de la connaissance inconsciente du
locuteur-auditeur et sous-tendre les opérations qu’il effectue. Ils allègent en effet
considérablement la tâche de ce dernier, en le plaçant devant d’« avantageuses situations
de choix binaires ». L’analyse componentielle permet en particulier de substituer aux 325
oppositions rendues disponibles par les 28 ou 29 phonèmes non-syllabiques de l’arabe
classique 9 oppositions binaires.
39

65 Bien que le style d’exposition et le modèle proposé diffèrent considérablement, Chomsky


n’envisage pas autrement la construction de la théorie syntaxique. Dès le début des
années 1980, la théorie générative a incorporé certains principes à connotation
économique. C’est ainsi qu’il faut interpréter le principe Éviter les pronoms qui imposait,
partout où c’était possible, de donner la préférence aux pronoms nuls• sur les pronoms
explicites, et aussi aux pronoms clitiques• sur les pronoms forts•. Les premiers articles
minimalistes ont marqué l’apparition des concepts d’économie des dérivations et
d’économie des représentations. Dans les termes de (9), les représentations d’interface,
F.L. et F.E, ne doivent contenir aucun élément que les autres systèmes ne peuvent
interpréter. Le Principe de l’Interprétation Intégrale (Principle of Full Interpretation), posant
que tout élément figurant à un niveau d’interface doit pouvoir être interprété à ce niveau,
peut être considéré comme un principe d’économie représentationnelle. Ainsi, une
représentation phonologique Ρ ne peut contenir un morphème lié qui n’a été associé à
aucun support lexical, parce qu’un tel élément ne peut recevoir d’interprétation à ce
niveau. De même, une représentation logique L ne peut pas contenir d’objets non
interprétables à ce niveau, par exemple des éléments explétifs• (comme le il impersonnel
du français) qui sont par définition dépourvus de tout contenu sémantique. Si c’est le cas,
le Principe de l’Interprétation Intégrale est violé. On admet que dans l’énoncé (13),
l’explétif il dont la présence est requise par (i) le Principe de Projection Étendu (EPP), et par
(ii) l’impossibilité en français de réaliser les sujets par un pronom nul, est « remplacé » en
Forme Logique par l’argument sujet, par l’effet d’une opération de substitution qui
produit la même configuration et obéit à la même condition de localité que la relation
construite en (11b) ou en (12a) entre l’argument sujet et sa trace (cf. Chomsky 1986) :
(13) a. Il est arrivé quelque chose de grave
b. [quelque chose de grave] est arrivé [t]
66 L’idée que tout élément présent dans une représentation d’interface doit être
interprétable par le système cognitif qui l’utilise détermine pour une part l’architecture
du dispositif et joue un rôle crucial dans le fonctionnement des dérivations. Si l’une des
deux représentations d’interface contient des traits non interprétables, la dérivation
échoue. Si par contre les deux représentations d’interface n’incluent que des traits
interprétables, la dérivation « converge ». La motivation quasiment unique des
opérations syntaxiques, des déplacements en particulier, est donc l’élimination des traits
non interprétables.
67 Poser d’autre part que les dérivations, comme les représentations, doivent satisfaire une
exigence d’économie signifie qu’à chaque étape, c’est l’option la plus économique qui doit
être sélectionnée. Cette restriction affecte tout particulièrement les opérations de
déplacement qui doivent « avoir lieu pour une raison ». Puisque l’absence de mouvement
est nécessairement moins coûteuse que le mouvement lui-même, un déplacement ne peut
avoir lieu que s’il est nécessaire à la « convergence » de la dérivation, c’est-à-dire s’il a le
statut d’une opération de « dernier recours », permettant de satisfaire l’exigence
morpho-syntaxique d’une catégorie fonctionnelle et d’effacer un trait non interprétable à
l’un des niveaux d’interface.
68 La Condition du Lien Minimal est une seconde contrainte d’économie dérivationnelle qui
énonce que, si à une étape de la dérivation, le choix existe entre deux applications de la
même opération, c’est l’option la plus « courte », celle qui met en jeu l’espace syntaxique
le plus restreint, qui doit être sélectionnée.
40

(14) Condition du Lien Minimal (MLC, cf. Chomsky 1995 : 296) α peut monter vers
une cible Κ seulement s’il n’existe pas d’opération Move β, satisfaisant le dernier
recours et prenant Κ pour cible, où β est plus près de K.
69 Chomsky discute l’exemple (15a), dans lequel le groupe nominal John s’est déplacé hors de
la proposition enchâssée en ciblant la catégorie Τ de la proposition matrice. Au point de la
dérivation où intervient cette opération, la structure de (15a) est à peu près (15b) :
(15) a. *John seems that it was told t that Mary left
b. Τ seems that it was told John that Mary left
70 Dans l’enchâssée, it vérifie le trait de Cas et le trait EPP de T. La difficulté est que it est
plus proche du Τ matrice que John. Par suite, le déplacement de John dans la proposition
racine pour satisfaire le trait EPP et le trait de Cas du Τ matrice est bloqué par MLC. On
voit que dans ce raisonnement, le calcul de la localité est opéré à partir de la catégorie Τ
dont un ou plusieurs traits doivent être vérifiés. De fait, Chomsky propose d’intégrer MLC
dans la définition même du mouvement, conçu comme Attract (ce sont les traits non
interprétables sur la catégorie cible du déplacement qui attirent les traits du terme
déplacé).
71 On peut aborder dans les mêmes termes l’agrammaticalité• de l’énoncé suivant,
impliquant le déplacement long d’un adjoint interrogatif pardessus l’argument
interrogatif sujet de la proposition enchâssée :
(16) *Comment ne sais-tu pas [qui a résolu le problème t] ?
72 L’idée générale sous-jacente à MLC est que les relations locales doivent être établies dans
l’espace syntaxique minimal dans lequel elles peuvent être satisfaites. Cette idée peut être
interprétée en termes cognitifs : la quantité de structure qui doit être explorée dans le
calcul et l’établissement d’une relation locale doit être minimisée le plus possible 9.
73 Un autre principe contraignant le fonctionnement des dérivations et explicitement
formulé par Chomsky comme un principe d’économie est que dans toutes les situations
où les opérations Merge et Move sont l’une et l’autre des options disponibles pour
satisfaire une exigence computationnelle, c’est Merge qui a la préférence. L’hypothèse que
Merge est un processus moins coûteux que Move est naturelle, puisque Move est une
opération complexe mettant en jeu deux opérations Copy et Merge. L’un des phénomènes
pour lequel cette condition est pertinente est la distribution des explétifs dans les
constructions à montée (cf. Chomsky 1995, 2001).
74 Enfin, le dispositif minimaliste inclut une notion supplémentaire réglant le
fonctionnement du cycle dérivationnel. Il s’agit de la notion de phase, introduite par
Chomsky (2001). Les phases marquent les étapes de la dérivation auxquelles les parties
internes d’un objet syntaxique deviennent inaccessibles à toute manipulation syntaxique
ultérieure. L’impénétrabilité des phases implique en particulier que tous les traits non
interprétables doivent avoir été vérifiés et éliminés au cours de la phase qui inclut la
catégorie qui les porte. Deux projections syntaxiques sont identifiées comme définissant
des phases : CP (correspondant aux propositions dans lesquelles la périphérie est activée
par la présence d’un marqueur de subordination ou d’une expression interrogatives) et vP
(v est la tête la plus haute des groupes verbaux). Seuls les termes occupant la frange de
ces domaines – la tête ou le spécificateur – sont accessibles à la computation intervenant
au cours de la phase suivante. L’hypothèse que les dérivations procèdent par phase a
évidemment pour effet de restreindre l’espace syntaxique que doit prendre en compte la
41

computation à chaque étape, pour produire des représentations d’interface bien formées
10.

75 D’autres principes d’économie ont été proposés dans la littérature. Certains chercheurs,
par exemple, ont défini un principe d’économie des structures qui impose d’associer à
chaque collection d’items lexicaux la représentation structurale la plus parcimonieuse,
celle qui implique un nombre minimal de catégories et de projections. Cette proposition
n’est pas directement compatible avec l’hypothèse de l’uniformité.
76 En bref : la grammaire est conçue comme un système computationnel permettant de faire
correspondre, à un choix d’éléments lexicaux – la numération–, par le biais d’une
dérivation optimale sélectionnant à chaque étape les opérations les plus économiques,
deux interfaces (F.L. et F.P.) avec les modules cognitifs conceptuel et phonétique. Dans ce
dispositif, les considérations d’économie fonctionnent non seulement comme principe
heuristique, guidant la construction des théories, mais aussi comme principe constitutif
de l’architecture du langage, une propriété de l’objet lui-même.

En résumé

77 La caractérisation minimaliste du langage comme un objet « parfait » est au premier


abord difficilement conciliable avec l’idée, intégrée au modèle des Principes et
Paramètres, que les principes contraignant les grammaires possibles et l’objet construit
lui-même doivent être référés à la biologie. On peut en effet se demander ce qu’il y a de
biologique dans les caractéristiques parfaites que Chomsky décèle dans le langage –
l’économie dérivationnelle, l’économie structurale, le caractère motivé de toute
opération... Dans un entretien avec Adriana Belletti et Luigi Rizzi, Chomsky envisage deux
réponses possibles à cette objection (cf. Chomsky 2002). La première consisterait à
prendre pour acquis que le langage, bien qu’étant un objet naturel, se distingue des autres
systèmes biologiques par des propriétés spécifiques, propriétés qui pourraient en
définitive être rapportées à son caractère combinatoire. La seconde, plus ambitieuse et
plus risquée, serait que le minimalisme de substance est également pertinent pour les
autres systèmes biologiques et que les questions minimalistes peuvent également être
posées à propos de ces systèmes.

Extensions
78 Quelle forme peut ou doit prendre le programme cognitif lorsqu’il prend le langage pour
objet ? On sait qu’il n’existe aujourd’hui sur cette question aucun consensus entre les
linguistes, les psychologues et les neurolinguistes, ni même entre les linguistes eux-
mêmes. Parmi eux, certains ont considéré qu’aucune théorie existante ne satisfaisait
l’exigence cognitive et qu’un champ d’étude spécifique, entièrement nouveau, devait être
défini. C’est la position adoptée par Langacker (1987) qui a développé un modèle de
description, la « grammaire cognitive », laquelle s’impose de ne recourir qu’à des notions
et à des principes directement interprétables en termes psychologiques et mentaux. Il
faut admettre que la distinction « figure »/« ground » que l’on trouve dans son dispositif
comme principe psychologique moteur de l’activité langagière ou sa théorie de la
catégorisation ne suffisent pas à fonder une linguistique nouvelle. Il doit être clair
également que pour décider de la pertinence cognitive d’une théorie, c’est l’ensemble du
dispositif qu’il faut considérer, et non pas telle ou telle caractéristique isolée. Or, la
42

grammaire de Langacker dit fort peu sur le rôle de la morphologie, sur la variation
linguistique, sur le processus d’acquisition.
79 La présentation qui précède a montré que, par bien des aspects, les questions
minimalistes sont aussi des questions cognitivement pertinentes et que les solutions
proposées sont le plus souvent interprétables en termes cognitifs. Ce que propose le
Programme Minimaliste peut donc légitimement être considéré comme un modèle
(abstrait) de la cognition linguistique. Dans cette section, je me propose d’évoquer
certaines directions de recherche, potentiellement pertinentes dans une perspective
cognitive, qui ont été jusqu’ici laissées en suspens ou ignorées par la recherche
minimaliste.

Traits formels vs. catégories syntaxiques

80 Il est parfois difficile d’évaluer la portée de certaines modifications introduites par le


Programme Minimaliste : transpositions d’une hypothèse classique dans un cadre plus
contraint ou innovations réelles ? L’évaluation ne peut se faire, dans chaque cas
particulier, qu’en étudiant les prédictions empiriques ou les solutions nouvelles rendues
accessibles par le modèle. La théorie du mouvement par copie, par exemple, même si elle
développe une idée ancienne, fait partie de la deuxième catégorie (cf. Chomsky 1993).
Mais il n’est pas certain que les diverses questions posées dans le cadre du modèle
précédent, et résolues en faisant appel à l’interaction de principes généraux avec une
collection de paramètres attachés aux catégories fonctionnelles, puissent recevoir une
solution satisfaisante s’inscrivant dans les limites conceptuelles et techniques étroites
que s’est fixées l’approche minimaliste : vérification phasale et élimination de traits non
interprétables par mouvement ou insertion d’items portant les mêmes traits. On doit se
demander si l’adoption d’une syntaxe fondée sur les traits n’est qu’un artifice ou au
contraire ouvre la voie à des analyses substantiellement différentes.
81 Uriagereka (1999) fournit un premier élément de réponse à cette question. Il observe que,
dans le Programme Minimaliste, la notion de module perd de sa pertinence et que la
distinction entre les différents modules est remplacée par une distinction entre différents
types de traits. Or ce déplacement n’est pas sans conséquence :
« Alors qu’un module du Cas permet de dire ce que l’on veut sur son
fonctionnement interne – s’il invoque la c-commande, l’adjacence•, la
directionnalité –, un trait de Cas est un formatif du système et ne peut être
manipulé qu’en fonction des lois, quelles qu’elles soient, auxquelles le système dans
son entier est soumis. Ainsi, cela n’aurait aucun sens de dire que (seuls) les traits de
Cas sont assignés sous adjacence ; par contre, cela avait un sens de dire qu’une
configuration d’assignation casuelle• qui ne satisfait pas l’adjacence entre le terme
assigneur et le terme marqué est mal formée. La conception minimaliste est
dramatiquement plus limitée. » (Uriagereka 1999 : 268)
82 Ce qui vaut pour les traits de Cas vaut aussi pour les autres traits manipulés par le
système computationnel.
83 Un autre aspect par lequel une syntaxe fondée sur les traits se distingue potentiellement
des autres approches concerne la définition même de catégorie grammaticale. Si les traits
formels interprétables ou non interprétables sont les unités directement impliquées dans
le fonctionnement syntaxique, il devient possible de reconsidérer la conception des
catégories syntaxiques adoptée dans le modèle des Principes et Paramètres, qui est pour
l’essentiel la conception traditionnelle.
43

84 Les traits, non les catégories, sont en effet désormais les unités qui se déplacent
(lorsqu’elles sont attirées par un autre trait, entraînant avec elles l’expression qui les
porte). Ce sont aussi les unités qui sont effacées, ce qui suppose qu’une catégorie conserve
son identité et donc son label lorsqu’elle s’est défaite des traits non interprétables qui lui
avaient été assignés.
85 Cette conception ouvre des perspectives nouvelles sur l’acquisition, le changement
linguistique, la variation. Le processus d’acquisition consiste à identifier la collection de
traits fonctionnels assignés à chaque item lexical et formant grammatical, à découvrir
leurs exigences et leur capacité à déclencher le mouvement. Le changement diachronique
se ramène au fait que la composition en traits d’un item ou les propriétés de ces traits se
sont modifiées. Si ce point de vue est correct, un changement ne peut être exclusivement
syntaxique, il est aussi lexical et morphologique. La variation typologique peut également
être prise en charge sur cette base.
86 Un prolongement naturel de ces idées consisterait à adopter l’une des propositions de la
morphologie distribuée (cf. Marantz 1997) et à poser que la variation tient aux diverses
combinaisons de traits réalisées par les langues sur telle ou telle catégorie fonctionnelle.
Toute langue en effet opère un choix dans un ensemble de propriétés ou de traits
universellement disponibles. La catégorie du nombre en latin distingue seulement entre
singulier et pluriel et ignore le duel. Il n’y a aucune raison, conceptuelle ou empirique, de
supposer que la catégorie du duel est présente de façon sous-jacente dans le système
nominal du latin. Mais la langue choisit aussi la façon dont certains traits vont être
compactés en morphèmes occupant les nœuds terminaux de la syntaxe. Par exemple, les
désinences nominales du latin présentent une combinaison des traits de cas, de genre et
de nombre. Une part de la variation linguistique peut être dérivée de la réalisation d’un
trait sur une catégorie fonctionnelle plutôt que sur une autre, dans un modèle où des
comportements syntaxiques spécifiques sont associés à la présence ou à l’absence d’un
trait donné11. Cette approche se distingue d’une analyse fondée sur l’hypothèse de
l’uniformité, dans laquelle à chaque dimension grammaticale correspond une catégorie
fonctionnelle autonome.

L’architecture de la faculté de langage

87 Parmi les exigences imposées au linguiste par la perspective cognitive, il y a, me semble-t-


il, celle de découvrir l’architecture de la faculté de langage. Il ne peut plus désormais
éviter de prendre en compte la diversité des composantes et leur articulation. C’est pour
cette raison qu’il est difficile aujourd’hui d’évaluer l’incidence cognitive du Programme
Minimaliste. Il faudrait pour mener à bien cette évaluation adjoindre à la théorie
syntaxique une théorie morphologique et phonologique et une théorie sémantique
compatibles et se demander si, à propos de ces domaines, il est possible de poser des
questions minimalistes d’économie des dérivations et des représentations. En bref, pour
que ce programme puisse être considéré comme un modèle adéquat de la cognition
linguistique, c’est l’ensemble de la grammaire, et pas seulement la syntaxe, qui doivent
satisfaire aux exigences minimalistes.
44

L’articulation de la morphologie à la syntaxe

88 Le fonctionnement de la composante morphologique et son mode d’articulation à la


syntaxe soulèvent aussi des questions spécifiques cognitivement pertinentes. On sait que
les concepts impliqués dims la description et le raisonnement morphologiques n’ont
souvent pas d’équivalent dans la pratique syntaxique. C’est le cas par exemple des notions
de « paradigme », de « supplétion• », d’« allomorphie• », de « productivité• ». À l’origine
du travail du morphologue, il y a l’observation que les mots varient formellement. Le
syntacticien (s’il est chomskien) ne considère pas qu’une même phrase puisse prendre
plusieurs formes différentes, il ne construit pas davantage des « paradigmes de phrases »
et se demande rarement si une construction est plus fréquente qu’une autre. Ces
divergences méthodologiques, loin d’être superficielles, reflètent des différences de
substance entre les objets étudiés. Il semble que, confronté à la langue maternelle,
l’enfant n’ait d’autre choix que d’en apprendre les paradigmes. C’est dire que l’argument
de la pauvreté du stimulus qui, dans le domaine syntaxique, sert à fonder l’hypothèse de
la G.U., n’a pas cours en morphologie. Il paraît absolument impossible d’isoler des
universaux morphologiques à partir des données d’une seule langue et, inversement, la
notion même d’universel paraît de peu d’utilité dans la caractérisation du processus
d’apprentissage morphologique.
89 Il faut se garder de conclure, cependant, que les comportements et les régularités
morphologiques ne peuvent rien révéler de G.U. Hors de la mouvance générativiste, les
chercheurs ont fait porter l’effort sur la nature et l’organisation des classes flexionnelles•.
La seule existence de plusieurs paradigmes de déclinaisons ou de conjugaisons indique
déjà qu’à une même dimension grammaticale peuvent être associés des codages
morphologiques différents. Inversement, il existe dans les langues des « morphèmes-
valises » qui réalisent conjointement plusieurs dimensions grammaticales – c’est le cas
des déclinaisons nominales du latin. Or il semble exister dans une langue donnée L une
limite supérieure sur le nombre de paradigmes compatibles avec les ressources
flexionnelles dont dispose L, caractérisée par la condition que Carstairs (1983) appelle
Paradigm Economy. Une condition analogue contribue à limiter les situations d’homonymie
fonctionnelle dans les paradigmes. Ces résultats indiquent que des questions minimalistes
peuvent être posées à propos de la morphologie et qu’il est possible, dans ce domaine
aussi, de donner un contenu à la notion d’économie. Leur pertinence ne peut pas non plus
être ignorée par la recherche cognitive. Ils posent en effet la question du mode de
stockage des paradigmes dans le cerveau et de leur accessibilité. Les paradigmes sont-ils
emmagasinés tels quels dans la mémoire à long terme, sous la forme de listes structurées
de formes morphologiquement complexes – ce qui devrait constituer une surcharge
importante pour cette dernière – ou les objets stockés sont-ils les racines et les affixes ?
Sous quelle forme sont-ils accessibles à la mémoire active ?
90 On sait que toutes les théories contemporaines de la morphologie n’accordent pas une
importance décisive à la notion de paradigme. C’est le cas des analyses fondées sur les
morphèmes, à laquelle se rattachent la plupart des recherches génératives en
morphologie. Or, au sein de ce courant, deux conceptions s’affrontent touchant la
structure interne des mots complexes et leur dérivation. Selkirk (1982) insiste sur le fait
que les principes réglant la syntaxe interne des mots ne coïncident pas avec ceux qui
règlent la syntaxe des phrases. Selon Marantz (1997), au contraire, on peut établir un
parallélisme entre les « places » accueillant les affixes à l’intérieur des mots et les
45

positions occupées par les mots à l’intérieur des phrases. Dans cette conception défendue
par la morphologie distribuée, la syntaxe ne manipule pas des mots, mais des morphèmes
fonctionnels et des racines (en fait, elle manipule les matrices de traits correspondant aux
morphèmes et aux racines, l’insertion lexicale n’intervenant que tardivement).
Dérivation et flexion sont elles-mêmes des processus syntaxiques, traités par le système
computationnel. C’est au cours de la dérivation syntaxique que sont construits les mots
morphologiquement complexes, par la même opération élémentaire, Merge, qui est à
l’œuvre dans la construction des constituants et des phrases et qui se borne à combiner
deux nœuds terminaux (ou un nœud terminal et un constituant déjà construit) pour
former une structure binaire branchante. Dans plusieurs travaux récents, Marantz
s’attache à montrer que les approches dans lesquelles la notion de « morphème »
constitue l’unité fondamentale de la langue et où tous les mots se décomposent
obligatoirement en racines et éléments fonctionnels se trouvent indirectement
confirmées par les expériences neurolinguistiques portant sur la reconnaissance des
mots. La technique MEG (magnétoencéphalographie), en particulier, permet de mesurer
une opération mentale automatique, comme l’accès au lexique, et de tester des
hypothèses sur le traitement de l’information lexicale. Utilisant cette technique,
Pylkkänen et Marantz (2003) établissent qu’il faut distinguer plusieurs étapes dans la
reconnaissance des mots (qui mettent en jeu des régions différentes du cerveau et
n’excèdent pas conjointement une durée de 400 nanosecondes) : une première étape,
sensible à la fréquence et à la séquence des sons dans le mot, mais pas à la fréquence
lexicale, une deuxième étape correspondant à l’activation du lexique mental, sensible à la
fréquence lexicale, c’est-à-dire au nombre des mots voisins qui « sonnent » comme le
mot-cible. Il apparaît que si la probabilité phonotactique• facilite le traitement des unités
de niveau inférieur au mot, une densité élevée de mots proches inhibe au contraire la
reconnaissance du mot-cible. Leur découverte est qu’une caractérisation adéquate des
familles pertinentes dans la deuxième étape du processus suppose qu’une distinction soit
opérée entre les items lexicaux qui sont morphologiquement reliés – comme acid, acidic,
acidity – et ceux qui n’ont de ressemblance que phonologique – cut, cup ou brand, brandy.
Lorsqu’il appartient à une famille morphologique authentique dont l’un des membres a
été évoqué de façon récente, la reconnaissance du mot-cible n’est pas retardée, elle est au
contraire facilitée. Par contre, une densité élevée de mots sans lien morphologique inhibe
plutôt la reconnaissance du mot-cible.

Interfaces

91 Il est à peu près certain d’autre part que les interfaces du Programme Minimaliste
recouvrent non pas un niveau unique, comme le laisse entendre la présentation ci-dessus,
mais un ensemble de niveaux reliés entre eux par des règles de correspondance, de
nature dérivationnelle ou non. Prenons l’exemple de l’interface de la faculté de langage
avec le système acoustique-articulatoire. Le mapping• des signaux acoustiques sur les
représentations lexicales est un procesus complexe dont on peut penser qu’il est
médiatisé par plusieurs niveaux de représentation. Dans ce processus, il est nécessaire de
distinguer clairement les propriétés des niveaux phonétiques et phonologiques. Comme
le note Phillips (à paraître) :
« À un bout du processus de perception de la parole, dans le système auditif
périphérique, on trouve une représentation relativement fidèle de l’acoustique de
la parole, dont on s’attend à ce qu’elle ne soit pas substantiellement modifiée par
une exposition à des langues différentes. À l’autre bout du processus, on trouve les
46

représentations phonologiques abstraites discrètes, qui peuvent être manipulées


par des processus symboliques. Les représentations phonologiques diffèrent
substantiellement entre les locuteurs de langues différentes et ne peuvent être
dérivées par simple transformation des représentations acoustiques ou phonétiques
12

92 Le point important pour notre propos est que certaines expériences ont établi avec succès
que les catégories phonologiques sont accessibles au cortex auditif (même si on ne peut
pas dire comment elles sont codées dans le cerveau). On sait par exemple que les syllabes
du japonais se conforment à une structure (C) V (N) stricte, alors que le français et
l’anglais s’autorisent une liberté beaucoup plus grande dans la syllabification. Cette
propriété explique directement le traitement japonais des mots d’emprunt dans lesquels
des voyelles sont insérées entre chaque consonne. Or Dupoux et alii (1999) ont pu établir
que les locuteurs du japonais perçoivent le mot inventé ebzo comme ebuzo, alors que les
locuteurs du français ne manifestent aucune difficulté perceptuelle dans la
différenciation de ces deux mots. Cette asymétrie est le reflet des gabarits phonologiques
syllabiques mis à la disposition des locuteurs par la langue maternelle. Ce phénomène de
« surdité phonologique » est interprété par Dupoux et ses étudiants comme un indice que
l’apprentissage d’une langue recouvre en réalité l’oubli définitif des options rendues
disponibles par G.U., mais non sélectionnées par la langue à laquelle l’enfant est exposé.
Mais il a pour nous un intérêt plus immédiat. Il indique en effet que les catégories
phonologiques interviennent directement dans le processus de perception de la parole, ce
qui ne doit pas étonner outre mesure, mais montre que l’interface F.P du Programme
Minimaliste se compose d’un ensemble de niveaux de représentation incluant le niveau
acoustique lui-même et ne saurait se réduire à une représentation unique de nature
phonologique.
93 La discussion qui précède a montré que sur certaines questions fondamentales qui
engagent l’architecture même du dispositif – l’articulation de la syntaxe et de la
morphologie, la nature de l’interface entre la faculté de langage et le système
articulatoire-perceptif –, des incertitudes demeurent. Plusieurs conceptions théoriques
s’affrontent, entre lesquelles il est difficile de trancher empiriquement. Or il est clair que
chacune de ces questions, cruciale si l’on adopte une perspective minimaliste, a aussi
potentiellement des implications cognitives de grande portée13. Si l’on veut satisfaire les
exigences minimales d’une théorie cognitive, il est absolument essentiel de décider si les
interfaces constituent des niveaux uniques ou au contraire des superpositions de niveaux.
Ou si la morphologie détermine les comportements syntaxiques ou ne fait qu’en donner
une interprétation ou une représentation. Ou si la syntaxe des phrases et la syntaxe des
mots obéissent à des principes organisationnels identiques. Si l’on admet, comme le font
les grammaires chomskiennes depuis les origines, que les langues naturelles impliquent
des fonctions génératives récursives, cette dernière question revient à se demander si la
syntaxe est la seule source de générativité dans le langage. Nous avons vu plus haut que
Marantz donne à cette question une réponse positive et admet que syntaxe et
morphologie mettent en jeu la même dérivation et recourent aux mêmes opérations,
Merge en particulier. Jackendoff (2002) répond par la négative et propose que le dispositif
grammatical se présente comme un ensemble de composants génératifs autonomes,
fonctionnant en parallèle et interagissant par des relations d’interface14.
47

En guise de conclusion : cognitif vs. grammatical


94 On sait que pour les linguistes fonctionnalistes, la structure interne des langues et leur
grammaire sont pour une large part déterminées par les fonctions de communication et
d’interaction qu’elles remplissent. Puisqu’il s’agit de clarifier la relation entre formes et
fonctions et que seules les fonctions influent sur la structure grammaticale, le
fonctionnalisme est conduit, à travers le langage, à traiter de la signification et des
représentations symboliques ou mentales. C’est pouquoi, selon ses représentants, il prend
place naturellement dans la constellation cognitive. Une linguistique centrée sur l’étude
du sens et de la signification est même la seule, selon eux, à posséder une légitimité
cognitive. Le privilège accordé à la dimension sémantique dans l’approche fonctionnaliste
de la cognition linguistique se marque dans l’importance considérable attachée à
certaines questions, comme celle qui a intéressé au siècle dernier Sapir et Whorf mais qui
fait partie du débat philosophique sur le langage depuis au moins Humboldt et Herder :
dans quelle mesure l’acquisition d’une langue particulière plutôt que d’une autre affecte
la façon dont l’enfant et l’adulte structurent et conceptualisent les différents aspects du
monde ? En particulier, puisque la plupart des mots dans les langues naturelles sont
« catégorisants », le projet est d’essayer d’atteindre et de reconstruire à travers eux des
catégories cognitives sous-jacentes. L’intérêt de ces recherches n’est pas en question.
Mais elles n’épuisent pas la complexité de l’objet langage. Et surtout, l’autre dimension
définitoire du projet cognitiviste – le rôle de la computation dans le traitement de
l’information – est quasi absente.
95 Dans la conception qui a été défendue ici, la complexité des phénomènes linguistiques est
rapportée aux catégories conceptuelles et formelles qui sont mises à disposition par la
faculté de langage et au dispositif complexe qui les organise. La cognition linguistique
englobe les processus – syntaxiques, morphologiques, sémantiques et aussi lexicaux – qui
partagent la propriété de non-perméabilité aux croyances, aux informations, aux
intentions qui relèvent des autres capacités cognitives. En bref, il faut distinguer
soigneusement entre le grammatical et le cognitif (au sens où l’entendent les
fonctionnalistes), entre le syntaxique et le conceptuel. Poser que cette distinction est
nécessaire, c’est du même coup reconnaître qu’il existe une organisation linguistique
spécifique, distincte en particulier des autres systèmes cognitifs et des systèmes
biologiques.

NOTES
1. À (1), on peut opposer la caractérisation proposée par le Nouveau Petit Robert (2002),
d’essence fonctionnaliste : « processus par lequel un organisme acquiert la conscience des
événements et objets de son environnement. »
2. Le texte fondateur du modèle des Principes et Paramètres est Chomsky (1981). L’article de
Chomsky et Lasnik dans Chomsky (1995) présente un état final de cette théorie, intégrant les
48

développements des années 1980 et 1990. Pour une introduction, on peut consulter en français la
préface et le postscript de Chomsky (1987), et, en anglais, Ouhalla (1999).
3. Pour une solution à ce paradoxe, cf. Nash et Rouveret (2002).
4. Une difficulté, purement pratique, rencontrée par l’approche paramétrique a été soulignée par
Clark (1992). Elle réside dans le fait que la grammaire servant d’input est ambiguë. Les
chercheurs travaillant sur l’acquisition ont donc tenté d’identifier pour la fixation de la valeur de
chaque paramètre des déclencheurs non ambigus, permettant à l’enfant de construire la
grammaire-cible le plus rapidement possible (voir par exemple le travail de Watanabe 1994 sur
l’acquisition des paramètres syntaxiques déclenchant le mouvement du verbe vers T et/ou vers
Agr). La tâche n’est pas toujours facile.
5. L’article qui donne le tableau le plus complet du Programme Minimaliste est le chapitre 4 de
Chomsky (1995), « Categories and Transformations ». Il doit être complété par Chomsky (2001),
« Derivation by Phase ». Pour une bonne introduction au minimalisme, on se reportera à Ouhalla
(1999), part IV. Le beau livre de Jean-Yves Pollock (1997) est plus qu’une introduction, un état des
lieux de la théorie à la fin des années 1990.
6. La présentation précédente doit être nuancée. C’est en effet une épistémologie antiminmaliste
qui est développée dans le passage suivant d’Aspects, cité par Milner (2002 : 229) : « Lorsque les
empiristes s’efforcent de montrer comment les hypothèses touchant un dispositif d’acquisition
linguistique peuvent être réduites au minimum conceptuel, leur tentative est tout à fait hors de
propos. Le vrai problème est justement de développer sur la structure une hypothèse qui soit
assez riche pour rendre compte de l’acquisition linguistique... » (Chomsky 1971 :84-85). Milner
observe que cette critique ne concerne pas seulement le processus d’acquisition et pas seulement
l’empirisme ; elle concerne également la construction de la théorie grammaticale, et vise aussi
certaines versions du structuralisme. Leur parcimonie conceptuelle condamnait ces dernières à
l’impuissance dans toutes les situations où les relations étudiées, les relations syntaxiques par
exemple, ne pouvaient pas s’inscrire dans un simple tableau d’oppositions. On peut noter qu’à
l’époque d’Aspects, il s’agissait surtout de sauver les phénomènes, quitte à s’écarter de l’idéal
minimaliste, en « construisant des systèmes d’hypothèses à la fois nombreuses et réfutables ».
C’est bien là la stratégie que suivent les sciences gailéennes. C’est aussi celle qui a été adoptée
tout au long des années 1980 et 1990 par les chercheurs travaillant dans le cadre du modèle des
Principes et Paramètres. Le Programme Minimaliste représente donc bien un renversement
majeur. Mais la situation est aujourd’hui à l’opposé de ce qu’elle était dans les années 1960. Du
fait de l’accumulation de généralisations empiriques sur une multiplicité de langues et de la
multiplication d’outils conceptuels sophistiqués, l’épistémologie minimaliste retrouve sa
légitimité. C’est sur ces résultats que s’exerce la théorisation minimaliste. L’exigence minimaliste
a donc toujours été présente, mais elle est limitée de façon absolue par la nécessité de préserver
le contenu empirique de la linguistique, science galiléenne. Milner défend un point de vue
différent du nôtre, puisque pour lui, « le minimalisme épistémologique est radicalement
antigaliléen », cf. Milner (2002 : 229).
7. C’est là le contenu du Principe de l’Interprétation Intégrale mentionné page 56.
8. Une autre opération élémentaire s’est adjointe Move à dans les développements récents - Agree
(« Accorder ») - dont nous ne dirons rien ici.
9. La MLC est la transposition en termes dérivationnels de la Condition de Minimalité que Rizzi
(1990) avait formulée en termes représentationnels. Cinque (1990) et Rizzi (1990) ont montré
qu’au regard de cette condition de localité, tous les termes « intervenants » n’ont pas le même
effet de blocage. Les expressions interrogatives contenant une expression nominale, telles que
quel livre, dans quelle librairie sont plus facilement extractables que les quantificateurs·
interrogatifs (quoi, où). D’autre part, un argument objet interrogatif intervenant bloque le
déplacement d’un adjoint interrogatif, mais l’inverse n’est pas vrai :
(i) a. Quel problème ne sais-tu pas [comment résoudre tt] ?
49

b. *Comment ne sais-tu pas [quel problème résoudre tt] ?


Telle qu’elle est formulée en (14), la MLC n’est pas à même d’opérer ces distinctions.
10. Dans les versions les plus récentes, procèdent par phases non seulement la dérivation
syntaxique proprement dite, mais aussi l’épellation phonologique, la construction de la Forme
Logique et l’accès à la numération.
11. Voir Nash et Rouveret (2002) pour une analyse de la cliticisation fondée sur cette conception.
12. Phillips (à paraître) observe que les représentations des catégories phonologiques, unités
symboliques et discrètes, sont beaucoup plus abstraites que les représentations phonétiques, plus
uniformes d’une langue à l’autre et soumises à peu près aux mêmes processus dans des langues
différentes (effacement, neutralisation, assimilation, dissimilation...). S’interrogeant sur l’apport
de la technique EEG (électroencéphalographie), il observe qu’elle révèle une grande diversité
dans le codage phonétique et la représentation des sons de la parole dans le cerveau, mais nous
apprend beaucoup moins sur le codage des propriétés phonologiques. Il conclut qu’avant de faire
des tests sur les locuteurs, il est nécessaire de se faire une idée plus exacte sur la forme que
pourraient prendre éventuellement les représentations phonologiques dans le cerveau.
13. Deux questions fondamentales qui intéressent directement la cognition linguistique n’ont pas
été abordées ici faute de place. La première concerne la « réalité » des dérivations syntaxiques. Le
système computationnel des syntacticiens crée les arbres de bas en haut et donc (pour le
français) de droite à gauche. L’analyseur syntaxique doit au contraire procéder de gauche à
droite. Phillips (1996) développe une théorie ambitieuse qui permet de résoudre le paradoxe.
Pour une présentation, voir Rouveret et Schlenker (1998 :1517). Plus généralement, des
recherches récentes ont montré qu’il n’est pas souhaitable de dissocier la caractérsation du
savoir syntaxique abstrait des individus des procédures de construction de la structure dans la
compréhension et la production en temps réel. Or ces procédures sont clairement de nature
dérivationnelle. La seconde question est celle de l’origine et de l’évolution du langage. Chomsky
s’est exprimé pour la première fois sur ce point dans Hauser, Chomsky et Fitch (2002).
14. Selon Jackendoff, la syntaxe, la morphologie, la sémantique constituent des composants
autonomes, mis en relation par des règles de correspondance analogues à celles qui associent les
représentations phonétiques et le système perceptuel-moteur ou les représentations logiques et
le système conceptuel. Malheureusement, ces règles de correspondance sont rarement
explicitées. Et, contrairement au Programme Minimaliste qui s’attache à réduire drastiquement
le nombre des possibilités, la proposition de Jackendoff les accroît et génère de multiples
redondances entre les différentes dérivations œuvrant en parallèle.

AUTEUR
ALAIN ROUVERET
Directeur de recherche au CNRS et directeur d’études à l’École des hautes études en sciences
sociales, Centre de recherches linguistiques sur l’Asie Orientale (UMR 8563, EHESS/CNRS, Paris).
50

Les grammaires cognitives


Bernard Victorri

Introduction
1 On regroupe sous l’appellation « grammaires cognitives » un courant de recherche en
linguistique qui est né dans les années 1980, sur la côte Ouest des Etats-Unis. Les
principaux tenants de ce courant l’appellent plus volontiers « linguistique cognitive »,
mais nous avons ici préféré éviter ce terme, qui peut porter à confusion puisque d’autres
courants, radicalement opposés, comme celui des grammaires génératives, revendiquent
aussi cette étiquette1.
2 Ce courant a rapidement acquis une large audience internationale, grâce notamment aux
textes fondateurs de quatre auteurs : Ronald Langacker, avec le premier tome de
Foundations of Cognitive Grammar (Langacker 1987) ; Leonard Talmy, avec deux articles
essentiels : « Lorce Dynamics in Language and Thought » et « The Relation of Grammar to
Cognition » (Talmy 1988a et 1988b), articles repris dans l’ouvrage récent Towards a Cognitive
Semantics (Talmy 2000) ; Georges Lakoff, avec Women, Fire and Dangerous Things (Lakoff
1987) ; et enfin Gilles Fauconnier, avec un ouvrage écrit d’abord en français, Espaces
mentaux (Fauconnier 1984), aussitôt traduit en anglais (Fauconnier 1985), et réédité par la
suite avec une nouvelle préface (Fauconnier 1994).
3 Ce courant s’est solidement structuré avec notamment la création d’une association
(International Cognitive Linguistics Association) qui organise une conférence
internationale régulière, édite une revue (Cognitive Linguistics) depuis 1990, et une
collection (« Cognitive Linguistics Research », une quinzaine d’ouvrages parus à ce jour).
Il s’est étendu et renforcé, avec un grand nombre d’études portant sur les langues les plus
diverses, et aussi de nouvelles contributions théoriques qui ont élargi les approches
fondatrices : on peut ainsi citer, entre autres, les ouvrages d’Eve Sweetser (From Etymology
to Pragmatics, 1990), d’Adele Goldberg (Constructions – a Construction GrammarApproach to
Argument Structure, 1995), ou de Mark Turner (The Literary Mind, 1996).
51

4 Les fondements théoriques des grammaires cognitives reposent sur quelques principes,
lesquels donnent à ce courant son unité et son originalité. En premier lieu, l’activité de
langage, tout en ayant ses spécificités, doit être régie par des mécanismes cognitifs généraux,
à l’œuvre dans toutes les activités cognitives. Ainsi, par exemple, comme nous aurons
l’occasion de le voir plus en détail, l’opposition gestaltiste entre figure et fond se retrouve
dans l’organisation des énoncés linguistiques. Plus généralement, la perception visuelle et
l’expérience sensori-motrice jouent un rôle central dans la compréhension de la structure
sémantique du langage.
5 Il y a donc sur ce point une opposition radicale avec les conceptions fodorienne et
chomskienne des relations entre langage et cognition. Le langage n’est pas une faculté
autonome innée, dont les propriétés computationnelles seraient uniques et singulières,
sans équivalent dans le reste du système cognitif. Comme l’écrit Langacker (1987 : 12-13) :
« Le langage est partie intégrante de la cognition humaine. Pour rendre compte de
la structure linguistique, il faut donc se rattacher à ce que l’on connaît des
processus cognitifs en général, même si l’on fait l’hypothèse d’un « module »
spécifique du langage (Fodor 1983) ou d’une faculté de langage [en français dans le
texte] innée. Si une telle faculté existe, elle est malgré tout englobée dans un cadre
général de nature psychologique, car elle est le fruit de l’évolution et de la mise en
place de structures d’origine moins spécialisée. Même si les plans d’élaboration des
capacités langagières sont génétiquement codés dans l’organisme humain, leur
réalisation comme système linguistique complètement spécifié au cours de
l’acquisition du langage et leur implementation dans l’utilisation quotidienne du
langage dépendent clairement de l’expérience et sont inextricablement liées à des
phénomènes psychologiques de nature non spécifiquement linguistique. Il n’y a
donc aucun argument solide en laveur d’une dichotomie radicale entre l’aptitude
linguistique et les autres aspects de l’activité cognitive. Au lieu de se raccrocher au
moindre indice confortant à première vue la thèse de la singularité et de
l’isolement du langage, il vaudrait mieux travailler plus sérieusement à
l’intégration des acquis de la linguistique et de la psychologie cognitive. » (Traduit
par B. Victorri)
6 En conséquence, les grammaires cognitives rejettent totalement la primauté et
l’autonomie accordées par les grammaires génératives à la syntaxe. L’étude des structures
syntaxiques n’est pas une finalité en soi, qui permettrait de découvrir l’essence même du
langage. Au contraire, les constructions syntaxiques sont, au même titre que les autres
éléments constitutifs des langues (les unités lexicales et grammaticales), des structures
symboliques, porteuses de sens, qui contribuent à la signification globale des énoncés.
7 C’est donc la sémantique qui est placée au cœur du dispositif. La finalité du langage est de
construire des structures sémantiques complexes, que Talmy appelle « représentations
cognitives », Langacker « structures conceptuelles » et Fauconnier « espaces mentaux ».
L’étude de la grammaire consiste à rendre compte de la manière dont les unités
linguistiques, sortes de « briques » élémentaires symboliques, se combinent pour
produire des représentations complexes. Chaque différence de forme correspond à des
différences dans la représentation construite. Ainsi, pour Langacker (1987 : 39), les deux
énoncés suivants n’ont pas le même sens :
(1) He sent a letter to Susan
(2) He sent Susan a letter
8 Même s’ils décrivent le même événement, ils ne le présentent pas de la même manière :
l’énoncé (1), à cause de la préposition to, met en relief la trajectoire de la lettre, alors que
l’énoncé (2) met l’accent sur le résultat de l’action, la possession de la lettre par Susan.
52

Ces différences de focalisation (de « profilage », dans la terminologie de Langacker)


doivent faire partie intégrante de la description sémantique de ces deux énoncés. Deux
paraphrases, aussi proches soient-elles, n’ont donc pas la même représentation
sémantique associée. A fortiori, deux énoncés de deux langues différentes sont
irréductibles l’un à l’autre : comme on le voit, on est à cent lieux de la thèse chomskienne
d’une « grammaire universelle » commune à toutes les langues, dont la diversité
apparente se réduirait à de simples différences de valeurs d’un petit nombre de
paramètres. Cela étant, il existe aussi pour les grammaires cognitives des aspects
universels du langage : ce sont ces mécanismes cognitifs généraux qui sont à l’œuvre
quelle que soit la langue, et qui s’appliquent au matériau linguistique spécifique de
chacune d’elles.
9 Les relations entre langage et cognition ne sont pas à sens unique. Si la connaissance
d’autres activités cognitives, comme la perception, permet de mieux comprendre des
phénomènes purement linguistiques, inversement l’étude du langage peut révéler des
modes de fonctionnement qui s’appliquent à d’autres activités cognitives. La linguistique
peut donc aider, en retour, à mieux comprendre le fonctionnement de l’esprit. C’est ainsi
notamment que Lakoff défend l’idée que le mécanisme de la métaphore, loin de se limiter à
un phénomène observable dans le langage, constitue en fait un mécanisme cognitif très
général, à l’œuvre dans tous les domaines de la pensée, y compris le développement des
sciences mathématiques (Lakoff et Nuñez 2000). De même, Fauconnier (1997) considère
que sa théorie des espaces mentaux peut rendre compte des opérations impliquées dans
le raisonnement en général.
10 Il n’est bien sûr pas possible ici de décrire l’ensemble des travaux développés ces vingt
dernières années dans le cadre des grammaires cognitives. Nous avons donc choisi de
nous centrer sur quelques aspects, particulièrement significatifs, qui, du moins nous
l’espérons, donnent un aperçu de l’étendue et de la richesse de cette approche. Il n’est pas
possible non plus de présenter individuellement les travaux des divers auteurs ; nous
allons nous appuyer tantôt sur l’un, tantôt sur un autre, de manière à montrer avant tout
la cohérence et l’unité de ce courant de pensée, au risque de gommer les différences,
parfois importantes, entre leurs approches respectives.

Le sens grammatical
11 S’appuyant sur la distinction classique pour les unités linguistiques entre classes ouvertes
(noms, verbes, etc.) et classes fermées (prépositions, déterminants, etc.), Talmy (2000, vol.
I : 21) définit deux « sous-systèmes » au sein des langues, qui ont des fonctions
sémantiques nettement différenciées : le sous-système grammatical, qui détermine la
structure de la représentation cognitive évoquée par un énoncé, et le sous-système
lexical, qui en détermine le contenu.
12 Le sous-système grammatical, qui fait l’objet de cette section, contient donc les
morphèmes grammaticaux (libres ou liés), tels que les prépositions, les conjonctions, les
flexions nominales et verbales, etc. Mais il ne se limite pas à ces morphèmes. Il comporte
aussi des éléments plus abstraits, tels que les catégories grammaticales (parties du
discours), les sous-catégories (le fait pour un nom d’être massif ou comptable, par
exemple), les fonctions syntaxiques (sujet, objet, etc.) et les constructions syntaxiques
(l’ordre des mots, notamment). Ainsi, la distinction est plus subtile que celle qui est
53

opérée traditionnellement. Un mot comme chien, par exemple, présente à la fois des
aspects grammaticaux et lexicaux. En tant que nom comptable (caractéristique qu’il
partage avec des mots comme chat, table, arbre, etc.), il relève du sous-système
grammatical. Et c’est uniquement en tant que lexème• possédant un contenu sémantique
qui l’oppose aux autres noms comptables qu’il fait partie du sous-système lexical. Le point
clé, qui fait tout l’intérêt de cette approche, c’est de considérer que les aspects
grammaticaux sont aussi porteurs de sens en eux-mêmes, indépendamment des aspects
lexicaux. La même remarque s’applique aux autres classes ouvertes (verbes, adjectifs,
etc.). Notamment, pour un bon nombre de verbes de mouvement, c’est pratiquement
l’intégralité de leur sens qui relève de la sémantique grammaticale, comme on le verra ci-
dessous avec un exemple (le verbe anglais arrivé).
13 Cette sémantique grammaticale est essentiellement configurationnelle : le rôle du sous-
système grammatical est d’organiser les différents éléments évoqués par un énoncé les
uns par rapport aux autres en une scène complexe cohérente. C’est sans doute dans ce
domaine que les apports des grammaires cognitives ont été les plus riches et les plus
profonds, grâce essentiellement aux travaux de Langacker et Talmy. Ces deux auteurs ont
élaboré, chacun avec sa propre terminologie, un cadre théorique et un outillage
conceptuel novateurs, du moins dans le champ) de la linguistique nord-américaine. Il faut
en effet noter que ces travaux sont assez proches, par bien des aspects, des théories
énonciatives, issues d’une tout autre tradition, qui ont été développées de ce côté-ci de
l’Atlantique, notamment par Antoine Culioli (1990, 1999).
14 Le sens grammatical est d’abord conçu en termes de propriétés et de relations
topologiques• et cinématiques•, représentées chez Langacker par des schémas
diagrammatiques.
15 Ainsi, l’entité évoquée par un nom est représentée par une région dans un espace
multidimensionnel que l’on appelle son domaine (et qui dépend bien sûr du contenu
sémantique du nom). L’opposition entre comptable et massif se traduit par une propriété
topologique : la région est bornée (c’est un fermé) dans le cas d’un nom comptable, alors
qu’elle ne l’est pas (c’est un ouvert) dans le cas d’un massif.
16 Les unités linguistiques relationnelles, comme les prépositions, sont représentées dans
ces diagrammes par des relations géométriques statiques entre les régions correspondant
aux entités. Ces relations sont en général asymétriques : l’une des entités, appelée
« trajecteur » (trajector), joue un rôle particulier par rapport aux autres, appelées
« repères » (landmarks), qui servent de points de référence pour localiser le trajecteur.
Pour prendre un exemple simple, les deux prépositions above et below correspondent à un
même diagramme représentant deux entités X et Y disposées le long d’un axe vertical
dans le domaine constitué par l’espace physique orienté. La différence entre les énoncés X
is above Y et Y is below X consiste en une inversion du trajecteur et du repère : dans le
premier énoncé, X est le trajecteur, alors qu’il est le repère dans le second.
17 Les procès, évoqués par des verbes, sont représentés par des schémas qui comportent une
dimension supplémentaire : le temps. Autrement dit, un procès sera représenté par la
succession le long de l’axe du temps d’une série de diagrammes statiques, le premier
correspondant à la situation au début du procès, et le dernier à la situation résultante.
L’opposition entre procès perfectifs et imperfectifs est rendue, comme pour l’opposition
massif/comptable, par l’existence ou non de bornes, cette fois sur l’axe temporel.
54

18 Une notion importante est celle du « profilage », directement inspirée de l’opposition


figure/fond de la théorie de la Gestalt. Dans un schéma, certains éléments sont plus
saillants que les autres parce qu’ils sont plus directement évoqués par l’expression
étudiée : ils constituent le « profil » (profile), qui se détache de la « base » (basé). Pour
expliquer cette notion, Langacker prend, entre autres, l’exemple du nom relationnel
uncle. Le domaine impliqué est ici celui des relations de parenté, que Langacker symbolise
par un arbre généalogique. La représentation du sens de uncle réclame la prise en
considération de toute une région d’un tel arbre, permettant d’illustrer la relation entre
deux nœuds : l’oncle et le neveu. C’est l’ensemble de cette région qui compose la base, le
profil étant constitué par le seul nœud oncle. Ainsi la représentation du nom nephew
possédera la même base, mais c’est cette fois le nœud neveu qui sera profilé.
19 Loin de se limiter à la représentation des noms relationnels, le profilage se révèle un outil
très puissant qui permet effectivement de différencier des expressions linguistiques de
toute sorte se rapportant à un même champ conceptuel. Notamment, sans entrer dans les
détails ici, cela permet de distinguer un verbe évoquant un procès, un participe passé
associé à l’état résultant de ce procès, une nominalisation de ce même procès, etc.
20 Pour résumer l’ensemble de ces notions, on trouvera à la figure 1 la représentation que
donne Langacker (1987 : 247) du verbe arrive. Le schéma comporte une série temporelle
au cours de laquelle le trajecteur tr (typiquement : le sujet du verbe) se déplace, dans le
domaine spatial, vers le repère lm (typiquement le locuteur, du moins dans des énoncés
du type Peter arrives). Un contour indique la zone proximale autour du repère
(typiquement : son champ de vision). Les éléments en gras matérialisent le profil dans ce
schéma. Ce profilage indique que le sens du verbe est limité à une partie du processus
représenté : l’entrée du trajecteur dans la zone proximale du repère, ce qui constitue
effectivement une bonne définition de arrive. Comme on peut le constater, cette
schématisation permet donc une certaine précision dans la description sémantique de ce
verbe, tout en préservant les aspects qualitatifs et continus inhérents à son sens.

Fig. 1 - Représentation de arrive.

21 À ces notions topologiques et cinématiques, Talmy ajoute un ingrédient supplémentaire,


qui augmente considérablement le potentiel descriptif de ce dispositif : la notion de force,
et donc de dynamique au sens « physique » du terme. Il s’agit avant tout (cf. Talmy 2000,
vol. I : 409) d’une généralisation et d’un raffinement de la notion, traditionnelle en
linguistique, de causatif•. Mais cette dynamique des forces joue aussi un rôle structurant à
d’autres niveaux du langage. Talmy montre qu’un grand nombre de marques
grammaticales servent à mettre en scène un système de forces opposées exercées par les
entités évoquées par l’énoncé, entités appelées « agonistes » ou « antagonistes » (l’entité
55

agoniste étant l’entité focalisée par l’énoncé). Ces forces sont aussi différenciées suivant
que la tendance intrinsèque des entités est orientée vers l’action ou le repos. Prenons un
exemple :
(3) The ball was rolling along the green
(4) The ball kept (on) rolling along the green.
22 L’apport du modal keep dans l’énoncé (4) consiste à mettre en scène l’herbe comme un
antagoniste exerçant une force supposant à la force, plus puissante, sous-tendant le
mouvement de la balle (l’agoniste).
23 De même, on peut rendre compte de l’opposition entre les causatifs made et let dans des
énoncés tels que :
(5) The ball’s hitting it made the lamp topple from the table
(6) The plug’s coming loose let the water flow from the tank.
24 Dans (5), l’emploi de made s’explique par la mise en œuvre d’un antagoniste (la balle)
l’emportant sur l’agoniste (la lampe) tendant au repos. Dans (6) au contraire,
l’antagoniste (la bonde) exerce une force plus faible sur l’agoniste (l’eau) qui tend au
mouvement.
25 Les mêmes mécanismes s’appliquent aussi à des situations plus abstraites dans lesquelles
les forces ne sont plus de nature physique : elles peuvent être d’ordre psychologique,
sociale, argumentative, etc. Talmy rend compte ainsi, notamment, de la sémantique de
marqueurs aspectuels (tels que try, finally, etc.) et modaux (should, have to, etc.).
26 Contrairement à ce que cette présentation beaucoup trop rapide pourrait laisser penser,
Langacker et Talmy ne limitent pas leurs analyses à l’anglais. Ils les étendent au contraire
à une grande variété de langues (notamment amérindiennes), y compris les langues des
signes, montrant ainsi l’universalité de leur cadre théorique.
27 Cette sémantique configurationnelle mérite donc bien son appellation de « cognitive ».
C’est une théorie dans laquelle les marques grammaticales, au sens large, servent à
construire de véritables images mentales forgées par le langage. Les entités et
événements évoqués par les énoncés ne sont pas simplement décrits : ils sont mis en
scène, présentés selon un certain point de vue, avec des éléments saillants et un arrière-
plan, dans des configurations dynamiques qui évoluent dans le temps en fonction des
forces qui animent les entités représentées. Le parallèle avec la perception visuelle,
omniprésent, correspond bien à une conception unifiée du système cognitif : même
quand les domaines représentés sont plus abstraits que l’espace perceptif dans lequel se
meuvent les objets physiques, ce sont les mêmes mécanismes qui sont à l’œuvre pour
donner « à voir » ces configurations abstraites.

Le sens lexical
28 En ce qui concerne la sémantique lexicale, nous retiendrons deux aspects essentiels :
d’une part la théorie du prototype, directement inspirée de travaux de psychologie
cognitive, et d’autre part le mécanisme de la métaphore, à laquelle il est donné un rôle
fondamental.
29 La notion de prototype a été popularisée par la psychologue Eleanor Rosch (cf. Rosch
1975, 1978 ; Rosch et Mervis 1975). Le point de départ consiste à remarquer que, au plan
cognitif, l’appartenance d’un élément à une catégorie n’est pas traitée de manière binaire,
en tout ou rien, mais plutôt de manière graduelle. Il existe, comme le confirment les
56

études expérimentales, de « bons » exemplaires et de moins bons, pour les catégories des
oiseaux, des meubles, des couleurs, des formes, etc. Cela conduit à refuser de définir les
sens d’un mot comme on le fait en logique, par un ensemble de conditions, nécessaire et
suffisant, qu’une entité doit satisfaire pour pouvoir être désignée par le mot en question.
Il faut plutôt le définir comme un ensemble de traits, plus ou moins caractéristiques : plus
une entité possède de traits associés au mot, plus elle a vocation à être désignée par ce
mot.
30 On aboutit donc, là aussi, à une représentation géométrique du sens. On peut en effet
définir une distance entre entités désignées par un même mot, distance plus ou moins
grande suivant le nombre de traits qu’elles partagent. Le sens du mot est alors représenté
par une région, au centre de laquelle se trouvent les meilleurs exemplaires (ceux qui
possèdent le maximum de traits) : plus on s’éloigne de ce centre, moins le mot est
pertinent. Les frontières de cette région sont donc floues, ce qui correspond aux
hésitations des locuteurs (et aux désaccords entre locuteurs) sur la désignation
d’exemplaires particulièrement atypiques. C’est le centre de la région associée à un mot
que l’on appelle le prototype.
31 Lakoff (1987 : 74-76), par exemple, analyse dans ce cadre les différents sens du nom
mother, montrant que les traits prototypiques (la femme qui a donné naissance à l’enfant,
qui a fourni le matériel génétique, qui le nourrit et l’élève, qui est l’épouse du père) ne
sont pas des conditions nécessaires à l’emploi de ce mot. Quand ces diverses conditions
sont remplies par des femmes différentes, on peut appeler mother n’importe laquelle
d’entre elles.
32 Deux remarques importantes s’imposent :
• Comme le font remarquer Ungerer et Schmid (1996 : 39)2, il existe une certaine ambiguïté
sur la nature précise des prototypes, notamment chez Lakoff (1986) : tantôt ils sont
identifiés aux meilleurs exemplaires, les plus « typiques », ceux qui viennent les premiers à
l’esprit des locuteurs, tantôt ils ont le statut plus abstrait d’une représentation mentale,
d’une image cognitive associée au mot ou à la catégorie évoquée par le mot.
• Les traits définitoires, dans ce cadre théorique, n’ont rien à voir avec les traits différentiels
(les « sémèmes ») des sémantiques lexicales issues du structuralisme. Ce ne sont pas des
éléments minimaux rendant compte des oppositions entre lexèmes. Au contraire, pour les
grammaires cognitives, ce sont toutes les propriétés cognitivement pertinentes qui doivent
être prises en compte dans la définition d’un mot. Langacker, notamment, récuse toute
séparation entre connaissances lexicales et connaissances encyclopédiques (cf. Langacker
1987 : 154-161) : certains traits sont bien sûr plus centraux que d’autres, mais là encore ce
n’est qu’une question de degré sur un continuum impliquant tout le réseau des
connaissances associées à un concept donné.
33 Pour rendre compte de la polysémie lexicale, la théorie du prototype telle que nous
venons de la présenter doit être sérieusement amendée. En effet, une même unité lexicale
peut évoquer des entités appartenant à des catégories conceptuelles nettement distinctes,
même si elles entretiennent des relations de voisinage sémantique. Ces différences ne
sauraient être ramenées à un simple éloignement par rapport à un même prototype,
chaque catégorie étant elle-même justifiable d’un traitement autonome en terme de
prototypie. La solution proposée par des auteurs comme Lakoff (1987) est directement
inspirée de la notion de « ressemblance de famille » introduite par Ludwig Wittgenstein
dans sa célèbre analyse du mot Spiel (jeu, cf. Wittgenstein 1958 : 6667). On aboutit alors à
57

ce que Georges Kleiber (1990) a appelé la « version étendue de la sémantique du


prototype ».
34 Traduite en termes géométriques, cette théorie revient à représenter le sens d’un mot par
une région connexe décomposable en un ensemble de sous-régions (cf. figure 2). Chaque
sous-région possède son propre centre et donc son propre prototype (notés A, B, C,... sur
la figure). Des sous-régions voisines possèdent une intersection non vide, ce qui signifie
que les prototypes correspondants (A et Β, Β et C, etc.) partagent des traits communs,
mais des sous-régions plus éloignées (A et D, par exemple) n’ont plus aucune raison d’en
avoir : on peut ainsi décrire la diversité des sens d’une unité polysémique, en
représentant à la fois ce qui les relie et ce qui les différencie.

Fig. 2-La version étendue de la sémantique du prototype.

35 Même si cette théorie a été forgée avant tout pour les unités lexicales, elle a été aussi
appliquée à des unités grammaticales, comme les classifieurs du Dyirbal (langue
aborigène australienne) analysés par Lakoff (1987). Pour prendre un autre exemple, les
prépositions du français, Claude Vandeloise (1993, 1995) définit pour chaque préposition
un ensemble de traits définitoires dont aucun, à lui seul, n’est nécessaire : chaque emploi
de la préposition fait appel à un sous-ensemble de traits qui définit le sens de la
préposition dans cet emploi particulier. La préposition peut donc changer de sens d’un
emploi à l’autre, du moins en partie, si ce n’est pas le même sous-ensemble de traits qui
est utilisé dans les deux cas. Par exemple, pour l’analyse de la préposition dans dans des
expressions de la forme X dans Y, Vandeloise propose les traits suivants :
(a) Y contrôle la position de X.
(b) S’il y a déplacement, X se déplace vers Y plutôt que l’inverse.
(c) X est inclus (ou inclus partiellement) dans Y ou dans la fermeture convexe de la
partie contenante de Y.
(d) Y protège X.
(e) Y cache X.
36 Comme on peut le constater, ces traits ne font appel à des relations géométriques
(« configurationnelles ») que marginalement : ils sont plutôt de nature fonctionnelle. À
cet égard, la ressemblance de famille de tous ces traits est caractérisée, pour Vandeloise,
par une relation fonctionnelle générale, qu’on peut appeler la « contenance » (containment
en anglais). De même, la ressemblance de famille pour les traits associés à la préposition
sur s’inscrit aussi dans une relation fonctionnelle générale, le « support ». Ces exemples 3
montrent que, dans le foisonnement des propositions théoriques au sein des grammaires
cognitives, la coupure entre sémantique grammaticale et sémantique lexicale n’est pas
toujours revendiquée : certains s’en tiennent à une vision purement configurationnelle
des marqueurs grammaticaux, alors que d’autres font aussi appel à des propriétés
fonctionnelles, voire socio-anthropologiques, pour décrire ces mêmes marqueurs.
58

37 Si la théorie du prototype étendu est utilisée pour traiter une partie des phénomènes de
polysémie, d’autres mécanismes viennent compléter le dispositif, et, en premier lieu, la
métaphore, qui, comme nous l’avons annoncé, joue un rôle capital en sémantique lexicale
pour les tenants des grammaires cognitives. En effet, à la suite de Lakoff et Johnson
(1980), la métaphore est considérée comme un mécanisme général de la pensée,
permettant d’utiliser le domaine de l’expérience sensori-motrice pour appréhender des
concepts plus abstraits. Nous ne sommes généralement pas conscients des métaphores
dans lesquelles nous pensons, mais nous pouvons les mettre en évidence en étudiant les
traces qu’elles ont inscrites dans les langues. Cette étude permet donc de remplir un
double objectif : d’une part, au plan linguistique, de rendre compte d’une grande partie de
la polysémie lexicale, et d’autre part, au plan cognitif, de mieux comprendre un
mécanisme central de la pensée.
38 Prenons un exemple : la métaphore, très répandue dans les langues, qui projette sur l’axe
vertical le domaine de variation de n’importe quelle variable quantitative. On dit ainsi en
français que les prix « montent », qu’ils « atteignent des sommets », qu’ils
« dégringolent », etc. Cette métaphore, ancrée dans l’expérience perceptive quotidienne
(le niveau de l’eau monte dans un récipient quand sa quantité augmente), explique la
lexicalisation de sens quantitatifs d’un grand nombre d’unités linguistiques exprimant le
mouvement vertical et l’altitude (monter, descendre, niveau, sommet, élevé, bas, au-dessus de,
etc.). Mais au-delà du langage, c’est le raisonnement sur le concept même de variation
quantitative qui s’appuie sur cette métaphore, comme le montre la représentation
graphique des fonctions mathématiques où la valeur de la fonction est indiquée sur un
axe orienté conçu et présenté comme l’axe vertical.
39 La métaphore s’exerce sur tous les champs de l’expérience. Tout nouveau domaine,
notamment, est immédiatement investi par le lexique du domaine le plus apte à
développer une correspondance analogique opératoire : ainsi a-t-on pu assister
récemment à l’introduction d’un vocabulaire biologique et médical en informatique, avec
l’apparition des « vers » et des « virus » informatiques, plus ou moins « bénins » ou
« virulents », qui « contaminent » les ordinateurs insuffisamment « immunisés » contre
ces « infections » (cf. l’analyse de cet exemple par Fauconnier 1997 : 18-24).
40 Parmi les métaphores les plus structurelles, Lakoff insiste sur l’universalité de la
conception du temps comme un double déplacement spatial : nous « avançons » vers
l’avenir et l’avenir « vient vers nous ». Les événements passés « sont derrière nous », ils
« s’éloignent », alors que d’autres « arrivent » à grands pas (l’observateur est fixe et le
temps « passe »). Mais nous pouvons aussi dire que nous « entrons » dans une nouvelle
ère, et que nous « nous rapprochons » d’une échéance (le temps est immobile et
l’observateur se déplace). Ces métaphores structurelles sont aussi à l’origine de
phénomènes de grammaticalisation : par exemple, le fait que des verbes de déplacement,
comme le verbe aller, en français, soient devenus des marqueurs temporels (Il va faire beau
) est expliqué par la métaphore du temps comme déplacement spatial.
41 D’une manière générale, les métaphores ne sont pas limitées, là encore, à la sémantique
lexicale. Elles sont aussi invoquées pour rendre compte de la polysémie des unités
grammaticales. C’est ainsi qu’Eve Sweester (1990, chap. 3) propose pour les verbes
modaux (may, must, can, etc.) une évolution diachronique des emplois déontiques (John
may go) aux emplois épistémiques John may be there) et énonciatifs (« speech-act modalities
» : He may be a university professor, but he sure is dumb) qui serait due à un mécanisme
métaphorique. Partant d’une analyse en termes de forces et d’obstacles, proche de la
59

théorie de Talmy, elle présente cette évolution comme une extension de l’application de
ces forces du domaine physique et social (déontique) au domaine des processus mentaux
et du raisonnement (épistémique), et au domaine des actes de langage et de
l’argumentation (énonciatif).

Le sens syntaxique
42 Comme on l’a vu, dans l’optique des grammaires cognitives, chaque unité grammaticale
ou lexicale est porteuse de sens. Il en est de même des constructions syntaxiques qui
contribuent elles aussi à l’élaboration du sens global d’un énoncé, de manière autonome
par rapport aux unités qu’elles agencent. Comme l’écrit Langacker (1987 : 12) :
« Je soutiens que la grammaire elle-même, c’est-à-dire les modes de regroupement
de morphèmes en configurations de plus en plus grandes, est intrinsèquement
symbolique, et donc porteuse de sens. Il est dès lors aussi dénué de sens de postuler
une séparation entre une composantes lexicale et une grammaticale que de diviser
un dictionnaire en deux parties, l’une listant les entrées lexicales et l’autre les
définitions. » (Traduit par B. Victorri).
43 On doit donc attribuer à chaque construction syntaxique un sens qui lui soit propre et qui
permette de rendre compte des effets différentiels obtenus par des permutations de
construction sur un même matériau sémantique. Ainsi, reprenons le couple d’exemples
que nous avons donné dans l’introduction :
(7) He sent a letter to Susan
(8) He sent Susan a letter.
44 Pour caractériser la différence de sens entre les deux constructions, Langacker (1987 : 40)
introduit les deux autres couples suivants :
(9) The shortstop threw a ball to the fence
(10) * The shortstop threw the fence a ball
(11) ? Your cousin gave a new coat of paint to the fence
(12) Your cousin gave the fence a new coat of paint.
45 Ce sont les différences d’acceptabilité de ces couples qui lui permettent d’avancer que la
construction oblique (Χ V Y to Ζ) profile la trajectoire de Y allant de X vers Z, expliquant
la moins grande acceptabilité de (11), alors que la construction ditransitive (Χ V Ζ Y)
profile l’état résultant : la possession de Y par Z, d’où l’inacceptabilité de (10).
46 Prenons un autre exemple, le problème classique connu sous le nom de la « montée du
sujet » (subject raising, Langacker 2000, chap. 11). Soit l’énoncé suivant :
(13) Don is likely to leave.
47 Constatant que Don n’est pas le « sujet logique » de likely, les analyses les plus courantes
(notamment dans le cadre des grammaires génératives) consistent à supposer une
structure logique de la forme : [Don leave] is likely dont l’énoncé (13) dériverait par montée
du sujet de la subordonnée vers la proposition principale. Cet énoncé serait donc
parfaitement « équivalent » à l’énoncé plus « normal » :
(14) That Don will leave is likely.
48 Langacker récuse cette analyse pour différentes raisons. Notamment, il note que les deux
constructions ne sont pas toujours équivalentes, dans la mesure où des différences
sémantiques sensibles peuvent se constater, comme dans le couple d’énoncés4 :
(15) Julius Caesar struck me as honest
(16) It struck me that Julius Caesar was honest.
60

49 Le locuteur de l’énoncé (15) est forcément un contemporain de Jules César, contrainte


totalement absente de l’énoncé (16). Même pour les énoncés (13) et (14), on peut relever
une différence sémantique : dans (13), l’accent est mis sur l’état psychologique de Don (sa
volonté de partir), alors que (14) est beaucoup plus neutre sur ce plan.
50 De plus la proposition infinitive, qui comporterait donc le site initial du sujet avant le
déplacement, peut être carrément absente, comme dans les exemples suivants :
(17) Who is coming to your party ? Well, Don is likely, and Sally is certain.
(18) Another war is likely.
51 Langacker montre que l’on n’a pas besoin, pour analyser ces phénomènes, de supposer un
quelconque « mouvement » à partir d’une forme canonique présumée. Il propose des
représentations schématiques de likely (figure 3) qui le définissent comme attribuant à un
événement (comportant, comme d’habitude, un trajecteur et un repère évoluant au cours
du temps) une valeur élevée sur une échelle de probabilité. Les deux constructions
possibles sont traitées comme de la polysémie : likely1 (figure 3a) admet un sujet nominal,
le trajecteur de l’événement, qui est donc profilé (les autres éléments composant
l’événement étant en arrière-plan, ce qui explique qu’ils puissent être omis), alors que
likely2 admet un sujet propositionnel : c’est donc l’événement qui est profilé dans son
ensemble, et qui joue le rôle de trajecteur pour likely. En combinant cette représentation
avec le reste du matériel linguistique présent, on obtient pour les deux énoncés (13) et
(14) deux représentations (figure 3c et 3d), qui rendent compte à la fois de la proximité et
des différences entre ces deux énoncés. En particulier, dans (13), c’est le fait que Don soit
profilé qui pousse à une interprétation centrée sur la volonté de Don de partir.
52 Comme le montre cet exemple, le processus de construction du sens d’un énoncé est un
processus d’unification (Langacker 1987 : 466) : les différents éléments constitutifs de
l’énoncé (unités grammaticales et lexicales et constructions syntaxiques) apportent leur
contribution au sens global qui est obtenu en fusionnant les représentations
schématiques associées à chacun d’eux. Cette unification peut être parfaitement fidèle,
l’apport de chaque élément étant aisément reconnaissable au sein de la représentation
globale : le processus est pleinement compositionnel•. Mais fréquemment, certains
éléments entrent en conflit pendant le processus d’unification.
53 La cohérence de la représentation globale ne peut alors être atteinte qu’en déformant
certains de ces éléments, ou en enrichissant la structure. La compositionnalité n’est, dans
ce cas, que partielle : le tout est plus que la somme des parties.
61

Fig. 3-Représentations schématiques de likely et des énoncés (13) et (14).

54 Notamment, comme l’a particulièrement bien montré Adele Goldberg, les constructions
syntaxiques peuvent compléter une structure globale qui n’est que partiellement remplie
par les unités lexicales présentes dans l’énoncé. Il est alors indispensable de prendre en
compte pleinement le sens de la construction syntaxique pour pouvoir expliquer le sens
global obtenu. Pour illustrer ce point, observons les énoncés suivants (Goldberg 1995 :
152) :
(19) They laughed the poor guy out of the room
(20) Frank sneezed the tissue off the table
(21) Mary urged Bill into the house
(22) Sue let the water out of the bathtub
(23) Sam helped him into the car
(24) They sprayed the paint onto the wall.
55 Le mouvement qui est évoqué par chacun de ces énoncés ne peut raisonnablement être
attribué ni au verbe lui-même, ni à une compositionnalité qui ne prendrait en compte que
la sémantique des unités lexicales impliquées. Il faut donc attribuer à la construction
syntaxique elle-même un sens qui permette d’intégrer les éléments présents dans une
structure globale cohérente. Goldbeig, qui appelle cette construction « caused-motion
construction », propose le schéma suivant : X causes Yto move Ζ, où X, Y et Ζ sont les trois
arguments du verbe, ce qui permet effectivement de rendre compte du sens global
obtenu, et de la forte productivité de cette construction en anglais.

La construction dynamique du sens


56 C’est sans doute Gilles Fauconnier, avec la théorie des espaces mentaux (Fauconnier 1984,
1997), qui fournit le cadre théorique le plus général pour les grammaires cognitives, au
62

sens où il permet d’intégrer la plupart des travaux que nous avons passés en revue dans
une perspective plus large, centrée sur le discours, englobant sémantique et pragmatique.
Pour Fauconnier, les formes linguistiques sont des instructions de construction de
configurations cognitives, structurées et interconnectées, qui se mettent en place au fur
et à mesure du déroulement de la parole :
« Une expression langagière n’a pas de sens en elle-même, mais plutôt un potentiel
de sens, et ce n’est que dans le cadre d’un discours complet, en contexte, que le sens
est véritablement produit. Le déploiement du discours met en œuvre des
constructions cognitives complexes. Elles comportent la mise en place de domaines
structurés liés les uns aux autres par des connecteurs ; ceci s’effectue sur la base
d’indices linguistiques, contextuels et situationnels. Les indices grammaticaux, s’ils
jouent un rôle crucial dans ce processus de construction, ne suffisent pas par eux-
mêmes à le déterminer. » (Traduit par B. Victorri)
57 Ce sont ces configurations cognitives que Fauconnier appelle des espaces mentaux. Ils
forment un réseau qui s’enrichit tout au long du discours. L’espace de départ s’appelle la
base du système. À tout moment, on peut distinguer deux autres espaces particuliers : le
point de vue, sorte de repère à partir duquel sont spécifiés de nouveaux éléments, et le
focus, l’espace qui reçoit ces nouveaux éléments. Base, point de vue et focus ne sont pas
forcément distincts (notamment au début du discours). Certaines expressions
linguistiques, les « constructeurs d’espace » (space builders), servent à construire de
nouveaux espaces à partir du point de vue, ou de la base, à laquelle il est toujours possible
de revenir. D’autres expressions servent à changer de point de vue ou de focus. D’autres
encore servent à spécifier les relations entre espaces, notamment les relations
d’accessibilité (le statut énonciatif d’un espace par rapport au point de vue dont il est
issu). D’autres enfin servent, naturellement, à introduire du contenu, en évoquant de
nouvelles entités, relations et événements qui viennent enrichir la structure du focus.
Bien entendu, une même expression linguistique peut jouer plusieurs de ces rôles à la
fois.
58 Une notion fondamentale est celle de correspondance (mapping) : les relations entre
espaces mettent en place des liens entre certains éléments de ces espaces, permettant
ainsi un transfert d’une partie de la structure d’un espace vers un autre. Prenons un
exemple très simple (Fauconnier, 1997 : 42-43) :
(25) Maybe Romeo is in love with Juliet.
59 À lui seul, cet énoncé construit deux espaces (figure 4). En effet, maybe est un
constructeur d’espace qui, en l’occurrence, spécifie une relation modale épistémique : le
nouvel espace est présenté comme une situation « possible », non pleinement validée par
le locuteur. Le réseau comporte donc une base (l’espace Β de la figure) dans laquelle sont
représentés les éléments a et b, associés aux noms Romeo etJuliet. Toutes les connaissances
partagées entre les interlocuteurs sur les deux personnes ont vocation à être
représentées dans cet espace. En revanche la relation amoureuse supposée est
représentée dans un autre espace mental M, qui est le focus actuel, accessible à partir du
premier (qui est donc aussi le point de vue) par la relation modale de possibilité (indiquée
sur la figure par la ligne en pointillés). Deux élé ments a’et b’sont arguments de la relation
amoureuse (notée LOVE) dans l’espace M. Ils sont aussi mis en correspondance avec les
éléments a et b de l’espace Β (relation d’identité notée id sur la figure), ce qui permet de
transférer dans ce nouvel espace tout ou partie des connaissances présentes dans l’espace
B, à commencer par les noms Romeo et Juliet, que l’on peut donc attribuer respectivement
à a’et b’.
63

Fig. 4 - Représentation d’espaces mentaux.

60 Il est important de noter que ce transfert s’opère par défaut, uniquement dans la mesure
où les données transférées ne contredisent pas des relations explicites dans M. Par
exemple, s’il existait dans B une relation entre a et b qui implique que Roméo ne peut pas
aimer Juliette, celle-ci n’apparaîtrait pas dans M : en construisant l’espace modalisé M, le
locuteur nierait implicitement la validité de cette relation dans ce nouveau cadre
hypothétique ainsi évoqué. Même les noms Romeo et Juliet auraient pu ne pas être
transférés dans la correspondance, si l’énoncé avait été le suivant :
(26) Maybe, Romeo and Juliet’s names are really Dick and Jane.
61 Dans ce cas, les éléments a’ et b’ auraient bien sûr pour nom Dick et Jane, mais la
correspondance permet de leur attribuer la plupart des autres propriétés des éléments a
et b de l’espace B, l’hypothèse présentée dans M consistant à considérer les mêmes
personne munies d’un nouveau nom. Ce jeu de correspondance permet notamment de
traiter tous les problèmes d’analogie contrefactuelle, casse-tête des approches logiques
du langage, qu’on peut illustrer par les exemples suivants (Fauconnier 1997 : 106-110 et
126-127) :
(27) In France, Watergate wouldn’t have done Nixon any harm
(28) Coming home, I drove into the wrong house and collided with a tree I don’t
have.
62 Au-delà de ces phénomènes subtils, Fauconnier montre que la théorie des espaces
mentaux permet de traiter de manière adéquate, outre les conditionnels et autres
modalités, les principaux systèmes grammaticaux qui opèrent au niveau du texte, depuis
l’anaphore jusqu’aux différents systèmes modaux. En particulier, les notions de base, de
point de vue et de focus sont particulièrement adaptées à la représentation des temps
verbaux, notamment des temps relatifs et des interactions entre temps et modalités.
63 Qui plus est, la théorie des espaces mentaux constitue un excellent cadre pour traiter des
métaphores. Fauconnier et Turner (1998) ont introduit une opération, appelée blending,
que l’on pourrait traduire par « mixage », qui consiste à créer une nouvelle structure
conceptuelle à partir de la fusion de deux structures existantes. Par le jeu des
correspondances, chacun des deux espaces de départ transfère une partie de sa structure
64

à la structure résultante qui, de plus, s’enrichit de relations nouvelles, émergentes, fruit


du mélange dans un même espace des relations ainsi transférées. Dans le cas de la
métaphore, où les deux espaces initiaux sont le domaine-source et le domaine-cible, on
peut rendre compte grâce à cette opération de la richesse créative du procédé. Le sens de
la métaphore ne peut en effet être représenté fidèlement ni dans le domaine-source, ni
dans le domaine-cible : en combinant les deux, c’est un sens plus riche qui est construit,
impliquant de nouvelles relations qui n’existent dans aucune des structures de départ.
64 L’opération de mixage se révèle très puissante à tous les niveaux de la cognition. Dans le
domaine conceptuel proprement dit, Fauconnier montre qu’elle peut caractériser des
développements créatifs en mathématiques et en physique, comme la découverte des
géométries non-euclidiennes (cf. Fauconnier 1997 :165-168). Et au niveau de la structure
syntaxique d’un énoncé, c’est le même processus de mixage qu’il utilise pour décrire les
constructions étudiées par Goldberg comme la caused-motion construction que nous avons
présentée plus haut (Fauconnier et Turner 1996).
65 On peut d’ailleurs noter que le procédé d’unification, tel que l’utilise Langacker (cf. p. 97
sq.), est lui aussi très proche de cette opération de mixage. D’une manière plus générale,
même si Fauconnier semble privilégier une notation logico-algébrique pour décrire la
structure interne d’un espace mental (tel le « LOVE a’b’ » de la figure 4), il est clair que
l’ensemble des outils configurationnels développés par Langacker et Tamy en sémantique
grammaticale pourraient facilement et sans doute avantageusement remplacer ces
formules : on pourrait ainsi arriver, dans le cadre général de la théorie des espaces
mentaux, à une véritable unification des différentes composantes du courant des
grammaires cognitives.

Conclusion
66 Depuis son apparition, le courant des grammaires cognitives ne s’est donc pas seulement
amplifié et diversifié, il a aussi gagné en profondeur et en cohérence. Il faut souligner que
ce renforcement ne l’a pas conduit à se refermer sur lui-même : il s’est aussi sensiblement
ouvert à des problématiques plus centrées sur l’usage du langage. Nous avons déjà signalé
les convergences avec la tradition continentale des théories de l’énonciation. On assiste
aussi depuis quelques années à un rapprochement avec les linguistiques fonctionnelles (
cf. François, dans ce volume). Des ouvrages comme ceux de Tomasello (1998) et de Barlow
et Kemmer (2000) ont permis de confronter ces deux paradigmes théoriques et de mettre
en évidence leurs points communs. De plus en plus, ces deux courants apparaissent
comme complémentaires. Si les fonctionnalistes définissent avant tout le langage comme
un outil de communication, ils comptent parmi les contraintes essentielles imposées à ce
système de communication les propriétés de l’appareil cognitif général des locuteurs, ce
qui les conduit à adopter sur de nombreux points des conceptions voisines de celles
exposées ici. Ainsi, pour ne prendre qu’un exemple, Van Valin et LaPolla (1997) intègrent
dans leur appareillage théorique des pans entiers des grammaires cognitives, à
commencer par la théorie des constructions développée par Goldberg. De leur côté, les
tenants des grammaires cognitives ont, dès l’origine, accordé une place importante à
l’utilisation du langage (usage-based models : cf. Langacker 1988) et à la pragmatique,
notamment dans les travaux de Fauconnier (1997) et de Sweetser (1990).
65

67 Pour les chercheurs en sciences cognitives non spécialisés en linguistique, les grammaires
cognitives représentent aujourd’hui une alternative séduisante aux grammaires
génératives qui ont longtemps dominé le paysage théorique en sciences du langage,
notamment en psycholinguistique. Psychologues et spécialistes des neurosciences
devraient trouver davantage matière à expérimentation dans cette approche qui relie
étroitement les phénomènes linguistiques à des mécanismes cognitifs généraux. Du point
de vue de la neurobiologie, Gerald Edelman avait déjà lancé un appel en ce sens il y a une
dizaine d’années, en soutenant que la grammaire cognitive « s’accorde davantage avec les
bases biologiques des fonctions cérébrales et corporelles, et avec les données
psychologiques sur la catégorisation » (Edelman 1992 : 386). En ce qui concerne les
modélisateurs et les spécialistes de la cognition artificielle, la place donnée dans ces
travaux au continu et à l’émergence représente un véritable défi, puisque cela nécessite
d’abandonner les formalismes logico-algébriques traditionnellement utilisés dans les
modèles linguistiques pour se tourner vers d’autres outils mathématiques, comme la
géométrie différentielle et la théorie des systèmes dynamiques, et d’inventer de nouveaux
outils informatiques capables de les implémenter. Le connexionnisme a
incontestablement permis de progresser dans cette direction (cf. notamment le plaidoyer
de Langacker (1991 : 526-536) en faveur de « l’alternative connexionniste »), mais il est
clair aujourd’hui que ces avancées ont été insuffisantes pour aboutir à des modèles qui
rendent compte de la théorie dans son ensemble. D’autres efforts sont donc nécessaires.
L’enjeu est de taille : on peut en effet penser que l’absence d’un cadre de formalisation
adéquat constitue le principal obstacle que doivent sur monter les grammaires cognitives
pour jouer pleinement leur rôle dans les recherches pluridisciplinaires en sciences
cognitives.

NOTES
1. Il faut d’ailleurs noter qu’un certain nombre de tenants du courant des grammaires cognitives,
comme Langacker et Lakoff, sont d’anciens générativistes ayant rompu avec l’orthodoxie
chomskienne. Lakoff, notamment, a été au début des années 1970 l’un des chefs de file de la
« sémantique générative », l’une des premières dissidences du courant chomskien (cf. Dubois-
Charlier et Galmiche 1972, pour une présentation des débats entre générativistes à cette période).
2. Voir aussi Kleiber (1990 : 60).
3. Voir aussi l’analyse par Brugman (1988) de la préposition anglaise over, qui entre également
dans le cadre de la théorie du prototype étendu, mais avec des traits entièrement
configurationnels.
4. On peut faire les même constats en français sur des exemples du type : Marie semble malade/Il
semble que Marie soit malade
ou, bien pire :
Marie paraît malade/Il paraît que Marie est malade.
66

AUTEUR
BERNARD VICTORRI
Directeur de recherche au CNRS. Laboratoire « Langues, Textes, Traitements informatiques,
Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII).
67

Le fonctionnalisme linguistique et
les enjeux cognitifs
Jacques François

1 Le fonctionnalisme linguistique, fondé initialement sur la notion de marque chez


Troubetzkoy (1939), a connu dans les vingt dernières années du XXe siècle des
développements remarquables dans différentes directions. On peut citer en particulier la
lexématique fonctionnelle d’E. Coseriu (cf. Coseriu 2002) ou les théories désignées par W.
Croît (1995) comme « fonctionnalistes-formalistes », à savoir la Functional Grammar de S.
Dik (1978,1997) et la Grammaire des rôles et de la référence (cf. Van Valin et LaPolla 1997), et
avant tout la typologie fonctionnelle des langues développée en majorité par des
chercheurs américains, australiens et allemands. Je concentrerai ici mon propos sur des
travaux qui mettent en évidence des motivations externes d’ordre cognitif dans la
structuration (§ 2) et l’évolution (§ 3) des langues et, au-delà, l’ontogénèse (§ 4) et la
phylogénèse (§ 5) du langage. Certains de ces travaux se rattachent explicitement à un
programme d’explication fonctionnaliste (en particulier T. Givón, W. Croft, B. Heine ou J.
Hawkins, Κ. Hengeveld, S. Kirby), c’est pourquoi je commencerai par expliciter la
controverse entre linguistes formalistes et fonctionnalistes sur le sens qu’ils donnent à la
notion d’explication en linguistique (§ 1). D’autres se rattachent indirectement à ce
programme comme S. Lamb, R. Van Valin, ou M. Tomasello, mais entrent globalement
dans le même paradigme épistémologique.
2 Je commencerai par une citation emblématique de B. Heine. Dans l’ouvrage de 1997
intitulé The Cognitive Foundations of Grammar, qui synthétise ses travaux sur les processus
de grammaticalisation, particulièrement dans un domaine morphologique, celui de
l’apparition des auxiliaires, et dans deux domaines conceptuels, la possession et la
comparaison, Heine estime que « l’on ne peut saisir la motivation du mode effectif de
structuration du langage que si l’on prend en considération les fondements cognitifs dont
dérive la structure du langage » (19976 : 21).
3 Un an plus tard, dans son introduction au volume collectif The New Psychology of Language
consacré aux points de contact entre les orientations fonctionnelles et cognitives de la
linguistique contemporaine (rassemblées sous la désignation de « théories du langage
68

fondées sur l’usage »), le psychologue M. Tomasello déclare à son tour que si l’on veut
comprendre un jour les complexités multiples du langage, ce n’est pas d’un surplus de
formalisations mathématiques que l’on a besoin, mais plutôt de plus de coopération entre
psychologues et linguistes pour s’entraider à « déterminer comment les processus
cognitifs et sociaux fondamentaux opèrent dans le domaine particulier de la
communication linguistique humaine » (1998 : XXI).
4 Nous verrons dans la section 1 en quoi la controverse sur la notion d’explication est
directement liée à l’opposition entre une linguistique centrée sur le calcul syntaxique et
sur l’hypothèse de l’autonomie de la faculté de langage et une linguistique cherchant à
expliquer les structures linguistiques à partir d’un jeu de motivations internes et
externes, en l’occurrence cognitives et sociales, lesquelles se combinent
harmonieusement dans les thèses de W. Croft (cf. § 3) sur l’évolution des langues et de T.
Givón (cf. § 5) sur la phylogénèse du langage.

1. La notion d’explication dans la controverse entre


fonctionnalisme et formalisme en linguistique
5 Le fonctionnalisme linguistique contemporain (qu’on peut dire de troisième génération)
n’est pas la simple continuation du fonctionnalisme de première génération, représenté
par N.S. Troubetzkoy, V. Mathesius ou A. Martinet, consacré en priorité aux structures
phonologiques et à l’identification des fonctions du langage (K. Bühler, R.Jakobson), ni de
celui de seconde génération orienté vers la perspective fonctionnelle de la phrase et
l’articulation entre phrase et discours (J. Firbas, P. Sgall, M.A.K. Halliday). Son orientation
dominante est typologique, dans la lignée des travaux de J. Greenberg, et celle-ci s’est
construite en réaction contre le formalisme d’inspiration chomskienne (et ses
présupposés mentalistes). L’ouvrage programmatique de S. Dik, Functional Grammar
(1978), est caractéristique de cette nouvelle voie dont T. Givón est le représentant
emblématique. Le fond du débat, c’est la question essentielle du sens donné à l’expression
« expliquer un fait linguistique ». C’est pourquoi il serait vain de chercher à caractériser les
orientations contemporaines en linguistique fonctionnelle en dehors de cette
controverse.
6 Pour les formalistes d’inspiration chomskienne, un phénomène linguistique est déclaré «
expliqué » s’il peut être déduit de l’appariement entre un principe général (formulé dans
un vocabulaire de primitives internes à la grammaire) et un ensemble de conditions
initiales. Quant aux jugements des locuteurs natifs, ils sont expliqués par l’internalisation
de ces principes (cf. Newmeyer 1998 : 97-98). La grammaire générative est donc basée sur
un modèle d’explication interne. Le point de vue des formalistes sur le sens dans lequel on
peut parler d’explication en linguistique prend appui sur la thèse que les fonctionnalistes
confondent abusivement le plan de la compétence, donc de la grammaire interne, et celui
de la performance, donc du discours instancié. Les contributions de W. Abraham, S.
Anderson et D. Nettle au volume 1 de Formalism and Functionalism in Linguistics (Darnell et
al. 1999) sont représentatives de cette position.
69

1. 1. Aux formalistes la compétence, aux fonctionnalistes la


performance !

7 C’est dans cette optique qu’Abraham (1999) présente un tableau comparatif d’une
douzaine de caractéristiques majeures distinguant les deux entreprises, formaliste et
fonctionnaliste. J’en retiens quelques points forts :

LES FORMALISTES LES FONCTIONNALISTES

appliquent une méthode déductive appliquent une méthode inductive

pratiquent des généralisations pratiquent des généralisations graduelles ou d’ordre


absolues statistique

assignent au langage une fonction assignent au langage une fonction primaire d’interaction
primaire d’information autant que d’information

identifient des universaux de identifient des principes cognitifs plus profonds


syntaxe linguistique déterminant les universaux linguistiques

attribuent un caractère non arbitraire au lexique,


attribuent un caractère arbitraire
insistant sur l’iconicité, et identifiant de tous côtés des
au lexique
processus métaphoriques

envisagent la diachronie comme


envisagent la diachronie comme un système dynamique
constituée de stades successifs

8 Une démarche calculatoire telle que la préconise le courant forma liste doit adopter une
méthode hypothético-déductive, elle ne peut pas se satisfaire de généralisations
statistiques, elle ne peut pas tenir compte à la fois des deux fonctions d’information et
d’interaction et accorde la priorité à celle qui est le plus aisément formalisable. Elle
conçoit l’universalité de la grammaire en termes d’universaux de substance (classes de
mots) et non d’universaux implicatifs ou de tendances ordonnées en hiérarchies, elle
renvoie la discussion des motivations cognitives du lexique et de l’extension
métaphorique des concepts lexicaux comme des catégories grammaticales à une
grammaire de performance, enfin elle admet le principe des coupes de synchronie
décrivant des états de langue stabilisés comme prérequis de l’analyse diachronique. La
prise en compte des motivations pragmatiques de l’énoncé, de ses conditions d’emploi en
contexte discursif ou de son appartenance à un genre textuel constituent une tâche
secondaire. Abraham y voit « une division raisonnable du travail » (1999 :78).
9 Dans le même ouvrage, S. Anderson (1999) pousse à son terme cette ligne de
raisonnement. Il reproche aux fonctionnalistes de ne pas se contenter de formuler
l’hypothèse d’une perméabilité des structures syntaxiques vis-à-vis de facteurs de
signification et d’usage, mais de concevoir la mise en évidence de cette perméabilité
comme une stratégie de recherche (ibid. : 120). Selon Anderson, la méthode des
formalistes consiste à formuler l’hypothèse que des composantes distinctes du savoir
linguistique ont un fonctionnement autonome et que les phénomènes complexes sont
70

descriptibles par leur interaction. L’étude de la capacité générative du langage humain


(objectif déclaré des formalistes) invalide les données sur l’usage et la fréquence « et
même la question de savoir si une possibilité donnée est effectivement instanciée dans
une quelconque langue » (ibid. : 120-121). Le domaine de recherche des formalistes est ce
que le langage est (la compétence), tandis que le domaine qu’il concède aux
fonctionnalistes est celui de ce que le langage/ait (la performance), qu’Andersen
caractérise comme la « prise en compte unifiée de l’activité des utilisateurs du langage
humain ». Anderson entend fixer une hiérarchie des priorités :
• Les grammaires (internes) de la compétence (ou I-grammars, relevant de modèles formels) sont le
noyau dur fondé sur la distinction entre principes et paramètres. Elles sont seules aptes à
rendre compte de l’aptitude humaine à manier les langues comme un outil abstrait
déconnecté des besoins de communication.
• Les grammaires (externes) de la performance (ou Ε-grammars, relevant de modèles fonctionnels)
rendraient compte de l’usage effectif des langues dans la communication, ce qui selon
Anderson constitue une problématique extérieure à la grammaire au sens étroit.
10 Enfin, la contribution de D. Nettle dans le même volume (1999) prend le problème à la
racine en pointant les difficultés du fonctionnalisme en biologie, lesquelles se répercutent
sur son emploi en linguistique. Tout comme Givón (1995), dont le fonctionnalisme est
pourtant indiscutable, Nettle critique le dogme fonctionnaliste de la structuration
adaptative (emprunté à la théorie de l’évolution en biologie). Il présente comme circulaire
et empiriquement improductive l’hypothèse de l’adaptativité linguistique – c’est-à-dire
d’une relation fonctionnelle entre le degré d’utilité communicationnelle ou cognitive de
formes linguistiques et la probabilité de leur adoption1 et il illustre l’objection de Lass
(1980) selon laquelle « le problème avec l’argument fonctionnel, c’est que vous ne pouvez
pas perdre » en ces termes : « D’un côté on suppose que le système linguistique est mieux
adapté que le précédent après le développement en question et on en trouve une raison a
posteriori. D’un autre côté le développement est dit avoir été causé par cette pression
fonctionnelle » (Nettle 1999 : 450).
11 Comment les fonctionnalistes peuvent-ils répliquer à ces critiques convergentes ?

1.2. Le point de vue fonctionnaliste

12 Dans le même volume, le point de vue fonctionnaliste sur ce qui constitue proprement
une explication en grammaire est défendu particulièrement par M. Durie (1999) et D.
Payne (1999). Durie (ibid. : 418) est largement en accord avec Abraham (cf. § 2.1) sur les
bases générales du désaccord avec le structuralisme en général, mais plus spécialement
avec l’héritage saussurien. Selon les fonctionnalistes :
• La structure du langage ne peut être expliquée et internalisée qu’en termes de discours et de
parole, ce qui contredit le souci des formalistes de se cantonner au niveau de l’unité-phrase
et de ne tenir compte que de la fonction d’information au détriment de la fonction
d’interaction ;
• les contraintes du monde réel, du tempe et de l’espace qui s’appliquent à la communication
humaine (par exemple l’intentionnalité humaine, et les contraintes imposées par le medium
de la communication, verbale ou signée) doivent être prises en compte 2, ainsi que les
contraintes de l’appareil phonatoire ;
• il en est de même des aptitudes et des propensions des êtres humains au-delà du domaine
strictement linguistique, y compris les opérations du sens commun et les présuppositions
71

qui rendent la communication coopérative, ce qui va à l’encontre d’une conception


restrictive de la compétence limitée à l’usage collectif d’une même syntaxe et d’un lexique
arbitraire, abstraction faite des extensions métaphoriques affectant aussi bien la syntaxe 3
que le lexique ;
• les systèmes linguistiques sont des équilibres dynamiques et non des états idéalement
stabilisés.
13 Durie développe ce dernier point (ibid. : 426) en distinguant cinq niveaux de temporalité
dans le langage, du plus rapide, le discours comme activité individuelle et collective en
« temps réel », au plus lent, l’évolution de l’espèce (phylogénie), en passant par la
pratique, l’entraînement et la mémoire à long terme, l’acquisition (ontogénie) et
l’évolution des langues à travers le renouvellement des communautés linguistiques
(diachronie). Je reviendrai sur ces trois types de durée respectivement dans les sections 5,
4 et 3.
14 Cet article ouvre la voie à l’argumentation de D. Payne, dont la contribution intitulée
What Counts as Explanation ? touche le fond du problème. D. Payne commence par définir le
fonctionnalisme linguistique comme « une approche qui considère le langage comme un
outil de communication et dans lequel la production en cours peut être affectée par les
tâches communicationnelles à accomplir vis-à-vis de l’allocutaire aussi bien que par
l’appareil cognitif général du locuteur et de l’allocutaire et par les contraintes qui leur
sont imposées dans le traitement du langage » (1999 : 139). Les trois facteurs décisifs mis
en avant par M. Durie sont présents : l’accomplissement des tâches communicationnelles,
l’appareil cognitif des interlocuteurs et les contraintes auxquelles est soumise la
communication linguistique, que celles-ci soient d’ordre spatio-temporel ou
physiologique.
15 Le point central est que les tâches communicationnelles assumées par les locuteurs ont le
pouvoir de façonner le système linguistique. C’est l’identification de ce pouvoir qui
constitue une explication fonctionnelle selon Russell Tomlin (1994), lequel définit comme
description fonctionnelle l’analyse détaillée des relations de correspondance entre les
formes spécifiques dans un système linguistique et les fonctions qu’encodent de telles
formes. Cette description consiste en un effort de compréhension des motivations des
locuteurs dans leur choix entre des structures équivalentes en termes de logique
propositionnelle, mais formellement distinctes4. Tomlin distingue deux types majeurs de
relation entre forme et fonction :
• Le codage syntaxique ou grammaticalisé : la forme X est grammaticalisée pour coder la fonction
A si et seulement si la présence de A dans le message requiert du locuteur qu’il emploie
automatiquement et invariablement X ;
• la signalisation pragmatique : la forme X signale pragmatiquement la fonction A si la présence
de X permet à l’allocutaire d’inférer A dans un contexte donné ; toutefois, il n’y a pas
d’obligation automatique pour le locuteur à produire X dans le contexte de A.
16 À titre d’exemple de cette distinction, on peut comparer l’expression en français de la
focalisation d’un constituant actantiel ou circonstanciel selon que la force illocutoire est
déclarative ou interrogative. En phrase interrogative, la focalisation passe
obligatoirement par la sélection d’un pronom ou déterminant interrogatif (par exemple :
qui as-tu rencontré ?/qui est-ce/c’est que tu as rencontré ?/tu as rencontré qui ?/quel Ν as-tu/tu
as rencontré ?), il s’agit donc d’un codage grammaticalisé. En phrase déclarative, la
focalisation peut passer par une construction présentative, mais il ne s’agit que d’une
signalisation pragmatique : C’est Paul que j’ai rencontré.
72

17 Ce type d’explication a pour Newmeyer (1998) un caractère externe – ce qui justifie la


distinction de Croft (1995) entre le fonctionnalisme « autonomiste » de S. Kuno, qui ne
recourt qu’à des facteurs explicatifs internes au système sémiotique de la langue, et le
fonctionnalisme « externe » qui fait intervenir des facteurs pragmatiques, physiologiques
et cognitifs.

1.3. La part d’explication interne et d’explication externe dans les


théories formalistes et fonctionnalistes

18 Un intérêt majeur de la discussion des modes interne et externe d’explication en


linguistique dans le chapitre 3 de Newmeyer (1998 : 96-106) est que, après avoir reconnu
que typiquement les formalistes favorisent l’explication interne et les fonctionnalistes
l’explication externe, l’auteur montre qu’en fait les deux modes d’explication coexistent
dans les deux types de théories.
I. Explication interne en linguistique fonctionnelle. Ainsi, le principe selon lequel la
grammaticalisation est unidirectionnelle, essentiel dans la perspective fonctionnelle,
constitue une explication interne parce que c’est une hypothèse interne à la grammaire.
Newmeyer note qu’il est habituel de faire des déductions sur des changements dans des
grammaires pour lesquelles nous n’avons aucune attestation directe, comme dans l’œuvre
de B. Heine où des séquences complexes de développement historique sont proposées pour
beaucoup de langues d’Afrique (cf. Heine et Kuteva 2002).
II. Einnéité comme explication externe en grammaire generative. Quand on essaie, comme les
formalistes, d’expliquer pourquoi des grammaires sont organisées comme elles le sont, en
faisant l’hypothèse que certaines de leurs propriétés sont innées, on cherche à fournir une
explication externe de celles-ci. C’est d’ailleurs pourquoi il n’y a pas à s’étonner que M. Durie
(1999) mette en avant dans les préoccupations des fonctionnalistes les caractères innés de la
faculté de langage et que toute une littérature soit consacrée à l’acquisition phylogénétique
de ces caractères innés (cf. Elman et al. 1996). Martin Haspelmath (cité par Newmeyer)
imagine d’ailleurs qu’il est réellement plausible que des propriétés innées de l’esprit humain
obligent les langues à changer de manières particulières.
III. L’effet de l’analyse sur les structures syntaxiques. Enfin, comme on peut s’y attendre, la
performance linguistique n’est pas sans effet sur la compétence. La plupart des
grammairiens générativistes pensent que les grammaires mentales admises par les
linguistes sont réellement utilisées dans le cours de la production et de la compréhension du
discours, certaines propriétés grammaticales pouvant être attribuées à une accommodation
de la grammaire à l’analyseur.

19 En conclusion de cette discussion, entre les deux modes d’explication linguistique, le


mode interne est privilégié chez les formalistes parce que mieux adapté à un style
d’argumentation déductif et calculatoire, et le mode d’explication externe chez les
fonctionnalistes parce qu’intégrant mieux l’activité linguistique dans le comportement
global des êtres humains, de la physiologie phonatoire à la cognition. Pour autant, l’un et
l’autre mode d’explication, loin de s’exclure, constituent des procédures scientifiques
complémentaires.
73

2. Facteurs cognitifs dans la conception


fonctionnaliste des universaux du langage
20 La conception « formaliste » – plus spécifiquement générativiste – des universaux du
langage est centrée sur la question des conditions d’acquisition des structures
linguistiques par l’enfant malgré la « pauvreté du stimulus ». Chomsky (1965 : 27-30)
distingue deux types d’universaux linguistiques : les universaux substantiels sont les
pierres angulaires de la structure linguistique, il s’agit des traits distinctifs phonologiques
et de la notion de syllabe, des parties du discours (qui sont organisées ultérieurement en
fonction de deux traits [+/-N, +/-V], les noms recevant la double caractérisation [+N,-V],
les verbes [-N, + V], les adjectifs [+N, + V] et les adpositions• [-Ν,-V]), et le principe de
hiérarchisation arborescente des syntagmes. Le second type est celui des universaux
formels qui constituent le répertoire des types de règles que l’enfant doit assimiler. Dans
cette conception, l’enfant dispose d’un répertoire de règles (par exemple de formation
des syntagmes et de dérivation) qui se développeront en règles de la grammaire interne
de l’enfant une fois alimentées par la perception des régularités de la langue maternelle.
À ces deux types, Jackendoff (2002 : 77-78) adjoint un universel architectural : selon sa
théorie de l’architecture parallèle du langage, toute langue présente une architecture
composée de trois types de structures, phonologique, syntaxique et sémantique-
conceptuelle, interconnectées par des composantes d’interface phonologie-syntaxe et
syntaxe-sémantique et présentant chacune des sous-composantes modulaires (cf. § 6).
21 Le trait commun aux points de vue fonctionnalistes est la mise en avant de données de
typologie des langues plus ou moins explicitement corrélées à des observations cognitives
et à l’hypothèse que l’acquisition du langage se fonde sur des principes généraux du
développement cognitif et que la faculté de langage n’est pas soumise à des principes
spécifiques. Je n’évoquerai ici que quatre aspects parmi d’autres de la mouvance
fonctionnaliste en termes d’universaux : la notion d’universaux implicationnels•, la place
de la concurrence entre motivations dans l’émergence de hiérarchies implicationnelles
universelles, l’exploitation typologique de schèmes cognitifs universels et l’élaboration
d’un ensemble de dimensions universelles très abstraites du langage.

2.1. Les universaux implicationnels d’ordre des mots et les


contraintes de traitement

22 L’identification des universaux implicationnels du langage, qui repose sur les travaux
fondateurs de J. Greenberg (1963, 1966), s’effectue en quatre pas successifs (cf. Croît 1990 :
62-3). Le premier pas est l’énumération des paires de propriétés dont la compatibilité est
testée dans un échantillonnage aussi représentatif que possible de langues. Pour une
paire de propriétés {A +/-, Β +/-} le croisement des valeurs A +/-et Β +/-est représenté sur
une table dite « tétrachorique » (tableau 1).

Tableau 1
La forme des tables tétrachoriques

Propriété A + Propriété A -
74

Propriété B +

Propriété B -

23 Le deuxième pas est la découverte de la distribution empirique des types attestés et non
attestés, illustrée par la disposition dans la table des Ν (nombre de langues de
l’échantillon présentant la paire de propriétés) et des Ø (aucune langue attestée) ou [Ø]
(nombre insignifiant de langues attestées). Trois possibilités se présentent :
24 (I) Il s’agit d’un universel absolu, par exemple : « Toutes les langues ont des voyelles
orales » (alors qu’elles peuvent avoir ou pas des voyelles nasales)5.

Tableau 2
L’universel absolu de la présence de voyelles orales

voyelles nasales + nasales -

orales + N N

orales - Ø Ø

25 (II) Il s’agit d’un universel implicationnel, par exemple : « Si une langue dispose le nom
avant le démonstratif, alors elle dispose le nom [i.e. l’antécédent] avant la proposition
relative » :

Tableau 3
L’universel implicationnel Ν Dem → Ν Rel

Dem N N Dem

Rel N N Ø

N Rel N N

26 (III) Il s’agit d’une équivalence logique, par exemple : « Dans les langues avec prépositions,
le génitif suit presque toujours le nom régissant tandis que dans les langues avec
postpositions•, il le précède presque toujours » :

Tableau 4
Une équivalence logique

N Gen Gen N

Préposition N [Ø]

Postposition [Ø] N
75

27 Le troisième pas consiste à développer une généralisation propre à restreindre la


variation dans les types de langues sans l’éliminer (c’est-à-dire qui autorise les différents
types de langues attestés en excluant les types non attestés) et à révéler une relation
entre des paramètres grammaticaux par ailleurs logiquement indépendants.
28 Ainsi, concernant les corrélations entre (1) l’ordre relatif du verbe, du sujet et de l’objet
pour la proposition, (2) celui du nom, du démonstratif, de l’adjectif et de la relative pour
le syntagme nominal et (3) la présence de prépositions ou de postpositions pour le
syntagme prépositionnel, il résulte de l’étude typologique d’un échantillon représentatif
de 142 langues (cf. Hawkins, 1983 : 26) que sur les 26 langues à ordre dominant VSO (en
proposition principale et en mode de phrase déclaratif) de l’échantillon, 24 présentent la
configuration {VSO, prépositions, N-Génitif} dont en outre 19 avec l’ordre N-Adj contre 5
avec l’ordre Adj-N, les 2 langues restantes ayant des configurations excentriques. Pour les
52 langues à ordre dominant SVO, 32 présentent la configuration {SVO, prépositions, N-Adj},
dont 21 avec en outre N-Génitif contre 11 avec Génitif-N, et 14 la configuration {SVO,
prépositions, Adj-N} dont 8 avec au surplus N-Génitif et 6 avec Génitif-N, les 6 autres
langues se disséminant dans des configurations marginales. Enfin, pour les 64 langues à
ordre SOV, 52 partagent les trois propriétés {SOV, postpositions, Génitif-N} dont 28 avec en
outre Adj-N et 24 avec N-Adj, tandis que 11 des 12 restantes partagent les trois propriétés
{SOV, prépositions, N-génitif} avec N-Adj pour 7 d’entre elles et Adj-N pour les 4 autres.
29 On peut donc résumer ces données sous la forme suivante où « > » désigne une relation de
supériorité quantitative, l’effectif en langues attestées de chaque propriété d’ordre étant
indiqué en indice :
{VSO26, prépositions25, N-Génitif24, N-Adj19 > Adj-N7}
{SVO52, prépositions33 > postpositions19, N-Génitif31 > Génitif-N21, N-Adj33 > Adj-N19}
{SOV64, postpositions59, Génitif-N53 > Génitif-N11, N-Adj35 > Adj-N29}
30 On peut en tirer trois conclusions :
i. L’ordre VSO est en corrélation forte avec la présence de prépositions et l’ordre N-Génitif,
l’ordre SOV inversement avec la présence de postpositions et l’ordre Génitif-N. Il y a
harmonie (Croît 1990 : 55) entre la structure de la proposition et celle du SN, le même ordre
tête-modificateur (VSO) ou modificateur-tête (SOV) étant privilégié.
ii. L’ordre SVO est en revanche en corrélation préférentielle mais non décisive avec les
prépositions, l’ordre N-Génitif et l’ordre N-Adjectif (c’est-à-dire l’ordre tête-modificateur) ;
cette dispersion témoigne de la concurrence entre deux motivations, l’ordre SV étant du
type modificateur-tête dans la conception de Tesnière6 ou tête-tête dans celle de Chomsky,
et l’ordre VO du type tête-modificateur.
iii. L’ordre N-Adj l’emporte, même pour les langues SOV, c’est-à-dire que dans ce cas il y a une
dysharmonie entre l’ordre modificateur-tête de la proposition (actants•-verbe) et l’ordre tête-
modificateur du SN (nom régissant-adjectif régi).

31 Le quatrième pas consiste dans la recherche d’une explication (éventuellement externe)


pour les phénomènes de dysharmonie observés. Hawkins propose deux explications, la
mobilité (les démonstratifs, numéraux et adjectifs étant plus mobiles que le génitif et la
relative) et surtout le poids relatif (heaviness) évalué en nombre de morphèmes ou de
syllabes, avec par ordre de poids croissant le démonstratif et le numéral puis l’adjectif, le
génitif et la relative. Dans l’échantillonnage originel plus restreint de Greenberg (1963),
sur 11 langues à ordre SOV, deux présentent la relative postposée (ordre dysharmonique)
et une la relative à ordre indifférent, et quatre l’ordre N-Adj au lieu de Adj-N attendu. Il
est peu vraisemblable que l’ordre N-Adj résulte de la concurrence entre la motivation
76

d’ordre modificateur-tête et celle de poids relatif dans la mesure où l’adjectif régi a peu
de chances d’être notablement plus lourd que le nom régissant, il s’agit donc plus
vraisemblablement d’adjectifs mobiles dont l’ordre N-Adj n’est que dominant. En
revanche, pour les relatives, le facteur de poids relatif est prépondérant et celui de
mobilité peu vraisemblable compte tenu de la structure propositionnelle de la relative. Ce
facteur de poids relatif est typiquement d’ordre cognitif puisqu’il met en cause les
conditions de traitement, c’est-à-dire l’empan de la mémoire de travail 7.

2.2. Les motivations en concurrence et les hiérarchies


implicationnelles universelles : le cas de l’ergativité• partagée

32 Les langues à cas se distribuent en trois types principaux de marquage casuel. Dans le
système nominatif-accusatif les fonctions syntaxiques de sujet et d’objet déterminent
l’assignation du cas : les sujets sont exprimés au cas nominatif, les objets au cas accusatif.
Les fonctions syntaxiques suffisent à déterminer le cas. Dans le système ergatif-absolutif• la
transitivité du prédicat est le facteur déterminant : les sujets de prédicats transitifs sont
exprimés par le cas ergatif, ceux de prédicats intransitifs et les compléments d’objet de
prédicats transitifs sont exprimés au cas absolutif. Enfin dans le système actif-inactif, qui
touche un nombre de langues très limité, ce sont les rôles sémantiques qui déterminent
l’assignation de marques casuelles : les constituants agentifs• sont au cas « actif », les
constituants non-agentifs au cas « inactif ».
33 La variation de marquage du sujet dans le système ergatif en fonction de la présence ou
de l’absence d’un objet révèle la concurrence entre deux motivations : le sujet de la
proposition à un seul actant peut certes subir l’événement, mais s’il le contrôle, il reçoit
un marquage neutre (dit « absolutif », souvent non marqué) qui laissera la place à un
marquage ergatif si le patient est mentionné. C’est un facteur d’instabilité qui favorise
l’interférence avec des propriétés cognitives de deux ordres, représentationnelles et
mandatives, qui entraînent le phénomène dit d’ergativité partagée. Les premières
concernent les classes de représentation des événements (par exemple l’aspect
intrinsèque ou « aktionsart• », les propriétés d’actance) et des participants (par exemple
le caractère comptable vs. massif, animé vs. non animé, etc.), les secondes la deixis•
temporelle•, la visée aspectuelle, les modalités logiques et énonciatives, la référence et la
deixis nominales•.
34 La hiérarchie d’animation de Silverstein (1976), qui peut jouer un rôle déterminant dans le
marquage casuel hybride, combine effectivement des propriétés cognitives des deux
ordres. Le parangon de l’animé est l’allocutaire, suivi du locuteur et d’un pronom de3 e
personne. C’est donc la propriété de participation à l’acte de communication qui domine.
Le quatrième degré de l’échelle est représenté par les noms propres, lesquels assurent
une fonction référentielle (toujours une propriété énonciative), et les degrés inférieurs
distinguent les humains, les animaux et les objets inanimés (propriétés
représentationnelles). L’ergativité partagée est la combinaison des marquages casuels
ergatif et accusatif dans une langue, distribuée à travers ses sous-systèmes. Les langues
ERG/ACC présentent donc un marquage casuel hybride. Dans ces langues, la probabilité
d’un marquage ERG pour l’agent ou, inversement, d’un marquage ACC pour le patient est
inversement proportionnelle à leur « naturalité », c’est-à-dire à la conformité entre le
statut intrinsèque du participant et le rôle sémantique qu’il doit assumer dans l’énoncé.
77

35 Les agents les plus naturels sont l’allocutaire et le locuteur parce qu’ils sont des humains
engagés dans l’acte de co-énonciation. Inversement, les objets inanimés sont des patients
naturels. Si cette corrélation prototypique entre la classe conceptuelle et/ou énonciative
des participants et leur rôle sémantique est respectée, aucun marquage spécial n’est
nécessaire. En revanche, plus l’agent ou le patient est éloigné du prototype
correspondant, plus il a de chances d’être marqué respectivement comme ERG ou ACC (cf.
tableau 5).

Tableau 5
Modèle du marquage casuel hybride accusatif ou ergatif en fonction de la hiérarchie d’animation

degré de naturalité marquage degré de naturalité marquage


Hiérarchie
de l’agent de casuel de du patient de casuel du
d’animation
l’énoncé l’agent l’énoncé patient

2e personne +++ Ø --- ACC

1e personne ++ Ø -- ACC

3e personne + Ø - ACC

Nom propre +/- Ø/ERG +/- ACC/Ø

Humain - ERG + Ø

Animal -- ERG ++ Ø

Inanimé --- ERG +++ Ø

36 L’échelle de naturalité de l’agent de l’énoncé, qui va de +++ pour le pronom allocutaire à –


– – pour la désignation d’un inanimé, est l’inverse de celle du patient. Un patient naturel
investi d’un rôle agentif (et donc causatif•) dans l’énoncé doit recevoir une marque
d’ergatif pour compenser sa faible agentivité. Inversement, un agent naturel investi d’un
rôle de patient doit recevoir une marque d’accusatif pour neutraliser son agentivité
naturelle. Dans les langues à marquage casuel ergatif sur les noms, le marquage ergatif
manque fréquemment pour la1e et 2 e personne et parfois pour la 3 e. Blake (1994 : 123)
mentionne une langue papou, le fore, pour un usage du cas ergatif déterminé par une
variante de la hiérarchie d’animation : pronom > nom propre > terme de parenté >
humain > animé > non animé.
37 Toutefois les spécifications représentationnelles et/ou énonciatives des SN ne sont pas la
seule cause de partage de l’ergativité. H. Seiler retient deux autres types de paramètres :
la différenciation lexicale des verbes (« partage verbal ») et l’incidence du temps, de
l’aspect et du mode du verbe (« partage ΤΑΜ »). Dans de nombreuses langues, il y a un
partage dans le système de marquage casuel en fonction du temps et de l’aspect. Ainsi le
géorgien et le laz (langue kartvélienne) ont un marquage actif au passé et nominatif-
accusatif au présent. Dans plusieurs langues indo-aryennes (hindi-ourdou, marathi,
punjabi) et dans les langues iraniennes pashtou et kurde, le marquage n’est ergatif qu’au
parfait (cf. Blake 1994 : 127-129).
78

38 Le répertoire des paramètres susceptibles d’affecter un marquage casuel hybride qu’a


établi T. Givón (1984 :153165) combine des caractères d’ordre cognitif et d’ordre
énonciatif : d’un côté le degré de contrôle ou d’intentionnalité de l’agent, le degré
d’affectation du patient et le degré de perfectivité de l’événement concernent la
représentation mentale des caractères intrinsèques du procès, de l’autre le degré de
manifestation du patient (mentionné ou pas), d’achèvement de l’événement (la visée
aspectuelle sécante, globale ou accomplie) et le degré de référentialité• et de topicalité•
des participants (leur statut de protagoniste ou de figurant) touchent la mise en scène du
procès dans l’acte d’énonciation. La présence indissociable de caractères de ces deux
ordres était déjà apparue dans la hiérarchie d’animation de Silverstein et se retrouve
également dans les facteurs contribuant à un marquage de la transitivité (cf. Hopper et
Thompson 1980) et suggère que ces deux ordres de représentation ne sont que deux
facettes qui entrent en composition : la représentation des propriétés invariantes d’un
type de procès et des types de participants qu’il convoque, et celle des propriétés d’un
procès particulier une fois « mis en scène ».
39 Le repérage des facteurs représentationnels et procéduraux qui structurent les
hiérarchies implicationnelles, telles que la hiérarchie d’animation de Silverstein ou celle
de transitivité de Hopper et Thompson, permet-il d’expliquer ces hiérarchies ? C’est ce
que S. Kirby (1998) a cherché à montrer à l’aide d’une simulation par réseau
connexionniste à propos de la hiérarchie de rattachement des propositions relatives à
leur antécédent. Dans toutes les langues du monde, il semble exister un procédé pour
relier une proposition dépendante à un syntagme nominal par l’intermédiaire d’un
pronom relatif sujet (la fille qui t’a dit cela) ou d’une construction apparentée (ex. la fille
vendant des primeurs au marche), c’est l’universel de formation de la relative sujet. Mais
certaines langues ne permettent pas la relativisation à partir de l’objet direct (la fille que
tu as vue/photographiée sur le magazine) et encore moins la relativisation à partir d’un objet
indirect ou d’un circonstant (la fille à qui tu as parlé/avec qui tu sors). On remarque
d’ailleurs qu’en français la construction participiale n’est plus possible dans ce cas. Kirby
défend l’idée que la hiérarchie d’accessibilité à la formation des propositions relatives est
explicable à partir du jeu de deux pressions fonctionnelles concurrentes : la première vise
à réduire la complexité structurale (c’est-à-dire la distance entre la position du pronom
relatif et celle de la trace de la fonction qu’il assume dans la relative : très courte pour le
pronom relatif sujet, très longue par ex. dans Je connais la fille avec le copain de la sœur de
laquelle tu veux monter une boîte) et la seconde à réduire la complexité morphologique. La
simulation de Kirby montre que, en tenant compte des deux types de motivation en
concurrence et en laissant évoluer le système linguistique ainsi modélisé sur un grand
nombre de générations de locuteurs, on aboutit à une représentation de l’évolution d’une
langue qui peut fluctuer entre un rattachement de la relative à l’antécédent par la seule
fonction sujet et un rattachement diversifié par différentes fonctions syntaxiques.
40 L’arrière-plan théorique de la simulation de Kirby est explicitement le processus de la
« main invisible »• (Keller 1994) qui décrit les conséquences globales du comportement
des usagers d’une langue. Les universaux typologiques implicationnels sont « des
résultats non intentionnels d’actions humaines » et Kirby interprète les pressions
fonctionnelles qui influencent la sélection de variantes linguistiques en concurrence en
termes de « lois de transformation » entretenant « une analogie intime avec la pensée
biologique ». La notion centrale d’« état de langage intériorisé », c’est-à-dire de
grammaire individuelle en tant que système cognitif, correspond exactement à la
79

conception de la grammaire défendue par Croft (2000) dans le cadre d’une théorie du
changement linguistique par différenciation dans les réplications• d’énoncés et
stabilisation sous l’effet de pressions sociales (cf. § 3 ci-dessous).

2.3. Schèmes cognitifs universels et variété des moyens


d’expression : l’exemple de la relation de possession

41 B. Heine, africaniste de formation et l’un des promoteurs principaux de la théorie de la


grammaticalisation, défend dans ses ouvrages sur l’auxiliation• (1993), sur la possession (
1997a) et sur les fondements cognitifs de la grammaire (1997b, Heine et Kuteva ; 2002)
l’idée que les intuitions modélisatrices de la Cognitive Grammar de R. Langacker ( cf.
Victorri, ce volume) sont opératoires et méritent d’être testées extensivement. Elles
constituent les bases d’un raisonnement explicatif, mais elles ne sont probantes que
combinées à un raisonnement typologique. Dans son étude des fondements cognitifs de
l’expression diversifiée de la possession, Heine part de quatre hypothèses :
I. La structure de catégories grammaticales est prédictible dans une large mesure une fois
qu’on connaît l’éventail des structures cognitives à partir desquelles elles sont dérivées.
II. Les catégories grammaticales peuvent être traquées jusqu’aux concepts source
sémantiquement concrets.
III. Pour toute catégorie grammaticale, il n’y a qu’un vivier limité de concepts source.
IV. Alors que le choix des sources est déterminé primairement par des modes de
conceptualisation universels, il est également influencé par d’autres facteurs, spécialement
des forces aréales.

42 Il commence par établir la liste de tous les schèmes cognitifs à la source de la


représentation linguistique de la possession prédicative ou attributive :
1. schème d’action : X prend Y
2. schème de localisation : Y est à la place de X
3. schème d’accompagnement : X est avec Y (la chambre est avec salle de bain > la chambre a une
salle de bain)
4. schème d’existence : Y existe par rapport à X
• schème génitif : Le Y de X existe8
• schème du destinataire : Y existe pour9
1. schème du topique : En ce qui concerne X, Y (de X) existe
2. schème de l’origine : Y existe à partir de X
3. schème d’équation : Y est (propriété) de X.

43 Puis il montre comment la grammaticalisation « décatégorialise » les unités significatives


et comment les schèmes sources tendent à se spécialiser dans l’expression d’un type de
possession. Ainsi, la construction possessive anglaise « X has Y » a une syntaxe transitive
parce que cette construction est dérivée du schème d’action et a retenu les principales
propriétés associées à ce schème, mais elle ne peut pas se présenter à la voix passive
(contrairement à « X owns Y »). Cette contrainte révèle un phénomène de
« décatégorialisation » (un représentant typique de la catégorie « verbe d’action » doit
être compatible avec un mode de présentation active ou passive de l’action, ce qui n’est
plus le cas pour have), lequel constitue dans ce cas un degré intermédiaire du processus
de grammaticalisation conduisant à l’emploi de have comme auxiliaire modal (X has to SV
Infinitif
) ou temporel (X has SV Participe passé). La majorité des schèmes employés pour la
80

grammaticalisation de la possession prédicative implique des prédicats dont la


signification originelle concerne la localisation, l’existence, etc., ce qui explique pourquoi
des moyens d’expression de la possession prédicative ressemblent fréquemment à des
moyens d’expression de ces concepts.
44 Les schèmes sources primaires ont une répartition variable par aire géographique. Dans
les langues européennes, ce sont les schèmes 1 d’action et 2 de localisation ; dans les
langues asiatiques, le schème 4 d’existence, plus spécialement sa variante 5 génitive, le
schème 6 du destinataire et le schème 7 du topique ; et dans les langues d’Afrique le
schème 2 de localisation, le schème 3 d’accompagnement et, secondairement, le schème 1
d’action. La situation rencontrée dans les langues européennes présente un caractère
typologiquement « exotique ». La structure linguistique des constructions du type avoir
(X, Y) rencontrée dans les langues romanes et germaniques (mais pas nécessairement
dans les langues slaves, celtes ou finno-ougriennes) est déterminée primairement par les
effets du schème d’action (le possesseur est typiquement encodé comme le sujet de la
phrase et le possédé comme l’objet), alors que dans l’ensemble des langues du monde ce
schème est relativement peu employé comme structure source.

3. Le poids des motivations cognitives et celui des


pressions sociales dans le changement linguistique
45 Dans la typologie fonctionnelle des langues récente, l’arrière-plan historique des types de
langues se révèle une préoccupation majeure de nombreux chercheurs, au-delà de l’aire
limitée de la grammaticalisation illustrée au § 2.3 par l’œuvre de B. Heine. Dans cette
perspective, je pense que l’ouvrage récent de W. Croft, Explaining Language Change, sous-
titré An Evolutionary Approach (2000) est destiné à soulever l’intérêt de la communauté des
fonctionnalistes.
46 Croft vise une théorie évolutionniste de la sélection des « linguèmes• », définis comme
« unités de structure linguistique concrétisées dans des énoncés particuliers qui peuvent
être hérités par replication » (2000 : 239). Il rejette fondamentalement la vue
« essentialiste » des langues caractéristique du structuralisme américain. En biologie, les
espèces ne sont plus identifiées au moyen de propriétés structurales essentielles et sont
maintenant conçues comme des populations ouvertes à des variations individuelles.
L’espèce est ainsi redéfinie comme « une population d’individus se reproduisant par
croisement (interbreeding) ».
47 Selon Croft, une langue se définit sur la base de l’interaction communicationnelle
effective et de la conviction des locuteurs qu’ils communiquent « dans la même langue ».
Cette conviction est la source de sa distinction entre les langues « de mêmes parents » –
sibling languages, dialectes étroitement apparentés que leurs locuteurs tiennent pour des
langues différentes – et les langues « polytypiques » – langues vaguement apparentées
que leurs locuteurs respectifs considèrent comme une seule langue.
48 Les trois concepts principaux de la linguistique « évolutionniste » de Croft, l’énoncé, la
langue et la grammaire, introduits en relation avec la « théorie généralisée de la
sélection » de David Hull (1988), sont comparés à leurs équivalents en biologie
évolutionniste.
49 Un énoncé est « une occurrence particulière, effective, produite par un comportement
humain en interaction de communication (c’est-à-dire une chaîne de sons), telle qu’elle
81

est prononcée, structurée grammaticalement et interprétée sémantiquement et


pragmatiquement dans son contexte » (Croft 2000 : 26). Un énoncé est une chaîne
structurée de linguèmes. Ceux-ci sont l’équivalent linguistique des gènes en biologie et les
linguèmes aussi bien que les gènes sont des instantiations paradigmatiques du concept de
réplicateur dans la généralisation de Hull. Ainsi les énoncés instancient des ensembles
structurés de réplicateurs tout comme les chaînes d’ADN en biologie.
50 Une langue est « la population des énoncés dans une communauté de discours » (ibid.). Elle
est vue comme un vivier de linguèmes comparable à un vivier de gènes. Les variantes de
langue sont des réplicateurs alternatifs et à ce titre équivalents aux allèles en biologie.
51 Une grammaire est « la structure cognitive dans l’esprit d’un locuteur » qui contient sa
connaissance de sa langue et c’est « la structure qui est utilisée dans la production et la
compréhension des énoncés » (ibid.). C’est l’instanciation paradigmatique dans la
communication linguistique de l’interacteur, c’est-à-dire l’entité qui interagit avec son
environnement « de manière à produire une replication différenciée » (ibid. : 238) et, de
ce fait, une sorte d’organisme du langage.
52 Le locuteur en interaction réplique sa grammaire interne quand il produit des énoncés.
Dans un premier temps, des processus cognitifs perturbateurs tels que la réanalyse du
message reçu ou des interférences entre codes dans des situations de bilinguisme peuvent
entraîner des variations dans la replication. Dans un second temps, la réplication
différenciée conduit à l’établissement de variantes divergeant aux niveaux phonologique,
lexical et/ou syntaxique, avant que des facteurs sociaux ne pilotent la sélection et la
propagation de l’une des variantes du vivier ainsi constitué. Le propos de Croft est donc
double :
• En premier lieu il entend mettre le doigt sur l’avantage pour la linguistique fonctionnelle à
élaborer un modèle explicatif intégré dans une théorie générale de la sélection adaptative ;
• ensuite il suggère que deux méthodes qui considèrent les langues comme des populations
plutôt que comme des essences, en l’occurrence la typologie fonctionnelle des langues et la
sociolinguistique, peuvent en fusionnant expliquer les deux stades du changement
linguistique, la différenciation de variantes résultant des réplications individuelles, puis la
sélection d’une variante par le corps social.

4. L’ontogénèse : comment l’acquisition des relations


sémantiques précède celle des relations syntaxiques
53 Les thèses d’inspiration fonctionnaliste sur l’acquisition et la transmission (cf. Deacon au
§ 5.2) du savoir linguistique se présentent essentiellement comme des répliques à la
théorie de « l’instinct du langage » de S. Pinker (1994). Dans l’épilogue de Van Valin et
LaPolla (1997 : 640-649) intitulé The Goals of Linguistic Theory Revisited, les auteurs
critiquent l’idée que « le capital cognitif qui permet aux enfants d’apprendre une langue
est autonome ». Leur propos est fondamentalement d’adapter au cadre de la Grammaire
des rôles et de la référence la thèse de M. Braine (1992) sur le type de structure innée
nécessaire pour accéder à la syntaxe. Braine se propose de discuter la théorie des
catégories syntaxiques innées de Pinker qui se présente sous la forme de trois primitives
développementales :
54 (1) Un mécanisme d’apprentissage qui recourt à un principe d’analyse de nouveaux
matériaux à l’aide de règles anciennes ;
82

55 (2) des catégories sémantiques telles qu’argument et prédicat, ainsi que des catégories
ontologiques, par exemple objet, lieu, action, événement, etc
56 (3a) des catégories syntaxiques naturelles N, SN, V, SV, etc.
57 La contre-proposition de Braine consiste à substituer la primitive (3b) à (3a) :
58 (3b) une tendance à classer les mots et les syntagmes que (1) ne permet pas de classer,
comme référant à des instances des catégories de (2).
59 Ce qu’il rejette, c’est l’idée que « les catégories syntaxiques de langues existent dès le
début de l’acquisition du langage comme des catégories innées ayant une réalité
biologique et psychologique distincte de leurs membres canoniques » (p. 91). Selon ses
observations, les catégories syntaxiques émergent sous l’effet conjoint des primitives (1)
et (3b). Ce faisant, il pose une question cruciale à propos de la fonctionnalité du langage :
si les enfants commencent par des catégories sémantiques, pourquoi les langues ont-elles
des catégories syntaxiques dont l’extension ne correspond pas à celle de ces catégories
sémantiques ? Il y répond prudemment en listant quelques facteurs critiques de disparité
entre catégorisation sémantique et syntaxique :
I. Les limites floues des catégories sémantiques plausibles du langage de la pensée ;
II. le recouvrement et la concurrence entre catégories sémantiques (telles que les rôles
sémantiques) et catégories pragmatiques (par exemple les fonctions de topique et de focus)
qui doivent être corrélées aux structures syntaxiques ;
III. la sensibilité des apprenants aux similarités phonologiques entre les mots ;
IV. et le nombre restreint de positions structurales distinguables en raison de la linéarité
obligée du discours.

60 À la théorie de Braine dérivant les catégories syntaxiques de catégories sémantiques


primaires, Van Valin et LaPolla ajoutent l’observation qu’il y a des patrons
interlinguistiques frappants dans l’acquisition des temps et des aspects, des modalités et
de la négation. Ainsi les distinctions aspectuelles apparaîtraient toujours avant les
distinctions temporelles. Ils interprètent ces observations comme un argument
développemental pour la stratification adoptée dans la « projection des opérateurs » de
leur modèle grammatical, dans laquelle l’aspect est dans la portée de la modalité de base
(capacitive, aléthique• et déontique•), laquelle est à son tour dans la portée du temps et de
la modalité épistémique (1997 : 644).
61 Dans la même veine, Tomasello (2000) décrit une expérience développementale très
instructive dans laquelle il a enregistré environ 10 % de tous les énoncés produits par une
enfant âgée de deux ans en interaction avec sa mère durant une période de six semaines.
Chaque énoncé de la dernière période a été comparé à des énoncés similaires produits par
l’enfant antérieurement dans l’enregistrement. Tomasello qualifie les opérations
syntaxiques réalisées par l’enfant dans les derniers jours de « fondées sur l’usage » car
« l’enfant composait ses énoncés à partir d’un assortiment hétéroclite de différentes
sortes d’unités psycholinguistiques préexistantes ». Cela se faisait en coupant et collant
les constructions qu’elle maîtrisait auparavant. Les deux plus importantes conclusions de
cette expérience sont en premier lieu que les matérieux stockés, récupérés et réutilisés
par l’enfant étaient hautement diversifiés, allant des mots simples à des catégories
abstraites et à des énoncés ou des patrons syntaxiques partiellement instanciés (p. 77), et
que les enfants combinent non seulement les formes linguistiques impliquées mais aussi
les fonctions communicatives conventionnelles de ces formes comme le postulent la
83

grammaire cognitive de Langacker ou la grammaire de construction de Fillmore, Kay et


Goldberg (cf. Victorri, ce volume).

5. La prise en compte de contraintes cérébrales dans


le traitement et l’émergence du langage
62 Le développement récent simultané de différentes techniques de neuro-imagerie
fonctionnelle, appliquées entre autres au langage (cf. Houdé et al 2002, 3e partie, chap.
3-5) et de simulation du comportement linguistique par réseaux neuronaux (cf. Elman et
al. 1996 ; Kirby 1998) a développé l’intérêt pour les contraintes d’ordre neurolinguistique et
permis des avancées dont je n’évoquerai que deux facettes, la modélisation de la variation
individuelle dans la mise en relation du sens et de l’expression (§5.1) et celle des phases
probables de la phylogénèse du langage (§ 5.2).

5.1. Une linguistique « neurocognitive » pour rendre compte de la


variation interindividuelle dans le traitement du langage

63 S. Lamb est connu pour avoir conçu dans les années 1960 (cf. Lamb 1966) un modèle de
grammaire « stratificationnelle » qui, comme le souligne Jackendoff (2002 : 128) était la
première esquisse d’une théorie multigénérative. En effet, dans la version la moins
sophistiquée, chacune des strates phonémique, morphémique, lexémique et sémémique
(Lamb était originellement un adepte de la tagmémique• de K. Pike) présentait une
composante combinatoire, respectivement la phonotactique (combinant les phonèmes en
morphèmes), morphotactique (combinant ceux-ci en lexèmes), lexotactique (combinant
les lexèmes en propositions) et sémotactique (combinant les sèmes lexicaux en sémèmes).
Le modèle a connu moins de succès que la théorie Sens-Texte assez apparentée de I.
Mel’chuk, sans doute parce que les représentations multistratiques, évoquant des
tableaux de connexions électriques, étaient d’un maniement difficile. Mais, dès 1971,
Lamb évoquait la validité cognitive des réseaux de combinaison des unités phonémiques,
morphémiques et lexémiques et de la corrélation entre lexèmes et sémèmes. Et, en 1999,
il a fourni une version explicitement « neuro-cognitive » de sa théorie en la combinant
avec le modèle « néo-associationniste » de traitement neurophysiologique du langage de
N. Geschwind (1965).
64 Lamb (1999 : 140, figure 8-10) distingue d’une part trois sous-systèmes linguistiques, celui
de la production grammaticale précédant la production phonologique, celui de la
reconnaissance phonologique précédant inversement la reconnaissance grammaticale et
celui des connexions lexicales abrégé en « lexis », et d’autre part quatre sous-systèmes
extralinguistiques, de perception somatique (ou proprioception), de perception auditive
et de perception visuelle (sur trois niveaux de repérage en deux dimensions, deux
dimensions et demie, et trois dimensions). Les trois sous-systèmes linguistiques sont en
rapport avec des catégories conceptuelles d’un premier niveau, dites catégories
objectales, et à l’inverse des catégories de production articulatoire en rapport avec les
mécanismes de la parole. La lexis sert d’interface entre les catégories objectales et les
catégories abstraites qui constituent le second niveau des catégories conceptuelles, ce qui
revient à dire qu’un objet peut être catégorisé avant l’acquisition du langage (ceci est un
chat), mais que l’attribution à cette catégorie d’une catégorie superordonnée (un chat est
84

un félin) présuppose la disposition du lexique approprié. La lexis est conçue comme en


relation directe avec la reconnaissance phonologique mais indirecte avec la production
phonologique, parce que l’enfant qui acquiert une langue adapte sa production à sa
reconnaissance.
65 La théorie de linguistique neurocognitive de Lamb distingue deux types de relations :
unimodales (catégorisation linguistique d’expression et de contenu) et multimodales
(entre catégorisation linguistique et extralinguistique). À titre d’illustration (p. 152,
figure 9-8), le concept de CHAT C/chat/ (catégorie d’objet) est en relation d’une part avec le
concept de FÉLIN C/félin/ (catégorie d’objet superordonnée) et d’autre part avec le lexème
chat L /chat/. Le concept de FÉLIN est en relation aussi bien avec le lexème chat qu’avec le
lexème félin, ce qui fonde la proposition universelle Tout chat est un félin. Pour ce qui
concerne les relations multimodales, le concept de CHAT est en relation avec le percept
visuel de la silhouette d’un chat, le percept auditif de miaulement par l’intermédiaire du
concept de miaulement (≈ ce qui miaule, c’est les chats) et le percept tactile de la fourrure
d’un chat.
66 Sur la base, d’une part, de ce qu’il appelle le « principe de proximité » et, d’autre part, des
acquis sur le rôle du faisceau arqué comme transmetteur d’informations entre production
phonologique et grammaticale (dans l’aire de Broca) et reconnaissance phonologique et
grammaticale (dans l’aire de Wernicke), Lamb essaie de localiser grossièrement dans
l’hémisphère gauche du cerveau les représentations associées au lexème chat
préalablement distinguée. Sur la figure 18-2 : Approximative locations of sonne nections of the
concept CAT, Lamb représente par des arcs les « nexions » entre une zone affectée à la
représentation lexicale et une zone affectée à la représentation conceptuelle de cat, une
zone de reconnaissance et une zone de production phonologique, et des zones de
reconnaissance du toucher de la fourrure du chat, de la vision d’un chat et de l’audition d’un
miaulement.
67 Plus importante à mon sens est chez Lamb la prise en compte de la variation
interindividuelle dans la corrélation entre le lexique et les concepts. Cette variation est une
conséquence de deux principes fondamentaux de la linguistique neurocognitive : le
système cognitif est un processeur parallèle où chaque « nexion » est son propre
processeur, et l’apprentissage est un processus d’activation sélective des connexions
issues de « nexions » latentes. Lamb précise que « le système linguistique couplé au
système conceptuel de chaque locuteur est différent de celui de tout autre locuteur. Il n’y
a donc pas de possibilité de communication parfaite par le langage » (1999 : 376).
68 Une illustration convaincante de cette hypothèse variationniste est fournie par l’étude
des « catalyses coexistantes » du lexème hamburger en anglo-américain. Un Américain
moyen n’associe pas le lexème hamburger au port allemand de Hambourg. De ce fait, il n’a
pas tendance à segmenter ce mot en une base lexicale hamburg et un suffixe-er. Comme il
dispose par ailleurs d’un paradigme morpholexical {fishburger, steakburger, cheeseburger}, il
tend à segmenter hamburger en ham + burger. Pour ces mots, même si le second
constituant n’a pas d’existence autonome, le premier est sémantiquement clair : il s’agit
de sandwiches contenant respectivement du poisson, du steak ou du fromage. Cependant,
ce n’est pas vrai du hamburger qui ne contient pas de jambon (ham) mais du steak haché. Il
en résulte un conflit entre un facteur positif, la présence du paradigme morpholexical, et
un facteur négatif, la disparité entre la désignation ham et le contenu du sandwich. Pour
l’Américain moyen, le premier facteur l’emporte en raison de l’absence du troisième, à
savoir la référence au port de Hambourg. En revanche, pour les Américains qui
85

soupçonnent que la tradition de ce sandwich pourrait venir du port de Hambourg, le


facteur négatif équilibre l’existence du paradigme et la segmentation en hamburg + er
l’emporte.
69 La mise en évidence des variations interindividuelles conforte donc l’hypothèse de
validité cognitive d’une conception qui se dit « relationnelle » de la corrélation entre
expression et contenu linguistique par l’intermédiaire des relations multimodales. Ces
variations représentent également un type de concurrence entre motivations à l’échelle
de la grammaire interne d’un locuteur.

5.2. La phylogénèse et la thèse de la co-évolution entre cerveau,


esprit et langage
5.2.1. L’émergence de l’« instinct » du langage

70 Comment ce que S. Pinker appelle « l’instinct du langage » a-t-il pu émerger à l’aube de


l’espèce humaine ? L’anthropologue Terrence Deacon (1997, chap. XI : « And the Word
Became Flesh ») défend un modèle d’évolution « baldwinien ». La théorie de Baldwin (1902)
explique en quoi les comportements des individus peuvent affecter l’évolution, tout en
faisant l’économie de la thèse de Lamarck selon laquelle les réponses aux exigences
environnementales acquises tout au long d’une vie pourraient être transmises
directement à la progéniture. Deacon en donne une illustration avec l’évolution de la
tolérance au lactose chez les peuples pratiquant de longue date l’élevage : « L’emploi de
lait animal comme source de nourriture, malgré des difficultés à le digérer pour certains,
a favorisé la reproduction de ceux qui le toléraient » (1997 : 323).
71 Il s’accorde avec l’assimilation du langage à un instinct prônée par S. Pinker sur le
premier volet de son argumentation, l’hypothèse primaire de l’émergence aléatoire d’un
protolangage chez un ancêtre reculé de l’Homo sapiens qui aurait procuré des avantages
adaptatifs conduisant à l’internalisation de certains traits cruciaux de structure
linguistique. Mais il s’en écarte sur la nature de ces traits. Il argumente contre
l’hypothèse secondaire de l’inscription dans le patrimoine génétique d’une grammaire
universelle en observant que seuls les traits du langage les plus invariants et les plus
généraux persistent assez longtemps pour contribuer à un effet significatif sur l’évolution
à long terme du cerveau, et que les structures linguistiques ne font pas partie de ces
invariants parce que le changement linguistique est infiniment plus rapide que le
changement génétique. Il voit dans la référence symbolique la seule pression sélective
concevable pour l’avantage massif concédé à l’apprentissage linguistique dans l’espèce
humaine, considérant que « l’universalité n’est pas en elle-même un indicateur fiable de
ce que l’évolution a construit dans les cerveaux humains » (ibid. : 339).
72 Cependant, le type d’universalité en cause est seulement celui de la Grammaire Universelle
d’inspiration chomskienne, c’est-à-dire des universaux de catégorisation syntaxique et de
règles de combinaison des catégories syntaxiques. Les universaux implicationnels de
Greenberg (cf. § 2.1) ne sont pas en cause, pas plus que les dimensions universelles de
conceptualisation linguistique de Seiler (2000). Et quand Deacon conclut : « Les demandes
computationnelles de symbolisation ne sont pas seulement la source majeure des
pressions sélectives qui pourraient avoir produit la restructuration particulière de nos
cerveaux, il est vraisemblable qu’elles sont aussi la source indirecte de toute la suite de
capacités et de propensions qui constituent désormais notre “instinct” du langage »
86

(1997 : 340), on peut supposer qu’il a en tête des schèmes cognitifs universels du type
proposé par Heine (cf. § 2.3).

5.2.2. Les deux phases successives de symbolisation lexicale et grammaticale

73 T. Givon (1995 : 393-445 ; 1998) partage le point de vue de T. Deacon sur la co-évolution
plausible entre le cerveau, l’esprit et le langage, mais en linguiste et typologue il précise
les modalités de l’évolution de la capacité de langage en distinguant une première phase
de symbolisation lexicale suivie d’une seconde phase d’émergence de la grammaire.
74 Givón suppose en premier lieu que le système humain de traitement du langage s’est
développé primairement comme une extension graduelle du système de traitement de
l’information visuelle. Il argumente en trois points :
a. 1. Dans le cerveau du primate, on a pu montrer que l’information visuelle suit deux voies à
partir de l’aire primaire visuelle, la voie ventrale ou temporale pour la vision des objets et
la voie dorsale ou pariétale pour l’attention visuelle et les relations spatiales (1995 :408,
figure 1).
2. La reconnaissance des objets est le précurseur visuel des concepts lexicaux et celle des
relations spatiales et du mouvement est celui des informations propositionnelles sur les
états et les événements (ibid,. : 409).
3. Tous les modules du cerveau concernant le langage se révèlent adjacents à un précurseur
prélinguistique plausible. Or, l’aire sémantique médio-temporale qui connecte à la
réception l’information conceptuelle et visuelle se situe sur la voie ventrale de traitement
de l’information visuelle (ibid. : 422, figure 6).

75 Givón en conclut que le premier code lexical du langage humain était un code visuel et
gestuel iconique, et que le passage à un code auditif-oral doit avoir eu lieu plus tard sous
l’effet de différentes pressions adaptatives. Le système de codage visuel-gestuel est
initialement iconique et naturel, mais non automatisé. C’est par répétition et ritualisation
des actes de communication que le code de communication devient abstrait, arbitraire et
automatique. À ce stade, l’iconicité originelle devient en effet une entrave. La
conséquence est, selon Givón, que le système de codage gestuel perd son avantage
adaptatif initial. C’est lié à l’extension des relations sociales du cercle étroit des intimes –
où la communication est essentiellement manipulative, à base de commandes et de
requêtes – à une société ouverte sur des étrangers où des informations déclaratives
explicitement codées prennent le pas.
76 L’avantage adaptatif des actes de langage déclaratifs est énorme, facilitant les tâches
essentielles dans une société humaine plus complexe. La planification conjointe
d’activités futures, la coopération et la coordination de tâches collectives, l’apprentissage
à partir de l’expérience des autres et l’instruction et la transmission de valeurs culturelles
et de savoir-faire techniques, tout cela est largement dépendant d’informations
déclaratives (ibid. : 434).
77 Givón esquisse un tableau suggestif des conditions de transition entre la phase de
symbolisation lexicale et de protogrammaire et la phase ultérieure de symbolisation
grammaticale. Les règles de la protogrammaire concernent l’intonation, la mise en ordre
des items lexicaux, elles stipulent la disposition de l’information importante en tête, le
respect de l’iconicité• chronologique, l’omission de l’information prédictible, peu
importante ou non pertinente. Ces règles ne sont en fait rien d’autre que le reflet de
l’organisation du traitement de l’information visuelle. Le développement de la grammaire
87

rend possible la société complexe et diversifiée entre étrangers en permettant un


discours multipropositionnel et un traitement accéléré de l’information linguistique.
Cependant, la prédominance du codage grammatical n’abolit pas les principes de codage
utilisés dans la protogrammaire précoce. Ils constituent en quelque sorte un noyau
primaire intégré au codage grammatical abstrait et arbitraire, c’est pourquoi l’iconicité
demeure un fondement sous-jacent du langage en dépit de la prédominance superficielle
d’un codage arbitraire.

6. Conclusion
78 Les travaux abordés dans ce chapitre attestent le rapprochement qui s’est effectué dans
les deux dernières décennies du XXe siècle entre les orientations fonctionnelle et
cognitive en théorie grammaticale. Ce rapprochement résulte du développement de la
typologie fonctionnelle des langues qui ne tient plus seulement compte de motivations
internes au langage, mais a développé à la suite de l’article pionnier de J. DuBois (1985)
l’analyse du jeu complexe de compétitions et de coopérations entre motivations internes
et externes (celles-ci d’ordre cognitif, énonciatif et plus particulièrement, chez W. Croft,
d’ordre social) qui stabilise les langues ou les fait évoluer. Les analyses de R. Langacker
sur la transitivité ou la catégorisation syntaxique vont dans le même sens que celles de
Givon (1995) ou Croft (1990) parce que ces auteurs intègrent le point de vue des
représentations cognitives dans leur approche fonctionnelle. Cette intégration permet de
comprendre pourquoi les langues, tout en stabilisant des structures arbitraires,
conservent un fond d’iconicité (cf. Givon au § 5.2).
79 Il se peut que le dernier ouvrage de R. Jackendoff (2002) favorise un rapprochement plus
vaste entre d’une part les « théories de la grammaire fondées sur l’usage » (le
regroupement des linguistiques fonctionnelles et cognitives selon M. Tomasello) et le
modèle d’« architecture parallèle », c’est-à-dire de génération de structures de trois
types, phonologiques, syntaxiques et sémantiques-conceptuelles, préconisé par
Jackendoff. Trois arguments plaideraient dans ce sens :
• Jackendoff préconise un amaigrissement drastique de la composante syntaxique au profit
d’un corps plus étendu de règles (morpho) phonologiques et sémantiques et de règles
d’interface entre phonologie et syntaxe et entre syntaxe et sémantique. Il réfute la validité
d’une grammaire centrée sur la syntaxe, ce qui va dans le même sens que, par exemple, la
Functional Grammar de S. Dik (1978, 1997), la grammaire des rôles et de la référence de R. Van
Valin (cf. Van Valin et LaPollac 1997) ou la Théorie Sens-Texte de I. Mel’chuk.
• Il montre que cette architecture parallèle favorise la prise en compte à la fois des faits de
langue (relevant de la grammaire interne du locuteur) et des processus du traitement en
réception et en production, parce que les composantes d’interface corrèlent des structures
des trois ordres de la phonologie vers la sémantique pour modéliser la réception et de la
sémantique vers la phonologie pour modéliser la production.
• Il se place sur le terrain des fonctionnalistes qui, tels Givón ou Lamb, cherchent à saisir la
place du langage dans le comportement cognitif global de l’individu en prenant en compte le
traitement du langage au niveau neurocognitif, et de ceux qui cherchent à penser la
diachronie et l’émergence des langues à partir d’un modèle biologique, tels Croft ou Deacon.
Le sous-titre de son ouvrage, Brain, Meaning Grammar, Evolution, et l’ordre de mention de ses
quatre composantes sont significatifs : le développement du cerveau permet l’activité
88

symbolique source de la signification, laquelle est stabilisée par l’émergence de la


grammaire au cours de l’évolution.
80 Cependant deux autres arguments vont dans le sens inverse :
• En premier lieu, Jackendoff reste fidèle à la distinction entre compétence et performance et
au caractère spécifique de la faculté de langage parmi les facultés appartenant au
patrimoine génétique de l’espèce humaine. Mais le point de vue du paléoanthropologue T.
Deacon qui identifie l’émergence de l’espèce humaine, non à partir de critères anatomiques,
mais en vertu de la seule faculté de symbolisation – il qualifie l’homme en émergence d’Homo
symbolicus – et donc d’échange ritualisé de signes d’abord gestuels puis oraux, va dans le
même sens, celui d’une spécificité de l’aptitude humaine au maniement sophistiqué des
signes, donc d’une faculté sémiotique.
• Ensuite, Jackendoff ne s’investit pas directement dans la typologie des langues, ce qui place
la controverse sur un terrain plus abstrait, en particulier à propos des universaux
substantiels, formels et architecturaux, qui manquent de fondement empirique.
81 Une unification des trois approches paraît souhaitable si l’on veut que la linguistique
théorique acquière le statut d’une science à part entière. Encore faut-il s’entendre sur le
modèle épistémologique auquel on la confronte. La linguistique reste encore largement
tentée par le modèle des sciences physiques (ce que John Haiman a appelé physics envy).
Pour les représentants de la typologie fonctionnelle des langues comme pour ceux des
grammaires cognitives, « la physique est une science physique analytique, recourant
largement à l’approche expérimentale, non fonctionnelle et anhistorique, tandis que la
linguistique est, ou devrait être, une science sociale intégrative, employant largement
l’approche comparative et observationnelle, fonctionnelle et historique » (Croft 1998 :
302). C’est sur ce terrain épistémologique que le débat entre formalistes et
fonctionnalistes, esquissé au § 1 à propos de la notion fondamentale d’explication, devrait
être poursuivi.

NOTES
1. Cette critique concerne uniquement les tenants du fonctionnalisme intégratif et, à l’intérieur
même du camp fonctionnaliste, Croft exprime les mêmes réticences à l’égard des thèses
intégrativistes. Il souligne qu’il n’a pas encore été démontré que les motivations concurrentes
postulées par les typologistes soient le résultat d’interactions communicationnelles entre
locuteurs et qu’aucune expérience psycholinguistique n’a encore prouvé que l’économie et
l’iconicité sont bien, comme l’affirme Haiman, les deux moteurs principaux de la structuration
linguistique (1995 : 515).
2. Ce qui est plus particulièrement développé dans la Cognitive Grammar de R. Langacker et
rappelle que celle-ci constitue un embranchement des grammaires fonctionnelles (cf. Croft 1993).
Les travaux de B. Heine (1993, 1997a, 1997b ; Heine et Kuteva 2002), qui dégagent un catalogue
fini de schèmes cognitifs sources de grammaticalisation à travers les langues, vont dans le même
sens.
3. La notion d’extension métaphorique de l’agentivité a été particulièrement développée par T.
Givón (1989).
89

4. À ce titre, les règles de « linking » entre syntaxe et sémantique de R. Jackendoff (2002) ont aussi
un caractère « fonctionnel ».
5. Si une seule cellule de la table tétrachorique est validée, on est en présence de la combinaison
de deux universaux absolus, par exemple : « Toutes les langues ont des consonnes et ont des
voyelles. »
6. Tesnière (1969 : 23-25) distingue deux types purs de linéarisation des constituants, centrifuge
(c’est-à-dire dépendant-régissant), et centripète (régissant-dépendant). Les ordres dits
centrifuges ou centripètes « accusés » révèlent une corrélation absolue, les ordres dits « mitigés »
seulement une corrélation préférentielle entre un ordre dominant pour les syntagmes verbaux et
un ordre dominant inverse pour les syntagmes nominaux.
7. À titre d’illustration, en allemand un contenu propositionnel peut être rattaché à un
antécédent nominal par une construction participiale préposée avec participe final ou par une
relative postposée avec pronom initial et verbe conjugué final. On observe que la participiale
n’est représentée qu’en langue écrite, car l’attente de l’antécédent constitue une charge
excessive de la mémoire de travail à l’oral. En outre, dans de nombreux cas, l’équivalence entre le
pronom relatif et la variante courte et tonique du démonstratif favorise le déplacement en
seconde position du verbe conjugué dans la relative, ce qui allège également la charge de la
mémoire de travail, par exemple : Ich habe einen Freund, der ist mehrmals rund um die Welt gereist
(« j’ai un ami, qui/il a fait plusieurs fois le tour du monde »).
8. Par exemple en turc pour « j’ai un livre » : Kitab < livre > -im < moi > var < existant>
9. Par exemple en breton pour « j’ai un vélo bleu » ur < un > veto c’hlas < bleu> am < pour moi > eus
< est>.

AUTEUR
JACQUES FRANÇOIS
Professeur à l’université de Caen. Dirige le « Centre de recherche inter-langue sur la signification
en contexte » (UMR 6170, CNRS/Caen). jacques.francois@crisco.unicaen.fr
90

Grammaire diachronique et
cognition : l’exemple du chinois
Alain Peyraube

1 Les études de grammaire diachronique ont été incontestablement la parente pauvre de la


recherche linguistique au cours du siècle dernier. On rend habituellement Saussure
responsable de cette situation : sa fameuse dichotomie synchronie/diachronie aurait
constitué une véritable coupure épistémologique par rapport à la période précédente
(dernier quart du XIXe siècle), dominée par les néogrammairiens. Rien n’est moins sûr.
Saussure lui-même et bon nombre de linguistes européens après lui ont continué l’étude
de la diachronie, sans la réduire au seul domaine phonologique. Bloomfield et les
structuralistes américains ont davantage pris la dichotomie comme un dogme, et cette
position a été perpétuée par les différents courants issus ensuite des grammaires
formelles.
2 Dans les années 1970, toutefois, à la suite des travaux de Greenberg (1966) sur les
universaux de langues, de nombreux travaux sur la typologie, mais aussi sur la diachronie
— tant il est vrai que les deux domaines sont vite apparus liés — ont vu le jour. Depuis une
quinzaine d’années, à l’instar de la linguistique typologique dont un des programmes
essentiels est la recherche d’universaux dans les langues, la grammaire historique a
considérablement élargi sa perspective en se voulant en partie tributaire de la
linguistique cognitive dans son ensemble1. Elle s’est ainsi attachée, au-delà de l’étude des
changements que présentent toutes les langues sans exception, à cerner les lois de
fonctionnement de l’esprit humain. L’idée est la suivante : derrière les changements
grammaticaux particuliers, il y a des principes organisateurs plus abstraits de la faculté
dont ils procèdent, c’est-à-dire des lois du fonctionnement de la faculté de langage.
L’hypothèse essentielle est alors la présence de processus cognitifs à l’origine du
changement grammatical.
3 Aussi, de même que les typologues recherchent en priorité des universaux
implicationnels, les diachroniciens sont-ils à la recherche de régularités, dans des langues
très diverses, qui attesteraient que le changement grammatical n’est pas le fruit du
hasard mais obéit à des contraintes cognitives, voire biologiques, qui nous aideraient à
91

organiser nos perceptions et nos idées dans des voies similaires. Comment s’établit
concrètement ce lien entre linguistique cognitive et grammaire historique ?
4 Dans leur introduction à la linguistique cognitive, Ungerer et Schmid (1996) mentionnent
dans leur dernier chapitre intitulé « Other issues in cognitive linguistics » quelques
questions qui ne ressortissent pas à proprement parler à la linguistique cognitive, mais
qui ont développé, sous l’influence de cette dernière, des lignes de recherche originales et
prometteuses. Ils citent ainsi les études sur l’iconicité, sur la grammaticalisation, sur le
changement lexical et sur l’apprentissage et l’enseignement des langues étrangères.
5 Depuis cinq ans, en fait, les relations entre linguistique cognitive et grammaire historique
ne se limitent plus à quelques avancées théoriques et méthodologiques concernant la
seule notion de grammaticalisation2. La linguistique cognitive a beaucoup renouvelé
l’approche des diachroniciens, du moins pour ceux d’entre eux qui se rattachent au
courant fonctionnaliste de la linguistique, encore que la division entre courant formaliste
et courant fonctionnaliste tende de plus en plus à devenir caduque, comme l’a souligné
Langacker (1999). À l’inverse, les études diachroniques ont aussi, de leur côté, contribué à
ouvrir de nouvelles perspectives au sein de la linguistique cognitive.
6 Deux exemples seront pris dans cet article pour montrer comment les liens entre ces
deux domaines de la linguistique sont devenus plus étroits : l’évolution des structures
locatives et celle des pronoms interrogatifs en chinois. Il s’agit de deux secteurs
importants dont l’étude permet de mieux comprendre ces catégories fondamentales de la
cognition humaine que sont l’espace et l’interrogation.

Évolution des structures locatives en chinois


7 L’évolution des « mots de lieu » (chusuoci) et des « locatifs » (fangweici) du chinois révèle
des épisodes intéressants quant au problème de la polysémie lexicale, un des problèmes
sans doute les plus difficiles à résoudre dans la référence spatiale.

Le modèle de Klein et Nüse (1977)

8 On admettra, avec Klein et Nüse, que cette référence spatiale est articulée autour de trois
composantes essentielles : la structure de l’espace, le contenu sémantique, la dépendance
contextuelle. La seconde de ces composantes, qui nous intéresse ici plus particulièrement,
concerne la signification des expressions spatiales dans une langue donnée.
9 Exemple :
(1) shu fang zai zhuozi shang
livre poser à table sur
Le livre est posé sur la table.
(2) ta zuo zai feiji shang
elle asseoir à avion dans
Elle est assise dans l’avion.
10 Le locatif shang « sur » exprime une relation spatiale entre deux objets. Le premier de ces
deux objets, le « thème• » est localisé relativement au second, le « relatum• ». Comment
rendre compte des différentes significations du locatif shang ? Trois stratégies sont
possibles :
i. La polysémie infinie, stratégie qui consiste à dresser une liste de toutes les occurrences du
mot (« sur », « dans », etc.) et à renoncer à lui attribuer une signification uniforme ;
92

ii. la contextualisation totale, qui suppose que la signification du mot dépend entièrement du
contexte ;
iii. le noyau et les opérations, solution qui cherche à isoler une sorte de « noyau de
signification » qui peut être décrit de façon précise et qui est modifiable ensuite par diverses
opérations sémantiques menant à des usages spécifiques. Ce noyau de signification
correspond aussi à un usage particulier, mais il est particulièrement fréquent et typique.

11 C’est cette dernière hypothèse qui sera adoptée dans la suite de ce chapitre. Cela dit,
comme le soulignent Klein et Nüse (1997), la dérivation peut s’opérer de deux façons et
engendrer deux modèles différents :
a. La signification lexicale propre (signification de base) est générale et ce sont les
connaissances contextuelles, dans des énoncés particuliers, qui ajoutent des spécifications
conduisant à l’interprétation particulière ;
b. la signification lexicale est elle-même spécifique (elle représente une signification
prototypique) et l’utilisation du mot dans un contexte particulier la dévie plus ou moins de
ce prototype•.

12 Ces deux modèles peuvent être ainsi caractérisés :

Tableau 1

NOYAU OPÉRATIONS

MODÈLE « PROTOTYPE » Signification spécifique (Prototype) Ré-interprétations

MODÈLE « SIGNIFICATION DE BASE » Signification générale (signification de base) Additions

13 Le modèle « signification de base », dont Klein et Nüse montrent qu’il est préférable pour
l’analyse des prépositions spatiales, et qui est confirmé par des expérimentations
chronométriques, n’est manifestement pas celui qu’il convient de privilégier pour rendre
compte de l’évolution des structures locatives du chinois, comme nous allons le voir.

Chinois contemporain

14 Comme le suggèrent les exemples (1) et (2) ci-dessus, la structure locative du chinois est
généralement composée, dans cet ordre, d’une préposition de lieu (zai « à »), d’un nom (
zhuozi « table » ou feiji « avion ») et d’un locatif (shang « sur ») qui exprime la position
relative des choses. L’ensemble forme un « mot de lieu ». Seuls les « mots de lieu »
peuvent être les régis d’une préposition de lieu. Les noms ordinaires, c’est-à-dire qui ne
sont pas suivis d’un locatif, n’ont pas cette possibilité (cf. Peyraube 1980) :
(3a) * wo dao shan qu
je à montagne aller
(3b) wo dao shan shang qu
je à montagne sur aller
Je vais à la montagne.
15 Les locatifs forment une classe fermée. Ils peuvent être monosyllabiques ou
dissyllabiques. Les dissyllabes sont obtenus en ajoutant un suffixe (bianr, mianr ou tou) ou
un préfixe (yi ou zhï) au monosyllabe.
16 La liste des locatifs monosyllabiques est la suivante :
93

Tableau 2

bianr mianr tou yi zhi deux locatifs auters

shang « sur » + + + () () (shangxia)

xia « sous » + + + () () (shangxia) dixia

qian « devant » + + + () () (qianhou) tourli

li « dans » + + + (liwai)

wai « hors de » + + + () () (liwai)

zuo « à gauche de » + + (zuoyou)

you « à droite de » + + (zuoyou)

dongxi
dong « à l’est de » + + + () () dongnam
dongbei

xinan
xi « à l’ouest de » + + + () () xibei
dongxi

dongnan
nan « au sud de » + + + () ()
xinan

dongbei
bei « au nord de » + + + () ()
xibei

dangzhong
zhong « au milieu de » () zhongjian
dangzhongjian

dangjian
jian « au milieu de » () zhongjian
dangzhongjian

pang « à côté de » +

nei « dans » () ()

17 Quelle a été l’évolution historique de ces expressions spatiales depuis le chinois


archaïque ?

Chinois archaïque

18 En chinois archaïque (XIe-IIe siècle av. J.-C.), langue qui représente le chinois classique par
excellence, les caractéristiques des expressions spatiales sont les suivantes : (i) il n’y a pas
de différence entre un mot de lieu et un nom ordinaire, autrement dit les locatifs sont
94

syntaxiquement optionnels ; (ii) les locatifs, dont certains d’entre eux existent dès
l’époque pré-archaïque (XIVe-XIe siècle av. J.-C.) sont seulement monosyllabiques ; (iii) les
prépositions (la plupart du temps la préposition yu « à »), à la différence des locatifs, sont
nécessaires pour introduire les expressions de lieu. Exemple :
(4) gong hong yu che (Zuo Zhuan, Ve siècle av. J.-C.)
prince mourir à char
Le prince est mort dans le char.
19 Lorsque le locatif est présent, il exprime un sens réel et concret :
(5) Meng Sun li yu fang wai (Zuo zhuan)
Meng Sun être-debout à pièce hors-de
Meng Sun était debout, en dehors de la pièce.
20 Si le locatif wai était absent dans l’exemple qui précède, la phrase serait correcte, mais
signifierait « Meng Sun était debout, dans la pièce ».

Chinois médiéval

21 Dans la langue prémédiévale, période qui correspond à la dynastie des Han (206 av. J.-C. —
220), les caractéristiques des structures spatiales ont changé. D’abord, les noms ordinaires
ne sont plus — ou beaucoup moins — utilisés comme mots de lieu. Pour qu’ils le soient, il
faut qu’ils soient désormais suivis de locatifs. Ces derniers deviennent donc
progressivement des mots fonctionnels, même s’ils expriment encore le plus souvent une
« position précise relative des choses » (le dingxiangxing de Lü Shuxiang, 1984 : 294).
Ensuite, la préposition locative yu « à » n’est plus vraiment nécessaire pour introduire un
syntagme locatif. Exemple :
(6) Huang gong yu furen Cai Ji xi chuan zhong
(Shiji, Ier siècle av. J.-C.)
Huang prince et épouse Cai Ji s’amuser bateau dans
Le prince Huang et son épouse se sont divertis dans le bateau.
22 Il est probable qu’en chinois classique une telle phrase aurait nécessité la présence d’une
préposition yu « à » entre le verbe xi « s’amuser » et le nom chuan « bateau » et se serait
dispensée, en revanche, du locatif zhong « dans » qui suit le nom.
23 En haut-médiéval, qui correspond à la période des Six Dynasties (220-581), un certain
nombre de locatifs monosyllabiques commencent à exprimer une « position vague » (le
fanxiangxing de Lü Shuxiang), une localisation indifférenciée. La fonction grammaticale
des locatifs prime alors sur la valeur sémantique du locatif. Cela est surtout vrai pour les
locatifs shang « sur » et zhong « dans », mais aussi pour qian « devant », xia « sous », etc. (
cf. Li Chongxin 1992). Dans les exemples qui suivent, extraits d’un même texte, shang et
qian sont synonymes, ils expriment bien cette position vague :
(7) Changwen shang xiao zai zhe che zhong... Wenruo
yi xiao zuo zhe xi qian (Shi shuo xin yu, Ve siècle av. J.-C.)
Changwen encore petit transporter à char dans...
Wenruo aussi petit assis à genoux devant
Changwen était encore petit, il fut transporté dans le char...
Wenruo aussi était petit, il était assis sur (ses) genoux.
(8) sui chang da you bao zhe xi shang (Shi shuo xin yu)
même-si grandir grand encore porter à genoux sur
Il avait beau avoir grandi, (il le) portait
encore sur ses genoux.
95

24 En bas-médiéval (VIe-ΧΙIΙe siècle), la situation est encore plus claire. Presque tous les
locatifs peuvent avoir cette valeur de localisation indifférenciée, comme cela avait déjà
été remarqué à la fin du XIXe siècle par le philologue Yu Yue (18211907). Une étude
exhaustive menée par Wang Ying (1995) sur tous les locatifs employés dans 1928 poèmes
de la dynastie des Tang (618-907) révèle ainsi, par exemple, que dong « à l’est de » peut
avoir le sens de wai « hors de, à l’extérieur de », que xi « à l’ouest de » signifie parfois nei
« dans », etc.
25 De fait, si on compare plusieurs éditions d’un même texte de l’époque, il est fréquent de
trouver des locatifs différents dans des éditions différentes. Dans les recueils de poèmes
de Wang Fanzhi (VIIIe siècle), par exemple, on trouve xia « sous » à la place de nei
« dans », shang « sur » à la place de wai « hors de », et même dong « à l’est de » à la place
de xi « à l’ouest de », ou xia « sous » à la place de shang « sur ».
26 Cette situation indique que les locatifs ont été vidés de leur sens précis et concret (« sur »
et « sous » pour l’axe vertical, « dans » pour la contenance, « devant » et « derrière » pour
l’axe sagittal, etc.) et n’expriment plus qu’une position vague. On peut même considérer
qu’ils ont subi un processus de grammaticalisation et qu’ils sont devenus de simples
marqueurs fonctionnels servant à transformer les noms auxquels ils sont attachés en
mots de lieu.
27 Quelques siècles plus tard, ils reprendront leur sens concret originel pour exprimer à
nouveau une localisation, une position précise.

Conclusion

28 Comment rendre compte de cette étape singulière de la langue médiévale ? En


considérant qu’il y a une signification-noyau pour chaque locatif, qui peut être décrite
précisément, et que cette signification est ensuite modifiable par diverses opérations
sémantiques, qu’elles soient motivées ou non par des contraintes contextuelles. Elles
conduisent alors à d’autres interprétations. Pour ce qui est des deux modèles discutés
dans Klein et Nüse (1977) et détaillés ci-dessus (voir le tableau 1), le modèle « signification
de base » n’est apparemment pas le bon modèle pour le chinois médiéval. Les locatifs
chinois n’ont pas acquis une signification particulière et spécifique par des opérations
d’additions, à partir d’une signification de base générale.
29 C’est plutôt l’inverse qui s’est passé, en accord avec le modèle « prototype ». Les sens
lexicaux de shang « sur », xia « sous », qian « devant », hou « derrière », nei « dans », etc.
sont spécifiques dès l’origine et représentent une signification prototypique. D’autres
significations ont pu être ensuite dérivées de ces prototypes par des opérations de
réinterprétations. Si les traits spatiaux du « relatum » (par exemple HAUT, CONTACT pour
shang « sur ») ne correspondent pas au sens prototypique, la réinterprétation, qui
implique un effort cognitif, sera nécessaire car la conceptualisation des rapports entre le
« thème » et le « relatum » est différente.
30 Ce même modèle « prototype » rend mieux compte aussi de la situation de l’évolution des
pronoms interrogatifs chinois, un autre important domaine linguistique pour lequel il est
possible d’étudier les liens entre les structures cognitives et les structures syntactico-
sémantiques qui les représentent.
96

Histoire des pronoms interrogatifs du chinois


31 Heine, Claudi et Hünnemeyer (1991 : 58) ont déjà observé que les pronoms interrogatifs se
réfèrent à des catégories conceptuelles. Ils proposent le tableau suivant :

Tableau 3

CAGÉGORIE PRONOM INTERROGATIF

Personne Qui ?
Objet/Activité Quoi ?
Espace Où ?
Temps Quand ?
Qualité/Manière Comment ?

32 Jackendoff (1983 : 56), de son côté, parle de catégories ontologiques, qu’il présente ainsi :

Tableau 4

CATÉGORIE PRINCIPALES CATÉGORIES ONTOLOGIQUES DE JACKENDOFF

Personne …

Objet Chose

Activité Action

… Événement

Espace Lieu

… Direction

Temps …

Qualité Manière

… Quantité

La situation en haut-archaïque et en bas-archaïque

33 Peyraube et Wu (2000) ont analysé dans le détail l’emploi de tous les pronoms
interrogatifs dans une dizaine d’œuvres chinoises représentatives du haut-archaïque (XI e-
VIe siècle av. J.C.) et du bas-archaïque (V e-IIe siècle av. J.-C.). Pour chacune de ces deux
périodes, une distinction a été opérée entre plusieurs catégories sémantiques : OBJET/
ACTIVITÉ correspondant aux pronoms « quoi ?/quel ? », PERSONNE (« qui ? »), QUALITÉ/
97

MANIÈRE (« comment ? »), CAUSE/RAISON (« pourquoi ? »), TEMPS (« quand ? »), ESPACE
(« où ? »), QUANTITÉ (« combien ? »).
34 Pour la période du haut-archaïque, une dizaine de pronoms sont utilisés. Quatre d’entre
eux sont courants (avec plus de 40 occurrences) et expriment des sens divers, comme
l’indique le tableau suivant (un minimum de 5 occurrences a été retenu pour la
caractérisation des significations) :

Tableau 5

PRONOMS NOMBRE D’OCCURENCES ( MINIMUM :


SIGNIFCIATION (AVEC UN MINIMUM DE 5 OCCURENCES)
INTERROGATIFS 40)

he1 173 quoi ?/quel ? (88)

comment ? (41), pourquoi ? (9)

pourquoi ? (39), comment ? (10), quoi ?/


hu 55
quel ? (5)

shei 48 qui ?

quand ? (17), pourquoi ? (15), comment ?


he2 42
(16)

35 [he1 et he2 correspondent à des caractères d’écriture différents ; il s’agit de deux mots
distincts]
36 Exemples :
(9) jin er he jian ? (Shang shu, vers VIIe siècle av. J.-C.)
maintenant vous quoi prendre-pour-exemple
Qu allez-vous prendre pour exemple, maintenant ?
(10) ren zhi wei yan hu de yan ? (Shi jing, vers VIII e siècle av. J.-C.)
gens part.-déterminative faire mot comment être-efficace part.-finale
Comment des mots fabriqués par des gens (deviennent-ils si) efficaces ?
(11) shi wei shi wei hu bu gui ? (Shi jing)
lumière estomper lumière estomper
pourquoi négation revenir
La nuit tombe, la nuit tombe,
pourquoi ne revient(-il) pas ?
37 Pour la période du bas-archaïque, sept pronoms interrogatifs sont couramment utilisés
(plus de cent occurrences) sur une quinzaine attestés. Ils expriment aussi des sens divers,
comme l’indique le tableau suivant (un minimum de 40 occurrences a été retenu pour la
caractérisation des significations) :

Tableau 6

PRONOMS NOMBRE D’OCCURENCES (MINIMUM :


SIGNIFCIATION (AVEC UN MINIMUM DE 40 OCCURENCES)
INTERROGATIFS 100)
98

quoi ?/quel ? (965), comment ? (440),


he1 1792
pourqoui ? (342)

shei 333 qui ?

shu 221 qui ? (166), quoi ?/quel ? (55)

yan 187 comment ? (150)

xi 185 quoi ?/quel ? (112)

wu 119 comment ? (72), où ? (47)

an 107 comment ? (72)

38 Exemples :
(12) xi wei xiao zhong ? (Xunzi, IVe siècle av. J.-C.)
quoi appeler petit loyauté
Qu’est-ce que (vous) appelez une petite loyauté ?
(13) wu shei qi ? Qi tian hu ? (Lun yu, Ve siècle av. J.-C.)
je qui décevoir décevoir Ciel part.-finale
Qui (vais) je décevoir ? Le Ciel ?

Évolution entre les deux états de langue

39 Si on compare la situation du bas-archaïque (tableau VI) à celle du haut-archaïque


(tableau V), on note les changements importants suivants entre les deux étapes :
i. L’apparition d’un nouveau pronom pour « qui ? » et, accessoirement, pour « quoi ?/quel ? » :
shu ;
ii. l’apparition d’un nouveau pronom xi pour « quoi ?/quel ? », mais il s’agit sans doute d’une
variante de he1 ;
iii. la disparition du pronom hu pour « pourquoi ? » et pour « comment ? » ;
iv. la disparition de he2 pour « quand » sans qu’un nouveau pronom vienne prendre en charge
ce sens ;
v. l’apparition de pronoms nouveaux yan et an pour « comment ? ».

40 On remarque aussi que bon nombre de ces pronoms interrogatifs sont polysémiques, en
bas-archaïque comme en haut-archaïque : he1, par exemple, qui signifie « quoi ?/quel ? »,
mais aussi « comment ? » ou « pourquoi ? » à la fois en haut-archaïque et en bas-
archaïque ; hu « comment ? » ou « pourquoi ? » en haut-archaïque ; wu « comment ? » ou
« où ? » en bas-archaïque.
41 Comment rendre compte de cette polysémie ? On peut considérer que les catégories sont
formées autour de prototypes qui fonctionnent comme des points de référence cognitifs.
Ces catégories ne sont donc pas homogènes et elles ont des frontières qui ne sont pas
délimitées précisément. Elles sont composées d’unités plus ou moins représentatives. Ce
sont les unités les plus représentatives qui sont les prototypes. De plus, ces prototypes de
catégories cognitives ne sont pas définitivement fixés, ils peuvent varier en fonction du
contexte. On a alors affaire à un « changement prototypique », semblable au
« changement sémantique » de la sémantique historique traditionnelle.
99

42 Ce modèle du prototype de la linguistique cognitive permet assurément de rendre compte


des pronoms interrogatifs du chinois archaïque de la manière suivante :
• En haut-archaïque, quatre pronoms prototypiques peuvent être dégagés correspondant aux
quatre structures conceptuelles PERSONNE, OBJET/ACTIVITÉ, CAUSE et TEMPS. Ce sont
respectivement shei « qui ? », he1 « quoi ?/quel ? », hu « pourquoi ? » et he2 « quand ? » ;
• en bas-archaïque, trois pronoms prototypiques correspondent aux catégories Personne,
OBJET/ACTIVITÉ (et accessoirement CAUSE), QUALITÉ/MANIÈRE. Ce sont shei « qui ? », he1
« quoi ?/quel ? » et « pourquoi ? », et, à un degré moindre, yan « comment ? ».

Tableau 7 Pronoms prototypiques

QUI QUOI COMMENT POURQUOI QUAND

HAUT-ARCH. shei he1 – hu he2

BAS-ARCH shei he1 yan he1 –

Catégories linguistiques et catégories cognitives

43 Quelles conclusions peut-on en tirer sur les contours cognitifs des catégories auxquelles
correspondent les pronoms interrogatifs ?
1. Le système des pronoms interrogatifs pour la PERSONNE est simple. Il y a un seul pronom
prototypique qui, de plus, n’est jamais employé pour d’autres catégories.
2. Un autre pronom prototypique est couramment utilisé pour la catégorie OBJET/ACTIVITÉ. Il y
a assurément une relation cognitive spéciale entre ces deux catégories, ce qui n’est pas
surprenant3. Le même pronom est aussi employé pour la catégorie CAUSE/RAISON après qu’un
changement prototypique est intervenu entre le haut-archaïque et le bas-archaïque
(changement qui a transféré les traits importants de la catégorie OBJET/ACTIVITÉ à la
catégorie CAUSE/RAISON et qu’on peut caractériser comme un changement de prototype
global vers un prototype plus spécifique).
3. La catégorie QUALITÉ/MANIÈRE, elle, est assez floue. Il existe bien de nombreux pronoms
correspondants, mais aucun d’entre eux n’est manifestement prototypique.
4. Les catégories ESPACE et TEMPS, enfin, sont moins nécessaires et donc moins fondamentales
dans le modèle cognitif, lié sans doute au modèle culturel des Chinois de l’Antiquité.

44 Ces conclusions suggèrent une hiérarchie qu’on peut ainsi représenter :


45 PERSONNE > OBJET/ACTIVITÉ > CAUSE/RAISON > QUALITÉ/MANIÈRE > ESPACE > TEMPS4.
46 Enfin, pour rendre compte de la polysémie des pronoms interrogatifs du chinois
archaïque, le modèle prototypique discuté plus haut pour les locatifs semble bien aussi
être le bon. Pour chaque mot interrogatif, il y aurait ainsi une signification spécifique
représentant un sens prototypique. He1, par exemple, correspondant à la catégorie OBJET/
ACTIVITÉ, aurait le sens de « quoi ?/quel ? ». D’autres significations seraient ensuite
dérivées de ces sens prototypiques par des opérations de réinterprétations si les traits
attribués aux prototypes ne s’accordent pas avec son contexte spécifique.
100

Conclusion
47 Les nouvelles analyses sur la polysémie (vieille question linguistique, mais qui n’est
toujours pas définitivement résolue), sur les transferts conceptuels, métaphoriques ou
métonymiques, jouent un rôle central en linguistique cognitive5. Il en va de même de la
notion de prototype, reprise de la psychologie expérimentale, et introduite aussi bien en
syntaxe qu’en sémantique. Il ne fait pas de doute que ces préoccupations majeures de la
linguistique cognitive ont renouvelé passablement les études en syntaxe et sémantique
diachroniques.
48 Il n’est pas moins évident que les langues étant des produits historiques (elles n’ont pas
été créées par les gens qui les utilisent aujourd’hui), elles doivent être aussi expliquées
par rapport aux forces, aux tendances qui les ont formées et qui les ont fait évoluer (cf.
Heine 1997 : 1-16). Et de même que la structure des langues peut refléter les modèles de
conceptualisation de l’homme parce qu’elle est en grande partie basée sur ces modèles,
l’évolution des structures linguistiques apporte des informations précieuses sur la nature
du changement conceptuel, qui détermine aussi l’organisation conceptuelle actuelle.
49 Une approche cognitive qui intègre la dimension diachronique — et aussi la diversité des
langues — aura assurément un pouvoir explicatif plus grand qu’une approche qui
ignorera cette dimension.
50 Les rapports entre grammaire historique, linguistique typologique et linguistique
cognitive ne peuvent que se renforcer tant ils apparaissent aujourd’hui décisifs.

NOTES
1. Sur les liens étroits qui existent entre linguistique typologique et linguistique cognitive, cf.
Croft (1999).
2. Pour une analyse des mécanismes et des motivations du changement grammatical dans les
langues, en dehors du phénomène de grammaticalisation, cf. Peyraube (2002).
3. Une enquête menée par Heine, Claudi et Hünnemeyer (1991 : 56) sur quatorze langues
différentes révèle que toutes ces langues ont les mêmes interrogatifs pour OBJET (exemple :
« qu’est-ce qu’elle a bu ? ») et pour ACTIVITÉ (exemple : « qu’est-ce qu’elle a fait ? »).
4. On peut la comparer avec le modèle de progression des catégories métaphoriques de Heine,
Claudi et Hünnemeyer (1991 : 55) : PERSONNE > OBJET > PROCESSUS > ESPACE > TEMPS > QUALITÉ.
5. Cf. les discussions très détaillées que leur consacre, par exemple, Lakoff (1987).
101

AUTEUR
ALAIN PEYRAUBE
Directeur de recherche au CNRS et directeur d’études à l’École des hautes études en sciences
sociales, Centre de recherches linguistiques sur l’Asie Orientale (UMR 8563, EHESS/CNRS, Paris).
peyraube@ehess.fr
102

II. Regards croisés sur le langage


103

Éléments de psycholinguistique
cognitive : des représentations à la
compréhension
Jean-François Le Ny

1 Bien que les relations entre linguistique et psychologie se soient nouées très tôt, et soient
déjà présentes, pour l’Europe, dans le travail fondateur de Ferdinand de Saussure, c’est
dans le contexte de la théorie de l’information (ou « de la communication ») qu’elles se
sont cristallisées dans leur orientation contemporaine, c’est-à-dire cognitive. En 1951
paraît le livre de G.A. Miller, Langage et communication et, en 1954, se crée de façon
volontariste la « première psycholinguistique », qui intègre les idées du behaviorisme
finissant (C.E. Osgood) et de la linguistique de T.A. Sebeok.
2 C’est dans les années qui suivent que se dessinent les deux évolutions qui, l’une et l’autre,
contribuent à la substitution du paradigme cognitif à l’orientation behavioriste. En 1957
paraît Syntactic Structures, et en 1965 Aspects of the Theory of Syntax : à partir de là, la
théorisation de Chomsky imprègne profondément tout un courant de la recherche
(Mehler et Noizet, 1974), qu’on désigne parfois comme « deuxième psycholinguistique ».
Celle-ci reprend naturellement l’idée de Chomsky que « la linguistique est une branche de
la psychologie cognitive », mais aussi l’interprétation qui en est donnée par la primauté
accordée à la syntaxe, le caractère fortement déductif de la formalisation linguistique qui
la fonde, et le caractère radical de l’innéisme appliqué à la fonction biologique de
langage : celui-ci est vu comme un organe mental, une faculté spécifique à l’espèce
humaine, doté d’une grammaire universelle, préalable à toute acquisition d’une langue
particulière. La psycholinguistique qui en dérive s’efforce de valider par les moyens de
l’expérimentation les conceptions générativistes de Chomsky : elle repose sur l’idée que le
traitement du message linguistique est d’abord (y compris temporellement) syntaxique,
qu’il s’effectue fondamentalement sur la base d’une reconnaissance de structures de
phrase qui sont indépendantes du sens, et que c’est seulement de façon secondaire qu’y
est introduite l’interprétation sémantique. Cette seconde psycholinguistique est
fortement marquée par l’idée de traitement symbolique, illustrée notamment, en position
104

intermédiaire entre la philosophie et la psychologie, par les analyses de J. Fodor. Elle


recueille nombre de données expérimentales importantes ; celles-ci sont aujourd’hui
incorporées à la psycholinguistique commune, qui n’est plus centrée théoriquement
autour des questions de la syntaxe.
3 L’autre courant, qui s’est développé en parallèle avec le précédent, est par contraste
davantage intéressé par l’étude des aspects sémantiques du fonctionnement
psychologique sous-jacent au langage. Il a pris naissance, pour l’essentiel, dans une
nouvelle théorisation de l’activité psychologique, vue comme traitement de
l’information : celui-ci comporte une phase d’entrée, au cours de laquelle l’information
contenue dans les stimulus, c’est-à-dire venue du monde extérieur, est saisie et codée par
les processus perceptifs, puis une phase centrale dans laquelle cette information est
transformée par les activités mentales, et enfin, le cas échéant, une phase d’exécution, qui
se traduit dans les actions. Ce schéma de base, appliqué d’abord à l’attention (D.
Broadbent) et à la mémoire (D. Norman, M. Quillian, etc.), convient parfaitement au
langage, c’est-à-dire aux activités de compréhension ou de production du discours. Un
volet important en est la distinction entre une « mémoire à long terme » et une
« mémoire à court terme », qu’on ne tardera pas à appeler « mémoire de travail ». La
première contient des représentations, en particulier sémantiques et conceptuelles, et
des connaissances procédurales, en particulier grammaticales. Les significations de mots
qui, à l’intérieur du « lexique mental », forment le contenu de la « mémoire sémantique »
ne se distinguent pas en nature des concepts mentaux, qui sont la trame de la pensée. La
notion de « proposition », issue de la logique, reçoit parallèlement une interprétation
psychologique : mémoire, langage et pensée reposent également sur la mise en œuvre
cognitive de propositions mentales. Quant à la « mémoire de travail », elle est ainsi
appelée pour marquer que c’est en elle que s’effectuent les traitements cognitifs,
notamment ceux qui concourent à la compréhension ou à la production du discours.
4 À partir des années 1980, les oppositions théoriques perdent de leur acuité et s’estompent
progressivement : la psycholinguistique (Caron 1989) ne se distingue plus réellement de la
psychologie cognitive du langage. Les relations qu’elle entretient avec la linguistique
deviennent beaucoup plus locales, focalisées sur la multitude des problèmes spécifiques
que pose le fonctionnement de la langue. Elles s’inscrivent dans le vaste champ des
sciences cognitives auxquelles s’associent plusieurs autres disciplines qui ont, elles aussi,
connu d’importants développements : la neurobiologie, pour sa partie concernant les
processus intégratifs et cognitifs, en particulier en neuropsychologie dans l’étude des
troubles du langage ; l’intelligence artificielle, avec les systèmes de traitement
automatique du langage naturel ; la philosophie du langage, construite autour de la
notion d’« attitude propositionnelle » ; la pragmatique, qui analyse le discours en
situation.
5 Deux très grandes notions restent prédominantes : celle de représentation, conçue comme
une unité de contenu, qui peut être durable – et située alors dans la mémoire à long terme
– ou transitoire – et présente alors dans la mémoire de travail – et celle de processus, qui
décrit le traitement de l’information, c’est-à-dire la modification des représentations.
Dans ce cadre, le caractère autonome et modulaire de la fonction de langage se trouve
fortement affaibli par rapport à l’autre orientation. L’idée est ici que, même si la
cognition déborde certes le champ du langage, elle en est, chez les êtres humains,
pénétrée de partout : même lorsqu’il n’est pas explicitement présent, il l’est
implicitement. Les connaissances « déclaratives », par exemple (celles qui n’incluent ni
105

motricité, ni procédures, ni imagerie), ne sont pas toujours verbalisées, ni même


immédiatement verbalisables, mais elles sont le plus souvent coulées dans des structures
cognitives qui sont homéomorphes• à celles du langage : concepts, propositions, schémas
et, peut-être, traits sémantiques. En un mot, le langage n’a pas seulement une fonction de
communication entre individus, mais aussi de support de leur connaissance, sous sa
forme la plus commune comme la plus élaborée. Dans cette conception, les relations entre
linguistique et psychologie se développent sur le mode interactif, plutôt que de la façon
exprimée par la phrase de Chomsky citée plus haut.

Les questions générales


6 Le développement de la psycholinguistique s’est, de fait, opéré avec un regard maintenu
en permanence sur les progrès de la linguistique et des descriptions qu’elle donne des
structures du langage et des langues. Celles-ci ne sont pas seulement syntaxiques, mais
aussi sémantiques et pragmatiques, et elles concernent les contenus cognitifs qui
s’échangent par le langage, dans des conditions toujours bien déterminées. Les aspects les
plus généraux, ceux par lesquels on s’efforce de caractériser l’universalité du langage,
intéressent particulièrement les psycholinguistes.
7 Linguistes et psycholinguistes prennent pour données les mêmes sortes de faits, mais les
premiers partent de ceux qu’ils observent, ou qui leur sont indirectement attestés, et
aussi des intuitions qu’ils tirent de leur compétence linguistique. Ils les traitent
essentiellement au moyen de méthodes reposant sur l’analyse, conceptuelle ou
empirique, sur la formalisation et la déduction, afin d’en extraire les régularités. Ce qui,
par différence, caractérise les psycholinguistes, ou les chercheurs en psychologie
cognitive du langage, c’est l’importance qu’elles ou ils accordent à l’expérimentation,
c’est-à-dire à la collecte de données de langue non spontanées, en ce sens qu’elles sont
généralement plus artificielles et parcellaires, voire microscopiques. À partir d’elles
s’effectuent continûment des échanges entre les observations, la planification de
nouvelles expériences et l’élaboration de modèles, locaux ou généraux. Ces derniers
peuvent être spécifiquement psychologiques, mais souvent ils sont reliés à ceux des
disciplines voisines.
8 Deux de leurs aspects méritent d’être soulignés. D’une part, les descriptions formelles n’y
sont vues que comme le produit d’une idéalisation de la part du chercheur, comme une
abstraction destinée à rendre possible le moment déductif de la démarche, mais à
l’intérieur d’une approche qui reste fondamentalement empirique et inductive. Sous une
autre face, la description psycholinguistique, telle qu’elle est le plus souvent donnée en
termes de représentations et de processus, conserve une large indépendance à l’égard de
la neurobiologie. Aucun chercheur en psychologie cognitive ne doute que l’activité de
langage s’effectue, et ne s’effectue que, par le fonctionnement du cerveau. Toutefois, le
mode d’approche proprement neurobiologique, orienté vers une description des
phénomènes neuronaux sous-jacents au fonctionnement du langage, et qui s’appuie sur
des observables physiquement identifiables, n’est pas en mesure de donner par lui-même
accès aux contenus représentatifs qui sont au cœur du langage ou du discours. La
coopération avec la psychologie cognitive est à cet égard une double nécessité,
expérimentale et théorique.
9 Les deux ensembles de questions qui se sont imposées dans le champ de la
psycholinguistique d’orientation cognitive, après sa séparation du behaviorisme, portent
106

l’un et l’autre sur « l’intérieur » du système cognitif, c’est-à-dire de l’« esprit/cerveau »


des locuteurs. Ces questions se résument en : 1. qu’y a-t-il dans l’esprit qui rend possible
l’existence du langage ; 2. que se passe-t-il en lui lorsqu’il « traite » du langage. Cette
distinction est, dans une certaine mesure, une reformulation de celle établie par Chomsky
entre compétence et performance. La description des représentations mentales vise à
répondre à la première sorte de questions, celle des processus mentaux à la seconde.

Techniques et méthodes
10 Un certain nombre de techniques expérimentales ont montré, à l’usage, leur fécondité
pour l’exploration conjointe des représentations, ou des relations entre représentations,
et des processus. On peut utilement les subdiviser en trois classes, distinguées en fonction
d’une propriété fondamentale qui affecte tous les aspects du langage : le degré
d’implication délibérée (ou volontaire), et consciente, des participants dans les tâches
qu’on leur demande d’accomplir. On emploie souvent « explicite » lorsque l’activité
mentale est fortement délibérée et consciente, et « implicite » lorsque les modes de
fonctionnement sont automatiques et non conscients ; il faut bien distinguer ce « non
conscient » de l’« inconscient », au sens psychanalytique du mot. Le langage peut
fonctionner selon l’une ou l’autre de ces deux modalités, explicite ou implicite, ou selon
des degrés intermédiaires, et il convient de l’étudier en en tenant compte.
11 Une première classe de techniques expérimentales de la psycholinguistique fait appel à
des activités explicites. Elle vise à recueillir des données, souvent simples, sur de larges
échantillons de locuteurs quelconques, dont on veille à ce qu’ils soient représentatifs
d’une population ou sous-population linguistique déterminée : les adultes français
instruits (le plus souvent des étudiants), les enfants scolarisés ayant de tel à tel âge, les
personnes âgées, etc. Ces expériences reposent le plus souvent sur des questions, directes
et faciles, auxquelles les participants répondent sans peine : « Citez cinq sortes de mots
désignant des membres de la catégorie suivante (par exemple “poisson”) », « Regroupez,
parmi les mots suivants, ceux qui se ressemblent par leur signification », « Indiquez si ces
phrases sont ou non grammaticalement correctes », « Produisez quatre compléments
d’objet des verbes suivants », « Indiquez, sur une échelle de 1 à 9, le degré de familiarité
qu’ont subjectivement pour vous les mots de la liste suivante », etc. C’est dans cette
catégorie de techniques que se range celle d’« association libre », qui est ancienne et
demeure importante : « Donnez le premier mot qui vous vient à l’esprit en réponse au
mot suivant ».
12 Toutes ces techniques font appel aux compétences et à l’intuition de locuteurs
quelconques, et c’est seulement par l’utilisation de ces locuteurs multiples qu’elles se
distinguent de techniques qu’utilisent aussi, sous une autre forme, les linguistes qui font
appel à leur intuition de la langue et de l’usage, celle d’un locuteur expert. Beaucoup des
données recueillies par les techniques psycholinguistiques qu’on vient de décrire
conduisent à l’élaboration de « normes » langagières, considérées, elles aussi, comme
statistiquement représentatives d’une population linguistique déterminée : elles sont une
description des régularités existant dans les esprits des locuteurs de cette population, et
elles n’ont de ce fait aucune sorte de valeur prescriptive. Elles se sont, à l’usage, révélées
être très robustes, c’est-à-dire reproductibles, et certaines de leurs propriétés les plus
générales sont communes à une pluralité de langues, du moins celles qui ont été mises en
œuvre jusqu’ici. Par extension non démentie, on les regarde comme universelles.
107

13 La validité de ces données normatives vient en effet de ce qu’elles sont bien corrélées
avec d’autres données, de caractère psychologique ou linguistique. Un exemple très
caractéristique, et important, concerne les divers effets de fréquence que l’on rencontre à
chaque pas en psycholinguistique. Supposons que l’on fasse estimer, comme dans l’avant-
dernier exemple ci-dessus, la familiarité subjective d’un vaste ensemble de mots, jugée
sur une échelle de 1 à 9. Ce n’est à première vue que l’expression d’un sentiment assez
vague dans l’esprit des locuteurs ; et pourtant le classement de ces degrés se montre
statistiquement robuste. Qui plus est, si on le confronte au classement des fréquences
d’usage de ces mêmes mots dans la langue, tel qu’il est fourni aujourd’hui à partir de
décomptes par ordinateur réalisés sur de vastes bases de textes, on trouve une corrélation
statistique extrêmement forte : plus un mot apparaît subjectivement familier aux
locuteurs, plus il est objectivement fréquent dans la langue, tous environnements
linguistiques confondus. Causalement, c’est évidemment la seconde caractéristique qui
doit être considérée comme déterminant la première : plus un mot est fréquent dans des
textes (et, par extension non démentie, dans le discours oral), plus sa probabilité est
grande d’être rencontrée par un locuteur quelconque, et donc d’être traitée
cognitivement par ses processus de langage. Et plus, par voie de conséquence,
l’accumulation de ces rencontres doit normalement avoir augmenté l’état de disponibilité
du mot dans la mémoire de chaque locuteur, et le sentiment de familiarité qui en dérive.
Ce n’est pas tout, puisque d’autres mesures, réalisées avec d’autres techniques, font
apparaître aussi de fortes corrélations : plus le mot est familier et fréquent, et plus il est
perçu rapidement prononcé rapidement, ou jugé rapidement comme étant un mot de la
langue.
14 À côté de la première catégorie de techniques explicites, il en existe une deuxième, qui
prend en compte des paramètres débordant les précédents. Elles reposent sur des tâches
similaires à celles qui ont été décrites, mais ce qui en est retenu, c’est le temps avec lequel
elles sont accomplies. Ainsi pourra-t-on, par exemple, présenter des mots qu’il faut
percevoir, dans des conditions de perceptibilité qui peuvent varier, ou qui sont à
prononcer à voix haute, ou pour lesquels on demande une « décision lexicale » : indiquer
si une suite de lettres, telle que « busareau » ou « colonie », constitue ou non un mot
français, dans une séquence de mots vrais et de non-mots présentés au hasard. Toutes ces
tâches sont à nouveau très élémentaires et faciles. Mais les données auxquelles on
s’intéresse sont seulement les « temps de réponse » qui leur correspondent ; ceux-ci sont
parfois spécifiés (« temps de perception », « temps de dénomination », « temps de
décision lexicale », etc.), et se mesurent généralement en millisecondes, avec des
différences utiles de l’ordre de la dizaine de millisecondes. Des techniques similaires
peuvent être appliquées à des activités plus complexes ; par exemple on mesure souvent
des temps de lecture de phrases dont on a spécifié de nombreuses caractéristiques
(longueur, structure syntaxique, complexité, fréquence des mots, etc.) et dont on fait
varier une propriété expérimentale.
15 L’intérêt théorique de toutes ces mesures de « temps de... » tient à ce qu’elles constituent
une expression mesurable d’une réalité plus profonde, le « temps de traitement » qui,
dans l’esprit/cerveau des participants, correspond à l’exécution de la tâche considérée.
Plusieurs décennies de recherche montrent deux choses : 1. Ces temps sont
statistiquement très stables dans des conditions bien fixées ; 2. Ils sont statistiquement
très variables en fonction des conditions. L’exploitation de ces deux propriétés fait d’eux
des indicateurs précieux pour l’analyse fine du fonctionnement mental. Des modèles plus
108

ou moins complexes, en fait de plus en plus sophistiqués, sont aujourd’hui proposés et


testés pour en rendre compte.
16 Ces techniques illustrent une façon spécifiquement psychologique et cognitive d’étudier
le fonctionnement du langage. Le locuteur y est appelé à donner des réponses explicites,
mais ce qui est visé à travers elles, ce sont des activités internes implicites, et « cachées »
au locuteur même qui les met en œuvre. C’est le cas dans les situations dont nous avons
parlé, la perception de mots, la décision lexicale, ou la lecture de phrases : le participant
reconnaît sans peine et bien consciemment, par exemple, que la suite de lettres
« chapeau » est un mot de sa langue, ou il comprend « automatiquement » la phrase
simple qu’on lui présente. Mais la donnée pertinente, dans le plan d’expérience qui a été
choisi, est la rapidité avec laquelle il décide qu’il s’agit d’un mot, par comparaison avec
d’autres mots, ou qu’il comprend la phrase, par comparaison avec d’autres phrases. Ce qui
est visé par la recherche est le comment des processus par lesquels l’esprit du participant,
dizaine de millisecondes par dizaine de millisecondes, dans le premier cas, ou seconde par
seconde, dans le second, prend sa décision ou comprend sa phrase. Ce que le participant
fait cognitivement de sa capacité de langage lui semble transparent, mais la façon dont il
le fait ne l’est pas, et il faut l’analyse expérimentale pour l’établir.
17 Une troisième catégorie de techniques expérimentales pousse à son degré extrême ce
mode d’analyse portant sur des phénomènes non délibérés et non conscients. L’un des
plus communément utilisés, parmi ces phénomènes, est celui d’« amorçage », associatif
ou sémantique. Il comporte la présentation en succession, par exemple sur un écran
d’ordinateur, et avec un intervalle temporel très strictement contrôlé, de deux éléments
de langue, initialement des mots ou des non-mots. On demande au participant une
décision lexicale sur le second élément : est-ce, ou non, un mot français ? Or il se trouve
que le temps requis pour la décision sur ce second élément est étroitement déterminé par
la nature du premier élément, et surtout par le rapport, associatif ou sémantique, existant
entre les deux. Par exemple, la décision « oui » sur « médecin » est significativement plus
rapide si « médecin » est précédé par « infirmier » que s’il l’est par « carrefour ». Les
présentations des deux stimulus sont séparées, dans la configuration optimale, par 150
milli-secondes : le participant est donc totalement incapable de « penser »
successivement les deux mots. Le phénomène sous-jacent est, selon l’interprétation la
plus généralement acceptée, que le premier mot active d’abord, dans la mémoire à long
terme du participant, la représentation complexe de ce mot, et notamment sa
composante sémantique (par exemple la signification d’« infirmier »). Cette activation se
propage alors très rapidement, dans le réseau neuronal sous-jacent aux représentations, à
des significations qui sont sémantiquement proches, parmi lesquelles celle de
« médecin ». Dès lors, lorsque ce mot est présenté à son tour, l’activation qu’il produit
survient sur une représentation qui est déjà pré-activée. C’est cela qui raccourcit le
traitement, et la réponse.
18 Ce phénomène illustre assez bien la relation à trois membres qui lie la linguistique, la
psychologie cognitive et la neurobiologie. Les deux processus théoriques invoqués,
l’activation et sa propagation, sont empruntés à la conceptualisation neurobiologique
classique : ils sont supposés se passer dans des configurations de neurones. Mais ils n’ont
jusqu’ici jamais été observés en tant que tels durant un amorçage : tout ce que l’on
observe et mesure, ce sont des temps de réponse. D’un autre côté, ce qui est supposé être
affecté par ces phénomènes, ce sont des « représentations », définies de façon
linguistique et psychologique comme « signification des mots », mais en aucune façon
109

identifiées de façon anatomique. De surcroît, ce qui intervient dans l’explication de


l’amorçage, ce sont des relations linguistiques et psychologiques comme, dans notre
exemple, la « proximité sémantique », que l’on peut définir et atteindre de plusieurs
façons en psycholinguistique. Mais il serait erroné de lui attribuer comme support une
simple proximité spatiale dans le cerveau.
19 L’amorçage sémantique comme technique (il en existe des interprétations théoriques
concurrentes, qui sont minoritaires) est couramment utilisé pour mener l’investigation
des bases cognitives du langage. Un premier raisonnement est alors : si nous pouvons, sur
une base linguistique ou psycholinguistique, faire l’hypothèse d’une relation R entre un
élément A et un élément B, alors cherchons à déterminer si la présentation de A produit
un raccourcissement du temps de décision sur B. Un second raisonnement sera : si nous
avons observé un raccourcissement du temps de décision sur B, étant donné A, cherchons
quelle peut bien être la relation R entre A et B. Ces raisonnements sont actuellement mis
en œuvre dans plusieurs secteurs. Par exemple, entre un A qui est un verbe transitif, et
un Β qui est un objet possible de ce verbe (voir plus bas), ou encore entre un A qui est une
phrase, et un Β qui est un mot de signification apparentée au sens global de la phrase, ou
encore entre un A qui est une expression métaphorique et un Β qui renvoie à un des sens
(« littéral » ou « figuré ») de A. Les résultats des recherches en cours montrent la
fécondité de cette technique et d’autres qui lui sont similaires.

Les sous-domaines de la psycholinguistique et les


problèmes de la compréhension
20 Les sous-domaines de la psycholinguistique sont multiples, et on n’en évoquera qu’un
seul ci-dessous. On se contentera donc de seulement mentionner ceux qui ont récemment
le plus attiré l’attention des chercheurs : l’acquisition du langage (de Boysson-Bardies
1996 ; Kail et Fayol 2000), ce qu’apportent dans ce domaine les études interlangues (Bates
et McWhinney 1989 ; McWhinney 1999), les troubles du langage (Rondal et Seron 1999 ;
Seron et Van der Linden 2000), et les effets sur lui du vieillissement (Feyereisen et al.
2002), la reconnaissance des mots (Lecocq et Ségui 1989 ; Kolinsky Morais et Ségui 1991 ;
Ségui et Ferrand 2000), la compréhension de récits (Blanc et Brouillet 2003 ; Denhière et
Baudet 1992 ; Ehrlich 1994 ; Fayol 1985), la production du langage (Ferrand 2001), les
inférences dans la compréhension (Campion et Rossi 1999 ; Martins et Le Bouédec 1998).
21 L’étude de la compréhension du discours permet de se faire une idée générale de la façon
dont les représentations et les processus de base concourent de façon interactive au
traitement du langage. Tous les spécialistes du langage, linguistes, psycholinguistes ou
philosophes, s’accordent sur l’idée générale que la compréhension d’un énoncé est une
construction de sens. Mais deux questions se posent aussitôt : quelle est la nature de CE
qui est ainsi construit ? Que faut-il entendre exactement par « construire » ?
22 Pour les psychologues de la cognition qui travaillent dans ce domaine, le sens d’un énoncé
(et, au-delà, d’un discours, d’un texte, d’une discussion, etc.) est, fondamentalement,
représentationnel. Sous sa forme initiale, c’est une représentation dans l’esprit de
l’énonciateur, une intention de dire, qui préexiste à l’énonciation. Et sous sa forme
terminale, c’est une représentation qui se forme causalement, à partir de l’énoncé, dans
l’esprit du compreneur. Communiquer consiste ainsi, pour l’énonciateur, à mettre en
œuvre, en partie implicitement et en partie explicitement, les moyens linguistiques dont
110

il dispose pour créer un objet physique, l’énoncé, dont il sait implicitement qu’il produira,
dans l’esprit du compreneur, la représentation qu’il vise. Comprendre consistera pour le
récepteur, sur l’autre versant, à utiliser les processus physiologiques et mentaux dont il
dispose, ainsi que les connaissances diverses, linguistiques et générales, dont il est
porteur pour construire une représentation mentale qui interprète l’énoncé, c’est-à-dire
qui corresponde, avec plus ou moins d’exactitude, à celle qui constituait la visée cognitive
du locuteur.
23 Cette façon de psychologiser le sens sous forme de représentations mentales n’invalide en
rien la notion de sens univoque, c’est-à-dire de représentation terminale partagée, ou
partageable, par une communauté de compreneurs. Dans les cas favorables, l’existence de
mécanismes neuronaux et cognitifs universels, de connaissances linguistiques communes
et de références conceptuelles similaires garantit que cette représentation terminale
partagée comporte peu de variabilité interindividuelle. Dans d’autres cas, elle en
comporte beaucoup : ce peut être de l’ambiguïté et de l’incompréhension, ou ce peut être
de la richesse. La variabilité du sens, qui exprime la flexibilité du langage, en est une
propriété naturelle : elle relève, elle aussi, de régularités et donc d’une explication
psycholinguistique. C’est le cas par exemple, dans la production ou la compréhension de
métaphores (Gineste et Scart-Lhomme 1999 ; Franquart-Declercq et Gineste 2001 ; Le Ny
et Franquart-Declercq 2001, 2002).
24 Le fonctionnement cognitif fin qui assure la compréhension repose sur un ensemble de
processus fondamentalement automatiques et, pour l’essentiel, inconnus du compreneur.
Ils se déroulent dans la mémoire de travail de celui-ci, par un échange incessant entre la
perception et la mémoire à long terme qui réalise la construction du sens. Les travaux des
nombreux chercheurs ayant contribué à l’étude de ces processus, parmi lesquels on peut
citer ceux de Kintsch (1988, 1998) ou de Gernsbacher (1990,1994), se sont déroulés dans ce
cadre. Si l’on s’en tient à la compréhension d’une phrase, deux moments principaux en
sont l’activation de significations préexistantes, notamment lexicales, et leur assemblage,
contrôlé par des règles de compétence syntaxiques et sémantiques. « Assemblage » est ici
un équivalent de nature psychologique de ce qu’on appelle, dans divers autres contextes,
« prédication• » : deux exemples caractéristiques en sont l’assemblage nom + adjectif,
sémantiquement chose + propriété (ou état d’une propriété), et l’assemblage sujet + verbe
+ objet, sémantiquement agent + action + patient. Des deux on peut donner une notation
propositionnelle (Pa, Pab), qui renvoie à l’idée précédemment mentionnée que les
prédicats et les propositions ont aussi une existence mentale, celle de schémas cognitifs
fondamentaux.
25 Les significations de mots sont supposées être stockées dans le lexique mental de tout
locuteur sous forme d’unités lexicales connectées entre elles, et dont chacune comporte
une représentation de la forme du mot (représentation double chez les locuteurs lettrés,
phonologique et orthographique) et une, ou plusieurs, signification(s) associée(s). Au
cours de la compréhension, chaque mot m, doit d’abord, dans le flux du discours oral ou
écrit, être perçu et reconnu. Un premier ensemble de processus est mis en œuvre de
façon cyclique pour assurer cette fonction. Le principe général en est qu’ils opèrent par
comparaison de l’information entrante perceptive, que véhicule la forme physique du
mot, avec les représentations des formes lexicales en mémoire à long terme. Ces
processus de reconnaissance (Gineste et Le Ny 2002 ; Ségui et Ferrand 2000, pour une
présentation résumée) sont aujourd’hui généralement conçus dans le cadre de modèles
connexionnistes : ils concernent d’abord la forme du mot, et activent initialement la
111

représentation qui lui correspond. On peut sans doute imputer aux mêmes processus la
reconnaissance des flexions, en tant que marques perceptives associées aux mots,
variables selon les langues, et celle de relations internes à l’énoncé, par exemple l’ordre
des mots quand il est pertinent.
26 Un autre processus fondamental prend directement la suite du précédent, en quelques
centaines de millisecondes : l’« accès » à la signification du mot, conçu aussi aujourd’hui
comme une activation. Ce processus peut inclure, pour les mots ambigus ou
polysémiques, une phase de désambiguïsation, c’est-à-dire de sélection de l’acception qui
convient au contexte. Ces questions ont, elles aussi, été bien étudiées expérimentalement.
Dans le même registre se déroule l’interprétation sémantique des flexions associées aux
mots et de leur ordre. Elle assure notamment l’attribution des rôles thématiques, en
particulier ceux d’agent et de patient.
27 À l’issue de cette phase, qui concerne chaque mot mi du message, la signification de celui-
ci est active dans la mémoire de travail du compreneur, et elle est venue s’ajouter à la
signification déjà activée des mots antérieurs. L’activation concernant mi peut d’ailleurs
avoir été précédée par des phénomènes d’anticipation, c’est-à-dire de pré-activation de m
i suscitée par les mots antérieurs à lui – comme on l’a vu plus haut à propos de
l’amorçage. Elle peut, de son côté, produire une pré-activation de la signification de mots
attendus postérieurement à mi sur la base d’expectations probabilistes stockées en
mémoire.
28 À ces informations sémantiques, issues des connaissances lexicales, s’ajoutent dans la
mémoire de travail celles qui sont fournies par l’interprétation des données
grammaticales de surface (marques morphosyntaxiques, ordre des mots, mots antérieurs
proches, pour les anaphores, etc.), celles qui viennent des inferences, et enfin celles qui
sont apportées, à l’extérieur du langage, par la situation d’énonciation. Dans les
conceptions interactionnistes (connexionnistes) aujourd’hui dominantes, on cherche à
comprendre comment toutes ces informations, nombreuses et complexes, sont combinées
et assemblées pour construire le sens. Une hypothèse qui se trouve au premier plan est
que cette construction se fait dans des cadres ou schémas de grande ampleur, mais
hautement spécifiés, comme celui de « représentation de situation » (Le Ny 2000), une
notion très présente dans les recherches actuelles.
29 De la façon dont s’effectue la prédication on peut donner une idée en s’appuyant sur les
travaux, linguistiques (François, 2003) et psycholinguistiques, qui concernent la
sémantique des verbes (François 2003) : le fonctionnement des verbes transitifs, ceux qui
donnent lieu à des énoncés de structure SVO, est très caractéristique à cet égard. Il
apparaît que la représentation mentale des verbes transitifs dans la mémoire des
locuteurs est associée à, et d’une certaine façon « contient », la représentation de leurs
agents et patients possibles : or ce sont ceux-ci qui sont destinés à devenir les sujets et les
objets des phrases que ces locuteurs produiront ou interpréteront dans le futur. Cela,
implicitement, les locuteurs le savent.
30 Ferretti, McRae et Hatherell (2001), McRae, Ferretti et Amyote (1997) ont montré
expérimentalement, notamment par les techniques d’amorçage sémantique décrites ci-
dessus, que la présentation d’un verbe est capable d’amorcer celle de ses agents, patients
et instruments. Autrement dit, en suivant l’interprétation standard, quand un tel verbe V
apparaît, il pré-active ses patients possibles dans l’esprit/cerveau des locuteurs. Cela vaut
au laboratoire, mais aussi sans doute dans le discours naturel : dans le flux d’un énoncé
SVO typique, la perception d’un nom un instant après la perception de V devrait ainsi
112

transformer un de ces patients possibles de V qui viennent juste d’être pré-activés en un


patient réel. Ferretti, McRae et Hatherell ont également montré qu’il existe un amorçage
des traits sémantiques des patients : on peut donc penser que ces traits sont les
intermédiaires cognitifs par lesquels se fait la liaison entre un verbe et ses patients
possibles. Il existe aussi des données empiriques qui corroborent cette idée. Il semble bien
établi sur cette base qu’un contenu Agent/Action/Patient, structuré mais spécifique pour
chaque verbe transitif, est présent dans le lexique mental des locuteurs et que la
compréhension, comme la production des phrases correspondantes, s’effectue sur la base
de ces connaissances mentales préalables.

Conclusion
31 Les échanges de données, d’analyses, d’hypothèses, entre la linguistique et la psychologie
cognitive du langage continuent donc à être très intenses. La façon dont la
psycholinguistique a été conceptualisée dans son court passé, et dont ont été envisagées
les relations entre les deux disciplines qui s’y rencontrent, a indubitablement varié, et on
peut s’attendre à ce qu’elle change encore. Comme nous l’avons indiqué, ces relations
s’établissent aujourd’hui le plus souvent de façon locale, à propos de la résolution de
questions particulières, et non dans le cadre d’une théorie très générale du langage. Mais
ces échanges témoignent de ce qu’une connaissance scientifique du langage et, au-delà,
de la cognition repose sur la mise en œuvre de plusieurs approches, différentes mais
complémentaires, qu’une bonne stratégie de recherche doit veiller à faire converger.

AUTEUR
JEAN-FRANÇOIS LE NY
Professeur émérite à l’université de Paris-Sud. Groupe « Cognition Humaine » du Laboratoire
d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (UPR 3251, CNRS/Université
Paris XI, Orsay).
113

Linguistique, pathologie du langage


et cognition
Des dysfonctionnements langagiers à la caractérisation de l’architecture
fonctionnelle du langage

Jean-Luc Nespoulous

De la linguistique à la psycholinguistique et à la
neuropsycholinguistique : origines et évolution
1 En 1941, Roman Jakobson octroyait leurs premières lettres de noblesse aux « évidences
externes » que la théorie linguistique est selon lui en droit d’aller chercher dans des
domaines, fort divers en apparence, comme l’acquisition du langage par l’enfant ou la
pathologie du langage, particulièrement celle qui fait suite à des lésions du système
nerveux central dans le contexte de ce que la neurologie nomme « aphasie »1 (Jakobson,
1968).
2 De telles « évidences », toujours selon Jakobson, sont censées per mettre la validation ou
l’invalidation de tel ou tel concept opératoire forgé, dans un souci d’autonomie
disciplinaire, par les tenants de la linguistique générale issue des enseignements de
Ferdinand de Saussure en Europe, et de Leonard Bloomfield, aux USA.
3 Vers la fin des années 1960, et dans le contexte de l’émergence du courant cognitiviste 2, la
nécessité est alors réaffirmée d’une étude des processus sous-jacents à la production et à
la compréhension du langage chez le sujet normal et/ou pathologique, étude laissée de
côté par les tenants de la démarche linguistique évoquée ci-dessus, ainsi que par le
courant behavioriste en psychologie.
4 Dès lors, et particulièrement dans le domaine de la pathologie du langage, trois
disciplines se trouvent légitimement et inéluctablement convoquées : la linguistique, la
psycholinguistique et la neuro-psycholinguistique.
114

5 Le rôle spécifique de chacune des trois disciplines ne pose guère problème. En bref :
• La linguistique spécifie les propriétés structurales de telle ou telle langue naturelle à chacun
de ses niveaux d’organisation : phonologique, morphologique, syntaxique... Son objet est
donc l’identification de l’« architecture structurale » des langues et, à travers ces dernières et
leur diversité, de l’architecture structurale du langage dans l’espèce humaine ;
• la psycholinguistique, de son côté, s’assigne pour objectif de caractériser les niveaux de
représentation et les processus cognitifs présidant au traitement par l’esprit humain – si
possible en temps réel – desdites structures linguistiques, et ce en production comme en
compréhension, à l’oral comme à l’écrit. Son objet est donc de spécifier l’« architecture
fonctionnelle » sous-jacente du langage ;
• la neuropsycholinguistique, pour sa part, tente, encore fort modestement, de « réconcilier
l’esprit et le corps » (= le cerveau), dans un effort d’identification des structures cérébrales
ou réseaux neuronaux mobilisé(e)s lors du traitement cognitif de telle ou telle composante
de l’« architecture fonctionnelle » du langage dans telle ou telle activité langagière. Son
objet est donc d’appréhender l’« architecture cérébrale », neuronale, du langage.
6 Pour être complémentaires, ces trois disciplines n’en entretiennent pas moins des
relations hiérarchiques. Ainsi, s’il est possible d’être linguiste sans être psycholinguiste, il
semble clairement impossible d’être psycholinguiste sans de solides connaissances en
linguistique. De même, s’il est envisageable d’être psycholinguiste sans être neuro
psycholinguiste3, il semble impossible de s’intéresser au substrat biologique de la parole
et du langage, dans un domaine comme la pathologie du langage, sans de solides
connaissances en psycholinguistique et en linguistique (Nespoulous 1997).
7 Ensemble, ces trois disciplines permettent – certes de manière encore fort limitée,
compte tenu de la complexité du comportement verbal – de faire avancer trois des
interrogations fondamentales en matière de sciences cognitives :
• L’interrogation sur le « quoi ? », c’est-à-dire sur la nature des phénomènes linguistiques
étudiés ;
• l’interrogation sur le « comment ? », c’est-à-dire sur la nature des opérations mentales sous-
jacentes aux comportements verbaux ;
• l’interrogation sur le « où ? », c’est-à-dire sur les réseaux cérébraux – compacts ou distribués
– à l’origine de ces comportements4.

De l’intérêt de l’étude des erreurs langagières pour


l’appréhension de l’architecture structurale et
fonctionnelle du langage
8 L’intérêt pour les erreurs langagières, particulièrement au plan phonologique, n’est pas
nouveau. Meringer (1908) et Sturtevant (1917)5, relayés ultérieurement par Jakobson,
tentent d’utiliser l’étude des erreurs langagières pour mieux comprendre la nature de
certains changements linguistiques dans l’évolution des langues, en diachronie6.
9 Lashley, psychophysiologiste, à l’aube des sciences cognitives, dans son célèbre article sur
« The problem of serial order in behavior » (1951), se sert particulièrement des erreurs
d’anticipation (a) pour justifier la nécessité d’abandonner les modèles mécanistiques
antérieurs – fonctionnant strictement pas à pas, de gauche à droite – et (b) pour
réhabiliter la notion de représentation mentale, frappée de tabou par les behavioristes, de
Watson, en psychologie, à Bloomfield, en linguistique. Selon Lashley, l’esprit humain
115

calcule, l’esprit humain planifie, l’esprit humain anticipe. Il n’est donc pas cette bête
machine fonctionnant sur la seule base d’une suite ordonnée d’activations et d’inhibitions
« gauche-droite », telle que d’aucuns ont pu en rêver aux débuts de l’intelligence
artificielle.
10 D’autres linguistes, tels Wells (1951) et Hockett (1955, 1958, 1967), affichent également un
réel intérêt pour ce que de tels phénomènes (« slips of the tongue ») sont susceptibles de
révéler sur le fonctionnement langagier.
11 Vers la fin des années 1960 et au début des années 1970, les articles se multiplient. Ils
émanent alors aussi bien de linguistes que de psycholinguistes. Parmi eux, le célèbre
article de V. Fromkin, paru dans Language en 1971 : « The Non-Anomalous Nature of
Anomalous Utterances », suivi deux ans plus tard par un volume entier édité par la même
V Fromkin, Speech Errors as Linguistic Evidence, et par un dernier, en 1980, Errors in
Linguistic Performance. Dans ces trois publications, elle relève un certain nombre de
« notions linguistiques » qui semblent, du fait de la nature de certaines erreurs, posséder
une « réalité psychologique », c’est-à-dire correspondre à diverses opérations mentales
de l’esprit humain en situation de production langagière. Ainsi, l’observation, chez les
sujets normaux aussi bien que chez les patients cérébrolésés, de divers phénomènes de
substitution, d’omission, d’addition et de déplacement des unités linguistiques
appartenant aux deux niveaux d’articulation des langues naturelles, permettent de
valider des notions telles que celle de « segment », de « trait phonétique/phonémique »,
de « groupe consonantique » en tant que séquence de segments discrets (à la différence
des affriquées7), de « syllabe », de « contrainte phonotactique », d’« accent », de
« catégorie grammaticale », de « trait sémantique »...
12 À partir des publications de Fromkin, l’objectif des travaux en la matière va toutefois plus
loin que celui des linguistes de la première époque. Il s’agit à présent de tenter d’utiliser
ces dérives et erreurs de parole pour édifier, petit à petit et au fur et à mesure des
observations, des « modèles de performance » rendant compte, de manière plausible8, (a)
de l’architecture fonctionnelle du langage dans le cerveau/esprit humain9 et (b) des
différentes opérations cognitives qui sous-tendent l’activité langagière. C’est à cette tâche
que va se consacrer à son tour, quelques années plus tard, M. Garrett, ultérieurement
relayé par S. Shattuck-Hufhagel. Comme ses prédécesseurs, M. Garrett va surtout utiliser
les erreurs de performance, occasionnelles, recueillies auprès de sujets normaux pour
bâtir son modèle de production de phrases. Toutefois, constatant que les aphasiques
constituaient une population propice à la production en grand nombre d’erreurs de
performance, il va également s’intéresser à ces derniers à partir des années 1980 et son
modèle sera dès lors souvent utilisé par les neuropsycholinguistes dans leur tentative
d’identification des processus cognitifs perturbés chez tel ou tel patient, un rôle que joue
de plus en plus souvent aujourd’hui le modèle de P. Levelt.
13 L’examen des modèles linguistiques utilisés dans l’analyse des erreurs de performance
permet de constater que, contrairement à ce que d’aucuns prétendent, il n’a pas fallu
attendre l’avènement de la grammaire générative pour que soit appréhendé, de manière
pertinente et efficace, le déterminisme sous-jacent – psycholinguistique de celles-ci 10. Si
ce dernier courant a, de toute évidence, joué un rôle crucial, voire quasi exclusif à un
certain moment, dans le développement de cette discipline, il semble clairement
déraisonnable de considérer un tel modèle comme le seul à posséder des propriétés
« psycho-ou neuro-compatibles » ! Si un tel courant n’a donc pas le monopole intrinsèque
de la neurocompatibilité, il appartient toutefois aux autres courants linguistiques, et en
116

priorité à ceux qui revendiquent le qualificatif de « cognitif », d’envisager à présent sans


frilosité la mise à l’épreuve psycholinguistique de leurs architectures, ce qu’ils se sont
longtemps refusés à faire.

De l’observation des comportements pathologiques à


l’édification de l’architecture structurale et
fonctionnelle du langage chez le sujet normal
14 En choisissant, comme point de départ de l’entreprise neuropsycho-linguistique, l’étude
des manifestations linguistiques pathologiques, le pari est clairement fait que les effets
d’une lésion cérébrale focale, dans le contexte de l’aphasie, permettent l’observation du
« fractionnement » en composantes et sous-composantes d’une faculté aussi complexe
que le langage, ce que certains, de Jerry Fodor à Alfonso Caramazza, ont appelé le
« postulat de modularité »11.
15 De fait, fort heureusement, la lésion cérébrale n’engendre pas, chez le patient, de chaos
cognitivo-linguistique et les perturbations sélectives – plus ou moins marquées selon les
patients – permettent bien d’appréhender certaines des composantes à l’œuvre,
certainement de manière fort interactive, dans le comportement verbal normal de l’être
humain. C’est ce que d’aucuns ont appelé le « postulat de transparence », voire de
« soustractivité » chez les plus radicaux d’entre eux. Une lésion cérébrale ne créé rien de
novo ; aussi, le clinicien et le chercheur peuvent-ils observer tout à la fois (a) les effets
directs du dysfonctionnement de telle ou telle composante – ce qui convient, bien
entendu, aux « modularites » – et (b) la réaction du système global, en présence du/des
sous-système(s) perturbé(s), sans oublier (c) le déploiement de stratégies d’adaptation
(Nespoulous 1994), stratégies qui conduisent, de toute évidence, à rejeter la version forte
du « postulat de soustractivité » et de « modularité ».
16 On mesure dès lors tout l’intérêt d’un domaine comme l’aphasiologie pour quiconque se
pique de tenter d’appréhender l’architecture structurale et fonctionnelle du langage dans
le cerveau/esprit humain ! Puisqu’il est très difficile d’appréhender cette dernière à
travers l’observation de comportements verbaux chez le sujet sain, chez lequel, à bien des
égards, « tout est en interaction avec tout » harmonieusement, le fractionnement
symptomatologique engendré par les aphasiques constitue une fenêtre exceptionnelle sur
l’« architecture componentielle » du langage dans le cerveau/esprit humain, une
architecture qui n’exclut nullement l’existence d’inter actions entre les divers
constituants identifiés.
17 Dans cette entreprise structuro-fonctionnelle, trois types de phénomènes sont
particulièrement recherchés, certains plus riches, productifs et efficaces que d’autres
(Coltheart 2001) :
• Les « doubles dissociations symptomatologiques » ;
• les « dissociations symptomatologiques simples » ;
• les « associations symptomatologiques ».

Doubles dissociations

18 La mise en évidence de ce premier type de dissociation – considéré, depuis les travaux de


Teuber (1955), comme l’outil souverain du neuropsycholinguiste à tel point qu’il est
117

parfois le seul à être cité – requiert le plus souvent la mise en confrontation de deux
patients.
19 Lorsqu’un patient P1 fait montre de la perturbation d’un système (ou sous-système ou
composante) A et de la préservation concomitante d’un système (ou sous-système ou
composante) B, alors qu’un patient P2 témoigne de l’existence de la dissociation inverse,
conclusion est tirée de l’autonomie fonctionnelle des systèmes ou sous-systèmes A et Β dans
l’architecture fonctionnelle du langage dans le cerveau/esprit humain, y compris, bien
entendu, dans le cerveau/esprit humain du sujet normal, par extrapolation et en vertu du
postulat de transparence déjà mentionné (Séron 1993).
20 Une même conclusion de l’autonomie fonctionnelle de divers systèmes ou sous-systèmes
cognitifs peut être atteinte, quoique plus rarement, chez un seul et même patient. C’est
du moins ce que certaines études de cas ont permis d’avancer : ainsi, Rapp, Benzing et
Caramazza (1995) ont rapporté le cas d’un patient qui avait de mauvaises performances
en production de noms vs. de verbes à l’oral alors qu’il présentait le « pattern » inverse en
production écrite, un double profil symptomatologique qui n’est pas aisé à interpréter,
sauf à multiplier, d’une manière peut-être exagérée, les représentations et les entités
fonctionnelles sous-jacentes au comportement verbal.
21 Bien évidemment, l’observation de telles doubles dissociations tend à renforcer la validité
de modèles « modulaires » du fonctionnement du langage. Il convient toutefois de
demeurer prudent sur ce point. S’il est vrai que, le plus souvent, la lésion cérébrale ne
vient pas perturber la totalité des aspects de la fonction linguistique, laissant ainsi
émerger une certaine sélectivité des atteintes, les « doubles dissociations » sont loin de se
manifester toujours par des phénomènes de « tout ou rien » (100 % vs. 0 %) ; il s’agit bien
plus fréquemment de simples contrastes phénoménologiques, certes statistiquement
significatifs, entre composante(s) langagière(s) (mieux) préservée(s) et composante(s)
langagière(s) (davantage) perturbée(s) (Shallice 1988) !
22 Quoi qu’il en soit, la neuropsychologie du langage a, de fait, permis de mettre en évidence
un certain nombre de dissociations de ce type, ce qui semble indiquer clairement que, en
matière linguistique de même que dans d’autres domaines cognitifs, « tout n’est pas dans
tout et réciproquement » !
23 Certaines de ces « doubles » dissociations sont même considérées comme « fortes » et
« robustes » (Shallice 1988), dont, à titre d’exemple, la dissociation « Noms/Verbes ».
24 Certains travaux menés sur des sujets aphasiques au cours des deux dernières décennies
semblent en effet avoir mis en évidence une double dissociation dans la gestion de ces
deux catégories de constituants linguistiques. Ainsi, certains patients seraient meilleurs
dans la production et/ou dans la compréhension de noms que dans celle de verbes,
d’autres patients présentant la tendance préférentielle inverse (Miceli et al. 1984, 1988 ;
Zingeser et Berndt, 1990 ; Bates et al. 1991 ; Chen et Bates 1998). Plus précisément, les
patients présentant une aphasie de Broca avec agrammatisme• – ordinairement à la suite
d’une lésion prérolandique12 gauche – produiraient plus aisément les noms que les verbes
alors que les patients présentant une aphasie de Wernicke – ordinairement à la suite
d’une lésion rétrorolandique13 gauche – géreraient mieux les verbes que les noms. Dans
quelques cas, certains auteurs vont même jusqu’à parler de déficit sélectif dans la gestion
des noms (Daniele et al. 1994 ; Miozzo et al. 1994 ; Breen et Warrington 1994 ; De Renzi et
Di Pellegrino 1995) ou dans la gestion des verbes (McCarthy et Warrington 1985 ;
118

Caramazza et Hillis 1991 ; Ardila et Rosselli 1994 ; Kremin 1994 ; Mitchum et Berndt 1994 ;
Orpwood et Warrington 1995 ; Manning et Warrington 1996)14.
25 Un examen attentif de la littérature neuropsycholinguistique permet cependant
d’identifier (au moins) trois limitations dans les travaux visant à valider une telle
dissociation :
• Tout d’abord, certaines études – reposant pourtant sur le même type de protocole
expérimental et ayant recours aux mêmes populations de patients que celles que nous
venons de citer – ne retrouvent pas la double dissociation Noms/Verbes, soit que les noms et
les verbes « souffrent » de manière équivalente dans les deux groupes de patients (Basso et
al. 1990), soit que les noms soient systématiquement mieux traités que les verbes dans tous
les cas (Williams et Canter 1987 ; Kohn et Pearson 1989) ;
• ensuite, d’autres études, plus fines, proposant un paradigme expérimental plus extensif – et
comportant donc différentes tâches mobilisant le même matériau linguistique (par exemple,
dénomination vs. discours continu) – montrent que les performances varient chez les mêmes
patients d’une tâche à une autre (Nespoulous et al. 1988 ; Berndt et al. 1997b ; Jonkers 1998 ;
Bastiaanse et jonkers 1998 ; Berndt et al. 1997a), une observation qui vient tempérer quelque
peu l’interprétation strictement modulariste du lexique mental telle que privilégiée par les
auteurs précédents (cf. Joanette et Goulet 1991, pour une revue critique de l’étude de
Zingeser et Berndt) ;
• enfin, et surtout, ces études reposent presque toujours sur la comparaison d’épreuves de
production (ou de compréhension) de Noms d’Objets vs. Verbes d’Action. Dès lors, il n’est
plus possible de savoir si la double dissociation observée est déterminée par l’appartenance
des items lexicaux testés à deux classes grammaticales distinctes, comme le suggère
pourtant l’intitulé des articles déjà publiés, ou par leurs statuts conceptuels respectifs.
26 Dans un tel contexte, de nouvelles études sont actuellement en cours (Nespoulous 1999),
contrastant la production de noms d’action et de verbes d’action dans des tâches de
production et de compréhension. Dès lors, si la double dissociation Noms/Verbes persiste
dans un tel protocole nouveau, elle ne pourra être interprétable qu’en termes
grammaticaux puisque la représentation sémantique sera maintenue constante dans les
deux cas. Les agrammatiques auraient alors véritablement un déficit spécifique dans le
traitement des verbes et les anomiques* présenteraient un déficit spécifique dans le
traitement des noms, que ces derniers renvoient à des objets, comme dans les études
précédentes, ou à des actions.
27 Si, au contraire, les deux types d’items lexicaux (noms et verbes d’action) sont également
perturbés, tout au moins chez certains patients (les agrammatiques, en particulier), il
conviendra alors de conclure à l’existence d’un déficit « de plus haut niveau »,
transcendant les variations de catégories grammaticales. Dès lors, la double dissociation
identifiée dans les travaux initiaux ne pourra(it) s’expliquer qu’en termes lexico-
sémantiques et fonctionnels – entités vs. procès – et non point sur la base de la
dichotomie Nom/Verbe. Les agrammatiques apparaîtraient alors comme présentant un
problème de gestion de la « fonction prédicative », en des termes empruntés à Luria et
repris par Jakobson (1956) ; les anomiques, de leur côté, présentant plutôt un problème de
lexicalisation des entités.
28 Ainsi, même certaines dissociations dites « fortes » ou « robustes » ne le sont pas
nécessairement et définitivement, pour peu que l’on examine les phénomènes
pathologiques avec une minutie qui n’a pas toujours été de saison !
119

29 De plus, depuis quelques années, certains chercheurs, ayant « obtenu » des doubles
dissociations après avoir lésé des systèmes connexionnistes ignorant tout des notions de
représentations, de fonctions et de modules, ont tenté de remettre en cause non point
leur existence même, mais les inférences qu’elles ont induites en matière de
« modularité » du fonctionnement de l’esprit et du cerveau humain (Plaut 1995 ; Juola et
Plunkett 2000 ; Dunn et Kirsner 200315).
30 On retrouve là la légitimité de la mise en garde et de la prudence de T. Shallice qui, dans
son ouvrage de 1988, disait clairement que (a) si des modules existent, alors les doubles
dissociations constituent un moyen de les identifier mais (b) qu’il serait trompeur de
conclure que puisqu’il existe des doubles dissociations, alors les modules doivent
également exister.

Dissociations simples

31 Si un même patient fait montre d’une perturbation dans le traitement d’un sous-
ensemble A de phénomènes linguistiques (phonologiques, morphologiques,
syntaxiques...) et/ou dans une tâche X, et de la préservation concomitante d’un autre
sous-ensemble Β de phénomènes et/ou dans une tâche Y, ET SI aucun autre patient ne
témoigne de l’existence de la dissociation inverse, conclusion est tirée (a) que les sous-
ensembles A et B, et/ou les tâches X et Y, n’ont pas à être différenciés dans l’architecture
fonctionnelle du langage dans le cerveau/esprit humain et (b) qu’ils ne se différencient
qu’en termes de complexité intrinsèque, le sous-ensemble B et/ou la tâche Y étant ainsi
considérés comme plus simples, cognitivement moins coûteux, par rapport au sous-
ensemble A et/ou à la tâche X16.
32 C’est là, à l’évidence, un type de dissociation qui intéresse autant le linguiste, à la
recherche d’« évidences externes », que le psycholinguiste et le neuropsycholinguiste.
33 Tous les modèles linguistiques, depuis l’avènement de la linguistique générale,
débouchent sur l’identification de hiérarchies structurales : les systèmes linguistiques –
les langues – ne sont point des systèmes « démocratiques » au sein desquels toute entité
vaut autant que toute autre. La « théorie de la marque », issue des travaux de
Troubetzkoy en phonologie, dans les armées 1930, postule ainsi l’existence de phonèmes
marqués, structuralement plus complexes, et de phonèmes non-marqués,
structuralement plus simples, au sein d’un seul et même système phonologique.
34 Dans un tel domaine, l’aphasie apporte des « évidences externes » importantes dans la
mesure où s’il a été relativement aisé de montrer qu’un patient gérait mieux les
phonèmes « non-marqués » que les phonèmes « marqués » (Blumstein 1973 ; Nespoulous
1984), nul n’a jamais observé le phénomène inverse... Il y aurait eu alors « double
dissociation » (cf. supra).
35 Pareillement, en termes de structures syllabiques, toujours au niveau phonologique, la
nature des erreurs engendrées par les aphasiques, tout particulièrement par les
aphasiques de Broca, a permis de valider divers modèles de phonologie métrique, prenant
en compte la structure syllabique (Nespoulous et al. 1998 ; Nespoulous 1998 ; Béland et
Paradis 1998). Ainsi, le patient a-t-il le plus souvent tendance à simplifier la structure
syllabique des représentations lexico-phonologiques de sa langue et, donc, à remplacer
des structures « branchantes » (par ex. CCV, CVCC, etc.) par des structures plus simples de
type : CVCVCV...
120

36 S’agissant des groupes consonantiques, les aphasiques apportent également de l’eau au


moulin de certains modèles linguistiques. Par exemple : les CC occlusives/liquides (/br/, /
pl/...) vs. constrictives/occlusives (/st/, /sk/). Dans sa production erronée de tels groupes
consonantiques, le patient semble respecter certains principes hiérarchiques, absents des
modèles phonologiques « linéaires » plus anciens.
37 Il serait aisé de démontrer les mêmes tendances (par ex. le plus simple est plus aisé que le
complexe) au niveau syntaxique ainsi qu’à d’autres niveaux d’organisation des langues
naturelles17.
38 D’autres dissociations, apparemment unilatérales, et donc « simples », existent et
méritent l’attention du linguiste, du psycholinguiste et du neuropsycholinguiste. C’est le
cas de la dissociation entre les usages « référentiels » et « modalisateurs » du discours
(Nespoulous 1980, 1981 ; Nespoulous et al. 1998). Bien que fréquemment observée chez les
patients, cette dissociation, rejoignant le distinguo proposé par Charles Bally entre le
« dictum » et le « modus » du discours, n’a pas fait l’objet de nombreux travaux.
39 Selon Bally (1942), tout acte de parole renferme deux composantes distinctes :
• Le « dictum », dont l’objectif est la mise en place, par le locuteur, d’une information
spécifique faisant référence à des personnes, à des objets ou à des idées appartenant à
l’environnement social et culturel de la communauté à laquelle il appartient. C’est cette
composante qui est ici qualifiée de « référentielle » ;
• le « modus » ou « modalité » qui est « la forme linguistique d’un jugement intellectuel, d’un
jugement affectif ou d’une volonté qu’un sujet pensant énonce à propos d’une perception ou
d’une représentation de son esprit », c’est-à-dire à propos du « dictum ». C’est cette
composante qui est ici qualifiée de « modalisatrice ».
40 De plus, linguistiquement parlant, une telle dissociation, au-delà de considérations
strictement structurales, souligne l’importance de porter le débat au plan « fonctionnel »,
y compris en termes linguistiques, comme l’ont fait, par exemple, des linguistes tels que
M.A.K. Halliday (1970).
41 Quelques échantillons de discours aphasiques permettront d’illustrer cette dissociation :

Échantillon aphasique 1 (anomique)

Thérapeute : « Comment allez-vous ? »

« Je suis très heureux de vous... bien heureux...


mon Dieu ! Je suis très bien. Je reconnais que,
Patient.
euh..., Mon Dieu ! j’ai... j’ai... j’aime bien/f/...
parce que – qu’est-ce que vous voulez ? – euh... »

Echantillon aphasique 2 (Wernicke avec jargon phonémique)

Thérapeute : « Qu’est-ce qu’il vous est arrivé ? »


121

« Bien, c’est-à-dire... oui... évidemment...


enfin... comment dirais-je ?... je veux dire/
aktemamono/toujours/komota/touj ours/
Patient.
akaboereskata/quand même... de nouvelles/
zekybyroe kadureribyroe/oui, forcément,
vous comprenez ? »

Thérapeute : « Vous êtes déjà venu ici ? »

« Ah, oui, toujours aussi, Oh !... est-à-dire que


j’ai eu au/akyky/... euh... comment ça
s’appelle ?/sebyzyr/... comment ça/bikoetoe/...
un/asda/de/SOEDOEFOE/... je me souviens pas
comment c’était exactement... Ah ! bien sûr,
Patient.
oui... certainement... toujours.../avateloebo/...
il faudrait écouter/lezozoe/, vous comprenez ?
C’est exactement... ça devrait arriver à/
dekudroe... a seduboe/... à découvrir ça...
un peu plus... un petit peu plus, si vous voulez. »

Échantillon aphasique 3 (syndrome frontal) Récit du Petit Chaperon rouge


« Bien là,... d’abord... la grand-mère, en principe, lui sert la soupe, oui, quoi... lui...
chose... et lui amène, disons, puisque vous voulez des détails,... lui amène le chose, bon.
« Ensuite, alors, la petite fille s’en va au bois, apparemment sans histoire ». 18
42 Au vu des échantillons ci-dessus, le distinguo avancé par Charles Bally semble bien être
honoré par les patients examinés, et ce toujours dans le même sens, d’où le recours à la
notion de « dissociation simple ».
43 À l’instar de Jackson, certains neurologues ont proposé de considérer ces fragments
discursifs exempts d’erreurs – fragments « modalisateurs » – comme des « automatismes
langagiers », ne nécessitant aucune activité « volontaire », d’où leur préservation19 chez
les patients. Certes, il est possible d’admettre l’automatisation de courtes « bouffées
verbales » telles que « n’est-ce pas ? »20, « je peux pas », « je sais pas » ou quelques jurons.
En revanche, il semble clairement impossible de considérer comme automatismes
verbaux des comportements aussi complexes que le suivant, réponse d’un patient à qui
un clinicien demandait quel était son métier antérieurement à sa maladie : « Ah, ça, mon
cher ami, je ne sais pas si j’aurai le courage de vous le dire21. »
44 Comme il apparaît dans ce qui précède, les deux types de dissociations ci-dessus, les
« doubles » comme les « simples », ont pour fondement la manière dont la linguistique
générale envisage l’architecture structurale des langues naturelles et son
« fractionnement » en :
• Composantes et représentations qualitativement différentes, au plan « structural » :
phonologie, morphologie, syntaxe..., mais aussi, plus rarement, au plan « fonctionnel » :
référentiel/modalisateur... ;
• structures de complexité intrinsèque variable au sein de chaque composante ; et seul un
ancrage linguistique permet d’identifier et de rendre compte de telles dissociations.
122

45 Par rapport à une telle architecture « postulée », l’ouvrage du psycholinguiste et, plus
encore, du neuropsycholinguiste est tout tracé : (a) il s’agit, d’une part, grâce aux doubles
dissociations, de valider la modularité, ou le « traitement fonctionnellement différentiel »,
des diverses composantes de la langue. Il s’agit ensuite (b) de valider les échelles de
complexité intra-modulaires ou intertâches, via la mise en évidence de dissociations
simples. Nombreux sont les travaux, particulièrement en pathologie du langage, qui ont
tout à la fois attesté la validité d’une telle démarche et bon nombre des caractérisations
structurales échafaudées par les linguistes.

Associations symptomatoogiques

46 Moins fréquemment étudiées que les deux cas de dissociations précédentes, les
associations symptomatologiques n’en constituent pas moins un domaine intéressant, et
délicat, en neuropsycholinguistique contemporaine.
47 De fait, à l’exception des cas « purs22 », la plupart des patients aphasiques engendrent, au
moins au niveau superficiel, plusieurs symptômes, voire même, chez certains, une
myriade symptomatologique qui conduit inéluctablement au double questionnement
suivant :
1. le patient souffre-t-il de plusieurs déficits « associés », que ces derniers restent dans la sphère
verbale ou qu’ils franchissent la frontière verbale/non verbale, du fait, éventuellement, de la
proximité anatomique de différents réseaux fonctionnels différents ?
2. ou y a-t-il, au-delà de l’hétérogénéité symptomatologique de surface, quelque principe,
mécanisme ou dénominateur « commun », susceptible de valider une interprétation unitaire
du déterminisme sous-jacent de l’ensemble des symptômes observés ?

48 La question est d’importance dans la mesure où elle pose le problème de la spécificité et


de l’autonomie des processus cognitifs sous-tendant l’activité langagière par rapport à
ceux qui sous-tendent d’autres fonctions mentales supérieures (non verbales).
49 Le syndrome de Gertsmann constitue ici un exemple illustratif de l’intérêt, mais aussi de
la complexité, des phénomènes d’« associations ».
50 Ce syndrome, bien établi en neurologie clinique, se caractérise par la co-occurrence de
quatre symptômes fort différents : acalculie, agnosie digitale, désorientation droite-
gauche et dysgraphie. Dans un tel cas, il semble délicat, pour l’heure, d’avancer un
quelconque niveau représentationnel singulier ou un quelconque dispositif cognitif
unique sous-tendant les quatre phénomènes relevés. Il semble bien plus plausible de
considérer que ces symptômes hétérogènes émanent de l’atteinte de différents systèmes
cognitifs utilisant des voies cérébrales topographiquement proches au sein du lobe
pariétal gauche.
51 La liste est longue des travaux, tous pertinents, reposant sur la problématique des
« associations », particulièrement dans le cas d’associations « verbales – non verbales » :
52 Que dire, en effet, des similarités, sans exclure les différences, entre :
• Langage et musique (chez des « experts » des deux habiletés) ?
• langage et praxies : un apraxique• non-aphasique peut-il parler convenablement de ce qu’il
ne peut plus faire (Nespoulous, Heurley et Virbel, en cours) ?
• langage et désorientation spatiale : un patient désorienté dans sa gestion de l’espace
demeure-t-il capable de décrire convenablement des itinéraires alors même qu’il se perd
dans la ville dès qu’il tente de s’y promener (Ricalens, Denis et Nespoulous, en cours) ?
123

53 Quelles que soient les réponses à ces différentes questions, celles-ci seront cruciales :
• Ou bien elles contribueront à étayer l’existence d’un seul système représentationnel profond,
sous-tendant les performances dans des domaines apparemment différents ; il y aura alors
« associations symptomatologiques » fortes interdomaines !
• ou bien elles contribueront à étayer l’hypothèse selon laquelle l’esprit/cerveau humain
dispose de systèmes cognitifs authentiquement distincts, et les modularistes auront alors
quelques nouveaux arguments objectifs !
54 En termes neurocognitifs, la problématique des éventuelles associations
symptomatologiques interdomaines, chez l’homme, ouvre également une perspective fort
prometteuse, mais non nouvelle, en matière de comparaison homme/animal. Ainsi, par
exemple, les perturbations interdomaines (incluant le langage) observées parfois chez
l’homme cérébrolésé ET les perturbations – obligatoirement non verbales induites chez
certains primates dans certaines conditions expérimentales (exérèses• ou
enregistrements unitaires•) constituent un enjeu majeur pour la recherche en sciences
cognitives. La question fondamentale est ici encore la suivante : les corrélats cérébraux
du langage chez l’homme, les corrélats cérébraux d’autres fonctions mentales supérieures
(toujours) chez l’homme ET les corrélats cérébraux de certains comportements chez
l’animal sont-ils fondamentalement différents OU, l’autonomie du langage étant alors
battue en brèche, cette habileté cognitive primordiale dans l’espèce humaine emprunte-t-
elle des réseaux fonctionnels déjà utilisés par d’autres fonctions, chez l’homme ainsi que
chez les animaux « supérieurs »23 ?
55 À travers les trois types de phénomènes exposés ci-dessus – doubles dissociations,
dissociations simples et associations – systématiquement recherchés par le
neuropsycholinguiste, une première incursion peut donc être faite dans le
fonctionnement de l’esprit humain, en matière de langage mais aussi en matière de
cognition au sens plus général du terme. Les travaux des trente dernières années dans le
contexte de la neuropsycholinguistique cognitive attestent de l’intérêt d’une telle
démarche, et ce même si, à l’évidence, la route est encore très longue !

L’articulation « esprit » - « cerveau »


56 Jusqu’ici, dans le présent chapitre, il a été essentiellement question du « quoi ? » et du
« comment ? », et le « où ? », c’est-à-dire l’ancrage cérébral/neuronal des comportements
verbaux soumis à étude, a été largement laissé de côté.
57 Historiquement, les premiers travaux visant à identifier les parties du cerveau mobilisées
dans telle ou telle activité linguistique ont reposé sur l’examen anatomopathologique,
post mortem. En pareil cas ont donc été identifiés, d’une part, les différents symptômes
présentés par un patient de son vivant et, d’autre part, la ou les parties du cortex cérébral
lésées via l’observation de la surface du cerveau de ces patients ou via des coupes sériées
de leur cerveau. C’est ce que, depuis Déjerine, on appelle la « méthode anatomo-clinique »
ou l’étude des « corrélations anatomo-cliniques ».
58 Cette méthode, initiée par Paul Broca, est à l’origine de la localisation, dans l’hémisphère
gauche – et pas n’importe où dans l’hémisphère gauche – de « la faculté du langage
articulé », de la « zone du langage ».
124

59 Sans remettre en question les apports de cette méthode – complétée utilement par
l’arrivée des premières générations de scanners (permettant d’effectuer des observations
du vivant des patients) – il convient d’insister sur le caractère réductionniste d’une telle
conclusion « cartographique ».
60 Deux points, au minimum, ne peuvent dorénavant plus être ignorés. D’une part, du fait de
la localisation désormais très précise des lésions cérébrales responsables d’une aphasie, le
nombre d’exceptions au dogme de la localisation cérébrale n’a fait que croître :
• Patients avec une même symptomatologie mais présentant des lésions différentes ;
• patients avec une « même » lésion et présentant une symptomatologie différente ;
• patients avec de grosses lésions et une symptomatologie réduite ;
• patients avec une petite lésion et une symptomatologie lourde et diversifiée.
61 En d’autres termes, les exceptions sont nombreuses, qui viennent tempérer
l’enseignement neurologique classique (cf. Basso et al. 1985).
62 D’autre part, et plus crucialement, les lésions hémisphériques droites sont loin de n’avoir
aucun impact sur le fonctionnement langagier. En dehors des cas d’« aphasie croisée 24 »
(Joanette et al. 1982 ; Puel et al. 1982), qui semblent bien montrer que tout n’est pas
systématiquement et inéluctablement « précâblé » dans le cerveau, les patients
cérébrolésés droits – habituellement considérés comme nonaphasiques – s’avèrent
fréquemment perturbés dans divers aspects du traitement du langage. Depuis les travaux
initiaux de J. Eisenson (1959) et d’E. Weinstein (1964), la liste ne fait que s’allonger des
processus linguistiques perturbés par lésion droite (Joanette 1980) :
• La compréhension des métaphores (Pakzad et Nespoulous 1997) ;
• la compréhension des actes de parole indirects (Champagne 2001) ;
• la compréhension d’humour, des sarcasmes (Hannequin et al. 1987) ;
• le traitement des inférences et de l’implicite dans le discours (Duchêne 1997) ;
• le traitement de certains aspects de la prosodie (Hannequin et al. 1987).
63 De telles observations conduisent parfois à considérer que si la « grammaire », dans ses
aspects les plus formels et formalisables, est plutôt gérée par l’hémisphère gauche, le
« langage », pragmatique inclusivement, semble nécessiter la mobilisation de
l’hémisphère droit, le langage ou, plus précisément, ce que ce dernier a de plus élaboré et
de plus sophistiqué dans son fonctionnement. Dès lors, il n’est plus possible d’écarter les
cérébrolésés droits du champ d’étude du neuropsycholinguiste, de même qu’il devient
insoutenable de voir que ces patients sont rarement pris en charge, sur le plan
thérapeutique, au motif essentiel qu’ils ne sont pas, officiellement, aphasiques !
64 Les apports de l’imagerie fonctionnelle cérébrale, chez le sujet sain, semblent bien (a)
aller dans la même direction que celle qui vient d’être évoquée et (b) démontrer que
l’hémisphère droit est bel et bien actif dans bon nombre de tâches linguistiques. Sans
conduire nécessairement au rejet de l’existence de systèmes fonctionnels distincts dans le
cerveau humain, de telles observations, au cours des vingt dernières années, font
clairement nécessité d’appréhender l’activité linguistique comme largement distribuée
dans le cerveau, distribuée à l’intérieur de l’hémisphère gauche mais aussi dans
l’hémisphère droit. Exception faite, sans doute, des traitements sensori-moteurs de bas
niveau, bien strictement localisés dans les cortex primaires, et plutôt dans l’hémisphère
gauche pour le traitement d’informations/stimuli linguistiques, il convient de constater
que, dès que la tâche devient quelque peu plus complexe, c’est-à-dire dès que celle-ci
devient « authentiquement cognitive », l’activité requiert la mobilisation de réseaux
125

passablement distribués. L’histoire de cette nouvelle époque dans l’étude des corrélations
« structure-fonction » au plan linguistique, voire à un niveau cognitivement supérieur (cf.
supra), n’en est encore qu’à ses débuts !
65 Il suffit, pour s’en convaincre, d’examiner certaines méta-analyses effectuées au cours des
dernières années à partir de divers travaux ayant pour objet de confronter les données
obtenues, en imagerie fonctionnelle, dans telle ou telle tâche langagière spécifique, la
dénomination, par exemple. Ainsi, Jean-François Démonet – sur la base de plusieurs
dizaines études avec imagerie portant sur la dénomination d’objets – a examiné les
régions cérébrales impliquées dans la production de mots isolés (Démonet et al. en
révision). Si Indefrey et Levelt (2000) étaient parvenus25 à la conclusion que différentes
zones de l’hémisphère gauche jouaient un rôle spécifique dans la gestion de certains
processus nécessaires à l’effectuation d’une telle tâche, Jean François Démonet montre
que, dans bien des cas, une activité significative dans l’hémisphère cérébral droit est
également relevée !

Conclusion : quelques orientations et défis de la


neuropsycholinguistique pour le XXIe siècle
66 Quelques orientations peuvent être énumérées, lesquelles constituent autant de défis
pour la neuropsycholinguistique des décennies à venir :
• Du fait de son importance théorique aussi bien que méthodologique, il s’avérera
indispensable de quitter le niveau du « mot isolé » pour appréhender la gestion des diverses
composantes du lexique mental en contexte phrastique et discursif. Comment, en effet, prétendre
rendre compte « hors contexte » de la gestion des verbes, de la morphologie flexionnelle
verbale ou de la co-référence via des pronoms anaphoriques, au sein de tâches
expérimentales limitées à la production et/ou à la compréhension de mots isolés ?
• le comportement verbal humain étant loin d’être stéréotypé, les études futures ne pourront
exclure la prise en compte des divers types de variabilités, toutes indicatives des nombreux
« degrés de liberté » du comportement verbal humain. On s’éloignera ainsi d’un certain
mécanicisme réductionniste parce que uniforme et unitaire !
• la lésion cérébrale ne se manifestant pas uniquement par des phénomènes « négatifs » –
directement issus du déficit causal – mais aussi par la mise en place de « stratégies
palliatives » (cf. supra), ces dernières devront être systématiquement étudiées avec le double
objectif (a) d’évaluer le potentiel cognitif « adaptatif » du patient et (b) d’envisager les
programmes thérapeutiques susceptibles d’aider ce dernier à surmonter au mieux son
handicap ;
• parallèlement à l’étude de sujets cérébrolésés, il sera également indispensable, puisque cela
est désormais possible, y compris via l’imagerie fonctionnelle, d’examiner les sujets
normaux « en situation difficile » de « double tâche » ou « complexe » (par exemple, les
interprètes simultanés). La comparaison des performances verbales de ces deux types de
populations, en situation d’« hypofonctionnement » ou d’« hyperfonctionnement » selon les
cas, devrait faire avancer la recherche en matière de caractérisation des processus, y
126

compris « adaptatifs », sous-tendant la gestion de l’information linguistique en « situation


extrême ».
67 Dans toutes ces entreprises, il conviendra, encore plus que par le passé :
• De bien contrôler le matériau linguistique manipulé : ce sera là, demain plus encore qu’hier,
la tâche du linguiste ;
• de recourir autant que possible à un modèle explicite du traitement (psycho)linguistique de
l’information, et donc de bien contrôler les contraintes de traitement en fonction des
situations/tâches proposées : ce sera là, demain plus encore qu’hier, la tâche du
psycholinguiste ;
• de n’envisager de recourir à l’un et/ou à l’autre des moyens modernes d’imagerie
fonctionnelle cérébrale que lorsque des données comportementales, aussi stables et robustes
que possible, auront été préalablement obtenues.
68 Une telle démarche et de telles orientations ne peuvent être envisagées que dans le cadre
d’équipes pluridisciplinaires réunissant, au minimum, les trois disciplines évoquées tout
au long du présent chapitre.
69 L’intégration de la linguistique comme « premier cercle » dans la démarche tripartite
proposée souligne bien son rôle central dans un tel dispositif pluridisciplinaire.
70 Le fait que cette discipline, dans la vision hiérarchique des relations interdisciplinaires ici
présentée, ait statut de « discipline centrale » autour de laquelle viennent s’articuler, en
deuxième et troisième cercle, la psycholinguistique et la neuropsycholinguistique, devrait
rassurer ceux des linguistes qui considèrent encore parfois les domaines de la
psycholinguistique et de la pathologie du langage comme marginaux (Nespoulous 1997).
71 Dans un tel contexte, l’ambition d’un tel chapitre était de montrer, en particulier à
travers les illustrations convoquées, (a) quel peut être l’apport de la linguistique pour une
meilleure caractérisation et appréhension de la pathologie du langage et (b) quel peut
être, en retour, l’apport de la pathologie du langage pour une meilleure appréhension de
l’architecture structurale et fonctionnelle du langage dans le cerveau/esprit humain.

NOTES
1. Chez un sujet ayant acquis une langue et l’ayant utilisée sans difficultés pendant de
nombreuses années, l’« aphasie » est la conséquence d’une lésion cérébrale focale, ordinairement
localisée dans l’hémisphère gauche. L’intérêt majeur du « modèle aphasique » réside dans le fait
qu’une telle pathologie vient perturber, de manière souvent sélective, tel ou tel aspect de la
fonction linguistique (Cf. infra).
2. Consécutive au Symposium Hixon qui eut lieu au California Institute of Technology en 1948.
3. C’est clairement ce que firent les cognitivistes dits « fonctionnalistes », ces derniers
privilégiant le fonctionnement de l’esprit humain au détriment de celui du cerveau qui l’abrite !
4. À terme, cette dernière approche devrait être en mesure de fournir également des
informations sur le « comment » neurophysiologique sous-jacent aux comportements verbaux à
l’étude, mais en l’état actuel d’avancement de la science, les résultats à disposition sont encore
fort limités.
127

5. Sans oublier S. Freud, certes dans une optique différente. Cf. Psychopathologie de la vie
quotidienne, dont la première édition, en allemand, date de 1901.
6. Le corpus de Meringer comporte plus de 8 000 erreurs de parole, de lecture et d’écriture.
7. Telles que le segment situé à l’initiale du mot « John », en anglais, ou à l’intervocalique du mot
« mucho », en espagnol.
8. Nous préférons personnellement parler de « plausibilité psychologique » que de « réalité
psychologique ».
9. Nous utilisons à dessein l’expression hybride « cerveau/esprit » afin de ne sous-estimer
aucune des deux démarches majeures en sciences cognitives : la démarche fonctionnaliste (cf.
supra) et la démarche neuroscientifique (cf. infra).
10. Il n’est, pour s’en convaincre, que de consulter les travaux de Wells, de Hockett, cf. supra.
11. Ici encore, l’existence de différentes composantes structurales au sein des langues naturelles
n’a pas attendu l’avènement de la grammaire générative et transformationnelle !
12. C’est-à-dire qualifiant la zone corticale située en avant du sillon de Rolando (séparant le lobe
frontal du lobe pariétal).
13. C’est-à-dire qualifiant la zone corticale située en arrière du sillon de Rolando (séparant le lobe
frontal du lobe pariétal).
14. Parallèlement, certains travaux en imagerie fonctionnelle cérébrale semblent parvenir à des
résultats similaires : implication du lobe frontal gauche (où se trouve l’aire de Broca) dans le
traitement des verbes et du lobe temporal inférieur dans le traitement des noms (Damasio et
Tranel 1993).
15. L’article de Dunn et Kirsner est abondamment commenté dans le numéro de Cortex dans
lequel il a été publié, en février 2003.
16. Il convient toutefois de noter que cette notion de « simplicité » ou « complexité » n’est pas
aisée à caractériser. Certaines tâches peuvent paraître plus aisées que d’autres sur certains points
mais plus difficiles sur d’autres. Ainsi, par exemple, la répétition peut sembler plus difficile que la
lecture à haute voix du fait de la fugacité (en temps réel) du stimulus en répétition et de sa
permanence, sur la feuille de papier, en lecture à haute voix. On peut toutefois penser que la
répétition maintient le locuteur dans la même modalité, orale, à l’entrée du message comme à sa
sortie, alors que la lecture à haute voix requiert de « jongler » avec deux modalités distinctes :
l’écrit d’entrée et l’oral de sortie !
17. Cf. Fossard 1999, 2001 ; Grosz et Weinstein 1995.
18. Les fragments discursifs en italique correspondent à des fragments « référentiels », même
s’ils ne sont pas toujours adéquats, compte tenu de la version standard du conte.
19. Cf. la « dissociation automatico-volontaire » de Baillarger-Jackson.
20. au moins en français, l’équivalent, en anglais, du « n’est-ce-pas ? » français étant loin d’être
figé et automatique (cf. « Tag Questions » au sein desquelles il convient de « calculer » l’auxiliaire
adéquat compte tenu du contexte, de même que la forme interrogative ou interro-négative de cet
appendice discursif).
21. Ce même patient était absolument incapable d’énoncer un message « référentiel » du type : le
verre est sur la table !
22. Les patients présentant un déficit spécifique, conduisant à une symptomatologie homogène.
Ces cas sont relativement rares en clinique neurologique, ce qui n’atténue en rien leur validité et
leur portée.
23. C’est là une des thématiques scientifiques majeures de l’Institut des sciences du cerveau de
Toulouse, particulièrement en matière de « catégorisation ».
24. « Aphasie » par lésion de l’hémisphère dit « mineur », cf. Joanette et al. (1982).
25. Peut-être sur la base de Régions d’Intérêt (ROI = « Regions of Interest ») un peu « larges » !
128

AUTEUR
JEAN-LUC NESPOULOUS
Professeur à l’université de Toulouse-Le Mirail. Dirige le laboratoire Jacques Lordat (EA 1941) et
l’Institut des Sciences du Cerveau de Toulouse (IFR 96).
129

Intelligence artificielle, linguistique


et cognition
Gérard Sabah

1 Après un historique rapide retraçant l’évolution des façons de concevoir le traitement


automatique des langues dans la perspective « cognitiviste » de l’intelligence artificielle,
nous évoquerons les divers types de connaissances considérées en informatique
linguistique. L’article présentera ensuite les limites de l’intelligence artificielle actuelle,
et analysera les raisons de ces limites. Après avoir souligné l’importance de la langue tant
dans la communication homme-machine que pour le développement du raisonnement et
de l’intelligence, nous avancerons enfin quelques idées permettant de surmonter une
contradiction interne de l’intelligence artificielle.

Historique
2 Nous montrons dans cette partie comment, en traitement automatique des langues, on
s’est rendu compte, petit à petit, de la nécessité d’utiliser des connaissances pour
comprendre une langue. Non seulement des connaissances sur la langue elle-même (quels
mots lui appartiennent, quelles règles de grammaire elle suit...), mais aussi des
connaissances générales sur le monde, sur la culture de celui qui parle, sur la situation de
communication, sur la pratique des relations humaines, etc., tout un ensemble de choses
qui semblent a priori indépendantes des connaissances linguistiques.

Début de l’intelligence artificielle et du traitement automatique des


langues

3 À ses débuts, l’informatique est surtout industrielle et militaire, et les commanditaires


des grands projets (essentiellement américains) de l’époque, suivant les raisonnements de
Turing, orientent ceux-ci vers le déchiffrage de documents russes...
130

4 En 1952, la première conférence sur la traduction automatique est organisée au MIT par
Bar-Hillel, et, suite à la première démonstration de traduction automatique qui a lieu en
1954 (organisée par l’université de Georgetown et IBM), de nombreux travaux sont
développés sur ce sujet, avec un optimisme que l’on peut considérer aujourd’hui comme
exagéré. Les principaux travaux concernent la recherche dans des dictionnaires, et la
traduction est vue comme une substitution de mots suivie d’un éventuel
réordonnancement grammatical. Pratiquement aucun aspect linguistique n’est considéré
dans ces traitements essentiellement limités aux mots.
5 Bar-Hillel (1964) montre que des connaissances contextuelles et encyclopédiques sont
nécessaires et pose ainsi le problème fondamental de la représentation des connaissances et
de leur utilisation qui, à cette époque, est considéré comme insoluble. Les aspects
cognitifs (dans le sens élémentaire de liés à la notion de connaissance, mais sans rapport
avec les processus humains de traitement de l’information) commencent à apparaître,
mais on conclut alors à l’impossibilité de les prendre en considération.
6 C’est également l’avis du gouvernement américain qui, à la suite du fameux rapport
ALPAC (Automatic Language Processing Advisory Council) (ALPAC 1966), estimant que la
traduction automatique coûte environ deux fois plus cher que la traduction humaine et
donne des résultats nettement inférieurs, décide de ne plus financer ce type d’études.
7 D’un autre côté, les années 1950 voient l’apparition d’idées fonda mentales pour ce
domaine : en 1956, à l’école d’été de Dartmouth, on assiste à la naissance de l’intelligence
artificielle. Posant comme conjecture que tout aspect de l’intelligence humaine peut être
décrit avec assez de précision pour qu’une machine le simule, les figures les plus
marquantes de l’époque (McCarthy, Minsky, Newell et Simon) y discutent des possibilités
de créer des programmes d’ordinateur « se comportant intelligemment ». Ce point de vue
mène au cognitivisme qui a fortement influencé la psychologie, la linguistique,
l’informatique, la philosophie...
8 Les travaux de McCarthy sur les relations entre la logique et la notion de liste débouchent
sur le langage LISP (McCarthy et al. 1960) et sur Logic Theorist (Newell et Simon 1956), le
premier programme de traitement symbolique, qui mène à la notion de recherche
heuristique.

Communication et information

9 Une première conception naïve de la communication est issue de la théorie de


l’information (Shannon 1938 ; Weaver 1955)1. Dans cette perspective, l’énonciateur a dans
l’esprit un message qu’il veut transmettre et des règles d’encodage. L’application de ces
règles lui permet de produire une expression visant à coder le sens de ce message.
L’auditeur utilise alors un processus de décodage qui lui permet d’identifier les sons
produits, les structures syntaxiques utilisées, les relations sémantiques correspondantes
et de combiner tous ces éléments pour reconstruire le sens du message compris. Ce
modèle est fondé sur des caractéristiques de bon sens des échanges langagiers, par
exemple le fait que la communication est réussie quand le message reconnu est identique
au message initial (et comme corollaire qu’elle est en échec quand les deux messages
diffèrent). Le langage est vu comme un pont entre les interlocuteurs, pont grâce auquel
les idées privées sont communiquées par l’intermédiaire de sons publics.
131

10 Reddy (1979) recense par ailleurs environ 80 métaphores visant à étayer l’approche du
langage comme un « conduit par lequel des idées transitent ».
11 Ce modèle suppose en conséquence que l’intention communicative est directement issue
du sens littéral du discours et peut être reconnue à partir de la grammaire et des
conventions de la langue : la communication est possible car l’intention communicative
est conventionnellement codée dans le message lui-même.
12 Ainsi, dans ce premier modèle, la langue est considérée comme un objet qui possède une
structure interne cohérente et peut être étudiée indépendamment de son usage.
Toutefois, divers exemples indiquent qu’il faut plus qu’un langage commun pour qu’un
auditeur puisse identifier l’intention réelle qu’un locuteur veut communiquer.
13 En outre, comme les différents mécanismes du processus de compréhension sont
supposés se déclencher dès le début de la production, les contraintes temporelles et la
rapidité de la compréhension impliquent que l’architecture sous-jacente est séquentielle.
Pour ce qui concerne les mises en œuvre informatiques, la compréhension est vue comme
un ensemble de transformations successives d’un langage de représentation dans un
autre. Cela correspond aux premiers modèles de traitement automatique des langues, où
les phrases de la langue sont supposées correspondre à des faits réels.
14 On suppose en outre qu’il est possible de créer un système formel de représentation tel
que (a) pour chaque fait il existe une formule du système de représentation, (b) chaque
phrase peut être liée à une telle formule et (c) des calculs formels sur ces représentations
simulent les raisonnements sur les faits du monde.
15 Les opérations réalisées sur les structures de représentations ne se justifient pas par
rapport à la langue, mais par les correspondances entre ces représentations et le monde
représenté ; on peut d’ailleurs remarquer que ce modèle correspond à celui pour lequel
des philosophes du langage comme Frege (1892) avaient argumenté bien avant
l’apparition de l’intelligence artificielle ! Une différence essentielle reste que l’immense
majorité des systèmes d’intelligence artificielle est totalement dépourvue de moyens de
perception et d’action sur le monde réel : fondamentalement, le programmeur sert
d’intermédiaire lors de la construction des représentations, ce qui modifie complètement
le processus cognitif que l’on cherche à modéliser. Ces systèmes supposent (généralement
implicitement) que les mécanismes d’analyse, production et inferences fondées sur des
systèmes symboliques plus ce lien avec une interprétation humaine implicite et externe,
peuvent suppléer cette absence de perception et d’action... La question est alors de savoir
dans quelle mesure ces derniers processus ne sont pas des préalables nécessaires à toute
signification ; nous proposons, en fin du présent texte, quelques idées pour aller dans ce
sens.
16 Cette quête du sens s’est retrouvée de façon très simpliste dans les premiers programmes
de traitement automatique des langues, analysés de plus près ci-dessous.

Les mots clefs, premiers éléments de sens (aspects informatiques)

17 Malgré le coup d’arrêt subi par les travaux sur la traduction automatique, les disciples de
Minsky au MIT développent divers systèmes traitant des textes en anglais et fondés sur
l’utilisation de mots clefs. Leurs résultats (en particulier le comportement assez
spectaculaire d’ELIZA) relancent les recherches sur la compréhension automatique du
langage.
132

18 Ces premiers systèmes de traitement du langage supposent que la connaissance de


quelques mots et d’un nombre limité de règles syntaxiques suffit pour exécuter certaines
tâches utilisant le langage (en particulier répondre à des questions posées en anglais).
Aucun problème complexe lié au langage n’est réellement abordé et la plupart de ces
programmes ne fonctionnent que dans des domaines extrêmement limités. Pour une
application donnée, il convient tout d’abord de dresser le lexique des mots significatifs du
domaine. Il faut ensuite écrire un analyseur permettant de filtrer ces mots clefs, en
tenant éventuellement compte de leurs variantes morphologiques. Enfin, il faut mettre en
place un programme qui effectue les actions adéquates selon les mots clefs reconnus (par
exemple, construire une requête à une base de données).
19 Les plus connus de ces programmes sont : BASEBALL (Green et al. 1960) – réponses à des
questions avec une base de données–, STUDENT (Bobrow 1968) – résolvant des exercices
d’algèbre élémentaire – et ELIZA (Weizenbaum 1966) – parangon des systèmes
écholaliques•. Ces traitements restent limités aux mots, pratiquement sans aucun autre
aspect linguistique que des considérations syntaxiques très élémentaires.
20 Ces premiers systèmes concrets tentent de contourner les difficultés en ne fonctionnant
que dans des domaines très limités et en n’autorisant qu’une syntaxe très pauvre. Ils
illustrent bien la technique des mots clefs ainsi que ses limites. Les problèmes essentiels
se posent lorsque l’on cherche à étendre le domaine : on aura alors des difficultés à établir
la liste complète des mots clefs pertinents. En outre, on rencontre des situations où un
mot clef donné peut avoir plusieurs interprétations, où l’absence d’un mot clef peut être
significative... Il faut alors envisager d’utiliser les méthodes plus élaborées, développées
dans la suite de ce texte.

De la syntaxe à la sémantique• en grammaire (aspects linguistiques)

21 De façon indépendante, Chomsky met en place la théorie des grammaires formelles et


transformationnelles• qui a marqué fortement la recherche en linguistique. Cette théorie,
qui se veut une formalisation de la compétence linguistique des sujets parlants, débouche
sur des traitements purement syntaxiques, mais reste difficilement applicable à l’époque en
intelligence artificielle : dans un cas extrême, une phrase de 17 mots a, par exemple,
donné lieu à 572 interprétations syntaxiques (Petrick 1973) ! Afin de remédier à ces
problèmes, la théorie se retrouve sous divers avatars, principalement dus aux rôles
variables du lexique dans la théorie (théorie standard étendue, théorie des traces•,
gouvernement et liage...). Les grammaires logiques• (grammaires de métamorphose et
grammaires à clauses définies) et les grammaires syntagmatiques• généralisées en sont les
extensions les plus intéressantes ; les premières parce qu’elles sont directement
implémentables et visent à permettre la construction directe de structures de surface, et
les secondes pour leur ambition à traiter des aspects plus sémantiques.
22 Parallèlement au développement de la théorie de Chomsky, le logicien Montague,
considérant le langage comme un processus logique, développe un modèle pour traiter
principalement les aspects sémantiques. Alors que Tarski, en accord avec Carnap, admet
qu’il est impossible d’étendre aux langues sa définition formelle de la vérité, Montague
prend une position diamétralement opposée : « Je regarde, écrit-il, la construction d’une
théorie de la vérité comme le but principal de la syntaxe et de la sémantique sérieuses. »
23 Partant d’un modèle analogue à celui de Tarski, il y introduit une différence essentielle en
ne considérant la notion de vérité que par rapport à une interprétation dans le cadre
133

d’une logique intensionnelle. À chaque mot de la langue, il attache deux informations : sa


catégorie syntaxique et sa catégorie sémantique logique (sa définition intensionnelle, qui
représente son « sens »). En outre, Montague abandonne le calcul des prédicats• du
premier ordre pour une grammaire catégorielle où il établit une correspondance parfaite
entre syntaxe et sémantique : une règle sémantique est associée à chaque règle
syntaxique. Ces règles sémantiques sont destinées à construire, en parallèle avec la
structure syntaxique, une structure logique destinée à représenter le sens de la phrase.
Un point important de la théorie est la dépendance qui existe entre les deux types de
règles : à un moment donné, l’application d’une règle syntaxique n’est autorisée que si la
règle sémantique qui lui est associée est applicable également. On peut souligner
l’importance, pour cette théorie, du principe de compositionnalité• qui régit beaucoup de
mécanismes d’interprétation sémantique en traitement automatique des langues (les sens
des mots sont représentés par des symboles, et les représentations des sens des groupes
de mots et des phrases sont obtenues par des combinaisons des représentations des mots,
combinaisons guidées par les contraintes syntaxiques).
24 Peu de programmes utilisent effectivement la théorie standard, même étendue (on peut
toutefois citer Plath 1976 ; Damerau 1981) et les travaux les plus significatifs fondés sur la
théorie des traces sont ceux de Marcus, qui propose un mécanisme d’analyse syntaxique
déterministe (Marcus 1980).
25 Si une des idées essentielles des grammaires à clauses définies est la facilité de mise en
œuvre, les grammaires d’extraposition• et les grammaires discontinues• sont surtout
développées pour augmenter le pouvoir expressif.
26 La grammaire en chaîne de Harris, si elle est assez proche d’une grammaire formelle non
contextuelle, apporte une souplesse importante pour les réalisations pratiques, en
particulier pour exprimer l’ordre relatif des divers constituants de la phrase. Elle est à la
base d’un des premiers analyseurs automatiques de l’anglais (Sager 1973 et Grishman
1973). Salkoff développe une grammaire en chaîne du français qui, incorporée à
l’analyseur de Sager, doit analyser des textes scientifiques. Un analyseur des intitulés en
français, fondé sur la même théorie, est également mis en place par Jayez en 1979. Sa
motivation principale est de rendre compte des phénomènes de surface avec l’appareil
théorique minimal, sans utiliser la notion de structure profonde•. Son intérêt pour
l’intelligence artificielle n’est manifeste que si l’on cherche à réaliser une analyse
purement syntaxique, avant tout autre traitement ; sinon, elle est très peu utilisée dans
des mécanismes de simulation de la compréhension.
27 L’avancée vers la sémantique s’est poursuivie avec les grammaires de cas où on considère
que, plus que la structure même, l’essentiel est contenu dans l’identification du type de
relation qui existe entre le verbe, considéré comme le centre de la phrase, et ses divers
compléments. Ces grammaires présentent ainsi deux avantages fondamentaux qui
expliquent leur influence sur les travaux d’intelligence artificielle. Le premier est d’offrir
un modèle de la structure profonde d’une phrase où la sémantique joue un rôle essentiel
et où elle reste facile à utiliser. Le second avantage de ces grammaires est de tendre vers
un mécanisme d’analyse purement sémantique fondé sur les restrictions de selection issues
des verbes, mécanisme qui, de plus, n’exclut pas l’utilisation de contraintes syntaxiques.
En effet, si l’analyse casuelle s’est révélée insuffisante pour résoudre seule tous les
problèmes de compréhension, elle est malgré tout suffisamment utile pour avoir été
reprise, sous une forme ou une autre, dans de nombreux systèmes de traitement
automatique du langage. Soulignons toutefois les différences de conception entre
134

Fillmore, pour lequel une ossature fondée sur cette notion de cas est attachée à chaque
verbe du lexique, et Schank qui ne définit de structure de cas que pour les onze actions
primitives qui constituent la base de sa dépendance conceptuelle.
28 Une caractéristique de ce type de théorie est d’être une des rares à autoriser des
traitements automatiques dans le cas de phrases non normées (c’est-à-dire ne respectant
pas une syntaxe dite correcte). D’un point de vue plus pragmatique, et puisque de
nombreux systèmes divers ont été proposés, on peut se demander lequel choisir. Dans
l’état actuel, on ne peut répondre que relativement à un problème donné, et seules des
considérations d’efficacité sont alors un bon guide pour choisir un système de cas.
29 Alors que les grammaires formelles (et les théories voisines) sont surtout destinées à
mettre en évidence la structure syntaxique d’une phrase (avec comme conséquence
importante la notion de grammaticalité, précisant si une séquence de mots forme ou non
une phrase correcte), les grammaires systémiques• de Halliday donnent priorité au
contexte d’utilisation du langage plutôt que de le considérer comme un système formel
isolé : elles se sont surtout concentrées sur l’ organisation fonctionnelle du langage et les
liens qui existent entre la forme d’un texte d’une part et le contexte, ou les situations dans
lesquelles ce texte peut apparaître, d’autre part. Il ne s’agit donc pas de grammaires
génératives mais plutôt de grammaires des descriptives : elles caractérisent les phrases par
des ensembles de traits qui peuvent ensuite être utilisés par d’autres processus. Là réside
un des aspects les plus intéressants de ces grammaires pour l’intelligence artificielle : le
passage de traits d’une procédure à une autre – procédé informatique très simple à
réaliser – permet de tenir compte d’aspects contextuels et de prendre des décisions
fondées sur plusieurs processus qui interagissent tout en conservant une certaine
modularité. Si peu de systèmes les ont utilisées seules pour l’analyse de phrases, elles
forment néanmoins une part importante des connaissances syntaxique de SHRDLU
(Winograd 1972) ; il faut également signaler une importante grammaire systémique
développée pour la génération par Fawcett, ainsi que le système Pennman (Bateman
1991 ; Matthiesen et Bateman 1992).
30 Un avantage important des grammaires systémiques réside dans le fait que la
spécification des règles syntaxiques semble plus naturelle et plus économique que dans
les grammaires formelles. En outre, le niveau d’abstraction de ces grammaires permet de
comparer utilement les mécanismes divers que des langues différentes utilisent pour
traiter du même phénomène.
31 Enfin, soulignons l’importance que revêtent ces grammaires pour l’intelligence artificielle
sur deux plans. Théoriquement, elles sont fondamentales par l’approche de la sémantique
et même de la pragmatique qu’elles permettent, en particulier pour tout ce qui concerne
la gestion des dialogues homme-machine. Pratiquement, les techniques de gestion
d’arbres étant particulièrement bien maîtrisées en informatique, leur mise en œuvre
concrète sur ordinateur est très aisée.
32 Diverses théories grammaticales viennent ensuite, qui donnent au lexique une
importance primordiale. Elles visent à expliciter les articulations entre le niveau lexical,
le niveau syntaxique et le niveau sémantique ; elles aboutissent, en général, à des modèles
plus riches et d’une souplesse plus grande que celui de Chomsky pour les traitements
automatiques.
33 De façon analogue aux grammaires systémiques, les grammaires fonctionnelles veulent
donner un rôle prédominant, dans la description des expressions linguistiques, aux
135

aspects fonctionnels et relationnels, par rapport aux notions catégorielles des


grammaires formelles. Ici aussi, la langue est envisagée comme un instrument
d’interaction sociale, plutôt que comme la description statique d’un ensemble de phrases.
Sa fonction première est la communication, plus que la seule expression de pensées et
l’on donne priorité à l’utilisation qui est faite d’une langue sur la compétence théorique. Les
grammaires fonctionnelles considèrent alors les connaissances lexicales, les
connaissances sur les structures et les règles de grammaire de façon uniforme : ce sont des
expressions de contraintes.
34 En tentant de développer un formalisme unique pour tenir compte de ces aspects, Kay
arrive à la notion de description fonctionnelle, qui est fondée en partie sur l’idée de
recouvrement de descriptions partielles et débouche sur la notion de grammaire
d’unification•.
35 À partir des mêmes idées, Bresnan et Kaplan suivent une autre direction et développent
les grammaires lexicales• fonctionnelles qui utilisent la notion d’équations simultanées
permettant d’interpréter sémantiquement une structure construite par une grammaire
non contextuelle. Cette théorie vise à modéliser la connaissance syntaxique nécessaire
pour préciser les relations entre les aspects sémantiques prédicatifs importants dans le
sens d’une phrase et les choix des mots et des structures des phrases permettant
d’exprimer ces relations.
36 Cette « lexicalisation » de la grammaire s’accentue avec les théories les plus modernes,
notamment HPSG – où les structures de traits complexes ont un rôle omniprésent, dans le
lexique, les règles et les représentations construites – et TAG – où les règles sont
essentiellement remplacées par des possibilités de combinaisons d’arbres élémentaires
issus du lexique. On pourra consulter Abeillé (1993) pour une excellente synthèse de ces
grammaires modernes lexicalisées.
37 Les grammaires lexicales fonctionnelles représentent une des théories linguistiques les
plus avancées grâce à l’introduction de notions de sémantique formelle. Très à la mode
dans les années 1980 et 1990, elles trouvent de nombreuses applications en intelligence
artificielle. Parmi leurs différences essentielles avec les grammaires transformationnelles,
dont elles sont issues, nous citerons les suivantes :
• Aspects psychologiques. Les linguistes qui ont suivi Chomsky tendent à la définition d’une
grammaire universelle qui caractérise la faculté du langage chez l’homme (expliquant
comment les hommes, et eux seuls, sont capables d’apprendre une langue). Kaplan et
Bresnan soulignent que leur théorie permet d’intégrer des aspects beaucoup plus divers :
elle tente principalement d’expliquer comment les facultés langagières interagissent avec
d’autres processus mentaux lors de la compréhension et de la production du langage.
• Structures et fonctions. Dans une grammaire transformationnelle, la notion de structure est
primaire et les rôles grammaticaux des divers constituants en sont déduits. Au contraire,
dans les grammaires fonctionnelles, la fonction grammaticale est primaire et la structure est
secondaire.
• Rôle du lexique. Nous avons vu qu’il est fondamental dans ces grammaires. Chaque forme de
mot peut correspondre à plusieurs entrées distinctes si ellesjouent des rôles différents. Par
exemple, si les grammaires transformationnelles traitent du passif par l’intermédiaire de la
grammaire, celui-ci est abordé par le lexique dans les grammaires fonctionnelles (une entrée
spéciale correspondra, pour chaque verbe, à l’utilisation passive du participe passé).
38 Avec un point de vue tout différent, Gross tente également d’inclure les phénomènes
syntaxiques dans les caractéristiques lexicales des mots considérés. Il explique
136

l’incapacité des théories linguistiques à rendre compte de tous les phénomènes qu’on
trouve dans les langues par le fait qu’aucune de ces théories n’est construite à partir du
recensement exhaustif des faits à expliquer. Donnant une importance primordiale aux
faits attestés, il part alors d’un modèle du langage aussi limité que possible et n’y
introduit que les abstractions nécessaires à l’explication des observations. Cela débouche
essentiellement sur la constitution de lexiques-grammaires explicitant les possibilités de
combinaisons des mots entre eux (l’hypothèse de base de Gross étant qu’aucune
convergence ni règle générale n’est possible, il faut recenser tous les exemples
possibles...).
39 Enfin, pour Mel’chuk non plus, le lexique ne constitue pas un domaine à part. Il est
présent à tous les niveaux de son modèle et recouvre les notions de « mots pleins » et de
fonctions lexicales. Partant d’une idée voisine de celle de Gross, il cherche à décrire la
langue à partir d’un recensement lexical exhaustif, mais donne un rôle beaucoup plus
important à la sémantique. On peut considérer, en outre, que son étape sémantique
regroupe ce qui, chez Chomsky, correspond aux structures profondes, à la composante
sémantique et au lexique.
40 Ces travaux présentent un intérêt important pour les sciences cognitives (même si la
sémantique n’est pas toujours au centre de leurs préoccupations) puisqu’ils visent à
rendre explicite la façon dont la forme reflète les notions sémantiques, c’est-à-dire à
rendre indissociables la forme et le sens.
41 On peut également évoquer les grammaires sémantiques. Il s’agit là davantage d’une façon
pragmatique de construire des programmes efficaces que d’un outil linguistique. Les
catégories non terminales de la grammaire sont des classes sémantiques, définies par le
concepteur à partir du domaine considéré. Le traitement d’une phrase consiste alors à
vérifier des correspondances sémantiques avec la grammaire sans trop se préoccuper de
la syntaxe ; celle-ci reste implicite et correspond simplement à l’ordre dans lequel
peuvent apparaître les diverses catégories sémantiques. Permettant de traiter des
énoncés non normés, ces grammaires sont très souples et faciles à mettre en oeuvre dans
des domaines restreints. Ce dernier point implique toutefois que la compréhension même
est assez limitée (perte de nombreuses nuances) et que le produit obtenu est difficilement
transportable dans un autre domaine.

Évolutions récentes

42 On peut maintenant distinguer trois caractéristiques dans les évolutions récentes du


traitement automatique des langues : une recherche de robustesse des analyses, une
orientation vers les linguistiques de corpus et une volonté affirmée d’évaluation.
43 Une analyse robuste se caractérise par la possibilité de fournir toujours une réponse, même
en présence de données non prévues : les textes peuvent contenir des fautes
d’orthographe, de grammaire, des omissions ou des mots non connus du système. Un
analyseur robuste doit être capable de fournir une analyse syntaxique pour chaque
phrase du texte. Il doit également pouvoir analyser des phrases dont la structure n’est pas
couverte par la grammaire du système. Une stratégie d’analyse partielle est souvent
adoptée pour ce faire : l’analyseur traite autant que possible chaque partie de phrase en
entrée et renvoie une analyse construite à partir de ces éléments partiels lorsqu’une
analyse complète n’est pas possible. Cette stratégie permet aussi de limiter l’explosion
combinatoire fréquente en analyse syntaxique.
137

44 Divers analyseurs ont été proposés dans ce sens en restant dans le domaine symbolique,
parmi lesquels on peut citer, pour le français : Gaudinat et al. (1998), Hull (2000), Vergne
(2003).
45 Un obstacle essentiel à la réalisation d’un analyseur robuste est l’absence d’une
grammaire complète couvrant toutes les formes possibles d’une langue. Une autre
approche s’est alors développée grâce à l’énorme quantité de textes électroniques
maintenant disponibles : il est devenu possible d’appliquer sérieusement des méthodes
statistiques (et d’apprentissage) au traitement automatique des langues. L’analyse
statistique consiste à supprimer les mots grammaticaux et à calculer les fréquences
d’apparition des mots ou des groupes de mots. Ces fréquences indiquent les structures
associatives privilégiées et donne des indications sur leurs contextes d’apparition. Les
techniques statistiques sont très utiles dans le domaine des étiqueteurs automatiques,
avec des taux actuels de bonnes reconnaissances de 95 % à 98 % (Manning et Schütze
1999). En général, les analyseurs statistiques existants engendrent toutes les analyses
possibles pour chaque phrase d’un texte et utilisent ensuite des fréquences d’occurrence
des séquences de mots afin de sélectionner l’analyse la plus probable parmi celles
proposées. Charniak (1997), par exemple, décrit un analyseur statistique qui infère une
grammaire à partir d’un corpus de textes syntaxiquement annotés.
46 Les gros corpus de textes sur support électronique, disponibles pour des langues variées,
sont de plus en plus nombreux. Ces corpus, une fois annotés avec des informations
linguistiques, constituent un matériau très utile, tant pour les recherches linguistiques
que pour les applications en traitement automatique des langues. Des travaux sur ce type
de corpus existent pour l’anglais depuis une dizaine d’années et ont permis le
développement d’une linguistique de corpus et une amélioration considérable des
programmes de traitement automatique. Leur utilité est également reconnue pour le
français, tant en linguistique (Blanche-Benveniste 1996) qu’en traitement automatique
(Habert et al. 1997), et les premiers corpus annotés commencent également à être
disponibles (Véronis et Khouri 1995 ; Abeillé et al. 2000).
47 Enfin, ces corpus ont également permis le développement de techniques d’évaluation
sérieuses. Pour ce qui concerne l’écrit, s’il était possible d’évaluer et de comparer de
façon assez précise des systèmes d’étiquetage morpho-syntaxiques (cf. campagne GRACE,
Chibout et al. 2000), il était en revanche beaucoup plus difficile d’évaluer les analyseurs
syntaxiques. Mais on commence maintenant à considérer des protocoles pour l’évaluation
des systèmes de compréhension (Blache et al. 1997). Remarquons toutefois que ces
mesures restent fondées sur des comparaisons avec des étiquetages réalisés par des
experts, certes, mais comportant inévitablement une certaine part d’arbitraire ; elles
n’ont donc rien d’absolu.

Production

48 Domaine légèrement plus récent que l’analyse, la génération de textes passe parfois pour
plus « facile », peut-être seulement parce qu’il est plus rapide de combler des réponses « à
trous » toutes prêtes et que cela suffit à bien des systèmes informatiques2. En réalité les
difficultés sont également très complexes dans la mesure où, chez l’homme, cette tâche
s’effectue sous de sévères contraintes, mettant en jeu de grandes quantités de
connaissances de nature très différentes – contraintes de temps bien sûr pour le langage
138

parlé, contraintes d’espace également, peut-être moins fortes mais néanmoins présentes,
pour l’écrit.
49 Une tendance actuelle consiste à n’avoir qu’une seule grammaire pour la génération et
pour l’analyse (grammaires bidirectionnelles•) ; les grammaires systémiques et les
grammaires d’unification sont souvent utilisées dans ce dessein. D’autres formalismes
très prisés sont la grammaire « sens-texte » de Mel’chuk, et les grammaires d’arbres•
introduites par Joshi (pour une réalisation importante pour le français, voir G-TAG de
Danlos 1996).
50 Les premiers systèmes de génération restent sous l’influence de la linguistique
chomskienne et la priorité est donnée aux aspects syntaxiques plutôt qu’aux aspects
sémantiques ou pragmatiques. Leur objectif est d’ailleurs de tester l’adéquation et la
cohérence de théories linguistiques, ainsi que la couverture de grammaires (par
génération aléatoire d’un grand nombre de phrases), plutôt que d’exprimer des contenus
sémantiques dans des contextes donnés. Les systèmes d’Yngve et de Friedman sont de
bons représentants de cette catégorie.
51 Les systèmes de Simmons et Slocum, Goldman, McDonald visent l’expression de contenus
par la production de phrases isolées, mais ne sont pas toujours en mesure d’organiser une
suite d’idées en un discours cohérent et les aspects pragmatiques (adéquation des
contenus au contexte) sont là encore totalement ignorés.
52 Ce n’est qu’avec les systèmes des années 1980 qu’un texte est considéré comme un tout,
structuré à différents niveaux, ou que la communication est vue comme une action
indirecte pour atteindre des buts. Quelques systèmes ultérieurs considèrent d’autres
modalités que le langage lors de la génération (images, dessins, gestes) ou cherchent à
modéliser des théories psychologiques.
53 Enfin, des systèmes comme GIBET ou GEORGETTE tiennent un meilleur compte de
l’interlocuteur et visent à déterminer quelles informations donner à quel moment, et
donc anticipent les interprétations dont ce dernier est susceptible.
54 Après cette revue historique des théories linguistiques utilisées dans le traitement
automatique des langues, nous allons à présent aborder divers aspects de l’étude du
langage dans la perspective de l’intelligence artificielle.

Informatique et communication homme-machine


Limites des traitements purement formels

55 Le principal argument en faveur des langues comme moyen de communication entre


l’homme et l’ordinateur réside dans leur flexibilité. Mais alors, il ne faut pas l’éliminer !
Au lieu de considérer la flexibilité des langues comme un obstacle à résoudre par une
limitation adéquate des domaines d’application (ce qui est la position de nombre
d’approches actuelles), il faut s’y attaquer de front afin de garantir l’ergonomie de la
communication. Cela implique qu’il faut permettre l’usage de toute la langue (c’est-à-dire
prendre en considération tous les phénomènes des langues naturelles, des anaphores aux
métaphores et métonymies, en passant par les ellipses, déictiques...) ; il est pratiquement
impossible, sauf dans des cas spécifiés à l’extrême, de définir des sous-langages limitatifs
qui conservent cette flexibilité.
139

56 Si l’on souhaite développer des méthodes facilement généralisables et qui abordent les
vrais problèmes de front, il devient patent qu’une sémantique objective et universelle –
qui considère les connaissances comme des axiomes, et la construction du sens comme
procédant exclusivement en termes de règles formelles à partir de ces axiomes – n’est pas
très utile du point de vue technologique, car elle ne conduit pas à des implantations
flexibles et ergonomiques (les résultats obtenus dans des conditions d’expérimentation
excessivement contrôlées ne pouvant pas s’extrapoler à des situations de communication
réelles). Il est en effet essentiel que la notion de sens que manipule une entité avec
laquelle nous communiquons ait des rapports étroits avec ce qu’est le sens pour l’humain.
Sinon, nos possibilités de communication seraient très difficiles, pour ne pas dire
impossibles : pour qu’une intelligence (artificielle ou non) soit reconnue comme telle par
l’être humain, elle doit lui paraître analogue à la sienne !
57 Pour garantir l’ergonomie des interprétations construites par la machine, c’est-à-dire
leur conformité aux attentes des utilisateurs, le système mis en œuvre doit avoir des
connaissances quant à la cognition humaine (en effet, pour dialoguer efficacement le
système doit avoir une bonne représentation de son interlocuteur et de son
fonctionnement). Si on a explicité ces connaissances, on pourra alors utiliser ce qu’on sait
du fonctionnement cognitif humain face au langage pour simuler le système lui-même
(même si ce n’est pas une obligation, c’est souvent une source d’inspiration extrêmement
utile).
58 Par ailleurs, la compréhension n’est pas fondée uniquement sur un ensemble de critères
logiques d’évaluation : elle est aussi le résultat émergeant de processus cognitifs qu’on ne
sait pas toujours décrire d’une façon algorithmique. L’énoncé en cours de traitement peut
admettre plusieurs interprétations candidates construites en parallèle, et c’est le contexte
qui doit faire converger le système vers une interprétation résultante, souvent unique :
l’état du contexte cognitif agit alors comme un faisceau d’hypothèses qui favorise l’essor
des interprétations les plus cohérentes. Il s’agit d’un mécanisme prédictif techniquement
très différent des analyses classiques, réalisé par des processus totalement automatiques
(c’est-à-dire non contrôlés ni réflexifs).
59 Par exemple, en analyse syntaxique, les interprétations préférées respectent
habituellement les principes de « l’attachement minimal » (ne pas postuler des nœuds de
l’arbre syntaxique potentiellement inutiles) et de la « clôture différée » (tant que cela est
grammaticalement possible, rattacher les nouveaux éléments au syntagme en cours de
traitement). Dans un souci de construire des modèles du langage plus abstraits, on
pourrait être tenté de fonder le processus d’interprétation sur des principes généraux de
ce genre, mais il faudrait alors préciser un moyen de détecter leurs exceptions. Or, il est
très difficile d’isoler les éléments de jugement pertinents (l’étude statistique de corpus
permet certes de révéler les règles générales, mais ne donne pas le moyen de traiter les
cas particuliers). C’est pourquoi ces régularités ne peuvent pas être utilisées comme des
règles formelles d’analyse. En revanche, on peut les expliquer comme un effet émergent
de l’organisation concurrentielle des processus interprétatifs : les interprétations qui
vérifient l’attachement minimal et la clôture différée sont généralement les plus simples
à construire et, par conséquent, les premières à être perçues.
60 Bien entendu, la pensée rationnelle participe aussi à la compréhension, mais seulement
après une perception spontanée du sens (cette division permet de différencier les
« vraies » ambiguïtés soulevées par la communication, qu’une planification dynamique
devrait résoudre, et les ambiguïtés artificielles, qui restent inaperçues sans une étude
140

linguistique approfondie). Ce second aspect autocontrôlé et planifié permet, en


particulier, le traitement de tous les imprévus et débouche sur un apprentissage de
nouvelles connaissances et de nouveaux processus.
61 Une réelle compréhension implique une confrontation continuelle entre les énoncés
reçus et les connaissances antérieures et doit préciser le rôle de l’apprentissage dans
l’appropriation de la langue.
62 Ainsi, un modèle cognitivement valide doit rendre compte des relations fondamentales
entre langage, apprentissage, processus automatiques et processus contrôlés.
63 Les linguistiques cognitives, sans prendre en considération tous les aspects mentionnés
ci-dessus, constituent néanmoins une approche visant à en intégrer certains, et par là
même constituent un outil extrêmement utile pour l’intelligence artificielle.
64 Une des questions qui se posent alors est : quelle structure prédéfinie, et donc quelle
architecture, permettrait à ces divers niveaux de connaissances de collaborer harmonieusement ?
Nous étudions ces questions d’architecture dans le paragraphe suivant.

Réflexions sur l’architecture

65 Toutes les études sur le langage ont souligné la diversité et la complexité des
connaissances nécessaires à un système de compréhension automatique des langues. Le
problème essentiel est de déterminer comment toutes ces sources de connaissances
collaborent, quelles relations elles entretiennent, quels modèles de processus sont
pertinents et quelles architectures informatiques permettent de les mettre en œuvre de
la façon la plus efficace possible.
66 Si les premiers programmes de traitement automatique des langues utilisèrent des
architectures en série, impliquant des communications fixes et limitées entre les
modules, il apparaît qu’un ordre précis des opérations à effectuer ne peut être valable
dans tous les cas.
67 On peut donc considérer qu’une certaine intégration (permettant l’utilisation simultanée,
dans un seul module, de toutes les connaissances, cf. Sabah et Rady 1983) est souhaitable,
mais sa mise en œuvre reste difficile : il faut expliciter, dans les règles mêmes de
traitement, comment interagissent les diverses connaissances. Les modifications sont
donc relativement difficiles, surtout dans un domaine où une mise au point
expérimentale est nécessaire. En outre, on ne connaît aucune théorie linguistique qui
intègre réellement toutes les connaissances nécessaires à la compréhension.
68 La coopération de sources de connaissances plus ou moins indépendantes s’impose donc
pratiquement. Elle permet une expression plus déclarative des connaissances : les
connaissances de même nature sont regroupées en modules qui coopèrent ; l’utilisation
des connaissances n’est pas liée à ces connaissances elles-mêmes, elle est gérée
indépendamment par un contrôleur. On débouche alors sur les architectures modernes
de systèmes multi-agents, dont nous avons montré par ailleurs (Sabah 1990 ; Sabah et
Briffault 1993) qu’ils devaient être augmentés par la prise en considération de processus
automatiques et de processus réflexifs, une structure de mémoire élaborée permettant de
faire le pont entre ces deux types de processus.
69 Ainsi, l’exemple suivant, extrait de La maison d’Apre-Vent de Dickens : « Et il m’a dit,
ajouta-t-il, en jouant de petits accords aux endroits où je mettrai des points, que
Chécoavins avait laissé. Trois enfants. Sans mère. Et que la profession de Chécoavins. Étant
141

impopulaire. La génération montante des Chécoavins. Était dans une situation très difficile... »
montre qu’un système de compréhension 1) ne peut prévoir toutes les situations qu’il
rencontrera et 2) doit être capable de se reconfigurer dynamiquement en modifiant ses
procédures de traitement (ici, modifier l’analyse syntaxique pour ne donner aux « . »
qu’une valeur de représentation pragmatique). Et il ne faut pas croire que cet exemple
soit aussi isolé qu’il le semble a priori : on trouve des conversations courantes ainsi que
des textes de nombre d’auteurs (Poe, Carroll, Vian, Anglade...) mettant en jeu des
fonctionnements de ce type. Une linguistique cognitive doit donc rendre compte de ces
aspects créatifs et imprévisibles du langage et les processus informatiques être
suffisamment souples pour les utiliser efficacement.
70 On peut distinguer deux types de mémoire relativement indépendantes : une mémoire
volatile très rapide et efficace, mais de faible portée, dont le contenu se renouvelle
constamment, et où ont lieu les opérations interprétatives, et une mémoire plus stable,
qui persiste dans le temps et qui conserve les résultats de ces opérations (la mémoire à long
terme). La mémoire volatile peut se diviser à son tour en une partie consciente réduite (la
mémoire à court terme), et une partie subliminaire, un peu plus large (à laquelle nous
réservons le nom de mémoire de travail). La mémoire à court terme est relativement
limitée (certains psychologues parlent de sept « registres ») et, pour réutiliser les
structures mentales qui n’y sont plus disponibles, il faut qu’elles aient été sauvegardées
dans la mémoire à long terme. Avec cette organisation générale de la mémoire, les
connaissances contenues dans la mémoire à long terme sont évoquées par les unités
linguistiques (rappel associatif). Elles sont ensuite transférées dans la mémoire de travail
où les opérations interprétatives établissent une cohérence vis-à-vis du contexte cognitif
(ce qui correspond à la reconnaissance de la cohésion de l’énoncé). Une interprétation
cohérente franchit le seuil de la conscience et apparaît dans la mémoire à court terme.
Cette perception consciente déclenche un processus d’acquisition automatique et un
traitement rationnel contrôlé. La thèse d’Alejandro Bassi Acuña proposait un mécanisme
informatique simulant ce type de comportement (Bassi Acuña 1995).
71 Nous évoquons en conclusion quelques analogies entre ce type d’architecture des
systèmes informatiques et l’architecture des traitements mis en œuvre par l’homme.

Quelques objets centraux de l’intelligence artificielle


Trois points de vue

72 On distingue maintenant en intelligence artificielle plusieurs courants de pensée qui


articulent la discipline, courants qui peuvent se ramener à trois métaphores ou analogies.
73 1) L’analogie symbolique, plus ou moins fondatrice de la discipline, selon laquelle les entités
en jeu peuvent se décrire sans référence au cerveau et peuvent être mises en
correspondance avec les symboles que savent manipuler les ordinateurs (analogie forte
entre les représentations supposées exister dans le cerveau humain et les représentations
symboliques de l’intelligence artificielle, d’une part, entre les processus mentaux et des
manipulations de symboles d’autre part). Pour ce qui concerne le traitement automatique
des langues, cela signifie que la compréhension est vue comme un ensemble de
transformations successives d’un langage de représentation dans un autre ; la langue
comme les structures de représentation sont alors supposées « représenter » un monde
qui leur préexiste.
142

74 Bien que la question ne soit pas encore formulée très clairement, un nombre significatif
de chercheurs en intelligence artificielle critiquent les modèles informatiques de
planification (Suchman 1987 ; Agre et Chapman 1990) ou de raisonnement purement
rationnels (Winograd et Flores 1989) et soulignent les limites, probablement inhérentes,
des programmes fondés sur la seule manipulation de symboles. Bien sûr, cela n’est pas
neuf ; c’est même une antienne, récurrente depuis le Dreyfus des années 1960 !
75 2) La métaphore des réseaux : l’esprit est ramené au fonctionnement du cerveau et
l’intelligence est conçue comme la diffusion d’activations, non symboliques, dans des
réseaux. Ancrées dans les recherches en neurobiologie et en neuropsychologie, les
recherches en connexionnisme tentent de développer des techniques efficaces pour le
traitement des informations floues ou incertaines (un réseau connexionniste est conçu
pour simuler les méthodes de traitement de l’information, d’apprentissage et de
mémorisation fondées sur le réseau de neurones du cerveau ; il fonctionne par association
et reconnaissance, sans utiliser de règle explicite). Bien qu’on soit encore très loin d’une
réelle analogie avec le fonctionnement cérébral, les possibilités de collaboration entre les
techniques connexionnistes et les systèmes symboliques restent assez prometteuses
(systèmes dits hybrides). L’approche connexionniste, fondée avant tout sur la notion
d’interaction, ne distingue pas les représentations linguistiques des autres. Pour traiter des
systèmes de règles linguistiques, les systèmes connexionnistes « localistes » (dont les
nœuds permettent de représenter n’importe quel élément – mots, concepts, objets réels,
phrases...) sont amenés à introduire un grand nombre de nœuds médiateurs pour
spécifier les noms des relations entre éléments de la représentation, ce qui peut poser des
problèmes d’efficacité dans le traitement des rétroactions.
76 3) La pensée est conçue comme un phénomène collectif produit par de nombreux événements
élémentaires, ce qui débouche principalement sur les techniques actuelles d’intelligence
artificielle distribuée qui tentent de dépasser les algorithmes génétiques ou les réseaux
connexionnistes, en restant ou non dans le cadre symbolique – un algorithme génétique
est un programme informatique qui utilise des règles s’inspirant de la sélection naturelle,
des mutations et des mécanismes de reproduction ; dans un tel algorithme, des
programmes relativement simples peuvent interagir et se modifier afin de produire un
programme qui est plus efficace pour résoudre un problème donné. Nous avons montré
(Sabah 1999) que les architectures d’intelligence artificielle distribuée, qui permettent un
contrôle dynamique, étaient nécessaires pour prendre en considération tous les aspects
imprévisibles des langues. Nous avons également souligné (Sabah 2000) qu’elles n’étaient
pas toujours suffisantes et qu’il fallait de plus donner aux programmes des capacités
d’autoreprésentation permettant des raisonnements sur leur propre comportement. Bien
que plus récents, les courants (2) et (3) ne se démarquent pas essentiellement de
l’hypothèse forte initiale, qui reste cruciale en ce sens qu’elle implique un niveau d’ana
lyse complètement séparé du niveau neurobiologique comme du niveau sociologique et
culturel.

Les limites d’une intelligence désincarnée

77 Les approches évoquées ci-dessus ont un point commun, d’un autre ordre : elles se situent
toutes dans le cadre d’une intelligence formelle sans relation avec les perceptions du
monde dans lequel elle évolue. Cela implique, plus ou moins consciemment de la part des
chercheurs, un mode de raisonnement paradoxal : tandis que les éléments immatériels
143

sont généralement déniés, c’est en fait un pur esprit seul qui est modélisé, et par des
modèles qui ne tiennent aucun compte des effets du corps...
78 En effet, le langage et les phénomènes de compréhension sont si complexes qu’on les
étudie de façon isolée en remettant à plus tard l’étude des interactions avec les autres
phénomènes. De cela résulte la nécessité d’utiliser un ensemble phénoménal de
connaissances, de mécanismes de planification et de prise de décision, et une mémoire
permettant un stockage et une recherche très efficaces (ce qui représente d’ailleurs
l’essentiel des travaux d’intelligence artificielle et de traitement automatique des langues,
qui – soulignons-le – n’ont pas réellement essayé de trouver d’autre solution).
79 Or, les raisonnements et les mécanismes de planifications qui reposent uniquement sur le
raisonnement formel rencontrent un certain nombre de problèmes, dus aux
caractéristiques suivantes de nos connaissances :
• Le manque de complétude : dans une tâche réelle, il est impossible de savoir tout ce qui est
pertinent ;
• le manque de précision : on ne peut connaître avec une précision exacte tout sur les
variables pertinentes ;
• la variabilité : ce qui est vrai à un moment donné peut ne plus l’être au moment de l’action
et comme on sait qu’il est pratiquement impossible d’énumérer tout ce qui n’est pas modifié
par une action (le fameux frame problem), on ne peut être sûr d’avoir une représentation
exacte du monde ;
• le temps d’accès : même si on pouvait tout savoir, cela impliquerait un fonctionnement de la
mémoire (stockage, recherche et calcul) impossible en pratique.
80 D’un autre côté, la mémoire humaine n’est pas seulement associative, elle est aussi
prospective et reflexive. Elle est organisée autour des choses importantes pour la vie et nous
permet de structurer le monde pour que nous n’ayons pas à nous remémorer des choses
inutiles : le monde, avec ses contraintes, est là pour nous les révéler selon les besoins (il
ne s’agit pas d’organisation a priori, mais des moyens d’accéder directement à
l’information voulue : comment une description nous permet-elle de naviguer dans la
mémoire et de retrouver très rapidement les éléments pertinents ?).
81 Le premier point important est donc que la désincarnation prive les machines des sources
d’information les plus riches.
82 Le deuxième point est relatif au mécanisme de la catégorisation, central pour tout ce qui
touche au langage : pour structurer le monde, on construit sans cesse des relations entre
objets et l’on construit des classes d’objets similaires, on les nomme et l’on construit à
nouveau des classes linguistiques au niveau méta pour ces nouveaux éléments. Pour ce
faire, notre point de référence essentiel est nous-mêmes, et nos catégories sont donc
fondées sur nos caractéristiques physiques propres. Le corps joue ainsi un rôle
fondamental dans tous les processus intellectuels qui restent subordonnés à nos besoins
essentiels (les fonctions vitales doivent avoir priorité sur tout le reste, et ce de façon
totalement inconsciente). Conséquence importante sur le mécanisme d’apprentissage :
aucune connaissance ne peut être acquise sans point de référence. Même si on pouvait
envisager de construire une intelligence sans contrepartie corporelle, il est inconcevable
d’en construire une qui ne posséderait pas le concept de corps !
83 Ainsi, nos programmes doivent-ils être capables de se représenter eux-mêmes et de relier
leurs expériences à cette représentation.
144

84 En outre, le langage, l’apprentissage et la communication jouent un rôle essentiel pour


utiliser les connaissances déjà accumulées par des siècles d’expériences précédentes.
Ainsi, lors de la résolution d’un problème à plusieurs, des idées nouvelles naissent autant
de l’interaction que d’un individu seul ; une communication élaborée (même dans le seul
cadre de l’intelligence artificielle distribuée) est donc nécessaire. Elle nous permet, non
seulement d’apprendre par l’expérience, mais aussi en communiquant, en lisant... Il faut
donc aussi être capable d’apprendre à apprendre différemment selon les circonstances.
85 Une véritable intelligence artificielle doit donc être capable d’évaluer et de modifier ses
propres programmes.
86 Ainsi, les arguments évoqués plus haut montrent que l’ensemble des sciences cognitives
devient pertinent pour rendre compte de l’activité de traitement du sens : interpréter les
expressions linguistiques n’est qu’une activité parmi d’autres, qui interagit avec les
activités de perception, de raisonnement, de mémorisation, ainsi qu’avec tous les autres
aspects de la cognition et de la vie sociale.

Conclusion
87 Les approches symboliques sont fondées sur l’hypothèse de représentations mentales, qui
débouche sur une analogie forte entre les représentations supposées exister dans nos
esprits et les représentations de l’intelligence artificielle : même si ces dernières sont
fondamentalement différentes de celles des humains, à un certain niveau de description,
elles sont considérées comme analogues. Cette hypo thèse est cruciale en ce sens qu’elle
implique un niveau d’analyse complètement séparé du niveau neurobiologique comme du
niveau sociologique et culturel.
88 En restant dans ce cadre purement symbolique, on peut souligner l’importance de la
notion de réflexivité (la capacité pour un système de raisonner sur son propre
comportement) pour la compréhension du langage. Là aussi, d’un point de vue
psychologique, on retrouve des analogies entre les modèles multi-agents réflexifs et des
notions très élémentaires liées à la conscience humaine. Certes, ces programmes ne
prétendent pas être un modèle du fonctionnement de la conscience ! Néanmoins, des
similarités avec des idées qui apparaissent dans le domaine de la métacognition peuvent
être notées. Malgré nombre de différences, liées aussi bien aux distinctions entre les
composants de la machine humaine et de la machine informatique qu’à leur organisation,
il semble exister une certaine ressemblance entre le modèle réparti et réflexif et une
certaine conception de la conscience, particulièrement si l’on s’intéresse aux aspects
fonctionnels du contrôle. Cette caractéristique d’autoreprésentation et d’autoréférence me
semble une qualité déterminante de l’intelligence, ce dont les programmes d’intelligence
artificielle doivent tenir compte.
89 Enfin, on peut remettre en cause le point de vue purement symbolique. Les recherches en
connexionnisme tentent actuellement d’apporter quelques éléments allant dans ce sens,
grâce à des techniques efficaces pour le traitement des informations floues ou
incertaines. Bien qu’on soit encore très loin d’une réelle analogie avec le fonctionnement
cérébral, les possibilités de collaboration entre les techniques connexionnistes et les
systèmes symboliques restent assez prometteuses (systèmes dits hybrides).
90 Actuellement, pour ce qui concerne les traitements automatiques des langues, la
sémantique est le goulet d’étranglement pour les mises en œuvre en vraie grandeur, et
145

j’ai développé l’idée que la prise en considération des aspects perceptuels, en liaison avec
les mécanismes d’apprentissage, donnerait une meilleure base pour la sémantique.
91 Pour aller encore plus loin, on peut dire que le traitement automatique des langues et la
communication homme-machine doivent développer des processus de base nécessaires
pour tous les autres processus de raisonnement, à l’image de l’être humain chez qui le
langage est l’outil essentiel qui lui permet de telles « compétences cognitives ».
92 Le langage devient ainsi la base des raisonnements symboliques qui, eux, sont essentiels
pour l’apprentissage, celui-ci étant évidemment nécessaire à l’acquisition de langage et
de symboles, d’où le caractère central des questions de réflexivité et d’amorçage. Le but
essentiel des recherches évoquées ci-dessus est de comprendre les principes de base de
l’intelligence en général afin d’en réaliser une instance artificielle. Pour ce faire, la
« symbiose entre l’intelligence artificielle et les sciences cognitives » (une formule
empruntée à Jacques Pitrat) me semble une voie aussi naturelle et nécessaire que
prometteuse.

NOTES
1. Pour alléger le texte, nous n’avons pas indiqué toutes les références mentionnées dans cette
section ; on pourra consulter Sabah (1988), Fuchs et Le Goffic (1992) pour trouver ces références,
ainsi que d’autres qui viennent compléter cet historique.
2. Les références complètes de ce paragraphe pourront se trouver en consultant Zock et Sabah
(2002).

AUTEUR
GÉRARD SABAH
Directeur de recherche au CNRS. Laboratoire d’Informatique pour la Mécanique et les Sciences de
l’Ingénieur, (UPR 3251, CNRS/Université Paris XI, Orsay).
146

Bibliographie

Ouvrages
Abeille A. 1993. Les nouvelles syntaxes : grammaires d’unification et analyse du français. Paris, Colin.
Andler D. (dir.). 1992. Introduction aux sciences cognitives. Paris, Gallimard.
Baker M. 1988. Incorporation. A Theory of Grammatical Function Changing. Chicago, University of
Chicago Press.
— 1996. The Polysynthesis Parameter. Oxford, Oxford University Press.
Baldwin J. M. 1902. Development and Evolution. New York, Macmillan.
Bar-Hillel Y. 1964. Language and Information. Reading MA, Addison Wesley.
Barlow M., Kemmer S. (dir.). 2000. Usage-Based Models of Language. Stanford CA, CLSI Publications.
Bates E., McWhinney B. (dir.). 1989. The Crosslinguistic Study of Sentence Processing. Cambridge,
Cambridge University Press.
Belletti A. 1990. Generalized Verb Movement. Turin, Rosenberg et Sellier.
Blake Β. 1994. Case. Cambridge, Cambridge University Press.
Blanc N., Brouillet D. 2003. Mémoire et compréhension : lire pour comprendre. Paris, In press.
Blumstein Sh. 1973. A Phonological Investigation of Aphasic Speech. La Haye, Mouton.
Borer H. 1984. Parametric Syntax. Dordrecht, Foris.
Chibout K., J. Mariani, N. Masson et F. Néel. 2000. Ressources et évaluation en ingénierie de la langue.
Bruxelles-Paris, De Boeck-Université Duculot.
Boysson-Bardies B. (de). 1996. Comment la parole vient aux enfants. Paris, Odile Jacob.
Brugman Cl. M. 1988. The Story of Over : Polysemy, Semantics, and the Structure of the Lexicon. New
York, Garland.
Caron J. 1989. Précis dep sycholinguistique. Paris, PUF.
Carruthers P., BoucherJ. (dir.). 1998. Language and Thought : Interdisciplinary Themes. Cambridge,
Cambridge University Press.
Chomsky Ν. 1957. Syntactic Structures. La Haye, Mouton. Traduction française de M. Braudeau :
Structures syntaxiques. Paris, Éditions du Seuil, 1979.
— 1965. Aspects of the Theory of Syntax. Cambridge MA, MIT Press. Traduction française de J.-Cl.
Milner, Aspects de la théorie syntaxique, Paris, Le Seuil, 1971.
147

— 1981. Lectures on Government and Binding. Dordrecht, Foris. Traduction française de Ρ. Pica, V.
Déprez et A. Azoulay-Vicente, Théorie du gouvernement et du liage : les conférences de Pise, [Document
électronique].
— 1986. Knowledge of Language. Its Nature, Origin, and Use. New York, Praeger.
— 1987. La nouvelle syntaxe. Paris, Le Seuil. Traduction française de Α. Rouveret, Some Concepts and
Consequences of the Theory of Government and Binding, Cambridge MA, MIT Press.
— 1995. The Minimalist Program. Cambridge MA, MIT Press.
— 2000. New Horizons in the Study of Language and Mind. Cambridge, Cambridge University Press.
— 2002. On Nature and Language. Cambridge, Cambridge University Press. Cinque G. 1990. Types of
A’-Dependencies. Cambridge MA, MIT Press.
— 1999. Adverbs and Functional Heads. A Cross-Linguistic Perspective. New York, Oxford University
Press.
Cinque G., J. Koster, J.Y. Pollock, L. Rizzi et R. Zanuttini (dir.). 1994. Paths Towards Universal
Grammar Studies in Honor of Richard S. Kayne. Washington, Georgetown University Press.
Coseriu E. 2002. L’homme et son langage. Paris, Peeters [spécialement la section C. Lexique :
213-410],
Croft W. 1990. Typology and Universals. Cambridge, Cambridge University Press.
— 2000. Explaining Language Change — An evolutionary Approach. Londres, Longman.
Culioli A. 1990. Pour une linguistique de l’énonciation, vol. I. Gap-Paris, Ophrys.
— 1999. Pour une linguistique de l’énonciation, vol. II et III. Gap-Paris, Ophrys.
Darnell M. et al. 1999. Functionalism and Formalism in Linguistics [2 vol.]. Amsterdam, Benjamins.
Deacon T. 1997. The Symbolic Species — The Co-evolution of Language and the Brain. New-York,
Norton.
Denhière G., Baudet S. 1992. Lecture, compréhension de texte et science cognitive. Paris, PUF.
Dik S. C. 1978. Functional Grammar. Amsterdam-New York-Londres, North-Holland.
— 1997. The Theory of Functional Grammar. Part 1 : The Structure of the Clause. Part 2 : Complex and
Derived Constructions. Berlin, De Gruyter.
Dirven R., Verspoor M. 1998. Cognitive Exploration ofLanguage and Linguistics. Amsterdam-
Philadelphia, Benjamins.
Ducrot Ο., T. Todorov., D. Sperber, M. Safouan, F. Wahl. 1968. Qu’est-ce que le structuralisme? Paris,
Le Seuil.
Dupoux E. (dir.). 2002. Les langages du cerveau. Paris, Odile Jacob.
Dupuy J.-P. 1994 [2e éd. 1999]. Aux origines des sciences cognitives. Paris, La Découverte.
Edelman G. M. 1992. Biologie de la conscience. Paris, Odile Jacob. Traduction de l’anglais par A.
Gerschenfeld, Bright Air, Brilliant Fire : On the Matter of Mind, New York, Basic Books, 1992.
Ehrlich M.-F. 1994. Mémoire et compréhension du langage. Lille, Presses Universitaires de Lille.
Elman J. et al. 1996. Rethinking Innateness, A Connectionist Perspective on Development. Cambridge MA,
MIT Press.
Fauconnier G. 1984. Espaces mentaux. Paris, Minuit.
— 1985. Mental Spaces. Cambridge MA, MIT Press.
— 1994. Mental Spaces. Cambridge, Cambridge University Press.
— 1997. Mappings in Thought and Language. Cambridge, Cambridge University Press.
Fauconnier G., Sweetser E. (dir.). 1996. Space, Worlds and Grammar. Chicago, University of Chicago
Press.
148

Fayol M. 1985. Le récit et sa construction : une approche de psychologie cognitive. Neuchâtel, Delachaux
et Niestlé.
Feyereisen P, M. Hupet,J. Berrewaerts, Y Chariot, L. Demanet, G. Doose et M.-A. Schaelstraete.
2002. Parler et communiquer chez la personne âgée : psychologie du vieillissement cognitif. Paris, PUF.
Fillmore C., Kay P. 1993. Construction Grammar, manuscrit non publié. Berkeley, University of
California.
FodorJ. A. 1983. The Modularity of Mind. Cambridge MA, MIT Press.
— 2000. The Mind doesn’t Work that Way : the Scope and Limit of Computational Psychology. Cambridge
MA, MIT Press.
François J. 2003. La prédication verbale et les cadres prédicatifs. Louvain, Peeters.
Fromkin V. A. 1973. Speech Errors as Linguistic Evidence. La Haye, Mouton.
— (dir.). 1980. Errors in Linguistic Performance : Slips of the Tongue, Ear, Penand Hand. New York,
Academic Press.
Fuchs C., Le Goffic Ρ. 2003 [1992]. Les linguistiques contemporaines : repères théoriques. Paris,
Hachette.
Fuchs C., Robert S. (dir.). 1999. Language Diversity and Cognitive Representations. Amsterdam-
Philadelphia, Benjamins.
Gardner H. 1985. The Mind’s New Science : A History of the Cognitive Revolution. New York, Basic
Books. Basic Books Paperback with new Epilogue, 1987. Traduction française de J.-L. Peytavin,
Histoire de la révolution cognitive : la nouvelle science de l’esprit, Paris, Payot, 1993.
Gernsbacher, M. A. 1990. Language Comprehension as Structure Building. Hillsdale NJ, Erlbaum.
— (dir.). 1994. Handbook of Psycholinguistics. San Diego, San Diego Academic Press.
Gineste M.D., Le Ny J.F. 2002. Psychologie cognitive du langage. De la reconnaissance à la comprehension.
Paris, Dunod.
Givón T. 1989. Code, Mind and Context. Chicago, Chicago University Press.
— 1995. Functionalism and Grammar. Amsterdam, Benjamins.
Goldberg A. 1995. Constructions - a Construction GrammarApproach to Argument Structure. Chicago,
University of Chicago Press.
Greenbeig J. H. 1966. Language Universals : with Special Reference for Feature Hierarchies. La Haye,
Mouton.
Guillaume G. 1964. Langage et science du langage. Paris, Nizet.
Habert B., A. Nazarenko et A. Salem. 1997. Les linguistiques de corpus. Paris, Armand Colin.
Hannequin D., Ρ. Goulet et Y. Joanette. 1987. La contribution de l’hémisphère droit à la communication
verbale. Paris, Masson.
Harris Ζ. 1968. Mathematical Structures of Language. New-York, Wiley. Traduction française de C.
Fuchs, Structures mathématiques du langage, Paris, Dunod, 1971.
Hawkins J. 1983. Word Order Universals. New York, Academic Press.
Heine B. 1993. Auxiliaries. Cognitive forces and Grammaticalization. Oxford, Oxford University Press.
— 1997a. Possession. Cognitives Sources, Forces, and Grammaticalization. Cambridge, Cambridge
University Press.
— 1997b. Cognitive Foundations of Grammar. Oxford, Oxford University Press.
Heine B., U. Claudi et F. Hünnemeyer. 1991. Grammaticalization. A Conceptual Framework. Chicago,
The University of Chicago Press.
Heine B., Kuteva T. 2002. World Lexicon of Grammaticalization. Amsterdam, Benjamins.
149

Hockett Ch. F. 1955. A Manual of Phonology. Bloomington IN, Indiana University Press.
— 1958. A Course in Modern Linguistics. New York, Macmillan.
Houdé Ο., B. Mazoyer et Ν. Tsourio-Mazoyer. 2002. Cerveau et psychologie. Paris, PUF.
Jackendoff R. 1983. Semantics and Cognition. Cambridge MA, MIT Press.
— 2002. Foundations of language - Brain, meaning grammar, evolution. Oxford, Oxford University
Press.
Jakobson R. 1963. Essais de linguistique générale. Paris, Minuit.
— 1968. Langage enfantin et aphasie. Paris, Minuit.
— 1976. Six leçons sur le son et le sens. Paris, Minuit.
Jonkers R. 1998. Comprehension and Production of Verbs in Aphasic Speakers. Enschede, Print Partners
Ipskamp.
Kail M., Fayol M. (dir.). 2000. L’acquisition du tangage. Le langage en émergence. Paris, PUF.
Kayne R. 1994. The Antisymmetry of Syntax. Cambridge MA, MIT Press.
Keller R. 1994. On Language Change : the Invisible Hand in Language. London, Routledge.
Kintsch W. 1998. Comprehension : A Paradigm for Cognition. New York-Cambridge, Cambridge
University Press.
Kleiber G. 1990. La sémantique du prototype, catégories et sens lexical. Paris, PUF.
Kolinsky R.,J. Morais et J. Ségui (dir.). 1991. La reconnaissance des mots dans les différentes modalités
sensorielles : études de psycholinguistique cognitive. Paris, PUF.
Lakoff G. 1987. Women, Fire and Dangerous Things. Chicago IL, University of Chicago Press.
Lakoff G., Johnson M. 1980. Metaphors we Live by. Chicago IL, University of Chicago Press.
Lakoff G., Núñez Rafael E. 2000. Where Mathematics Comes from. New York, Basic Books.
Lamb S. 1966. Outline of Stratificational Grammar. Washington, Georgetown University Press.
— 1999. Pathways of the Brain The Neurocognitive Basis of Language. Amsterdam, Benjamins.
Langacker R. W. 1987. Foundations of Cognitive Grammar, vol. I : Theoretical Prerequisites. Stanford
CA, Stanford University Press.
— 1990. Concept, Image and Symbol : The Cognitive Basis of Grammar. Berlin, Mouton de Gruyter.
— 1991. Foundations of Cognitive Grammar, vol. II : Descriptive Application. Stanford CA, Stanford
University Press.
— 2000. Grammar and Conceptualization. Berlin, Mouton de Gruyter.
Lass R. 1980. On Explaining Language Change. Cambridge, Cambridge University Press.
Lazard G. 1994. L’Actance. Paris, PUF.
Lecocq P., Segui J. (dir.). 1989. L’accès lexical. Lille, Presses Universitaires de Lille.
Le Ny J.-F. 1989. Science cognitive et comprehension du langage. Paris, PUF.
Lepore E., Pylyshyn Z. (dir.). 1999. What is Cognitive Science? Maiden MA, Blackwell.
Levelt W. J. M. 1989. Speaking : from Intention to Articulation. Cambridge MA, MIT Press.
Lü Shuxiang. 1984. Hanyuyufa lunwenji. Pékin, Shangwu yinshuguan.
Luria A. R. 1966. Higher Cortical Functions in Man. Londres, Travistock Publications.
Manning C. D., Schütze H. 1999. Foundations of Statistical Natural Language Processing. Cambridge
MA, MIT Press.
Manzini M. R., Savoia L. (à paraître). Morfosintassi dei dialetti italiani Bologne, Il Mulino.
Marcus M. 1980. A theory of syntactic recognition for natural language. Cambridge MA, MIT Press.
150

Martinet A. 1955. Économie des changement sphonétiques. Berne, Francke.


— 1960. Éléments de linguistique générale. Paris, Armand Colin.
Matthiesen C., Bateman J. 1992. Text Generation and Systemic Functional Linguistics (Communication in
Artificial Intelligence Series). London, Pinter Pbs.
McCarthy J., R. Brayton, D. Edwards, Ρ. A. Fox, L. Hodes, D. Luckham, K. Maling, D. Park et S.
Russel. 1960. LISP 1 programmer’s manual, artificial intelligence group. Cambridge MA,
communication center and research laboratory of electronics, MIT Press.
McWhinney B. (dir.). 1999. The Emergence of Language. Mahwah, Lawrence Erlbaum.
Mehler J., Noizet G. 1974. Textes pour une psycholinguistique. La Haye, Mouton.
Meringer R. 1908. Aus dem Leben der Sprache : Versprechen, Kindersprache, Nachahmungstrieb. Berlin,
Behr’s Verlag.
Milner J.C. 2002. Le périple structural. Paris, Le Seuil.
Newmeyer F. 1998. Language Form and Language Function. Cambridge MA, MIT Press.
Ouhalla J. 1999. Introducing Transformational Grammar. From Principles and Parameters to Minimalism.
Londres, Arnold.
Peyraube A. 1980. Les constructions locatives en chinois moderne. Paris, Editions Langages croisés.
Pinker S. 1994. The Language Instinct : How the Mind Creates Language. New York, William Morrow.
Pitrat J. 1995. De la machine à l’intelligence. Paris, Hermès.
Pollock J.Y. 1997. Langage et cognition : introduction au programme minimaliste de la grammaire
generative. Paris, PUF.
Püitz M., Verspoor M. (dir.). 2000. Explorations in Linguistic Relativity. Amsterdam-Philadelphie,
Benjamins.
Rizzi L. 1982. Issues in Italian Syntax. Dordrecht, Foris.
— 1990. Relativized Minimality. Cambridge MA, MIT Press.
Rondal J. Α., Seron X. (dir.). 1999. Troubles du langage. Bases théoriques, diagnostic et rééducation.
Sprimont, Mardaga.
Rouveret A. 1994. Syntaxe du gallois. Principes généraux et typologie. Paris, Éditions du CNRS.
Sabah G. 1988. L’intelligence artificielle et le langage, I, Représentation des connaissances. Paris, Hermès.
Sapir E. 1949. Selected Writings of Edward Sapir in Language, Culture and Personality. Berkeley CA,
University of California Press.
Ségui J., Ferrand L. 2000. Leçons deparole. Paris, Odile Jacob.
Seiler H. 2000. Language Universals Research : a Synthesis. Tubingen, Gunter Narr. [Language
Universals Series 8].
Selkirk Ε. 1982. The Syntax of Words. Cambridge MA, MIT Press.
Seron X. 1993. La neuropsychologie cognitive. Paris, PUF.
Seron X., Van der Linden M. (dir.). 2000. Traité de neuropsychologie clinique. Marseille, Solal.
Shallice T. 1988. From Neuropsychology to Mental Structure. Cambridge, Cambridge University Press.
Traduction française de M. Siksou, Symptômes et modèles en neuropsychologie : des schémas aux
réseaux, PUF, 1995.
Sturtevant E. H. 1917. Linguistic Change. Chicago, University of Chicago Press.
Suchman L. 1987. Plan and situated actions : the problem of human-machine communication.
Cambridge, Cambridge University Press.
Sweetser E. 1990. From Etymology to Pragmatics. Cambridge, Cambridge University Press.
151

Talmy L. 2000. Towards a Cognitive Semantics. Cambridge MA, MIT Press, 2 volumes.
Tesnière L. 1969 [1959] [dernière éd. 1988]. Eléments de syntaxe structurale. Paris, Klincksieck (2 e
éd.).
Tomasello M. (dir.). 1998. The New Psychology of Language. Cognitive and Functional Approaches to
Language Structure. Mahwah NJ, Laurence Erlbaum Associates.
Troubetzkoy N. S. 1939. Grundzüge der Phonologie. Travaux du Cercle Linguistique de Prague, 7.
Turner M. 1996. The Literary Mind. Oxford, Oxford University Press.
Ungerer F., Schmid H. J. 1996. An Introduction to Cognitive Linguistics. London, Longman.
Van Valin R. D., LaPolla R.J. 1997. Syntax : Structure, Meaning Function. Cambridge, Cambridge
University Press.
Vandeloise C. (dir.). 2003. Langues et cognition. Paris, Hermès.
Varela F. 1988 [rééd. 1996]. Invitation aux sciences cognitives. Paris, Seuil.
Whorf Β. 1956. Language, Thought and Reality. Cambridge MA, MIT Press. Traduction française de
Cl. Carme, Linguistique et anthropologie : essai, Paris, Denoël, 1969.
Winograd T. 1972. Understanding natural language. Edinburgh, Academic Press.
Winograd T., Flores F. 1989. L’intelligence artificielle en question. Paris, PUF.
Wittgenstein L. 1958. Philosophical Investigations. Traduction anglaise par G. E. M. Anscobe, (2 e éd.),
Oxford, Blackwell. [Titre original, Philosophische Untersuchungen, 1953] ; [Traduction française de J.
Faure, Remarques philosophiques, Paris, Gallimard, 1975].

Articles et autres sources


Abeillé Α., L. Clement et A. Kinyon. 2000. « Building a treebank for French », in A.
Abeillé (dir.), Treebanks : building and using syntactically annotated corpora, Dordrecht, Kluwer.
Abraham W. 1999. « Discussant Paper Referring to the “Syntax Position Paper” by Howard Fasnik
and Mickey Noonan », in M. Darnell et al. (dir.), Functionalism and formalism in linguistics.
Amsterdam-Philadelphia, Benjamins, vol. I : 55-86.
Agre P, Chapman D. 1990. « What are plans for? New architectures for autonomous agents », in P.
Maes (dir.), Task-level decomposition and emergent functionality. Cambridge MA, MIT Press.
ALPAC. 1966. Language and Machines ; Computers in Translation and Linguistics. Washington DC,
Automatic Language Processing Advisory National Research Council, the National Academy of
Sciences : 1416.
Anderson S. 1999. « A Formalist’s Reading of Some Functionalist Work in Syntax » in M. Darnell et
al. (dir.), Functionalism and formalism in linguistics. Amsterdam-Philadelphia, Benjamins, vol. I :
111-135.
Ardila R., Rosselli M. 1994. « Averbia as a selective naming disorder : a single case report ». Journal
of Psycholinguistic Research, 23 : 139148.
Bally Ch. 1942. « Syntaxe de la modalité explicite ». Cahiers Ferdinand de Saussure, 2 :3-13.
Bassi Acuña A. 1995. Un modèle dynamique de la compréhension de texte intégrant l’acquisition
des connaissances. Thèse d’université, Paris XI.
Basso Α., A. R. Fecours, S. Moraschini et M. Vanier. 1985. « Anatomo-clinical correlations of the
aphasias as defined through computerized tomography : on exceptions ». Brain and Language, 26 :
201-229.
Basso Α., C. Razzano, Ρ. Faglioni et M. Ε. Zanobio. 1990. « Confrontation naming, picture
description and action naming in aphasic patients ». Aphasiology, 4 : 185-195.
152

Bastiaanse R., Jonkers R. 1998. « Verb retrieval in action naming and spontaneous speech in
agrammatic and anomic patients ». Aphasiology, 12, 11 : 951-969.
Bateman J. 1991. « Uncovering textual meanings : a case study involving systemic-functional
resources for the generation of Japanese texts », in C. Paris et al (dir.), Natural Language Generation
in Artificial Intelligence and Computational Linguistics. Dordrecht, Kluwer : 125-153.
Bates E., S. Chen, O. Tzeng, P. Li et M. Opie. 1991. « The noun-verb problem in Chinese aphasia ».
Brain and Language, 41 : 203-223.
Béland R., Paradis C. 1998. « Is there a link between phonemic paraphasias and loanwords? », in
W. Ziegler et Κ. Deger (dir.), Clinical Phonetics and Linguistics. London, Whurr Publishers Ltd. :
336-348.
Berndt R. S., A. N. Haendiges, C. Mitchum et J. Sandson. 1997a. « Verb retrieval in aphasia. 1.
Characterizing single word impairments ». Brain and Language, 56 : 68106.
— 19975. « Verb retrieval in aphasia. 2. Relationship to sentence processing ». Brain and Language,
56 : 107-137.
Blache P., J. Guizol, F. Levy, A. Nazarenko, S. N’Guema, M. Rolbert, R. Pasero et P. Sabatier. 1997.
Évaluer des systèmes de compréhension de textes. Actes des Journées scientifiques et techniques,
Avignon.
Blanche-Benveniste C. 1996. « De l’utilité du corpus linguistique ». Revue française de linguistique
appliquée, Vol. I, 2 : 25-43.
Bobaljik D. 2000. « The Rich Agreement Hypothesis ». Article non publié. McGill University.
Bobrow D. 1968. « Natural language input for a computer problem solving system », in M. L.
Minsky (dir.), Semantic information processing, Cambridge MA, MIT Press : 133-215.
Braine M. 1992. « What Sort of Innate Structure is Needed to “Bootstrap” into Syntax? ».
Cognition, 45 : 77-100.
Breen K., Warrington E. 1994. « A study of anomia : evidence for a distinction between nominal
and prepositional language ». Cortex, 30 : 231245.
Campion N., Rossi J.-R 1999. « Inférences et compréhension de textes ». L’Année psychologique, 99 :
493-527.
Caramazza Α., Hillis A. E. 1991. « Lexical organization of nouns and verbs in the brain ». Nature,
349 : 788-790.
Cardebat D., N. Candelon, L. Kuznierek, G. Viallard, J.-F. Démonet et J. Lambert. 2000. « La
génération de mots isolés chez les sujets normaux ». Acta neurologica Belgica, 100 : 24-33.
Carstairs A. 1983. « Paradigm economy ». Journal of Linguistics, 19 : 115-128.
Champagne M. 2001. Compréhension des actes de parole non-littéraux chez le sujet normal et
chez le sujet cérébrolésé droit. Thèse de doctorat, EHESS.
Charniak E. 1997. « Statistical Parsing with a Context-free Grammar and Word Statistics », Actes
du 14thNational Conference on Artificial Intelligence AAAI97, Californie, Menlo Park, AAAI Press.
Chen S., Bates E. 1998. « The dissociation between nouns and verbs in Broca’s and Wernicke’s
aphasia : findings from Chinese ». Aphasiology, 12 : 536.
Chomsky Ν. 1956. « Three Models for the Description of Language », IRE. Transactions on
Information Theory. Traduction fançaise, 1968, « Trois modèles de description du langage »,
Langages, 9 : 51-76.
— 1993. « A Minimalist Program for Linguistic Theory », in N. Chomsky, 1995. The Minimalist
Program. Cambridge MA, MIT Press : 167-217.
153

— 1995. « Categories and Transformations », in N. Chomsky, The Minimalist Program. Cambridge


MA, MIT Press : 219-394.
— 2001. « Derivation by Phase », in M. Kenstowicz (dir.), Ken Hale. A Life in Language, Cambridge
MA, MIT Press : 1-52.
Chomsky N., Lasnik H. 1993. « The Theory of Principles and Parameters ». Repris dans Chomsky,
The Minimalist Program, Cambridge MA, MIT Press : 13-127.
Cinque G. 1994. « On the evidence for partial N-movement in the Romance DP », in G. Cinque et
al., Paths Towards Universal Grammar. Studies in Honor of Richard S. Kayne, Washington, Georgetown
University Press : 85-110.
Clark R. 1992. « The Selection of Syntactic Knowledge ». Language Acquisition, 2 :83149.
Coltheart M. 2001. Assumptions and methods in cognitive neuropsychology, in B. Rapp (dir.), The
Handbook of Cognitive Neuropsychology, Londres, Taylor et Francis Group : 3-21.
Croft W. 1995. « Autonomy and functionalist linguistics ». Language, 71 : 490-532.
— 1998. « La théorie de la typologie fonctionnelle dans son contexte historique et intellectuel »,
Verbum, XX, 3 : 289-307.
— 1999. « Some Contributions of Typology to Cognitive Linguistics and Vice-versa », in T. Janssen
et G. Redeker (dir.), Cognitive Linguistics : Foundations, Scope and Methodology, Berlin, Mouton de
Gruyter : 61-94.
Damasio Α., Tranel D. 1993. « Nouns and verbs are retrieved with differently distributed neural
systems ». Proceedings of the National Academy of Science. U.S.Α., 90 : 4957-4960.
Damerau F. 1981. « Operating statistics for the transformational question-answering system ».
American Journal of Computational Linguistics, 7, 1 : 32-40.
Daniele Α., L. Giustolisi, M. C. Silveri, C. Colosimo et G. Gainotti. 1994. « Evidence for a possible
neuroanatomical basis for lexical processing of nouns and verbs ». Neuropsychologia, 32 :
13251341.
Danlos L. 1996. « Presentation de G-TAG, un formalisme pour la génération de textes inspiré des
grammaires d’arbres adjoints », Actes TALN’96, Marseille : 67-76.
De Renzi E., Pellegrino G. 1995. « Sparing of verbs and preserved but ineffectual reading in a
patient with impaired word production ». Cortex, 31 : 619-636.
Démonet J.-F., G. Thierry et D. Cardebat. (en révision). « The neurophysiology of language ».
Physiological Reviews.
DuBois J. 1985. « Competing motivations », in J. Haiman (dir.), Iconicity in Syntax, Amsterdam,
Benjamins : 343-365.
Dubois-Charlier F., Galmiche M. (dir.). 1972. Langages, 27, (La sémantique générative).
Duchêne Α. 1997. Gestion des inférences chez les sujets cérébrolés és droits. Thèse de doctorat,
Université de Lyon 1.
Dunn J. C., Kirsner K. 2003. « What can we infer from double dissociations? ». Cortex, XXXIX, 1 :
1-7.
Dupoux Ε., K. Kakehi, Y. Hirose, C. Pallier et J. Mehler 1999. « Epenthetic vowels in Japanese : a
perceptual illusion? ». Journal of Experimental Psychology : Human Perception and Performance, 25 :
1568-1578.
Durie M. 1999. « The temporal mediation in structure and function », in M. Darnell et al. (dir.),
Functionalism and formalism in linguistics, vol. I, Amsterdam-Philadelphia, Benjamins : 417-443.
Eisenson J. 1959. « Language dysfunctions associated with right brain damage ». American Speech
and Hearing Association, 1 : 107.
154

Emonds J. 1978. « The verbal complex V’-V in French ». Linguistic Inquiry, 9 : 151-175.
Fauconnier G., Turner M. 1996. « Blending as a Central Process of Grammar », in A. Goldberg
(dir.), Conceptual Structure, Discourse, and Language, Stanford CA, CSLI Publications.
— 1998. « Blends », in J.P Koenig (dir.), Discourse and Cognition : Bridging the gap, Stanford CA, CSLI
Publications.
Ferrand L. (dir.). 2001. Psychologicfrançaise, 46,1 (La production du langage).
Ferretti T. R., K. McRae et A. Hatherell. 2001. Integrating verbs, situation schemas, and thematic
role concepts. Journal of Memory and Language, 44, 516-547.
Fossard M. 1999. « Résolution pronominale, focus de discours et mémoire de travail. Quelles
implications pour la Maladie d’Alzheimer? ». Revue Parole, 11/12 : 289312.
— 2001. Aspects cognitifs de l’anaphore pronominale. Approche psycholinguistique et ouverture
neuropsycholinguistique auprès de deux patients atteints de la démence de type Alzheimer.
Thèse de doctorat en sciences du langage, Université de Toulouse-Le Mirail.
François J. (dir.). 1998. « Orientations récentes en grammaire fonctionnelle, entre sciences
cognitives et biologie ». Verbum XX, 3.
Franquart-Declercq C., Gineste M.D. 2001. « L’enfant et la métaphore ». L’Année psychologique, 101 :
723-752.
Frege G. 1892. « Ueber Sinn und Bedeutung ». Zeitschriftfür Philosophie und Philosophie-Kritik, 100 :
25-50.
Fromkin V.A. 1971. « The non-anomalous nature of anomalous utterances ». Language, 47 (1) :
27-52.
Fuchs C. 1999. « Diversity in cognitive representations : a challenge for cognition », in C. Fuchs et
S. Robert (dir.), Language Diversity and Cognitive Representations. Amsterdam-Philadelphia,
Benjamins : 3-19.
— 2003. « Les langues entre universalisme et relativisme », inJ.-F. Dortier (dir.), Le cerveau et la
pensée. Auxerre, Sciences Humaines Éditions : 143-151.
Garrett M. F. 1980. « Levels of processing in sentence production », in B. Butterworth (dir.),
Language Production, Vol I. Speech and Talk, Londres, Academic Press : 177220.
Gaudinat Α., J.-P Goldman et Ε. Wehrli. 1998. « Le système de synthèse FIPSVox : syntaxe,
phonétisation et prosodie ». Actes XXII’JEP, Martigny Switzerland : 139-142.
Geschwind N. 1965. « Disconnection syndromes in animals and man ». Brain, 88 : 237-294 et
585-644.
Gineste M.-D., Scart-Lhomme V. 1999. « Comment comprenons-nous les métaphores? ». L’Année
psychologique, 99 : 447-492.
Givón T. 1998. « On the co-evolution of language, mind and brain ». Evolution of Communication,
21 : 45-116.
Goldberg A. 2003. « Constructions : a New Theoretical Approach to Language », Trends in Cognitive
Science, 7, 5 : 219-224.
Green Β., A. K. Wolf, C. Chomsky et Κ. Laughery. 1963. « Baseball : an automatic question
answerer », in E. A. Feigenbaum et J. Feldman (dir.), Computers and Thought, New York, McGraw-
Hill : 207-216.
Greenberg J. H. 1963. « Some Universals of Grammar with Particular Reference to the Order of
Meaningful Elements », in J. H. Greenberg (dir.), Universals of Grammar, Cambridge MA, MIT Press :
73-113. (2e éd., 1966 : 58-90.)
155

Grishman R. 1973. « Implementation of the string parser of English, Natural language


processing », in R. Rustin (dir.), Natural Language Processing, New York, Academic Press : 89-109.
Grosz B. J., A. K. Joshi et S. Weinstein. 1995. « Centering : a framework for modelling the local
coherence of discourse ». Computational Linguistics, 21,2 :203-225.
Halliday Μ. Α. Κ. 1970a. « Functional diversity in language as seen from a consideration of
modality and mood in English ». Foundations of Language, 6 : 322-361.
— 1970b. « Language structure and language function », in J. Lyons (dir.), New Horizons in
Linguistics, Harmondsworth, Penguin Books : 140-165.
Hauser M., N. Chomsky et W. Tecumseh Fitch. 2002. « The faculty of language : what is it, who has
it, and how did it evolve? ». Science, 298 :1569 1579.
Hengeveld Κ. 1990. « The Hierarchical Structure of Utterances », in J. Nuyts et al. (dir.), Layers and
Levels of Representation in Language Theory. Amsterdam, Benjamins : 123.
Hickmann M. 2002. « Espace, langage et categorisation ; le problème de la variabilité inter-
langues », in J. Lautrey et al. (dir.), Invariants et variabilités dans les sciences cognitives, Paris, Éditions
de la Maison des sciences de l’homme : 225-238.
Hockett Ch. F. 1967. « Where the tongue slips, there slip I », in To Honor Roman Jakobson, La Haye,
Mouton.
Hopper P., Thompson S. 1980. « Transitivity in grammar and discourse ». Language, 56, 2 :
251-299.
Huang J. 1982. Logical Relations in Chinese and the Theory of Grammar. Thèse de doctorat. MIT.
Hull D. 2000. « Xerox TREC-8 Question answering Track Report ». Actes TREC-8 Conference.
Indefrey P., Levelt W.J. 2000. « The neural correlates of language production », in M. Gazzaniga
(dir.), The Cognitive Neurosciences (2e éd.), Cambridge MA, MIT Press : 845-865.
Jakobson R., Halle M. 1956. « Phonology and Phonetics », in R. Jakobson et M. Halle, Fondamentals
of Language, La Haye, Mouton. Traduction française in R. Jakobson, 1963, Essais de linguistique
générale, Paris, Éditions de Minuit : 103-149.
Jakubowicz C. (dir.). 1995. Recherches linguistiques de Vincennes, 24 (Grammaire universelle et
acquisition du langage).
Joanette Y. 1980. Contribution à l’étude anatomo-clinique des troubles du langage dans les lésions
cérébrales droites du droitier. Thèse de doctorat, Université de Montréal.
Joanette Y., Goulet P. 1991. « Text-level representation as one determinant for lexical retrieval
and sentence production deficits in aphasia : comments on Zingeser and Berndt “Retrieval of
nouns and verbs in agrammatism and anomia” ». Brain and Language, 41 : 590596.
Joanette Y., M. Puel, J.-L. Nespoulous, A. Rascol et A. R. Lecours. 1982. « Aphasie croisée chez les
droitiers. I. Revue de la littérature ». Revue neurologique, 138, 8-9 : 575-586.
Juola R, Plunkett K. 2000. « Why double dissociations don’t mean much », in G. Cohen, R. A. A.
Johnston et Κ. Plunkett (dir.), Exploring Cognition : Damaged Brains and Neural Networks,
Philadelphie, Psychology Press Taylor et Francis : 319-327.
Kiefer F. 1995. « Cognitive Linguistics : a new Paradigm? ». Linguistics in the Morning Calm,
3 :93-111.
Kintsch W. 1988. « The role of knowledge in discourse comprehension : A construction-
integration model ». Psychological Review, 95 : 163182.
Kirby S. 1998. « Motivations concurrentes et émergence comme explications des hiérarchies
implicationnelles ». Verbum, XX, 3 : 309-336. Traduction française de « Competing motivations
and emergence : Explaining implicational hierarchies », 1997, Linguistic Typology, 1 : 5-31.
156

Klein W., Nüse R. 1997. « La complexité du simple : l’expression de la spatialité dans le langage
humain », in M. Denis (dir.), Langage et cognition spatiale, Paris, Masson : 1-23.
Kohn S. Ε., M. P. Lorch et D. M. Pearson. 1989. « Verb finding in aphasia ». Cortex, 25 : 57-69.
Kremin H. 1994. « Selective impairments of action naming : arguments and a case study ».
Linguistische Berichte, 6 : 62-82.
Lakoff G. 1993. « The contemporary theory of metaphor », in A Ortony (dir.), Metaphor and
Thought, Cambridge, Cambridge University Press : 202-251.
Langacker R. W. 1988. « A usage-based model », in B. Rudzka-Ostyn (dir.), Topics in cognitive
Linguistics, Amsterdam, Benjamins : 127-161.
— 1999. « Assessing the cognitive linguistic enterprise », in T. Janssen et G. Redeker (dir.),
Cognitive Linguistics : Foundations, Scope, and Methodology, Berlin, Mouton de Gruyter : 13-59.
Lashley K. S. 1951. « The problem of serial order in bahavior », in L. A. Jefferess (dir.), Cerebral
mechanisms in Behavior : the Hixon Symposium, New York, Wiley.
Lazard G. 2004 : « What are we typologists doing? », in Z. Frajzyngier (dir.), Linguistic Diversity and
Language Theories, Amsterdam, Benjamins.
Le Ny J.-F. 2000. « La sémantique des verbes et la représentation des situations ». Syntaxe et
sémantique, 2 : 17-54.
Le Ny J.-F., Franquart-Declercq C. 2001. « Flexibilité des significations, traits sémantiques et
compréhension des métaphores verbales ». Verbum, XXIII, 4 : 385-400.
— 2002. « Signification des verbes, relations verbe/patient et congruence sémantique ». Le
Langage et l’Homme, XXXVII : 9-26.
Lecours A. R. et al. 1987. « Jacques Lordat, or the birth of cognitive neuropsychology », in E.
Kieller et M. Gropnick (dir.), Motor and Sensory Processes of Language, Hillsdale NJ, L. Erlbaum
Associates.
Li Chongxing. 1992. « Chusuoci fazhan lishi de chubu kaocha », in Z. Hu, N. Yang et S. Jiang (dir),
Jindai hanyuyanjiu, Pékin, Shangwhu yinshuguan : 243-263.
Longobardi G. 1994. « Reference and proper names : a theory of N-movement, in syntax and
logical form ». Linguistic Inquiry, 25 : 609-665.
Manning L., Warrington E. 1996. « Two routes to naming : a case study ». Neuropsychologia, 34 :
808-817.
Marantz Α. 1997. « No escape from syntax : don’t try morphological analysis in the privacy of
your own lexicon », in A. Dimitriadis, L. Siegel et al. (dir.), University of Pennsylvania Working Papers
in Linguistics, 4, 2 : 201225.
Mc Carthy R., Warrington E. 1985. « Category specificity in an agrammatic patient : the relative
impairment of verb retrieval and comprehension ». Neuropsychologia, 23 : 709-727.
McRae K., T. R. Ferretti et L. Amyote. 1997. « Thematic roles as verb specific concepts ». Language
and Cognitive Processes, 12 : 137-176.
Martins D., Le Bouédec Β. 1998. « La production d’inférences lors de la compréhension de textes
chez des adultes : une analyse de la littérature ». L’Année psychologique, 98 : 511-543.
Miceli G., M. C. Silveri, U. Nocenti et A. Caramazza. 1988. « Patterns of dissociation in
comprehension and production of nouns and verbs ». Aphasiology, 2 : 351-358.
Miceli G., M. C. Silveri, G. Villa et A. Caramazza. 1984. « On the basis of the agrammatic’s difficulty
in producing main verbs ». Cortex, 20 : 207-220.
Miozzo Α., M. Soardi et S. Cappa. 1994. « Pure anomia with spared action naming due to a left
temporal lesion ». Neuropsychologia, 32 : 1101-1109.
157

Mitchum C. C., Berndt R. 1994. « Verb retrieval and sentence construction : effects of targeted
intervention », in M. J. Riddoch et G. W. Humphreys (dir.), Cognitive Neuropsychology and Cognitive
Rehabilitation, Hove, Lawrence Erlbaum : 317-348.
Nash L., Rouveret A. 2002. « Cliticization as Unselective Attract. » Catalan Journal of Linguistics, 1 :
157-199.
Nespoulous J.-L. 1980. « De deux comportements verbaux de base : référentiel et modalisateur. De
leur dissociation dans le discours aphasique ». Cahiers de psychologie, 23 : 195-210.
— 1981. « Two basic types of semiotic behavior. Their dissociation in aphasia ». Publication Series
ofthe Toronto Semiotic Circle, II et III : 173-213.
— 1994. « Le Langage. Introduction : Linguistique, neurolinguistique et neuropsycholinguistique.
Un parcours en quatre étapes », in X. Seron et M. Jeannerod (dir.), Neuropsychologie humaine,
Bruxelles, Mardaga : 317-319.
— 1997. « Invariance et variabilité dans la symptomatologie linguistique des aphasiques
agrammatiques : le retour du comparatisme? », in C. Fuchs et S. Robert (dir.), Diversité des langues
et représentations cognitives, Gap-Paris, Ophrys : 227-239.
— 1998. « Segmental errors in aphasia as (psycho) linguistic evidence of the nature of
phonological representations », in W. Ziegler et Κ. Deger (dir.), Clinical Phonetics and Linguistics,
Londres, Whurr Publishers Ltd. : 323-335.
— 1999. « De la linguistique... à la psycholinguistique et à la neuropsycholinguistique. Une
illustration : le traitement (spécifique?) des verbes par le cerveau/esprit humain », in J. François
et B. Victorri (dir.), Sémantique du lexique verbal, Caen-Paris, Université de Caen-CNRS : 159-166.
— 1999. « Universal vs. language specific constraints in agrammatic aphasia ». In C. Fuchs et S.
Robert (dir.), Language Diversity and Cognitive Representations, Amsterdam-Ρhiladelphie,
Benjamins : 195-207.
Nespoulous J.-L., Y. Joanette, R. Béland, D. Caplan et A. R. Lecours. 1984. « Phonologic
disturbances in aphasia : Is there a markedness effect in aphasic phonetic errors? », in F. Rose
(dir.), Advances in neurology. Progress in aphasiology, New York, Raven : 203-213.
Nespoulous J.-L., M. Dordain, C. Perron, B. Ska, D. Bub, D. Caplan, J. Mehler et A. R. Lecours. 1988.
« Agrammatism in sentence production without comprehension deficits : reduced availibility of
syntactic structures and/or of grammatical morphemes? A case study ». Brain and Language, 33 :
273295.
Nespoulous J.-L., Ch. Code, J. Virbel et A. R. Lecours. 1998. « Hypotheses on the dissociation
between “referential” and “modalizing” verbal behaviour in aphasia ». Applied Psycholinguistics,
19 : 311-331.
Nespoulous J.-L., Moreau N. 1998. « “Repair strategies” and the production of segmental errors in
aphasia : epentheses vs. syncopes in consonantal clusters », in E. VischBrink et R. Bastiaanse,
Linguistic Levels in Aphasia, San Diego, Singular Publishing Group Inc. : 133-146.
Nettle D. 1999. « Functionalism and its difficulties in biology and linguistics », in M. Darnell et al.
(dir.), Functionalism and formalism in linguistics, Amsterdam-Philadelphia, Benjamins, vol. I :
445-467.
Newell Α., Simon H. 1956. « The Logic Theory Machine, A Complex Information Processing
System ». IRE Trans. Information Theory, 2 : 6179.
Orpwood L., Warrington E. 1995. « Word specific impairments in naming and spelling out but not
reading ». Cortex, 31 : 239-266.
158

Pakzad S., Nespoulous J.-L. 1997. « Compréhension des métaphores chez les cérébrolésés droits :
du traitement différentiel des métaphores “opaques” et “transparentes” ». Revue Parole, 3/4 :
299-322.
Payne D. 1999. « What counts as explanation? A functionalist approach to word order », in M.
Darnell et al. (dir.), Functionalism and formalism in linguistics, Vol. I, Amsterdam-Philadelphia,
Benjamins : 137-165.
Petrick S. 1973. « Transformational analysis, Natural language processing », in X. Rustin (dir.),
Natural Language Processing, New York, Academic Press : 27-41.
Peyraube A. 2002. « L’évolution des structures grammaticales ». Langages, 146 : 46-58.
Peyraube Α., Wu F. 2000. « Shanggu hanyu yiwen daici de fazhan yu yanbian ». Zhongguo yuwen, 4 :
311-326.
Phillips C. 1996. Order and Structure. Thèse de doctorat. MIT.
— À paraître. « Levels of representation in the electrophysiology of speech perception ». Cognitive
Science.
Piattelli-Palmarini M. 2002. « Portrait d’un cognitiviste “classique” : ce que j’ai appris auprès de
Jacques Mehler », in E. Dupoux (dir.), Les langages du cerveau, Paris, Odile Jacob : 13-30.
Plath W. 1976. « Request : A natural language question-answering system ». IBM Journal of research
and development, 20, 4 : 326-335.
Plaut D. C. 1995. « Double dissociation without modularity. Evidence from connectionist
neuropsychology ». Journal of Clinical and Experimental Neuropsychology, 17 : 291-321.
Pollock J.-Y. 1989. « Verb movement, Universal Grammar, and the structure of IP ». Linguistic
Inquiry, 20 : 365424.
Puel M., Y. Joanette, M. Levrat, J.-L. Nespoulous, M.-F. Viala, A. R. Lecours et A. Rascol. 1982.
« Aphasie croisée chez les droitiers. II. Étude neurolinguistique et neuropsychologique d’un cas.
Évolution sur deux ans ». Revue neurologique, 8-9 : 587-600.
Pylkkänen L., Marantz A. 2003. « Tracking the time course of word recognition with MEG ».
Trends in Cognitive Sciences, 7 : 5.
Rapp B., L. Bebzing et A. Caramazza. 1995. « The Modality-Specific Representation of
Grammatical Category ». Paper presented at the 36th meeting of the Psychonomic Society, Los
Angeles.
Rastier F. 1998. « La linguistique cognitive », in O. Houdé et al. (dir.), Vocabulaire de sciences
cognitives, Paris, PUF : 15-17.
Reddy M. 1979. « The conduit metaphor, Metaphor and thoughts », in A. Orthony (dir.), Metaphor
and Thought, Cambridge MA, MIT Press : 164-201.
Ritter Ε. 1991. « Two functional categories in noun phrases : evidence from Modern Hebrew », in
S. Rothstein (dir.), Syntax and Semantics, 26, San Diego, Academic Press : 37-62.
Rizzi L. 1997. « The fine structure of the left periphery », in L. Haegeman (dir.), Elements of
Grammar, Dordrecht, Kluwer : 281337.
Rizzolatti et al. 2002. « Motor and cognitive functions of the ventral pre motor cortex ». Current
Opinion in Neurobiology, 12 : 148154.
Rosch E., Mervis C. B. 1975. « Family resemblances : studies in the internal structure of
categories ». Cognitive psychology, 7 : 573-605.
Rosch E. 1975. « Cognitive representations of semantic categories ». Journal of Experimental
Psychology, 104 : 193-233.
159

— 1978. « Principles of categorization », in E. Rosch et Β. Β. Lloyd (dir.), Cognition and


categorization, Hillsdale, Lawrence Erlbaum : 27-48.
Rouveret A. 1987. « Préface et Postscript », in N. Chomsky, La nouvelle syntaxe, Paris, Le Seuil.
— 2002. « How are resumptive pronouns linked to the periphery? ». Linguistic Variation Yearbook,
2 : 123184.
Sabah G. 1990. « CARAMEL : un système multiexperts pour le traitement automatique des
langues ». Modèles linguistiques, 12, 1 : 95-118.
— 1999. « The respective roles of conscious and subconscious processes for interpreting language
and music ». Actes CSNLP-8, Galway : 1-8.
— 2000. « The fundamental role of pragmatics in Natural Language Understanding and its
implications for modular, cognitively motivated architectures, Abduction, Belief and Context in
Dialogue ; Studies in Computational Pragmatics », in H. Bunt et Β. Black (dir.), Abduction, Beliefand
Context in Dialogue, Studies in Computational Pragmatics, Londres, Benjamins : 151188.
Sabah G., Briffault X. 1993. « CARAMEL : a Step towards Reflexion in Natural Language
Understanding systems ». Actes IEEE International Conference on Pools with Artificial Intelligence.
Boston : 258-265.
Sabah G., Rady M. 1983. « A deterministic syntactic-semantic parser applied to French ». Actes 8°
IJCAI. Karlsruhe : 707-710.
Sager N. 1973. « The string parser for scientific literature, Natural language processing », in R.
Rustin (dir.), Natural Language Processing, New York, Academic Press : 61-87.
Shannon C. 1938. A symbolic analysis of relay and switching circuits. Thèse de doctorat. MIT.
Shattuck-Hufnagel S. 1980. « How single phoneme error data rule out two models of error
generation », in V. A. Fromkin (dir.), Errors in Linguistic Performance : Slips of the Tongue, Ear, Pen and
Hand, New York, Academic Press : 35-46.
Silverstein M. 1976. « Hierarchy of features and ergativity », in R. W. Dixon (dir.), Grammatical
Categories in Australian Languages, Canberra, Australian Institute of Aboriginal Studies : 112-171.
Slobin D. 1996. « From “thought to language” to “thinking for speaking” », in J. Gumperz et S.
Levinson (dir.), Rethinking Linguistic Relativity, Cambridge, Cambridge University Press : 70-96.
Stowell T. 1981. Origins of Phrase Structure. Thèse de doctorat. MIT.
Talmy L. 1988a. « Force Dynamics in Language and Thought ». Cognitive Science, 12 : 49-100.
— 1988b. « The relation of grammar to cognition », in B. Rudzka-Ostyn (dir.), Topics in Cognitive
Linguistics, Amsterdam-Philadelphia, Benjamins : 165-205.
Teuber, H. L. (1955). « Physiological psychology ». Annual Review of Psychology, 6 : 267-296.
Tomasello M. 2000. « First steps toward a usage-based theory of language acquisition ». Cognitive
linguistics, 111/2 : 61-82.
Tomlin R. 1994. « Functional grammar, pedagogical grammar, and com municative language
teaching », in T. Odlin (dir.), Perspectives on Pedagogical Grammar, Cambridge, Cambridge
University Press : 140-178.
Travis L. 1984. Parameters and Effects of Word Order Variation. Thèse de doctorat. MIT.
Turner M. 1993. « An image-schematic constraint on metaphor », in R. A. Geiger et Β. Rudaka-
Ostyn (dir.), Conceptualizations and Mental Processing in Language, Berlin, Mouton de Gruyter :
291-306.
Uriagereka J. 1999. « Review of Noam Chomsky. The Minimalist Program ». Lingua, 107 : 267-273.
Valette M. 2003. « Énonciation et cognition : deux termes in absentia pour des notions
omniprésentes dans l’oeuvre de Guillaume ». Le Français moderne, LXXI, 1 : 6-25.
160

Vandeloise C. 1990. « Representation, prototypes, and centrality », in S. L. Tsohatzidis (dir.),


Meanings and Prototypes. Studies on linguistic categorization, Oxford, Routledge : 403437.
— 1993. « Méthodologie et analyses de la préposition dans ». Lexique, 11 : 1540.
— 1995. « De la matière à l’espace : la préposition dans ». Cahiers de grammaire, 20 : 123-145.
Vergne J. 2003. « Une méthode pour l’analyse descendante et calculatoire de corpus
multilingues : application au calcul des relations sujetverbe ». Actes TALN, Nancy.
Véronis J., Khouri L. 1995. « Étiquetage grammatical multilingue : le projet Multext ». TAL, 36, 12 :
233248.
Wang Y. 1995. « Tang shi fangweici shiyong qingkuang kaocha ». Pékin, Shangwu yinshuguan, Lu
Shuxiang xiansheng jiushi huadan jinian wen ji : 207-213.
Watanabe A. 1994. « The role oftriggers in the Extended Split Infl hypothesis : unlearnable
parameter settings ». Studia Linguistica, 48, 2 : 156-178.
Weaver W. 1955 [1949], « Translation », in W. N. Locke et D. Booth (dir.), Machine translation of
languages : fourteen essays, New York, Wiley and Sons : 15-23.
Weinstein E. 1964. « Affections of speech with lesions of the non-dominant hemisphere ».
Research Publications of the Association for research in nervous and mental disease, 42 : 220-228.
Weizenbaum J. 1966. « Eliza, a computer program for the study of natural language
communication between man and machine ». CACM, 9 : 26-45.
Wells R. 1951. « Predicting slips of the tongue ». The Tale Scientific Magazine, XXVI, 3 : 9-30.
Williams S. E., Canter G. J. 1987. « Action-naming performance in four syndromes of aphasia ».
Brain and Language, 32 : 124-136.
Zingeser L. B., Berndt R. 1990. « Retrieval of nouns and verbs in agrammatism and anomia ». Brain
and Language, 39 : 14-32.
Zock M., Sabah G. 2002. « La génération automatique de textes », in M. Fayol (dir.), Production du
langage (Traité des sciences cognitives), Paris, Hermès : 263-285.
161

Glossaire

1 Absolutif : dans les langues dites ergatives, l’absolutif est la marque de l’actant unique
d’un procès (même s’il contrôle celui-ci) et du Patient quand il se présente dans une
proposition en présence d’un actant Agent.
2 Actant : expression linguistique référant à un participant à un état, un événement ou une
action.
3 Adjacente : relation linéaire se vérifiant dans une séquence entre deux termes qui ne sont
pas séparés par un troisième terme.
4 Adposition : constituant rattachant un syntagme nominal postposé (préposition) ou
préposé (postposition) à une unité régissante.
5 Affixe : morphème lié qui est attaché à un radical ou à une racine pour former un mot
complexe.
6 Agentivité, agentif : propriété de la représentation d’un actant (l’Agent) conçue comme
contrôlant un procès et qui spécifie ce procès comme une action ou une activité.
7 Agrammaticalité : propriété d’une représentation syntaxique qui n’est pas générée par les
opérations grammaticales disponibles dans une langue particulière et est donc exclue par
la grammaire de cette langue.
8 Agrammatisme : perturbation, chez certains aphasiques, de la production du langage se
traduisant par la simplification des marqueurs morphosyntaxiques de la langue et
conduisant les patients à recourir à un « style télégraphique ».
9 Aktionsart : propriété du type de procès dénoté par une expression predicative, en
particulier un verbe, relativement à son déroulement temporel (caractère statique ou
dynamique, momentané ou duratif, transitionnel, résultatif, etc.).
10 Aléthique : type de modalité d’une proposition en termes de vérité (grec aletheia) :
possiblement, nécessairement, impossiblement ou non nécessairement vrai.
11 Allomorphie : alternance dans les différentes réalisations que peut avoir un morphème
donné dans des contextes différents.
12 Amorçage : technique expérimentale utilisée en psycholinguistique, qui consiste à
présenter successivement au sujet deux éléments de langue et à lui demander de prendre
une décision lexicale sur le second (par exemple : est-ce un mot du français ou non ?).
162

L’hypothèse est que le temps requis pour cette décision sur le second élément est
déterminé par la nature du premier élément et par le rapport – de forme ou de sens –
existant entre les deux : le premier sert donc d’« amorce ».
13 Analyse componentielle : traitement du sens lexical dans lequel le signifié de chaque unité
est distingué de celui des autres par les traits sémantiques qui lui sont associés et qui
constituent autant d’éléments de la signification.
14 Anaphore : un élément de la langue, employé dans un discours, est dit anaphorique
lorsqu’il renvoie à un autre élément du même discours, sans lequel il n’aurait pas
d’interprétation. (exemples : Pierre sera heureux si Marie le reçoit. Je t’ai donné mon livre,
donne-moi le tien).
15 Anomie : également appelé « manque du mot », l’anomie, fréquente chez les aphasiques
mais également observable chez le sujet normal, réside en une difficulté, durable ou
épisodique, d’accès au lexique.
16 Apraxie : difficulté de planification et d’exécution des gestes en l’absence de
perturbations des mécanismes qui président à la motricité élémentaire.
17 Argument : expression nominale ou propositionnelle entretenant avec un verbe (ou un
nom ou une préposition) une relation sémantique. La présence, explicite ou non, des
arguments sélectionnés par un prédicat verbal est requise pour que la proposition où
figure ce prédicat soit bien formée. Dans une relation prédicat-argument, le prédicat peut
être assimilé à une fonction et l’argument à un objet saturant une variable de cette
fonction.
18 Auxilliation : pour un verbe, perte de valeur prédicative et réduction au statut d’auxiliaire
(type de grammaticalisation).
19 Causativité, causatif : propriété d’une expression prédicative, en particulier un verbe ou
syntagme verbal, caractérisée par le fait que l’un des participants au procès (le causateur)
fait subir un changement à un autre participant (le patient), éventuellement dans sa
relation avec un tiers (destinataire, locatif, etc.).
20 Cible : dans l’expression d’une relation spatiale entre deux objets, l’objet (entité) à
localiser par rapport à l’autre objet est appelé « cible » ou encore « trajecteur » :
exemple : le mot « livre » dans la phrase le livre est sur la table. « Cible » correspond au
terme anglais « trajector ». Voir aussi « site », et « relatum ».
21 Cinématique : étude du mouvement.
22 Classeflexionnelle : classe d’unités lexicales dont les membres présentent la même
morphologie flexionnelle.
23 Compétence : dans la perspective de la grammaire générative, la compétence d’un sujet
parlant une langue est l’ensemble des règles qu’il maîtrise du fait même qu’il est locuteur
de cette langue : la possibilité de construire et de reconnaître une infinité de phrases
grammaticales, de les interpréter, de déceler les ambiguïtés, d’identifier les phrases
synonymes, etc. La « compétence » se distingue la « performance ».
24 Complémenteur : mot grammatical qui marque le statut subordonné d’une proposition
complément (que est un complémenteur).
25 Compositionnalité (Principe de-) : les sens des mots étant représentés par des symboles
élémentaires, on combine ceux-ci entre eux afin de représenter le sens des éléments
(groupes nominaux, groupes verbaux, etc.) dans lesquels ils interviennent. Globalement,
163

le sens de la phrase entière est calculé de la même façon, par combinaison des
représentations de ses composants (il faut noter que ce mécanisme est quelque peu
restrictif et ne permet pas de rendre compte de toutes les finesses de l’utilisation du
langage...).
26 Compositionnel (processus) : processus de construction du sens d’une forme composée
dans lequel le sens des unités qui la composent est préservé et reconnaissable.
27 Configuration d’assignation casuelle : dans le modèle Principes et Paramètres de Chomsky,
tout groupe nominal doit être marqué comme portant l’un des Cas abstraits mis à
disposition par la grammaire. L’assignation n’est possible que si la catégorie qui assigne le
Cas et l’expression nominale qui le reçoit figurent l’une par rapport à l’autre dans une
configuration structurale déterminée. Dans les premiers états de la théorie, deux
relations structurales autorisaient l’assignation casuelle : la relation de gouvernement et
la relation spécificateur-tête. Chomsky a montré par la suite que l’assignation des Cas
structuraux - le nominatif et l’accusatif en particulier - mettait toujours en jeu une
configuration spécificateur-tête.
28 Contrefactuelle (-Analogie) : on appelle « contrefactuelle » une construction qui donne
pour vraie une proposition qui, dans le monde réel, est admise comme fausse (exemple : si
Pierre avait réussi laisse entendre que Pierre n’a pas réussi, tout en évoquant la réussite de
Pierre dans un monde contrefactuel). Les constructions de ce type permettent à certains
raisonnements et à certaines analogies d’opérer (exemple : si jetais toi, je ne me marierais
pas).
29 Constructiviste : nom donné au courant qui, dans les sciences cognitives, se démarque du
paradigme cognitiviste classique. Ce courant cherche à expliquer les phénomènes
observés comme résultant de constructions dynamiques faisant émerger des formes
signifiantes.
30 Co-texte : également appelé « contexte linguistique », le co-texte se définit comme
l’ensemble des segments linguistiques qui, dans un texte, environnent une expression
donnée, c’est-à-dire qui précèdent ou suivent cette expression.
31 Deixis nominale : propriété d’un syntagme nominal qui pointe sur un participant à la
situation d’énonciation (exemple : veuillez me changer ce billet/).
32 Deixis temporelle : propriété d’une expression adverbiale (exemple : maintenant, la semaine
dernière) ou d’un morphème grammatical (exemple : je vais revenir) référant à un
intervalle de temps repéré par rapport au moment de l’énonciation.
33 Déontique : type de modalité d’une proposition en termes de contrainte extérieure :
permis, obligatoire, interdit, dénué d’obligation.
34 Dérivationnel : 1. morphologie, se dit d’un affixe qui permet la dérivation dans le lexique
d’un mot à partir d’un autre ;
2. en syntaxe, désigne une théorie de la grammaire dans laquelle à un énoncé donné sont
associées plusieurs représentations syntaxiques reliées par les règles de la grammaire ;
« dérivationnel » s’oppose à « représentationnel ».
35 Dérivations : 1. des opérations qui, étape par étape, modifient la forme ou la structure
d’un objet syntaxique ou morphologique ;
2. dans une théorie dérivationnelle de la syntaxe, ensemble des opérations ordonnées qui
permettent de construire une structure superficielle à partir d’une structure profonde ;
3. dans le programme minimaliste de Chomsky, ensemble des opérations qui font
164

correspondre à la numération initiale les deux représentations d’interface, la Forme


Logique et la Forme Phonétique.
36 Diachronie : la diachronie est l’étude des états de développement d’une langue au cours de
son histoire ; depuis Saussure, elle est classiquement opposée à l’étude de la langue en
« synchronie », qui se centre au contraire sur un état donné de la langue à un moment
particulier de son histoire.
37 Écholalie : répétition automatique par un sujet des termes prononcés devant lui avec,
souvent, reproduction de l’intonation même qui les accompagne.
38 Enactivisme : le terme « enaction », proposé par Francisco Varela, renvoie à un courant
récent en sciences cognitives inspiré notamment par la phénoménologie, qui vise à faire
prédominer le concept d’« action » sur celui de « représentation ».
39 Énonciation : l’énonciation se définit comme le processus de production d’un énoncé par
un sujet énonciateur dans une situation donnée. Ce processus résulte de la mise en œuvre
d’un certain nombre d’opérations linguistiques.
40 Enregistrement unitaire : méthode qui, par l’implantation de micro-électrodes, permet
d’enregistrer l’activité d’une cellule cérébrale ou d’un neurone.
41 Ergatif : : dans les langues dites ergatives, le cas ergatif est la marque de l’actant Agent
quand il se présente dans une proposition en présence d’un actant Patient.
42 Exérèse : ablation d’une partie du cortex cérébral.
43 Explétif : élément sémantiquement vide, simple tenant lieu nécessaire pour marquer
l’existence d’une position syntaxique dans une structure (le il impersonnel du français est
un explétif).
44 Flexion : ensemble des variations de forme que subit une unité lexicale donnée en
fonction de son rôle grammatical dans les énoncés où elle apparaît.
45 Flexionnel : en morphologie, se dit d’un affixe qui définit la flexion du mot auquel il est
attaché ; contrairement aux affixes dérivationnels, les affixes flexionnels déterminent des
variations dans la forme des mots, mais ne créent pas de mots nouveaux.
46 Forme Logique : niveau syntaxique structuré où sont représentées les relations sémantico-
logiques entre les éléments d’une phrase, telles que la portée des quantificateurs, et qui
définit l’interface entre la faculté de langage d’une part, le système conceptuel et d’autres
capacités cognitives d’autre part.
47 Grammaire bidirectionnelle : grammaire qui peut être utilisée aussi bien par des processus
d’analyse (compréhension) que par des processus de génération (production).
48 Grammaire d’arbres adjoints : grammaire qui opère sur des structures d’arbres. Les deux
opérations de base sont la substitution (attacher sous certaines conditions un sous-arbre
à une feuille d’un autre arbre) et la jointure (introduction sous certaines conditions d’un
arbre auxiliaire à l’intérieur d’un autre arbre). Cette dernière opération rend la
grammaire plus puissante qu’une grammaire non contextuelle.
49 Grammaire d’extraposition : grammaire qui permet, dans les règles, des références à des
chaînes non spécifiées de symboles (représentant une partie de la phrase à laquelle on ne
s’intéresse pas), rendant ainsi plus facile la description des extrapositions gauches
(déplacements de constituants). Voir aussi grammaire discontinue.
50 Grammaire discontinue : les grammaires discontinues sont des généralisations des
grammaires d’extraposition puisqu’elles permettent aussi bien l’extraposition droite que
165

l’extraposition gauche et n’imposent aucun ordre sur leur récriture. Une règle de ces
grammaires représente un ensemble (qui peut être infini) de règles usuelles ; elle permet
d’indiquer les sous-chaînes qui peuvent être ignorées lors de l’application de la règle et
éventuellement réordonnées et analysées ensuite par d’autres règles. Cela permet de se
concentrer, lors de l’écriture d’une règle, sur les seuls constituants pertinents, en
négligeant les sous-chaînes intermédiaires non spécifiées.
51 Grammaire d’unification : le principe de base de cette grammaire est d’utiliser le même
formalisme pour représenter les éléments du dictionnaire, les règles de grammaire et les
représentations des phrases. Un constituant est décrit par un ensemble de couples :
{(attribut = valeur)} où chaque couple est considéré comme une description partielle de ce
constituant, indépendante des autres. L’ordre de ces couples n’est pas pertinent. Les
mécanismes d’analyse consistent alors à « unifier » – quand c’est possible – ces
descriptions (ajouter un couple à une description partielle, ou généraliser les valeurs d’un
même attribut). Voir unification.
52 Grammaire formelle : mécanisme pleinement explicite qui spécifie, à partir d’un ensemble
donné d’éléments (le vocabulaire), l’ensemble des suites qui appartiennent au langage
défini par cette grammaire. Les premières grammaires génératives étaient formelles en ce
sens, puisqu’il s’agissait de construire des systèmes formels générant des langages aussi
proches que possible des langues naturelles. Par la suite, « formel » en est venu à signifier
simplement « explicite ».
53 Grammaire générative : 1. procédé de calcul fondé sur des règles (règles de réécriture ou
transformations), permettant de générer et d’énumérer toutes les phrases d’une langue
(et seulement elles) conçues formellement comme des séquences d’unités.
2. théorie grammaticale qui se donne pour objet la construction de grammaires des
langues particulières au sens de 1.
54 Grammaire lexicale fonctionnelle : grammaire d’unification qui utilise la notion
d’équations simultanées permettant d’interpréter sémantiquement une structure
construite par une grammaire non contextuelle. Cette théorie vise à modéliser la
connaissance syntaxique nécessaire pour préciser les relations entre les aspects
sémantiques prédicatifs importants dans le sens d’une phrase et les choix des mots et des
structures des phrases destinés à exprimer ces relations.
55 Grammaire logique : alors que dans les théories classiques les symboles utilisés dans les
règles de récriture sont de simples identificateurs, dans les grammaires logiques, ces
symboles peuvent être également des variables ou des prédicats (faisant à leur tour
intervenir des constantes, des variables ou d’autres prédicats). L’application d’une règle
de récriture entraîne alors des opérations d’unification, afin qu’une variable qui apparaît
dans une règle ait la même valeur dans toute la règle.
Ce mécanisme permet de spécifier des conditions qui vont restreindre les possibilités
d’application d’une règle en explicitant des contraintes sur la nature des variables qui
apparaissent dans la règle. On peut ainsi tenir compte du contexte d’application des
règles de la grammaire.
56 Grammaire sémantique : les catégories non terminales de ce type de grammaire sont des
classes sémantiques, définies par le concepteur à partir du domaine à traiter. Le
traitement d’une phrase consiste alors à vérifier des correspondances sémantiques avec
la grammaire sans trop se préoccuper de la syntaxe ; celle-ci reste implicite et correspond
simplement à l’ordre dans lequel peuvent apparaître les diverses catégories sémantiques.
166

Il s’agit plus d’une façon pragmatique de construire des programmes efficaces que d’une
théorie linguistique véritable.
57 Grammaire syntagmatique généralisée : un aspect important des grammaires
syntagmatiques généralisées est la considération de règles sémantiques en parallèle avec
les règles syntaxiques. Elles ont le grand intérêt de remettre en cause les rôles respectifs
de la syntaxe et de la sémantique et de se diriger vers une théorie formelle intégrée.
58 Grammaire systémique : une grammaire systémique est centrée sur l’organisation
fonctionnelle du langage et les liens qui existent entre la forme d’un texte d’une part et le
contexte (ou les situations) dans lesquelles ce texte peut apparaître, d’autre part. Il ne
s’agit donc pas d’une grammaire générative mais d’une grammaire descriptive : elle
caractérise les phrases par des ensembles de traits (représentant les choix qu’un locuteur
effectue parmi les options qui s’offrent à lui au moment de parler), traits qui peuvent
ensuite être utilisés par d’autres processus.
Là, réside un des aspects les plus intéressants de ces grammaires pour l’intelligence
artificielle : le passage de traits d’une procédure à une autre - procédé informatique très
simple à réaliser - permet de tenir compte d’aspects contextuels et de prendre des
décisions fondées sur plusieurs processus qui interagissent tout en conservant une
certaine modularité.
59 Grammaire transformationnelle : extension du modèle initial de Chomsky qui organise les
connaissances syntaxiques en trois volets : 1. une grammaire permettant d’engendrer un
ensemble de structures abstraites (structures profondes) qui correspondent à des phrases
noyaux (phrases simples, déclaratives à la forme active).
2. un ensemble de règles de transformations, agissant sur les arbres de dérivation et
permettant de réordonner les chaînes terminales, d’y ajouter ou d’en supprimer certains
éléments. On engendre ainsi toutes les formes possibles de phrases (structure de surface).
3. des règles morpho-phonémiques permettent ensuite de construire, à partir de ces
chaînes terminales, la suite de phonèmes ou de caractères correspondant à la phrase
(prononcée ou écrite).
60 Grammaticalisation : type de changement linguistique attesté dans de très nombreuses
langues, par lequel des mots du lexique en viennent à fonctionner comme de purs outils
grammaticaux : ainsi, en français moderne, les termes lexicaux pas, mie et goutte n’ont
plus leur sens plein originel lorsqu’ils forment avec ne l’expression de la négation. On
nomme aussi « grammaticalisation » l’approche linguistique par laquelle on étudie ce
phénomène.
61 Homéomorphe : qui a une structure fortement similaire (sans que l’on puisse être assuré
d’un strict isomorphisme).
62 Iconicité chronologique : propriété d’une unité transphrastique (paragraphe, tour de
parole, etc.) dont l’enchaînement des propositions ou phrases élémentaires reflète
directement la succession des événements (exemple : Je suis venu, j’ai vu, j’ai vaincu).
63 Implicationnel : universaux caractérisés par la reconnaissance d’une relation
d’implication entre deux types d’observation ; par exemple : toutes les langues qui
distinguent le duel du pluriel distinguent également le pluriel du singulier. La plupart de
ces universaux ne sont que des tendances universelles ; par exemple : quand dans une
langue L, le verbe est régulièrement introduit avant/après ses actants dans la
proposition, généralement dans le syntagme nominal, le nom est régulièrement introduit
avant/après ses membres.
167

64 Lexique : composant de la grammaire d’une langue qui regroupe les entrées lexicales de
tous les mots et morphèmes de cette langue, spécifiant l’appartenance catégorielle et les
propriétés de sous-catégorisation et de sélection de chacun. On conçoit de plus en plus le
lexique, non comme une liste non structurée des particularités et des idiosyncrasies d’une
langue, mais comme un réseau sophistiqué d’entrées partageant des spécifications de
traits.
65 Linguème : unités de structure linguistique concrétisées dans des énoncés particuliers qui
peuvent être hérités par réplication (W. Croît).
66 « Main invisible » (Processus de la-) : processus initialement conçu par Adam Smith pour
expliquer la régulation de phénomènes économiques : bien que les locuteurs n’en soient
pas conscients, leurs productions linguistiques respectent des principes statistiques dont
les universaux implicationnels sont une illustration.
67 Mapping : en mathématique, procédure par laquelle tout objet d’un premier ensemble est
systématiquement associé à un objet d’un deuxième ensemble.
68 Paradigme : ensemble des formes fléchies présentées par une classe d’items lexicaux -
déclinaison d’une classe de noms, conjugaison d’une classe de verbes. On range
habituellement ces formes en fonction des traits grammaticaux qu’elles réalisent.
69 Performance : dans la perspective de la grammaire générative, la performance désigne les
réalisations langagières effectives produites par les sujets parlants, sur la base de leur
compétence des règles de la langue.
70 Phonologie : étude des sons de la langue en tant que traits distinctifs permettant
d’opposer un mot à un autre (quelles que soient par ailleurs les différences de réalisations
phoniques non pertinentes).
71 Phonotactique : on parle de contrainte phonotactique pour désigner les relations
séquentielles que peuvent ou ne peuvent pas entretenir entre eux les phonèmes d’une
langue.
72 Postposition : Voir Adposition.
73 Pragmatique : l’aspect pragmatique du langage concerne les caractéristiques de son
utilisation dans des situations de communication. La pragmatique étudie tout ce qui, dans
le sens d’un énoncé, tient à la situation dans laquelle cet énoncé est employé, par-delà la
structure syntaxique et sémantique.
74 Prédication : opération par laquelle un prédicat est assemblé avec un ou des arguments
pour former une proposition atomique. Ce terme peut être employé en contexte
linguistique ou psycholinguistique.
75 Prédicats (Calcul des-) : le calcul des propositions permet des formes de raisonnement
calculant la véracité de propositions selon les seules propriétés des propositions
composantes d’être vraies ou fausses. Le calcul des prédicats inclut le calcul des
propositions, et comporte en plus les notions de prédicat, de quantificateur universel et
de quantificateur existentiel. L’intérêt principal du calcul des prédicats est qu’il permet
l’introduction de la notion de « variable ».
76 Productivité : dénote la propriété de certains schémas et processus de construction,
relevant le plus souvent de la morphologie dérivationnelle, auxquels la langue a recours
de façon récurrente pour former des mots ou des expressions nouvelles.
168

77 Pronom clitique : pronom personnel dont la propriété est de n’avoir aucune autonomie
accentuelle ou prosodique et de devoir occuper dans la phrase une position où il est
phonologiquement hé à un mot sur lequel il prend appui. Contrairement aux affixes, les
clitiques constituent des unités syntaxiques autonomes. Contrairement aux mots, ils
doivent former une unité phonologique avec un autre terme. On parle aussi de pronom
faible ou de pronom atone.
78 Pronom fort : pronom définissant une unité autonome du point de vue accentuel,
prosodique et syntaxique.
79 Pronom nul : élément pronominal qui a toutes les propriétés d’un pronom ordinaire,
pouvant éventuellement occuper la même position dans la structure, mais dépourvu de
réalisation phonétique.
80 Prototype (Théorie du –) : théorie développée par la psychologue Eleanor Rosch, selon
laquelle tous les éléments d’une classe ne sont pas représentatifs au même titre les uns
que les autres, de la dite classe ; le degré de représentativité est appelé « degré de
prototypicalité » : ainsi un moineau est un oiseau plus prototypique qu’une autruche par
exemple.
81 Quantificateur : 1. qui, en logique, désigne un opérateur (quantificateur universel,
quantificateur existentiel) ;
2. se dit en grammaire formelle d’un déterminant ou d’un pronom dont la signification
peut être représentée par une expression contenant un tel opérateur (aucun, quelque,
tous appartiennent à cette classe). Les expressions quantifiées désignent la réalité par une
opération de parcours des valeurs particulières dans le domaine notionnel défini par le
nom lexical.
82 Référence : acte intentionnel visant à renvoyer à une entité ou à un événement du monde
(réel ou fictif) par le biais d’une expression linguistique.
La référence est à distinguer de la « dénotation » (ou « référence virtuelle »), qui elle-
même doit être distinguée de la « signification ».
83 Répérentialité : propriété d’une expression linguistique qui dans un discours réfère à une
entité ou un procès repérables dans le monde actuel ou dans un monde virtuel.
84 Relatum : dans l’expression d’une relation spatiale entre deux objets, celui qui sert de
repère à la localisation est appelé « relatum », par exemple le mot « table » dans la phrase
le livre est sur la table. Cette terminologie est utilisée par Klein et Nüse (1997). Un terme
plus courant, qui correspond à l’anglais « landmark », est « site » (ou encore « repère »).
Cf. aussi « cible », « site ».
85 Replication : dans la théorie du changement linguistique de W. Croft c’est la production
d’un énoncé reproduisant une structure linguistique. Les variations accidentelles de la
structure, partagées par de nombreux locuteurs, peuvent induire un changement
structural.
86 Site : dans l’expression d’une relation spatiale entre deux objets, celui qui sert de repère à
la localisation est appelé « site », par exemple le mot « table » dans la phrase le livre est
sur la table. « Site » correspond au terme anglais « landmark ». Cf. aussi « cible »,
« relatum ».
87 Structure profonde : 1. dans le modèle Principes et Paramètres de Chomsky, c’est le niveau
de structure (D-structure) qui est une représentation pure des relations de dépendance
lexicale entre éléments, chaque argument occupant la position où il est thématiquement
169

interprété ;
2. Niveau éliminé dans le Programme Minimaliste où le point de départ des dérivations
n’est pas une structure, mais une collection d’items lexicaux et d’éléments fonctionnels,
la numération.
88 Structure superficielle : 1. dans le modèle Principes et Paramètres de Chomsky, c’est le
niveau de représentation (S-structure) résultant de l’application à la D-structure des
opérations de mouvement déplaçant les arguments nominaux et les expressions
interrogatives et relatives ; une structure superficielle n’est bien formée que si toutes les
expressions nominales ont reçu un Cas et si les affixes ont trouvé un support lexical ; la S-
structure est un objet abstrait puisqu’elle contient les traces laissées dans leur position
originelle par le mouvement des termes déplacés ; d’autres opérations sont nécessaires
pour dériver la représentation phonétique et la représentation de Forme Logique.
2. Dans le Programme Minimaliste, la S-structure perd toute pertinence puisque ce n’est
pas un niveau d’interface.
89 Supplétion : processus morphologique par lequel une racine en remplace une autre dans
la formation de la flexion d’un item lexical.
90 Tagmémique : variante du structuralisme linguistique américain (Kenneth Pike) inspirée
par la glossématique de L. Hjelmslev.
91 Tête flexionnelle : catégorie fonctionnelle dont le contenu, affixal ou non, réalise l’une des
dimensions flexionnelles de la langue, le temps, la personne, le nombre, le genre, etc.
92 Théorie modulaire : théorie dans laquelle le dispositif grammatical se compose de
plusieurs sous-systèmes autonomes avec leurs règles de fonctionnement, leurs principes
et leur vocabulaire notionnel propres, appelés modules.
93 Topicalité : propriété d’une expression linguistique référant à une entité à partir de
laquelle est représenté et exprimé le procès auquel réfère l’énoncé (exemple : ta voiture, tu
pourrais me la prêter une journée ?).
94 Topologique (Relation-) : relation géométrique invariante quand on déforme continûment
la figure, comme, par exemple, la propriété d’être à l’intérieur ou à l’extérieur d’une
courbe fermée dans le plan.
95 Traces (Théorie des-) : pour rendre compte de l’influence de la structure profonde sur la
prononciation dans certaines phrases, Chomsky propose une variante de sa théorie où les
deux composants (phonologique et sémantique) agissent uniquement sur la structure de
surface ; elle implique alors que celle-ci contient des traces (des marques qui ne seront
plus visibles dans l’énoncé) qui reflètent les informations pertinentes de la structure
profonde ainsi que des transformations.
96 Unification : l’unification, dans une grammaire utilisant des systèmes de traits
syntaxiques, est une procédure permettant de combiner deux catégories en une seule,
pourvu qu’elles ne contiennent pas d’informations contradictoires. On désigne sous
l’étiquette de grammaire d’unification les modèles grammaticaux qui, comme LFG, GPSG,
HPSG, ont recours à cette procédure.
97 Verbe lexical : forme verbale dotée de contenu et sélectionnant un ou plusieurs
arguments ; s’oppose à « auxiliaire ».
170

Index

A
acquisition (— du langage) : 3, 19, 21, 27, 33, 34, 42, 55, 61, 63, 71, 75, 105, 107-109, 122-124,
126, 155, 165, 171, 215, 221
activation : 21, 68, 127, 164, 167, 168, 174, 216
agrammatique, agrammatisme : 180, 181
algorithme génétique : 217
ambiguïté, désambiguïsation : 83, 166, 168, 212
amorçage : 21, 163, 164, 168, 169, 221
analyseur : 108, 199, 202, 207, 208
anaphore, anaphorique : 19, 95, 168, 192, 211
anomisme, anomique : 180, 181, 184
anticipation : 168, 174
aphasie, aphasique : 6, 21, 22, 171, 175, 176, 177, 179, 182-185, 187, 188, 190, 191
— croisée : 190
— de Wernicke : 179
approche interne : 14, 30
architecture
— en série : 13, 213
— fonctionnelle (de l’esprit) : 3, 20, 21, 35, 171, 172, 175, 178, 182
— neuronale : 3
— parallèle : 13, 109, 132
— séquentielle : 198
association : 47, 216
association libre : 160
automate (théorie des) : 8
171

C
cognitif (tournant —) : 6, 9
cognitivisme : 8, 10-12, 24, 197
communication homme-machine : 23, 195, 210, 221
compétence (—/performance) : 4, 9, 21, 33, 101, 103, 105, 108, 133, 158-160, 167, 200, 204,
221
compositionnalité, compositionnel : 18, 90-92, 201
compréhension : 3, 27, 28, 30, 43, 74, 106, 108, 121, 155-157, 165-167, 169, 172, 179, 180,
190-192, 198, 199, 202, 205, 207, 208, 212-214, 216, 217, 220
(— du langage) :6, 21, 172, 220
computation, computationnel : 7, 8, 13, 29-31, 48, 52, 54, 59, 60, 63, 67, 74
computo-représentationnel symbolique (paradigme —) : 8
concept, 3, 19, 28, 34, 46, 57, 65, 83, 86, 102, 118, 119, 121, 126, 127, 130, 156, 157, 171, 216,
219
conceptuelle (structure —) : 13, 75, 95, 148
configuration : 17-19, 21, 37, 44, 45, 57, 63, 77, 81, 82, 85, 92, 93, 96, 111, 163, 164
connexionnisme, connexionniste : 11, 14, 15, 98, 167, 168, 216, 220
construectviste : 10
contexte, contextuel : 23, 30, 102, 106, 121, 137, 138, 143, 148, 150, 155, 167, 168, 171, 172,
176, 180, 189, 192, 194, 196, 202, 203, 205, 208-212, 215
continuum, continu : 14, 83, 98, 180
corpus : 11, 23, 207, 208, 212
cybernétique : 7, 8, 10

D
diachronie, diachronique : 5, 11, 20, 41, 55, 63, 87, 102, 105, 132, 135, 136, 150, 151, 174
discours : 19, 22, 35, 77, 92, 93, 101, 104, 105, 108, 121, 123, 131, 156, 157, 159, 161, 165, 167,
169, 180, 183, 184, 191, 198, 210
dissociation : 22, 177-179, 181-184, 186, 189
— simple : 22, 181, 185, 186, 189
Double — : 22, 177-182, 186, 189
dynamique : 5, 11, 12, 55, 80, 92, 212

Ε
économie : 17, 36, 48, 55-60, 65, 66, 128
enactivisme, enactiviste : 10
énonciation (théorie de 1’—, des opérations énonciatives) : 6, 21, 78, 97, 115, 116, 166, 168
espaces mentaux : 19, 73, 75, 76, 92, 93, 95, 96
172

expérimentation : 14, 15, 20, 29, 97, 139, 155, 158, 211

F
figure (—/fond, « ground ») : 18, 74, 79
focalisation, focal : 22, 75, 106, 176,
fonctionnalisme, fonctionnaliste, néo-fonctionnalisme, néo-fonctionnaliste : 10, 12, 14, 19,
35, 48, 55, 71, 72, 97, 136
formel, formalisme, formaliste : 14, 29, 71, 98-104, 107, 108, 133, 136, 158, 204, 209, 211,
212

G
génération (— de textes) : 203, 209, 210
géométrie, géométrique : 11, 78, 82, 84, 85, 96, 98
Gestalt, gestaltiste : 18, 74, 79
grammaire
— bidirectionnelle : 209
— chomskienne : 8, 9, 13, 15
— cognitive : 10, 12, 18-20, 46, 61, 73-76, 78, 83, 85, 86, 88, 92, 96-98, 124, 133
— de cas : 202
— de construction : 14, 124
— d’unification : 9, 204, 209
— fonctionnelle : 204-206
— formelle : 2, 12, 19, 23, 27, 32, 135, 202-204
— générative : 8, 12, 32, 34, 73, 75, 89, 97, 101, 107, 175, 203
— lexicale fonctionnelle : 204, 205
— sémantique : 206
— universelle : 9, 17, 33, 34, 76, 129, 155, 205
— systémique : 203, 204, 209 théorie des — : 8, 200
grammaticalisation : 19, 87, 99, 107, 118-120, 136, 143

I
iconicité, iconique : 102, 130-132, 136
imagerie cérébrale, imagerie fonctionnelle cérébrale, neuro-imagerie : 124, 191, 193
inférence : 21, 23, 165, 168, 181, 191, 199
information (théorie de l’—) : 7, 23, 155, 197
inné, innéisme, innéiste, innéité : 15, 17, 34, 74, 107, 108, 122, 123, 155
intelligence : 23, 28, 195, 196, 211, 216, 217, 219, 220
173

— artificielle : 1, 6-8, 13, 14, 23, 24, 28, 157, 174, 195, 196, 198, 200, 202-205, 210, 213,
215-221
— distribuée : 24
interaction, interactionnisme, interactionniste, interactif : 14, 15, 20, 21, 95, 158, 168, 177,
218
invariants (interlangues) : 2, 5, 11

L
langage : 173
lexicale : 13, 18, 36, 50, 53-55, 67, 68, 75, 82-88, 90, 92, 116, 126, 127, 129, 131, 138, 167, 168,
204, 206
décision— : 162, 163
lexique : 11, 13, 21, 23, 36, 43, 53, 67, 86, 102, 105, 126, 127, 156, 167, 180, 192, 199, 200, 202,
204-206
linguistique interne : 30
localisation (— cérébrale), localisationnisme : 14, 16, 190
logique : 7, 30, 35, 39, 42, 47, 53, 56, 57, 89, 95
— intensionnelle : 201
— minimaliste : 52

M
mémoire
— à court terme : 156, 214
— à long terme : 21, 66, 105, 156, 157, 163, 166, 167, 214, 215
— de travail : 21, 113, 156, 157, 166, 168, 214, 215
— sémantique : 156
métaphore : 19, 86, 87, 95, 166, 190, 197, 211, 215
minimalisme, minimaliste, programme minimaliste : 12, 17, 18, 32, 39, 41, 46-48, 51, 53-56,
59-66, 68, 69
modalité, modal : 81, 94, 95, 114, 119, 124, 129, 160, 184, 210
modularité, modulaire, module, modularisme, modulariste : 5, 9, 13-15, 22, 29, 42, 60, 62,
109, 130, 157, 176-178, 180, 181, 186, 188, 203, 213, 214
morphologie, morphologique : 4, 13, 18, 32, 36, 37, 39-41, 43-45, 49-52, 61, 63-67, 69-71, 99,
117, 172, 181, 186, 192, 199
mots clefs : 199, 200
multi-agents : 24, 214, 220

Ν
naturaliste (approche —, thèse —) : 3, 11, 30, 31
174

neurolinguistique : 4, 15, 28, 30, 32, 67, 125


neuropsycholinguistique : 4, 12, 14, 171, 172, 176, 179, 186, 189, 192, 194

Ο
onomasiologie, onomasiologique : 2, 16
ontogénèse : 99, 105, 122
optimalité, optimal : 17, 47, 48, 52, 55, 60, 163

Ρ
palliative (stratégie —) : 23, 193
paramètre (principe et —), paramétrique : 17, 32, 35, 39, 41-43, 45, 46, 48, 55, 60, 63, 103
macro — : 43-45
micro — : 43, 45
pathologie du langage : 6, 21, 171-173, 186, 194
pensée : 2, 5, 7, 9, 12, 15, 16, 19, 28, 29, 76, 86, 117, 123, 156, 204, 212, 215, 216
performance : 4, 22, 101, 103, 108, 133, 159, 174, 175, 178, 180, 188, 193
phonétique : 4, 60, 68, 175
forme — : 47
représentation — : 9, 17, 47, 48
phonologie, phonologique : 18, 32, 35, 56, 68, 69, 100, 108, 109, 123, 132, 181-183, 186
phylogénèse, phylogénie : 99, 100, 105, 125, 128
polysémie, polysémique : 11, 18, 20, 83, 84, 86, 87, 90, 138, 148, 150, 168
— lexicale : 137
postulat de soustractivité : 177
postulat de transparence : 176, 178
pragmatique : 4, 6, 19, 23, 92, 97, 102, 106, 107, 123, 157, 158, 191, 203, 204, 206, 209, 210,
214
procès : 79, 116, 181
processus : 5, 20, 21, 28-31, 33, 34, 41, 42, 59, 61, 63, 65-69, 71, 80, 87, 90, 96, 99, 100, 102,
117, 119, 121, 127, 132, 136, 143, 156, 157, 159, 161-168, 172, 175, 187, 190, 192, 193,
196-200, 203, 205, 211-215, 219, 221
— computationnel : 29
production : 3, 105, 108, 121, 125-127, 156, 157, 165, 169, 172
— du langage : 21, 165, 205
profilage : 18, 75, 79, 80
protolangage, protogrammaire : 128, 131
prototype : 18, 20, 82-84, 86, 115, 138, 139, 144, 148-150
psycholinguistique : 4, 12, 20, 21, 28, 30, 97, 124, 155-161, 164-166, 169, 171-173, 175, 176,
194
175

R
raisonnement : 2, 5, 7, 58, 65, 76, 86, 87, 102, 118, 164, 195, 196, 198, 216-219, 221
relativité linguistique : 11
représentation : 8, 10, 22, 24, 29, 47, 51-57, 60, 65, 68-71, 75, 79, 82, 86, 90, 91, 94, 95, 114,
116-118, 125, 127, 155-157, 159, 163-169, 172, 178, 181, 183, 184, 186, 198, 201, 205, 211,
214-220
— cognitive : 75, 77, 132
— des connaissances : 196
— mentale : 17, 20, 21, 24, 31, 83, 116, 159, 166, 169, 174, 220
— schématique : 18, 90, 91
— sémantique : 9, 17, 47, 76, 180
réseau
— connexionniste : 117, 216, 217
— neuronal : 21, 125, 164, 172
ressemblance de famille : 84, 85

S
saillance, saillant : 79, 81
sémantique : 4, 6, 8, 11, 13, 14, 18, 19, 21-23, 32, 47, 51, 52, 57, 64, 71, 74-78, 80-89, 92, 96,
109, 114, 115, 122-124, 130, 132, 137, 138, 142-145, 148, 150, 156-158, 163, 164, 167-169, 175,
181, 200-202, 204-207, 209, 211, 221
— générative : 18
— interprétative : 18
statistique : 7, 102, 161, 208, 212
symbolisation, symbolique : 5, 8-10, 12, 14, 18, 23, 24, 29, 68, 71, 75, 129, 131, 133, 156, 197,
199, 207, 215-217, 220, 221
sub — : 10, 14
syntaxe : 4, 9, 11, 13, 17-19, 22, 23, 32, 35, 36, 38-41, 43-45, 48, 51, 54-60, 62-67, 69, 71, 75,
77, 88, 90, 92, 96, 100, 102, 103, 105, 106, 108, 109, 113, 117, 119, 122-124, 129, 131, 132, 150,
155, 156, 158, 162, 167, 168, 172, 181, 183, 186, 197, 199-209, 212, 214
système hybride : 24, 216

Τ
temps, temporel, temporalité : 5, 19, 21, 33, 35-38, 40, 42, 48, 50, 54, 79, 81, 87, 90, 95,
104-106, 114, 116, 119, 121, 122, 124, 141, 144, 145, 148-150, 162-164, 172, 198, 209, 214, 218
topologie, topologique : 18, 78, 80
traitement automatique des langues : 195, 196, 198, 199, 201, 207, 208, 210, 213, 215, 218,
221
176

typologie (des langues), typologique : 2, 11, 19, 20, 36, 39, 41, 55, 63, 99, 101, 109, 111, 117,
118, 120, 122, 131, 133, 135, 151

U
unification : 18, 31, 32, 90, 96, 133
universaux (— linguistiques,
— du langage) : 35, 102, 108

V
variabilité, variation : 2, 5, 12, 19, 22, 23, 35, 36, 38, 40-45, 61, 63, 64, 86, 111, 114, 120, 122,
125, 127, 128, 166, 181, 192, 218

Ζ
zone (— du langage) : 22, 189

S-ar putea să vă placă și