LINGUISTIQUE - Théories Article écrit par Catherine FUCHS
Prise de vue Malgré une tradition de réflexion sur le langage qui remonte à l'Antiquité, on a coutume de considérer que la linguistique ne s'est constituée comme discipline scientifique qu'au début du XXe siècle. On invoque souvent le nom de Ferdinand F erdinand de Saussure comme étant celui du « père fondateur » de la linguistique moderne. Jugement schématique, mais qui souligne la nouveauté radicale de l'enseignement que ce savant dispensait à Genève au tout début du XXe siècle et qui fut à la source de la constitution de la linguistique comme discipline autonome. Saussure a en effet été le premier à proposer une réflexion théorique générale sur le langage et sur les conditions de son étude, permettant ainsi l'instauration progressive d'une véritable démarche scientifique. À tel point que, jusque vers le milieu des années 1960, la linguistique structuraliste se présentera comme la « discipline pilote » des sciences humaines. Mais, dès la fin des années 1950, on assiste à l'émergence du courant des « grammaires formelles », qui se démarque de ces approches structuralistes et dont l'initiateur principal est Noam Chomsky avec sa « grammaire générative-transformationnelle ». Ce courant s'est ensuite diversifié, et a donné lieu à une série de modèles formels élaborés en vue d'applications informatiques. Parallèlement à cette prolifération théorique, très largement centrée sur la modélisation des faits de syntaxe, la linguistique a connu, à partir des années 1970, un élargissement notable de ses centres d'intérêt. Par-delà l'étude des formes de la langue, elle s'est en effet tournée vers la question du sens et de l'activité de langage par les locuteurs ainsi que vers des problématiques cognitives ; elle a par ailleurs élargi son champ d'investigation, par-delà la phrase, aux textes et aux discours. Cette extension progressive du champ d'étude a conduit à un foisonnement de théories et de concepts nouveaux.
I-Ferdinand de Saussure Les notions clés de la réflexion mise en place par Ferdinand de Saussure (1857-1913) sont les suivantes : l'objet de la linguistique est la langue (par opposition à la parole), cet objet peut être abordé en synchronie ou en diachronie, enfin il doit être étudié en tant que système de signes articulant chacun un signifiant et un signifié.
Langue et parole L'opposition langue/parole, qui a connu une grande fortune, vise à distinguer le langage comme fait social et le langage comme fait individuel. Assez mal définie sur le fond, cette opposition a donné lieu à diverses réinterprétations ultérieures : code objectif indépendant des utilisateurs/acte libre d'utilisation de ce code par les sujets, code universel/codes particuliers (ou « idiolectes »), aspect virtuel du langage (l'ensemble des unités et de leurs combinaisons possibles, ou règles de compétence)/actualisation effective (performance). L'important est de noter que Saussure subordonne l'étude de la parole à celle de la langue, qui est selon lui l'objet propre de la linguistique. De même, il privilégie l'étude de la langue en synchronie, qui prend pour objet l'équilibre du système à un moment donné de l'histoire. La perspective diachronique, qui s'attache à décrire les changements linguistiques, est reléguée au second plan : l'évolution ne n e serait que le passage d'un état de langue stable à un autre (c'est-à-dire une relation entre des coupes synchroniques opérées à des époques différentes).
Théorie du signe
Enfin, la pièce maîtresse de l'édifice saussurien est la théorie du signe. La langue est composée d'unités discrètes qui ne sont pas immédiatement perceptibles, mais qui doivent être identifiées par l'analyse, et qui définissent une combinatoire : ces unités, ce sont les signes, qui unissent chacun un signifié (concept) et un signifiant (image acoustique). La théorie du signe opère une rupture par rapport à la conception naïvement nominaliste qui identifie le langage à la pensée, le mot à la chose, et ne voit dans la langue qu'une nomenclature de termes renvoyant à des objets du monde. D'où la notion de « l'arbitraire du signe » : arbitrarité du lien entre le signifiant et le signifié, selon Saussure ; arbitrarité du lien entre le signe entier et la réalité qu'il désigne, pour d'autres auteurs. Enfin, Saussure insiste sur la primauté des relations entre éléments par rapport aux éléments eux-mêmes. Chaque élément n'est rien d'autre que ce que les autres ne sont pas : signifiants et signifiés se définissent par différence avec, respectivement, les autres signifiants et les autres signifiés de la langue ; quant aux signes, ils s'opposent entre eux au sein du système de la langue et ne reçoivent de « valeur » que négativement, c'est-à-dire à travers le réseau de relations d'oppositions dans lequel ils se trouvent pris. Une telle approche de la langue, où seuls comptent les rapports purs indépendamment des grandeurs mises en rapport (« la langue est une forme et non pas une substance »), est à la source de ce que l'on appellera par la suite le structuralisme linguistique.
II-Les structuralistes Le structuralisme linguistique ne constitue pas une école unique se référant à une doctrine précise ; il s'agit bien plutôt d'un ensemble de courants, voire d'individus, qui ont développé des théories diverses mais qui se fondent sur certains principes généraux communs. Le nom même de « structuralisme » indique que la langue est conçue comme une structure, c'est-à-dire comme un ensemble d'unités structurées par des réseaux de relations : la parenté avec l'approche saussurienne est claire (bien que le terme « structure » soit absent chez Saussure, qui ne parle que de « système »). D'où une commune attention portée à la forme et un même effort pour décrire la langue comme une pure combinatoire d'éléments. Entre les années 1920 et les années 1960, le structuralisme linguistique se développe de façon indépendante en Europe d'une part, aux États-Unis d'autre part. L'Europe voit se constituer, à Prague, le cercle linguistique autour de Nikolaï Troubetzkoy (1890-1938) et de Roman Jakobson (1896-1982), à Copenhague, la « glossématique » de Louis Hjelmslev (1899-1965), et à Paris, le « fonctionnalisme » d'André Martinet (1908-1999), ainsi que la « psychomécanique » de Gustave Guillaume (1889-1960). Aux États-Unis, outre des travaux d'inspiration ethnolinguistique et comparatifs, avec Edward Sapir (1884-1939), Benjamin Whorf (1897-1941) et Joseph Greenberg, (1915-2001), le structuralisme est marqué par le « distributionnalisme » de Leonard Bloomfield (1887-1948), Charles Hockett (1916-2000) et Zellig Harris (1909-1992).
Louis Hjelmslev et la glossématique Assez mal connue, car très formelle et difficile d'accès, la glossématique de Hjelmslev est une théorie générale qui prolonge la réflexion saussurienne en la complexifiant : elle propose une organisation d'ensemble où le contenu et l'expression ont chacun une forme et une substance ; l'unité d'analyse de la forme du contenu est le plérème, celle de la forme de l'expression, le cénème.
André Martinet et le fonctionnalisme Connu pour sa contribution au domaine de la phonologie diachronique ainsi que pour son enseignement et ses travaux en linguistique générale, Martinet a développé le courant fonctionnaliste, où l'accent est mis sur la fonction de communication du langage. Ce courant analyse la langue en termes de choix opérés par le locuteur : choix entre les différents phonèmes (unités distinctives dites « de deuxième articulation ») au plan phonologique, et choix entre les différents monèmes (unités significatives dites « de première articulation ») au plan syntaxique.
Gustave Guillaume et la psychomécanique L'attention portée au caractère dynamique de la langue est également caractéristique de la démarche de Guillaume, fondateur du courant de la psychomécanique (ou psychosystématique) du langage, qui s'attache à décrire les opérations de pensée constitutives des signifiés de la langue. L'originalité de cette approche consiste à articuler le langage et la pensée : le langage permet à la pensée de se penser elle-même. En effet, dans le flux continu de la pensée, la langue découpe certains cinétismes (comme le mouvement de l'universel au particulier) ; et sur ces cinétismes, le discours opère des coupes en un point donné, conférant ainsi un sens particulier au signe représentatif de chaque cinétisme. Dans l'activité de langage, tout se joue donc lors du passage de la langue au discours, c'est-à-dire d'un mouvement de pensée continu à une expression nécessairement discontinue. Après la mort de Guillaume (personnalité inclassable, restée en marge des courants institutionnalisés), la psychomécanique est tombée dans un relatif oubli pendant plusieurs décennies. Elle semble à nouveau susciter un regain d'intérêt, en particulier dans le sillage des recherches cognitives.
Le distributionnalisme À l'inverse du structuralisme européen, le structuralisme américain s'est développé sans référence à Saussure. Il a d'abord pris appui sur les travaux de linguistique descriptive et comparative des grands pionniers que furent Edward Sapir et Benjamin Lee Whorf. Ethnolinguistes spécialistes des langues amérindiennes, ces deux auteurs sont connus pour l'hypothèse qui porte leur nom, selon laquelle chaque langue imposerait à ses locuteurs une sorte de prisme culturel et social sur la réalité. À la suite de Sapir, Joseph Greenberg a travaillé à la typologie des langues, cherchant à dégager des critères objectifs de classement fondés en particulier sur la phonologie et le lexique ; il s'est également intéressé à la question des universaux du langage. C'est aussi dans le sillage de Sapir que s'est développé, sous l'impulsion de Leonard Bloomfield puis de Zellig Harris et de Charles Hockett, le courant distributionnaliste, caractéristique de la linguistique structurale américaine. Ce courant se distingue par un souci de travailler sur les formes de la langue à l'exclusion de toute considération de sens (souci parfois poussé jusqu'à un « antimentalisme » absolu), et par la recherche de traitements formels mathématisables, notamment en matière de syntaxe. La méthodologie retenue consiste à ne travailler que sur des corpus d'énoncés effectivement produits par des locuteurs, et l'analyse de l'énoncé est fondée sur la notion de distribution (la distribution d'un élément étant la somme des éléments ou des catégories qui l'environnent dans le contexte) ; chaque énoncé est décomposé en une série de constituants immédiats hiérarchisés par emboîtement les uns dans les autres. Au sein de ce courant, Harris occupe une place particulière, dans la mesure où il enrichit le strict distributionnalisme d'une théorie des transformations entre énoncés, et où il construit une théorie algébrique extrêmement élaborée de la langue anglaise. Dans cette même perspective de description cumulative des phénomènes syntaxiques fondée sur la méthode des distributions et des transformations, Maurice Gross (1934-2001) conduit, au sein d'une équipe parisienne, une étude systématique des constructions syntaxiques du français, consignées dans un vaste « lexique-grammaire » qui indique de façon exhaustive pour chaque élément (verbe, nom, adjectif, ...) l'ensemble de ses possibilités d'emploi ; parallèlement, il réalise divers dictionnaires des termes composés, locutions et expressions figées du français. Comme Harris, Gross se situe à la frontière du distributionnalisme et des grammaires formelles.
III-Les grammaires formelles C'est en prenant le contre-pied de la démarche structuraliste que s'est constitué, vers la fin des années 1950, le courant le plus connu des grammaires formelles, la grammaire générative transformationnelle de l'américain Noam Chomsky.
La grammaire chomskienne
Le terme « grammaire » désigne une théorie des structures linguistiques dont la pièce maîtresse est la syntaxe, distincte d'une part de la morphologie et de la phonologie, et d'autre part de la sémantique. Le but de la grammaire est de rendre compte de toutes les phrases grammaticales (c'est-à-dire syntaxiquement bien formées) et d'elles seules. Pour ce faire, la grammaire a la forme d'un mécanisme génératif : à l'aide d'un axiome de départ et d'un système de règles, la grammaire doit engendrer toutes les phrases possibles et imaginables, comme le ferait un système formel ; le nombre de ces phrases étant infini, l'objet d'étude ne peut pas être un corpus observable (nécessairement fini). Ce changement d'objet s'accompagne d'un changement de méthode ; il ne s'agit plus de décrire des données attestées, mais de raisonner sur des données possibles, accessibles par introspection : le linguiste travaille à partir de son intuition de sujet parlant, il cherche à établir les règles de compétence intériorisées par tous les locuteurs de la langue, laissant au psychologue le soin de rendre compte des processus par lesquels ces règles du système sont mises en œuvre au niveau des performances effectives observables. Le modèle génératif-transformationnel a connu de nombreuses versions successives. En 1957, Chomsky jette les bases formelles de son entreprise, en caractérisant la notion de transformation : la grammaire construit des structures de base, dites « syntagmatiques », qu'elle convertit ensuite en structures dérivées à l'aide de règles de transformation ; c'est ainsi, par exemple, que sont dérivées les structures des phrases négatives, interrogatives, passives ou complexes, à partir des structures des phrases simples, actives et affirmatives. L'intérêt de la grammaire transformationnelle réside en ce qu'elle permet de rendre compte des relations entre les structures de phrases (comme par exemple l'actif et le passif), ainsi que de l'ambiguïté de certaines structures. Noam Chomsky
Noam Chomsky en 1987, dans son bureau du M.I.T. à l'université de Boston, Massachusetts.(U. Andersen/ Getty)
En 1965, Chomsky propose une version dite « standard » de sa théorie, où se dessine la place possible de deux composants interprétatifs articulés sur la syntaxe : la sémantique venant interpréter les structures syntaxiques « profondes », et la phonologie venant interpréter les structures syntaxiques « de surface ». L'autonomie revendiquée de la syntaxe achoppe sur la question de l'identité ou de la non-identité de sens des phrases reliées par des transformations. C'est précisément sur cette question que s'affrontent, vers la fin des années 1960, les tenants du modèle chomskien, attachés au caractère « interprétatif » de la sémantique, et un certain nombre de dissidents revendiquant une sémantique dite « générative » : de cette scission naîtra le courant connu par la suite sous le nom de « grammaires cognitives ». De son côté, la phonologie générative connaît des développements importants : dépassant les limites de la phonologie structuraliste, elle cherche à rendre compte de tous les faits phoniques, y compris l'intonation, l'accent, ou les particularités phonétiques.
Vers une grammaire universelle ? La théorie chomskienne, devenue ensuite « théorie étendue », puis « théorie des traces », connaîtra au début des années 1980 une version nouvelle dite « théorie du gouvernement et du liage », de plus en plus technique et formelle. L'entreprise poursuit depuis lors un objectif extrêmement ambitieux, connu sous le nom de « programme minimaliste » : il s'agit de proposer une théorie des propriétés universelles des langues (ou principes), dont chaque langue constituerait une instanciation particulière (certains paramètres caractérisant l'espace des variations possibles). Cette grammaire universelle se présente comme une théorie générale de la faculté de langage, visant entre autres à rendre compte de l'acquisition de la langue par l'enfant. Le modèle chomskien s'inscrit dans le courant dit « modulariste », qui voit dans le langage un module autonome par rapport à d'autres phénomènes (comme par exemple la perception visuelle) et qui aborde la langue comme une réalité non homogène constituée d'une série de sous-modules indépendants décrits par autant de « théories locales ». En fait, le lien revendiqué par Chomsky entre la théorie linguistique, ses prolongements cognitifs et le parti pris philosophique de l'innéisme, ne va pas de soi, et les positions « orthodoxes » sur cette question ont été contestées au sein même du chomskisme. Par ailleurs, force est de constater que, paradoxalement, la
sophistication de l'appareillage conceptuel et son hyper-technicité ne vont pas de pair avec une formalisation opératoire susceptible de donner lieu à des implémentations informatiques en vue, par exemple, d'applications au traitement automatique des langues.
Les nouvelles syntaxes C'est précisément pour cette dernière raison que d'autres types de grammaires formelles se sont développées outre-Atlantique au tournant des années 1970-1980 : la plupart d'entre elles ont pris naissance dans la mouvance de la grammaire générative chomskienne, mais ne l'ont pas suivie dans ses développements récents, cherchant avant tout à rester opératoires et calculables, afin de pouvoir être mises en œuvre dans des traitements automatiques de la langue. Elles se caractérisent par une grande rigueur formelle, qui en rend l'accès difficile aux non-spécialistes. Refusant de recourir à des transformations, ces grammaires enrichissent l'appareil formel des grammaires de constituants qui construisent les structures syntagmatiques. Ces nouveaux modèles sont connus sous le nom de « grammaires d'unification », car ils recourent au mécanisme dit de « l'unification », (repris de techniques informatiques) : après avoir vérifié la compatibilité des « traits » associés à deux structures, l'unification produit une structure résultante livrant toute les informations contenues dans les deux structures de départ. Ces modèles s'accordent tous sur le principe d'une composante syntaxique distincte de la sémantique (quitte à faire interagir ces deux modules dans un traitement effectif) et attribuent une place importante au lexique au sein de la composante syntaxique. Sont particulièrement représentatives de ces nouveaux modèles la grammaire fonctionnelle lexicale (L.F.G.) de Joan Bresnan, la grammaire syntagmatique généralisée (G.P.S.G.) de Gerald Gazdar, la grammaire syntagmatique guidée par les têtes (H.P.S.G.) de Carl Pollard et Ivan Sag et la grammaire d'arbres adjoints (T.A.G.) de Aravind Joshi. Dans le modèle L.F.G. de Bresnan, deux niveaux de structures syntaxiques sont distingués : celui des structures de constituants, qui décrit les agencements superficiels des constituants de la phrase, et celui des structures fonctionnelles, qui représente notamment les fonctions des constituants. L'idée de fond est bien de se passer de transformations, considérées comme peu plausibles du point de vue psycholinguistique ; le modèle recourt uniquement à des règles de réécriture pour engendrer l'ensemble de toutes les structures de constituants possibles, puis il restreint celui-ci au sous-ensemble des phrases bien formées, lors du passage aux structures fonctionnelles. La pièce maîtresse de l'édifice est le lexique, qui a précisément pour rôle de filtrer ce sous-ensemble : le principe de base étant que l'insertion d'un élément lexical dans les structures syntaxiques n'est possible que si les propriétés syntaxiques et sémantiques de cet élément (qui sont codées dans son entrée lexicale) sont compatibles avec celles de la place où il doit s'insérer. Le mécanisme de l'unification permet de vérifier ces compatibilités. La théorie de Gazdar est également une théorie générative non transformationnelle. L'un des mérites de cet auteur est d'avoir proposé un modèle cohérent et explicite, inspiré des travaux de logique mathématique, qui rend possibles l'évaluation et la comparaison avec d'autres modèles, ainsi qu'une implémentation informatique. Élaboré au départ pour l'anglais, ce modèle a ensuite été appliqué à la grammaire de diverses autres langues. La syntaxe est la pièce maîtresse de l'édifice et, contrairement à Bresnan, Gazdar ne propose pas de véritable théorie du lexique. Ce modèle G.P.S.G. a servi d'étape pour l'élaboration du modèle H.P.S.G. de Polard et Sag, qui vise à représenter de façon homogène la syntaxe et la sémantique en recourant, pour ces deux composantes, à des structures de traits typées. Développé au début des années 1990 en tant que théorie linguistique, le modèle T.A.G. de Joshi a pour objectif central de placer le lexique au cœur de la grammaire, en calculant les représentations grammaticales, non pas à partir de règles de réécriture, mais à partir d'arbres syntaxiques élémentaires comportant des « têtes lexicales » : il systématise ainsi le codage lexical des informations grammaticales. Il s'agit, au départ, d'une extension des « grammaires en chaînes » utilisées dans les premières formalisations de Harris. C'est le modèle le plus nettement tourné vers les recherches de nature formelle. Ces nouveaux modèles témoignent tous de l'émergence de théories véritablement opératoires de la syntaxe, marquant ainsi un retour aux véritables sources de la réflexion mathématique sur les grammaires formelles.
La sémantique formelle L'attention privilégiée, voire exclusive, accordée aux faits de syntaxe est une des caractéristiques du structuralisme américain et du courant des grammaires formelles, contrairement à ce qui s'est passé en Europe, où la question du sens n'a jamais été évacuée par les linguistes, même au sein du structuralisme. Outre-Atlantique, les approches formelles de la langue ont conduit à élaborer des composantes sémantiques conçues sur le modèle de la logique. Les sémantiques d'inspiration logique sont nombreuses. Il existe à l'heure actuelle une très grande diversité de formalismes logiques : logiques classiques (des propositions et des prédicats) ou logiques non classiques (modales, non monotones, ...), logiques extensionnelles ou logiques intensionnelles, logiques vériconditionnelles ou logiques non vériconditionnelles, etc. La question centrale est celle de l'adéquation de ces différents types de logiques pour modéliser la sémantique des langues. Vers les années 1970, il était courant de dénoncer le réductionnisme du recours à la logique classique, par exemple pour décrire les déterminants de la langue à l'aide des deux seuls quantificateurs existentiel (« il existe un x tel que ... ») et universel (« pour tout x ... »), ou pour décrire les conjonctions linguistiques (« et », « ou », « si », etc.) à l'aide des connecteurs logiques (union, intersection, implication, etc.). Depuis lors, le problème s'est trouvé déplacé vers des formalismes beaucoup plus complexes et plus souples, a priori mieux adpatés au fonctionnement de la langue, comme par exemple les logiques dites « intensionnelles » et leurs divers prolongements. L'approche la plus connue est la sémantique intensionnelle du logicien américain Richard Montague (1930-1971), dont les travaux ont signé, au cours des années 1970 marquées par la grammaire chomskienne, l'apport de la logique à l'étude de la langue. La démarche se fonde sur l'idée que les langages artificiels des logiciens et les langues naturelles relèvent d'une même théorie mathématique et que l'étude de la syntaxe (en l'occurrence l'étude des expressions déclaratives) permet d'accéder ensuite à celle de la sémantique (conçue comme devant rendre compte des notions de vérité et de conséquence). La sémantique intensionnelle qu'il élabore consiste donc à « interpréter » les expressions de la langue, de façon homologue à l'interprétation d'une logique. Cette démarche, dont il établit les principes généraux, est illustrée sur certains problèmes particuliers, comme le traitement de la quantification, celui de la coordination, ou encore celui du verbe « être » ou des verbes dits « d'attitude propositionnelle » en anglais (« penser », « croire », etc.).
IV-Les approches intégrées Par contraste avec les démarches précédentes, qui partent de formalismes logiques existants pour aller ensuite vers la langue, diverses théories sémantiques ont été élaborées, notamment en Europe, à partir d'observations linguistiques – leurs auteurs s'efforçant ensuite de trouver des logiques susceptibles de les modéliser. Citons, par exemple, la « théorie des univers de croyance » du linguiste français Robert Martin, qui cherche à élaborer une logique spécifique de la langue, en montrant que, contrairement à un système formel, la langue n'est pas entièrement décidable (elle comporte des phrases inintelligibles, absurdes ou disconvenantes), et qu'elle n'est pas non plus complètement consistante (l'ensemble des propositions qu'un locuteur tient pour vraies varie avec le temps). Citons également la « logique naturelle » du logicien suisse Jean-Blaise Grize, qui cherche à élaborer une logique spécifique du discours : sensible aux différences constitutives entre le langage et la logique mathématique, cette théorie se propose de modéliser les stratégies argumentatives et les opérations logico-discursives grâce auxquelles les interlocuteurs construisent et reconstruisent diverses schématisations, donnant ainsi à voir un micro-univers à travers certaines images. Par ailleurs, se démarquant des grammaires formelles aussi bien que des courants structuralistes, un certain nombre de théories partagent le souci de proposer une approche intégrée de la langue, c'est-à-dire de ne pas séparer radicalement la syntaxe de la sémantique, ni même, pour certaines, de la pragmatique. Les plus représentatives de ces théories sont les « grammaires cognitives », les théories de l'énonciation et enfin les théories du discours et les grammaires de textes.
Les grammaires cognitives
Les théories d'inspiration cognitive, nées pour la plupart aux États-Unis dans les ann ées 1980, se démarquent de la conception chomskienne du langage, et notamment d'un strict modularisme. Ainsi en 1983, Ray Jackendoff avance l'idée qu'il existerait un niveau unique de représentation mentale, appelée « structure conceptuelle », où les informations linguistiques, sensorielles (en particulier visuelles et auditives) et motrices seraient mutuellement compatibles. De son côté, s'opposant explicitement aux approches logiques, Gilles Fauconnier propose en 1984 une « théorie des espaces mentaux », entendus comme des configurations cognitives, que les expressions de la langue permettent de construire et de modifier au fil du discours. Puis, en 1987, le terme de « grammaire cognitive » apparaît sous la plume de Ronald Langacker pour marquer que la grammaire elle-même est intrinsèquement symbolique, et donc signifiante : la sémantique ne peut donc pas être séparée de la syntaxe. Il propose de représenter le sens des phrases sous forme de schémas mettant en œuvre des relations topologiques et cinématiques entre des éléments qui participent, les uns d'une « figure » et les autres d'un « fond ». Concevant également la langue comme constructrice d'images mentales, Leonard Talmy développe en 2000 une approche configurationnelle dynamique où chaque énoncé est représenté comme mettant en scène un système de « forces » opposées. De son côté, George Lakoff s'attache, depuis la fin des années 1980, à décrire les analogies de fonctionnement des métaphores dans les langues, et à représenter les espaces sémantiques associés aux expressions polysémiques. Tous ces auteurs partagent la conviction que des processus cognitifs très généraux (symbolisation, catégorisation, typicalité, etc.) sont à l'œuvre à tous les niveaux de la langue et que leur représentation nécessite le recours à des formalismes de type géométrique, plutôt que logico-algébrique.
Les théories de l'énonciation La signification d'un énoncé ou d'un texte serait incomplète si l'on s'en tenait uniquement au sens des mots qui le composent. Il faut aussi pouvoir comprendre à quels objets particuliers du monde et à quelles situations spécifiques renvoient les expressions linguistiques employées (ce que l'on appelle la « référence ») ; il faut également être en mesure de décrypter les significations implicites qui peuvent se cacher derrière le sens apparent (présupposés, sous-entendus, etc.). Ces autres dimensions de la signification relèvent de la mise en fonctionnement de la langue par les sujets : nous sommes ici sur le terrain de l'énonciation et de la pragmatique. Le courant énonciatif, d'inspiration néostructuraliste européenne, a connu d'illustres pionniers comme Charles Bally (1865-1947) et Roman Jakobson, rituellement cité pour ses réflexions, prolongeant celles de l'allemand Karl Bühler (1879-1963), sur le schéma de la communication et sur les fonctions du langage. Ce courant s'est ensuite développé sous l'impulsion d'Émile Benveniste (1902-1976), dont l'article de 1970 sur « l'appareil formel de l'énonciation » constitue une référence obligée, puis d'Antoine Culioli, qui s'est attaché, dès la fin des années 1960, à élaborer une « théorie des opérations énonciatives ». L'intérêt de ces auteurs s'est porté plus particulièrement sur l'analyse de certaines expressions de la langue, dites « indicielles », qui ne renvoient ni à un concept ni à un individu fixe, mais à un élément de la situation d'énonciation : ainsi « je » (qui renvoie à la personne qui parle), « maintenant » (qui renvoie au moment de la parole), etc. De proche en proche, l'analyse s'étend à des catégories entières de la langue (termes de personne, temporalité, de spatialité, de modalité, ...) qui permettent de référer au monde par l'intermédiaire des coordonnées de la situation d'énonciation. Le courant pragmatique s'inscrit, au départ, dans une mouvance anglo-saxonne, dont les pionniers furent, du côté de la sémiotique, Charles Sanders Pierce (1839-1914) et Charles Morris (1901-1979), et du côté de la logique, Rudolph Carnap (1891-1970). Mais c'est surtout en s'inspirant de la philosophie analytique, et plus particulièrement dans le sillage de la « philosophie du langage ordinaire » de l'école d'Oxford, que s'est développée la pragmatique linguistique, dont les représentants les plus connus sont John Austin (1911-1960) et John Searle, ainsi qu'Oswald Ducrot en France. En observant le langage en acte, ces auteurs cherchent à retrouver les traces linguistiques de certains mécanismes généraux dont ils construisent la théorie. D'où la théorie des « actes de langage » : proférer une énonciation, c'est accomplir un certain type d'acte illocutoire (ordre, promesse, ...) et perlocutoire (convaincre, intimider, ...). D'où aussi la théorie de la présupposition et de l'implicitation du sens. À la suite du philosophe anglais Paul Grice, les travaux pragmatiques se sont très largement orientés, à date récente, vers l'étude des interactions communicatives, c'est-à-dire des principes qui régissent les échanges entre interlocuteurs, par exemple dans les dialogues ou les conversations. Prolongeant cette approche, Sperber & Wilson ont inscrit la pragmatique dans la
mouvance du cognitivisme, avec leur « théorie de la pertinence ».
Les théories du discours et les grammaires de textes Au début des années 1970, la réflexion linguistique s'est élargie à la dimension du discours. L'un des enjeux majeurs étant de savoir dans quelle mesure le discours relève d'une analyse immanente opérant à l'aide de procédures réglées de nature linguistique – voie qui avait été ouverte, dans le domaine de la littérature, par les formalistes russes et notamment par Vladimir Propp (1895-1970) dans son étude des contes. Dénonçant les insuffisances de l'analyse de contenu, et remettant en cause la conception saussuriennne de la parole, un certain nombre de travaux se sont alors tournés vers ce qu'il est convenu d'appeler « l'analyse du discours ». Il s'agit là d'un domaine hétérogène et instable, qui se caractérise dans les faits par un mélange de réflexions théoriques et de bricolages empiriques. Trois grandes orientations peuvent être distinguées au sein des approches linguistiques du discours. La première est centrée sur le lexique. L'étude des mots en discours a été conduite, en premier lieu, dans une perspective quantitative : c'est le courant des études lexicologiques, et tout particulièrement lexicométriques, dont le domaine d'application privilégié est celui du discours politique, et qui procède à l'analyse statistique des cooccurrences de mots en contexte. Dans une perspective plus qualitative, la tradition structuraliste a mis en œuvre l'analyse sémique (ou componentielle) pour l'étude des connotations et des divers types de relations sémantiques entre les mots d'un texte. Le deuxième type d'approche est de nature syntaxique : on doit à Harris d'avoir étendu l'usage des procédures distributionnelles au-delà de la phrase, en vue d'identifier des segments de discours appartenant à une même classe d'équivalence ; mais cette technique, tout comme les études lexicologiques, ne propose qu'une approche très partielle des faits de discours. Plus large, le troisième type d'approche, initié par Jakobson, se situe au plan de l'énonciation. C'est surtout l'apport théorique de Benveniste, dans les années 1970, que l'on retiendra ici : selon lui, en s'appropriant l'appareil formel de l'énonciation, le sujet énonciateur opère une conversion de la langue (entendue comme pur système de signes) en discours (défini comme production de messages). La phrase constitue le pivot de cette conversion, car elle marque le passage de l'ordre du sémiotique (où les unités, comme les morphèmes ou les syntagmes, ont un sens) à l'ordre du sémantique (les phrases construisent des significations en contexte). La voie était ainsi ouverte pour l'étude des divers modes d'inscription des énonciateurs dans le discours (discours direct opposé au discours rapporté, présence explicitement marquée de l'énonciateur opposée à son apparent effacement, etc.). Dans ce sillage, nombre de travaux ont été consacrés au discours, tant dans le cadre de la pragmatique (étude des actes de langage, des présupposés, de l'implicite, ...) que dans celui de la « nouvelle rhétorique » et de l'argumentation. Mais la notion même de discours engageait, pour certains théoriciens, sur un terrain autre que celui de la linguistique. Pour eux, ce qui constitue le discours comme tel, ce sont d'abord et avant tout ses déterminations socio-historiques et idéologiques : s'éloignant des considérations sur la forme des discours, la réflexion se tourne alors vers l'étude des conditions de production, des situations de communication, ou des types de discours. C'est là sans doute l'une des raisons pour lesquelles s'est développé, au sein de la linguistique, un autre courant, connu sous le nom de « grammaires de textes ». Reprochant aux structuralistes et à Chomsky d'avoir limité la grammaire à l'étude de la phrase, les grammaires de textes entendent précisément insister sur la structuration des textes en tant qu'objets linguistiques et en proposer des modèles. Très représentatif de ce courant, Teun Van Dijk insiste sur le fait qu'un texte constitue un tout dont la cohérence repose, non seulement sur des mécanismes d'enchaînement linéaire entre phrases, mais aussi et surtout sur des opérations d'intégration à un niveau macrostructurel. Les règles de cohésion textuelle avaient déjà été abordées par des fonctionnalistes comme Michael Halliday, qui s'intéressent au dynamisme communicatif, c'est-à-dire aux modes d'articulation entre l'information connue (le thème) et l'information nouvelle (le rhème) d'une phrase à l'autre. Parmi les autres facteurs de cohésion entre phrases, les anaphores et les mécanismes de coréférence ont fait l'objet de nombreux travaux. Quant aux opérations relevant du niveau macrostructurel, elles permettent par exemple de vérifier les conditions de compatibilité entre contenus présupposés et contenus posés ou de calculer les relations d'équivalence entre des segments textuels de longueur variable (d'où la possibilité de paraphraser, de résumer, etc.). Cela conduit certains tenants des grammaires de textes à parler de « compétence textuelle » et de « structure profonde textuelle », appliquant ainsi au texte une approche générative et formaliste.
Les approches sémiotiques du texte, quant à elles, ont exploré au début des années 1970 les structures narratives (à la suite d'Algirdas Greimas, 1917-1992) et élaboré des « grammaires narratives » (selon l'expression de Claude Brémond). Puis, le terme de discours étant revenu sur le devant de la scène, elles ont esquissé les grandes lignes d'une sémiotique du discours à la fin des années 1990 (à l'instar, par exemple, de Jacques Fontanille). Symptomatiques de l'intérêt renouvelé de la linguistique pour le discours, divers travaux d'inspiration formelle visant à modéliser les règles de constitution du discours ont vu le jour depuis les années 1990. Citons par exemple la modélisation logique, appelée « théorie de la représentation du discours » (D.R.T.) de Hans Kamp, qui connaît actuellement divers développements, dont la « théorie de la représentation du discours segmentée » (S.D.R.T.). Certains linguistes s'opposent aux approches du discours comme objet d'étude en tant que tel : ainsi Anne Reboul et Jacques Moeschler considèrent-ils qu'il n'y a pas lieu d'élaborer des règles spécifiques pour traiter le discours, et que les mêmes principes pragmatiques généraux, relevant de la « théorie de la pertinence » de Dan Sperber et Deirde Wilson, valent pour l'interprétation des discours aussi bien que pour celle des énoncés. On le voit, la linguistique contemporaine s'est considérablement ouverte et diversifiée au fil des années. Ouverture interne : des formes vers le sens, de la morphosyntaxe vers la sémantique et la pragmatique, du système clos sur lui-même vers sa mise en fonctionnement en situation. Ouverture externe, également : en direction d'autres secteurs confrontés au langage, donnant ainsi naissance à certaines disciplines mixtes comme la psycholinguistique ou la linguistique informatique. La linguistique actuelle est donc infiniment plus diverse que dans la première moitié du siècle dernier : sans doute moins facile à caractériser dans son unité et sa spécificité, mais aussi plus riche de s'être renouvelée, décloisonnée et d'avoir dépassé les limitations et les rigidités de ses débuts. Catherine FUCHS
Bibliographie Théories Panaroma des théories linguistiques •
C. FUCHS & P. LE GOFFIC, Les Linguistiques contemporaines : repères théoriques , Hachette, Paris, 1992 (rééd. 1996).
Saussure et les structuralistes •
G. GUILLAUME, Langage et science du langage, Nizet, Paris, 1964 (rééd. 1969) [ouvrage posthume]
•
R. JAKOBSON, Essais de linguistique générale, Minuit, Paris, 1963 [trad. franç. de onze articles s'échelonnant entre 1949 et 1963]
•
A. MARTINET, Éléments de linguistique générale, Armand Colin, Paris, 1960 (rééd. 1991)
•
B. POTTIER, Sémantique générale, P.U.F., Paris, 1992
•
E. SAPIR, Le Langage, trad. franç., Payot, Paris, 1953 (éd. or. 1921)
•
F. DE SAUSSURE, Cours de linguistique générale, Payot, 1916 (rééd. 1995) [ouvrage posthume, rédigé d'après les notes de ses étudiants]
•
B. WHORF, Linguistique et anthropologie, trad. franç., Denoël-Gonthier, Paris, 1969 (éd. or. 1956).
À la frontière du distributionnalisme et des grammaires formelles •
M. GROSS, Méthodes en syntaxe, Hermann, Paris, 1975
•
Z. HARRIS, Structures mathématiques du langage, trad. franç., Dunod, Paris, 1971 (éd. or. 1968).
Grammaires formelles •
A. ABEILLÉ, Les Nouvelles Syntaxes : grammaires d'unification et analyse du français, Armand Colin, Paris, 1993
•
J-Y. POLLOCK, Langage et cognition : introduction au programme minimaliste de la grammaire générative , P.U.F., Paris, 1997.
Approches intégrées •
J. AUSTIN, Quand dire, c'est faire, trad. franç., Seuil, Paris, 1970 (éd. or. 1962)
•
É. BENVENISTE, Problèmes de linguistique générale, 2 vol., Gallimard, Paris, 1966 et 1974 [recueil d'articles parus entre 1939 et 1972]
•
A. CULIOLI, Pour une linguistique de l'énonciation, , 3 vol., Ophrys, Gap-Paris1990-1999 [recueil d'articles parus entre 1976 et 1989]
•
O. DUCROT, Le Dire et le dit , Minuit, Paris, 1984
•
G. FAUCONNIER, Espaces mentaux : aspects de la construction du sens dans les langues naturelles, ibid., 1984
•
C. FUCHS dir., La Linguistique cognitive, Ophrys-Maison des Sciences de l'Homme, Paris, 2004
•
J-B. GRIZE, Logique et langage, Ophrys, 1990
•
G. LAKOFF & M. JOHNSON, Les Métaphores de la vie quotidienne, trad. franç., Minuit, 1985 (éd. or. 1980)
•
D. MAINGUENEAU, Dictionnaire d'analyse du discours, Seuil, Paris, 2002
•
R. MARTIN, Pour une logique du sens, P.U.F., Paris, 1983 (rééd. 1992)
•
A. REBOUL & J. MOESCHLER, Pragmatique du discours : de l'interprétation de l'énoncé à l'interprétation du discours , Armand Colin, Paris, 1998
•
J. SEARLE, Les Actes de langage, trad. franç., Hermann, Paris, 1972 (éd. or. 1969)
•
D. SPERBER & D. WILSON, La Pertinence : communication et cognition , trad. franç., Minuit, Paris, 1989 (édition originale 1989)
•
C. VANDELOISE, Langues et cognition, Lavoisier, Paris, 2003.