Du langage et de l’humanité. Conversation avec Noam Chomsky

Source : The Mit Press Reader, Amy Brand, 12-08-2019

Le père de la linguistique moderne continue d’ouvrir de nouveaux champs de recherche et de poser de nouvelles questions.

« Pour la première fois, il me semble que dans des domaines essentiels ; le Graal est au moins en vue, peut-être même à portée de main ». Image:Wikimedia Commons

D’aussi loin que je me souvienne, j’ai toujours été fascinée par la façon dont l’esprit structure l’information. Enfant, de toutes les activités que j’avais au collège, celle que je préférais consistait à mettre les phrases sous forme de diagramme, avec leurs sections de discours. Il n’est donc sans doute pas étonnant que j’aie fini au MIT [Massachusetts Institute of Technology, NdT] où j’ai obtenu mon doctorat grâce à mes travaux sur les modèles formels du langage et de la cognition. C’est là, au milieu des années 1980, que j’ai eu l’immense chance de suivre plusieurs cours de syntaxe avec Noam Chomsky.

Bien que j’aie finalement choisi de ne pas faire carrière dans l’enseignement, j’ai passé la majeure partie de ma carrière au MIT et je suis resté fidèle, à bien des égards, à cet intérêt original pour la façon dont le langage transmet l’information. Diriger une maison d’édition universitaire, c’est aussi, après tout, s’intéresser au passage du langage à l’information, du texte au savoir. Cela m’a également donné l’occasion d’être la rédactrice en chef et l’éditrice de Chomsky. Chomsky et les valeurs fondamentales qu’il incarne, c’est à dire le recours à l’enquête approfondie, la conscience et l’intégrité, continuent d’occuper une place importante pour moi et pour tant d’autres ici au MIT, et l’entretien qui suit en est un excellent témoignage.

Amy Brand : Vous avez eu tendance à séparer votre travail sur le langage de votre rôle et de vos écrits politiques. Mais existe-t-il une contradiction entre, d’une part, la défense du caractère unique de l’homo sapiens en ce qui concerne le langage et, d’autre part, la dénonciation de la responsabilité de l’homme dans le changement climatique et la dégradation de l’environnement ? Autrement dit, se pourrait-il que notre distance par rapport aux autres espèces soit liée à la façon dont nous nous impliquons (ou pas) vis-à-vis de la nature ?

Noam Chomsky : Le travail technique lui-même est en principe bien distinct des engagements personnels dans d’autres domaines. Il n’y a pas de liens logiques, mais il y en a d’autres plus subtils et historiques dont j’ai parfois discuté (comme d’autres l’ont fait) et cela pourrait avoir une certaine importance.

Homo sapiens est radicalement différent des autres espèces à de nombreux égards, trop évidents pour valoir d’être examinés. Le fait que nous soyons dotés du langage est un élément crucial, et cela a de nombreuses conséquences. Avec justesse, celui-ci a souvent été considéré dans le passé comme la caractéristique fondamentale de l’homme moderne, source de la créativité humaine, de l’enrichissement culturel et de notre structure sociale complexe.

Quant à la « contradiction » dont vous parlez, je ne vois pas tout à fait les choses comme vous. Bien sûr, on peut admettre que notre distanciation par rapport aux autres espèces soit liée à notre course criminelle pour détruire l’environnement, mais je ne pense pas que cette conclusion soit étayée par l’histoire. Pendant pratiquement toute l’histoire de l’humanité, les humains ont vécu en harmonie avec le milieu naturel, et c’est ce que font encore les peuples autochtones, quand cela leur est possible (ils sont, en fait, dans le monde entier, à l’avant-garde des efforts pour préserver l’environnement). Les actions humaines ont eu des effets sur l’environnement ; les grands mammifères ont donc eu tendance à disparaître à mesure que l’activité humaine se développait. Mais ce n’est qu’à partir de la révolution agricole et, de manière plus spectaculaire, à partir de la révolution industrielle que cet impact a pris une importance majeure. Et ce n’est qu’au cours de ces dernières années que les effets les plus importants et les plus destructeurs ont été manifestes, et qu’ils s’amplifient bien trop rapidement. Ce qui est à l’origine de la destruction – qui frise la catastrophe – semble être institutionnel et non ancré dans notre essence.

« L’origine de la destruction – qui frise la catastrophe – semble être de nature institutionnelle, et non inhérente à notre essence. »

A.B. : Dans votre préface d’un livre sur le chant des oiseaux et le langage, vous avez écrit, avec le linguiste informaticien Robert Berwick, que « le pont entre la recherche sur le chant des oiseaux et la parole et le langage s’accorde très bien avec les développements récents de certains courants de la pensée linguistique actuelle ». Pouvez-vous nous en dire plus ? En quoi le chant des oiseaux pourrait-il changer notre regard sur notre propre langage ?

N.C. : Ici, il faut être assez prudent, en faisant la distinction entre le langage en soi et la parole, qui est un amalgame, impliquant à la fois le langage et un système sensori-moteur spécifique utilisé pour l’externalisation du langage. Les deux systèmes n’ont aucun lien dans l’histoire de l’évolution ; les systèmes sensori-moteurs étaient en place bien avant l’apparition du langage (et de l’homo sapiens) et n’ont guère été influencés par le langage, voire pas du tout. La parole n’est par ailleurs qu’une forme d’externalisation, même si elle est la plus courante. On pourrait avoir des signes,qui se développent chez les sourds de la même façon que la parole ou même du toucher.

Couverture de « Why Only Us » par Chomsky et Robert Berwick. Leur livre, paru en 2015, « Why Only Us » s’appuie sur les développements récents de la théorie linguistique pour proposer un récit évolutif du langage et de la remarquable capacité spécifique de l’espèce humaine à l’acquérir.

Berwick et moi soutenons (je pense de façon plausible, mais pouvant être sujet à contestation) que le langage, système interne de l’esprit, est indépendant de son externalisation et fournit essentiellement des expressions de pensée formulées linguistiquement. En tant que tel, il s’agit d’un système de pure structure, dépourvu d’ordre linéaire et autres agencements qui ne font pas vraiment partie du langage comme tel mais sont imposés par les exigences du système articulatoire (le signe, qui utilise un espace visuel, exploite quelques autres options). Le langage interne est basé sur des opérations récursives qui produisent ce que nous appelons la Propriété de base du langage : la production d’un ensemble infini d’expressions hiérarchiquement structurées qui sont interprétées comme des pensées. Le système d’externalisation du langage n’a pas d’opérations récursives – il s’agit essentiellement d’un découpage déterministe qui introduit un ordre linéaire et autres agencements qui sont requis par le système en sortie.

C’est très différent en ce qui concerne le chant des oiseaux : c’est un système de sortie qui est fondamentalement basé sur un ordre linéaire avec très peu de structure. Il y a quelques analogies suggestives au niveau des extrants, mais selon moi du moins, avis partagé, je pense, par mes collègues qui font de la recherche sur le chant des oiseaux, même si ces phénomènes sont par eux-mêmes d’un intérêt considérable, ils nous en disent peu sur le langage humain.

« Bien que les phénomènes [du chant des oiseaux] soient par eux-mêmes d’un intérêt considérable, ils nous en disent peu sur le langage humain. »

A.B. : Vous avez développé la théorie de la grammaire transformationnelle – cette idée qu’il existe une structure profonde, basée sur des règles, qui sous-tend le langage humain – alors que vous étiez étudiant en doctorat dans les années 1950, et que votre premier livre sur ce sujet, « Syntactic Structures », était publié en 1957. Dans le domaine de la linguistique théorique, quelle comparaison pouvez-vous faire par rapport à l’avenir que vous auriez pu imaginer il y a 60 ans ?

N.C. : Impossible à comparer, méconnaissable. À l’époque, la linguistique était un domaine plutôt restreint, et l’intérêt que vous décrivez pour ce domaine se limitait au RLE [Laboratoire de Recherche en Electronique]. Les publications étaient peu nombreuses et guère réceptives à ce type de travail. A la suggestion de Roman Jakobson, mon premier livre – « La structure logique de la théorie linguistique » [The Logical Structure of Linguistic Theory (LSLT), NdT] – a été présenté au MIT press en 1955 [MIT Press est une maison d’édition universitaire américaine affiliée au Massachusetts Institute of Technology à Cambridge, Massachusetts, NdT]. Les critiques l’ont rejeté, avec le commentaire plutôt sensé que cela ne semblait convenir à aucun domaine connu (une version de 1956, avec quelques parties supprimées, a été publiée en 1975, lorsque la pertinence de ce domaine a été bien reconnue).

En réalité, il y avait une certaine culture, plutôt fertile en fait, et ce travail l’a, d’une certaine manière, ravivée et étendue. Mais elle était complètement inconnue à l’époque (et elle l’est toujours en grande partie).

À la fin des années 50, Morris Halle et moi avons demandé et obtenu rapidement l’autorisation de créer un département de linguistique, ce que nous avons considéré comme une idée assez folle. Les départements de linguistique étaient rares. Pourquoi devrait-il y en avoir un au MIT, en particulier ? Et pour une forme de linguistique dont presque personne n’avait jamais entendu parler ? Pourquoi un étudiant voudrait-il s’inscrire dans un tel département ? Nous avons décidé d’essayer quand même, et étonnamment, ça a marché. La première promotion s’est avérée être un groupe d’étudiants remarquables, qui ont tous poursuivi des carrières prestigieuses avec un travail original et passionnant – et cela s’est poursuivi, jusqu’à présent. Curieusement – ou peut-être pas – le même modèle a été adopté dans d’autres pays, l’« entreprise générative » prenant racine en dehors des grandes universités.

Notre premier étudiant en doctorat a en fait précédé la création du département : il s’agit de Robert Lees (un collègue du RLE), qui a écrit une étude très remarquée sur la nominalisation en Turquie [la substantivation ou nominalisation consiste à transformer en substantif un mot qui n’appartient pas originellement à cette catégorie, notamment un adjectif ou un verbe, NdT]. Comme il n’y avait pas encore de département, c’est notre ami Peter Elias, directeur du département de génie électrique du MIT, qui a géré le doctorat, il s’agit là d’un aspect informel du MIT plutôt typique et très productif. Cela a dû surprendre les fiers parents qui lisent les titres des thèses à la remise des diplômes.

« De nouveaux domaines d’investigation qui existaient à peine dans les années 50 se sont ouverts. Les étudiants explorent des questions qui n’auraient même pas pu être formulées il y a quelques années. »

Aujourd’hui, la situation est radicalement différente. Il y a des départements florissants partout, avec des contributions majeures en Europe, au Japon et dans de nombreux autres pays. Il existe de nombreuses revues, dont le MIT Press’s Linguistic Inquiry, qui vient de célébrer son 50e anniversaire. Des études de grammaire générative ont été réalisées pour un très large éventail de langues typologiquement diverses, à un niveau de complexité et de portée jamais imaginable auparavant. De nouveaux domaines d’investigation se sont ouverts qui existaient à peine dans les années 50. Les étudiants explorent des questions qui n’auraient pu être formulées il y a quelques années. Et le travail théorique a atteint des niveaux complètement nouveaux de richesse et de validation empirique, avec de nombreuses nouvelles voies prometteuses à explorer.

Dans les années qui ont suivi, Morris et moi avons souvent réfléchi au fait que nous n’aurions pas pu prévoir, ni même imaginer tout cela lorsque nous avons commencé à travailler ensemble au début des années 50. Ce qui s’est passé depuis semble presque magique.

A.B. : C’est dans ce livre de 1957 que vous avez employé votre célèbre phrase : « Des idées vertes sans couleur dorment furieusement » – démonstration de la façon dont une phrase peut être grammaticalement correcte mais ne pas avoir de sens sémantiquement, indiquant ainsi que la structure et la syntaxe sont primordiales et indépendantes du sens. Un poète pourrait contester le fait qu’une telle phrase n’aurait pas de sens (et pourrait peut-être la décrire comme démontrant ce que le linguiste et théoricien littéraire Roman Jakobson appelait la « fonction poétique » du langage), et nombre de personnes ont « injecté », pour ainsi dire, du sens dans cette phrase. Pourquoi pensez-vous qu’il en soit ainsi ?

N.C. : C’est simplement que les gens ne parviennent pas à comprendre le but de cet exemple et d’autres exemples comme celui-ci. Il s’agissait de réfuter les préjugés courants sur le statut grammatical : qu’il était déterminé par une approximation statistique à un corpus matériel, par des cadres formels, par une signification dans un sens structurel indépendant, etc. La phrase que vous citez, appelez-la (1), est simplement grammaticale mais viole tous les critères habituels. C’est pourquoi elle a été inventée à titre d’exemple. (1) diffère de la phrase structurellement similaire (2) « les nouvelles idées révolutionnaires apparaissent rarement » (qui, contrairement à (1), a une signification littérale immédiate) et de (3) « furieusement dorment couleur sans vertes idées des », l’original lu à l’envers, qui peut à peine être prononcé en prosodie normale. Le statut particulier de (1) découle bien sûr du fait que, bien que violant tous les critères de grammaticalité alors en vigueur, elle est de la même forme grammaticale que (2), avec un sens littéral et immédiatement interprétable sans être en aucune façon fallacieuse. Pour cette raison, il n’est pas difficile de construire des interprétations non littérales pour (1) (c’est possible, mais beaucoup plus difficile pour (3), car il manque la similitude structurelle avec des expressions entièrement grammaticales comme (2)).

Tout cela est discuté dans « Syntactic Structures », et beaucoup plus en détail dans LSLT [La structure logique de la théorie linguistique], (qui comprenait certains de mes travaux en collaboration avec Pete Elias développant un exposé de catégorisation avec un penchant d’information théorique qui fonctionne plutôt bien avec de petits échantillons et le calcul manuel qui était la seule option dans les années cinquante lorsque nous étions étudiants dans le supérieur à Harvard).

A défaut d’en saisir le sens, plusieurs personnes ont proposé des interprétations métaphoriques (« poétiques ») de (1), exactement dans le sens suggéré par la discussion dans « Structures syntaxiques ». Moins pour (3), bien que même cela soit possible, en s’y efforçant. Il est généralement possible de concocter une sorte d’interprétation pour à peu près n’importe quelle séquence de mots. La question pertinente, quand on étudie le langage, est de savoir comment les règles conduisent à des interprétations littérales (comme pour (2)) – et, d’autre part, comment d’autres processus cognitifs, reposant en partie sur la structure du langage (comme pour (1), (3)), peuvent fournir une multitude d’autres interprétations.

Commentaires concernant Noam : recueil d’hommages pour le 90e anniversaire de Noam Chomsky

A.B. :Dans notre entrevue avec Steven Pinker en mai, nous lui avons demandé son avis sur les conséquences de la récente explosion de l’intérêt pour l’Intelligence Artificielle et l’apprentissage automatique dans le domaine de la science cognitive [L’apprentissage automatique (en anglais machine learning, littéralement « apprentissage machine ») ou apprentissage statistique est un champ d’étude de l’intelligence artificielle qui se fonde sur des approches statistiques pour donner aux ordinateurs la capacité d’ « apprendre » à partir de données, c’est-à-dire d’améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l’analyse, le développement et l’implémentation de telles méthodes, NdT]. Pinker estimait qu’il y avait une “stérilité théorique” dans ces domaines et que cela conduirait à des impasses à moins qu’ils ne soient plus étroitement intégrés à l’étude de la cognition. Le domaine des sciences cognitives que vous avez contribué à créer était une rupture nette avec le behaviorisme – l’accent mis sur l’impact des facteurs environnementaux sur le comportement plutôt que sur les facteurs innés ou hérités – et le travail de B. F. Skinner. Voyez-vous la croissance de l’apprentissage automatique comme une sorte de retour au behaviorisme ? Pensez-vous que la direction dans laquelle le domaine de l’informatique se développe est préoccupante ou qu’elle pourrait donner un nouveau souffle à l’étude de la cognition ?

N.C. : Parfois, elle est explicitement revendiquée, même de façon éhontée, voire triomphale. Dans la récente « Révolution de l’apprentissage en profondeur » de Terrence Sejnowski, par exemple, qui proclame que Skinner a raison ! Un malentendu assez sérieux concernant Skinner et les succès de la « Révolution », je pense.

Il y a des questions évidentes à se poser au sujet des projets d’« apprentissage automatique ». Prenons un exemple typique, le Google Parser. La première question à se poser est : à quoi cela sert-il ? Si le but est de créer un dispositif utile – une forme étroite d’ingénierie – il n’y a rien d’autre à dire.

Supposons que le but en soit la science, c’est-à-dire apprendre quelque chose sur le monde, dans ce cas-là, concernant la cognition – en particulier sur la façon dont les humains traitent les phrases. Alors d’autres questions se posent. La question la plus inintéressante, et pourtant la seule qui semble avoir été soulevée, est de savoir dans quelle mesure le programme analyse bien, par exemple, le corpus du Wall Street Journal.

Disons qu’il réussit dans 95 pour cent des cas, comme le proclame Google PR, qui déclare que le problème de l’analyse est fondamentalement résolu et que les scientifiques peuvent passer à autre chose. Qu’est-ce que cela signifie exactement ? Rappelez-vous que nous considérons maintenant que nous sommes dans le domaine de la science. Chaque phrase du corpus peut être considérée comme la réponse à une question posée empiriquement : Êtes-vous une phrase grammaticale en anglais avec telle ou telle structure ? La réponse est : Oui (normalement). Nous posons alors la question qui s’ensuivrait dans n’importe quel domaine de la science. Quel est l’intérêt d’une théorie ou d’une méthode qui permet d’obtenir la bonne réponse dans 95 % des expériences choisies au hasard, réalisées sans objet ? Réponse : Pratiquement aucun intérêt. Ce qui est intéressant, ce sont les réponses à des expériences critiques fondées sur la théorie, conçues pour trouver des réponses à une question importante.

Donc si il s’agit de « science », alors c’est une science qui ne nous est pas connue.

La question suivante est de savoir si les méthodes utilisées sont identiques à celles utilisées par les humains. La réponse est: Absolument pas. Encore une fois, il s’agit d’un domaine de la science qui nous est inconnu.

Mais il y a une autre question, qui apparemment n’a jamais été soulevée. Dans quelle mesure l’analyseur syntaxique peut-il être utilisé de façon efficace sur les langages impossibles, ceux qui violent les principes universels du langage [l’analyse syntaxique consiste à mettre en évidence la structure d’un texte, généralement une phrase écrite dans une langue naturelle, mais on utilise également cette terminologie pour l’analyse d’un programme informatique. L’analyseur syntaxique (parser, en anglais) est le programme informatique qui réalise cette tâche, NdT] ? Il est à noter, si on est dans un contexte scientifique, que le taux de succès dans l’analyse informatique de tels systèmes serait considéré comme un échec. Bien que cela n’ait pas été essayé, à ma connaissance, la réponse est presque certainement que le taux de succès serait élevé, dans certains cas même plus élevé (beaucoup moins d’essais d’apprentissage, par exemple) que pour les langages humains, tout particulièrement quand il s’agit de systèmes conçus pour utiliser des propriétés élémentaires de calcul informatique qui sont en principe bannies pour le langage humain (par exemple en utilisant un ordre linéaire). On sait maintenant beaucoup de choses sur les langages impossibles, y compris certaines évidences psycholinguistiques et neurolinguistiques sur la façon dont les humains gèrent de tels systèmes – si tant est qu’ils le fassent, les considérant alors comme des énigmes, et non pas comme des langages.

« Dans presque tous les domaines pertinents, il est difficile de voir comment [l’apprentissage automatique] apporterait quelque contribution que ce soit à la science, en particulier à la science cognitive. »

Bref, concernant pratiquement tous les aspects significatifs, il est difficile de voir comment ce travail apporterait quelque contribution que ce soit à la science, en particulier à la science cognitive, quelle que soit sa valeur pour la construction de dispositifs utiles ou pour l’exploration des propriétés des processus informatiques employés.

On pourrait faire valoir que cette dernière question est mal formulée parce qu’il n’existe pas de langues impossibles : tout ensemble arbitrairement choisi de séquences de mots est autant une langue qu’une autre. Même en l’absence d’une preuve suffisante du contraire, l’allégation devrait être rejetée pour des raisons logiques élémentaires : si ce raisonnement était vrai, on ne pourrait jamais apprendre une langue, pour parler de façon triviale. Néanmoins, à l’apogée du behaviorisme et du structuralisme, cette conviction était largement répandue, parfois de manière assez explicite, dans le cadre de ce que l’on appelait « la thèse boasienne » selon laquelle les langues peuvent varier les unes des autres de manière arbitraire et doivent être étudiées sans préjugés (les biologistes ont émis des avis similaires concernant la diversité de la faune) [thèse boasienne : en anthropologie, qui adhère aux thèses de Franz Boas, anthropologue américain, fondateur de l’anthropologie moderne (1858-1942), NdT]. Des idées analogues sont au moins implicites dans certains ouvrages sur l’apprentissage automatique. Il est cependant clair que les allégations ne peuvent pas être sérieusement prises en compte et sont maintenant connues pour être incorrectes (en ce qui concerne également les organismes).

Il pourrait être utile d’ajouter un mot sur la notion d’expérience critique, c’est-à-dire d’expérience théorique conçue pour répondre à une question qui suscite un intérêt linguistique. En ce qui concerne cela, les systèmes d’analyse mécanique largement vantés ont des performances assez médiocres, comme l’a montré avec efficacité Sandiway Fong, spécialiste des sciences cognitives informatisées. Et c’est du moins ce qui compte pour la science, et pas seulement de faire correspondre les résultats d’expériences arbitraires sans objectif (comme la simulation, ou l’analyse d’un corpus). Les expériences les plus intéressantes concernent des constructions linguistiques « exotiques » qui sont rares dans le langage habituel mais que les gens comprennent immédiatement ainsi que les conditions curieuses qu’elles remplissent. Plusieurs d’entre elles ont été découvertes au fil des ans. Leurs propriétés sont particulièrement révélatrices parce qu’elles mettent en lumière les principes non explorés qui rendent possible l’acquisition du langage – et même si je n’en parlerai pas ici, l’étude de l’acquisition du langage chez l’enfant et les études statistiques approfondies du patrimoine linguistique (notamment par Charles Yang) dont l’enfant dispose, montrent que cette notion d’« exotique » se décline très largement dans le vécu d’un enfant.

A.B. : Vous restez plus actif que jamais, sur plus d’un front – en collaborant par exemple ces dernières années avec des collègues d’autres domaines comme l’informatique et les neurosciences dans la publication d’une série d’articles. Sur quoi travaillez-vous actuellement ?

N.C. : Cela vaut vraiment la peine de revenir brièvement au tout début. J’ai commencé par faire des essais avec des grammaires génératives comme passe-temps personnel à la fin des années 40. Mon propos était en partie d’essayer de rendre compte des données au travers d’une grammaire générative explicite basée sur des règles, mais encore plus d’explorer le sujet de la simplicité de la grammaire, du « programme le plus court », un problème non trivial, que l’on ne peut résoudre que partiellement par calcul manuel en raison de la complexité des systèmes de règles bien hiérarchisés à l’intérieur du corps de l’ouvrage. Quand je suis arrivé à Harvard peu après, j’ai rencontré Morris Halle et Eric Lenneberg. Nous sommes rapidement devenus des amis proches, en partie grâce au scepticisme partagé au sujet des doctrines dominantes de la science du comportement – qui étaient des dogmes virtuels à l’époque. Ces intérêts mutuels ont rapidement mené à ce qu’on a appelé plus tard le « programme de biolinguistique », l’étude de la grammaire générative comme trait biologique de l’organisme (Eric a ensuite fondé le domaine contemporain de la biologie du langage à travers ses travaux désormais bien connus).

Dans le cadre de la biolinguistique, il est d’emblée clair que ce qui serait le « Saint Graal », ce serait l’explication des propriétés fondamentales du langage sur la base de grammaires génératives fondées sur des principes qui répondent à la double condition de capacité apprenante et d’adaptabilité. C’est le critère d’une véritable explication. Mais cet objectif était loin d’être atteint.

La mission première était d’essayer de donner un sens à l’énorme quantité de nouvelles données et aux problèmes curieux qui se sont rapidement accumulés dès que les premiers efforts ont été faits pour construire des grammaires génératives. Pour ce faire, il semble que des mécanismes assez complexes aient été nécessaires. Je ne reviendrai pas sur l’histoire depuis lors, mais l’idée maîtresse a été de montrer que des hypothèses plus simples et davantage fondées sur des principes peuvent donner des résultats empiriques identiques ou meilleurs sur un large éventail de sujets.

Au début des années 90, il semblait à certains d’entre nous qu’il devenait maintenant possible de prendre le taureau par les cornes : adopter les mécanismes de calcul les plus simples pouvant au moins produire la Propriété Fondamentale et essayer de démontrer que les propriétés fondamentales du langage peuvent s’expliquer en ces termes – en termes de ce que l’on a appelé « la thèse minimaliste forte (SMT) [en français TMF, NdT] ». Je pense que des progrès considérables ont déjà été réalisés dans cette démarche, considérant les premières explications authentiques des propriétés universelles significatives de la langue qui satisfont de manière plausible aux deux conditions.

La tâche qui nous attend comporte plusieurs volets. L’un des premiers volets consiste à déterminer dans quelle mesure la TMF peut englober les principes fondamentaux du langage qui ont été mis en lumière dans les recherches de ces dernières années, et prendre en compte les expériences critiques, celles qui sont particulièrement révélatrices en ce qui concerne les principes qui entrent dans le fonctionnement de la faculté de la parole et qui expliquent l’acquisition du langage.

Un deuxième volet consiste à faire la distinction entre les principes propres à la langue – propres à la structure innée de la faculté du langage – et les autres principes qui sont plus généraux. Les principes de l’efficacité computationnelle sont particulièrement éclairants à cet égard – ce qui n’est pas surprenant pour un système aussi complexe que le langage [La pensée computationnelle s’intéresse à la résolution de problèmes, à la conception de systèmes ou même à la compréhension des comportements humains en s’appuyant sur les concepts fondamentaux de l’informatique théorique, NdT]. Les principes computationnels spécifiques aux systèmes dont la capacité de ressources à court terme est limitée sont particulièrement intéressants, puisqu’il s’agit là d’une catégorie dont les conséquences empiriques critiques ont récemment été démontrées. Un autre volet encore consiste à affiner ces principes afin d’inclure ceux qui jouent un rôle dans l’explication authentique tout en excluant ceux qui paraissent superficiellement similaires mais dont on peut démontrer qu’ils sont illégitimes tant sur le plan empirique que conceptuel.

Des travaux assez intéressants sont en cours dans tous ces domaines, et le moment semble venu de procéder à un examen complet des développements qui, à mon avis, constituent une étape plutôt nouvelle et passionnante dans un ancien domaine de recherche.

« Pour la première fois, il me semble que dans des domaines essentiels le Graal est au moins en vue, peut-être même à portée de main. »

En bref, pour la première fois, je pense que dans certains domaines essentiels le Saint-Graal est au moins en vue, peut-être même à portée de main. C’est le principal sujet de travail dans lequel je me suis récemment engagé et j’espère être en mesure d’arriver à quelque chose très bientôt.

A.B. : Vous avez récemment fêté – sur le campus du MIT, avec un grand nombre d’amis et de collègues – votre 90e anniversaire. De tels événements marquants incitent bien sûr à la réflexion, même lorsqu’on regarde vers l’avenir. En examinant votre travail à ce jour, quelle a été, selon vous, votre contribution théorique la plus significative dans le domaine de la linguistique ?

N.C. : Ouvrir à la recherche de nouveaux types de questions et de sujets.

A.B. : Une question très large, mais qui parle peut-être de l’époque dans laquelle nous vivons en ce moment: Qu’est-ce que vous considérez aujourd’hui comme une raison d’être optimiste ?

N.C. : Plusieurs points. Premièrement, l’époque dans laquelle nous vivons est extrêmement dangereuse, d’une certaine manière plus que jamais dans l’histoire de l’humanité – et sous la forme que nous connaissons, cette histoire se terminera inévitablement si nous ne faisons pas face efficacement aux menaces croissantes de guerre nucléaire et de catastrophe environnementale. Pour cela, il faut renverser la tendance des États-Unis à démanteler les accords de contrôle des armements tout en mettant au point, comme la Russie d’ailleurs, des programmes d’armement toujours plus meurtriers et déstabilisateurs; et de non seulement refuser de se joindre au monde pour tenter de faire quelque chose contre la grave crise environnementale mais même en procédant de façon offensive pour aggraver cette menace, une forme de crime sans aucun antécédent dans notre histoire.

Pas facile, mais c’est faisable.

Il y a eu d’autres crises graves dans l’histoire de l’humanité, même si ce n’est pas à cette échelle. Je suis assez vieux pour me souvenir de l’époque où il semblait que l’avancée du fascisme était inexorable – et je ne parle pas ici de ce que l’on appelle aujourd’hui le fascisme, mais de quelque chose d’incomparablement plus terrible. Mais il a été vaincu.

Il existe des formes très impressionnantes d’activisme et d’engagement, surtout chez les jeunes. C’est très encourageant.

En dernière analyse, nous avons toujours deux choix: nous pouvons choisir de sombrer dans le pessimisme et l’apathie, en présupposant qu’on ne peut rien faire et en nous efforçant de faire en sorte que le pire arrive. Ou bien nous pouvons saisir les opportunités qui existent – et il y en a – et les explorer dans la mesure du possible, contribuant ainsi à faire de ce monde un monde meilleur.

Le choix n’est pas difficile à faire.

Amy Brand est Directrice de la MIT Press.

Source : The Mit Press Reader, Amy Brand, 12-08-2019

Traduit par les lecteurs du site www.les-crises.fr. Traduction librement reproductible en intégralité, en citant la source.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.