Les limites de la traduction automatique JEAN-FRANÇOIS DORTIER Encodage en TEI Bertrand Gaiffe Vincent Meslard 4329 ATILF (Analyse et Traitement Informatique de la Langue Française)
44, avenue de la Libération BP 30687 54063 Nancy Cedex FRANCE

Creative Commons - Paternité - Pas d'Utilisation Commerciale - Partage des Conditions Initiales à l'Identique 2.0 France (CC BY-NC-SA 2.0)

Les recherches sur le traitement automatique du langage buttent sur deux obstacles : le premier est la création d'une grammaire universelle capable de reconstruire l'organisation de la phrase. Le second est l'accès au sens des mots. Paradoxalement, ces résistances nous permettent de mieux percevoir les dimensions de l'extraordinaire complexité du langage, et sa dépendance à l'égard de la pensée. JEAN-FRANÇOIS DORTIER Les limites de la traduction automatique Sciences Humaines L'imaginaire contemporain Janvier 1999 Sciences Humaines Mensuel n° 90
JEAN-FRANÇOIS DORTIER Sciences du langage traduction automatique grammaire générative langage français Rubriques définies par la revue sciences humaines Actualité de la recherche Classiques Courants et disciplines Dossier Echos des recherches Enjeux Entretien Evénement Grand Dossier Le point sur... Livres Références Disciplines définies par la revue sciences-humaines Communication Droit Économie Éducation Épistémologie Ethnologie Littérature Philosophie Préhistoire Psychanalyse Psychiatrie Psychologie Psychologie sociale Sciences cognitives Sciences du langage Sciences Humaines Sciences Politiques Sociologie
Les limites de la traduction automatique JEAN-FRANÇOIS DORTIER Les recherches sur le traitement automatique du langage buttent sur deux obstacles : le premier est la création d'une grammaire universelle capable de reconstruire l'organisation de la phrase. Le second est l'accès au sens des mots. Paradoxalement, ces résistances nous permettent de mieux percevoir les dimensions de l'extraordinaire complexité du langage, et sa dépendance à l'égard de la pensée.

La traduction automatique et, plus généralement, le traitement automatique du langage naturel- est un grand programme de recherche qui mobilise depuis maintenant plus de cinq décennies les spécialistes des sciences cognitives - linguistes, informaticiens, psychologues - dans le monde entier.

Les enjeux économiques, stratégiques et scientifiques se sont accrus avec la multiplication des échanges culturels, économiques, technologiques entre pays. La traduction automatique, c'est la possibilité de diminuer les coûts liés aux échanges commerciaux, de multiplier la diffusion de certaines informations (dépêches d'agences, textes scientifiques, revues, journaux), d'intégrer des modules de traduction dans les traitements de texte. Avec Internet, d'où sont accessibles en tout point du globe des informations dans presque toutes les langues, l'enjeu devient central.

D'ores et déjà, on dispose de logiciels de traduction sur le marché. Des firmes les utilisent pour traduire leur documentation technique, des bulletins météo, des dépêches d'agence ou encore à des fins de veille technologique. Est-ce à dire que, d'ici peu, le problème sera globalement résolu ? Non! affirment les spécialistes. Cinquante ans après le début des recherches en traduction automatique, on est encore loin du but. Une petite expérience de traduction automatique, que l'on peut faire soi-même sur Internet, est révélatrice (voir l'encadré page 15). Le traitement automatique du langage a conduit à des impasses inattendues. Derrière la difficulté apparemment technique de mécanisation du langage s'est posée une foule de problèmes théoriques, qui touchent à la nature même du langage humain et à ses liens avec la pensée.

Les premières tentatives de traduction automatique

Les premières recherches sur la traduction automatique remontent à plus d'un demi-siècle. Après les études pionnières entreprises par le Russe Smirnov-Trojanskkij dès les années 30, il faut attendre les lendemains de la Seconde Guerre mondiale aux Etats-Unis pour que l'on envisage d'utiliser l'informatique naissante à des fins de traduction.

L'objectif était prosaïque : à l'époque, les services secrets américains rêvaient d'un système capable de traduire rapidement et au moindre coût les communications interceptées chez les Soviétiques. Dans cette optique d'espionnage, on pensait alors que la traduction relevait de la même logique que celle du décryptage des codes secrets. L'idée des ingénieurs, non formés à la linguistique, reposait sur un principe simple : en dotant l'ordinateur d'un bon dictionnaire bilingue et des deux grammaires, celle de la langue source (langue à traduire) et celle de la langue cible (langue destinataire), on parviendrait facilement à réaliser une traduction de bonne qualité. Traduire une phrase telle que « le Président est occupé, il reçoit une stagiaire » ne présente actuellement aucune difficulté majeure pour une machine. Il suffisait de remplacer mot pour mot puis de rétablir éventuellement l'ordre des mots dans la phrase.

Cette démarche, certes adaptée à des structures de phrases très élémentaires, révéla pourtant vite ses insuffisances pour... 98 % des phrases courantes : celles lues dans les journaux ou le courrier, entendues à la radio ou au téléphone. En fait, deux redoutables difficultés allaient rapidement surgir. L'une était d'ordre grammaticale, l'autre relevait de la sémantique-.

L'exemple suivant suffit à montrer la nature des difficultés rencontrées lors de la traduction d'une phrase simple du français à l'anglais :

« C'est une histoire d'amour. » = "That's a love story."

Un traducteur automatique va buter sur le mot « histoire », qui possède deux équivalents en anglais : « story » ou « history ». Ici, c'est le terme story qui convient. Mais pour faire le bon choix, il faut accéder au sens de la phrase. C'est le premier défi posé aux spécialistes du langage : comment apprendre à la machine à reconnaître le sens des mots et opter pour le bon terme dans les cas litigieux ? A cela s'ajoutait une seconde grande difficulté concernant l'ordre grammatical correct d'une phrase telle que : « Pour qui tu voteras ? » (en anglais : "Who will you vote for?"). Elle suppose un complet renversement de l'ordre des mots. Or, une telle opération n'est possible qu'après une analyse des différents constituants de la phrase et de leur fonction. Ce second obstacle relève de la syntaxe-.

On s'est donc tourné vers les linguistes, pensant qu'ils allaient pouvoir lever aisément ce genre de difficultés. Ne suffisait-il pas de dévoiler les principes qui gouvernent la syntaxe et la sémantique de la phrase pour résoudre le problème ?

A l'époque, la linguistique entrait justement dans une période nouvelle : celle des grammaires formelles, qui allaient révolutionner la discipline.

Au milieu des années 50, des linguistes comme l'Israélien Yehoshua Bar-Hillel, l'Américain Zellig Harris et l'un de ses plus brillants élèves, le jeune Noam Chomsky, s'étaient attelés à créer des grammaires afin de proposer une véritable analyse logique de la phrase.

Cette nouvelle linguistique repose sur l'idée qu'il existe une structure profonde qui gouverne la construction des phrases et permet d'en comprendre l'organisation. Cette structure profonde ne correspond pas à celle que décrivent les grammaires courantes, appelées « grammaires de surface ». Selon ces grammaires transformationnelles, les phrases sont bâties sur quelques constituants fondamentaux (syntagme- verbal, syntagme nominal...) qui s'enchaînent, se combinent et se modifient selon un ordre hiérarchique pour former toutes les phrases possibles. Le but des nouvelles grammaires est donc comparable à celui de l'analyse chimique : on analyse une phrase tout comme on décompose un corps chimique en molécules et atomes liés par quelques lois physiques.

Une telle hypothèse reposait sur plusieurs constats :

Premièrement, de nombreuses phrases sont bâties sur des architectures communes. Ainsi, les phrases « Pierre lit un livre d'histoire », et « le frère de Pierre lit attentivement un livre d'histoire que lui a prêté son ami Jean » sont organisées sur une même architecture logique.

Un second constat est que l'on peut obtenir par permutation (ou « transformation ») des constituants d'une phrase telle que « Paul chante une chanson », une autre proposition, « une chanson est chantée par Paul », qui n'est qu'une variante de la première.

A cette théorie grammaticale, N. Chomsky rajoutait d'autres hypothèses. Dans son premier livre Syntactic Structure (1957), il affirmait tout d'abord l'indépendance de la grammaire par rapport à la sémantique, autrement dit, que la construction des phrases n'est pas liée au contenu des mots ; en témoigne le fait que l'on reconnaît qu'une phrase comme « la terre cuit agréablement sur ton sac » est grammaticalement correcte même si elle n'a aucun sens. Inversement, il est des phrases grammaticalement incorrectes (« méchant le chien qui aboyé ») mais dont on comprend pourtant le sens.

N. Chomsky postulait également qu'il devait exister à la source une grammaire universelle reposant sur un petit nombre de règles de base et apte à générer tous les énoncés dans toutes les langues du monde. Cette grammaire universelle résulterait d'une capacité innée propre au cerveau humain.

On comprend l'intérêt qu'une telle théorie pouvait avoir pour la traduction automatique. Car une fois découvert cette « structure profonde », il serait aisé de créer des programmes informatiques capables de décoder, retranscrire et traduire toutes les phrases du langage « naturel ».

A partir des années 60, de nombreux chercheurs s'engagent dans cette voie et on assiste à la floraison d'un nombre important de grammaires nouvelles.

Des résistances inattendues

En fait, le problème allait s'avérer plus complexe que prévu. Les modèles issus des grammaires génératives- et transformationnelles étaient certes capables de rendre compte de certains aspects de la « structure profonde » des phrases, mais il y avait toujours des phrases rebelles, des contre-exemples qui n'entraient pas dans le cadre du modèle proposé (1). N. Chomsky fut conduit à remanier plusieurs fois sa théorie : après avoir formulé sa théorie standard dans les années 60, il propose une théorie standard étendue une dizaine d'années plus tard, puis la théorie des principes et des paramètres, et récemment, il définit un nouveau programme minimaliste qui réduit les ambitions et simplifie son modèle initial.

Parallèlement au programme chomskien (voir l'encadré p.16), d'autres chercheurs s'engageaient dans des modèles alternatifs comme les grammaires d'unification-. Mais elles aussi buttent sur des problèmes similaires : la difficulté à trouver une grammaire unifiée pour les différentes langues.

Aujourd'hui, après quarante ans de recherches acharnées, le problème n'a d'ailleurs toujours pas été résolu. Il n'existe pas « une » grammaire universelle (valable pour tout type de langue ou d'énoncé). Est-ce à dire que ce programme de recherche est une impasse ? Pas vraiment. Simplement, tous les modèles existants sont partiels : ils ne résolvent qu'une part limitée des problèmes posés. « Bien des progrès ont été effectués ces dernières années, mais il n'existe pas encore d'analyseur général de la langue, c'est-à-dire dont la couverture soit suffisamment large pour que l'on puisse être sûr que toutes les tournures de la langue soient traitables avec les moyens proposés » écrit Catherine Fuchs, spécialiste de la question. Résultat : on dispose de tout un arsenal de modèles et de règles à valeurs non universelles.

A la recherche du sens des mots

L'une des hypothèses lourdes formulées par Chomsky, et qui constituait l'un des butoirs des grammaires formelles, était qu'elles devaient être indépendantes de la sémantique. Or, dès les années 60, de fortes contestations s'étaient fait jour chez les élèves de Chomsky.

Pour les spécialistes de la traduction automatique, la recherche sémantique formait de toute façon un problème spécifique à résoudre. Que l'on parvienne ou non à retrouver des lois de composition grammaticale de la phrase indépendante du sens, il fallait aussi traduire correctement les mots. Et cela supposait d'accéder à leur signification. Comment, par exemple, traduire le mot anglais language là ou le français possède deux équivalents - langue et langage - sans comprendre son sens exact ? La réponse était qu'il fallait doter la machine d'un analyseur de sens, capable de faire comprendre à la machine la signification des mots.

Ainsi, à partir des années 70, les recherches s'orientent dans cette direction. Le premier à proposer une solution à ce défi est Ross Quillian, un jeune chercheur de l'université Carnegie-Mellon. Cet étudiant en... sociologie est en fait un passionné d'ordinateurs. Son rêve ? Utiliser la machine pour programmer, sous forme d'un immense réseau, les millions d'associations qui connectent les concepts entre eux dans notre mémoire. C'est dans sa thèse, dirigée par Herbert Simon et consacrée à la traduction automatique, qu'apparaît pour la première fois la solution : celle du réseau sémantique.

Le but d'un réseau sémantique est d'importer dans un ordinateur des connaissances relatives aux textes qu'il a à traiter. La technique consiste à associer à un concept (homme, arbre, clé, etc.) un certain nombre d'attributs qui lui sont liés (clé est un outil qui se rapporte à porte, elle est en métal...) et qui lui donnent un sens précis. On parvient ainsi à tisser autour de chaque concept-clé une constellation d'étiquettes représentant un de ses attributs. Ces étiquettes (exemple : oiseau est une étiquette associée à perroquet) sont à leur tour reliées à un groupe d'informations. L'ensemble du réseau d'information ainsi créé reflète une certaine représentation du monde : en langage technique, on parle de représentation des connaissances.

Ces méthodes permettent de lever certaines ambiguïtés face à la traduction, et à l'ordinateur, d'accéder au sens. Ainsi, la technique du réseau sémantique permet de résoudre un problème d'ambiguïté face à une phrase comme : « Je mange une salade d'avocats », dans laquelle avocat se traduit ici en anglais avocado et non par lawyer. Il suffit pour cela que l'ordinateur soit informé qu'un avocado est un fruit qui se mange, mais pas un lawyer (homme de loi)...

A partir du milieu des années 70, les réseaux sémantiques ont été vus comme une solution possible au traitement des questions de sens. Mais là encore, des difficultés apparurent rapidement.

Très vite, on s'est aperçu que les réseaux ne parvenaient pas à formuler toutes les traductions possibles, car il fallait créer un nombre de relations infinies entre tous les mots de la langue.

Qu'est ce qu'un oiseau ?

En fait, l'hypothèse sous-jacente des réseaux sémantiques est que l'on peut découper le monde en catégories étanches où chaque concept-objet possède un ensemble de caractéristiques bien définies, que l'on peut caractériser par quelques attributs. Mais ce n'est pas toujours le cas.

Apprendre à la machine que « oiseau » est un animal, qu'il a des plumes, qu'il vole, qu'il a un bec, qu'il pond des oeufs... est aisé. Mais cela ne correspond plus à la définition du poussin qui n'a pas encore de plumes et ne vole pas. De même, le kiwi est un oiseau qui n'a pas d'aile, l'autruche ne vole pas...

Pour traduire une phrase apparemment simple telle que : « Il prend la balle et la lance », on se trouve confronté à de redoutables problèmes d'ambiguïté sémantique que la méthode des réseaux sémantiques ne peut résoudre. En effet, la traduction anglaise évidente - "He takes the ball and throws it." -, suppose de traduire « la lance » par "throws it" et non par "the spear" (la lance du guerrier), autre version possible. Or, la bonne compréhension de cette phrase suppose une référence à un contexte donné : nous sommes dans une société occidentale, où les lances (javelots) ne sont pas des objets courants. Dans un autre contexte (un roman d'aventure par exemple), le mot peut prendre un autre sens. C'est justement ce contexte social et culturel, qui donne un sens précis à certains mots, qu'il est difficile de formaliser en termes de réseau sémantique.

Pour faire face à ce genre de situation liée à la vie courante, d'autres techniques furent alors conçues : celle des frames-, schémas- prototypes, scripts, graphes conceptuels-. Les prototypes inventés par Eleonore Rosh au milieu des années 70 sont des modes de représentation des connaissances reliant un mot (comme oiseau) à un modèle typique (le passereau ou l'aigle) ayant des caractéristiques courantes. Les scripts, créés à la même époque par le linguiste Roger Shank, sont des groupes d'informations qui résument les caractéristiques liées à une situation courante : ainsi, les garçons que l'on trouve dans les cafés sont des waiters (serveurs), et ils ne sont pas les mêmes que les boys que l'on trouve dans une école maternelle ; les cadres sont, dans les entreprises, des responsables de service et non des encadrements de tableaux, etc. Cette théorie des scripts suppose donc une dépendance conceptuelle du sens d'un mot par rapport au contexte, et de la grammaire par rapport à la sémantique. Récemment, d'autres modèles sont apparus, comme celui des graphes conceptuels de J. Sowa, ainsi que de nombreuses autres variations des systèmes de représentation des connaissances.

Malgré tous ces nouveaux modèles, rien n'y fit vraiment, l'apprentissage du sens des mots ne pouvait se faire que dans le cadre limité d'un « micro-univers », c'est-à-dire d'un domaine spécialisé. Il devenait possible de traduire correctement un texte, mais à condition de rester dans un univers sémantique assez pauvre comme un bulletin météo, une documentation technique ou encore un formulaire juridique rédigé en langage administratif.

Au final, la recherche sémantique a donc connu une évolution parallèle à celle de la grammaire : une prolifération de modèles, dont chacun résolvait des problèmes nouveaux, mais qui étaient tous limités.

Peu à peu, les spécialistes sont devenus sceptiques sur la capacité à trouver un analyseur général du sens. D'autant que le langage est truffé d'expressions métaphoriques, de mots détournés de leur sens, ou dont la signification évolue, change selon le contexte...

Le langage est-il soluble dans une machine ?

Cinquante ans après ses débuts, la traduction automatique a-t-elle tenu ses promesses ? Le bilan est mitigé. Le traitement grammatical fait l'objet de nombreuses modélisations dont chacune ne résout qu'une petite partie des problèmes d'organisation syntaxique. En matière de sémantique, on a découvert, grâce aux systèmes de représentation des connaissances (réseaux sémantiques, scripts, prototypes et graphes conceptuels) une façon d'accéder à une certaine profondeur du sens. Mais la traduction ne fonctionne bien que dans des domaines d'application très spécialisés (textes commerciaux, juridiques, techniques) et à partir de formulations grammaticales très élémentaires. Les nuances et la flexibilité de sens que l'on trouve dans le langage courant, et a fortiori dans les textes littéraires, prennent très rapidement les machines en défaut.

On peut se demander si la combinaison entre les différents modèles de grammaire et de sémantique, dont le champ d'action est limité, n'est pas la voie à suivre pour faire progresser désormais la traduction. En d'autres termes, ne faut-il pas chercher à articuler entre elles les diverses méthodes (techniques de représentations de connaissances et modules de grammaires) plutôt que de vouloir créer un hypothétique analyseur général de sens ou une grammaire universelle ? C'est une hypothèse plausible, mais cela suppose que l'on sache faire appel à tel ou tel module à bon escient : ce qu'on ne sait pas faire.

Les résistances de la traduction automatique posent des questions fondamentales sur la nature même du langage.

La mécanisation du discours est-elle possible ? La réponse n'est pas tranchée. Comme l'écrit Maurice Gross, un des meilleurs spécialistes français de la traduction automatique, « certaines activités intellectuelles supérieures comportent bien des aspects mécaniques », et ce sont justement celles que l'on parvient facilement à faire exécuter par une machine. Mais parviendra-t-on à mécaniser toutes les activités langagières ? Après un demi-siècle de recherches, « aucune raison théorique ne permet aujourd'hui de le penser », conclut le même auteur.

Si la traduction automatique n'a pas atteint ses buts, son premier mérite est en tout cas d'avoir soumis les théories linguistiques à de redoutables épreuves expérimentales. Cinquante ans de recherches et d'expériences nous aura beaucoup appris sur la complexité de l'organisation du langage, ses liens indissolubles avec la pensée et ses contextes d'utilisation, et surtout... sur les nombreuses zones d'ombre qui restent à dévoiler.