scienceshumaines / data /articles /article_index-108.xml
de-francophones's picture
Upload 126 files
ad92b7a verified
<?xml version="1.0" encoding="utf-8"?>
<TEI xmlns="http://www.tei-c.org/ns/1.0">
<teiHeader>
<fileDesc>
<titleStmt>
<title>Les limites de la traduction automatique</title>
<author>JEAN-FRANÇOIS DORTIER</author>
<respStmt>
<resp>Encodage en TEI</resp>
<name>Bertrand Gaiffe</name>
<name>Vincent Meslard</name>
</respStmt>
</titleStmt>
<extent>4329</extent>
<publicationStmt>
<distributor>ATILF (Analyse et Traitement Informatique de la Langue Française)</distributor>
<address>
<addrLine>44, avenue de la Libération</addrLine>
<addrLine>BP 30687</addrLine>
<addrLine>54063 Nancy Cedex</addrLine>
<addrLine>FRANCE</addrLine>
</address>
<availability status="free">
<p>
Creative Commons - Paternité - Pas d'Utilisation Commerciale - Partage des Conditions Initiales à l'Identique 2.0 France (CC BY-NC-SA 2.0)
<ptr target="http://creativecommons.org/licenses/by-nc-sa/2.0/fr/"/></p>
</availability>
</publicationStmt>
<notesStmt>
<note type="resume">Les recherches sur le traitement automatique du langage buttent sur deux
obstacles : le premier est la création d'une grammaire universelle capable de reconstruire
l'organisation de la phrase. Le second est l'accès au sens des mots. Paradoxalement, ces
résistances nous permettent de mieux percevoir les dimensions de l'extraordinaire
complexité du langage, et sa dépendance à l'égard de la pensée.</note>
</notesStmt>
<sourceDesc>
<biblStruct>
<analytic>
<author>JEAN-FRANÇOIS DORTIER</author>
<title>Les limites de la traduction automatique</title>
</analytic>
<monogr>
<title level="j">Sciences Humaines</title>
<title level="a">L'imaginaire contemporain</title>
<imprint>
<date when="1999-01-01">Janvier 1999</date>
<publisher>Sciences Humaines</publisher>
<biblScope type="issue" n="90">Mensuel n° 90</biblScope>
</imprint>
</monogr>
</biblStruct>
</sourceDesc>
</fileDesc>
<profileDesc>
<textClass>
<catRef target="#Enjeux" scheme="#rubriques"/>
<catRef target="#Sciences_du_langage" scheme="#disciplines"/>
<keywords scheme="#SHS">
<term>JEAN-FRANÇOIS DORTIER</term>
<term>Sciences du langage</term>
<term>traduction automatique</term>
<term>grammaire générative</term>
<term>langage</term>
</keywords>
</textClass>
<langUsage>
<language ident="fr">français</language>
</langUsage>
</profileDesc>
<encodingDesc>
<classDecl>
<taxonomy xml:id="rubriques">
<bibl>Rubriques définies par la revue sciences humaines</bibl>
<category xml:id="Actualite_de_la_recherche">
<catDesc>Actualité de la recherche</catDesc>
</category>
<category xml:id="Classiques">
<catDesc>Classiques</catDesc>
</category>
<category xml:id="Courants_et_disciplines">
<catDesc>Courants et disciplines</catDesc>
</category>
<category xml:id="Dossier">
<catDesc>Dossier</catDesc>
</category>
<category xml:id="Echos_des_recherches">
<catDesc>Echos des recherches</catDesc>
</category>
<category xml:id="Enjeux">
<catDesc>Enjeux</catDesc>
</category>
<category xml:id="Entretien">
<catDesc>Entretien</catDesc>
</category>
<category xml:id="Evenement">
<catDesc>Evénement</catDesc>
</category>
<category xml:id="Grand_Dossier">
<catDesc>Grand Dossier</catDesc>
</category>
<category xml:id="Le_point_sur">
<catDesc>Le point sur...</catDesc>
</category>
<category xml:id="Livres">
<catDesc>Livres</catDesc>
</category>
<category xml:id="References">
<catDesc>Références</catDesc>
</category>
</taxonomy>
</classDecl>
<classDecl xml:id="disciplines">
<taxonomy>
<bibl>Disciplines définies par la revue sciences-humaines</bibl>
<category xml:id="Communication">
<catDesc>Communication</catDesc>
</category>
<category xml:id="Droit">
<catDesc>Droit</catDesc>
</category>
<category xml:id="Economie">
<catDesc>Économie</catDesc>
</category>
<category xml:id="Education">
<catDesc>Éducation</catDesc>
</category>
<category xml:id="Epistemologie">
<catDesc>Épistémologie</catDesc>
</category>
<category xml:id="Ethnologie">
<catDesc>Ethnologie</catDesc>
</category>
<category xml:id="Litterature">
<catDesc>Littérature</catDesc>
</category>
<category xml:id="Philosophie">
<catDesc>Philosophie</catDesc>
</category>
<category xml:id="Prehistoire">
<catDesc>Préhistoire</catDesc>
</category>
<category xml:id="Psychanalyse">
<catDesc>Psychanalyse</catDesc>
</category>
<category xml:id="Psychiatrie">
<catDesc>Psychiatrie</catDesc>
</category>
<category xml:id="Psychologie">
<catDesc>Psychologie</catDesc>
</category>
<category xml:id="Psychologie_sociale">
<catDesc>Psychologie sociale</catDesc>
</category>
<category xml:id="Sciences_cognitives">
<catDesc>Sciences cognitives</catDesc>
</category>
<category xml:id="Sciences_du_langage">
<catDesc>Sciences du langage</catDesc>
</category>
<category xml:id="Sciences_Humaines">
<catDesc>Sciences Humaines</catDesc>
</category>
<category xml:id="Sciences_Politiques">
<catDesc>Sciences Politiques</catDesc>
</category>
<category xml:id="Sociologie">
<catDesc>Sociologie</catDesc>
</category>
</taxonomy>
</classDecl>
</encodingDesc>
</teiHeader>
<text>
<body>
<div>
<head> Les limites de la traduction automatique </head>
<head type="author"> JEAN-FRANÇOIS DORTIER </head>
<head> Les recherches sur le traitement automatique du langage buttent sur deux obstacles : le
premier est la création d'une grammaire universelle capable de reconstruire l'organisation
de la phrase. Le second est l'accès au sens des mots. Paradoxalement, ces résistances nous
permettent de mieux percevoir les dimensions de l'extraordinaire complexité du langage, et
sa dépendance à l'égard de la pensée. </head>
<p><hi rend="b">L</hi>a traduction automatique et, plus généralement, le traitement automatique du
langage naturel- est un grand programme de recherche qui mobilise depuis maintenant plus
de cinq décennies les spécialistes des sciences cognitives - linguistes, informaticiens,
psychologues - dans le monde entier.</p>
<p>Les enjeux économiques, stratégiques et scientifiques se sont accrus avec la
multiplication des échanges culturels, économiques, technologiques entre pays. La
traduction automatique, c'est la possibilité de diminuer les coûts liés aux échanges
commerciaux, de multiplier la diffusion de certaines informations (dépêches d'agences,
textes scientifiques, revues, journaux), d'intégrer des modules de traduction dans les
traitements de texte. Avec Internet, d'où sont accessibles en tout point du globe des
informations dans presque toutes les langues, l'enjeu devient central.</p>
<p>D'ores et déjà, on dispose de logiciels de traduction sur le marché. Des firmes les
utilisent pour traduire leur documentation technique, des bulletins météo, des dépêches
d'agence ou encore à des fins de veille technologique. Est-ce à dire que, d'ici peu, le
problème sera globalement résolu ? Non! affirment les spécialistes. Cinquante ans après le
début des recherches en traduction automatique, on est encore loin du but. Une petite
expérience de traduction automatique, que l'on peut faire soi-même sur Internet, est
révélatrice (<ref rend="i">voir l'encadré page 15</ref>). Le traitement automatique du langage a conduit à
des impasses inattendues. Derrière la difficulté apparemment technique de mécanisation
du langage s'est posée une foule de problèmes théoriques, qui touchent à la nature même
du langage humain et à ses liens avec la pensée.
</p>
<div>
<head> Les premières tentatives de traduction automatique </head>
<p>Les premières recherches sur la traduction automatique remontent à plus d'un demi-siècle.
Après les études pionnières entreprises par le Russe Smirnov-Trojanskkij dès les années
30, il faut attendre les lendemains de la Seconde Guerre mondiale aux Etats-Unis pour que
l'on envisage d'utiliser l'informatique naissante à des fins de traduction.</p>
<p>L'objectif était prosaïque : à l'époque, les services secrets américains rêvaient d'un
système capable de traduire rapidement et au moindre coût les communications interceptées
chez les Soviétiques. Dans cette optique d'espionnage, on pensait alors que la traduction
relevait de la même logique que celle du décryptage des codes secrets. L'idée des
ingénieurs, non formés à la linguistique, reposait sur un principe simple : en dotant
l'ordinateur d'un bon dictionnaire bilingue et des deux grammaires, celle de la langue
source (langue à traduire) et celle de la langue cible (langue destinataire), on
parviendrait facilement à réaliser une traduction de bonne qualité. Traduire une phrase
telle que « le Président est occupé, il reçoit une stagiaire » ne présente actuellement
aucune difficulté majeure pour une machine. Il suffisait de remplacer mot pour mot puis de
rétablir éventuellement l'ordre des mots dans la phrase.</p>
<p>Cette démarche, certes adaptée à des structures de phrases très élémentaires, révéla
pourtant vite ses insuffisances pour... 98 % des phrases courantes : celles lues dans les
journaux ou le courrier, entendues à la radio ou au téléphone. En fait, deux redoutables
difficultés allaient rapidement surgir. L'une était d'ordre grammaticale, l'autre relevait
de la sémantique-.</p>
<p>L'exemple suivant suffit à montrer la nature des difficultés rencontrées lors de la
traduction d'une phrase simple du français à l'anglais :</p>
<p>« C'est une histoire d'amour. » = "<hi rend="i">That's a love story.</hi>"</p>
<p>Un traducteur automatique va buter sur le mot « histoire », qui possède deux équivalents
en anglais : « story » ou « <hi rend="i">history</hi> ». Ici, c'est le terme <hi rend="i">story</hi> qui
convient. Mais pour faire le bon choix, il faut accéder au sens de la phrase. C'est le
premier défi posé aux spécialistes du langage : comment apprendre à la machine à
reconnaître le sens des mots et opter pour le bon terme dans les cas litigieux ? A cela
s'ajoutait une seconde grande difficulté concernant l'ordre grammatical correct d'une
phrase telle que : « Pour qui tu voteras ? » (en anglais : "<hi rend="i">Who will you vote
for?</hi>"). Elle suppose un complet renversement de l'ordre des mots. Or, une telle
opération n'est possible qu'après une analyse des différents constituants de la phrase et
de leur fonction. Ce second obstacle relève de la syntaxe-.</p>
<p>On s'est donc tourné vers les linguistes, pensant qu'ils allaient pouvoir lever aisément
ce genre de difficultés. Ne suffisait-il pas de dévoiler les principes qui gouvernent la
syntaxe et la sémantique de la phrase pour résoudre le problème ?</p>
<p>A l'époque, la linguistique entrait justement dans une période nouvelle : celle des
grammaires formelles, qui allaient révolutionner la discipline.</p>
<p>Au milieu des années 50, des linguistes comme l'Israélien Yehoshua Bar-Hillel,
l'Américain Zellig Harris et l'un de ses plus brillants élèves, le jeune Noam Chomsky,
s'étaient attelés à créer des grammaires afin de proposer une véritable analyse logique de
la phrase.</p>
<p>Cette nouvelle linguistique repose sur l'idée qu'il existe une structure profonde qui
gouverne la construction des phrases et permet d'en comprendre l'organisation. Cette
structure profonde ne correspond pas à celle que décrivent les grammaires courantes,
appelées « grammaires de surface ». Selon ces grammaires transformationnelles, les phrases
sont bâties sur quelques constituants fondamentaux (syntagme- verbal, syntagme nominal...)
qui s'enchaînent, se combinent et se modifient selon un ordre hiérarchique pour former
toutes les phrases possibles. Le but des nouvelles grammaires est donc comparable à celui
de l'analyse chimique : on analyse une phrase tout comme on décompose un corps chimique en
molécules et atomes liés par quelques lois physiques.</p>
<p>Une telle hypothèse reposait sur plusieurs constats :</p>
<p>Premièrement, de nombreuses phrases sont bâties sur des architectures communes. Ainsi,
les phrases « Pierre lit un livre d'histoire », et « le frère de Pierre lit attentivement
un livre d'histoire que lui a prêté son ami Jean » sont organisées sur une même
architecture logique. </p>
<p>Un second constat est que l'on peut obtenir par permutation (ou « transformation ») des
constituants d'une phrase telle que « Paul chante une chanson », une autre proposition,
« une chanson est chantée par Paul », qui n'est qu'une variante de la première.</p>
<p>A cette théorie grammaticale, N. Chomsky rajoutait d'autres hypothèses. Dans son premier
livre <bibl><title>Syntactic Structure</title> (1957)</bibl>, il affirmait tout d'abord l'indépendance de la
grammaire par rapport à la sémantique, autrement dit, que la construction des phrases
n'est pas liée au contenu des mots ; en témoigne le fait que l'on reconnaît qu'une phrase
comme « la terre cuit agréablement sur ton sac » est grammaticalement correcte même si
elle n'a aucun sens. Inversement, il est des phrases grammaticalement incorrectes
(« méchant le chien qui aboyé ») mais dont on comprend pourtant le sens.</p>
<p>N. Chomsky postulait également qu'il devait exister à la source une grammaire universelle
reposant sur un petit nombre de règles de base et apte à générer tous les énoncés dans
toutes les langues du monde. Cette grammaire universelle résulterait d'une capacité innée
propre au cerveau humain.</p>
<p>On comprend l'intérêt qu'une telle théorie pouvait avoir pour la traduction automatique.
Car une fois découvert cette « structure profonde », il serait aisé de créer des
programmes informatiques capables de décoder, retranscrire et traduire toutes les phrases
du langage « naturel ».</p>
<p>A partir des années 60, de nombreux chercheurs s'engagent dans cette voie et on assiste à
la floraison d'un nombre important de grammaires nouvelles.</p>
</div>
<div>
<head> Des résistances inattendues </head>
<p>En fait, le problème allait s'avérer plus complexe que prévu. Les modèles issus des
grammaires génératives- et transformationnelles étaient certes capables de rendre compte
de certains aspects de la « structure profonde » des phrases, mais il y avait toujours des
phrases rebelles, des contre-exemples qui n'entraient pas dans le cadre du modèle proposé
<ref target="#1" type="lexique">(1)</ref>. N. Chomsky fut conduit à remanier plusieurs fois
sa théorie : après avoir formulé sa théorie standard dans les années 60, il propose une
théorie standard étendue une dizaine d'années plus tard, puis la théorie des principes et
des paramètres, et récemment, il définit un nouveau programme minimaliste qui réduit les
ambitions et simplifie son modèle initial.</p>
<p>Parallèlement au programme chomskien (<ref rend="i">voir l'encadré p.16</ref>), d'autres chercheurs
s'engageaient dans des modèles alternatifs comme les grammaires d'unification-. Mais elles
aussi buttent sur des problèmes similaires : la difficulté à trouver une grammaire unifiée
pour les différentes langues.</p>
<p>Aujourd'hui, après quarante ans de recherches acharnées, le problème n'a d'ailleurs
toujours pas été résolu. Il n'existe pas « une » grammaire universelle (valable pour tout
type de langue ou d'énoncé). Est-ce à dire que ce programme de recherche est une impasse ?
Pas vraiment. Simplement, tous les modèles existants sont partiels : ils ne résolvent
qu'une part limitée des problèmes posés. « <quote rend="i">Bien des progrès ont été effectués ces
dernières années, mais il n'existe pas encore d'analyseur général de la langue,
c'est-à-dire dont la couverture soit suffisamment large pour que l'on puisse être sûr
que toutes les tournures de la langue soient traitables avec les moyens proposés </quote>»
écrit Catherine Fuchs, spécialiste de la question. Résultat : on dispose de tout un
arsenal de modèles et de règles à valeurs non universelles.</p>
</div>
<div>
<head> A la recherche du sens des mots </head>
<p>L'une des hypothèses lourdes formulées par Chomsky, et qui constituait l'un des butoirs
des grammaires formelles, était qu'elles devaient être indépendantes de la sémantique. Or,
dès les années 60, de fortes contestations s'étaient fait jour chez les élèves de
Chomsky.</p>
<p>Pour les spécialistes de la traduction automatique, la recherche sémantique formait de
toute façon un problème spécifique à résoudre. Que l'on parvienne ou non à retrouver des
lois de composition grammaticale de la phrase indépendante du sens, il fallait aussi
traduire correctement les mots. Et cela supposait d'accéder à leur signification. Comment,
par exemple, traduire le mot anglais <foreign xml:lang="en" rend="i">language </foreign>là ou le français possède deux
équivalents - langue et langage - sans comprendre son sens exact ? La réponse était qu'il
fallait doter la machine d'un analyseur de sens, capable de faire comprendre à la machine
la signification des mots.</p>
<p>Ainsi, à partir des années 70, les recherches s'orientent dans cette direction. Le
premier à proposer une solution à ce défi est Ross Quillian, un jeune chercheur de
l'université Carnegie-Mellon. Cet étudiant en... sociologie est en fait un passionné
d'ordinateurs. Son rêve ? Utiliser la machine pour programmer, sous forme d'un immense
réseau, les millions d'associations qui connectent les concepts entre eux dans notre
mémoire. C'est dans sa thèse, dirigée par Herbert Simon et consacrée à la traduction
automatique, qu'apparaît pour la première fois la solution : celle du réseau
sémantique.</p>
<p>Le but d'un réseau sémantique est d'importer dans un ordinateur des connaissances
relatives aux textes qu'il a à traiter. La technique consiste à associer à un concept
(homme, arbre, clé, etc.) un certain nombre d'attributs qui lui sont liés (clé est un
outil qui se rapporte à porte, elle est en métal...) et qui lui donnent un sens précis. On
parvient ainsi à tisser autour de chaque concept-clé une constellation d'étiquettes
représentant un de ses attributs. Ces étiquettes (exemple : oiseau est une étiquette
associée à perroquet) sont à leur tour reliées à un groupe d'informations. L'ensemble du
réseau d'information ainsi créé reflète une certaine représentation du monde : en langage
technique, on parle de représentation des connaissances. </p>
<p>Ces méthodes permettent de lever certaines ambiguïtés face à la traduction, et à
l'ordinateur, d'accéder au sens. Ainsi, la technique du réseau sémantique permet de
résoudre un problème d'ambiguïté face à une phrase comme : « Je mange une salade
d'avocats », dans laquelle avocat se traduit ici en anglais <foreign xml:lang="en" rend="i">avocado </foreign>et non par
<foreign xml:lang="en" rend="i">lawyer</foreign>. Il suffit pour cela que l'ordinateur soit informé qu'un <foreign xml:lang="en">avocado
</foreign>est un fruit qui se mange, mais pas un <foreign xml:lang="en">lawyer </foreign>(homme de loi)...</p>
<p>A partir du milieu des années 70, les réseaux sémantiques ont été vus comme une solution
possible au traitement des questions de sens. Mais là encore, des difficultés apparurent
rapidement.</p>
<p>Très vite, on s'est aperçu que les réseaux ne parvenaient pas à formuler toutes les
traductions possibles, car il fallait créer un nombre de relations infinies entre tous les
mots de la langue.</p>
</div>
<div>
<head> Qu'est ce qu'un oiseau ? </head>
<p>En fait, l'hypothèse sous-jacente des réseaux sémantiques est que l'on peut découper le
monde en catégories étanches où chaque concept-objet possède un ensemble de
caractéristiques bien définies, que l'on peut caractériser par quelques attributs. Mais ce
n'est pas toujours le cas.</p>
<p>Apprendre à la machine que « oiseau » est un animal, qu'il a des plumes, qu'il vole,
qu'il a un bec, qu'il pond des oeufs... est aisé. Mais cela ne correspond plus à la
définition du poussin qui n'a pas encore de plumes et ne vole pas. De même, le kiwi est un
oiseau qui n'a pas d'aile, l'autruche ne vole pas...</p>
<p>Pour traduire une phrase apparemment simple telle que : « Il prend la balle et la
lance », on se trouve confronté à de redoutables problèmes d'ambiguïté sémantique que la
méthode des réseaux sémantiques ne peut résoudre. En effet, la traduction anglaise
évidente - "<foreign xml:lang="en" rend="i">He takes the ball and throws it.</foreign>" -, suppose de traduire « la lance »
par "throws it" et non par "<foreign xml:lang="en" rend="i">the spear</foreign>" (la lance du guerrier), autre version
possible. Or, la bonne compréhension de cette phrase suppose une référence à un contexte
donné : nous sommes dans une société occidentale, où les lances (javelots) ne sont pas des
objets courants. Dans un autre contexte (un roman d'aventure par exemple), le mot peut
prendre un autre sens. C'est justement ce contexte social et culturel, qui donne un sens
précis à certains mots, qu'il est difficile de formaliser en termes de réseau
sémantique.</p>
<p>Pour faire face à ce genre de situation liée à la vie courante, d'autres techniques
furent alors conçues : celle des frames-, schémas- prototypes, scripts, graphes
conceptuels-. Les prototypes inventés par Eleonore Rosh au milieu des années 70 sont des
modes de représentation des connaissances reliant un mot (comme oiseau) à un modèle
typique (le passereau ou l'aigle) ayant des caractéristiques courantes. Les scripts, créés
à la même époque par le linguiste Roger Shank, sont des groupes d'informations qui
résument les caractéristiques liées à une situation courante : ainsi, les garçons que l'on
trouve dans les cafés sont des <foreign xml:lang="en" rend="i">waiters </foreign>(serveurs), et ils ne sont pas les mêmes que
les <foreign xml:lang="en" rend="i">boys </foreign>que l'on trouve dans une école maternelle ; les cadres sont, dans les
entreprises, des responsables de service et non des encadrements de tableaux, etc. Cette
théorie des scripts suppose donc une dépendance conceptuelle du sens d'un mot par rapport
au contexte, et de la grammaire par rapport à la sémantique. Récemment, d'autres modèles
sont apparus, comme celui des graphes conceptuels de J. Sowa, ainsi que de nombreuses
autres variations des systèmes de représentation des connaissances.</p>
<p>Malgré tous ces nouveaux modèles, rien n'y fit vraiment, l'apprentissage du sens des mots
ne pouvait se faire que dans le cadre limité d'un « micro-univers », c'est-à-dire d'un
domaine spécialisé. Il devenait possible de traduire correctement un texte, mais à
condition de rester dans un univers sémantique assez pauvre comme un bulletin météo, une
documentation technique ou encore un formulaire juridique rédigé en langage
administratif.</p>
<p>Au final, la recherche sémantique a donc connu une évolution parallèle à celle de la
grammaire : une prolifération de modèles, dont chacun résolvait des problèmes nouveaux,
mais qui étaient tous limités.</p>
<p>Peu à peu, les spécialistes sont devenus sceptiques sur la capacité à trouver un
analyseur général du sens. D'autant que le langage est truffé d'expressions métaphoriques,
de mots détournés de leur sens, ou dont la signification évolue, change selon le
contexte...</p>
</div>
<div>
<head> Le langage est-il soluble dans une machine ? </head>
<p>Cinquante ans après ses débuts, la traduction automatique a-t-elle tenu ses
promesses ? Le bilan est mitigé. Le traitement grammatical fait l'objet de nombreuses
modélisations dont chacune ne résout qu'une petite partie des problèmes d'organisation
syntaxique. En matière de sémantique, on a découvert, grâce aux systèmes de représentation
des connaissances (réseaux sémantiques, scripts, prototypes et graphes conceptuels) une
façon d'accéder à une certaine profondeur du sens. Mais la traduction ne fonctionne bien
que dans des domaines d'application très spécialisés (textes commerciaux, juridiques,
techniques) et à partir de formulations grammaticales très élémentaires. Les nuances et la
flexibilité de sens que l'on trouve dans le langage courant, et a <foreign xml:lang="lat" rend="i">fortiori</foreign> dans les
textes littéraires, prennent très rapidement les machines en défaut.</p>
<p>On peut se demander si la combinaison entre les différents modèles de grammaire et de
sémantique, dont le champ d'action est limité, n'est pas la voie à suivre pour faire
progresser désormais la traduction. En d'autres termes, ne faut-il pas chercher à
articuler entre elles les diverses méthodes (techniques de représentations de
connaissances et modules de grammaires) plutôt que de vouloir créer un hypothétique
analyseur général de sens ou une grammaire universelle ? C'est une hypothèse plausible,
mais cela suppose que l'on sache faire appel à tel ou tel module à bon escient : ce qu'on
ne sait pas faire.</p>
<p>Les résistances de la traduction automatique posent des questions fondamentales sur la
nature même du langage.</p>
<p>La mécanisation du discours est-elle possible ? La réponse n'est pas tranchée. Comme
l'écrit Maurice Gross, un des meilleurs spécialistes français de la traduction
automatique, « <quote rend="i">certaines activités intellectuelles supérieures comportent bien des
aspects mécaniques </quote>», et ce sont justement celles que l'on parvient facilement à
faire exécuter par une machine. Mais parviendra-t-on à mécaniser toutes les activités
langagières ? Après un demi-siècle de recherches, « <quote rend="i">aucune raison théorique ne permet
aujourd'hui de le penser </quote>», conclut le même auteur.</p>
<p>Si la traduction automatique n'a pas atteint ses buts, son premier mérite est en tout cas
d'avoir soumis les théories linguistiques à de redoutables épreuves expérimentales.
Cinquante ans de recherches et d'expériences nous aura beaucoup appris sur la complexité
de l'organisation du langage, ses liens indissolubles avec la pensée et ses contextes
d'utilisation, et surtout... sur les nombreuses zones d'ombre qui restent à dévoiler.</p>
</div>
</div>
</body>
</text>
</TEI>