{ "paper_id": "F13-1036", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T09:41:15.892805Z" }, "title": "Approches \u00e0 base de fr\u00e9quences pour la simplification lexicale", "authors": [ { "first": "Anne-Laure", "middle": [], "last": "Ligozat", "suffix": "", "affiliation": { "laboratory": "", "institution": "LIMSI-CNRS", "location": {} }, "email": "" }, { "first": "Cyril", "middle": [], "last": "Grouin", "suffix": "", "affiliation": { "laboratory": "", "institution": "LIMSI-CNRS", "location": {} }, "email": "" }, { "first": "Anne", "middle": [], "last": "Garcia-Fernandez", "suffix": "", "affiliation": {}, "email": "" }, { "first": "Delphine", "middle": [], "last": "Bernhard", "suffix": "", "affiliation": {}, "email": "" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "La simplification lexicale consiste \u00e0 remplacer des mots ou des phrases par leur \u00e9quivalent plus simple. Dans cet article, nous pr\u00e9sentons trois mod\u00e8les de simplification lexicale, fond\u00e9s sur diff\u00e9rents crit\u00e8res qui font qu'un mot est plus simple \u00e0 lire et \u00e0 comprendre qu'un autre. Nous avons test\u00e9 diff\u00e9rentes tailles de contextes autour du mot \u00e9tudi\u00e9 : absence de contexte avec un mod\u00e8le fond\u00e9 sur des fr\u00e9quences de termes dans un corpus d'anglais simplifi\u00e9 ; quelques mots de contexte au moyen de probabilit\u00e9s \u00e0 base de n-grammes issus de donn\u00e9es du web ; et le contexte \u00e9tendu avec un mod\u00e8le fond\u00e9 sur les fr\u00e9quences de cooccurrences.", "pdf_parse": { "paper_id": "F13-1036", "_pdf_hash": "", "abstract": [ { "text": "La simplification lexicale consiste \u00e0 remplacer des mots ou des phrases par leur \u00e9quivalent plus simple. Dans cet article, nous pr\u00e9sentons trois mod\u00e8les de simplification lexicale, fond\u00e9s sur diff\u00e9rents crit\u00e8res qui font qu'un mot est plus simple \u00e0 lire et \u00e0 comprendre qu'un autre. Nous avons test\u00e9 diff\u00e9rentes tailles de contextes autour du mot \u00e9tudi\u00e9 : absence de contexte avec un mod\u00e8le fond\u00e9 sur des fr\u00e9quences de termes dans un corpus d'anglais simplifi\u00e9 ; quelques mots de contexte au moyen de probabilit\u00e9s \u00e0 base de n-grammes issus de donn\u00e9es du web ; et le contexte \u00e9tendu avec un mod\u00e8le fond\u00e9 sur les fr\u00e9quences de cooccurrences.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "La simplification textuelle consiste \u00e0 rendre les textes plus faciles \u00e0 lire, par exemple pour des enfants ou des locuteurs non natifs. Des documents de tout type peuvent ainsi \u00eatre rendus accessibles \u00e0 diff\u00e9rents publics ; dans notre travail, nous consid\u00e9rerons un public de locuteurs non natifs de l'anglais et des documents de domaine g\u00e9n\u00e9ral.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Deux sous-t\u00e2ches sont g\u00e9n\u00e9ralement distingu\u00e9es dans la simplification textuelle automatique, bien qu'elles ne soient pas totalement d\u00e9connect\u00e9es : la simplification syntaxique et la simplification lexicale. Nous nous int\u00e9ressons plus particuli\u00e8rement \u00e0 la probl\u00e9matique de la simplification lexicale. Ce type de simplification consiste \u00e0 remplacer des mots ou des phrases par des \u00e9quivalents plus simples. Afin de proc\u00e9der \u00e0 de telles substitutions, il importe d'abord d'identifier des mots \u00e9quivalents qui correspondent au contexte, puis de choisir le mot le plus simple. Dans le cadre de nos travaux sur la simplification, nous nous sommes int\u00e9ress\u00e9s \u00e0 la probl\u00e9matique de la simplification lexicale, et plus particuli\u00e8rement \u00e0 l'\u00e9valuation de mots \u00e9quivalents en contexte, en fonction de leur degr\u00e9 de simplicit\u00e9. Dans cet article, nous pr\u00e9sentons les exp\u00e9riences suppl\u00e9mentaires que nous avons men\u00e9es \u00e0 partir des syst\u00e8mes que nous avons cr\u00e9\u00e9s lors de notre participation \u00e0 cette campagne (Ligozat et al., 2012) . Nous avons d\u00e9fini trois types de crit\u00e8res fond\u00e9s sur les fr\u00e9quences des mots \u00e0 simplifier et de leurs substituts : les crit\u00e8res sur le mot luim\u00eame, des crit\u00e8res reposant sur les contextes locaux, et des crit\u00e8res sur les contextes th\u00e9matiques. Ce dernier type de crit\u00e8re constitue une exp\u00e9rience nouvelle par rapport \u00e0 notre participation d'origine \u00e0 SemEval 2012.", "cite_spans": [ { "start": 993, "end": 1015, "text": "(Ligozat et al., 2012)", "ref_id": "BIBREF8" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "La simplification lexicale est proche de plusieurs t\u00e2ches. Sa premi\u00e8re \u00e9tape consiste \u00e0 choisir les substituts possibles d'un mot donn\u00e9 et requiert une d\u00e9sambigu\u00efsation s\u00e9mantique au niveau du mot et une recherche de paraphrases. La seconde \u00e9tape consid\u00e8re tous les substituts ou paraphrases possibles, et vise \u00e0 ordonner ces \u00e9l\u00e9ments en fonction de leur niveau de simplicit\u00e9. La simplification peut \u00e9galement \u00eatre consid\u00e9r\u00e9e comme une t\u00e2che de traduction entre une langue standard et une version simplifi\u00e9e de cette langue ; nous notons que dans les traductions habituelles, il est difficile de produire des corpus totalement parall\u00e8les.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Alors que la simplification syntaxique a fait l'objet d'un grand nombre de travaux (Siddharthan, 2006; Woodsend et Lapata, 2011; Watanabe et al., 2009) , la simplification lexicale a comparativement \u00e9t\u00e9 moins trait\u00e9e.", "cite_spans": [ { "start": 83, "end": 102, "text": "(Siddharthan, 2006;", "ref_id": null }, { "start": 103, "end": 128, "text": "Woodsend et Lapata, 2011;", "ref_id": "BIBREF13" }, { "start": 129, "end": 151, "text": "Watanabe et al., 2009)", "ref_id": "BIBREF12" } ], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Les premiers travaux sur la simplification lexicale ont consist\u00e9 \u00e0 remplacer des mots par des synonymes plus communs issus de WordNet ou d'autres dictionnaires (Devlin, 1999; Carroll et al., 1999; Lal et R\u00fcger, 2002) . La complexit\u00e9 lexicale est g\u00e9n\u00e9ralement estim\u00e9e en termes de (i) longueur du mot (nombre de caract\u00e8res) ou nombre de syllabes, ou (ii) de fr\u00e9quence du mot, fond\u00e9e sur une analyse en corpus ou une base de donn\u00e9es, telle que la base de donn\u00e9es psycholinguistique MRC (Lal et R\u00fcger, 2002) . Drndarevi\u0107 et Saggion (2012) ont montr\u00e9 que la fr\u00e9quence des mots et leur longueur en nombre de caract\u00e8res ou de syllabes \u00e9taient des indicateurs utiles de complexit\u00e9 lexicale \u00e0 partir d'un corpus parall\u00e8le espagnol.", "cite_spans": [ { "start": 160, "end": 174, "text": "(Devlin, 1999;", "ref_id": "BIBREF3" }, { "start": 175, "end": 196, "text": "Carroll et al., 1999;", "ref_id": "BIBREF2" }, { "start": 197, "end": 216, "text": "Lal et R\u00fcger, 2002)", "ref_id": "BIBREF7" }, { "start": 484, "end": 504, "text": "(Lal et R\u00fcger, 2002)", "ref_id": "BIBREF7" }, { "start": 507, "end": 535, "text": "Drndarevi\u0107 et Saggion (2012)", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Des approches plus r\u00e9centes se sont int\u00e9ress\u00e9es \u00e0 l'acquisition de simplifications lexicales. Les travaux de Yatskar et al. (2010) ont port\u00e9 sur l'obtention de simplifications lexicales (\u00ab collaborate \u00bb \u2192 \u00ab work together \u00bb) \u00e0 partir des r\u00e9visions des pages Wikipedia r\u00e9dig\u00e9es en anglais simplifi\u00e9 1 . Les auteurs d\u00e9rivent ainsi des probabilit\u00e9s de simplification au moyen d'un mod\u00e8le fond\u00e9 sur les m\u00e9ta-donn\u00e9es d'\u00e9dition de chaque page. Les 100 plus importantes paires extraites par ces mod\u00e8les constituent des simplifications avec une pr\u00e9cision \u00e9lev\u00e9e (86 % sur le meilleur mod\u00e8le), ce qui repr\u00e9sente un point de d\u00e9part int\u00e9ressant pour l'acquisition de simplification lexicale. Pr\u00e9cisons que ce mod\u00e8le ne tient cependant pas compte du contexte. Biran et al. (2011) s'appuient sur des paires de substitution apprises \u00e0 partir du corpus de la Wikipedia en anglais et en anglais simplifi\u00e9, en fonction de la similarit\u00e9 des contextes des mots, de leur fr\u00e9quence et de leur longueur. Ces paires sont ensuite utilis\u00e9es pour simplifier certains mots d'une phrase, en tenant compte de la similarit\u00e9 entre la phrase et les contextes des mots consid\u00e9r\u00e9s.", "cite_spans": [ { "start": 106, "end": 130, "text": "de Yatskar et al. (2010)", "ref_id": null }, { "start": 747, "end": 766, "text": "Biran et al. (2011)", "ref_id": "BIBREF0" } ], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Woodsend et Lapata (2011) ont impl\u00e9ment\u00e9 une approche de simplification fond\u00e9e sur une grammaire quasi synchrone, qui apprend des r\u00e9\u00e9critures de simplification \u00e0 partir de phrases source/cible extraites des pages Wikipedia r\u00e9dig\u00e9es en anglais et en anglais simplifi\u00e9. Ce mod\u00e8le int\u00e8gre \u00e9galement des substitutions lexicales, avec pour objectif le remplacement d'un mot en fonction de son contexte syntaxique. L'acquisition de substituts lexicaux reste cependant limit\u00e9e aux termes pr\u00e9sents en corpus, ce qui r\u00e9duit l'int\u00e9r\u00eat d'un tel mod\u00e8le pour une t\u00e2che de simplification lexicale.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Dans ce travail, nous envisageons d'\u00e9tudier la simplification lexicale en elle-m\u00eame, en nous attachant \u00e0 identifier les crit\u00e8res qui font qu'un mot est plus simple \u00e0 lire et \u00e0 comprendre qu'un autre mot. Notre approche repose principalement sur les mod\u00e8les \u00e0 base de n-grammes, tels que les mod\u00e8les d\u00e9crits par . Nous avons cependant essay\u00e9 d'affiner ces mod\u00e8les en tenant compte des diff\u00e9rents contextes d'apparition du mot \u00e9tudi\u00e9. Notre travail repose sur le cadre exp\u00e9rimental fourni par la t\u00e2che de simplification lexicale propos\u00e9e par la campagne d'\u00e9valuation SemEval 2012 (Specia et al., 2012 ). ", "cite_spans": [ { "start": 578, "end": 598, "text": "(Specia et al., 2012", "ref_id": "BIBREF11" } ], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Dans le cadre de ce travail, nous avons poursuivi les exp\u00e9riences que nous avions men\u00e9es lors de notre participation \u00e0 la t\u00e2che de simplification lexicale de l'anglais propos\u00e9e par la campagne SemEval 2012 2 . \u00c0 ce titre, nous avons appliqu\u00e9 nos m\u00e9thodes et effectu\u00e9 de nouvelles exp\u00e9riences en nous appuyant sur les corpus de la campagne.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Corpus", "sec_num": "4" }, { "text": "Dans le cadre de cette t\u00e2che, deux corpus ont \u00e9t\u00e9 fournis. Le corpus d'apprentissage contient 300 instances tandis que le corpus de test, utilis\u00e9 pour l'\u00e9valuation, se compose de 1 710 instances. Le corpus d'apprentissage s'accompagne des annotations de r\u00e9f\u00e9rence pour permettre le d\u00e9veloppement des syst\u00e8mes.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Pr\u00e9sentation", "sec_num": "4.1" }, { "text": "Le corpus se compose de textes courts issus de documents r\u00e9cup\u00e9r\u00e9s sur internet, dans lesquels un mot cible a \u00e9t\u00e9 choisi, et pour lequel plusieurs substituts possibles doivent \u00eatre ordonn\u00e9s. Dans l'exemple suivant, le mot \u00ab outdoor \u00bb est la cible \u00e0 traiter et tous les autres mots du texte constituent le contexte de ce mot cible.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Pr\u00e9sentation", "sec_num": "4.1" }, { "text": " With the growing demand for these fine garden furnishings , they found it necessary to dedicate a portion of their business to outdoor living and patio furnishings . Pour cette cible, les substituts propos\u00e9s sont les suivants : {alfresco, outside, open-air, outdoor}. Les informations disponibles sur la constitution de la r\u00e9f\u00e9rence nous permettent de savoir que ces substituts ont \u00e9t\u00e9 ordonn\u00e9s par des locuteurs non natifs de l'anglais (respectivement 4 et 5 annotateurs pour les corpus d'apprentissage et de test) selon leur degr\u00e9 de simplicit\u00e9 d\u00e9croissant. Nous n'avons cependant pas connaissance d'un guide d'annotation auquel se r\u00e9f\u00e9rer. L'objectif de la t\u00e2che consiste donc \u00e0 ordonner ces diff\u00e9rents substituts en fonction de leur degr\u00e9 de simplicit\u00e9.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Pr\u00e9sentation", "sec_num": "4.1" }, { "text": "La s\u00e9quence de r\u00e9f\u00e9rence associ\u00e9e \u00e0 ces substituts est la suivante : (outdoor, open-air, {outside, alfresco}) , o\u00f9 \u00ab outdoor \u00bb est consid\u00e9r\u00e9 comme le substitut le plus simple, tandis que \u00ab outside \u00bb et \u00ab alfresco \u00bb sont consid\u00e9r\u00e9s comme les substituts les plus complexes \u00e0 \u00e9galit\u00e9.", "cite_spans": [ { "start": 69, "end": 109, "text": "(outdoor, open-air, {outside, alfresco})", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Pr\u00e9sentation", "sec_num": "4.1" }, { "text": "Nous donnons ci-apr\u00e8s quelques \u00e9l\u00e9ments statistiques calcul\u00e9s sur les corpus d'apprentissage et de test, afin de repr\u00e9senter la difficult\u00e9 de la t\u00e2che.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Statistiques", "sec_num": "4.2" }, { "text": "Nombre de tokens dans chaque contexte. Dans un premier temps, nous avons \u00e9tudi\u00e9 le nombre de tokens dans chaque contexte, un token \u00e9tant consid\u00e9r\u00e9 comme une cha\u00eene de caract\u00e8res entre deux espaces. Alors que les contextes les plus longs se retrouvent dans le corpus de test, nous avons relev\u00e9 que les contextes sont, en moyenne, plus courts dans le corpus de test 2. http://www.cs.york.ac.uk/semeval-2012/task1/ que dans le corpus d'apprentissage, avec un nombre moyen de 27,6 tokens dans le test contre 28,9 dans l'apprentissage (tableau 1, gauche). Les contextes les plus courts se composent de 5 tokens dans les deux corpus. Ainsi, le contexte \u00ab Well , perhaps not . \u00bb se rapporte au mot cible \u00ab well \u00bb dans le corpus d'apprentissage alors que le contexte \u00ab The spin's are flat . \u00bb se rapporte au mot cible \u00ab flat \u00bb dans le corpus de test. Cela signifie qu'il existe des informations contextuelles pour pratiquement tous les mots cibles, et que ce contexte peut \u00eatre utilis\u00e9 pour choisir les substituts qui conviennent le mieux \u00e0 ce contexte. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Statistiques", "sec_num": "4.2" }, { "text": "Trois exp\u00e9riences de base (baselines) ont \u00e9t\u00e9 fournies par les organisateurs en accompagnement du corpus d'apprentissage : -La premi\u00e8re rel\u00e8ve d'un simple ordonnancement au hasard des substituts de chaque ensemble propos\u00e9 ; -La seconde conserve la liste de substituts propos\u00e9s dans l'ordre dans lequel elle est fournie ; -La troisi\u00e8me (appel\u00e9e \u00ab fr\u00e9quence simple \u00bb) repose sur l'utilisation des fr\u00e9quences des termes pr\u00e9sents dans le corpus Google Web 1T. Ces exp\u00e9riences de base permettent, d'une part de fixer le seuil minimum \u00e0 atteindre, et d'autre part de pr\u00e9senter de premi\u00e8res approches simples pour r\u00e9soudre la probl\u00e9matique soulev\u00e9e.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences de base", "sec_num": "4.3" }, { "text": "Nous avons impl\u00e9ment\u00e9 trois mod\u00e8les distincts qui correspondent \u00e0 diff\u00e9rentes tailles de contextes que nous avons envisag\u00e9s autour des mots cibles : (i) pas de contexte, (ii) quelques mots, et (iii) le contexte entier. L'id\u00e9e sous-jacente de ces exp\u00e9riences concerne le fait qu'un substitut peut \u00eatre pr\u00e9f\u00e9r\u00e9 \u00e0 un autre parce qu'il est plus fr\u00e9quent (le contexte n'est donc pas n\u00e9cessaire), parce qu'il appartient \u00e0 une expression (auquel cas, le contexte compos\u00e9 de quelques mots se r\u00e9v\u00e8le utile), ou bien, parce qu'il est le plus adapt\u00e9 sur le plan s\u00e9mantique (l'ensemble du contexte est alors utilis\u00e9).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "M\u00e9thodes", "sec_num": "5" }, { "text": "Notre premier mod\u00e8le ne prend pas en compte le contexte d'utilisation des mots et repose sur les fr\u00e9quences des substituts trouv\u00e9es dans un corpus r\u00e9dig\u00e9 en anglais simplifi\u00e9, la Simple English Wikipedia (SEW). Notre hypoth\u00e8se de travail repose sur le fait que les mots les plus fr\u00e9quemment employ\u00e9s dans ce corpus seront pr\u00e9f\u00e9r\u00e9s par les locuteurs non natifs de l'anglais. Ce public correspond au profil des annotateurs utilis\u00e9s pour la t\u00e2che de simplification lexicale. La SEW a d\u00e9j\u00e0 \u00e9t\u00e9 utilis\u00e9e dans des travaux portant sur la simplification automatique de textes (Yatskar et al., 2010) . D'autre part, puisque les corpus SemEval sont constitu\u00e9s de donn\u00e9es issues d'internet, nous estimons qu'ils sont proches des textes de Wikipedia du point de vue linguistique.", "cite_spans": [ { "start": 568, "end": 590, "text": "(Yatskar et al., 2010)", "ref_id": "BIBREF14" } ], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8le fond\u00e9 sur les fr\u00e9quences des termes", "sec_num": "5.1" }, { "text": "Dans un premier temps, nous avons converti la SEW au format texte \u00e0 partir de l'archive du 27 f\u00e9vrier 2012 dont nous avons extrait le contenu textuel gr\u00e2ce \u00e0 l'outil wikipedia2text 3 . Le fichier texte final contient approximativement 10 millions de mots.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8le fond\u00e9 sur les fr\u00e9quences des termes", "sec_num": "5.1" }, { "text": "Nous avons ensuite extrait des n-grammes de mots, en variant la taille des n-grammes de 1 \u00e0 3 mots, ce qui est suffisant pour la plupart des substituts. Le corpus d'apprentissage contient seulement deux substituts compos\u00e9s de quatre mots, ce qui constitue la taille la plus importante. Nous avons n\u00e9anmoins constat\u00e9 que le corpus de test comprend des substituts pouvant aller jusqu'\u00e0 sept mots, tel que \u00ab cause your outer work to be more \u00bb ou \u00ab stop at the side of the road \u00bb, qui seront de toute fa\u00e7on moins fr\u00e9quents que des mots plus courts. Nous avons ensuite calcul\u00e9 des fr\u00e9quences de n-grammes depuis ce corpus gr\u00e2ce au module Perl Text-NSP 4 et le script associ\u00e9 count.pl qui produit la liste des n-grammes d'un document avec leurs fr\u00e9quences. Nous renseignons dans le tableau 3 du nombre de n-grammes produits en fonction de la taille des n-grammes. taille des n-grammes 1 2 3 1 \u00e0 3 nombre de n-grammes 301 718 2 517 394 6 680 906 9 500 018 TABLE 3 -Nombre de n-grammes distincts extraits de Wikipedia, version anglais simplifi\u00e9 Certains des n-grammes ne sont pas valides et r\u00e9sultent d'erreurs lors de l'extraction du texte des pages Wikipedia : \u00ab 27|ufc 1 \u00bb correspond ainsi \u00e0 une syntaxe du wiki. Puisqu'il est impossible de trouver ce type de n-gramme en corpus, nous n'avons pas cherch\u00e9 \u00e0 nettoyer nos listes.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8le fond\u00e9 sur les fr\u00e9quences des termes", "sec_num": "5.1" }, { "text": "Sur les corpus de la t\u00e2che SemEval et pour une instance donn\u00e9e, nous avons ordonn\u00e9 les substituts propos\u00e9s par fr\u00e9quence d'apparition d\u00e9croissante dans la SEW. Ainsi, sur l'ensemble de substituts {intelligent, bright, clever, smart}, les fr\u00e9quences calcul\u00e9es sur la SEW sont respectivement de (206, 475, 141, 201) ; notre classement final sera donc {bright, intelligent, smart, clever}.", "cite_spans": [ { "start": 293, "end": 298, "text": "(206,", "ref_id": null }, { "start": 299, "end": 303, "text": "475,", "ref_id": null }, { "start": 304, "end": 308, "text": "141,", "ref_id": null }, { "start": 309, "end": 313, "text": "201)", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8le fond\u00e9 sur les fr\u00e9quences des termes", "sec_num": "5.1" }, { "text": "Sur cette base de travail, nous avons r\u00e9alis\u00e9 plusieurs exp\u00e9riences. Nous avons utilis\u00e9 la version texte brut de la SEW, ainsi que la version lemmatis\u00e9e, puisque les substituts propos\u00e9s sont des lemmes. Nous avons r\u00e9alis\u00e9 cette \u00e9tape de lemmatisation gr\u00e2ce au TreeTagger 5 (Schmid, 1994 ) que nous avons appliqu\u00e9 sur l'ensemble du corpus, avant d'effectuer les d\u00e9comptes de n-grammes. D'autre part, puisque les bigrammes et trigrammes augmentent le volume des donn\u00e9es, nous avons cherch\u00e9 \u00e0 mesurer leur influence sur les r\u00e9sultats produits. En se fondant sur les unigrammes uniquement, 158 substituts du corpus d'apprentissage sont absents des annotations de r\u00e9f\u00e9rence ; ce nombre se r\u00e9duit \u00e0 105 en ajoutant les bigrammes et \u00e0 91 lorsque l'on ajoute les trigrammes. Deux substituts se composent donc de quatre mots et 89 substituts sont absents de notre corpus SEW. Les n-grammes manquants (en utilisant des uni-, bi-et tri-grammes) semblent cependant tr\u00e8s peu fr\u00e9quents, tels que \u00ab undomesticated \u00bb ou \u00ab telling untruths \u00bb.", "cite_spans": [ { "start": 273, "end": 286, "text": "(Schmid, 1994", "ref_id": "BIBREF10" } ], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8le fond\u00e9 sur les fr\u00e9quences des termes", "sec_num": "5.1" }, { "text": "Notre deuxi\u00e8me mod\u00e8le repose sur les mod\u00e8les de langue, m\u00e9thode utilis\u00e9e par les organisateurs dans leur exp\u00e9rience de base sur les fr\u00e9quences simples. Alors que les organisateurs ont utilis\u00e9 les n-grammes de Google 6 pour ordonner les substituts par fr\u00e9quence d'utilisation d\u00e9croissante, nous avons utilis\u00e9 les n-grammes du service Microsoft Web en retenant le m\u00eame principe de tri par fr\u00e9quence d\u00e9croissante. Nous avons \u00e9galement ajout\u00e9 les contextes \u00e0 chaque substitut. Notre approche repose sur les n-grammes propos\u00e9s par le service Microsoft Web 7 , via la librairie Python 8 , pour obtenir la probabilit\u00e9 de regroupement d'unit\u00e9s textuelles. Parmi les diff\u00e9rents mod\u00e8les de n-grammes disponibles, nous avons utilis\u00e9 le mod\u00e8le bing-body/apr10/.", "cite_spans": [ { "start": 216, "end": 217, "text": "6", "ref_id": null }, { "start": 551, "end": 552, "text": "7", "ref_id": null }, { "start": 579, "end": 580, "text": "8", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Probabilit\u00e9s des termes en contexte", "sec_num": "5.2" }, { "text": "Nous avons ainsi \u00e9tudi\u00e9 une unit\u00e9 textuelle compos\u00e9e de l'\u00e9l\u00e9ment lexical et d'une fen\u00eatre contextuelle reposant sur les quatre tokens encadrant l'\u00e9l\u00e9ment lexical de part et d'autre. Ainsi, sur l'exemple ci-dessous, nous avons test\u00e9 la portion d'origine \u00ab He brings an incredibly rich and diverse background that \u00bb et les versions dans lesquelles le mot cible est remplac\u00e9 par un substitut, telles que \u00ab He brings an incredibly lush and diverse background that \u00bb.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Probabilit\u00e9s des termes en contexte", "sec_num": "5.2" }, { "text": " He brings an incredibly rich and diverse background that includes everything from executive coaching , learning & ; development and management consulting , to senior operations roles , mixed with a masters in organizational development. L'une des faiblesses de ce mod\u00e8le est qu'il ne prend en compte qu'un contexte local, alors que des mots plus \u00e9loign\u00e9s du contexte pourraient \u00e9galement \u00eatre utiles au choix. Pour tester cette hypoth\u00e8se, nous avons mis en oeuvre un troisi\u00e8me mod\u00e8le, qui utilise le texte entier comme contexte.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Probabilit\u00e9s des termes en contexte", "sec_num": "5.2" }, { "text": "5. http://www.ims.uni-stuttgart.de/projekte/corplex/TreeTagger/ 6. Le corpus Google Web 1T utilis\u00e9 dans l'exp\u00e9rience de base des organisateurs n'est pas disponible gratuitement. 7. http://research.microsoft.com/en-us/collaboration/focus/cs/web-ngram. aspx 8. http://web-ngram.research.microsoft.com/info/MicrosoftNgram-1.02.zip", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Probabilit\u00e9s des termes en contexte", "sec_num": "5.2" }, { "text": "Afin de tester la phrase enti\u00e8re comme contexte, nous avons utilis\u00e9 deux ressources de cooccurrences : Wortschatz (Quasthoff et al., 2006) d'une part, et une liste de co-occurrents que nous avons construite depuis la SEW d'autre part.", "cite_spans": [ { "start": 114, "end": 138, "text": "(Quasthoff et al., 2006)", "ref_id": "BIBREF9" } ], "ref_spans": [], "eq_spans": [], "section": "Comparaison des contextes et co-occurrents", "sec_num": "5.3" }, { "text": "Wortschatz se compose de listes de co-occurrents provenant de plusieurs corpus tels que des corpus d'informations ou Wikipedia 9 . Dans un premier temps, nous avons utilis\u00e9 l'un des corpus disponible pour l'anglais, compos\u00e9 d'articles Wikipedia potentiellement proches du corpus de SemEval, de mani\u00e8re \u00e0 produire des listes de co-occurrents avec leur fr\u00e9quence en corpus. Ces co-occurrences ne sont pas dirig\u00e9es, c'est-\u00e0-dire que les contextes droit et gauche ne sont pas distingu\u00e9s.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Comparaison des contextes et co-occurrents", "sec_num": "5.3" }, { "text": "Nous avons \u00e9galement construit une deuxi\u00e8me ressource \u00e0 partir de la Simple English Wikipedia, en retenant tous les mots qui co-occurrent avec un substitut dans la m\u00eame phrase. Nous avons n\u00e9anmoins limit\u00e9 les co-occurrences test\u00e9es \u00e0 certaines cat\u00e9gories des parties du discours telles que les noms, les noms propres, les verbes, etc.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Comparaison des contextes et co-occurrents", "sec_num": "5.3" }, { "text": "Pour chacune de ces deux ressources, nous avons consid\u00e9r\u00e9 que la fr\u00e9quence des co-occurrents formait un vecteur pour un substitut particulier, et avons calcul\u00e9 le produit scalaire avec les mots du contexte. Par exemple, le vocabulaire du contexte suivant est compos\u00e9 des termes \u00ab (and, the, morans, have, to, ruin, Beethoven's, 6th, in, process, too) \u00bb qui apparaissent une seule fois dans la phrase, sauf l'article \u00ab the \u00bb qui apparait trois fois. Leur fr\u00e9quence de co-occurrence avec le substitut \u00ab audacity \u00bb est (0, 102, 0, 29, 0, 0, 0, 0, 3, 0, 0), le produit scalaire final est de 338.", "cite_spans": [ { "start": 280, "end": 285, "text": "(and,", "ref_id": null }, { "start": 286, "end": 290, "text": "the,", "ref_id": null }, { "start": 291, "end": 298, "text": "morans,", "ref_id": null }, { "start": 299, "end": 304, "text": "have,", "ref_id": null }, { "start": 305, "end": 308, "text": "to,", "ref_id": null }, { "start": 309, "end": 314, "text": "ruin,", "ref_id": null }, { "start": 315, "end": 327, "text": "Beethoven's,", "ref_id": null }, { "start": 328, "end": 332, "text": "6th,", "ref_id": null }, { "start": 333, "end": 336, "text": "in,", "ref_id": null }, { "start": 337, "end": 345, "text": "process,", "ref_id": null }, { "start": 346, "end": 350, "text": "too)", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Comparaison des contextes et co-occurrents", "sec_num": "5.3" }, { "text": " And the morans have the gall to ruin Beethoven's 6th in the process , too . Sur la base de ces listes de co-occurrents, nous avons ordonn\u00e9 les substituts en nous fondant sur le poids calcul\u00e9, en classant les substituts par ordre d\u00e9croissant.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Comparaison des contextes et co-occurrents", "sec_num": "5.3" }, { "text": "L'\u00e9valuation officielle de la t\u00e2che de simplification lexicale repose sur une comparaison par paire des listes de rangs fournis par le syst\u00e8me avec les rangs de r\u00e9f\u00e9rence (Specia et al., 2012) . Pour chaque paire de substituts, le script d'\u00e9valuation compare la position de chaque terme de la paire entre l'hypoth\u00e8se et la r\u00e9f\u00e9rence en termes de position dans la hi\u00e9rarchie (position identique, plus haute, plus basse). Le score final d'un jeu de substituts correspond \u00e0 la moyenne des coefficients \u03ba d'accord inter-annotateur (Formule 1) calcul\u00e9s sur chaque paire d'un contexte.", "cite_spans": [ { "start": 171, "end": 192, "text": "(Specia et al., 2012)", "ref_id": "BIBREF11" } ], "ref_spans": [], "eq_spans": [], "section": "\u00c9valuation", "sec_num": "6" }, { "text": "EQUATION", "cite_spans": [], "ref_spans": [], "eq_spans": [ { "start": 0, "end": 8, "text": "EQUATION", "ref_id": "EQREF", "raw_str": "\u03ba = Po \u2212 Pe 1 \u2212 Pe", "eq_num": "(1)" } ], "section": "\u00c9valuation", "sec_num": "6" }, { "text": "Dans cette formule, pour un jeu de substituts donn\u00e9, \u00ab Po \u00bb renvoie \u00e0 la probabilit\u00e9 observ\u00e9e (le nombre d'accords divis\u00e9 par le nombre total de paires) tandis que \u00ab Pe \u00bb correspond \u00e0 la 9. http://corpora.informatik.uni-leipzig.de/download.html probabilit\u00e9 attendue (calcul\u00e9e en faisant la somme des accords de position identique, plus haute, plus basse, divis\u00e9e par le nombre total de paires).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "\u00c9valuation", "sec_num": "6" }, { "text": "Consid\u00e9rons la liste de substituts {A,C,B} fournie par un syst\u00e8me et la liste de r\u00e9f\u00e9rence {A,B,C} correspondante. Sur la paire {A,B}, le terme A occupe la m\u00eame position dans les deux listes de substituts ; le terme B n'occupe pas la m\u00eame position mais il suit le terme A dans les deux listes. Sur cette paire, l'\u00e9valuation rapporte deux points d'accord au syst\u00e8me : un point pour la position identique, et un point pour l'ordre identique des termes A et B dans la paire (relation \u00ab plus grand que \u00bb). Le m\u00eame calcul est poursuivi sur les paires {A,C} et {B,C}.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "\u00c9valuation", "sec_num": "6" }, { "text": "Nous indiquons dans le tableau 4 les scores calcul\u00e9s sur les corpus d'apprentissage et de test pour les exp\u00e9riences de base fournies par les organisateurs.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences de base", "sec_num": "6.1" }, { "text": "Tri au hasard 0,016 -Pas de tri 0,050 -Fr\u00e9quence simple 0,398 0,471 La diff\u00e9rence que nous observons dans les r\u00e9sultats entre la version lemmatis\u00e9e et la version fl\u00e9chie de Wikipedia s'explique de deux mani\u00e8res. En premier lieu, puisque les substituts propos\u00e9s sont pr\u00e9sent\u00e9s sous forme lemmatis\u00e9e, nous en identifions davantage dans la version lemmatis\u00e9e (par exemple, le substitut \u00ab abnormal growth \u00bb n'est pr\u00e9sent que sous la forme au pluriel \u00ab abnormal growths \u00bb dans la version fl\u00e9chie de Wikipedia). En second lieu, certains substituts font d\u00e9faut dans la version lemmatis\u00e9e, la plupart en raison d'erreurs du TreeTagger (par exemple, \u00ab be scared of \u00bb devient \u00ab be scare of \u00bb).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Apprentissage Test", "sec_num": null }, { "text": "L'hypoth\u00e8se selon laquelle l'utilisation de Wikipedia en anglais simplifi\u00e9 est plus adapt\u00e9e \u00e0 cette t\u00e2che que la version standard est valid\u00e9e, dans la mesure o\u00f9 nous obtenons un score plus faible en utilisant la version standard de la Wikipedia 10 .", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Apprentissage Test", "sec_num": null }, { "text": "Pour l'\u00e9valuation finale, nous avons conserv\u00e9 le syst\u00e8me qui a obtenu le meilleur score (0,381) sur les donn\u00e9es d'apprentissage, en l'occurrence le syst\u00e8me fond\u00e9 sur des uni-, bi-et trigrammes non lemmatis\u00e9s. Ce syst\u00e8me a obtenu un score de 0,465 sur le corpus de test, nous classant seconds ex-aequo lors de l'\u00e9valuation SemEval.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Apprentissage Test", "sec_num": null }, { "text": "Nous avons r\u00e9alis\u00e9 plusieurs exp\u00e9riences suppl\u00e9mentaires, fond\u00e9es sur diff\u00e9rents mod\u00e8les de n-grammes et des tailles de contexte distinctes. Les r\u00e9sultats les plus significatifs sont pr\u00e9sent\u00e9s dans le tableau 6. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Probabilit\u00e9s des termes en contexte", "sec_num": "6.3" }, { "text": "Enfin, nous renseignons dans le tableau 7 des scores obtenus par notre mod\u00e8le \u00e0 base de cooccurrents. Sur le corpus d'apprentissage, cette m\u00e9thode nous permet d'obtenir un score de 0,373 avec la meilleure configuration, celle reposant sur la ressource constitu\u00e9e depuis la SEW. Nous notons par ailleurs que l'ajout d'informations de parties-du-discours am\u00e9liore les r\u00e9sultats. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Co-occurrents", "sec_num": "6.4" }, { "text": "Nous avons par ailleurs observ\u00e9 que nos mod\u00e8les ont rencontr\u00e9 des difficult\u00e9s \u00e0 tenir compte des substituts compos\u00e9s de plusieurs mots. Afin de pallier cette difficult\u00e9, nous avons lanc\u00e9 une \u00e9valuation en ne consid\u00e9rant que les substituts compos\u00e9s d'un seul mot (tableau 8). Comme nous nous y attendions, tous les mod\u00e8les voient leurs performances augmenter en ne consid\u00e9rant que les substituts simples (1 mot), en particulier pour le mod\u00e8le fond\u00e9 sur les co-occurrences.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "\u00c9valuation sur les substituts non compos\u00e9s", "sec_num": "6.5" }, { "text": "SEW Web N-grams Co-occurrences Fr\u00e9quence simple Tous types de substituts 0,381 0,370 0,373 0,398 Substituts simples (1 mot) 0,390 0,385 0,414 0,408 Film Music Literature Cyberplace -Includes film reviews , message boards , chat room , and images from various films . His feature film debut HEROES / DE STARSTE HELTE ( 1996 ) won awards at Rouen and Madrid . ( Some people keep their TVs on for company. ) In Malta , news is the main reason we turn to TV , followed by films , talk shows , documentaries , serials , and music , in that order . A fine score by George Fenton ( THE CRUCIBLE ) and beautiful photograhy by Roger Pratt add greatly to the effectiveness of the film . Cet exemple montre que, selon le contexte du mot dans la phrase, des substituts diff\u00e9rents peuvent \u00eatre choisis.", "cite_spans": [ { "start": 414, "end": 428, "text": "HELTE ( 1996 )", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8le", "sec_num": null }, { "text": "Sur le mod\u00e8le \u00e0 base de co-occurrences, l'un des principaux probl\u00e8mes concerne l'absence de co-occurrences dans le corpus SEW. Il ne nous a donc pas \u00e9t\u00e9 possible d'obtenir des informations de co-occurrences pour 182 substituts du corpus d'apprentissage (sur un total de 1 452) qui n'ont donc pu \u00eatre trait\u00e9s. L'un des moyens de pallier cette difficult\u00e9 consisterait \u00e0 \u00e9largir la taille de la fen\u00eatre de recherche des co-occurrents \u00e0 deux phrases par exemple, ou d'utiliser un corpus plus volumineux. Les corpus d'anglais simplifi\u00e9 sont cependant rares.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8le", "sec_num": null }, { "text": "Enfin, la principale difficult\u00e9 \u00e0 laquelle nous avons \u00e9t\u00e9 confront\u00e9s sur l'ensemble des mod\u00e8les concerne les substituts compos\u00e9s de plusieurs mots, pour lesquels la comparaison des fr\u00e9quences avec celles des mots simples ne s'av\u00e8re gu\u00e8re possible.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8le", "sec_num": null }, { "text": "Dans cet article, nous avons pr\u00e9sent\u00e9 trois types de crit\u00e8res \u00e0 prendre en compte pour la t\u00e2che de simplification lexicale et mis en oeuvre trois mod\u00e8les fond\u00e9s sur les fr\u00e9quences et sur ces types de crit\u00e8res pour effectuer une simplification lexicale. Le premier mod\u00e8le repose sur des fr\u00e9quences d'utilisation de termes dans la version r\u00e9dig\u00e9e en anglais simplifi\u00e9 de la Wikipedia (SEW). Le second se fonde sur des probabilit\u00e9s de n-grammes fournies par le service Microsoft Web N-gram. Enfin, le dernier mod\u00e8le s'appuie sur des informations de co-occurrences.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion", "sec_num": "8" }, { "text": "Les meilleurs scores sont obtenus avec les informations de fr\u00e9quence dans la Wikipedia en anglais simplifi\u00e9 ; cependant, cette information seule ne suffit pas \u00e0 d\u00e9terminer de fa\u00e7on satisfaisante le substitut le plus simple. Puisque les diff\u00e9rents mod\u00e8les fournissent des caract\u00e9ristiques diff\u00e9rentes, nous consid\u00e9rons que la combinaison des trois mod\u00e8les devrait \u00eatre b\u00e9n\u00e9fique. Dans cette optique, nous envisageons de tester un tel type de combinaison au moyen d'une approche d'ordonnancement \u00e0 base de SVM.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion", "sec_num": "8" }, { "text": "Il reste bien \u00e9videmment des marges de progression, en particulier sur le traitement des substituts compos\u00e9s de plusieurs mots pour lesquels la mobilisation de traitements suppl\u00e9mentaires se r\u00e9v\u00e8le indispensable pour tenir compte de ces particularit\u00e9s.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion", "sec_num": "8" }, { "text": "En ce qui concerne l'application de ces m\u00e9thodes au fran\u00e7ais, nous estimons que cette t\u00e2che se r\u00e9v\u00e8le d'autant plus difficile que sur l'anglais pour deux raisons (en plus de celles identifi\u00e9es sur l'anglais) : (i) des flexions plus importantes en fran\u00e7ais qu'en anglais et (ii) de l'absence de corpus du fran\u00e7ais simplifi\u00e9. Nous relevons toutefois que des travaux r\u00e9cents tendent \u00e0 produire ce type de corpus (Brouwers et al., 2012) .", "cite_spans": [ { "start": 409, "end": 432, "text": "(Brouwers et al., 2012)", "ref_id": "BIBREF1" } ], "ref_spans": [], "eq_spans": [], "section": "Conclusion", "sec_num": "8" }, { "text": "c ATALA", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "", "sec_num": null }, { "text": ". Voir http://www.polishmywriting.com/download/wikipedia2text_rsm_mods.tgz et http://blog.afterthedeadline.com/2009/12/04/generating-a-plain-text-corpus -from-wikipedia 4. http://search.cpan.org/~tpederse/Text-NSP-1.25/lib/Text/NSP.pm", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "", "sec_num": null } ], "back_matter": [], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "Putting it simply : a context-aware approach to lexical simplification", "authors": [ { "first": "O", "middle": [], "last": "Biran", "suffix": "" }, { "first": "S", "middle": [], "last": "Brody", "suffix": "" }, { "first": "N", "middle": [], "last": "Elhadad", "suffix": "" } ], "year": 2011, "venue": "Proc of ACL", "volume": "", "issue": "", "pages": "496--501", "other_ids": {}, "num": null, "urls": [], "raw_text": "BIRAN, O., BRODY, S. et ELHADAD, N. (2011). Putting it simply : a context-aware approach to lexical simplification. In Proc of ACL, pages 496-501, Portland, OR.", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "Simplification syntaxique de phrases pour le fran\u00e7ais", "authors": [ { "first": "L", "middle": [], "last": "Brouwers", "suffix": "" }, { "first": "D", "middle": [], "last": "Bernhard", "suffix": "" }, { "first": "A.-L", "middle": [], "last": "Ligozat", "suffix": "" }, { "first": "T", "middle": [], "last": "Fran\u00e7ois", "suffix": "" } ], "year": 2012, "venue": "Actes de JEP-TALN-RECITAL", "volume": "", "issue": "", "pages": "211--224", "other_ids": {}, "num": null, "urls": [], "raw_text": "BROUWERS, L., BERNHARD, D., LIGOZAT, A.-L. et FRAN\u00c7OIS, T. (2012). Simplification syntaxique de phrases pour le fran\u00e7ais. In Actes de JEP-TALN-RECITAL, pages 211-224, Grenoble, France.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "Simplifying Text for Language-Impaired Readers", "authors": [ { "first": "J", "middle": [], "last": "Carroll", "suffix": "" }, { "first": "G", "middle": [], "last": "Minnen", "suffix": "" }, { "first": "D", "middle": [], "last": "Pearce", "suffix": "" }, { "first": "Y", "middle": [], "last": "Canning", "suffix": "" }, { "first": "S", "middle": [], "last": "Devlin", "suffix": "" }, { "first": "J", "middle": [], "last": "Tait", "suffix": "" } ], "year": 1999, "venue": "Proc of EACL", "volume": "", "issue": "", "pages": "269--270", "other_ids": {}, "num": null, "urls": [], "raw_text": "CARROLL, J., MINNEN, G., PEARCE, D., CANNING, Y., DEVLIN, S. et TAIT, J. (1999). Simplifying Text for Language-Impaired Readers. In Proc of EACL, pages 269-270.", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "Simplifying natural language text for aphasic readers", "authors": [ { "first": "S", "middle": [], "last": "Devlin", "suffix": "" } ], "year": 1999, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "DEVLIN, S. (1999). Simplifying natural language text for aphasic readers. Th\u00e8se de doctorat, University of Sunderland, UK.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "Towards automatic lexical simplification in spanish : An empirical study", "authors": [ { "first": "B", "middle": [], "last": "Drndarevi\u0107", "suffix": "" }, { "first": "H", "middle": [], "last": "Saggion", "suffix": "" } ], "year": 2012, "venue": "Proc of Predicting and Improving Text Readability for target reader populations (PITR) Workshop", "volume": "", "issue": "", "pages": "8--16", "other_ids": {}, "num": null, "urls": [], "raw_text": "DRNDAREVI\u0106, B. et SAGGION, H. (2012). Towards automatic lexical simplification in spanish : An empirical study. In Proc of Predicting and Improving Text Readability for target reader populations (PITR) Workshop, pages 8-16, Montr\u00e9al, Canada. NAACL-HLT.", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "An \"AI readability\" formula for french as a foreign language", "authors": [ { "first": "T", "middle": [], "last": "Fran\u00e7ois", "suffix": "" }, { "first": "C", "middle": [], "last": "Fairon", "suffix": "" } ], "year": 2012, "venue": "Proc of the Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "FRAN\u00c7OIS, T. et FAIRON, C. (2012). An \"AI readability\" formula for french as a foreign lan- guage. In Proc of the Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, Jeju-do, South Korea.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "UOW-SHEF : SimpLex -Lexical Simplicity Ranking based on Contextual and Psycholinguistic Features", "authors": [ { "first": "S", "middle": [ "K" ], "last": "Jauhar", "suffix": "" }, { "first": "L", "middle": [], "last": "Specia", "suffix": "" } ], "year": 2012, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "JAUHAR, S. K. et SPECIA, L. (2012). UOW-SHEF : SimpLex -Lexical Simplicity Ranking based on Contextual and Psycholinguistic Features. In *SEM.", "links": null }, "BIBREF7": { "ref_id": "b7", "title": "Extract-based Summarization with Simplification", "authors": [ { "first": "P", "middle": [], "last": "Lal", "suffix": "" }, { "first": "S", "middle": [], "last": "R\u00fcger", "suffix": "" } ], "year": 2002, "venue": "Proc of the Workshop on Text Summarization at DUC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LAL, P. et R\u00dcGER, S. (2002). Extract-based Summarization with Simplification. In Proc of the Workshop on Text Summarization at DUC 2002.", "links": null }, "BIBREF8": { "ref_id": "b8", "title": "ANNLOR : A Na\u00efve Notation-system for Lexical Outputs Ranking", "authors": [ { "first": "A.-L", "middle": [], "last": "Ligozat", "suffix": "" }, { "first": "C", "middle": [], "last": "Grouin", "suffix": "" }, { "first": "A", "middle": [], "last": "Garcia-Fernandez", "suffix": "" }, { "first": "D", "middle": [], "last": "Bernhard", "suffix": "" } ], "year": 2012, "venue": "Proc of the 6th International Workshop on Semantic Evaluation", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LIGOZAT, A.-L., GROUIN, C., GARCIA-FERNANDEZ, A. et BERNHARD, D. (2012). ANNLOR : A Na\u00efve Notation-system for Lexical Outputs Ranking. In Proc of the 6th International Workshop on Semantic Evaluation (SemEval 2012).", "links": null }, "BIBREF9": { "ref_id": "b9", "title": "Corpus Portal for Search in Monolingual Corpora", "authors": [ { "first": "U", "middle": [], "last": "Quasthoff", "suffix": "" }, { "first": "M", "middle": [], "last": "Richter", "suffix": "" }, { "first": "C", "middle": [], "last": "Biemann", "suffix": "" } ], "year": 2006, "venue": "Proc of LREC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "QUASTHOFF, U., RICHTER, M. et BIEMANN, C. (2006). Corpus Portal for Search in Monolingual Corpora. In Proc of LREC, Genoa, Italy.", "links": null }, "BIBREF10": { "ref_id": "b10", "title": "Probabilistic Part-of-Speech Tagging Using Decision Trees", "authors": [ { "first": "H", "middle": [], "last": "Schmid", "suffix": "" } ], "year": 1994, "venue": "Proc of the International Conference on New Methods in Language Processing", "volume": "4", "issue": "", "pages": "77--109", "other_ids": {}, "num": null, "urls": [], "raw_text": "SCHMID, H. (1994). Probabilistic Part-of-Speech Tagging Using Decision Trees. In Proc of the International Conference on New Methods in Language Processing, Manchester, UK. SIDDHARTHAN, A. (2006). Syntactic simplification and text cohesion. Research on Language & Computation, 4(1):77-109.", "links": null }, "BIBREF11": { "ref_id": "b11", "title": "SemEval-2012 Task 1 : English Lexical Simplification", "authors": [ { "first": "L", "middle": [], "last": "Specia", "suffix": "" }, { "first": "S", "middle": [ "K" ], "last": "Jauhar", "suffix": "" }, { "first": "R", "middle": [], "last": "Mihalcea", "suffix": "" } ], "year": 2012, "venue": "Proc of Joint Conference on Lexical and Computational Semantics (*SEM)", "volume": "", "issue": "", "pages": "347--355", "other_ids": {}, "num": null, "urls": [], "raw_text": "SPECIA, L., JAUHAR, S. K. et MIHALCEA, R. (2012). SemEval-2012 Task 1 : English Lexical Simplification. In Proc of Joint Conference on Lexical and Computational Semantics (*SEM), pages 347-355.", "links": null }, "BIBREF12": { "ref_id": "b12", "title": "Facilita : reading assistance for low-literacy readers", "authors": [ { "first": "W", "middle": [], "last": "Watanabe", "suffix": "" }, { "first": "A", "middle": [], "last": "Junior", "suffix": "" }, { "first": "V", "middle": [], "last": "Uz\u00eada", "suffix": "" }, { "first": "R", "middle": [], "last": "Fortes", "suffix": "" }, { "first": "T", "middle": [], "last": "Pardo", "suffix": "" }, { "first": "S", "middle": [], "last": "Alu\u00edsio", "suffix": "" } ], "year": 2009, "venue": "Proc of ACM international conference on Design of communication", "volume": "", "issue": "", "pages": "29--36", "other_ids": {}, "num": null, "urls": [], "raw_text": "WATANABE, W., JUNIOR, A., UZ\u00caDA, V., FORTES, R., PARDO, T. et ALU\u00cdSIO, S. (2009). Facilita : reading assistance for low-literacy readers. In Proc of ACM international conference on Design of communication, pages 29-36. ACM.", "links": null }, "BIBREF13": { "ref_id": "b13", "title": "Learning to simplify sentences with quasi-synchronous grammar and integer programming", "authors": [ { "first": "K", "middle": [], "last": "Woodsend", "suffix": "" }, { "first": "M", "middle": [], "last": "Lapata", "suffix": "" } ], "year": 2011, "venue": "Proc of EMNLP", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "WOODSEND, K. et LAPATA, M. (2011). Learning to simplify sentences with quasi-synchronous grammar and integer programming. In Proc of EMNLP.", "links": null }, "BIBREF14": { "ref_id": "b14", "title": "For the sake of simplicity : unsupervised extraction of lexical simplifications from Wikipedia", "authors": [ { "first": "M", "middle": [], "last": "Yatskar", "suffix": "" }, { "first": "B", "middle": [], "last": "Pang", "suffix": "" }, { "first": "C", "middle": [], "last": "Danescu-Niculescu-Mizil", "suffix": "" }, { "first": "L", "middle": [], "last": "Lee", "suffix": "" } ], "year": 2010, "venue": "HLT'10 Human Language Technologies", "volume": "", "issue": "", "pages": "365--368", "other_ids": {}, "num": null, "urls": [], "raw_text": "YATSKAR, M., PANG, B., DANESCU-NICULESCU-MIZIL, C. et LEE, L. (2010). For the sake of simplicity : unsupervised extraction of lexical simplifications from Wikipedia. In HLT'10 Human Language Technologies, pages 365-368. ACL.", "links": null } }, "ref_entries": { "TABREF1": { "content": "
Nombre de tokens Nombre de substituts
Min Max MoyMin MaxMoy
Apprentissage57628,9294,8
Test59227,61105,0
", "type_str": "table", "num": null, "text": "Un point int\u00e9ressant concerne le nombre de fois que chaque substitut est propos\u00e9 dans chacun des corpus. La majorit\u00e9 des ensembles propos\u00e9s de substituts se composent de substituts propos\u00e9s une seule fois. Nous remarquons cependant qu'il y a davantage de substituts propos\u00e9s une seule fois dans le corpus d'apprentissage que dans le corpus de test. Nous reportons sur le graphique 1 le pourcentage d'utilisation des substituts, class\u00e9s par nombre d'occurrences d\u00e9croissant, propos\u00e9s respectivement dans les corpus d'apprentissage (en rouge) et de test (en bleu).Si la majorit\u00e9 des substituts est propos\u00e9e une seule fois (62,6 % des substituts du corpus d'apprentissage et 51,8 % dans le corpus de test ne sont pr\u00e9sent\u00e9s qu'une seule fois), certains apparaissent n\u00e9anmoins un nombre \u00e9lev\u00e9 de fois (les substituts pr\u00e9sent\u00e9s deux fois constituent 16,0 % et 17,5 % du nombre total de substituts). En mati\u00e8re de pr\u00e9sentation maximum, le substitut \u00ab unpleasant \u00bb est propos\u00e9 jusqu'\u00e0 14 fois dans le corpus d'apprentissage (sur un total de 633 substituts) alors que \u00ab consequently \u00bb est propos\u00e9 26 fois dans le corpus de test (sur un total de 2 774 substituts). Chaque mot cible rel\u00e8ve d'une cat\u00e9gorie morpho-syntaxique parmi quatre cat\u00e9gories possibles. Nous avons \u00e9tudi\u00e9 la r\u00e9partition des mots cibles en fonction de leur cat\u00e9gorie d'appartenance (tableau 2). Pourcentage de mots cibles appartenant \u00e0 chaque cat\u00e9gorie morpho-syntaxique Nous remarquons que la r\u00e9partition des mots cibles dans chacune des cat\u00e9gories morphosyntaxique est similaire entre les deux corpus. Cependant, le corpus d'apprentissage se compose de mots cibles ambigus dans la mesure o\u00f9 certains de ces mots peuvent relever de deux cat\u00e9gories potentielles (adjectif ou nom, nom ou verbe). Cette ambigu\u00eft\u00e9 disparait dans le corpus de test.", "html": null }, "TABREF2": { "content": "
Le Type de n-grammesLemmes Apprentissage Test
Unigrammes uniquementnon0,333-
Uni-et bigrammesnon0,371-
Uni-, bi-et trigrammesnon0,3810,465
Uni-, bi-et trigrammesoui0,3800,462
Uni-, bi-et trigrammes (Wikipedia standard)non0,343-
Exp\u00e9rience de base (fr\u00e9quence simple)0,3980,471
WLV-SHEF-SimpLex (meilleur syst\u00e8me \u00e0 SemEval 2012)-0,496
", "type_str": "table", "num": null, "text": "R\u00e9sultats des exp\u00e9riences de base tableau 5 r\u00e9sume les r\u00e9sultats obtenus par notre mod\u00e8le fond\u00e9 sur les fr\u00e9quences de la SEW.", "html": null }, "TABREF3": { "content": "
-R\u00e9sultats obtenus par notre syst\u00e8me fond\u00e9 sur la Simple English Wikipedia et compa-
raison avec d'autres exp\u00e9riences (Wikipedia standard, exp\u00e9rience de base, meilleur syst\u00e8me \u00e0
SemEval 2012)
", "type_str": "table", "num": null, "text": "", "html": null }, "TABREF5": { "content": "", "type_str": "table", "num": null, "text": "R\u00e9sultats obtenus avec le service Microsoft Web N-gram, sur le corpus d'apprentissage Nous observons que la fen\u00eatre de contexte compos\u00e9e de quatre tokens encadrant le substitut \u00e9tudi\u00e9 est celle qui nous a permis d'obtenir les meilleurs r\u00e9sultats sur le corpus d'apprentissage (0,370). Avec cette configuration, nous avons obtenu un score de 0,396 sur les donn\u00e9es de test.", "html": null }, "TABREF7": { "content": "
", "type_str": "table", "num": null, "text": "", "html": null }, "TABREF8": { "content": "
", "type_str": "table", "num": null, "text": "Scores obtenus en consid\u00e9rant tous les substituts et les substituts simples sur les donn\u00e9es d'apprentissage7 DiscussionMalgr\u00e9 des performances relativement bonnes, l'une des limites du mod\u00e8le fond\u00e9 sur les fr\u00e9quences calcul\u00e9es sur la SEW concerne le fait que ce mod\u00e8le s'appuie uniquement sur les formes de surface des mots (ou des n-grammes), et que certaines fr\u00e9quences se trouvent biais\u00e9es. Ainsi, le mot \u00ab light \u00bb est aussi bien un nom qu'un adjectif dans Wikipedia ; lorsque nous traitons le jeu de substituts {light, bright, luminous, clear, well-lit}, les fr\u00e9quences des deux cat\u00e9gories morpho-syntaxiques du terme \u00ab light \u00bb sont combin\u00e9es, accordant plus de poids \u00e0 ce terme et permettant \u00e0 ce substitut de mieux se classer. Une solution consisterait \u00e0 utiliser des n-grammes annot\u00e9s en parties du discours. D'autre part, ce mod\u00e8le ne tient pas compte du contexte du mot, alors que les m\u00eames substituts sont parfois ordonn\u00e9s diff\u00e9remment. Dans l'exemple suivant, le mot cible \u00ab film \u00bb a \u00e9t\u00e9 pr\u00e9f\u00e9r\u00e9 au substitut possible \u00ab movie \u00bb dans les instances 16 et 19 par les annotateurs, et dans l'ordre inverse pour les instances 15 et 17.", "html": null } } } }