| { |
| "paper_id": "F13-1004", |
| "header": { |
| "generated_with": "S2ORC 1.0.0", |
| "date_generated": "2023-01-19T09:40:43.751025Z" |
| }, |
| "title": "S\u00e9lection non supervis\u00e9e de relations s\u00e9mantiques pour am\u00e9liorer un th\u00e9saurus distributionnel", |
| "authors": [ |
| { |
| "first": "Olivier", |
| "middle": [], |
| "last": "Ferret", |
| "suffix": "", |
| "affiliation": { |
| "laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus", |
| "institution": "LIST", |
| "location": { |
| "postCode": "F-91191", |
| "settlement": "Gif-sur-Yvette", |
| "country": "France" |
| } |
| }, |
| "email": "olivier.ferret@cea.fr" |
| } |
| ], |
| "year": "", |
| "venue": null, |
| "identifiers": {}, |
| "abstract": "Les travaux se focalisant sur la construction de th\u00e9saurus distributionnels ont montr\u00e9 que les relations s\u00e9mantiques qu'ils rec\u00e8lent sont principalement fiables pour les mots de forte fr\u00e9quence. Dans cet article, nous proposons une m\u00e9thode pour r\u00e9\u00e9quilibrer de tels th\u00e9saurus en faveur des mots de fr\u00e9quence faible sur la base d'un m\u00e9canisme d'amor\u00e7age : un ensemble d'exemples et de contre-exemples de mots s\u00e9mantiquement similaires sont s\u00e9lectionn\u00e9s de fa\u00e7on non supervis\u00e9e et utilis\u00e9s pour entra\u00eener un classifieur supervis\u00e9. Celui-ci est ensuite appliqu\u00e9 pour r\u00e9ordonner les voisins s\u00e9mantiques du th\u00e9saurus utilis\u00e9 pour s\u00e9lectionner les exemples et contre-exemples. Nous montrons comment les relations entre les constituants de noms compos\u00e9s similaires peuvent \u00eatre utilis\u00e9es pour r\u00e9aliser une telle s\u00e9lection et comment conjuguer ce crit\u00e8re \u00e0 un crit\u00e8re d\u00e9j\u00e0 exp\u00e9riment\u00e9 sur la sym\u00e9trie des relations s\u00e9mantiques. Nous \u00e9valuons l'int\u00e9r\u00eat de cette proc\u00e9dure sur un large ensemble de noms en anglais couvrant un vaste spectre de fr\u00e9quence.", |
| "pdf_parse": { |
| "paper_id": "F13-1004", |
| "_pdf_hash": "", |
| "abstract": [ |
| { |
| "text": "Les travaux se focalisant sur la construction de th\u00e9saurus distributionnels ont montr\u00e9 que les relations s\u00e9mantiques qu'ils rec\u00e8lent sont principalement fiables pour les mots de forte fr\u00e9quence. Dans cet article, nous proposons une m\u00e9thode pour r\u00e9\u00e9quilibrer de tels th\u00e9saurus en faveur des mots de fr\u00e9quence faible sur la base d'un m\u00e9canisme d'amor\u00e7age : un ensemble d'exemples et de contre-exemples de mots s\u00e9mantiquement similaires sont s\u00e9lectionn\u00e9s de fa\u00e7on non supervis\u00e9e et utilis\u00e9s pour entra\u00eener un classifieur supervis\u00e9. Celui-ci est ensuite appliqu\u00e9 pour r\u00e9ordonner les voisins s\u00e9mantiques du th\u00e9saurus utilis\u00e9 pour s\u00e9lectionner les exemples et contre-exemples. Nous montrons comment les relations entre les constituants de noms compos\u00e9s similaires peuvent \u00eatre utilis\u00e9es pour r\u00e9aliser une telle s\u00e9lection et comment conjuguer ce crit\u00e8re \u00e0 un crit\u00e8re d\u00e9j\u00e0 exp\u00e9riment\u00e9 sur la sym\u00e9trie des relations s\u00e9mantiques. Nous \u00e9valuons l'int\u00e9r\u00eat de cette proc\u00e9dure sur un large ensemble de noms en anglais couvrant un vaste spectre de fr\u00e9quence.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Abstract", |
| "sec_num": null |
| } |
| ], |
| "body_text": [ |
| { |
| "text": "Le travail pr\u00e9sent\u00e9 dans cet article s'inscrit dans le contexte de la construction automatique de th\u00e9saurus \u00e0 partir de corpus. Dans le prolongement de (Grefenstette, 1994) ou (Curran et Moens, 2002) , une mani\u00e8re largement r\u00e9pandue d'aborder ce probl\u00e8me est d'utiliser une mesure de similarit\u00e9 s\u00e9mantique pour extraire les voisins s\u00e9mantiques de chacune des entr\u00e9es pressenties du th\u00e9saurus. Trois principales approches peuvent \u00eatre distingu\u00e9es pour construire une telle mesure. La premi\u00e8re repose sur des ressources construites manuellement abritant des relations s\u00e9mantiques clairement identifi\u00e9es, g\u00e9n\u00e9ralement de nature paradigmatique. Les travaux exploitant des r\u00e9seaux lexicaux de type WordNet pour \u00e9laborer des mesures de similarit\u00e9 s\u00e9mantique, tels que (Budanitsky et Hirst, 2006) ou (Pedersen et al., 2004) , entrent pleinement dans cette cat\u00e9gorie. Ces mesures s'appuient typiquement sur la structure hi\u00e9rarchique de ces r\u00e9seaux, fond\u00e9e sur des relations d'hyperonymie. La deuxi\u00e8me approche pour construire une telle mesure fait appel \u00e0 une source de connaissances concernant les mots moins structur\u00e9e que la pr\u00e9c\u00e9dente : les descriptions textuelles de leur sens. Les gloses de WordNet ont ainsi \u00e9t\u00e9 utilis\u00e9es pour mettre en oeuvre des mesures de type Lesk dans (Banerjee et Pedersen, 2003) et plus r\u00e9cemment, des mesures ont \u00e9t\u00e9 d\u00e9finies \u00e0 partir de Wikip\u00e9dia ou des d\u00e9finitions des Wiktionaries (Gabrilovich, 2007) . La derni\u00e8re option pour la construction d'une mesure de similarit\u00e9 s\u00e9mantique prend appui sur un corpus en g\u00e9n\u00e9ralisant l'hypoth\u00e8se distributionnelle : chaque mot est caract\u00e9ris\u00e9 par l'ensemble des contextes dans lesquels il appara\u00eet pour un corpus donn\u00e9 et la similarit\u00e9 s\u00e9mantique de deux mots est \u00e9valu\u00e9e sur la base de la proportion de contextes que ces deux mots partagent. Cette perspective, initialement adopt\u00e9e par (Grefenstette, 1994) et (Lin, 1998) , a fait l'objet d'\u00e9tudes approfondies, notamment dans (Curran et Moens, 2002) , (Weeds, 2003) ou (Heylen et al., 2008) .", |
| "cite_spans": [ |
| { |
| "start": 152, |
| "end": 172, |
| "text": "(Grefenstette, 1994)", |
| "ref_id": "BIBREF10" |
| }, |
| { |
| "start": 176, |
| "end": 199, |
| "text": "(Curran et Moens, 2002)", |
| "ref_id": "BIBREF6" |
| }, |
| { |
| "start": 762, |
| "end": 789, |
| "text": "(Budanitsky et Hirst, 2006)", |
| "ref_id": "BIBREF5" |
| }, |
| { |
| "start": 793, |
| "end": 816, |
| "text": "(Pedersen et al., 2004)", |
| "ref_id": "BIBREF17" |
| }, |
| { |
| "start": 1273, |
| "end": 1301, |
| "text": "(Banerjee et Pedersen, 2003)", |
| "ref_id": "BIBREF3" |
| }, |
| { |
| "start": 1408, |
| "end": 1427, |
| "text": "(Gabrilovich, 2007)", |
| "ref_id": "BIBREF9" |
| }, |
| { |
| "start": 1853, |
| "end": 1873, |
| "text": "(Grefenstette, 1994)", |
| "ref_id": "BIBREF10" |
| }, |
| { |
| "start": 1877, |
| "end": 1888, |
| "text": "(Lin, 1998)", |
| "ref_id": "BIBREF14" |
| }, |
| { |
| "start": 1944, |
| "end": 1967, |
| "text": "(Curran et Moens, 2002)", |
| "ref_id": "BIBREF6" |
| }, |
| { |
| "start": 1970, |
| "end": 1983, |
| "text": "(Weeds, 2003)", |
| "ref_id": "BIBREF21" |
| }, |
| { |
| "start": 1987, |
| "end": 2008, |
| "text": "(Heylen et al., 2008)", |
| "ref_id": "BIBREF12" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Le probl\u00e8me de l'am\u00e9lioration des r\u00e9sultats d'une impl\u00e9mentation \u00ab classique \u00bb de l'approche distributionnelle telle qu'elle est r\u00e9alis\u00e9e dans (Curran et Moens, 2002) a d\u00e9j\u00e0 fait l'objet d'un certain nombre de travaux. Une partie d'entre eux se sont focalis\u00e9s sur la pond\u00e9ration des \u00e9l\u00e9ments constituant les contextes distributionnels, \u00e0 l'instar de (Broda et al., 2009) , qui transforme les poids au sein de des contextes en rangs, ou de (Zhitomirsky-Geffet et Dagan, 2009) , repris et \u00e9tendu par (Yamamoto et Asakura, 2010) , qui propose une m\u00e9thode fond\u00e9e sur l'amor\u00e7age pour modifier les poids des \u00e9l\u00e9ments des contextes en s'appuyant sur les voisins s\u00e9mantiques trouv\u00e9s au moyen d'une mesure de similarit\u00e9 distributionnelle initiale. Des approches plus radicalement diff\u00e9rentes ont \u00e9galement vu le jour. L'utilisation de m\u00e9thodes de r\u00e9duction de dimensions, comme l'Analyse S\u00e9mantique Latente dans (Pad\u00f3 et Lapata, 2007) , les mod\u00e8les de type multi-prototype (Reisinger et Mooney, 2010) ou la red\u00e9finition de l'approche distributionnelle dans un cadre bay\u00e9sien dans (Kazama et al., 2010) se rangent dans cette seconde cat\u00e9gorie.", |
| "cite_spans": [ |
| { |
| "start": 143, |
| "end": 166, |
| "text": "(Curran et Moens, 2002)", |
| "ref_id": "BIBREF6" |
| }, |
| { |
| "start": 350, |
| "end": 370, |
| "text": "(Broda et al., 2009)", |
| "ref_id": "BIBREF4" |
| }, |
| { |
| "start": 439, |
| "end": 474, |
| "text": "(Zhitomirsky-Geffet et Dagan, 2009)", |
| "ref_id": "BIBREF22" |
| }, |
| { |
| "start": 498, |
| "end": 525, |
| "text": "(Yamamoto et Asakura, 2010)", |
| "ref_id": "BIBREF22" |
| }, |
| { |
| "start": 903, |
| "end": 925, |
| "text": "(Pad\u00f3 et Lapata, 2007)", |
| "ref_id": "BIBREF16" |
| }, |
| { |
| "start": 964, |
| "end": 991, |
| "text": "(Reisinger et Mooney, 2010)", |
| "ref_id": "BIBREF19" |
| }, |
| { |
| "start": 1071, |
| "end": 1092, |
| "text": "(Kazama et al., 2010)", |
| "ref_id": "BIBREF12" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Le travail que nous pr\u00e9sentons dans cet article s'appuie comme (Zhitomirsky-Geffet et Dagan, 2009) sur un m\u00e9canisme d'amor\u00e7age mais adopte une perspective diff\u00e9rente, initi\u00e9e dans (Ferret, 2012) : au lieu d'utiliser les \u00ab meilleurs \u00bb voisins s\u00e9mantiques pour adapter directement les poids des \u00e9l\u00e9ments constituant les contextes distributionnels des mots, l'id\u00e9e est de s\u00e9lectionner de fa\u00e7on non supervis\u00e9e un ensemble restreint de mots jug\u00e9s s\u00e9mantiquement similaires pour entra\u00eener, \u00e0 l'instar de (Hagiwara, 2008) , un classifieur statistique supervis\u00e9 capable de mod\u00e9liser la notion de similarit\u00e9 s\u00e9mantique. La s\u00e9lection de cet ensemble d'apprentissage est r\u00e9alis\u00e9e plus pr\u00e9cis\u00e9ment en associant deux crit\u00e8res faibles fond\u00e9s sur la similarit\u00e9 distributionnelle des mots : le premier, d\u00e9j\u00e0 exp\u00e9riment\u00e9 dans (Ferret, 2012) , exploite la sym\u00e9trie de la relation de similarit\u00e9 s\u00e9mantique ; le second, nouvellement introduit ici, fait l'hypoth\u00e8se que les constituants de mots compos\u00e9s s\u00e9mantiquement similaires sont eux-m\u00eames susceptibles d'entretenir des liens de similarit\u00e9 s\u00e9mantique. Nous montrons que le classifieur ainsi construit est utilisable pour r\u00e9ordonner les voisins s\u00e9mantiques trouv\u00e9s par la mesure de similarit\u00e9 initiale et corriger certaines de ses insuffisances du point de vue de la construction d'un th\u00e9saurus distributionnel.", |
| "cite_spans": [ |
| { |
| "start": 63, |
| "end": 98, |
| "text": "(Zhitomirsky-Geffet et Dagan, 2009)", |
| "ref_id": "BIBREF22" |
| }, |
| { |
| "start": 180, |
| "end": 194, |
| "text": "(Ferret, 2012)", |
| "ref_id": "BIBREF7" |
| }, |
| { |
| "start": 498, |
| "end": 514, |
| "text": "(Hagiwara, 2008)", |
| "ref_id": "BIBREF11" |
| }, |
| { |
| "start": 809, |
| "end": 823, |
| "text": "(Ferret, 2012)", |
| "ref_id": "BIBREF7" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "L'utilisation de l'amor\u00e7age implique dans notre cas de construire un th\u00e9saurus initial dont la qualit\u00e9, au moins pour un sous-ensemble de celui-ci, soit suffisamment \u00e9lev\u00e9e pour servir de marchepied \u00e0 une am\u00e9lioration plus globale. Compte tenu du mode de construction de ce type de th\u00e9saurus, cet objectif prend la forme de la d\u00e9finition d'une mesure de similarit\u00e9 distributionnelle obtenant des performances, telles qu'elles peuvent \u00eatre \u00e9valu\u00e9es au travers de tests de type TOEFL (Landauer et Dumais, 1997) par exemple, compatibles avec cette exigence. (Ferret, 2010) s'est attach\u00e9 \u00e0 la s\u00e9lection d'une telle mesure. Nous reprenons ici les conclusions de ce travail.", |
| "cite_spans": [ |
| { |
| "start": 482, |
| "end": 508, |
| "text": "(Landauer et Dumais, 1997)", |
| "ref_id": "BIBREF13" |
| }, |
| { |
| "start": 555, |
| "end": 569, |
| "text": "(Ferret, 2010)", |
| "ref_id": "BIBREF6" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Construction d'un th\u00e9saurus distributionnel initial", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Bien que notre langue cible soit l'anglais, nous avons choisi de limiter le niveau des traitements linguistiques appliqu\u00e9s au corpus source de nos donn\u00e9es distributionnelles \u00e0 l'\u00e9tiquetage morphosyntaxique et \u00e0 la lemmatisation, de mani\u00e8re \u00e0 faciliter la transposition du travail \u00e0 des langues moins dot\u00e9es. Cette approche appara\u00eet \u00e0 cet \u00e9gard comme un compromis raisonnable entre l'approche de (Freitag et al., 2005) , dans laquelle aucune normalisation n'est faite, et l'approche plus largement r\u00e9pandue consistant \u00e0 utiliser un analyseur syntaxique, \u00e0 l'instar de (Curran et Moens, 2002) . Plus pr\u00e9cis\u00e9ment, nous nous sommes appuy\u00e9s sur l'outil TreeTagger (Schmid, 1994) pour assurer le pr\u00e9traitement du corpus AQUAINT-2 qui est \u00e0 la base de ce travail. Ce corpus comprenant environ 380 millions de mots est compos\u00e9 d'articles de journaux.", |
| "cite_spans": [ |
| { |
| "start": 395, |
| "end": 417, |
| "text": "(Freitag et al., 2005)", |
| "ref_id": "BIBREF8" |
| }, |
| { |
| "start": 567, |
| "end": 590, |
| "text": "(Curran et Moens, 2002)", |
| "ref_id": "BIBREF6" |
| }, |
| { |
| "start": 659, |
| "end": 673, |
| "text": "(Schmid, 1994)", |
| "ref_id": "BIBREF20" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "D\u00e9finition d'une mesure de similarit\u00e9 distributionnelle", |
| "sec_num": "2.1" |
| }, |
| { |
| "text": "Les param\u00e8tres d'extraction des donn\u00e9es distributionnelles et les caract\u00e9ristiques de la mesure de similarit\u00e9 sont quant \u00e0 eux issus de la s\u00e9lection op\u00e9r\u00e9e dans (Ferret, 2010) :", |
| "cite_spans": [ |
| { |
| "start": 161, |
| "end": 175, |
| "text": "(Ferret, 2010)", |
| "ref_id": "BIBREF6" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "D\u00e9finition d'une mesure de similarit\u00e9 distributionnelle", |
| "sec_num": "2.1" |
| }, |
| { |
| "text": "-contextes distributionnels constitu\u00e9s de cooccurrents graphiques : noms, verbes et adjectifs collect\u00e9s gr\u00e2ce \u00e0 une fen\u00eatre de taille fixe centr\u00e9e sur chaque occurrence du mot cible ; -taille de la fen\u00eatre = 3 (un mot \u00e0 droite et un mot \u00e0 gauche du mot cible), c'est-\u00e0-dire des cooccurrents de tr\u00e8s courte port\u00e9e ; -filtrage minimal des contextes : suppression des seuls cooccurrents de fr\u00e9quence \u00e9gale \u00e0 1 ; -fonction de pond\u00e9ration des cooccurrents dans les contextes = Information mutuelle entre le mot cible et son cooccurrent ; -mesure de similarit\u00e9 entre contextes, pour \u00e9valuer la similarit\u00e9 s\u00e9mantique de deux mots = mesure Cosinus.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "D\u00e9finition d'une mesure de similarit\u00e9 distributionnelle", |
| "sec_num": "2.1" |
| }, |
| { |
| "text": "Un filtre fr\u00e9quentiel est en outre appliqu\u00e9 \u00e0 la fois aux mots cibles et \u00e0 leurs cooccurrents puisque seuls les mots de fr\u00e9quence sup\u00e9rieure \u00e0 10 sont consid\u00e9r\u00e9s.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "D\u00e9finition d'une mesure de similarit\u00e9 distributionnelle", |
| "sec_num": "2.1" |
| }, |
| { |
| "text": "La construction de notre th\u00e9saurus distributionnel initial \u00e0 partir de la mesure de similarit\u00e9 d\u00e9finie ci-dessus a \u00e9t\u00e9 r\u00e9alis\u00e9e comme dans (Lin, 1998) ou (Curran et Moens, 2002) (Lin, 1998) avec les m\u00eames mesures et les m\u00eames r\u00e9f\u00e9rences que les n\u00f4tres et trouvent des r\u00e9sultats assez comparables en tenant compte du fait que le corpus de (Lin, 1998) \u00e9tait beaucoup plus gros que le n\u00f4tre, 3 milliards de mots, et que les donn\u00e9es distributionnelles \u00e9taient extraites sur la base de cooccurrences syntaxiques. \u00c0 titre indicatif, l'utilisation de WordNet comme r\u00e9f\u00e9rence pour des fr\u00e9quences > 5 000 donnent ainsi les valeurs suivantes pour les donn\u00e9es de Lin : P@1 = 16,5 ; P@5 = 5,0 ; P@10 = 3,5 ; MAP = 9,2 ; R-pr\u00e9c. = 16,7. Par rapport aux fr\u00e9quences hautes du tableau 1, configuration la plus directement comparable, on constate qu'en dehors de la R-pr\u00e9cision, plus \u00e9lev\u00e9e dans le cas des donn\u00e9es de Lin, les autres mesures donnent des valeurs proches de celles rapport\u00e9es dans (Muller et Langlais, 2011) .", |
| "cite_spans": [ |
| { |
| "start": 139, |
| "end": 150, |
| "text": "(Lin, 1998)", |
| "ref_id": "BIBREF14" |
| }, |
| { |
| "start": 154, |
| "end": 177, |
| "text": "(Curran et Moens, 2002)", |
| "ref_id": "BIBREF6" |
| }, |
| { |
| "start": 178, |
| "end": 189, |
| "text": "(Lin, 1998)", |
| "ref_id": "BIBREF14" |
| }, |
| { |
| "start": 338, |
| "end": 349, |
| "text": "(Lin, 1998)", |
| "ref_id": "BIBREF14" |
| }, |
| { |
| "start": 979, |
| "end": 1005, |
| "text": "(Muller et Langlais, 2011)", |
| "ref_id": "BIBREF15" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Construction et \u00e9valuation du th\u00e9saurus initial", |
| "sec_num": "2.2" |
| }, |
| { |
| "text": "Le deuxi\u00e8me point que laisse appara\u00eetre ce tableau est la forte d\u00e9pendance des r\u00e9sultats vis-\u00e0-vis de la fr\u00e9quence des entr\u00e9es du th\u00e9saurus. Les meilleurs r\u00e9sultats sont ainsi obtenus par les mots de la tranche de fr\u00e9quences sup\u00e9rieure tandis que les mesures d'\u00e9valuation diminuent de fa\u00e7on tr\u00e8s significative pour la tranche fr\u00e9quentielle la plus basse. Le dernier constat a trait \u00e0 l'impact de la r\u00e9f\u00e9rence utilis\u00e9e pour l'\u00e9valuation du th\u00e9saurus. WordNet est ainsi caract\u00e9ris\u00e9 par un nombre restreint de synonymes pour chaque nom tandis que le th\u00e9saurus Moby contient pour chaque entr\u00e9e un large ensemble de synonymes et de mots li\u00e9s. La cons\u00e9quence de cette diff\u00e9rence s'observe clairement au niveau des pr\u00e9cisions \u00e0 diff\u00e9rents rangs dans le tableau 1 : les valeurs sont nettement sup\u00e9rieures pour Moby par rapport \u00e0 WordNet alors que la mesure de similarit\u00e9 sous-jacente est la m\u00eame. Seule la richesse de la r\u00e9f\u00e9rence varie. Ce ph\u00e9nom\u00e8ne est \u00e9galement illustr\u00e9 dans (Ferret, 2010) au travers de la comparaison avec (Curran et Moens, 2002) .", |
| "cite_spans": [ |
| { |
| "start": 971, |
| "end": 985, |
| "text": "(Ferret, 2010)", |
| "ref_id": "BIBREF6" |
| }, |
| { |
| "start": 1020, |
| "end": 1043, |
| "text": "(Curran et Moens, 2002)", |
| "ref_id": "BIBREF6" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Construction et \u00e9valuation du th\u00e9saurus initial", |
| "sec_num": "2.2" |
| }, |
| { |
| "text": "L'\u00e9valuation de notre th\u00e9saurus distributionnel initial montre que les voisins s\u00e9mantiques obtenus sont significativement meilleurs pour certaines entr\u00e9es que pour d'autres. Une telle configuration est a priori favorable \u00e0 un m\u00e9canisme de type amor\u00e7age dans la mesure o\u00f9 il est envisageable de s'appuyer sur les r\u00e9sultats des \u00ab bonnes \u00bb entr\u00e9es pour obtenir une am\u00e9lioration plus globale. (Zhitomirsky-Geffet et Dagan, 2009) a d\u00e9j\u00e0 fait appel \u00e0 l'amor\u00e7age dans un contexte proche du n\u00f4tre, l'acquisition de relations d'implication textuelle entre mots. Cependant, des exp\u00e9rimentations rapport\u00e9es dans (Ferret, 2010) ont montr\u00e9 que la transposition de cette approche \u00e0 notre probl\u00e8me n'\u00e9tait pas concluante. Ainsi, au lieu d'utiliser les r\u00e9sultats d'une mesure de similarit\u00e9 initiale pour modifier directement les poids des \u00e9l\u00e9ments constitutifs des contextes distributionnels, nous avons adopt\u00e9 une approche plus indirecte, fond\u00e9 sur (Hagiwara, 2008) . (Hagiwara, 2008) a en effet montr\u00e9 qu'il est possible d'entra\u00eener et d'appliquer avec un bon niveau de performance un classifieur statistique, en l'occurrence de type Machine \u00e0 Vecteurs de Support (SVM), pour d\u00e9cider si deux mots sont ou ne sont pas synonymes, au sens large du terme. Par ailleurs, ce travail montre \u00e9galement que la valeur de la fonction de d\u00e9cision caract\u00e9risant les SVM, dont on n'utilise que le signe dans le cas d'une classification binaire, peut jouer, pour l'ordonnancement des voisins s\u00e9mantiques, le m\u00eame r\u00f4le que la valeur d'une mesure de similarit\u00e9 telle que celle d\u00e9finie \u00e0 la section 2.", |
| "cite_spans": [ |
| { |
| "start": 601, |
| "end": 615, |
| "text": "(Ferret, 2010)", |
| "ref_id": "BIBREF6" |
| }, |
| { |
| "start": 934, |
| "end": 950, |
| "text": "(Hagiwara, 2008)", |
| "ref_id": "BIBREF11" |
| }, |
| { |
| "start": 953, |
| "end": 969, |
| "text": "(Hagiwara, 2008)", |
| "ref_id": "BIBREF11" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Principes", |
| "sec_num": "3.1" |
| }, |
| { |
| "text": "\u00c0 la diff\u00e9rence de (Hagiwara, 2008) , nous ne disposons pas d'un ensemble d'exemples et de contre-exemples \u00e9tiquet\u00e9s manuellement pour r\u00e9aliser l'entra\u00eenement d'un tel classifieur. En revanche, les voisins s\u00e9mantiques obtenus en appliquant la mesure de similarit\u00e9 de la section 2 peuvent \u00eatre exploit\u00e9s pour construire un tel ensemble. Cette mesure n'offre pas de crit\u00e8re \u00e9vident pour discriminer les mots s\u00e9mantiquement li\u00e9s 1 . Cependant, elle peut \u00eatre utilis\u00e9e plus indirectement pour s\u00e9lectionner un ensemble d'exemples et de contre-exemples de fa\u00e7on non supervis\u00e9e en minimisant le nombre d'erreurs. Ces erreurs correspondent \u00e0 des exemples consid\u00e9r\u00e9s comme positifs mais en r\u00e9alit\u00e9 n\u00e9gatifs et d'exemples consid\u00e9r\u00e9s comme n\u00e9gatifs mais en fait positifs. Dans cette optique, nous proposons d'entra\u00eener un classifieur SVM gr\u00e2ce \u00e0 ces ensembles et de l'appliquer ensuite pour r\u00e9ordonner les voisins s\u00e9mantiques obtenus pr\u00e9c\u00e9demment. L'ensemble de la d\u00e9marche peut \u00eatre r\u00e9sum\u00e9e par la proc\u00e9dure suivante :", |
| "cite_spans": [ |
| { |
| "start": 19, |
| "end": 35, |
| "text": "(Hagiwara, 2008)", |
| "ref_id": "BIBREF11" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Principes", |
| "sec_num": "3.1" |
| }, |
| { |
| "text": "-d\u00e9finition d'une mesure de similarit\u00e9 distributionnelle ; -application de cette mesure pour la construction d'un th\u00e9saurus distributionnel par le biais de l'extraction de voisins s\u00e9mantiques ; -s\u00e9lection non supervis\u00e9e d'un ensemble d'exemples et de contre-exemples de mots s\u00e9mantiquement similaires gr\u00e2ce aux r\u00e9sultats de l'application de la mesure de similarit\u00e9 ; -entra\u00eenement d'un classifieur statistique \u00e0 partir de l'ensemble d'exemples constitu\u00e9 ; -application du classifieur entra\u00een\u00e9 au r\u00e9ordonnancement des voisins du th\u00e9saurus initial.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Principes", |
| "sec_num": "3.1" |
| }, |
| { |
| "text": "Le point cl\u00e9 de l'am\u00e9lioration des r\u00e9sultats par ce moyen est de s\u00e9lectionner de fa\u00e7on non supervis\u00e9e un nombre suffisant d'exemples et de contre-exemples en minimisant les erreurs propres \u00e0 une telle s\u00e9lection. Dans la section 4, nous proposons d'associer deux m\u00e9thodes faibles, \u00e0 la fois au sens de la productivit\u00e9 et de la validit\u00e9 des r\u00e9sultats, pour accomplir cette t\u00e2che.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Principes", |
| "sec_num": "3.1" |
| }, |
| { |
| "text": "Avant de pr\u00e9senter plus en d\u00e9tail ce processus de s\u00e9lection, il convient de pr\u00e9ciser la nature des exemples et des contre-exemples. Nous reprenons de ce point de vue la conception d\u00e9velopp\u00e9e dans (Hagiwara, 2008) : un exemple est constitu\u00e9 d'un couple de mots consid\u00e9r\u00e9s comme synonymes ou plus g\u00e9n\u00e9ralement s\u00e9mantiquement li\u00e9s ; un contre-exemple est form\u00e9 d'un couple de mots entre lesquels un tel lien s\u00e9mantique n'existe pas. La repr\u00e9sentation de ces couples pour un classifieur de type SVM s'effectue en associant leurs repr\u00e9sentations distributionnelles. Cette association s'effectue pour chaque couple (M 1 , M 2 ) en sommant le poids des cooccurrents communs aux mots M 1 et M 2 . Les cooccurrents de M x non pr\u00e9sents dans M y se voient attribuer un poids nul. Chaque exemple ou contre-exemple a donc la m\u00eame forme que la repr\u00e9sentation distributionnelle d'un mot, c'est-\u00e0-dire un vecteur de mots pond\u00e9r\u00e9s.", |
| "cite_spans": [ |
| { |
| "start": 196, |
| "end": 212, |
| "text": "(Hagiwara, 2008)", |
| "ref_id": "BIBREF11" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Repr\u00e9sentation des exemples", |
| "sec_num": "3.2" |
| }, |
| { |
| "text": "Du point de vue de la s\u00e9lection des exemples et des contre-exemples de mots s\u00e9mantiquement li\u00e9s, le tableau 1 offre une image claire : trouver des exemples est beaucoup plus probl\u00e9matique que trouver des contre-exemples dans la mesure o\u00f9 le nombre de mots s\u00e9mantiquement li\u00e9s \u00e0 1 Fixer pour ce faire un seuil sur les valeurs de similarit\u00e9 produit de mauvais r\u00e9sultats du fait de la variabilit\u00e9 de ces valeurs d'une entr\u00e9e \u00e0 l'autre. Ce constat a motiv\u00e9 notre choix d'utiliser un SVM en classification plut\u00f4t qu'en r\u00e9gression.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "S\u00e9lection des exemples et des contre-exemples", |
| "sec_num": "4" |
| }, |
| { |
| "text": "une entr\u00e9e du th\u00e9saurus diminue tr\u00e8s fortement d\u00e8s que l'on consid\u00e8re ses voisins de rang un peu \u00e9lev\u00e9. Dans les exp\u00e9rimentations de la section 5, nous avons ainsi construits nos contreexemples \u00e0 partir de nos exemples en cr\u00e9ant pour chaque exemple (A,B) deux contre-exemples de la forme : (A, voisin de rang 10 de A) et (B, voisin de rang 10 de B). Le choix d'un rang sup\u00e9rieur garantirait un nombre plus faible de faux contre-exemples (i.e. couples de synonymes) et donc a priori, de meilleurs r\u00e9sultats. En pratique, l'utilisation de voisins du mot cible de rang assez faible conduit \u00e0 une performance sup\u00e9rieure, sans doute parce que ceux-ci sont plus utiles en termes de discrimination, \u00e9tant plus proches de la zone de transition entre exemples et contre-exemples. Nous avons par ailleurs constat\u00e9 exp\u00e9rimentalement que le rapport entre contre-exemples et exemples dans (Hagiwara, 2008) , \u00e9gal 6,5 et donc fortement d\u00e9s\u00e9quilibr\u00e9 en faveur des contre-exemples, n'\u00e9tait pas n\u00e9cessaire dans notre situation et pouvait se ramener \u00e0 2.", |
| "cite_spans": [ |
| { |
| "start": 876, |
| "end": 892, |
| "text": "(Hagiwara, 2008)", |
| "ref_id": "BIBREF11" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "S\u00e9lection des exemples et des contre-exemples", |
| "sec_num": "4" |
| }, |
| { |
| "text": "Pour la s\u00e9lection des exemples, le tableau 1 impose un double constat : trouver un voisin s\u00e9mantiquement proche est d'autant plus probable que la fr\u00e9quence de l'entr\u00e9e du th\u00e9saurus consid\u00e9r\u00e9e est \u00e9lev\u00e9e et que le rang du voisin est faible. La forme extr\u00eame de cette logique conduirait \u00e0 retenir comme exemples tous les couples de mots (entr\u00e9e de haute fr\u00e9quence, voisin de rang 1), ce qui donne un large nombre d'exemples -7 335 -mais un taux d'erreur (i.e. nombre de couples de mots non li\u00e9s s\u00e9mantiquement) \u00e9galement \u00e9lev\u00e9 -63,6% dans le cas le plus favorable (r\u00e9f\u00e9rence WM). Nous avons donc propos\u00e9 une approche plus s\u00e9lective pour choisir nos exemples parmi les entr\u00e9es fr\u00e9quentes du th\u00e9saurus afin d'aboutir \u00e0 une solution plus \u00e9quilibr\u00e9e entre le nombre d'exemples et leur taux d'erreur. Cette approche associe deux m\u00e9thodes de s\u00e9lection non supervis\u00e9es produisant chacune un nombre limit\u00e9 d'exemples mais avec un meilleur taux d'erreur. Nous pr\u00e9sentons ces m\u00e9thodes dans les deux sections suivantes en d\u00e9taillant plus sp\u00e9cifiquement celle fond\u00e9e sur les mots compos\u00e9s, nouvelle proposition de cet article.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "S\u00e9lection des exemples et des contre-exemples", |
| "sec_num": "4" |
| }, |
| { |
| "text": "Notre premi\u00e8re m\u00e9thode de s\u00e9lection d'exemples de mots s\u00e9mantiquement similaires a \u00e9t\u00e9 introduite dans (Ferret, 2012) . Elle est fond\u00e9e sur l'hypoth\u00e8se que les relations de similarit\u00e9 s\u00e9mantique sont sym\u00e9triques, ce qui est strictement vrai dans le cas des synonymes de WordNet mais l'est moins pour les mots li\u00e9s de Moby. En accord avec cette hypoth\u00e8se, nous avons consid\u00e9r\u00e9 que si une entr\u00e9e A du th\u00e9saurus initial a pour voisin un mot B, ce voisin a d'autant plus de chances d'\u00eatre s\u00e9mantiquement similaire \u00e0 A que A est lui-m\u00eame un voisin de B en tant qu'entr\u00e9e du th\u00e9saurus. Plus pr\u00e9cis\u00e9ment, les r\u00e9sultats du tableau 1 nous ont conduit \u00e0 limiter l'application de ce principe aux voisins de rang 1 et aux entr\u00e9es de haute fr\u00e9quence, dont les voisins sont eux-m\u00eames g\u00e9n\u00e9ralement des noms de haute fr\u00e9quence. Nous avons donc appliqu\u00e9 ce principe aux 7 335 entr\u00e9es dites de haute fr\u00e9quence du th\u00e9saurus, obtenant des cas de sym\u00e9trie entre entr\u00e9e et voisin de rang 1 pour 1 592 entr\u00e9es. 796 exemples de mots s\u00e9mantiquement similaires ont finalement \u00e9t\u00e9 produits puisque les couples (A,B) et (B,A) repr\u00e9sentent un m\u00eame exemple.", |
| "cite_spans": [ |
| { |
| "start": 103, |
| "end": 117, |
| "text": "(Ferret, 2012)", |
| "ref_id": "BIBREF7" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "S\u00e9lection fond\u00e9e sur les relations de sym\u00e9trie dans le th\u00e9saurus", |
| "sec_num": "4.1" |
| }, |
| { |
| "text": "La seconde m\u00e9thode que nous proposons pour la s\u00e9lection de couples de mots s\u00e9mantiquement similaires repose sur l'hypoth\u00e8se que les mono-termes de deux mots compos\u00e9s s\u00e9mantiquement similaires occupant dans ces deux termes le m\u00eame r\u00f4le syntaxique sont eux-m\u00eames susceptibles d'\u00eatre s\u00e9mantiquement similaires. Par exemple, les noms compos\u00e9s movie_director et film_director \u00e9tant trouv\u00e9s similaires et les t\u00eates syntaxiques de ces deux compos\u00e9s \u00e9tant identiques, il est vraisemblable que la similarit\u00e9 s\u00e9mantique observ\u00e9e entre film et movie dans le th\u00e9saurus initial soit v\u00e9ritable. Le point de d\u00e9part de cette hypoth\u00e8se \u00e9tant la similarit\u00e9 s\u00e9mantique des mots compos\u00e9s, nous avons commenc\u00e9 par construire un th\u00e9saurus distributionnel de noms compos\u00e9s pour l'anglais, \u00e0 l'image du th\u00e9saurus de la section 2 pour les noms simples. Cette construction a \u00e9t\u00e9 r\u00e9alis\u00e9e \u00e0 partir du m\u00eame corpus et avec les m\u00eames param\u00e8tres que pour les mono-termes, \u00e0 l'exception bien entendu de l'ajout d'une \u00e9tape dans le pr\u00e9traitement linguistique des documents du corpus pour l'identification des noms compos\u00e9s. Cette identification a \u00e9t\u00e9 r\u00e9alis\u00e9e en deux \u00e9tapes : un ensemble de noms compos\u00e9s ont d'abord \u00e9t\u00e9 extraits du corpus AQUAINT-2 sur la base d'un nombre limit\u00e9 de patrons morpho-syntaxiques ; les plus fr\u00e9quents de ces compos\u00e9s ont ensuite \u00e9t\u00e9 utilis\u00e9s comme r\u00e9f\u00e9rence dans un processus d'indexation contr\u00f4l\u00e9e.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "S\u00e9lection fond\u00e9e sur les mots compos\u00e9s 4.2.1 Construction d'un th\u00e9saurus distributionnel de noms compos\u00e9s", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "La premi\u00e8re \u00e9tape a \u00e9t\u00e9 mise en oeuvre gr\u00e2ce \u00e0 l'outil mwetoolkit (Ramisch et al., 2010) , qui permet d'extraire efficacement des mots compos\u00e9s d'un corpus \u00e0 partir du r\u00e9sultat d'un \u00e9tiqueteur morpho-syntaxique, le TreeTagger dans notre cas, en s'appuyant sur un ensemble de patrons morpho-syntaxiques. Nous nous sommes limit\u00e9s aux trois patrons de noms compos\u00e9s suivants : <nom> <nom>, <adjectif > <nom>, <nom> <pr\u00e9position> <nom>. Un ensemble de 3 246 401 noms compos\u00e9s ont ainsi \u00e9t\u00e9 extraits du corpus AQUAINT-2 parmi lesquels seuls les 30 121 termes de fr\u00e9quence sup\u00e9rieure \u00e0 100 ont \u00e9t\u00e9 retenus, pour des raisons \u00e0 la fois de fiabilit\u00e9 et de limitation du vocabulaire pour la construction du th\u00e9saurus. L'identification de ces termes de r\u00e9f\u00e9rence dans les textes a ensuite \u00e9t\u00e9 r\u00e9alis\u00e9e en appliquant la strat\u00e9gie de l'appariement maximal \u00e0 la sortie lemmatis\u00e9e du TreeTagger. Finalement, des contextes distributionnels constitu\u00e9s \u00e0 la fois de mots simples et de termes complexes ont \u00e9t\u00e9 construits suivant les principes de la section 2 et des voisins ont \u00e9t\u00e9 trouv\u00e9s pour 29 174 noms compos\u00e9s.", |
| "cite_spans": [ |
| { |
| "start": 66, |
| "end": 88, |
| "text": "(Ramisch et al., 2010)", |
| "ref_id": "BIBREF18" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "S\u00e9lection fond\u00e9e sur les mots compos\u00e9s 4.2.1 Construction d'un th\u00e9saurus distributionnel de noms compos\u00e9s", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "#mots \u00e9val.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "r\u00e9f.", |
| "sec_num": null |
| }, |
| { |
| "text": "#syn. /mot rappel R-pr\u00e9c. MAP P@1 P@5 P@10 P@100 (Curran et Moens, 2002) ou 353 pour (Gabrilovich, 2007) . Cette prudence est particuli\u00e8rement de mise pour les mots li\u00e9s de Moby : les r\u00e9sultats, \u00e0 l'exception du rappel, sont tr\u00e8s significativement inf\u00e9rieurs \u00e0 ceux obtenus avec les mono-termes mais le nombre d'entr\u00e9es \u00e9valu\u00e9es -241 -est aussi faible. \u00c0 l'inverse, les performances obtenues pour les synonymes de WordNet sont tr\u00e8s nettement sup\u00e9rieures sur tous les plans \u00e0 celles caract\u00e9risant les mono-termes, ces r\u00e9sultats \u00e9tant obtenus pour un nombre d'entr\u00e9es -608 -nettement sup\u00e9rieur. Cette diff\u00e9rence ne s'expliquant pas par un biais concernant la fr\u00e9quence des entr\u00e9es \u00e9valu\u00e9es vis-\u00e0-vis respectivement de WordNet et de Moby, il semble donc que le comportement des noms compos\u00e9s soit, du point de vue des similarit\u00e9s distributionnelles, l'inverse de celui des noms simples, favorisant les relations s\u00e9mantiques paradigmatiques par rapport aux relations syntagmatiques. La plus faible ambigu\u00eft\u00e9 s\u00e9mantique des noms compos\u00e9s serait une explication possible de ce ph\u00e9nom\u00e8ne qui demanderait n\u00e9anmoins une \u00e9tude plus approfondie avec une base d'\u00e9valuation plus large.", |
| "cite_spans": [ |
| { |
| "start": 49, |
| "end": 72, |
| "text": "(Curran et Moens, 2002)", |
| "ref_id": "BIBREF6" |
| }, |
| { |
| "start": 85, |
| "end": 104, |
| "text": "(Gabrilovich, 2007)", |
| "ref_id": "BIBREF9" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "r\u00e9f.", |
| "sec_num": null |
| }, |
| { |
| "text": "La s\u00e9lection d'exemples de mots simples s\u00e9mantiquement similaires \u00e0 partir de noms compos\u00e9s s'appuie sur la structure syntaxique de ces noms compos\u00e9s. Compte tenu des patrons utilis\u00e9s pour l'extraction des termes, cette structure prend la forme de l'un des trois grands sch\u00e9mas suivants : <nom> e x pansion <nom> t\u00eate , <adjectif> ex pansion <nom> t\u00eate , <nom> t\u00eate <pr\u00e9position> <nom> e x pansion .", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "S\u00e9lection d'exemples \u00e0 partir de noms compos\u00e9s", |
| "sec_num": "4.2.2" |
| }, |
| { |
| "text": "Chaque nom compos\u00e9 C i a ainsi \u00e9t\u00e9 repr\u00e9sent\u00e9 sous la forme d'un couple de noms (T i , E i ), dans lequel T i repr\u00e9sente la t\u00eate syntaxique de C i et D i , son expansion, au sens des grammaires de d\u00e9pendance. Conform\u00e9ment au principe sous-tendant notre m\u00e9thode s\u00e9lection, si un nom compos\u00e9 (T 2 , E 2 ) est un voisin s\u00e9mantique d'un nom compos\u00e9 (T 1 , E 1 ) (au plus, son c i\u00e8me voisin), il est probable que T 1 et T 2 ou E 1 et E 2 soient s\u00e9mantiquement similaires 2 . Comme le montre le tableau 2, notre th\u00e9saurus distributionnel de noms compos\u00e9s est cependant loin d'\u00eatre parfait. Pour limiter les erreurs, nous avons ajout\u00e9 des contraintes sur l'appariement des constituants des noms compos\u00e9s similaires en nous appuyant sur la similarit\u00e9 distributionnelle de ces constituants. Au final, nous s\u00e9lectionnons des exemples de noms simples s\u00e9mantiquement similaires (couples de noms suivant \u2192) en appliquant les trois r\u00e8gles suivantes, dans lesquelles E 1 = E 2 signifie que E 1 et E 2 sont identiques et T 1 \u2261 T 2 signifie que T 2 est au plus le n i\u00e8me voisin de T 1 dans notre th\u00e9saurus de noms simples : ", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "S\u00e9lection d'exemples \u00e0 partir de noms compos\u00e9s", |
| "sec_num": "4.2.2" |
| }, |
| { |
| "text": "EQUATION", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [ |
| { |
| "start": 0, |
| "end": 8, |
| "text": "EQUATION", |
| "ref_id": "EQREF", |
| "raw_str": "(1) T 1 \u2261 T 2 et E 1 = E 2 \u2192 (T 1 , T 2 ) (crash, accident) issu de car_crash et car_accident ; (boat, vessel) de fishing_vessel et fishing_boat (2) E 1 \u2261 E 2 et T 1 = T 2 \u2192 (E 1 , E 2 ) (ocean, sea) de ocean_floor et sea_floor ; (jail, prison) de prison_cell et jail_cell (3) E 1 \u2261 E 2 et T 1 \u2261 T 2 \u2192 (T 1 , T 2 ), (E 1 , E 2 )", |
| "eq_num": "(" |
| } |
| ], |
| "section": "S\u00e9lection d'exemples \u00e0 partir de noms compos\u00e9s", |
| "sec_num": "4.2.2" |
| }, |
| { |
| "text": "La mise en oeuvre effective de notre approche de r\u00e9ordonnancement des voisins s\u00e9mantiques n\u00e9cessite de fixer un certain nombre de param\u00e8tres li\u00e9s aux SVM. De m\u00eame que (Hagiwara, 2008) , nous avons adopt\u00e9 un noyau RBF et une strat\u00e9gie de type grid search pour l'optimisation du param\u00e8tre \u03b3 fixant la largeur de la fonction gaussienne du noyau RBF et du param\u00e8tre C d'ajustement entre la taille de la marge et le taux d'erreur. Cette optimisation a \u00e9t\u00e9 r\u00e9alis\u00e9e pour chaque ensemble d'apprentissage consid\u00e9r\u00e9 en se fondant sur la mesure de pr\u00e9cision calcul\u00e9e dans le cadre d'une validation crois\u00e9e divisant ces ensembles en 5 parties. Chaque mod\u00e8le SVM correspondant a \u00e9t\u00e9 construit en utilisant l'outil LIBSVM puis appliqu\u00e9 \u00e0 la totalit\u00e9 des 14 670", |
| "cite_spans": [ |
| { |
| "start": 167, |
| "end": 183, |
| "text": "(Hagiwara, 2008)", |
| "ref_id": "BIBREF11" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mise en oeuvre du r\u00e9ordonnancement des voisins", |
| "sec_num": "5.2" |
| }, |
| { |
| "text": "noms cibles de notre \u00e9valuation initiale. Plus pr\u00e9cis\u00e9ment, pour chaque nom cible N C, une repr\u00e9sentation d'exemple a \u00e9t\u00e9 construite pour chaque couple (N C, voisin de N C) et a \u00e9t\u00e9 soumise au mod\u00e8le SVM consid\u00e9r\u00e9 en mode classification. L'ensemble de ces voisins ont ensuite \u00e9t\u00e9 r\u00e9ordonn\u00e9s suivant la valeur de la fonction de d\u00e9cision ainsi calcul\u00e9e pour chaque voisin.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mise en oeuvre du r\u00e9ordonnancement des voisins", |
| "sec_num": "5.2" |
| }, |
| { |
| "text": "Le tableau 4 donne les r\u00e9sultats globaux du r\u00e9ordonnancement r\u00e9alis\u00e9 sur la base des exemples s\u00e9lectionn\u00e9s par chacune des deux m\u00e9thodes pr\u00e9sent\u00e9es tandis que les r\u00e9sultats d\u00e9taill\u00e9s du tableau 5 correspondent au r\u00e9ordonnancement fond\u00e9 sur l'association des deux m\u00e9thodes de s\u00e9lection. Chacun des ces trois th\u00e9saurus a \u00e9t\u00e9 \u00e9valu\u00e9 selon les m\u00eames principes qu'\u00e0 la section 2.2. La valeur de chaque mesure se voit associer sa diff\u00e9rence avec la valeur correspondante pour le th\u00e9saurus initial dans le tableau 1. Enfin, comme l'\u00e9valuation s'applique au r\u00e9sultat d'un r\u00e9ordonnancement, les mesures de rappel et de pr\u00e9cision au rang le plus lointain ne changent pas et ne sont pas rappel\u00e9es. m\u00e9thode r\u00e9f. R-pr\u00e9c. MAP P@1 P@5 P@10 W 7,8 (-0,4) 9,4 (-0,4) 11,2 (-0,5) \u2021 5,0 (-0,1) \u2021 3,3 (-0,1) \u2021 sym\u00e9trie M 7,1 (0,4) 3,4 (0,2) 27,3 (3,2) 17,6 (1,2) 13,7 (0,7) WM 8,0 (0,3) 5,7 (0,1) 24,6 (2,1) 14,9 (0,8) 11,4 (0,6) W 7,2 (-1,0) 8,8 (-1,0) 10,4 (-1,3) 4,6 (-0,5) 3,1 (-0,3) compos\u00e9s M 7,1 (0,4) 3,3 (0,1) 26,8 (2,7) 17,4 (1,0) 13,5 (0,5) WM 7,8 (0,1) 5,5 (-0,1) 24,0 (1,5) 14,6 (0,5) 11,2 (0,4) La tendance g\u00e9n\u00e9rale est claire : le processus de r\u00e9ordonnancement conduit \u00e0 une am\u00e9lioration significative des r\u00e9sultats \u00e0 l'\u00e9chelle globale (tableau 4 et lignes tous du tableau 5) pour les r\u00e9f\u00e9rences M et WM 3 . Parall\u00e8lement, une diminution des r\u00e9sultats est observ\u00e9e pour la r\u00e9f\u00e9rence W, diminution statistiquement non significative pour le tableau 5. En d'autres termes, par rapport au th\u00e9saurus initial, la proc\u00e9dure de r\u00e9ordonnancement tend \u00e0 favoriser les mots similaires au d\u00e9triment des synonymes. Cette tendance n'est pas surprenante compte tenu du principe de ce r\u00e9ordonnancement : les premiers sont en effet mieux repr\u00e9sent\u00e9s que les seconds dans les exemples s\u00e9lectionn\u00e9s du fait m\u00eame de leur meilleure repr\u00e9sentation au niveau global. Les mod\u00e8les SVM appris ne font en l'occurrence qu'amplifier un \u00e9tat de fait d\u00e9j\u00e0 pr\u00e9sent initialement. Ce biais est particuli\u00e8rement fort pour la m\u00e9thode de s\u00e9lection fond\u00e9e sur les noms compos\u00e9s, comme l'illustre le tableau 4. Cependant, les r\u00e9sultats du tableau 5 montrent clairement l'int\u00e9r\u00eat de l'association des deux m\u00e9thodes de s\u00e9lection, la m\u00e9thode de s\u00e9lection fond\u00e9e sur la sym\u00e9trie des relations venant r\u00e9\u00e9quilibrer ce biais au b\u00e9n\u00e9fice des r\u00e9sultats globaux. Par ailleurs, en associant la partie du th\u00e9saurus initial correspondant aux fr\u00e9quences hautes et la partie du th\u00e9saurus apr\u00e8s r\u00e9ordonnancement correspondant aux fr\u00e9quences basses (cf. ligne hybride du tableau 5), on obtient un th\u00e9saurus hybride dont les r\u00e9sultats sont sup\u00e9rieurs \u00e0 ceux du th\u00e9saurus initial pour toutes les conditions. Enfin, le tableau 6 illustre pour une entr\u00e9e sp\u00e9cifique du th\u00e9saurus initial, en l'occurrence le mot esteem, l'impact du r\u00e9ordonnancement fond\u00e9 sur les deux m\u00e9thodes de s\u00e9lection d'exemples. Ce tableau donne d'abord pour cette entr\u00e9e ses synonymes dans WordNet et les premiers mots qui lui sont li\u00e9s dans Moby. Il fait ensuite appara\u00eetre que dans notre th\u00e9saurus initial, les deux premiers voisins de cette entr\u00e9e apparaissant dans une de nos deux ressources de r\u00e9f\u00e9rence sont les mots admiration, au rang 3, et le mot respect, au rang 7. Le r\u00e9ordonnancement am\u00e9liore significativement la situation puisque ces deux mots deviennent les deux premiers voisins tandis que le 3\u00e8 me synonyme donn\u00e9 par WordNet passe du rang 22 au rang 12. Par ailleurs, le nombre de voisins pr\u00e9sents parmi les 14 premiers mots li\u00e9s de Moby passe de 3 \u00e0 6.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "\u00c9valuation", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "Dans cet article, nous avons pr\u00e9sent\u00e9 une m\u00e9thode fond\u00e9e sur l'amor\u00e7age pour am\u00e9liorer un th\u00e9saurus distributionnel. Plus pr\u00e9cis\u00e9ment, cette m\u00e9thode se fonde sur le r\u00e9ordonnancement des voisins s\u00e9mantiques de ce th\u00e9saurus par le biais d'un classifieur SVM. Ce classifieur est entra\u00een\u00e9 \u00e0 partir d'un ensemble d'exemples et de contre-exemples s\u00e9lectionn\u00e9s de fa\u00e7on non supervis\u00e9e en combinant deux crit\u00e8res faibles fond\u00e9s sur la similarit\u00e9 distributionnelle. L'un exploite la sym\u00e9trie des relations s\u00e9mantiques tandis que l'autre s'appuie sur l'appariement des constituants de noms compos\u00e9s similaires. Les am\u00e9liorations apport\u00e9es par cette m\u00e9thode sont plus particuli\u00e8rement notables pour les noms de fr\u00e9quence faible ou interm\u00e9diaire et pour des mots similaires plut\u00f4t que pour de stricts synonymes.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conclusion et perspectives", |
| "sec_num": "6" |
| }, |
| { |
| "text": "Nous envisageons plusieurs pistes d'extension de ce travail. Tout d'abord, nous souhaitons appliquer, tout en conservant une s\u00e9lection d'exemples non supervis\u00e9e, des techniques de s\u00e9lection de caract\u00e9ristiques afin de mettre en \u00e9vidence les traits les plus int\u00e9ressants du point de vue de la similarit\u00e9 s\u00e9mantique, en particulier pour am\u00e9liorer les th\u00e9saurus distributionnels produits en construisant des mod\u00e8les plus g\u00e9n\u00e9raux de cette similarit\u00e9. L'\u00e9largissement des crit\u00e8res de s\u00e9lection non supervis\u00e9e d'exemples est une deuxi\u00e8me extension assez directe du travail pr\u00e9sent\u00e9. Alors que les techniques de s\u00e9lection exp\u00e9riment\u00e9es reposent toutes deux sur des th\u00e9saurus distributionnels, des crit\u00e8res s'attachant aux occurrences des mots et \u00e0 leur environnement plut\u00f4t qu'\u00e0 une repr\u00e9sentation distributionnelle sont \u00e9galement envisageables, comme l'utilisation de patrons linguistiques classiques d'extraction de synonymes par exemple. Sur un autre plan, l'\u00e9valuation men\u00e9e, fond\u00e9e sur la comparaison avec des ressources de r\u00e9f\u00e9rence, pourrait \u00eatre compl\u00e9t\u00e9e avec profit par une \u00e9valuation in vivo permettant de juger de l'impact des am\u00e9liorations du th\u00e9saurus distributionnel sur une t\u00e2che auquel il contribue. Parmi les nombreuses t\u00e2ches possibles, nous serions particuli\u00e8rement int\u00e9ress\u00e9s par celle de segmentation th\u00e9matique, dans le prolongement de (Adam et Morlane-Hond\u00e8re, 2009 ). Enfin, nous planifions d'appliquer la m\u00e9thode d\u00e9crite au fran\u00e7ais en nous appuyant sur des th\u00e9saurus distributionnels comme freDist (Anguiano et Denis, 2011) .", |
| "cite_spans": [ |
| { |
| "start": 1353, |
| "end": 1383, |
| "text": "(Adam et Morlane-Hond\u00e8re, 2009", |
| "ref_id": "BIBREF1" |
| }, |
| { |
| "start": 1519, |
| "end": 1544, |
| "text": "(Anguiano et Denis, 2011)", |
| "ref_id": "BIBREF2" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conclusion et perspectives", |
| "sec_num": "6" |
| }, |
| { |
| "text": "c ATALA", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "", |
| "sec_num": null |
| }, |
| { |
| "text": "Notons que nous ne nous int\u00e9ressons pas ici \u00e0 la similarit\u00e9 entre E1 et E2 lorsque ce sont des adjectifs.TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "", |
| "sec_num": null |
| }, |
| { |
| "text": "La significativit\u00e9 statistique des diff\u00e9rences a \u00e9t\u00e9 \u00e9valu\u00e9e gr\u00e2ce \u00e0 un test de Wilcoxon avec un seuil de 0,05, les \u00e9chantillons \u00e9tant appari\u00e9s. Seules les diff\u00e9rences suivies du signe \u2021 sont consid\u00e9r\u00e9es comme non significatives.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "", |
| "sec_num": null |
| } |
| ], |
| "back_matter": [], |
| "bib_entries": { |
| "BIBREF1": { |
| "ref_id": "b1", |
| "title": "D\u00e9tection de la coh\u00e9sion lexicale par voisinage distributionnel : application \u00e0 la segmentation th\u00e9matique", |
| "authors": [ |
| { |
| "first": "C", |
| "middle": [], |
| "last": "Adam", |
| "suffix": "" |
| }, |
| { |
| "first": "F", |
| "middle": [], |
| "last": "Morlane-Hond\u00e8re", |
| "suffix": "" |
| } |
| ], |
| "year": 2009, |
| "venue": "RECITAL'09", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "ADAM, C. et MORLANE-HOND\u00c8RE, F. (2009). D\u00e9tection de la coh\u00e9sion lexicale par voisinage distributionnel : application \u00e0 la segmentation th\u00e9matique. In RECITAL'09, Senlis, France.", |
| "links": null |
| }, |
| "BIBREF2": { |
| "ref_id": "b2", |
| "title": "FreDist : Automatic construction of distributional thesauri for French", |
| "authors": [ |
| { |
| "first": "E", |
| "middle": [ |
| "H" |
| ], |
| "last": "Anguiano", |
| "suffix": "" |
| }, |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Denis", |
| "suffix": "" |
| } |
| ], |
| "year": 2011, |
| "venue": "TALN 2011, session articles courts", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "ANGUIANO, E. H. et DENIS, P. (2011). FreDist : Automatic construction of distributional thesauri for French. In TALN 2011, session articles courts, Montpellier, France.", |
| "links": null |
| }, |
| "BIBREF3": { |
| "ref_id": "b3", |
| "title": "Extended gloss overlaps as a measure of semantic relatedness", |
| "authors": [ |
| { |
| "first": "S", |
| "middle": [ |
| "B" |
| ], |
| "last": "Banerjee", |
| "suffix": "" |
| }, |
| { |
| "first": "T", |
| "middle": [], |
| "last": "Pedersen", |
| "suffix": "" |
| } |
| ], |
| "year": 2003, |
| "venue": "Eighteenth International Conference on Artificial Intelligence (IJCAI-03)", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "BANERJEE, S. B. et PEDERSEN, T. (2003). Extended gloss overlaps as a measure of semantic relatedness. In Eighteenth International Conference on Artificial Intelligence (IJCAI-03), Mexico.", |
| "links": null |
| }, |
| "BIBREF4": { |
| "ref_id": "b4", |
| "title": "Rank-Based Transformation in Measuring Semantic Relatedness", |
| "authors": [ |
| { |
| "first": "B", |
| "middle": [], |
| "last": "Broda", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Piasecki", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Szpakowicz", |
| "suffix": "" |
| } |
| ], |
| "year": 2009, |
| "venue": "22 nd Canadian Conference on Artificial Intelligence", |
| "volume": "", |
| "issue": "", |
| "pages": "187--190", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "BRODA, B., PIASECKI, M. et SZPAKOWICZ, S. (2009). Rank-Based Transformation in Measuring Semantic Relatedness. In 22 nd Canadian Conference on Artificial Intelligence, pages 187-190.", |
| "links": null |
| }, |
| "BIBREF5": { |
| "ref_id": "b5", |
| "title": "Evaluating wordnet-based measures of lexical semantic relatedness", |
| "authors": [ |
| { |
| "first": "A", |
| "middle": [], |
| "last": "Budanitsky", |
| "suffix": "" |
| }, |
| { |
| "first": "G", |
| "middle": [], |
| "last": "Hirst", |
| "suffix": "" |
| } |
| ], |
| "year": 2006, |
| "venue": "Computational Linguistics", |
| "volume": "32", |
| "issue": "1", |
| "pages": "13--47", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "BUDANITSKY, A. et HIRST, G. (2006). Evaluating wordnet-based measures of lexical semantic relatedness. Computational Linguistics, 32(1):13-47.", |
| "links": null |
| }, |
| "BIBREF6": { |
| "ref_id": "b6", |
| "title": "Similarit\u00e9 s\u00e9mantique et extraction de synonymes \u00e0 partir de corpus", |
| "authors": [ |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Curran", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Moens", |
| "suffix": "" |
| }, |
| { |
| "first": "Usa", |
| "middle": [], |
| "last": "Philadelphia", |
| "suffix": "" |
| }, |
| { |
| "first": "O", |
| "middle": [], |
| "last": "Ferret", |
| "suffix": "" |
| } |
| ], |
| "year": 2002, |
| "venue": "Workshop of the ACL Special Interest Group on the Lexicon (SIGLEX)", |
| "volume": "", |
| "issue": "", |
| "pages": "59--66", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "CURRAN, J. et MOENS, M. (2002). Improvements in automatic thesaurus extraction. In Workshop of the ACL Special Interest Group on the Lexicon (SIGLEX), pages 59-66, Philadelphia, USA. FERRET, O. (2010). Similarit\u00e9 s\u00e9mantique et extraction de synonymes \u00e0 partir de corpus. In TALN 2010.", |
| "links": null |
| }, |
| "BIBREF7": { |
| "ref_id": "b7", |
| "title": "Combining bootstrapping and feature selection for improving a distributional thesaurus", |
| "authors": [ |
| { |
| "first": "O", |
| "middle": [], |
| "last": "Ferret", |
| "suffix": "" |
| } |
| ], |
| "year": 2012, |
| "venue": "20 th European Conference on Artificial Intelligence (ECAI 2012)", |
| "volume": "", |
| "issue": "", |
| "pages": "336--341", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "FERRET, O. (2012). Combining bootstrapping and feature selection for improving a distributional thesaurus. In 20 th European Conference on Artificial Intelligence (ECAI 2012), pages 336-341.", |
| "links": null |
| }, |
| "BIBREF8": { |
| "ref_id": "b8", |
| "title": "New experiments in distributional representations of synonymy", |
| "authors": [ |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Freitag", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Blume", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Byrnes", |
| "suffix": "" |
| }, |
| { |
| "first": "E", |
| "middle": [], |
| "last": "Chow", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Kapadia", |
| "suffix": "" |
| }, |
| { |
| "first": "R", |
| "middle": [], |
| "last": "Rohwer", |
| "suffix": "" |
| }, |
| { |
| "first": "Z", |
| "middle": [], |
| "last": "Wang", |
| "suffix": "" |
| } |
| ], |
| "year": 2005, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "25--32", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "FREITAG, D., BLUME, M., BYRNES, J., CHOW, E., KAPADIA, S., ROHWER, R. et WANG, Z. (2005). New experiments in distributional representations of synonymy. In CoNLL 2005, pages 25-32.", |
| "links": null |
| }, |
| "BIBREF9": { |
| "ref_id": "b9", |
| "title": "Computing semantic relatedness using wikipedia-based explicit semantic analysis", |
| "authors": [ |
| { |
| "first": "Evgeniyand", |
| "middle": [], |
| "last": "Gabrilovich", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Markovitch", |
| "suffix": "" |
| } |
| ], |
| "year": 2007, |
| "venue": "IJCAI", |
| "volume": "", |
| "issue": "", |
| "pages": "6--12", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "GABRILOVICH, Evgeniyand Markovitch, S. (2007). Computing semantic relatedness using wikipedia-based explicit semantic analysis. In IJCAI 2007, pages 6-12.", |
| "links": null |
| }, |
| "BIBREF10": { |
| "ref_id": "b10", |
| "title": "Explorations in automatic thesaurus discovery", |
| "authors": [ |
| { |
| "first": "G", |
| "middle": [], |
| "last": "Grefenstette", |
| "suffix": "" |
| } |
| ], |
| "year": 1994, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "GREFENSTETTE, G. (1994). Explorations in automatic thesaurus discovery. Kluwer Academic Publishers.", |
| "links": null |
| }, |
| "BIBREF11": { |
| "ref_id": "b11", |
| "title": "A supervised learning approach to automatic synonym identification based on distributional features", |
| "authors": [ |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Hagiwara", |
| "suffix": "" |
| } |
| ], |
| "year": 2008, |
| "venue": "ACL-08, student session", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "HAGIWARA, M. (2008). A supervised learning approach to automatic synonym identification based on distributional features. In ACL-08, student session, Columbus, Ohio.", |
| "links": null |
| }, |
| "BIBREF12": { |
| "ref_id": "b12", |
| "title": "Modelling Word Similarity : An Evaluation of Automatic Synonymy Extraction Algorithms", |
| "authors": [ |
| { |
| "first": "K", |
| "middle": [], |
| "last": "Heylen", |
| "suffix": "" |
| }, |
| { |
| "first": "Y", |
| "middle": [], |
| "last": "Peirsmany", |
| "suffix": "" |
| }, |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Geeraerts", |
| "suffix": "" |
| }, |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Speelman", |
| "suffix": "" |
| }, |
| { |
| "first": "Morocco", |
| "middle": [], |
| "last": "Marrakech", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Kazama", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [], |
| "last": "De Saeger", |
| "suffix": "" |
| }, |
| { |
| "first": "K", |
| "middle": [], |
| "last": "Kuroda", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Murata", |
| "suffix": "" |
| }, |
| { |
| "first": "K", |
| "middle": [], |
| "last": "Torisawa", |
| "suffix": "" |
| } |
| ], |
| "year": 2008, |
| "venue": "LREC 2008", |
| "volume": "", |
| "issue": "", |
| "pages": "247--256", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "HEYLEN, K., PEIRSMANY, Y., GEERAERTS, D. et SPEELMAN, D. (2008). Modelling Word Similarity : An Evaluation of Automatic Synonymy Extraction Algorithms. In LREC 2008, Marrakech, Morocco. KAZAMA, J., DE SAEGER, S., KURODA, K., MURATA, M. et TORISAWA, K. (2010). A bayesian method for robust estimation of distributional similarities. In ACL 2010, pages 247-256.", |
| "links": null |
| }, |
| "BIBREF13": { |
| "ref_id": "b13", |
| "title": "A solution to Plato's problem : the latent semantic analysis theory of acquisition, induction, and representation of knowledge", |
| "authors": [ |
| { |
| "first": "T", |
| "middle": [ |
| "K" |
| ], |
| "last": "Landauer", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [ |
| "T" |
| ], |
| "last": "Dumais", |
| "suffix": "" |
| } |
| ], |
| "year": 1997, |
| "venue": "Psychological review", |
| "volume": "104", |
| "issue": "2", |
| "pages": "211--240", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "LANDAUER, T. K. et DUMAIS, S. T. (1997). A solution to Plato's problem : the latent semantic analysis theory of acquisition, induction, and representation of knowledge. Psychological review, 104(2):211-240.", |
| "links": null |
| }, |
| "BIBREF14": { |
| "ref_id": "b14", |
| "title": "Automatic retrieval and clustering of similar words", |
| "authors": [ |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Lin", |
| "suffix": "" |
| } |
| ], |
| "year": 1998, |
| "venue": "ACL-COLING'98", |
| "volume": "", |
| "issue": "", |
| "pages": "768--774", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "LIN, D. (1998). Automatic retrieval and clustering of similar words. In ACL-COLING'98, pages 768-774.", |
| "links": null |
| }, |
| "BIBREF15": { |
| "ref_id": "b15", |
| "title": "Comparaison d'une approche miroir et d'une approche distributionnelle pour l'extraction de mots s\u00e9mantiquement reli\u00e9s", |
| "authors": [ |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Muller", |
| "suffix": "" |
| }, |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Langlais", |
| "suffix": "" |
| } |
| ], |
| "year": 2011, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "MULLER, P. et LANGLAIS, P. (2011). Comparaison d'une approche miroir et d'une approche distributionnelle pour l'extraction de mots s\u00e9mantiquement reli\u00e9s. In TALN 2011.", |
| "links": null |
| }, |
| "BIBREF16": { |
| "ref_id": "b16", |
| "title": "Dependency-based construction of semantic space models", |
| "authors": [ |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Pad\u00f3", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Lapata", |
| "suffix": "" |
| } |
| ], |
| "year": 2007, |
| "venue": "Computational Linguistics", |
| "volume": "33", |
| "issue": "2", |
| "pages": "161--199", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "PAD\u00d3, S. et LAPATA, M. (2007). Dependency-based construction of semantic space models. Computational Linguistics, 33(2):161-199.", |
| "links": null |
| }, |
| "BIBREF17": { |
| "ref_id": "b17", |
| "title": "Wordnet : :similarity -measuring the relatedness of concepts", |
| "authors": [ |
| { |
| "first": "T", |
| "middle": [], |
| "last": "Pedersen", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Patwardhan", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Michelizzi", |
| "suffix": "" |
| } |
| ], |
| "year": 2004, |
| "venue": "HLT-NAACL 2004, demonstration papers", |
| "volume": "", |
| "issue": "", |
| "pages": "38--41", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "PEDERSEN, T., PATWARDHAN, S. et MICHELIZZI, J. (2004). Wordnet : :similarity -measuring the relatedness of concepts. In HLT-NAACL 2004, demonstration papers, pages 38-41.", |
| "links": null |
| }, |
| "BIBREF18": { |
| "ref_id": "b18", |
| "title": "mwetoolkit : a Framework for Multiword Expression Identification", |
| "authors": [ |
| { |
| "first": "C", |
| "middle": [], |
| "last": "Ramisch", |
| "suffix": "" |
| }, |
| { |
| "first": "A", |
| "middle": [], |
| "last": "Villavicencio", |
| "suffix": "" |
| }, |
| { |
| "first": "C", |
| "middle": [], |
| "last": "Boitet", |
| "suffix": "" |
| } |
| ], |
| "year": 2010, |
| "venue": "LREC'10", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "RAMISCH, C., VILLAVICENCIO, A. et BOITET, C. (2010). mwetoolkit : a Framework for Multiword Expression Identification. In LREC'10, Valetta, Malta.", |
| "links": null |
| }, |
| "BIBREF19": { |
| "ref_id": "b19", |
| "title": "Multi-prototype vector-space models of word meaning", |
| "authors": [ |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Reisinger", |
| "suffix": "" |
| }, |
| { |
| "first": "R", |
| "middle": [ |
| "J" |
| ], |
| "last": "Mooney", |
| "suffix": "" |
| } |
| ], |
| "year": 2010, |
| "venue": "HLT-NAACL 2010", |
| "volume": "", |
| "issue": "", |
| "pages": "109--117", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "REISINGER, J. et MOONEY, R. J. (2010). Multi-prototype vector-space models of word meaning. In HLT-NAACL 2010, pages 109-117.", |
| "links": null |
| }, |
| "BIBREF20": { |
| "ref_id": "b20", |
| "title": "Probabilistic part-of-speech tagging using decision trees", |
| "authors": [ |
| { |
| "first": "H", |
| "middle": [], |
| "last": "Schmid", |
| "suffix": "" |
| } |
| ], |
| "year": 1994, |
| "venue": "International Conference on New Methods in Language Processing", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "SCHMID, H. (1994). Probabilistic part-of-speech tagging using decision trees. In International Conference on New Methods in Language Processing.", |
| "links": null |
| }, |
| "BIBREF21": { |
| "ref_id": "b21", |
| "title": "Measures and Applications of Lexical Distributional Similarity", |
| "authors": [ |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Weeds", |
| "suffix": "" |
| } |
| ], |
| "year": 2003, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "WEEDS, J. (2003). Measures and Applications of Lexical Distributional Similarity. Th\u00e8se de doctorat, Department of Informatics, University of Sussex.", |
| "links": null |
| }, |
| "BIBREF22": { |
| "ref_id": "b22", |
| "title": "Even unassociated features can improve lexical distributional similarity", |
| "authors": [ |
| { |
| "first": "K", |
| "middle": [], |
| "last": "Yamamoto", |
| "suffix": "" |
| }, |
| { |
| "first": "T", |
| "middle": [], |
| "last": "Asakura", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Zhitomirsky-Geffet", |
| "suffix": "" |
| }, |
| { |
| "first": "I", |
| "middle": [], |
| "last": "Dagan", |
| "suffix": "" |
| } |
| ], |
| "year": 2009, |
| "venue": "Second Workshop on NLP Challenges in the Information Explosion Era (NLPIX 2010)", |
| "volume": "35", |
| "issue": "", |
| "pages": "435--461", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "YAMAMOTO, K. et ASAKURA, T. (2010). Even unassociated features can improve lexical distribu- tional similarity. In Second Workshop on NLP Challenges in the Information Explosion Era (NLPIX 2010), pages 32-39, Beijing, China. ZHITOMIRSKY-GEFFET, M. et DAGAN, I. (2009). Bootstrapping Distributional Feature Vector Quality. Computational Linguistics, 35(3):435-461.", |
| "links": null |
| } |
| }, |
| "ref_entries": { |
| "TABREF0": { |
| "content": "<table><tr><td colspan=\"11\">de m\u00eame que leurs voisins possibles \u00e9taient constitu\u00e9s des noms du corpus AQUAINT-2 de</td></tr><tr><td colspan=\"11\">fr\u00e9quence sup\u00e9rieure \u00e0 10. \u00c0 titre illustratif, nous donnons les premiers voisins de deux entr\u00e9es</td></tr><tr><td colspan=\"6\">de ce th\u00e9saurus, aid et procurator, avec leur poids :</td><td/><td/><td/><td/><td/></tr><tr><td colspan=\"11\">aid assistance [0,41] Le tableau 1 montre quant lui les r\u00e9sultats de l'\u00e9valuation du th\u00e9saurus distributionnel obtenu,</td></tr><tr><td colspan=\"11\">r\u00e9alis\u00e9e en comparant les voisins s\u00e9mantiques extraits \u00e0 deux ressources de r\u00e9f\u00e9rence compl\u00e9men-</td></tr><tr><td colspan=\"11\">taires : les synonymes de WordNet [W], dans sa version 3.0, qui permettent de caract\u00e9riser une similarit\u00e9 fond\u00e9e sur des relations paradigmatiques et le th\u00e9saurus Moby [M], qui regroupe des mots li\u00e9s par des relations plus diverses. Comme l'illustre la 4\u00e8 me colonne du tableau, ces deux</td></tr><tr><td colspan=\"11\">ressources sont aussi tr\u00e8s diff\u00e9rentes en termes de richesse. Le but \u00e9tant d'\u00e9valuer la capacit\u00e9</td></tr><tr><td colspan=\"11\">\u00e0 extraire des voisins s\u00e9mantiques, elles sont filtr\u00e9es pour en exclure les entr\u00e9es et les voisins</td></tr><tr><td colspan=\"11\">non pr\u00e9sents dans le vocabulaire du corpus AQUAINT-2 (cf. la diff\u00e9rence entre le nombre de</td></tr><tr><td colspan=\"11\">mots de la 1\u00e8 re colonne et le nombre de mots effectivement \u00e9valu\u00e9s de la 3\u00e8 me colonne). Une</td></tr><tr><td colspan=\"11\">fusion de ces deux ressources a \u00e9galement \u00e9t\u00e9 faite [WM]. La fr\u00e9quence des mots \u00e9tant une don-n\u00e9e importante des approches distributionnelles, les r\u00e9sultats globaux sont diff\u00e9renci\u00e9s suivant</td></tr><tr><td colspan=\"11\">deux tranches fr\u00e9quentielles de m\u00eame effectif (7 335 mots chacune) : hautes pour les mots de</td></tr><tr><td colspan=\"11\">fr\u00e9quence > \u00e0 la fr\u00e9quence m\u00e9diane (249) et basses pour les autres. Ces r\u00e9sultats se d\u00e9clinent</td></tr><tr><td colspan=\"11\">sous la forme de diff\u00e9rentes mesures, \u00e0 commencer \u00e0 la 5\u00e8 me colonne par le taux de rappel par</td></tr><tr><td colspan=\"11\">rapport aux ressources consid\u00e9r\u00e9es pour les 100 premiers voisins de chaque mot. Ces voisins</td></tr><tr><td>fr\u00e9q.</td><td colspan=\"2\">r\u00e9f. #mots</td><td>#syn.</td><td>rappel</td><td>R-</td><td colspan=\"5\">MAP P@1 P@5 P@10 P@100</td></tr><tr><td/><td/><td>\u00e9val.</td><td>/mot</td><td/><td>pr\u00e9c.</td><td/><td/><td/><td/><td/></tr><tr><td/><td>W</td><td colspan=\"2\">10 473 2,9</td><td>24,6</td><td>8,2</td><td>9,8</td><td>11,7</td><td>5,1</td><td>3,4</td><td>0,7</td></tr><tr><td>toutes</td><td>M</td><td>9 216</td><td>50,0</td><td>9,5</td><td>6,7</td><td>3,2</td><td colspan=\"2\">24,1 16,4</td><td>13,0</td><td>4,8</td></tr><tr><td>14 670</td><td colspan=\"3\">WM 12 243 38,7</td><td>9,8</td><td>7,7</td><td>5,6</td><td colspan=\"2\">22,5 14,1</td><td>10,8</td><td>3,8</td></tr><tr><td/><td>W</td><td>5889</td><td>3,3</td><td>29,4</td><td>11,8</td><td colspan=\"2\">13,5 17,4</td><td>7,5</td><td>4,9</td><td>1,0</td></tr><tr><td colspan=\"2\">hautes M</td><td>5751</td><td>60,5</td><td>11,2</td><td>9,4</td><td>4,6</td><td colspan=\"2\">35,9 24,2</td><td>18,9</td><td>6,8</td></tr><tr><td>7 335</td><td>VM</td><td>6754</td><td>52,6</td><td>11,4</td><td>11,1</td><td>7,4</td><td colspan=\"2\">36,4 22,8</td><td>17,5</td><td>6,0</td></tr><tr><td/><td>W</td><td>4584</td><td>2,3</td><td>16,0</td><td>3,7</td><td>5,1</td><td>4,2</td><td>2,0</td><td>1,4</td><td>0,4</td></tr><tr><td>basses</td><td>M</td><td>3465</td><td>32,5</td><td>4,4</td><td>2,3</td><td>0,9</td><td>4,4</td><td>3,4</td><td>3,1</td><td>1,4</td></tr><tr><td>7 335</td><td colspan=\"2\">WM 5489</td><td>21,6</td><td>5,1</td><td>3,6</td><td>3,4</td><td>5,5</td><td>3,3</td><td>2,7</td><td>1,1</td></tr><tr><td/><td/><td/><td/><td/><td/><td/><td/><td/><td/><td>en extrayant</td></tr><tr><td colspan=\"11\">les plus proches voisins s\u00e9mantiques de chacune de ses entr\u00e9es. Plus pr\u00e9cis\u00e9ment, cette mesure a</td></tr><tr><td colspan=\"11\">\u00e9t\u00e9 calcul\u00e9e entre chaque entr\u00e9e et l'ensemble de ses voisins possibles. Ces voisins ont ensuite</td></tr><tr><td colspan=\"11\">\u00e9t\u00e9 ordonn\u00e9s selon l'ordre d\u00e9croissant des valeurs de cette mesure et les N premiers voisins</td></tr><tr><td colspan=\"11\">(N = 100) ont \u00e9t\u00e9 conserv\u00e9s en tant que voisins s\u00e9mantiques de l'entr\u00e9e. Les entr\u00e9es du th\u00e9saurus</td></tr></table>", |
| "text": "relief [0,34] funding [0,29] grant [0,27] fund [0,26] donation [0,26] . . . procurator justiceship [0,31] amadou [0,27] commmission [0,26] pamphleteer [0,22] . . .", |
| "type_str": "table", |
| "num": null, |
| "html": null |
| }, |
| "TABREF1": { |
| "content": "<table/>", |
| "text": "\u00c9valuation de l'extraction des voisins s\u00e9mantiques (mesures donn\u00e9es en pourcentage) \u00e9tant ordonn\u00e9s, il est en outre possible de r\u00e9utiliser les m\u00e9triques d'\u00e9valuation classiquement adopt\u00e9es en recherche d'information en faisant jouer aux mots cibles le r\u00f4le de requ\u00eates et aux voisins celui des documents. Les derni\u00e8res colonnes du tableau 1 rendent compte de ces mesures : la R-pr\u00e9cision (R-pr\u00e9c.) est la pr\u00e9cision obtenue en se limitant aux R premiers voisins, R \u00e9tant le nombre de synonymes dans la ressource de r\u00e9f\u00e9rence pour l'entr\u00e9e consid\u00e9r\u00e9e ; la MAP", |
| "type_str": "table", |
| "num": null, |
| "html": null |
| }, |
| "TABREF3": { |
| "content": "<table/>", |
| "text": "\u00c9valuation du th\u00e9saurus distributionnel pour les noms compos\u00e9s Le tableau 2 donne les r\u00e9sultats de l'\u00e9valuation des voisins s\u00e9mantiques trouv\u00e9s en prenant comme pr\u00e9c\u00e9demment en tant que r\u00e9f\u00e9rence WordNet, le th\u00e9saurus Moby et la fusion des deux. Le premier constat pouvant \u00eatre fait est la proportion tr\u00e8s faible, par rapport aux mono-termes, d'entr\u00e9es ayant pu \u00eatre \u00e9valu\u00e9es : seulement 2,8% des entr\u00e9es, \u00e0 comparer \u00e0 83,5% des entr\u00e9es pour les mono-termes. De ce fait, les r\u00e9sultats de cette \u00e9valuation doivent \u00eatre consid\u00e9r\u00e9s avec prudence, m\u00eame si le nombre d'entr\u00e9es \u00e9valu\u00e9es est globalement plus \u00e9lev\u00e9 que le nombre d'entr\u00e9es consid\u00e9r\u00e9es dans les \u00e9valuations standards : 70 pour", |
| "type_str": "table", |
| "num": null, |
| "html": null |
| }, |
| "TABREF4": { |
| "content": "<table><tr><td>5 Exp\u00e9rimentations et \u00e9valuation W M sym\u00e9trie 36,6 [2,0] 55,5 [14,4] 59,7 [12,4] WM r\u00e8gle (1) 19,3 56,1 56,9 r\u00e8gle (2) 16,2 42,4 44,7 r\u00e8gle (3) 13,5 45,9 46,2 r\u00e8gles (1,2) 17,8 [2,5] 52,2 [16,8] 53,0 [16,1] r\u00e8gles (1,2,3) 17,6 51,7 52,4 sym\u00e9trie + r\u00e8gles (1,2) 23,5 [2,3] 52,5 [16,3] 54,3 [15,0] sym\u00e9trie + r\u00e8gles (1,2,3) 23,3 52,1 53,9 TABLE 3 -R\u00e9sultats de la s\u00e9lection des exemples L'\u00e9valuation de la seconde m\u00e9thode de s\u00e9lection montre d'abord que la r\u00e8gle (3), qui est a priori # exemples 796 921 308 40 1 115 1 131 1 710 1 725 la moins fiable des trois, ne produit effectivement qu'un petit nombre d'exemples tendant \u00e0 d\u00e9grader les r\u00e9sultats. De ce fait, seule la combinaison des r\u00e8gles (1) et (2) a \u00e9t\u00e9 utilis\u00e9e dans ce qui suit. Cette \u00e9valuation montre en outre que les t\u00eates de deux noms compos\u00e9s s\u00e9mantiquement li\u00e9s ont davantage tendance \u00e0 \u00eatre elles-m\u00eames similaires si leurs expansions sont similaires que n'ont tendance \u00e0 \u00eatre similaires des expansions de deux noms compos\u00e9s dont les t\u00eates sont similaires. Ce r\u00e9sultat n'\u00e9tait pas \u00e9vident a priori dans la mesure o\u00f9 l'on s'attend \u00e0 ce que la t\u00eate d'un compos\u00e9 soit davantage repr\u00e9sentatif de son sens que son expansion. Plus globalement, le tableau 3 laisse appara\u00eetre que la premi\u00e8re m\u00e9thode de s\u00e9lection est sup\u00e9rieure \u00e0 la seconde mais que leur association produit un compromis int\u00e9ressant entre le nombre d'exemples, 1 710, et son taux d'erreur, 45,7% avec WM comme r\u00e9f\u00e9rence. Cette compl\u00e9mentarit\u00e9 est \u00e9galement illustr\u00e9e 5.1 m\u00e9thode par le faible nombre d'exemples -201 -qu'elles partagent.</td></tr></table>", |
| "text": "increase, rise) et (salary, pay) de salary_increase et pay_rise Dans le cas de la seconde m\u00e9thode, ces mesures sont \u00e9galement d\u00e9clin\u00e9es au niveau de chacune des trois r\u00e8gles de s\u00e9lection. Les chiffres donn\u00e9s entre crochets repr\u00e9sentent quant \u00e0 eux les pourcentages d'erreurs parmi les exemples de mots non similaires. Ces r\u00e9sultats ont \u00e9t\u00e9 obtenus en fixant exp\u00e9rimentalement la taille du voisinage consid\u00e9r\u00e9 pour les entr\u00e9es \u00e0 3 pour les noms compos\u00e9s (c) et \u00e0 1 pour les noms simples (n). En outre, ces trois r\u00e8gles de s\u00e9lection ont \u00e9t\u00e9 appliqu\u00e9es avec l'ensemble des entr\u00e9es du th\u00e9saurus des noms compos\u00e9s et les entr\u00e9es du th\u00e9saurus des noms simples dites de haute fr\u00e9quence. Les valeurs des param\u00e8tres c et n ne r\u00e9sultent pas d'une optimisation sophistiqu\u00e9e mais r\u00e9pondent plut\u00f4t une logique induite des \u00e9valuations r\u00e9alis\u00e9es : pour les mono-termes, seul le premier voisin est retenu du fait de la faiblesse des r\u00e9sultats alors que pour les multi-termes, le voisinage peut \u00eatre l\u00e9g\u00e8rement \u00e9largi du fait d'une meilleure fiabilit\u00e9 des voisins. Il est \u00e0 noter par ailleurs que l'association de deux ensembles d'exemples s\u00e9lectionn\u00e9s par des m\u00e9thodes diff\u00e9rentes rend les r\u00e9sultats plus stables vis-\u00e0-vis des valeurs de c et n.", |
| "type_str": "table", |
| "num": null, |
| "html": null |
| }, |
| "TABREF5": { |
| "content": "<table/>", |
| "text": "R\u00e9ordonnancement des voisins s\u00e9mantiques de toutes les entr\u00e9es du th\u00e9saurus initial pour chaque m\u00e9thode de s\u00e9lection d'exemples", |
| "type_str": "table", |
| "num": null, |
| "html": null |
| }, |
| "TABREF6": { |
| "content": "<table><tr><td>WordNet</td><td>respect, admiration, regard</td></tr><tr><td/><td>admiration, appreciation, acceptance, dignity, regard, respect, account,</td></tr><tr><td>Moby</td><td>adherence, consideration, estimate, estimation, fame, greatness, homage, honor, prestige, prominence, reverence, veneration + 74 mots li\u00e9s sup-pl\u00e9mentaires</td></tr><tr><td/><td>cordiality, gratitude, admiration, comradeship, back-scratching, per-</td></tr><tr><td>initial</td><td>plexity, respect, ruination, appreciation, neighbourliness, trust, empathy,</td></tr><tr><td/><td>suffragette, goodwill . . .</td></tr><tr><td/><td>respect, admiration, trust, recognition, gratitude, confidence, affec-</td></tr><tr><td>apr\u00e8s r\u00e9ordonnan-</td><td>tion, understanding, solidarity, dignity, appreciation, regard, sympathy,</td></tr><tr><td>cement</td><td>acceptance . . .</td></tr><tr><td colspan=\"2\">TABLE 6 -Impact du r\u00e9ordonnancement pour l'entr\u00e9e esteem</td></tr></table>", |
| "text": "R\u00e9ordonnancement du th\u00e9saurus initial avec les deux m\u00e9thodes de s\u00e9lection d'exemples L'analyse des r\u00e9sultats du tableau 5 en termes de fr\u00e9quence des mots met en \u00e9vidence une seconde grande tendance : l'am\u00e9lioration produite par le r\u00e9ordonnancement est d'autant plus sensible que la fr\u00e9quence de l'entr\u00e9e du th\u00e9saurus est faible. Ainsi, pour les noms de faible fr\u00e9quence, cette am\u00e9lioration s'observe quelle que soit la r\u00e9f\u00e9rence tandis que pour les noms de forte fr\u00e9quence, la variation est n\u00e9gative pour certaines r\u00e9f\u00e9rences et mesures et positive pour d'autres. Ce constat montre que le r\u00e9ordonnancement tend ainsi \u00e0 r\u00e9\u00e9quilibrer le th\u00e9saurus initial, tr\u00e8s fortement biais\u00e9 vers les fortes fr\u00e9quences. Enfin, l'\u00e9valuation de ces trois th\u00e9saurus confirment les r\u00e9sultats du tableau 3 \u00e0 propos de chaque ensemble d'exemples s\u00e9lectionn\u00e9s : le th\u00e9saurus construit \u00e0 partir des exemples de la premi\u00e8re m\u00e9thode de s\u00e9lection est meilleur que celui construit \u00e0 partir des exemples de la seconde m\u00e9thode de s\u00e9lection et les deux sont nettement d\u00e9pass\u00e9s par le th\u00e9saurus construit \u00e0 partir de la fusion des deux ensembles d'exemples.", |
| "type_str": "table", |
| "num": null, |
| "html": null |
| } |
| } |
| } |
| } |