ACL-OCL / Base_JSON /prefixF /json /F14 /F14-2004.json
Benjamin Aw
Add updated pkl file v3
6fa4bc9
{
"paper_id": "F14-2004",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T10:22:45.287165Z"
},
"title": "Extraction automatique de termes combinant diff\u00e9rentes informations",
"authors": [
{
"first": "Juan",
"middle": [
"Antonio"
],
"last": "Lossio-Ventura",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "CNRS",
"location": {
"addrLine": "Montpellier -France (2) Irstea",
"settlement": "Cirad"
}
},
"email": ""
},
{
"first": "Clement",
"middle": [],
"last": "Jonquet",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "CNRS",
"location": {
"addrLine": "Montpellier -France (2) Irstea",
"settlement": "Cirad"
}
},
"email": "clement.jonquet@lirmm.fr"
},
{
"first": "Mathieu",
"middle": [],
"last": "Roche",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "CNRS",
"location": {
"addrLine": "Montpellier -France (2) Irstea",
"settlement": "Cirad"
}
},
"email": "mathieu.roche@cirad.fr"
},
{
"first": "Maguelonne",
"middle": [],
"last": "Teisseire",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "CNRS",
"location": {
"addrLine": "Montpellier -France (2) Irstea",
"settlement": "Cirad"
}
},
"email": "teisseire@teledetection.fr"
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "Pour une communaut\u00e9, la terminologie est essentielle car elle permet de d\u00e9crire, \u00e9changer et r\u00e9cup\u00e9rer les donn\u00e9es. Dans de nombreux domaines, l'explosion du volume des donn\u00e9es textuelles n\u00e9cessite de recourir \u00e0 une automatisation du processus d'extraction de la terminologie, voire son enrichissement. L'extraction automatique de termes peut s'appuyer sur des approches de traitement du langage naturel. Des m\u00e9thodes prenant en compte les aspects linguistiques et statistiques propos\u00e9es dans la litt\u00e9rature, r\u00e9solvent quelques probl\u00e8mes li\u00e9s \u00e0 l'extraction de termes tels que la faible fr\u00e9quence, la complexit\u00e9 d'extraction de termes de plusieurs mots, ou l'effort humain pour valider les termes candidats. Dans ce contexte, nous proposons deux nouvelles mesures pour l'extraction et le \"ranking\" des termes form\u00e9s de plusieurs mots \u00e0 partir des corpus sp\u00e9cifiques d'un domaine. En outre, nous montrons comment l'utilisation du Web pour \u00e9valuer l'importance d'un terme candidat permet d'am\u00e9liorer les r\u00e9sultats en terme de pr\u00e9cision. Ces exp\u00e9rimentations sont r\u00e9alis\u00e9es sur le corpus biom\u00e9dical GENIA en utilisant des mesures de la litt\u00e9rature telles que C-value.",
"pdf_parse": {
"paper_id": "F14-2004",
"_pdf_hash": "",
"abstract": [
{
"text": "Pour une communaut\u00e9, la terminologie est essentielle car elle permet de d\u00e9crire, \u00e9changer et r\u00e9cup\u00e9rer les donn\u00e9es. Dans de nombreux domaines, l'explosion du volume des donn\u00e9es textuelles n\u00e9cessite de recourir \u00e0 une automatisation du processus d'extraction de la terminologie, voire son enrichissement. L'extraction automatique de termes peut s'appuyer sur des approches de traitement du langage naturel. Des m\u00e9thodes prenant en compte les aspects linguistiques et statistiques propos\u00e9es dans la litt\u00e9rature, r\u00e9solvent quelques probl\u00e8mes li\u00e9s \u00e0 l'extraction de termes tels que la faible fr\u00e9quence, la complexit\u00e9 d'extraction de termes de plusieurs mots, ou l'effort humain pour valider les termes candidats. Dans ce contexte, nous proposons deux nouvelles mesures pour l'extraction et le \"ranking\" des termes form\u00e9s de plusieurs mots \u00e0 partir des corpus sp\u00e9cifiques d'un domaine. En outre, nous montrons comment l'utilisation du Web pour \u00e9valuer l'importance d'un terme candidat permet d'am\u00e9liorer les r\u00e9sultats en terme de pr\u00e9cision. Ces exp\u00e9rimentations sont r\u00e9alis\u00e9es sur le corpus biom\u00e9dical GENIA en utilisant des mesures de la litt\u00e9rature telles que C-value.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "Les m\u00e9thodes d'Extraction Automatique de Termes (EAT) visent \u00e0 extraire automatiquement des termes techniques \u00e0 partir d'un corpus. Ces m\u00e9thodes sont essentielles pour l'acquisition des connaissances d'un domaine pour des t\u00e2ches telles que la mise \u00e0 jour de lexique. En effet, les termes techniques sont importants pour mieux comprendre le contenu d'un domaine. Ces termes peuvent \u00eatre : (i) compos\u00e9s d'un seul mot (g\u00e9n\u00e9ralement simple \u00e0 extraire), ou (ii) compos\u00e9s de plusieurs mots (difficile \u00e0 extraire). Notre travail concerne plus sp\u00e9cifiquement l'extraction de termes compos\u00e9s de plusieurs mots.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Les m\u00e9thodes d'EAT impliquent g\u00e9n\u00e9ralement deux \u00e9tapes principales. La premi\u00e8re extrait des candidats en calculant \"l'unithood\" qui qualifie une cha\u00eene de mots comme une expression valide (Korkontzelos et al., 2008) . La deuxi\u00e8me \u00e9tape calcule le \"termhood\" qui sert \u00e0 mesurer la sp\u00e9cificit\u00e9 propre \u00e0 un domaine.",
"cite_spans": [
{
"start": 188,
"end": 215,
"text": "(Korkontzelos et al., 2008)",
"ref_id": "BIBREF8"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Il existe quelques probl\u00e8mes connus de l'EAT tels que : (i) l'extraction de termes non pertinents (bruit) ou le nombre r\u00e9duit de termes pertinents retourn\u00e9s (silence), (ii) l'extraction de termes de plusieurs mots qui ont in\u00e9vitablement des structures complexes, (iii) l'effort humain dans la validation manuelle des termes candidats, (iv) l'application aux corpus de grande \u00e9chelle. En r\u00e9ponse \u00e0 ces probl\u00e8mes, nous proposons deux nouvelles mesures. La premi\u00e8re, appel\u00e9e LIDFvalue, est fond\u00e9e sur l'information statistique et linguistique. La mesure LIDF-value permet de mieux prendre en compte l'unithood, en lui adossant un niveau de qualit\u00e9. Elle traite les probl\u00e8mes i), ii) et iv). La seconde, appel\u00e9e WAHI, est une mesure fond\u00e9e sur le Web traitant les probl\u00e8mes i), ii) et iii). Dans cet article, nous comparons la qualit\u00e9 des m\u00e9thodes propos\u00e9es avec les mesures de r\u00e9f\u00e9rence les plus utilis\u00e9es. Nous d\u00e9montrons que l'utilisation de ces deux mesures am\u00e9liore l'extraction automatique de termes sp\u00e9cifiques d'un domaine, \u00e0 partir de textes qui n'offrent pas une fiabilit\u00e9 statistique li\u00e9e aux fr\u00e9quences.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Le reste du papier est organis\u00e9 comme suit : nous discutons tout d'abord des travaux connexes dans la Section 2. Les deux nouvelles mesures sont ensuite d\u00e9crites en Section 3. L'\u00e9valuation en termes de pr\u00e9cision est pr\u00e9sent\u00e9e dans la Section 4 suivie des conclusions en Section 5.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Plusieurs \u00e9tudes r\u00e9centes se sont concentr\u00e9es sur l'extraction des termes de plusieurs mots (n-grammes) et d'un seul mot (unigrammes). Les m\u00e9thodes d'extraction de terme existantes peuvent \u00eatre divis\u00e9es en quatre grandes cat\u00e9gories : (i) linguistique, (ii) statistique, (iii) apprentissage automatique, et (iv) hybride. La plupart de ces techniques appartiennent \u00e0 des approches de fouille de textes. Les techniques existantes fond\u00e9es sur le Web ont rarement \u00e9t\u00e9 appliqu\u00e9es \u00e0 l'EAT, mais comme nous le verrons, ces approches peuvent \u00eatre adapt\u00e9es \u00e0 cet objectif.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tat de l'art",
"sec_num": "2"
},
{
"text": "Les m\u00e9thodes li\u00e9es \u00e0 la fouille de textes combinent en g\u00e9n\u00e9ral diff\u00e9rents types d'approches : linguistique (Gaizauskas et al., 2000; Krauthammer & Nenadic, 2004) , statistiques (Van Eck et al., 2010) ou fond\u00e9es sur un apprentissage automatique pour l'extraction et la classification des termes (Newman et al., 2012) . Il faut \u00e9galement citer les propositions issues du domaine de l'Extraction Automatique de Mots Cl\u00e9s (EAMC) dont les mesures peuvent \u00eatre adapt\u00e9es pour l'extraction de termes d'un corpus (Lossio-Ventura et al., 2013) (Lossio-Ventura et al., 2014).",
"cite_spans": [
{
"start": 107,
"end": 132,
"text": "(Gaizauskas et al., 2000;",
"ref_id": "BIBREF6"
},
{
"start": 133,
"end": 161,
"text": "Krauthammer & Nenadic, 2004)",
"ref_id": "BIBREF10"
},
{
"start": 177,
"end": 199,
"text": "(Van Eck et al., 2010)",
"ref_id": "BIBREF14"
},
{
"start": 294,
"end": 315,
"text": "(Newman et al., 2012)",
"ref_id": "BIBREF12"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thodes de Fouille de Textes",
"sec_num": null
},
{
"text": "Les m\u00e9thodes hybrides sont principalement linguistiques et statistiques. GlossEx (Kozakov et al., 2004) estime la probabilit\u00e9 du mot dans un corpus de domaine compar\u00e9e \u00e0 la probabilit\u00e9 du m\u00eame mot dans un corpus g\u00e9n\u00e9ral. Weirdness (Ahmad et al., 1999) estime que la distribution des mots dans un corpus sp\u00e9cifique est diff\u00e9rente de la distribution des mots dans un corpus g\u00e9n\u00e9ral. C/ NC-value (Frantzi et al., 2000) , qui combine l'information statistique et linguistique pour l'extraction de termes de plusieurs mots et des termes imbriqu\u00e9s, est la mesure la plus connue dans le domaine biom\u00e9dical. Dans (Zhang et al., 2008) , les auteurs montrent que C-value a des meilleurs r\u00e9sultats par rapport \u00e0 d'autres mesures cit\u00e9es ci-dessus. Une autre mesure est F-TFIDF-C (Lossio-Ventura et al., 2014) qui combine une mesure d'EAT (C-value) et une mesure d'EAMC (TF-IDF) pour extraire des termes obtenant des r\u00e9sultats plus satisfaisants que C-value. Aussi, C-value a \u00e9t\u00e9 appliqu\u00e9e \u00e0 de nombreuses langues autres que l'anglais, comme le japonais, serbe, slov\u00e8ne, polonais, chinois, espagnol, arabe, et fran\u00e7ais (Ji et al., 2007; Barron-Cedeno et al., 2009; Lossio-Ventura et al., 2013) . Ainsi, nous proposons d'adopter C-value et F-TFIDF-C comme r\u00e9f\u00e9rence pour l'\u00e9tude comparative au cours de nos exp\u00e9rimentations.",
"cite_spans": [
{
"start": 384,
"end": 415,
"text": "NC-value (Frantzi et al., 2000)",
"ref_id": null
},
{
"start": 605,
"end": 625,
"text": "(Zhang et al., 2008)",
"ref_id": "BIBREF16"
},
{
"start": 1106,
"end": 1123,
"text": "(Ji et al., 2007;",
"ref_id": "BIBREF7"
},
{
"start": 1124,
"end": 1151,
"text": "Barron-Cedeno et al., 2009;",
"ref_id": "BIBREF3"
},
{
"start": 1152,
"end": 1180,
"text": "Lossio-Ventura et al., 2013)",
"ref_id": "BIBREF11"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thodes de Fouille de Textes",
"sec_num": null
},
{
"text": "Diff\u00e9rentes \u00e9tudes de fouille du Web se concentrent sur la similarit\u00e9 et les relations s\u00e9mantiques. Les mesures d'association de mots peuvent \u00eatre divis\u00e9es en trois cat\u00e9gories (Chaudhari et al., 2011) : (i) Co-occurrence qui s'appuient sur les fr\u00e9quences de co-occurrence de deux mots dans un corpus, (ii) Bas\u00e9es sur la similarit\u00e9 distributionnelle qui caract\u00e9risent un mot par la distribution d'autres mots qui l'entourent, et (iii) Bas\u00e9es sur les connaissances, comme les th\u00e9saurus, les r\u00e9seaux s\u00e9mantiques, ou taxonomies. Dans cet article, nous nous concentrons sur les mesures de co-occurrence, car notre objectif est d'extraire les termes de plusieurs mots et nous proposons de calculer un degr\u00e9 d'association entre les mots qui composent un terme. Les mesures d'association de mots sont utilis\u00e9es dans plusieurs domaines comme l'\u00e9cologie, la psychologie, la m\u00e9decine et le traitement du langage. De telles mesures ont \u00e9t\u00e9 r\u00e9cemment \u00e9tudi\u00e9es dans (Pantel et al., 2009 ) (Zadeh & Goel, 2013 , telles que Dice, Jaccard, Overlap, Cosine. Une autre mesure pour calculer l'association entre les mots utilisant les r\u00e9sultats des moteurs de recherche Web est la Normalized Google Distance (Cilibrasi & Vitanyi, 2007) . Elle s'appuie sur le nombre de fois o\u00f9 les mots apparaissent ensemble dans le document index\u00e9 par un moteur de recherche. Dans cette \u00e9tude, nous comparons les r\u00e9sultats de notre mesure fond\u00e9e sur le Web avec les mesures d'association de r\u00e9f\u00e9rence (Dice, Jaccard, Overlap, Cosine).",
"cite_spans": [
{
"start": 952,
"end": 972,
"text": "(Pantel et al., 2009",
"ref_id": "BIBREF13"
},
{
"start": 973,
"end": 994,
"text": ") (Zadeh & Goel, 2013",
"ref_id": "BIBREF15"
},
{
"start": 1187,
"end": 1214,
"text": "(Cilibrasi & Vitanyi, 2007)",
"ref_id": "BIBREF4"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thodes de Fouille du Web",
"sec_num": null
},
{
"text": "3 Deux nouvelles mesures pour l'extraction de termes 3.1 Une mesure fond\u00e9e sur l'information linguistique et statistique : LIDF-value Notre premi\u00e8re contribution consiste \u00e0 donner une meilleure importance \u00e0 l'unithood des termes afin de d\u00e9tecter des termes avec une faible fr\u00e9quence.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thodes de Fouille du Web",
"sec_num": null
},
{
"text": "De mani\u00e8re similaire aux travaux de la litt\u00e9rature, nous supposons que les termes d'un domaine ont une structure syntaxique similaire. Par cons\u00e9quent, nous construisons une liste de patrons linguistiques les plus courants selon la structure syntaxique des termes techniques pr\u00e9sents dans un dictionnaire. Dans notre cas, il s'agit d'UMLS 1 qui est un ensemble de r\u00e9f\u00e9rence de terminologies biom\u00e9dicales. Dans un premier temps, nous effectuons l'\u00e9tiquetage grammatical des termes contenus dans le dictionnaire en utilisant Stanford CoreNLP API (POS tagging) 2 . Ensuite nous calculons la fr\u00e9quence des structures syntaxiques. Nous s\u00e9lectionnons les 200 fr\u00e9quences les plus \u00e9lev\u00e9es pour construire la liste de patrons (ou motifs) qui seront pris en consid\u00e9ration. Cette liste est pond\u00e9r\u00e9e selon la fr\u00e9quence d'apparition de chaque patron par rapport \u00e0 l'ensemble des motifs. Un terme candidat est alors retenu s'il appartient \u00e0 la liste des structures syntaxiques s\u00e9lectionn\u00e9es. Le nombre de termes utilis\u00e9s pour construire cette liste \u00e9tait de 2 300 000. La Figure 1 illustre le calcul de la probabilit\u00e9 des patrons linguistiques. L'objectif de notre mesure, LIDF-value (Linguisitic patterns, IDF, and C-value information) est de calculer le termhood pour chaque terme, en utilisant la probabilit\u00e9 calcul\u00e9e pr\u00e9c\u00e9demment, \u00e9galement avec l'idf , et C-value de chaque terme. La fr\u00e9quence inverse de document (idf ) est une mesure indiquant si le terme est commun ou rare dans tous les documents. Il est obtenu en divisant le nombre total de documents par le nombre de documents contenant le terme, puis en prenant le logarithme de ce quotient. La probabilit\u00e9 et l'idf am\u00e9liorent la pond\u00e9ration des termes de faible fr\u00e9quence.",
"cite_spans": [],
"ref_spans": [
{
"start": 1057,
"end": 1065,
"text": "Figure 1",
"ref_id": "FIGREF0"
}
],
"eq_spans": [],
"section": "EXTRACTION AUTOMATIQUE DE TERMES BIOM\u00c9DICAUX",
"sec_num": null
},
{
"text": "En outre, la mesure C-value est fond\u00e9e sur la fr\u00e9quence des termes. Le but de C-value (Formule 1) est d'am\u00e9liorer l'extraction de termes imbriqu\u00e9s. Ce crit\u00e8re favorise les termes candidats n'apparaissant pas dans des termes plus longs. Par exemple, dans un corpus sp\u00e9cialis\u00e9 (ophtalmologie), (Frantzi et al., 2000) ont trouv\u00e9 le terme non pertinent soft contact cependant le terme plus long soft contact lens est pertinent.",
"cite_spans": [
{
"start": 292,
"end": 314,
"text": "(Frantzi et al., 2000)",
"ref_id": "BIBREF5"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "EXTRACTION AUTOMATIQUE DE TERMES BIOM\u00c9DICAUX",
"sec_num": null
},
{
"text": "EQUATION",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [
{
"start": 0,
"end": 8,
"text": "EQUATION",
"ref_id": "EQREF",
"raw_str": "A) = \uf8f1 \uf8f4 \uf8f4 \uf8f4 \uf8f4 \uf8f2 \uf8f4 \uf8f4 \uf8f4 \uf8f4 \uf8f3 log 2 (|A|) \u00d7 f (A) si A / \u2208 imbriqu\u00e9 log 2 (|A|) \u00d7 \uf8eb \uf8ed f (A) \u2212 1 |S A | \u00d7 b\u2208S A f (b) \uf8f6 \uf8f8 sinon",
"eq_num": "(1)"
}
],
"section": "C-value(",
"sec_num": null
},
{
"text": "O\u00f9 A est un terme de plusieurs mots, |A| le nombre de mots de A ; f (A) la fr\u00e9quence du terme A, SA l'ensemble de termes qui contiennent A et |SA| le nombre de termes de SA. Ainsi, C-value utilise soit la fr\u00e9quence du terme si le terme n'est pas inclus dans d'autres termes (premi\u00e8re ligne), ou diminue cette fr\u00e9quence si le terme appara\u00eet dans d'autres termes (deuxi\u00e8me ligne).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "C-value(",
"sec_num": null
},
{
"text": "Nous avons combin\u00e9 ces diff\u00e9rentes informations statistiques (i.e., probabilit\u00e9 des patrons linguistiques, C-value, idf ) pour proposer une nouvelle mesure globale de ranking appel\u00e9e LIDF-value (Formule 2). Dans cette formule, A repr\u00e9sente un terme de plusieurs mots ; P(A LP ) la probabilit\u00e9 du patron linguistique LP associ\u00e9 au terme A qui a la m\u00eame structure que le patron linguistique LP , c'est-\u00e0-dire le poids du patron linguistique LP calcul\u00e9 pr\u00e9c\u00e9demment.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "C-value(",
"sec_num": null
},
{
"text": "EQUATION",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [
{
"start": 0,
"end": 8,
"text": "EQUATION",
"ref_id": "EQREF",
"raw_str": "= P(A LP ) \u00d7 idf (A) \u00d7 C-value(A)",
"eq_num": "(2)"
}
],
"section": "LIDF -value(A)",
"sec_num": null
},
{
"text": "Ainsi, pour calculer LIDF-value nous ex\u00e9cutons trois \u00e9tapes, r\u00e9sum\u00e9es ci-dessous :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "LIDF -value(A)",
"sec_num": null
},
{
"text": "(1) \u00c9tiquetage grammatical : nous effectuons l'\u00e9tiquetage morpho-syntaxique du corpus, ensuite nous consid\u00e9rons le lemme de chaque mot. (2) Extraction de termes candidats : avant d'appliquer les mesures, nous filtrons notre corpus en utilisant les patrons calcul\u00e9s pr\u00e9c\u00e9demment. Nous choisissons uniquement les termes qui ont une structure syntaxique pr\u00e9sente dans la liste de patrons s\u00e9lectionn\u00e9s. (3) Ranking de termes candidats : enfin, nous calculons la valeur de LIDF-value pour chaque terme.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "LIDF -value(A)",
"sec_num": null
},
{
"text": "Afin d'am\u00e9liorer le classement des termes pertinents, nous proposons, dans la sous-section suivante, de prendre en compte l'information Web.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "LIDF -value(A)",
"sec_num": null
},
{
"text": "1. http://www.nlm.nih.gov/research/umls 2. http://nlp.stanford.edu/software/corenlp.shtml 3.2 Une nouvelle mesure de ranking fond\u00e9e sur le Web : WAHI Des travaux associ\u00e9s \u00e0 la fouille du Web interrogent les moteurs de recherche pour mesurer l'association entre les mots. Ceci peut \u00eatre utilis\u00e9 pour mesurer l'association des mots qui composent un terme (e.g., soft, contact, et lens qui composent le terme pertinent soft contact lens). Dans nos travaux, nous proposons d'associer le crit\u00e8re de Dice avec une mesure d'association appel\u00e9e W ebR (Lossio-Ventura et al., 2014) (Formule 3). Par exemple pour le terme soft contact lens, le num\u00e9rateur correspond au nombre de pages Web avec la requ\u00eate \"soft contact lens\", et le d\u00e9nominateur correspond au r\u00e9sultat de la requ\u00eate soft ET contact ET lens.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "LIDF -value(A)",
"sec_num": null
},
{
"text": "W ebR(A) = nb(\"A\") nb(A)",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "LIDF -value(A)",
"sec_num": null
},
{
"text": "La mesure W AHI (Web Association based on Hits Information) que nous proposons, combine Dice et W ebR de la mani\u00e8re suivante :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "LIDF -value(A)",
"sec_num": null
},
{
"text": "EQUATION",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [
{
"start": 0,
"end": 8,
"text": "EQUATION",
"ref_id": "EQREF",
"raw_str": "W AHI(A) = n \u00d7 nb(\"A\") n i=1 nb(a i ) \u00d7 nb(\"A\") nb(A)",
"eq_num": "(4)"
}
],
"section": "LIDF -value(A)",
"sec_num": null
},
{
"text": "O\u00f9 a i est un mot, a i \u2208 A et a i = {nom, adjectif, mot etranger}. Nous montrons que les ressources de domaine ouvert, telles que le Web, peuvent \u00eatre exploit\u00e9es pour aider l'extraction de termes sp\u00e9cifiques.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "LIDF -value(A)",
"sec_num": null
},
{
"text": "Dans nos exp\u00e9rimentations, nous utilisons le corpus GENIA 3 , qui est compos\u00e9 de 2 000 titres et des r\u00e9sum\u00e9s d'articles des journaux issus de Medline, avec plus de 400 000 mots. GENIA contient des expressions linguistiques qui font r\u00e9f\u00e9rence \u00e0 des entit\u00e9s d'int\u00e9r\u00eat en biologie mol\u00e9culaire telles que les prot\u00e9ines, les g\u00e8nes et les cellules. L'annotation des termes techniques couvre l'identification des entit\u00e9s physiques biologiques ainsi que d'autres termes importants. Afin de mettre en place un protocole de validation automatique et de couvrir les termes m\u00e9dicaux, nous cr\u00e9ons un dictionnaire qui contient tous les termes d'UMLS ainsi que tous les termes techniques de GENIA. De cette mani\u00e8re nous pouvons \u00e9valuer la pr\u00e9cision avec un dictionnaire de r\u00e9f\u00e9rence plus complet.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Corpus et Protocole",
"sec_num": "4.1"
},
{
"text": "Les r\u00e9sultats sont \u00e9valu\u00e9s en termes de pr\u00e9cision obtenue sur les k premiers termes (P @k) pour les deux mesures pr\u00e9sent\u00e9es dans la section pr\u00e9c\u00e9dente.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats",
"sec_num": "4.2"
},
{
"text": "R\u00e9sultats de LIDF-value : Le tableau 1 compare les r\u00e9sultats de C-value, F-TFIDF-C, avec notre mesure LIDF-value. Le meilleur r\u00e9sultat est obtenu par LIDF-value pour l'ensemble des valeurs de k. LIDF-value est donc plus performante que les mesures de r\u00e9f\u00e9rence avec un gain en pr\u00e9cision de 11 points pour les 100 premiers termes extraits. Ces r\u00e9sultats de pr\u00e9cision sont illustr\u00e9s dans la Figure 2 . R\u00e9sultats des indexes de termes : Nous avons \u00e9valu\u00e9 LIDF-value et les mesures de r\u00e9f\u00e9rence avec une s\u00e9quence de ngrammes de mots (i.e., un n-grammes de mots est un terme de n mots, par exemple human immunodeficiency virus est un 3-grammes de mots). Pour cela, nous construisons un index compos\u00e9 de n-grammes de mots (n \u2265 2). Nous exp\u00e9rimentons la performance de LIDF-value sur les n-grammes de mots en prenant les 1 000 premiers termes. Le Tableau 2 pr\u00e9sente la comparaison de la pr\u00e9cision pour les 2-grammes, 3-grammes et 4+ grammes de mots.",
"cite_spans": [],
"ref_spans": [
{
"start": 389,
"end": 397,
"text": "Figure 2",
"ref_id": null
}
],
"eq_spans": [],
"section": "R\u00e9sultats",
"sec_num": "4.2"
},
{
"text": "C-value F -T F IDF -C LIDF",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats",
"sec_num": "4.2"
},
{
"text": "2-grammes de mots 3-grammes de mots 4+ grammes de mots C-value F -T F IDF -C LIDF-value C-value F -T F IDF -C LIDF-value C-value F -T F IDF -C LIDF-value P@100 Discussion. LIDF-value obtient les meilleurs r\u00e9sultats de pr\u00e9cision sur tous les intervalles pour l'extraction des termes et pour l'extraction de n-grammes de mots. Le tableau 4 pr\u00e9sente les pr\u00e9cisions obtenues par nos deux mesures sur le corpus GENIA. WAHI bas\u00e9e sur Yahoo obtient une meilleure pr\u00e9cision (90 %) pour P @100. En comparaison, WAHI bas\u00e9e sur Bing obtient une pr\u00e9cision de 80 %. Pour les autres intervalles, le Tableau 4 montre que WAHI fond\u00e9e sur Bing obtient en g\u00e9n\u00e9ral des r\u00e9sultats l\u00e9g\u00e8rement meilleurs. La performance de WAHI d\u00e9pend du moteur de recherche adopt\u00e9 du fait de l'algorithme d'indexation associ\u00e9. Enfin, le Tableau 4 montre que le re-ranking avec WAHI augmente la pr\u00e9cision de LIDF-value.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "EXTRACTION AUTOMATIQUE DE TERMES BIOM\u00c9DICAUX",
"sec_num": null
},
{
"text": "LIDF-value WAHI (Bing) WAHI (Yahoo) P@100 0.840 0.800 0.900 P@200 0.790 0.800 0.800 P@300 0.780 0.800 0.800 P@400 0.757 0.800 0.800 P@500 0.752 0.800 0.820 P@600 0.765 0.817 0.767 P@700 0.761 0.814 0.786 P@800 0.755 0.775 0.775 P@900 0.757 0.778 0.756 P@1000 0.746 0.746 0.746 ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "EXTRACTION AUTOMATIQUE DE TERMES BIOM\u00c9DICAUX",
"sec_num": null
},
{
"text": ". http://www.nactem.ac.uk/genia/genia-corpus/term-corpus",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "Nous montrons exp\u00e9rimentalement que LIDF-value offre des meilleurs r\u00e9sultats que les mesures de r\u00e9f\u00e9rence pour l'extraction de n-grammes de mots issus du domaine biom\u00e9dical sur le corpus GENIA. Par ailleurs, ces r\u00e9sultats sont am\u00e9lior\u00e9s par l'utilisation de la mesure WAHI",
"authors": [],
"year": null,
"venue": "n\u00e9cessaire \u00e0 la validation des termes candidats",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "n\u00e9cessaire \u00e0 la validation des termes candidats. Nous montrons exp\u00e9rimentalement que LIDF-value offre des meilleurs r\u00e9sultats que les mesures de r\u00e9f\u00e9rence pour l'extraction de n-grammes de mots issus du domaine biom\u00e9dical sur le corpus GENIA. Par ailleurs, ces r\u00e9sultats sont am\u00e9lior\u00e9s par l'utilisation de la mesure WAHI.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "Tout d'abord, nous souhaitons utiliser le Web pour extraire des termes plus longs que ceux actuellement obtenus. De plus, nous projetons de tester cette approche g\u00e9n\u00e9rale sur d'autres domaines, tels que l'\u00e9cologie et l'agronomie. Enfin, nous visons \u00e0 exp\u00e9rimenter notre proposition sur des corpus d",
"authors": [],
"year": null,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Les perspectives \u00e0 ce travail sont nombreuses. Tout d'abord, nous souhaitons utiliser le Web pour extraire des termes plus longs que ceux actuellement obtenus. De plus, nous projetons de tester cette approche g\u00e9n\u00e9rale sur d'autres domaines, tels que l'\u00e9cologie et l'agronomie. Enfin, nous visons \u00e0 exp\u00e9rimenter notre proposition sur des corpus d'autres langues telles que le fran\u00e7ais et l'espagnol.",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "University of surrey participation in trec8 : Weirdness indexing for logical document extrapolation and retrieval (wilder)",
"authors": [
{
"first": "Ahmad",
"middle": [
"K"
],
"last": "Gillam L. & Tostevin L",
"suffix": ""
}
],
"year": 1999,
"venue": "TREC",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "AHMAD K., GILLAM L. & TOSTEVIN L. (1999). University of surrey participation in trec8 : Weirdness indexing for logical document extrapolation and retrieval (wilder). In TREC.",
"links": null
},
"BIBREF3": {
"ref_id": "b3",
"title": "Lexical co-occurrence, statistical significance, and word association",
"authors": [
{
"first": "",
"middle": [],
"last": "Barron-Cedeno A",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Sierra G",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Drouin P. & Ananiadou S",
"suffix": ""
}
],
"year": 2009,
"venue": "Proceedings of the Conference on Empirical Methods in Natural Language Processing",
"volume": "",
"issue": "",
"pages": "1058--1068",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BARRON-CEDENO A., SIERRA G., DROUIN P. & ANANIADOU S. (2009). An improved automatic term recognition method for spanish. In Computational Linguistics and Intelligent Text Processing, p. 125-136. Springer. CHAUDHARI D. L., DAMANI O. P. & LAXMAN S. (2011). Lexical co-occurrence, statistical significance, and word association. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, EMNLP '11, p. 1058-1068, Stroudsburg, PA, USA : Association for Computational Linguistics.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "The google similarity distance. Knowledge and Data Engineering",
"authors": [
{
"first": "",
"middle": [
"L"
],
"last": "Cilibrasi R",
"suffix": ""
},
{
"first": "",
"middle": [
"M"
],
"last": "Vitanyi P",
"suffix": ""
}
],
"year": 2007,
"venue": "IEEE Transactions on",
"volume": "19",
"issue": "3",
"pages": "370--383",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CILIBRASI R. L. & VITANYI P. M. (2007). The google similarity distance. Knowledge and Data Engineering, IEEE Transactions on, 19(3), 370-383.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "Automatic recognition of multi-word terms : the c-value/nc-value method",
"authors": [
{
"first": "",
"middle": [],
"last": "Frantzi K",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Ananiadou S. & Mima H",
"suffix": ""
}
],
"year": 2000,
"venue": "International Journal on Digital Libraries",
"volume": "3",
"issue": "2",
"pages": "115--130",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "FRANTZI K., ANANIADOU S. & MIMA H. (2000). Automatic recognition of multi-word terms : the c-value/nc-value method. International Journal on Digital Libraries, 3(2), 115-130.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "Term recognition and classification in biological science journal articles",
"authors": [
{
"first": "",
"middle": [],
"last": "Gaizauskas R",
"suffix": ""
},
{
"first": "G",
"middle": [
"&"
],
"last": "Demetriou",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Humphreys K",
"suffix": ""
}
],
"year": 2000,
"venue": "Proceeding of the Computional Terminology for Medical and Biological Applications Workshop of the 2 nd International Conference on NLP",
"volume": "",
"issue": "",
"pages": "37--44",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GAIZAUSKAS R., DEMETRIOU G. & HUMPHREYS K. (2000). Term recognition and classification in biological science journal articles. In Proceeding of the Computional Terminology for Medical and Biological Applications Workshop of the 2 nd International Conference on NLP, p. 37-44.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "Chinese terminology extraction using window-based contextual information",
"authors": [
{
"first": "Ji",
"middle": [
"L"
],
"last": "Sum",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Lu Q",
"suffix": ""
},
{
"first": "Li",
"middle": [
"W"
],
"last": "Chen Y",
"suffix": ""
}
],
"year": 2007,
"venue": "Proceedings of the 8th International Conference on Computational Linguistics and Intelligent Text Processing (CICLing07)",
"volume": "",
"issue": "",
"pages": "62--74",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "JI L., SUM M., LU Q., LI W. & CHEN Y. (2007). Chinese terminology extraction using window-based contextual information. In Proceedings of the 8th International Conference on Computational Linguistics and Intelligent Text Processing (CICLing07), p. 62-74, Berlin, Heidelberg : Springer-Verlag.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "Reviewing and evaluating automatic term recognition techniques",
"authors": [
{
"first": "",
"middle": [],
"last": "Korkontzelos I",
"suffix": ""
},
{
"first": "",
"middle": [
"P"
],
"last": "Klapaftis I",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Manandhar S",
"suffix": ""
}
],
"year": 2008,
"venue": "Advances in Natural Language Processing",
"volume": "",
"issue": "",
"pages": "248--259",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KORKONTZELOS I., KLAPAFTIS I. P. & MANANDHAR S. (2008). Reviewing and evaluating automatic term recognition techniques. In Advances in Natural Language Processing, p. 248-259. Springer.",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "Glossary extraction and knowledge in large organisations via semantic web technologies",
"authors": [
{
"first": "",
"middle": [],
"last": "Kozakov L",
"suffix": ""
},
{
"first": "Y",
"middle": [],
"last": "Park",
"suffix": ""
},
{
"first": "T",
"middle": [],
"last": "Fin",
"suffix": ""
},
{
"first": "Y",
"middle": [],
"last": "Drissi",
"suffix": ""
},
{
"first": "N",
"middle": [
"&"
],
"last": "Doganata",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Confino T",
"suffix": ""
}
],
"year": 2004,
"venue": "Proceedings of the 6th International Semantic Web Conference and he 2nd Asian Semantic Web Conference",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KOZAKOV L., PARK Y., FIN T., DRISSI Y., DOGANATA N. & CONFINO T. (2004). Glossary extraction and knowledge in large organisations via semantic web technologies. In Proceedings of the 6th International Semantic Web Conference and he 2nd Asian Semantic Web Conference (Se-mantic Web Challenge Track).",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "Term identification in the biomedical literature",
"authors": [
{
"first": "",
"middle": [],
"last": "Krauthammer M. & Nenadic G",
"suffix": ""
}
],
"year": 2004,
"venue": "Journal of Biomedical Informatics",
"volume": "37",
"issue": "6",
"pages": "512--526",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KRAUTHAMMER M. & NENADIC G. (2004). Term identification in the biomedical literature. Journal of Biomedical Informatics, 37(6), 512-526.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "Biomedical terminology extraction : A new combination of statistical and web mining approaches",
"authors": [
{
"first": "",
"middle": [
"J A"
],
"last": "Lossio-Ventura",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Jonquet",
"suffix": ""
},
{
"first": "",
"middle": [
";"
],
"last": "Roche M. & Teisseire M",
"suffix": ""
},
{
"first": "J",
"middle": [
"A"
],
"last": "Lossio-Ventura",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Jonquet",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Roche M. & Teisseire M",
"suffix": ""
}
],
"year": 2013,
"venue": "Proceedings of Journ\u00e9es internationales d'Analyse statistique des Donn\u00e9es Textuelles (JADT2014)",
"volume": "",
"issue": "",
"pages": "45--49",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LOSSIO-VENTURA J. A., JONQUET C., ROCHE M. & TEISSEIRE M. (2013). Combining c-value and keyword ex- traction methods for biomedical terms extraction. In Proceedings of the Fifth International Symposium on Languages in Biology and Medicine (LBM13), p. 45-49, Tokyo, Japan. LOSSIO-VENTURA J. A., JONQUET C., ROCHE M. & TEISSEIRE M. (2014). Biomedical terminology extraction : A new combination of statistical and web mining approaches. In Proceedings of Journ\u00e9es internationales d'Analyse statistique des Donn\u00e9es Textuelles (JADT2014), Paris, France.",
"links": null
},
"BIBREF12": {
"ref_id": "b12",
"title": "Bayesian text segmentation for index term identification and keyphrase extraction",
"authors": [
{
"first": "",
"middle": [],
"last": "Newman D",
"suffix": ""
},
{
"first": "N",
"middle": [],
"last": "Koilada",
"suffix": ""
},
{
"first": "J",
"middle": [
"H"
],
"last": "Lau",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Baldwin T",
"suffix": ""
}
],
"year": 2012,
"venue": "Proceedings of 24th International Conference on Computational Linguistics (COLING)",
"volume": "",
"issue": "",
"pages": "2077--2092",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "NEWMAN D., KOILADA N., LAU J. H. & BALDWIN T. (2012). Bayesian text segmentation for index term identification and keyphrase extraction. In Proceedings of 24th International Conference on Computational Linguistics (COLING), p. 2077-2092, Mumbai, India.",
"links": null
},
"BIBREF13": {
"ref_id": "b13",
"title": "Web-scale distributional similarity and entity set expansion",
"authors": [
{
"first": "P",
"middle": [],
"last": "Pantel",
"suffix": ""
},
{
"first": "E",
"middle": [],
"last": "Crestan",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Borkovsky A",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Popescu A.-M",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Vyas V",
"suffix": ""
}
],
"year": 2009,
"venue": "Proceedings of the Conference on Empirical Methods in Natural Language Processing, EMNLP '09",
"volume": "",
"issue": "",
"pages": "938--947",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PANTEL P., CRESTAN E., BORKOVSKY A., POPESCU A.-M. & VYAS V. (2009). Web-scale distributional similarity and entity set expansion. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, EMNLP '09, p. 938-947, Stroudsburg, PA, USA : Association for Computational Linguistics.",
"links": null
},
"BIBREF14": {
"ref_id": "b14",
"title": "Automatic term identification for bibliometric mapping",
"authors": [
{
"first": "",
"middle": [
"J"
],
"last": "Van Eck N",
"suffix": ""
},
{
"first": "L",
"middle": [],
"last": "Waltman",
"suffix": ""
},
{
"first": "",
"middle": [
"C"
],
"last": "Noyons E",
"suffix": ""
},
{
"first": "",
"middle": [
"K"
],
"last": "Buter R",
"suffix": ""
}
],
"year": 2010,
"venue": "Scientometrics",
"volume": "82",
"issue": "3",
"pages": "581--596",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "VAN ECK N. J., WALTMAN L., NOYONS E. C. & BUTER R. K. (2010). Automatic term identification for bibliometric mapping. Scientometrics, 82(3), 581-596.",
"links": null
},
"BIBREF15": {
"ref_id": "b15",
"title": "Dimension independent similarity computation",
"authors": [
{
"first": "",
"middle": [
"B"
],
"last": "Zadeh R",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Goel A",
"suffix": ""
}
],
"year": 2013,
"venue": "Journal of Machine Learning Research",
"volume": "14",
"issue": "1",
"pages": "1605--1626",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ZADEH R. B. & GOEL A. (2013). Dimension independent similarity computation. Journal of Machine Learning Research, 14(1), 1605-1626.",
"links": null
},
"BIBREF16": {
"ref_id": "b16",
"title": "A Comparative Evaluation of Term Recognition Algorithms",
"authors": [
{
"first": "",
"middle": [],
"last": "Zhang Z",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "Iria",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Brewster C. & Ciravegna F",
"suffix": ""
}
],
"year": 2008,
"venue": "Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC08)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ZHANG Z., IRIA J., BREWSTER C. & CIRAVEGNA F. (2008). A Comparative Evaluation of Term Recognition Al- gorithms. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC08), Marrakech, Morocco.",
"links": null
}
},
"ref_entries": {
"FIGREF0": {
"uris": null,
"type_str": "figure",
"text": "Exemple de construction de patrons linguistiques (o\u00f9 NN : nom, IN : pr\u00e9position, JJ : adjectif, et CD : num\u00e9ro).",
"num": null
},
"TABREF1": {
"type_str": "table",
"text": "Pr\u00e9cision selon le nombre de termes (P @k) FIGURE 2: Pr\u00e9cision selon le nombre de termes",
"content": "<table/>",
"html": null,
"num": null
},
"TABREF3": {
"type_str": "table",
"text": "Comparaison de pr\u00e9cision des 2-grammes de mots, 3-grammes de mots et 4+ grammes de mots R\u00e9sultats de WAHI : Notre approche de fouille du Web est appliqu\u00e9e \u00e0 la fin du processus, avec les 1 000 premiers termes extraits avec les mesures linguistiques et statistiques. La raison principale de cette limitation est le nombre restreint de requ\u00eates autoris\u00e9es par les moteurs de recherche. \u00c0 cette \u00e9tape, l'objectif est de faire le re-ranking des 1 000 termes am\u00e9liorant la pr\u00e9cision par intervalles. Le Tableau 3 montre la pr\u00e9cision obtenue apr\u00e8s le re-ranking avec WAHI et les mesures d'association de r\u00e9f\u00e9rence, utilisant les moteurs de recherche Yahoo et Bing. Ce tableau souligne que WAHI est bien adapt\u00e9e pour l'EAT obtenant des meilleurs r\u00e9sultats de pr\u00e9cision que les mesures de r\u00e9f\u00e9rence.",
"content": "<table><tr><td/><td/><td>YAHOO</td><td/><td/><td/><td/><td>BING</td><td/><td/></tr><tr><td/><td colspan=\"4\">WAHI Dice Jaccard Cosine Overlap</td><td>WAHI</td><td>Dice</td><td colspan=\"3\">Jaccard Cosine Overlap</td></tr><tr><td>P@100</td><td>0.900 0.720</td><td>0.720</td><td>0.76</td><td>0.730</td><td>0.800</td><td>0.740</td><td>0.730</td><td>0.680</td><td>0.650</td></tr><tr><td>P@200</td><td>0.800 0.775</td><td>0.770</td><td>0.740</td><td>0.765</td><td>0.800</td><td>0.775</td><td>0.775</td><td>0.735</td><td>0.705</td></tr><tr><td>P@300</td><td>0.800 0.783</td><td>0.780</td><td>0.767</td><td>0.753</td><td>0.800</td><td>0.770</td><td>0.763</td><td>0.740</td><td>0.713</td></tr><tr><td>P@400</td><td>0.800 0.770</td><td>0.765</td><td>0.770</td><td>0.740</td><td>0.800</td><td>0.765</td><td>0.765</td><td>0.752</td><td>0.712</td></tr><tr><td>P@500</td><td>0.820 0.764</td><td>0.754</td><td>0.762</td><td>0.738</td><td>0.800</td><td>0.760</td><td>0.762</td><td>0.758</td><td>0.726</td></tr><tr><td>P@600</td><td>0.767 0.748</td><td>0.740</td><td>0.765</td><td>0.748</td><td>0.817</td><td>0.753</td><td>0.752</td><td>0.753</td><td>0.743</td></tr><tr><td>P@700</td><td>0.786 0.747</td><td>0.744</td><td>0.747</td><td>0.757</td><td colspan=\"2\">0.814 0.7514</td><td>0.751</td><td>0.733</td><td>0.749</td></tr><tr><td>P@800</td><td>0.775 0.752</td><td>0.7463</td><td>0.740</td><td>0.760</td><td>0.775</td><td>0.745</td><td>0.747</td><td>0.741</td><td>0.754</td></tr><tr><td>P@900</td><td>0.756 0.749</td><td>0.747</td><td>0.749</td><td>0.747</td><td>0.778</td><td>0.747</td><td>0.748</td><td>0.742</td><td>0.748</td></tr><tr><td>P@1000</td><td>0.746 0.746</td><td>0.746</td><td>0.746</td><td>0.746</td><td>0.746</td><td>0.746</td><td>0.746</td><td>0.746</td><td>0.746</td></tr></table>",
"html": null,
"num": null
},
"TABREF4": {
"type_str": "table",
"text": "Comparaison de pr\u00e9cision de WAHI avec YAHOO et BING et les mesures d'association",
"content": "<table/>",
"html": null,
"num": null
},
"TABREF5": {
"type_str": "table",
"text": "Pr\u00e9cisions obtenues par LIDF-value et WAHI selon le nombre de terme (P @k)5 Conclusions et Futurs travaux L'article pr\u00e9sente deux mesures pour l'extraction automatique de termes compos\u00e9s de plusieurs mots. La premi\u00e8re est une mesure statistique et linguistique, LIDF-value, qui am\u00e9liore la pr\u00e9cision de l'extraction automatique de termes en comparaison avec les mesures classiques. Elle permet de compenser le manque d'information propre \u00e0 la fr\u00e9quence avec les valeurs des probabilit\u00e9s des patrons linguistiques et idf. La seconde, WAHI, est une mesure fond\u00e9e sur le Web et prend comme entr\u00e9e la liste de termes obtenus avec LIDF-value. Cette mesure permet de r\u00e9duire l'effort humain cons\u00e9quent",
"content": "<table/>",
"html": null,
"num": null
}
}
}
}