ACL-OCL / Base_JSON /prefixF /json /F14 /F14-1021.json
Benjamin Aw
Add updated pkl file v3
6fa4bc9
{
"paper_id": "F14-1021",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T10:23:14.689762Z"
},
"title": "R\u00e9duction de la dispersion des donn\u00e9es par g\u00e9n\u00e9ralisation des contextes distributionnels : application aux textes de sp\u00e9cialit\u00e9",
"authors": [
{
"first": "Amandine",
"middle": [],
"last": "P\u00e9rinet",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "Sorbonne Universit\u00e9s",
"location": {
"postCode": "U1142, F-75006",
"settlement": "Paris",
"region": "LIMICS",
"country": "France"
}
},
"email": "amandine.perinet@edu.univ-paris13.fr"
},
{
"first": "Thierry",
"middle": [],
"last": "Hamon",
"suffix": "",
"affiliation": {
"laboratory": ") LIMSI-CNRS",
"institution": "",
"location": {
"postCode": "91403",
"settlement": "Orsay",
"country": "France ("
}
},
"email": "hamon@limsi.fr"
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "Les mod\u00e8les d'espace vectoriels mettant en oeuvre l'analyse distributionnelle s'appuient sur la redondance d'informations se trouvant dans le contexte des mots \u00e0 associer. Cependant, ces mod\u00e8les souffrent du nombre de dimensions consid\u00e9rable et de la dispersion des donn\u00e9es dans la matrice des vecteurs de contexte. Il s'agit d'un enjeu majeur sur les corpus de sp\u00e9cialit\u00e9 pour lesquels la taille est beaucoup plus petite et les informations contextuelles moins redondantes. Nous nous int\u00e9ressons au probl\u00e8me de la limitation de la dispersion des donn\u00e9es sur des corpus de sp\u00e9cialit\u00e9 et proposons une m\u00e9thode permettant de densifier la matrice en g\u00e9n\u00e9ralisant les contextes distributionnels. L'\u00e9valuation de la m\u00e9thode sur un corpus m\u00e9dical en fran\u00e7ais montre qu'avec une petite fen\u00eatre graphique et l'indice de Jaccard, la g\u00e9n\u00e9ralisation des contextes avec des relations fournies par des patrons lexico-syntaxiques permet d'am\u00e9liorer les r\u00e9sultats, alors qu'avec une large fen\u00eatre et le cosinus, il est pr\u00e9f\u00e9rable de g\u00e9n\u00e9raliser avec des relations obtenues par inclusion lexicale.",
"pdf_parse": {
"paper_id": "F14-1021",
"_pdf_hash": "",
"abstract": [
{
"text": "Les mod\u00e8les d'espace vectoriels mettant en oeuvre l'analyse distributionnelle s'appuient sur la redondance d'informations se trouvant dans le contexte des mots \u00e0 associer. Cependant, ces mod\u00e8les souffrent du nombre de dimensions consid\u00e9rable et de la dispersion des donn\u00e9es dans la matrice des vecteurs de contexte. Il s'agit d'un enjeu majeur sur les corpus de sp\u00e9cialit\u00e9 pour lesquels la taille est beaucoup plus petite et les informations contextuelles moins redondantes. Nous nous int\u00e9ressons au probl\u00e8me de la limitation de la dispersion des donn\u00e9es sur des corpus de sp\u00e9cialit\u00e9 et proposons une m\u00e9thode permettant de densifier la matrice en g\u00e9n\u00e9ralisant les contextes distributionnels. L'\u00e9valuation de la m\u00e9thode sur un corpus m\u00e9dical en fran\u00e7ais montre qu'avec une petite fen\u00eatre graphique et l'indice de Jaccard, la g\u00e9n\u00e9ralisation des contextes avec des relations fournies par des patrons lexico-syntaxiques permet d'am\u00e9liorer les r\u00e9sultats, alors qu'avec une large fen\u00eatre et le cosinus, il est pr\u00e9f\u00e9rable de g\u00e9n\u00e9raliser avec des relations obtenues par inclusion lexicale.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "L'analyse distributionnelle (AD) s'appuie sur l'hypoth\u00e8se que des mots apparaissant dans des contextes similaires ont tendance \u00e0 \u00eatre proches s\u00e9mantiquement (Harris, 1954; Firth, 1957) . Cette hypoth\u00e8se est g\u00e9n\u00e9ralement mise en oeuvre gr\u00e2ce \u00e0 des mod\u00e8les d'espace vectoriel (VSM) o\u00f9 les vecteurs repr\u00e9sentent \u00e0 la fois ces informations contextuelles mais \u00e9galement des donn\u00e9es statistiques distributionnelles (Sahlgren, 2006) . Chaque mot cible d'un texte est repr\u00e9sent\u00e9 comme un point dans un espace math\u00e9matique en fonction de ses propri\u00e9t\u00e9s distributionnelles dans le texte (Turney & Pantel, 2010; Lund & Burgess, 1996) . La similarit\u00e9 s\u00e9mantique entre deux mots est alors d\u00e9finie comme une proximit\u00e9 dans un espace \u00e0 n-dimensions o\u00f9 chaque dimension correspond \u00e0 des contextes partag\u00e9s possibles. Les VSM ont ainsi l'avantage de permettre une quantification facile de la proximit\u00e9 s\u00e9mantique entre deux mots en mesurant la distance entre deux vecteurs au sein de cet espace (par ex. le cosinus de leur angle). Cependant, outre le nombre important de dimensions (\u00e0 titre d'exemple, Sahlgren (2006) manipule des VSM allant jusqu'\u00e0 plusieurs millions de dimensions), les VSM souffrent \u00e9galement de la dispersion des donn\u00e9es dans la matrice repr\u00e9sentant l'espace vectoriel (Chatterjee & Mohan, 2008) : beaucoup d'\u00e9l\u00e9ments de la matrice sont \u00e0 0 car peu de contextes sont associ\u00e9s \u00e0 un mot cible. Cet inconv\u00e9nient est d\u00fb notamment \u00e0 la distribution des mots dans le corpus (Baroni et al., 2009) : quelle que soit la taille du corpus, la plupart des mots ont des fr\u00e9quences basses et un nombre de contextes tr\u00e8s limit\u00e9 au regard du nombre de mots dans le corpus. Ces deux derniers points rendent difficile le calcul de la similarit\u00e9 entre deux mots. En cons\u00e9quence, les m\u00e9thodes bas\u00e9es sur l'analyse distributionnelle obtiennent de meilleures performances lorsque beaucoup d'informations sont disponibles, et notamment sur des corpus de langue g\u00e9n\u00e9rale, en g\u00e9n\u00e9ral tr\u00e8s volumineux (Weeds & Weir, 2005; van der Plas, 2008) . Mais, la r\u00e9duction de la dispersion des donn\u00e9es reste un aspect important sur des corpus de langue g\u00e9n\u00e9rale. Elle est aussi un probl\u00e8me majeur lorsque l'on travaille sur des corpus de sp\u00e9cialit\u00e9. En effet, ces corpus se caract\u00e9risent par des tailles beaucoup plus petites, avec des fr\u00e9quences et un nombre de contextes diff\u00e9rents d'autant plus faibles. Nous nous int\u00e9ressons \u00e0 ce dernier point en proposant l'adaptation d'une m\u00e9thode d'analyse distributionnelle qui permette d'obtenir de meilleurs r\u00e9sultats sur des textes de sp\u00e9cialit\u00e9. Pour cela, nous avons cherch\u00e9 \u00e0 r\u00e9duire la diversit\u00e9 des contextes en les g\u00e9n\u00e9ralisant. Il est alors possible d'augmenter la fr\u00e9quence des contextes distributionnels qui r\u00e9sultent de cette g\u00e9n\u00e9ralisation et ainsi r\u00e9duire la dispersion des donn\u00e9es et la dimension de l'espace vectoriel. Nous pr\u00e9sentons ici une m\u00e9thode \u00e0 base de r\u00e8gles permettant la g\u00e9n\u00e9ralisation des contextes distributionnels \u00e0 l'aide de r\u00e9sultats issus de m\u00e9thodes d'acquisition de relations s\u00e9mantiques. Nous adaptons les param\u00e8tres de la m\u00e9thode distributionnelle utilis\u00e9e aux corpus de sp\u00e9cialit\u00e9, en int\u00e9grant notamment ces contextes g\u00e9n\u00e9ralis\u00e9s.",
"cite_spans": [
{
"start": 157,
"end": 171,
"text": "(Harris, 1954;",
"ref_id": "BIBREF14"
},
{
"start": 172,
"end": 184,
"text": "Firth, 1957)",
"ref_id": null
},
{
"start": 409,
"end": 425,
"text": "(Sahlgren, 2006)",
"ref_id": "BIBREF27"
},
{
"start": 577,
"end": 600,
"text": "(Turney & Pantel, 2010;",
"ref_id": "BIBREF31"
},
{
"start": 601,
"end": 622,
"text": "Lund & Burgess, 1996)",
"ref_id": "BIBREF21"
},
{
"start": 1085,
"end": 1100,
"text": "Sahlgren (2006)",
"ref_id": "BIBREF27"
},
{
"start": 1273,
"end": 1299,
"text": "(Chatterjee & Mohan, 2008)",
"ref_id": "BIBREF8"
},
{
"start": 1472,
"end": 1493,
"text": "(Baroni et al., 2009)",
"ref_id": "BIBREF4"
},
{
"start": 1979,
"end": 1999,
"text": "(Weeds & Weir, 2005;",
"ref_id": "BIBREF35"
},
{
"start": 2000,
"end": 2019,
"text": "van der Plas, 2008)",
"ref_id": "BIBREF33"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Dans la suite de l'article, nous pr\u00e9sentons tout d'abord un \u00e9tat de l'art des m\u00e9thodes de r\u00e9duction de la dispersion des donn\u00e9es dans les m\u00e9thodes distributionnelles (section 2). Nous d\u00e9crivons ensuite le corpus et les relations utilis\u00e9s (section 3), la m\u00e9thode de g\u00e9n\u00e9ralisation de contextes propos\u00e9e (section 4), ainsi que les exp\u00e9riences r\u00e9alis\u00e9es pour \u00e9valuer son impact sur un corpus de sp\u00e9cialit\u00e9 (section 5). Les r\u00e9sultats sont \u00e9valu\u00e9s puis analys\u00e9s en terme de pr\u00e9cision, de R-pr\u00e9cision et de MAP (section 6).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "La r\u00e9duction de la dispersion des donn\u00e9es est un enjeu majeur en analyse distributionnelle. Pour cela, les m\u00e9thodes propos\u00e9es visent \u00e0 influer sur la s\u00e9lection des contextes utiles ou \u00e0 int\u00e9grer des informations s\u00e9mantiques de mani\u00e8re \u00e0 modifier la distribution des contextes. Ainsi, Broda et al. (2009) proposent de pond\u00e9rer les contextes non pas en utilisant les fr\u00e9quences des contextes \u00e0 l'\u00e9tat brut comme il est d'usage, mais en ordonnant les contextes en fonction de leur fr\u00e9quence, puis se servent du rang pour pond\u00e9rer les contextes. D'autres approches s'appuient sur des mod\u00e8les de langue pour d\u00e9terminer les substituts les plus probables pour repr\u00e9senter les contextes (Baskaya et al., 2013) . Ces mod\u00e8les assignent des probabilit\u00e9s \u00e0 des s\u00e9quences arbitraires de mots en se basant sur les fr\u00e9quences de co-occurrence dans un corpus d'entra\u00eenement (Yuret, 2012) . Ces mots substituts et leurs probabilit\u00e9s sont ensuite utilis\u00e9s pour cr\u00e9er des paires de mots de mani\u00e8re \u00e0 alimenter un mod\u00e8le de co-occurrence, avant d'utiliser un algorithme de clustering. Ces m\u00e9thodes sont limit\u00e9es car leur performance est proportionnelle \u00e0 la taille du vocabulaire et elles n\u00e9cessitent de disposer de donn\u00e9es d'entra\u00eenement importantes. L'influence sur les contextes peut \u00e9galement \u00eatre r\u00e9alis\u00e9e en y int\u00e9grant de l'information s\u00e9mantique suppl\u00e9mentaire. En effet, il a \u00e9t\u00e9 d\u00e9montr\u00e9 que l'int\u00e9gration de ce type d'information afin de modifier la mise en oeuvre classique de l'AD permet d'am\u00e9liorer sa performance (Tsatsaronis & Panagiotopoulou, 2009) . Cette information s\u00e9mantique, ou plus pr\u00e9cis\u00e9ment les relations s\u00e9mantiques, peuvent \u00eatre calcul\u00e9es automatiquement ou provenir d'une ressource existante. Ainsi, avec un amor\u00e7age, Zhitomirsky-Geffet & Dagan (2009) modifient les poids des \u00e9l\u00e9ments au sein des contextes en se basant sur les voisins s\u00e9mantiques trouv\u00e9s \u00e0 l'aide d'une mesure de similarit\u00e9 distributionnelle. En s'appuyant sur ces travaux, Ferret (2013) s'int\u00e9resse au probl\u00e8me des mots de faibles fr\u00e9quences. Afin de mieux prendre en compte ces informations, il propose d'utiliser un jeu d'exemples positifs et n\u00e9gatifs s\u00e9lectionn\u00e9s de mani\u00e8re non-supervis\u00e9e \u00e0 partir d'un th\u00e9saurus distributionnel, et ainsi entra\u00eener un classifieur supervis\u00e9. Ce classifieur est ensuite appliqu\u00e9 pour r\u00e9ordonnancer les voisins s\u00e9mantiques. La m\u00e9thode permet ainsi d'am\u00e9liorer la qualit\u00e9 de la relation de similarit\u00e9 entre des noms de faible ou moyenne fr\u00e9quence. D'autres travaux s'int\u00e9ressent au probl\u00e8me de la dispersion des donn\u00e9es d'un point de vue algorithmique en cherchant \u00e0 limiter les dimensions de la matrice des contextes, notamment en la lissant afin de r\u00e9duire le nombre de composants vectoriels (Turney & Pantel, 2010) . Ainsi, l'analyse S\u00e9mantique Latente (LSA) (Landauer & Dumais, 1997; Pad\u00f3 & Lapata, 2007) met en oeuvre une m\u00e9thode de factorisation de matrice par D\u00e9composition en Valeurs Singuli\u00e8res (SVD). Les donn\u00e9es originales de la matrice des contextes sont abstraites en composants lin\u00e9aires ind\u00e9pendants, permettant ainsi de r\u00e9duire le bruit et d'en faire ressortir les \u00e9l\u00e9ments essentiels. Outre la r\u00e9duction du co\u00fbt de traitement, la r\u00e9duction de dimension am\u00e9liore consid\u00e9rablement la pr\u00e9cision dans les applications de la LSA. Par exemple, l'application de la SVD \u00e0 la similarit\u00e9 entre mots permet ainsi d'atteindre des scores \u00e9quivalents \u00e0 ceux d'un humain dans un test du TOEFL avec des questions de synonymie \u00e0 choix multiples (Landauer & Dumais, 1997) . Ceci s'explique, entre autres, par le fait qu'avec les mesures de similarit\u00e9 les plus fr\u00e9quemment employ\u00e9es, les termes sont vus uniquement comme similaires s'ils apparaissent dans les m\u00eames contextes. En ce qui concerne les mots de faible fr\u00e9quence, la SVD est une mani\u00e8re de simuler les contextes manquants, en compensant le manque de donn\u00e9es (Vozalis & Margaritis, 2003) . Certaines m\u00e9thodes, comme la factorisation en matrice non-n\u00e9gative (Lee & Seung, 1999) , permettent de mieux mod\u00e9liser la fr\u00e9quence des mots. Mais, lorsqu'il s'agit d'acqu\u00e9rir des relations s\u00e9mantiques, les performances semblent moins bonnes que celles obtenues avec la LSA (Turney & Pantel, 2010; Utsumi, 2010).",
"cite_spans": [
{
"start": 277,
"end": 303,
"text": "Ainsi, Broda et al. (2009)",
"ref_id": null
},
{
"start": 679,
"end": 701,
"text": "(Baskaya et al., 2013)",
"ref_id": "BIBREF5"
},
{
"start": 858,
"end": 871,
"text": "(Yuret, 2012)",
"ref_id": "BIBREF36"
},
{
"start": 1508,
"end": 1545,
"text": "(Tsatsaronis & Panagiotopoulou, 2009)",
"ref_id": "BIBREF30"
},
{
"start": 2707,
"end": 2730,
"text": "(Turney & Pantel, 2010)",
"ref_id": "BIBREF31"
},
{
"start": 2775,
"end": 2800,
"text": "(Landauer & Dumais, 1997;",
"ref_id": "BIBREF19"
},
{
"start": 2801,
"end": 2821,
"text": "Pad\u00f3 & Lapata, 2007)",
"ref_id": "BIBREF23"
},
{
"start": 3458,
"end": 3483,
"text": "(Landauer & Dumais, 1997)",
"ref_id": "BIBREF19"
},
{
"start": 3831,
"end": 3859,
"text": "(Vozalis & Margaritis, 2003)",
"ref_id": "BIBREF34"
},
{
"start": 3929,
"end": 3948,
"text": "(Lee & Seung, 1999)",
"ref_id": "BIBREF20"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tat de l'art",
"sec_num": "2"
},
{
"text": "Aussi, la r\u00e9duction de dimensions facilite le traitement des vecteurs de contextes, mais ne r\u00e9sout pas le probl\u00e8me initial de construction d'une matrice de co-occurrence potentiellement immense. Ainsi, l'indexation al\u00e9atoire, ou Random Indexing (RI) Kanerva et al. (2000) , apporte une solution \u00e0 ce probl\u00e8me en construisant incr\u00e9mentalement la matrice des contextes en fonction d'un vecteur d'index du mot cible g\u00e9n\u00e9r\u00e9 al\u00e9atoirement. Cette approche permet d'\u00e9viter la construction d'une matrice trop grande tout en r\u00e9duisant la dimension de la matrice. Les performances obtenues avec le RI sont alors \u00e9quivalentes \u00e0 celles obtenues avec la LSA lors de l'identification de synonymes de mani\u00e8re similaire au test du TOEFL (Karlgren & Sahlgren, 2001 ). R\u00e9cemment, Polajnar & Clark (2014) ont montr\u00e9 que la s\u00e9lection des meilleurs contextes combin\u00e9s \u00e0 une normalisation de leur poids permet d'am\u00e9liorer la qualit\u00e9 de la matrice obtenue par SVD. Dans des cadres applicatifs comme la recherche de d\u00e9finition et le calcul de similarit\u00e9 entre syntagmes, leur impact sur les performances de mod\u00e8les de s\u00e9mantique compositionnelle d\u00e9pend des op\u00e9rateurs utilis\u00e9s.",
"cite_spans": [
{
"start": 250,
"end": 271,
"text": "Kanerva et al. (2000)",
"ref_id": "BIBREF16"
},
{
"start": 721,
"end": 747,
"text": "(Karlgren & Sahlgren, 2001",
"ref_id": "BIBREF17"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tat de l'art",
"sec_num": "2"
},
{
"text": "A l'instar de (Tsatsaronis & Panagiotopoulou, 2009; Ferret, 2013) , notre approche ajoute des informations s\u00e9mantiques dans les contextes distributionnels, mais notre objectif diff\u00e8re : il s'agit de r\u00e9duire le nombre de contextes et d'augmenter leur fr\u00e9quence. Et contrairement aux m\u00e9thodes bas\u00e9es sur la SVD qui limitent les contextes en supprimant de l'information, les contextes sont regroup\u00e9s en g\u00e9n\u00e9ralisant l'information en contexte gr\u00e2ce \u00e0 l'int\u00e9gration de connaissances s\u00e9mantiques suppl\u00e9mentaires calcul\u00e9es sur le corpus de travail.",
"cite_spans": [
{
"start": 14,
"end": 51,
"text": "(Tsatsaronis & Panagiotopoulou, 2009;",
"ref_id": "BIBREF30"
},
{
"start": 52,
"end": 65,
"text": "Ferret, 2013)",
"ref_id": "BIBREF10"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tat de l'art",
"sec_num": "2"
},
{
"text": "Nous pr\u00e9sentons dans cette section le corpus de travail ainsi que les approches mises en oeuvre pour acqu\u00e9rir les relations s\u00e9mantiques utilis\u00e9es lors de la g\u00e9n\u00e9ralisation des contextes.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mat\u00e9riel",
"sec_num": "3"
},
{
"text": "Pour \u00e9valuer notre approche, nous avons utilis\u00e9 le corpus Menelas (Zweigenbaum, 1994) . Il s'agit d'une collection de textes du domaine m\u00e9dical, en fran\u00e7ais, dont la th\u00e9matique est les maladies coronariennes. Le corpus comporte 84 839 mots. Il est constitu\u00e9 de deux grandes parties : un manuel de r\u00e9f\u00e9rence sur la coronarographie et les maladies coronariennes (environ 15 000 mots), et un ensemble de comptes rendus d'hospitalisation et de lettres de m\u00e9decins hospitaliers aux m\u00e9decins traitants concernant des malades atteints d'une maladie coronarienne (environ 70 000 mots).",
"cite_spans": [
{
"start": 66,
"end": 85,
"text": "(Zweigenbaum, 1994)",
"ref_id": "BIBREF38"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Corpus",
"sec_num": "3.1"
},
{
"text": "Le corpus a \u00e9t\u00e9 analys\u00e9 \u00e0 travers la plate-forme de TAL Ogmios (Hamon et al., 2007) . Nous avons configur\u00e9 la plateforme de mani\u00e8re \u00e0 ce que cette analyse linguistique comprenne un \u00e9tiquetage morpho-syntaxique et une lemmatisation du corpus, \u00e0 l'aide de TreeTagger (Schmid, 1994) , et une extraction de termes \u00e0 l'aide de Y A T E A (Aubin & Hamon, 2006), celle-ci permettant d'identifier dans notre corpus de travail, les groupes nominaux d\u00e9notant les notions du domaine.",
"cite_spans": [
{
"start": 63,
"end": 83,
"text": "(Hamon et al., 2007)",
"ref_id": "BIBREF13"
},
{
"start": 265,
"end": 279,
"text": "(Schmid, 1994)",
"ref_id": "BIBREF28"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Corpus",
"sec_num": "3.1"
},
{
"text": "La m\u00e9thode de g\u00e9n\u00e9ralisation des contextes distributionnels s'appuie sur des relations s\u00e9mantiques existantes. Pour obtenir ces relations \u00e0 partir de corpus, nous avons choisi d'utiliser plusieurs approches classiques d'acquisition de relations s\u00e9mantiques entre termes : des patrons lexico-syntaxiques (PLS) d\u00e9di\u00e9s \u00e0 l'acquisition de relations d'hyperonymie, l'hypoth\u00e8se d'inclusion lexicale (IL), et des r\u00e8gles de variation terminologique (VT).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Acquisition de relations s\u00e9mantiques",
"sec_num": "3.2"
},
{
"text": "Patrons lexico-syntaxiques (PLS) Nous utilisons les patrons d\u00e9finis par (Morin & Jacquemin, 2004) Inclusion lexicale (IL) Cette approche s'appuie sur l'hypoth\u00e8se selon laquelle si un terme (ex : infarctus) est inclus lexicalement dans un autre (ex : infarctus du myocarde) il existe g\u00e9n\u00e9ralement une relation d'hyperonymie entre ces deux termes (Grabar & Zweigenbaum, 2002) . Nous contraignons l'approche en exploitant l'analyse syntaxique des termes fournie par Y A T E A . Nous ne consid\u00e9rons ici que les relations syntaxiques entre le terme complexe et sa t\u00eate.",
"cite_spans": [
{
"start": 72,
"end": 97,
"text": "(Morin & Jacquemin, 2004)",
"ref_id": "BIBREF22"
},
{
"start": 345,
"end": 373,
"text": "(Grabar & Zweigenbaum, 2002)",
"ref_id": "BIBREF11"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Acquisition de relations s\u00e9mantiques",
"sec_num": "3.2"
},
{
"text": "Variation terminologique (VT) Nous utilisons la m\u00e9thode d'acquisition de variantes terminologiques propos\u00e9s par (Jacquemin, 2001 ) et impl\u00e9ment\u00e9e dans Faster. Cette m\u00e9thode exploite des r\u00e8gles de transformation morpho-syntaxique d\u00e9crivant la variation terminologique. Sur notre corpus, il s'agit essentiellement de r\u00e8gles d'insertion (chirurgie coronarienne / chirurgie de revascularisation coronarienne, anomalie significative / anomalie coronarienne significative) qui permettent d'identifier des relations d'hyperonymie entre termes complexes.",
"cite_spans": [
{
"start": 112,
"end": 128,
"text": "(Jacquemin, 2001",
"ref_id": "BIBREF15"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Acquisition de relations s\u00e9mantiques",
"sec_num": "3.2"
},
{
"text": "Nous disposons ainsi de trois sources de relations s\u00e9mantiques offrant principalement des relations d'hyperonymie. Les patrons lexico-syntaxiques nous fournissent le moins de relations, avec 98 relations d'hyperonymie. L'inclusion lexicale nous permet de disposer un nombre nettement plus important de relations : 7 187. Enfin, nous avons pu acqu\u00e9rir 171 variantes terminologiques.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Acquisition de relations s\u00e9mantiques",
"sec_num": "3.2"
},
{
"text": "L'analyse distributionnelle appliqu\u00e9e \u00e0 des corpus de sp\u00e9cialit\u00e9 ou des corpus de petite taille souffre d'une dispersion des donn\u00e9es : la matrice des contextes, repr\u00e9sentant la distribution des mots ou des termes, est tr\u00e8s creuse (beaucoup d'\u00e9l\u00e9ments ont une valeur nulle). Une solution \u00e0 ce probl\u00e8me consiste \u00e0 densifier la matrice des contextes en faisant abstraction des variations superficielles ou des contextes peu significatifs statistiquement ou li\u00e9s au bruit de la m\u00e9thode d'identification de ces distributions. Pour cela, nous avons cherch\u00e9, dans un premier temps, \u00e0 filtrer les contextes de mani\u00e8re \u00e0 s\u00e9lectionner ceux qui semblent les plus pertinents, et surtout, \u00e0 g\u00e9n\u00e9raliser les contextes en exploitant des informations s\u00e9mantiques extraites du corpus. En particulier, nous utilisons des relations s\u00e9mantiques acquises automatiquement par des approches utilis\u00e9es habituellement sur les corpus de sp\u00e9cialit\u00e9 : patrons lexico-syntaxiques, inclusion lexicale, variation terminologique.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de g\u00e9n\u00e9ralisation de contextes distributionnels",
"sec_num": "4"
},
{
"text": "Dans un premier temps, nous d\u00e9crivons le processus d'analyse distributionnelle mis en oeuvre, puis nous pr\u00e9sentons la m\u00e9thode de g\u00e9n\u00e9ralisation des contextes distributionnels que nous proposons.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de g\u00e9n\u00e9ralisation de contextes distributionnels",
"sec_num": "4"
},
{
"text": "Dans le contexte d'applications en langue de sp\u00e9cialit\u00e9, l'identification de relations s\u00e9mantiques entre des noms et des termes est primordiale. Pour cela, nous nous restreignons \u00e0 l'analyse distributionnelle entre des noms et des termes simples ou complexes. Ces deux cat\u00e9gories de mots constitueront les mots cibles.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode distributionnelle",
"sec_num": "4.1"
},
{
"text": "La m\u00e9thode d'analyse distributionnelle que nous avons mise en oeuvre suit le sch\u00e9ma pr\u00e9sent\u00e9 dans la figure 1. Il est d'abord n\u00e9cessaire de d\u00e9finir les contextes distributionnels des mots cibles. Nous avons ainsi choisi d'utiliser des fen\u00eatres graphiques d'une largeur donn\u00e9e. Ainsi, les contextes sont compos\u00e9s de mots qui co-occurent avec le mot cible au sein de la fen\u00eatre graphique. Nous consid\u00e9rons comme contexte les adjectifs, noms, verbes et termes en \u00e9cartant les mots vides (d\u00e9terminants, conjonctions, adverbes, etc.). Que ce soit pour les mots cibles ou les contextes, nous consid\u00e9rons leurs formes lemmatis\u00e9es. (Grefenstette, 1994) :",
"cite_spans": [
{
"start": 624,
"end": 644,
"text": "(Grefenstette, 1994)",
"ref_id": "BIBREF12"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode distributionnelle",
"sec_num": "4.1"
},
{
"text": "sim JACCARD (W a, W b) = P n i=1 min(W a i , W b i ) P n i=1 max(W a i , W b i )",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode distributionnelle",
"sec_num": "4.1"
},
{
"text": "Nous utilisons \u00e9galement le cosinus. Cette mesure refl\u00e8te l'angle entre deux vecteurs repr\u00e9sentant chacun un mot cible :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode distributionnelle",
"sec_num": "4.1"
},
{
"text": "sim COSINUS (W a, W b) = W a \u2022 W b ||W a|| ||W b||",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode distributionnelle",
"sec_num": "4.1"
},
{
"text": "Le score de similarit\u00e9 permet ainsi de quantifier dans quelle proportion deux mots cibles sont proches. Il est cependant n\u00e9cessaire d'appliquer un filtrage afin de limiter le nombre de relations propos\u00e9 et d'\u00e9carter les relations potentiellement fausses. Pour cela, il est possible d'appliquer un seuil sur le score de similarit\u00e9 et afin de retenir que les relations dont la similarit\u00e9 est suffisamment \u00e9lev\u00e9e. Nous avons \u00e9galement cherch\u00e9 \u00e0 densifier la matrice des contextes en appliquant des seuils sur trois param\u00e8tres distributionnels : le nombre de contextes partag\u00e9s, la fr\u00e9quence des contextes partag\u00e9s, la fr\u00e9quence des mots cibles. Pour chaque param\u00e8tre, un seuil est calcul\u00e9 automatiquement, et correspond \u00e0 la moyenne des valeurs prises par chaque param\u00e8tre sur l'ensemble du corpus (apr\u00e8s exp\u00e9rimentation de la m\u00e9diane et de la moyenne). Lors des exp\u00e9riences pr\u00e9sent\u00e9es en section 5, nous testerons l'impact de ces seuils sur les r\u00e9sultats.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode distributionnelle",
"sec_num": "4.1"
},
{
"text": "Le processus de g\u00e9n\u00e9ralisation et de normalisation des contextes intervient apr\u00e8s l'\u00e9tape de d\u00e9finition de ces contextes. L'objectif est d'une part, de diminuer la diversit\u00e9 des contextes distributionnels, d'autre part d'augmenter le nombre d'occurrences des contextes, c'est-\u00e0-dire leur fr\u00e9quence. Ces contextes r\u00e9sultent de l'application de r\u00e8gles de g\u00e9n\u00e9ralisation et de normalisation. Dans cette perspective, nous avons choisi d'utiliser des informations s\u00e9mantiques additionnelles, calcul\u00e9es sur le corpus, et fournissant des indices de g\u00e9n\u00e9ralisation.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": "Ainsi, une fois que les mots cibles et les contextes ont \u00e9t\u00e9 d\u00e9finis, nous g\u00e9n\u00e9ralisons les contextes avec des relations s\u00e9mantiques acquises automatiquement sur le corpus de travail \u00e0 l'aide des m\u00e9thodes d\u00e9crites \u00e0 la section 3.2 : patrons lexico-syntaxiques d\u00e9di\u00e9s \u00e0 l'hyperonymie, inclusion lexicale, variation terminologique. Les deux premi\u00e8res m\u00e9thodes proposent en g\u00e9n\u00e9ral principalement des relations d'hyperonymie et seront utilis\u00e9es pour g\u00e9n\u00e9raliser les contextes. En revanche, la variation terminologique ne propose pas de relations typ\u00e9es s\u00e9mantiquement. Aussi, \u00e9tant donn\u00e9 que l'op\u00e9ration d'insertion est la seule utilis\u00e9e pour acqu\u00e9rir des variantes, nous avons consid\u00e9r\u00e9 que les relations obtenues \u00e9taient des relations d'hyperonymie. Le terme hyperonyme et le terme hyponyme sont identifi\u00e9s \u00e0 partir du nombre de mots pr\u00e9sents dans chaque terme : le terme le plus court correspond alors \u00e0 l'hyperonyme (l\u00e9sion significative), et le terme le plus long \u00e0 l'hyponyme (l\u00e9sion coronaire significative).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": "Nous disposons alors, pour chaque mot w i apparaissant dans le contexte du mot cible w, de trois ensembles de relations d'hyperonymie, H s (w i ) = {H 1 , . . . , H n } : H P LS , H IL et H V T , l'ensemble des hyperonymes pouvant \u00eatre vide. Nous avons d\u00e9fini deux r\u00e8gles de substitution permettant de g\u00e9n\u00e9raliser les contextes. Ainsi, pour chaque mot w i dans le contexte d'un mot w, nous appliquons l'une des r\u00e8gles suivantes :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": "1. si |H S (w i )| = 1, alors w i := H 1",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": "Si au mot dans le contexte correspond un seul hyperonyme (H 1 ) acquis par une ou plusieurs m\u00e9thodes S, le mot est remplac\u00e9 par cet hyperonyme. Par exemple, si l'inclusion lexicale fournit la relation restriction / restriction du d\u00e9bit coronaire, restriction du d\u00e9bit coronaire est remplac\u00e9e par restriction. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": "2. si |H S (w i )| > 1, w i = argmax |Hi| (H S (w i )) Si",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": "H V T (w i ) -variantes termino- logiques (AD/VT).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": "Puis, de mani\u00e8re s\u00e9quentielle, nous avons appliqu\u00e9 les r\u00e8gles de g\u00e9n\u00e9ralisation en utilisant les ensembles de relations d'hyperonymie propos\u00e9es par deux approches linguistiques (H P LS (w i ) puis H IL (w i ) -AD/PLS+IL, H V T (w i ) puis H P LS (w i ) -AD/VT+PLS, etc.). Tous les contextes sont alors g\u00e9n\u00e9ralis\u00e9s en utilisant les relations propos\u00e9es par l'un des ensembles (par exemple H P LS (w i )), puis les contextes g\u00e9n\u00e9ralis\u00e9s ou non sont \u00e0 nouveau g\u00e9n\u00e9ralis\u00e9s en utilisant un autre ensemble de relations (par exemple H IL (w i )). De m\u00eame, nous combinons les trois ensembles de relations (par exemple, Rapp, 2003) . De plus, cette influence peut aussi d\u00e9pendre de la taille du corpus : des fen\u00eatres plus grandes peuvent \u00eatre int\u00e9ressantes pour des corpus plus petits (Kiela & Clark, 2014) . De plus, les r\u00e9sultats obtenus avec des fen\u00eatres de taille restreinte sont de meilleure qualit\u00e9, en particulier pour des relations classiques (synonymie, antonymie, hyperonymie, m\u00e9ronymie, etc.) alors que des fen\u00eatres plus larges sont plus adapt\u00e9es \u00e0 l'identification de relations sp\u00e9cifiques au domaine (Sahlgren, 2006; Peirsman et al., 2008) .",
"cite_spans": [
{
"start": 610,
"end": 621,
"text": "Rapp, 2003)",
"ref_id": "BIBREF26"
},
{
"start": 775,
"end": 796,
"text": "(Kiela & Clark, 2014)",
"ref_id": "BIBREF18"
},
{
"start": 1103,
"end": 1119,
"text": "(Sahlgren, 2006;",
"ref_id": "BIBREF27"
},
{
"start": 1120,
"end": 1142,
"text": "Peirsman et al., 2008)",
"ref_id": "BIBREF24"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": "H P LS (w i ) puis H IL (w i ) puis H V T (w i ) -AD/PLS+IL+VT",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": ") = H P LS (w i ) [ H IL (w i ) [ H V T (w i ) -AD/ALL3,",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e8gles de g\u00e9n\u00e9ralisation des contextes distributionnels",
"sec_num": "4.2"
},
{
"text": "La qualit\u00e9 des r\u00e9sultats obtenus lors de nos exp\u00e9riences est \u00e9valu\u00e9e en comparant les relations s\u00e9mantiques acquises aux 1 735 419 relations fournies par la partie fran\u00e7aise de l'UMLS 1 , soit 2 434 relations entre les termes correspondant au vocabulaire du corpus. Ces relations sont des hyperonymes (muscle papillaire/coeur), des co-hyponymes (vertige/douleur, oesophagite/gastrite), des synonymes (chute/baisse) et des relations du domaine (angiographie/art\u00e8re, souffle cardiaque/douleur). \u00c0 l'instar de (Curran, 2004) ",
"cite_spans": [
{
"start": 507,
"end": 521,
"text": "(Curran, 2004)",
"ref_id": "BIBREF9"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "p(w i ) = P ni j=1 I j(+) i P ni j=1 I j i",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "La macro-pr\u00e9cision pour l'ensemble des mots cibles est alors : P =",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "P |w i | k=1 p(w k ) |wi|",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "Nous consid\u00e9rons quatre sous-ensembles voisins permettant d'obtenir la macro-pr\u00e9cision apr\u00e8s examen de 1 (n i = 1, P@1), 5 (n i = 5, P@5), 10 (n i = 10, P@10) et 100 voisins (n i = 100, P@100) :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "P @N = |wi| X i=1 p(w i |n i = N )",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "La macro-pr\u00e9cision permet d'\u00e9valuer une qualit\u00e9 globale des r\u00e9sultats tout en consid\u00e9rant que tous les mots cibles ont le m\u00eame poids quel que soit le nombre de voisins, alors que la micro-pr\u00e9cision aurait tendance \u00e0 privil\u00e9gier les mots cibles 1. http://www.nlm.nih.gov/research/umls/ comportant beaucoup de voisins, dont une bonne partie ne sont probablement pas pertinents, au d\u00e9triment de mots cibles ayant peu de voisins. Pour P@1, la macro-pr\u00e9cision est \u00e9quivalente \u00e0 la micro-pr\u00e9cision.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "Une alternative consiste \u00e0 utiliser comme seuil n i le nombre de voisins corrects attendus pour un mot cible. Pour cela, nous avons utilis\u00e9 la R-pr\u00e9cision (Buckley & Voorhees, 2005) .",
"cite_spans": [
{
"start": 155,
"end": 181,
"text": "(Buckley & Voorhees, 2005)",
"ref_id": "BIBREF7"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "Pour le calcul de la R-pr\u00e9cision, nous comparons nos r\u00e9sultats non plus \u00e0 l'ensemble des relations de la partie fran\u00e7aise de l'UMLS, mais \u00e0 des ensembles de r\u00e9f\u00e9rence constitu\u00e9s \u00e0 partir de cette ressource. Il s'agit de r\u00e9duire les relations de r\u00e9f\u00e9rence aux seules relations entre des termes ou des mots pr\u00e9sents dans le corpus de travail et dans chaque exp\u00e9rience. Ainsi, nous disposons d'autant de r\u00e9f\u00e9rences que d'exp\u00e9riences, avec par exemple entre 24 et 46 relations pour les exp\u00e9riences avec une fen\u00eatre de 21 mots et la mesure de Cosinus.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "La moyenne des pr\u00e9cisions moyennes (MAP) est obtenue en consid\u00e9rant la pr\u00e9cision non interpol\u00e9e U AP (I j i ) des voisins s\u00e9mantiques I j i au rang j, n i est le nombre de voisins s\u00e9mantiques I j i du mot cible w i . La MAP est alors la moyenne de ces pr\u00e9cisions non interpol\u00e9es :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "M AP = 1 |w i | |wi| X i=1 1 n i ni X j=1 U AP (I j i )",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "La MAP est le reflet de la qualit\u00e9 du classement et permet d'\u00e9valuer la pertinence de la mesure de similarit\u00e9 utilis\u00e9e. Ainsi, elle valorise le fait que la m\u00e9thode ordonne tous les voisins s\u00e9mantiques corrects proches de la t\u00eate de liste. R\u00e9ciproquement, le fait d'ajouter des voisins s\u00e9mantiques incorrects en fin de liste (apr\u00e8s les voisins corrects) ne p\u00e9nalise pas la m\u00e9thode.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9valuation",
"sec_num": "5.2"
},
{
"text": "Dans cette section, nous pr\u00e9sentons et discutons les r\u00e9sultats obtenus tout d'abord avec une fen\u00eatre de 5 mots puis avec celle de 21 mots. Les r\u00e9sultats de la mesure Cosinus sont discut\u00e9s mais ne sont pas pr\u00e9sent\u00e9s dans les tableaux. Pour une fen\u00eatre de 5 mots, nous pr\u00e9sentons uniquement les r\u00e9sultats obtenus en utilisant la mesure de Jaccard, sans et avec seuils (tableau 2). La mesure du cosinus donne de tr\u00e8s faibles r\u00e9sultats quels que soient les param\u00e8tres et ne semble pas adapt\u00e9e aux fen\u00eatres de petite taille et lorsque les fr\u00e9quences sont faibles : la pr\u00e9cision (P@1) des r\u00e9sultats obtenus avec le cosinus varie entre 0,02 et 0,06, alors que pour la mesure de Jaccard, nous obtenons des pr\u00e9cisions variant entre 0,01 et 0,17. Lorsqu'aucun seuil n'est appliqu\u00e9 sur les param\u00e8tres distributionnels, nous constatons que la g\u00e9n\u00e9ralisation \u00e0 l'aide des relations acquises gr\u00e2ce aux patrons lexico-syntaxiques am\u00e9liore la qualit\u00e9 des r\u00e9sultats aussi bien en termes de pr\u00e9cision ou de R-pr\u00e9cision que de MAP. De plus, la variation terminologique tend \u00e0 d\u00e9grader les r\u00e9sultats quand elle est utilis\u00e9e individuellement alors qu'elle a un impact positif lorsqu'elle est combin\u00e9e aux relations issues des patrons lexicosyntaxiques. Mais l'apport des relations issues des patrons lexico-syntaxiques est annul\u00e9 quand on ajoute celles issues de l'inclusion lexicale. Nous pouvons \u00e9galement faire ce constat lorsque l'on consid\u00e8re les relations ind\u00e9pendamment de la m\u00e9thode utilis\u00e9e pour les produire. La g\u00e9n\u00e9ralisation des contextes est alors peut-\u00eatre trop importante pour pouvoir \u00eatre utile dans l'analyse distributionnelle. Aussi, l'analyse des variations de la MAP permettent \u00e9galement de constater que la g\u00e9n\u00e9ralisation des contextes am\u00e9liore le classement des relations pr\u00e9sentes dans l'UMLS.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats et discussion",
"sec_num": "6"
},
{
"text": "A ADSeule 392 6960 4 40 0,406 0,169 0,250 0,100 0,250 0,100 0,1000 0,0600 AD/VT 418 6576 6 38 0,181 0,180 0,000 0,107 0,000 0,107 0,040 0,064 AD/IL 370 4580 4 34 0,532 0,141 0,000 0,077 0,500 0,077 0,100 0,031 AD/PLS 390 6262 6 36 0,219 0,190 0,500 0,115 0,000 0,115 0,120 0,069 AD/VT+IL 380 4568 4 34 0,531 0,141 0,500 0,077 0,500 0,077 0,100 0,031 AD/VT+PLS 354 5910 6 36 0,220 0,190 0,000 0,115 0,000 0,115 0, En ce qui concerne la pr\u00e9cision P@5, bien que les valeurs soient plus faibles que la pr\u00e9cision P@1, nous observons que l'inclusion permet d'augmenter les valeurs de pr\u00e9cision, en particulier lorsque celle-ci est utilis\u00e9e apr\u00e8s les patrons lexico-syntaxiques. Aussi, en terme de R-pr\u00e9cision, les r\u00e9sultats sont plus contrast\u00e9s qu'avec P@1 : pour les meilleures configurations de g\u00e9n\u00e9ralisation des contextes, les valeurs de R-pr\u00e9cision sont identiques ou sup\u00e9rieures. Les relations attendues, sont class\u00e9es parmi les premi\u00e8res ou \u00e0 un rang plus \u00e9lev\u00e9 qu'avec l'AD seule. En termes de MAP, les valeurs sont assez stables. Les am\u00e9liorations obtenues suivant les combinaisons montrent qu'il y a plus de relations retrouv\u00e9es dans l'UMLS parmi les premiers voisins. Mais la variation restant faible entre l'AD seule et l'AD avec des contextes g\u00e9n\u00e9ralis\u00e9s, l'ordonnancement des voisins n'est pas beaucoup modifi\u00e9 par notre m\u00e9thode.",
"cite_spans": [],
"ref_spans": [
{
"start": 2,
"end": 482,
"text": "ADSeule 392 6960 4 40 0,406 0,169 0,250 0,100 0,250 0,100 0,1000 0,0600 AD/VT 418 6576 6 38 0,181 0,180 0,000 0,107 0,000 0,107 0,040 0,064 AD/IL 370 4580 4 34 0,532 0,141 0,000 0,077 0,500 0,077 0,100 0,031 AD/PLS 390 6262 6 36 0,219 0,190 0,500 0,115 0,000 0,115 0,120 0,069 AD/VT+IL 380 4568 4 34 0,531 0,141 0,500 0,077 0,500 0,077 0,100 0,031 AD/VT+PLS 354 5910 6 36 0,220 0,190 0,000 0,115 0,000 0,115 0,",
"ref_id": "TABREF7"
}
],
"eq_spans": [],
"section": "R\u00e9sultats et discussion",
"sec_num": "6"
},
{
"text": "Lorsque l'on consid\u00e8re le nombre de relations retourn\u00e9es par l'analyse distributionnelle, nous constatons que quelle que soit la mesure utilis\u00e9e, la combinaison des trois sources de relations, de mani\u00e8re s\u00e9quentielle ou globalement, n'a qu'un impact moyen sur l'am\u00e9lioration de la qualit\u00e9 des r\u00e9sultats. Toutefois, exploiter l'ensemble des relations d'hyperonymie \u00e0 notre disposition permet de r\u00e9duire d'un tiers le nombre de relations retourn\u00e9es par l'analyse distributionnelle, tout en conservant le m\u00eame nombre de relations pr\u00e9sentes dans l'UMLS.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats et discussion",
"sec_num": "6"
},
{
"text": "Comme lors de l'utilisation d'une fen\u00eatre de taille restreinte, l'application de seuils sur les param\u00e8tres distributionnels am\u00e9liore la qualit\u00e9 des r\u00e9sultats. Mais le faible nombre de relations pr\u00e9sentes dans l'UMLS, parmi l'ensemble des relations obtenues avec Jaccard, rend les observations difficiles \u00e0 interpr\u00e9ter. En revanche, nous pouvons noter que les r\u00e9sultats obtenus avec le cosinus sont meilleurs en appliquant des seuils tout en ne r\u00e9duisant pas trop le nombre de relations correctes.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats et discussion",
"sec_num": "6"
},
{
"text": "Nous nous sommes int\u00e9ress\u00e9s dans cet article \u00e0 la r\u00e9duction de la dispersion des donn\u00e9es dans les matrices de vecteurs de contexte utilis\u00e9s pour mettre en oeuvre l'analyse distributionnelle. Pour cela, nous avons propos\u00e9 une m\u00e9thode de g\u00e9n\u00e9ralisation des contextes distributionnels s'appuyant sur des relations d'hyperonymie acquises en corpus. Les mots d\u00e9crivant le contexte distributionnel d'un mot cible sont consid\u00e9r\u00e9s comme des hyponymes et sont substitu\u00e9s par des hyperonymes identifi\u00e9s sur le corpus. Nous avons r\u00e9alis\u00e9 un certain nombre d'exp\u00e9riences sur un corpus m\u00e9dical en combinant plusieurs param\u00e8tres. Les relations d'hyperonymie ont \u00e9t\u00e9 acquises avec des approches habituellement utilis\u00e9es sur des textes de sp\u00e9cialit\u00e9. Bien que l'\u00e9valuation des m\u00e9thodes distributionnelles soit complexe \u00e0 r\u00e9aliser, nous avons confront\u00e9 les r\u00e9sultats aux relations s\u00e9mantiques propos\u00e9es par l'UMLS fran\u00e7ais. Plusieurs mesures d'\u00e9valuation ont \u00e9t\u00e9 utilis\u00e9es pour \u00e9valuer l'impact de la g\u00e9n\u00e9ralisation des contextes sur l'analyse distributionnelle. L'analyse des r\u00e9sultats montre que lorsque la taille des fen\u00eatres graphiques permettant de produire les contextes distributionnels est petite et que l'indice de Jaccard est utilis\u00e9 comme mesure de similarit\u00e9, il est pr\u00e9f\u00e9rable d'utiliser les relations propos\u00e9es par les patrons lexico-syntaxiques pour g\u00e9n\u00e9raliser les contextes. Il est alors possible d'obtenir un bon compromis permettant d'avoir \u00e0",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion",
"sec_num": "7"
}
],
"back_matter": [],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "En revanche, lorsque la taille de la fen\u00eatre est large, la g\u00e9n\u00e9ralisation des contextes gr\u00e2ce aux relations issues de l'inclusion lexicale am\u00e9liore les r\u00e9sultats si le cosinus est utilis\u00e9 comme mesure de similarit\u00e9",
"authors": [],
"year": null,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "la fois une bonne couverture et une am\u00e9lioration de la pr\u00e9cision. En revanche, lorsque la taille de la fen\u00eatre est large, la g\u00e9n\u00e9ralisation des contextes gr\u00e2ce aux relations issues de l'inclusion lexicale am\u00e9liore les r\u00e9sultats si le cosinus est utilis\u00e9 comme mesure de similarit\u00e9.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "Outre une analyse manuelle des relations et de l'impact du processus de g\u00e9n\u00e9ralisation sur les donn\u00e9es manipul\u00e9es, ces r\u00e9sultats ouvrent plusieurs perspectives. Les relations d'hyperonymie que nous avons utilis\u00e9es ont \u00e9t\u00e9 exploit\u00e9es s\u00e9par\u00e9ment. Or, celles-ci pourraient \u00eatre consid\u00e9r\u00e9es comme une \u00e9bauche de taxonomie et nous envisageons d'adapter la m\u00e9thode de g\u00e9n\u00e9ralisation des contextes afin qu",
"authors": [],
"year": null,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Outre une analyse manuelle des relations et de l'impact du processus de g\u00e9n\u00e9ralisation sur les donn\u00e9es manipul\u00e9es, ces r\u00e9sultats ouvrent plusieurs perspectives. Les relations d'hyperonymie que nous avons utilis\u00e9es ont \u00e9t\u00e9 exploit\u00e9es s\u00e9par\u00e9ment. Or, celles-ci pourraient \u00eatre consid\u00e9r\u00e9es comme une \u00e9bauche de taxonomie et nous envisageons d'adapter la m\u00e9thode de g\u00e9n\u00e9ralisation des contextes afin qu'elle prenne en compte ce r\u00e9seau de relations acquises en corpus.",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "ensemble des relations acquises en corpus pouvant \u00eatre bruit\u00e9, nous envisageons d'utiliser d'autres sources de relations comme celles propos\u00e9es par des terminologies. Il sera alors possible d'\u00e9valuer l'impact de la g\u00e9n\u00e9ralisation et de relations lorsque leur statut terminologique est ma\u00eetris\u00e9. Enfin, la r\u00e9duction de dimensions peut \u00e9galement s'appuyer sur un processus de normalisation des contextes",
"authors": [
{
"first": "",
"middle": [],
"last": "Aussi",
"suffix": ""
}
],
"year": null,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Aussi, l'ensemble des relations acquises en corpus pouvant \u00eatre bruit\u00e9, nous envisageons d'utiliser d'autres sources de relations comme celles propos\u00e9es par des terminologies. Il sera alors possible d'\u00e9valuer l'impact de la g\u00e9n\u00e9ralisation et de relations lorsque leur statut terminologique est ma\u00eetris\u00e9. Enfin, la r\u00e9duction de dimensions peut \u00e9galement s'appuyer sur un processus de normalisation des contextes. Il est alors n\u00e9cessaire de prendre en compte des relations de synonymie ou d'antonymie qui peuvent \u00e9galement \u00eatre acquises en corpus ou issues de ressources terminologiques existantes.",
"links": null
},
"BIBREF3": {
"ref_id": "b3",
"title": "Improving term extraction with terminological resources",
"authors": [
{
"first": "",
"middle": [
"&"
],
"last": "Aubin S",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Hamon T",
"suffix": ""
}
],
"year": 2006,
"venue": "Advances in Natural Language Processing, number 4139 in LNAI",
"volume": "",
"issue": "",
"pages": "380--387",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "AUBIN S. & HAMON T. (2006). Improving term extraction with terminological resources. In Advances in Natural Language Processing, number 4139 in LNAI, p. 380-387 : Springer.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "The wacky wide web : a collection of very large linguistically processed web-crawled corpora",
"authors": [
{
"first": "M",
"middle": [],
"last": "Baroni",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Bernardini",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Ferraresi A. & Zanchetta E",
"suffix": ""
}
],
"year": 2009,
"venue": "Language Resources and Evaluation",
"volume": "43",
"issue": "3",
"pages": "209--226",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BARONI M., BERNARDINI S., FERRARESI A. & ZANCHETTA E. (2009). The wacky wide web : a collection of very large linguistically processed web-crawled corpora. Language Resources and Evaluation, 43(3), 209-226.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "Ai-ku : Using substitute vectors and co-occurrence modeling for word sense induction and disambiguation",
"authors": [
{
"first": "",
"middle": [],
"last": "Baskaya O",
"suffix": ""
},
{
"first": "E",
"middle": [],
"last": "Sert",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Cirik V. & Yuret D",
"suffix": ""
}
],
"year": 2013,
"venue": "Proceedings of SemEval -2013",
"volume": "",
"issue": "",
"pages": "300--306",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BASKAYA O., SERT E., CIRIK V. & YURET D. (2013). Ai-ku : Using substitute vectors and co-occurrence modeling for word sense induction and disambiguation. In Proceedings of SemEval -2013, p. 300-306, Atlanta, Georgia, USA : Association for Computational Linguistics.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "Rank-based transformation in measuring semantic relatedness",
"authors": [
{
"first": "",
"middle": [],
"last": "Broda B",
"suffix": ""
},
{
"first": "",
"middle": [
"&"
],
"last": "Piasecki M",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Szpakowicz S",
"suffix": ""
}
],
"year": 2009,
"venue": "Canadian Conference on AI",
"volume": "5549",
"issue": "",
"pages": "187--190",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BRODA B., PIASECKI M. & SZPAKOWICZ S. (2009). Rank-based transformation in measuring semantic relatedness. In Y. GAO & N. JAPKOWICZ, Eds., Canadian Conference on AI, volume 5549, p. 187-190 : Springer.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "TREC : Experiment and Evaluation in Information Retrieval",
"authors": [
{
"first": "C",
"middle": [
"&"
],
"last": "Buckley",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Voorhees E",
"suffix": ""
}
],
"year": 2005,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BUCKLEY C. & VOORHEES E. (2005). Retrieval system evaluation. In E. VOORHEES & D. HARMAN, Eds., TREC : Experiment and Evaluation in Information Retrieval, chapter 3. MIT Press.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "Discovering word senses from text using random indexing",
"authors": [
{
"first": "Chatterjee",
"middle": [
"N"
],
"last": "Mohan S",
"suffix": ""
}
],
"year": 2008,
"venue": "Proceedings of the 9th International Conference on Computational Linguistics and Intelligent Text Processing, CICLing'08",
"volume": "",
"issue": "",
"pages": "299--310",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CHATTERJEE N. & MOHAN S. (2008). Discovering word senses from text using random indexing. In Proceedings of the 9th International Conference on Computational Linguistics and Intelligent Text Processing, CICLing'08, p. 299-310, Berlin, Heidelberg : Springer-Verlag.",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "From distributional to semantic similarity",
"authors": [
{
"first": "J",
"middle": [
"R"
],
"last": "Curran",
"suffix": ""
}
],
"year": 2004,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CURRAN J. R. (2004). From distributional to semantic similarity. PhD thesis, Institute for Communicating and Colla- borative Systems School of Informatics University of Edinburgh.",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "S\u00e9lection non supervis\u00e9e de relations s\u00e9mantiques pour am\u00e9liorer un th\u00e9saurus distributionnel",
"authors": [
{
"first": "",
"middle": [],
"last": "Ferret O",
"suffix": ""
}
],
"year": 1957,
"venue": "TALN 2013",
"volume": "",
"issue": "",
"pages": "1--32",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "FERRET O. (2013). S\u00e9lection non supervis\u00e9e de relations s\u00e9mantiques pour am\u00e9liorer un th\u00e9saurus distributionnel. In TALN 2013, p. 48-61, Les Sables d'Olonne, France. FIRTH J. (1957). A synopsis of linguistic theory 1930-1955. Studies in linguistic analysis, p. 1-32.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "Lexically-based terminology structuring : Some inherent limits",
"authors": [
{
"first": "",
"middle": [],
"last": "Grabar N. & Zweigenbaum P",
"suffix": ""
}
],
"year": 2002,
"venue": "Proceedings of Second International Workshop on Computational Terminology",
"volume": "",
"issue": "",
"pages": "36--42",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GRABAR N. & ZWEIGENBAUM P. (2002). Lexically-based terminology structuring : Some inherent limits. In L.- F. CHIEN, B. DAILLE, K. KAGEURA & H. NAKAGAWA, Eds., Proceedings of Second International Workshop on Computational Terminology (COMPUTERM 2002), p. 36-42, Taipei, Taiwan : ACLCLP.",
"links": null
},
"BIBREF12": {
"ref_id": "b12",
"title": "Corpus-derived first, second and third-order word affinities",
"authors": [
{
"first": "G",
"middle": [],
"last": "Grefenstette",
"suffix": ""
}
],
"year": 1994,
"venue": "Sixth Euralex International Congress",
"volume": "",
"issue": "",
"pages": "279--290",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GREFENSTETTE G. (1994). Corpus-derived first, second and third-order word affinities. In Sixth Euralex International Congress, p. 279-290.",
"links": null
},
"BIBREF13": {
"ref_id": "b13",
"title": "A robust linguistic platform for efficient and domain specific web content analysis",
"authors": [
{
"first": "",
"middle": [],
"last": "Hamon T",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Nazarenko A",
"suffix": ""
},
{
"first": "T",
"middle": [],
"last": "Poibeau",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Aubin S. & Derivi\u00e8re J",
"suffix": ""
}
],
"year": 2007,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HAMON T., NAZARENKO A., POIBEAU T., AUBIN S. & DERIVI\u00c8RE J. (2007). A robust linguistic platform for efficient and domain specific web content analysis. In RIAO 2007, Pittsburgh, USA.",
"links": null
},
"BIBREF14": {
"ref_id": "b14",
"title": "Distributional structure. Word",
"authors": [
{
"first": "Harris",
"middle": [
"Z"
],
"last": "",
"suffix": ""
}
],
"year": 1954,
"venue": "",
"volume": "10",
"issue": "",
"pages": "146--162",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HARRIS Z. (1954). Distributional structure. Word, 10(23), 146-162.",
"links": null
},
"BIBREF15": {
"ref_id": "b15",
"title": "Spotting and discovering terms through natural language processing",
"authors": [
{
"first": "C",
"middle": [],
"last": "Jacquemin",
"suffix": ""
}
],
"year": 2001,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "JACQUEMIN C. (2001). Spotting and discovering terms through natural language processing. The MIT Press.",
"links": null
},
"BIBREF16": {
"ref_id": "b16",
"title": "Random indexing of text samples for latent semantic analysis",
"authors": [
{
"first": "P",
"middle": [],
"last": "Kanerva",
"suffix": ""
},
{
"first": "J",
"middle": [
"&"
],
"last": "Kristofersson",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Holst A",
"suffix": ""
}
],
"year": 2000,
"venue": "Proceedings of the 22nd Annual Conference of the Cognitive Science Society",
"volume": "1036",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KANERVA P., KRISTOFERSSON J. & HOLST A. (2000). Random indexing of text samples for latent semantic analysis. In L. GLEITMAN & A. JOSH, Eds., Proceedings of the 22nd Annual Conference of the Cognitive Science Society, volume 1036, Erlbaum, New Jersey.",
"links": null
},
"BIBREF17": {
"ref_id": "b17",
"title": "From words to understanding",
"authors": [
{
"first": "J",
"middle": [
"&"
],
"last": "Karlgren",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Sahlgren M",
"suffix": ""
}
],
"year": 2001,
"venue": "Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics",
"volume": "",
"issue": "",
"pages": "294--308",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KARLGREN J. & SAHLGREN M. (2001). From words to understanding. In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, p. 294-308 : Foundations of Real-World Intelligence.",
"links": null
},
"BIBREF18": {
"ref_id": "b18",
"title": "A systematic study of semantic vector space model parameters",
"authors": [
{
"first": "Kiela",
"middle": [
"D"
],
"last": "Clark S",
"suffix": ""
}
],
"year": 2014,
"venue": "Proceedings of the 2nd Workshop on Continuous Vector Space Models and their Compositionality (CVSC) at EACL",
"volume": "",
"issue": "",
"pages": "21--30",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KIELA D. & CLARK S. (2014). A systematic study of semantic vector space model parameters. In Proceedings of the 2nd Workshop on Continuous Vector Space Models and their Compositionality (CVSC) at EACL 2014, p. 21-30, Gothenburg, Sweden.",
"links": null
},
"BIBREF19": {
"ref_id": "b19",
"title": "A solution to plato's problem : The latent semantic analysis theory of acquisition, induction, and representation of knowledge",
"authors": [
{
"first": "Landauer",
"middle": [
"T &"
],
"last": "Dumais S",
"suffix": ""
}
],
"year": 1997,
"venue": "Psychological Review",
"volume": "104",
"issue": "2",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LANDAUER T. & DUMAIS S. (1997). A solution to plato's problem : The latent semantic analysis theory of acquisition, induction, and representation of knowledge. Psychological Review ; Psychological Review, 104(2), 211.",
"links": null
},
"BIBREF20": {
"ref_id": "b20",
"title": "Learning the parts of objects by nonnegative matrix factorization",
"authors": [
{
"first": "",
"middle": [
"D"
],
"last": "Lee D",
"suffix": ""
},
{
"first": "",
"middle": [
"S"
],
"last": "Seung H",
"suffix": ""
}
],
"year": 1999,
"venue": "Nature",
"volume": "401",
"issue": "",
"pages": "788--791",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LEE D. D. & SEUNG H. S. (1999). Learning the parts of objects by nonnegative matrix factorization. Nature, 401, 788-791.",
"links": null
},
"BIBREF21": {
"ref_id": "b21",
"title": "Producing high-dimensional semantic spaces from lexical co-occurrence",
"authors": [
{
"first": "",
"middle": [],
"last": "Lund K",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Burgess C",
"suffix": ""
}
],
"year": 1996,
"venue": "Behavior Research Methods, Instrumentation, and Computers",
"volume": "28",
"issue": "",
"pages": "203--208",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LUND K. & BURGESS C. (1996). Producing high-dimensional semantic spaces from lexical co-occurrence. Behavior Research Methods, Instrumentation, and Computers, 28, 203-208.",
"links": null
},
"BIBREF22": {
"ref_id": "b22",
"title": "Automatic Acquisition and Expansion of Hypernym Links",
"authors": [
{
"first": "",
"middle": [
"&"
],
"last": "Morin E",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Jacquemin C",
"suffix": ""
}
],
"year": 2004,
"venue": "Computers and the Humanities",
"volume": "38",
"issue": "4",
"pages": "363--396",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MORIN E. & JACQUEMIN C. (2004). Automatic Acquisition and Expansion of Hypernym Links. Computers and the Humanities, 38(4), 363-396.",
"links": null
},
"BIBREF23": {
"ref_id": "b23",
"title": "Dependency-based construction of semantic space models",
"authors": [
{
"first": "Pad\u00f3",
"middle": [
"S &"
],
"last": "Lapata M",
"suffix": ""
}
],
"year": 2007,
"venue": "Comput. Linguist",
"volume": "33",
"issue": "2",
"pages": "161--199",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PAD\u00d3 S. & LAPATA M. (2007). Dependency-based construction of semantic space models. Comput. Linguist., 33(2), 161-199.",
"links": null
},
"BIBREF24": {
"ref_id": "b24",
"title": "Size matters. tight and loose context definitions in english word space models",
"authors": [
{
"first": "Y",
"middle": [],
"last": "Peirsman",
"suffix": ""
},
{
"first": "Kris",
"middle": [
"H"
],
"last": "Dirk G",
"suffix": ""
}
],
"year": 2008,
"venue": "In ESSLLI Workshop on Distributional Lexical Semantics",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PEIRSMAN Y., KRIS H. & DIRK G. (2008). Size matters. tight and loose context definitions in english word space models. In ESSLLI Workshop on Distributional Lexical Semantics, Hamburg, Germany.",
"links": null
},
"BIBREF25": {
"ref_id": "b25",
"title": "Improving distributional semantic vectors through context selection and normalisation",
"authors": [
{
"first": "Polajnar",
"middle": [
"T"
],
"last": "Clark S",
"suffix": ""
}
],
"year": 2014,
"venue": "Proceedings of EACL 2014",
"volume": "",
"issue": "",
"pages": "230--238",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "POLAJNAR T. & CLARK S. (2014). Improving distributional semantic vectors through context selection and normalisa- tion. In Proceedings of EACL 2014, p. 230-238.",
"links": null
},
"BIBREF26": {
"ref_id": "b26",
"title": "Word sense discovery based on sense descriptor dissimilarity",
"authors": [
{
"first": "",
"middle": [],
"last": "Rapp R",
"suffix": ""
}
],
"year": 2003,
"venue": "MT Summit'2003",
"volume": "",
"issue": "",
"pages": "315--322",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "RAPP R. (2003). Word sense discovery based on sense descriptor dissimilarity. In MT Summit'2003, p. 315-322.",
"links": null
},
"BIBREF27": {
"ref_id": "b27",
"title": "The Word-Space Model : Using Distributional Analysis to Represent Syntagmatic and Paradigmatic Relations between Words in High-Dimensional Vector Spaces",
"authors": [
{
"first": "M",
"middle": [],
"last": "Sahlgren",
"suffix": ""
}
],
"year": 2006,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SAHLGREN M. (2006). The Word-Space Model : Using Distributional Analysis to Represent Syntagmatic and Para- digmatic Relations between Words in High-Dimensional Vector Spaces. PhD thesis, Stockholm University, Stockholm, Sweden.",
"links": null
},
"BIBREF28": {
"ref_id": "b28",
"title": "Probabilistic part-of-speech tagging using decision trees",
"authors": [
{
"first": "H",
"middle": [],
"last": "Schmid",
"suffix": ""
}
],
"year": 1994,
"venue": "New Methods in Language Processing",
"volume": "",
"issue": "",
"pages": "44--49",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SCHMID H. (1994). Probabilistic part-of-speech tagging using decision trees. In New Methods in Language Processing, p. 44-49, Manchester, UK.",
"links": null
},
"BIBREF29": {
"ref_id": "b29",
"title": "Machine learning in automated text categorization",
"authors": [
{
"first": "",
"middle": [],
"last": "Sebastiani F",
"suffix": ""
}
],
"year": 2002,
"venue": "ACM Comput. Surv",
"volume": "34",
"issue": "1",
"pages": "1--47",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SEBASTIANI F. (2002). Machine learning in automated text categorization. ACM Comput. Surv., 34(1), 1-47.",
"links": null
},
"BIBREF30": {
"ref_id": "b30",
"title": "A generalized vector space model for text retrieval based on semantic relatedness",
"authors": [
{
"first": "",
"middle": [],
"last": "Tsatsaronis G. & Panagiotopoulou V",
"suffix": ""
}
],
"year": 2009,
"venue": "",
"volume": "",
"issue": "",
"pages": "70--78",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "TSATSARONIS G. & PANAGIOTOPOULOU V. (2009). A generalized vector space model for text retrieval based on semantic relatedness. In EACL 2009, p. 70-78, Stroudsburg, PA, USA : Association for Computational Linguistics.",
"links": null
},
"BIBREF31": {
"ref_id": "b31",
"title": "From frequency to meaning : Vector space models of semantics",
"authors": [
{
"first": "",
"middle": [
"D"
],
"last": "Turney P",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Pantel P",
"suffix": ""
}
],
"year": 2010,
"venue": "Journal of artificial intelligence research",
"volume": "37",
"issue": "",
"pages": "141--188",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "TURNEY P. D. & PANTEL P. (2010). From frequency to meaning : Vector space models of semantics. Journal of artificial intelligence research, 37, 141-188.",
"links": null
},
"BIBREF32": {
"ref_id": "b32",
"title": "Evaluating the performance of nonnegative matrix factorization for constructing semantic spaces : Comparison to latent semantic analysis",
"authors": [
{
"first": "",
"middle": [],
"last": "Utsumi A",
"suffix": ""
}
],
"year": 2010,
"venue": "Proceedings of SMC",
"volume": "",
"issue": "",
"pages": "2893--2900",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "UTSUMI A. (2010). Evaluating the performance of nonnegative matrix factorization for constructing semantic spaces : Comparison to latent semantic analysis. In Proceedings of SMC, p. 2893-2900 : IEEE.",
"links": null
},
"BIBREF33": {
"ref_id": "b33",
"title": "Automatic lexico-semantic acquisition for question answering",
"authors": [
{
"first": "",
"middle": [],
"last": "Van Der Plas L",
"suffix": ""
}
],
"year": 2008,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "VAN DER PLAS L. (2008). Automatic lexico-semantic acquisition for question answering. Th\u00e8se de doctorat, University of Groningen, Groningen.",
"links": null
},
"BIBREF34": {
"ref_id": "b34",
"title": "Analysis of recommender systems' algorithms",
"authors": [
{
"first": "",
"middle": [
"G"
],
"last": "Vozalis E. & Margaritis K",
"suffix": ""
}
],
"year": 2003,
"venue": "The 6th Hellenic European Conference on Computer Mathematics & its Applications (HERCMA)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "VOZALIS E. & MARGARITIS K. G. (2003). Analysis of recommender systems' algorithms. In The 6th Hellenic European Conference on Computer Mathematics & its Applications (HERCMA), Athens, Greece.",
"links": null
},
"BIBREF35": {
"ref_id": "b35",
"title": "Co-occurrence retrieval : A flexible framework for lexical distributional similarity",
"authors": [
{
"first": "J",
"middle": [
"&"
],
"last": "Weeds",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Weir D",
"suffix": ""
}
],
"year": 2005,
"venue": "Comput. Linguist",
"volume": "31",
"issue": "4",
"pages": "439--475",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "WEEDS J. & WEIR D. (2005). Co-occurrence retrieval : A flexible framework for lexical distributional similarity. Comput. Linguist., 31(4), 439-475.",
"links": null
},
"BIBREF36": {
"ref_id": "b36",
"title": "Fastsubs : An efficient and exact procedure for finding the most likely lexical substitutes based on an n-gram language model",
"authors": [
{
"first": "Yuret",
"middle": [
"D"
],
"last": "",
"suffix": ""
}
],
"year": 2012,
"venue": "IEEE Signal Process. Lett",
"volume": "19",
"issue": "11",
"pages": "725--728",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "YURET D. (2012). Fastsubs : An efficient and exact procedure for finding the most likely lexical substitutes based on an n-gram language model. IEEE Signal Process. Lett., 19(11), 725-728.",
"links": null
},
"BIBREF37": {
"ref_id": "b37",
"title": "Bootstrapping distributional feature vector quality",
"authors": [
{
"first": "",
"middle": [],
"last": "Zhitomirsky-Geffet M. & Dagan I",
"suffix": ""
}
],
"year": 2009,
"venue": "Comput. Linguist",
"volume": "35",
"issue": "3",
"pages": "435--461",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ZHITOMIRSKY-GEFFET M. & DAGAN I. (2009). Bootstrapping distributional feature vector quality. Comput. Linguist., 35(3), 435-461.",
"links": null
},
"BIBREF38": {
"ref_id": "b38",
"title": "Menelas : an access system for medical records using natural language",
"authors": [
{
"first": "P",
"middle": [],
"last": "Zweigenbaum",
"suffix": ""
}
],
"year": 1994,
"venue": "Computer Methods and Programs in Biomedicine",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ZWEIGENBAUM P. (1994). Menelas : an access system for medical records using natural language. Computer Methods and Programs in Biomedicine, 45.",
"links": null
}
},
"ref_entries": {
"TABREF0": {
"html": null,
"text": "pour acqu\u00e9rir des relations d'hyperonymie entre termes simples ou complexes, soit par exemple : -{quelques | plusieurs etc.} SN : LISTE. -{autre} ? SN tels que LISTE. -... o\u00f9 SN est un syntagme nominal et LISTE une liste de syntagmes.",
"type_str": "table",
"num": null,
"content": "<table/>"
},
"TABREF1": {
"html": null,
"text": "Bien que les contextes soient g\u00e9n\u00e9ralement calcul\u00e9s sur des d\u00e9pendances syntaxiques, nous avons choisi d'utiliser des contextes graphiques au sein d'une phrase et autour d'un mot cible pour plusieurs raisons :-les textes de sp\u00e9cialit\u00e9 n\u00e9cessitent une analyse particuli\u00e8re et nous ne disposons pas d'un analyseur syntaxique adapt\u00e9. graphiques \u00e9tant moins restreintes que l'analyse syntaxique, elles permettent de prendre en compte un plus grand nombre de contextes, ce qui facilite la g\u00e9n\u00e9ralisation des contextes. -l'int\u00e9gration d'une analyse syntaxique d\u00e9di\u00e9e \u00e0 la langue g\u00e9n\u00e9rale peut n\u00e9cessiter une mise en place assez co\u00fbteuse sans r\u00e9ellement apporter de plus value lors de l'analyse distributionnelle.La phase de g\u00e9n\u00e9ralisation des contextes intervient apr\u00e8s la d\u00e9finition des contextes distributionnels. Nous d\u00e9crivons cette \u00e9tape en d\u00e9tail \u00e0 la section suivante. Apr\u00e8s avoir extrait et g\u00e9n\u00e9ralis\u00e9 les contextes d'apparition de chaque mot cible, un score de similarit\u00e9 s\u00e9mantique est calcul\u00e9 pour chaque couple de mots cibles, c'est-\u00e0-dire entre deux vecteurs de contexte W a et W b, o\u00f9 W a i est le i\u00e8me composant du vecteur W a. Nous avons utilis\u00e9 la g\u00e9n\u00e9ralisation pond\u00e9r\u00e9e de l'indice de Jaccard, celle-ci \u00e9tant reconnue pour \u00eatre adapt\u00e9e aux corpus de sp\u00e9cialit\u00e9",
"type_str": "table",
"num": null,
"content": "<table><tr><td/><td/><td>Analyse distributionnelle</td><td/><td/></tr><tr><td/><td/><td>\u00e9tape 1</td><td>\u00e9tape 2</td><td>\u00e9tape 3</td></tr><tr><td/><td>Pr\u00e9\u2212traitement Extraction de termes</td><td>D\u00e9finition des mots cibles et contextes</td><td>G\u00e9n\u00e9ralisation des contextes</td><td>Calcul de s\u00e9mantique similarit\u00e9</td></tr><tr><td>Corpus</td><td>Etiquetage &amp; lemmatisation</td><td>Noms et termes Fen\u00eatres graphiques</td><td/><td>\u2212 Indice de Jaccard et Cosinus \u2212 Seuils sur les contextes partag\u00e9s,</td><td>Relations</td></tr><tr><td/><td/><td>(5 et 21 mots)</td><td/><td>les mots cibles et la mesure de similarit\u00e9</td></tr><tr><td/><td/><td colspan=\"2\">Variation terminologique (VT)</td><td/></tr><tr><td/><td/><td>Inclusion lexicale (IL)</td><td/><td/></tr><tr><td/><td/><td colspan=\"2\">Patrons lexico\u2212syntaxiques (PLS)</td><td/></tr><tr><td/><td/><td colspan=\"2\">Approches linguistiques</td><td/></tr><tr><td/><td/><td colspan=\"3\">FIGURE 1 -Processus d'analyse distributionnelle</td></tr><tr><td colspan=\"2\">-les fen\u00eatres</td><td/><td/><td/></tr></table>"
},
"TABREF3": {
"html": null,
"text": "). En combinant des sources de relations d'hyperonymie de plusieurs mani\u00e8res, nous souhaitons d'une part, \u00e9valuer la compl\u00e9mentarit\u00e9 des approches utilis\u00e9es pour g\u00e9n\u00e9raliser les contextes, et d'autre part, \u00e9tudier l'impact de l'ordre de ces m\u00e9thodes dans la s\u00e9quence de g\u00e9n\u00e9ralisation.",
"type_str": "table",
"num": null,
"content": "<table><tr><td>Nous avons \u00e9galement consid\u00e9r\u00e9 toutes les relations d'hyperonymie ind\u00e9pendamment de la m\u00e9thode utilis\u00e9e pour les</td></tr><tr><td>acqu\u00e9rir. On consid\u00e8re alors l'ensemble H(w i</td></tr></table>"
},
"TABREF4": {
"html": null,
"text": "mots, centr\u00e9e sur le mot cible). En effet, la taille des fen\u00eatres a une influence sur le nombre et la qualit\u00e9 mais aussi sur le type des relations obtenues par analyse distributionnelle. En g\u00e9n\u00e9ral, une fen\u00eatre de taille restreinte (5 mots) permet de disposer d'un plus grand nombre de contextes pertinents pour un mot cible donn\u00e9, mais conduit \u00e0 une dispersion des donn\u00e9es plus important qu'avec une fen\u00eatre plus large (",
"type_str": "table",
"num": null,
"content": "<table><tr><td>pour appliquer les</td></tr><tr><td>r\u00e8gles de g\u00e9n\u00e9ralisation sur le contexte w i .</td></tr><tr><td>L'ensemble des exp\u00e9riences a \u00e9t\u00e9 r\u00e9alis\u00e9 sur deux tailles de fen\u00eatres : 5 mots (\u00b1 2 mots, centr\u00e9e sur le mot cible) et 21 mots</td></tr><tr><td>(\u00b1 10</td></tr></table>"
},
"TABREF5": {
"html": null,
"text": "et (Ferret, 2013), nous consid\u00e9rons ici les relations obtenues comme des ensembles de voisins associ\u00e9s \u00e0 des mots cibles, les voisins \u00e9tant ordonn\u00e9s suivant la similarit\u00e9 avec le mot cible.",
"type_str": "table",
"num": null,
"content": "<table><tr><td colspan=\"2\">L'\u00e9valuation des r\u00e9sultats est r\u00e9alis\u00e9e avec des mesures d'\u00e9valuation utilis\u00e9es habituellement sur les r\u00e9sultats d'une ana-</td></tr><tr><td colspan=\"2\">lyse distributionnelle : la macro-pr\u00e9cision (Sebastiani, 2002), la moyenne des pr\u00e9cisions moyennes (MAP) (Buckley &amp;</td></tr><tr><td colspan=\"2\">Voorhees, 2005) et la R-pr\u00e9cision.</td></tr><tr><td colspan=\"2\">La macro-pr\u00e9cision est la moyenne des pr\u00e9cisions p(w i ) obtenues pour chaque mot cible (w i ) et un ensemble de voisins</td></tr><tr><td>s\u00e9mantiques I j i (I</td><td>j(+)</td></tr></table>"
},
"TABREF7": {
"html": null,
"text": "",
"type_str": "table",
"num": null,
"content": "<table><tr><td>-R\u00e9sultats obtenus avec la mesure de Jaccard, \u00e9valu\u00e9s avec la MAP, R-pr\u00e9cision, et pr\u00e9cision \u00e0 1 et 5 pour une</td></tr><tr><td>fen\u00eatre de 5 mots -sans et avec seuil sur la mesure de similarit\u00e9</td></tr><tr><td>6.1 Fen\u00eatre graphique restreinte</td></tr></table>"
},
"TABREF8": {
"html": null,
"text": "Lorsqu'une fen\u00eatre large de 21 mots est utilis\u00e9e, les observations et les r\u00e9sultats sont diff\u00e9rents selon les mesures de similarit\u00e9 utilis\u00e9es et l'utilisation (cf. tableau 4) ou non (cf. tableau 3) de seuils sur les param\u00e8tres distributionnels. Ainsi avec la mesure de Jaccard, la qualit\u00e9 des r\u00e9sultats est am\u00e9lior\u00e9e si les contextes sont g\u00e9n\u00e9ralis\u00e9s avec des relations issues des patrons lexico-syntaxiques et qu'aucun seuil n'est appliqu\u00e9. La contribution des relations acquises par inclusion lexicale est variable : l'utilisation de ces relations pour g\u00e9n\u00e9raliser les contextes d\u00e9gradent les r\u00e9sultats si l'on n'applique pas de seuil sur les param\u00e8tres distributionnels, et au contraire permettent d'obtenir les meilleurs r\u00e9sultats lorsque des seuils sont utilis\u00e9s. L'impact des patrons lexico-syntaxiques seul est beaucoup plus faible avec le cosinus. Mais lorsqu'ils sont pris en compte apr\u00e8s l'utilisation des relations acquises par inclusion lexicale, la pr\u00e9cision est am\u00e9lior\u00e9e et m\u00eame sup\u00e9rieure \u00e0 celle obtenue avec Jaccard. De plus, nous pouvons noter que les variantes terminologiques ont un impact nul ou n\u00e9gatif sur la qualit\u00e9 des r\u00e9sultats.",
"type_str": "table",
"num": null,
"content": "<table><tr><td colspan=\"13\">la vue des mesures, la qualit\u00e9 des r\u00e9sultats semble b\u00e9n\u00e9ficier de la combinaison des trois sources de relations</td></tr><tr><td colspan=\"13\">d'hyperonymie. De m\u00eame, le nombre de relations retourn\u00e9es est r\u00e9duit au minimum d'un quart avec la g\u00e9n\u00e9ralisation,</td></tr><tr><td colspan=\"13\">par rapport \u00e0 l'ensemble de relations obtenues avec l'AD seule, voire divis\u00e9 par 6 pour certaines combinaison comme</td></tr><tr><td colspan=\"13\">PLS+VT+IL. Cependant, le nombre de relations retrouv\u00e9es dans l'UMLS est divis\u00e9 par deux (98 avec l'AD seule, 42</td></tr><tr><td colspan=\"13\">avec la combinaison offrant la meilleure pr\u00e9cision) lorsque nous utilisons les relations propos\u00e9es par plusieurs m\u00e9thodes.</td></tr><tr><td colspan=\"13\">Si des constats similaires peuvent \u00eatre r\u00e9alis\u00e9s lorsque nous appliquons des seuils sur les param\u00e8tres distributionnels, nous</td></tr><tr><td colspan=\"13\">remarquons \u00e9galement l'impact positif des relations acquises par inclusion lexicale sur les r\u00e9sultats. Mais ici, les r\u00e9sultats</td></tr><tr><td colspan=\"13\">sont probablement peu significatifs. En effet, peu de relations sont retrouv\u00e9es dans l'UMLS lorsque nous utilisons Jaccard</td></tr><tr><td colspan=\"13\">pour mesure la similarit\u00e9 entre les mots, et nous pouvons douter de la significativit\u00e9 statistique des r\u00e9sultats obtenus avec</td></tr><tr><td colspan=\"5\">les seuils. Une \u00e9valuation manuelle est n\u00e9cessaire.</td><td/><td/><td/><td/><td/><td/><td/><td/></tr><tr><td colspan=\"3\">6.2 Fen\u00eatre graphique large</td><td/><td/><td/><td/><td/><td/><td/><td/><td/><td/></tr><tr><td/><td colspan=\"2\">Rel. acquises</td><td colspan=\"2\">Rel. dans UMLS</td><td colspan=\"2\">MAP</td><td colspan=\"2\">R-pr\u00e9cision</td><td colspan=\"2\">P@1</td><td colspan=\"2\">P@5</td></tr><tr><td/><td colspan=\"2\">JACC COS</td><td colspan=\"2\">JACC COS</td><td colspan=\"2\">JACC COS</td><td colspan=\"2\">JACC COS</td><td colspan=\"2\">JACC COS</td><td colspan=\"2\">JACC COS</td></tr><tr><td>ADSeule</td><td>9256</td><td>9256</td><td>46</td><td>46</td><td>0,221</td><td>0,149</td><td>0,142</td><td>0,098</td><td>0,118</td><td>0,088</td><td>0,059</td><td>0,028</td></tr><tr><td>AD/VT</td><td>8758</td><td>8758</td><td>44</td><td>44</td><td>0,201</td><td>0,158</td><td>0,120</td><td>0,104</td><td>0,094</td><td>0,094</td><td>0,056</td><td>0,053</td></tr><tr><td>AD/IL</td><td>6360</td><td>6360</td><td>42</td><td>42</td><td>0,197</td><td>0,120</td><td>0,075</td><td>0,081</td><td>0,097</td><td>0,065</td><td>0,071</td><td>0,056</td></tr><tr><td>AD/PLS</td><td>8418</td><td>8418</td><td>42</td><td>42</td><td>0,243</td><td>0,165</td><td>0,172</td><td>0,111</td><td>0,133</td><td>0,100</td><td>0,080</td><td>0,026</td></tr><tr><td>AD/VT+IL</td><td>6312</td><td>6312</td><td>42</td><td>42</td><td>0,196</td><td>0,120</td><td>0,075</td><td>0,081</td><td>0,097</td><td>0,065</td><td>0,077</td><td>0,060</td></tr><tr><td>AD/VT+PLS</td><td>7972</td><td>7972</td><td>42</td><td>42</td><td>0,244</td><td>0,166</td><td>0,172</td><td>0,111</td><td>0,133</td><td>0,100</td><td>0,080</td><td>0,026</td></tr><tr><td>AD/IL+VT</td><td>6138</td><td>6138</td><td>40</td><td>40</td><td>0,175</td><td>0,128</td><td>0,046</td><td>0,086</td><td>0,069</td><td>0,069</td><td>0,069</td><td>0,060</td></tr><tr><td>AD/IL+PLS</td><td>5874</td><td>5874</td><td>40</td><td>40</td><td>0,201</td><td>0,191</td><td>0,046</td><td>0,155</td><td>0,069</td><td>0,138</td><td>0,083</td><td>0,028</td></tr><tr><td>AD/PLS+VT</td><td>7972</td><td>7972</td><td>42</td><td>42</td><td>0,244</td><td>0,166</td><td>0,172</td><td>0,111</td><td>0,133</td><td>0,100</td><td>0,080</td><td>0,041</td></tr><tr><td>AD/PLS+IL</td><td>6346</td><td>6346</td><td>42</td><td>42</td><td>0,220</td><td>0,116</td><td>0,108</td><td>0,065</td><td>0,129</td><td>0,065</td><td>0,084</td><td>0,060</td></tr><tr><td colspan=\"2\">AD/VT+IL+PLS 5828</td><td>5828</td><td>40</td><td>40</td><td>0,198</td><td>0,191</td><td>0,046</td><td>0,155</td><td>0,069</td><td>0,138</td><td>0,076</td><td>0,026</td></tr><tr><td colspan=\"2\">AD/VT+PLS+IL 6310</td><td>6310</td><td>42</td><td>42</td><td>0,219</td><td>0,115</td><td>0,108</td><td>0,065</td><td>0,129</td><td>0,065</td><td>0,077</td><td>0,041</td></tr><tr><td colspan=\"2\">AD/IL+VT+PLS 5662</td><td>5662</td><td>40</td><td>40</td><td>0,202</td><td>0,193</td><td>0,046</td><td>0,155</td><td>0,069</td><td>0,138</td><td>0,083</td><td>0,026</td></tr><tr><td colspan=\"2\">AD/IL+PLS+VT 5662</td><td>5662</td><td>40</td><td>40</td><td>0,202</td><td>0,193</td><td>0,046</td><td>0,155</td><td>0,069</td><td>0,138</td><td>0,083</td><td>0,041</td></tr><tr><td colspan=\"2\">AD/PLS+VT+IL 6310</td><td>6310</td><td>42</td><td>42</td><td>0,219</td><td>0,115</td><td>0,108</td><td>0,065</td><td>0,129</td><td>0,065</td><td>0,077</td><td>0,041</td></tr><tr><td colspan=\"2\">AD/PLS+IL+VT 6122</td><td>6122</td><td>40</td><td>40</td><td>0,199</td><td>0,123</td><td>0,081</td><td>0,069</td><td>0,103</td><td>0,069</td><td>0,083</td><td>0,026</td></tr><tr><td>AD/ALL3</td><td>6306</td><td>6306</td><td>42</td><td>42</td><td>0,222</td><td>0,120</td><td>0,108</td><td>0,081</td><td>0,129</td><td>0,065</td><td>0,084</td><td>0,026</td></tr></table>"
},
"TABREF9": {
"html": null,
"text": "R\u00e9sultats \u00e9valu\u00e9s avec la MAP, R-pr\u00e9cision, et pr\u00e9cision \u00e0 1 et 5 pour une fen\u00eatre de 21 mots -sans seuil sur la similarit\u00e9 s\u00e9mantique",
"type_str": "table",
"num": null,
"content": "<table><tr><td>Rel. acquises</td><td>Rel. dans UMLS</td><td>MAP</td><td>R-pr\u00e9cision</td><td>P@1</td><td/><td>P@5</td></tr><tr><td>JACC COS</td><td>JACC COS</td><td>JACC COS</td><td>JACC COS</td><td>JACC COS</td><td>JACC</td><td>COS</td></tr></table>"
},
"TABREF11": {
"html": null,
"text": "R\u00e9sultats \u00e9valu\u00e9s avec la MAP, R-pr\u00e9cision, et pr\u00e9cision \u00e0 1 et 5 pour une fen\u00eatre de 21 mots -avec seuils sur la similarit\u00e9 s\u00e9mantique",
"type_str": "table",
"num": null,
"content": "<table/>"
}
}
}
}