| { |
| "paper_id": "F13-1009", |
| "header": { |
| "generated_with": "S2ORC 1.0.0", |
| "date_generated": "2023-01-19T09:41:49.951507Z" |
| }, |
| "title": "Apprentissage d'une hi\u00e9rarchie de mod\u00e8les \u00e0 paires sp\u00e9cialis\u00e9s pour la r\u00e9solution de la cor\u00e9f\u00e9rence", |
| "authors": [ |
| { |
| "first": "Emmanuel", |
| "middle": [], |
| "last": "Lassalle", |
| "suffix": "", |
| "affiliation": { |
| "laboratory": "", |
| "institution": "Universit\u00e9 Paris Diderot", |
| "location": { |
| "settlement": "Sorbonne Paris Cit\u00e9" |
| } |
| }, |
| "email": "emmanuel.lassalle@ens-lyon.org" |
| }, |
| { |
| "first": "Pascal", |
| "middle": [], |
| "last": "Denis", |
| "suffix": "", |
| "affiliation": {}, |
| "email": "pascal.denis@inria.fr" |
| } |
| ], |
| "year": "", |
| "venue": null, |
| "identifiers": {}, |
| "abstract": "Nous proposons une nouvelle m\u00e9thode pour am\u00e9liorer significativement la performance des mod\u00e8les \u00e0 paires de mentions pour la r\u00e9solution de la cor\u00e9f\u00e9rence. \u00c9tant donn\u00e9 un ensemble d'indicateurs, notre m\u00e9thode apprend \u00e0 s\u00e9parer au mieux des types de paires de mentions en classes d'\u00e9quivalence, chacune de celles-ci donnant lieu \u00e0 un mod\u00e8le de classification sp\u00e9cifique. La proc\u00e9dure algorithmique propos\u00e9e trouve le meilleur espace de traits (cr\u00e9\u00e9 \u00e0 partir de combinaisons de traits \u00e9l\u00e9mentaires et d'indicateurs) pour discriminer les paires de mentions cor\u00e9f\u00e9rentielles. Bien que notre approche explore un tr\u00e8s vaste ensemble d'espaces de trait, elle reste efficace en exploitant la structure des hi\u00e9rarchies construites \u00e0 partir des indicateurs. Nos exp\u00e9riences sur les donn\u00e9es anglaises de la CoNLL-2012 Shared Task indiquent que notre m\u00e9thode donne des gains de performance par rapport au mod\u00e8le initial utilisant seulement les traits \u00e9l\u00e9mentaires, et ce, quelque soit la m\u00e9thode de formation des cha\u00eenes ou la m\u00e9trique d'\u00e9valuation choisie. Notre meilleur syst\u00e8me obtient une moyenne de 67.2 en F1-mesure MUC, B 3 et CEAF ce qui, malgr\u00e9 sa simplicit\u00e9, le situe parmi les meilleurs syst\u00e8mes test\u00e9s sur ces donn\u00e9es.", |
| "pdf_parse": { |
| "paper_id": "F13-1009", |
| "_pdf_hash": "", |
| "abstract": [ |
| { |
| "text": "Nous proposons une nouvelle m\u00e9thode pour am\u00e9liorer significativement la performance des mod\u00e8les \u00e0 paires de mentions pour la r\u00e9solution de la cor\u00e9f\u00e9rence. \u00c9tant donn\u00e9 un ensemble d'indicateurs, notre m\u00e9thode apprend \u00e0 s\u00e9parer au mieux des types de paires de mentions en classes d'\u00e9quivalence, chacune de celles-ci donnant lieu \u00e0 un mod\u00e8le de classification sp\u00e9cifique. La proc\u00e9dure algorithmique propos\u00e9e trouve le meilleur espace de traits (cr\u00e9\u00e9 \u00e0 partir de combinaisons de traits \u00e9l\u00e9mentaires et d'indicateurs) pour discriminer les paires de mentions cor\u00e9f\u00e9rentielles. Bien que notre approche explore un tr\u00e8s vaste ensemble d'espaces de trait, elle reste efficace en exploitant la structure des hi\u00e9rarchies construites \u00e0 partir des indicateurs. Nos exp\u00e9riences sur les donn\u00e9es anglaises de la CoNLL-2012 Shared Task indiquent que notre m\u00e9thode donne des gains de performance par rapport au mod\u00e8le initial utilisant seulement les traits \u00e9l\u00e9mentaires, et ce, quelque soit la m\u00e9thode de formation des cha\u00eenes ou la m\u00e9trique d'\u00e9valuation choisie. Notre meilleur syst\u00e8me obtient une moyenne de 67.2 en F1-mesure MUC, B 3 et CEAF ce qui, malgr\u00e9 sa simplicit\u00e9, le situe parmi les meilleurs syst\u00e8mes test\u00e9s sur ces donn\u00e9es.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Abstract", |
| "sec_num": null |
| } |
| ], |
| "body_text": [ |
| { |
| "text": "La r\u00e9solution de la cor\u00e9f\u00e9rence consiste \u00e0 partitionner une s\u00e9quence de syntagmes nominaux (ou mentions) apparaissant dans un texte en un ensemble d'entit\u00e9s qui partagent chacune le m\u00eame r\u00e9f\u00e9rent. Une approche d\u00e9sormais classique pour r\u00e9soudre cette t\u00e2che consiste \u00e0 la diviser en deux \u00e9tapes : d'abord, on d\u00e9finit un mod\u00e8le pour traiter les relations de cor\u00e9f\u00e9rence ind\u00e9pendamment les unes des autres, en g\u00e9n\u00e9ral via un classifieur binaire d\u00e9tectant les mentions cor\u00e9f\u00e9rentielles. Ensuite, les liens d\u00e9tect\u00e9s sont regroup\u00e9s en clusters par un d\u00e9codeur pour former une sortie coh\u00e9rente. Typiquement, cette \u00e9tape est r\u00e9alis\u00e9e par des m\u00e9thodes heuristiques gloutonnes (McCarthy et Lehnert, 1995; Soon et al., 2001; Ng et Cardie, 2002; Bengston et Roth, 2008) , bien qu'il existe des approches plus sophistiqu\u00e9es telles que les m\u00e9thodes de graph cutting (Nicolae et Nicolae, 2006; Cai et Strube, 2010) ou l'ILP (Integer Linear Programming) (Klenner, 2007; Denis et Baldridge, 2009) . Malgr\u00e9 sa simplicit\u00e9 apparente, cette approche en deux \u00e9tapes demeure comp\u00e9titive m\u00eame lorsqu'on la compare \u00e0 des mod\u00e8les plus complexes utilisant des mesures de perte globale (Bengston et Roth, 2008) .", |
| "cite_spans": [ |
| { |
| "start": 666, |
| "end": 693, |
| "text": "(McCarthy et Lehnert, 1995;", |
| "ref_id": "BIBREF11" |
| }, |
| { |
| "start": 694, |
| "end": 712, |
| "text": "Soon et al., 2001;", |
| "ref_id": "BIBREF19" |
| }, |
| { |
| "start": 713, |
| "end": 732, |
| "text": "Ng et Cardie, 2002;", |
| "ref_id": "BIBREF14" |
| }, |
| { |
| "start": 733, |
| "end": 756, |
| "text": "Bengston et Roth, 2008)", |
| "ref_id": "BIBREF2" |
| }, |
| { |
| "start": 851, |
| "end": 877, |
| "text": "(Nicolae et Nicolae, 2006;", |
| "ref_id": "BIBREF15" |
| }, |
| { |
| "start": 878, |
| "end": 898, |
| "text": "Cai et Strube, 2010)", |
| "ref_id": "BIBREF3" |
| }, |
| { |
| "start": 937, |
| "end": 952, |
| "text": "(Klenner, 2007;", |
| "ref_id": "BIBREF9" |
| }, |
| { |
| "start": 953, |
| "end": 978, |
| "text": "Denis et Baldridge, 2009)", |
| "ref_id": "BIBREF7" |
| }, |
| { |
| "start": 1157, |
| "end": 1181, |
| "text": "(Bengston et Roth, 2008)", |
| "ref_id": "BIBREF2" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Avec ce type d'architecture, la performance du syst\u00e8me complet d\u00e9pend fortement de la qualit\u00e9 du classifieur local de paires. 1 Par cons\u00e9quent, beaucoup de travaux de recherche ont consist\u00e9 \u00e0 essayer d'am\u00e9liorer la performance de ce classifieur. Nombre d'entre eux se concentrent sur l'extraction de traits, typiquement en essayant d'enrichir le classifieur avec davantage de connaissances linguistiques et/ou de connaissances du monde (Ng et Cardie, 2002; Kehler et al., 2004; Ponzetto et Strube, 2006; Bengston et Roth, 2008; Versley et al., 2008; Uryupina et al., 2011) . D'autres travaux cherchent \u00e0 utiliser des mod\u00e8les locaux distincts pour diff\u00e9rents types de mentions, en particulier pour diff\u00e9rents types de mentions anaphoriques en se basant sur leur cat\u00e9gories grammaticales (telles que pronoms, noms propres, descriptions d\u00e9finies). On entra\u00eene par exemple un mod\u00e8le pour les pronoms, un autre pour les SN d\u00e9finis, etc (Morton, 2000; Ng, 2005; Denis et Baldridge, 2008) 2 . L'utilisation de mod\u00e8les sp\u00e9cialis\u00e9s trouve une justification importante en psycho-linguistique, dans des travaux th\u00e9oriques sur la saillance ou l'accessibilit\u00e9 (Ariel, 1988) . Du point de vue de l'apprentissage statistique, ces seconds travaux se rapprochent de ceux sur l'extraction de traits dans la mesure o\u00f9 les deux approches reviennent \u00e0 poser le probl\u00e8me de la classification de paires dans un espace de plus grande dimension.", |
| "cite_spans": [ |
| { |
| "start": 126, |
| "end": 127, |
| "text": "1", |
| "ref_id": null |
| }, |
| { |
| "start": 436, |
| "end": 456, |
| "text": "(Ng et Cardie, 2002;", |
| "ref_id": "BIBREF14" |
| }, |
| { |
| "start": 457, |
| "end": 477, |
| "text": "Kehler et al., 2004;", |
| "ref_id": "BIBREF8" |
| }, |
| { |
| "start": 478, |
| "end": 503, |
| "text": "Ponzetto et Strube, 2006;", |
| "ref_id": "BIBREF16" |
| }, |
| { |
| "start": 504, |
| "end": 527, |
| "text": "Bengston et Roth, 2008;", |
| "ref_id": "BIBREF2" |
| }, |
| { |
| "start": 528, |
| "end": 549, |
| "text": "Versley et al., 2008;", |
| "ref_id": "BIBREF22" |
| }, |
| { |
| "start": 550, |
| "end": 572, |
| "text": "Uryupina et al., 2011)", |
| "ref_id": "BIBREF21" |
| }, |
| { |
| "start": 931, |
| "end": 945, |
| "text": "(Morton, 2000;", |
| "ref_id": "BIBREF12" |
| }, |
| { |
| "start": 946, |
| "end": 955, |
| "text": "Ng, 2005;", |
| "ref_id": "BIBREF13" |
| }, |
| { |
| "start": 956, |
| "end": 981, |
| "text": "Denis et Baldridge, 2008)", |
| "ref_id": "BIBREF6" |
| }, |
| { |
| "start": 982, |
| "end": 983, |
| "text": "2", |
| "ref_id": null |
| }, |
| { |
| "start": 1147, |
| "end": 1160, |
| "text": "(Ariel, 1988)", |
| "ref_id": "BIBREF0" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Dans ce travail, nous soutenons que les paires de mentions ne devraient pas \u00eatre trait\u00e9es par un seul classifieur, mais au contraire par des mod\u00e8les sp\u00e9cifiques. En somme, nous nous int\u00e9ressons \u00e0 apprendre comment construire et s\u00e9lectionner de tel mod\u00e8les. Notre argumentation se fonde sur des consid\u00e9rations statistiques plut\u00f4t que purement linguistiques (l'approche est donc compl\u00e9mentaire aux \u00e9tudes th\u00e9oriques). La question que nous posons est, \u00e9tant donn\u00e9 un ensemble d'indicateurs (tels que les types grammaticaux, la distance entre deux mentions ou le type d'entit\u00e9 nomm\u00e9e), comment s\u00e9parer les paires de mentions afin de discriminer au mieux les paires cor\u00e9f\u00e9rentielles par rapport \u00e0 celles qui ne le sont pas. Ainsi, nous cherchons \u00e0 apprendre les \"meilleurs\" espaces de repr\u00e9sentation pour nos diff\u00e9rents mod\u00e8les : c'est-\u00e0-dire des espaces ni trop grossiers (c.-\u00e0-d. peu aptes \u00e0 bien s\u00e9parer les donn\u00e9es), ni trop sp\u00e9cifiques (c.-\u00e0-d. pouvant souffrir du manque de donn\u00e9es ou de bruit). Nous verrons que cette d\u00e9marche est aussi \u00e9quivalente \u00e0 construire un seul tr\u00e8s grand espace de traits pour repr\u00e9senter toutes les donn\u00e9es.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "1. Il n'y a toutefois aucune garantie th\u00e9orique pour que l'am\u00e9lioration de la classification locale ait toujours un impact positif sur la performance globale lorsque les deux modules sont optimis\u00e9s s\u00e9par\u00e9ment.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "2. Parfois, des \u00e9chantillonnages diff\u00e9rents sont choisis lors de la phase d'apprentissage des mod\u00e8les locaux distincts (Ng et Cardie, 2002; Uryupina, 2004) .", |
| "cite_spans": [ |
| { |
| "start": 119, |
| "end": 139, |
| "text": "(Ng et Cardie, 2002;", |
| "ref_id": "BIBREF14" |
| }, |
| { |
| "start": 140, |
| "end": 155, |
| "text": "Uryupina, 2004)", |
| "ref_id": "BIBREF20" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Notre approche g\u00e9n\u00e9ralise les approches pr\u00e9c\u00e9dentes de plusieurs mani\u00e8res. D'une part, la d\u00e9finition des diff\u00e9rents mod\u00e8les n'est plus restreinte au simple typage grammatical (notre mod\u00e8le permet d'utiliser n'importe quel type d'indicateurs) ni au seul typage de la mention anaphorique (nos mod\u00e8les peuvent aussi \u00eatre associ\u00e9s au typage de l'ant\u00e9c\u00e9dent ou bien au types des deux \u00e9l\u00e9ments de la paire). D'autre part, nous proposons une m\u00e9thode originale pour apprendre les meilleurs ensembles de mod\u00e8les que l'on peut construire \u00e0 partir d'un ensemble d'indicateurs donn\u00e9s et des donn\u00e9es d'apprentissage. Ces mod\u00e8les sont organis\u00e9s dans une hi\u00e9rarchie o\u00f9 chaque feuille correspond \u00e0 un ensemble de paires de mentions disjoint des autres et sur lequel un classifieur est entra\u00een\u00e9. Nos diff\u00e9rents mod\u00e8les sont entra\u00een\u00e9s en utilisant l'algorithme Online Passive-Aggressive, ou PA (Crammer et al., 2006) , qui est une version \u00e0 large marge du perceptron. Notre m\u00e9thode peut \u00eatre qualifi\u00e9e d'exacte dans le sens o\u00f9 elle explore compl\u00e8tement l'espace des hi\u00e9rarchies d\u00e9finissables \u00e0 partir d'un ensemble d'indicateurs donn\u00e9 (on en d\u00e9nombre au moins 2 2 n pour n indicateurs), tout en ma\u00eetrisant la complexit\u00e9 algorithmique par une technique de programmation dynamique qui exploite la structure particuli\u00e8re des hi\u00e9rarchies. Cette approche obtient de tr\u00e8s bonnes performances, et d\u00e9passe largement le mod\u00e8le de d\u00e9part qui utilise seulement les traits \u00e9l\u00e9mentaires. Comme le montreront diverses exp\u00e9riences sur les donn\u00e9es anglaises de la CoNLL-2012 Shared Task, des am\u00e9liorations importantes sont observables sur diff\u00e9rentes m\u00e9triques d'\u00e9valuation ; par ailleurs, celles-ci ne d\u00e9pendent pas de la m\u00e9thode de clustering choisie pour le d\u00e9codeur.", |
| "cite_spans": [ |
| { |
| "start": 876, |
| "end": 898, |
| "text": "(Crammer et al., 2006)", |
| "ref_id": "BIBREF5" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "La suite de cet article est organis\u00e9e comme suit : dans la section 2, nous discutons les hypoth\u00e8ses statistiques sur lesquelles repose le mod\u00e8le standard \u00e0 paires de mentions, et nous d\u00e9finissons un mod\u00e8le alternatif qui utilise une simple s\u00e9paration des paires de mentions en fonction de leur type grammatical. Ensuite, dans la section 3, nous g\u00e9n\u00e9ralisons ce mod\u00e8le en introduisant les hi\u00e9rarchies d'indicateurs en expliquant comment apprendre le meilleur mod\u00e8le possible \u00e0 partir de celles-ci. La section 4 donne une br\u00e8ve description du syst\u00e8me complet et la section 5 donne les r\u00e9sultats d'\u00e9valuation des diff\u00e9rents mod\u00e8les sur les donn\u00e9es anglaises de CoNLL-2012.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "En principe, les mod\u00e8les \u00e0 paires emploient un seul classifieur local pour d\u00e9cider si deux mentions sont cor\u00e9f\u00e9rentes ou non. Lorsque l'on utilise des techniques d'apprentissage automatique, cela entra\u00eene quelques hypoth\u00e8ses sur le comportement statistique des paires de mentions.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e9lisation des paires", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Pour commencer, adoptons un point de vue probabiliste pour d\u00e9crire le prototype du mod\u00e8le \u00e0 paires. \u00c9tant donn\u00e9 un document, le nombre de mentions est fix\u00e9 et chaque paire de mentions suit une certaine distribution (que l'on observe en partie en projetant les paires dans un espace de traits). L'id\u00e9e fondamentale du mod\u00e8le \u00e0 paires est de consid\u00e9rer que les paires de mentions sont ind\u00e9pendantes les unes des autres (du coup, la propri\u00e9t\u00e9 de transitivit\u00e9 n'est pas n\u00e9cessairement v\u00e9rifi\u00e9e en sortie, c'est pourquoi il faut un d\u00e9codeur la transformer en partition coh\u00e9rente).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Hypoth\u00e8ses statistiques", |
| "sec_num": "2.1" |
| }, |
| { |
| "text": "Utiliser un seul classifieur pour traiter toutes les paires de mentions revient \u00e0 supposer qu'elles sont identiquement distribu\u00e9es. Nous pensons que les paires ne sont pas identiquement dis-tribu\u00e9es, mais qu'il faut au contraire s\u00e9parer diff\u00e9rents \"types\" de paires et cr\u00e9er des mod\u00e8les sp\u00e9cifiques pour ces types. S\u00e9parer diff\u00e9rents types de paires et les traiter avec des mod\u00e8les sp\u00e9cifiques peut amener \u00e0 des mod\u00e8les globaux plus pr\u00e9cis. Certains syst\u00e8mes de r\u00e9solution traitent d\u00e9j\u00e0 diff\u00e9rents types d'anaphores s\u00e9par\u00e9ment, ce qui revient \u00e0 supposer que par exemple, les paires qui contiennent un pronom se comportent diff\u00e9remment des autres (Morton, 2000; Ng, 2005; Denis et Baldridge, 2008) . Nous pourrions essayer de capturer ces diff\u00e9rents comportements avec un ensemble tr\u00e8s riche de traits, mais en r\u00e9alit\u00e9 nous ne disposons que d'un nombre assez restreint de traits \u00e9l\u00e9mentaires (voir la section 4) et cr\u00e9er de nouveaux traits en les combinant doit \u00eatre fait avec prudence pour \u00e9viter d'introduire du bruit dans le mod\u00e8le. Au lieu de cela, nous montrerons qu'une s\u00e9paration habile des instances apporte de bonnes am\u00e9liorations au mod\u00e8le \u00e0 paires.", |
| "cite_spans": [ |
| { |
| "start": 646, |
| "end": 660, |
| "text": "(Morton, 2000;", |
| "ref_id": "BIBREF12" |
| }, |
| { |
| "start": 661, |
| "end": 670, |
| "text": "Ng, 2005;", |
| "ref_id": "BIBREF13" |
| }, |
| { |
| "start": 671, |
| "end": 696, |
| "text": "Denis et Baldridge, 2008)", |
| "ref_id": "BIBREF6" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Hypoth\u00e8ses statistiques", |
| "sec_num": "2.1" |
| }, |
| { |
| "text": "Commen\u00e7ons par donner une vision plus formelle de la mod\u00e9lisation. Chaque paire de mentions m i et m j est repr\u00e9sent\u00e9e par une variable al\u00e9atoire :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Espaces de traits 2.2.1 D\u00e9finitions", |
| "sec_num": "2.2" |
| }, |
| { |
| "text": "P i j : \u2126 \u2192 \u00d7 \u03c9 \u2192 (x i j (\u03c9), y i j (\u03c9))", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Espaces de traits 2.2.1 D\u00e9finitions", |
| "sec_num": "2.2" |
| }, |
| { |
| "text": "o\u00f9 \u2126 d\u00e9note classiquement l'al\u00e9atoire, est l'espace des objets \"paires de mentions\" qui n'est pas directement observable et y i j (\u03c9) \u2208 = {+1, \u22121} sont les \u00e9tiquettes indiquant si m i et m j sont cor\u00e9f\u00e9rentes ou non. Pour all\u00e9ger un peu ces notations, nous n'\u00e9crirons pas toujours l'indice i j. Maintenant nous d\u00e9finissons une fonction :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Espaces de traits 2.2.1 D\u00e9finitions", |
| "sec_num": "2.2" |
| }, |
| { |
| "text": "\u03c6 : \u2192 x \u2192 \u03c6 (x)", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Espaces de traits 2.2.1 D\u00e9finitions", |
| "sec_num": "2.2" |
| }, |
| { |
| "text": "qui projette les paires dans un espace de traits \u00e0 travers lequel elles sont observ\u00e9es. Pour nous, est simplement un espace vectoriel sur (dans notre cas, la plupart des traits sont bool\u00e9ens ; ils sont projet\u00e9s sur avec les valeurs 0 et 1). Pour des raisons de coh\u00e9rence technique, nous supposons que \u03c6 1 (x(\u03c9)) et \u03c6 2 (x(\u03c9)) conservent les m\u00eames valeurs lorsqu'on les projette sur l'espace de traits 1 \u2229 2 : cela signifie simplement que les traits communs \u00e0 deux espaces ont toujours les m\u00eames valeurs.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Espaces de traits 2.2.1 D\u00e9finitions", |
| "sec_num": "2.2" |
| }, |
| { |
| "text": "De ce point de vue formel, la t\u00e2che de r\u00e9solution de la cor\u00e9f\u00e9rence consiste \u00e0 fixer un espace de traits , observer des \u00e9chantillons \u00e9tiquet\u00e9s {(\u03c6 (x), y) t } t\u2208Tr ainSet et, \u00e9tant donn\u00e9 de nouvelles variables partiellement observ\u00e9es {(\u03c6 (x)) t } t\u2208TestSet , tenter de retrouver la valeur correspondante de y.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Espaces de traits 2.2.1 D\u00e9finitions", |
| "sec_num": "2.2" |
| }, |
| { |
| "text": "Nous avons \u00e9crit plus haut que les paires de mentions n'apparaissent pas identiquement distribu\u00e9es puisque, par exemple, les pronoms ne se comportent pas de la m\u00eame fa\u00e7on que les noms.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Un autre point de vue sur les hypoth\u00e8ses statistiques", |
| "sec_num": "2.2.2" |
| }, |
| { |
| "text": "Nous pouvons maintenant formuler cela de fa\u00e7on plus rigoureuse : puisque nous ne pouvons pas observer directement l'espace des objets , nous en ignorons la complexit\u00e9. En particulier, lorsque nous utilisons une projection vers un espace de traits trop petit, le classifieur ne parvient pas \u00e0 capturer la distribution correctement : les donn\u00e9es semblent trop bruit\u00e9es.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Un autre point de vue sur les hypoth\u00e8ses statistiques", |
| "sec_num": "2.2.2" |
| }, |
| { |
| "text": "Maintenant en remarquant que les anaphores pronominales ne se comportent pas de la m\u00eame mani\u00e8re que les autres anaphores, nous distinguons deux types de paires, c'est-\u00e0-dire que nous voyons la distribution des paires dans comme un m\u00e9lange de deux distributions. De ce fait, nous pourrons peut-\u00eatre s\u00e9parer les paires positives et n\u00e9gatives plus facilement si nous projetons chaque type de paires dans un espace de traits sp\u00e9cifique. Appelons ces espaces de traits 1 et 2 . Nous pouvons ou bien d\u00e9finir deux classifieurs ind\u00e9pendants sur 1 et 2 pour traiter chaque type de paires ou d\u00e9finir un seul mod\u00e8le sur un espace plus grand = 1 \u2295 2 . Si le mod\u00e8le est lin\u00e9aire, et \u00e7a sera notre cas, il se trouve que cela est \u00e9quivalent.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Un autre point de vue sur les hypoth\u00e8ses statistiques", |
| "sec_num": "2.2.2" |
| }, |
| { |
| "text": "En cons\u00e9quence, nous pouvons de fait supposer que les variables P i j sont identiquement distribu\u00e9es. Et le nouveau probl\u00e8me \u00e0 r\u00e9soudre est de trouver une projection \u03c6 qui repr\u00e9sente au mieux la distribution des donn\u00e9es (qui les rend facilement s\u00e9parables).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Un autre point de vue sur les hypoth\u00e8ses statistiques", |
| "sec_num": "2.2.2" |
| }, |
| { |
| "text": "D'un point de vue th\u00e9orique, plus la dimension de l'espace des traits est grande (par exemple la somme directe de tous les espaces de traits dont nous disposons), plus nous avons de d\u00e9tails sur la distribution des paires de mentions et plus nous pouvons esp\u00e9rer s\u00e9parer les positifs des n\u00e9gatifs avec pr\u00e9cision. En pratique, nous sommes confront\u00e9s au probl\u00e8me de raret\u00e9 des donn\u00e9es : il n'y a pas assez de donn\u00e9es pour entra\u00eener correctement un mod\u00e8le lin\u00e9aire sur un tel espace. Au final, nous cherchons un espace de traits qui se situe entre les deux extr\u00eames que constituent un espace trop grand (donn\u00e9es rares) ou trop petit (donn\u00e9es bruit\u00e9es). L'objectif principal de ce travail est de d\u00e9finir une m\u00e9thode g\u00e9n\u00e9rale pour choisir l'espace le plus ad\u00e9quat parmi un tr\u00e8s grand nombre de possibilit\u00e9s et lorsque nous ne savons pas a priori lequel peut \u00eatre le meilleur.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Un autre point de vue sur les hypoth\u00e8ses statistiques", |
| "sec_num": "2.2.2" |
| }, |
| { |
| "text": "Dans ce travail, nous essayons de s\u00e9parer lin\u00e9airement les instances positives des n\u00e9gatives dans : le mod\u00e8le apprend un vecteur param\u00e8tre w qui d\u00e9finit un hyperplan coupant l'espace en deux parties. La classe pr\u00e9dite pour la paire x avec vecteur de traits \u03c6 (x) est donn\u00e9e par :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "C (x) := si gn(w T \u2022 \u03c6 (x))", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "La propri\u00e9t\u00e9 de lin\u00e9arit\u00e9 rend \u00e9quivalentes les s\u00e9parations des instances de deux types t 1 et t 2 , dans deux mod\u00e8les ind\u00e9pendants avec pour espace de traits respectif 1 et 2 et pour param\u00e8tres w 1 et w 2 , et un mod\u00e8le simple sur 1 \u2295 2 . Pour voir pourquoi, d\u00e9finissons la projection :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "\u03c6 1 \u2295 2 (x) := \u03c6 1 (x) T 0 T si x est de type t 1 0 \u03c6 2 (x) T", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "T si x est de type t 2 et le vecteur param\u00e8tre w = w 1 w 2 \u2208 1 \u2295 2 . Nous avons alors :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "C 1 \u2295 2 (x) = C 1 (x) si x est de type t 1 C 2 (x) si x est de type t 2", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "Il faut maintenant s'assurer que cette propri\u00e9t\u00e9 est v\u00e9rifi\u00e9e lors de l'apprentissage du param\u00e8tre w. Dans ce travail nous avons utilis\u00e9 l'algorithme en ligne Passive-Aggressive pour la classification binaire (Crammer et al., 2006) . Ce mod\u00e8le est une extension du perceptron, dont l'obectif \u00e0 chaque it\u00e9ration est, d'une part de minimiser les changements apport\u00e9s au mod\u00e8le existant (d'o\u00f9 la caract\u00e9ristique \"passive\") et, d'autre part, de faire en sorte que l'exemple courant soit correctement classifi\u00e9 avec une large marge (d'o\u00f9 la caract\u00e9ristique \"aggressive\"). Plus pr\u00e9cis\u00e9ment, la mise \u00e0 jour du vecteur de poids \u00e0 chaque it\u00e9ration prend la forme suivante :", |
| "cite_spans": [ |
| { |
| "start": 209, |
| "end": 231, |
| "text": "(Crammer et al., 2006)", |
| "ref_id": "BIBREF5" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "w t+1 = arg min w\u2208 1 2 w \u2212 w t 2 tq l(w; (x t , y t )) = 0 o\u00f9 l(w; (x t , y t )) = min(0, 1 \u2212 y t (w \u2022 \u03c6 (x t )))", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": ", de sorte que lorsque = 1 \u2295 2 , le minimum si x est de type t 1 est", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "w t+1 = w 1 t+1 w 2 t et si x est de type t 2 is w t+1 = w 1 t w 2 t+1 o\u00f9 w i t+1", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "correspond aux mises \u00e0 jour dans l'espace i ind\u00e9pendamment du reste. Ce r\u00e9sultat peut \u00eatre facilement \u00e9tendu au cas de n espaces de traits. Par cons\u00e9quent, avec une s\u00e9paration d\u00e9terministe des donn\u00e9es, un mod\u00e8le sur un grand espace peut \u00eatre appris en le d\u00e9composant en mod\u00e8les ind\u00e9pendants sur des espaces plus petits.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8les lin\u00e9aires et espaces ind\u00e9pendants", |
| "sec_num": "2.2.3" |
| }, |
| { |
| "text": "Pour motiver notre approche, nous commen\u00e7ons par introduire une s\u00e9paration relativement simple des paires de mentions qui s'appuie sur les 9 mod\u00e8les obtenus en consid\u00e9rant toutes les combinaisons possibles des types grammaticaux {nominal, name, pronoun} pour les deux mentions de la paire (une s\u00e9paration fine similaire peut \u00eatre trouv\u00e9e dans (Chen et al., 2011) ).", |
| "cite_spans": [ |
| { |
| "start": 343, |
| "end": 362, |
| "text": "(Chen et al., 2011)", |
| "ref_id": "BIBREF4" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Un exemple : la s\u00e9paration par gramtype", |
| "sec_num": "2.3" |
| }, |
| { |
| "text": "Cela revient \u00e0 utiliser 9 espaces de traits diff\u00e9rents 1 , . . . , 9 pour capturer la distribution globale des paires. Avec des classifieur lin\u00e9aires, nous obtenons un seul mod\u00e8le sur l'espace de traits = 1 \u2295 \u2022 \u2022 \u2022 \u2295 9 . Nous appellerons cela le mod\u00e8le gramtype.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Un exemple : la s\u00e9paration par gramtype", |
| "sec_num": "2.3" |
| }, |
| { |
| "text": "Comme nous le verrons dans la section 5, ces mod\u00e8les s\u00e9par\u00e9s obtiennent des performances qui d\u00e9passent significativement celles d'un unique mod\u00e8le qui utilise les m\u00eames traits \u00e9l\u00e9mentaires. Mais nous voudrions d\u00e9finir une m\u00e9thode qui adapte l'espace de traits aux donn\u00e9es en choisissant elle-m\u00eame la s\u00e9paration des paires la plus appropri\u00e9e.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Un exemple : la s\u00e9paration par gramtype", |
| "sec_num": "2.3" |
| }, |
| { |
| "text": "Dans cette section, nous pr\u00e9sentons notre m\u00e9thode pour trouver automatiquement une s\u00e9paration optimale des paires de mentions. On gardera \u00e0 l'esprit que s\u00e9parer les paires dans diff\u00e9rents mod\u00e8les est la m\u00eame chose que construire un grand espace de traits dans lequel le param\u00e8tre w peut \u00eatre appris par parties dans des sous-espaces ind\u00e9pendants.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Hi\u00e9rarchisation des espaces de traits", |
| "sec_num": "3" |
| }, |
| { |
| "text": "Pour d\u00e9finir des espaces de traits suppl\u00e9mentaires, nous utilisons des indicateurs, qui sont des fonctions d\u00e9terministes sur les paires de mentions avec un nombre restreint de valeurs possibles.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Indicateurs sur les paires", |
| "sec_num": "3.1" |
| }, |
| { |
| "text": "Les indicateurs sont utilis\u00e9s pour classer les paires dans des cat\u00e9gories pr\u00e9d\u00e9finies et en bijection avec un ensemble d'espaces de traits \u00e9l\u00e9mentaires ind\u00e9pendants. Nous pouvons r\u00e9utiliser les traits du syst\u00e8me comme indicateurs, par exemple, le type grammatical ou celui des entit\u00e9s nomm\u00e9es. Nous pouvons \u00e9galement utiliser des fonctions qui ne sont pas des traits, par exemple la position approximative d'une des deux mentions dans le texte.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Indicateurs sur les paires", |
| "sec_num": "3.1" |
| }, |
| { |
| "text": "Le petit nombre de valeurs possibles pour un indicateur est requis pour des raisons pratiques : si une cat\u00e9gories de paires est trop fine, l'espace de traits associ\u00e9 souffrira de la raret\u00e9 des donn\u00e9es. Les indicateurs utilisant des distances doivent donc les approximer par des histogrammes assez grossiers. Dans nos exp\u00e9riences, le nombre de valeurs possibles ne d\u00e9passera jamais une douzaine (ce qui sera amplement suffisant pour g\u00e9n\u00e9rer assez de combinatoire). Une fa\u00e7on de r\u00e9duire la taille de l'ensemble des valeurs d'un indicateur est de le binariser, de la m\u00eame fa\u00e7on que l'on binarise un arbre (il y a plusieurs binarisations possibles). Cette op\u00e9ration produit une hi\u00e9rarchie d'indicateurs imbriqu\u00e9s, qui est exactement la structure que nous exploitons dans la suite.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Indicateurs sur les paires", |
| "sec_num": "3.1" |
| }, |
| { |
| "text": "Nous d\u00e9finissons les hi\u00e9rarchies comme des combinaisons d'indicateurs cr\u00e9ant des cat\u00e9gories de plus en plus fines de paires de mentions : \u00e9tant donn\u00e9e une suite d'indicateurs, une paire de mentions est class\u00e9e en appliquant les indicateurs successivement, chaque fois en raffinant une cat\u00e9gorie en sous-cat\u00e9gories, de la m\u00eame mani\u00e8re que dans un arbre de d\u00e9cision (chaque noeud ayant le m\u00eame nombre d'enfants que le nombre de valeurs prises par son indicateur). Nous autorisons la classification \u00e0 s'arr\u00eater avant d'appliquer le dernier indicateur, mais le comportement doit \u00eatre le m\u00eame pour toutes les instances. Ainsi une hi\u00e9rarchie est en principe un sous-arbre de l'arbre de d\u00e9cision complet qui contient des copies d'un m\u00eame indicateur \u00e0 chaque niveau.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Des hi\u00e9rarchies pour s\u00e9parer les paires", |
| "sec_num": "3.2" |
| }, |
| { |
| "text": "Si toutes les feuilles de l'arbre de d\u00e9cision ont la m\u00eame profondeur, cela correspond \u00e0 prendre le produit cart\u00e9sien des valeurs de tous les indicateurs pour indexer les cat\u00e9gories. Dans ce cas, nous parlerons de hi\u00e9rarchies-produit. Le mod\u00e8le gramtype peut \u00eatre vu comme une hi\u00e9rarchie-produit \u00e0 deux niveaux (figure 1).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Des hi\u00e9rarchies pour s\u00e9parer les paires", |
| "sec_num": "3.2" |
| }, |
| { |
| "text": "FIGURE 1 -Le mod\u00e8le gramtype vu comme une hi\u00e9rarchie-produit.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Des hi\u00e9rarchies pour s\u00e9parer les paires", |
| "sec_num": "3.2" |
| }, |
| { |
| "text": "Les hi\u00e9rarchies-produit seront le point de d\u00e9part de notre m\u00e9thode pour trouver un espace de traits qui repr\u00e9sente bien les donn\u00e9es. Maintenant, pour choisir une suite d'indicateurs appropri\u00e9s, il faut faire appel aux intuitions linguistiques et aux travaux th\u00e9oriques sur le sujet. Le syst\u00e8me trouvera lui-m\u00eame la meilleure fa\u00e7on d'utiliser ces indicateurs lorsqu'il optimisera la hi\u00e9rarchie. La suite d'indicateurs est donc un param\u00e8tre du mod\u00e8le.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Des hi\u00e9rarchies pour s\u00e9parer les paires", |
| "sec_num": "3.2" |
| }, |
| { |
| "text": "Comme nous l'avons fait pour le mod\u00e8le gramtype, nous associons un espace de traits i \u00e0 chacune des feuilles de la hi\u00e9rarchie. De la m\u00eame mani\u00e8re, la somme = i i d\u00e9finit un grand espace de traits, et le param\u00e8tre correspondant w d'un mod\u00e8le lin\u00e9aire peut \u00eatre appris en apprenant les w i dans les i .", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Lien entre les hi\u00e9rarchies et les espaces de traits", |
| "sec_num": "3.3" |
| }, |
| { |
| "text": "\u00c9tant donn\u00e9e une s\u00e9quence d'indicateurs, le nombre de hi\u00e9rarchies diff\u00e9rentes que nous pouvons d\u00e9finir est \u00e9gal au nombre de sous-arbres entiers (chaque noeud a tous ses enfants possibles ou aucun) de l'arbre complet de d\u00e9cision (chaque noeud interne ayant tous ses enfants). Le cas minimal est celui d'indicateurs bool\u00e9ens. Le nombre d'arbre binaires entiers de taille au plus n peut \u00eatre calcul\u00e9 par la r\u00e9currence suivante : T (1) = 1 et T (n + 1) = 1 + T (n) 2 . Donc T (n) \u2265 2 2 n : m\u00eame avec des petites valeurs de n, le nombre de hi\u00e9rarchies diff\u00e9rentes (ou de grand espaces de traits) d\u00e9finissables par une s\u00e9quence d'indicateurs est gigantesque (p.ex. T (10) \u2248 3.8.10 90 ).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Lien entre les hi\u00e9rarchies et les espaces de traits", |
| "sec_num": "3.3" |
| }, |
| { |
| "text": "Parmi toutes les possibilit\u00e9s pour un grand espace de traits, beaucoup ne sont pas appropri\u00e9s parce qu'avec eux les donn\u00e9es sont trop rares ou trop bruit\u00e9es dans certains sous-espaces. Nous avons besoin d'une m\u00e9thode g\u00e9n\u00e9rale pour trouver le meilleur espace sans avoir \u00e0 \u00e9num\u00e9rer et tester chacun d'eux.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Lien entre les hi\u00e9rarchies et les espaces de traits", |
| "sec_num": "3.3" |
| }, |
| { |
| "text": "Consid\u00e9rons que la s\u00e9quence d'indicateurs est fix\u00e9e, soit n sa longueur. Pour trouver le meilleur espace de traits parmi un tr\u00e8s grand nombre de possibilit\u00e9s, nous avons besoin d'un crit\u00e8re de s\u00e9lection applicable sans trop de calculs suppl\u00e9mentaires. Pour cela, nous n'\u00e9valuons l'espace de traits que localement sur les paires, c'est-\u00e0-dire sans appliquer un d\u00e9codeur \u00e0 la sortie. Nous employons trois mesures sur les r\u00e9sultats de la classification des paires : la pr\u00e9cision, le rappel et le F1-score. S\u00e9lectionner le meilleur espace pour une de ces mesures peut \u00eatre r\u00e9alis\u00e9 en utilisant des techniques de programmation dynamique. Dans nos exp\u00e9riences, nous cherchons \u00e0 optimiser le F1-score. Entra\u00eenement de la hi\u00e9rarchie : Partant de la hi\u00e9rarchie-produit, nous associons un classifieur et son propre espace de traits \u00e0 chacun des noeuds de l'arbre 3 . Les classifieurs sont alors entra\u00een\u00e9s comme suit : pour chaque instance, il existe un unique chemin de la racine vers une feuille de l'arbre complet. Chaque classifieur situ\u00e9 sur ce chemin est mis \u00e0 jour avec cette instance. Le nombre d'it\u00e9rations pour le Passive-Aggressive est fix\u00e9 (nous n'avons pas cherch\u00e9 \u00e0 optimiser ce param\u00e8tre).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Optimisation des hi\u00e9rarchies", |
| "sec_num": "3.4" |
| }, |
| { |
| "text": "Calcul des scores : Apr\u00e8s la phase d'apprentissage, nous testons tous les classifieurs sur un autre 3. Dans les exp\u00e9riences, les classifieurs utilisent une copie d'un m\u00eame espace de traits, mais pas les m\u00eames donn\u00e9es, ce qui correspond \u00e0 croiser les traits avec les cat\u00e9gories de l'arbre de d\u00e9cision. ensemble de paires de d\u00e9veloppement 4 . Une fois encore, un classifieur est test\u00e9 sur une instance seulement s'il est situ\u00e9 sur le chemin de la racine vers une feuille associ\u00e9 \u00e0 l'instance. Nous obtenons des nombres TP/FP/FN 5 sur les classifications des paires, qui suffisent pour calculer le F1-score. Comme pour l'apprentissage, les donn\u00e9es sur lesquelles un classifieur \u00e0 un noeud donn\u00e9 est \u00e9valu\u00e9 sont les m\u00eames que la r\u00e9union de toutes les donn\u00e9es utilis\u00e9es pour \u00e9valuer les classifieurs correspondant aux enfant de ce noeud. C'est ainsi que nous sommes en mesure de comparer les scores obtenus au niveau d'un noeud \u00e0 la \"r\u00e9union des scores\" obtenus au niveau de ses enfants.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Optimisation des hi\u00e9rarchies", |
| "sec_num": "3.4" |
| }, |
| { |
| "text": "D\u00e9coupage de la hi\u00e9rarchie : Pour le moment, nous avons un arbre complet avec un classifieur \u00e0 chaque noeud. Nous utilisons une technique de programmation dynamique pour calculer la meilleure hi\u00e9rarchie en coupant cet arbre et en ne gardant que les classifieurs situ\u00e9s au niveau des feuilles. L'algorithme assemble les meilleurs mod\u00e8les locaux (ou espaces de traits) pour cr\u00e9er des mod\u00e8les plus grands. Il part des feuilles pour remonter jusqu'\u00e0 la racine et coupe le sous-arbre qui commence \u00e0 un noeud \u00e0 chaque fois qu'il ne fournit pas de meilleur score que le score du noeud seul, ou au contraire il propage le score du sous-arbre lorsqu'il y a une am\u00e9lioration. Les d\u00e9tails sont donn\u00e9s dans l'algorithme 1. Discutons bri\u00e8vement la validit\u00e9 et la complexit\u00e9 de l'algorithme. Chaque noeud n'est vu que deux fois donc la complexit\u00e9 est lin\u00e9aire en le nombre de noeuds qui est au moins (2 n ). Toutefois, seulement les noeuds qui ont rencontr\u00e9 au moins une instance d'apprentissage sont utiles et il y en a (n \u00d7 k) (o\u00f9 k est la taille de l'ensemble d'apprentissage). Donc nous pouvons optimiser l'algorithme pour tourner en temps (n \u00d7 k) (qui est \u00e9galement le temps d'entra\u00eenement de la hi\u00e9rarchie). En parcourant \u00e0 l'envers la liste obtenue par le parcours en largeur de la hi\u00e9rarchie, nous sommes assur\u00e9s que chaque noeud sera trait\u00e9 apr\u00e8s ses enfants donc que le mod\u00e8le optimal sera construit de proche en proche jusqu'\u00e0 la racine. (node.children) est l'ensemble des enfants de node, et (node.score) est son score. sum-num fournit les TP/FP/FN en sommant simplement les nombres correspondants des enfants et sum-score calcule le score bas\u00e9 sur ces nouveaux nombres TP/FP/FN. La (ligne 6) coupe les enfants d'un noeud quand ils ne sont pas utilis\u00e9s pour d\u00e9finir le meilleur score. L'algorithme propage alors les meilleurs scores depuis les feuilles vers la racine, ce qui donne au final un seul score qui correspond \u00e0 celui de la meilleure hi\u00e9rarchie. Seulement les feuilles utilis\u00e9es pour calculer le meilleur score sont gard\u00e9es et elles d\u00e9finissent la meilleure hi\u00e9rarchie.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Optimisation des hi\u00e9rarchies", |
| "sec_num": "3.4" |
| }, |
| { |
| "text": "Relation entre le d\u00e9coupage et l'espace de traits global : Nous pouvons voir l'op\u00e9ration de 4. Les donn\u00e9es d'apprentissages sont coup\u00e9es en deux parties, pour l'apprentissage et pour tester la hi\u00e9rarchie. 5. \"True positives\", \"false positives\" et \"false negatives\". d\u00e9coupage comme le remplacement d'un groupe de sous-espaces par un seul sous-espace dans la somme (voir figure 2). D\u00e9couper la hi\u00e9rarchie-produit revient donc \u00e0 r\u00e9duire l'espace de traits global (l'espace somme) de mani\u00e8re optimale. Nous voyons ici le lien entre la meilleure hi\u00e9rarchie et l'espace de traits qui permet de s\u00e9parer au mieux les paires. FIGURE 2 -D\u00e9couper la hi\u00e9rarchie r\u00e9duit l'espace de traits", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Optimisation des hi\u00e9rarchies", |
| "sec_num": "3.4" |
| }, |
| { |
| "text": "Notre syst\u00e8me se compose du mod\u00e8le \u00e0 paires s\u00e9par\u00e9es obtenu en d\u00e9coupant la hi\u00e9rarchie (c'est donc un PA sur l'espace de traits somme) et un d\u00e9codeur glouton pour cr\u00e9er des clusters \u00e0 partir de sa sortie. Il est param\u00e9tr\u00e9 par le choix de la s\u00e9quence initiale d'indicateurs.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Description du syst\u00e8me", |
| "sec_num": "4" |
| }, |
| { |
| "text": "Les traits \u00e9l\u00e9mentaires Nous avons utilis\u00e9 un ensemble de traits classiques qui sont d\u00e9taill\u00e9s dans (Bengston et Roth, 2008) et (Rahman et Ng, 2011) . Nous ne listons ici que les groupes de traits : types et sous-types grammaticaux des mentions, m\u00eame cha\u00eene/sous-cha\u00eene de caract\u00e8res, apposition, copule, distance (en nombre de mentions/phrases/mots), \u00e9galit\u00e9 en genre/nombre, synonymie/hyperonymie et caract\u00e8re anim\u00e9 (en utilisant WordNet), nom de famille (\u00e0 partir de liste), types d'entit\u00e9 nomm\u00e9e, traits syntaxiques (gold parse tree) et d\u00e9tection d'anaphoricit\u00e9.", |
| "cite_spans": [ |
| { |
| "start": 100, |
| "end": 124, |
| "text": "(Bengston et Roth, 2008)", |
| "ref_id": "BIBREF2" |
| }, |
| { |
| "start": 128, |
| "end": 148, |
| "text": "(Rahman et Ng, 2011)", |
| "ref_id": "BIBREF18" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Description du syst\u00e8me", |
| "sec_num": "4" |
| }, |
| { |
| "text": "Indicateurs Comme indicateurs nous avons utilis\u00e9 : types et sous-types grammaticaux pour les mentions gauche (ant\u00e9c\u00e9dent) et droite (anaphore) selon l'ordre du texte, types d'entit\u00e9s nomm\u00e9es, un bool\u00e9en indiquant si les mentions se trouvent dans la m\u00eame phrase et un histogramme tr\u00e8s grossier de la distance en nombre de phrase. Nous avons syst\u00e9matiquement commenc\u00e9 les s\u00e9quences (de diff\u00e9rentes longueurs) par les types grammaticaux droit et gauche, en ajoutant ensuite d'autres indicateurs. Le param\u00e8tre a \u00e9t\u00e9 optimis\u00e9 par cat\u00e9gorie de document en utilisant les donn\u00e9es de d\u00e9veloppement, apr\u00e8s avoir d\u00e9cod\u00e9 la sortie du mod\u00e8le \u00e0 paires.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Description du syst\u00e8me", |
| "sec_num": "4" |
| }, |
| { |
| "text": "D\u00e9codeurs Nous avons test\u00e9 trois strat\u00e9gies gloutonnes classiques pour s\u00e9lectionner les liens et former les clusters \u00e0 partir des d\u00e9cisions du classifieur : Closest-First (fusionne les mentions avec la mention cor\u00e9f\u00e9rente \u00e0 gauche la plus proche, si elle existe) (Soon et al., 2001) , Best-first (fusionne les mentions avec la mention \u00e0 gauche qui obtient le meilleur score positif) (Ng et Cardie, 2002; Bengston et Roth, 2008) , et Aggressive-Merge (fermeture transitive sur les paires positives) (McCarthy et Lehnert, 1995) . Chacun de ces d\u00e9codeurs va typiquement de paire avec un \u00e9chantillonnage particulier lors de l'apprentissage (m\u00eame si ce n'est pas obligatoire).", |
| "cite_spans": [ |
| { |
| "start": 263, |
| "end": 282, |
| "text": "(Soon et al., 2001)", |
| "ref_id": "BIBREF19" |
| }, |
| { |
| "start": 383, |
| "end": 403, |
| "text": "(Ng et Cardie, 2002;", |
| "ref_id": "BIBREF14" |
| }, |
| { |
| "start": 404, |
| "end": 427, |
| "text": "Bengston et Roth, 2008)", |
| "ref_id": "BIBREF2" |
| }, |
| { |
| "start": 498, |
| "end": 525, |
| "text": "(McCarthy et Lehnert, 1995)", |
| "ref_id": "BIBREF11" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Description du syst\u00e8me", |
| "sec_num": "4" |
| }, |
| { |
| "text": "Par exemple, Closest-First est combin\u00e9 avec un \u00e9chantillonnage o\u00f9 sont utilis\u00e9es seulement les instances dans lesquelles la mention de gauche appara\u00eet entre le l'anaphore et l'ant\u00e9c\u00e9dent le plus proche (Soon et al., 2001) .", |
| "cite_spans": [ |
| { |
| "start": 202, |
| "end": 221, |
| "text": "(Soon et al., 2001)", |
| "ref_id": "BIBREF19" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Description du syst\u00e8me", |
| "sec_num": "4" |
| }, |
| { |
| "text": "Nous avons \u00e9valu\u00e9 le syst\u00e8me sur la partie anglaise du corpus fourni dans la CoNLL-2012 Shared Task (Pradhan et al., 2012) . Le corpus contient 7 cat\u00e9gories de documents (plus de 2k documents, 1.3M de mots). Nous avons utilis\u00e9 les donn\u00e9es d'entra\u00eenement/d\u00e9veloppement/test officielles.", |
| "cite_spans": [ |
| { |
| "start": 100, |
| "end": 122, |
| "text": "(Pradhan et al., 2012)", |
| "ref_id": "BIBREF17" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es", |
| "sec_num": "5.1" |
| }, |
| { |
| "text": "Les hi\u00e9rarchies ont \u00e9t\u00e9 entra\u00een\u00e9es par validation crois\u00e9e (10-fold) sur les donn\u00e9es d'entra\u00eenement (d\u00e9couper les hi\u00e9rarchies se fait apr\u00e8s avoir cumul\u00e9 les scores obtenus par la validation crois\u00e9e) et les param\u00e8tres ont \u00e9t\u00e9 optimis\u00e9s par cat\u00e9gorie de documents sur les donn\u00e9es de d\u00e9veloppement : la s\u00e9quence d'indicateurs obtenant le meilleur score moyen (entre MUC, B3 et CEAF) apr\u00e8s d\u00e9codage a \u00e9t\u00e9 s\u00e9lectionn\u00e9 comme param\u00e8tre optimal pour la cat\u00e9gorie. Dans les r\u00e9sultats, nous appellerons best hierarchy la hi\u00e9rarchie obtenue. Nous avons fix\u00e9 le nombre d'it\u00e9rations du Passive-Aggressive pour tous les mod\u00e8les.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Param\u00e8tres", |
| "sec_num": "5.2" |
| }, |
| { |
| "text": "Nos baselines sont le mod\u00e8le initial avec les traits \u00e9l\u00e9mentaires (single model) et le mod\u00e8le gramtype (section 2) associ\u00e9s \u00e0 chacun des d\u00e9codeurs gloutons, et \u00e9galement les versions o\u00f9 l'on utilise ces d\u00e9codeurs avec un \u00e9chantillonnage particulier.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Param\u00e8tres", |
| "sec_num": "5.2" |
| }, |
| { |
| "text": "Dans nos exp\u00e9riences, nous ne prenons en compte que les mentions gold (pas de singletons ni de non-r\u00e9f\u00e9rentiels). Cela n'est pas tout \u00e0 fait r\u00e9aliste, mais notre but est de comparer les divers mod\u00e8les \u00e0 paires locaux plut\u00f4t que de mettre en place un syst\u00e8me complet de r\u00e9solution. De plus, nous voulons \u00e9viter d'avoir \u00e0 consid\u00e9rer trop de param\u00e8tres dans nos exp\u00e9riences.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Param\u00e8tres", |
| "sec_num": "5.2" |
| }, |
| { |
| "text": "Nous utilisons les trois m\u00e9triques les plus communes, \u00e0 savoir : -MUC (Vilain et al., 1995) calcule pour chaque vrai cluster-entit\u00e9 le nombre de clusters syst\u00e8me n\u00e9cessaires pour le recouvrir. La pr\u00e9cision est cette quantit\u00e9 divis\u00e9e par la taille du vrai cluster moins un. Le rappel est obtenu en inversant les clusters vrai et pr\u00e9dits. Le F1 est la moyenne harmonique du rappel et de la pr\u00e9cision. -B 3 (Bagga et Baldwin, 1998) calcule les scores de rappel et de pr\u00e9cision pour chaque mention, \u00e0 partir de l'intersection entre le cluster syst\u00e8me et le vrai cluster pour cette mention. La pr\u00e9cision est le rapport des tailles de l'intersection et du cluster syst\u00e8me, alors que le rappel est le rapport des tailles de l'intersection et du vrai cluster. Les rappel et pr\u00e9cision globaux et le F1 sont obtenus en prenant la moyenne sur les scores des mentions.", |
| "cite_spans": [ |
| { |
| "start": 70, |
| "end": 91, |
| "text": "(Vilain et al., 1995)", |
| "ref_id": "BIBREF23" |
| }, |
| { |
| "start": 404, |
| "end": 428, |
| "text": "(Bagga et Baldwin, 1998)", |
| "ref_id": "BIBREF1" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "M\u00e9triques d'\u00e9valuation", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "-CEAF (Luo, 2005) : scores obtenus en calculant la meilleure bijection entre la vraie partition et la partition syst\u00e8me, ce qui est \u00e9quivalent \u00e0 trouver l'alignement optimal dans le graphe bipartite form\u00e9 par ces partitions. Nous utilisons la fonction de similarit\u00e9 \u03c6 4 de (Luo, 2005) .", |
| "cite_spans": [ |
| { |
| "start": 6, |
| "end": 17, |
| "text": "(Luo, 2005)", |
| "ref_id": "BIBREF10" |
| }, |
| { |
| "start": 273, |
| "end": 284, |
| "text": "(Luo, 2005)", |
| "ref_id": "BIBREF10" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "M\u00e9triques d'\u00e9valuation", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "Ces m\u00e9triques ont \u00e9t\u00e9 r\u00e9cemment utilis\u00e9es dans les Shared Task CoNLL-2011 et 2012. Par ailleurs, ces campagnes utilisent une moyenne non pond\u00e9r\u00e9e sur les F1 scores donn\u00e9s par ces trois m\u00e9triques. Comme cela est fait normalement, nous utilisons le mode micro-averaging (moyennes sur le nombre de mention) lorsque nous donnons nos scores sur l'ensemble des donn\u00e9es. ", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "M\u00e9triques d'\u00e9valuation", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "Dans cet article, nous avons d\u00e9crit une m\u00e9thode pour construire un espace de traits s\u00e9parant les paires, en exploitant la lin\u00e9arit\u00e9 et en combinant des indicateurs pour s\u00e9parer les instances. Nous avons mis en oeuvre une technique de programmation dynamique pour calculer efficacement l'espace de traits fournissant la meilleure classification des paires parmi un tr\u00e8s grand nombre de possibilit\u00e9s. Nous avons appliqu\u00e9 cette m\u00e9thode pour optimiser le mod\u00e8le \u00e0 paires dans un syst\u00e8me de r\u00e9solution de la cor\u00e9f\u00e9rence. En testant diff\u00e9rents d\u00e9codeurs gloutons, nous avons montr\u00e9 que cela apporte un gain significatif au syst\u00e8me.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conclusion et perspectives", |
| "sec_num": "6" |
| }, |
| { |
| "text": "Pour ce travail, nous n'avons consid\u00e9r\u00e9 que des strat\u00e9gies heuristiques standards pour cr\u00e9er les clusters telles que Closest-First et Best-First. Donc une extension naturelle de ce travail serait de combiner notre m\u00e9thode pour apprendre des mod\u00e8les \u00e0 paires avec des strat\u00e9gies de d\u00e9codage plus sophistiqu\u00e9es (comme Mincut ou Integer Linear Programming). Nous pourrons alors \u00e9valuer l'impact des hi\u00e9rarchies dans des conditions plus r\u00e9alistes.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conclusion et perspectives", |
| "sec_num": "6" |
| }, |
| { |
| "text": "c ATALA", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "", |
| "sec_num": null |
| } |
| ], |
| "back_matter": [ |
| { |
| "text": "Notre approche est adaptable dans le sens o\u00f9 elle peut s'appliquer avec des indicateurs tr\u00e8s vari\u00e9s. Dans le futur, nous appliquerons les hi\u00e9rarchies sur des espaces de traits plus fins pour pouvoir obtenir des optimisations plus pr\u00e9cises. Par ailleurs, \u00e9tant donn\u00e9 que la m\u00e9thode g\u00e9n\u00e9rale de d\u00e9coupage des hi\u00e9rarchies n'est pas sp\u00e9cifique \u00e0 la mod\u00e9lisation des paires, mais peut \u00eatre appliquer \u00e0 d'autres probl\u00e8me ayant des aspects bool\u00e9ens, nous projetons d'employer les hi\u00e9rarchies pour traiter d'autres t\u00e2ches TAL (p.ex. d\u00e9tection d'anaphoricit\u00e9, classification de relations de discours ou de relations temporelles).La s\u00e9lection d'espaces avec les hi\u00e9rarchies, si les indicateurs sont tous des traits du mod\u00e8le, s'apparente aux m\u00e9thodes de noyaux polynomiaux. Il serait int\u00e9ressant de les comparer. Par ailleurs, nous pourrons d\u00e9velopper cette m\u00e9thode en utilisant des crit\u00e8res statistiques pour choisir les indicateurs et construire des hi\u00e9rarchies de d\u00e9part plus complexes que les hi\u00e9rarchies-produits, \u00e0 la mani\u00e8re des arbres de d\u00e9cision. Le param\u00e9trage du syst\u00e8me sera alors facilit\u00e9.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "acknowledgement", |
| "sec_num": null |
| } |
| ], |
| "bib_entries": { |
| "BIBREF0": { |
| "ref_id": "b0", |
| "title": "Referring and accessibility", |
| "authors": [ |
| { |
| "first": "Ariel", |
| "middle": [], |
| "last": "", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "", |
| "suffix": "" |
| } |
| ], |
| "year": 1988, |
| "venue": "Journal of Linguistics", |
| "volume": "", |
| "issue": "", |
| "pages": "65--87", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "ARIEL, M. (1988). Referring and accessibility. Journal of Linguistics, pages 65-87.", |
| "links": null |
| }, |
| "BIBREF1": { |
| "ref_id": "b1", |
| "title": "Algorithms for scoring coreference chains", |
| "authors": [ |
| { |
| "first": "A", |
| "middle": [], |
| "last": "Bagga", |
| "suffix": "" |
| }, |
| { |
| "first": "B", |
| "middle": [], |
| "last": "Baldwin", |
| "suffix": "" |
| } |
| ], |
| "year": 1998, |
| "venue": "Proceedings of LREC 1998", |
| "volume": "", |
| "issue": "", |
| "pages": "563--566", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "BAGGA, A. et BALDWIN, B. (1998). Algorithms for scoring coreference chains. In Proceedings of LREC 1998, pages 563-566.", |
| "links": null |
| }, |
| "BIBREF2": { |
| "ref_id": "b2", |
| "title": "Understanding the value of features for coreference resolution", |
| "authors": [ |
| { |
| "first": "E", |
| "middle": [], |
| "last": "Bengston", |
| "suffix": "" |
| }, |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Roth", |
| "suffix": "" |
| } |
| ], |
| "year": 2008, |
| "venue": "Proceedings of EMNLP 2008", |
| "volume": "", |
| "issue": "", |
| "pages": "294--303", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "BENGSTON, E. et ROTH, D. (2008). Understanding the value of features for coreference resolution. In Proceedings of EMNLP 2008, pages 294-303, Honolulu, Hawaii.", |
| "links": null |
| }, |
| "BIBREF3": { |
| "ref_id": "b3", |
| "title": "End-to-end coreference resolution via hypergraph partitioning", |
| "authors": [ |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Cai", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Strube", |
| "suffix": "" |
| } |
| ], |
| "year": 2010, |
| "venue": "COLING", |
| "volume": "", |
| "issue": "", |
| "pages": "143--151", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "CAI, J. et STRUBE, M. (2010). End-to-end coreference resolution via hypergraph partitioning. In COLING, pages 143-151.", |
| "links": null |
| }, |
| "BIBREF4": { |
| "ref_id": "b4", |
| "title": "A unified event coreference resolution by integrating multiple resolvers", |
| "authors": [ |
| { |
| "first": "B", |
| "middle": [], |
| "last": "Chen", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Su", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [ |
| "J" |
| ], |
| "last": "Pan", |
| "suffix": "" |
| }, |
| { |
| "first": "C", |
| "middle": [ |
| "L" |
| ], |
| "last": "Tan", |
| "suffix": "" |
| } |
| ], |
| "year": 2011, |
| "venue": "Asian Federation of Natural Language Processing", |
| "volume": "", |
| "issue": "", |
| "pages": "102--110", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "CHEN, B., SU, J., PAN, S. J. et TAN, C. L. (2011). A unified event coreference resolution by integrating multiple resolvers. In Proceedings of 5th IJCNLP, pages 102-110. Asian Federation of Natural Language Processing.", |
| "links": null |
| }, |
| "BIBREF5": { |
| "ref_id": "b5", |
| "title": "Online passiveaggressive algorithms", |
| "authors": [ |
| { |
| "first": "K", |
| "middle": [], |
| "last": "Crammer", |
| "suffix": "" |
| }, |
| { |
| "first": "O", |
| "middle": [], |
| "last": "Dekel", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Keshet", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Shalev-Shwartz", |
| "suffix": "" |
| }, |
| { |
| "first": "Y", |
| "middle": [], |
| "last": "Singer", |
| "suffix": "" |
| } |
| ], |
| "year": 2006, |
| "venue": "Journal of Machine Learning Research", |
| "volume": "7", |
| "issue": "", |
| "pages": "551--585", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "CRAMMER, K., DEKEL, O., KESHET, J., SHALEV-SHWARTZ, S. et SINGER, Y. (2006). Online passive- aggressive algorithms. Journal of Machine Learning Research, 7:551-585.", |
| "links": null |
| }, |
| "BIBREF6": { |
| "ref_id": "b6", |
| "title": "Specialized models and ranking for coreference resolution", |
| "authors": [ |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Denis", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Baldridge", |
| "suffix": "" |
| } |
| ], |
| "year": 2008, |
| "venue": "Proceedings of EMNLP 2008", |
| "volume": "", |
| "issue": "", |
| "pages": "660--669", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "DENIS, P. et BALDRIDGE, J. (2008). Specialized models and ranking for coreference resolution. In Proceedings of EMNLP 2008, pages 660-669, Honolulu, Hawaii.", |
| "links": null |
| }, |
| "BIBREF7": { |
| "ref_id": "b7", |
| "title": "Global joint models for coreference resolution and named entity classification", |
| "authors": [ |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Denis", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Baldridge", |
| "suffix": "" |
| } |
| ], |
| "year": 2009, |
| "venue": "Procesamiento del Lenguaje Natural", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "DENIS, P. et BALDRIDGE, J. (2009). Global joint models for coreference resolution and named entity classification. Procesamiento del Lenguaje Natural, 43.", |
| "links": null |
| }, |
| "BIBREF8": { |
| "ref_id": "b8", |
| "title": "The (non)utility of predicate-argument frequencies for pronoun interpretation", |
| "authors": [ |
| { |
| "first": "A", |
| "middle": [], |
| "last": "Kehler", |
| "suffix": "" |
| }, |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Appelt", |
| "suffix": "" |
| }, |
| { |
| "first": "L", |
| "middle": [], |
| "last": "Taylor", |
| "suffix": "" |
| }, |
| { |
| "first": "A", |
| "middle": [], |
| "last": "Simma", |
| "suffix": "" |
| } |
| ], |
| "year": 2004, |
| "venue": "Proceedings of HLT-NAACL", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "KEHLER, A., APPELT, D., TAYLOR, L. et SIMMA, A. (2004). The (non)utility of predicate-argument frequencies for pronoun interpretation. In Proceedings of HLT-NAACL 2004.", |
| "links": null |
| }, |
| "BIBREF9": { |
| "ref_id": "b9", |
| "title": "Enforcing coherence on coreference sets", |
| "authors": [ |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Klenner", |
| "suffix": "" |
| } |
| ], |
| "year": 2007, |
| "venue": "Proceedings of RANLP", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "KLENNER, M. (2007). Enforcing coherence on coreference sets. In Proceedings of RANLP 2007.", |
| "links": null |
| }, |
| "BIBREF10": { |
| "ref_id": "b10", |
| "title": "On coreference resolution performance metrics", |
| "authors": [ |
| { |
| "first": "X", |
| "middle": [], |
| "last": "Luo", |
| "suffix": "" |
| } |
| ], |
| "year": 2005, |
| "venue": "Proceedings of HLT-NAACL 2005", |
| "volume": "", |
| "issue": "", |
| "pages": "25--32", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "LUO, X. (2005). On coreference resolution performance metrics. In Proceedings of HLT- NAACL 2005, pages 25-32.", |
| "links": null |
| }, |
| "BIBREF11": { |
| "ref_id": "b11", |
| "title": "Using decision trees for coreference resolution", |
| "authors": [ |
| { |
| "first": "J", |
| "middle": [ |
| "F" |
| ], |
| "last": "Mccarthy", |
| "suffix": "" |
| }, |
| { |
| "first": "W", |
| "middle": [ |
| "G" |
| ], |
| "last": "Lehnert", |
| "suffix": "" |
| } |
| ], |
| "year": 1995, |
| "venue": "IJCAI", |
| "volume": "", |
| "issue": "", |
| "pages": "1050--1055", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "MCCARTHY, J. F. et LEHNERT, W. G. (1995). Using decision trees for coreference resolution. In IJCAI, pages 1050-1055.", |
| "links": null |
| }, |
| "BIBREF12": { |
| "ref_id": "b12", |
| "title": "Coreference for NLP applications", |
| "authors": [ |
| { |
| "first": "T", |
| "middle": [], |
| "last": "Morton", |
| "suffix": "" |
| } |
| ], |
| "year": 2000, |
| "venue": "Proceedings of ACL 2000", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "MORTON, T. (2000). Coreference for NLP applications. In Proceedings of ACL 2000, Hong Kong.", |
| "links": null |
| }, |
| "BIBREF13": { |
| "ref_id": "b13", |
| "title": "Supervised ranking for pronoun resolution : Some recent improvements", |
| "authors": [ |
| { |
| "first": "V", |
| "middle": [], |
| "last": "Ng", |
| "suffix": "" |
| } |
| ], |
| "year": 2005, |
| "venue": "Proceedings of AAAI 2005", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "NG, V. (2005). Supervised ranking for pronoun resolution : Some recent improvements. In Proceedings of AAAI 2005.", |
| "links": null |
| }, |
| "BIBREF14": { |
| "ref_id": "b14", |
| "title": "Improving machine learning approaches to coreference resolution", |
| "authors": [ |
| { |
| "first": "V", |
| "middle": [], |
| "last": "Ng", |
| "suffix": "" |
| }, |
| { |
| "first": "C", |
| "middle": [], |
| "last": "Cardie", |
| "suffix": "" |
| } |
| ], |
| "year": 2002, |
| "venue": "Proceedings of ACL 2002", |
| "volume": "", |
| "issue": "", |
| "pages": "104--111", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "NG, V. et CARDIE, C. (2002). Improving machine learning approaches to coreference resolution. In Proceedings of ACL 2002, pages 104-111.", |
| "links": null |
| }, |
| "BIBREF15": { |
| "ref_id": "b15", |
| "title": "Bestcut : A graph algorithm for coreference resolution", |
| "authors": [ |
| { |
| "first": "C", |
| "middle": [], |
| "last": "Nicolae", |
| "suffix": "" |
| }, |
| { |
| "first": "G", |
| "middle": [], |
| "last": "Nicolae", |
| "suffix": "" |
| } |
| ], |
| "year": 2006, |
| "venue": "EMNLP", |
| "volume": "", |
| "issue": "", |
| "pages": "275--283", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "NICOLAE, C. et NICOLAE, G. (2006). Bestcut : A graph algorithm for coreference resolution. In EMNLP, pages 275-283.", |
| "links": null |
| }, |
| "BIBREF16": { |
| "ref_id": "b16", |
| "title": "Exploiting semantic role labeling, WordNet and Wikipedia for coreference resolution", |
| "authors": [ |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Ponzetto", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Strube", |
| "suffix": "" |
| } |
| ], |
| "year": 2006, |
| "venue": "Proceedings of the HLT 2006", |
| "volume": "", |
| "issue": "", |
| "pages": "192--199", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "PONZETTO, S. et STRUBE, M. (2006). Exploiting semantic role labeling, WordNet and Wikipedia for coreference resolution. In Proceedings of the HLT 2006, pages 192-199, New York City, N.Y.", |
| "links": null |
| }, |
| "BIBREF17": { |
| "ref_id": "b17", |
| "title": "Conll-2012 shared task : Modeling multilingual unrestricted coreference in ontonotes", |
| "authors": [ |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Pradhan", |
| "suffix": "" |
| }, |
| { |
| "first": "A", |
| "middle": [], |
| "last": "Moschitti", |
| "suffix": "" |
| }, |
| { |
| "first": "N", |
| "middle": [], |
| "last": "Xue", |
| "suffix": "" |
| }, |
| { |
| "first": "O", |
| "middle": [], |
| "last": "Uryupina", |
| "suffix": "" |
| }, |
| { |
| "first": "Y", |
| "middle": [], |
| "last": "Zhang", |
| "suffix": "" |
| } |
| ], |
| "year": 2012, |
| "venue": "Joint Conference on EMNLP and CoNLL -Shared Task", |
| "volume": "", |
| "issue": "", |
| "pages": "1--40", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "PRADHAN, S., MOSCHITTI, A., XUE, N., URYUPINA, O. et ZHANG, Y. (2012). Conll-2012 shared task : Modeling multilingual unrestricted coreference in ontonotes. In Joint Conference on EMNLP and CoNLL -Shared Task, pages 1-40, Jeju Island, Korea. Association for Computational Linguistics.", |
| "links": null |
| }, |
| "BIBREF18": { |
| "ref_id": "b18", |
| "title": "Narrowing the modeling gap : a cluster-ranking approach to coreference resolution", |
| "authors": [ |
| { |
| "first": "A", |
| "middle": [], |
| "last": "Rahman", |
| "suffix": "" |
| }, |
| { |
| "first": "V", |
| "middle": [], |
| "last": "Ng", |
| "suffix": "" |
| } |
| ], |
| "year": 2011, |
| "venue": "J. Artif. Int. Res", |
| "volume": "40", |
| "issue": "1", |
| "pages": "469--521", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "RAHMAN, A. et NG, V. (2011). Narrowing the modeling gap : a cluster-ranking approach to coreference resolution. J. Artif. Int. Res., 40(1):469-521.", |
| "links": null |
| }, |
| "BIBREF19": { |
| "ref_id": "b19", |
| "title": "A machine learning approach to coreference resolution of noun phrases", |
| "authors": [ |
| { |
| "first": "W", |
| "middle": [ |
| "M" |
| ], |
| "last": "Soon", |
| "suffix": "" |
| }, |
| { |
| "first": "H", |
| "middle": [ |
| "T" |
| ], |
| "last": "Ng", |
| "suffix": "" |
| }, |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Lim", |
| "suffix": "" |
| } |
| ], |
| "year": 2001, |
| "venue": "Computational Linguistics", |
| "volume": "27", |
| "issue": "4", |
| "pages": "521--544", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "SOON, W. M., NG, H. T. et LIM, D. (2001). A machine learning approach to coreference resolution of noun phrases. Computational Linguistics, 27(4):521-544.", |
| "links": null |
| }, |
| "BIBREF20": { |
| "ref_id": "b20", |
| "title": "Linguistically motivated sample selection for coreference resolution", |
| "authors": [ |
| { |
| "first": "O", |
| "middle": [], |
| "last": "Uryupina", |
| "suffix": "" |
| } |
| ], |
| "year": 2004, |
| "venue": "Proceedings of DAARC 2004", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "URYUPINA, O. (2004). Linguistically motivated sample selection for coreference resolution. In Proceedings of DAARC 2004, Furnas.", |
| "links": null |
| }, |
| "BIBREF21": { |
| "ref_id": "b21", |
| "title": "Disambiguation and filtering methods in using web knowledge for coreference resolution", |
| "authors": [ |
| { |
| "first": "O", |
| "middle": [], |
| "last": "Uryupina", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Poesio", |
| "suffix": "" |
| }, |
| { |
| "first": "C", |
| "middle": [], |
| "last": "Giuliano", |
| "suffix": "" |
| }, |
| { |
| "first": "K", |
| "middle": [], |
| "last": "Tymoshenko", |
| "suffix": "" |
| } |
| ], |
| "year": 2011, |
| "venue": "FLAIRS Conference", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "URYUPINA, O., POESIO, M., GIULIANO, C. et TYMOSHENKO, K. (2011). Disambiguation and filtering methods in using web knowledge for coreference resolution. In FLAIRS Conference.", |
| "links": null |
| }, |
| "BIBREF22": { |
| "ref_id": "b22", |
| "title": "Coreference systems based on kernels methods", |
| "authors": [ |
| { |
| "first": "Y", |
| "middle": [], |
| "last": "Versley", |
| "suffix": "" |
| }, |
| { |
| "first": "A", |
| "middle": [], |
| "last": "Moschitti", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Poesio", |
| "suffix": "" |
| }, |
| { |
| "first": "X", |
| "middle": [], |
| "last": "Yang", |
| "suffix": "" |
| } |
| ], |
| "year": 2008, |
| "venue": "COLING", |
| "volume": "", |
| "issue": "", |
| "pages": "961--968", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "VERSLEY, Y., MOSCHITTI, A., POESIO, M. et YANG, X. (2008). Coreference systems based on kernels methods. In COLING, pages 961-968.", |
| "links": null |
| }, |
| "BIBREF23": { |
| "ref_id": "b23", |
| "title": "A model-theoretic coreference scoring scheme", |
| "authors": [ |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Vilain", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Burger", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Aberdeen", |
| "suffix": "" |
| }, |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Connolly", |
| "suffix": "" |
| }, |
| { |
| "first": "L", |
| "middle": [], |
| "last": "Hirschman", |
| "suffix": "" |
| } |
| ], |
| "year": 1995, |
| "venue": "Proceedings fo the 6th Message Understanding Conference (MUC-6)", |
| "volume": "", |
| "issue": "", |
| "pages": "45--52", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "VILAIN, M., BURGER, J., ABERDEEN, J., CONNOLLY, D. et HIRSCHMAN, L. (1995). A model-theoretic coreference scoring scheme. In Proceedings fo the 6th Message Understanding Conference (MUC-6), pages 45-52, San Mateo, CA. Morgan Kaufmann.", |
| "links": null |
| } |
| }, |
| "ref_entries": { |
| "FIGREF0": { |
| "num": null, |
| "text": "list \u2190 list of nodes given by breadth-first search for node in reversed list do 2 if node.children = then 3 if sum-score(node.children) > node.score then 4 node.TP/FP/FN \u2190 sum-num(node.children)", |
| "type_str": "figure", |
| "uris": null |
| }, |
| "TABREF0": { |
| "content": "<table><tr><td/><td/><td>MUC</td><td/><td/><td>B 3</td><td/><td/><td>CEAF</td><td/><td/></tr><tr><td/><td>P</td><td>R</td><td>F1</td><td>P</td><td>R</td><td>F1</td><td>P</td><td>R</td><td>F1</td><td>Mean</td></tr><tr><td>Soon</td><td>79.49</td><td>93.72</td><td>86.02</td><td>26.23</td><td>89.43</td><td>40.56</td><td>49.74</td><td>19.92</td><td>28.44</td><td>51.67</td></tr><tr><td>single model</td><td>78.95</td><td>75.15</td><td>77.0</td><td>51.88</td><td>68.42</td><td>59.01</td><td>37.79</td><td>43.89</td><td>40.61</td><td>58.87</td></tr><tr><td>gramtype</td><td>80.5</td><td>71.12</td><td>75.52</td><td>66.39</td><td>61.04</td><td>63.6</td><td>43.11</td><td>59.93</td><td>50.15</td><td>63.09</td></tr><tr><td>best hierarchy</td><td>83.23</td><td>73.72</td><td>78.19</td><td>73.5</td><td>67.09</td><td>70.15</td><td>47.3</td><td>60.89</td><td>53.24</td><td>67.19</td></tr></table>", |
| "html": null, |
| "type_str": "table", |
| "text": "Les r\u00e9sultats obtenus par le syst\u00e8me sont repris dans les tableaux 1, 2 et 3. Les \u00e9chantillonnages originaux associ\u00e9s aux d\u00e9codeurs Closest-First et Best-First sont d\u00e9sign\u00e9s par Soon et NgCardie. single model correspond \u00e0 un mod\u00e8le simple entra\u00een\u00e9 sans \u00e9chantillonnage sp\u00e9cifique. Malgr\u00e9 l'utilisation de d\u00e9codeurs gloutons, nous pouvons observer sur la sortie un effet positif tr\u00e8s significatif sur la s\u00e9paration des paires dans les mod\u00e8les locaux. L'utilisation de mod\u00e8les distincts plut\u00f4t qu'un seul mod\u00e8le a un effet positif sur le score moyen, avec un incr\u00e9ment de 6.4 \u00e0 15.5 en fonction du d\u00e9codeur. Il est int\u00e9ressant de constater qu'ind\u00e9pendamment du d\u00e9codeur utilis\u00e9, le mod\u00e8le gramtype surpasse toujours le single model, et est lui-m\u00eame d\u00e9pass\u00e9 par le mod\u00e8le best hierarchy. Nous avons observ\u00e9 des variations dans le param\u00e8tre optimal des hi\u00e9rarchies, toutefois un param\u00e8tre fr\u00e9quemment bien class\u00e9 \u00e9tait : gramtype droite \u2192 gramtype gauche \u2192 m\u00eame phrase \u2192 type d'entit\u00e9 nomm\u00e9e droite.", |
| "num": null |
| }, |
| "TABREF1": { |
| "content": "<table><tr><td/><td/><td>MUC</td><td/><td/><td>B 3</td><td/><td/><td>CEAF</td><td/><td/></tr><tr><td/><td>P</td><td>R</td><td>F1</td><td>P</td><td>R</td><td>F1</td><td>P</td><td>R</td><td>F1</td><td>Mean</td></tr><tr><td>NgCardie</td><td>81.02</td><td>93.82</td><td>86.95</td><td>23.33</td><td>93.92</td><td>37.37</td><td>40.31</td><td>18.97</td><td>25.8</td><td>50.04</td></tr><tr><td>single model</td><td>79.22</td><td>73.75</td><td>76.39</td><td>40.93</td><td>75.48</td><td>53.08</td><td>30.52</td><td>37.59</td><td>33.69</td><td>54.39</td></tr><tr><td>gramtype</td><td>77.21</td><td>65.89</td><td>71.1</td><td>49.77</td><td>67.19</td><td>57.18</td><td>32.08</td><td>47.83</td><td>38.41</td><td>55.56</td></tr><tr><td>best hierarchy</td><td>78.11</td><td>69.82</td><td>73.73</td><td>53.62</td><td>70.86</td><td>61.05</td><td>35.04</td><td>46.67</td><td>40.03</td><td>58.27</td></tr></table>", |
| "html": null, |
| "type_str": "table", |
| "text": "Scores sur CoNLL-2012 avec mentions gold, d\u00e9codeur Closest-First.En regardant les trois diff\u00e9rentes m\u00e9triques, nous constatons que globalement, la s\u00e9paration des paires am\u00e9liore B 3 et CEAF (mais pas toujours MUC, \u00e0 cause du tr\u00e8s gros rappel du single model) apr\u00e8s le d\u00e9codage de la sortie : gramtype donne un meilleur score que le mod\u00e8le simple, et best hierarchy donne les plus hauts B 3 , CEAF et scores moyens.La meilleure combinaison de classifieur-d\u00e9codeur r\u00e9alise un score de 67.19, ce qui la placerait au niveau des meilleurs syst\u00e8mes qui ont pris part \u00e0 la CoNLL-2012 Shared Task sur la configuration gold mentions (moyenne \u00e0 66.41, le premier isol\u00e9 \u00e0 77, les meilleurs suivants \u00e0 68-69).", |
| "num": null |
| }, |
| "TABREF2": { |
| "content": "<table><tr><td>TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne</td></tr></table>", |
| "html": null, |
| "type_str": "table", |
| "text": "Score sur CoNLL-2012 avec mentions gold, d\u00e9codeur Best-First.", |
| "num": null |
| }, |
| "TABREF3": { |
| "content": "<table/>", |
| "html": null, |
| "type_str": "table", |
| "text": "Scores sur CoNLL-2012 avec mentions gold, d\u00e9codeur Aggressive-Merge.", |
| "num": null |
| } |
| } |
| } |
| } |