| { |
| "paper_id": "F14-1004", |
| "header": { |
| "generated_with": "S2ORC 1.0.0", |
| "date_generated": "2023-01-19T10:22:27.230232Z" |
| }, |
| "title": "Utilisation de repr\u00e9sentations de mots pour l'\u00e9tiquetage de r\u00f4les s\u00e9mantiques suivant FrameNet", |
| "authors": [ |
| { |
| "first": "William", |
| "middle": [], |
| "last": "L\u00e9chelle", |
| "suffix": "", |
| "affiliation": { |
| "laboratory": "DIRO", |
| "institution": "Universit\u00e9 de Montr\u00e9al", |
| "location": {} |
| }, |
| "email": "lechellw@iro.umontreal.ca" |
| }, |
| { |
| "first": "Philippe", |
| "middle": [], |
| "last": "Langlais", |
| "suffix": "", |
| "affiliation": { |
| "laboratory": "DIRO", |
| "institution": "Universit\u00e9 de Montr\u00e9al", |
| "location": {} |
| }, |
| "email": "" |
| } |
| ], |
| "year": "", |
| "venue": null, |
| "identifiers": {}, |
| "abstract": "D'apr\u00e8s la s\u00e9mantique des cadres de Fillmore, les mots prennent leur sens par rapport au contexte \u00e9v\u00e9nementiel ou situationnel dans lequel ils s'inscrivent. FrameNet, une ressource lexicale pour l'anglais, d\u00e9finit environ 1000 cadres conceptuels couvrant l'essentiel des contextes possibles. Dans un cadre conceptuel, un pr\u00e9dicat appelle des arguments pour remplir les diff\u00e9rents r\u00f4les s\u00e9mantiques associ\u00e9s au cadre. Nous cherchons \u00e0 annoter automatiquement ces r\u00f4les s\u00e9mantiques, \u00e9tant donn\u00e9 le cadre s\u00e9mantique et le pr\u00e9dicat, \u00e0 l'aide de mod\u00e8les \u00e0 maximum d'entropie. Nous montrons que l'utilisation de repr\u00e9sentations distribu\u00e9es de mots pour situer s\u00e9mantiquement les arguments apporte une information compl\u00e9mentaire au mod\u00e8le, et am\u00e9liore notamment l'\u00e9tiquetage de cadres avec peu d'exemples d'entrainement.", |
| "pdf_parse": { |
| "paper_id": "F14-1004", |
| "_pdf_hash": "", |
| "abstract": [ |
| { |
| "text": "D'apr\u00e8s la s\u00e9mantique des cadres de Fillmore, les mots prennent leur sens par rapport au contexte \u00e9v\u00e9nementiel ou situationnel dans lequel ils s'inscrivent. FrameNet, une ressource lexicale pour l'anglais, d\u00e9finit environ 1000 cadres conceptuels couvrant l'essentiel des contextes possibles. Dans un cadre conceptuel, un pr\u00e9dicat appelle des arguments pour remplir les diff\u00e9rents r\u00f4les s\u00e9mantiques associ\u00e9s au cadre. Nous cherchons \u00e0 annoter automatiquement ces r\u00f4les s\u00e9mantiques, \u00e9tant donn\u00e9 le cadre s\u00e9mantique et le pr\u00e9dicat, \u00e0 l'aide de mod\u00e8les \u00e0 maximum d'entropie. Nous montrons que l'utilisation de repr\u00e9sentations distribu\u00e9es de mots pour situer s\u00e9mantiquement les arguments apporte une information compl\u00e9mentaire au mod\u00e8le, et am\u00e9liore notamment l'\u00e9tiquetage de cadres avec peu d'exemples d'entrainement.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Abstract", |
| "sec_num": null |
| } |
| ], |
| "body_text": [ |
| { |
| "text": "D\u00e9velopp\u00e9 depuis 1997 \u00e0 l'universit\u00e9 Berkeley, le projet FrameNet 1 d\u00e9finit un peu plus de 1000 cadres s\u00e9mantiques, visant \u00e0 couvrir tous les \u00e9v\u00e8nements ou tous les contextes possibles, au niveau le plus g\u00e9n\u00e9ral. Des r\u00f4les s\u00e9mantiques sont d\u00e9finis par chaque cadre, et ces r\u00f4les qui seront remplis dans le texte par des arguments (segments de phrase). Les diff\u00e9rents cadres s\u00e9mantiques sont reli\u00e9s par des relations de cadre \u00e0 cadre (par exemple, un cadre peut \u00eatre un sous-cas d'un autre plus g\u00e9n\u00e9ral), pour former une hi\u00e9rarchie. Par exemple, le cadre Communication est d\u00e9crit comme suit (les r\u00f4les sont mis en \u00e9vidence) :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Un Communicateur transmet un Message \u00e0 un Destinataire ; le Sujet et Medium de la communication pouvant aussi \u00eatre exprim\u00e9s. Ce cadre ne sp\u00e9cifie pas la m\u00e9thode de communication (oral, \u00e9crit, geste, etc.) . Les cadres qui h\u00e9ritent de ce cadre g\u00e9n\u00e9ral de Communication peuvent ajouter des d\u00e9tails au Medium de diff\u00e9rentes fa\u00e7ons (en fran\u00e7ais, \u00e0 la radio, dans une lettre), ou \u00e0 la Fa\u00e7on de communiquer (bavardage, diatribe, cri, murmure).", |
| "cite_spans": [ |
| { |
| "start": 178, |
| "end": 204, |
| "text": "(oral, \u00e9crit, geste, etc.)", |
| "ref_id": null |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "La figure 1 montre un exemple d'annotation des diff\u00e9rents cadres pr\u00e9sents dans une phrase, avec les arguments remplissant les r\u00f4les exprim\u00e9s dans ce cadre. -Identifier les pr\u00e9dicats (dits mots \"cibles\") qui appellent des cadres. Dans la figure 1, les cibles (bells, ring, enough, et there are) sont soulign\u00e9es en gras. -D\u00e9sambiguiser le cadre appel\u00e9 par chaque cible (Noise_makers, Cause_to_make_noise, etc.) -D\u00e9terminer la position des arguments qui remplissent les r\u00f4les s\u00e9mantiques (ou d\u00e9terminer, pour un syntagme candidat, s'il est un argument ou non). -\u00c9tiqueter chacun des arguments avec le r\u00f4le qu'il remplit. Nous nous sommes concentr\u00e9s sur cette derni\u00e8re \u00e9tape. Pour chaque occurence d'un cadre dans une phrase, on consid\u00e8re donc connus : -la cible ; -le cadre pr\u00e9cis \u00e9voqu\u00e9 par la cible ; -la position de chacun des arguments.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "FrameNet fournit 2 ensembles de donn\u00e9es 2 . D'une part, environ 170 000 phrases sont extraites du British National Corpus pour exemplifier l'usage de chaque cadre s\u00e9mantique. Dans ce corpus, un seul cadre par phrase est annot\u00e9. D'autre part, environ 6000 phrases (provenant de 78 documents) sont compl\u00e8tement annot\u00e9es, avec plusieurs cadres par phrase, et totalisent environ 24 000 instances de cadres. Ce deuxi\u00e8me corpus est plus repr\u00e9sentatif du texte qu'aurait \u00e0 traiter une application concr\u00e8te et est plus adapt\u00e9 \u00e0 l'entrainement de syst\u00e8mes automatiques, mais est malheureusement beaucoup plus restreint.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Nous avons utilis\u00e9 les deux corpus de donn\u00e9es de FrameNet, le texte compl\u00e8tement annot\u00e9, et une partie des phrases exemples 3 . Au total, l'ensemble d'entrainement comporte 106 926 cadres, avec 1,45 argument par cadre.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Un cadre s\u00e9mantique qui appara\u00eet dans le jeu de test appara\u00eet en moyenne 300 fois dans l'ensemble d'entrainement (appel\u00e9 par diff\u00e9rents pr\u00e9dicats, avec diff\u00e9rents arguments). En pratique, certains cadres sont beaucoup plus repr\u00e9sent\u00e9s que d'autres, ce sur quoi on reviendra en section 5.4. L'ensemble de test est le m\u00eame que celui de (Das & Smith, 2011), soit 23 documents compl\u00e8tement annot\u00e9s. Il comporte 4456 instances de cadres, soit 7209 arguments \u00e0 classifier (1,6 argument par cadre en moyenne).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Pour permettre une certaine comparaison \u00e0 l'\u00e9tat de l'art, la performance rapport\u00e9e pour chacune des m\u00e9thodes \u00e9valu\u00e9es est la micro-pr\u00e9cision sur cet ensemble d'arguments, c'est-\u00e0-dire la proportion d'arguments dont le r\u00f4le est correctement pr\u00e9dit par le mod\u00e8le, tous cadres confondus. Une autre mesure de performance pertinente est la macro-pr\u00e9cision, au sens de la performance moyenne de chacun des cadres (voir section 5.4).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Formellement, si on note n(f ) le nombre d'arguments de l'ensemble de test \u00e0 annoter pour le cadre f, et c(f ) le nombre d'arguments annot\u00e9s correctement par le mod\u00e8le du cadre f, p(f ) = c(f ) n(f ) est la proportion d'arguments annot\u00e9s correctement pour le cadre f. Nos m\u00e9triques s'\u00e9crivent alors :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "micro-pr\u00e9cision = f \u2208cadres c(f ) f \u2208cadres n(f ) macro-pr\u00e9cision = moyenne f \u2208cadres ( p(f ) ) = f \u2208cadres c(f ) n(f ) nb cadres 3 \u00c9tat de l'art", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Plusieurs auteurs se sont attach\u00e9s \u00e0 identifier les arguments et leurs r\u00f4les pour les cadres s\u00e9mantiques de FrameNet. Les premiers, Gildea & Jurafsky (2000) utilisent une cascade de mod\u00e8les (backoff ) s'appuyant sur les comptes de caract\u00e9ristiques des noeuds de l'arbre syntaxique correspondant aux arguments. Leur mod\u00e8le final obtient 76.9% de pr\u00e9cision sur leur ensemble de test, pour la t\u00e2che d'\u00e9tiquetage des r\u00f4les. Leurs donn\u00e9es \u00e9taient les phrases exemples d'une version pr\u00e9liminaire de FrameNet comportant 67 cadres, soit 49 013 phrases annot\u00e9es avec un cadre par phrase.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "De leur travail ressort un \u00e9quilibre entre la couverture de chaque mod\u00e8le et sa pr\u00e9cision : le mod\u00e8le n'utilisant que la cible couvre 100% des cas mais est seulement pr\u00e9cis \u00e0 41%. \u00c0 l'inverse, les mots de t\u00eate constituent une caract\u00e9ristique des plus fiables pour d\u00e9terminer le r\u00f4le d'un argument : le mod\u00e8le utilisant uniquement la cible et le mot de t\u00eate pour classifier un r\u00f4le obtient 86,7% de pr\u00e9cision, mais ne couvre que 56% des donn\u00e9es. Pour augmenter la couverture de ce mod\u00e8le, les auteurs font une exp\u00e9rience pour grouper les noms du lexique (avec la technique de clustering d\u00e9crite dans Lin 1998), ce qui leur permet d'obtenir un mod\u00e8le couvrant 98% des mots de t\u00eate nominaux, et pr\u00e9cis \u00e0 79.7%. Finalement, cela ajoute 0,8% de pr\u00e9cision \u00e0 leur mod\u00e8le global, sur l'ensemble de d\u00e9veloppement.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Notre \u00e9tude vise \u00e0 \u00eatre la continuation de cette exp\u00e9rience, en utilisant les repr\u00e9sentations distribu\u00e9es de mots pour g\u00e9n\u00e9raliser les mots du lexique.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Cette id\u00e9e a \u00e9t\u00e9 employ\u00e9e r\u00e9cemment dans des exp\u00e9riences sur le FrameNet su\u00e9dois naissant : Johansson et al. (2012) utilisent le clustering lexical de Brown (Brown et al. 1992) pour augmenter la couverture de caract\u00e9ristiques lexicales (pour la classification de r\u00f4les), et rapportent une l\u00e9g\u00e8re am\u00e9lioration de performance.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "En 2003, Fleischman et al. ont \u00e9t\u00e9 les premiers \u00e0 utiliser des mod\u00e8les \u00e0 maximum d'entropie pour l'identification du r\u00f4le des arguments, en obtenant des r\u00e9sultats proches de ceux de Gildea et Jurafsky (76% de pr\u00e9cision avec des donn\u00e9es obtenues automatiquement), sur des donn\u00e9es comparables (40 000 phrases exemples de FrameNet). SEMAFOR (Das et al. 2010), d\u00e9velopp\u00e9 depuis 2010 \u00e0 l'universit\u00e9 Carnegie-Mellon, est un syst\u00e8me complet d'annotation s\u00e9mantique automatique. Pour r\u00e9soudre notre t\u00e2che, ce syst\u00e8me d\u00e9termine, pour chaque r\u00f4le s\u00e9mantique, l'emplacement de l'argument qui le comble (ou aucun argument si le r\u00f4le n'est pas exprim\u00e9). Ses pr\u00e9dictions sont pr\u00e9cises (88%), mais avec un plus faible rappel (75%), c'est-\u00e0-dire que le mod\u00e8le estime que certains r\u00f4les ne sont pas exprim\u00e9s, alors qu'ils le sont. Notre syst\u00e8me suit la m\u00e9thode plus courante (de Johansson & Nugues 2007) qui consiste \u00e0 d\u00e9tecter d'abord les arguments, pour ensuite les classifier en leurs r\u00f4les respectifs.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "\u00c9tant donn\u00e9s la cible, le cadre, et les positions exactes des arguments, SEMAFOR obtient un score F 1 de 81%. Leurs exp\u00e9riences utilisent la version 1.3 de FrameNet, semblable \u00e0 nos propres donn\u00e9es.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Donn\u00e9es et \u00e9valuation", |
| "sec_num": "2" |
| }, |
| { |
| "text": "D'apr\u00e8s Turian et al. 2010, l'utilisation de repr\u00e9sentations distribu\u00e9es de mots -apprises de mani\u00e8re non supervis\u00e9e -est une m\u00e9thode simple et g\u00e9n\u00e9rale pour am\u00e9liorer la pr\u00e9cision de syst\u00e8mes d'apprentissage supervis\u00e9 pour le traitement des langues.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Repr\u00e9sentations de mots", |
| "sec_num": "4" |
| }, |
| { |
| "text": "Nous avons utilis\u00e9 les repr\u00e9sentations de mots fournies par Ronan Collobert, apprises par SENNA 4 (Collobert et al. 2011) \u00e0 partir d'un grand corpus de texte non \u00e9tiquet\u00e9 (provenant essentiellement de Wikipedia). Cette ressource fournit la repr\u00e9sentation par un vecteur de valeurs r\u00e9elles, dans un espace de dimension 50, de 130 000 mots, les plus fr\u00e9quents dans le corpus. On utilise la distance euclidienne pour mesurer la proximit\u00e9 de mots dans cet espace.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Repr\u00e9sentations de mots", |
| "sec_num": "4" |
| }, |
| { |
| "text": "Pour donner une id\u00e9e, la table 2 montre les plus proches voisins de quelques mots pris au hasard. ", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Repr\u00e9sentations de mots", |
| "sec_num": "4" |
| }, |
| { |
| "text": "Dans l'id\u00e9e, si des mots sont proches dans l'espace des repr\u00e9sentations, c'est qu'ils sont s\u00e9mantiquement proches -synonymes au sens large, typiquement. L'apprentissage devrait pouvoir profiter de cette connaissance pour annoter des exemples de test inconnus, proches s\u00e9mantiquement d'exemples d'entrainement connus, avec le m\u00eame r\u00f4le que ces derniers. Autrement dit, g\u00e9n\u00e9raliser la connaissance des exemples d'entrainement aux arguments qui en sont s\u00e9mantiquement proches.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Exp\u00e9riences", |
| "sec_num": "5" |
| }, |
| { |
| "text": "Comme syst\u00e8me de r\u00e9f\u00e9rence, nous avons entrain\u00e9 des mod\u00e8les \u00e0 maximum d'entropie, un par cadre (les r\u00f4les que peuvent remplir les arguments sont diff\u00e9rents pour chaque cadre).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8le de r\u00e9f\u00e9rence", |
| "sec_num": "5.1" |
| }, |
| { |
| "text": "Notre impl\u00e9mentation utilise Python et NLTK 5 . L'entrainement du mod\u00e8le utilise l'algorithme du gradient conjugu\u00e9 ('CG').", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8le de r\u00e9f\u00e9rence", |
| "sec_num": "5.1" |
| }, |
| { |
| "text": "4. http://ronan.collobert.com/senna/ 5. http://nltk.org/ Le mod\u00e8le s'appuie sur une quinzaine de caract\u00e9ristiques de surface de l'argument. Avec l'exemple de l'Agent dans le cadre Cause_de_bruit (figure 1), les caract\u00e9ristiques employ\u00e9es sont regroup\u00e9es en cat\u00e9gories et pr\u00e9sent\u00e9es dans la table 3. TABLE 3 -Caract\u00e9ristiques du mod\u00e8le de r\u00e9f\u00e9rence, ainsi que leur valeur dans l'exemple pr\u00e9sent\u00e9 en figure 1. Caract\u00e9ristiques par cat\u00e9gorie Valeur dans l'exemple Caract\u00e9ristiques de base le texte de l'argument enough ringers le texte de la cible ring la position (en caract\u00e8res) de l'argument dans la phrase 23 Position relative est-ce que l'argument est avant ou apr\u00e8s la cible avant si l'argument est \u00e0 la m\u00eame place que la cible non la distance (en mots) entre la cible et l'argument 1 Nombre de mots le nombre de mots de l'argument 2 le nombre de mots pleins 6 de l'argument 2 Contenu le premier mot de l'argument enough le premier mot plein de l'argument enough Parties du discours partie du discours du premier mot de l'argument JJ (adjectif) partie du discours du dernier mot de l'argument NNS (nom pluriel) la partie du discours majoritaire dans l'argument JJ Arguments pr\u00e9c\u00e9dents de cadre nombre d'arguments d\u00e9j\u00e0 \u00e9tiqute\u00e9s dans le cadre 0", |
| "cite_spans": [], |
| "ref_spans": [ |
| { |
| "start": 287, |
| "end": 309, |
| "text": "la table 3. TABLE 3", |
| "ref_id": null |
| } |
| ], |
| "eq_spans": [], |
| "section": "Mod\u00e8le de r\u00e9f\u00e9rence", |
| "sec_num": "5.1" |
| }, |
| { |
| "text": "Ce syst\u00e8me de r\u00e9f\u00e9rence arrive \u00e0 80.0% de pr\u00e9cision, \u00e0 comparer aux 76% de pr\u00e9cision de Fleischman & Hovy (2003) , ou aux 80.97% de F 1 -mesure de Das et al. (2010), sur d'autres versions des donn\u00e9es de FrameNet.", |
| "cite_spans": [ |
| { |
| "start": 85, |
| "end": 112, |
| "text": "de Fleischman & Hovy (2003)", |
| "ref_id": null |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8le de r\u00e9f\u00e9rence", |
| "sec_num": "5.1" |
| }, |
| { |
| "text": "Dans notre travail, l'utilisation de repr\u00e9sentations de mots vient am\u00e9liorer ce syst\u00e8me de r\u00e9f\u00e9rence en apportant de l'information suppl\u00e9mentaire (obtenue par apprentissage non supervis\u00e9). D'autres approches seraient possibles pour repr\u00e9senter les arguments : Surdeanu et al. (2003) en particulier propose un choix de repr\u00e9sentant s\u00e9mantique plus \u00e9labor\u00e9 et probablement plus adapt\u00e9. En particulier, dans le cas de syntagmes pr\u00e9positionnels, la pr\u00e9position n'est pas n\u00e9c\u00e9ssairement s\u00e9mantiquement significative.", |
| "cite_spans": [ |
| { |
| "start": 260, |
| "end": 282, |
| "text": "Surdeanu et al. (2003)", |
| "ref_id": "BIBREF22" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Mod\u00e8le de r\u00e9f\u00e9rence", |
| "sec_num": "5.1" |
| }, |
| { |
| "text": "Chaque argument est situ\u00e9 \u00e0 l'emplacement de son mot repr\u00e9sentatif dans l'espace des repr\u00e9sentations 7 . On peut alors pr\u00e9dire le r\u00f4le d'un argument avec le mod\u00e8le des k plus proches voisins.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "de plus de 5 caract\u00e8res", |
| "sec_num": "6." |
| }, |
| { |
| "text": "Le mod\u00e8le du 1-plus-proche-voisin, qui pr\u00e9dit pour un argument le r\u00f4le du mot annot\u00e9 le plus proche dans l'ensemble d'entrainement (pour le cadre consid\u00e9r\u00e9) obtient 70% de pr\u00e9cision, exp\u00e9rimentalement. C'est assez remarquable pour un mod\u00e8le aussi simple : pour comparaison, le mod\u00e8le qui pr\u00e9dit pour un argument le r\u00f4le le plus fr\u00e9quemment annot\u00e9 \u00e0 l'entrainement arrive seulement \u00e0 50% de pr\u00e9cision.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "de plus de 5 caract\u00e8res", |
| "sec_num": "6." |
| }, |
| { |
| "text": "Prendre en compte plusieurs voisins dans la pr\u00e9diction du r\u00f4le d'un argument r\u00e9duit le bruit dans les donn\u00e9es et am\u00e9liore nettement les performances. La figure 4 montre les r\u00e9sultats du mod\u00e8le des plus proches voisins en fonction de k. Dans nos exp\u00e9riences, utiliser cette pr\u00e9diction comme caract\u00e9ristique unique d'un classifieur \u00e0 maximum d'entropie est un peu meilleur 8 que de l'utiliser directement, et c'est ce que nous avons fait ici.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "de plus de 5 caract\u00e8res", |
| "sec_num": "6." |
| }, |
| { |
| "text": "FIGURE 4 -Performance du mod\u00e8le utilisant le r\u00f4le majoritaire parmi les k plus proches voisins de chaque argument comme seule caract\u00e9ristique. La ligne repr\u00e9sente la performance du mod\u00e8le qui utiliserait uniquement la meilleure des caract\u00e9ristiques du mod\u00e8le de r\u00e9f\u00e9rence (la position relative de l'argument par rapport \u00e0 la cible).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "de plus de 5 caract\u00e8res", |
| "sec_num": "6." |
| }, |
| { |
| "text": "Pour int\u00e9grer la pr\u00e9diction du mod\u00e8le des plus proches voisins au mod\u00e8le de r\u00e9f\u00e9rence, on peut simplement l'ajouter comme caract\u00e9ristique d'un argument. La figure 5 montre les performances obtenues : avec plusieurs voisins, cette information am\u00e9liore le mod\u00e8le de r\u00e9f\u00e9rence (en vert), et permet d'arriver au niveau du syst\u00e8me SEMAFOR, \u00e0 l'\u00e9tat de l'art (en rouge pointill\u00e9), sur des donn\u00e9es d'entrainement semblables.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "de plus de 5 caract\u00e8res", |
| "sec_num": "6." |
| }, |
| { |
| "text": "Une autre fa\u00e7on de pr\u00e9dire le r\u00f4le d'un argument consiste \u00e0 trouver quelle classe il repr\u00e9sente le mieux : dans l'espace des repr\u00e9sentations, on situe la position moyenne des mots repr\u00e9sentant un r\u00f4le, et on assigne alors \u00e0 un argument le r\u00f4le dont il est le plus proche.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Centres des exemples d'un r\u00f4le", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "Cela revient \u00e0 partitionner l'espace des repr\u00e9sentations en zones, une par r\u00f4le. Une zone est l'ensemble des points les plus proches du \"repr\u00e9sentant moyen\" d'un r\u00f4le s\u00e9mantique (comme un diagramme de Vorono\u00ef). On classifie alors les arguments en fonction de la zone dans laquelle ils se situent.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Centres des exemples d'un r\u00f4le", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "7. les mots de t\u00eate de 2% des arguments sont hors du vocabulaire des repr\u00e9sentations, et alors seul le mod\u00e8le de r\u00e9f\u00e9rence est utilis\u00e9 8. la diff\u00e9rence est de l'ordre de 3-4%", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Centres des exemples d'un r\u00f4le", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "FIGURE 5 -Pr\u00e9cision du mod\u00e8le de r\u00e9f\u00e9rence inform\u00e9 de la pr\u00e9diction du mod\u00e8le des k plus proches voisins. La ligne verte repr\u00e9sente le syst\u00e8me de r\u00e9f\u00e9rence, et la ligne rouge pointill\u00e9e SEMAFOR.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Centres des exemples d'un r\u00f4le", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "Ajout\u00e9e au mod\u00e8le de r\u00e9f\u00e9rence, cette caract\u00e9ristique permet d'atteindre 81.1% de pr\u00e9cision (soit une am\u00e9lioration de 1.1 point).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Centres des exemples d'un r\u00f4le", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "On peut combiner ce mod\u00e8le avec celui des plus proches voisins, et ajouter les deux pr\u00e9dictions au mod\u00e8le de r\u00e9f\u00e9rence. La figure 6 montre les r\u00e9sultats d'une telle combinaison. La meilleure performance est de 81.5%, avec 20 voisins.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Centres des exemples d'un r\u00f4le", |
| "sec_num": "5.3" |
| }, |
| { |
| "text": "La table 7 r\u00e9capitule les diff\u00e9rents r\u00e9sultats, en termes de micro-pr\u00e9cision (cf section 2). Rappelons que Fleischman & Hovy utilisent une version de FrameNet datant de 2002, c'est-\u00e0-dire sensiblement moins de donn\u00e9es. Nous mesurons nos performances sur le m\u00eame ensemble de test que SEMAFOR, en utilisant des donn\u00e9es similaires \u00e0 l'entrainement. En regardant les r\u00e9sultats plus en d\u00e9tail, on observe que les gains en performance proviennent en large part des cadres avec le moins d'exemples. Il est alors int\u00e9ressant de mesurer la macro-pr\u00e9cision qu'obtiennent les diff\u00e9rents mod\u00e8les (cf section 2). Par rapport aux performances rapport\u00e9es pr\u00e9c\u00e9demment, c'est comme si la performance du mod\u00e8le de chaque cadre n'\u00e9tait plus pond\u00e9r\u00e9e par le nombre d'exemples de ce cadre dans le jeu de test. La table 8 montre la macro-pr\u00e9cision des mod\u00e8les que nous avons test\u00e9s. Comme on peut voir, l'apport des repr\u00e9sentations de mots est plus net avec cette mesure. En particulier, les 20% de cadres s\u00e9mantiques avec le moins d'exemples d'entrainement am\u00e9liorent leur pr\u00e9cision moyenne de 5 points lorsque l'on rajoute la pr\u00e9diction utilisant les centres des r\u00f4les au mod\u00e8le de r\u00e9f\u00e9rence.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Discussion", |
| "sec_num": "5.4" |
| }, |
| { |
| "text": "Cette observation est coh\u00e9rente avec la vision \u00e9voqu\u00e9e plus haut, \u00e0 savoir que l'abstraction sur les mots du lexique permet de mieux g\u00e9n\u00e9raliser les donn\u00e9es disponibles, surtout lorsqu'elles sont peu importantes (peu d'exemples par classe). Cette derni\u00e8re mesure est d'autant plus pertinente que les cadres peu repr\u00e9sent\u00e9s dans l'ensemble de test sont aussi les cadres les plus difficiles \u00e0 entrainer, du fait de leur plus faible nombre d'exemples d'entrainement.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Discussion", |
| "sec_num": "5.4" |
| }, |
| { |
| "text": "6 Travaux futurs L'impl\u00e9mentation des r\u00e8gles propos\u00e9es dans Surdeanu et al. (2003) pour d\u00e9terminer le mot le plus repr\u00e9sentatif du contenu d'un argument serait une direction naturelle pour poursuivre ce travail. En particulier, les r\u00e8gles qui d\u00e9terminent le mot de t\u00eate de syntagmes pr\u00e9positionnels (la pr\u00e9position) sont inadapt\u00e9es \u00e0 l'usage qu'on souhaite en faire ici, ce que Surdeanu propose d'am\u00e9liorer.", |
| "cite_spans": [ |
| { |
| "start": 60, |
| "end": 82, |
| "text": "Surdeanu et al. (2003)", |
| "ref_id": "BIBREF22" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Discussion", |
| "sec_num": "5.4" |
| }, |
| { |
| "text": ". Nous n'avons consid\u00e9r\u00e9 que les arguments constitu\u00e9s d'un seul mot.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "", |
| "sec_num": null |
| } |
| ], |
| "back_matter": [], |
| "bib_entries": { |
| "BIBREF0": { |
| "ref_id": "b0", |
| "title": "Du point de vue de l'apprentissage, on pourrait am\u00e9liorer l'entrainement des mod\u00e8les. Actuellement, les performances globales sont peu sensibles \u00e0 la variation du nombre de voisins pris en compte", |
| "authors": [], |
| "year": null, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "Du point de vue de l'apprentissage, on pourrait am\u00e9liorer l'entrainement des mod\u00e8les. Actuellement, les performances globales sont peu sensibles \u00e0 la variation du nombre de voisins pris en compte, pass\u00e9 un certain stade (voir figure 5).", |
| "links": null |
| }, |
| "BIBREF1": { |
| "ref_id": "b1", |
| "title": "Un ensemble de d\u00e9veloppement permettrait de mieux adapter les param\u00e8tres \u00e0 chaque m\u00e9thode, et en particulier de faire varier la valeur du nombre de voisins consid\u00e9r\u00e9s en fonction du cadre s\u00e9mantique et des donn\u00e9es disponibles", |
| "authors": [], |
| "year": null, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "Un ensemble de d\u00e9veloppement permettrait de mieux adapter les param\u00e8tres \u00e0 chaque m\u00e9thode, et en particulier de faire varier la valeur du nombre de voisins consid\u00e9r\u00e9s en fonction du cadre s\u00e9mantique et des donn\u00e9es disponibles.", |
| "links": null |
| }, |
| "BIBREF2": { |
| "ref_id": "b2", |
| "title": "Dans l'espace des repr\u00e9sentations, pond\u00e9rer l'algorithme des plus proches voisins (par exemple par l'inverse de la distance, ou par la fr\u00e9quence du r\u00f4le du voisin) peut permettre de capturer davantage d'information", |
| "authors": [], |
| "year": null, |
| "venue": "On pourrait surpond\u00e9rer les r\u00f4les s\u00e9mantiques sous-repr\u00e9sent\u00e9s, ou difficiles \u00e0 d\u00e9tecter", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "Dans l'espace des repr\u00e9sentations, pond\u00e9rer l'algorithme des plus proches voisins (par exemple par l'inverse de la distance, ou par la fr\u00e9quence du r\u00f4le du voisin) peut permettre de capturer davantage d'information. On pourrait surpond\u00e9rer les r\u00f4les s\u00e9mantiques sous-repr\u00e9sent\u00e9s, ou difficiles \u00e0 d\u00e9tecter, notamment.", |
| "links": null |
| }, |
| "BIBREF3": { |
| "ref_id": "b3", |
| "title": "Il serait \u00e9galement int\u00e9ressant d'utiliser d'autres repr\u00e9sentations distribu\u00e9es de mots (entrain\u00e9es par d'autres syst\u00e8mes que SENNA), pour comparer les r\u00e9sultats. Des exp\u00e9riences pr\u00e9liminaires avec les repr\u00e9sentations distribu\u00e9es par Turian et al. (2010) 9 montrent des r\u00e9sultats semblables et encourageants. Les clusters lexicaux de Brown pourraient \u00eatre employ\u00e9s avec la m\u00eame id\u00e9e", |
| "authors": [], |
| "year": null, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "Il serait \u00e9galement int\u00e9ressant d'utiliser d'autres repr\u00e9sentations distribu\u00e9es de mots (entrain\u00e9es par d'autres syst\u00e8mes que SENNA), pour comparer les r\u00e9sultats. Des exp\u00e9riences pr\u00e9liminaires avec les repr\u00e9sentations distribu\u00e9es par Turian et al. (2010) 9 montrent des r\u00e9sultats semblables et encourageants. Les clusters lexicaux de Brown pourraient \u00eatre employ\u00e9s avec la m\u00eame id\u00e9e.", |
| "links": null |
| }, |
| "BIBREF4": { |
| "ref_id": "b4", |
| "title": "explorent cette id\u00e9e, et gagne en pr\u00e9cision, contre une petite perte de rappel \u00e0 cause des contraintes suppl\u00e9mentaires. Les gains sont limit\u00e9s, notament \u00e0 cause du faible nombre d'arguments \u00e0 annoter par cadre (moins de 2 en moyenne). Nous avons men\u00e9 quelques exp\u00e9riences dans cette direction", |
| "authors": [ |
| { |
| "first": "", |
| "middle": [], |
| "last": "Enfin", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [], |
| "last": "Das", |
| "suffix": "" |
| } |
| ], |
| "year": 2010, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "Enfin, notre mod\u00e8le prend actuellement toutes ses d\u00e9cisions de mani\u00e8re ind\u00e9pendante. Les arguments d'un m\u00eame cadre (dans la m\u00eame phrase) gagneraient \u00e0 \u00eatre \u00e9tiquet\u00e9s conjointement. Das et al. (2010) explorent cette id\u00e9e, et gagne en pr\u00e9cision, contre une petite perte de rappel \u00e0 cause des contraintes suppl\u00e9mentaires. Les gains sont limit\u00e9s, notament \u00e0 cause du faible nombre d'arguments \u00e0 annoter par cadre (moins de 2 en moyenne). Nous avons men\u00e9 quelques exp\u00e9riences dans cette direction, mais les r\u00e9sultats ne sont pas concluants.", |
| "links": null |
| }, |
| "BIBREF5": { |
| "ref_id": "b5", |
| "title": "FrameNet d\u00e9finit un ensemble de cadres s\u00e9mantiques appel\u00e9s par des pr\u00e9dicats, ainsi que les r\u00f4les pouvant \u00eatre remplis par les arguments du dit pr\u00e9dicat. Nous avons employ\u00e9 des repr\u00e9sentations distribu\u00e9es de mots, entrain\u00e9es par SENNA, pour am\u00e9liorer la t\u00e2che de classification des arguments en r\u00f4les", |
| "authors": [], |
| "year": null, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "FrameNet d\u00e9finit un ensemble de cadres s\u00e9mantiques appel\u00e9s par des pr\u00e9dicats, ainsi que les r\u00f4les pouvant \u00eatre remplis par les arguments du dit pr\u00e9dicat. Nous avons employ\u00e9 des repr\u00e9sentations distribu\u00e9es de mots, entrain\u00e9es par SENNA, pour am\u00e9liorer la t\u00e2che de classification des arguments en r\u00f4les, en supposant connus le pr\u00e9dicat, le cadre s\u00e9mantique, et la position des arguments.", |
| "links": null |
| }, |
| "BIBREF6": { |
| "ref_id": "b6", |
| "title": "Les repr\u00e9sentations de mots situent les mots du lexique, via leurs coordonn\u00e9es, dans un espace, l'espace des repr\u00e9sentations. La repr\u00e9sentation des arguments \u00e0 classifier par leur mot le plus repr\u00e9sentatif -dans nos exp\u00e9riences, leur t\u00eate syntaxique -permet de les situer eux-m\u00eames dans l'espace des repr\u00e9sentations. D\u00e8s lors, on peut utiliser l'algorithme des plus proches voisins, ou bien partitionner l'espace suivant le r\u00f4le en moyenne le plus proche, pour classifier les arguments", |
| "authors": [], |
| "year": null, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "Les repr\u00e9sentations de mots situent les mots du lexique, via leurs coordonn\u00e9es, dans un espace, l'espace des repr\u00e9sen- tations. La repr\u00e9sentation des arguments \u00e0 classifier par leur mot le plus repr\u00e9sentatif -dans nos exp\u00e9riences, leur t\u00eate syntaxique -permet de les situer eux-m\u00eames dans l'espace des repr\u00e9sentations. D\u00e8s lors, on peut utiliser l'algorithme des plus proches voisins, ou bien partitionner l'espace suivant le r\u00f4le en moyenne le plus proche, pour classifier les arguments, et faire des pr\u00e9dictions raisonnables, un peu inf\u00e9rieures \u00e0 l'\u00e9tat de l'art.", |
| "links": null |
| }, |
| "BIBREF7": { |
| "ref_id": "b7", |
| "title": "En utilisant ces pr\u00e9dictions dans le cadre d'un mod\u00e8le \u00e0 maximum d'entropie utilisant des caract\u00e9ristiques descriptives de l'argument dans la phrase (notre syst\u00e8me de r\u00e9f\u00e9rence), on obtient un mod\u00e8le performant, l\u00e9g\u00e8rement sup\u00e9rieur \u00e0 SEMAFOR, syst\u00e8me \u00e0 l'\u00e9tat de l'art, sur la t\u00e2che \u00e9valu\u00e9e. En particulier, on remarque que les cadres s\u00e9mantiques avec le moins d'exemples d'entrainement profitent davantage de la g\u00e9n\u00e9ralisation apport\u00e9e par les repr\u00e9sentations de mots", |
| "authors": [], |
| "year": null, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "En utilisant ces pr\u00e9dictions dans le cadre d'un mod\u00e8le \u00e0 maximum d'entropie utilisant des caract\u00e9ristiques descriptives de l'argument dans la phrase (notre syst\u00e8me de r\u00e9f\u00e9rence), on obtient un mod\u00e8le performant, l\u00e9g\u00e8rement sup\u00e9rieur \u00e0 SEMAFOR, syst\u00e8me \u00e0 l'\u00e9tat de l'art, sur la t\u00e2che \u00e9valu\u00e9e. En particulier, on remarque que les cadres s\u00e9mantiques avec le moins d'exemples d'entrainement profitent davantage de la g\u00e9n\u00e9ralisation apport\u00e9e par les repr\u00e9sentations de mots, par rapport au mod\u00e8le de r\u00e9f\u00e9rence.", |
| "links": null |
| }, |
| "BIBREF8": { |
| "ref_id": "b8", |
| "title": "Class-based n-gram models of natural language", |
| "authors": [ |
| { |
| "first": "", |
| "middle": [ |
| "F" |
| ], |
| "last": "Brown P", |
| "suffix": "" |
| }, |
| { |
| "first": "P", |
| "middle": [ |
| "V" |
| ], |
| "last": "Desouza", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [ |
| "L" |
| ], |
| "last": "Mercer R", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [ |
| "J D" |
| ], |
| "last": "Pietra V", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [ |
| "C" |
| ], |
| "last": "Lai J", |
| "suffix": "" |
| } |
| ], |
| "year": 1992, |
| "venue": "Comput. Linguist", |
| "volume": "18", |
| "issue": "4", |
| "pages": "467--479", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "BROWN P. F., DESOUZA P. V., MERCER R. L., PIETRA V. J. D. & LAI J. C. (1992). Class-based n-gram models of natural language. Comput. Linguist., 18(4), 467-479.", |
| "links": null |
| }, |
| "BIBREF9": { |
| "ref_id": "b9", |
| "title": "Natural language processing (almost) from scratch", |
| "authors": [ |
| { |
| "first": "", |
| "middle": [], |
| "last": "Collobert R", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Weston", |
| "suffix": "" |
| }, |
| { |
| "first": "L", |
| "middle": [], |
| "last": "Bottou", |
| "suffix": "" |
| }, |
| { |
| "first": "Karlen", |
| "middle": [ |
| "M" |
| ], |
| "last": "Kavukcuoglu K. & Kuksa P", |
| "suffix": "" |
| } |
| ], |
| "year": 2011, |
| "venue": "Journal of Machine Learning Research", |
| "volume": "12", |
| "issue": "", |
| "pages": "2493--2537", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "COLLOBERT R., WESTON J., BOTTOU L., KARLEN M., KAVUKCUOGLU K. & KUKSA P. (2011). Natural language processing (almost) from scratch. Journal of Machine Learning Research, 12, 2493-2537.", |
| "links": null |
| }, |
| "BIBREF10": { |
| "ref_id": "b10", |
| "title": "Probabilistic frame-semantic parsing", |
| "authors": [ |
| { |
| "first": "", |
| "middle": [], |
| "last": "Das D", |
| "suffix": "" |
| }, |
| { |
| "first": "Chen", |
| "middle": [ |
| "D" |
| ], |
| "last": "Schneider N", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [ |
| "A" |
| ], |
| "last": "Smith N", |
| "suffix": "" |
| } |
| ], |
| "year": 2010, |
| "venue": "Human Language Technologies : The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, HLT '10", |
| "volume": "", |
| "issue": "", |
| "pages": "948--956", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "DAS D., SCHNEIDER N., CHEN D. & SMITH N. A. (2010). Probabilistic frame-semantic parsing. In Human Lan- guage Technologies : The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, HLT '10, p. 948-956, Stroudsburg, PA, USA : Association for Computational Linguistics.", |
| "links": null |
| }, |
| "BIBREF11": { |
| "ref_id": "b11", |
| "title": "Semi-supervised frame-semantic parsing for unknown predicates", |
| "authors": [ |
| { |
| "first": "", |
| "middle": [], |
| "last": "Das D", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [ |
| "A" |
| ], |
| "last": "Smith N", |
| "suffix": "" |
| } |
| ], |
| "year": 2011, |
| "venue": "Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics : Human Language Technologies", |
| "volume": "1", |
| "issue": "", |
| "pages": "1435--1444", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "DAS D. & SMITH N. A. (2011). Semi-supervised frame-semantic parsing for unknown predicates. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics : Human Language Technologies -Volume 1, HLT '11, p. 1435-1444, Stroudsburg, PA, USA : Association for Computational Linguistics.", |
| "links": null |
| }, |
| "BIBREF12": { |
| "ref_id": "b12", |
| "title": "Generating typed dependency parses from phrase structure parses", |
| "authors": [ |
| { |
| "first": "Marneffe M.-C", |
| "middle": [], |
| "last": "De", |
| "suffix": "" |
| }, |
| { |
| "first": "B", |
| "middle": [ |
| "&" |
| ], |
| "last": "Maccartney", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [ |
| "D" |
| ], |
| "last": "Manning C", |
| "suffix": "" |
| } |
| ], |
| "year": 2006, |
| "venue": "PROC. INT'L CONF. ON LANGUAGE RESOURCES AND EVALUATION", |
| "volume": "", |
| "issue": "", |
| "pages": "449--454", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "DE MARNEFFE M.-C., MACCARTNEY B. & MANNING C. D. (2006). Generating typed dependency parses from phrase structure parses. In IN PROC. INT'L CONF. ON LANGUAGE RESOURCES AND EVALUATION (LREC, p. 449-454.", |
| "links": null |
| }, |
| "BIBREF13": { |
| "ref_id": "b13", |
| "title": "Frame semantics and the nature of language", |
| "authors": [ |
| { |
| "first": "C", |
| "middle": [ |
| "J" |
| ], |
| "last": "Fillmore", |
| "suffix": "" |
| } |
| ], |
| "year": 1976, |
| "venue": "Annals of the New York Academy of Sciences", |
| "volume": "280", |
| "issue": "1", |
| "pages": "20--32", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "FILLMORE C. J. (1976). Frame semantics and the nature of language. Annals of the New York Academy of Sciences, 280(1), 20-32.", |
| "links": null |
| }, |
| "BIBREF14": { |
| "ref_id": "b14", |
| "title": "A maximum entropy approach to framenet tagging", |
| "authors": [ |
| { |
| "first": "", |
| "middle": [], |
| "last": "Fleischman M. & Hovy E", |
| "suffix": "" |
| } |
| ], |
| "year": 2003, |
| "venue": "Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology : companion volume of the Proceedings of HLT-NAACL 2003-short papers", |
| "volume": "2", |
| "issue": "", |
| "pages": "22--24", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "FLEISCHMAN M. & HOVY E. (2003). A maximum entropy approach to framenet tagging. In Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology : companion volume of the Proceedings of HLT-NAACL 2003-short papers -Volume 2, NAACL-Short '03, p. 22-24, Stroudsburg, PA, USA : Association for Computational Linguistics.", |
| "links": null |
| }, |
| "BIBREF15": { |
| "ref_id": "b15", |
| "title": "Maximum entropy models for framenet classification", |
| "authors": [ |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Fleischman", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [], |
| "last": "Kwon N. & Hovy E", |
| "suffix": "" |
| } |
| ], |
| "year": 2003, |
| "venue": "Proceedings of the 2003 Conference on Empirical Methods in Natural Language Processing, EMNLP '03", |
| "volume": "", |
| "issue": "", |
| "pages": "49--56", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "FLEISCHMAN M., KWON N. & HOVY E. (2003). Maximum entropy models for framenet classification. In Proceedings of the 2003 Conference on Empirical Methods in Natural Language Processing, EMNLP '03, p. 49-56, Stroudsburg, PA, USA : Association for Computational Linguistics.", |
| "links": null |
| }, |
| "BIBREF16": { |
| "ref_id": "b16", |
| "title": "Automatic labeling of semantic roles", |
| "authors": [ |
| { |
| "first": "Gildea D. & Jurafsky D", |
| "middle": [], |
| "last": "", |
| "suffix": "" |
| } |
| ], |
| "year": 2000, |
| "venue": "ACL : ACL", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "GILDEA D. & JURAFSKY D. (2000). Automatic labeling of semantic roles. In ACL : ACL.", |
| "links": null |
| }, |
| "BIBREF17": { |
| "ref_id": "b17", |
| "title": "Semantic role labeling with the swedish framenet", |
| "authors": [ |
| { |
| "first": "", |
| "middle": [], |
| "last": "Johansson R", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [ |
| "F" |
| ], |
| "last": "Heppin K", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [], |
| "last": "Kokkinakis D. ; K", |
| "suffix": "" |
| }, |
| { |
| "first": "T", |
| "middle": [], |
| "last": "Choukri", |
| "suffix": "" |
| }, |
| { |
| "first": "M", |
| "middle": [ |
| "U" |
| ], |
| "last": "Declerck", |
| "suffix": "" |
| }, |
| { |
| "first": "B", |
| "middle": [], |
| "last": "Dogan", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Maegaard", |
| "suffix": "" |
| }, |
| { |
| "first": "A", |
| "middle": [], |
| "last": "Mariani", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Moreno", |
| "suffix": "" |
| } |
| ], |
| "year": 2012, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "JOHANSSON R., HEPPIN K. F. & KOKKINAKIS D. (2012). Semantic role labeling with the swedish framenet. In N. C. C. CHAIR), K. CHOUKRI, T. DECLERCK, M. U. DOGAN, B. MAEGAARD, J. MARIANI, A. MORENO, J.", |
| "links": null |
| }, |
| "BIBREF18": { |
| "ref_id": "b18", |
| "title": "Proceedings of the Eight International Conference on Language Resources and Evaluation (LREC'12)", |
| "authors": [], |
| "year": null, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "ODIJK & S. PIPERIDIS, Eds., Proceedings of the Eight International Conference on Language Resources and Evaluation (LREC'12), Istanbul, Turkey : European Language Resources Association (ELRA).", |
| "links": null |
| }, |
| "BIBREF19": { |
| "ref_id": "b19", |
| "title": "Lth : semantic structure extraction using nonprojective dependency trees", |
| "authors": [ |
| { |
| "first": "", |
| "middle": [], |
| "last": "Johansson R. & Nugues P", |
| "suffix": "" |
| } |
| ], |
| "year": 2007, |
| "venue": "Proceedings of the 4th International Workshop on Semantic Evaluations, SemEval '07", |
| "volume": "", |
| "issue": "", |
| "pages": "227--230", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "JOHANSSON R. & NUGUES P. (2007). Lth : semantic structure extraction using nonprojective dependency trees. In Proceedings of the 4th International Workshop on Semantic Evaluations, SemEval '07, p. 227-230, Stroudsburg, PA, USA : Association for Computational Linguistics.", |
| "links": null |
| }, |
| "BIBREF20": { |
| "ref_id": "b20", |
| "title": "Automatic retrieval and clustering of similar words", |
| "authors": [ |
| { |
| "first": "Lin", |
| "middle": [ |
| "D" |
| ], |
| "last": "", |
| "suffix": "" |
| } |
| ], |
| "year": 1998, |
| "venue": "Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics", |
| "volume": "2", |
| "issue": "", |
| "pages": "768--774", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "LIN D. (1998). Automatic retrieval and clustering of similar words. In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics -Volume 2, ACL '98, p. 768-774, Stroudsburg, PA, USA : Association for Computational Linguistics.", |
| "links": null |
| }, |
| "BIBREF21": { |
| "ref_id": "b21", |
| "title": "The importance of syntactic parsing and inference in semantic role labeling", |
| "authors": [ |
| { |
| "first": "Roth", |
| "middle": [ |
| "D &" |
| ], |
| "last": "Punyakanok V", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [], |
| "last": "Yih W", |
| "suffix": "" |
| } |
| ], |
| "year": 2008, |
| "venue": "Computational Linguistics", |
| "volume": "", |
| "issue": "2", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "PUNYAKANOK V., ROTH D. & YIH W. (2008). The importance of syntactic parsing and inference in semantic role labeling. Computational Linguistics, 34(2).", |
| "links": null |
| }, |
| "BIBREF22": { |
| "ref_id": "b22", |
| "title": "Using predicate-argument structures for information extraction", |
| "authors": [ |
| { |
| "first": "M", |
| "middle": [], |
| "last": "Surdeanu", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Harabagiu", |
| "suffix": "" |
| }, |
| { |
| "first": "Williams", |
| "middle": [ |
| "J &" |
| ], |
| "last": "Aarseth P", |
| "suffix": "" |
| } |
| ], |
| "year": 2003, |
| "venue": "Proceedings of the 41st Annual Meeting on Association for Computational Linguistics", |
| "volume": "1", |
| "issue": "", |
| "pages": "8--15", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "SURDEANU M., HARABAGIU S., WILLIAMS J. & AARSETH P. (2003). Using predicate-argument structures for infor- mation extraction. In Proceedings of the 41st Annual Meeting on Association for Computational Linguistics -Volume 1, ACL '03, p. 8-15, Stroudsburg, PA, USA : Association for Computational Linguistics.", |
| "links": null |
| }, |
| "BIBREF23": { |
| "ref_id": "b23", |
| "title": "Word representations : a simple and general method for semi-supervised learning", |
| "authors": [ |
| { |
| "first": "J", |
| "middle": [], |
| "last": "Turian", |
| "suffix": "" |
| }, |
| { |
| "first": "L", |
| "middle": [ |
| "&" |
| ], |
| "last": "Ratinov", |
| "suffix": "" |
| }, |
| { |
| "first": "", |
| "middle": [], |
| "last": "Bengio Y", |
| "suffix": "" |
| } |
| ], |
| "year": 2010, |
| "venue": "Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, ACL '10", |
| "volume": "", |
| "issue": "", |
| "pages": "384--394", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "TURIAN J., RATINOV L. & BENGIO Y. (2010). Word representations : a simple and general method for semi-supervised learning. In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, ACL '10, p. 384- 394, Stroudsburg, PA, USA : Association for Computational Linguistics.", |
| "links": null |
| } |
| }, |
| "ref_entries": { |
| "FIGREF0": { |
| "text": "Exemple d'annotation de tous les cadres pr\u00e9sents. Le cadre Cause_de_bruit (Cause to make noise) est appel\u00e9 par l'unit\u00e9 lexicale ring.v, la cible. Dans ce cadre, les r\u00f4les Agent et Producteur_de_son sont annot\u00e9s, remplis par enough ringers et more than six of the eight bells respectivement. Les cadres Faiseur_de_bruit, Suffisance et Existence sont \u00e9galement annot\u00e9s dans la m\u00eame phrase. Figure tir\u00e9e de Das et al. 2010. L'annotation s\u00e9mantique automatique se d\u00e9roule g\u00e9n\u00e9ralement en une succession d'\u00e9tapes (par exemple dans Das et al. (2010) et Punyakanok et al. (2008)) :", |
| "num": null, |
| "uris": null, |
| "type_str": "figure" |
| }, |
| "FIGREF1": { |
| "text": "Pr\u00e9cision des mod\u00e8les combin\u00e9s de ref\u00e9rence, des plus proches voisins et des centres des r\u00f4les.", |
| "num": null, |
| "uris": null, |
| "type_str": "figure" |
| }, |
| "TABREF0": { |
| "text": "Mots les plus proches d'exemples choisis au hasard, d'apr\u00e8s leur repr\u00e9sentation vectorielle. Exemple plus proches voisins characteristics traits indicators measurements phenotypes . . . chalkboard sofa washroom hallway bathroom darkroom skit . . . charlene cynthia cathy benji angie ronnie julie caitlin cheryl . . . delighted amazed thrilled dismayed ridiculed astonished . . . deregulate liberalise reallocate unsettle penalise unnerve . . . falsifiability teleology rationality holism causality . . . memorizing deciphering interpreting embodying unlocking . . . parrots wasps cormorants beetles lizards newts . . . planet earth universe portal basestar mothership galaxy . . . retirement tenure graduation incarceration signing . . .", |
| "content": "<table/>", |
| "html": null, |
| "num": null, |
| "type_str": "table" |
| }, |
| "TABREF1": { |
| "text": "On cherche \u00e0 utiliser la proximit\u00e9 s\u00e9mantique d'arguments pour pr\u00e9dire leur r\u00f4le. Pour mesurer la proximit\u00e9 et calculer des distances dans l'espace des repr\u00e9sentations, il faut situer les arguments dans cet espace. Nous sommes partis du principe qu'un mot appartenant \u00e0 chaque argument devait le repr\u00e9senter s\u00e9mantiquement. 50% des arguments du jeu de test sont constitu\u00e9s de plusieurs mots.Prenons un exemple, dans le cadre de l'Engagement (Commitment : un Orateur prend un engagement aupr\u00e8s d'un Destinataire). L'argument de test l'ambassadeur iraquien est inconnu \u00e0 l'entrainement, mais peut \u00eatre repr\u00e9sent\u00e9 par ambassadeur, proche des exemples connus personne ou porte-parole. Ces mots remplissent g\u00e9n\u00e9ralement le m\u00eame r\u00f4le dans ce cadre : Orateur. On peut alors conclure que l'ambassadeur iraquien remplit aussi le r\u00f4le d'Orateur.Comme repr\u00e9sentants s\u00e9mantiques des arguments, nous avons choisi d'utiliser leurs t\u00eates syntaxiques, d\u00e9termin\u00e9es gr\u00e2ce au Stanford Parser(de Marneffe et al. 2006). Par exemple, l'argument their ignorance which was based on prominent views est repr\u00e9sent\u00e9 par ignorance, car toute la proposition subordonn\u00e9e d\u00e9pend (indirectement) de based, qui d\u00e9pend de ignorance, et their d\u00e9pend aussi d'ignorance. Dans le cadre d'un Jugement (fait par une personne, pouvant \u00eatre positif ou n\u00e9gatif), cet argument est ensuite classifi\u00e9 comme Celui_ou_ce_qui_est_jug\u00e9.", |
| "content": "<table/>", |
| "html": null, |
| "num": null, |
| "type_str": "table" |
| }, |
| "TABREF2": { |
| "text": "R\u00e9capitulatif des performances (micro-pr\u00e9cision).", |
| "content": "<table><tr><td>Mod\u00e8le</td><td>Performance</td></tr><tr><td>k plus proches voisins</td><td>74.6%</td></tr><tr><td>Fleischman et Hovy (2003)</td><td>76%</td></tr><tr><td>R\u00e9f\u00e9rence</td><td>80.0%</td></tr><tr><td>SEMAFOR (2010)</td><td>81.0%</td></tr><tr><td>R\u00e9f\u00e9rence + centres</td><td>81.1%</td></tr><tr><td colspan=\"2\">R\u00e9f\u00e9rence + plus proches voisins 81.3%</td></tr><tr><td>R\u00e9f\u00e9rence + centres + PPV</td><td>81.5%</td></tr></table>", |
| "html": null, |
| "num": null, |
| "type_str": "table" |
| }, |
| "TABREF3": { |
| "text": "Macro-pr\u00e9cision pour chacune des m\u00e9thodes. Les cadres avec moins d'exemples prennent davantage d'importance, par rapport au calcul de la micro-pr\u00e9cison.", |
| "content": "<table><tr><td>Mod\u00e8le</td><td>Pr\u00e9cision moyenne des cadres</td></tr><tr><td>Centre des r\u00f4les le plus proche</td><td>69.6%</td></tr><tr><td>k plus proches voisins</td><td>70.0%</td></tr><tr><td>R\u00e9f\u00e9rence</td><td>73.2%</td></tr><tr><td>R\u00e9f\u00e9rence + centres</td><td>75.8%</td></tr><tr><td colspan=\"2\">R\u00e9f\u00e9rence + plus proches voisins 75.2%</td></tr><tr><td>R\u00e9f\u00e9rence + centres + PPV</td><td>76.1%</td></tr></table>", |
| "html": null, |
| "num": null, |
| "type_str": "table" |
| } |
| } |
| } |
| } |