ACL-OCL / Base_JSON /prefixF /json /F14 /F14-2011.json
Benjamin Aw
Add updated pkl file v3
6fa4bc9
{
"paper_id": "F14-2011",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T10:22:24.348237Z"
},
"title": "\u00c9valuation d'un syst\u00e8me d'extraction de r\u00e9ponses multiples sur le Web par comparaison \u00e0 des humains",
"authors": [
{
"first": "Mathieu-Henri",
"middle": [],
"last": "Falco",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "Universit\u00e9 Paris-Sud",
"location": {
"postCode": "91405",
"settlement": "Orsay",
"country": "France"
}
},
"email": ""
},
{
"first": "V\u00e9ronique",
"middle": [],
"last": "Moriceau",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "Universit\u00e9 Paris-Sud",
"location": {
"postCode": "91405",
"settlement": "Orsay",
"country": "France"
}
},
"email": ""
},
{
"first": "Anne",
"middle": [],
"last": "Vilnat",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "Universit\u00e9 Paris-Sud",
"location": {
"postCode": "91405",
"settlement": "Orsay",
"country": "France"
}
},
"email": ""
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "Dans cet article, nous proposons une \u00e9valuation dans un cadre utilisateur de Citron, un syst\u00e8me de question-r\u00e9ponse en fran\u00e7ais capable d'extraire des r\u00e9ponses \u00e0 des questions \u00e0 r\u00e9ponses multiples (questions poss\u00e9dant plusieurs r\u00e9ponses correctes diff\u00e9rentes) en domaine ouvert \u00e0 partir de documents provenant du Web. Nous pr\u00e9sentons ici le protocole exp\u00e9rimental et les r\u00e9sultats pour nos deux exp\u00e9riences utilisateurs qui visent \u00e0 (1) comparer les performances de Citron par rapport \u00e0 celles d'un \u00eatre humain pour la t\u00e2che d'extraction de r\u00e9ponses multiples et (2) conna\u00eetre la satisfaction d'un utilisateur devant diff\u00e9rents formats de pr\u00e9sentation de r\u00e9ponses.",
"pdf_parse": {
"paper_id": "F14-2011",
"_pdf_hash": "",
"abstract": [
{
"text": "Dans cet article, nous proposons une \u00e9valuation dans un cadre utilisateur de Citron, un syst\u00e8me de question-r\u00e9ponse en fran\u00e7ais capable d'extraire des r\u00e9ponses \u00e0 des questions \u00e0 r\u00e9ponses multiples (questions poss\u00e9dant plusieurs r\u00e9ponses correctes diff\u00e9rentes) en domaine ouvert \u00e0 partir de documents provenant du Web. Nous pr\u00e9sentons ici le protocole exp\u00e9rimental et les r\u00e9sultats pour nos deux exp\u00e9riences utilisateurs qui visent \u00e0 (1) comparer les performances de Citron par rapport \u00e0 celles d'un \u00eatre humain pour la t\u00e2che d'extraction de r\u00e9ponses multiples et (2) conna\u00eetre la satisfaction d'un utilisateur devant diff\u00e9rents formats de pr\u00e9sentation de r\u00e9ponses.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "Nous nous int\u00e9ressons \u00e0 l'\u00e9valuation de Citron, un syst\u00e8me de question-r\u00e9ponse (SQR) en fran\u00e7ais capable de r\u00e9pondre \u00e0 des questions \u00e0 r\u00e9ponses multiples (question-ARM) en domaine ouvert \u00e0 partir de documents provenant du Web. Les questions-ARM sont des questions poss\u00e9dant plusieurs r\u00e9ponses correctes diff\u00e9rentes (par exemple Quand le PSG a-til remport\u00e9 la Coupe de France de football ?), les questions de type liste (question-liste) en sont un exemple (Quelles sont les plan\u00e8tes du syst\u00e8me solaire ?). Nous avons constat\u00e9 en \u00e9tudiant les donn\u00e9es des campagnes d'\u00e9valuations des SQR pour le fran\u00e7ais comportant des questions-listes (Ayache, 2005) , (Quintard et al., 2010) que toutes les r\u00e9ponses \u00e0 une question-liste se trouvaient quasiment toujours \u00e0 l'int\u00e9rieur d'un m\u00eame document et \u00e9taient m\u00eame concentr\u00e9es majoritairement dans une seule phrase (Falco, 2012) . Ce constat va de pair avec l'\u00e9valuation faite par ces campagnes qui impose un seul support justificatif par r\u00e9ponse, limit\u00e9 en caract\u00e8res et continu, rendant alors impossible des recoupements multi-documents pour justifier une r\u00e9ponse. Ces contraintes sont d'autant plus p\u00e9nalisantes lorsque les documents utilis\u00e9s pour extraire les r\u00e9ponses sont issus du Web. En effet, ces documents sont des sources non n\u00e9gligeables de r\u00e9ponses aux questions-ARM gr\u00e2ce aux nombreuses structures (\u00e9num\u00e9rations, tableaux) qu'ils contiennent. Pourtant les formats de r\u00e9ponse impos\u00e9s par les campagnes d'\u00e9valuation ne permettent pas d'exploiter ces structures enti\u00e8rement.",
"cite_spans": [
{
"start": 634,
"end": 648,
"text": "(Ayache, 2005)",
"ref_id": "BIBREF6"
},
{
"start": 651,
"end": 674,
"text": "(Quintard et al., 2010)",
"ref_id": "BIBREF12"
},
{
"start": 852,
"end": 865,
"text": "(Falco, 2012)",
"ref_id": "BIBREF7"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Citron exploite les structures (\u00e9num\u00e9rations, tableaux) propres \u00e0 ce type de documents pour mieux extraire les r\u00e9ponses et \u00e9ventuellement les agr\u00e9ger pour faire appara\u00eetre des crit\u00e8res variants comme la date ou le lieu (Falco, 2012) . Nous avons d\u00e9j\u00e0 \u00e9valu\u00e9 notre syst\u00e8me selon les crit\u00e8res des campagnes d'\u00e9valuation (pr\u00e9cision, rappel) et les r\u00e9sultats obtenus sont encourageants (Falco et al., 2013) . Pour la t\u00e2che d'extraction de r\u00e9ponses \u00e0 des questions-ARM, nous souhaitons comparer les performances de Citron \u00e0 celles d'un humain. L'hypoth\u00e8se intuitive est qu'un syst\u00e8me automatique est plus rapide mais peut-\u00eatre un peu moins bon qu'un humain pour extraire les r\u00e9ponses. Nous avons surtout souhait\u00e9 \u00e9valuer un aspect original de Citron qui n'est pas pris en compte durant les campagnes d'\u00e9valuation \u00e0 savoir la pr\u00e9sentation des r\u00e9ponses extraites. En effet, lorsque plusieurs r\u00e9ponses sont correctes, nous pensons qu'apporter le crit\u00e8re variant expliquant pourquoi il existe plusieurs r\u00e9ponses correctes est important pour la compr\u00e9hension d'un utilisateur. Par une deuxi\u00e8me exp\u00e9rience, nous avons donc souhait\u00e9 conna\u00eetre la satisfaction des utilisateurs concernant le format de pr\u00e9sentation des r\u00e9-MATHIEU-HENRI FALCO, V\u00c9RONIQUE MORICEAU, ANNE VILNAT ponses impos\u00e9 par les campagnes et celui de Citron. Dans cet article, nous pr\u00e9sentons donc rapidement Citron et d\u00e9taillons les protocoles de nos deux exp\u00e9riences en cadre utilisateur. Enfin, nous discutons leurs r\u00e9sultats.",
"cite_spans": [
{
"start": 219,
"end": 232,
"text": "(Falco, 2012)",
"ref_id": "BIBREF7"
},
{
"start": 382,
"end": 402,
"text": "(Falco et al., 2013)",
"ref_id": "BIBREF8"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Citron est un SQR sp\u00e9cialis\u00e9 dans l'extraction de r\u00e9ponses \u00e0 des questions-ARM en fran\u00e7ais. Il peut travailler sur des collections de documents de diff\u00e9rents types ; nous nous int\u00e9ressons ici \u00e0 une collection de documents issus du Web pr\u00e9trait\u00e9s par le programme Kitten (Falco et al., 2012) qui permet notamment de rep\u00e9rer les \u00e9l\u00e9ments structuraux susceptibles de contenir des r\u00e9ponses multiples (structures \u00e9num\u00e9ratives (SE) et tableaux) des documents Web et de les formater de mani\u00e8re exploitable pour une analyse syntaxique. Citron utilise l'analyseur XIP (A\u00eft-Mokhtar et al., 2002) qui permet d'obtenir une analyse en d\u00e9pendances et int\u00e8gre \u00e9galement un d\u00e9tecteur d'entit\u00e9s nomm\u00e9es. L'analyse de la question avec XIP vise \u00e0 extraire les termes importants de la question et permet de g\u00e9n\u00e9rer une requ\u00eate soumise \u00e0 Lucene (Hatcher et al., 2010) pour trouver des snippets susceptibles de contenir la r\u00e9ponse. Cette recherche se fait dans 3 index diff\u00e9rents : l'index des parties \"texte\" des documents, l'index des SE et celui des tableaux. XIP analyse ensuite les snippets en d\u00e9pendances. Citron utilise les r\u00e8gles syntaxiques et lexiques de XIP d\u00e9finis pour le SQR FIDJI (Moriceau & Tannier, 2010) d\u00e9velopp\u00e9 pr\u00e9c\u00e9demment que nous avons compl\u00e9t\u00e9s notamment pour analyser les \u00e9l\u00e9ments structuraux pr\u00e9trait\u00e9s par Kitten. La validation du type des candidats-r\u00e9ponses utilise Wikip\u00e9dia dans une approche similaire \u00e0 (Grappy, 2011) mais nous n'utilisons que l'introduction de l'article correspondant au candidat \u00e0 valider pour y rechercher des d\u00e9finitions. Finalement, l'agr\u00e9gation de r\u00e9ponses a pour but de regrouper des r\u00e9ponses d\u00e9signant une m\u00eame entit\u00e9. Citron utilise une approche surfacique et une normalisation des dates contenues dans les supports des r\u00e9ponses effectu\u00e9e \u00e0 l'aide de Hei-delTime (Str\u00f6tgen & Gertz, 2013) . Cette agr\u00e9gation permet \u00e9galement de regrouper les r\u00e9ponses selon un crit\u00e8re variant temporel (Falco, 2012) (voir partie gauche de la figure 1). Nous ne d\u00e9taillons pas plus ici le fonctionnement de Citron qui est d\u00e9crit pr\u00e9cis\u00e9ment dans (Falco et al., 2013).",
"cite_spans": [
{
"start": 263,
"end": 290,
"text": "Kitten (Falco et al., 2012)",
"ref_id": null
},
{
"start": 559,
"end": 585,
"text": "(A\u00eft-Mokhtar et al., 2002)",
"ref_id": "BIBREF5"
},
{
"start": 1799,
"end": 1823,
"text": "(Str\u00f6tgen & Gertz, 2013)",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Le syst\u00e8me de question-r\u00e9ponse Citron",
"sec_num": "2"
},
{
"text": "Nous pr\u00e9sentons dans cette section le protocole exp\u00e9rimental utilis\u00e9 pour nos deux exp\u00e9riences utilisateurs r\u00e9alis\u00e9es cons\u00e9cutivement : (1) l'extraction de r\u00e9ponses (extraction) : son objectif est de comparer les performances de Citron par rapport \u00e0 celles d'un \u00eatre humain pour la t\u00e2che d'extraction de r\u00e9ponses multiples depuis une collection de documents impos\u00e9s issus du Web. Cette premi\u00e8re exp\u00e9rience permet surtout d'\u00e9tudier ce que les utilisateurs consid\u00e8rent comme des r\u00e9ponses correctes et comment ils les r\u00e9digent/pr\u00e9sentent ; et (2) la satisfaction devant la pr\u00e9sentation de r\u00e9ponses (satisfaction) : son objectif est de conna\u00eetre la satisfaction d'un utilisateur devant des r\u00e9ponses extraites et format\u00e9es de deux fa\u00e7ons diff\u00e9rentes, l'une au format d'une campagne d'\u00e9valuation et l'autre telle que Citron les pr\u00e9senterait.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9riences utilisateur : pr\u00e9sentation du protocole",
"sec_num": "3"
},
{
"text": "Nous avons g\u00e9n\u00e9r\u00e9 deux jeux (jeuA et jeuB) de 10 questions-ARM homog\u00e8nes au niveau des types de questions propos\u00e9es : 5 questions dont le type attendu de la r\u00e9ponse est g\u00e9n\u00e9ral (une entit\u00e9 nomm\u00e9e) et 5 dont le type est sp\u00e9cifique. Chaque question-ARM d'un jeu de questions a son miroir syntaxique dans l'autre jeu avec un changement de focus : -type attendu g\u00e9n\u00e9ral : Qui a jou\u00e9 Knocking on Heaven's Door ? (A), Qui a jou\u00e9 Where Did you Sleep last Night ? (B) -type attendu sp\u00e9cifique : Quels sont les signes du zodiaque ? (A), Quels sont les p\u00e9ch\u00e9s capitaux ? (B) Pour chaque utilisateur, un jeu sert pour l'exp\u00e9rience extraction et l'autre pour satisfaction. Pour chaque question, nous avons index\u00e9 gr\u00e2ce \u00e0 Lucene les 30 premiers documents renvoy\u00e9s par Google pour la requ\u00eate g\u00e9n\u00e9r\u00e9e par Citron et pr\u00e9trait\u00e9s par Kitten. \u00c0 l'aide de cette m\u00eame requ\u00eate sur les 3 index (texte, SE et tableaux), on obtient une liste de snippets pour chaque question. Nous avons ensuite utilis\u00e9 WebAnnotator (Tannier, 2012) afin d'annoter toutes les occurrences de r\u00e9ponses jug\u00e9es correctes, soit au total 1084 occurrences. Puis nous les avons agr\u00e9g\u00e9es lorsque n\u00e9cessaire (par exemple, Olympique de Marseille et OM d\u00e9signent une m\u00eame entit\u00e9). Ces 1084 r\u00e9ponses correctes correspondent \u00e0 280 entit\u00e9s diff\u00e9rentes.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Donn\u00e9es d'\u00e9valuation et outils",
"sec_num": "3.1"
},
{
"text": "FIGURE 1 -\u00c0 gauche : zone de saisie de r\u00e9ponses pour l'exp\u00e9rience d'extraction. \u00c0 droite : pr\u00e9sentation des r\u00e9ponses en deux colonnes pour l'exp\u00e9rience satisfaction sur la question Combien de spectateurs ont vu Skyfall ? (Formatage campagne d'\u00e9valuation \u00e0 gauche, formatage Citron \u00e0 droite).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Donn\u00e9es d'\u00e9valuation et outils",
"sec_num": "3.1"
},
{
"text": "Les deux exp\u00e9riences d'extraction et de satisfaction se font par l'interm\u00e9diaire d'une interface Web que nous avons d\u00e9velopp\u00e9e avec le framework Django 1 . Un tutoriel \u00e9tait propos\u00e9 avant le d\u00e9but de chaque exp\u00e9rience. La figure 1 pr\u00e9sente \u00e0 gauche l'interface pour l'\u00e9valuation de l'extraction de r\u00e9ponses et \u00e0 droite celle pour la pr\u00e9sentation des r\u00e9ponses.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Interface d'utilisation",
"sec_num": "3.2"
},
{
"text": "Dans l'interface pour l'extraction des r\u00e9ponses, pour chaque question, les documents sont pr\u00e9sent\u00e9s les uns en dessous des autres et ferm\u00e9s au d\u00e9but. L'utilisateur choisit les documents \u00e0 ouvrir et une fois un document ouvert, s'affichent le temps \u00e9coul\u00e9 depuis le d\u00e9but de la question et le type du snippet (texte, tableau ou SE). Si l'utilisateur pense que le snippet contient une r\u00e9ponse correcte, il peut l'extraire avec un support (d\u00e9fini par ce que vous pensez \u00eatre le texte justifiant la ou les r\u00e9ponses extraites) dans la zone de formulaire. Si un snippet contient plusieurs r\u00e9ponses correctes, l'utilisateur peut saisir une r\u00e9ponse \u00e0 la fois ou plusieurs r\u00e9ponses en m\u00eame temps. Les contraintes sont que la r\u00e9ponse doit \u00eatre extraite depuis le snippet et qu'elle doit \u00eatre accompagn\u00e9e d'un support non vide. L'utilisateur est inform\u00e9 qu'un snippet ne contient pas forc\u00e9ment de r\u00e9ponse, qu'il y a au moins deux r\u00e9ponses/entit\u00e9s diff\u00e9rentes pour chaque question et qu'il peut passer \u00e0 la question suivante d\u00e8s qu'il le souhaite, y compris sans fournir la moindre r\u00e9ponse.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Interface d'utilisation",
"sec_num": "3.2"
},
{
"text": "Les donn\u00e9es pr\u00e9sent\u00e9es dans la seconde interface sont les r\u00e9ponses de deux utilisateurs durant l'exp\u00e9rience extraction format\u00e9es de deux fa\u00e7ons : une selon les crit\u00e8res de la campagne Quaero 2009 et l'autre tel que Citron les pr\u00e9senterait : -format Quaero : de 1 \u00e0 3 bloc-r\u00e9ponses. Un bloc-r\u00e9ponse se compose d'une r\u00e9ponse globale continue (250 caract\u00e8re maximum), d'un support continu (8 000 caract\u00e8res maximum) et de n r\u00e9ponses individuelles provenant du support ; -format Citron : une r\u00e9ponse globale compos\u00e9e des n r\u00e9ponses individuelles choisies par les deux utilisateurs et une liste de supports (pas forc\u00e9ment continus). Chaque r\u00e9ponse individuelle peut \u00eatre accompagn\u00e9e de crit\u00e8res variants. Chaque formatage est pr\u00e9sent\u00e9 al\u00e9atoirement cinq fois \u00e0 droite et cinq fois \u00e0 gauche. Des questions sont pos\u00e9es \u00e0 l'utilisateur pour lui demander quel format de r\u00e9ponse il pr\u00e9f\u00e8re.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Interface d'utilisation",
"sec_num": "3.2"
},
{
"text": "32 utilisateurs ont pass\u00e9 les 2 exp\u00e9riences : 46,88 % ont pass\u00e9 l'exp\u00e9rience extraction sur le jeuA et satisfaction sur le jeuB. Avant de commencer l'exp\u00e9rience, l'utilisateur r\u00e9pond \u00e0 6 questions dans le but de d\u00e9finir son profil : sa tranche d'\u00e2ge, s'il travaille dans la recherche, dans le TAL, combien d'articles scientifiques portant sur les SQR il a lus 2 , combien de requ\u00eates il effectue sur un moteur de recherche quotidiennement et son niveau d'informatique 3 . -(full) Correct full : la r\u00e9ponse est correcte, le support valide enti\u00e8rement la r\u00e9ponse ; -(full) Correct OK : la r\u00e9ponse est correcte, le support valide presque la r\u00e9ponse. Par exemple, pour Quelles villes ont \u00e9t\u00e9 la capitale des \u00c9tats-Unis ?, la r\u00e9ponse Philadelphie associ\u00e9e au support Philadelphie, capitale originelle ne permet pas de savoir qu'il est question des \u00c9tats-Unis sans regarder le snippet ; -(right) Correct : la r\u00e9ponse est correcte, provient du snippet mais le support ne valide pas la r\u00e9ponse ; -(unsupported) Correct absente extrait : la r\u00e9ponse est correcte mais n'a pas \u00e9t\u00e9 extraite depuis le snippet ; -(inexact) Correct non segment\u00e9e : la r\u00e9ponse est correcte mais mal segment\u00e9e. C'est le cas par exemple quand on fournit une phrase compl\u00e8te sans extraire ce qui est consid\u00e9r\u00e9e comme la r\u00e9ponse ; -(inexact) Correct pb orthographe : la r\u00e9ponse est correcte mais contient une faute d'orthographe ; -(inexact) Correct r\u00e9dig\u00e9e : la r\u00e9ponse est correcte mais l'utilisateur l'a r\u00e9dig\u00e9e au lieu de simplement l'extraire. Par exemple : C'est NIRVANA qui a jou\u00e9 \"Where did you sleep last night\" ; -(supported) Incorrect mais support correct : la r\u00e9ponse est incorrecte mais le support contient une r\u00e9ponse correcte ; -(false) Incorrect contradiction : la r\u00e9ponse est incorrecte et il \u00e9tait possible de s'en rendre compte par recoupement avec un autre extrait propos\u00e9 (aucune occurrence dans cette \u00e9valuation) ; -(false) Incorrect : la r\u00e9ponse est incorrecte.",
"cite_spans": [
{
"start": 468,
"end": 469,
"text": "3",
"ref_id": "BIBREF1"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Les utilisateurs",
"sec_num": "3.3"
},
{
"text": "La campagne Quaero ne comptait comme r\u00e9ponse valide que les r\u00e9ponses obtenant le statut right ou full. De notre c\u00f4t\u00e9, nous avons r\u00e9alis\u00e9 deux \u00e9valuations : une \u00e9valuation QR o\u00f9 seules les r\u00e9ponses ayant les statuts Correct full, Correct OK et Correct sont consid\u00e9r\u00e9es comme valides (nous mesurons ainsi la t\u00e2che r\u00e9elle d'extraction correcte de r\u00e9ponse ainsi que sa justification par le support) et une \u00e9valuation humaine o\u00f9 toute r\u00e9ponse dont le statut commence par Correct est consid\u00e9r\u00e9e comme valide (ce sont les r\u00e9ponses qui peuvent \u00eatre jug\u00e9es acceptables par des utilisateurs).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Les utilisateurs",
"sec_num": "3.3"
},
{
"text": "Le tableau 2 pr\u00e9sente les statuts des r\u00e9ponses extraites par Citron et par les 32 utilisateurs. Nous y constatons que par une \u00e9valuation humaine, il n'y a quasiment pas de r\u00e9ponses incorrectes parmi celles extraites par les utilisateurs (3,11 %) . On constate \u00e9galement que quelques r\u00e9ponses ont \u00e9t\u00e9 r\u00e9dig\u00e9es, principalement pour apporter des pr\u00e9cisions, notamment en terme de crit\u00e8re variant. Par exemple pour le nombre de spectateurs ayant vu Skyfall, des utilisateurs ont ajout\u00e9 la date ou le lieu comme Citron le fait (figure 1). Ce comportement est le r\u00e9sultat le plus important de cette \u00e9valuation puisque pour 65 % des r\u00e9ponses r\u00e9dig\u00e9es (11 sur 17), les utilisateurs ont ajout\u00e9 naturellement un crit\u00e8re variant tout comme le propose Citron. Enfin, du point de vue de l'\u00e9valuation QR, les utilisateurs ont extrait 86,11 % de r\u00e9ponses valides uniquement avec leur support, ce qui est au-dessus des performances de Citron (72,34 %). Contrairement aux utilisateurs, Citron fournit une proportion importante de r\u00e9ponses incorrecte (27,66 %), les causes de ces erreurs sont d\u00e9taill\u00e9es juste apr\u00e8s.",
"cite_spans": [
{
"start": 237,
"end": 245,
"text": "(3,11 %)",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Les utilisateurs",
"sec_num": "3.3"
},
{
"text": "Nous avons utilis\u00e9 la F-mesure pour \u00e9valuer la qualit\u00e9 de l'extraction des r\u00e9ponses. Nous avons aussi souhait\u00e9 comparer les performances de Citron en terme de vitesse d'ex\u00e9cution par rapport \u00e0 celles humaines. Pour cela nous avons mesur\u00e9 les vitesses de Citron et ceux des utilisateurs pour r\u00e9pondre \u00e0 chaque question. Pour chaque utilisateur, nous comparons sa vitesse par rapport au plus rapide des utilisateurs \u00e0 fournir une r\u00e9ponse correcte : V = min( n rapide n utilisateur , 1) o\u00f9, pour une question, n rapide est le nombre de secondes le plus petit n\u00e9cessaire pour fournir une r\u00e9ponse correcte parmi tous les utilisateurs humains et n utilisateur le nombre de secondes pass\u00e9es par l'utilisateur (le minimum sert pour Citron qui est tr\u00e8s souvent plus rapide que le plus rapide des utilisateurs). pas \u00e0 7 questions sur les 20. Pour ces questions, Citron a notamment rencontr\u00e9 des probl\u00e8mes d'absence de candidatsr\u00e9ponses du type attendu et de non application de nos r\u00e8gles XIP (probl\u00e8me de conversion HTML, question en anglais). Citron a une forte pr\u00e9cision : si on ne prend en compte que les questions auxquelles Citron a r\u00e9pondu, il n'est alors en moyenne que de 10 points en F-mesure derri\u00e8re les utilisateurs, obtenant m\u00eame un meilleur score pour le jeuB.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Les utilisateurs",
"sec_num": "3.3"
},
{
"text": "X X X X X X X X X Statut",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Les utilisateurs",
"sec_num": "3.3"
},
{
"text": "Le tableau 4 montre que 71,39 % des utilisateurs ont trouv\u00e9 que la pr\u00e9sentation des r\u00e9ponses \u00e0 la Citron r\u00e9pondait mieux \u00e0 la question. La pr\u00e9sentation \u00e0 la Citron est vue comme justifiant le mieux ses r\u00e9ponses \u00e0 61,80 %, ce qui semble confirmer l'int\u00e9r\u00eat d'ajouter le crit\u00e8re variant aux r\u00e9ponses extraites quand il existe. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats de la satisfaction des utilisateurs",
"sec_num": "5"
},
{
"text": "Citron est un syst\u00e8me de question-r\u00e9ponse en fran\u00e7ais capable d'extraire des r\u00e9ponses \u00e0 des questions \u00e0 r\u00e9ponses multiples en domaine ouvert \u00e0 partir de documents provenant du Web. La particularit\u00e9 de Citron est qu'il exploite les structures (\u00e9num\u00e9rations, tableaux) propres \u00e0 ces documents pour mieux extraire les r\u00e9ponses et \u00e9ventuellement les agr\u00e9ger pour faire appara\u00eetre des crit\u00e8res variants comme la date ou le lieu. Nous nous sommes int\u00e9ress\u00e9s ici \u00e0 la comparaison de performances entre des humains et notre syst\u00e8me de question-r\u00e9ponse Citron pour la t\u00e2che d'extraction de r\u00e9ponses \u00e0 des questions \u00e0 r\u00e9ponses multiples. Nos diff\u00e9rentes exp\u00e9riences nous ont permis de confirmer l'hypoth\u00e8se intuitive qu'un \u00eatre humain est plus performant que notre syst\u00e8me mais \u00e0 un co\u00fbt temporel tr\u00e8s fort. Elles ont aussi confirm\u00e9 l'importance pour un syst\u00e8me de pouvoir traiter les \u00e9l\u00e9ments structuraux comme les tableaux. Mais ces \u00e9valuations ont surtout permis de montrer que les utilisateurs produisent eux-aussi des r\u00e9ponses pr\u00e9sentant des crit\u00e8res variants et pr\u00e9f\u00e8rent la pr\u00e9sentation des r\u00e9ponses offerte par Citron, notamment parce qu'elle aide mieux \u00e0 comprendre la justification des r\u00e9ponses et leur multiplicit\u00e9.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion",
"sec_num": "6"
},
{
"text": "Niveau informatique normal 0,80 0,47 0,53 0,76 0,45 0,52 0,24 Niveau informatique interm\u00e9diaire 0,86 0,38 0,47 0,68 0,33 0,40 0,21 Niveau informatique avanc\u00e9 0,95 0,68 0,75 0,87 0,65 0,70 0,18 \u00c2ge 10-25 ans 0,89 0,59 0,65 0,76 0,54 0,59 0,22 \u00c2ge 26-40 ans 0,93 0,64 0,71 0,88 0,62 0,68 0,21 \u00c2ge 41 ans et plus 0,76 0,42 0,47 0,69 0,40 0,45 0,16",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "Nous avons consid\u00e9r\u00e9 qu'une personne \u00e9tait sensibilis\u00e9e \u00e0 la th\u00e9matique question-r\u00e9ponse si elle a lu au moins un article",
"authors": [],
"year": null,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Nous avons consid\u00e9r\u00e9 qu'une personne \u00e9tait sensibilis\u00e9e \u00e0 la th\u00e9matique question-r\u00e9ponse si elle a lu au moins un article.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "Le niveau normal correspond \u00e0 une utilisation quotidienne d'Internet et d'un logiciel de bureautique, celui interm\u00e9diaire implique l'utilisation d'un programme plus pouss\u00e9 (retouche d'image, musique)",
"authors": [],
"year": null,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Le niveau normal correspond \u00e0 une utilisation quotidienne d'Internet et d'un logiciel de bureautique, celui interm\u00e9diaire implique l'utilisation d'un programme plus pouss\u00e9 (retouche d'image, musique).",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "Robustness beyond shallowness : incremental deep parsing",
"authors": [
{
"first": "A\u00eft-Mokhtar S",
"middle": [],
"last": "R\u00e9f\u00e9rences",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Chanod J.-P. & Roux C",
"suffix": ""
}
],
"year": 2002,
"venue": "Natural Language Engineering",
"volume": "8",
"issue": "",
"pages": "121--144",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "R\u00e9f\u00e9rences A\u00cfT-MOKHTAR S., CHANOD J.-P. & ROUX C. (2002). Robustness beyond shallowness : incremental deep parsing. Natural Language Engineering, 8, 121-144.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "Evaluation en question-r\u00e9ponse, rapport final de la campagne EVALDA",
"authors": [
{
"first": "C",
"middle": [],
"last": "Ayache",
"suffix": ""
}
],
"year": 2005,
"venue": "Campagne EQUER",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "AYACHE C. (2005). Evaluation en question-r\u00e9ponse, rapport final de la campagne EVALDA. In Campagne EQUER.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "Typologie des questions \u00e0 r\u00e9ponses multiples pour un syst\u00e8me de question-r\u00e9ponse",
"authors": [
{
"first": "Falco M.-H",
"middle": [],
"last": "",
"suffix": ""
}
],
"year": 2012,
"venue": "RECITAL",
"volume": "",
"issue": "",
"pages": "191--204",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "FALCO M.-H. (2012). Typologie des questions \u00e0 r\u00e9ponses multiples pour un syst\u00e8me de question-r\u00e9ponse. In RECITAL, p. 191-204, Grenoble, France.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "R\u00e9pondre \u00e0 des questions \u00e0 r\u00e9ponses multiples : premi\u00e8res exp\u00e9rimentations",
"authors": [
{
"first": "",
"middle": [],
"last": "Falco M.-H",
"suffix": ""
},
{
"first": "V",
"middle": [
"&"
],
"last": "Moriceau",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Vilnat A. ; M.-H",
"suffix": ""
},
{
"first": "V",
"middle": [
"&"
],
"last": "Moriceau",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Vilnat A",
"suffix": ""
}
],
"year": 2012,
"venue": "Conf\u00e9rence francophone en Recherche d'Information et Applications (CORIA)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "FALCO M.-H., MORICEAU V. & VILNAT A. (2012). Kitten : a tool for normalizing HTML and extracting its textual content. In Proceedings of the Eight International Conference on (LREC'12), Istanbul, Turkey. FALCO M.-H., MORICEAU V. & VILNAT A. (2013). R\u00e9pondre \u00e0 des questions \u00e0 r\u00e9ponses multiples : premi\u00e8res exp\u00e9rimentations. In Conf\u00e9rence francophone en Recherche d'Information et Applications (CORIA).",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "Validation de r\u00e9ponse dans un syst\u00e8me de question-r\u00e9ponse",
"authors": [
{
"first": "",
"middle": [],
"last": "Grappy A",
"suffix": ""
}
],
"year": 2011,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GRAPPY A. (2011). Validation de r\u00e9ponse dans un syst\u00e8me de question-r\u00e9ponse. PhD thesis, Universit\u00e9 Paris-Sud.",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "Lucene in action",
"authors": [
{
"first": "",
"middle": [],
"last": "Hatcher E",
"suffix": ""
},
{
"first": "O",
"middle": [
"&"
],
"last": "Gospodnetic",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Mccandless M",
"suffix": ""
}
],
"year": 2010,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HATCHER E., GOSPODNETIC O. & MCCANDLESS M. (2010). Lucene in action, Second Edition. Manning.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "FIDJI : Using Syntax for Validating Answers in Multiple Documents. Information Retrieval",
"authors": [
{
"first": "",
"middle": [],
"last": "Moriceau V. & Tannier X",
"suffix": ""
}
],
"year": 2010,
"venue": "Special Issue on Focused Information Retrieval",
"volume": "13",
"issue": "5",
"pages": "507--533",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MORICEAU V. & TANNIER X. (2010). FIDJI : Using Syntax for Validating Answers in Multiple Documents. Informa- tion Retrieval, Special Issue on Focused Information Retrieval, 13(5), 507-533.",
"links": null
},
"BIBREF12": {
"ref_id": "b12",
"title": "Question Answering on Web Data : The QA Evaluation in Quaero",
"authors": [
{
"first": "",
"middle": [],
"last": "Quintard L",
"suffix": ""
},
{
"first": "O",
"middle": [],
"last": "Galibert",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Adda",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Grau B",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Laurent D",
"suffix": ""
},
{
"first": "V",
"middle": [],
"last": "Moriceau",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Rosset",
"suffix": ""
},
{
"first": "X",
"middle": [
"&"
],
"last": "Tannier",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Vilnat A",
"suffix": ""
}
],
"year": 2010,
"venue": "Language Resources and Evaluation",
"volume": "47",
"issue": "2",
"pages": "269--298",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "QUINTARD L., GALIBERT O., ADDA G., GRAU B., LAURENT D., MORICEAU V., ROSSET S., TANNIER X. & VILNAT A. (2010). Question Answering on Web Data : The QA Evaluation in Quaero. In LREC, Valletta, Malta. STR\u00d6TGEN J. & GERTZ M. (2013). Multilingual and Cross-domain Temporal Tagging. Language Resources and Evaluation, 47(2), 269-298.",
"links": null
},
"BIBREF13": {
"ref_id": "b13",
"title": "WebAnnotator, an Annotation Tool for Web Pages",
"authors": [
{
"first": "",
"middle": [],
"last": "Tannier X",
"suffix": ""
}
],
"year": 2012,
"venue": "LREC 2012",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "TANNIER X. (2012). WebAnnotator, an Annotation Tool for Web Pages. In LREC 2012, Istanbul, Turkey.",
"links": null
}
},
"ref_entries": {
"TABREF1": {
"type_str": "table",
"text": "R\u00e9partition des profils utilisateurs.",
"num": null,
"html": null,
"content": "<table><tr><td>4 R\u00e9sultats de l'extraction des r\u00e9ponses</td></tr><tr><td>4.1 Annotations des r\u00e9ponses et mesures d'\u00e9valuation</td></tr><tr><td>Les utilisateurs \u00e9taient libres de saisir dans le formulaire une seule r\u00e9ponse \u00e0 la fois ou plusieurs en m\u00eame temps tant</td></tr><tr><td>qu'elles provenaient du m\u00eame snippet. Nous avons donc d'abord segment\u00e9 toutes les r\u00e9ponses fournies en r\u00e9ponses</td></tr><tr><td>individuelles et sommes arriv\u00e9s \u00e0 un total de 2319 r\u00e9ponses/entit\u00e9s individuelles, soit une moyenne de 72,47 r\u00e9ponses</td></tr><tr><td>individuelles par utilisateur et de 7,27 r\u00e9ponses par question. Ces 2319 r\u00e9ponses proviennent pour 33,72 % de structures</td></tr><tr><td>\u00e9num\u00e9ratives, 24,28 % de tableaux et 42 % de texte. Nous les avons annot\u00e9es manuellement avec les statuts de r\u00e9ponses</td></tr></table>"
},
"TABREF3": {
"type_str": "table",
"text": "R\u00e9partition des r\u00e9ponses individuelles des 32 utilisateurs et de Citron.",
"num": null,
"html": null,
"content": "<table><tr><td>4.2 R\u00e9sultats</td><td/><td/><td/><td/><td/><td/><td/></tr><tr><td>Profil</td><td colspan=\"3\">P hum R hum F hum</td><td colspan=\"4\">P QR R QR F QR V QR</td></tr><tr><td>TAL</td><td>0,91</td><td>0,61</td><td>0,68</td><td>0,87</td><td>0,59</td><td>0,65</td><td>0,22</td></tr><tr><td>Non TAL</td><td>0,86</td><td>0,55</td><td>0,62</td><td>0,77</td><td>0,51</td><td>0,57</td><td>0,21</td></tr><tr><td>Recherche</td><td>0,94</td><td>0,67</td><td>0,73</td><td>0,87</td><td>0,64</td><td>0,69</td><td>0,19</td></tr><tr><td>Non Recherche</td><td>0,81</td><td>0,45</td><td>0,52</td><td>0,71</td><td>0,42</td><td>0,48</td><td>0,22</td></tr><tr><td>Nb requ\u00eate quotidienne &lt;=10</td><td>0,83</td><td>0,47</td><td>0,54</td><td>0,73</td><td>0,43</td><td>0,49</td><td>0,21</td></tr><tr><td>Nb requ\u00eate quotidienne &gt; 10</td><td>0,93</td><td>0,67</td><td>0,73</td><td>0,88</td><td>0,64</td><td>0,70</td><td>0,20</td></tr><tr><td>Aucun article QR lu</td><td>0,81</td><td>0,51</td><td>0,57</td><td>0,75</td><td>0,49</td><td>0,54</td><td>0,23</td></tr><tr><td>De 1 \u00e0 5 articles QR lus</td><td>0,91</td><td>0,63</td><td>0,69</td><td>0,82</td><td>0,59</td><td>0,65</td><td>0,20</td></tr><tr><td>&gt;= 6 articles QR lus</td><td>0,95</td><td>0,66</td><td>0,73</td><td>0,92</td><td>0,65</td><td>0,72</td><td>0,19</td></tr><tr><td>Moyenne humaine (sur la totalit\u00e9 des questions)</td><td>0,88</td><td>0,58</td><td>0,65</td><td>0,81</td><td>0,55</td><td>0,61</td><td>0,21</td></tr><tr><td>Moyenne Citron (sur la totalit\u00e9 des questions)</td><td>0,47</td><td>0,36</td><td>0,37</td><td>0,47</td><td>0,36</td><td>0,37</td><td>0,89</td></tr><tr><td>Moyenne humaine (sur les questions auxquelles Citron r\u00e9pond)</td><td>0,91</td><td>0,64</td><td>0,70</td><td>0,85</td><td>0,61</td><td>0,66</td><td>0,17</td></tr><tr><td>Moyenne Citron (sur les questions auxquelles Citron r\u00e9pond)</td><td>0,72</td><td>0,56</td><td>0,56</td><td>0,72</td><td>0,56</td><td>0,56</td><td>0,88</td></tr></table>"
},
"TABREF4": {
"type_str": "table",
"text": "Moyennes de jeuA et jeuB (hum pour l'\u00e9valuation des r\u00e9ponses sur des crit\u00e8res humains et QR selon les crit\u00e8res d'une campagne d'\u00e9valuation). P pour pr\u00e9cision, R pour rappel, F pour F-mesure, V pour vitesse . Le tableau 3 pr\u00e9sente les r\u00e9sultats pour les deux jeux de question. La rapidit\u00e9 se lit \u00e0 l'aide de la mesure V QR et montre que plus les utilisateurs sont jeunes, plus ils ont \u00e9t\u00e9 rapides (+31 et +38 % pour les 2 tranches d'\u00e2ge les plus jeunes). Il faut noter que la quasi-totalit\u00e9 des utilisateurs a choisi d'extraire le maximum de r\u00e9ponses diff\u00e9rentes possibles pour chaque question avec une dur\u00e9e moyenne de 238,37 secondes pour une m\u00e9diane de 239,77. Par exemple, seul 9 % des utilisateurs n'ont pas r\u00e9pondu \u00e0 une question de leur jeu. Citron a \u00e9t\u00e9 con\u00e7u pour r\u00e9pondre de fa\u00e7on rapide aux questions et se retrouve sans surprise le plus rapide, Citron passant en moyenne 22 secondes 4 par question. M\u00eame pour les questions auxquelles Citron d\u00e9cide de ne pas r\u00e9pondre, le temps consomm\u00e9 pour extraire les candidats-r\u00e9ponses et finalement ne pas les proposer ne le d\u00e9savantage pas au niveau temporel. Le coefficient de corr\u00e9lation de Bravais-Pearson montre qu'il n'y a pas de corr\u00e9lation entre le temps pass\u00e9 et la qualit\u00e9 de l'extraction.",
"num": null,
"html": null,
"content": "<table/>"
},
"TABREF5": {
"type_str": "table",
"text": "En ne prenant en compte que les r\u00e9ponses globales, quelle colonne r\u00e9pond le mieux \u00e0 la question pos\u00e9e ?tr\u00e8s nettement la gauche plut\u00f4t la gauche plut\u00f4t la droite tr\u00e8s nettement la droite",
"num": null,
"html": null,
"content": "<table><tr><td>Moyenne (jeux A et B)</td><td>7,27</td><td>21,34</td><td>30,0</td><td>41,39</td></tr><tr><td colspan=\"2\">Quelle colonne justifie le mieux ses r\u00e9ponses ?</td><td/><td/><td/></tr><tr><td/><td colspan=\"4\">tr\u00e8s nettement la gauche plut\u00f4t la gauche plut\u00f4t la droite tr\u00e8s nettement la droite</td></tr><tr><td>Moyenne (jeux A et B)</td><td>8,46</td><td>29,74</td><td>42,73</td><td>19,07</td></tr></table>"
},
"TABREF6": {
"type_str": "table",
"text": "Pr\u00e9f\u00e9rences de pr\u00e9sentation des r\u00e9ponses : gauche pour le format campagne d'\u00e9valuation et droite pour Citron.",
"num": null,
"html": null,
"content": "<table/>"
}
}
}
}