{ "paper_id": "F14-1012", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T10:23:16.411281Z" }, "title": "Peut-on bien chunker avec de mauvaises \u00e9tiquettes POS ?", "authors": [ { "first": "Isabelle", "middle": [], "last": "Tellier", "suffix": "", "affiliation": {}, "email": "isabelle.tellier@univ-paris3.fr" }, { "first": "Iris", "middle": [], "last": "Eshkol-Taravella", "suffix": "", "affiliation": {}, "email": "" }, { "first": "Yoann", "middle": [], "last": "Dupont", "suffix": "", "affiliation": {}, "email": "yoann.dupont@etu.univ-paris3.fr" }, { "first": "Ilaine", "middle": [], "last": "Wang", "suffix": "", "affiliation": {}, "email": "i.wang@u-paris10.fr" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "Dans cet article, nous testons deux approches distinctes pour chunker un corpus oral transcrit, en cherchant \u00e0 minimiser les \u00e9tapes de correction manuelle. Nous r\u00e9-utilisons tout d'abord un chunker appris sur des donn\u00e9es \u00e9crites, puis nous tentons de r\u00e9-apprendre un chunker sp\u00e9cifique de l'oral \u00e0 partir de donn\u00e9es annot\u00e9es et corrig\u00e9es manuellement, mais en faible quantit\u00e9. L'objectif est d'atteindre les meilleurs r\u00e9sultats possibles pour le chunker en se passant autant que possible de la correction manuelle des \u00e9tiquettes POS. Nos exp\u00e9riences montrent qu'il est possible d'apprendre un nouveau chunker performant pour l'oral \u00e0 partir d'un corpus de r\u00e9f\u00e9rence annot\u00e9 de petite taille, sans intervention sur les \u00e9tiquettes POS.", "pdf_parse": { "paper_id": "F14-1012", "_pdf_hash": "", "abstract": [ { "text": "Dans cet article, nous testons deux approches distinctes pour chunker un corpus oral transcrit, en cherchant \u00e0 minimiser les \u00e9tapes de correction manuelle. Nous r\u00e9-utilisons tout d'abord un chunker appris sur des donn\u00e9es \u00e9crites, puis nous tentons de r\u00e9-apprendre un chunker sp\u00e9cifique de l'oral \u00e0 partir de donn\u00e9es annot\u00e9es et corrig\u00e9es manuellement, mais en faible quantit\u00e9. L'objectif est d'atteindre les meilleurs r\u00e9sultats possibles pour le chunker en se passant autant que possible de la correction manuelle des \u00e9tiquettes POS. Nos exp\u00e9riences montrent qu'il est possible d'apprendre un nouveau chunker performant pour l'oral \u00e0 partir d'un corpus de r\u00e9f\u00e9rence annot\u00e9 de petite taille, sans intervention sur les \u00e9tiquettes POS.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "Nous nous int\u00e9ressons dans cet article au processus de segmentation de textes en chunks, c'est-\u00e0-dire en constituants continus non-r\u00e9cursifs (Abney, 1991) . La t\u00e2che de chunking vise en effet \u00e0 identifier la structure syntaxique superficielle d'un \u00e9nonc\u00e9, c'est-\u00e0-dire \u00e0 reconna\u00eetre ses constituants minimaux, sans pour autant sp\u00e9cifier leur structure interne ni leur fonction syntaxique. Elle s'appuie sur un \u00e9tiquetage morpho-syntaxique (ou POS) pr\u00e9alable, donnant ainsi lieu \u00e0 une s\u00e9quence d'annotations successives.", "cite_spans": [ { "start": 141, "end": 154, "text": "(Abney, 1991)", "ref_id": "BIBREF6" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Plusieurs strat\u00e9gies sont possibles pour construire un chunker. L'apprentissage automatique supervis\u00e9 est particuli\u00e8rement performant sur cette t\u00e2che (Sha et Pereira, 2003) , surtout si l'\u00e9tiquetage POS sur lequel il repose est de bonne qualit\u00e9. Mais le r\u00e9sultat d'un processus d'apprentissage n'est pas toujours adapt\u00e9 \u00e0 des textes diff\u00e9rant sensiblement de ceux ayant servi \u00e0 apprendre. Nous supposons \u00eatre dans la situation suivante : nous disposons d'un \u00e9tiqueteur POS et d'un chunker appris \u00e0 partir d'une assez grande quantit\u00e9 de donn\u00e9es annot\u00e9es (les donn\u00e9es sources), homog\u00e8nes en termes de style. Nous souhaitons maintenant chunker des textes nouveaux (les donn\u00e9es cibles), initialement non annot\u00e9s, pr\u00e9sentant de grandes diff\u00e9rences de style avec les donn\u00e9es sources. En particulier, l'annotation POS produite sur les donn\u00e9es cibles par le mod\u00e8le r\u00e9sultant de l'apprentissage sur les donn\u00e9es sources n'est pas de bonne qualit\u00e9, mais nous ne souhaitons pas consacrer du temps \u00e0 apprendre un nouvel \u00e9tiqueteur morphosyntaxique sp\u00e9cifique pour le corpus cible. Dans ce cas, est-il utile de corriger manuellement les \u00e9tiquettes POS du I. TELLIER, I. ESHKOL, Y. DUPONT, I. WANG corpus cible pour faciliter la t\u00e2che au chunker qui op\u00e8re sur elles, ou vaut-il mieux se concentrer sur le seul niveau du chunking ? C'est la principale question que nous abordons dans cet article.", "cite_spans": [ { "start": 150, "end": 172, "text": "(Sha et Pereira, 2003)", "ref_id": "BIBREF28" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Dans le cas explor\u00e9 ici, les donn\u00e9es sources sont des textes journalistiques, et les donn\u00e9es cibles des transcriptions de l'oral. L'oral se caract\u00e9rise par des ph\u00e9nom\u00e8nes linguistiques qui lui sont propres, regroup\u00e9s sous l'appellation g\u00e9n\u00e9rale de disfluences, qui compliquent son annotation et son chunking. L'int\u00e9r\u00eat du chunking de l'oral est pourtant ind\u00e9niable : il repr\u00e9sente un degr\u00e9 d'analyse adapt\u00e9 pour certains \u00e9nonc\u00e9s o\u00f9 l'on constate des libert\u00e9s prises par rapport \u00e0 une syntaxe standard. Il a par exemple \u00e9t\u00e9 montr\u00e9 que les chunks sont le lieu de r\u00e9alisation privil\u00e9gi\u00e9 des r\u00e9parations \u00e0 l'oral (Blanche-Benveniste C., 1997 : 47) .", "cite_spans": [ { "start": 609, "end": 643, "text": "(Blanche-Benveniste C., 1997 : 47)", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Notre objectif est donc de chunker le mieux possible nos donn\u00e9es orales cibles, en minimisant l'intervention manuelle. Nous souhaitons notamment voir s'il est possible d'acqu\u00e9rir un chunker de l'oral de bonne qualit\u00e9 \u00e0 partir de peu de donn\u00e9es annot\u00e9es, sans pour autant apprendre un \u00e9tiqueteur POS sp\u00e9cifique. Apprendre un chunker est en effet moins co\u00fbteux qu'apprendre un \u00e9tiqueteur POS car la variabilit\u00e9 des donn\u00e9es servant d'appui (les \u00e9tiquettes POS dans un cas, les mots dans l'autre) est moindre. Une situation similaire peut survenir dans d'autres contextes, par exemple pour adapter un reconnaisseur d'entit\u00e9s nomm\u00e9es (lui aussi largement fond\u00e9 sur un \u00e9tiquetage POS pr\u00e9alable) acquis sur des textes \u00e9crits \u00e0 des donn\u00e9es orales. Et la m\u00eame probl\u00e9matique d'adaptation se pose aussi si, au lieu que ce soit la modalit\u00e9 (\u00e9crit/oral) qui change entre les donn\u00e9es sources et cibles, c'est leur domaine, leur genre, voire leur langue. L'article suit la structure suivante. Tout d'abord, nous \u00e9voquons la t\u00e2che de chunking, ses sp\u00e9cificit\u00e9s dans le cas de l'oral ainsi que les corpus source et cible \u00e0 notre disposition : le corpus annot\u00e9 de textes \u00e9crits (French Treebank) de Paris 7 et un extrait du corpus oral transcrit ESLO 1 (section 2). Nous d\u00e9crivons ensuite (en section 3) les diff\u00e9rents chunkers utilis\u00e9s : ils proviennent tous de la m\u00eame technique d'apprentissage automatique supervis\u00e9e, mais partant de donn\u00e9es annot\u00e9es diff\u00e9rentes. Nous exposons enfin dans la derni\u00e8re partie (la section 4) les r\u00e9sultats de diverses strat\u00e9gies utilis\u00e9es pour chunker les donn\u00e9es orales transcrites, n\u00e9cessitant diff\u00e9rents degr\u00e9s de corrections manuelles.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Les chunkers, aussi appel\u00e9s \u00ab shallow parsers \u00bb, sont bien adapt\u00e9s aux donn\u00e9es orales transcrites, dont les \u00e9nonc\u00e9s ne sont pas souvent \u00ab finalis\u00e9s \u00bb. Deux probl\u00e8mes majeurs se posent aux outils annotant l'oral : les disfluences, qui rompent la lin\u00e9arit\u00e9 du discours, et le manque de ponctuation dans les transcriptions. Pour (Dister, 2007) , les disfluences sont les \u00ab marques typiques des \u00e9nonc\u00e9s en cours d'\u00e9laboration \u00bb qui \u00ab constituent un pi\u00e9tinement sur l'axe syntagmatique de l'\u00e9nonc\u00e9 et [\u2026] n\u00e9cessitent d'\u00eatre prises en compte par le syst\u00e8me d'\u00e9tiquetage. \u00bb. Les disfluences typiques sont les suivantes (extraits du corpus ESLO, d\u00e9crit plus loin) :", "cite_spans": [ { "start": 326, "end": 340, "text": "(Dister, 2007)", "ref_id": "BIBREF21" } ], "ref_spans": [], "eq_spans": [], "section": "Chunking des donn\u00e9es orales transcrites", "sec_num": "2.1" }, { "text": "les h\u00e9sitations : madame euh comment vous fa\u00eetes une omelette les faux-d\u00e9parts : il va y avoir encore des encore mais les r\u00e9p\u00e9titions : le le les autocorrections : juste apr\u00e8s le la fin du premier cycle les reformulations : on fait ce que l'on appelle un carton c'est-\u00e0-dire le le ce dessin-l\u00e0 agrandi les amorces : vous v-vous \u00eates in-institutrice etc.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Chunking des donn\u00e9es orales transcrites", "sec_num": "2.1" }, { "text": "Elles repr\u00e9sentent un vrai probl\u00e8me pour l'analyse automatique de l'oral (Adda-Decker et al., 2003 , Antoine et al., 2003 , Benzitoun, 2004 , Valli et V\u00e9ronis 1999 et r\u00e9duisent consid\u00e9rablement les performances des outils construits pour l'\u00e9crit standard. Nos propres exp\u00e9riences confirmeront ce constat (cf. section 4.1). La notion de phrase, essentiellement graphique, a rapidement \u00e9t\u00e9 abandonn\u00e9e par les linguistes qui s'int\u00e9ressent \u00e0 l'oral ; les transcriptions ne sont donc en g\u00e9n\u00e9ral pas ponctu\u00e9es pour \u00e9viter l'anticipation de l'interpr\u00e9tation (Blanche-Benveniste, Jeanjean, 1987 ", "cite_spans": [ { "start": 73, "end": 98, "text": "(Adda-Decker et al., 2003", "ref_id": "BIBREF8" }, { "start": 99, "end": 121, "text": ", Antoine et al., 2003", "ref_id": "BIBREF10" }, { "start": 122, "end": 139, "text": ", Benzitoun, 2004", "ref_id": "BIBREF12" }, { "start": 140, "end": 163, "text": ", Valli et V\u00e9ronis 1999", "ref_id": null }, { "start": 551, "end": 586, "text": "(Blanche-Benveniste, Jeanjean, 1987", "ref_id": "BIBREF16" } ], "ref_spans": [], "eq_spans": [], "section": "Chunking des donn\u00e9es orales transcrites", "sec_num": "2.1" }, { "text": "Le deuxi\u00e8me corpus utilis\u00e9 est un tout petit extrait du corpus oral transcrit ESLO 1 (Enqu\u00eate Sociolinguistique d'Orl\u00e9ans) 2 (Eshkol-Taravella et al. 2012) ", "cite_spans": [ { "start": 125, "end": 155, "text": "(Eshkol-Taravella et al. 2012)", "ref_id": "BIBREF23" } ], "ref_spans": [], "eq_spans": [], "section": "ESLO 1", "sec_num": "2.3" }, { "text": "Nous ne chercherons pas \u00e0 apprendre un nouvel \u00e9tiqueteur POS sp\u00e9cifique de l'oral mais plut\u00f4t, dans certaines exp\u00e9riences \u00e0 apprendre un nouveau chunker \u00e0 partir de donn\u00e9es orales annot\u00e9es \u00e0 la fois en POS et en chunks. Pour apprendre ce nouveau chunker (en fait, il y en aura plusieurs, suivant la nature des \u00e9tiquettes utilis\u00e9es), nous utiliserons, comme cela avait \u00e9t\u00e9 fait pour apprendre SEM, des CRF lin\u00e9aires. Pour \u00e9valuer la qualit\u00e9 du chunking produit par SEM sur l'oral, il faut constituer un corpus de r\u00e9f\u00e9rence en corrigeant l'annotation en chunks propos\u00e9e par SEM sur l'extrait d'ESLO 1, avec les \u00e9tiquettes qu'il utilise (colonne IV dans la Table 2 ). D\u00e9couper en chunks la transcription de l'oral pose des probl\u00e8mes sp\u00e9cifiques, \u00e0 cause, entre autres, des disfluences. Nous explicitons ici les choix faits pour cette correction manuelle.", "cite_spans": [], "ref_spans": [ { "start": 654, "end": 661, "text": "Table 2", "ref_id": "TABREF4" } ], "eq_spans": [], "section": "Technique d'apprentissage de nouveaux chunkers", "sec_num": "3.2" }, { "text": "L'exemple de l'\u00e9nonc\u00e9 annot\u00e9 dans la -Si la r\u00e9p\u00e9tition ne porte pas sur une t\u00eate, les deux \u00e9l\u00e9ments appartiennent au m\u00eame chunk :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Technique d'apprentissage de nouveaux chunkers", "sec_num": "3.2" }, { "text": "(la/DET la/DET belle/ADJ jeune/ADJ fille/NC)NP", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Technique d'apprentissage de nouveaux chunkers", "sec_num": "3.2" }, { "text": "Le chunking produit par SEM sans aucune adaptation est \u00e9valu\u00e9 relativement \u00e0 cette r\u00e9f\u00e9rence avec une micro-pr\u00e9cision de 77,24 et une macro-pr\u00e9cision de 76. Plus de 20 points de F-mesure en moyenne (micro-average) sont donc perdus en appliquant un programme appris avec des textes \u00e9crits sources sur des donn\u00e9es transcrites de l'oral. Ce mauvais r\u00e9sultat est le point de d\u00e9part de diff\u00e9rentes tentatives d'am\u00e9lioration. L'objectif des exp\u00e9riences qui suivent est de corriger le minimum de donn\u00e9es manuellement pour am\u00e9liorer au maximum les performances du chunker.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Technique d'apprentissage de nouveaux chunkers", "sec_num": "3.2" }, { "text": "Le chunking pr\u00e9c\u00e9dent \u00e9tait appliqu\u00e9 en cascade apr\u00e8s un \u00e9tiquetage POS du corpus qui \u00e9tait lui-m\u00eame sans doute m\u00e9diocre. La premi\u00e8re id\u00e9e pour am\u00e9liorer le chunking est donc de corriger manuellement l'\u00e9tiquetage POS de l'oral avant de lui appliquer la phase de chunking. Ce processus a permis par la m\u00eame occasion d'\u00e9valuer la qualit\u00e9 de l'\u00e9tiquetage POS de SEM sur l'oral : son exactitude atteint 80,98%, soit 17% de moins environ que sur des donn\u00e9es similaires \u00e0 celles qui ont servi \u00e0 apprendre. La fonction \u00ab chunker seul \u00bb de SEM peut ensuite s'appliquer sur le corpus avec des \u00e9tiquettes POS corrig\u00e9es \u00e0 la main (les colonnes I et III).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Utilisation de SEM apr\u00e8s correction de l'\u00e9tiquetage POS", "sec_num": "4.1.2" }, { "text": "Pour corriger les \u00e9tiquettes POS, certaines conventions ont \u00e9t\u00e9 adopt\u00e9es concernant les disfluences de l'oral (voir les colonnes II : les \u00e9tiquettes POS annot\u00e9es par SEM et III : les \u00e9tiquettes POS corrig\u00e9es selon les conventions \u00e9tablies). Les faux d\u00e9parts et les amorces (comme l-dans l'exemple de la Table 2 ) ont re\u00e7u une \u00e9tiquette (UNKNOWN) qui correspond aux mots \u00e9trangers et aux n\u00e9ologismes dans le FTB. Les marqueurs discursifs ainsi que les euh d'h\u00e9sitation ont \u00e9t\u00e9 \u00e9tiquet\u00e9s en tant qu'interjection (I). C'est, parmi les \u00e9tiquettes disponibles dans SEM, celle qui correspond le mieux \u00e0 ces unit\u00e9s caract\u00e9ristiques de l'oral.", "cite_spans": [], "ref_spans": [ { "start": 303, "end": 310, "text": "Table 2", "ref_id": "TABREF4" } ], "eq_spans": [], "section": "Utilisation de SEM apr\u00e8s correction de l'\u00e9tiquetage POS", "sec_num": "4.1.2" }, { "text": "La correction des erreurs de l'\u00e9tiquetage POS porte surtout sur les diff\u00e9rences entre l'\u00e9crit et l'oral. Par exemple, la forme bon est utilis\u00e9e en tant qu'adjectif dans 99% des cas dans le FTB, alors qu'elle est beaucoup plus fr\u00e9quente dans le corpus oral en tant qu'interjection (83%).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Utilisation de SEM apr\u00e8s correction de l'\u00e9tiquetage POS", "sec_num": "4.1.2" }, { "text": "La nouvelle micro-average du chunker est maintenant de 87,74 alors que sa nouvelle macro-average est de 88,43. Ces r\u00e9sultats sont en quelque sorte \u00e0 mi-chemin des pr\u00e9c\u00e9dents : \u00e0 peu pr\u00e8s la moiti\u00e9 des erreurs de chunking sur l'oral peut donc \u00eatre imput\u00e9e \u00e0 des erreurs d'\u00e9tiquetage POS.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Utilisation de SEM apr\u00e8s correction de l'\u00e9tiquetage POS", "sec_num": "4.1.2" }, { "text": "La deuxi\u00e8me approche consiste \u00e0 apprendre un nouveau chunker \u00e0 partir du seul corpus extrait d'ESLO 1, en tenant compte autant que possible des sp\u00e9cificit\u00e9s de l'oral. Nous avons choisi de ne pas r\u00e9-appprendre un \u00e9tiqueteur POS sp\u00e9cifique sur les donn\u00e9es cibles (ni \u00e0 en appliquer un autre que SEM), pour nous concentrer sur la phase de chunking. Tant qu'\u00e0 r\u00e9-apprendre un nouveau chunker, nous en avons aussi profit\u00e9 pour d\u00e9finir un jeu de chunks adapt\u00e9.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Deuxi\u00e8me approche : Apprentissage d'un chunker sp\u00e9cifique de l'oral", "sec_num": "4.2" }, { "text": "Pour tenir compte des sp\u00e9cificit\u00e9s de l'oral, nous avons choisi d'ajouter deux types de chunks nouveaux qui lui sont propres (voir la colonne V du Table 2 ). La liste des chunks a ainsi \u00e9t\u00e9 \u00e9largie par deux nouveaux venus : ", "cite_spans": [], "ref_spans": [ { "start": 147, "end": 154, "text": "Table 2", "ref_id": "TABREF4" } ], "eq_spans": [], "section": "Modification des \u00e9tiquettes de chunks", "sec_num": "4.2.1" }, { "text": "-chunk", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Modification des \u00e9tiquettes de chunks", "sec_num": "4.2.1" }, { "text": "La premi\u00e8re exp\u00e9rience consiste \u00e0 apprendre un chunker \u00e0 partir des donn\u00e9es cibles annot\u00e9es en POS corrig\u00e9es (la colonne III de la Table 2 ) et des chunks adapt\u00e9s \u00e0 l'oral (la colonne V). Un protocole de validation crois\u00e9e \u00e0 10 plis a \u00e9t\u00e9 utilis\u00e9 pour \u00e9valuer la qualit\u00e9 du chunker ainsi obtenu, quand il est appliqu\u00e9 \u00e0 des donn\u00e9es de nouveau parfaitement annot\u00e9es en POS. La micro-average des F-mesures atteint alors 96,65 alors que leur macro-average vaut 96,08. Les r\u00e9sultats se sont donc significativement am\u00e9lior\u00e9s, et rejoignent ceux qui avaient \u00e9t\u00e9 constat\u00e9s pour SEM sur FTB.", "cite_spans": [], "ref_spans": [ { "start": 131, "end": 138, "text": "Table 2", "ref_id": "TABREF4" } ], "eq_spans": [], "section": "Apprentissage et test avec les \u00e9tiquettes POS corrig\u00e9es", "sec_num": "4.2.2" }, { "text": "Si on observe de plus pr\u00e8s les F-mesures des diff\u00e9rents types de chunks, en comparaison avec les exp\u00e9riences pr\u00e9c\u00e9dentes, on constate une forte progression de l'annotation des chunks adverbiaux (AdP). Ces chunks sont tr\u00e8s nombreux dans notre corpus au cours des premi\u00e8res exp\u00e9riences, car ils regroupent les adverbes, les marqueurs discursifs, les euh d'h\u00e9sitation et les interjections. L'introduction d'un nouveau chunk (IntP) annotant ces diff\u00e9rents ph\u00e9nom\u00e8nes (sauf les adverbes) a consid\u00e9rablement r\u00e9duit le nombre de chunks adverbiaux dans le corpus de r\u00e9f\u00e9rence, ce qui modifie significativement leur F-mesure. Lors de ces premi\u00e8res exp\u00e9riences, la F-mesure du chunk (AdP) varie entre 58,14 (avec les POS non corrig\u00e9es) et 71,87 (avec les POS corrig\u00e9es). D\u00e9sormais, la F-mesure atteint 95,76 pour le chunk (AdP) et 99,4 pour le chunk (IntP). L'apprentissage a donc bien r\u00e9ussi \u00e0 distinguer les deux types de chunks.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Apprentissage et test avec les \u00e9tiquettes POS corrig\u00e9es", "sec_num": "4.2.2" }, { "text": "Les erreurs constat\u00e9es concernent souvent des \u00ab exceptions \u00bb aux r\u00e8gles g\u00e9n\u00e9rales. C'est le cas des verbes qui forment d'habitude un chunk verbal (VN) sauf quand ils suivent une pr\u00e9position. Ainsi, dans l'exemple ci-dessous, le verbe est annot\u00e9 comme la t\u00eate d'un chunk verbal : Mais les tr\u00e8s bons r\u00e9sultats de ce nouveau chunker ne sont atteints que sur des donn\u00e9es qui ont elles-m\u00eames re\u00e7u un \u00e9tiquetage POS parfaitement correct. Or, aucun \u00e9tiqueteur POS de l'oral n'ayant \u00e9t\u00e9 appris, notre nouveau chunker risque de voir ses performances se d\u00e9grader significativement en situation r\u00e9elle, c'est-\u00e0-dire avec de mauvaises \u00e9tiquettes POS. Pour quantifier ce probl\u00e8me et essayer d'y rem\u00e9dier, nous avons men\u00e9 deux nouvelles exp\u00e9riences qui ne font pas l'hypoth\u00e8se de disposer d'un \u00e9tiquetage POS corrig\u00e9 lors de la phase d'utilisation du chunker.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Apprentissage et test avec les \u00e9tiquettes POS corrig\u00e9es", "sec_num": "4.2.2" }, { "text": "La deuxi\u00e8me exp\u00e9rience de cette s\u00e9rie vise \u00e0 \u00e9valuer la d\u00e9gradation de performance subie quand le chunker appris sur des \u00e9tiquettes POS corrig\u00e9es (colonnes III et V) est utilis\u00e9 sur des donn\u00e9es avec des \u00e9tiquettes POS non corrig\u00e9es (colonne II). Etant donn\u00e9 le faible volume de donn\u00e9es dont nous disposons, nous avons pour cela reconduit l'exp\u00e9rience pr\u00e9c\u00e9dente en validation crois\u00e9e \u00e0 10 plis, en prenant soin lors de chaque \u00e9tape de respecter le protocole suivant : On pourrait sans doute largement am\u00e9liorer les capacit\u00e9s de notre nouveau chunker \u00e0 reconna\u00eetre les amorces en lui donnant acc\u00e8s \u00e0 certaines propri\u00e9t\u00e9s des tokens : dans ESLO 1, les amorces sont en effet syst\u00e9matiquement termin\u00e9es par un tiret -: ajouter cette propri\u00e9t\u00e9 aux attributs pris en compte dans les features devrait permettre de les identifier bien plus s\u00fbrement que par leur contexte. Mais nous voulions utiliser le m\u00eame ensemble de features (copi\u00e9es sur celles utilis\u00e9es pour l'apprentissage de SEM) pour toutes nos exp\u00e9riences, pour ne pas biaiser les comparaisons. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Apprentissage avec les \u00e9tiquettes POS corrig\u00e9es, test sur les \u00e9tiquettes non corrig\u00e9es", "sec_num": "4.2.3" }, { "text": "-l'", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Apprentissage avec les \u00e9tiquettes POS corrig\u00e9es, test sur les \u00e9tiquettes non corrig\u00e9es", "sec_num": "4.2.3" }, { "text": "http://wapiti.limsi.fr", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "", "sec_num": null } ], "back_matter": [], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "Comme l'erreur en chunking n'est pas beaucoup plus importante que l'erreur en POS, la solution de corriger les POS appara\u00eet a priori comme la plus \u00ab naturelle \u00bb. Cette correction manuelle des POS am\u00e9liore le r\u00e9sultat du chunking de 10 points de F-mesure en moyenne, mais reste 10 points en dessous des performances moyennes du chunker sur l'\u00e9crit. M\u00eame avec un \u00e9tiquetage POS parfait, l'\u00e9cart entre l'\u00e9crit et l'oral en mati\u00e8re de chunking se mesure", "authors": [ { "first": "Peut-On Bien Chunker Avec De Mauvaises Etiquettes", "middle": [], "last": "Pos", "suffix": "" } ], "year": null, "venue": "pour traiter les corpus oraux", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "PEUT-ON BIEN CHUNKER AVEC DE MAUVAISES ETIQUETTES POS ? pour traiter les corpus oraux. Comme l'erreur en chunking n'est pas beaucoup plus importante que l'erreur en POS, la solution de corriger les POS appara\u00eet a priori comme la plus \u00ab naturelle \u00bb. Cette correction manuelle des POS am\u00e9liore le r\u00e9sultat du chunking de 10 points de F-mesure en moyenne, mais reste 10 points en dessous des performances moyennes du chunker sur l'\u00e9crit. M\u00eame avec un \u00e9tiquetage POS parfait, l'\u00e9cart entre l'\u00e9crit et l'oral en mati\u00e8re de chunking se mesure avec ces 10 points d'\u00e9cart en moyenne.", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "Nous avons pour cela choisi de coller aux propri\u00e9t\u00e9s de l'oral plut\u00f4t que de chercher \u00e0 faire entrer \u00e0 tout prix les donn\u00e9es orales dans le cadre d\u00e9fini pour l'\u00e9crit, d'o\u00f9 le choix des deux nouveaux types de chunks introduits", "authors": [], "year": null, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "Corriger directement les \u00e9tiquettes de chunks appara\u00eet donc comme la suite logique de cette approche. Nous avons pour cela choisi de coller aux propri\u00e9t\u00e9s de l'oral plut\u00f4t que de chercher \u00e0 faire entrer \u00e0 tout prix les donn\u00e9es orales dans le cadre d\u00e9fini pour l'\u00e9crit, d'o\u00f9 le choix des deux nouveaux types de chunks introduits. Ce faisant, nous n'avons pas choisi la facilit\u00e9 car la t\u00e2che de chunking devient plus complexe (il faut d\u00e9sormais discriminer parmi huit types de chunks au lieu de six). Pour l'apprentissage automatique d'un nouveau chunker sp\u00e9cifique de l'oral, le pari a \u00e9t\u00e9 fait de se consacrer au seul niveau des chunks, pour lequel un petit nombre de donn\u00e9es d'apprentissage peut suffire.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "En pr\u00e9sence d'\u00e9tiquettes POS correctes et coh\u00e9rentes avec les chunks (premi\u00e8re exp\u00e9rience), l'apprentissage automatique joue parfaitement son r\u00f4le, et permet d'apprendre un chunker d'aussi bonne qualit\u00e9 que celui qui avait \u00e9t\u00e9 appris sur l'\u00e9crit avec beaucoup plus de donn\u00e9es. Il n'y a donc pas de mal\u00e9diction propre \u00e0 l'oral en mati\u00e8re de chunking : m\u00eame les disfluences peuvent y \u00eatre bien trait\u00e9es, \u00e0 condition de disposer d'exemples de r\u00e9f\u00e9rence, m\u00eame en quantit\u00e9 restreinte. En revanche, un tel chunker d\u00e9pend fortement des \u00e9tiquettes POS sur lesquelles il s'appuie : l'absence de correction manuelle (deuxi\u00e8me exp\u00e9rience de la s\u00e9rie) fait chuter ses performances. Il n'est donc pas r\u00e9ellement exploitable en conditions r\u00e9elles : en effet", "authors": [], "year": null, "venue": "Les trois exp\u00e9riences de la deuxi\u00e8me approche permettent de caract\u00e9riser assez finement l'apport des \u00e9tiquettes POS \u00e0 la phase de chunking", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "Les trois exp\u00e9riences de la deuxi\u00e8me approche permettent de caract\u00e9riser assez finement l'apport des \u00e9tiquettes POS \u00e0 la phase de chunking. En pr\u00e9sence d'\u00e9tiquettes POS correctes et coh\u00e9rentes avec les chunks (premi\u00e8re exp\u00e9rience), l'apprentissage automatique joue parfaitement son r\u00f4le, et permet d'apprendre un chunker d'aussi bonne qualit\u00e9 que celui qui avait \u00e9t\u00e9 appris sur l'\u00e9crit avec beaucoup plus de donn\u00e9es. Il n'y a donc pas de mal\u00e9diction propre \u00e0 l'oral en mati\u00e8re de chunking : m\u00eame les disfluences peuvent y \u00eatre bien trait\u00e9es, \u00e0 condition de disposer d'exemples de r\u00e9f\u00e9rence, m\u00eame en quantit\u00e9 restreinte. En revanche, un tel chunker d\u00e9pend fortement des \u00e9tiquettes POS sur lesquelles il s'appuie : l'absence de correction manuelle (deuxi\u00e8me exp\u00e9rience de la s\u00e9rie) fait chuter ses performances. Il n'est donc pas r\u00e9ellement exploitable en conditions r\u00e9elles : en effet, tant qu'\u00e0 corriger les \u00e9tiquettes POS, autant r\u00e9- apprendre dans ce cas un \u00e9tiqueteur POS de l'oral\u2026", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "La derni\u00e8re exp\u00e9rience est la plus prometteuse : elle montre qu'on peut apprendre un chunker sp\u00e9cifique de l'oral (y compris pour la reconnaissance des interjections par exemple) d'assez bonne qualit\u00e9, en s'appuyant uniquement sur un petit nombre de donn\u00e9es annot\u00e9es, qui plus est avec des \u00e9tiquettes POS m\u00e9diocres (et non adapt\u00e9es \u00e0 l'oral). Les erreurs du POS ont bien \u00e9t\u00e9 compens\u00e9es par l'apprentissage du chunker, qui fait en moyenne moins d'erreurs de chunking qu'il n'y a d'erreurs d'\u00e9tiquetage POS. Les mots, m\u00eame en petites quantit\u00e9s, permettent cette compensation, et sans doute aussi le fait que les erreurs de POS sont suffisamment \u00ab r\u00e9guli\u00e8res", "authors": [], "year": null, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "La derni\u00e8re exp\u00e9rience est la plus prometteuse : elle montre qu'on peut apprendre un chunker sp\u00e9cifique de l'oral (y compris pour la reconnaissance des interjections par exemple) d'assez bonne qualit\u00e9, en s'appuyant uniquement sur un petit nombre de donn\u00e9es annot\u00e9es, qui plus est avec des \u00e9tiquettes POS m\u00e9diocres (et non adapt\u00e9es \u00e0 l'oral). Les erreurs du POS ont bien \u00e9t\u00e9 compens\u00e9es par l'apprentissage du chunker, qui fait en moyenne moins d'erreurs de chunking qu'il n'y a d'erreurs d'\u00e9tiquetage POS. Les mots, m\u00eame en petites quantit\u00e9s, permettent cette compensation, et sans doute aussi le fait que les erreurs de POS sont suffisamment \u00ab r\u00e9guli\u00e8res \u00bb pour que le chunker puisse les \u00ab rectifier \u00bb.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "Il est int\u00e9ressant de constater que les r\u00e9sultats obtenus pour le chunker dans la derni\u00e8re exp\u00e9rience sont tr\u00e8s proches de ceux de la deuxi\u00e8me exp\u00e9rience de la premi\u00e8re approche, c'est-\u00e0-dire en appliquant SEM sur des \u00e9tiquettes POS corrig\u00e9es manuellement. La diff\u00e9rence est que le nouveau chunker obtenu avec la derni\u00e8re exp\u00e9rience est applicable sans plus de correction manuelle sur de nouvelles donn\u00e9es orales, ce qui n'est pas le cas de ce que proposait l'autre exp\u00e9rience. Ainsi, tant qu'\u00e0 corriger des donn\u00e9es, il vaut semble-t-il mieux s'attaquer aux donn\u00e9es qui servent \u00e0 l'apprentissage (les nouveaux chunks dans la derni\u00e8re exp\u00e9rience) qu'aux donn\u00e9es qui servent de", "authors": [ { "first": "L", "middle": [], "last": "", "suffix": "" } ], "year": null, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "L'apprentissage automatique d'un chunker sp\u00e9cifique de l'oral semble donc pouvoir assez bien se passer d'un \u00e9tiquetage POS correct. Il est int\u00e9ressant de constater que les r\u00e9sultats obtenus pour le chunker dans la derni\u00e8re exp\u00e9rience sont tr\u00e8s proches de ceux de la deuxi\u00e8me exp\u00e9rience de la premi\u00e8re approche, c'est-\u00e0-dire en appliquant SEM sur des \u00e9tiquettes POS corrig\u00e9es manuellement. La diff\u00e9rence est que le nouveau chunker obtenu avec la derni\u00e8re exp\u00e9rience est applicable sans plus de correction manuelle sur de nouvelles donn\u00e9es orales, ce qui n'est pas le cas de ce que proposait l'autre exp\u00e9rience. Ainsi, tant qu'\u00e0 corriger des donn\u00e9es, il vaut semble-t-il mieux s'attaquer aux donn\u00e9es qui servent \u00e0 l'apprentissage (les nouveaux chunks dans la derni\u00e8re exp\u00e9rience) qu'aux donn\u00e9es qui servent de support \u00e0 un programme d\u00e9j\u00e0 appris (les POS dans l'exp\u00e9rience 2).", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "ou en changeant la variation \u00e9crit/oral par une autre, comme un changement de domaine ou de type d'\u00e9criture (les tweets pourraient par exemple remplacer l'oral). Le fait que l'apprentissage direct d'un nouvel \u00e9tiqueteur focalis\u00e9 sur une t\u00e2che cible est pr\u00e9f\u00e9rable \u00e0 une s\u00e9quence d'apprentissages interm\u00e9diaires avait par ailleurs d\u00e9j\u00e0 \u00e9t\u00e9 constat\u00e9", "authors": [ { "first": "", "middle": [], "last": "Eshkol", "suffix": "" } ], "year": 2010, "venue": "Il reste bien s\u00fbr \u00e0 confirmer que le m\u00eame genre de d\u00e9marche peut \u00eatre valable dans d'autres contextes, par exemple pour d'autres t\u00e2ches (la reconnaissance des entit\u00e9s nomm\u00e9es pouvant se substituer \u00e0 celle de chunking)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "Il reste bien s\u00fbr \u00e0 confirmer que le m\u00eame genre de d\u00e9marche peut \u00eatre valable dans d'autres contextes, par exemple pour d'autres t\u00e2ches (la reconnaissance des entit\u00e9s nomm\u00e9es pouvant se substituer \u00e0 celle de chunking), ou en changeant la variation \u00e9crit/oral par une autre, comme un changement de domaine ou de type d'\u00e9criture (les tweets pourraient par exemple remplacer l'oral). Le fait que l'apprentissage direct d'un nouvel \u00e9tiqueteur focalis\u00e9 sur une t\u00e2che cible est pr\u00e9f\u00e9rable \u00e0 une s\u00e9quence d'apprentissages interm\u00e9diaires avait par ailleurs d\u00e9j\u00e0 \u00e9t\u00e9 constat\u00e9 (Eshkol et al., 2010). Le caract\u00e8re cumulatif des erreurs n'est donc pas une fatalit\u00e9 : il semble qu'on puisse r\u00e9ussir une t\u00e2che de \u00ab haut niveau \u00bb en s'appuyant sur des informations de \u00ab niveau inf\u00e9rieur \u00bb de qualit\u00e9 m\u00e9diocre par apprentissage automatique, du moment que la correction des erreurs d'un niveau \u00e0 un autre suive une certaine r\u00e9gularit\u00e9.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "Parsing by chunks", "authors": [ { "first": "", "middle": [], "last": "Abney S", "suffix": "" } ], "year": 1991, "venue": "Principle-based Parsing", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ABNEY S. (1991). Parsing by chunks. In R. Berwick, R. Abney, and C. Tenny, editors, Principle-based Parsing. Kluwer Academic Publisher.", "links": null }, "BIBREF7": { "ref_id": "b7", "title": "Building a treebank for french", "authors": [ { "first": "", "middle": [], "last": "Abeille A", "suffix": "" }, { "first": "", "middle": [], "last": "Clement L", "suffix": "" }, { "first": "Toussenel", "middle": [ "F" ], "last": "Et", "suffix": "" } ], "year": 2003, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ABEILLE A., CLEMENT L., et TOUSSENEL F. (2003). Building a treebank for french. In A. Abeill\u00e9, editor, Treebanks. Kluwer, Dordrecht.", "links": null }, "BIBREF8": { "ref_id": "b8", "title": "A disfluency study for cleaning spontaneous speech automatic transcripts and improving speech language models", "authors": [ { "first": "", "middle": [], "last": "Adda-Decker M", "suffix": "" }, { "first": "", "middle": [], "last": "Habert B", "suffix": "" }, { "first": "C", "middle": [], "last": "Barras", "suffix": "" }, { "first": "G", "middle": [], "last": "Adda", "suffix": "" }, { "first": "", "middle": [], "last": "Boula De Mare\u00fcil P", "suffix": "" }, { "first": "P", "middle": [], "last": "Paroubek", "suffix": "" } ], "year": 2003, "venue": "Proceedings of Isca tutorial and research workshop on disfluency in spontaneous speech (diss'03)", "volume": "", "issue": "", "pages": "67--70", "other_ids": {}, "num": null, "urls": [], "raw_text": "ADDA-DECKER M., HABERT B., BARRAS C., ADDA G., BOULA DE MARE\u00dcIL P., PAROUBEK P. (2003). A disfluency study for cleaning spontaneous speech automatic transcripts and improving speech language models. In Proceedings of Isca tutorial and research workshop on disfluency in spontaneous speech (diss'03), 67-70.", "links": null }, "BIBREF10": { "ref_id": "b10", "title": "Quand le TAL robuste s'attaque au langage parl\u00e9 : analyse incr\u00e9mentale pour la compr\u00e9hension de la parole spontan\u00e9e", "authors": [ { "first": "", "middle": [], "last": "Antoine J-Y", "suffix": "" }, { "first": "J", "middle": [], "last": "Goulian", "suffix": "" }, { "first": "J", "middle": [], "last": "Villaneau", "suffix": "" } ], "year": 2003, "venue": "Actes de TALN", "volume": "", "issue": "", "pages": "25--34", "other_ids": {}, "num": null, "urls": [], "raw_text": "ANTOINE J-Y., GOULIAN J., VILLANEAU J. (2003). Quand le TAL robuste s'attaque au langage parl\u00e9 : analyse incr\u00e9mentale pour la compr\u00e9hension de la parole spontan\u00e9e. Actes de TALN 2003, 25-34.", "links": null }, "BIBREF11": { "ref_id": "b11", "title": "Automatic rich annotation of large corpus of conversational transcribed speech: the chunking task of the epac project", "authors": [ { "first": "", "middle": [], "last": "Antoine J-Y", "suffix": "" }, { "first": "", "middle": [], "last": "Mokrane A", "suffix": "" }, { "first": "Friburger", "middle": [ "N" ], "last": "Et", "suffix": "" } ], "year": 2008, "venue": "Proceedings of LREC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ANTOINE J-Y., MOKRANE A., et FRIBURGER N. (2008) Automatic rich annotation of large corpus of conversational transcribed speech: the chunking task of the epac project. In Proceedings of LREC'2008.", "links": null }, "BIBREF12": { "ref_id": "b12", "title": "L'annotation syntaxique de corpus oraux constitue-t-elle un probl\u00e8me sp\u00e9cifique ? Actes de R\u00c9CITAL", "authors": [ { "first": "C", "middle": [], "last": "Benzitoun", "suffix": "" } ], "year": 2004, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "BENZITOUN C. (2004). L'annotation syntaxique de corpus oraux constitue-t-elle un probl\u00e8me sp\u00e9cifique ? Actes de R\u00c9CITAL.", "links": null }, "BIBREF13": { "ref_id": "b13", "title": "Corpus oraux et chunking. Actes de Journ\u00e9es d'\u00e9tude sur la parole (JEP)", "authors": [ { "first": "", "middle": [], "last": "Blanc O", "suffix": "" }, { "first": "M", "middle": [], "last": "Constant", "suffix": "" }, { "first": "", "middle": [], "last": "Dister A. Et", "suffix": "" }, { "first": "", "middle": [], "last": "Watrin P", "suffix": "" } ], "year": 2008, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "BLANC O., CONSTANT M., DISTER A. et WATRIN P. (2008). Corpus oraux et chunking. Actes de Journ\u00e9es d'\u00e9tude sur la parole (JEP), Avignon, France.", "links": null }, "BIBREF14": { "ref_id": "b14", "title": "Partial parsing of spontaneous spoken French", "authors": [ { "first": "", "middle": [], "last": "Blanc O", "suffix": "" }, { "first": "M", "middle": [], "last": "Constant", "suffix": "" }, { "first": "", "middle": [], "last": "Dister A", "suffix": "" }, { "first": "", "middle": [], "last": "Et Watrin P", "suffix": "" } ], "year": 2010, "venue": "Proceedings of 7th International Conference on Language Resources and Evaluation (LREC'10)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "BLANC O., CONSTANT M., DISTER A. ET WATRIN P. (2010). Partial parsing of spontaneous spoken French. In Proceedings of 7th International Conference on Language Resources and Evaluation (LREC'10).", "links": null }, "BIBREF15": { "ref_id": "b15", "title": "Les aspects dynamiques de la composition s\u00e9mantique de l'oral. S\u00e9mantique et corpus. A. Condamines (dir", "authors": [ { "first": "", "middle": [], "last": "Blanche-Benveniste C", "suffix": "" } ], "year": 2005, "venue": "", "volume": "", "issue": "", "pages": "40--73", "other_ids": {}, "num": null, "urls": [], "raw_text": "BLANCHE-BENVENISTE C. (2005). Les aspects dynamiques de la composition s\u00e9mantique de l'oral. S\u00e9mantique et corpus. A. Condamines (dir.), Londres, Hermes, 40-73.", "links": null }, "BIBREF16": { "ref_id": "b16", "title": "Le fran\u00e7ais parl\u00e9, transcription et \u00e9dition", "authors": [ { "first": "", "middle": [], "last": "Blanche-Benveniste C", "suffix": "" }, { "first": "C", "middle": [], "last": "Jeanjean", "suffix": "" } ], "year": 1987, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "BLANCHE-BENVENISTE C., JEANJEAN C. (1987). Le fran\u00e7ais parl\u00e9, transcription et \u00e9dition. Paris, Didier Erudition.", "links": null }, "BIBREF17": { "ref_id": "b17", "title": "Approches de la langue parl\u00e9e en fran\u00e7ais", "authors": [ { "first": "", "middle": [], "last": "Blanche-Benveniste C", "suffix": "" } ], "year": 1997, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "BLANCHE-BENVENISTE C. (1997). Approches de la langue parl\u00e9e en fran\u00e7ais. Paris, Ophrys.", "links": null }, "BIBREF18": { "ref_id": "b18", "title": "Transcription de l'oral et morphologie", "authors": [ { "first": "", "middle": [], "last": "Blanche-Benveniste C", "suffix": "" } ], "year": 2000, "venue": "Romania Una et diversa, Philologische Studien f\u00fcr Theodor Berchem", "volume": "", "issue": "", "pages": "61--74", "other_ids": {}, "num": null, "urls": [], "raw_text": "BLANCHE-BENVENISTE C. (2000). Transcription de l'oral et morphologie. Romania Una et diversa, Philologische Studien f\u00fcr Theodor Berchem (Gille M. et Kiesler R. Eds). T\u00fcbingen : Gunter Narr, 61-74.", "links": null }, "BIBREF19": { "ref_id": "b19", "title": "Evaluating the impact of external lexical ressources unto a crf-based multiword segmenter and part-of-speech tagger", "authors": [ { "first": "M", "middle": [], "last": "Constant", "suffix": "" }, { "first": "", "middle": [], "last": "Tellier I", "suffix": "" } ], "year": 2012, "venue": "Proceedings of LREC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CONSTANT M., TELLIER I. (2012) Evaluating the impact of external lexical ressources unto a crf-based multiword segmenter and part-of-speech tagger. In Proceedings of LREC 2012.", "links": null }, "BIBREF20": { "ref_id": "b20", "title": "Exp\u00e9riences d'analyse syntaxique du fran\u00e7ais", "authors": [ { "first": "", "middle": [], "last": "Crabbe B", "suffix": "" }, { "first": "", "middle": [], "last": "Candito M", "suffix": "" } ], "year": 2008, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CRABBE B, CANDITO M (2008). Exp\u00e9riences d'analyse syntaxique du fran\u00e7ais. Actes de Traitement Automatique des Langues Naturelles (TALN 2008), Avignon.", "links": null }, "BIBREF21": { "ref_id": "b21", "title": "De la transcription \u00e0 l'\u00e9tiquetage morphosyntaxique. Le cas de la banque de donn\u00e9es textuelle orale VALIBEL", "authors": [ { "first": "", "middle": [], "last": "Dister A", "suffix": "" } ], "year": 2007, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "DISTER A. (2007). De la transcription \u00e0 l'\u00e9tiquetage morphosyntaxique. Le cas de la banque de donn\u00e9es textuelle orale VALIBEL. Th\u00e8se de Doctorat, Universit\u00e9 de Louvain.", "links": null }, "BIBREF22": { "ref_id": "b22", "title": "\u00c9tiqueter un corpus oral par apprentissage automatique \u00e0 l'aide de connaissances linguistiques", "authors": [ { "first": "", "middle": [], "last": "Eshkol I", "suffix": "" }, { "first": "Taalab", "middle": [ "S" ], "last": "Tellier I", "suffix": "" }, { "first": "S", "middle": [], "last": "Billot", "suffix": "" } ], "year": 2010, "venue": "Actes de 10es Journ\u00e9es Internationales d'analyse statistique des donn\u00e9es textuelles", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ESHKOL I., TELLIER I, TAALAB S., BILLOT S., (2010). \u00c9tiqueter un corpus oral par apprentissage automatique \u00e0 l'aide de connaissances linguistiques. Actes de 10es Journ\u00e9es Internationales d'analyse statistique des donn\u00e9es textuelles (JADT 2010).", "links": null }, "BIBREF23": { "ref_id": "b23", "title": "Un grand corpus oral \u00ab disponible \u00bb : le corpus d'Orl\u00e9ans", "authors": [ { "first": "", "middle": [], "last": "Eshkol-Taravella I", "suffix": "" }, { "first": "O", "middle": [], "last": "Baude", "suffix": "" }, { "first": "D", "middle": [], "last": "Maurel", "suffix": "" }, { "first": "L", "middle": [], "last": "Hriba", "suffix": "" }, { "first": "C", "middle": [], "last": "Dugua", "suffix": "" }, { "first": "", "middle": [], "last": "Tellier I", "suffix": "" } ], "year": 1968, "venue": "Ressources linguistiques libres", "volume": "52", "issue": "", "pages": "17--46", "other_ids": {}, "num": null, "urls": [], "raw_text": "ESHKOL-TARAVELLA I., BAUDE O., MAUREL D., HRIBA L., DUGUA C., TELLIER I., (2012) Un grand corpus oral \u00ab disponible \u00bb : le corpus d'Orl\u00e9ans 1968-2012. Dans Ressources linguistiques libres, TAL 52, n\u00b0 3, 17-46.", "links": null }, "BIBREF24": { "ref_id": "b24", "title": "Quelles r\u00e9p\u00e9titions \u00e0 l'oral ? Esquisse d'une typologie", "authors": [ { "first": "Henry", "middle": [ "S" ], "last": "", "suffix": "" } ], "year": 2005, "venue": "La Linguistique de corpus", "volume": "", "issue": "", "pages": "81--92", "other_ids": {}, "num": null, "urls": [], "raw_text": "HENRY S. (2005). Quelles r\u00e9p\u00e9titions \u00e0 l'oral ? Esquisse d'une typologie, G. Williams (\u00c9d.), La Linguistique de corpus, Rennes, Presses universitaires de Rennes, 81-92.", "links": null }, "BIBREF25": { "ref_id": "b25", "title": "Practical very large scale CRFs", "authors": [ { "first": "", "middle": [], "last": "Lavergne T", "suffix": "" }, { "first": "E", "middle": [ "T" ], "last": "Cappe O", "suffix": "" }, { "first": "", "middle": [], "last": "Yvon F", "suffix": "" } ], "year": 2010, "venue": "Proceedings of ACL'2010", "volume": "", "issue": "", "pages": "504--513", "other_ids": {}, "num": null, "urls": [], "raw_text": "LAVERGNE T, CAPPE O, ET YVON F. (2010). Practical very large scale CRFs. In Proceedings of ACL'2010, 504-513.", "links": null }, "BIBREF26": { "ref_id": "b26", "title": "Conditional random fields: Probabilistic models for segmenting and labeling sequence data", "authors": [ { "first": "J", "middle": [], "last": "Lafferty", "suffix": "" }, { "first": "E", "middle": [ "T" ], "last": "Mccallum A", "suffix": "" }, { "first": "", "middle": [], "last": "Pereira F", "suffix": "" } ], "year": 2001, "venue": "Proceedings of ICML 2001", "volume": "", "issue": "", "pages": "282--289", "other_ids": {}, "num": null, "urls": [], "raw_text": "LAFFERTY J, MCCALLUM A, ET PEREIRA F. (2001). Conditional random fields: Probabilistic models for segmenting and labeling sequence data. In Proceedings of ICML 2001, 282-289.", "links": null }, "BIBREF27": { "ref_id": "b27", "title": "The Lefff, a freely available, accurate and large-coverage lexicon for French", "authors": [ { "first": "", "middle": [], "last": "Sagot B", "suffix": "" } ], "year": 2010, "venue": "Proceedings of 7th International Conference on Language Resources and Evaluation (LREC'10)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SAGOT B. (2010). The Lefff, a freely available, accurate and large-coverage lexicon for French. In Proceedings of 7th International Conference on Language Resources and Evaluation (LREC'10).", "links": null }, "BIBREF28": { "ref_id": "b28", "title": "Shallow parsing with conditional random fields", "authors": [ { "first": "", "middle": [], "last": "Sha F", "suffix": "" }, { "first": "P", "middle": [], "last": "Pereira", "suffix": "" } ], "year": 2003, "venue": "Proceedings of HLT-NAACL", "volume": "", "issue": "", "pages": "213--220", "other_ids": {}, "num": null, "urls": [], "raw_text": "SHA F, PEREIRA P. (2003). Shallow parsing with conditional random fields. In Proceedings of HLT-NAACL, 213-220.", "links": null }, "BIBREF29": { "ref_id": "b29", "title": "Apprentissage automatique d'un chunker pour le fran\u00e7ais", "authors": [ { "first": "", "middle": [], "last": "Tellier I", "suffix": "" }, { "first": "D", "middle": [], "last": "Duchier", "suffix": "" }, { "first": "", "middle": [], "last": "Eshkol I", "suffix": "" }, { "first": "", "middle": [], "last": "Courmet A", "suffix": "" }, { "first": "", "middle": [], "last": "Martinet M", "suffix": "" } ], "year": 2012, "venue": "Actes de Traitement Automatique des Langues Naturelles", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "TELLIER I., DUCHIER D., ESHKOL I., COURMET A., MARTINET M. (2012), Apprentissage automatique d'un chunker pour le fran\u00e7ais, Actes de Traitement Automatique des Langues Naturelles (TALN 2012).", "links": null }, "BIBREF30": { "ref_id": "b30", "title": "POS-tagging for Oral Texts with CRF and Category Decomposition", "authors": [ { "first": "", "middle": [], "last": "Tellier I", "suffix": "" }, { "first": "", "middle": [], "last": "Eshkol I", "suffix": "" }, { "first": "S", "middle": [], "last": "Taalab", "suffix": "" }, { "first": "", "middle": [], "last": "Prost J-P", "suffix": "" } ], "year": 2010, "venue": "Research in Computer Science, special issue : Natural Language Processing and its Applications", "volume": "", "issue": "", "pages": "79--90", "other_ids": {}, "num": null, "urls": [], "raw_text": "TELLIER I., ESHKOL I., TAALAB S., PROST J-P. (2010). POS-tagging for Oral Texts with CRF and Category Decomposition. Research in Computer Science, special issue : Natural Language Processing and its Applications, 79- 90.", "links": null }, "BIBREF31": { "ref_id": "b31", "title": "Etiquetage grammatical des corpus de parole : probl\u00e8mes et perspectives. L'oral spontan\u00e9. Revue Fran\u00e7aise de Linguistique Appliqu\u00e9e IV-2", "authors": [ { "first": "Valli", "middle": [ "A" ], "last": "Veronis", "suffix": "" }, { "first": "J", "middle": [], "last": "", "suffix": "" } ], "year": 1999, "venue": "", "volume": "", "issue": "", "pages": "113--133", "other_ids": {}, "num": null, "urls": [], "raw_text": "VALLI A., VERONIS J. (1999). Etiquetage grammatical des corpus de parole : probl\u00e8mes et perspectives. L'oral spontan\u00e9. Revue Fran\u00e7aise de Linguistique Appliqu\u00e9e IV-2, 113-133.", "links": null } }, "ref_entries": { "FIGREF0": { "uris": null, "num": null, "type_str": "figure", "text": "(\u00e0/P)PP (me/CLR)B-NP (marier/VINF)B-VNalors qu'il fait partie ici d'un chunk pr\u00e9positionnel (PP) :(\u00e0/P me/CLR marier/VINF)PP Les cas o\u00f9 les interjections et les marqueurs formant g\u00e9n\u00e9ralement un chunk (IntP) sont inclus dans un autre chunk posent aussi probl\u00e8me. Le chunker appris propose : (l'/DET \u00e9cole/NC)NP (euh/I) IntP (publique/ADJ)AP \u00e0 la place de : [O-E.2] 132 I. TELLIER, I. ESHKOL, Y. DUPONT, I. WANG (l'/DET \u00e9cole/NC euh/I publique/ADJ)NP Enfin, en cas de r\u00e9p\u00e9tition de deux \u00e9tiquettes morphosyntaxiques, le chunker inclut parfois les deux mots dans le m\u00eame chunk, violant ainsi la contrainte qui voudrait que chaque chunk ne devrait contenir qu'une seule t\u00eate. Il annote ainsi : (et/CC parce_que/CS)CONJ (ils/CLS)NP (r\u00e9fl\u00e9chissaient/V pensaient/V)VN (beaucoup/ADV)AdP \u00e0 la place de (et/CC)CONJ (parce_que/CS)CONJ (ils/CLS)NP (r\u00e9fl\u00e9chissaient/V)VN (pensaient/V)VN (beaucoup/ADV)AdP" }, "TABREF0": { "content": "
PEUT-ON BIEN CHUNKER AVEC DE MAUVAISES ETIQUETTES POS ?
-(Suite \u00e0 (Blanche-Benveniste, 2005), nous consid\u00e9rons quant \u00e0 nous que les ph\u00e9nom\u00e8nes de disfluences doivent \u00eatre
inclus dans l'analyse linguistique, m\u00eame s'ils exigent des traitements sp\u00e9cifiques. Pour faire face aux donn\u00e9es r\u00e9elles et
\u00e9viter les programmes ad hoc \u00e9crits \u00e0 la main, nous privil\u00e9gions les techniques issues de l'apprentissage automatique.
2.2 Le premier corpus dont nous devons tenir compte, notamment parce qu'il a fix\u00e9 les jeux d'\u00e9tiquettes que nous utilisons
(aussi bien au niveau des POS qu'\u00e0 celui des chunks), est le FTB (le French TreeBank) 1 . Il s'agit d'un corpus de phrases
\u00e9crites syntaxiquement analys\u00e9es qui peut \u00eatre facilement transform\u00e9 en phrases annot\u00e9es en POS et en chunks (Abeill\u00e9
et al., 2003). Le jeu r\u00e9duit de 30 \u00e9tiquettes POS est d\u00e9crit dans (Crabb\u00e9 et Candito 2008). Les six types de
chunks extraits de ces donn\u00e9es, avec les \u00e9tiquettes POS correspondant \u00e0 leur t\u00eate, sont les suivants :
-les groupes nominaux ou NP (incluant CLO, CLR, CLS, NC, NPP, PRO, PROREL, PROWH : notons que les
pronoms sont ici consid\u00e9r\u00e9s comme des chunks nominaux autonomes et pas inclus dans les noyaux verbaux) ;
-les groupes verbaux ou VN, incluant les formes interrogatives, infinitives et modales (V, VIMP, VINF, VPP,
VPR, VS) ;
-les groupes pr\u00e9positionnels ou PP, incluant les groupes nominaux introduits par une pr\u00e9position (P, P+D,
P+PRO) ;
-les groupes adjectivaux ou AP, incluant les \u00e9ventuels adverbes modifieurs d'adjectifs (ADJ, ADJWH) ;
-les groupes adverbiaux ou AdP, incluant les modifieurs de phrases (ADV, ADVWH, I) ;
-les groupes de conjonction ou CONJ (CC, CS).
).
Il existe des solutions sp\u00e9cifiques pour le chunking du fran\u00e7ais transcrit :
", "html": null, "num": null, "type_str": "table", "text": "Blanc et al., 2008Blanc et al., , 2010 ont essay\u00e9 d'annoter un corpus oral fran\u00e7ais en \u00ab super-chunks \u00bb (chunks contenant les multi-mots complexes), en appliquant des cascades de transducteurs utilisant des ressources lexicales et syntaxiques. Le processus est fond\u00e9 sur une \u00e9tape de pr\u00e9traitement des donn\u00e9es consistant dans le reformatage et l'\u00e9tiquetage des disfluences. Une approche similaire a \u00e9t\u00e9 adopt\u00e9e par (Valli et V\u00e9ronis 1999) pour l'\u00e9tiquetage morphosyntaxique de l'oral.-(Antoine et al., 2008) ont propos\u00e9 une autre strat\u00e9gie incluant une \u00e9tape de post-correction pour traiter les erreurs li\u00e9es aux disfluences." }, "TABREF1": { "content": "
constitu\u00e9 de 8093 mots correspondant \u00e0 852 tours de parole (3 entretiens
face-\u00e0
", "html": null, "num": null, "type_str": "table", "text": "\u00e0 partir du FTB, et ses \u00e9tiquettes sont donc celles pr\u00e9sent\u00e9es pr\u00e9c\u00e9demment. Il permet soit de chunker un texte d\u00e9j\u00e0 annot\u00e9 en POS, soit d'encha\u00eener \u00ab annotation POS + chunks \u00bb sur du texte brut. Nous exploiterons par la suite ces deux usages distincts. SEM a \u00e9t\u00e9 appris \u00e0 l'aide d'un CRF (Conditional Random Fields) lin\u00e9aire(Lafferty et al. 2001), impl\u00e9ment\u00e9 dans le logiciel Wapiti 4 (Lavergne et al. 2010). Pour l'\u00e9tiquetage en POS, SEM utilise une ressource ext\u00e9rieure : le LeFFF (Lexique des Formes Fl\u00e9chies du Fran\u00e7ais) (Sagot 2010) int\u00e9gr\u00e9 dans les donn\u00e9es sous la forme d'attributs bool\u00e9ens. Pour le chunker, le mod\u00e8le CRF s'appuie \u00e0 la fois sur l'\u00e9tiquetage POS et sur les tokens initiaux.Le d\u00e9coupage en chunks est traduit par une annotation qui suit le format standard BIO (B pour Beginning, I pour In, O pour Out). Avec SEM, chaque mot (ou token) du corpus re\u00e7oit donc, outre son \u00e9tiquette POS, une \u00e9tiquette qui est la concat\u00e9nation du type de chunk dont il fait partie et d'une \u00e9tiquette (B ou I) qui indique la position qu'il y occupe." }, "TABREF2": { "content": "
AttributFen\u00eatre sur xType de feature sur y
token[-2, 0]unigramme
POS[-2, 1]unigramme et bigramme
Couple de POS{-2, 0} et {-1, 0}unigramme
", "html": null, "num": null, "type_str": "table", "text": "quelle propri\u00e9t\u00e9 des donn\u00e9es d'entr\u00e9e, et une (dans le cas des patrons unigrammes) ou deux (patrons bigrammes) \u00e9tiquettes successives. Les patrons seront instanci\u00e9s sur l'ensemble d'apprentissage, constitu\u00e9 de couples (x,y), en autant de features que de positions o\u00f9 ils peuvent s'appliquer.Dans le cas de l'apprentissage d'un chunker, les donn\u00e9es d'entr\u00e9e x sont constitu\u00e9es des s\u00e9quences de tokens (ou mots) du texte et des \u00e9tiquettes POS associ\u00e9es, la suite des \u00e9tiquettes cibles y est constitu\u00e9e des diff\u00e9rents types de chunks associ\u00e9s \u00e0 B ou I. Les patrons que nous utiliserons pour apprendre ce(s) nouveau(x) chunker(s) ont \u00e9t\u00e9 copi\u00e9s sur ceux utilis\u00e9s pour l'apprentissage de SEM, et seront toujours les m\u00eames pour chaque exp\u00e9rience. Ils figurent dans laTable 1 :" }, "TABREF3": { "content": "
4 Deux s\u00e9ries d'exp\u00e9riences
", "html": null, "num": null, "type_str": "table", "text": "sp\u00e9cification des patrons (templates) d\u00e9finissant les features des mod\u00e8les CRF de chunking Nous d\u00e9crivons dans cette section les deux s\u00e9ries d'exp\u00e9riences r\u00e9alis\u00e9es avec le corpus oral transcrit et les r\u00e9sultats obtenus. La Table 2 montre l'annotation du m\u00eame exemple extrait d'ESLO 1 par diff\u00e9rents processus, qui incluent (en PEUT-ON BIEN CHUNKER AVEC DE MAUVAISES ETIQUETTES POS ?soit de donn\u00e9es de r\u00e9f\u00e9rence \u00e0 nos diff\u00e9rentes exp\u00e9riences. Leurs contenus seront d\u00e9crits en d\u00e9tail au fur et \u00e0 mesure que nous les pr\u00e9senterons. Pour nos \u00e9valuations, deux chunks seront consid\u00e9r\u00e9s comme \u00e9gaux lorsqu'ils partagent exactement les m\u00eames fronti\u00e8res et le m\u00eame type. Nous \u00e9valuerons les r\u00e9sultats du chunking avec la micro-average des F-mesures des diff\u00e9rents chunks (moyenne des F-mesures de ces chunks pond\u00e9r\u00e9es par leurs effectifs) et leur macroaverage (moyenne sans pond\u00e9ration des F-mesures). Notons que sur le FTB, en validation crois\u00e9e \u00e0 10 plis, SEM a \u00e9t\u00e9 \u00e9valu\u00e9 avec une exactitude 97,33% pour l'\u00e9tiquetage en POS, une micro-average de 97,53 et une macro-average de 90,4 pour le chunker. Les Tables 3 et 5 (en fin d'article) donnent respectivement les proportions des diff\u00e9rents types de chunks et la synth\u00e8se de l'ensemble de nos r\u00e9sultats." }, "TABREF4": { "content": "", "html": null, "num": null, "type_str": "table", "text": "" }, "TABREF5": { "content": "
", "html": null, "num": null, "type_str": "table", "text": "Si l'\u00e9l\u00e9ment r\u00e9p\u00e9t\u00e9 est la t\u00eate du groupe syntaxique, il est n\u00e9cessaire de distinguer deux chunks, car un chunk ne peut pas contenir deux t\u00eates distinctes :" }, "TABREF6": { "content": "
(des/DET id\u00e9es/NC la\u00efques/ADJ)NP (quoi/I) IntP
Cependant, lorsque les interjections se trouvent \u00e0 l'int\u00e9rieur d'un groupe syntaxique, ils s'int\u00e8grent dans le chunk
correspondant :
-(l'/DET \u00e9cole/NC euh/I publique/ADJ)NP
-(des/DET hm/I inconv\u00e9nients/NC)NP
Dans les deux exemples ci-dessus, le euh d'h\u00e9sitation et l'interjection hm appartiennent \u00e0 un chunk nominal.
", "html": null, "num": null, "type_str": "table", "text": "-ON BIEN CHUNKER AVEC DE MAUVAISES ETIQUETTES POS ? S'agit-il d'un pronom, d'un d\u00e9terminant ou d'une amorce ? L'\u00e9tiquette UNKNOWN, d\u00e9j\u00e0 choisie pour cette forme au niveau POS, est donc \u00e9tendue dans ce cas au chunk. -chunk d'interjection (IntP)Nous avons d\u00e9j\u00e0 signal\u00e9 le probl\u00e8me que posent les marqueurs discursifs et les euh d'h\u00e9sitation qui ont \u00e9t\u00e9 class\u00e9s, faute d'avoir une autre \u00e9tiquette davantage adapt\u00e9e dans SEM, dans les chunks adverbiaux. L'ajout d'un nouveau chunk IntP (chunk interjection) destin\u00e9 \u00e0 accueillir tous ces ph\u00e9nom\u00e8nes, r\u00e9sout (au moins partiellement) ce probl\u00e8me :" }, "TABREF7": { "content": "
apprentissage est r\u00e9alis\u00e9 \u00e0 l'aide des colonnes I, III et V -le chunker appris est appliqu\u00e9 en test sur les colonnes I et II -le r\u00e9sultat obtenu est compar\u00e9 \u00e0 la colonne de r\u00e9f\u00e9rence V CLS B-NP B-NP peut on V B-VN B-VN commencer VINF B-VN B-VN bon ADJ B-IntP B-AP alors ADV B-IntP B-AdP PEUT-ON BIEN CHUNKER AVEC DE MAUVAISES ETIQUETTES POS ? Apprentissage et test avec les \u00e9tiquettes POS non corrig\u00e9es on CLS B-NP B-NP peut V B-VN B-VN commencer VINF B-VN B-VN bon ADJ B-IntP B-IntP alors ADV B-IntP B-AdP Sur le chunk (UNKNOWN), le nouveau chunker obtient une bonne pr\u00e9cision (92,86%) : 4.2.4 vous DET B-NP B-NP \u00eates NC B-VN B-VN in-ADJ B-UNKNOWN B-UNKNOWN institutrice NC B-NP B-AdP n-ADV B-UNKNOWN B-UNKNOWN peut-\u00eatre VINF B-AdP B-AdP non ADV B-IntP B-IntP mais un mauvais rappel (18,57%). Cela tient sans doute au fait que les chunks inconnus peuvent parfois correspondre \u00e0 des mots connus mais employ\u00e9s dans un mauvais contexte, comme dans l'exemple suivant : euh V B-IntP B-IntP les DET B-UNKNOWN B-NP dans P B-PP B-PP ma DET I-PP I-PP L'absence [O-E.2] classe NC I-PP I-PP
133
", "html": null, "num": null, "type_str": "table", "text": "Nous obtenons ainsi une micro-average des F-mesure de 73,81, et une macro-average de 59,62, ce qui repr\u00e9sente une grosse d\u00e9gradation (cf. les d\u00e9tails des valeurs des diff\u00e9rents chunks dans laTable 3). Les performances sont particuli\u00e8rement mauvaises pour le nouveau type de chunk IntP, car tr\u00e8s peu d'\u00e9tiquettes POS I sont correctement attribu\u00e9es par SEM dans ESLO 1. En effet, dans le FTB, les seules interjections pr\u00e9sentes correspondent \u00e0 des phrases d'un seul mot suivi d'une ponctuation. Or ESLO 1 ne contient pas de ponctuation, et cet indice n'aide donc en rien le chunker. La plupart des interjections de ESLO 1 comme bon, bien, enfin, alors, etc. sont \u00e9tiquet\u00e9es par SEM comme des adverbes ou des adjectifs lors de l'\u00e9tiquetage POS. Le nouveau chunker appris les rattache alors \u00e0 un chunk adverbial plut\u00f4t qu'\u00e0 un chunk IntP. Un seul chunk IntP a \u00e9t\u00e9 reconnu lors de cette exp\u00e9rience, et cela semble-t-il de fa\u00e7on quasiment \u00ab fortuite \u00bb. Les repr\u00e9sentants du nouveau chunk (UNKNOWN) n'ont pas non plus \u00e9t\u00e9 identifi\u00e9s, ce qui s'explique naturellement par le fait que SEM n'a pas attribu\u00e9 l'\u00e9tiquette POS UNKNOWN l\u00e0 o\u00f9 notre correction manuelle l'avait fait (sur les disfluences en particulier). Le probl\u00e8me mentionn\u00e9 pr\u00e9c\u00e9demment et concernant la forme bon persiste \u00e9galement dans les r\u00e9sultats de ce test. Ayant une \u00e9tiquette POS ADJ, bon est \u00e9tiquet\u00e9 en tant que chunk adjectival (AP) et non comme chunk interjection (IntP). Dans l'exemple suivant (o\u00f9 la derni\u00e8re colonne donne la proposition du nouveau chunker, tandis que l'avant-derni\u00e8re donne la bonne \u00e9tiquette), les deux unit\u00e9s bon et alors re\u00e7oivent une mauvaise \u00e9tiquette de chunk : de correction des POS cause donc ici des erreurs pr\u00e9visibles de chunking, surtout pour les nouveaux types de chunks qui s'appuient sur des propri\u00e9t\u00e9s de l'oral que les \u00e9tiquettes POS non corrig\u00e9es de SEM ne prennent pas en compte. Il reste \u00e0 voir si un chunker appris directement sur des \u00e9tiquettes POS non corrig\u00e9es se comporterait mieux.La derni\u00e8re exp\u00e9rience vise \u00e0 apprendre le chunker de l'oral en se servant uniquement des \u00e9tiquettes POS fournies par SEM, sans aucune correction (ni en apprentissage ni en test) sur ces POS. Cette fois, notre validation crois\u00e9e emploie donc les colonnes I, II et V de laTable 2, en cherchant \u00e0 obtenir la derni\u00e8re de ces colonnes \u00e0 partir des deux autres. L'objectif de cette derni\u00e8re exp\u00e9rience est de voir s'il est possible d'apprendre un bon chunker en se fondant sur des \u00e9tiquettes POS m\u00e9diocres. Existe-t-il des r\u00e9gularit\u00e9s dans les erreurs au niveau morpho-syntaxique dont l'apprentissage pourrait tirer parti ? Pourrait-on donc se passer d'une correction manuelle de l'\u00e9tiquetage POS (et d'un r\u00e9-apprentissage d'un \u00e9tiqueteur POS de l'oral) pour obtenir tout de m\u00eame in fine un chunker de l'oral correct ? C'est tout l'enjeu de cet ultime test.Nous obtenons dans cette exp\u00e9rience une micro-average de 88,84, et une macro-average de 81,76, soit des r\u00e9sultats (comme on pouvait s'y attendre) interm\u00e9diaires entre les deux pr\u00e9c\u00e9dents (cf. les d\u00e9tails dans laTable 4). Cette fois, on constate que les chunks (IntP) sont tr\u00e8s bien reconnus (plus de 93 de F-mesure), alors que SEM substitue \u00e0 l'\u00e9tiquette POS correcte I des \u00e9tiquettes assez vari\u00e9es (typiquement ADV, ADJ, NC et V). Mais les interjections sont \u00e0 la fois fr\u00e9quentes et assez peu vari\u00e9es dans notre corpus de l'oral(euh, hm, oui, non, etc.) et celles pr\u00e9sentes dans l'ensemble d'apprentissage suffisent apparemment au chunker appris (qui a aussi acc\u00e8s aux mots ou tokens et pas uniquement aux POS) \u00e0 les identifier. Ainsi, l'exemple pr\u00e9c\u00e9dent re\u00e7oit cette fois l'\u00e9tiquetage :La forme bon est \u00e9tiquet\u00e9e ici correctement au niveau des chunks (B-IntP) malgr\u00e9 une erreur d'\u00e9tiquetage POS o\u00f9 elle est reconnue comme un adjectif. Dans le corpus d'apprentissage, ce mot est le plus souvent employ\u00e9 comme marqueur discursif, ce qui facilite sa d\u00e9sambigu\u00efsation. Les unit\u00e9s oui, non, aussi tr\u00e8s fr\u00e9quentes dans le corpus, re\u00e7oivent maintenant aussi une bonne \u00e9tiquette de chunk, quelle que soit leur \u00e9tiquette POS.En outre, les amorces pr\u00e9sentent une bien plus grande variabilit\u00e9 que les interjections ; toutes ne peuvent pas \u00eatre pr\u00e9sentes dans l'ensemble d'apprentissage et l'acc\u00e8s aux tokens ne suffit donc pas \u00e0 compenser le mauvais \u00e9tiquetage POS. Il ne semble pas y avoir de r\u00e8gle \u00e9vidente quant aux chunks (UNKNOWN) bien identifi\u00e9s. L'hypoth\u00e8se la plus probable est que SEM a reconnu uniquement les mots qu'il a d\u00e9j\u00e0 vus dans son ensemble d'apprentissage." }, "TABREF9": { "content": "
Type de chunkExp\u00e9rience 4Exp\u00e9rience 5
Pr\u00e9cisionRappelF-mesurePr\u00e9cisionRappelF-mesure
AP50,73%71,23%59,2671,76%64,38%67,87
AdP55,9%79,48%65,6483,78%85,83%84,79
CONJ89,42%89,42%89,4289,8%91,42%90,6
IntP33,33%0,12%0,2495,82%91,87%93,8
NP81,16%85,34%83,291,93%90,6%91,26
PP71,99%81,55%76,4881,57%82,41%81,99
UNKNOWNN/AN/AN/A92,86%18,57%30,95
VN78,13%87,23%82,4389,75%90,89%90,32
", "html": null, "num": null, "type_str": "table", "text": "proportions des diff\u00e9rents types de chunks dans les diff\u00e9rents corpus Les d\u00e9tails des r\u00e9sultats obtenus sur les diff\u00e9rents types de chunks pour les deux derni\u00e8res exp\u00e9riences sont pr\u00e9sent\u00e9s dans laTable 4." }, "TABREF10": { "content": "
Exp\u00e9riencesPremi\u00e8re approche :Deuxi\u00e8me approche :
utilisation d'un chunker apprisApprentissage d'un chunker sp\u00e9cifique de l'oral
sur l'\u00e9crit (r\u00e9f\u00e9rence : la(r\u00e9f\u00e9rence : la colonne V)
colonne IV)
EvaluationPOSPOSPOS corrig\u00e9esApprentissagePOS non corrig\u00e9s
non corrig\u00e9escorrig\u00e9essur POS corrig\u00e9s,
test sur POS non
corrig\u00e9s
Exactitude des POS (%)80,9810010080,9880,98
Micro-average77,2487,7496,6573,8188,84
Macro-average7688,4396,0859,6281,76
", "html": null, "num": null, "type_str": "table", "text": "R\u00e9sultats des diff\u00e9rents types de chunks dans les deux derni\u00e8res exp\u00e9riencesLa synth\u00e8se des r\u00e9sultats de l'ensemble de nos exp\u00e9riences est pr\u00e9sent\u00e9e dans laTable 5." }, "TABREF11": { "content": "", "html": null, "num": null, "type_str": "table", "text": "Synth\u00e8se des r\u00e9sultats des micro et macro-averages des F-mesures dans l'ensemble de nos exp\u00e9riences5 ConclusionTout d'abord, notre premi\u00e8re s\u00e9rie d'exp\u00e9riences montre qu'un \u00e9tiqueteur morphosyntaxique associ\u00e9 \u00e0 un chunker, tous deux appris sur un corpus source \u00e9crit fait environ 17% d'erreurs suppl\u00e9mentaires en POS, et 20% en chunking, sur des donn\u00e9es cibles orales transcrites. Cet \u00e9cart important justifie de trouver des strat\u00e9gies d'adaptation ou de contournement" } } } }