File size: 99,303 Bytes
6fa4bc9 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799 800 801 802 803 804 805 806 807 808 809 810 811 812 813 814 815 816 817 818 819 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849 850 851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899 900 901 902 903 904 905 906 907 908 909 910 911 912 913 914 915 916 917 918 919 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949 950 951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999 1000 1001 1002 1003 1004 1005 1006 1007 1008 1009 1010 1011 1012 1013 1014 1015 1016 1017 1018 1019 1020 1021 1022 1023 1024 1025 1026 1027 1028 1029 1030 1031 1032 1033 1034 1035 1036 1037 1038 1039 1040 1041 1042 1043 1044 1045 1046 1047 1048 1049 1050 1051 1052 1053 1054 1055 1056 1057 1058 1059 1060 1061 1062 1063 1064 1065 1066 1067 1068 1069 1070 1071 1072 1073 1074 1075 1076 1077 1078 1079 1080 1081 1082 1083 1084 1085 1086 1087 1088 1089 1090 1091 1092 1093 1094 1095 1096 1097 1098 1099 1100 1101 1102 1103 1104 1105 1106 1107 1108 1109 1110 1111 1112 1113 1114 1115 1116 1117 1118 1119 1120 1121 1122 1123 1124 1125 1126 1127 1128 1129 1130 1131 1132 1133 1134 1135 1136 1137 1138 1139 1140 1141 1142 1143 1144 1145 1146 1147 1148 1149 1150 1151 1152 1153 1154 1155 1156 1157 1158 1159 1160 1161 1162 1163 1164 1165 1166 1167 1168 1169 1170 1171 1172 1173 1174 1175 1176 1177 1178 1179 1180 1181 1182 1183 1184 1185 1186 1187 1188 1189 1190 1191 1192 1193 1194 1195 1196 1197 1198 1199 1200 1201 1202 1203 1204 1205 1206 1207 1208 1209 1210 1211 1212 1213 1214 1215 1216 1217 1218 1219 1220 1221 1222 1223 1224 1225 1226 1227 1228 1229 1230 1231 1232 1233 1234 1235 1236 1237 1238 1239 1240 1241 1242 1243 1244 1245 1246 1247 1248 1249 1250 1251 1252 1253 1254 1255 1256 1257 1258 1259 1260 1261 1262 1263 1264 1265 1266 1267 1268 1269 1270 1271 1272 1273 1274 1275 1276 1277 1278 1279 1280 1281 1282 1283 1284 1285 1286 1287 1288 1289 1290 1291 1292 1293 1294 1295 1296 1297 1298 1299 1300 1301 1302 1303 1304 1305 1306 1307 1308 1309 1310 1311 1312 1313 1314 1315 1316 1317 1318 1319 1320 1321 1322 1323 1324 1325 1326 1327 1328 1329 1330 1331 1332 1333 1334 1335 1336 1337 1338 1339 1340 1341 1342 1343 1344 1345 1346 1347 1348 1349 1350 1351 1352 1353 1354 1355 1356 1357 1358 1359 1360 1361 1362 1363 1364 1365 1366 1367 1368 1369 1370 1371 1372 1373 1374 1375 1376 1377 1378 1379 1380 1381 1382 1383 1384 1385 1386 1387 1388 1389 1390 1391 1392 1393 1394 1395 1396 1397 1398 1399 1400 1401 1402 1403 1404 1405 1406 1407 1408 1409 1410 1411 1412 1413 1414 1415 1416 1417 1418 1419 1420 1421 1422 1423 1424 1425 1426 1427 1428 1429 1430 1431 1432 1433 1434 1435 1436 1437 | {
"paper_id": "F13-1008",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T09:41:23.900575Z"
},
"title": "Identification automatique des relations discursives \u00ab implicites \u00bb \u00e0 partir de donn\u00e9es annot\u00e9es et de corpus bruts",
"authors": [
{
"first": "Chlo\u00e9",
"middle": [],
"last": "Braud",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "Universit\u00e9 Paris Diderot",
"location": {}
},
"email": "chloe.braud@inria.fr"
},
{
"first": "Pascal",
"middle": [],
"last": "Denis",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "INRIA Lille Nord-Europe",
"location": {}
},
"email": "pascal.denis@inria.fr"
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "Cet article pr\u00e9sente un syst\u00e8me d'identification des relations discursives dites \u00ab implicites \u00bb (\u00e0 savoir, non explicitement marqu\u00e9es par un connecteur) pour le fran\u00e7ais. Etant donn\u00e9 le faible volume de donn\u00e9es annot\u00e9es disponibles, notre syst\u00e8me s'appuie sur des donn\u00e9es \u00e9tiquet\u00e9es automatiquement en supprimant les connecteurs non ambigus pris comme annotation d'une relation, une m\u00e9thode introduite par (Marcu et Echihabi, 2002). Comme l'ont montr\u00e9 (Sporleder et Lascarides, 2008) pour l'anglais, cette approche ne g\u00e9n\u00e9ralise pas tr\u00e8s bien aux exemples de relations implicites tels qu'annot\u00e9s par des humains. Nous arrivons au m\u00eame constat pour le fran\u00e7ais et, partant du principe que le probl\u00e8me vient d'une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, nous proposons une s\u00e9rie de m\u00e9thodes assez simples, inspir\u00e9es par l'adaptation de domaine, qui visent \u00e0 combiner efficacement donn\u00e9es annot\u00e9es et donn\u00e9es artificielles. Nous \u00e9valuons empiriquement les diff\u00e9rentes approches sur le corpus ANNODIS : nos meilleurs r\u00e9sultats sont de l'ordre de 45.6% d'exactitude, avec un gain significatif de 5.9% par rapport \u00e0 un syst\u00e8me n'utilisant que les donn\u00e9es annot\u00e9es manuellement.",
"pdf_parse": {
"paper_id": "F13-1008",
"_pdf_hash": "",
"abstract": [
{
"text": "Cet article pr\u00e9sente un syst\u00e8me d'identification des relations discursives dites \u00ab implicites \u00bb (\u00e0 savoir, non explicitement marqu\u00e9es par un connecteur) pour le fran\u00e7ais. Etant donn\u00e9 le faible volume de donn\u00e9es annot\u00e9es disponibles, notre syst\u00e8me s'appuie sur des donn\u00e9es \u00e9tiquet\u00e9es automatiquement en supprimant les connecteurs non ambigus pris comme annotation d'une relation, une m\u00e9thode introduite par (Marcu et Echihabi, 2002). Comme l'ont montr\u00e9 (Sporleder et Lascarides, 2008) pour l'anglais, cette approche ne g\u00e9n\u00e9ralise pas tr\u00e8s bien aux exemples de relations implicites tels qu'annot\u00e9s par des humains. Nous arrivons au m\u00eame constat pour le fran\u00e7ais et, partant du principe que le probl\u00e8me vient d'une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, nous proposons une s\u00e9rie de m\u00e9thodes assez simples, inspir\u00e9es par l'adaptation de domaine, qui visent \u00e0 combiner efficacement donn\u00e9es annot\u00e9es et donn\u00e9es artificielles. Nous \u00e9valuons empiriquement les diff\u00e9rentes approches sur le corpus ANNODIS : nos meilleurs r\u00e9sultats sont de l'ordre de 45.6% d'exactitude, avec un gain significatif de 5.9% par rapport \u00e0 un syst\u00e8me n'utilisant que les donn\u00e9es annot\u00e9es manuellement.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "L'analyse discursive rend compte de la coh\u00e9rence d'un texte en liant, par des relations discursives, les propositions qui le constituent. En d\u00e9pit de diff\u00e9rences, les principales th\u00e9ories du discours, telles que la Rhetorical Structure Theory (RST) (Mann et Thompson, 1988) et la Segmented Discourse Representation Theory (SDRT) (Asher et Lascarides, 2003) , s'accordent sur les \u00e9tapes d'analyse : segmentation en unit\u00e9s \u00e9l\u00e9mentaires de discours (EDU), attachement des EDU, identification des relations entre EDU, puis r\u00e9cursivement les paires attach\u00e9es sont li\u00e9es \u00e0 des segments simples ou complexes pour aboutir \u00e0 une structure couvrant le document. Ainsi on peut associer au discours 1.1 1 segment\u00e9 en trois EDU la structure entre accolades. Les deux premiers segments sont li\u00e9s par un contrast et le segment complexe ainsi constitu\u00e9 est argument d'une relation de continuation. Un syst\u00e8me d\u00e9rivant automatiquement cette structure permettrait d'am\u00e9liorer d'autres syst\u00e8mes de TAL ou de RI car la structure du discours contraint les r\u00e9f\u00e9rents des anaphores, r\u00e9v\u00e8le la structure th\u00e9matique d'un texte et l'ordonnancement temporel des \u00e9v\u00e9nements : dans 1.2, les phrases a et b sont li\u00e9es par une relation de type explanation, b explique a, qui implique (loi de cause \u00e0 effet) l'ordre des \u00e9v\u00e9nements, b avant a. Gr\u00e2ce aux corpus annot\u00e9s comme le PDTB 2 ou le RST DT 3 des syst\u00e8mes automatiques ont \u00e9t\u00e9 d\u00e9velopp\u00e9s pour l'anglais sur la t\u00e2che compl\u00e8te ou seulement les sous-t\u00e2ches (notamment la phase d'identification des relations). A partir du corpus RST DT, (Sagae, 2009) et (Hernault et al., 2010) ont d\u00e9velopp\u00e9 des syst\u00e8mes complets avec des scores de f-mesure respectifs de 44.5 et 47.3 donc des performances encore modestes. Sur le PDTB, (Lin et al., 2010) construit un syst\u00e8me complet obtenant 46.8 de f-mesure.",
"cite_spans": [
{
"start": 249,
"end": 273,
"text": "(Mann et Thompson, 1988)",
"ref_id": "BIBREF8"
},
{
"start": 329,
"end": 356,
"text": "(Asher et Lascarides, 2003)",
"ref_id": null
},
{
"start": 1558,
"end": 1571,
"text": "(Sagae, 2009)",
"ref_id": "BIBREF16"
},
{
"start": 1575,
"end": 1598,
"text": "(Hernault et al., 2010)",
"ref_id": "BIBREF6"
},
{
"start": 1742,
"end": 1760,
"text": "(Lin et al., 2010)",
"ref_id": "BIBREF7"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Le PDTB permet de s\u00e9parer l'\u00e9tude des exemples avec ou sans connecteur discursif d\u00e9clenchant la relation. Lorsqu'un tel marqueur est pr\u00e9sent, la relation est dite explicite (ou marqu\u00e9e ou lexicalis\u00e9e) : ainsi, mais lexicalise la relation de contrast dans 1.1. Sinon, elle est implicite, comme la relation causale dans 1.2. Les diff\u00e9rentes \u00e9tudes men\u00e9es sur le PDTB montrent que l'identification des relations implicites est consid\u00e9rablement plus difficile que celle des relations explicites. Ainsi, (Lin et al., 2010) obtiennent une f-mesure qui d\u00e9passe les 80 pour les explicites, mais de seulement 39.63 pour les implicites. Sur un jeu de relations plus petit, ) rapportent une exactitude de 94% sur les explicites alors que de 60 sur les implicites. Sur des donn\u00e9es tir\u00e9es du RST DT, avec 5 relations, (Sporleder et Lascarides, 2008 ) obtiennent des scores de l'ordre de 40% d'exactitude. Pour le fran\u00e7ais, il n'existe pas de corpus annot\u00e9 en connecteur, donc aucune \u00e9tude s\u00e9parant le cas des implicites du cas g\u00e9n\u00e9ral : (Muller et al., 2012) ont d\u00e9velopp\u00e9 un syst\u00e8me complet qui obtient une exactitude de 44.8 pour 17 relations et de 65.5 pour ces relations regroup\u00e9es en 4 classes (ANNODIS, 3143 exemples). On peut supposer que, comme pour l'anglais, ce sont les relations implicites qui d\u00e9gradent les performances du syst\u00e8me.",
"cite_spans": [
{
"start": 499,
"end": 517,
"text": "(Lin et al., 2010)",
"ref_id": "BIBREF7"
},
{
"start": 805,
"end": 835,
"text": "(Sporleder et Lascarides, 2008",
"ref_id": "BIBREF19"
},
{
"start": 1024,
"end": 1045,
"text": "(Muller et al., 2012)",
"ref_id": "BIBREF10"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "1. Tir\u00e9 du corpus fran\u00e7ais ANNODIS, (P\u00e9ry-Woodley et al., 2009) document WK_-_hulotte. 2. Penn Discourse Treebank, (Prasad et al., 2008) 3. RST Discourse Treebank, (Carlson et al., 2001) Malheureusement, les corpus discursifs disponibles sont encore tr\u00e8s petits (surtout pour le fran\u00e7ais). En vue de pallier le manque d'annotations humaines, (Marcu et Echihabi, 2002) proposent d'utiliser des exemples annot\u00e9s automatiquement gr\u00e2ce aux connecteurs comme donn\u00e9es implicites suppl\u00e9mentaires. Cette \u00e9tude et celles qui l'ont suivie, notamment (Sporleder et Lascarides, 2008) , utilisaient ces nouvelles donn\u00e9es artificielles comme seules donn\u00e9es d'entra\u00eenement et obtenaient de basses performances. Le probl\u00e8me repose sur une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, qu'il est possible de prendre en compte afin d'am\u00e9liorer l'identification des relations implicites. A cette fin, nous proposons et \u00e9valuons diff\u00e9rentes m\u00e9thodes visant \u00e0 cr\u00e9er un nouveau mod\u00e8le enrichi par les nouvelles donn\u00e9es mais guid\u00e9 vers la distribution des donn\u00e9es manuelles. Nous nous inspirons des m\u00e9thodes utilis\u00e9es en adaptation de domaine d\u00e9crites dans (Daum\u00e9 III, 2007) . Notre contribution se situe au niveau du d\u00e9veloppement d'un syst\u00e8me d'identification des relations discursives implicites pour le fran\u00e7ais et de l'\u00e9tude de strat\u00e9gies d'utilisation de donn\u00e9es de distributions diff\u00e9rentes en TAL.",
"cite_spans": [
{
"start": 115,
"end": 136,
"text": "(Prasad et al., 2008)",
"ref_id": "BIBREF13"
},
{
"start": 164,
"end": 186,
"text": "(Carlson et al., 2001)",
"ref_id": "BIBREF2"
},
{
"start": 342,
"end": 367,
"text": "(Marcu et Echihabi, 2002)",
"ref_id": "BIBREF9"
},
{
"start": 540,
"end": 571,
"text": "(Sporleder et Lascarides, 2008)",
"ref_id": "BIBREF19"
},
{
"start": 1148,
"end": 1165,
"text": "(Daum\u00e9 III, 2007)",
"ref_id": "BIBREF3"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Nous pr\u00e9sentons dans la partie suivante un rapide \u00e9tat de l'art sur les exp\u00e9riences d\u00e9j\u00e0 men\u00e9es sur l'identification des relations de discours avec donn\u00e9es artificielles, afin d'en montrer les limites et de proposer une nouvelle strat\u00e9gie. La section 3 est consacr\u00e9e aux donn\u00e9es et la section 4 au mod\u00e8le utilis\u00e9. La section 5 regroupe les exp\u00e9riences men\u00e9es et l'analyse des r\u00e9sultats. Enfin, nous finirons par les perspectives ouvertes par ces exp\u00e9riences dans la section 6.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Les obstacles associ\u00e9s \u00e0 l'identification des relations implicites r\u00e9sident, d'une part, dans l'absence d'indicateur fiable (comme le connecteur pour les relations explicites) et, d'autre part, dans le manque de donn\u00e9es pour entra\u00eener des classifieurs performants. N\u00e9anmoins, on dispose de donn\u00e9es quasiment annot\u00e9es en grande quantit\u00e9 : celles contenant un connecteur discursif non ambigu, c'est-\u00e0-dire ne d\u00e9clenchant qu'une seule relation (p.ex., parce que d\u00e9clenche n\u00e9cessairement une relation de type explanation). Ce constat a amen\u00e9 (Marcu et Echihabi, 2002) \u00e0 proposer d'utiliser ces exemples pour l'identification des implicites. Plus pr\u00e9cis\u00e9ment, on g\u00e9n\u00e8re de nouvelles donn\u00e9es annot\u00e9es \u00e0 partir d'un corpus brut : des exemples sont extraits sur la pr\u00e9sence d'une forme de connecteur discursif non ambigu, filtr\u00e9s pour \u00e9liminer les cas d'emploi non discursif de la forme, puis le connecteur est supprim\u00e9 pour emp\u00eacher le mod\u00e8le de se baser sur cet indice non ambigu. On cr\u00e9e ainsi des donn\u00e9es implicites annot\u00e9es en relation de discours mais des donn\u00e9es qui n'ont jamais \u00e9t\u00e9 produites, non naturelles d'o\u00f9 le terme de donn\u00e9es artificielles. A titre d'illustration, consid\u00e9rons la paire de phrases suivante tir\u00e9e du corpus Est R\u00e9publicain (2.1) : dans ce cas, le connecteur cela dit est supprim\u00e9 et on g\u00e9n\u00e8re un exemple de relation de contrast entre les deux syntagmes arguments a et b. L'id\u00e9e est finalement de s'appuyer sur ces donn\u00e9es artificielles pour construire un mod\u00e8le d'identification des relations pour des donn\u00e9es naturelles implicites, on a donc des donn\u00e9es de type diff\u00e9rent : implicites versus explicites et naturelles versus artificielles.",
"cite_spans": [
{
"start": 538,
"end": 563,
"text": "(Marcu et Echihabi, 2002)",
"ref_id": "BIBREF9"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Utilisation des donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement",
"sec_num": "2"
},
{
"text": "Dans les \u00e9tudes pr\u00e9c\u00e9dentes bas\u00e9es sur ce principe les donn\u00e9es artificielles sont utilis\u00e9es comme seules donn\u00e9es d'entra\u00eenement ce qui conduit \u00e0 des performances basses, juste au-dessus de la chance pour (Sporleder et Lascarides, 2008) avec 25.8% d'exactitude contre 40.3 en utilisant les seules donn\u00e9es manuelles (1051 exemples manuels, 72000 artificiels, 5 relations). (Blair-Goldensohn et al., 2007) cherchent \u00e0 tester l'impact de la qualit\u00e9 du corpus artificiel en am\u00e9liorant l'extraction des donn\u00e9es gr\u00e2ce \u00e0 une segmentation en topics ou des informations syntaxiques. Ils semblent am\u00e9liorer l\u00e9g\u00e8rement les performances mais une comparaison est difficile puisqu'ils ne testent que des classifieurs binaires et 2 relations. L'id\u00e9e de base de (Marcu et Echihabi, 2002) r\u00e9sidait dans l'extraction de paires de mots de type antonymes ou hyp\u00e9ronymes pouvant r\u00e9v\u00e9ler une relation mais dont le lien n'est pas forc\u00e9ment recens\u00e9 dans des ressources comme WordNet. montrent que l'utilisation des paires de mots extraites d'un corpus artificiel comme trait suppl\u00e9mentaire n'am\u00e9liore pas les performances d'un syst\u00e8me d'identification des relations implicites. Mais l'\u00e9tude de (Sporleder et Lascarides, 2008 ) utilisant d'autres types de traits indique que le probl\u00e8me ne r\u00e9side pas ou pas uniquement dans le choix des traits.",
"cite_spans": [
{
"start": 204,
"end": 235,
"text": "(Sporleder et Lascarides, 2008)",
"ref_id": "BIBREF19"
},
{
"start": 371,
"end": 402,
"text": "(Blair-Goldensohn et al., 2007)",
"ref_id": "BIBREF0"
},
{
"start": 745,
"end": 770,
"text": "(Marcu et Echihabi, 2002)",
"ref_id": "BIBREF9"
},
{
"start": 1169,
"end": 1199,
"text": "(Sporleder et Lascarides, 2008",
"ref_id": "BIBREF19"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Utilisation des donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement",
"sec_num": "2"
},
{
"text": "Ces r\u00e9sultats montrent qu'un mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es artificielles ne g\u00e9n\u00e9ralise pas bien aux donn\u00e9es manuelles. Pourtant en regardant des exemples de type artificiel, il semble que dans certains cas on aurait pu produire les arguments sans le connecteur. De plus, les r\u00e9sultats de (Sporleder et Lascarides, 2008) demeurent sup\u00e9rieurs \u00e0 la chance (en consid\u00e8rant la chance \u00e0 20%), donc ces donn\u00e9es ne sont pas compl\u00e8tement diff\u00e9rentes des donn\u00e9es de test. Nous cherchons ici \u00e0 prendre en compte cette diff\u00e9rence de distribution qui rapproche le probl\u00e8me de ceux trait\u00e9s en adaptation de domaine.",
"cite_spans": [
{
"start": 290,
"end": 321,
"text": "(Sporleder et Lascarides, 2008)",
"ref_id": "BIBREF19"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Utilisation des donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement",
"sec_num": "2"
},
{
"text": "Pour que cette strat\u00e9gie fonctionne, il faut n\u00e9cessairement faire l'hypoth\u00e8se d'une certaine redondance du connecteur par rapport \u00e0 son contexte : il doit rester suffisamment d'information apr\u00e8s sa suppression pour que la relation reste identifiable. Une \u00e9tude psycho-linguistique men\u00e9e sur l'italien (Soria et Ferrari, 1998) et les conclusions de (Sporleder et Lascarides, 2008 ) semblent montrer que c'est le cas dans une partie des donn\u00e9es. Cette \u00e9tude reste \u00e0 faire pour le fran\u00e7ais, et l'approfondir pourrait permettre d'am\u00e9liorer la qualit\u00e9 du corpus artificiel en d\u00e9terminant par exemple si cette redondance est diff\u00e9rente selon les relations et les connecteurs.",
"cite_spans": [
{
"start": 301,
"end": 325,
"text": "(Soria et Ferrari, 1998)",
"ref_id": "BIBREF17"
},
{
"start": 348,
"end": 378,
"text": "(Sporleder et Lascarides, 2008",
"ref_id": "BIBREF19"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es",
"sec_num": "2.1"
},
{
"text": "Plus g\u00e9n\u00e9ralement, en apprentissage on fait l'hypoth\u00e8se que donn\u00e9es d'entra\u00eenement et de test sont identiquement et ind\u00e9pendamment distribu\u00e9es (donn\u00e9es i.i.d.) . Or il nous semble que justement la strat\u00e9gie propos\u00e9e par (Marcu et Echihabi, 2002) pose le probl\u00e8me d'un apprentissage avec des donn\u00e9es non identiquement distribu\u00e9es. On a deux ensembles de donn\u00e9es qui se ressemblent (m\u00eame ensemble d'\u00e9tiquettes, les exemples sont des segments de texte) mais qui sont n\u00e9anmoins distribu\u00e9s diff\u00e9remment, et ce, pour deux raisons au moins. D'une part, les donn\u00e9es artificielles sont par d\u00e9finition obtenues \u00e0 partir d'exemples de relations explicites : il n'y a aucune garantie que ces donn\u00e9es soient distribu\u00e9es comme les \"vrais\" exemples implicites. La diff\u00e9rence porte tant sur la distribution des labels (des relations) que sur l'assocation entre labels (relations) et inputs (paires des segments) \u00e0 classer. En outre, la suppression du connecteur ajoute probablement une forme de bruit en cas d'erreur d'\u00e9tiquetage contrairement aux donn\u00e9es manuelles correctement \u00e9tiquet\u00e9es. D'autre part, les donn\u00e9es artificielles se distinguent aussi des donn\u00e9es manuelles en termes des segments. Ainsi, la segmentation des premi\u00e8res est bas\u00e9e sur des heuristiques (p.ex., les arguments ne peuvent \u00eatre que deux phrases adjacentes ou deux propositions couvrant une phrase). Dans les donn\u00e9es manuelles, en revanche, on a des arguments contigus ou non, propositionnels, phrastiques ou multi-phrastiques dont les fronti\u00e8res ont \u00e9t\u00e9 d\u00e9termin\u00e9es par des annotateurs humains. Ceci induit une diff\u00e9rence de distribution au niveau des objets \u00e0 classer et une forme de bruit en cas d'erreur de segmentation due \u00e0 ces hypoth\u00e8ses simplificatrices ou \u00e0 une erreur d'heuristique.",
"cite_spans": [
{
"start": 143,
"end": 159,
"text": "(donn\u00e9es i.i.d.)",
"ref_id": null
},
{
"start": 220,
"end": 245,
"text": "(Marcu et Echihabi, 2002)",
"ref_id": "BIBREF9"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es",
"sec_num": "2.1"
},
{
"text": "On peut se rendre compte de cette diff\u00e9rence de distribution sur l'association entre labels et inputs en consid\u00e9rant certaines caract\u00e9ristiques des donn\u00e9es. La r\u00e9partition entre exemples inter-phrastiques et intra-phrastiques (la relation s'\u00e9tablit entre deux phrases ou deux segments \u00e0 l'int\u00e9rieur d'une phrase) est ainsi similaire pour contrast (57.1% d'inter-phrastiques dans les deux types de donn\u00e9es), proche pour result (45.7% d'inter-phrastiques dans les donn\u00e9es manuelles, 39.8% dans les artificielles) mais tr\u00e8s diff\u00e9rente pour continuation (70.0% d'inter-phrastiques dans les manuelles, 96.5% dans les artificielles), et pour explanation (21.4% dans les manuelles, 53.0% dans les artificielles).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es",
"sec_num": "2.1"
},
{
"text": "Ne pas prendre en compte ces diff\u00e9rences de distribution conduit \u00e0 de basses performances, nous avons donc cherch\u00e9 \u00e0 les g\u00e9rer en testant diff\u00e9rentes strat\u00e9gies avec un point commun : chercher \u00e0 guider le mod\u00e8le vers la distribution des donn\u00e9es manuelles.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es",
"sec_num": "2.1"
},
{
"text": "Dans des \u00e9tudes pr\u00e9c\u00e9dentes, l'entra\u00eenement sur les seules donn\u00e9es artificielles aboutit \u00e0 des r\u00e9sultats inf\u00e9rieurs \u00e0 un entra\u00eenement sur des donn\u00e9es manuelles (pourtant bien moins nombreuses). Ceci s'explique par les diff\u00e9rences de distribution entre les deux ensembles de donn\u00e9es. Dans cette section, nous d\u00e9crivons diff\u00e9rentes m\u00e9thodes visant \u00e0 exploiter les nouvelles donn\u00e9es artificielles, non plus seules, mais en combinaison avec les donn\u00e9es manuelles existantes.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les test\u00e9s",
"sec_num": "2.2"
},
{
"text": "De nombreux travaux s'attachant au probl\u00e8me de donn\u00e9es non identiquement distribu\u00e9es concernent l'adaptation de domaine. Nous nous sommes donc inspir\u00e9s des m\u00e9thodes utilis\u00e9es dans ce cadre, m\u00eame si notre probl\u00e8me diff\u00e8re au sens o\u00f9 nous n'avons qu'un seul domaine et des donn\u00e9es bruit\u00e9es. Ainsi, nous avons test\u00e9 une s\u00e9rie de syst\u00e8mes utilis\u00e9s pour l'adapation de domaine par (Daum\u00e9 III, 2007) , qui sont tr\u00e8s simples \u00e0 mettre en oeuvre et obtiennent n\u00e9anmoins de bonnes performances sur diff\u00e9rentes t\u00e2ches, ainsi que quelques solutions d\u00e9riv\u00e9es. Dans un second temps, nous avons ajout\u00e9 une \u00e9tape de s\u00e9lection d'exemples, afin de choisir parmi les exemples artificiels ceux qui seraient susceptibles d'am\u00e9liorer les performances.",
"cite_spans": [
{
"start": 376,
"end": 393,
"text": "(Daum\u00e9 III, 2007)",
"ref_id": "BIBREF3"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les test\u00e9s",
"sec_num": "2.2"
},
{
"text": "Les diff\u00e9rentes m\u00e9thodes de combinaison que nous proposons diff\u00e8rent selon que la combinaison s'op\u00e8re directement au niveau des jeux de donn\u00e9es ou au niveau des mod\u00e8les entra\u00een\u00e9s sur ceux-ci. La premi\u00e8re strat\u00e9gie de combinaison de donn\u00e9es que nous \u00e9tudions (UNION) rel\u00e8ve du premier type : elle consiste \u00e0 cr\u00e9er un corpus d'entra\u00eenement qui contient la r\u00e9union des deux ensembles de donn\u00e9es. Une strat\u00e9gie d\u00e9riv\u00e9e (AUTOSUB) consiste \u00e0 prendre, non pas l'int\u00e9gralit\u00e9 des donn\u00e9es artificielles, mais des sous-ensembles al\u00e9atoires de ces donn\u00e9es, en addition des donn\u00e9es manuelles. Cette m\u00e9thode est un peu plus subtile dans la mesure o\u00f9 on peut faire varier la proportion des exemples artificiels par rapport aux exemples manuels. Enfin, la troisi\u00e8me m\u00e9thode du premier type (MANW) garde cette fois la totalit\u00e9 des donn\u00e9es artificielles mais pond\u00e8re (ou duplique) les exemples manuels de mani\u00e8re \u00e0 \u00e9viter un d\u00e9s\u00e9quilibre trop grand au profit des donn\u00e9es artificielles.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les test\u00e9s",
"sec_num": "2.2"
},
{
"text": "Dans le second type de m\u00e9thodes, on trouve tout d'abord une m\u00e9thode (ADDPRED) qui consiste \u00e0 utiliser les pr\u00e9dictions d'un mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es artificielles (\u00e0 savoir les donn\u00e9es \"source\") comme descripteur dans le mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es manuelles (\u00e0 savoir les donn\u00e9es \"cibles\"). Le param\u00e8tre associ\u00e9 \u00e0 ce descripteur mesure donc l'importance \u00e0 accorder aux pr\u00e9dictions du mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es artificielles. Cette m\u00e9thode est la meilleure baseline et le troisi\u00e8me meilleur mod\u00e8le dans (Daum\u00e9 III et Marcu, 2006) . Une variation de cette m\u00e9thode (ADDPROB) utilise en plus le score de confiance (p.ex., la probabilit\u00e9) du mod\u00e8le artificiel comme descripteur suppl\u00e9mentaire dans le mod\u00e8le manuel. Une troisi\u00e8me m\u00e9thode (AUTOINIT) vise \u00e0 initialiser les param\u00e8tres du mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es manuelles avec ceux du mod\u00e8le utilisant les donn\u00e9es artificielles. Enfin, la derni\u00e8re m\u00e9thode (LININT) se base sur une interpolation lin\u00e9aire de deux mod\u00e8les pr\u00e9alablement entra\u00een\u00e9s sur chacun des ensembles de donn\u00e9es.",
"cite_spans": [
{
"start": 533,
"end": 545,
"text": "Marcu, 2006)",
"ref_id": "BIBREF4"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les test\u00e9s",
"sec_num": "2.2"
},
{
"text": "Nous avons aussi test\u00e9 toutes ces strat\u00e9gies en ajoutant une \u00e9tape de s\u00e9lection automatique d'exemples artificiels. La m\u00e9thode utilis\u00e9e est na\u00efve puisqu'elle se base simplement sur la probabilit\u00e9 du label pr\u00e9dit : on teste diff\u00e9rents seuils sur ces probabilit\u00e9s en ajoutant \u00e0 chaque fois les seuls exemples pr\u00e9dits avec une probabilit\u00e9 sup\u00e9rieure au seuil. Cette s\u00e9lection vise \u00e0 \u00e9carter des donn\u00e9es bruit\u00e9es, en explorant finalement l'une des voies propos\u00e9es par (Marcu et Echihabi, 2002) et d\u00e9velopp\u00e9e d'une autre mani\u00e8re par (Blair-Goldensohn et al., 2007) , \u00e0 savoir am\u00e9liorer la qualit\u00e9 du corpus artificiel.",
"cite_spans": [
{
"start": 464,
"end": 489,
"text": "(Marcu et Echihabi, 2002)",
"ref_id": "BIBREF9"
},
{
"start": 528,
"end": 559,
"text": "(Blair-Goldensohn et al., 2007)",
"ref_id": "BIBREF0"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les test\u00e9s",
"sec_num": "2.2"
},
{
"text": "Les performances de tous ces syst\u00e8mes seront compar\u00e9es \u00e0 celles des syst\u00e8mes entra\u00een\u00e9s s\u00e9par\u00e9ment sur les deux ensembles de donn\u00e9es dans la section 5.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les test\u00e9s",
"sec_num": "2.2"
},
{
"text": "Nous avons choisi de nous restreindre \u00e0 4 relations : contrast, result, continuation et explanation. Ces relations sont annot\u00e9es dans le corpus fran\u00e7ais utilis\u00e9 et correspondent \u00e0 des exemples implicites et explicites. De plus ce sont 4 des 5 relations (summary n'est pas annot\u00e9e dans ANNODIS) utilis\u00e9es dans (Sporleder et Lascarides, 2008) , ce qui nous permet une comparaison mais non directe puisque la langue et le corpus sont diff\u00e9rents. Dans nos donn\u00e9es manuelles, nous avons fusionn\u00e9 les m\u00e9ta-relations avec les relations correspondantes avec l'hypoth\u00e8se qu'elles mettaient en jeu le m\u00eame genre d'indices et de constructions. Les donn\u00e9es manuelles permettent d'obtenir des exemples de relations implicites manuellement annot\u00e9s. Les donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement sont des exemples explicites extraits par heuristique de donn\u00e9es brutes dans lesquels on supprime le connecteur : des donn\u00e9es implicites artificielles.",
"cite_spans": [
{
"start": 309,
"end": 340,
"text": "(Sporleder et Lascarides, 2008)",
"ref_id": "BIBREF19"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Donn\u00e9es",
"sec_num": "3"
},
{
"text": "Le projet ANNODIS (P\u00e9ry-Woodley et al., 2009) Le corpus a subi une s\u00e9rie de pr\u00e9-traitements. Le MElt tagger (Denis et Sagot, 2009) fournit un \u00e9tiquetage en cat\u00e9gorie morpho-syntaxique, une lemmatisation, des indications morphologiques (temps, personne, genre, nombre). Le MSTParser (Candito et al., 2010) fournit une analyse en d\u00e9pendances. Afin de restreindre notre \u00e9tude aux relations implicites, nous utilisons le LexConn, lexique des connecteurs discursifs du fran\u00e7ais d\u00e9velopp\u00e9 par (Roze, 2009) et \u00e9tendu en 2012 aux connecteurs introduisant des syntagmes nominaux. Nous utilisons une m\u00e9thode simple : nous projetons le lexique (sauf la forme \u00e0 jug\u00e9e trop ambigue) sur les donn\u00e9es, ce qui nous permet d'identifier tout token correspondant \u00e0 un connecteur. Nous ne contraignons pas cette identification sur des crit\u00e8res de position. Cette m\u00e9thode nous assure d'identifier tout connecteur donc de ne r\u00e9cup\u00e9rer que des exemples implicites mais comporte le risque d'en perdre certains. Sur les 1108 exemples disponibles pour les 4 relations nous disposons de 494 exemples implicites ; la distribution des exemples par relation est r\u00e9sum\u00e9e dans le tableau 1. (voir (Berger et al., 1996) ). Un attrait important de ces mod\u00e8les, par rapport \u00e0 des mod\u00e8les g\u00e9n\u00e9ratifs, est de permettre l'ajout de nombreux descripteurs potentiellement redondants sans faire d'hypoth\u00e8ses d'ind\u00e9pendance.",
"cite_spans": [
{
"start": 18,
"end": 45,
"text": "(P\u00e9ry-Woodley et al., 2009)",
"ref_id": "BIBREF14"
},
{
"start": 108,
"end": 130,
"text": "(Denis et Sagot, 2009)",
"ref_id": "BIBREF5"
},
{
"start": 282,
"end": 304,
"text": "(Candito et al., 2010)",
"ref_id": "BIBREF1"
},
{
"start": 487,
"end": 499,
"text": "(Roze, 2009)",
"ref_id": "BIBREF15"
},
{
"start": 1159,
"end": 1186,
"text": "(voir (Berger et al., 1996)",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Le corpus ANNODIS",
"sec_num": "3.1"
},
{
"text": "Notre jeu de traits se base sur les travaux existants avec quelques adaptations notables pour le fran\u00e7ais. Ces traits exploitent des informations de surface, ainsi que d'autres issues d'un traitement linguistique plus profond. Par comparaison, (Marcu et Echihabi, 2002) ne se base que sur la co-occurrence de lemmes dans les segments. (Sporleder et Lascarides, 2007) montrent que la prise en compte de diff\u00e9rents types de traits linguistiquement motiv\u00e9s am\u00e9liore les performances. (Sporleder et Lascarides, 2008) utilisent des traits vari\u00e9s dont des bi-grammes de lemmes mais sans traits syntaxiques. Nous avons test\u00e9 des traits lexico-syntaxiques utilis\u00e9s dans les pr\u00e9c\u00e9dentes \u00e9tudes sur cette t\u00e2che. Nous n'avons pas pu reprendre les traits s\u00e9mantiques comme les classes s\u00e9mantiques des t\u00eates des arguments car les ressources n\u00e9cessaires n'existent pas pour le fran\u00e7ais. On utilise une version binaire des traits \u00e0 valeur nominale.",
"cite_spans": [
{
"start": 244,
"end": 269,
"text": "(Marcu et Echihabi, 2002)",
"ref_id": "BIBREF9"
},
{
"start": 335,
"end": 366,
"text": "(Sporleder et Lascarides, 2007)",
"ref_id": "BIBREF18"
},
{
"start": 481,
"end": 512,
"text": "(Sporleder et Lascarides, 2008)",
"ref_id": "BIBREF19"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Relation",
"sec_num": null
},
{
"text": "Certains traits sont calcul\u00e9s pour chaque argument :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Relation",
"sec_num": null
},
{
"text": "1. Indice de complexit\u00e9 syntaxique : nombre de syntagmes nominaux, verbaux, pr\u00e9positionnels, adjectivaux, adverbiaux (valeur continue)",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Relation",
"sec_num": null
},
{
"text": "2. Information sur la t\u00eate d'un argument : -Lemme d'\u00e9l\u00e9ments n\u00e9gatifs sur la t\u00eate comme \"pas\" (nominale) -Information temporelle/aspectuelle : nombre de fois o\u00f9 un lemme de fonction auxiliaire d\u00e9pendant de la t\u00eate appara\u00eet (continue), temps, personne, nombre de l'auxiliaire (nominale) -Informations sur les d\u00e9pendants de la t\u00eate : pr\u00e9sence d'un objet, par-objet (syntagme pr\u00e9positionnel introduit par \"par\"), modifieur ou d\u00e9pendant pr\u00e9positionnel de la t\u00eate, du sujet ou de l'objet (bool\u00e9en) ; cat\u00e9gorie morpho-syntaxique des modifieurs et des d\u00e9pendants pr\u00e9positionnels de la t\u00eate, du sujet ou de l'objet (nominale) -Informations morphologiques : temps et personne de la t\u00eate verbale, genre de la t\u00eate non verbale, nombre de la t\u00eate, cat\u00e9gorie morpho-syntaxique pr\u00e9cise (par exemple \"VPP\") et simplifi\u00e9e (respectivement \"V\") (nominale) D'autres traits portent sur la paire d'arguments :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Relation",
"sec_num": null
},
{
"text": "1. Trait de position : si l'exemple est inter ou intra-phrastique (bool\u00e9en) 2. Indice de continuit\u00e9 th\u00e9matique : chevauchement en lemmes et en lemmes de cat\u00e9gorie ouverte, comme nom, verbe etc... (continue) 3. Information sur les t\u00eates des arguments :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Relation",
"sec_num": null
},
{
"text": "-Paire des temps des t\u00eates verbales (bool\u00e9en) -Paire des nombres des t\u00eates (bool\u00e9en)",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Relation",
"sec_num": null
},
{
"text": "On notera finalement que notre but portant avant tout sur la combinaison de donn\u00e9es, nous n'avons pas cherch\u00e9 \u00e0 optimiser ce jeu de traits, ce qui aurait introduit un param\u00e8tre suppl\u00e9mentaire dans notre mod\u00e8le.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Relation",
"sec_num": null
},
{
"text": "Pour rappel, l'objectif central de ces exp\u00e9riences est de d\u00e9terminer dans quelle mesure l'ajout de donn\u00e9es artificielles, via les diff\u00e9rentes m\u00e9thodes pr\u00e9sent\u00e9es en Section 2, peut nous permettre de d\u00e9passer les performances obtenues en s'entra\u00eenant sur des donn\u00e9es manuelles pr\u00e9sentes seulement en faible quantit\u00e9.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9riences",
"sec_num": "5"
},
{
"text": "Les exp\u00e9riences sont r\u00e9alis\u00e9es avec l'impl\u00e9mentation de l'algorithme par maximum d'entropie fourni dans la librairie MegaM 4 en version multi-classe avec au maximum 100 it\u00e9rations. On effectue une validation crois\u00e9e en 10 sous-ensembles sur un corpus des donn\u00e9es manuelles \u00e9quilibr\u00e9 \u00e0 70 exemples maximum par relation. Il faudra envisager des exp\u00e9riences conservant la distribution naturelle des donn\u00e9es, tr\u00e8s d\u00e9s\u00e9quilibr\u00e9e, mais pour l'instant nous nous focalisons sur l'aspect combinaison des donn\u00e9es. Comme dans les \u00e9tudes pr\u00e9c\u00e9dentes, les performances sont donn\u00e9es en termes d'exactitude globale sur l'ensemble des relations, des scores ventil\u00e9s de F1 par relation sont \u00e9galement fournis. La significativit\u00e9 statistique des \u00e9carts de performance est \u00e9valu\u00e9e avec un Wilcoxon signed-rank test (avec une p-valeur < 0.05).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9riences",
"sec_num": "5"
},
{
"text": "Dans un premier temps, nous construisons deux mod\u00e8les distincts, l'un \u00e0 partir des seules donn\u00e9es manuelles (MANONLY, 252 exemples), l'autre des seules donn\u00e9es artificielles (AUTOONLY, 93636 exemples d'entra\u00eenement). Notre mod\u00e8le MANONLY obtient une exactitude de 39.7, avec des scores de f-mesure par relation compris entre 13.3 pour contrast et 49.0 pour result (voir table 3). La relation contrast est donc tr\u00e8s mal identifi\u00e9e peut-\u00eatre parce que sous-repr\u00e9sent\u00e9e, seulement 42 exemples contre 70 pour les autres relations, le manque de donn\u00e9es joue probablement ici un r\u00f4le important.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les de base",
"sec_num": "5.1"
},
{
"text": "Le mod\u00e8le AUTOONLY obtient une exactitude de 47.8 lorsqu'\u00e9valu\u00e9 sur le m\u00eame type de donn\u00e9es (11704 exemples de test), mais de 23.0 lorsqu'\u00e9valu\u00e9 sur les donn\u00e9es manuelles (voir table 3). Cette baisse importante est comparable \u00e0 celle observ\u00e9e dans les \u00e9tudes pr\u00e9c\u00e9dentes sur l'anglais. Elle s'explique par les diff\u00e9rences de distribution \u00e9tudi\u00e9es en Section 2. De mani\u00e8re g\u00e9n\u00e9rale, on observe des d\u00e9gradations par rapport \u00e0 MANONLY pour l'identification de result, explanation et continuation (voir table 3). Par contre l'identification de contrast pr\u00e9sente une am\u00e9lioration, obtenant 23.2 de f-mesure avec 11 exemples correctement identifi\u00e9s contre 5 pr\u00e9c\u00e9demment. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les de base",
"sec_num": "5.1"
},
{
"text": "Dans cette section, nous pr\u00e9sentons les r\u00e9sultats des syst\u00e8mes qui exploitent \u00e0 la fois les donn\u00e9es manuelles et les donn\u00e9es artificielles. Ces ensembles de donn\u00e9es sont ou bien combin\u00e9s directement ou bien donnent lieu \u00e0 des mod\u00e8les s\u00e9par\u00e9s qui sont combin\u00e9s plus tard.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
"sec_num": "5.2"
},
{
"text": "Certains de ces mod\u00e8les utilisent des hyper-param\u00e8tres. Ainsi, pour la pond\u00e9ration des exemples manuels nous testons diff\u00e9rents coefficients de pond\u00e9ration c avec c \u2208 [0.5; 2000] avec un incr\u00e9ment de 10 jusqu'\u00e0 100, de 50 jusqu'\u00e0 1000 et de 500 jusqu'\u00e0 2000. Pour l'ajout de sousensembles des donn\u00e9es artificielles, on ajoute \u00e0 chaque fois k exemples parmi ces donn\u00e9es avec k \u2208 [0.1; 600] avec un incr\u00e9ment de 10 jusqu'\u00e0 100 et de 50 jusqu'\u00e0 600. Enfin, pour l'interpolation lin\u00e9aire des mod\u00e8les, on construit un nouveau mod\u00e8le en pond\u00e9rant le mod\u00e8le artificiel avec \u03b1 \u2208 [0.1; 0.9] avec des incr\u00e9ments de 0.1. Avec MANW, l'exactitude augmente avec la croissance du coefficient et d\u00e9passe 39.7 \u00e0 partir du coefficient 400 \u00e9quivalent \u00e0 un corpus manuel d'environ 24000 exemples par relation soit du m\u00eame ordre que le nombre d'exemples artificiels.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
"sec_num": "5.2"
},
{
"text": "Les exp\u00e9riences o\u00f9 la prise en compte des donn\u00e9es artificielles passe par l'ajout de traits donnent les meilleurs r\u00e9sultats avec une exactitude de 42.9 pour le mod\u00e8le qui int\u00e8gre les pr\u00e9dictions du mod\u00e8le artificiel comme descripteur (ADDPRED). Le second mod\u00e8le, qui exploite en plus les probabilit\u00e9s (ADDPROB) m\u00e8ne quant \u00e0 lui \u00e0 une l\u00e9g\u00e8re diminution ce qui sugg\u00e8re que les traits de probabilit\u00e9 d\u00e9gradent les performances.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
"sec_num": "5.2"
},
{
"text": "Quant aux exp\u00e9riences de combinaison des mod\u00e8les, l'initialisation du mod\u00e8le manuel par l'artificiel (AUTOINIT) conduit \u00e0 un syst\u00e8me d'exactitude 39.3, et l'interpolation lin\u00e9aire (LININT) correspond \u00e0 une d\u00e9croissance de l'exactitude suivant l'augmentation du coefficient \u03b1 sur le mod\u00e8le artificiel (voir table 4), avec cependant un saut important entre \u03b1 = 0.8 et \u03b1 = 0.9 (exactitude de 28.2) en lien avec une forte d\u00e9gradation de l'identification de explanation.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
"sec_num": "5.2"
},
{
"text": "Au niveau des scores par relation, ces syst\u00e8mes ont des effets diff\u00e9rents. Une influence forte du mod\u00e8le artificiel permet une am\u00e9lioration importante pour contrast et une d\u00e9gradation forte pour result et explanation par rapport \u00e0 MANONLY. Ces ph\u00e9nom\u00e8nes sont visibles avec AUTOONLY mais aussi avec LININT : la f-mesure de contrast augmente avec \u03b1 tandis que celle de result et de explanation diminue (voir table 4). Avec une influence similaire des deux types de donn\u00e9es (LININT \u03b1 = 0.5 ou MANW coefficient 400), la chute pour result est moins importante et on am\u00e9liore l'identification de explanation (voir table 4). Pour continuation, il faut une influence des donn\u00e9es manuelles inf\u00e9rieure \u00e0 celle des donn\u00e9es artificielles pour observer une am\u00e9lioration (voir table 4, LININT \u03b1 = 0.8). Le syst\u00e8me ADDPRED permet notamment une am\u00e9lioration forte de la f-mesure de explanation. On n'obtient pas d'am\u00e9lioration pour result.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
"sec_num": "5.2"
},
{
"text": "Les m\u00e9thodes de combinaison aboutissent \u00e0 des syst\u00e8mes d'exactitude similaire voire sup\u00e9rieure \u00e0 MANONLY et \u00e0 des am\u00e9liorations pour l'identification des relations sauf result. La relation contrast profite peut-\u00eatre de donn\u00e9es artificielles moins bruit\u00e9es : la majorit\u00e9 des exemples (plus de 75%) sont extraits \u00e0 partir de mais, forme toujours en emploi discursif dont les arguments sont dans l'ordre canonique, argument1+connecteur+argument2. Pour explanation, la majorit\u00e9 des donn\u00e9es (77.5%) est extraite \u00e0 partir de formes d\u00e9clenchant la m\u00e9ta-relation explanation* qui ne correspond \u00e0 aucun exemple dans ANNODIS expliquant peut-\u00eatre le manque de g\u00e9n\u00e9ralisation entre les deux types de donn\u00e9es. Les pr\u00e9dictions du mod\u00e8le artificiel construit surtout sur cette m\u00e9ta-relation pourraient \u00eatre coh\u00e9rentes expliquant l'am\u00e9lioration observ\u00e9e. Les diff\u00e9rences de performance au niveau des labels peuvent venir de distribution plus ou moins proche entre les deux types de donn\u00e9e. Si on regarde la distribution en terme de traits (850 traits en tout), on constate un \u00e9cart de plus de 30% pour 2 et 5 traits pour result et explanation mais aucun pour contrast et continuation pour lesquelles l'apport direct des donn\u00e9es artificielles est positif.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
"sec_num": "5.2"
},
{
"text": "Les exp\u00e9riences pr\u00e9c\u00e9dentes ont montr\u00e9 que l'ajout de donn\u00e9es artificielles donnaient le plus souvent lieu \u00e0 des gains de performance, mais ces gains restent relativement modestes, voire non significatifs. Notre hypoth\u00e8se est que de nombreux exemples artificiels am\u00e8nent du bruit dans le mod\u00e8le. Id\u00e9alement, nous souhaiterions \u00eatre capables de s\u00e9lectionner les exemples artificiels les plus informatifs et qui compl\u00e9mentent le mieux les donn\u00e9es manuelles.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples",
"sec_num": "5.3"
},
{
"text": "La m\u00e9thode de s\u00e9lection d'exemples que nous proposons a pour objectif d'\u00e9liminer les exemples potentiellement plus bruit\u00e9s. Pour cela, le mod\u00e8le artificiel est utilis\u00e9 sur les donn\u00e9es d'entra\u00eenement et on conserve les exemples pr\u00e9dits avec une probabilit\u00e9 sup\u00e9rieure \u00e0 un seuil s \u2208 [30, 40, 50, 55, 60, 65, 70, 75] . Si ce mod\u00e8le est assez s\u00fbr de sa pr\u00e9diction, on peut esp\u00e9rer que l'exemple ne correspond pas \u00e0 du bruit, \u00e0 une forme en emploi non discursif et/ou une erreur de segmentation. On v\u00e9rifie en quelque sorte aussi l'hypoth\u00e8se de redondance du connecteur. Pour chaque seuil, on r\u00e9\u00e9quilibre les donn\u00e9es en se basant sur la relation la moins repr\u00e9sent\u00e9e (syst\u00e8me+SELEC). A partir du seuil 80, ces exp\u00e9riences ne sont plus pertinentes, on conserve moins de 10 exemples par relation. Au niveau des scores par relation, de nouveau une influence forte des donn\u00e9es artificielles am\u00e9liore l'identification de contrast avec en plus une influence positive d'un seuil haut mais inf\u00e9rieur \u00e0 70, au-del\u00e0 le nombre d'exemples artificiels \u00e9tant probablement trop bas pour influer sur l'identification (voir table 5). Parall\u00e8lement, \u00e0 part avec AUTOONLY +SELEC, l'identification des autres relations s'am\u00e9liore avec la croissance du seuil donc une baisse de l'influence du mod\u00e8le artificiel. Pour continuation on observe toujours une am\u00e9lioration pour une influence similaire des deux types de donn\u00e9es et pour explanation, c'est toujours l'ajout de traits de pr\u00e9dictions qui permet les meilleures performances. Il semble qu'en plus on am\u00e9liore ici l'identification de result (MANW +SELEC et ADDPROB +SELEC, table 5).",
"cite_spans": [
{
"start": 282,
"end": 286,
"text": "[30,",
"ref_id": null
},
{
"start": 287,
"end": 290,
"text": "40,",
"ref_id": null
},
{
"start": 291,
"end": 294,
"text": "50,",
"ref_id": null
},
{
"start": 295,
"end": 298,
"text": "55,",
"ref_id": null
},
{
"start": 299,
"end": 302,
"text": "60,",
"ref_id": null
},
{
"start": 303,
"end": 306,
"text": "65,",
"ref_id": null
},
{
"start": 307,
"end": 310,
"text": "70,",
"ref_id": null
},
{
"start": 311,
"end": 314,
"text": "75]",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples",
"sec_num": "5.3"
},
{
"text": "La s\u00e9lection des exemples am\u00e9liore l'identification des relations et conduit \u00e0 deux syst\u00e8mes am\u00e9liorant significativement l'exactitude de MANONLY montrant que les donn\u00e9es artificielles lorsqu'int\u00e9gr\u00e9es de fa\u00e7on ad\u00e9quate peuvent am\u00e9liorer l'identification des relations implicites, notamment lorsque leur influence est faible, le mod\u00e8le \u00e9tant guid\u00e9 vers la bonne distribution.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples",
"sec_num": "5.3"
},
{
"text": "A la constitution des corpus avec s\u00e9lection on observe qu'avec la croissance du seuil on conserve toujours plus d'exemples pour result, d\u00e8s le seuil 40 environ 3900 de plus, alors que contrast devient sous-repr\u00e9sent\u00e9. Cette observation montre que le bruit n'est probablement pas la seule fa\u00e7on d'expliquer les r\u00e9sultats puisque la relation am\u00e9lior\u00e9e par les donn\u00e9es artificielles est celle pour laquelle le mod\u00e8le artificiel est le moins confiant alors que celle dont les r\u00e9sultats sont les plus d\u00e9grad\u00e9s est celle pour laquelle il est le plus confiant.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples",
"sec_num": "5.3"
},
{
"text": "Nous avons d\u00e9velopp\u00e9 la premi\u00e8re s\u00e9rie de syst\u00e8mes d'identification des relations discursives implicites pour le fran\u00e7ais. Ces relations sont difficiles \u00e0 identifier en raison du manque d'indices forts. Dans les \u00e9tudes sur l'anglais, les performances sont basses malgr\u00e9 les indices complexes utilis\u00e9s, probablement par manque de donn\u00e9es. Pour pallier ce probl\u00e8me, plus crucial encore en fran\u00e7ais, nous avons utilis\u00e9 des donn\u00e9es annot\u00e9es automatiquement en relation \u00e0 partir d'exemples explicites. Mais ces nouvelles donn\u00e9es ne g\u00e9n\u00e9ralisent pas bien aux donn\u00e9es implicites car elles sont de distribution diff\u00e9rente. Nous avons donc test\u00e9 des m\u00e9thodes inspir\u00e9es de l'adaptation de domaine pour combiner ces donn\u00e9es en ajoutant une \u00e9tape de s\u00e9lection automatique des exemples artificiels pour g\u00e9rer le bruit induit par leur cr\u00e9ation. Elles nous permettent des am\u00e9liorations significatives par rapport au mod\u00e8le n'utilisant que les donn\u00e9es manuelles. Les meilleurs syst\u00e8mes utilisent la s\u00e9lection d'exemples et la pond\u00e9ration des donn\u00e9es manuelles ou l'ajout de traits de pr\u00e9dictions du mod\u00e8le artificiel.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion",
"sec_num": "6"
},
{
"text": "Si les m\u00e9thodes de combinaison et de s\u00e9lection simples utilis\u00e9es ici parviennent \u00e0 des r\u00e9sultats encourageants, on peut esp\u00e9rer que des m\u00e9thodes plus sophistiqu\u00e9es pourraient conduire \u00e0 des am\u00e9liorations plus importantes. De plus, une \u00e9tude des donn\u00e9es explicites pourrait permettre d'augmenter la taille du corpus artificiel et d'am\u00e9liorer sa qualit\u00e9 en s\u00e9lectionnant des connecteurs et en identifiant des relations pour lesquelles cette m\u00e9thode est plus ou moins efficace et des traits plus informatifs dans une optique de combinaison des donn\u00e9es. Il faudra enfin porter ces m\u00e9thodes sur les donn\u00e9es anglaises pour une comparaison avec d'autres \u00e9tudes. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion",
"sec_num": "6"
},
{
"text": "c ATALA",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "Building and refining rhetorical-semantic relation models",
"authors": [
{
"first": "S",
"middle": [],
"last": "Blair-Goldensohn",
"suffix": ""
},
{
"first": "K",
"middle": [
"R"
],
"last": "Mckeown",
"suffix": ""
},
{
"first": "O",
"middle": [
"C"
],
"last": "Rambow",
"suffix": ""
}
],
"year": 2007,
"venue": "Proceedings of NAACL HLT",
"volume": "",
"issue": "",
"pages": "428--435",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BLAIR-GOLDENSOHN, S., MCKEOWN, K. R. et RAMBOW, O. C. (2007). Building and refining rhetorical-semantic relation models. In Proceedings of NAACL HLT, page 428-435.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "Benchmarking of statistical dependency parsers for french",
"authors": [
{
"first": "M",
"middle": [],
"last": "Candito",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "Nivre",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Denis",
"suffix": ""
},
{
"first": "E",
"middle": [
"H"
],
"last": "Anguiano",
"suffix": ""
}
],
"year": 2010,
"venue": "Proceedings of the 23rd ICCL posters",
"volume": "",
"issue": "",
"pages": "108--116",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CANDITO, M., NIVRE, J., DENIS, P. et ANGUIANO, E. H. (2010). Benchmarking of statistical dependency parsers for french. In Proceedings of the 23rd ICCL posters, page 108-116.",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "Building a discourse-tagged corpus in the framework of rhetorical structure theory",
"authors": [
{
"first": "L",
"middle": [],
"last": "Carlson",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Marcu",
"suffix": ""
},
{
"first": "M",
"middle": [
"E"
],
"last": "Okurowski",
"suffix": ""
}
],
"year": 2001,
"venue": "Proceedings of the Second SIGdial Workshop on Discourse",
"volume": "16",
"issue": "",
"pages": "1--10",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CARLSON, L., MARCU, D. et OKUROWSKI, M. E. (2001). Building a discourse-tagged corpus in the framework of rhetorical structure theory. In Proceedings of the Second SIGdial Workshop on Discourse and Dialogue-Volume 16, page 1-10.",
"links": null
},
"BIBREF3": {
"ref_id": "b3",
"title": "Frustratingly easy domain adaptation",
"authors": [
{
"first": "H",
"middle": [],
"last": "Daum\u00e9 Iii",
"suffix": ""
}
],
"year": 2007,
"venue": "Proceedings of ACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "DAUM\u00c9 III, H. (2007). Frustratingly easy domain adaptation. In Proceedings of ACL, page 256.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "Domain adaptation for statistical classifiers",
"authors": [
{
"first": "H",
"middle": [],
"last": "Daum\u00e9 Iii",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Marcu",
"suffix": ""
}
],
"year": 2006,
"venue": "Journal of Artificial Intelligence Research",
"volume": "26",
"issue": "1",
"pages": "101--126",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "DAUM\u00c9 III, H. et MARCU, D. (2006). Domain adaptation for statistical classifiers. Journal of Artificial Intelligence Research, 26(1):101-126.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "Coupling an annotated corpus and a morphosyntactic lexicon for state-of-the-art POS tagging with less human effort",
"authors": [
{
"first": "P",
"middle": [],
"last": "Denis",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Sagot",
"suffix": ""
}
],
"year": 2009,
"venue": "Proceedings of PACLIC",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "DENIS, P. et SAGOT, B. (2009). Coupling an annotated corpus and a morphosyntactic lexicon for state-of-the-art POS tagging with less human effort. In Proceedings of PACLIC.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "HILDA : a discourse parser using support vector machine classification",
"authors": [
{
"first": "H",
"middle": [],
"last": "Hernault",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Prendinger",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Ishizuka",
"suffix": ""
}
],
"year": 2010,
"venue": "Dialogue & Discourse",
"volume": "",
"issue": "3",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HERNAULT, H., PRENDINGER, H. et ISHIZUKA, M. (2010). HILDA : a discourse parser using support vector machine classification. Dialogue & Discourse, 1(3).",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "A PDTB-styled end-to-end discourse parser",
"authors": [
{
"first": "Z",
"middle": [],
"last": "Lin",
"suffix": ""
},
{
"first": "H",
"middle": [
"T"
],
"last": "Ng",
"suffix": ""
},
{
"first": "M",
"middle": [
"Y"
],
"last": "Kan",
"suffix": ""
}
],
"year": 2010,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LIN, Z., NG, H. T. et KAN, M. Y. (2010). A PDTB-styled end-to-end discourse parser. Rapport technique, National University of Singapore.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "Rhetorical structure theory : Toward a functional theory of text organization",
"authors": [
{
"first": "W",
"middle": [
"C"
],
"last": "Mann",
"suffix": ""
},
{
"first": "S",
"middle": [
"A"
],
"last": "Thompson",
"suffix": ""
}
],
"year": 1988,
"venue": "Text",
"volume": "8",
"issue": "3",
"pages": "243--281",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MANN, W. C. et THOMPSON, S. A. (1988). Rhetorical structure theory : Toward a functional theory of text organization. Text, 8(3):243-281.",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "An unsupervised approach to recognizing discourse relations",
"authors": [
{
"first": "D",
"middle": [],
"last": "Marcu",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Echihabi",
"suffix": ""
}
],
"year": 2002,
"venue": "Proceedings of ACL",
"volume": "",
"issue": "",
"pages": "368--375",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MARCU, D. et ECHIHABI, A. (2002). An unsupervised approach to recognizing discourse relations. In Proceedings of ACL, page 368-375.",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "Constrained decoding for text-level discourse parsing",
"authors": [
{
"first": "P",
"middle": [],
"last": "Muller",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Afantenos",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Denis",
"suffix": ""
},
{
"first": "N",
"middle": [],
"last": "Asher",
"suffix": ""
}
],
"year": 2012,
"venue": "Proceedings of COLING",
"volume": "",
"issue": "",
"pages": "1883--1900",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MULLER, P., AFANTENOS, S., DENIS, P. et ASHER, N. (2012). Constrained decoding for text-level discourse parsing. In Proceedings of COLING, pages 1883-1900.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "Automatic sense prediction for implicit discourse relations in text",
"authors": [
{
"first": "E",
"middle": [],
"last": "Pitler",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Louis",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Nenkova",
"suffix": ""
}
],
"year": 2009,
"venue": "Proceedings of ACL-IJCNLP",
"volume": "",
"issue": "",
"pages": "683--691",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PITLER, E., LOUIS, A. et NENKOVA, A. (2009). Automatic sense prediction for implicit discourse relations in text. In Proceedings of ACL-IJCNLP, page 683-691.",
"links": null
},
"BIBREF12": {
"ref_id": "b12",
"title": "Using syntax to disambiguate explicit discourse connectives in text",
"authors": [
{
"first": "E",
"middle": [],
"last": "Pitler",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Nenkova",
"suffix": ""
}
],
"year": 2009,
"venue": "Proceedings of ACL-IJCNLP short papers",
"volume": "",
"issue": "",
"pages": "13--16",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PITLER, E. et NENKOVA, A. (2009). Using syntax to disambiguate explicit discourse connectives in text. In Proceedings of ACL-IJCNLP short papers, page 13-16.",
"links": null
},
"BIBREF13": {
"ref_id": "b13",
"title": "The penn discourse treebank 2.0",
"authors": [
{
"first": "R",
"middle": [],
"last": "Prasad",
"suffix": ""
},
{
"first": "N",
"middle": [],
"last": "Dinesh",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Lee",
"suffix": ""
},
{
"first": "E",
"middle": [],
"last": "Miltsakaki",
"suffix": ""
},
{
"first": "L",
"middle": [],
"last": "Robaldo",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Joshi",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Webber",
"suffix": ""
}
],
"year": 2008,
"venue": "Proceedings of LREC",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PRASAD, R., DINESH, N., LEE, A., MILTSAKAKI, E., ROBALDO, L., JOSHI, A. et WEBBER, B. (2008). The penn discourse treebank 2.0. In Proceedings of LREC, page 2961.",
"links": null
},
"BIBREF14": {
"ref_id": "b14",
"title": "ANNODIS : une approche outill\u00e9e de l'annotation de structures discursives",
"authors": [
{
"first": "M",
"middle": [
"P"
],
"last": "P\u00e9ry-Woodley",
"suffix": ""
},
{
"first": "N",
"middle": [],
"last": "Asher",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Enjalbert",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Benamara",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Bras",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Fabre",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Ferrari",
"suffix": ""
},
{
"first": "L",
"middle": [
"M"
],
"last": "Ho-Dac",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Le Draoulec",
"suffix": ""
},
{
"first": "Y",
"middle": [],
"last": "Mathet",
"suffix": ""
}
],
"year": 2009,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "P\u00c9RY-WOODLEY, M. P., ASHER, N., ENJALBERT, P., BENAMARA, F., BRAS, M., FABRE, C., FERRARI, S., HO-DAC, L. M., LE DRAOULEC, A. et MATHET, Y. (2009). ANNODIS : une approche outill\u00e9e de l'annotation de structures discursives. Actes de TALN 2009.",
"links": null
},
"BIBREF15": {
"ref_id": "b15",
"title": "Base lexicale des connecteurs discursifs du fran\u00e7ais",
"authors": [
{
"first": "C",
"middle": [],
"last": "Roze",
"suffix": ""
}
],
"year": 2009,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ROZE, C. (2009). Base lexicale des connecteurs discursifs du fran\u00e7ais. M\u00e9moire de D.E.A., Universit\u00e9 Paris Diderot.",
"links": null
},
"BIBREF16": {
"ref_id": "b16",
"title": "Analysis of discourse structure with syntactic dependencies and data-driven shift-reduce parsing",
"authors": [
{
"first": "K",
"middle": [],
"last": "Sagae",
"suffix": ""
}
],
"year": 2009,
"venue": "Proceedings of IWPT",
"volume": "",
"issue": "",
"pages": "81--84",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SAGAE, K. (2009). Analysis of discourse structure with syntactic dependencies and data-driven shift-reduce parsing. In Proceedings of IWPT, page 81-84.",
"links": null
},
"BIBREF17": {
"ref_id": "b17",
"title": "Lexical marking of discourse relations-some experimental findings",
"authors": [
{
"first": "C",
"middle": [],
"last": "Soria",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Ferrari",
"suffix": ""
}
],
"year": 1998,
"venue": "Proceedings of the ACL-98 Workshop on Discourse Relations and Discourse Markers",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SORIA, C. et FERRARI, G. (1998). Lexical marking of discourse relations-some experimental findings. In Proceedings of the ACL-98 Workshop on Discourse Relations and Discourse Markers.",
"links": null
},
"BIBREF18": {
"ref_id": "b18",
"title": "Exploiting linguistic cues to classify rhetorical relations",
"authors": [
{
"first": "C",
"middle": [],
"last": "Sporleder",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Lascarides",
"suffix": ""
}
],
"year": 2007,
"venue": "Amsterdam Studies In The Theory And History Of Linguistic Science Series",
"volume": "4",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SPORLEDER, C. et LASCARIDES, A. (2007). Exploiting linguistic cues to classify rhetorical relations. Amsterdam Studies In The Theory And History Of Linguistic Science Series 4, 292:157.",
"links": null
},
"BIBREF19": {
"ref_id": "b19",
"title": "Using automatically labelled examples to classify rhetorical relations : An assessment",
"authors": [
{
"first": "C",
"middle": [],
"last": "Sporleder",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Lascarides",
"suffix": ""
}
],
"year": 2008,
"venue": "Natural Language Engineering",
"volume": "14",
"issue": "3",
"pages": "369--416",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SPORLEDER, C. et LASCARIDES, A. (2008). Using automatically labelled examples to classify rhetorical relations : An assessment. Natural Language Engineering, 14(3):369-416.",
"links": null
}
},
"ref_entries": {
"FIGREF0": {
"text": "Elle \u00e9tait tr\u00e8s comique, tr\u00e8s dr\u00f4le.] a Cela_dit [,le drame n' \u00e9tait jamais loin.] b",
"uris": null,
"num": null,
"type_str": "figure"
},
"FIGREF1": {
"text": "ASHER, N. et LASCARIDES, A. (2003).Logics of conversation. Cambridge University Press. BERGER, A. L., PIETRA, V. J. D. et PIETRA, S. A. D. (1996). A maximum entropy approach to natural language processing. Computational linguistics, 22(1):39-71.",
"uris": null,
"num": null,
"type_str": "figure"
},
"TABREF0": {
"html": null,
"text": "Exemple 1.1 {{[La hulotte est un rapace nocturne] [mais elle peut vivre le jour.]} cont rast [La hulotte mesure une quarantaine de centim\u00e8tres.]} cont inuat ion Exemple 1.2 {[Juliette est tomb\u00e9e.] a [Marion l'a pouss\u00e9e.] b } ex planation",
"content": "<table/>",
"type_str": "table",
"num": null
},
"TABREF1": {
"html": null,
"text": "vise la construction d'un corpus annot\u00e9 en discours pour le fran\u00e7ais suivant le cadre SDRT. La version du corpus utilis\u00e9e (en date du 15/11/2012) comporte 86 documents provenant de l'Est R\u00e9publicain et de Wikipedia. 3339 exemples sont annot\u00e9s avec 17 relations rh\u00e9toriques. Les documents sont segment\u00e9s en EDU : propositions, syntagmes pr\u00e9positionnels, adverbiaux d\u00e9tach\u00e9s \u00e0 gauche et incises, si le segment contient la description d'une \u00e9ventualit\u00e9. Les relations sont annot\u00e9es entre EDU ou segments complexes, contigu\u00ebs ou non. Les connecteurs discursifs ne sont pas annot\u00e9s.",
"content": "<table/>",
"type_str": "table",
"num": null
},
"TABREF3": {
"html": null,
"text": "Dans ce cas, nous risquons de r\u00e9cup\u00e9rer les m\u00eames arguments pour deux formes d\u00e9clenchant des relations diff\u00e9rentes ce qui est probl\u00e9matique pour un syst\u00e8me de classification. Nous ne g\u00e9n\u00e9rons donc deux exemples quand deux connecteurs sont pr\u00e9sents qu'\u00e0 condition que les arguments",
"content": "<table><tr><td>soient diff\u00e9rents, l'un inter-phrastique, l'autre intra-phrastique. Nous avons \u00e9quilibr\u00e9 le corpus en</td></tr><tr><td>relation en conservant le maximum d'exemples disponibles en un corpus d'entra\u00eenement (80%</td></tr><tr><td>des donn\u00e9es), un de d\u00e9veloppement (10%) et un de test (10%).</td></tr></table>",
"type_str": "table",
"num": null
},
"TABREF4": {
"html": null,
"text": "",
"content": "<table><tr><td>-Corpus artificiel : nombre d'exemples par relation</td></tr><tr><td>4 Mod\u00e8le et jeu de traits</td></tr><tr><td>Pour cette \u00e9tude, nous avons employ\u00e9 un mod\u00e8le de classification discriminant par r\u00e9gression</td></tr><tr><td>logistique (ou maximum d'entropie). Ce choix est bas\u00e9 sur le fait que ce type de mod\u00e8les donne de</td></tr><tr><td>bonnes performances pour diff\u00e9rents probl\u00e8mes de TAL et a \u00e9t\u00e9 implant\u00e9 dans diff\u00e9rentes librairies</td></tr></table>",
"type_str": "table",
"num": null
},
"TABREF5": {
"html": null,
"text": "4. http://www.umiacs.umd.edu/~hal/megam/version0_3/",
"content": "<table><tr><td/><td>MANONLY</td><td colspan=\"2\">AUTOONLY</td></tr><tr><td colspan=\"4\">Donn\u00e9es de test Manuelles Manuelles Artificielles</td></tr><tr><td>Exactitude</td><td>39.7</td><td>23.0</td><td>47.8</td></tr><tr><td>contrast</td><td>13.3</td><td>23.2</td><td>38.3</td></tr><tr><td>result</td><td>49.0</td><td>15.7</td><td>57.4</td></tr><tr><td>continuation</td><td>39.7</td><td>32.1</td><td>54.3</td></tr><tr><td>explanation</td><td>43.8</td><td>22.4</td><td>37.5</td></tr><tr><td colspan=\"4\">TABLE 3 -Mod\u00e8les de base, exactitude du syst\u00e8me et f-mesure par relation</td></tr></table>",
"type_str": "table",
"num": null
},
"TABREF6": {
"html": null,
"text": "De mani\u00e8re g\u00e9n\u00e9rale, l'ensemble de ces syst\u00e8mes avec les bons hyper-param\u00e8tres conduit \u00e0 des r\u00e9sultats au moins \u00e9quivalents et parfois sup\u00e9rieurs en exactitude par rapport \u00e0 MANONLY. Si la tendance g\u00e9n\u00e9rale est donc plut\u00f4t d'une hausse des performances, aucune des diff\u00e9rences observ\u00e9es \u00e0 ce stade ne semble cependant \u00eatre statistiquement significative. Les scores des syst\u00e8mes pr\u00e9sentant les r\u00e9sultats les plus pertinents sont repris dans la table 4. Ces r\u00e9sultats ne sont pas surprenants, les donn\u00e9es manuelles environ 372 fois moins nombreuses que les artificielles se retrouvent noy\u00e9es dans les donn\u00e9es artificielles.",
"content": "<table><tr><td/><td>MANONLY</td><td colspan=\"2\">AUTOONLY UNION</td><td colspan=\"2\">MANW</td><td colspan=\"4\">AUTOSUB ADDPRED ADDPROB AUTOINIT</td><td/><td>LININT</td><td/></tr><tr><td>Param\u00e8tre</td><td>-</td><td>-</td><td>-</td><td>100</td><td>400</td><td>0.2</td><td>-</td><td>-</td><td>-</td><td>0.2</td><td>0.5</td><td>0.8</td></tr><tr><td>Exactitude</td><td>39.7</td><td>23.0</td><td>24.2</td><td colspan=\"2\">34.9 41.7</td><td>39.7</td><td>42.9</td><td>39.3</td><td>39.3</td><td colspan=\"3\">39.7 38.5 35.3</td></tr><tr><td>contrast</td><td>13.3</td><td>23.2</td><td>21.1</td><td colspan=\"2\">32.4 19.7</td><td>16.7</td><td>22.9</td><td>24.0</td><td>11.9</td><td colspan=\"3\">13.2 16.2 29.6</td></tr><tr><td>result</td><td>49.0</td><td>15.7</td><td>16.4</td><td colspan=\"2\">28.0 39.2</td><td>44.9</td><td>47.4</td><td>45.8</td><td>46.3</td><td colspan=\"3\">47.0 39.5 24.8</td></tr><tr><td>continuation</td><td>39.7</td><td>32.1</td><td>38.5</td><td colspan=\"2\">45.8 48.7</td><td>39.4</td><td>37.3</td><td>35.4</td><td>38.9</td><td colspan=\"3\">40.6 39.2 44.2</td></tr><tr><td>explanation</td><td>43.8</td><td>22.4</td><td>21.7</td><td colspan=\"2\">31.7 47.7</td><td>46.1</td><td>52.8</td><td>43.8</td><td>45.4</td><td colspan=\"3\">45.4 48.6 40.3</td></tr><tr><td colspan=\"13\">TABLE 4 -Mod\u00e8les sans s\u00e9lection d'exemples, exactitude du syst\u00e8me et f-mesure par relation</td></tr><tr><td colspan=\"13\">La seule configuration qui m\u00e8ne \u00e0 des r\u00e9sultats n\u00e9gatifs est l'union simple des corpus d'entra\u00eene-</td></tr><tr><td colspan=\"13\">ment (UNION). Ce syst\u00e8me obtient 24.2 d'exactitude donc de l'ordre d'un entra\u00eenement sur les</td></tr><tr><td colspan=\"3\">seules donn\u00e9es artificielles.</td><td/><td/><td/><td/><td/><td/><td/><td/><td/><td/></tr></table>",
"type_str": "table",
"num": null
},
"TABREF7": {
"html": null,
"text": "Les seuils les plus int\u00e9ressants sont les seuils 60, 65, 70 et 75 qui repr\u00e9sentent respectivement un ajout de 553, 205, 72 et 16 exemples par relation. Les scores des syst\u00e8mes pr\u00e9sentant les r\u00e9sultats les plus pertinents sont repris dans la table 5. Mod\u00e8les avec s\u00e9lection d'exemples, exactitude du syst\u00e8me et f-mesure par relation La s\u00e9lection automatique d'exemples permet d'am\u00e9liorer les r\u00e9sultats pr\u00e9c\u00e9dents, qu'il s'agisse du mod\u00e8le AUTOONLY ou des mod\u00e8les avec combinaison des donn\u00e9es. De 23.0 d'exactitude avec AUTOONLY, on passe \u00e0 27.0 avec AUTOONLY +SELEC au seuil 60. De m\u00eame on passe de 24.2 avec UNION \u00e0 41.7 avec UNION +SELEC au seuil 75, l'exactitude augmentant avec la croissance du seuil.Il semble que les meilleurs syst\u00e8mes soient obtenus entre les seuils 60 et 70. Au seuil 65, les syst\u00e8mes AUTOINIT +SELEC, ADDPRED +SELEC et ADDPROB +SELEC atteignent leur meilleur score (voir table 5), ce dernier am\u00e9liorant significativement MANONLY (p-valeur= 0.046). L'exactitude de ces syst\u00e8mes ne suit pas une \u00e9volution claire suivant le seuil. De m\u00eame, si on retrouve avec LININT +SELEC une baisse de l'exactitude suivant \u03b1 \u00e0 chaque seuil, on n'a pas d'influence des seuils sur l'exactitude aux valeurs extr\u00eames de \u03b1.Avec AUTOSUB +SELEC et MANW +SELEC on a la m\u00eame tendance qu'avant, l'exactitude respectivement d\u00e9cro\u00eet et cro\u00eet avec la croissance du coefficient pour chaque seuil, mais pour AUTOSUB +SELEC on n'a rapidement plus assez d'exemples artificiels pour extraire des sous-ensembles. Pour MANW +SELEC, l'exactitude avec le coefficient le plus bas augmente avec le seuil, de 22.6 (seuil 30) \u00e0 37.7 (seuil 75). C'est avec ce syst\u00e8me et une influence tr\u00e8s faible des donn\u00e9es artificielles qu'on obtient le meilleur score d'exactitude, 45.6 am\u00e9liorant significativement les performances de MANONLY (p-valeur= 0.021).",
"content": "<table><tr><td>+SELEC</td><td>MANONLY</td><td colspan=\"2\">AUTOONLY</td><td colspan=\"2\">UNION</td><td/><td>MANW</td><td/><td colspan=\"2\">ADDPRED</td><td colspan=\"2\">ADDPROB AUTOINIT</td><td colspan=\"2\">LININT</td></tr><tr><td>Seuil</td><td>-</td><td>60</td><td>70</td><td>60</td><td>75</td><td>30</td><td>65</td><td/><td>40</td><td>65</td><td>65</td><td>65</td><td>60</td><td>75</td></tr><tr><td>Param\u00e8tre</td><td>-</td><td>-</td><td>-</td><td>-</td><td>-</td><td>250</td><td>0.5</td><td>900</td><td>-</td><td>-</td><td>-</td><td>-</td><td>0.7</td><td>0.7</td></tr><tr><td>Exactitude</td><td>39.7</td><td colspan=\"9\">27.0 23.8 26.2 41.7 35.3 30.6 45.6 42.5 44.4</td><td>44.0</td><td>43.3</td><td colspan=\"2\">36.5 34.9</td></tr><tr><td>contrast</td><td>13.3</td><td colspan=\"9\">32.0 29.5 26.7 11.6 16.4 37.2 32.0 14.5 31.6</td><td>24.7</td><td>24.0</td><td colspan=\"2\">34.1 24.6</td></tr><tr><td>result</td><td>49.0</td><td>20.0</td><td>8.2</td><td colspan=\"7\">25.4 50.0 29.5 27.8 53.2 47.4 52.6</td><td>53.2</td><td>47.8</td><td colspan=\"2\">33.6 29.7</td></tr><tr><td>continuation</td><td>39.7</td><td>8.6</td><td colspan=\"8\">16.5 19.4 43.3 49.1 20.6 38.5 36.8 40.6</td><td>43.4</td><td>43.4</td><td colspan=\"2\">28.8 27.0</td></tr><tr><td>explanation</td><td>43.8</td><td colspan=\"9\">31.8 32.1 30.9 45.6 35.3 34.3 51.1 55.9 45.9</td><td>44.4</td><td>48.9</td><td colspan=\"2\">46.1 52.9</td></tr></table>",
"type_str": "table",
"num": null
}
}
}
} |