File size: 99,303 Bytes
6fa4bc9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
1390
1391
1392
1393
1394
1395
1396
1397
1398
1399
1400
1401
1402
1403
1404
1405
1406
1407
1408
1409
1410
1411
1412
1413
1414
1415
1416
1417
1418
1419
1420
1421
1422
1423
1424
1425
1426
1427
1428
1429
1430
1431
1432
1433
1434
1435
1436
1437
{
    "paper_id": "F13-1008",
    "header": {
        "generated_with": "S2ORC 1.0.0",
        "date_generated": "2023-01-19T09:41:23.900575Z"
    },
    "title": "Identification automatique des relations discursives \u00ab implicites \u00bb \u00e0 partir de donn\u00e9es annot\u00e9es et de corpus bruts",
    "authors": [
        {
            "first": "Chlo\u00e9",
            "middle": [],
            "last": "Braud",
            "suffix": "",
            "affiliation": {
                "laboratory": "",
                "institution": "Universit\u00e9 Paris Diderot",
                "location": {}
            },
            "email": "chloe.braud@inria.fr"
        },
        {
            "first": "Pascal",
            "middle": [],
            "last": "Denis",
            "suffix": "",
            "affiliation": {
                "laboratory": "",
                "institution": "INRIA Lille Nord-Europe",
                "location": {}
            },
            "email": "pascal.denis@inria.fr"
        }
    ],
    "year": "",
    "venue": null,
    "identifiers": {},
    "abstract": "Cet article pr\u00e9sente un syst\u00e8me d'identification des relations discursives dites \u00ab implicites \u00bb (\u00e0 savoir, non explicitement marqu\u00e9es par un connecteur) pour le fran\u00e7ais. Etant donn\u00e9 le faible volume de donn\u00e9es annot\u00e9es disponibles, notre syst\u00e8me s'appuie sur des donn\u00e9es \u00e9tiquet\u00e9es automatiquement en supprimant les connecteurs non ambigus pris comme annotation d'une relation, une m\u00e9thode introduite par (Marcu et Echihabi, 2002). Comme l'ont montr\u00e9 (Sporleder et Lascarides, 2008) pour l'anglais, cette approche ne g\u00e9n\u00e9ralise pas tr\u00e8s bien aux exemples de relations implicites tels qu'annot\u00e9s par des humains. Nous arrivons au m\u00eame constat pour le fran\u00e7ais et, partant du principe que le probl\u00e8me vient d'une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, nous proposons une s\u00e9rie de m\u00e9thodes assez simples, inspir\u00e9es par l'adaptation de domaine, qui visent \u00e0 combiner efficacement donn\u00e9es annot\u00e9es et donn\u00e9es artificielles. Nous \u00e9valuons empiriquement les diff\u00e9rentes approches sur le corpus ANNODIS : nos meilleurs r\u00e9sultats sont de l'ordre de 45.6% d'exactitude, avec un gain significatif de 5.9% par rapport \u00e0 un syst\u00e8me n'utilisant que les donn\u00e9es annot\u00e9es manuellement.",
    "pdf_parse": {
        "paper_id": "F13-1008",
        "_pdf_hash": "",
        "abstract": [
            {
                "text": "Cet article pr\u00e9sente un syst\u00e8me d'identification des relations discursives dites \u00ab implicites \u00bb (\u00e0 savoir, non explicitement marqu\u00e9es par un connecteur) pour le fran\u00e7ais. Etant donn\u00e9 le faible volume de donn\u00e9es annot\u00e9es disponibles, notre syst\u00e8me s'appuie sur des donn\u00e9es \u00e9tiquet\u00e9es automatiquement en supprimant les connecteurs non ambigus pris comme annotation d'une relation, une m\u00e9thode introduite par (Marcu et Echihabi, 2002). Comme l'ont montr\u00e9 (Sporleder et Lascarides, 2008) pour l'anglais, cette approche ne g\u00e9n\u00e9ralise pas tr\u00e8s bien aux exemples de relations implicites tels qu'annot\u00e9s par des humains. Nous arrivons au m\u00eame constat pour le fran\u00e7ais et, partant du principe que le probl\u00e8me vient d'une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, nous proposons une s\u00e9rie de m\u00e9thodes assez simples, inspir\u00e9es par l'adaptation de domaine, qui visent \u00e0 combiner efficacement donn\u00e9es annot\u00e9es et donn\u00e9es artificielles. Nous \u00e9valuons empiriquement les diff\u00e9rentes approches sur le corpus ANNODIS : nos meilleurs r\u00e9sultats sont de l'ordre de 45.6% d'exactitude, avec un gain significatif de 5.9% par rapport \u00e0 un syst\u00e8me n'utilisant que les donn\u00e9es annot\u00e9es manuellement.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Abstract",
                "sec_num": null
            }
        ],
        "body_text": [
            {
                "text": "L'analyse discursive rend compte de la coh\u00e9rence d'un texte en liant, par des relations discursives, les propositions qui le constituent. En d\u00e9pit de diff\u00e9rences, les principales th\u00e9ories du discours, telles que la Rhetorical Structure Theory (RST) (Mann et Thompson, 1988) et la Segmented Discourse Representation Theory (SDRT) (Asher et Lascarides, 2003) , s'accordent sur les \u00e9tapes d'analyse : segmentation en unit\u00e9s \u00e9l\u00e9mentaires de discours (EDU), attachement des EDU, identification des relations entre EDU, puis r\u00e9cursivement les paires attach\u00e9es sont li\u00e9es \u00e0 des segments simples ou complexes pour aboutir \u00e0 une structure couvrant le document. Ainsi on peut associer au discours 1.1 1 segment\u00e9 en trois EDU la structure entre accolades. Les deux premiers segments sont li\u00e9s par un contrast et le segment complexe ainsi constitu\u00e9 est argument d'une relation de continuation. Un syst\u00e8me d\u00e9rivant automatiquement cette structure permettrait d'am\u00e9liorer d'autres syst\u00e8mes de TAL ou de RI car la structure du discours contraint les r\u00e9f\u00e9rents des anaphores, r\u00e9v\u00e8le la structure th\u00e9matique d'un texte et l'ordonnancement temporel des \u00e9v\u00e9nements : dans 1.2, les phrases a et b sont li\u00e9es par une relation de type explanation, b explique a, qui implique (loi de cause \u00e0 effet) l'ordre des \u00e9v\u00e9nements, b avant a. Gr\u00e2ce aux corpus annot\u00e9s comme le PDTB 2 ou le RST DT 3 des syst\u00e8mes automatiques ont \u00e9t\u00e9 d\u00e9velopp\u00e9s pour l'anglais sur la t\u00e2che compl\u00e8te ou seulement les sous-t\u00e2ches (notamment la phase d'identification des relations). A partir du corpus RST DT, (Sagae, 2009) et (Hernault et al., 2010) ont d\u00e9velopp\u00e9 des syst\u00e8mes complets avec des scores de f-mesure respectifs de 44.5 et 47.3 donc des performances encore modestes. Sur le PDTB, (Lin et al., 2010) construit un syst\u00e8me complet obtenant 46.8 de f-mesure.",
                "cite_spans": [
                    {
                        "start": 249,
                        "end": 273,
                        "text": "(Mann et Thompson, 1988)",
                        "ref_id": "BIBREF8"
                    },
                    {
                        "start": 329,
                        "end": 356,
                        "text": "(Asher et Lascarides, 2003)",
                        "ref_id": null
                    },
                    {
                        "start": 1558,
                        "end": 1571,
                        "text": "(Sagae, 2009)",
                        "ref_id": "BIBREF16"
                    },
                    {
                        "start": 1575,
                        "end": 1598,
                        "text": "(Hernault et al., 2010)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 1742,
                        "end": 1760,
                        "text": "(Lin et al., 2010)",
                        "ref_id": "BIBREF7"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Le PDTB permet de s\u00e9parer l'\u00e9tude des exemples avec ou sans connecteur discursif d\u00e9clenchant la relation. Lorsqu'un tel marqueur est pr\u00e9sent, la relation est dite explicite (ou marqu\u00e9e ou lexicalis\u00e9e) : ainsi, mais lexicalise la relation de contrast dans 1.1. Sinon, elle est implicite, comme la relation causale dans 1.2. Les diff\u00e9rentes \u00e9tudes men\u00e9es sur le PDTB montrent que l'identification des relations implicites est consid\u00e9rablement plus difficile que celle des relations explicites. Ainsi, (Lin et al., 2010) obtiennent une f-mesure qui d\u00e9passe les 80 pour les explicites, mais de seulement 39.63 pour les implicites. Sur un jeu de relations plus petit, ) rapportent une exactitude de 94% sur les explicites alors que de 60 sur les implicites. Sur des donn\u00e9es tir\u00e9es du RST DT, avec 5 relations, (Sporleder et Lascarides, 2008 ) obtiennent des scores de l'ordre de 40% d'exactitude. Pour le fran\u00e7ais, il n'existe pas de corpus annot\u00e9 en connecteur, donc aucune \u00e9tude s\u00e9parant le cas des implicites du cas g\u00e9n\u00e9ral : (Muller et al., 2012) ont d\u00e9velopp\u00e9 un syst\u00e8me complet qui obtient une exactitude de 44.8 pour 17 relations et de 65.5 pour ces relations regroup\u00e9es en 4 classes (ANNODIS, 3143 exemples). On peut supposer que, comme pour l'anglais, ce sont les relations implicites qui d\u00e9gradent les performances du syst\u00e8me.",
                "cite_spans": [
                    {
                        "start": 499,
                        "end": 517,
                        "text": "(Lin et al., 2010)",
                        "ref_id": "BIBREF7"
                    },
                    {
                        "start": 805,
                        "end": 835,
                        "text": "(Sporleder et Lascarides, 2008",
                        "ref_id": "BIBREF19"
                    },
                    {
                        "start": 1024,
                        "end": 1045,
                        "text": "(Muller et al., 2012)",
                        "ref_id": "BIBREF10"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "1. Tir\u00e9 du corpus fran\u00e7ais ANNODIS, (P\u00e9ry-Woodley et al., 2009) document WK_-_hulotte. 2. Penn Discourse Treebank, (Prasad et al., 2008) 3. RST Discourse Treebank, (Carlson et al., 2001) Malheureusement, les corpus discursifs disponibles sont encore tr\u00e8s petits (surtout pour le fran\u00e7ais). En vue de pallier le manque d'annotations humaines, (Marcu et Echihabi, 2002) proposent d'utiliser des exemples annot\u00e9s automatiquement gr\u00e2ce aux connecteurs comme donn\u00e9es implicites suppl\u00e9mentaires. Cette \u00e9tude et celles qui l'ont suivie, notamment (Sporleder et Lascarides, 2008) , utilisaient ces nouvelles donn\u00e9es artificielles comme seules donn\u00e9es d'entra\u00eenement et obtenaient de basses performances. Le probl\u00e8me repose sur une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, qu'il est possible de prendre en compte afin d'am\u00e9liorer l'identification des relations implicites. A cette fin, nous proposons et \u00e9valuons diff\u00e9rentes m\u00e9thodes visant \u00e0 cr\u00e9er un nouveau mod\u00e8le enrichi par les nouvelles donn\u00e9es mais guid\u00e9 vers la distribution des donn\u00e9es manuelles. Nous nous inspirons des m\u00e9thodes utilis\u00e9es en adaptation de domaine d\u00e9crites dans (Daum\u00e9 III, 2007) . Notre contribution se situe au niveau du d\u00e9veloppement d'un syst\u00e8me d'identification des relations discursives implicites pour le fran\u00e7ais et de l'\u00e9tude de strat\u00e9gies d'utilisation de donn\u00e9es de distributions diff\u00e9rentes en TAL.",
                "cite_spans": [
                    {
                        "start": 115,
                        "end": 136,
                        "text": "(Prasad et al., 2008)",
                        "ref_id": "BIBREF13"
                    },
                    {
                        "start": 164,
                        "end": 186,
                        "text": "(Carlson et al., 2001)",
                        "ref_id": "BIBREF2"
                    },
                    {
                        "start": 342,
                        "end": 367,
                        "text": "(Marcu et Echihabi, 2002)",
                        "ref_id": "BIBREF9"
                    },
                    {
                        "start": 540,
                        "end": 571,
                        "text": "(Sporleder et Lascarides, 2008)",
                        "ref_id": "BIBREF19"
                    },
                    {
                        "start": 1148,
                        "end": 1165,
                        "text": "(Daum\u00e9 III, 2007)",
                        "ref_id": "BIBREF3"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Nous pr\u00e9sentons dans la partie suivante un rapide \u00e9tat de l'art sur les exp\u00e9riences d\u00e9j\u00e0 men\u00e9es sur l'identification des relations de discours avec donn\u00e9es artificielles, afin d'en montrer les limites et de proposer une nouvelle strat\u00e9gie. La section 3 est consacr\u00e9e aux donn\u00e9es et la section 4 au mod\u00e8le utilis\u00e9. La section 5 regroupe les exp\u00e9riences men\u00e9es et l'analyse des r\u00e9sultats. Enfin, nous finirons par les perspectives ouvertes par ces exp\u00e9riences dans la section 6.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Les obstacles associ\u00e9s \u00e0 l'identification des relations implicites r\u00e9sident, d'une part, dans l'absence d'indicateur fiable (comme le connecteur pour les relations explicites) et, d'autre part, dans le manque de donn\u00e9es pour entra\u00eener des classifieurs performants. N\u00e9anmoins, on dispose de donn\u00e9es quasiment annot\u00e9es en grande quantit\u00e9 : celles contenant un connecteur discursif non ambigu, c'est-\u00e0-dire ne d\u00e9clenchant qu'une seule relation (p.ex., parce que d\u00e9clenche n\u00e9cessairement une relation de type explanation). Ce constat a amen\u00e9 (Marcu et Echihabi, 2002) \u00e0 proposer d'utiliser ces exemples pour l'identification des implicites. Plus pr\u00e9cis\u00e9ment, on g\u00e9n\u00e8re de nouvelles donn\u00e9es annot\u00e9es \u00e0 partir d'un corpus brut : des exemples sont extraits sur la pr\u00e9sence d'une forme de connecteur discursif non ambigu, filtr\u00e9s pour \u00e9liminer les cas d'emploi non discursif de la forme, puis le connecteur est supprim\u00e9 pour emp\u00eacher le mod\u00e8le de se baser sur cet indice non ambigu. On cr\u00e9e ainsi des donn\u00e9es implicites annot\u00e9es en relation de discours mais des donn\u00e9es qui n'ont jamais \u00e9t\u00e9 produites, non naturelles d'o\u00f9 le terme de donn\u00e9es artificielles. A titre d'illustration, consid\u00e9rons la paire de phrases suivante tir\u00e9e du corpus Est R\u00e9publicain (2.1) : dans ce cas, le connecteur cela dit est supprim\u00e9 et on g\u00e9n\u00e8re un exemple de relation de contrast entre les deux syntagmes arguments a et b. L'id\u00e9e est finalement de s'appuyer sur ces donn\u00e9es artificielles pour construire un mod\u00e8le d'identification des relations pour des donn\u00e9es naturelles implicites, on a donc des donn\u00e9es de type diff\u00e9rent : implicites versus explicites et naturelles versus artificielles.",
                "cite_spans": [
                    {
                        "start": 538,
                        "end": 563,
                        "text": "(Marcu et Echihabi, 2002)",
                        "ref_id": "BIBREF9"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Utilisation des donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement",
                "sec_num": "2"
            },
            {
                "text": "Dans les \u00e9tudes pr\u00e9c\u00e9dentes bas\u00e9es sur ce principe les donn\u00e9es artificielles sont utilis\u00e9es comme seules donn\u00e9es d'entra\u00eenement ce qui conduit \u00e0 des performances basses, juste au-dessus de la chance pour (Sporleder et Lascarides, 2008) avec 25.8% d'exactitude contre 40.3 en utilisant les seules donn\u00e9es manuelles (1051 exemples manuels, 72000 artificiels, 5 relations). (Blair-Goldensohn et al., 2007) cherchent \u00e0 tester l'impact de la qualit\u00e9 du corpus artificiel en am\u00e9liorant l'extraction des donn\u00e9es gr\u00e2ce \u00e0 une segmentation en topics ou des informations syntaxiques. Ils semblent am\u00e9liorer l\u00e9g\u00e8rement les performances mais une comparaison est difficile puisqu'ils ne testent que des classifieurs binaires et 2 relations. L'id\u00e9e de base de (Marcu et Echihabi, 2002) r\u00e9sidait dans l'extraction de paires de mots de type antonymes ou hyp\u00e9ronymes pouvant r\u00e9v\u00e9ler une relation mais dont le lien n'est pas forc\u00e9ment recens\u00e9 dans des ressources comme WordNet. montrent que l'utilisation des paires de mots extraites d'un corpus artificiel comme trait suppl\u00e9mentaire n'am\u00e9liore pas les performances d'un syst\u00e8me d'identification des relations implicites. Mais l'\u00e9tude de (Sporleder et Lascarides, 2008 ) utilisant d'autres types de traits indique que le probl\u00e8me ne r\u00e9side pas ou pas uniquement dans le choix des traits.",
                "cite_spans": [
                    {
                        "start": 204,
                        "end": 235,
                        "text": "(Sporleder et Lascarides, 2008)",
                        "ref_id": "BIBREF19"
                    },
                    {
                        "start": 371,
                        "end": 402,
                        "text": "(Blair-Goldensohn et al., 2007)",
                        "ref_id": "BIBREF0"
                    },
                    {
                        "start": 745,
                        "end": 770,
                        "text": "(Marcu et Echihabi, 2002)",
                        "ref_id": "BIBREF9"
                    },
                    {
                        "start": 1169,
                        "end": 1199,
                        "text": "(Sporleder et Lascarides, 2008",
                        "ref_id": "BIBREF19"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Utilisation des donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement",
                "sec_num": "2"
            },
            {
                "text": "Ces r\u00e9sultats montrent qu'un mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es artificielles ne g\u00e9n\u00e9ralise pas bien aux donn\u00e9es manuelles. Pourtant en regardant des exemples de type artificiel, il semble que dans certains cas on aurait pu produire les arguments sans le connecteur. De plus, les r\u00e9sultats de (Sporleder et Lascarides, 2008) demeurent sup\u00e9rieurs \u00e0 la chance (en consid\u00e8rant la chance \u00e0 20%), donc ces donn\u00e9es ne sont pas compl\u00e8tement diff\u00e9rentes des donn\u00e9es de test. Nous cherchons ici \u00e0 prendre en compte cette diff\u00e9rence de distribution qui rapproche le probl\u00e8me de ceux trait\u00e9s en adaptation de domaine.",
                "cite_spans": [
                    {
                        "start": 290,
                        "end": 321,
                        "text": "(Sporleder et Lascarides, 2008)",
                        "ref_id": "BIBREF19"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Utilisation des donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement",
                "sec_num": "2"
            },
            {
                "text": "Pour que cette strat\u00e9gie fonctionne, il faut n\u00e9cessairement faire l'hypoth\u00e8se d'une certaine redondance du connecteur par rapport \u00e0 son contexte : il doit rester suffisamment d'information apr\u00e8s sa suppression pour que la relation reste identifiable. Une \u00e9tude psycho-linguistique men\u00e9e sur l'italien (Soria et Ferrari, 1998) et les conclusions de (Sporleder et Lascarides, 2008 ) semblent montrer que c'est le cas dans une partie des donn\u00e9es. Cette \u00e9tude reste \u00e0 faire pour le fran\u00e7ais, et l'approfondir pourrait permettre d'am\u00e9liorer la qualit\u00e9 du corpus artificiel en d\u00e9terminant par exemple si cette redondance est diff\u00e9rente selon les relations et les connecteurs.",
                "cite_spans": [
                    {
                        "start": 301,
                        "end": 325,
                        "text": "(Soria et Ferrari, 1998)",
                        "ref_id": "BIBREF17"
                    },
                    {
                        "start": 348,
                        "end": 378,
                        "text": "(Sporleder et Lascarides, 2008",
                        "ref_id": "BIBREF19"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es",
                "sec_num": "2.1"
            },
            {
                "text": "Plus g\u00e9n\u00e9ralement, en apprentissage on fait l'hypoth\u00e8se que donn\u00e9es d'entra\u00eenement et de test sont identiquement et ind\u00e9pendamment distribu\u00e9es (donn\u00e9es i.i.d.) . Or il nous semble que justement la strat\u00e9gie propos\u00e9e par (Marcu et Echihabi, 2002) pose le probl\u00e8me d'un apprentissage avec des donn\u00e9es non identiquement distribu\u00e9es. On a deux ensembles de donn\u00e9es qui se ressemblent (m\u00eame ensemble d'\u00e9tiquettes, les exemples sont des segments de texte) mais qui sont n\u00e9anmoins distribu\u00e9s diff\u00e9remment, et ce, pour deux raisons au moins. D'une part, les donn\u00e9es artificielles sont par d\u00e9finition obtenues \u00e0 partir d'exemples de relations explicites : il n'y a aucune garantie que ces donn\u00e9es soient distribu\u00e9es comme les \"vrais\" exemples implicites. La diff\u00e9rence porte tant sur la distribution des labels (des relations) que sur l'assocation entre labels (relations) et inputs (paires des segments) \u00e0 classer. En outre, la suppression du connecteur ajoute probablement une forme de bruit en cas d'erreur d'\u00e9tiquetage contrairement aux donn\u00e9es manuelles correctement \u00e9tiquet\u00e9es. D'autre part, les donn\u00e9es artificielles se distinguent aussi des donn\u00e9es manuelles en termes des segments. Ainsi, la segmentation des premi\u00e8res est bas\u00e9e sur des heuristiques (p.ex., les arguments ne peuvent \u00eatre que deux phrases adjacentes ou deux propositions couvrant une phrase). Dans les donn\u00e9es manuelles, en revanche, on a des arguments contigus ou non, propositionnels, phrastiques ou multi-phrastiques dont les fronti\u00e8res ont \u00e9t\u00e9 d\u00e9termin\u00e9es par des annotateurs humains. Ceci induit une diff\u00e9rence de distribution au niveau des objets \u00e0 classer et une forme de bruit en cas d'erreur de segmentation due \u00e0 ces hypoth\u00e8ses simplificatrices ou \u00e0 une erreur d'heuristique.",
                "cite_spans": [
                    {
                        "start": 143,
                        "end": 159,
                        "text": "(donn\u00e9es i.i.d.)",
                        "ref_id": null
                    },
                    {
                        "start": 220,
                        "end": 245,
                        "text": "(Marcu et Echihabi, 2002)",
                        "ref_id": "BIBREF9"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es",
                "sec_num": "2.1"
            },
            {
                "text": "On peut se rendre compte de cette diff\u00e9rence de distribution sur l'association entre labels et inputs en consid\u00e9rant certaines caract\u00e9ristiques des donn\u00e9es. La r\u00e9partition entre exemples inter-phrastiques et intra-phrastiques (la relation s'\u00e9tablit entre deux phrases ou deux segments \u00e0 l'int\u00e9rieur d'une phrase) est ainsi similaire pour contrast (57.1% d'inter-phrastiques dans les deux types de donn\u00e9es), proche pour result (45.7% d'inter-phrastiques dans les donn\u00e9es manuelles, 39.8% dans les artificielles) mais tr\u00e8s diff\u00e9rente pour continuation (70.0% d'inter-phrastiques dans les manuelles, 96.5% dans les artificielles), et pour explanation (21.4% dans les manuelles, 53.0% dans les artificielles).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es",
                "sec_num": "2.1"
            },
            {
                "text": "Ne pas prendre en compte ces diff\u00e9rences de distribution conduit \u00e0 de basses performances, nous avons donc cherch\u00e9 \u00e0 les g\u00e9rer en testant diff\u00e9rentes strat\u00e9gies avec un point commun : chercher \u00e0 guider le mod\u00e8le vers la distribution des donn\u00e9es manuelles.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es",
                "sec_num": "2.1"
            },
            {
                "text": "Dans des \u00e9tudes pr\u00e9c\u00e9dentes, l'entra\u00eenement sur les seules donn\u00e9es artificielles aboutit \u00e0 des r\u00e9sultats inf\u00e9rieurs \u00e0 un entra\u00eenement sur des donn\u00e9es manuelles (pourtant bien moins nombreuses). Ceci s'explique par les diff\u00e9rences de distribution entre les deux ensembles de donn\u00e9es. Dans cette section, nous d\u00e9crivons diff\u00e9rentes m\u00e9thodes visant \u00e0 exploiter les nouvelles donn\u00e9es artificielles, non plus seules, mais en combinaison avec les donn\u00e9es manuelles existantes.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les test\u00e9s",
                "sec_num": "2.2"
            },
            {
                "text": "De nombreux travaux s'attachant au probl\u00e8me de donn\u00e9es non identiquement distribu\u00e9es concernent l'adaptation de domaine. Nous nous sommes donc inspir\u00e9s des m\u00e9thodes utilis\u00e9es dans ce cadre, m\u00eame si notre probl\u00e8me diff\u00e8re au sens o\u00f9 nous n'avons qu'un seul domaine et des donn\u00e9es bruit\u00e9es. Ainsi, nous avons test\u00e9 une s\u00e9rie de syst\u00e8mes utilis\u00e9s pour l'adapation de domaine par (Daum\u00e9 III, 2007) , qui sont tr\u00e8s simples \u00e0 mettre en oeuvre et obtiennent n\u00e9anmoins de bonnes performances sur diff\u00e9rentes t\u00e2ches, ainsi que quelques solutions d\u00e9riv\u00e9es. Dans un second temps, nous avons ajout\u00e9 une \u00e9tape de s\u00e9lection d'exemples, afin de choisir parmi les exemples artificiels ceux qui seraient susceptibles d'am\u00e9liorer les performances.",
                "cite_spans": [
                    {
                        "start": 376,
                        "end": 393,
                        "text": "(Daum\u00e9 III, 2007)",
                        "ref_id": "BIBREF3"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les test\u00e9s",
                "sec_num": "2.2"
            },
            {
                "text": "Les diff\u00e9rentes m\u00e9thodes de combinaison que nous proposons diff\u00e8rent selon que la combinaison s'op\u00e8re directement au niveau des jeux de donn\u00e9es ou au niveau des mod\u00e8les entra\u00een\u00e9s sur ceux-ci. La premi\u00e8re strat\u00e9gie de combinaison de donn\u00e9es que nous \u00e9tudions (UNION) rel\u00e8ve du premier type : elle consiste \u00e0 cr\u00e9er un corpus d'entra\u00eenement qui contient la r\u00e9union des deux ensembles de donn\u00e9es. Une strat\u00e9gie d\u00e9riv\u00e9e (AUTOSUB) consiste \u00e0 prendre, non pas l'int\u00e9gralit\u00e9 des donn\u00e9es artificielles, mais des sous-ensembles al\u00e9atoires de ces donn\u00e9es, en addition des donn\u00e9es manuelles. Cette m\u00e9thode est un peu plus subtile dans la mesure o\u00f9 on peut faire varier la proportion des exemples artificiels par rapport aux exemples manuels. Enfin, la troisi\u00e8me m\u00e9thode du premier type (MANW) garde cette fois la totalit\u00e9 des donn\u00e9es artificielles mais pond\u00e8re (ou duplique) les exemples manuels de mani\u00e8re \u00e0 \u00e9viter un d\u00e9s\u00e9quilibre trop grand au profit des donn\u00e9es artificielles.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les test\u00e9s",
                "sec_num": "2.2"
            },
            {
                "text": "Dans le second type de m\u00e9thodes, on trouve tout d'abord une m\u00e9thode (ADDPRED) qui consiste \u00e0 utiliser les pr\u00e9dictions d'un mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es artificielles (\u00e0 savoir les donn\u00e9es \"source\") comme descripteur dans le mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es manuelles (\u00e0 savoir les donn\u00e9es \"cibles\"). Le param\u00e8tre associ\u00e9 \u00e0 ce descripteur mesure donc l'importance \u00e0 accorder aux pr\u00e9dictions du mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es artificielles. Cette m\u00e9thode est la meilleure baseline et le troisi\u00e8me meilleur mod\u00e8le dans (Daum\u00e9 III et Marcu, 2006) . Une variation de cette m\u00e9thode (ADDPROB) utilise en plus le score de confiance (p.ex., la probabilit\u00e9) du mod\u00e8le artificiel comme descripteur suppl\u00e9mentaire dans le mod\u00e8le manuel. Une troisi\u00e8me m\u00e9thode (AUTOINIT) vise \u00e0 initialiser les param\u00e8tres du mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es manuelles avec ceux du mod\u00e8le utilisant les donn\u00e9es artificielles. Enfin, la derni\u00e8re m\u00e9thode (LININT) se base sur une interpolation lin\u00e9aire de deux mod\u00e8les pr\u00e9alablement entra\u00een\u00e9s sur chacun des ensembles de donn\u00e9es.",
                "cite_spans": [
                    {
                        "start": 533,
                        "end": 545,
                        "text": "Marcu, 2006)",
                        "ref_id": "BIBREF4"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les test\u00e9s",
                "sec_num": "2.2"
            },
            {
                "text": "Nous avons aussi test\u00e9 toutes ces strat\u00e9gies en ajoutant une \u00e9tape de s\u00e9lection automatique d'exemples artificiels. La m\u00e9thode utilis\u00e9e est na\u00efve puisqu'elle se base simplement sur la probabilit\u00e9 du label pr\u00e9dit : on teste diff\u00e9rents seuils sur ces probabilit\u00e9s en ajoutant \u00e0 chaque fois les seuls exemples pr\u00e9dits avec une probabilit\u00e9 sup\u00e9rieure au seuil. Cette s\u00e9lection vise \u00e0 \u00e9carter des donn\u00e9es bruit\u00e9es, en explorant finalement l'une des voies propos\u00e9es par (Marcu et Echihabi, 2002) et d\u00e9velopp\u00e9e d'une autre mani\u00e8re par (Blair-Goldensohn et al., 2007) , \u00e0 savoir am\u00e9liorer la qualit\u00e9 du corpus artificiel.",
                "cite_spans": [
                    {
                        "start": 464,
                        "end": 489,
                        "text": "(Marcu et Echihabi, 2002)",
                        "ref_id": "BIBREF9"
                    },
                    {
                        "start": 528,
                        "end": 559,
                        "text": "(Blair-Goldensohn et al., 2007)",
                        "ref_id": "BIBREF0"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les test\u00e9s",
                "sec_num": "2.2"
            },
            {
                "text": "Les performances de tous ces syst\u00e8mes seront compar\u00e9es \u00e0 celles des syst\u00e8mes entra\u00een\u00e9s s\u00e9par\u00e9ment sur les deux ensembles de donn\u00e9es dans la section 5.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les test\u00e9s",
                "sec_num": "2.2"
            },
            {
                "text": "Nous avons choisi de nous restreindre \u00e0 4 relations : contrast, result, continuation et explanation. Ces relations sont annot\u00e9es dans le corpus fran\u00e7ais utilis\u00e9 et correspondent \u00e0 des exemples implicites et explicites. De plus ce sont 4 des 5 relations (summary n'est pas annot\u00e9e dans ANNODIS) utilis\u00e9es dans (Sporleder et Lascarides, 2008) , ce qui nous permet une comparaison mais non directe puisque la langue et le corpus sont diff\u00e9rents. Dans nos donn\u00e9es manuelles, nous avons fusionn\u00e9 les m\u00e9ta-relations avec les relations correspondantes avec l'hypoth\u00e8se qu'elles mettaient en jeu le m\u00eame genre d'indices et de constructions. Les donn\u00e9es manuelles permettent d'obtenir des exemples de relations implicites manuellement annot\u00e9s. Les donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement sont des exemples explicites extraits par heuristique de donn\u00e9es brutes dans lesquels on supprime le connecteur : des donn\u00e9es implicites artificielles.",
                "cite_spans": [
                    {
                        "start": 309,
                        "end": 340,
                        "text": "(Sporleder et Lascarides, 2008)",
                        "ref_id": "BIBREF19"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Donn\u00e9es",
                "sec_num": "3"
            },
            {
                "text": "Le projet ANNODIS (P\u00e9ry-Woodley et al., 2009) Le corpus a subi une s\u00e9rie de pr\u00e9-traitements. Le MElt tagger (Denis et Sagot, 2009) fournit un \u00e9tiquetage en cat\u00e9gorie morpho-syntaxique, une lemmatisation, des indications morphologiques (temps, personne, genre, nombre). Le MSTParser (Candito et al., 2010) fournit une analyse en d\u00e9pendances. Afin de restreindre notre \u00e9tude aux relations implicites, nous utilisons le LexConn, lexique des connecteurs discursifs du fran\u00e7ais d\u00e9velopp\u00e9 par (Roze, 2009) et \u00e9tendu en 2012 aux connecteurs introduisant des syntagmes nominaux. Nous utilisons une m\u00e9thode simple : nous projetons le lexique (sauf la forme \u00e0 jug\u00e9e trop ambigue) sur les donn\u00e9es, ce qui nous permet d'identifier tout token correspondant \u00e0 un connecteur. Nous ne contraignons pas cette identification sur des crit\u00e8res de position. Cette m\u00e9thode nous assure d'identifier tout connecteur donc de ne r\u00e9cup\u00e9rer que des exemples implicites mais comporte le risque d'en perdre certains. Sur les 1108 exemples disponibles pour les 4 relations nous disposons de 494 exemples implicites ; la distribution des exemples par relation est r\u00e9sum\u00e9e dans le tableau 1. (voir (Berger et al., 1996) ). Un attrait important de ces mod\u00e8les, par rapport \u00e0 des mod\u00e8les g\u00e9n\u00e9ratifs, est de permettre l'ajout de nombreux descripteurs potentiellement redondants sans faire d'hypoth\u00e8ses d'ind\u00e9pendance.",
                "cite_spans": [
                    {
                        "start": 18,
                        "end": 45,
                        "text": "(P\u00e9ry-Woodley et al., 2009)",
                        "ref_id": "BIBREF14"
                    },
                    {
                        "start": 108,
                        "end": 130,
                        "text": "(Denis et Sagot, 2009)",
                        "ref_id": "BIBREF5"
                    },
                    {
                        "start": 282,
                        "end": 304,
                        "text": "(Candito et al., 2010)",
                        "ref_id": "BIBREF1"
                    },
                    {
                        "start": 487,
                        "end": 499,
                        "text": "(Roze, 2009)",
                        "ref_id": "BIBREF15"
                    },
                    {
                        "start": 1159,
                        "end": 1186,
                        "text": "(voir (Berger et al., 1996)",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Le corpus ANNODIS",
                "sec_num": "3.1"
            },
            {
                "text": "Notre jeu de traits se base sur les travaux existants avec quelques adaptations notables pour le fran\u00e7ais. Ces traits exploitent des informations de surface, ainsi que d'autres issues d'un traitement linguistique plus profond. Par comparaison, (Marcu et Echihabi, 2002) ne se base que sur la co-occurrence de lemmes dans les segments. (Sporleder et Lascarides, 2007) montrent que la prise en compte de diff\u00e9rents types de traits linguistiquement motiv\u00e9s am\u00e9liore les performances. (Sporleder et Lascarides, 2008) utilisent des traits vari\u00e9s dont des bi-grammes de lemmes mais sans traits syntaxiques. Nous avons test\u00e9 des traits lexico-syntaxiques utilis\u00e9s dans les pr\u00e9c\u00e9dentes \u00e9tudes sur cette t\u00e2che. Nous n'avons pas pu reprendre les traits s\u00e9mantiques comme les classes s\u00e9mantiques des t\u00eates des arguments car les ressources n\u00e9cessaires n'existent pas pour le fran\u00e7ais. On utilise une version binaire des traits \u00e0 valeur nominale.",
                "cite_spans": [
                    {
                        "start": 244,
                        "end": 269,
                        "text": "(Marcu et Echihabi, 2002)",
                        "ref_id": "BIBREF9"
                    },
                    {
                        "start": 335,
                        "end": 366,
                        "text": "(Sporleder et Lascarides, 2007)",
                        "ref_id": "BIBREF18"
                    },
                    {
                        "start": 481,
                        "end": 512,
                        "text": "(Sporleder et Lascarides, 2008)",
                        "ref_id": "BIBREF19"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Relation",
                "sec_num": null
            },
            {
                "text": "Certains traits sont calcul\u00e9s pour chaque argument :",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Relation",
                "sec_num": null
            },
            {
                "text": "1. Indice de complexit\u00e9 syntaxique : nombre de syntagmes nominaux, verbaux, pr\u00e9positionnels, adjectivaux, adverbiaux (valeur continue)",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Relation",
                "sec_num": null
            },
            {
                "text": "2. Information sur la t\u00eate d'un argument : -Lemme d'\u00e9l\u00e9ments n\u00e9gatifs sur la t\u00eate comme \"pas\" (nominale) -Information temporelle/aspectuelle : nombre de fois o\u00f9 un lemme de fonction auxiliaire d\u00e9pendant de la t\u00eate appara\u00eet (continue), temps, personne, nombre de l'auxiliaire (nominale) -Informations sur les d\u00e9pendants de la t\u00eate : pr\u00e9sence d'un objet, par-objet (syntagme pr\u00e9positionnel introduit par \"par\"), modifieur ou d\u00e9pendant pr\u00e9positionnel de la t\u00eate, du sujet ou de l'objet (bool\u00e9en) ; cat\u00e9gorie morpho-syntaxique des modifieurs et des d\u00e9pendants pr\u00e9positionnels de la t\u00eate, du sujet ou de l'objet (nominale) -Informations morphologiques : temps et personne de la t\u00eate verbale, genre de la t\u00eate non verbale, nombre de la t\u00eate, cat\u00e9gorie morpho-syntaxique pr\u00e9cise (par exemple \"VPP\") et simplifi\u00e9e (respectivement \"V\") (nominale) D'autres traits portent sur la paire d'arguments :",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Relation",
                "sec_num": null
            },
            {
                "text": "1. Trait de position : si l'exemple est inter ou intra-phrastique (bool\u00e9en) 2. Indice de continuit\u00e9 th\u00e9matique : chevauchement en lemmes et en lemmes de cat\u00e9gorie ouverte, comme nom, verbe etc... (continue) 3. Information sur les t\u00eates des arguments :",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Relation",
                "sec_num": null
            },
            {
                "text": "-Paire des temps des t\u00eates verbales (bool\u00e9en) -Paire des nombres des t\u00eates (bool\u00e9en)",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Relation",
                "sec_num": null
            },
            {
                "text": "On notera finalement que notre but portant avant tout sur la combinaison de donn\u00e9es, nous n'avons pas cherch\u00e9 \u00e0 optimiser ce jeu de traits, ce qui aurait introduit un param\u00e8tre suppl\u00e9mentaire dans notre mod\u00e8le.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Relation",
                "sec_num": null
            },
            {
                "text": "Pour rappel, l'objectif central de ces exp\u00e9riences est de d\u00e9terminer dans quelle mesure l'ajout de donn\u00e9es artificielles, via les diff\u00e9rentes m\u00e9thodes pr\u00e9sent\u00e9es en Section 2, peut nous permettre de d\u00e9passer les performances obtenues en s'entra\u00eenant sur des donn\u00e9es manuelles pr\u00e9sentes seulement en faible quantit\u00e9.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Exp\u00e9riences",
                "sec_num": "5"
            },
            {
                "text": "Les exp\u00e9riences sont r\u00e9alis\u00e9es avec l'impl\u00e9mentation de l'algorithme par maximum d'entropie fourni dans la librairie MegaM 4 en version multi-classe avec au maximum 100 it\u00e9rations. On effectue une validation crois\u00e9e en 10 sous-ensembles sur un corpus des donn\u00e9es manuelles \u00e9quilibr\u00e9 \u00e0 70 exemples maximum par relation. Il faudra envisager des exp\u00e9riences conservant la distribution naturelle des donn\u00e9es, tr\u00e8s d\u00e9s\u00e9quilibr\u00e9e, mais pour l'instant nous nous focalisons sur l'aspect combinaison des donn\u00e9es. Comme dans les \u00e9tudes pr\u00e9c\u00e9dentes, les performances sont donn\u00e9es en termes d'exactitude globale sur l'ensemble des relations, des scores ventil\u00e9s de F1 par relation sont \u00e9galement fournis. La significativit\u00e9 statistique des \u00e9carts de performance est \u00e9valu\u00e9e avec un Wilcoxon signed-rank test (avec une p-valeur < 0.05).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Exp\u00e9riences",
                "sec_num": "5"
            },
            {
                "text": "Dans un premier temps, nous construisons deux mod\u00e8les distincts, l'un \u00e0 partir des seules donn\u00e9es manuelles (MANONLY, 252 exemples), l'autre des seules donn\u00e9es artificielles (AUTOONLY, 93636 exemples d'entra\u00eenement). Notre mod\u00e8le MANONLY obtient une exactitude de 39.7, avec des scores de f-mesure par relation compris entre 13.3 pour contrast et 49.0 pour result (voir table 3). La relation contrast est donc tr\u00e8s mal identifi\u00e9e peut-\u00eatre parce que sous-repr\u00e9sent\u00e9e, seulement 42 exemples contre 70 pour les autres relations, le manque de donn\u00e9es joue probablement ici un r\u00f4le important.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les de base",
                "sec_num": "5.1"
            },
            {
                "text": "Le mod\u00e8le AUTOONLY obtient une exactitude de 47.8 lorsqu'\u00e9valu\u00e9 sur le m\u00eame type de donn\u00e9es (11704 exemples de test), mais de 23.0 lorsqu'\u00e9valu\u00e9 sur les donn\u00e9es manuelles (voir table 3). Cette baisse importante est comparable \u00e0 celle observ\u00e9e dans les \u00e9tudes pr\u00e9c\u00e9dentes sur l'anglais. Elle s'explique par les diff\u00e9rences de distribution \u00e9tudi\u00e9es en Section 2. De mani\u00e8re g\u00e9n\u00e9rale, on observe des d\u00e9gradations par rapport \u00e0 MANONLY pour l'identification de result, explanation et continuation (voir table 3). Par contre l'identification de contrast pr\u00e9sente une am\u00e9lioration, obtenant 23.2 de f-mesure avec 11 exemples correctement identifi\u00e9s contre 5 pr\u00e9c\u00e9demment. ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les de base",
                "sec_num": "5.1"
            },
            {
                "text": "Dans cette section, nous pr\u00e9sentons les r\u00e9sultats des syst\u00e8mes qui exploitent \u00e0 la fois les donn\u00e9es manuelles et les donn\u00e9es artificielles. Ces ensembles de donn\u00e9es sont ou bien combin\u00e9s directement ou bien donnent lieu \u00e0 des mod\u00e8les s\u00e9par\u00e9s qui sont combin\u00e9s plus tard.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
                "sec_num": "5.2"
            },
            {
                "text": "Certains de ces mod\u00e8les utilisent des hyper-param\u00e8tres. Ainsi, pour la pond\u00e9ration des exemples manuels nous testons diff\u00e9rents coefficients de pond\u00e9ration c avec c \u2208 [0.5; 2000] avec un incr\u00e9ment de 10 jusqu'\u00e0 100, de 50 jusqu'\u00e0 1000 et de 500 jusqu'\u00e0 2000. Pour l'ajout de sousensembles des donn\u00e9es artificielles, on ajoute \u00e0 chaque fois k exemples parmi ces donn\u00e9es avec k \u2208 [0.1; 600] avec un incr\u00e9ment de 10 jusqu'\u00e0 100 et de 50 jusqu'\u00e0 600. Enfin, pour l'interpolation lin\u00e9aire des mod\u00e8les, on construit un nouveau mod\u00e8le en pond\u00e9rant le mod\u00e8le artificiel avec \u03b1 \u2208 [0.1; 0.9] avec des incr\u00e9ments de 0.1. Avec MANW, l'exactitude augmente avec la croissance du coefficient et d\u00e9passe 39.7 \u00e0 partir du coefficient 400 \u00e9quivalent \u00e0 un corpus manuel d'environ 24000 exemples par relation soit du m\u00eame ordre que le nombre d'exemples artificiels.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
                "sec_num": "5.2"
            },
            {
                "text": "Les exp\u00e9riences o\u00f9 la prise en compte des donn\u00e9es artificielles passe par l'ajout de traits donnent les meilleurs r\u00e9sultats avec une exactitude de 42.9 pour le mod\u00e8le qui int\u00e8gre les pr\u00e9dictions du mod\u00e8le artificiel comme descripteur (ADDPRED). Le second mod\u00e8le, qui exploite en plus les probabilit\u00e9s (ADDPROB) m\u00e8ne quant \u00e0 lui \u00e0 une l\u00e9g\u00e8re diminution ce qui sugg\u00e8re que les traits de probabilit\u00e9 d\u00e9gradent les performances.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
                "sec_num": "5.2"
            },
            {
                "text": "Quant aux exp\u00e9riences de combinaison des mod\u00e8les, l'initialisation du mod\u00e8le manuel par l'artificiel (AUTOINIT) conduit \u00e0 un syst\u00e8me d'exactitude 39.3, et l'interpolation lin\u00e9aire (LININT) correspond \u00e0 une d\u00e9croissance de l'exactitude suivant l'augmentation du coefficient \u03b1 sur le mod\u00e8le artificiel (voir table 4), avec cependant un saut important entre \u03b1 = 0.8 et \u03b1 = 0.9 (exactitude de 28.2) en lien avec une forte d\u00e9gradation de l'identification de explanation.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
                "sec_num": "5.2"
            },
            {
                "text": "Au niveau des scores par relation, ces syst\u00e8mes ont des effets diff\u00e9rents. Une influence forte du mod\u00e8le artificiel permet une am\u00e9lioration importante pour contrast et une d\u00e9gradation forte pour result et explanation par rapport \u00e0 MANONLY. Ces ph\u00e9nom\u00e8nes sont visibles avec AUTOONLY mais aussi avec LININT : la f-mesure de contrast augmente avec \u03b1 tandis que celle de result et de explanation diminue (voir table 4). Avec une influence similaire des deux types de donn\u00e9es (LININT \u03b1 = 0.5 ou MANW coefficient 400), la chute pour result est moins importante et on am\u00e9liore l'identification de explanation (voir table 4). Pour continuation, il faut une influence des donn\u00e9es manuelles inf\u00e9rieure \u00e0 celle des donn\u00e9es artificielles pour observer une am\u00e9lioration (voir table 4, LININT \u03b1 = 0.8). Le syst\u00e8me ADDPRED permet notamment une am\u00e9lioration forte de la f-mesure de explanation. On n'obtient pas d'am\u00e9lioration pour result.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
                "sec_num": "5.2"
            },
            {
                "text": "Les m\u00e9thodes de combinaison aboutissent \u00e0 des syst\u00e8mes d'exactitude similaire voire sup\u00e9rieure \u00e0 MANONLY et \u00e0 des am\u00e9liorations pour l'identification des relations sauf result. La relation contrast profite peut-\u00eatre de donn\u00e9es artificielles moins bruit\u00e9es : la majorit\u00e9 des exemples (plus de 75%) sont extraits \u00e0 partir de mais, forme toujours en emploi discursif dont les arguments sont dans l'ordre canonique, argument1+connecteur+argument2. Pour explanation, la majorit\u00e9 des donn\u00e9es (77.5%) est extraite \u00e0 partir de formes d\u00e9clenchant la m\u00e9ta-relation explanation* qui ne correspond \u00e0 aucun exemple dans ANNODIS expliquant peut-\u00eatre le manque de g\u00e9n\u00e9ralisation entre les deux types de donn\u00e9es. Les pr\u00e9dictions du mod\u00e8le artificiel construit surtout sur cette m\u00e9ta-relation pourraient \u00eatre coh\u00e9rentes expliquant l'am\u00e9lioration observ\u00e9e. Les diff\u00e9rences de performance au niveau des labels peuvent venir de distribution plus ou moins proche entre les deux types de donn\u00e9e. Si on regarde la distribution en terme de traits (850 traits en tout), on constate un \u00e9cart de plus de 30% pour 2 et 5 traits pour result et explanation mais aucun pour contrast et continuation pour lesquelles l'apport direct des donn\u00e9es artificielles est positif.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec combinaisons de donn\u00e9es",
                "sec_num": "5.2"
            },
            {
                "text": "Les exp\u00e9riences pr\u00e9c\u00e9dentes ont montr\u00e9 que l'ajout de donn\u00e9es artificielles donnaient le plus souvent lieu \u00e0 des gains de performance, mais ces gains restent relativement modestes, voire non significatifs. Notre hypoth\u00e8se est que de nombreux exemples artificiels am\u00e8nent du bruit dans le mod\u00e8le. Id\u00e9alement, nous souhaiterions \u00eatre capables de s\u00e9lectionner les exemples artificiels les plus informatifs et qui compl\u00e9mentent le mieux les donn\u00e9es manuelles.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples",
                "sec_num": "5.3"
            },
            {
                "text": "La m\u00e9thode de s\u00e9lection d'exemples que nous proposons a pour objectif d'\u00e9liminer les exemples potentiellement plus bruit\u00e9s. Pour cela, le mod\u00e8le artificiel est utilis\u00e9 sur les donn\u00e9es d'entra\u00eenement et on conserve les exemples pr\u00e9dits avec une probabilit\u00e9 sup\u00e9rieure \u00e0 un seuil s \u2208 [30, 40, 50, 55, 60, 65, 70, 75] . Si ce mod\u00e8le est assez s\u00fbr de sa pr\u00e9diction, on peut esp\u00e9rer que l'exemple ne correspond pas \u00e0 du bruit, \u00e0 une forme en emploi non discursif et/ou une erreur de segmentation. On v\u00e9rifie en quelque sorte aussi l'hypoth\u00e8se de redondance du connecteur. Pour chaque seuil, on r\u00e9\u00e9quilibre les donn\u00e9es en se basant sur la relation la moins repr\u00e9sent\u00e9e (syst\u00e8me+SELEC). A partir du seuil 80, ces exp\u00e9riences ne sont plus pertinentes, on conserve moins de 10 exemples par relation. Au niveau des scores par relation, de nouveau une influence forte des donn\u00e9es artificielles am\u00e9liore l'identification de contrast avec en plus une influence positive d'un seuil haut mais inf\u00e9rieur \u00e0 70, au-del\u00e0 le nombre d'exemples artificiels \u00e9tant probablement trop bas pour influer sur l'identification (voir table 5). Parall\u00e8lement, \u00e0 part avec AUTOONLY +SELEC, l'identification des autres relations s'am\u00e9liore avec la croissance du seuil donc une baisse de l'influence du mod\u00e8le artificiel. Pour continuation on observe toujours une am\u00e9lioration pour une influence similaire des deux types de donn\u00e9es et pour explanation, c'est toujours l'ajout de traits de pr\u00e9dictions qui permet les meilleures performances. Il semble qu'en plus on am\u00e9liore ici l'identification de result (MANW +SELEC et ADDPROB +SELEC, table 5).",
                "cite_spans": [
                    {
                        "start": 282,
                        "end": 286,
                        "text": "[30,",
                        "ref_id": null
                    },
                    {
                        "start": 287,
                        "end": 290,
                        "text": "40,",
                        "ref_id": null
                    },
                    {
                        "start": 291,
                        "end": 294,
                        "text": "50,",
                        "ref_id": null
                    },
                    {
                        "start": 295,
                        "end": 298,
                        "text": "55,",
                        "ref_id": null
                    },
                    {
                        "start": 299,
                        "end": 302,
                        "text": "60,",
                        "ref_id": null
                    },
                    {
                        "start": 303,
                        "end": 306,
                        "text": "65,",
                        "ref_id": null
                    },
                    {
                        "start": 307,
                        "end": 310,
                        "text": "70,",
                        "ref_id": null
                    },
                    {
                        "start": 311,
                        "end": 314,
                        "text": "75]",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples",
                "sec_num": "5.3"
            },
            {
                "text": "La s\u00e9lection des exemples am\u00e9liore l'identification des relations et conduit \u00e0 deux syst\u00e8mes am\u00e9liorant significativement l'exactitude de MANONLY montrant que les donn\u00e9es artificielles lorsqu'int\u00e9gr\u00e9es de fa\u00e7on ad\u00e9quate peuvent am\u00e9liorer l'identification des relations implicites, notamment lorsque leur influence est faible, le mod\u00e8le \u00e9tant guid\u00e9 vers la bonne distribution.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples",
                "sec_num": "5.3"
            },
            {
                "text": "A la constitution des corpus avec s\u00e9lection on observe qu'avec la croissance du seuil on conserve toujours plus d'exemples pour result, d\u00e8s le seuil 40 environ 3900 de plus, alors que contrast devient sous-repr\u00e9sent\u00e9. Cette observation montre que le bruit n'est probablement pas la seule fa\u00e7on d'expliquer les r\u00e9sultats puisque la relation am\u00e9lior\u00e9e par les donn\u00e9es artificielles est celle pour laquelle le mod\u00e8le artificiel est le moins confiant alors que celle dont les r\u00e9sultats sont les plus d\u00e9grad\u00e9s est celle pour laquelle il est le plus confiant.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples",
                "sec_num": "5.3"
            },
            {
                "text": "Nous avons d\u00e9velopp\u00e9 la premi\u00e8re s\u00e9rie de syst\u00e8mes d'identification des relations discursives implicites pour le fran\u00e7ais. Ces relations sont difficiles \u00e0 identifier en raison du manque d'indices forts. Dans les \u00e9tudes sur l'anglais, les performances sont basses malgr\u00e9 les indices complexes utilis\u00e9s, probablement par manque de donn\u00e9es. Pour pallier ce probl\u00e8me, plus crucial encore en fran\u00e7ais, nous avons utilis\u00e9 des donn\u00e9es annot\u00e9es automatiquement en relation \u00e0 partir d'exemples explicites. Mais ces nouvelles donn\u00e9es ne g\u00e9n\u00e9ralisent pas bien aux donn\u00e9es implicites car elles sont de distribution diff\u00e9rente. Nous avons donc test\u00e9 des m\u00e9thodes inspir\u00e9es de l'adaptation de domaine pour combiner ces donn\u00e9es en ajoutant une \u00e9tape de s\u00e9lection automatique des exemples artificiels pour g\u00e9rer le bruit induit par leur cr\u00e9ation. Elles nous permettent des am\u00e9liorations significatives par rapport au mod\u00e8le n'utilisant que les donn\u00e9es manuelles. Les meilleurs syst\u00e8mes utilisent la s\u00e9lection d'exemples et la pond\u00e9ration des donn\u00e9es manuelles ou l'ajout de traits de pr\u00e9dictions du mod\u00e8le artificiel.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion",
                "sec_num": "6"
            },
            {
                "text": "Si les m\u00e9thodes de combinaison et de s\u00e9lection simples utilis\u00e9es ici parviennent \u00e0 des r\u00e9sultats encourageants, on peut esp\u00e9rer que des m\u00e9thodes plus sophistiqu\u00e9es pourraient conduire \u00e0 des am\u00e9liorations plus importantes. De plus, une \u00e9tude des donn\u00e9es explicites pourrait permettre d'augmenter la taille du corpus artificiel et d'am\u00e9liorer sa qualit\u00e9 en s\u00e9lectionnant des connecteurs et en identifiant des relations pour lesquelles cette m\u00e9thode est plus ou moins efficace et des traits plus informatifs dans une optique de combinaison des donn\u00e9es. Il faudra enfin porter ces m\u00e9thodes sur les donn\u00e9es anglaises pour une comparaison avec d'autres \u00e9tudes. ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion",
                "sec_num": "6"
            },
            {
                "text": "c ATALA",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            }
        ],
        "back_matter": [],
        "bib_entries": {
            "BIBREF0": {
                "ref_id": "b0",
                "title": "Building and refining rhetorical-semantic relation models",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Blair-Goldensohn",
                        "suffix": ""
                    },
                    {
                        "first": "K",
                        "middle": [
                            "R"
                        ],
                        "last": "Mckeown",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [
                            "C"
                        ],
                        "last": "Rambow",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Proceedings of NAACL HLT",
                "volume": "",
                "issue": "",
                "pages": "428--435",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BLAIR-GOLDENSOHN, S., MCKEOWN, K. R. et RAMBOW, O. C. (2007). Building and refining rhetorical-semantic relation models. In Proceedings of NAACL HLT, page 428-435.",
                "links": null
            },
            "BIBREF1": {
                "ref_id": "b1",
                "title": "Benchmarking of statistical dependency parsers for french",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Candito",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Nivre",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Denis",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [
                            "H"
                        ],
                        "last": "Anguiano",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Proceedings of the 23rd ICCL posters",
                "volume": "",
                "issue": "",
                "pages": "108--116",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CANDITO, M., NIVRE, J., DENIS, P. et ANGUIANO, E. H. (2010). Benchmarking of statistical dependency parsers for french. In Proceedings of the 23rd ICCL posters, page 108-116.",
                "links": null
            },
            "BIBREF2": {
                "ref_id": "b2",
                "title": "Building a discourse-tagged corpus in the framework of rhetorical structure theory",
                "authors": [
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Carlson",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Marcu",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [
                            "E"
                        ],
                        "last": "Okurowski",
                        "suffix": ""
                    }
                ],
                "year": 2001,
                "venue": "Proceedings of the Second SIGdial Workshop on Discourse",
                "volume": "16",
                "issue": "",
                "pages": "1--10",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CARLSON, L., MARCU, D. et OKUROWSKI, M. E. (2001). Building a discourse-tagged corpus in the framework of rhetorical structure theory. In Proceedings of the Second SIGdial Workshop on Discourse and Dialogue-Volume 16, page 1-10.",
                "links": null
            },
            "BIBREF3": {
                "ref_id": "b3",
                "title": "Frustratingly easy domain adaptation",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Daum\u00e9 Iii",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Proceedings of ACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DAUM\u00c9 III, H. (2007). Frustratingly easy domain adaptation. In Proceedings of ACL, page 256.",
                "links": null
            },
            "BIBREF4": {
                "ref_id": "b4",
                "title": "Domain adaptation for statistical classifiers",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Daum\u00e9 Iii",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Marcu",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "Journal of Artificial Intelligence Research",
                "volume": "26",
                "issue": "1",
                "pages": "101--126",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DAUM\u00c9 III, H. et MARCU, D. (2006). Domain adaptation for statistical classifiers. Journal of Artificial Intelligence Research, 26(1):101-126.",
                "links": null
            },
            "BIBREF5": {
                "ref_id": "b5",
                "title": "Coupling an annotated corpus and a morphosyntactic lexicon for state-of-the-art POS tagging with less human effort",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Denis",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Sagot",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "Proceedings of PACLIC",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DENIS, P. et SAGOT, B. (2009). Coupling an annotated corpus and a morphosyntactic lexicon for state-of-the-art POS tagging with less human effort. In Proceedings of PACLIC.",
                "links": null
            },
            "BIBREF6": {
                "ref_id": "b6",
                "title": "HILDA : a discourse parser using support vector machine classification",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Hernault",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Prendinger",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Ishizuka",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Dialogue & Discourse",
                "volume": "",
                "issue": "3",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HERNAULT, H., PRENDINGER, H. et ISHIZUKA, M. (2010). HILDA : a discourse parser using support vector machine classification. Dialogue & Discourse, 1(3).",
                "links": null
            },
            "BIBREF7": {
                "ref_id": "b7",
                "title": "A PDTB-styled end-to-end discourse parser",
                "authors": [
                    {
                        "first": "Z",
                        "middle": [],
                        "last": "Lin",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [
                            "T"
                        ],
                        "last": "Ng",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [
                            "Y"
                        ],
                        "last": "Kan",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LIN, Z., NG, H. T. et KAN, M. Y. (2010). A PDTB-styled end-to-end discourse parser. Rapport technique, National University of Singapore.",
                "links": null
            },
            "BIBREF8": {
                "ref_id": "b8",
                "title": "Rhetorical structure theory : Toward a functional theory of text organization",
                "authors": [
                    {
                        "first": "W",
                        "middle": [
                            "C"
                        ],
                        "last": "Mann",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [
                            "A"
                        ],
                        "last": "Thompson",
                        "suffix": ""
                    }
                ],
                "year": 1988,
                "venue": "Text",
                "volume": "8",
                "issue": "3",
                "pages": "243--281",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MANN, W. C. et THOMPSON, S. A. (1988). Rhetorical structure theory : Toward a functional theory of text organization. Text, 8(3):243-281.",
                "links": null
            },
            "BIBREF9": {
                "ref_id": "b9",
                "title": "An unsupervised approach to recognizing discourse relations",
                "authors": [
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Marcu",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Echihabi",
                        "suffix": ""
                    }
                ],
                "year": 2002,
                "venue": "Proceedings of ACL",
                "volume": "",
                "issue": "",
                "pages": "368--375",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MARCU, D. et ECHIHABI, A. (2002). An unsupervised approach to recognizing discourse relations. In Proceedings of ACL, page 368-375.",
                "links": null
            },
            "BIBREF10": {
                "ref_id": "b10",
                "title": "Constrained decoding for text-level discourse parsing",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Muller",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Afantenos",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Denis",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Asher",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "Proceedings of COLING",
                "volume": "",
                "issue": "",
                "pages": "1883--1900",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MULLER, P., AFANTENOS, S., DENIS, P. et ASHER, N. (2012). Constrained decoding for text-level discourse parsing. In Proceedings of COLING, pages 1883-1900.",
                "links": null
            },
            "BIBREF11": {
                "ref_id": "b11",
                "title": "Automatic sense prediction for implicit discourse relations in text",
                "authors": [
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Pitler",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Louis",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Nenkova",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "Proceedings of ACL-IJCNLP",
                "volume": "",
                "issue": "",
                "pages": "683--691",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "PITLER, E., LOUIS, A. et NENKOVA, A. (2009). Automatic sense prediction for implicit discourse relations in text. In Proceedings of ACL-IJCNLP, page 683-691.",
                "links": null
            },
            "BIBREF12": {
                "ref_id": "b12",
                "title": "Using syntax to disambiguate explicit discourse connectives in text",
                "authors": [
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Pitler",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Nenkova",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "Proceedings of ACL-IJCNLP short papers",
                "volume": "",
                "issue": "",
                "pages": "13--16",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "PITLER, E. et NENKOVA, A. (2009). Using syntax to disambiguate explicit discourse connectives in text. In Proceedings of ACL-IJCNLP short papers, page 13-16.",
                "links": null
            },
            "BIBREF13": {
                "ref_id": "b13",
                "title": "The penn discourse treebank 2.0",
                "authors": [
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Prasad",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Dinesh",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Lee",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Miltsakaki",
                        "suffix": ""
                    },
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Robaldo",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Joshi",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Webber",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "Proceedings of LREC",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "PRASAD, R., DINESH, N., LEE, A., MILTSAKAKI, E., ROBALDO, L., JOSHI, A. et WEBBER, B. (2008). The penn discourse treebank 2.0. In Proceedings of LREC, page 2961.",
                "links": null
            },
            "BIBREF14": {
                "ref_id": "b14",
                "title": "ANNODIS : une approche outill\u00e9e de l'annotation de structures discursives",
                "authors": [
                    {
                        "first": "M",
                        "middle": [
                            "P"
                        ],
                        "last": "P\u00e9ry-Woodley",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Asher",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Enjalbert",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Benamara",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Bras",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Fabre",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Ferrari",
                        "suffix": ""
                    },
                    {
                        "first": "L",
                        "middle": [
                            "M"
                        ],
                        "last": "Ho-Dac",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Le Draoulec",
                        "suffix": ""
                    },
                    {
                        "first": "Y",
                        "middle": [],
                        "last": "Mathet",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "P\u00c9RY-WOODLEY, M. P., ASHER, N., ENJALBERT, P., BENAMARA, F., BRAS, M., FABRE, C., FERRARI, S., HO-DAC, L. M., LE DRAOULEC, A. et MATHET, Y. (2009). ANNODIS : une approche outill\u00e9e de l'annotation de structures discursives. Actes de TALN 2009.",
                "links": null
            },
            "BIBREF15": {
                "ref_id": "b15",
                "title": "Base lexicale des connecteurs discursifs du fran\u00e7ais",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Roze",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ROZE, C. (2009). Base lexicale des connecteurs discursifs du fran\u00e7ais. M\u00e9moire de D.E.A., Universit\u00e9 Paris Diderot.",
                "links": null
            },
            "BIBREF16": {
                "ref_id": "b16",
                "title": "Analysis of discourse structure with syntactic dependencies and data-driven shift-reduce parsing",
                "authors": [
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Sagae",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "Proceedings of IWPT",
                "volume": "",
                "issue": "",
                "pages": "81--84",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SAGAE, K. (2009). Analysis of discourse structure with syntactic dependencies and data-driven shift-reduce parsing. In Proceedings of IWPT, page 81-84.",
                "links": null
            },
            "BIBREF17": {
                "ref_id": "b17",
                "title": "Lexical marking of discourse relations-some experimental findings",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Soria",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Ferrari",
                        "suffix": ""
                    }
                ],
                "year": 1998,
                "venue": "Proceedings of the ACL-98 Workshop on Discourse Relations and Discourse Markers",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SORIA, C. et FERRARI, G. (1998). Lexical marking of discourse relations-some experimental findings. In Proceedings of the ACL-98 Workshop on Discourse Relations and Discourse Markers.",
                "links": null
            },
            "BIBREF18": {
                "ref_id": "b18",
                "title": "Exploiting linguistic cues to classify rhetorical relations",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Sporleder",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Lascarides",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Amsterdam Studies In The Theory And History Of Linguistic Science Series",
                "volume": "4",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SPORLEDER, C. et LASCARIDES, A. (2007). Exploiting linguistic cues to classify rhetorical relations. Amsterdam Studies In The Theory And History Of Linguistic Science Series 4, 292:157.",
                "links": null
            },
            "BIBREF19": {
                "ref_id": "b19",
                "title": "Using automatically labelled examples to classify rhetorical relations : An assessment",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Sporleder",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Lascarides",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "Natural Language Engineering",
                "volume": "14",
                "issue": "3",
                "pages": "369--416",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SPORLEDER, C. et LASCARIDES, A. (2008). Using automatically labelled examples to classify rhetorical relations : An assessment. Natural Language Engineering, 14(3):369-416.",
                "links": null
            }
        },
        "ref_entries": {
            "FIGREF0": {
                "text": "Elle \u00e9tait tr\u00e8s comique, tr\u00e8s dr\u00f4le.] a Cela_dit [,le drame n' \u00e9tait jamais loin.] b",
                "uris": null,
                "num": null,
                "type_str": "figure"
            },
            "FIGREF1": {
                "text": "ASHER, N. et LASCARIDES, A. (2003).Logics of conversation. Cambridge University Press. BERGER, A. L., PIETRA, V. J. D. et PIETRA, S. A. D. (1996). A maximum entropy approach to natural language processing. Computational linguistics, 22(1):39-71.",
                "uris": null,
                "num": null,
                "type_str": "figure"
            },
            "TABREF0": {
                "html": null,
                "text": "Exemple 1.1 {{[La hulotte est un rapace nocturne] [mais elle peut vivre le jour.]} cont rast [La hulotte mesure une quarantaine de centim\u00e8tres.]} cont inuat ion Exemple 1.2 {[Juliette est tomb\u00e9e.] a [Marion l'a pouss\u00e9e.] b } ex planation",
                "content": "<table/>",
                "type_str": "table",
                "num": null
            },
            "TABREF1": {
                "html": null,
                "text": "vise la construction d'un corpus annot\u00e9 en discours pour le fran\u00e7ais suivant le cadre SDRT. La version du corpus utilis\u00e9e (en date du 15/11/2012) comporte 86 documents provenant de l'Est R\u00e9publicain et de Wikipedia. 3339 exemples sont annot\u00e9s avec 17 relations rh\u00e9toriques. Les documents sont segment\u00e9s en EDU : propositions, syntagmes pr\u00e9positionnels, adverbiaux d\u00e9tach\u00e9s \u00e0 gauche et incises, si le segment contient la description d'une \u00e9ventualit\u00e9. Les relations sont annot\u00e9es entre EDU ou segments complexes, contigu\u00ebs ou non. Les connecteurs discursifs ne sont pas annot\u00e9s.",
                "content": "<table/>",
                "type_str": "table",
                "num": null
            },
            "TABREF3": {
                "html": null,
                "text": "Dans ce cas, nous risquons de r\u00e9cup\u00e9rer les m\u00eames arguments pour deux formes d\u00e9clenchant des relations diff\u00e9rentes ce qui est probl\u00e9matique pour un syst\u00e8me de classification. Nous ne g\u00e9n\u00e9rons donc deux exemples quand deux connecteurs sont pr\u00e9sents qu'\u00e0 condition que les arguments",
                "content": "<table><tr><td>soient diff\u00e9rents, l'un inter-phrastique, l'autre intra-phrastique. Nous avons \u00e9quilibr\u00e9 le corpus en</td></tr><tr><td>relation en conservant le maximum d'exemples disponibles en un corpus d'entra\u00eenement (80%</td></tr><tr><td>des donn\u00e9es), un de d\u00e9veloppement (10%) et un de test (10%).</td></tr></table>",
                "type_str": "table",
                "num": null
            },
            "TABREF4": {
                "html": null,
                "text": "",
                "content": "<table><tr><td>-Corpus artificiel : nombre d'exemples par relation</td></tr><tr><td>4 Mod\u00e8le et jeu de traits</td></tr><tr><td>Pour cette \u00e9tude, nous avons employ\u00e9 un mod\u00e8le de classification discriminant par r\u00e9gression</td></tr><tr><td>logistique (ou maximum d'entropie). Ce choix est bas\u00e9 sur le fait que ce type de mod\u00e8les donne de</td></tr><tr><td>bonnes performances pour diff\u00e9rents probl\u00e8mes de TAL et a \u00e9t\u00e9 implant\u00e9 dans diff\u00e9rentes librairies</td></tr></table>",
                "type_str": "table",
                "num": null
            },
            "TABREF5": {
                "html": null,
                "text": "4. http://www.umiacs.umd.edu/~hal/megam/version0_3/",
                "content": "<table><tr><td/><td>MANONLY</td><td colspan=\"2\">AUTOONLY</td></tr><tr><td colspan=\"4\">Donn\u00e9es de test Manuelles Manuelles Artificielles</td></tr><tr><td>Exactitude</td><td>39.7</td><td>23.0</td><td>47.8</td></tr><tr><td>contrast</td><td>13.3</td><td>23.2</td><td>38.3</td></tr><tr><td>result</td><td>49.0</td><td>15.7</td><td>57.4</td></tr><tr><td>continuation</td><td>39.7</td><td>32.1</td><td>54.3</td></tr><tr><td>explanation</td><td>43.8</td><td>22.4</td><td>37.5</td></tr><tr><td colspan=\"4\">TABLE 3 -Mod\u00e8les de base, exactitude du syst\u00e8me et f-mesure par relation</td></tr></table>",
                "type_str": "table",
                "num": null
            },
            "TABREF6": {
                "html": null,
                "text": "De mani\u00e8re g\u00e9n\u00e9rale, l'ensemble de ces syst\u00e8mes avec les bons hyper-param\u00e8tres conduit \u00e0 des r\u00e9sultats au moins \u00e9quivalents et parfois sup\u00e9rieurs en exactitude par rapport \u00e0 MANONLY. Si la tendance g\u00e9n\u00e9rale est donc plut\u00f4t d'une hausse des performances, aucune des diff\u00e9rences observ\u00e9es \u00e0 ce stade ne semble cependant \u00eatre statistiquement significative. Les scores des syst\u00e8mes pr\u00e9sentant les r\u00e9sultats les plus pertinents sont repris dans la table 4. Ces r\u00e9sultats ne sont pas surprenants, les donn\u00e9es manuelles environ 372 fois moins nombreuses que les artificielles se retrouvent noy\u00e9es dans les donn\u00e9es artificielles.",
                "content": "<table><tr><td/><td>MANONLY</td><td colspan=\"2\">AUTOONLY UNION</td><td colspan=\"2\">MANW</td><td colspan=\"4\">AUTOSUB ADDPRED ADDPROB AUTOINIT</td><td/><td>LININT</td><td/></tr><tr><td>Param\u00e8tre</td><td>-</td><td>-</td><td>-</td><td>100</td><td>400</td><td>0.2</td><td>-</td><td>-</td><td>-</td><td>0.2</td><td>0.5</td><td>0.8</td></tr><tr><td>Exactitude</td><td>39.7</td><td>23.0</td><td>24.2</td><td colspan=\"2\">34.9 41.7</td><td>39.7</td><td>42.9</td><td>39.3</td><td>39.3</td><td colspan=\"3\">39.7 38.5 35.3</td></tr><tr><td>contrast</td><td>13.3</td><td>23.2</td><td>21.1</td><td colspan=\"2\">32.4 19.7</td><td>16.7</td><td>22.9</td><td>24.0</td><td>11.9</td><td colspan=\"3\">13.2 16.2 29.6</td></tr><tr><td>result</td><td>49.0</td><td>15.7</td><td>16.4</td><td colspan=\"2\">28.0 39.2</td><td>44.9</td><td>47.4</td><td>45.8</td><td>46.3</td><td colspan=\"3\">47.0 39.5 24.8</td></tr><tr><td>continuation</td><td>39.7</td><td>32.1</td><td>38.5</td><td colspan=\"2\">45.8 48.7</td><td>39.4</td><td>37.3</td><td>35.4</td><td>38.9</td><td colspan=\"3\">40.6 39.2 44.2</td></tr><tr><td>explanation</td><td>43.8</td><td>22.4</td><td>21.7</td><td colspan=\"2\">31.7 47.7</td><td>46.1</td><td>52.8</td><td>43.8</td><td>45.4</td><td colspan=\"3\">45.4 48.6 40.3</td></tr><tr><td colspan=\"13\">TABLE 4 -Mod\u00e8les sans s\u00e9lection d'exemples, exactitude du syst\u00e8me et f-mesure par relation</td></tr><tr><td colspan=\"13\">La seule configuration qui m\u00e8ne \u00e0 des r\u00e9sultats n\u00e9gatifs est l'union simple des corpus d'entra\u00eene-</td></tr><tr><td colspan=\"13\">ment (UNION). Ce syst\u00e8me obtient 24.2 d'exactitude donc de l'ordre d'un entra\u00eenement sur les</td></tr><tr><td colspan=\"3\">seules donn\u00e9es artificielles.</td><td/><td/><td/><td/><td/><td/><td/><td/><td/><td/></tr></table>",
                "type_str": "table",
                "num": null
            },
            "TABREF7": {
                "html": null,
                "text": "Les seuils les plus int\u00e9ressants sont les seuils 60, 65, 70 et 75 qui repr\u00e9sentent respectivement un ajout de 553, 205, 72 et 16 exemples par relation. Les scores des syst\u00e8mes pr\u00e9sentant les r\u00e9sultats les plus pertinents sont repris dans la table 5. Mod\u00e8les avec s\u00e9lection d'exemples, exactitude du syst\u00e8me et f-mesure par relation La s\u00e9lection automatique d'exemples permet d'am\u00e9liorer les r\u00e9sultats pr\u00e9c\u00e9dents, qu'il s'agisse du mod\u00e8le AUTOONLY ou des mod\u00e8les avec combinaison des donn\u00e9es. De 23.0 d'exactitude avec AUTOONLY, on passe \u00e0 27.0 avec AUTOONLY +SELEC au seuil 60. De m\u00eame on passe de 24.2 avec UNION \u00e0 41.7 avec UNION +SELEC au seuil 75, l'exactitude augmentant avec la croissance du seuil.Il semble que les meilleurs syst\u00e8mes soient obtenus entre les seuils 60 et 70. Au seuil 65, les syst\u00e8mes AUTOINIT +SELEC, ADDPRED +SELEC et ADDPROB +SELEC atteignent leur meilleur score (voir table 5), ce dernier am\u00e9liorant significativement MANONLY (p-valeur= 0.046). L'exactitude de ces syst\u00e8mes ne suit pas une \u00e9volution claire suivant le seuil. De m\u00eame, si on retrouve avec LININT +SELEC une baisse de l'exactitude suivant \u03b1 \u00e0 chaque seuil, on n'a pas d'influence des seuils sur l'exactitude aux valeurs extr\u00eames de \u03b1.Avec AUTOSUB +SELEC et MANW +SELEC on a la m\u00eame tendance qu'avant, l'exactitude respectivement d\u00e9cro\u00eet et cro\u00eet avec la croissance du coefficient pour chaque seuil, mais pour AUTOSUB +SELEC on n'a rapidement plus assez d'exemples artificiels pour extraire des sous-ensembles. Pour MANW +SELEC, l'exactitude avec le coefficient le plus bas augmente avec le seuil, de 22.6 (seuil 30) \u00e0 37.7 (seuil 75). C'est avec ce syst\u00e8me et une influence tr\u00e8s faible des donn\u00e9es artificielles qu'on obtient le meilleur score d'exactitude, 45.6 am\u00e9liorant significativement les performances de MANONLY (p-valeur= 0.021).",
                "content": "<table><tr><td>+SELEC</td><td>MANONLY</td><td colspan=\"2\">AUTOONLY</td><td colspan=\"2\">UNION</td><td/><td>MANW</td><td/><td colspan=\"2\">ADDPRED</td><td colspan=\"2\">ADDPROB AUTOINIT</td><td colspan=\"2\">LININT</td></tr><tr><td>Seuil</td><td>-</td><td>60</td><td>70</td><td>60</td><td>75</td><td>30</td><td>65</td><td/><td>40</td><td>65</td><td>65</td><td>65</td><td>60</td><td>75</td></tr><tr><td>Param\u00e8tre</td><td>-</td><td>-</td><td>-</td><td>-</td><td>-</td><td>250</td><td>0.5</td><td>900</td><td>-</td><td>-</td><td>-</td><td>-</td><td>0.7</td><td>0.7</td></tr><tr><td>Exactitude</td><td>39.7</td><td colspan=\"9\">27.0 23.8 26.2 41.7 35.3 30.6 45.6 42.5 44.4</td><td>44.0</td><td>43.3</td><td colspan=\"2\">36.5 34.9</td></tr><tr><td>contrast</td><td>13.3</td><td colspan=\"9\">32.0 29.5 26.7 11.6 16.4 37.2 32.0 14.5 31.6</td><td>24.7</td><td>24.0</td><td colspan=\"2\">34.1 24.6</td></tr><tr><td>result</td><td>49.0</td><td>20.0</td><td>8.2</td><td colspan=\"7\">25.4 50.0 29.5 27.8 53.2 47.4 52.6</td><td>53.2</td><td>47.8</td><td colspan=\"2\">33.6 29.7</td></tr><tr><td>continuation</td><td>39.7</td><td>8.6</td><td colspan=\"8\">16.5 19.4 43.3 49.1 20.6 38.5 36.8 40.6</td><td>43.4</td><td>43.4</td><td colspan=\"2\">28.8 27.0</td></tr><tr><td>explanation</td><td>43.8</td><td colspan=\"9\">31.8 32.1 30.9 45.6 35.3 34.3 51.1 55.9 45.9</td><td>44.4</td><td>48.9</td><td colspan=\"2\">46.1 52.9</td></tr></table>",
                "type_str": "table",
                "num": null
            }
        }
    }
}