File size: 116,714 Bytes
6fa4bc9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
1390
1391
1392
1393
1394
1395
1396
1397
1398
1399
1400
1401
1402
1403
1404
1405
1406
1407
1408
1409
1410
1411
1412
1413
1414
1415
1416
1417
1418
1419
1420
1421
1422
1423
1424
1425
1426
1427
1428
1429
1430
1431
1432
1433
1434
1435
1436
1437
1438
1439
1440
1441
1442
1443
1444
1445
1446
1447
1448
1449
1450
1451
1452
1453
1454
1455
1456
1457
1458
1459
1460
1461
1462
1463
1464
1465
1466
1467
1468
1469
1470
1471
1472
1473
1474
1475
1476
1477
1478
1479
1480
1481
1482
1483
1484
1485
1486
1487
1488
1489
1490
1491
1492
1493
1494
1495
1496
1497
1498
1499
1500
1501
1502
1503
1504
1505
1506
1507
1508
1509
1510
1511
1512
1513
1514
1515
1516
1517
1518
1519
1520
1521
1522
1523
1524
1525
1526
1527
1528
1529
1530
1531
1532
1533
1534
1535
1536
1537
1538
1539
1540
1541
1542
1543
1544
1545
1546
1547
1548
1549
1550
1551
1552
1553
1554
1555
1556
1557
1558
1559
1560
1561
1562
1563
1564
1565
1566
1567
1568
1569
1570
1571
1572
1573
1574
1575
1576
1577
1578
1579
1580
1581
1582
1583
1584
1585
1586
1587
1588
1589
1590
1591
1592
1593
1594
1595
1596
1597
1598
1599
1600
1601
1602
1603
1604
1605
1606
1607
1608
1609
1610
1611
1612
1613
1614
1615
1616
1617
1618
1619
1620
1621
1622
1623
1624
1625
1626
1627
1628
1629
1630
1631
1632
1633
1634
1635
1636
1637
1638
1639
1640
1641
1642
1643
1644
1645
1646
1647
1648
1649
1650
1651
1652
1653
1654
1655
1656
1657
1658
1659
1660
1661
1662
1663
1664
1665
1666
1667
1668
1669
1670
1671
1672
1673
1674
1675
1676
1677
1678
1679
1680
1681
1682
1683
1684
1685
1686
1687
1688
1689
1690
1691
1692
1693
1694
1695
1696
1697
1698
1699
1700
1701
1702
1703
1704
1705
1706
1707
1708
1709
1710
1711
1712
1713
1714
1715
1716
1717
1718
1719
1720
1721
1722
1723
1724
1725
1726
1727
1728
1729
1730
1731
1732
1733
1734
1735
1736
1737
1738
1739
1740
1741
1742
1743
1744
1745
1746
1747
1748
1749
1750
1751
1752
1753
1754
1755
1756
1757
1758
1759
1760
1761
1762
1763
1764
1765
1766
1767
1768
1769
1770
1771
1772
1773
1774
1775
1776
1777
1778
1779
1780
1781
1782
1783
1784
1785
1786
1787
1788
1789
1790
1791
1792
1793
1794
1795
1796
1797
1798
1799
1800
1801
1802
1803
1804
1805
1806
1807
1808
1809
1810
1811
1812
1813
1814
1815
1816
1817
1818
1819
1820
1821
1822
1823
1824
1825
1826
1827
1828
1829
1830
1831
1832
1833
1834
1835
1836
1837
1838
1839
1840
1841
1842
1843
1844
1845
1846
1847
1848
1849
1850
1851
1852
1853
1854
1855
1856
1857
1858
1859
1860
1861
1862
1863
1864
1865
1866
1867
1868
1869
1870
1871
1872
1873
1874
1875
1876
1877
1878
1879
1880
1881
1882
1883
1884
1885
1886
1887
1888
1889
{
    "paper_id": "F13-1012",
    "header": {
        "generated_with": "S2ORC 1.0.0",
        "date_generated": "2023-01-19T09:41:58.978199Z"
    },
    "title": "Construction d'un large corpus \u00e9crit libre annot\u00e9 morpho-syntaxiquement en fran\u00e7ais",
    "authors": [
        {
            "first": "Nicolas",
            "middle": [],
            "last": "Hernandez",
            "suffix": "",
            "affiliation": {
                "laboratory": "",
                "institution": "Universit\u00e9 de Nantes",
                "location": {}
            },
            "email": "nicolas.hernandez@univ-nantes.fr"
        },
        {
            "first": "Florian",
            "middle": [],
            "last": "Boudin",
            "suffix": "",
            "affiliation": {
                "laboratory": "",
                "institution": "Universit\u00e9 de Nantes",
                "location": {}
            },
            "email": "florian.boudin@univ-nantes.fr"
        }
    ],
    "year": "",
    "venue": null,
    "identifiers": {},
    "abstract": "Cet article \u00e9tudie la possibilit\u00e9 de cr\u00e9er un nouveau corpus \u00e9crit en fran\u00e7ais annot\u00e9 morphosyntaxiquement \u00e0 partir d'un corpus annot\u00e9 existant. Nos objectifs sont de se lib\u00e9rer de la licence d'exploitation contraignante du corpus d'origine et d'obtenir une modernisation perp\u00e9tuelle des textes. Nous montrons qu'un corpus pr\u00e9-annot\u00e9 automatiquement peut permettre d'entra\u00eener un \u00e9tiqueteur produisant des performances \u00e9tat-de-l'art, si ce corpus est suffisamment grand.",
    "pdf_parse": {
        "paper_id": "F13-1012",
        "_pdf_hash": "",
        "abstract": [
            {
                "text": "Cet article \u00e9tudie la possibilit\u00e9 de cr\u00e9er un nouveau corpus \u00e9crit en fran\u00e7ais annot\u00e9 morphosyntaxiquement \u00e0 partir d'un corpus annot\u00e9 existant. Nos objectifs sont de se lib\u00e9rer de la licence d'exploitation contraignante du corpus d'origine et d'obtenir une modernisation perp\u00e9tuelle des textes. Nous montrons qu'un corpus pr\u00e9-annot\u00e9 automatiquement peut permettre d'entra\u00eener un \u00e9tiqueteur produisant des performances \u00e9tat-de-l'art, si ce corpus est suffisamment grand.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Abstract",
                "sec_num": null
            }
        ],
        "body_text": [
            {
                "text": "L'entra\u00eenement et le test de syst\u00e8mes statistiques de Traitement Automatique des Langues (TAL) requi\u00e8rent la disponibilit\u00e9 de larges corpus annot\u00e9s (Haji\u010dov\u00e1 et al., 2010) . Force est de constater que la communaut\u00e9 scientifique est pauvre en corpus \u00e9crits en fran\u00e7ais librement accessibles, annot\u00e9s en quantit\u00e9 et en qualit\u00e9 suffisantes avec des analyses linguistiques structurelles (segmentation des textes en titres, paragraphes, phrases et mots), morpho-syntaxiques (parties du discours, lemme, genre, nombre, temps...) et syntaxiques (en constituants et en d\u00e9pendances) qui constituent les pr\u00e9-traitements de la plupart des applications du TAL. Nous reprenons ainsi \u00e0 notre compte des propos \u00e9nonc\u00e9s pr\u00e8s de dix ans plus t\u00f4t dans (Salmon-Alt et al., 2004) . Dans cet article nous nous int\u00e9ressons \u00e0 l'entra\u00eenement d'\u00e9tiqueteurs morpho-syntaxiques pour traiter des \u00e9crits en fran\u00e7ais ainsi qu'\u00e0 la construction des corpus annot\u00e9s associ\u00e9s.",
                "cite_spans": [
                    {
                        "start": 148,
                        "end": 171,
                        "text": "(Haji\u010dov\u00e1 et al., 2010)",
                        "ref_id": "BIBREF19"
                    },
                    {
                        "start": 734,
                        "end": 759,
                        "text": "(Salmon-Alt et al., 2004)",
                        "ref_id": "BIBREF27"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Parmi les corpus \u00e9crits annot\u00e9s et en fran\u00e7ais que nous recensons, nous comptons PAROLE 1 et MULTEXT JOC 2 (V\u00e9ronis et Khouri, 1995) , le French Treebank (P7T) (Abeill\u00e9 et al., 2003) , la base 1. http://catalog.elra.info/product_info.php?products_id=565 2. http://catalog.elra.info/product_info.php?products_id=534",
                "cite_spans": [
                    {
                        "start": 107,
                        "end": 132,
                        "text": "(V\u00e9ronis et Khouri, 1995)",
                        "ref_id": "BIBREF31"
                    },
                    {
                        "start": 160,
                        "end": 182,
                        "text": "(Abeill\u00e9 et al., 2003)",
                        "ref_id": "BIBREF0"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "FREEBANK (Salmon-Alt et al., 2004) et le r\u00e9cent corpus Sequoia 3 (Candito et Seddah, 2012) . Except\u00e9 la FREEBANK, ces corpus sont toujours accessibles aujourd'hui via un guichet sur le Web. La FREEBANK, dont la motivation \u00e9tait le recueil collaboratif, la construction et le partage de corpus libres annot\u00e9s en fran\u00e7ais a malheureusement disparu dans les limbes du Web 4 du fait de la difficult\u00e9 d'acquisition de textes libres et du co\u00fbt de r\u00e9alisation d'une telle entreprise. Le P7T 5 est probablement le corpus annot\u00e9 le plus utilis\u00e9 et le plus r\u00e9f\u00e9renc\u00e9, et ce essentiellement pour trois raisons : il est libre d'usage pour des activit\u00e9s de recherche, il b\u00e9n\u00e9ficie d'une analyse multi-niveaux (de la structure textuelle \u00e0 la structure syntaxique en passant par des annotations en morphologie) et il compte pr\u00e8s du double de mots annot\u00e9s que tous les autres corpus disponibles r\u00e9unis. En pratique ce corpus se compose d'articles journalistiques issus du journal Le Monde \u00e9crits dans les ann\u00e9es 90, soit plus de 500 000 mots annot\u00e9s. Ainsi (Candito et al., 2010a) utilisent la structure en constituants du P7T pour construire une structure en d\u00e9pendances et permettre l'entra\u00eenement d'analyseurs syntaxiques statistiques en d\u00e9pendance du fran\u00e7ais (Candito et al., 2010b) . (Sagot et al., 2012) l'enrichissent avec des annotations r\u00e9f\u00e9rentielles en entit\u00e9s nomm\u00e9es. Tandis que (Danlos et al., 2012) projettent de l'utiliser comme base d'annotations discursives.",
                "cite_spans": [
                    {
                        "start": 9,
                        "end": 34,
                        "text": "(Salmon-Alt et al., 2004)",
                        "ref_id": "BIBREF27"
                    },
                    {
                        "start": 65,
                        "end": 90,
                        "text": "(Candito et Seddah, 2012)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 1041,
                        "end": 1064,
                        "text": "(Candito et al., 2010a)",
                        "ref_id": "BIBREF7"
                    },
                    {
                        "start": 1248,
                        "end": 1271,
                        "text": "(Candito et al., 2010b)",
                        "ref_id": "BIBREF8"
                    },
                    {
                        "start": 1274,
                        "end": 1294,
                        "text": "(Sagot et al., 2012)",
                        "ref_id": "BIBREF26"
                    },
                    {
                        "start": 1377,
                        "end": 1398,
                        "text": "(Danlos et al., 2012)",
                        "ref_id": "BIBREF12"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Il y a n\u00e9anmoins quelques probl\u00e8mes associ\u00e9s \u00e0 l'utilisation du corpus P7T dans une optique de d\u00e9veloppement de syst\u00e8mes statistiques de TAL.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "1. Le premier probl\u00e8me concerne la faible ad\u00e9quation du mod\u00e8le th\u00e9orique linguistique avec la t\u00e2che d'entra\u00eenement \u00e0 laquelle on le destine. (Schluter et van Genabith, 2007; Crabb\u00e9 et Candito, 2008 ) montrent qu'en remaniant certaines annotations syntaxiques et le jeu d'\u00e9tiquettes, il est possible d'am\u00e9liorer les performances des syst\u00e8mes entra\u00een\u00e9s avec ce corpus. Un autre aspect du probl\u00e8me porte sur la notion de mots compos\u00e9s d\u00e9finie par les auteurs. Celle-ci est tr\u00e8s large et a pour cons\u00e9quence de rendre difficilement reproductible la segmentation du P7T par un syst\u00e8me automatique non entra\u00een\u00e9 sur cette ressource. Cette cons\u00e9quence conduit \u00e0 s'interroger sur la pertinence d'utiliser des mod\u00e9lisations construites sur ce corpus pour traiter d'autres corpus. (Candito et Seddah, 2012) , par exemple, d\u00e9cident de restreindre cette d\u00e9finition et d'aborder le traitement des formes les plus ouvertes (compos\u00e9s nominaux et verbaux) qu'au niveau syntaxique. En comparaison, le Penn Treebank 6 , qui constitue la r\u00e9f\u00e9rence pour l'anglais-am\u00e9ricain (Marcus et al., 1993; Gabbard et al., 2006) , favorise un d\u00e9coupage en mots simples 7 en privil\u00e9giant la rupture pour les mots joints. Il est n\u00e9anmoins important de rappeler que le P7T a initialement \u00e9t\u00e9 cr\u00e9\u00e9 avec une motivation diff\u00e9rente de la n\u00f4tre aujourd'hui \u00e0 savoir la construction de ressources lexicales de type dictionnaire 8 .",
                "cite_spans": [
                    {
                        "start": 141,
                        "end": 173,
                        "text": "(Schluter et van Genabith, 2007;",
                        "ref_id": "BIBREF28"
                    },
                    {
                        "start": 174,
                        "end": 197,
                        "text": "Crabb\u00e9 et Candito, 2008",
                        "ref_id": "BIBREF11"
                    },
                    {
                        "start": 769,
                        "end": 794,
                        "text": "(Candito et Seddah, 2012)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 1052,
                        "end": 1073,
                        "text": "(Marcus et al., 1993;",
                        "ref_id": "BIBREF23"
                    },
                    {
                        "start": 1074,
                        "end": 1095,
                        "text": "Gabbard et al., 2006)",
                        "ref_id": "BIBREF17"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "2. Le second probl\u00e8me est plus technique et concerne la relative inad\u00e9quation du sch\u00e9ma XML de repr\u00e9sentation des annotations pour des t\u00e2ches automatiques ainsi que le manque de consistance de la structure d'annotation. La repr\u00e9sentation des amalgames en deux \u00e9l\u00e9ments XML distincts qui se retrouvent distribu\u00e9s dans diff\u00e9rentes configurations selon qu'ils se produisent en partie dans un mot compos\u00e9 est une situation difficile \u00e0 traiter automatiquement car elle oblige \u00e0 \u00e9num\u00e9rer tous les cas possibles. Certains \u00e9l\u00e9ments n'ont pas syst\u00e9matiquement tous leurs attributs, inconsistances sont relev\u00e9es dans de nombreux travaux (Arun et Keller, 2005; Schluter et van Genabith, 2007; Green et al., 2011; Candito et Seddah, 2012; Boudin et Hernandez, 2012) qui militent en faveur d'une am\u00e9lioration voire d'une r\u00e9organisation de la structure du P7T avant de pouvoir l'utiliser dans toute \u00e9tude s\u00e9rieuse.",
                "cite_spans": [
                    {
                        "start": 627,
                        "end": 649,
                        "text": "(Arun et Keller, 2005;",
                        "ref_id": "BIBREF1"
                    },
                    {
                        "start": 650,
                        "end": 681,
                        "text": "Schluter et van Genabith, 2007;",
                        "ref_id": "BIBREF28"
                    },
                    {
                        "start": 682,
                        "end": 701,
                        "text": "Green et al., 2011;",
                        "ref_id": "BIBREF18"
                    },
                    {
                        "start": 702,
                        "end": 726,
                        "text": "Candito et Seddah, 2012;",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 727,
                        "end": 753,
                        "text": "Boudin et Hernandez, 2012)",
                        "ref_id": "BIBREF4"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "3. G\u00e9n\u00e9ralement les m\u00eames auteurs ont aussi observ\u00e9s des inconsistances au niveau d'annotations. Certains, comme (Schluter et van Genabith, 2007; Boudin et Hernandez, 2012) , mettent en oeuvre des techniques automatiques pour d\u00e9tecter et corriger des erreurs d'\u00e9tiquetage morpho-syntaxique. Le nombre d'erreurs de ce type est souvent minime ramen\u00e9 au nombre de mots annot\u00e9s. Sur les 628 767 tokens mots consid\u00e9r\u00e9s dans (Boudin et Hernandez, 2012) par exemple, seulement 169 ont \u00e9t\u00e9 consid\u00e9r\u00e9s comme ayant une erreur d'\u00e9tiquette. Le corpus \u00e9tant construit semi-automatiquement (d'abord analys\u00e9 automatiquement puis valid\u00e9 manuellement), ce type de probl\u00e8me illustre le fait que la validation humaine ne garantie pas l'absence d'erreurs sur un large corpus.",
                "cite_spans": [
                    {
                        "start": 113,
                        "end": 145,
                        "text": "(Schluter et van Genabith, 2007;",
                        "ref_id": "BIBREF28"
                    },
                    {
                        "start": 146,
                        "end": 172,
                        "text": "Boudin et Hernandez, 2012)",
                        "ref_id": "BIBREF4"
                    },
                    {
                        "start": 419,
                        "end": 446,
                        "text": "(Boudin et Hernandez, 2012)",
                        "ref_id": "BIBREF4"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "4. Le quatri\u00e8me probl\u00e8me que nous relevons r\u00e9sulte d'un parti pris que nous prenons 9 . Nous estimons en effet que sa licence d'exploitation n'est pas adapt\u00e9e pour favoriser son utilisation dans le monde de la recherche. Bien que la licence permette des utilisations avec des outils propri\u00e9taires et \u00e0 des fins commerciales moyennant finance, elle n'autorise pas la modification et la diffusion libre des modifications du corpus. Cela a pour principale cons\u00e9quence de ralentir voire de d\u00e9courager les contributions ext\u00e9rieures et l'am\u00e9lioration de la ressource (par exemple pour corriger les probl\u00e8mes pr\u00e9c\u00e9demment cit\u00e9s). (Koehn, 2005) . Nous nous int\u00e9resserons ici aux \u00e9crits en fran\u00e7ais de Wikinews et de Europarl. La version en fran\u00e7ais de Janvier 2013 de Wikinews compte plus de 28 000 articles d'actualit\u00e9 (soit plus de 2,5 millions de mots sur pr\u00e8s de 90 000 phrases) et couvre une p\u00e9riode s'\u00e9talant de Janvier 2005 \u00e0 nos jours. La section en fran\u00e7ais de la version 7 (mai 2012) du corpus Europarl compte, quant \u00e0 elle, plus de 61,5 millions de mots (plus de 2 millions de phrases) et couvre une p\u00e9riode s'\u00e9talant de 1996 \u00e0 2011. Les textes du premier sont disponibles sous licence 13 Creative Commons Attribution 2.5 (CC-BY 2.5) (les versions ant\u00e9rieures \u00e0 Septembre 2005 sont dans le domaine public) qui permet \u00e0 l'utilisateur d'utiliser, de modifier et de diffuser la ressource et ses modifications comme il le souhaite moyennant l'obligation d'en citer l'auteur. Les textes du second sont libres de reproduction 14 .",
                "cite_spans": [
                    {
                        "start": 623,
                        "end": 636,
                        "text": "(Koehn, 2005)",
                        "ref_id": "BIBREF20"
                    },
                    {
                        "start": 1523,
                        "end": 1525,
                        "text": "14",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Dans les sections suivantes, nous nous interrogeons sur la possibilit\u00e9 d'exploiter des donn\u00e9es pr\u00e9-annot\u00e9es automatiquement pour construire un syst\u00e8me ayant des performances similaires \u00e0 des syst\u00e8mes entra\u00een\u00e9s sur des donn\u00e9es valid\u00e9es manuellement. Nous proposons notamment d'observer comment la taille des donn\u00e9es pr\u00e9-annot\u00e9es automatiquement peut jouer un r\u00f4le dans la performance d'un \u00e9tiqueteur morpho-syntaxique entra\u00een\u00e9 sur celles-ci.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Dans cette section, nous pr\u00e9sentons les donn\u00e9es, le jeu d'\u00e9tiquettes et l'\u00e9tiqueteur que nous utilisons (section 2.1). Nous pr\u00e9sentons aussi les pr\u00e9-traitements op\u00e9r\u00e9s sur les donn\u00e9es pour les exploiter (sections 2.2 et 2.3) ainsi que le protocole d'\u00e9valuation de nos exp\u00e9riences (section 2.4). (Candito et al., 2010b) . Par la suite nous ferons r\u00e9f\u00e9rence \u00e0 ce jeu d'\u00e9tiquette par le nom P7T+. Par abus ce nom d\u00e9signera aussi le corpus P7T avec des \u00e9tiquettes converties en P7T+.",
                "cite_spans": [
                    {
                        "start": 295,
                        "end": 318,
                        "text": "(Candito et al., 2010b)",
                        "ref_id": "BIBREF8"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Cadre exp\u00e9rimental",
                "sec_num": "2"
            },
            {
                "text": "En ce qui concerne l'\u00e9tiqueteur morpho-syntaxique que nous avons utilis\u00e9 pour nos exp\u00e9riences, il s'agit de la version 3.1.3 du Stanford POS Tagger (Toutanova et al., 2003) . Ce syst\u00e8me utilise un mod\u00e8le par maximum d'entropie, et peut atteindre des performances au niveau de l'\u00e9tat-de-l'art en fran\u00e7ais (Boudin et Hernandez, 2012) . Nous utilisons un ensemble standard 16 de traits bidirectionnels sur les mots et les \u00e9tiquettes. ",
                "cite_spans": [
                    {
                        "start": 148,
                        "end": 172,
                        "text": "(Toutanova et al., 2003)",
                        "ref_id": "BIBREF30"
                    },
                    {
                        "start": 304,
                        "end": 331,
                        "text": "(Boudin et Hernandez, 2012)",
                        "ref_id": "BIBREF4"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Donn\u00e9es, jeu d'\u00e9tiquettes et \u00e9tiqueteur",
                "sec_num": "2.1"
            },
            {
                "text": "Afin de faciliter le traitement automatique ult\u00e9rieur du P7T, nous r\u00e9alisons des op\u00e9rations de r\u00e9vision et d'extension de la forme et du contenu. Nous envisageons \u00e0 terme la construction de mod\u00e9lisations de toutes les informations disponibles dans le P7T pour des syst\u00e8mes pr\u00e9dictifs statistiques. Nous avons jug\u00e9 compliqu\u00e9es les situations o\u00f9 l'extraction de certaines informations n\u00e9cessite des travaux d'analyse d\u00e9di\u00e9es (que cela soit des analyses de valeurs d'attributs ou des manipulations de la mod\u00e9lisation objet des documents (DOM) pour obtenir diff\u00e9rents fragments d'une m\u00eame information).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "Concernant les op\u00e9rations visant la validation 18 , l'homog\u00e9n\u00e9isation et la simplification de la structure XML des documents (second type de probl\u00e8mes recens\u00e9 \u00e0 la section 1), nous avons par exemple fusionn\u00e9 les \u00e9l\u00e9ments XML composant les amalgames 19 en un seul \u00e9l\u00e9ment de mani\u00e8re similaire \u00e0 (Candito et Seddah, 2012 ) (19 489 fusions). Nous avons explicit\u00e9 les caract\u00e9ristiques morphologiques de chaque mot par des attributs propres (genre, nombre, temps, personne. . .). Nous avons fait diverses corrections pour valider les documents comme l'ajout d'attributs manquant (e.g. 3166 attribut compound ajout\u00e9s) et le renommage d'attribut (e.g. 3 726 attributs cat corrig\u00e9s en catint).",
                "cite_spans": [
                    {
                        "start": 249,
                        "end": 251,
                        "text": "19",
                        "ref_id": null
                    },
                    {
                        "start": 294,
                        "end": 318,
                        "text": "(Candito et Seddah, 2012",
                        "ref_id": "BIBREF6"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "Concernant les op\u00e9rations de modification de contenu, la segmentation en tokens mots originale et le contenu textuel du P7T ont \u00e9t\u00e9 \u00e9pargn\u00e9s. De m\u00eame, les corrections d'erreurs triviales d'\u00e9tiquetage ont \u00e9t\u00e9 consid\u00e9r\u00e9es \u00e0 la marge pour cette \u00e9tude. Les op\u00e9rations se sont concentr\u00e9es d'une part sur la d\u00e9termination des traits morpho-syntaxiques (cat\u00e9gorie grammaticale, sous-cat\u00e9gorie, flexion morphologique et lemme) des mots composant les mots compos\u00e9s, et d'autre part sur l'attribution \u00e0 chaque mot de l'\u00e9tiquette grammaticale du jeux d'\u00e9tiquettes du P7T+ correspondant \u00e0 ses attributs. Ces deux types d'op\u00e9rations, dont le d\u00e9tail est pr\u00e9sent\u00e9 respectivement dans les deux paragraphes suivants, visent \u00e0 traiter le premier type de probl\u00e8mes recens\u00e9 \u00e0 la section 1 ; en particulier la d\u00e9termination des traits morpho-syntaxiques est une \u00e9tape n\u00e9cessaire \u00e0 l'affectation d'une \u00e9tiquette P7T+ aux mots composants (cf. section 2.2).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "Le processus de d\u00e9termination des traits manquants pour les mots composants repose sur l'observation des s\u00e9quences de traits associ\u00e9es aux occurrences des compos\u00e9s, aux s\u00e9quences de mots simples correspondant aux composants des compos\u00e9s, ainsi que sur l'observation des traits associ\u00e9s individuellement \u00e0 chaque mot du corpus. Notre approche tente d'abord une r\u00e9solution avec des statistiques globales et s'appuie ensuite sur des traits locaux au compos\u00e9 en cas d'ambigu\u00eft\u00e9 au niveau global. Sur les 1 892 lemmes de compos\u00e9s incomplets que nous observons, nous proposons une solution \u00e0 1 736 (3 009 occurrences).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "Le processus d'attribution \u00e0 chaque mot d'une \u00e9tiquette du P7T+ exploite les traits cat\u00e9gorie, sous-cat\u00e9gorie et flexion morphologique des mots. Pour ce faire, nous nous sommes appuy\u00e9s sur la table de conversion \u00e9nonc\u00e9e par (Crabb\u00e9 et Candito, 2008) ainsi que sur la documentation de l'\u00e9tiqueteur morpho-syntaxique MELT (Denis et Sagot, 2010) pour compl\u00e9ter quelques r\u00e8gles manquantes 20 . 31 r\u00e8gles r\u00e9alisent la conversion. Sur les 679 584 mots (simples, compos\u00e9s et composants) que compte le P7T, la proc\u00e9dure attribue une \u00e9tiquette P7T+ \u00e0 664 240 mots ;",
                "cite_spans": [
                    {
                        "start": 224,
                        "end": 249,
                        "text": "(Crabb\u00e9 et Candito, 2008)",
                        "ref_id": "BIBREF11"
                    },
                    {
                        "start": 320,
                        "end": 342,
                        "text": "(Denis et Sagot, 2010)",
                        "ref_id": "BIBREF14"
                    },
                    {
                        "start": 385,
                        "end": 387,
                        "text": "20",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "18. Seulement 27 des 44 fichiers composant la section tagged (\u00e9tiquet\u00e9 grammaticalement) de la version de Janvier 2012 sont valides (c'est-\u00e0-dire v\u00e9rifient la sp\u00e9cification d\u00e9finie par le sch\u00e9ma NG fourni par les auteurs.)",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "19. Les amalgames sont des unit\u00e9s lexicales d\u00e9crite par une unit\u00e9 graphique mais compos\u00e9s deux cat\u00e9gories grammaticales (e.g. \"du\" pour \"de+le\", \"auxquel\" pour \"\u00e0+lequel\").",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "20. Un mot de cat\u00e9gorie \"Nom\" et de sous-cat\u00e9gorie \"cardinal\" (million, huit, 2001...) est converti en nom commun. L'\u00e9tiquette \"pr\u00e9fix\" ne change pas, comme celle des amalgames apr\u00e8s fusion de ses sous-\u00e9l\u00e9ments.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "15 344 sont donc ind\u00e9finis. Nos r\u00e8gles de conversion, test\u00e9es sur les annotations P7T du corpus Sequoia, produisent les m\u00eames 21 annotations P7T+ que le corpus met aussi \u00e0 disposition.",
                "cite_spans": [
                    {
                        "start": 126,
                        "end": 128,
                        "text": "21",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "En pratique les diff\u00e9rentes op\u00e9rations ont \u00e9t\u00e9 mises en oeuvre via des r\u00e8gles 22 plus ou moins g\u00e9n\u00e9rales exprim\u00e9es sur le DOM des documents. Les op\u00e9rations de comptage requises par certaines strat\u00e9gies ont \u00e9t\u00e9 r\u00e9alis\u00e9s sur tout le corpus et non seulement sur chaque document.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9vision et extension du P7T",
                "sec_num": "2.3"
            },
            {
                "text": "Notre objectif est d'\u00e9valuer les performances d'un \u00e9tiqueteur morpho-syntaxique construit sur des donn\u00e9es pr\u00e9-annot\u00e9es automatiquement par rapport \u00e0 un \u00e9tiqueteur construit sur des donn\u00e9es valid\u00e9es manuellement. Notre m\u00e9thodologie est pr\u00e9sent\u00e9e \u00e0 la figure 1. La premi\u00e8re \u00e9tape consiste \u00e0 produire l'ensemble de donn\u00e9es d'entra\u00eenement. Pour cela, nous utilisons le Stanford POS tagger avec un mod\u00e8le entra\u00een\u00e9 sur le P7T+ pour annoter un large corpus de donn\u00e9es non-\u00e9tiquet\u00e9es. Cet ensemble de donn\u00e9es est not\u00e9 CORPUS pos apr\u00e8s qu'il ait \u00e9t\u00e9 \u00e9tiquet\u00e9 morphosyntaxiquement. Nous l'utilisons alors dans une deuxi\u00e8me \u00e9tape pour entra\u00eener un nouveau mod\u00e8le. La performance du mod\u00e8le cr\u00e9\u00e9 \u00e0 partir de CORPUS pos est ensuite \u00e9valu\u00e9e sur le P7T+. Afin d'\u00e9tudier l'impact de la taille du corpus d'entra\u00eenement sur la performance de l'\u00e9tiquetage morpho-syntaxique, nous avons entra\u00een\u00e9 diff\u00e9rents mod\u00e8les en utilisant des portions de CORPUS pos repr\u00e9sentant un facteur x du nombre de phrases de P7T+. Ici, nous utilisons Wikinews et Europarl en fran\u00e7ais comme CORPUS. Pour Wikinews, nous avons test\u00e9 les facteurs allant de 1 \u00e0 4 fois le nombre de phrases de P7T+ (4 \u00e9tant la limite que nous pouvions atteindre avec le nombre de phrases contenu dans Wikinews). Pour Europarl, nous avons explor\u00e9 jusqu'au facteur 16.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Protocole d'\u00e9valuation",
                "sec_num": "2.4"
            },
            {
                "text": "Trois mesures d'\u00e9valuation sont consid\u00e9r\u00e9es comme pertinentes pour nos exp\u00e9riences : la pr\u00e9cision sur les tokens, la pr\u00e9cision sur les phrases (nombre de phrases dans lesquelles tous les tokens ont \u00e9t\u00e9 correctement \u00e9tiquet\u00e9s par rapport au nombre de phrases total) et la pr\u00e9cision sur les mots inconnus (calcul\u00e9e \u00e0 partir des tokens n'apparaissant pas dans l'ensemble d'entra\u00eenement).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Protocole d'\u00e9valuation",
                "sec_num": "2.4"
            },
            {
                "text": "21. 108 mots obtiennent une \u00e9tiquette diff\u00e9rente de celle attribu\u00e9e par les auteurs du Sequoia, \u00e0 savoir une \u00e9tiquette d\u00e9signant une valeur ind\u00e9finie. En y regardant d'un peu plus pr\u00e8s nous avons constat\u00e9 que cela concernait en fait 22 formes distinctes et que ces formes \u00e9taient ambigu\u00ebs et pouvaient correspondre \u00e0 des noms communs ou bien \u00e0 des adverbes n\u00e9gatifs (e.g. 34 \u00abpersonnes ?\u00bb, 37 \u00abpoints ?\u00bb). En creusant davantage, nous avons constat\u00e9 un probl\u00e8me d'annotation. Ces mots \u00e9taient annot\u00e9s en tant que nom (cat\u00e9gorie \u00abN\u00bb) mais poss\u00e9daient une sous-cat\u00e9gorie \u00abNEG\u00bb propre aux adverbes. La description incompl\u00e8te de certains traits semblent \u00eatre aussi la raison de l'attribution d'une \u00e9tiquette ind\u00e9finie. C'est le cas de verbes (\u00ababoutisse, \u00abagrandisse\u00bb, \u00abremplisse\u00bb) dont le mode n'est pas pr\u00e9cis\u00e9. Indirectement notre syst\u00e8me a permis ainsi de d\u00e9tecter des erreurs d'inconsistances dans le Sequoia.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Protocole d'\u00e9valuation",
                "sec_num": "2.4"
            },
            {
                "text": "22. L'outil de r\u00e9vision et d'extension est librement disponible sur https://sites.google.com/site/ nicolashernandez/resources",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Protocole d'\u00e9valuation",
                "sec_num": "2.4"
            },
            {
                "text": "Cette section pr\u00e9sente les exp\u00e9riences que nous avons men\u00e9es. Nous rapportons d'abord la performance d'un \u00e9tiqueteur \u00e9tat-de-l'art construit sur des donn\u00e9es manuellement valid\u00e9es (section 3.1). Puis nous rapportons les performances observ\u00e9es pour diff\u00e9rentes tailles de donn\u00e9es d'entra\u00eenement annot\u00e9es automatiquement et ce pour des corpus d'entra\u00eenement de deux genres diff\u00e9rents (sections 3.2 et 3.2). Enfin nous rapportons les performances de ces \u00e9tiqueteurs construits sur des donn\u00e9es non valid\u00e9es sur un corpus sans aucun lien de filiation connu (section 3.3). Le mod\u00e8le et les traits d'entra\u00eenement de ces \u00e9tiqueteurs sont pr\u00e9sent\u00e9s \u00e0 la section 2.1.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Exp\u00e9riences",
                "sec_num": "3"
            },
            {
                "text": "La premi\u00e8re exp\u00e9rience que nous avons men\u00e9e porte sur l'\u00e9valuation du Stanford POS Tagger sur l'ensemble de donn\u00e9es P7T+. Il s'agit de conna\u00eetre la performance maximale que peut obtenir le syst\u00e8me lorsqu'il est entra\u00een\u00e9 sur des donn\u00e9es qui ont \u00e9t\u00e9 manuellement valid\u00e9es. Les r\u00e9sultats que nous pr\u00e9sentons ici ont \u00e9t\u00e9 obtenus en validation crois\u00e9e en 10 strates. L'\u00e9cart type (\u03c3) des scores calcul\u00e9s sur les diff\u00e9rentes strates est \u00e9galement report\u00e9. Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans la table 1. Le Stanford POS Tagger obtient une pr\u00e9cision moyenne de 96,93% sur les tokens et de 50,03% sur les phrases. Ces r\u00e9sultats sont conformes \u00e0 l'\u00e9tat-de-l'art des m\u00e9thodes n'utilisant pas de ressources externes (Crabb\u00e9 et Candito, 2008) . Il faut cependant noter que les scores pr\u00e9sent\u00e9s ne sont pas directement comparables aux approches pr\u00e9c\u00e9dentes qui n'utilisaient pas une m\u00e9thodologie d'\u00e9valuation en validation crois\u00e9e.",
                "cite_spans": [
                    {
                        "start": 703,
                        "end": 728,
                        "text": "(Crabb\u00e9 et Candito, 2008)",
                        "ref_id": "BIBREF11"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Performance d'un \u00e9tiqueteur \u00e9tat-de-l'art",
                "sec_num": "3.1"
            },
            {
                "text": "Min. -Max. La table 3 rapporte les r\u00e9sultats que nous obtenons avec le corpus Europarl pos . De par la diff\u00e9rence de genre, il \u00e9tait attendu que les scores obtenus avec ce corpus soient moins \u00e9lev\u00e9s que ceux obtenus avec Wikinews pos . On note que, en comparaison avec Wikinews pos , il faut davantage de donn\u00e9es de Europarl pos pour obtenir un niveau de performance acceptable. Plus exactement, il semble falloir quatre fois plus de donn\u00e9es pour obtenir les m\u00eames performances. Ainsi avec 16 fois plus de donn\u00e9es que le P7T+, on arrive \u00e0 une performance significative similaire \u00e0 un syst\u00e8me \u00e9tat-de-l'art entra\u00een\u00e9 sur celui-ci. Malgr\u00e9 des scores de pr\u00e9cisions moins \u00e9lev\u00e9s, on observe les m\u00eames tendances de progression quels que soient les scores. Bien que la pr\u00e9cision sur les mots inconnus diminue, le nombre de mots inconnus mal \u00e9tiquet\u00e9s est \u00e9galement \u00e0 la baisse.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Pr\u00e9cision",
                "sec_num": null
            },
            {
                "text": "Dans la m\u00eame table, nous pr\u00e9sentons \u00e0 titre de comparaison les r\u00e9sultats obtenus par un mod\u00e8le entra\u00een\u00e9 sur Sequoia, seul corpus librement disponible \u00e0 ce jour. Les scores de pr\u00e9cision de ce mod\u00e8le \u00e9valu\u00e9 sur le P7T+ sont bien en dessous de ceux obtenus par les mod\u00e8les entra\u00een\u00e9s sur Wikinews pos et Europarl pos , avec une pr\u00e9cision de 93,99% sur les tokens et de seulement 28,42% sur les phrases. Ces r\u00e9sultats confirment qu'un ensemble de donn\u00e9es automatiquement annot\u00e9es repr\u00e9sente une alternative pertinente pour l'entra\u00eenement de mod\u00e8les d'\u00e9tiquetage morpho-syntaxique. ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Entra\u00eenement \u00e0 partir de donn\u00e9es automatiquement annot\u00e9es",
                "sec_num": "3.2"
            },
            {
                "text": "La proc\u00e9dure d'annotation morpho-syntaxique de corpus repose en g\u00e9n\u00e9ral sur une proc\u00e9dure en deux \u00e9tapes 24 : d'abord une assignation automatique des \u00e9tiquettes par un \u00e9tiqueteur existant (\u00e9tape aussi appel\u00e9e \u00abpr\u00e9-annotation\u00bb) et ensuite une r\u00e9vision de celles-ci par des annotateurs humains (Haji\u010dov\u00e1 et al., 2010) . On retrouve cette mani\u00e8re de pr\u00e9c\u00e9der dans la construction des corpus Penn Treebank (Marcus et al., 1993) , PAROLE, MULTEXT JOC (V\u00e9ronis et Khouri, 1995) , French Treebank (Abeill\u00e9 et al., 2003) , FREEBANK (Salmon-Alt et al., 2004) , TCOF-POS (un corpus libre de fran\u00e7ais parl\u00e9) (Benzitoun et al., 2012) et Sequoia (Candito et Seddah, 2012) .",
                "cite_spans": [
                    {
                        "start": 292,
                        "end": 315,
                        "text": "(Haji\u010dov\u00e1 et al., 2010)",
                        "ref_id": "BIBREF19"
                    },
                    {
                        "start": 402,
                        "end": 423,
                        "text": "(Marcus et al., 1993)",
                        "ref_id": "BIBREF23"
                    },
                    {
                        "start": 446,
                        "end": 471,
                        "text": "(V\u00e9ronis et Khouri, 1995)",
                        "ref_id": "BIBREF31"
                    },
                    {
                        "start": 490,
                        "end": 512,
                        "text": "(Abeill\u00e9 et al., 2003)",
                        "ref_id": "BIBREF0"
                    },
                    {
                        "start": 524,
                        "end": 549,
                        "text": "(Salmon-Alt et al., 2004)",
                        "ref_id": "BIBREF27"
                    },
                    {
                        "start": 597,
                        "end": 621,
                        "text": "(Benzitoun et al., 2012)",
                        "ref_id": "BIBREF3"
                    },
                    {
                        "start": 633,
                        "end": 658,
                        "text": "(Candito et Seddah, 2012)",
                        "ref_id": "BIBREF6"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes relatifs \u00e0 la construction de corpus",
                "sec_num": "4"
            },
            {
                "text": "24. Le processus de construction d'un corpus annot\u00e9 est plus complexe et comprend notamment les \u00e9tapes suivantes : s\u00e9lection et constitution de la base de textes \u00e0 annoter, d\u00e9finition du sch\u00e9ma d'annotation, mise en place du protocole de validation par les experts, entra\u00eenement et mesure du taux d'accord entre ceux-ci.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes relatifs \u00e0 la construction de corpus",
                "sec_num": "4"
            },
            {
                "text": "Cette phase de post-\u00e9dition, connue comme \u00e9tant toujours n\u00e9cessaire, constitue une entreprise co\u00fbteuse en temps et p\u00e9cuniairement. (Fort et Sagot, 2010) montrent n\u00e9anmoins qu'il suffit d'un petit corpus d'entra\u00eenement pour construire un syst\u00e8me produisant une pr\u00e9-annotation de qualit\u00e9 suffisante pour permettre une annotation par correction plus rapide qu'une annotation manuelle. Dans ce travail, nous ne nous situons pas dans une perspective d'un post-traitement correctif manuel.",
                "cite_spans": [
                    {
                        "start": 131,
                        "end": 152,
                        "text": "(Fort et Sagot, 2010)",
                        "ref_id": "BIBREF16"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes relatifs \u00e0 la construction de corpus",
                "sec_num": "4"
            },
            {
                "text": "Diff\u00e9rentes techniques ont \u00e9t\u00e9 propos\u00e9es pour rendre plus fiable l'assignation automatique d'\u00e9tiquettes ainsi que pour faciliter le travail des annotateurs en d\u00e9tectant (voire en corrigeant) les erreurs d'annotation. En ce qui concerne l'assignation automatique, (Clark et al., 2003) utilisent deux \u00e9tiqueteurs morpho-syntaxiques pour annoter de nouvelles donn\u00e9es et \u00e9tendre leur corpus d'entra\u00eenement avec une s\u00e9lection de celles-ci. Leur id\u00e9e consiste \u00e0 s\u00e9lectionner les phrases qui maximisent l'accord d'annotation entre les \u00e9tiqueteurs et d'ajouter celles-ci aux donn\u00e9es d'entra\u00eenement, puis de recommencer la proc\u00e9dure. Les auteurs constatent que le coentra\u00eenement permet d'am\u00e9liorer la performance des syst\u00e8mes entra\u00een\u00e9s \u00e0 partir d'une quantit\u00e9 de donn\u00e9es manuellement annot\u00e9e tr\u00e8s faible. Cette approche trouve son utilit\u00e9 lorsque l'on dispose de peu de quantit\u00e9 de donn\u00e9es annot\u00e9s pour entra\u00eener un syst\u00e8me. L'id\u00e9e de combiner plusieurs \u00e9tiqueteurs se retrouve dans d'autres travaux. (Loftsson et al., 2010) , par exemple, entra\u00eenent cinq \u00e9tiqueteurs sur un m\u00eame corpus (le corpus Icelandic Frequency Dictionary (IFD)), et utilisent leur combinaison pour annoter un second corpus. La combinaison 25 se fait par vote \u00e0 la majorit\u00e9 et par degr\u00e9 de confiance dans les \u00e9tiqueteurs en cas d'\u00e9galit\u00e9. Le r\u00e9sultat de cette combinaison est ensuite sujet \u00e0 la d\u00e9tection d'erreurs en utilisant la d\u00e9tection d'incoh\u00e9rences entre un \u00e9tiquetage en constituants fourni par un outil tiers et l'\u00e9tiquetage morphosyntaxique des mots contenus dans les constituants (Loftsson, 2009) . La correction effective des erreurs est ensuite r\u00e9alis\u00e9e manuellement. Les auteurs montrent que la combinaison des \u00e9tiqueteurs permet d'augmenter la pr\u00e9cision de l'\u00e9tiquetage comparativement aux performances individuelles de chacun des \u00e9tiqueteurs. La raison invoqu\u00e9e pour expliquer le ph\u00e9nom\u00e8ne est que les diff\u00e9rents \u00e9tiqueteurs produisent diff\u00e9rentes erreurs et que cette diff\u00e9rence peut souvent \u00eatre exploit\u00e9e pour conduire \u00e0 de meilleurs r\u00e9sultats.",
                "cite_spans": [
                    {
                        "start": 263,
                        "end": 283,
                        "text": "(Clark et al., 2003)",
                        "ref_id": "BIBREF9"
                    },
                    {
                        "start": 992,
                        "end": 1015,
                        "text": "(Loftsson et al., 2010)",
                        "ref_id": "BIBREF22"
                    },
                    {
                        "start": 1555,
                        "end": 1571,
                        "text": "(Loftsson, 2009)",
                        "ref_id": "BIBREF21"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes relatifs \u00e0 la construction de corpus",
                "sec_num": "4"
            },
            {
                "text": "Sur le fran\u00e7ais, le travail qui se rapproche le plus de ces efforts est celui de (Dejean et al., 2010) pour qui le d\u00e9veloppement d'un corpus annot\u00e9 morpho-syntaxiquement reste avant tout un moyen d'atteindre leur objectif : construire un \u00e9tiqueteur morpho-syntaxique libre du fran\u00e7ais. Les auteurs observent (apr\u00e8s alignement des jeux d'\u00e9tiquettes) les divergences d'annotations des \u00e9tiqueteurs de (Brill, 1994 ) (BRILL) et de (Schmid, 1994 ) (TREETAGGER). Ces observations les conduisent \u00e0 \u00e9mettre des r\u00e8gles correctives sur le r\u00e9sultat de la combinaison de ces \u00e9tiqueteurs, qu'ils utilisent pour entra\u00eener un \u00e9tiqueteur \u00e9tat-de-l'art. Leurs exp\u00e9rimentations sont r\u00e9alis\u00e9es sur un corpus de pr\u00e8s de 500 000 mots construit \u00e0 partir d'extraits de Wikip\u00e9dia, Wikiversity et Wikinews. L'\u00e9tiqueteur est entra\u00een\u00e9 sur une partie du corpus et ses r\u00e9sultats sont compar\u00e9s sur une autre partie par rapport aux sorties produites par l'\u00e9tiqueteur BRILL. Le fait que la mise au point des \u00e9tiqueteurs BRILL et TREETAGGER n'aient pas \u00e9t\u00e9 r\u00e9alis\u00e9e sur un m\u00eame corpus ainsi que l'absence de corpus de r\u00e9f\u00e9rence pour \u00e9valuer les \u00e9tiquetages produits, rendent difficile l'interpr\u00e9tation de ces r\u00e9sultats.",
                "cite_spans": [
                    {
                        "start": 81,
                        "end": 102,
                        "text": "(Dejean et al., 2010)",
                        "ref_id": "BIBREF13"
                    },
                    {
                        "start": 398,
                        "end": 410,
                        "text": "(Brill, 1994",
                        "ref_id": "BIBREF5"
                    },
                    {
                        "start": 427,
                        "end": 440,
                        "text": "(Schmid, 1994",
                        "ref_id": "BIBREF29"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes relatifs \u00e0 la construction de corpus",
                "sec_num": "4"
            },
            {
                "text": "Afin d'assister la t\u00e2che de correction de corpus annot\u00e9s, (Dickinson et Meurers, 2003) proposent, dans le cadre du projet DECCA 26 , de s'appuyer sur l'observation des variations d'annotations 25 . http://combitagger.sourceforge.net 26. http://decca.osu.edu associ\u00e9es \u00e0 un m\u00eame n-gramme de mots pour trouver des erreurs d'\u00e9tiquetage. L'hypoth\u00e8se qu'ils font est qu'un mot ambigu peut avoir diff\u00e9rentes \u00e9tiquettes dans diff\u00e9rents contextes mais plus ses contextes d'occurrences sont similaires, plus rare devrait \u00eatre la variation d'\u00e9tiquetage ; et par cons\u00e9quent plus grande devrait \u00eatre la probabilit\u00e9 qu'il s'agisse d'une erreur. Appliqu\u00e9 sur le corpus du Wall Street Journal (WSJ), il observe que 97,6% des variations ramen\u00e9es pour des n-grammes de taille sup\u00e9rieure \u00e0 6 constituent des erreurs effectives.",
                "cite_spans": [
                    {
                        "start": 58,
                        "end": 86,
                        "text": "(Dickinson et Meurers, 2003)",
                        "ref_id": "BIBREF15"
                    },
                    {
                        "start": 193,
                        "end": 195,
                        "text": "25",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes relatifs \u00e0 la construction de corpus",
                "sec_num": "4"
            },
            {
                "text": "Poursuivant le m\u00eame objectif, (Loftsson, 2009) s'appuie sur cette technique ainsi que sur deux autres : le vote de plusieurs \u00e9tiqueteurs automatiques et la coh\u00e9rence de l'\u00e9tiquetage morphosyntaxique des mots en regard d'une analyse en constituants des phrases. Il observe que ces techniques permettent individuellement de d\u00e9tecter des erreurs et qu'elles agissent en compl\u00e9mentarit\u00e9 ; ce qui lui permet de corriger manuellement 0,23% (1 334 tokens mots) du corpus IFD. Nous notons que les deux premi\u00e8res techniques ne sont pas d\u00e9pendantes de la langue mais que la derni\u00e8re repose sur l'\u00e9criture de r\u00e8gles ad'hoc issues de l'observation des donn\u00e9es. (Boudin et Hernandez, 2012) appliquent sur le P7T des techniques de d\u00e9tection d'erreurs fond\u00e9es sur les travaux de (Dickinson et Meurers, 2003) ainsi que des heuristiques pour assigner automatiquement des \u00e9tiquettes morpho-syntaxiques aux mots composants. Ils montrent que ces corrections am\u00e9liorent les performances de syst\u00e8mes d'\u00e9tiquetage \u00e9tat-de-l'art.",
                "cite_spans": [
                    {
                        "start": 30,
                        "end": 46,
                        "text": "(Loftsson, 2009)",
                        "ref_id": "BIBREF21"
                    },
                    {
                        "start": 649,
                        "end": 676,
                        "text": "(Boudin et Hernandez, 2012)",
                        "ref_id": "BIBREF4"
                    },
                    {
                        "start": 764,
                        "end": 792,
                        "text": "(Dickinson et Meurers, 2003)",
                        "ref_id": "BIBREF15"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes relatifs \u00e0 la construction de corpus",
                "sec_num": "4"
            },
            {
                "text": "Dans cet article nous montrons qu'\u00e0 partir d'une certaine quantit\u00e9 de donn\u00e9es pr\u00e9-annot\u00e9es automatiquement il est possible d'entra\u00eener des \u00e9tiqueteurs morpho-syntaxiques qui produisent des r\u00e9sultats \u00e9quivalents \u00e0 des syst\u00e8mes entra\u00een\u00e9s sur des donn\u00e9es valid\u00e9es manuellement. La cons\u00e9quence directe de ce r\u00e9sultat d\u00e9coule de la nature des donn\u00e9es utilis\u00e9es pour ces exp\u00e9riences (\u00e0 savoir Wikinews et Europarl) : il est possible de construire un corpus libre annot\u00e9 morphosyntaxiquement offrant une modernisation perp\u00e9tuelle des textes et qui puisse servir de base pour entra\u00eener des \u00e9tiqueteurs morpho-syntaxiques statistiques produisant des analyses \u00e9tat-de-l'art.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "5"
            },
            {
                "text": "Les perspectives \u00e0 ce travail sont triples : d'abord confirmer la qualit\u00e9 de l'\u00e9tiquetage automatique des annotations morpho-syntaxiques du corpus ainsi construit, ensuite \u00e9tendre les annotations du corpus \u00e0 d'autres niveaux d'analyse, et enfin diffuser librement la ressource par un moyen qui permette un enrichissement collaboratif. Concernant l'am\u00e9lioration de la qualit\u00e9 d'\u00e9tiquetage, (Schluter et van Genabith, 2007; Loftsson et al., 2010; Boudin et Hernandez, 2012) ont montr\u00e9 des pistes pour la d\u00e9tection et la correction d'erreurs par des proc\u00e9dures automatiques en utilisant la d\u00e9tection de variations d'\u00e9tiquetage ou la combinaison de multiples \u00e9tiqueteurs. Concernant l'extension du corpus \u00e0 d'autres niveaux d'analyses, (Candito et Seddah, 2012) utilisent pour le projet Sequoia diff\u00e9rentes techniques pour pr\u00e9-annoter automatiquement le niveau syntaxique avec des analyses en constituants et en d\u00e9pendances. Les solutions mises en oeuvre dans le projet DECCA (cf. note 26) permettent d'envisager la d\u00e9tection d'erreurs \u00e0 ces niveaux. L'une des difficult\u00e9s sera de voir s'il est possible d'automatiser certaines corrections comme dans (Boudin et Hernandez, 2012) ainsi que de voir si la taille des donn\u00e9es annot\u00e9es a une incidence sur la qualit\u00e9 des syst\u00e8mes entra\u00een\u00e9s. L'enjeu de la mise au point de telles techniques est \u00e9norme puisqu'il s'agit de pouvoir offrir \u00e0 la communaut\u00e9 un large corpus annot\u00e9 croissant continuellement sous une licence d'exploitation offrant \u00e0 l'utilisateur le droit de copier, modifier et utiliser la ressource pour la finalit\u00e9 qu'il souhaite.",
                "cite_spans": [
                    {
                        "start": 389,
                        "end": 421,
                        "text": "(Schluter et van Genabith, 2007;",
                        "ref_id": "BIBREF28"
                    },
                    {
                        "start": 422,
                        "end": 444,
                        "text": "Loftsson et al., 2010;",
                        "ref_id": "BIBREF22"
                    },
                    {
                        "start": 445,
                        "end": 471,
                        "text": "Boudin et Hernandez, 2012)",
                        "ref_id": "BIBREF4"
                    },
                    {
                        "start": 732,
                        "end": 757,
                        "text": "(Candito et Seddah, 2012)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 1147,
                        "end": 1174,
                        "text": "(Boudin et Hernandez, 2012)",
                        "ref_id": "BIBREF4"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "5"
            },
            {
                "text": "c ATALA",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            }
        ],
        "back_matter": [],
        "bib_entries": {
            "BIBREF0": {
                "ref_id": "b0",
                "title": "Building and using Parsed Corpora, chapitre Building a treebank for French. Language and Speech series",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Abeill\u00e9",
                        "suffix": ""
                    },
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Cl\u00e9ment",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Toussenel",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ABEILL\u00c9, A., CL\u00c9MENT, L. et TOUSSENEL, F. (2003). Building and using Parsed Corpora, chapitre Building a treebank for French. Language and Speech series, Kluwer, Dordrecht.",
                "links": null
            },
            "BIBREF1": {
                "ref_id": "b1",
                "title": "Lexicalization in crosslinguistic probabilistic parsing : The case of French",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Arun",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Keller",
                        "suffix": ""
                    }
                ],
                "year": 2005,
                "venue": "Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL'05)",
                "volume": "",
                "issue": "",
                "pages": "306--313",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ARUN, A. et KELLER, F. (2005). Lexicalization in crosslinguistic probabilistic parsing : The case of French. In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL'05), pages 306-313, Ann Arbor, Michigan.",
                "links": null
            },
            "BIBREF2": {
                "ref_id": "b2",
                "title": "Sxpipe 2 : architecture pour le traitement pr\u00e9-syntaxique de corpus bruts",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Beno\u00eet",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Boullier",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "Traitement Automatique des Langues",
                "volume": "49",
                "issue": "2",
                "pages": "155--188",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BENO\u00ceT, S. et BOULLIER, P. (2008). Sxpipe 2 : architecture pour le traitement pr\u00e9-syntaxique de corpus bruts. Traitement Automatique des Langues, 49(2):155-188.",
                "links": null
            },
            "BIBREF3": {
                "ref_id": "b3",
                "title": "TCOF-POS : un corpus libre de fran\u00e7ais parl\u00e9 annot\u00e9 en morphosyntaxe",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Benzitoun",
                        "suffix": ""
                    },
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Fort",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Sagot",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "Actes de la conf\u00e9rence conjointe JEP-TALN-RECITAL",
                "volume": "",
                "issue": "",
                "pages": "99--112",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BENZITOUN, C., FORT, K. et SAGOT, B. (2012). TCOF-POS : un corpus libre de fran\u00e7ais parl\u00e9 annot\u00e9 en morphosyntaxe. In Actes de la conf\u00e9rence conjointe JEP-TALN-RECITAL, pages 99- 112, Grenoble, France. Quaero.",
                "links": null
            },
            "BIBREF4": {
                "ref_id": "b4",
                "title": "D\u00e9tection et correction automatique d'erreurs d'annotation morpho-syntaxique du french treebank",
                "authors": [
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Boudin",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Hernandez",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "Proceedings of the Joint Conference JEP-TALN-RECITAL 2012",
                "volume": "2",
                "issue": "",
                "pages": "281--291",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BOUDIN, F. et HERNANDEZ, N. (2012). D\u00e9tection et correction automatique d'erreurs d'an- notation morpho-syntaxique du french treebank. In Proceedings of the Joint Conference JEP-TALN-RECITAL 2012, volume 2 : TALN, pages 281-291, Grenoble, France. ATALA/AFCP.",
                "links": null
            },
            "BIBREF5": {
                "ref_id": "b5",
                "title": "Some advances in rule-based part of speech tagging",
                "authors": [
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Brill",
                        "suffix": ""
                    }
                ],
                "year": 1994,
                "venue": "Proceedings of the Twelfth National Conference on Artificial Intelligence (AAAI)",
                "volume": "",
                "issue": "",
                "pages": "722--727",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BRILL, E. (1994). Some advances in rule-based part of speech tagging. In Proceedings of the Twelfth National Conference on Artificial Intelligence (AAAI), pages 722-727.",
                "links": null
            },
            "BIBREF6": {
                "ref_id": "b6",
                "title": "Le corpus Sequoia : annotation syntaxique et exploitation pour l'adaptation d'analyseur par pont lexical",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Candito",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Seddah",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CANDITO, M. et SEDDAH, D. (2012). Le corpus Sequoia : annotation syn- taxique et exploitation pour l'adaptation d'analyseur par pont lexical. In 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles, Grenoble, France.",
                "links": null
            },
            "BIBREF7": {
                "ref_id": "b7",
                "title": "Statistical french dependency parsing : Treebank conversion and first results",
                "authors": [
                    {
                        "first": "M.-H",
                        "middle": [],
                        "last": "Candito",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Crabb\u00e9",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Denis",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Proceedings of LREC",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CANDITO, M.-H., CRABB\u00c9, B. et DENIS, P. (2010a). Statistical french dependency parsing : Treebank conversion and first results. In Proceedings of LREC, Valletta, Malta.",
                "links": null
            },
            "BIBREF8": {
                "ref_id": "b8",
                "title": "Benchmarking of statistical dependency parsers for french",
                "authors": [
                    {
                        "first": "M.-H",
                        "middle": [],
                        "last": "Candito",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Nivre",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Denis",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [
                            "H"
                        ],
                        "last": "Anguiano",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "COLING'2010 (poster session)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CANDITO, M.-H., NIVRE, J., DENIS, P. et ANGUIANO, E. H. (2010b). Benchmarking of statistical dependency parsers for french. In COLING'2010 (poster session), Beijing, China.",
                "links": null
            },
            "BIBREF9": {
                "ref_id": "b9",
                "title": "Bootstrapping pos-taggers using unlabelled data",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Clark",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Curran",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Osborne",
                        "suffix": ""
                    },
                    {
                        "first": "W",
                        "middle": [],
                        "last": "Daelemans",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Osborne",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "\u00e9diteurs : Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003",
                "volume": "",
                "issue": "",
                "pages": "49--55",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CLARK, S., CURRAN, J. et OSBORNE, M. (2003). Bootstrapping pos-taggers using unlabelled data. In DAELEMANS, W. et OSBORNE, M., \u00e9diteurs : Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003, pages 49-55.",
                "links": null
            },
            "BIBREF10": {
                "ref_id": "b10",
                "title": "Int\u00e9grer des connaissances linguistiques dans un CRF : application \u00e0 l'apprentissage d'un segmenteur\u00e9tiqueteur du fran\u00e7ais",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Constant",
                        "suffix": ""
                    },
                    {
                        "first": "I",
                        "middle": [],
                        "last": "Tellier",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Duchier",
                        "suffix": ""
                    },
                    {
                        "first": "Y",
                        "middle": [],
                        "last": "Dupont",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Sigogne",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Billot",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "Actes de la 18e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2011)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CONSTANT, M., TELLIER, I., DUCHIER, D., DUPONT, Y., SIGOGNE, A. et BILLOT, S. (2011). Int\u00e9grer des connaissances linguistiques dans un CRF : application \u00e0 l'apprentissage d'un segmenteur- \u00e9tiqueteur du fran\u00e7ais. In Actes de la 18e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2011), Montpellier, France.",
                "links": null
            },
            "BIBREF11": {
                "ref_id": "b11",
                "title": "Exp\u00e9riences d'analyse syntaxique statistique du fran\u00e7ais",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Crabb\u00e9",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Candito",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "Actes de la 15\u00e8me conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CRABB\u00c9, B. et CANDITO, M. (2008). Exp\u00e9riences d'analyse syntaxique statistique du fran\u00e7ais. In Actes de la 15\u00e8me conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN), Avignon, France.",
                "links": null
            },
            "BIBREF12": {
                "ref_id": "b12",
                "title": "Vers le FDTB : French Discourse Tree Bank",
                "authors": [
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Danlos",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Antolinos-Basso",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Braud",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Roze",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "Actes de la 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN)",
                "volume": "",
                "issue": "",
                "pages": "471--478",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DANLOS, L., ANTOLINOS-BASSO, D., BRAUD, C. et ROZE, C. (2012). Vers le FDTB : French Discourse Tree Bank. In Actes de la 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN), pages 471-478, Grenoble, France.",
                "links": null
            },
            "BIBREF13": {
                "ref_id": "b13",
                "title": "Un \u00e9tiqueteur de r\u00f4les grammaticaux libre pour le fran\u00e7ais int\u00e9gr\u00e9 \u00e0 Apache UIMA",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Dejean",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Fortun",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Massot",
                        "suffix": ""
                    },
                    {
                        "first": "V",
                        "middle": [],
                        "last": "Pottier",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Poulard",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Vernier",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Actes de la 17e Conf\u00e9rence sur le Traitement Automatique des Langues Naturelles",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DEJEAN, C., FORTUN, M., MASSOT, C., POTTIER, V., POULARD, F. et VERNIER, M. (2010). Un \u00e9tiqueteur de r\u00f4les grammaticaux libre pour le fran\u00e7ais int\u00e9gr\u00e9 \u00e0 Apache UIMA. In Actes de la 17e Conf\u00e9rence sur le Traitement Automatique des Langues Naturelles, Montr\u00e9al, Canada.",
                "links": null
            },
            "BIBREF14": {
                "ref_id": "b14",
                "title": "Exploitation d'une ressource lexicale pour la construction d'un \u00e9tiqueteur morpho-syntaxique \u00e9tat-de-l'art du fran\u00e7ais",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Denis",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Sagot",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Actes de la 17e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2010)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DENIS, P. et SAGOT, B. (2010). Exploitation d'une ressource lexicale pour la construction d'un \u00e9tiqueteur morpho-syntaxique \u00e9tat-de-l'art du fran\u00e7ais. In Actes de la 17e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2010), Montr\u00e9al, Canada.",
                "links": null
            },
            "BIBREF15": {
                "ref_id": "b15",
                "title": "Detecting errors in part-of-speech annotation",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Dickinson",
                        "suffix": ""
                    },
                    {
                        "first": "W",
                        "middle": [
                            "D"
                        ],
                        "last": "Meurers",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "Proceedings of the 10th Conference of the European Chapter of the Association for Computational Linguistics (EACL-03)",
                "volume": "",
                "issue": "",
                "pages": "107--114",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DICKINSON, M. et MEURERS, W. D. (2003). Detecting errors in part-of-speech annotation. In Proceedings of the 10th Conference of the European Chapter of the Association for Computational Linguistics (EACL-03), pages 107-114, Budapest, Hungary.",
                "links": null
            },
            "BIBREF16": {
                "ref_id": "b16",
                "title": "Influence of pre-annotation on pos-tagged corpus development",
                "authors": [
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Fort",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Sagot",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Proceedings of the Fourth Linguistic Annotation Workshop",
                "volume": "",
                "issue": "",
                "pages": "56--63",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FORT, K. et SAGOT, B. (2010). Influence of pre-annotation on pos-tagged corpus development. In Proceedings of the Fourth Linguistic Annotation Workshop, pages 56-63, Uppsala, Sweden. Association for Computational Linguistics.",
                "links": null
            },
            "BIBREF17": {
                "ref_id": "b17",
                "title": "Fully parsing the penn treebank",
                "authors": [
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Gabbard",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Marcus",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Kulick",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "Proceedings of the main conference on Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics, HLT-NAACL '06",
                "volume": "",
                "issue": "",
                "pages": "184--191",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GABBARD, R., MARCUS, M. et KULICK, S. (2006). Fully parsing the penn treebank. In Proceedings of the main conference on Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics, HLT-NAACL '06, pages 184-191, Stroudsburg, PA, USA. Association for Computational Linguistics.",
                "links": null
            },
            "BIBREF18": {
                "ref_id": "b18",
                "title": "Multiword expression identification with tree substitution grammars : A parsing tour de force with french",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Green",
                        "suffix": ""
                    },
                    {
                        "first": "Marneffe",
                        "middle": [],
                        "last": "De",
                        "suffix": ""
                    },
                    {
                        "first": "M.-C",
                        "middle": [],
                        "last": "Bauer",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Manning",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [
                            "D"
                        ],
                        "last": "",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "EMNLP",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GREEN, S., de MARNEFFE, M.-C., BAUER, J. et MANNING, C. D. (2011). Multiword expression identification with tree substitution grammars : A parsing tour de force with french. In EMNLP.",
                "links": null
            },
            "BIBREF19": {
                "ref_id": "b19",
                "title": "Handbook of Natural Language Processing, chapitre Treebank Annotation",
                "authors": [
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Haji\u010dov\u00e1",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Abeill\u00e9",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Haji\u010d",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Mirovsk\u00fd",
                        "suffix": ""
                    },
                    {
                        "first": "Z",
                        "middle": [],
                        "last": "Ure\u0161ov\u00e1",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HAJI\u010cOV\u00c1, E., ABEILL\u00c9, A., HAJI\u010c, J., MIROVSK\u00dd, J. et URE\u0160OV\u00c1, Z. (2010). Handbook of Natural Language Processing, chapitre Treebank Annotation. Chapman & Hall/CRC.",
                "links": null
            },
            "BIBREF20": {
                "ref_id": "b20",
                "title": "Europarl : A parallel corpus for statistical machine translation",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Koehn",
                        "suffix": ""
                    }
                ],
                "year": 2005,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "KOEHN, P. (2005). Europarl : A parallel corpus for statistical machine translation. In MT Summit.",
                "links": null
            },
            "BIBREF21": {
                "ref_id": "b21",
                "title": "Correcting a POS-tagged corpus using three complementary methods",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Loftsson",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "Proceedings of the 12th Conference of the European Chapter of the ACL (EACL 2009)",
                "volume": "",
                "issue": "",
                "pages": "523--531",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LOFTSSON, H. (2009). Correcting a POS-tagged corpus using three complementary methods. In Proceedings of the 12th Conference of the European Chapter of the ACL (EACL 2009), pages 523-531, Athens, Greece. Association for Computational Linguistics.",
                "links": null
            },
            "BIBREF22": {
                "ref_id": "b22",
                "title": "Developing a pos-tagged corpus using existing tools",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Loftsson",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [
                            "H"
                        ],
                        "last": "Yngvason",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Helgad\u00f3ttir",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [],
                        "last": "R\u00f6gnvaldsson",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Proceedings of LREC",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LOFTSSON, H., YNGVASON, J. H., HELGAD\u00d3TTIR, S. et R\u00d6GNVALDSSON, E. (2010). Developing a pos-tagged corpus using existing tools. In Proceedings of LREC.",
                "links": null
            },
            "BIBREF23": {
                "ref_id": "b23",
                "title": "Building a large annotated corpus of english : the penn treebank",
                "authors": [
                    {
                        "first": "M",
                        "middle": [
                            "P"
                        ],
                        "last": "Marcus",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [
                            "A"
                        ],
                        "last": "Marcinkiewicz",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Santorini",
                        "suffix": ""
                    }
                ],
                "year": 1993,
                "venue": "Computational Linguistics",
                "volume": "19",
                "issue": "2",
                "pages": "313--330",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MARCUS, M. P., MARCINKIEWICZ, M. A. et SANTORINI, B. (1993). Building a large annotated corpus of english : the penn treebank. Computational Linguistics, 19(2):313-330.",
                "links": null
            },
            "BIBREF24": {
                "ref_id": "b24",
                "title": "Macaon : Une cha\u00eene linguistique pour le traitement de graphes de mots",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Nasr",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "B\u00e9chet",
                        "suffix": ""
                    },
                    {
                        "first": "J.-F",
                        "middle": [],
                        "last": "Rey",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Traitement Automatique des Langues Naturelles -session de d\u00e9monstrations",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "NASR, A., B\u00c9CHET, F. et REY, J.-F. (2010). Macaon : Une cha\u00eene linguistique pour le traite- ment de graphes de mots. In Traitement Automatique des Langues Naturelles -session de d\u00e9monstrations, Montr\u00e9al.",
                "links": null
            },
            "BIBREF25": {
                "ref_id": "b25",
                "title": "Reinventing Discovery : The New Era of Networked Science",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Nielsen",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "NIELSEN, M. (2011). Reinventing Discovery : The New Era of Networked Science. Princeton, N.J. Princeton University Press.",
                "links": null
            },
            "BIBREF26": {
                "ref_id": "b26",
                "title": "Annotation r\u00e9f\u00e9rentielle du Corpus Arbor\u00e9 de Paris 7 en entit\u00e9s nomm\u00e9es",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Sagot",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Richard",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Stern",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "Actes de la 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN)",
                "volume": "",
                "issue": "",
                "pages": "535--542",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SAGOT, B., RICHARD, M. et STERN, R. (2012). Annotation r\u00e9f\u00e9rentielle du Corpus Arbor\u00e9 de Paris 7 en entit\u00e9s nomm\u00e9es. In Actes de la 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN), pages 535-542, Grenoble, France.",
                "links": null
            },
            "BIBREF27": {
                "ref_id": "b27",
                "title": "La FReeBank : vers une base libre de corpus annot\u00e9s",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Salmon-Alt",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Bick",
                        "suffix": ""
                    },
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Romary",
                        "suffix": ""
                    },
                    {
                        "first": "J.-M",
                        "middle": [],
                        "last": "Pierrel",
                        "suffix": ""
                    }
                ],
                "year": 2004,
                "venue": "Traitement Automatique des Langues Naturelles -TALN'04",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SALMON-ALT, S., BICK, E., ROMARY, L. et PIERREL, J.-M. (2004). La FReeBank : vers une base libre de corpus annot\u00e9s. In Traitement Automatique des Langues Naturelles -TALN'04, F\u00e8s, Maroc.",
                "links": null
            },
            "BIBREF28": {
                "ref_id": "b28",
                "title": "Preparing, restructuring, and augmenting a french treebank : lexicalised parsers or coherent treebanks ?",
                "authors": [
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Schluter",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Van Genabith",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Proceedings of the 10th Conference of the Pacific Association for Computational Linguistics (PACLING)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SCHLUTER, N. et van GENABITH, J. (2007). Preparing, restructuring, and augmenting a french treebank : lexicalised parsers or coherent treebanks ? In Proceedings of the 10th Conference of the Pacific Association for Computational Linguistics (PACLING), Melbourne, Australia.",
                "links": null
            },
            "BIBREF29": {
                "ref_id": "b29",
                "title": "Probabilistic part-of-speech tagging using decision trees",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Schmid",
                        "suffix": ""
                    }
                ],
                "year": 1994,
                "venue": "Proceedings of the Conference on New Methods in Language Processing",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SCHMID, H. (1994). Probabilistic part-of-speech tagging using decision trees. In Proceedings of the Conference on New Methods in Language Processing, Manchester, UK.",
                "links": null
            },
            "BIBREF30": {
                "ref_id": "b30",
                "title": "Feature-rich part-of-speech tagging with a cyclic dependency network",
                "authors": [
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Toutanova",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Klein",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Manning",
                        "suffix": ""
                    },
                    {
                        "first": "Y",
                        "middle": [],
                        "last": "Singer",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "Proceedings of the 3rd Conference of the North American Chapter of the ACL (NAACL 2003)",
                "volume": "",
                "issue": "",
                "pages": "173--180",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "TOUTANOVA, K., KLEIN, D., MANNING, C. et SINGER, Y. (2003). Feature-rich part-of-speech tagging with a cyclic dependency network. In Proceedings of the 3rd Conference of the North American Chapter of the ACL (NAACL 2003), pages 173-180. Association for Computational Linguistics.",
                "links": null
            },
            "BIBREF31": {
                "ref_id": "b31",
                "title": "Etiquetage grammatical multilingue : le projet multext",
                "authors": [
                    {
                        "first": "J",
                        "middle": [],
                        "last": "V\u00e9ronis",
                        "suffix": ""
                    },
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Khouri",
                        "suffix": ""
                    }
                ],
                "year": 1995,
                "venue": "Traitement Automatique des Langues",
                "volume": "36",
                "issue": "1",
                "pages": "233--248",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "V\u00c9RONIS, J. et KHOURI, L. (1995). Etiquetage grammatical multilingue : le projet multext. Traitement Automatique des Langues, 36(1/2):233-248.",
                "links": null
            }
        },
        "ref_entries": {
            "FIGREF0": {
                "num": null,
                "type_str": "figure",
                "uris": null,
                "text": "Apprentissage d'un mod\u00e8le \u00e0 partir de donn\u00e9es automatiquement annot\u00e9es."
            },
            "TABREF1": {
                "num": null,
                "content": "<table><tr><td>5. Les donn\u00e9es annot\u00e9es sont des textes mono-genres vieux de pr\u00e8s de vingt ans encod\u00e9s en ISO-8859-1. On peut se poser la question de la robustesse et de la pr\u00e9cision des syst\u00e8mes entra\u00een\u00e9s sur ceux-ci pour traiter des textes plus r\u00e9cents (qui pr\u00e9sentent de nouveaux ph\u00e9nom\u00e8nes linguistiques et des caract\u00e8res encod\u00e9s en UTF-8, qui est le standard de facto aujourd'hui pour encoder des textes en fran\u00e7ais) et/ou de genre diff\u00e9rent. 6. M\u00eame s'il constitue le plus gros corpus annot\u00e9 disponible pour le fran\u00e7ais, on peut s'inter-roger sur la repr\u00e9sentativit\u00e9 d'un corpus d'un demi-million de mots pour la construction de syst\u00e8mes automatiques. A titre de comparaison, le Penn Treebank compte en corpus \u00e9crits pr\u00e8s de 2,4 millions de mots annot\u00e9s morphologiquement et syntaxiquement et couvrent le domaine journalistique (Wall Street Journal) et l'anglais g\u00e9n\u00e9ral (Brown). Comparativement, PAROLE et MULTEXT JOC ont aussi des licences restrictives, le Sequoia offre quant \u00e0 lui le plus de libert\u00e9s 10 aux utilisateurs. Aucun des corpus n'est de taille comparable \u00e0 celle du P7T. Ils comptent respectivement 250 000, 200 000 et 72 311 mots annot\u00e9s morpho-syntaxiquement. Except\u00e9 en partie pour le Sequoia, les textes datent des ann\u00e9es 80 et 90. Dans cet article, nous r\u00e9-ouvrons la question de la construction de corpus annot\u00e9s libres en fran\u00e7ais. Une conjoncture \u00e0 la fois soci\u00e9tale, politique, technique et scientifique nous y conduit. En effet nous b\u00e9n\u00e9ficions aujourd'hui d'au moins deux sources de contenu libres et multilingues, en croissance perp\u00e9tuelle et comptant d\u00e9j\u00e0 plusieurs millions de mots, \u00e0 savoir les projets de 9. Nous nous situons dans une d\u00e9marche de recherche scientifique \u00abouverte\u00bb (Nielsen, 2011). (Wikipedia, Wikinews. . .) et les actes du Parlement Europ\u00e9en 12 10. LGPL-LR (la Wikimedia Foundation 11 (Europarl) tels que remani\u00e9s par</td></tr></table>",
                "html": null,
                "type_str": "table",
                "text": "Lesser General Public License For Linguistic Resources). Les auteurs ne pr\u00e9cisent pas l'objet d\u00e9sign\u00e9 par la licence. Celle-ci doit se restreindre aux annotations produites et ne peut comprendre les textes. Le corpus est compos\u00e9 de textes de quatre origines. On note que le journal Est R\u00e9publicain diffus\u00e9 par le CNRTL est sous licence CC-BY-NC-SA 2.0 FR qui par sa clause de non-diffusion commerciale s'oppose \u00e0 la LGPL-LR. La licence de wikipedia (CC-BY-SA 3.0) ne semble pas contredire cette licence. La licence de Europarl et de EMEA manque de pr\u00e9cision sur les droits d'usage mais autorise la reproduction."
            },
            "TABREF2": {
                "num": null,
                "content": "<table/>",
                "html": null,
                "type_str": "table",
                "text": "Olonne elles sont au nombre de 13, les auteurs montrent que les performances d'un \u00e9tiqueteur entra\u00een\u00e9 sur de telles annotations sont meilleures. Par ailleurs, son utilisation facilite l'acc\u00e8s \u00e0 d'autres ressources tels que les analyseurs syntaxiques statistiques en d\u00e9pendance du fran\u00e7ais qui ont d\u00e9j\u00e0 \u00e9t\u00e9 d\u00e9velopp\u00e9s \u00e0 partir de ce jeu d'\u00e9tiquettes15 (MaltParser, MSTParser, Berkeley Parser)"
            },
            "TABREF3": {
                "num": null,
                "content": "<table/>",
                "html": null,
                "type_str": "table",
                "text": "Le P7T fournit des analyses linguistiques qui reposent sur une segmentation en mots simples et en mots compos\u00e9s. Les mots composant les compos\u00e9s (nous appelons \u00abmots composants\u00bb les mots qui composent les mots compos\u00e9s) sont signal\u00e9s mais seulement un sous-ensemble b\u00e9n\u00e9ficie d'une cat\u00e9gorie grammaticale et aucun d'eux ne b\u00e9n\u00e9ficie des autres traits (sous-cat\u00e9gorie, flexions morphologiques et lemme). Except\u00e9 le lemme, ces traits sont requis pour la conversion en P7T+.La notion de compos\u00e9 dans le P7T est tr\u00e8s large (cf. note 8). La composition se justifie par des crit\u00e8res aussi bien graphiques que morphologiques, syntaxiques et s\u00e9mantiques. La segmentation en unit\u00e9s lexicales n'est pas un probl\u00e8me trivial. De nombreuses marques de ponctuation (apostrophe, virgule, tiret, point et espace) sont ambigu\u00ebs, et suivant la situation, jouent le r\u00f4le de joint ou de s\u00e9parateur. Cela conduit la majorit\u00e9 des syst\u00e8mes de segmentation(Beno\u00eet et Boullier, 2008;Nasr et al., 2010;Constant et al., 2011) \u00e0 exploiter, en compl\u00e9ment de r\u00e8gles g\u00e9n\u00e9rales, des listes de formes finies ou r\u00e9guli\u00e8res \u00e0 consid\u00e9rer comme unit\u00e9s lexicales. La segmentation en compos\u00e9s du P7T r\u00e9sulte d'un processus d'annotation \u00e0 la fois manuel et \u00e0 base de lexiques non pr\u00e9cis\u00e9ment r\u00e9f\u00e9renc\u00e9s. Outre la difficult\u00e9 \u00e0 reproduire automatiquement cette segmentation, il n'y a pas d'enjeu \u00e0 chercher \u00e0 le faire car celle-ci est avant tout ad hoc \u00e0 une p\u00e9riode et un genre de textes. Motiv\u00e9s par la volont\u00e9 d'entra\u00eener des analyseurs robustes afin de pouvoir traiter des textes pour lesquels des dictionnaires de mots compos\u00e9s ne seraient pas disponibles, nous avons souhait\u00e9 nous abstraire au maximum de la notion de compos\u00e9 du P7T. Nous n'avons ainsi consid\u00e9r\u00e9 comme unit\u00e9s lexicales que les compos\u00e9s consistant en des unit\u00e9s graphiques exemptes d'espace ou ceux consistant en des formes num\u00e9rales r\u00e9guli\u00e8res (e.g. \u00ab20 000\u00bb, \u00ab50,12\u00bb, \u00abdeux cent vingt-et-un\u00bb), lesquelles peuvent admettre des espaces. Certains mots composants sont donc amen\u00e9s \u00e0 \u00eatre consid\u00e9r\u00e9s comme unit\u00e9s lexicales. Il en d\u00e9coule le besoin de d\u00e9terminer les traits morpho-syntaxiques manquants de ceux-ci afin de pouvoir leur affecter une \u00e9tiquette P7T+ (cf. section 2.3). Le P7T compte 6 791 lemmes distincts de mots compos\u00e9s qui ne sont pas des unit\u00e9s graphiques (i.e. ne contenant pas d'espace) soient 26 648 occurrences. 1 892 de ces lemmes de mots compos\u00e9s ont au moins un de leur composant sans \u00e9tiquette grammaticale. Cela repr\u00e9sente 7 795 occurrences. 1 106 n'ont aucune \u00e9tiquette \u00e0 leurs composants.Pour les donn\u00e9es autres que le P7T, nous utilisons dans nos exp\u00e9riences le segmenteur KEA 17 ."
            },
            "TABREF5": {
                "num": null,
                "content": "<table/>",
                "html": null,
                "type_str": "table",
                "text": "Scores de pr\u00e9cision sur les tokens, phrases et mots inconnus du Stanford POS tagger calcul\u00e9s \u00e0 partir du P7T+ en validation crois\u00e9e en 10 strates. Le minimum, le maximum et l'\u00e9cart type des scores calcul\u00e9s sur les 10 strates sont \u00e9galement report\u00e9s."
            },
            "TABREF6": {
                "num": null,
                "content": "<table><tr><td>Wikinews pos (1:1 P7T+)</td><td>96,46</td><td>44,42</td><td>80,81</td></tr><tr><td>Wikinews pos (2:1 P7T+)</td><td>96,77</td><td>47,35</td><td>80,08</td></tr><tr><td>Wikinews pos (3:1 P7T+)</td><td>96,88</td><td>48,52</td><td>79,20</td></tr><tr><td>Wikinews pos (4:1 P7T+)</td><td>96,97  \u2020</td><td>49,57  \u2020</td><td>78,20</td></tr><tr><td colspan=\"4\">TABLE 2 -Scores de pr\u00e9cision sur les tokens, phrases et mots inconnus du Stanford POS tagger</td></tr><tr><td colspan=\"4\">entra\u00een\u00e9 \u00e0 partir de Wikinews (annot\u00e9 automatiquement) et \u00e9valu\u00e9 sur le P7T+. Le ratio entre la</td></tr><tr><td colspan=\"4\">taille de l'ensemble d'entra\u00eenement et la taille du P7T+ est indiqu\u00e9 entre parenth\u00e8ses. Les scores</td></tr><tr><td colspan=\"4\">indiqu\u00e9s par le caract\u00e8re  \u2020 n'ont pas de diff\u00e9rence statistiquement significative par rapport aux</td></tr><tr><td colspan=\"4\">scores obtenus par le mod\u00e8le entra\u00een\u00e9 sur le P7T+ (\u03c1 &gt; 0,1 avec un t-test de Student).</td></tr><tr><td colspan=\"4\">Il est int\u00e9ressant de voir que la pr\u00e9cision sur les tokens et les phrases est en constante aug-</td></tr><tr><td colspan=\"4\">mentation par rapport \u00e0 la taille du corpus d'entra\u00eenement et ce, malgr\u00e9 un nombre d'erreurs</td></tr><tr><td colspan=\"4\">d'\u00e9tiquetage automatique obligatoirement \u00e0 la hausse. La pr\u00e9cision moyenne sur les mots incon-</td></tr><tr><td colspan=\"4\">nus est quant \u00e0 elle en diminution. N\u00e9anmoins, le nombre total d'erreurs commises sur les mots</td></tr><tr><td colspan=\"4\">inconnus est en nette diminution (7128 mots inconnus mal \u00e9tiquet\u00e9s avec le mod\u00e8le entra\u00een\u00e9</td></tr><tr><td colspan=\"4\">\u00e0 partir d'un facteur 1 du P7T+ contre 5168 avec le mod\u00e8le entra\u00een\u00e9 sur 100% Entra\u00eenement Pr\u00e9c. tokens Pr\u00e9c. phrases Pr\u00e9c. inconnus</td></tr><tr><td>Europarl pos (1:1 P7T+)</td><td>95,85</td><td>40,22</td><td>79,45</td></tr><tr><td>Europarl pos (4:1 P7T+)</td><td>96,53</td><td>45,51</td><td>77,46</td></tr><tr><td>Europarl pos (8:1 P7T+)</td><td>96,74</td><td>47,38</td><td>76,68</td></tr><tr><td>Europarl pos (16:1 P7T+)</td><td>96,93  \u2020</td><td>49,22  \u2021</td><td>75,81</td></tr><tr><td>Sequoia</td><td>93,99</td><td>28,42</td><td>83,49</td></tr></table>",
                "html": null,
                "type_str": "table",
                "text": "Dans une seconde s\u00e9rie d'exp\u00e9riences, nous \u00e9valuons la performance d'une m\u00e9thode d'\u00e9tiquetage morpho-syntaxique entra\u00een\u00e9e \u00e0 partir de donn\u00e9es automatiquement annot\u00e9es. Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans la table 2. Le mod\u00e8le entra\u00een\u00e9 sur la totalit\u00e9 de Wikinews pos obtient les meilleurs scores avec une pr\u00e9cision moyenne de 96,97% sur les tokens et de 49,74% sur les phrases. Il s'agit Wikinews pos ). On peut \u00e9galement constater qu'il faut une quantit\u00e9 bien plus importante de donn\u00e9es automatiquement annot\u00e9es que de donn\u00e9es manuellement annot\u00e9es, ici quatre fois plus, pour obtenir le m\u00eame niveau de performance."
            },
            "TABREF7": {
                "num": null,
                "content": "<table/>",
                "html": null,
                "type_str": "table",
                "text": "Scores de pr\u00e9cision sur les tokens, phrases et mots inconnus du Stanford POS tagger entra\u00een\u00e9 \u00e0 partir de Europarl (annot\u00e9 automatiquement) et Sequoia (valid\u00e9 manuellement) et \u00e9valu\u00e9 sur le P7T+. Le ratio entre la taille de l'ensemble d'entra\u00eenement et la taille du FTB+ est indiqu\u00e9 entre parenth\u00e8ses. Les scores indiqu\u00e9s par le caract\u00e8re \u2020 (\u03c1 > 0,1 avec un t-test de Student) et \u2021 (\u03c1 > 0,05 avec un t-test de Student) n'ont pas de diff\u00e9rence statistiquement significative par rapport aux scores obtenus par le mod\u00e8le entra\u00een\u00e9 sur le P7T+."
            },
            "TABREF8": {
                "num": null,
                "content": "<table><tr><td>Entra\u00eenement FTB+</td><td>94,00</td><td>95,10</td><td>94,86</td><td>92,06 93,85</td></tr><tr><td>Wikinews pos</td><td>93,55</td><td>94,56</td><td>94,61</td><td>91,09 93,30</td></tr></table>",
                "html": null,
                "type_str": "table",
                "text": "La troisi\u00e8me et derni\u00e8re exp\u00e9rience que nous avons men\u00e9e consiste \u00e0 \u00e9valuer la performance des mod\u00e8les entra\u00een\u00e9s \u00e0 partir de Wikinews pos et du P7T+ sur un corpus autre que le French TreeBank. Pour cela nous avons choisi le corpus Sequoia. Ce dernier est compos\u00e9 de phrases provenant de quatre origines : Europarl fran\u00e7ais, le journal l'Est R\u00e9publicain, Wikipedia Fr et des documents de l'Agence Europ\u00e9enne du M\u00e9dicament (EMEA). Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans la table 4. D'une mani\u00e8re g\u00e9n\u00e9rale, les scores de pr\u00e9cisions sont plus faibles que ceux observ\u00e9s sur le P7T+. La taille tr\u00e8s restreinte de Sequoia (3204 phrases) ne permet cependant pas d'\u00e9tablir des conclusions. Les meilleurs scores sont obtenus sur les phrases provenant de l'Est R\u00e9publicain et les moins bons sur celles provenant de documents de l'EMEA (domaine m\u00e9dical). Il s'agit d'un comportement normal puisque les mod\u00e8les ont \u00e9t\u00e9 construits \u00e0 partir de phrases issues de documents journalistiques. Encore une fois, les r\u00e9sultats du mod\u00e8le entra\u00een\u00e9 sur Wikinews pos sont tr\u00e8s proches de ceux obtenus par le mod\u00e8le entra\u00een\u00e9 sur le P7T+."
            },
            "TABREF9": {
                "num": null,
                "content": "<table/>",
                "html": null,
                "type_str": "table",
                "text": "Scores de pr\u00e9cision sur les tokens du Stanford POS tagger entra\u00een\u00e9 \u00e0 partir de Wikinews pos et du FTB+ et \u00e9valu\u00e9 sur le Sequoia. Les scores de pr\u00e9cision en fonction de l'origine des phrases sont \u00e9galement report\u00e9s."
            }
        }
    }
}