File size: 91,620 Bytes
6fa4bc9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
1390
1391
1392
1393
1394
1395
1396
1397
1398
1399
1400
1401
1402
1403
1404
1405
1406
1407
1408
1409
1410
1411
1412
1413
1414
1415
1416
1417
1418
1419
1420
1421
1422
1423
1424
1425
1426
1427
1428
1429
1430
1431
1432
1433
1434
1435
1436
1437
1438
1439
1440
1441
1442
1443
1444
1445
1446
1447
1448
1449
1450
1451
1452
1453
1454
1455
1456
1457
1458
1459
1460
1461
1462
1463
1464
1465
1466
1467
1468
1469
1470
1471
1472
1473
1474
1475
1476
1477
1478
1479
1480
1481
1482
1483
1484
1485
1486
1487
1488
1489
1490
1491
1492
1493
1494
1495
1496
1497
1498
1499
1500
1501
1502
1503
1504
1505
1506
1507
1508
1509
1510
1511
1512
1513
1514
1515
1516
1517
1518
1519
1520
1521
1522
1523
1524
1525
1526
1527
1528
1529
1530
1531
1532
1533
1534
1535
1536
1537
1538
1539
1540
1541
1542
{
    "paper_id": "F13-1006",
    "header": {
        "generated_with": "S2ORC 1.0.0",
        "date_generated": "2023-01-19T09:41:47.511490Z"
    },
    "title": "WoNeF : am\u00e9lioration, extension et \u00e9valuation d'une traduction fran\u00e7aise automatique de WordNet",
    "authors": [
        {
            "first": "Quentin",
            "middle": [],
            "last": "Pradet",
            "suffix": "",
            "affiliation": {
                "laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus",
                "institution": "LIST",
                "location": {
                    "postCode": "F-91191",
                    "settlement": "Gif-sur-Yvette",
                    "country": "France; ("
                }
            },
            "email": "quentin.pradet@cea.fr"
        },
        {
            "first": "Jeanne",
            "middle": [],
            "last": "Baguenier-Desormeaux",
            "suffix": "",
            "affiliation": {
                "laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus",
                "institution": "LIST",
                "location": {
                    "postCode": "F-91191",
                    "settlement": "Gif-sur-Yvette",
                    "country": "France; ("
                }
            },
            "email": ""
        },
        {
            "first": "Ga\u00ebl",
            "middle": [],
            "last": "De Chalendar",
            "suffix": "",
            "affiliation": {
                "laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus",
                "institution": "LIST",
                "location": {
                    "postCode": "F-91191",
                    "settlement": "Gif-sur-Yvette",
                    "country": "France; ("
                }
            },
            "email": "gael.de-chalendar@cea.fr"
        },
        {
            "first": "Laurence",
            "middle": [],
            "last": "Danlos",
            "suffix": "",
            "affiliation": {
                "laboratory": "",
                "institution": "ALPAGE",
                "location": {
                    "postCode": "UMR-I 001 INRIA"
                }
            },
            "email": "laurence.danlos@linguist.univ-paris-diderot.fr"
        }
    ],
    "year": "",
    "venue": null,
    "identifiers": {},
    "abstract": "Identifier les sens possibles des mots du vocabulaire est un probl\u00e8me difficile demandant un travail manuel tr\u00e8s cons\u00e9quent. Ce travail a \u00e9t\u00e9 entrepris pour l'anglais : le r\u00e9sultat est la base de donn\u00e9es lexicale WordNet, pour laquelle il n'existe encore que peu d'\u00e9quivalents dans d'autres langues. N\u00e9anmoins, des traductions automatiques de WordNet vers de nombreuses langues cibles existent, notamment pour le fran\u00e7ais. JAWS est une telle traduction automatique utilisant des dictionnaires et un mod\u00e8le de langage syntaxique. Nous am\u00e9liorons cette traduction, la compl\u00e9tons avec les verbes et adjectifs de WordNet, et d\u00e9montrons la validit\u00e9 de notre approche via une nouvelle \u00e9valuation manuelle. En plus de la version principale nomm\u00e9e WoNeF, nous produisons deux versions suppl\u00e9mentaires : une version \u00e0 haute pr\u00e9cision (93% de pr\u00e9cision, jusqu'\u00e0 97% pour les noms), et une version \u00e0 haute couverture contenant 109 447 paires (litt\u00e9ral, synset).",
    "pdf_parse": {
        "paper_id": "F13-1006",
        "_pdf_hash": "",
        "abstract": [
            {
                "text": "Identifier les sens possibles des mots du vocabulaire est un probl\u00e8me difficile demandant un travail manuel tr\u00e8s cons\u00e9quent. Ce travail a \u00e9t\u00e9 entrepris pour l'anglais : le r\u00e9sultat est la base de donn\u00e9es lexicale WordNet, pour laquelle il n'existe encore que peu d'\u00e9quivalents dans d'autres langues. N\u00e9anmoins, des traductions automatiques de WordNet vers de nombreuses langues cibles existent, notamment pour le fran\u00e7ais. JAWS est une telle traduction automatique utilisant des dictionnaires et un mod\u00e8le de langage syntaxique. Nous am\u00e9liorons cette traduction, la compl\u00e9tons avec les verbes et adjectifs de WordNet, et d\u00e9montrons la validit\u00e9 de notre approche via une nouvelle \u00e9valuation manuelle. En plus de la version principale nomm\u00e9e WoNeF, nous produisons deux versions suppl\u00e9mentaires : une version \u00e0 haute pr\u00e9cision (93% de pr\u00e9cision, jusqu'\u00e0 97% pour les noms), et une version \u00e0 haute couverture contenant 109 447 paires (litt\u00e9ral, synset).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Abstract",
                "sec_num": null
            }
        ],
        "body_text": [
            {
                "text": "WordNet est une base de donn\u00e9es lexicale en d\u00e9veloppement depuis les ann\u00e9es 80 (Fellbaum, 1998) . Cette base est organis\u00e9e autour du concept de synset (ensemble de synonymes), chaque synset repr\u00e9sentant un sens tr\u00e8s pr\u00e9cis \u00e0 l'aide d'une d\u00e9finition et d'un certain nombre de mots que nous nommons litt\u00e9raux. Ces synsets sont li\u00e9s par diff\u00e9rentes relations s\u00e9mantiques telles que la m\u00e9ronymie et l'hyponymie. Malgr\u00e9 des d\u00e9fauts reconnus (Boyd-Graber et al., 2006) principalement li\u00e9s \u00e0 la granularit\u00e9 trop fine des sens, WordNet reste une ressource extr\u00eamement utile et reproduire ce travail pour d'autres langues serait co\u00fbteux et difficile \u00e0 maintenir. Et malgr\u00e9 quelques probl\u00e8mes th\u00e9oriques, (Fellbaum et Vossen, 2007; de Melo et Weikum, 2008) montrent que traduire WordNet en gardant sa structure et ses synsets m\u00e8ne \u00e0 des ressources linguistiques utiles.",
                "cite_spans": [
                    {
                        "start": 79,
                        "end": 95,
                        "text": "(Fellbaum, 1998)",
                        "ref_id": "BIBREF12"
                    },
                    {
                        "start": 436,
                        "end": 462,
                        "text": "(Boyd-Graber et al., 2006)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 695,
                        "end": 721,
                        "text": "(Fellbaum et Vossen, 2007;",
                        "ref_id": "BIBREF13"
                    },
                    {
                        "start": 722,
                        "end": 746,
                        "text": "de Melo et Weikum, 2008)",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Les traductions automatiques de WordNet emploient une approche dite d'extension (extend approach) : la structure de WordNet est pr\u00e9serv\u00e9e et seuls les litt\u00e9raux sont traduits. Trois techniques principales repr\u00e9sentent cette approche dans la litt\u00e9rature. La plus simple utilise des dictionnaires bilingues pour faciliter le travail des lexicographes qui filtrent ensuite manuellement les entr\u00e9es propos\u00e9es (Vossen, 1998; Pianta et al., 2002; Tufis et al., 2004) . Une deuxi\u00e8me m\u00e9thode de traduction utilise des corpus parall\u00e8les, ce qui \u00e9vite l'utilisation de dictionnaires qui peuvent entra\u00eener un biais lexicographique. (Dyvik, 2004) repr\u00e9sente cette m\u00e9thode en s'appuyant sur des back-translations entre le norv\u00e9gien et l'anglais, alors que (Sagot et Fi\u0161er, 2008 ) combinent un lexique multilingue et les diff\u00e9rents WordNets de BalkaNet comme autant de sources aidant \u00e0 la d\u00e9sambigu\u00efsation. Enfin, plus r\u00e9cemment, des ressources telles que Wikip\u00e9dia ou le Wiktionnaire ont \u00e9t\u00e9 explor\u00e9es. Gr\u00e2ce aux nombreux liens entre les diff\u00e9rentes langues de ces ressources, il est possible de cr\u00e9er de nouveaux wordnets (de Melo et Weikum, 2009; Navigli et Ponzetto, 2010 ) ou d'am\u00e9liorer des wordnets existants (Hanoka et Sagot, 2012) .",
                "cite_spans": [
                    {
                        "start": 405,
                        "end": 419,
                        "text": "(Vossen, 1998;",
                        "ref_id": "BIBREF32"
                    },
                    {
                        "start": 420,
                        "end": 440,
                        "text": "Pianta et al., 2002;",
                        "ref_id": "BIBREF25"
                    },
                    {
                        "start": 441,
                        "end": 460,
                        "text": "Tufis et al., 2004)",
                        "ref_id": "BIBREF31"
                    },
                    {
                        "start": 621,
                        "end": 634,
                        "text": "(Dyvik, 2004)",
                        "ref_id": "BIBREF11"
                    },
                    {
                        "start": 743,
                        "end": 764,
                        "text": "(Sagot et Fi\u0161er, 2008",
                        "ref_id": "BIBREF30"
                    },
                    {
                        "start": 1114,
                        "end": 1135,
                        "text": "Melo et Weikum, 2009;",
                        "ref_id": "BIBREF10"
                    },
                    {
                        "start": 1136,
                        "end": 1161,
                        "text": "Navigli et Ponzetto, 2010",
                        "ref_id": "BIBREF24"
                    },
                    {
                        "start": 1202,
                        "end": 1225,
                        "text": "(Hanoka et Sagot, 2012)",
                        "ref_id": "BIBREF17"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Concernant le fran\u00e7ais, l'EuroWordNet (Vossen, 1998) est la premi\u00e8re traduction fran\u00e7aise de WordNet. C'est une ressource d'une couverture limit\u00e9e qui demande des am\u00e9liorations significatives avant de pouvoir \u00eatre utilis\u00e9e (Jacquin et al., 2007) , et qui n'est ni libre ni librement accessible. WOLF est une seconde traduction initialement construite \u00e0 l'aide de corpus parall\u00e8les (Sagot et Fi\u0161er, 2008) et \u00e9tendue depuis avec diff\u00e9rentes techniques (Apidianaki et . WOLF est distribu\u00e9 sous une licence libre compatible avec la LGPL et c'est aujourd'hui le WordNet fran\u00e7ais standard. Enfin, JAWS (Mouton et de Chalendar, 2010) est une traduction des noms de WordNet d\u00e9velopp\u00e9e \u00e0 l'aide de dictionnaires bilingues et d'un mod\u00e8le de langue syntaxique.",
                "cite_spans": [
                    {
                        "start": 38,
                        "end": 52,
                        "text": "(Vossen, 1998)",
                        "ref_id": "BIBREF32"
                    },
                    {
                        "start": 223,
                        "end": 245,
                        "text": "(Jacquin et al., 2007)",
                        "ref_id": "BIBREF19"
                    },
                    {
                        "start": 381,
                        "end": 403,
                        "text": "(Sagot et Fi\u0161er, 2008)",
                        "ref_id": "BIBREF30"
                    },
                    {
                        "start": 596,
                        "end": 626,
                        "text": "(Mouton et de Chalendar, 2010)",
                        "ref_id": "BIBREF23"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Nos travaux \u00e9tendent et am\u00e9liorent les techniques utilis\u00e9es dans JAWS et l'\u00e9valuent \u00e0 l'aide d'une adjudication de deux annotateurs. Le r\u00e9sultat de ce travail est WoNeF 1 . Il se d\u00e9cline en trois versions pour r\u00e9pondre \u00e0 diff\u00e9rents besoins. Le WoNeF principal a un F-score de 70.9%, une autre version a une pr\u00e9cision de 93.3%, et une derni\u00e8re contient 109 447 paires (litt\u00e9ral, synset). L'approche de JAWS consiste \u00e0 combiner des s\u00e9lecteurs vari\u00e9s permettant de choisir les traductions adapt\u00e9es \u00e0 chaque synset (section 2). Les contributions principales de cet article sont l'am\u00e9lioration de JAWS et sa compl\u00e9tion en ajoutant les verbes et les adjectifs (section 3) et son \u00e9valuation (sections 4 et 5). Cette \u00e9valuation se fait \u00e0 travers une adjudication elle-m\u00eame valid\u00e9e par la mesure de l'accord inter-annotateur, ce qui montre la validit\u00e9 de l'approche par extension pour traduire WordNet.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "1. Ce travail a \u00e9t\u00e9 en partie financ\u00e9 par le projet ANR ASFALDA ANR-12-CORD-0023.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "2.1 Processus de traduction (Mouton et de Chalendar, 2010) ont con\u00e7u JAWS comme un algorithme faiblement supervis\u00e9 qui ne demande aucune donn\u00e9e annot\u00e9e manuellement. Pour traduire un wordnet source, JAWS s'appuie sur un dictionnaire bilingue et un mod\u00e8le de langue syntaxique pour le langage cible.",
                "cite_spans": [
                    {
                        "start": 28,
                        "end": 58,
                        "text": "(Mouton et de Chalendar, 2010)",
                        "ref_id": "BIBREF23"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "JAWS",
                "sec_num": "2"
            },
            {
                "text": "Le dictionnaire bilingue est une concat\u00e9nation du dictionnaire bilingue SCI-FRAN-EurADic 2 et des liens entre les Wiktionnaires fran\u00e7ais et anglais 3 . Le mod\u00e8le de langue syntaxique a \u00e9t\u00e9 entra\u00een\u00e9 sur un grand corpus extrait du web (Grefenstette, 2007) . Le corpus a \u00e9t\u00e9 analys\u00e9 par LIMA (Besan\u00e7on et al., 2010) , une cha\u00eene d'analyse linguistique ici utilis\u00e9e comme un analyseur syntaxique \u00e0 base de r\u00e8gles produisant des d\u00e9pendances syntaxiques fines. Pour une relation donn\u00e9e r et un mot x, le mod\u00e8le de langue indique quels sont les 100 premiers mots co-occurrant le plus fr\u00e9quemment avec x dans la relation r. Avec le mot avion et la relation de compl\u00e9ment du nom, le mot billet modifie le plus avion : billet d'avion est fr\u00e9quent dans le corpus. Le mod\u00e8le de langue ici pr\u00e9sent\u00e9 peut-\u00eatre visualis\u00e9 sur http://www.kalisteo. fr/demo/semanticmap/index.php.",
                "cite_spans": [
                    {
                        "start": 233,
                        "end": 253,
                        "text": "(Grefenstette, 2007)",
                        "ref_id": "BIBREF15"
                    },
                    {
                        "start": 289,
                        "end": 312,
                        "text": "(Besan\u00e7on et al., 2010)",
                        "ref_id": "BIBREF5"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "JAWS",
                "sec_num": "2"
            },
            {
                "text": "Gr\u00e2ce aux dictionnaires, JAWS n'a pas besoin de s\u00e9lectionner les litt\u00e9raux de chaque synset parmi l'ensemble du vocabulaire mais seulement parmi un petit nombre de candidats (9 en moyenne). Le processus de traduction se fait en trois \u00e9tapes :",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "JAWS",
                "sec_num": "2"
            },
            {
                "text": "1. Cr\u00e9er un wordnet vide : la structure de WordNet est pr\u00e9serv\u00e9e, mais les synsets eux-m\u00eames n'ont pas de litt\u00e9raux associ\u00e9s.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "JAWS",
                "sec_num": "2"
            },
            {
                "text": "2. Choisir les traductions les plus faciles parmi les candidats des dictionnaires pour commencer \u00e0 remplir JAWS.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "JAWS",
                "sec_num": "2"
            },
            {
                "text": "3. \u00c9tendre JAWS de mani\u00e8re incr\u00e9mentale en utilisant le mod\u00e8le de langue, les relations entre synsets et le JAWS d\u00e9j\u00e0 existant. Un probl\u00e8me potentiel avec cette approche est que la relation de compl\u00e9ment du nom n'est pas limit\u00e9e \u00e0 la m\u00e9ronymie. Par exemple, le mot m\u00e9moire qui appara\u00eet dans le mod\u00e8le de langue ( Figure 1) M&C ont d\u00e9cid\u00e9 de compl\u00e9ter cette \u00e9valuation limit\u00e9e par une \u00e9valuation manuelle des litt\u00e9raux n'existant pas dans WOLF, mais elle n'a \u00e9t\u00e9 faite que sur 120 paires (litt\u00e9ral, synset). La pr\u00e9cision de JAWS est \u00e9valu\u00e9e \u00e0 67,1% (Mouton, 2011) , ce qui est plus bas que celle de WOLF 0.1.4 et consid\u00e9rablement plus bas que la pr\u00e9cision de WOLF 1.0b 4 . Ce score, m\u00eame bas, est \u00e0 prendre avec pr\u00e9caution \u00e9tant donn\u00e9 la taille de l'\u00e9chantillon de test : l'intervalle de confiance est d'environ 25%. Une autre limite de JAWS est qu'il ne contient qu'une seule et unique ressource qui ne correspond pas \u00e0 tous les besoins. \u00c0 notre connaissance, les traductions automatiques de WordNet actuelles n'existent qu'en une seule version o\u00f9 les auteurs d\u00e9cident eux-m\u00eames quelle m\u00e9trique optimiser. Nous fournissons aussi une telle version, mais ajoutons aussi deux ressources qui peuvent servir des besoins diff\u00e9rents. M\u00eame si notre WoNeF \u00e0 haute pr\u00e9cision est petit, il peut \u00eatre utilis\u00e9 comme une annotation de r\u00e9f\u00e9rence et servir pour entra\u00eener un syst\u00e8me d'apprentissage. Une ressource \u00e0 haute couverture peut servir de base \u00e0 une correction manuelle ou servir pour une intersection \u00e0 d'autres ressources, ce qui est la raison pour laquelle nous en fournissons une aussi.",
                "cite_spans": [
                    {
                        "start": 548,
                        "end": 562,
                        "text": "(Mouton, 2011)",
                        "ref_id": "BIBREF22"
                    }
                ],
                "ref_spans": [
                    {
                        "start": 313,
                        "end": 322,
                        "text": "Figure 1)",
                        "ref_id": null
                    }
                ],
                "eq_spans": [],
                "section": "JAWS",
                "sec_num": "2"
            },
            {
                "text": "Cette section pr\u00e9sente les trois am\u00e9liorations essentielles qui ont \u00e9t\u00e9s apport\u00e9es \u00e0 JAWS. Un changement non d\u00e9taill\u00e9 est celui qui a men\u00e9 \u00e0 une meilleure rapidit\u00e9 d'ex\u00e9cution : JAWS se construit en plusieurs heures contre moins d'une minute pour WoNeF, ce qui a facilit\u00e9 les exp\u00e9rimentations.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "WoNeF : un JAWS nominal am\u00e9lior\u00e9",
                "sec_num": "3"
            },
            {
                "text": "4. Nous remercions Beno\u00eet Sagot pour nous avoir fourni cette version pr\u00e9liminaire de WOLF 1.0.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "WoNeF : un JAWS nominal am\u00e9lior\u00e9",
                "sec_num": "3"
            },
            {
                "text": "Les s\u00e9lecteurs initiaux de JAWS ne sont pas optimaux. Alors que les s\u00e9lecteurs par monos\u00e9mie et par unicit\u00e9 sont conserv\u00e9s, nous avons chang\u00e9 les autres s\u00e9lecteurs. Premi\u00e8rement, le s\u00e9lecteur des transfuges est supprim\u00e9 : sa pr\u00e9cision \u00e9tait tr\u00e8s basse, m\u00eame pour les noms.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lecteurs initiaux",
                "sec_num": "3.1"
            },
            {
                "text": "Deuxi\u00e8mement, un nouveau s\u00e9lecteur consid\u00e8re les traductions candidates provenant de plusieurs mots anglais diff\u00e9rents dans un synset donn\u00e9 : c'est le s\u00e9lecteur par sources multiples. Par exemple, dans le synset line, railway line, rail line (the road consisting of railroad track and roadbed), les litt\u00e9raux fran\u00e7ais ligne de chemin de fer et voie sont des traductions \u00e0 la fois de line et railway line, et sont donc choisis comme traductions.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lecteurs initiaux",
                "sec_num": "3.1"
            },
            {
                "text": "Troisi\u00e8mement, le s\u00e9lecteur de la distance de Levenshtein a \u00e9t\u00e9 am\u00e9lior\u00e9. 28% du vocabulaire anglais est d'origine fran\u00e7aise (Finkenstaedt et al., 1973) , et l'anglicisation a produit des transformations pr\u00e9visibles. Il est possible d'appliquer ces m\u00eames transformations aux litt\u00e9raux candidats fran\u00e7ais, et seulement alors d'appliquer la distance de Levenshtein. Nous commen\u00e7ons par supprimer les accents, puis appliquons diff\u00e9rentes op\u00e9rations. Par exemple, l'inversion des lettres \"r\" et \"e\" prend en compte (order/ordre) et (tiger/tigre) 5 . Toutes les transformations ne s'appliquent qu'\u00e0 la fin des mots : -que est transform\u00e9 en -k ou -c (marque devient mark), -t\u00e9 vers -ty (extremit\u00e9 devient extremity), etc. Les faux-amis ne sont toujours pas explicitement pris en compte.",
                "cite_spans": [
                    {
                        "start": 125,
                        "end": 152,
                        "text": "(Finkenstaedt et al., 1973)",
                        "ref_id": "BIBREF14"
                    },
                    {
                        "start": 542,
                        "end": 543,
                        "text": "5",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lecteurs initiaux",
                "sec_num": "3.1"
            },
            {
                "text": "Dans JAWS, chaque litt\u00e9ral anglais ne peut avoir qu'une traduction fran\u00e7aise correspondante. La traduction choisie est celle qui a le meilleur score, ind\u00e9pendamment des scores des traductions moins bien not\u00e9es. Cela a pour effet de rejeter des candidats valides et d'accepter des candidats erron\u00e9s. Par exemple, JAWS n'inclut pas particulier au synset (a human being) \"there was too much for one person to do\" parce que personne est d\u00e9j\u00e0 inclus avec un score sup\u00e9rieur.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Apprentissage de seuils",
                "sec_num": "3.2"
            },
            {
                "text": "Dans WoNeF, nous avons donc appris un seuil pour chaque partie du discours et s\u00e9lecteur. Nous avons d'abord g\u00e9n\u00e9r\u00e9 les scores pour toutes les paires (litt\u00e9ral, synset) candidates, puis tri\u00e9 ces paires par score. Les 12 399 paires pr\u00e9sentes dans l'\u00e9valuation manuelle associ\u00e9e \u00e0 WOLF 1.0b (notre ensemble d'apprentissage) ont \u00e9t\u00e9 jug\u00e9es correctes tandis que les paires n'y \u00e9tant pas ont \u00e9t\u00e9 jug\u00e9es erron\u00e9es. Nous avons ensuite calcul\u00e9 les seuils maximisant la pr\u00e9cision et le F-score. Le seuil qui maximise le F-score est utilis\u00e9 dans les ressources \u00e0 haut F-score et \u00e0 haute couverture, tandis que le seuil maximisant la pr\u00e9cision est utilis\u00e9 dans la ressource \u00e0 haute pr\u00e9cision.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Apprentissage de seuils",
                "sec_num": "3.2"
            },
            {
                "text": "Une fois que ces seuils sont d\u00e9finis, les s\u00e9lecteurs choisissent tous les candidats au-dessus du nouveau seuil, ce qui a deux effets positifs :",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Apprentissage de seuils",
                "sec_num": "3.2"
            },
            {
                "text": "-des candidats valides ne sont plus rejet\u00e9s simplement parce qu'un meilleur candidat est aussi s\u00e9lectionn\u00e9, ce qui am\u00e9liore \u00e0 la fois le rappel et la couverture. -les candidats invalides qui \u00e9taient jusque-l\u00e0 accept\u00e9s sont maintenant rejet\u00e9s gr\u00e2ce au seuil plus strict : la pr\u00e9cision s'en retrouve augment\u00e9e.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Apprentissage de seuils",
                "sec_num": "3.2"
            },
            {
                "text": "5. La distance de Damerau-Levenshtein qui prend en compte les inversions n'importe-o\u00f9 dans un mot (Damerau, 1964) a donn\u00e9 de moins bons r\u00e9sultats.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Apprentissage de seuils",
                "sec_num": "3.2"
            },
            {
                "text": "Apr\u00e8s l'application des diff\u00e9rents s\u00e9lecteurs, notre WordNet est large mais contient des synsets bruit\u00e9s. Comme toutes les traductions automatiques de WordNet, WoNeF doit alors \u00eatre nettoy\u00e9 . Dans WoNeF, le bruit provient de diff\u00e9rents facteurs :",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Vote",
                "sec_num": "3.3"
            },
            {
                "text": "-les s\u00e9lecteurs essaient d'inf\u00e9rer des informations s\u00e9mantiques \u00e0 partir d'une analyse syntaxique sans prendre en compte toute la complexit\u00e9 de l'interface syntaxe-s\u00e9mantique, -l'analyseur syntaxique produit lui-m\u00eame des r\u00e9sultats bruit\u00e9s, -le mod\u00e8le de langue syntaxique est produit \u00e0 partir d'un corpus extrait du web lui-m\u00eame bruit\u00e9 (texte mal \u00e9crit, contenu non textuel, phrases non fran\u00e7aises) et n'est pas une \u00ab distribution id\u00e9ale \u00bb (Copestake et Herbelot, 2012) , -les traductions d\u00e9j\u00e0 choisies sont consid\u00e9r\u00e9es comme valides dans les \u00e9tapes suivantes alors que ce n'est pas toujours le cas. , 2008) ), les termes m\u00e9dicaux, les entit\u00e9s nomm\u00e9es (en utilisant Wikipedia) et ainsi de suite. Un autre exemple est celui des adjectifs de jugement : il n'y a pas de bonne traduction de weird en fran\u00e7ais. M\u00eame si la plupart des dictionnaires fournissent bizarre comme traduction, on ne retrouve pas dans bizarre l'aspect stupide du mot weird : les deux adjectifs ne sont pas substituables dans tous les contextes, ce qui est un probl\u00e8me si l'on consid\u00e8re que le sens d'un synset doit \u00eatre conserv\u00e9 par la traduction.",
                "cite_spans": [
                    {
                        "start": 440,
                        "end": 469,
                        "text": "(Copestake et Herbelot, 2012)",
                        "ref_id": "BIBREF7"
                    }
                ],
                "ref_spans": [
                    {
                        "start": 600,
                        "end": 607,
                        "text": ", 2008)",
                        "ref_id": null
                    }
                ],
                "eq_spans": [],
                "section": "Vote",
                "sec_num": "3.3"
            },
            {
                "text": "Malgr\u00e9 les difficult\u00e9s mentionn\u00e9es ci-dessus, l'annotation r\u00e9sultante a \u00e9t\u00e9 valid\u00e9e par la mesure de l'accord inter-annotateurs, qui montre que l'approche par extension pour la cr\u00e9ation de nouveaux wordnets est valide et peut produire des ressources utiles. Deux annotateurs humains, auteurs de cet article, respectivement linguiste informaticien et informaticien linguiste, ont annot\u00e9 de fa\u00e7on ind\u00e9pendante les m\u00eames synsets choisis au hasard pour chaque partie du discours. Ils ont utilis\u00e9 WordNet pour examiner les synsets voisins, le dictionnaire Merriam-Webster, le TLFi (Pierrel, 2003) et des moteurs de recherche pour attester l'utilisation des divers sens des mots consid\u00e9r\u00e9s. Apr\u00e8s adjudication faite par ces deux annotateurs en confrontant leurs opinions en cas de d\u00e9saccord, l'annotation de r\u00e9f\u00e9rence a \u00e9t\u00e9 form\u00e9e. (Powers, 2012) , toutes les tables d'\u00e9valuation existantes consid\u00e8rent ces scores comme \u00e9tant suffisamment \u00e9lev\u00e9s pour d\u00e9crire cet accord inter-annotateurs comme \u00ab bon \u00bb (Gwet, 2001) , ce qui nous permet de dire que notre annotation de r\u00e9f\u00e9rence est de bonne qualit\u00e9. L'approche par extension pour la traduction de WordNet est elle aussi valid\u00e9e.",
                "cite_spans": [
                    {
                        "start": 576,
                        "end": 591,
                        "text": "(Pierrel, 2003)",
                        "ref_id": "BIBREF26"
                    },
                    {
                        "start": 826,
                        "end": 840,
                        "text": "(Powers, 2012)",
                        "ref_id": "BIBREF27"
                    },
                    {
                        "start": 996,
                        "end": 1008,
                        "text": "(Gwet, 2001)",
                        "ref_id": "BIBREF16"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Accord inter-annotateurs",
                "sec_num": "4.2"
            },
            {
                "text": "Nous pr\u00e9sentons dans cette section les r\u00e9sultats de WoNeF. Nous commen\u00e7ons par d\u00e9crire les r\u00e9sultats apr\u00e8s l'application de l'\u00e9tape des s\u00e9lecteurs initiaux seulement puis ceux de la ressource compl\u00e8te. Notre annotation de r\u00e9f\u00e9rence est d\u00e9coup\u00e9e en deux parties : 10% des litt\u00e9raux forment l'ensemble de d\u00e9veloppement utilis\u00e9 pour choisir les s\u00e9lecteurs s'appliquant aux diff\u00e9rentes versions de WoNeF, tandis que les 90% restant forment l'ensemble de test servant \u00e0 l'\u00e9valuation. Pr\u00e9cision et rappel sont calcul\u00e9s sur l'intersection des synsets pr\u00e9sents dans WoNeF et l'annotation de r\u00e9f\u00e9rence consid\u00e9r\u00e9e, que ce soit l'ensemble de test de notre propre adjudication (sections 5.1 \u00e0 5.3) ou WOLF (section 5.4). Par exemple, la pr\u00e9cision est la fraction des paires (litt\u00e9ral, synset) correctes au sein de l'intersection en question. ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9sultats",
                "sec_num": "5"
            },
            {
                "text": "Nous nous int\u00e9ressons maintenant aux r\u00e9sultats globaux (Table 3) . Ils comprennent l'application des s\u00e9lecteurs initiaux et des s\u00e9lecteurs syntaxiques. Le mode de haute pr\u00e9cision applique \u00e9galement un vote (section 3.3). Comme pour la table pr\u00e9c\u00e9dente, la couverture C indique le nombre de paires (litt\u00e9ral, synset). Dans WordNet, les mots sont majoritairement monos\u00e9miques, mais c'est une petite minorit\u00e9 de mots polys\u00e9miques qui est la plus repr\u00e9sent\u00e9e dans les textes. C'est justement sur cette minorit\u00e9 que nous souhaitons produire une ressource de qualit\u00e9. Pour l'\u00e9valuer, nous utilisons la liste des synsets BCS (Basic Concept Set) fournie par le projet BalkaNet (Tufis et al., 2004) . Cette liste contient les 8 516 synsets lexicalis\u00e9s dans six traductions diff\u00e9rentes de WordNet, et repr\u00e9sente les synsets les plus fr\u00e9quents et ceux qui comportent le plus de mots polys\u00e9miques. Les r\u00e9sultats montrent le nombre de synsets BCS pour les ressources \u00e0 haut F-score et haute couverture. Alors que les ressources \u00e0 haut F-score et \u00e0 haute couverture perdent en pr\u00e9cision pour les synsets BCS, ce n'est pas le cas pour la ressource \u00e0 haute pr\u00e9cision. En effet, le m\u00e9canisme de vote rend la ressource haute-pr\u00e9cision tr\u00e8s robuste, et ce m\u00eame pour les synsets BCS. La table 4 montre les r\u00e9sultats d\u00e9taill\u00e9s pour chaque partie du discours. Concernant les noms, le mode de haute pr\u00e9cision utilise deux s\u00e9lecteurs, tous deux fond\u00e9s sur la relation syntaxique de compl\u00e9ment du nom : le s\u00e9lecteur par m\u00e9ronymie d\u00e9crit \u00e0 la section 2.1, et le s\u00e9lecteur par hyponymie. La ressource de haute pr\u00e9cision pour les noms est notre meilleure ressource. La version avec le F-score optimis\u00e9 a un F-score de 72,4%, ce qui garantit que peu de paires (litt\u00e9ral, synset) sont absentes tout en ayant une pr\u00e9cision l\u00e9g\u00e8rement sup\u00e9rieure \u00e0 celle de JAWS.",
                "cite_spans": [
                    {
                        "start": 669,
                        "end": 689,
                        "text": "(Tufis et al., 2004)",
                        "ref_id": "BIBREF31"
                    }
                ],
                "ref_spans": [
                    {
                        "start": 55,
                        "end": 64,
                        "text": "(Table 3)",
                        "ref_id": "TABREF7"
                    }
                ],
                "eq_spans": [],
                "section": "R\u00e9sultats globaux",
                "sec_num": "5.2"
            },
            {
                "text": "Les r\u00e9sultats des verbes sont moins \u00e9lev\u00e9s. L'explication principale est que les verbes sont en moyenne plus polys\u00e9miques dans WordNet et nos dictionnaires que les autres parties du discours : les synsets verbaux ont deux fois plus de candidats que les noms et les adjectifs (Table 1) . Cela montre l'importance du dictionnaire pour limiter le nombre initial de litt\u00e9raux parmi lesquels les algorithmes doivent choisir.",
                "cite_spans": [],
                "ref_spans": [
                    {
                        "start": 275,
                        "end": 284,
                        "text": "(Table 1)",
                        "ref_id": null
                    }
                ],
                "eq_spans": [],
                "section": "R\u00e9sultats par partie du discours",
                "sec_num": "5.3"
            },
            {
                "text": "Le s\u00e9lecteur par synonymie est le seul s\u00e9lecteur syntaxique appliqu\u00e9 aux verbes. Il utilise les relations syntaxiques de second ordre pour trois types de d\u00e9pendances syntaxiques verbales : si deux verbes partagent les m\u00eames objets, ils sont susceptibles d'\u00eatre synonymes ou quasisynonymes. C'est le cas des verbes d\u00e9vorer et manger qui acceptent tous deux l'objet pain. Les autres s\u00e9lecteurs syntaxiques n'ont pas \u00e9t\u00e9 retenus pour les verbes en raison de leurs faibles r\u00e9sultats. En effet, alors que la d\u00e9tection de l'hyponymie en utilisant seulement l'inclusion de contextes a \u00e9t\u00e9 efficace sur les noms, elle a les performances d'un classifieur al\u00e9atoire pour les verbes. Cela met en \u00e9vidence la complexit\u00e9 de la polys\u00e9mie des verbes.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9sultats par partie du discours",
                "sec_num": "5.3"
            },
            {
                "text": "Pour les adjectifs, comme pour les verbes, seul le s\u00e9lecteur de synonymie a \u00e9t\u00e9 appliqu\u00e9. Pour les ressources \u00e0 haut F-score et haute couverture, ce sont les m\u00eames s\u00e9lecteurs (initiaux et syntaxiques) qui sont appliqu\u00e9s, ce qui explique que les r\u00e9sultats sont les m\u00eames. Alors que l'accord inter-annotateurs \u00e9tait plus bas sur les adjectifs que sur les verbes, les r\u00e9sultats eux sont bien meilleurs pour les adjectifs. Cela s'explique principalement par le nombre de candidats parmi lesquels s\u00e9lectionner : il y en a deux fois moins pour les adjectifs. Cela met en avant l'importance des dictionnaires.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9sultats par partie du discours",
                "sec_num": "5.3"
            },
            {
                "text": "WOLF 0.1.4 WOLF 1.0b pP pR Ajouts pP pR Ajouts Noms 50.7 40.0 9 646 73.6 46.4 6 842 Verbes 33.0 23.9 1 064 41.7 17.5 1 084 Adjectifs 41.7 46.1 3 009 64.4 53.8 3 172 Adverbes 56.2 44.4 3 061 76.5 41.9 2 835 TABLE 5 -\u00c9valuation de la ressource \u00e0 haute pr\u00e9cision en consid\u00e9rant WOLF 0.1.4 et 1.0b comme des r\u00e9f\u00e9rences. Il n'est pas possible de comparer WOLF et WoNeF en utilisant notre annotation de r\u00e9f\u00e9rence : tout mot correct de WOLF non pr\u00e9sent dans les dictionnaires p\u00e9nalisera WOLF injustement. Nous avons d\u00e9cid\u00e9 d'\u00e9valuer WoNeF en consid\u00e9rant WOLF 0.1.4 et WOLF 1.0b comme des r\u00e9f\u00e9rences (Table 5) . Les mesures ne sont pas de v\u00e9ritables pr\u00e9cision et rappel puisque WOLF lui-m\u00eame n'est pas enti\u00e8rement valid\u00e9. Le dernier article pF donnant des chiffres globaux : iindique un nombre de paires autour de 77 000 pour une pr\u00e9cision de 86% 6 . Nous appelons donc pseudo-pr\u00e9cision (pP) le pourcentage des \u00e9l\u00e9ments pr\u00e9sents dans WoNeF qui sont \u00e9galement pr\u00e9sents dans WOLF, et pseudo-rappel le pourcentage d'\u00e9l\u00e9ments de WOLF qui sont pr\u00e9sents dans WoNeF. Ces chiffres montrent que m\u00eame si WoNeF est encore plus petit que WOLF, il s'agit d'une ressource compl\u00e9mentaire, surtout quand on se souvient que le WoNeF utilis\u00e9 pour cette comparaison est celui pr\u00e9sentant une pr\u00e9cision \u00e9lev\u00e9e, avec une pr\u00e9cision globale de 93,3%. Il convient \u00e9galement de noter que la comparaison de la diff\u00e9rence entre WOLF 0.1.4 et WOLF 1.0b est instructive puisque elle montre l'\u00e9tendue des am\u00e9liorations apport\u00e9es \u00e0 WOLF.",
                "cite_spans": [],
                "ref_spans": [
                    {
                        "start": 592,
                        "end": 601,
                        "text": "(Table 5)",
                        "ref_id": null
                    }
                ],
                "eq_spans": [],
                "section": "\u00c9valuation par rapport \u00e0 WOLF",
                "sec_num": "5.4"
            },
            {
                "text": "La colonne \u00ab Ajouts \u00bb donne le nombre de traductions qui sont pr\u00e9sentes dans WoNeF mais pas dans WOLF. Pour les noms, les verbes et les adjectifs, cela signifie que nous pouvons contribuer 11 098 nouvelles paires (litt\u00e9ral, synset) de haute pr\u00e9cision en cas de fusion de WOLF et WoNeF, soit 94% des paires du WoNeF haute pr\u00e9cision ce qui montre la compl\u00e9mentarit\u00e9 des approches : ce sont des litt\u00e9raux diff\u00e9rents qui sont ici choisis. Cela produira un wordnet fran\u00e7ais 13% plus grand que WOLF avec une pr\u00e9cision am\u00e9lior\u00e9e. Une fusion avec la ressource de F-score \u00e9lev\u00e9e aurait une pr\u00e9cision l\u00e9g\u00e8rement inf\u00e9rieure, mais fournirait 57 032 nouvelles paires (litt\u00e9ral, synset) par rapport \u00e0 WOLF 1.0b, r\u00e9sultant en une fusion contenant 73 712 synsets non vides et 159 705 paires (litt\u00e9ral, synset), augmentant la couverture de WOLF de 56% et celle de WoNeF de 83%.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "\u00c9valuation par rapport \u00e0 WOLF",
                "sec_num": "5.4"
            },
            {
                "text": "6. Les r\u00e9sultats d\u00e9taill\u00e9s pour WOLF 1.0b ne sont pas actuellement disponibles.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "\u00c9valuation par rapport \u00e0 WOLF",
                "sec_num": "5.4"
            },
            {
                "text": ". http://catalog.elra.info/product_info.php?products_id=666 3. http://www.wiktionary.org/",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            },
            {
                "text": "c ATALA",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            }
        ],
        "back_matter": [],
        "bib_entries": {
            "BIBREF0": {
                "ref_id": "b0",
                "title": "nous avons montr\u00e9 que l'utilisation d'un mod\u00e8le de langue syntaxique pour identifier des relations lexicales entre des lex\u00e8mes est possible dans un environnement contraint et conduit \u00e0 des r\u00e9sultats ayant une pr\u00e9cision au niveau de l'\u00e9tat de l'art pour la t\u00e2che de traduction de WordNet",
                "authors": [
                    {
                        "first": "",
                        "middle": [],
                        "last": "Dans",
                        "suffix": ""
                    }
                ],
                "year": null,
                "venue": "Nous offrons trois ressources diff\u00e9rentes",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "Dans ce travail, nous avons montr\u00e9 que l'utilisation d'un mod\u00e8le de langue syntaxique pour identifier des relations lexicales entre des lex\u00e8mes est possible dans un environnement contraint et conduit \u00e0 des r\u00e9sultats ayant une pr\u00e9cision au niveau de l'\u00e9tat de l'art pour la t\u00e2che de traduction de WordNet. Nous offrons trois ressources diff\u00e9rentes, chacune d'elles ayant un objectif diff\u00e9rent.",
                "links": null
            },
            "BIBREF1": {
                "ref_id": "b1",
                "title": "nous fournissons une annotation de r\u00e9f\u00e9rence valid\u00e9e de haute qualit\u00e9 qui nous a permis de montrer \u00e0 la fois la validit\u00e9 de l'approche de traduction de WordNet par extension et la validit\u00e9 de notre approche sp\u00e9cifique",
                "authors": [
                    {
                        "first": "",
                        "middle": [],
                        "last": "Enfin",
                        "suffix": ""
                    }
                ],
                "year": null,
                "venue": "Cette annotation de r\u00e9f\u00e9rence peut \u00e9galement \u00eatre utilis\u00e9e pour \u00e9valuer et d\u00e9velopper d'autres traductions fran\u00e7aises de WordNet. WoNeF est disponible librement au format XML DEBVisDic 7 sur",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "Enfin, nous fournissons une annotation de r\u00e9f\u00e9rence valid\u00e9e de haute qualit\u00e9 qui nous a permis de montrer \u00e0 la fois la validit\u00e9 de l'approche de traduction de WordNet par extension et la validit\u00e9 de notre approche sp\u00e9cifique. Cette annotation de r\u00e9f\u00e9rence peut \u00e9galement \u00eatre utilis\u00e9e pour \u00e9valuer et d\u00e9velopper d'autres traductions fran\u00e7aises de WordNet. WoNeF est disponible librement au format XML DEBVisDic 7 sur http://wonef.fr/ sous la licence CC-BY-SA.",
                "links": null
            },
            "BIBREF2": {
                "ref_id": "b2",
                "title": "pour lesquels de nouveaux s\u00e9lecteurs efficaces peuvent \u00eatre envisag\u00e9s pour am\u00e9liorer la couverture. Par exemple, le s\u00e9lecteur de similarit\u00e9 peut \u00eatre \u00e9tendu \u00e0 la relation de quasi-synonymit\u00e9 que partagent certains adjectifs dans WordNet",
                "authors": [],
                "year": null,
                "venue": "Les travaux futurs sur WoNeF mettront l'accent sur les verbes, les adjectifs et les adverbes",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "Les travaux futurs sur WoNeF mettront l'accent sur les verbes, les adjectifs et les adverbes, pour lesquels de nouveaux s\u00e9lecteurs efficaces peuvent \u00eatre envisag\u00e9s pour am\u00e9liorer la couverture. Par exemple, le s\u00e9lecteur de similarit\u00e9 peut \u00eatre \u00e9tendu \u00e0 la relation de quasi-synonymit\u00e9 que partagent certains adjectifs dans WordNet. En effet, la synonymie entre les adjectifs est limit\u00e9e par rapport \u00e0 la quasi-synonymie : alors que fast est le seul mot dans son synset, c'est le quasi- synonyme de 20 synsets. Puisque les techniques de s\u00e9mantique distributionnelle ont plut\u00f4t tendance \u00e0 identifier des quasi-synonymes plut\u00f4t que des synonymes, utiliser cette relation de WordNet pour identifier de nouveaux adjectifs fait partie de nos objectifs.",
                "links": null
            },
            "BIBREF3": {
                "ref_id": "b3",
                "title": "2012) plus performant. Cela sera coupl\u00e9 avec la collecte d'un corpus issu du Web plus r\u00e9cent et plus grand analys\u00e9 avec une version r\u00e9cente de notre analyseur linguistique LIMA. Cela nous permettra de mesurer l",
                "authors": [
                    {
                        "first": "Le",
                        "middle": [],
                        "last": "",
                        "suffix": ""
                    }
                ],
                "year": null,
                "venue": "Nous aimerions aussi nous orienter vers un mod\u00e8le de langue continu",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "Une autre source importante d'am\u00e9lioration sera l'enrichissement de notre mod\u00e8le de langue syntaxique qui pourra prendre en compte les verbes pronominaux et les expressions multi-mots. Nous aimerions aussi nous orienter vers un mod\u00e8le de langue continu (Le et al., 2012) plus performant. Cela sera coupl\u00e9 avec la collecte d'un corpus issu du Web plus r\u00e9cent et plus grand analys\u00e9 avec une version r\u00e9cente de notre analyseur linguistique LIMA. Cela nous permettra de mesurer l'impact de la qualit\u00e9 du mod\u00e8le de langue sur la traduction de WordNet.",
                "links": null
            },
            "BIBREF4": {
                "ref_id": "b4",
                "title": "Applying cross-lingual WSD to wordnet development",
                "authors": [],
                "year": 2012,
                "venue": "Le wordnet fran\u00e7ais WOLF a \u00e9t\u00e9 construit en utilisant plusieurs techniques. La fusion de WOLF et de WoNeF permettra de bient\u00f4t am\u00e9liorer \u00e0 nouveau le statut de la traduction fran\u00e7aise de WordNet : nous travaillons avec les auteurs de WOLF afin de fusionner WOLF et WoNeF. R\u00e9f\u00e9rences APIDIANAKI, M. et SAGOT, B",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "Le wordnet fran\u00e7ais WOLF a \u00e9t\u00e9 construit en utilisant plusieurs techniques. La fusion de WOLF et de WoNeF permettra de bient\u00f4t am\u00e9liorer \u00e0 nouveau le statut de la traduction fran\u00e7aise de WordNet : nous travaillons avec les auteurs de WOLF afin de fusionner WOLF et WoNeF. R\u00e9f\u00e9rences APIDIANAKI, M. et SAGOT, B. (2012). Applying cross-lingual WSD to wordnet development. In LREC 2012.",
                "links": null
            },
            "BIBREF5": {
                "ref_id": "b5",
                "title": "LIMA : A multilingual framework for linguistic analysis and linguistic resources development and evaluation",
                "authors": [
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Besan\u00e7on",
                        "suffix": ""
                    },
                    {
                        "first": "Chalendar",
                        "middle": [],
                        "last": "De",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Ferret",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Gara",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Laib",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Mesnard",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Semmar",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [],
                        "last": "",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "LREC",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BESAN\u00c7ON, R., de CHALENDAR, G., FERRET, O., GARA, F., LAIB, M., MESNARD, O. et SEMMAR, N. (2010). LIMA : A multilingual framework for linguistic analysis and linguistic resources development and evaluation. In LREC 2010.",
                "links": null
            },
            "BIBREF6": {
                "ref_id": "b6",
                "title": "Adding dense, weighted connections to wordnet",
                "authors": [
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Boyd-Graber",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Fellbaum",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Osherson",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Schapire",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "GWC",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BOYD-GRABER, J., FELLBAUM, C., OSHERSON, D. et SCHAPIRE, R. (2006). Adding dense, weighted connections to wordnet. In GWC 2006.",
                "links": null
            },
            "BIBREF7": {
                "ref_id": "b7",
                "title": "Lexicalised compositionality",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Copestake",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Herbelot",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "COPESTAKE, A. et HERBELOT, A. (2012). Lexicalised compositionality. Unpublished draft.",
                "links": null
            },
            "BIBREF8": {
                "ref_id": "b8",
                "title": "A technique for computer detection and correction of spelling errors",
                "authors": [
                    {
                        "first": "F",
                        "middle": [
                            "J"
                        ],
                        "last": "Damerau",
                        "suffix": ""
                    }
                ],
                "year": 1964,
                "venue": "Commun. ACM",
                "volume": "7",
                "issue": "3",
                "pages": "171--176",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DAMERAU, F. J. (1964). A technique for computer detection and correction of spelling errors. Commun. ACM, 7(3):171-176.",
                "links": null
            },
            "BIBREF9": {
                "ref_id": "b9",
                "title": "On the Utility of Automatically Generated Wordnets",
                "authors": [
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Melo",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Weikum",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "GWC",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "http://nlp.fi.muni.cz/trac/deb2/wiki/WordNetFormat de MELO, G. et WEIKUM, G. (2008). On the Utility of Automatically Generated Wordnets. In GWC 2008.",
                "links": null
            },
            "BIBREF10": {
                "ref_id": "b10",
                "title": "Towards a universal wordnet by learning from combined evidence",
                "authors": [
                    {
                        "first": "",
                        "middle": [],
                        "last": "De",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Melo",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Weikum",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "CIKM 2009",
                "volume": "",
                "issue": "",
                "pages": "513--522",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DE MELO, G. et WEIKUM, G. (2009). Towards a universal wordnet by learning from combined evidence. In CIKM 2009, pages 513-522. ACM.",
                "links": null
            },
            "BIBREF11": {
                "ref_id": "b11",
                "title": "Translations as semantic mirrors : from parallel corpus to wordnet. Language and computers",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Dyvik",
                        "suffix": ""
                    }
                ],
                "year": 2004,
                "venue": "",
                "volume": "49",
                "issue": "",
                "pages": "311--326",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "DYVIK, H. (2004). Translations as semantic mirrors : from parallel corpus to wordnet. Language and computers, 49(1):311-326.",
                "links": null
            },
            "BIBREF12": {
                "ref_id": "b12",
                "title": "WordNet : an Electronic Lexical Database",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Fellbaum",
                        "suffix": ""
                    },
                    {
                        "first": "",
                        "middle": [],
                        "last": "\u00c9diteur",
                        "suffix": ""
                    }
                ],
                "year": 1998,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FELLBAUM, C., \u00e9diteur (1998). WordNet : an Electronic Lexical Database. The MIT Press.",
                "links": null
            },
            "BIBREF13": {
                "ref_id": "b13",
                "title": "Connecting the universal to the specific : Towards the global grid",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Fellbaum",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Vossen",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "1--16",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FELLBAUM, C. et VOSSEN, P. (2007). Connecting the universal to the specific : Towards the global grid. Intercultural Collaboration, pages 1-16.",
                "links": null
            },
            "BIBREF14": {
                "ref_id": "b14",
                "title": "Ordered profusion : Studies in dictionaries and the English lexicon",
                "authors": [
                    {
                        "first": "T",
                        "middle": [],
                        "last": "Finkenstaedt",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Wolff",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Neuhaus",
                        "suffix": ""
                    },
                    {
                        "first": "W",
                        "middle": [],
                        "last": "Herget",
                        "suffix": ""
                    }
                ],
                "year": 1973,
                "venue": "",
                "volume": "13",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FINKENSTAEDT, T., WOLFF, D., NEUHAUS, H. et HERGET, W. (1973). Ordered profusion : Studies in dictionaries and the English lexicon, volume 13. C. Winter.",
                "links": null
            },
            "BIBREF15": {
                "ref_id": "b15",
                "title": "Conquering language : Using NLP on a massive scale to build high dimensional language models from the web",
                "authors": [
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Grefenstette",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "CICLing",
                "volume": "",
                "issue": "",
                "pages": "35--49",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GREFENSTETTE, G. (2007). Conquering language : Using NLP on a massive scale to build high dimensional language models from the web. In CICLing 2007, pages 35-49.",
                "links": null
            },
            "BIBREF16": {
                "ref_id": "b16",
                "title": "Handbook of inter-rater reliability",
                "authors": [
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Gwet",
                        "suffix": ""
                    }
                ],
                "year": 2001,
                "venue": "Advanced Analytics, LLC",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GWET, K. (2001). Handbook of inter-rater reliability. Advanced Analytics, LLC.",
                "links": null
            },
            "BIBREF17": {
                "ref_id": "b17",
                "title": "Wordnet extension made simple : A multilingual lexicon-based approach using wiki resources",
                "authors": [
                    {
                        "first": "V",
                        "middle": [],
                        "last": "Hanoka",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Sagot",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "LREC",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HANOKA, V. et SAGOT, B. (2012). Wordnet extension made simple : A multilingual lexicon-based approach using wiki resources. In LREC 2012.",
                "links": null
            },
            "BIBREF18": {
                "ref_id": "b18",
                "title": "Automatic acquisition of hyponyms from large text corpora",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Hearst",
                        "suffix": ""
                    }
                ],
                "year": 1992,
                "venue": "Proceedings of the 14th conference on Computational linguistics",
                "volume": "2",
                "issue": "",
                "pages": "539--545",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HEARST, M. (1992). Automatic acquisition of hyponyms from large text corpora. In Proceedings of the 14th conference on Computational linguistics -Volume 2, pages 539-545. ACL.",
                "links": null
            },
            "BIBREF19": {
                "ref_id": "b19",
                "title": "French EuroWordNet Lexical Database Improvements",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Jacquin",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Desmontils",
                        "suffix": ""
                    },
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Monceaux",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "CICLing",
                "volume": "4394",
                "issue": "",
                "pages": "12--22",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "JACQUIN, C., DESMONTILS, E. et MONCEAUX, L. (2007). French EuroWordNet Lexical Database Improvements. In CICLing 2007, volume 4394 de LNCS, pages 12-22.",
                "links": null
            },
            "BIBREF20": {
                "ref_id": "b20",
                "title": "Continuous Space Translation Models with Neural Networks",
                "authors": [
                    {
                        "first": "H.-S",
                        "middle": [],
                        "last": "Le",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Allauzen",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Yvon",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "NAACL-HLT 2012",
                "volume": "",
                "issue": "",
                "pages": "39--48",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LE, H.-S., ALLAUZEN, A. et YVON, F. (2012). Continuous Space Translation Models with Neural Networks. In NAACL-HLT 2012, pages 39-48. ACL.",
                "links": null
            },
            "BIBREF21": {
                "ref_id": "b21",
                "title": "Identifying hypernyms in distributional semantic spaces",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Lenci",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Benotto",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "*SEM 2012",
                "volume": "",
                "issue": "",
                "pages": "75--79",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LENCI, A. et BENOTTO, G. (2012). Identifying hypernyms in distributional semantic spaces. In *SEM 2012, pages 75-79. ACL.",
                "links": null
            },
            "BIBREF22": {
                "ref_id": "b22",
                "title": "Ressources et m\u00e9thodes semi-supervis\u00e9es pour l'analyse s\u00e9mantique de texte en fran\u00e7ais",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Mouton",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MOUTON, C. (2011). Ressources et m\u00e9thodes semi-supervis\u00e9es pour l'analyse s\u00e9mantique de texte en fran\u00e7ais. Th\u00e8se de doctorat.",
                "links": null
            },
            "BIBREF23": {
                "ref_id": "b23",
                "title": "JAWS : Just Another WordNet Subset",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Mouton",
                        "suffix": ""
                    },
                    {
                        "first": "Chalendar",
                        "middle": [],
                        "last": "De",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "TALN 2010",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MOUTON, C. et de CHALENDAR, G. (2010). JAWS : Just Another WordNet Subset. In TALN 2010.",
                "links": null
            },
            "BIBREF24": {
                "ref_id": "b24",
                "title": "BabelNet : Building a very large multilingual semantic network",
                "authors": [
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Navigli",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Ponzetto",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "ACL 2010",
                "volume": "",
                "issue": "",
                "pages": "216--225",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "NAVIGLI, R. et PONZETTO, S. (2010). BabelNet : Building a very large multilingual semantic network. In ACL 2010, pages 216-225.",
                "links": null
            },
            "BIBREF25": {
                "ref_id": "b25",
                "title": "MultiWordNet : developing an aligned multilingual database",
                "authors": [
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Pianta",
                        "suffix": ""
                    },
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Bentivogli",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Girardi",
                        "suffix": ""
                    }
                ],
                "year": 2002,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "PIANTA, E., BENTIVOGLI, L. et GIRARDI, C. (2002). MultiWordNet : developing an aligned multilingual database.",
                "links": null
            },
            "BIBREF26": {
                "ref_id": "b26",
                "title": "Un ensemble de ressources de r\u00e9f\u00e9rence pour l'\u00e9tude du fran\u00e7ais : TLFi, Frantext et le logiciel Stella. Revue qu\u00e9b\u00e9coise de linguistique",
                "authors": [
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Pierrel",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "",
                "volume": "32",
                "issue": "",
                "pages": "155--176",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "PIERREL, J. (2003). Un ensemble de ressources de r\u00e9f\u00e9rence pour l'\u00e9tude du fran\u00e7ais : TLFi, Frantext et le logiciel Stella. Revue qu\u00e9b\u00e9coise de linguistique, 32(1):155-176.",
                "links": null
            },
            "BIBREF27": {
                "ref_id": "b27",
                "title": "The Problem with Kappa",
                "authors": [
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Powers",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "EACL 2012",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "POWERS, D. (2012). The Problem with Kappa. In EACL 2012, page 345.",
                "links": null
            },
            "BIBREF28": {
                "ref_id": "b28",
                "title": "Cleaning noisy wordnets",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Sagot",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Fi\u0161er",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "LREC 2012",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SAGOT, B. et FI\u0160ER, D. (2012). Cleaning noisy wordnets. In LREC 2012.",
                "links": null
            },
            "BIBREF29": {
                "ref_id": "b29",
                "title": "Automatic Extension of WOLF",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Sagot",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Fi\u0161er",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "GWC 2012",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SAGOT, B. et FI\u0160ER, D. (2012). Automatic Extension of WOLF. In GWC 2012.",
                "links": null
            },
            "BIBREF30": {
                "ref_id": "b30",
                "title": "Building a free French wordnet from multilingual resources",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Sagot",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Fi\u0161er",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SAGOT, B. et FI\u0160ER, D. (2008). Building a free French wordnet from multilingual resources. In Ontolex 2008.",
                "links": null
            },
            "BIBREF31": {
                "ref_id": "b31",
                "title": "BalkaNet : Aims, methods, results and perspectives. a general overview",
                "authors": [
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Tufis",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Cristea",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Stamou",
                        "suffix": ""
                    }
                ],
                "year": 2004,
                "venue": "Romanian Journal of Information Science and Technology",
                "volume": "7",
                "issue": "1-2",
                "pages": "9--43",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "TUFIS, D., CRISTEA, D. et STAMOU, S. (2004). BalkaNet : Aims, methods, results and perspectives. a general overview. Romanian Journal of Information Science and Technology, 7(1-2):9-43.",
                "links": null
            },
            "BIBREF32": {
                "ref_id": "b32",
                "title": "EuroWordNet : a multilingual database with lexical semantic networks",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Vossen",
                        "suffix": ""
                    }
                ],
                "year": 1998,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "VOSSEN, P. (1998). EuroWordNet : a multilingual database with lexical semantic networks. Kluwer Academic.",
                "links": null
            }
        },
        "ref_entries": {
            "TABREF1": {
                "type_str": "table",
                "text": "Heureusement, m\u00e9moire n'est pas dans les candidats de quill et ne peut pas \u00eatre choisi comme une traduction. Paradoxalement, le mod\u00e8le de langue ne peut pas choisir entre deux mots tr\u00e8s diff\u00e9rents, mais est capable de choisir la traduction correcte d'un mot polys\u00e9mique. Alors que traduire WordNet automatiquement avec un dictionnaire ou un mod\u00e8le de langue syntaxique est impossible, combiner les deux ressources permet de r\u00e9soudre le probl\u00e8me. Pour la synonymie, si deux mots partagent les m\u00eames co-occurents dans une relation syntaxique donn\u00e9e, alors ils peuvent \u00eatre synonymes dans ce contexte. Pour les noms, les relations syntaxiques qui donnent les meilleurs r\u00e9sultats sont les relations de compl\u00e9ment du nom, d'objet du verbe et d'apposition. Concr\u00e8tement, si deux noms qui modifient les m\u00eames noms sont les objets des m\u00eames verbes ou sont appos\u00e9s aux m\u00eames noms, alors il est probable qu'ils soient synonymes et si l'un des deux est d\u00e9j\u00e0 dans un synset, alors on peut y ajouter le second. Par exemple, avant-propos et pr\u00e9face partagent les m\u00eames compl\u00e9ments du noms : livre, \u00e9dition, ouvrage. Le s\u00e9lecteur par synonymie peut ajouter avant-propos une fois que le litt\u00e9ral pr\u00e9face est dans JAWS.(Mouton et de Chalendar, 2010;Mouton, 2011) d\u00e9crivent d'autres s\u00e9lecteurs exploitant notamment les relations d'hyperonymie et d'hyponymie.",
                "num": null,
                "html": null,
                "content": "<table/>"
            },
            "TABREF3": {
                "type_str": "table",
                "text": "Les travaux sur JAWS ont commenc\u00e9 par les noms parce qu'ils repr\u00e9sentent 70% des synsets dans WordNet. Nous avons continu\u00e9 ce travail sur les autres parties du discours qui sont aussi importantes pour examiner le sens d'un texte donn\u00e9 : verbes, adjectifs et adverbes. Les s\u00e9lecteurs g\u00e9n\u00e9riques ont ici \u00e9t\u00e9 modifi\u00e9s, mais il s'agira dans le futur d'impl\u00e9menter des s\u00e9lecteurs prenant en compte les sp\u00e9cificit\u00e9s des diff\u00e9rentes parties du discours dans WordNet.Adjectifs Les adjectifs sont traduits de la m\u00eame mani\u00e8re que les noms : tout d'abord un nombre limit\u00e9 de s\u00e9lecteurs initiaux remplit un WordNet vide, puis les s\u00e9lecteurs syntaxiques compl\u00e8tent cette traduction avec le mod\u00e8le de langue syntaxique. Tous les s\u00e9lecteurs initiaux sont ici choisis, et le s\u00e9lecteur syntaxique choisi est le s\u00e9lecteur par synonymie. Ils ont donn\u00e9 de bons r\u00e9sultats qui sont pr\u00e9sent\u00e9s dans la section 5.3.Adverbes Nous n'avons pas d'annotation de r\u00e9f\u00e9rence pour les adverbes, ce qui explique qu'ils ne sont pas inclus dans WoNeF : nous ne pouvons \u00e9valuer leur pr\u00e9cision. Cependant, la comparaison avec WOLF (section 5.4) montre que les adverbes ont de meilleurs r\u00e9sultats que les autres parties du discours, ce qui laisse penser que c'est une ressource de qualit\u00e9. C'est une ressource aussi tr\u00e8s compl\u00e9mentaire : 87% des adverbes propos\u00e9s ne sont pas dans WOLF. Une fusion entre WoNeF et WOLF aurait trois fois plus d'adverbes que WOLF seul.",
                "num": null,
                "html": null,
                "content": "<table/>"
            },
            "TABREF4": {
                "type_str": "table",
                "text": "Pour chaque partie du discours, 300 synsets ont \u00e9t\u00e9 annot\u00e9s par deux annotateurs locuteurs natifs du fran\u00e7ais. Pour chaque traduction candidate fournie par nos dictionnaires, il fallait d\u00e9cider si oui ou non elle appartenait au synset. Puisque les dictionnaires ne proposent pas de candidats pour tous les synsets et que certains synsets n'ont pas de candidat valable, le nombre r\u00e9el de synsets non vides est inf\u00e9rieur \u00e0 300 (section 4.2).Durant l'annotation manuelle, nous avons rencontr\u00e9 une difficult\u00e9 importante d\u00e9coulant de la tentative de traduire WordNet dans une autre langue. Dans le cas de l'anglais vers le fran\u00e7ais, la plupart des difficult\u00e9s proviennent des verbes et adjectifs figurant dans une collocation. Dans WordNet, ils peuvent \u00eatre regroup\u00e9s d'une mani\u00e8re qui fait sens en anglais, mais qui ne se retrouve pas directement dans une autre langue. Par exemple, l'adjectif pointed est le seul \u00e9l\u00e9ment d'un synset d\u00e9fini comme direct and obvious in meaning or reference ; often unpleasant ; \"a pointed critique\" ; \"a pointed allusion to what was going on\" ; \"another pointed look in their direction\". Ces exemples se traduiraient par trois adjectifs diff\u00e9rents en fran\u00e7ais : une critique dure, une allusion claire et un regard appuy\u00e9. Il n'existe pas de solution satisfaisante lors de la traduction d'un tel synset : le synset r\u00e9sultant contiendra soit trop soit trop peu de traductions. Nous avons d\u00e9cid\u00e9 de ne pas traduire ces synsets dans notre annotation manuelle. Ces probl\u00e8mes de granularit\u00e9 concernent 3% des synsets nominaux, 8% des synsets verbaux et 6% des synsets adjectivaux. Actuellement, WoNeF ne d\u00e9tecte pas de tels synsets.",
                "num": null,
                "html": null,
                "content": "<table><tr><td>4 WoNeF : un JAWS \u00e9valu\u00e9</td></tr><tr><td>4.1 D\u00e9veloppement d'une annotation de r\u00e9f\u00e9rence</td></tr></table>"
            },
            "TABREF6": {
                "type_str": "table",
                "text": "Pour les noms, les verbes et les adjectifs, nous avons calcul\u00e9 l'efficacit\u00e9 de chaque s\u00e9lecteur initial sur notre ensemble de d\u00e9veloppement, et utilis\u00e9 ces donn\u00e9es pour d\u00e9terminer ceux qui doivent \u00eatre inclus dans la version ayant une haute pr\u00e9cision, celle ayant un F-score \u00e9lev\u00e9 et celle pr\u00e9sentant une grande couverture. Les scores ci-dessous sont calcul\u00e9s sur l'ensemble de test, plus grand et plus repr\u00e9sentatif.La table 2 montre les r\u00e9sultats de cette op\u00e9ration. La couverture donne une id\u00e9e de la taille des ressources. En fonction des objectifs de chaque ressource, les s\u00e9lecteurs initiaux choisis seront diff\u00e9rents. Diff\u00e9rents s\u00e9lecteurs peuvent choisir plusieurs fois une m\u00eame traduction, ce qui explique que la somme des couvertures soit sup\u00e9rieure \u00e0 la couverture de la ressource \u00e0 haute couverture. Fait int\u00e9ressant non visible dans la table, le s\u00e9lecteur le moins efficace pour les verbes est la distance de Levenshtein avec une pr\u00e9cision de l'ordre de 25% : les faux amis semblent \u00eatre plus nombreux pour les verbes.",
                "num": null,
                "html": null,
                "content": "<table><tr><td>P</td><td>R</td><td>F1</td><td>C</td></tr><tr><td colspan=\"4\">monos\u00e9mie 71.5 76.6 74.0 54 499</td></tr><tr><td colspan=\"3\">unicit\u00e9 91.7 63.0 75.3</td><td>9 533</td></tr><tr><td colspan=\"4\">sources multiples 64.5 45.0 53.0 27 316</td></tr><tr><td colspan=\"4\">Levenshtein 61.9 29.0 39.3 20 034</td></tr><tr><td colspan=\"4\">haute pr\u00e9cision 93.8 50.1 65.3 13 867</td></tr><tr><td colspan=\"4\">haut F-score 71.1 72.7 71.9 82 730</td></tr><tr><td colspan=\"4\">haute couverture 69.0 69.8 69.4 90 248</td></tr><tr><td colspan=\"4\">TABLE 2 -S\u00e9lecteurs initiaux sur l'ensemble des traductions (noms, verbes et adjectifs). La</td></tr><tr><td colspan=\"4\">couverture C est le nombre total de paires (litt\u00e9ral, synset).</td></tr></table>"
            },
            "TABREF7": {
                "type_str": "table",
                "text": "R\u00e9sultats globaux : tous les synsets et synsets BCS.",
                "num": null,
                "html": null,
                "content": "<table><tr><td/><td colspan=\"2\">Tous synsets</td><td/><td/><td colspan=\"2\">Synsets BCS</td><td/></tr><tr><td>P</td><td>R</td><td>F1</td><td>C</td><td>P</td><td>R</td><td>F1</td><td>C</td></tr><tr><td colspan=\"3\">haute pr\u00e9cision 93.3 51.5 66.4</td><td colspan=\"4\">15 625 90.4 36.5 52.0</td><td>1 877</td></tr><tr><td colspan=\"3\">haut F-score 68.9 73.0 70.9</td><td>88 736</td><td colspan=\"4\">56.5 62.8 59.1 14 405</td></tr><tr><td colspan=\"8\">haute couverture 60.5 74.3 66.7 109 447 44.5 66.9 53.5 23 166</td></tr></table>"
            },
            "TABREF8": {
                "type_str": "table",
                "text": "R\u00e9sultats par partie du discours. JAWS ne contient que des noms : il est compar\u00e9 \u00e0 la ressource nominale \u00e0 haut F-score.",
                "num": null,
                "html": null,
                "content": "<table><tr><td/><td/><td>P</td><td>R</td><td>F1</td><td>C</td></tr><tr><td/><td>noms</td><td colspan=\"3\">96.8 56.6 71.4 11 294</td></tr><tr><td>haute pr\u00e9cision</td><td>verbes</td><td colspan=\"3\">68.4 41.9 52.0</td><td>1 110</td></tr><tr><td/><td colspan=\"4\">adjectifs 90.0 36.7 52.2</td><td>3 221</td></tr><tr><td/><td>noms</td><td colspan=\"3\">71.7 73.2 72.4 59 213</td></tr><tr><td>haut F-score</td><td>JAWS verbes</td><td colspan=\"3\">70.7 68.5 69.6 48.9 76.6 59.6</td><td>55 416 9 138</td></tr><tr><td/><td colspan=\"4\">adjectifs 69.8 71.0 70.4 20 385</td></tr><tr><td/><td>noms</td><td colspan=\"3\">61.8 78.4 69.1 70 218</td></tr><tr><td>haute couverture</td><td>verbes</td><td colspan=\"3\">45.4 61.5 52.2 18 844</td></tr><tr><td/><td colspan=\"4\">adjectifs 69.8 71.9 70.8 20 385</td></tr></table>"
            }
        }
    }
}