File size: 100,847 Bytes
6fa4bc9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
{
    "paper_id": "F13-1004",
    "header": {
        "generated_with": "S2ORC 1.0.0",
        "date_generated": "2023-01-19T09:40:43.751025Z"
    },
    "title": "S\u00e9lection non supervis\u00e9e de relations s\u00e9mantiques pour am\u00e9liorer un th\u00e9saurus distributionnel",
    "authors": [
        {
            "first": "Olivier",
            "middle": [],
            "last": "Ferret",
            "suffix": "",
            "affiliation": {
                "laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus",
                "institution": "LIST",
                "location": {
                    "postCode": "F-91191",
                    "settlement": "Gif-sur-Yvette",
                    "country": "France"
                }
            },
            "email": "olivier.ferret@cea.fr"
        }
    ],
    "year": "",
    "venue": null,
    "identifiers": {},
    "abstract": "Les travaux se focalisant sur la construction de th\u00e9saurus distributionnels ont montr\u00e9 que les relations s\u00e9mantiques qu'ils rec\u00e8lent sont principalement fiables pour les mots de forte fr\u00e9quence. Dans cet article, nous proposons une m\u00e9thode pour r\u00e9\u00e9quilibrer de tels th\u00e9saurus en faveur des mots de fr\u00e9quence faible sur la base d'un m\u00e9canisme d'amor\u00e7age : un ensemble d'exemples et de contre-exemples de mots s\u00e9mantiquement similaires sont s\u00e9lectionn\u00e9s de fa\u00e7on non supervis\u00e9e et utilis\u00e9s pour entra\u00eener un classifieur supervis\u00e9. Celui-ci est ensuite appliqu\u00e9 pour r\u00e9ordonner les voisins s\u00e9mantiques du th\u00e9saurus utilis\u00e9 pour s\u00e9lectionner les exemples et contre-exemples. Nous montrons comment les relations entre les constituants de noms compos\u00e9s similaires peuvent \u00eatre utilis\u00e9es pour r\u00e9aliser une telle s\u00e9lection et comment conjuguer ce crit\u00e8re \u00e0 un crit\u00e8re d\u00e9j\u00e0 exp\u00e9riment\u00e9 sur la sym\u00e9trie des relations s\u00e9mantiques. Nous \u00e9valuons l'int\u00e9r\u00eat de cette proc\u00e9dure sur un large ensemble de noms en anglais couvrant un vaste spectre de fr\u00e9quence.",
    "pdf_parse": {
        "paper_id": "F13-1004",
        "_pdf_hash": "",
        "abstract": [
            {
                "text": "Les travaux se focalisant sur la construction de th\u00e9saurus distributionnels ont montr\u00e9 que les relations s\u00e9mantiques qu'ils rec\u00e8lent sont principalement fiables pour les mots de forte fr\u00e9quence. Dans cet article, nous proposons une m\u00e9thode pour r\u00e9\u00e9quilibrer de tels th\u00e9saurus en faveur des mots de fr\u00e9quence faible sur la base d'un m\u00e9canisme d'amor\u00e7age : un ensemble d'exemples et de contre-exemples de mots s\u00e9mantiquement similaires sont s\u00e9lectionn\u00e9s de fa\u00e7on non supervis\u00e9e et utilis\u00e9s pour entra\u00eener un classifieur supervis\u00e9. Celui-ci est ensuite appliqu\u00e9 pour r\u00e9ordonner les voisins s\u00e9mantiques du th\u00e9saurus utilis\u00e9 pour s\u00e9lectionner les exemples et contre-exemples. Nous montrons comment les relations entre les constituants de noms compos\u00e9s similaires peuvent \u00eatre utilis\u00e9es pour r\u00e9aliser une telle s\u00e9lection et comment conjuguer ce crit\u00e8re \u00e0 un crit\u00e8re d\u00e9j\u00e0 exp\u00e9riment\u00e9 sur la sym\u00e9trie des relations s\u00e9mantiques. Nous \u00e9valuons l'int\u00e9r\u00eat de cette proc\u00e9dure sur un large ensemble de noms en anglais couvrant un vaste spectre de fr\u00e9quence.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Abstract",
                "sec_num": null
            }
        ],
        "body_text": [
            {
                "text": "Le travail pr\u00e9sent\u00e9 dans cet article s'inscrit dans le contexte de la construction automatique de th\u00e9saurus \u00e0 partir de corpus. Dans le prolongement de (Grefenstette, 1994) ou (Curran et Moens, 2002) , une mani\u00e8re largement r\u00e9pandue d'aborder ce probl\u00e8me est d'utiliser une mesure de similarit\u00e9 s\u00e9mantique pour extraire les voisins s\u00e9mantiques de chacune des entr\u00e9es pressenties du th\u00e9saurus. Trois principales approches peuvent \u00eatre distingu\u00e9es pour construire une telle mesure. La premi\u00e8re repose sur des ressources construites manuellement abritant des relations s\u00e9mantiques clairement identifi\u00e9es, g\u00e9n\u00e9ralement de nature paradigmatique. Les travaux exploitant des r\u00e9seaux lexicaux de type WordNet pour \u00e9laborer des mesures de similarit\u00e9 s\u00e9mantique, tels que (Budanitsky et Hirst, 2006) ou (Pedersen et al., 2004) , entrent pleinement dans cette cat\u00e9gorie. Ces mesures s'appuient typiquement sur la structure hi\u00e9rarchique de ces r\u00e9seaux, fond\u00e9e sur des relations d'hyperonymie. La deuxi\u00e8me approche pour construire une telle mesure fait appel \u00e0 une source de connaissances concernant les mots moins structur\u00e9e que la pr\u00e9c\u00e9dente : les descriptions textuelles de leur sens. Les gloses de WordNet ont ainsi \u00e9t\u00e9 utilis\u00e9es pour mettre en oeuvre des mesures de type Lesk dans (Banerjee et Pedersen, 2003) et plus r\u00e9cemment, des mesures ont \u00e9t\u00e9 d\u00e9finies \u00e0 partir de Wikip\u00e9dia ou des d\u00e9finitions des Wiktionaries (Gabrilovich, 2007) . La derni\u00e8re option pour la construction d'une mesure de similarit\u00e9 s\u00e9mantique prend appui sur un corpus en g\u00e9n\u00e9ralisant l'hypoth\u00e8se distributionnelle : chaque mot est caract\u00e9ris\u00e9 par l'ensemble des contextes dans lesquels il appara\u00eet pour un corpus donn\u00e9 et la similarit\u00e9 s\u00e9mantique de deux mots est \u00e9valu\u00e9e sur la base de la proportion de contextes que ces deux mots partagent. Cette perspective, initialement adopt\u00e9e par (Grefenstette, 1994) et (Lin, 1998) , a fait l'objet d'\u00e9tudes approfondies, notamment dans (Curran et Moens, 2002) , (Weeds, 2003) ou (Heylen et al., 2008) .",
                "cite_spans": [
                    {
                        "start": 152,
                        "end": 172,
                        "text": "(Grefenstette, 1994)",
                        "ref_id": "BIBREF10"
                    },
                    {
                        "start": 176,
                        "end": 199,
                        "text": "(Curran et Moens, 2002)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 762,
                        "end": 789,
                        "text": "(Budanitsky et Hirst, 2006)",
                        "ref_id": "BIBREF5"
                    },
                    {
                        "start": 793,
                        "end": 816,
                        "text": "(Pedersen et al., 2004)",
                        "ref_id": "BIBREF17"
                    },
                    {
                        "start": 1273,
                        "end": 1301,
                        "text": "(Banerjee et Pedersen, 2003)",
                        "ref_id": "BIBREF3"
                    },
                    {
                        "start": 1408,
                        "end": 1427,
                        "text": "(Gabrilovich, 2007)",
                        "ref_id": "BIBREF9"
                    },
                    {
                        "start": 1853,
                        "end": 1873,
                        "text": "(Grefenstette, 1994)",
                        "ref_id": "BIBREF10"
                    },
                    {
                        "start": 1877,
                        "end": 1888,
                        "text": "(Lin, 1998)",
                        "ref_id": "BIBREF14"
                    },
                    {
                        "start": 1944,
                        "end": 1967,
                        "text": "(Curran et Moens, 2002)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 1970,
                        "end": 1983,
                        "text": "(Weeds, 2003)",
                        "ref_id": "BIBREF21"
                    },
                    {
                        "start": 1987,
                        "end": 2008,
                        "text": "(Heylen et al., 2008)",
                        "ref_id": "BIBREF12"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Le probl\u00e8me de l'am\u00e9lioration des r\u00e9sultats d'une impl\u00e9mentation \u00ab classique \u00bb de l'approche distributionnelle telle qu'elle est r\u00e9alis\u00e9e dans (Curran et Moens, 2002) a d\u00e9j\u00e0 fait l'objet d'un certain nombre de travaux. Une partie d'entre eux se sont focalis\u00e9s sur la pond\u00e9ration des \u00e9l\u00e9ments constituant les contextes distributionnels, \u00e0 l'instar de (Broda et al., 2009) , qui transforme les poids au sein de des contextes en rangs, ou de (Zhitomirsky-Geffet et Dagan, 2009) , repris et \u00e9tendu par (Yamamoto et Asakura, 2010) , qui propose une m\u00e9thode fond\u00e9e sur l'amor\u00e7age pour modifier les poids des \u00e9l\u00e9ments des contextes en s'appuyant sur les voisins s\u00e9mantiques trouv\u00e9s au moyen d'une mesure de similarit\u00e9 distributionnelle initiale. Des approches plus radicalement diff\u00e9rentes ont \u00e9galement vu le jour. L'utilisation de m\u00e9thodes de r\u00e9duction de dimensions, comme l'Analyse S\u00e9mantique Latente dans (Pad\u00f3 et Lapata, 2007) , les mod\u00e8les de type multi-prototype (Reisinger et Mooney, 2010) ou la red\u00e9finition de l'approche distributionnelle dans un cadre bay\u00e9sien dans (Kazama et al., 2010) se rangent dans cette seconde cat\u00e9gorie.",
                "cite_spans": [
                    {
                        "start": 143,
                        "end": 166,
                        "text": "(Curran et Moens, 2002)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 350,
                        "end": 370,
                        "text": "(Broda et al., 2009)",
                        "ref_id": "BIBREF4"
                    },
                    {
                        "start": 439,
                        "end": 474,
                        "text": "(Zhitomirsky-Geffet et Dagan, 2009)",
                        "ref_id": "BIBREF22"
                    },
                    {
                        "start": 498,
                        "end": 525,
                        "text": "(Yamamoto et Asakura, 2010)",
                        "ref_id": "BIBREF22"
                    },
                    {
                        "start": 903,
                        "end": 925,
                        "text": "(Pad\u00f3 et Lapata, 2007)",
                        "ref_id": "BIBREF16"
                    },
                    {
                        "start": 964,
                        "end": 991,
                        "text": "(Reisinger et Mooney, 2010)",
                        "ref_id": "BIBREF19"
                    },
                    {
                        "start": 1071,
                        "end": 1092,
                        "text": "(Kazama et al., 2010)",
                        "ref_id": "BIBREF12"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Le travail que nous pr\u00e9sentons dans cet article s'appuie comme (Zhitomirsky-Geffet et Dagan, 2009) sur un m\u00e9canisme d'amor\u00e7age mais adopte une perspective diff\u00e9rente, initi\u00e9e dans (Ferret, 2012) : au lieu d'utiliser les \u00ab meilleurs \u00bb voisins s\u00e9mantiques pour adapter directement les poids des \u00e9l\u00e9ments constituant les contextes distributionnels des mots, l'id\u00e9e est de s\u00e9lectionner de fa\u00e7on non supervis\u00e9e un ensemble restreint de mots jug\u00e9s s\u00e9mantiquement similaires pour entra\u00eener, \u00e0 l'instar de (Hagiwara, 2008) , un classifieur statistique supervis\u00e9 capable de mod\u00e9liser la notion de similarit\u00e9 s\u00e9mantique. La s\u00e9lection de cet ensemble d'apprentissage est r\u00e9alis\u00e9e plus pr\u00e9cis\u00e9ment en associant deux crit\u00e8res faibles fond\u00e9s sur la similarit\u00e9 distributionnelle des mots : le premier, d\u00e9j\u00e0 exp\u00e9riment\u00e9 dans (Ferret, 2012) , exploite la sym\u00e9trie de la relation de similarit\u00e9 s\u00e9mantique ; le second, nouvellement introduit ici, fait l'hypoth\u00e8se que les constituants de mots compos\u00e9s s\u00e9mantiquement similaires sont eux-m\u00eames susceptibles d'entretenir des liens de similarit\u00e9 s\u00e9mantique. Nous montrons que le classifieur ainsi construit est utilisable pour r\u00e9ordonner les voisins s\u00e9mantiques trouv\u00e9s par la mesure de similarit\u00e9 initiale et corriger certaines de ses insuffisances du point de vue de la construction d'un th\u00e9saurus distributionnel.",
                "cite_spans": [
                    {
                        "start": 63,
                        "end": 98,
                        "text": "(Zhitomirsky-Geffet et Dagan, 2009)",
                        "ref_id": "BIBREF22"
                    },
                    {
                        "start": 180,
                        "end": 194,
                        "text": "(Ferret, 2012)",
                        "ref_id": "BIBREF7"
                    },
                    {
                        "start": 498,
                        "end": 514,
                        "text": "(Hagiwara, 2008)",
                        "ref_id": "BIBREF11"
                    },
                    {
                        "start": 809,
                        "end": 823,
                        "text": "(Ferret, 2012)",
                        "ref_id": "BIBREF7"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "L'utilisation de l'amor\u00e7age implique dans notre cas de construire un th\u00e9saurus initial dont la qualit\u00e9, au moins pour un sous-ensemble de celui-ci, soit suffisamment \u00e9lev\u00e9e pour servir de marchepied \u00e0 une am\u00e9lioration plus globale. Compte tenu du mode de construction de ce type de th\u00e9saurus, cet objectif prend la forme de la d\u00e9finition d'une mesure de similarit\u00e9 distributionnelle obtenant des performances, telles qu'elles peuvent \u00eatre \u00e9valu\u00e9es au travers de tests de type TOEFL (Landauer et Dumais, 1997) par exemple, compatibles avec cette exigence. (Ferret, 2010) s'est attach\u00e9 \u00e0 la s\u00e9lection d'une telle mesure. Nous reprenons ici les conclusions de ce travail.",
                "cite_spans": [
                    {
                        "start": 482,
                        "end": 508,
                        "text": "(Landauer et Dumais, 1997)",
                        "ref_id": "BIBREF13"
                    },
                    {
                        "start": 555,
                        "end": 569,
                        "text": "(Ferret, 2010)",
                        "ref_id": "BIBREF6"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Construction d'un th\u00e9saurus distributionnel initial",
                "sec_num": "2"
            },
            {
                "text": "Bien que notre langue cible soit l'anglais, nous avons choisi de limiter le niveau des traitements linguistiques appliqu\u00e9s au corpus source de nos donn\u00e9es distributionnelles \u00e0 l'\u00e9tiquetage morphosyntaxique et \u00e0 la lemmatisation, de mani\u00e8re \u00e0 faciliter la transposition du travail \u00e0 des langues moins dot\u00e9es. Cette approche appara\u00eet \u00e0 cet \u00e9gard comme un compromis raisonnable entre l'approche de (Freitag et al., 2005) , dans laquelle aucune normalisation n'est faite, et l'approche plus largement r\u00e9pandue consistant \u00e0 utiliser un analyseur syntaxique, \u00e0 l'instar de (Curran et Moens, 2002) . Plus pr\u00e9cis\u00e9ment, nous nous sommes appuy\u00e9s sur l'outil TreeTagger (Schmid, 1994) pour assurer le pr\u00e9traitement du corpus AQUAINT-2 qui est \u00e0 la base de ce travail. Ce corpus comprenant environ 380 millions de mots est compos\u00e9 d'articles de journaux.",
                "cite_spans": [
                    {
                        "start": 395,
                        "end": 417,
                        "text": "(Freitag et al., 2005)",
                        "ref_id": "BIBREF8"
                    },
                    {
                        "start": 567,
                        "end": 590,
                        "text": "(Curran et Moens, 2002)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 659,
                        "end": 673,
                        "text": "(Schmid, 1994)",
                        "ref_id": "BIBREF20"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9finition d'une mesure de similarit\u00e9 distributionnelle",
                "sec_num": "2.1"
            },
            {
                "text": "Les param\u00e8tres d'extraction des donn\u00e9es distributionnelles et les caract\u00e9ristiques de la mesure de similarit\u00e9 sont quant \u00e0 eux issus de la s\u00e9lection op\u00e9r\u00e9e dans (Ferret, 2010) :",
                "cite_spans": [
                    {
                        "start": 161,
                        "end": 175,
                        "text": "(Ferret, 2010)",
                        "ref_id": "BIBREF6"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9finition d'une mesure de similarit\u00e9 distributionnelle",
                "sec_num": "2.1"
            },
            {
                "text": "-contextes distributionnels constitu\u00e9s de cooccurrents graphiques : noms, verbes et adjectifs collect\u00e9s gr\u00e2ce \u00e0 une fen\u00eatre de taille fixe centr\u00e9e sur chaque occurrence du mot cible ; -taille de la fen\u00eatre = 3 (un mot \u00e0 droite et un mot \u00e0 gauche du mot cible), c'est-\u00e0-dire des cooccurrents de tr\u00e8s courte port\u00e9e ; -filtrage minimal des contextes : suppression des seuls cooccurrents de fr\u00e9quence \u00e9gale \u00e0 1 ; -fonction de pond\u00e9ration des cooccurrents dans les contextes = Information mutuelle entre le mot cible et son cooccurrent ; -mesure de similarit\u00e9 entre contextes, pour \u00e9valuer la similarit\u00e9 s\u00e9mantique de deux mots = mesure Cosinus.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9finition d'une mesure de similarit\u00e9 distributionnelle",
                "sec_num": "2.1"
            },
            {
                "text": "Un filtre fr\u00e9quentiel est en outre appliqu\u00e9 \u00e0 la fois aux mots cibles et \u00e0 leurs cooccurrents puisque seuls les mots de fr\u00e9quence sup\u00e9rieure \u00e0 10 sont consid\u00e9r\u00e9s.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9finition d'une mesure de similarit\u00e9 distributionnelle",
                "sec_num": "2.1"
            },
            {
                "text": "La construction de notre th\u00e9saurus distributionnel initial \u00e0 partir de la mesure de similarit\u00e9 d\u00e9finie ci-dessus a \u00e9t\u00e9 r\u00e9alis\u00e9e comme dans (Lin, 1998) ou (Curran et Moens, 2002) (Lin, 1998) avec les m\u00eames mesures et les m\u00eames r\u00e9f\u00e9rences que les n\u00f4tres et trouvent des r\u00e9sultats assez comparables en tenant compte du fait que le corpus de (Lin, 1998) \u00e9tait beaucoup plus gros que le n\u00f4tre, 3 milliards de mots, et que les donn\u00e9es distributionnelles \u00e9taient extraites sur la base de cooccurrences syntaxiques. \u00c0 titre indicatif, l'utilisation de WordNet comme r\u00e9f\u00e9rence pour des fr\u00e9quences > 5 000 donnent ainsi les valeurs suivantes pour les donn\u00e9es de Lin : P@1 = 16,5 ; P@5 = 5,0 ; P@10 = 3,5 ; MAP = 9,2 ; R-pr\u00e9c. = 16,7. Par rapport aux fr\u00e9quences hautes du tableau 1, configuration la plus directement comparable, on constate qu'en dehors de la R-pr\u00e9cision, plus \u00e9lev\u00e9e dans le cas des donn\u00e9es de Lin, les autres mesures donnent des valeurs proches de celles rapport\u00e9es dans (Muller et Langlais, 2011) .",
                "cite_spans": [
                    {
                        "start": 139,
                        "end": 150,
                        "text": "(Lin, 1998)",
                        "ref_id": "BIBREF14"
                    },
                    {
                        "start": 154,
                        "end": 177,
                        "text": "(Curran et Moens, 2002)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 178,
                        "end": 189,
                        "text": "(Lin, 1998)",
                        "ref_id": "BIBREF14"
                    },
                    {
                        "start": 338,
                        "end": 349,
                        "text": "(Lin, 1998)",
                        "ref_id": "BIBREF14"
                    },
                    {
                        "start": 979,
                        "end": 1005,
                        "text": "(Muller et Langlais, 2011)",
                        "ref_id": "BIBREF15"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Construction et \u00e9valuation du th\u00e9saurus initial",
                "sec_num": "2.2"
            },
            {
                "text": "Le deuxi\u00e8me point que laisse appara\u00eetre ce tableau est la forte d\u00e9pendance des r\u00e9sultats vis-\u00e0-vis de la fr\u00e9quence des entr\u00e9es du th\u00e9saurus. Les meilleurs r\u00e9sultats sont ainsi obtenus par les mots de la tranche de fr\u00e9quences sup\u00e9rieure tandis que les mesures d'\u00e9valuation diminuent de fa\u00e7on tr\u00e8s significative pour la tranche fr\u00e9quentielle la plus basse. Le dernier constat a trait \u00e0 l'impact de la r\u00e9f\u00e9rence utilis\u00e9e pour l'\u00e9valuation du th\u00e9saurus. WordNet est ainsi caract\u00e9ris\u00e9 par un nombre restreint de synonymes pour chaque nom tandis que le th\u00e9saurus Moby contient pour chaque entr\u00e9e un large ensemble de synonymes et de mots li\u00e9s. La cons\u00e9quence de cette diff\u00e9rence s'observe clairement au niveau des pr\u00e9cisions \u00e0 diff\u00e9rents rangs dans le tableau 1 : les valeurs sont nettement sup\u00e9rieures pour Moby par rapport \u00e0 WordNet alors que la mesure de similarit\u00e9 sous-jacente est la m\u00eame. Seule la richesse de la r\u00e9f\u00e9rence varie. Ce ph\u00e9nom\u00e8ne est \u00e9galement illustr\u00e9 dans (Ferret, 2010) au travers de la comparaison avec (Curran et Moens, 2002) .",
                "cite_spans": [
                    {
                        "start": 971,
                        "end": 985,
                        "text": "(Ferret, 2010)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 1020,
                        "end": 1043,
                        "text": "(Curran et Moens, 2002)",
                        "ref_id": "BIBREF6"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Construction et \u00e9valuation du th\u00e9saurus initial",
                "sec_num": "2.2"
            },
            {
                "text": "L'\u00e9valuation de notre th\u00e9saurus distributionnel initial montre que les voisins s\u00e9mantiques obtenus sont significativement meilleurs pour certaines entr\u00e9es que pour d'autres. Une telle configuration est a priori favorable \u00e0 un m\u00e9canisme de type amor\u00e7age dans la mesure o\u00f9 il est envisageable de s'appuyer sur les r\u00e9sultats des \u00ab bonnes \u00bb entr\u00e9es pour obtenir une am\u00e9lioration plus globale. (Zhitomirsky-Geffet et Dagan, 2009) a d\u00e9j\u00e0 fait appel \u00e0 l'amor\u00e7age dans un contexte proche du n\u00f4tre, l'acquisition de relations d'implication textuelle entre mots. Cependant, des exp\u00e9rimentations rapport\u00e9es dans (Ferret, 2010) ont montr\u00e9 que la transposition de cette approche \u00e0 notre probl\u00e8me n'\u00e9tait pas concluante. Ainsi, au lieu d'utiliser les r\u00e9sultats d'une mesure de similarit\u00e9 initiale pour modifier directement les poids des \u00e9l\u00e9ments constitutifs des contextes distributionnels, nous avons adopt\u00e9 une approche plus indirecte, fond\u00e9 sur (Hagiwara, 2008) . (Hagiwara, 2008) a en effet montr\u00e9 qu'il est possible d'entra\u00eener et d'appliquer avec un bon niveau de performance un classifieur statistique, en l'occurrence de type Machine \u00e0 Vecteurs de Support (SVM), pour d\u00e9cider si deux mots sont ou ne sont pas synonymes, au sens large du terme. Par ailleurs, ce travail montre \u00e9galement que la valeur de la fonction de d\u00e9cision caract\u00e9risant les SVM, dont on n'utilise que le signe dans le cas d'une classification binaire, peut jouer, pour l'ordonnancement des voisins s\u00e9mantiques, le m\u00eame r\u00f4le que la valeur d'une mesure de similarit\u00e9 telle que celle d\u00e9finie \u00e0 la section 2.",
                "cite_spans": [
                    {
                        "start": 601,
                        "end": 615,
                        "text": "(Ferret, 2010)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 934,
                        "end": 950,
                        "text": "(Hagiwara, 2008)",
                        "ref_id": "BIBREF11"
                    },
                    {
                        "start": 953,
                        "end": 969,
                        "text": "(Hagiwara, 2008)",
                        "ref_id": "BIBREF11"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Principes",
                "sec_num": "3.1"
            },
            {
                "text": "\u00c0 la diff\u00e9rence de (Hagiwara, 2008) , nous ne disposons pas d'un ensemble d'exemples et de contre-exemples \u00e9tiquet\u00e9s manuellement pour r\u00e9aliser l'entra\u00eenement d'un tel classifieur. En revanche, les voisins s\u00e9mantiques obtenus en appliquant la mesure de similarit\u00e9 de la section 2 peuvent \u00eatre exploit\u00e9s pour construire un tel ensemble. Cette mesure n'offre pas de crit\u00e8re \u00e9vident pour discriminer les mots s\u00e9mantiquement li\u00e9s 1 . Cependant, elle peut \u00eatre utilis\u00e9e plus indirectement pour s\u00e9lectionner un ensemble d'exemples et de contre-exemples de fa\u00e7on non supervis\u00e9e en minimisant le nombre d'erreurs. Ces erreurs correspondent \u00e0 des exemples consid\u00e9r\u00e9s comme positifs mais en r\u00e9alit\u00e9 n\u00e9gatifs et d'exemples consid\u00e9r\u00e9s comme n\u00e9gatifs mais en fait positifs. Dans cette optique, nous proposons d'entra\u00eener un classifieur SVM gr\u00e2ce \u00e0 ces ensembles et de l'appliquer ensuite pour r\u00e9ordonner les voisins s\u00e9mantiques obtenus pr\u00e9c\u00e9demment. L'ensemble de la d\u00e9marche peut \u00eatre r\u00e9sum\u00e9e par la proc\u00e9dure suivante :",
                "cite_spans": [
                    {
                        "start": 19,
                        "end": 35,
                        "text": "(Hagiwara, 2008)",
                        "ref_id": "BIBREF11"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Principes",
                "sec_num": "3.1"
            },
            {
                "text": "-d\u00e9finition d'une mesure de similarit\u00e9 distributionnelle ; -application de cette mesure pour la construction d'un th\u00e9saurus distributionnel par le biais de l'extraction de voisins s\u00e9mantiques ; -s\u00e9lection non supervis\u00e9e d'un ensemble d'exemples et de contre-exemples de mots s\u00e9mantiquement similaires gr\u00e2ce aux r\u00e9sultats de l'application de la mesure de similarit\u00e9 ; -entra\u00eenement d'un classifieur statistique \u00e0 partir de l'ensemble d'exemples constitu\u00e9 ; -application du classifieur entra\u00een\u00e9 au r\u00e9ordonnancement des voisins du th\u00e9saurus initial.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Principes",
                "sec_num": "3.1"
            },
            {
                "text": "Le point cl\u00e9 de l'am\u00e9lioration des r\u00e9sultats par ce moyen est de s\u00e9lectionner de fa\u00e7on non supervis\u00e9e un nombre suffisant d'exemples et de contre-exemples en minimisant les erreurs propres \u00e0 une telle s\u00e9lection. Dans la section 4, nous proposons d'associer deux m\u00e9thodes faibles, \u00e0 la fois au sens de la productivit\u00e9 et de la validit\u00e9 des r\u00e9sultats, pour accomplir cette t\u00e2che.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Principes",
                "sec_num": "3.1"
            },
            {
                "text": "Avant de pr\u00e9senter plus en d\u00e9tail ce processus de s\u00e9lection, il convient de pr\u00e9ciser la nature des exemples et des contre-exemples. Nous reprenons de ce point de vue la conception d\u00e9velopp\u00e9e dans (Hagiwara, 2008) : un exemple est constitu\u00e9 d'un couple de mots consid\u00e9r\u00e9s comme synonymes ou plus g\u00e9n\u00e9ralement s\u00e9mantiquement li\u00e9s ; un contre-exemple est form\u00e9 d'un couple de mots entre lesquels un tel lien s\u00e9mantique n'existe pas. La repr\u00e9sentation de ces couples pour un classifieur de type SVM s'effectue en associant leurs repr\u00e9sentations distributionnelles. Cette association s'effectue pour chaque couple (M 1 , M 2 ) en sommant le poids des cooccurrents communs aux mots M 1 et M 2 . Les cooccurrents de M x non pr\u00e9sents dans M y se voient attribuer un poids nul. Chaque exemple ou contre-exemple a donc la m\u00eame forme que la repr\u00e9sentation distributionnelle d'un mot, c'est-\u00e0-dire un vecteur de mots pond\u00e9r\u00e9s.",
                "cite_spans": [
                    {
                        "start": 196,
                        "end": 212,
                        "text": "(Hagiwara, 2008)",
                        "ref_id": "BIBREF11"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Repr\u00e9sentation des exemples",
                "sec_num": "3.2"
            },
            {
                "text": "Du point de vue de la s\u00e9lection des exemples et des contre-exemples de mots s\u00e9mantiquement li\u00e9s, le tableau 1 offre une image claire : trouver des exemples est beaucoup plus probl\u00e9matique que trouver des contre-exemples dans la mesure o\u00f9 le nombre de mots s\u00e9mantiquement li\u00e9s \u00e0 1 Fixer pour ce faire un seuil sur les valeurs de similarit\u00e9 produit de mauvais r\u00e9sultats du fait de la variabilit\u00e9 de ces valeurs d'une entr\u00e9e \u00e0 l'autre. Ce constat a motiv\u00e9 notre choix d'utiliser un SVM en classification plut\u00f4t qu'en r\u00e9gression.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lection des exemples et des contre-exemples",
                "sec_num": "4"
            },
            {
                "text": "une entr\u00e9e du th\u00e9saurus diminue tr\u00e8s fortement d\u00e8s que l'on consid\u00e8re ses voisins de rang un peu \u00e9lev\u00e9. Dans les exp\u00e9rimentations de la section 5, nous avons ainsi construits nos contreexemples \u00e0 partir de nos exemples en cr\u00e9ant pour chaque exemple (A,B) deux contre-exemples de la forme : (A, voisin de rang 10 de A) et (B, voisin de rang 10 de B). Le choix d'un rang sup\u00e9rieur garantirait un nombre plus faible de faux contre-exemples (i.e. couples de synonymes) et donc a priori, de meilleurs r\u00e9sultats. En pratique, l'utilisation de voisins du mot cible de rang assez faible conduit \u00e0 une performance sup\u00e9rieure, sans doute parce que ceux-ci sont plus utiles en termes de discrimination, \u00e9tant plus proches de la zone de transition entre exemples et contre-exemples. Nous avons par ailleurs constat\u00e9 exp\u00e9rimentalement que le rapport entre contre-exemples et exemples dans (Hagiwara, 2008) , \u00e9gal 6,5 et donc fortement d\u00e9s\u00e9quilibr\u00e9 en faveur des contre-exemples, n'\u00e9tait pas n\u00e9cessaire dans notre situation et pouvait se ramener \u00e0 2.",
                "cite_spans": [
                    {
                        "start": 876,
                        "end": 892,
                        "text": "(Hagiwara, 2008)",
                        "ref_id": "BIBREF11"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lection des exemples et des contre-exemples",
                "sec_num": "4"
            },
            {
                "text": "Pour la s\u00e9lection des exemples, le tableau 1 impose un double constat : trouver un voisin s\u00e9mantiquement proche est d'autant plus probable que la fr\u00e9quence de l'entr\u00e9e du th\u00e9saurus consid\u00e9r\u00e9e est \u00e9lev\u00e9e et que le rang du voisin est faible. La forme extr\u00eame de cette logique conduirait \u00e0 retenir comme exemples tous les couples de mots (entr\u00e9e de haute fr\u00e9quence, voisin de rang 1), ce qui donne un large nombre d'exemples -7 335 -mais un taux d'erreur (i.e. nombre de couples de mots non li\u00e9s s\u00e9mantiquement) \u00e9galement \u00e9lev\u00e9 -63,6% dans le cas le plus favorable (r\u00e9f\u00e9rence WM). Nous avons donc propos\u00e9 une approche plus s\u00e9lective pour choisir nos exemples parmi les entr\u00e9es fr\u00e9quentes du th\u00e9saurus afin d'aboutir \u00e0 une solution plus \u00e9quilibr\u00e9e entre le nombre d'exemples et leur taux d'erreur. Cette approche associe deux m\u00e9thodes de s\u00e9lection non supervis\u00e9es produisant chacune un nombre limit\u00e9 d'exemples mais avec un meilleur taux d'erreur. Nous pr\u00e9sentons ces m\u00e9thodes dans les deux sections suivantes en d\u00e9taillant plus sp\u00e9cifiquement celle fond\u00e9e sur les mots compos\u00e9s, nouvelle proposition de cet article.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lection des exemples et des contre-exemples",
                "sec_num": "4"
            },
            {
                "text": "Notre premi\u00e8re m\u00e9thode de s\u00e9lection d'exemples de mots s\u00e9mantiquement similaires a \u00e9t\u00e9 introduite dans (Ferret, 2012) . Elle est fond\u00e9e sur l'hypoth\u00e8se que les relations de similarit\u00e9 s\u00e9mantique sont sym\u00e9triques, ce qui est strictement vrai dans le cas des synonymes de WordNet mais l'est moins pour les mots li\u00e9s de Moby. En accord avec cette hypoth\u00e8se, nous avons consid\u00e9r\u00e9 que si une entr\u00e9e A du th\u00e9saurus initial a pour voisin un mot B, ce voisin a d'autant plus de chances d'\u00eatre s\u00e9mantiquement similaire \u00e0 A que A est lui-m\u00eame un voisin de B en tant qu'entr\u00e9e du th\u00e9saurus. Plus pr\u00e9cis\u00e9ment, les r\u00e9sultats du tableau 1 nous ont conduit \u00e0 limiter l'application de ce principe aux voisins de rang 1 et aux entr\u00e9es de haute fr\u00e9quence, dont les voisins sont eux-m\u00eames g\u00e9n\u00e9ralement des noms de haute fr\u00e9quence. Nous avons donc appliqu\u00e9 ce principe aux 7 335 entr\u00e9es dites de haute fr\u00e9quence du th\u00e9saurus, obtenant des cas de sym\u00e9trie entre entr\u00e9e et voisin de rang 1 pour 1 592 entr\u00e9es. 796 exemples de mots s\u00e9mantiquement similaires ont finalement \u00e9t\u00e9 produits puisque les couples (A,B) et (B,A) repr\u00e9sentent un m\u00eame exemple.",
                "cite_spans": [
                    {
                        "start": 103,
                        "end": 117,
                        "text": "(Ferret, 2012)",
                        "ref_id": "BIBREF7"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lection fond\u00e9e sur les relations de sym\u00e9trie dans le th\u00e9saurus",
                "sec_num": "4.1"
            },
            {
                "text": "La seconde m\u00e9thode que nous proposons pour la s\u00e9lection de couples de mots s\u00e9mantiquement similaires repose sur l'hypoth\u00e8se que les mono-termes de deux mots compos\u00e9s s\u00e9mantiquement similaires occupant dans ces deux termes le m\u00eame r\u00f4le syntaxique sont eux-m\u00eames susceptibles d'\u00eatre s\u00e9mantiquement similaires. Par exemple, les noms compos\u00e9s movie_director et film_director \u00e9tant trouv\u00e9s similaires et les t\u00eates syntaxiques de ces deux compos\u00e9s \u00e9tant identiques, il est vraisemblable que la similarit\u00e9 s\u00e9mantique observ\u00e9e entre film et movie dans le th\u00e9saurus initial soit v\u00e9ritable. Le point de d\u00e9part de cette hypoth\u00e8se \u00e9tant la similarit\u00e9 s\u00e9mantique des mots compos\u00e9s, nous avons commenc\u00e9 par construire un th\u00e9saurus distributionnel de noms compos\u00e9s pour l'anglais, \u00e0 l'image du th\u00e9saurus de la section 2 pour les noms simples. Cette construction a \u00e9t\u00e9 r\u00e9alis\u00e9e \u00e0 partir du m\u00eame corpus et avec les m\u00eames param\u00e8tres que pour les mono-termes, \u00e0 l'exception bien entendu de l'ajout d'une \u00e9tape dans le pr\u00e9traitement linguistique des documents du corpus pour l'identification des noms compos\u00e9s. Cette identification a \u00e9t\u00e9 r\u00e9alis\u00e9e en deux \u00e9tapes : un ensemble de noms compos\u00e9s ont d'abord \u00e9t\u00e9 extraits du corpus AQUAINT-2 sur la base d'un nombre limit\u00e9 de patrons morpho-syntaxiques ; les plus fr\u00e9quents de ces compos\u00e9s ont ensuite \u00e9t\u00e9 utilis\u00e9s comme r\u00e9f\u00e9rence dans un processus d'indexation contr\u00f4l\u00e9e.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lection fond\u00e9e sur les mots compos\u00e9s 4.2.1 Construction d'un th\u00e9saurus distributionnel de noms compos\u00e9s",
                "sec_num": "4.2"
            },
            {
                "text": "La premi\u00e8re \u00e9tape a \u00e9t\u00e9 mise en oeuvre gr\u00e2ce \u00e0 l'outil mwetoolkit (Ramisch et al., 2010) , qui permet d'extraire efficacement des mots compos\u00e9s d'un corpus \u00e0 partir du r\u00e9sultat d'un \u00e9tiqueteur morpho-syntaxique, le TreeTagger dans notre cas, en s'appuyant sur un ensemble de patrons morpho-syntaxiques. Nous nous sommes limit\u00e9s aux trois patrons de noms compos\u00e9s suivants : <nom> <nom>, <adjectif > <nom>, <nom> <pr\u00e9position> <nom>. Un ensemble de 3 246 401 noms compos\u00e9s ont ainsi \u00e9t\u00e9 extraits du corpus AQUAINT-2 parmi lesquels seuls les 30 121 termes de fr\u00e9quence sup\u00e9rieure \u00e0 100 ont \u00e9t\u00e9 retenus, pour des raisons \u00e0 la fois de fiabilit\u00e9 et de limitation du vocabulaire pour la construction du th\u00e9saurus. L'identification de ces termes de r\u00e9f\u00e9rence dans les textes a ensuite \u00e9t\u00e9 r\u00e9alis\u00e9e en appliquant la strat\u00e9gie de l'appariement maximal \u00e0 la sortie lemmatis\u00e9e du TreeTagger. Finalement, des contextes distributionnels constitu\u00e9s \u00e0 la fois de mots simples et de termes complexes ont \u00e9t\u00e9 construits suivant les principes de la section 2 et des voisins ont \u00e9t\u00e9 trouv\u00e9s pour 29 174 noms compos\u00e9s.",
                "cite_spans": [
                    {
                        "start": 66,
                        "end": 88,
                        "text": "(Ramisch et al., 2010)",
                        "ref_id": "BIBREF18"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lection fond\u00e9e sur les mots compos\u00e9s 4.2.1 Construction d'un th\u00e9saurus distributionnel de noms compos\u00e9s",
                "sec_num": "4.2"
            },
            {
                "text": "#mots \u00e9val.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "r\u00e9f.",
                "sec_num": null
            },
            {
                "text": "#syn. /mot rappel R-pr\u00e9c. MAP P@1 P@5 P@10 P@100 (Curran et Moens, 2002) ou 353 pour (Gabrilovich, 2007) . Cette prudence est particuli\u00e8rement de mise pour les mots li\u00e9s de Moby : les r\u00e9sultats, \u00e0 l'exception du rappel, sont tr\u00e8s significativement inf\u00e9rieurs \u00e0 ceux obtenus avec les mono-termes mais le nombre d'entr\u00e9es \u00e9valu\u00e9es -241 -est aussi faible. \u00c0 l'inverse, les performances obtenues pour les synonymes de WordNet sont tr\u00e8s nettement sup\u00e9rieures sur tous les plans \u00e0 celles caract\u00e9risant les mono-termes, ces r\u00e9sultats \u00e9tant obtenus pour un nombre d'entr\u00e9es -608 -nettement sup\u00e9rieur. Cette diff\u00e9rence ne s'expliquant pas par un biais concernant la fr\u00e9quence des entr\u00e9es \u00e9valu\u00e9es vis-\u00e0-vis respectivement de WordNet et de Moby, il semble donc que le comportement des noms compos\u00e9s soit, du point de vue des similarit\u00e9s distributionnelles, l'inverse de celui des noms simples, favorisant les relations s\u00e9mantiques paradigmatiques par rapport aux relations syntagmatiques. La plus faible ambigu\u00eft\u00e9 s\u00e9mantique des noms compos\u00e9s serait une explication possible de ce ph\u00e9nom\u00e8ne qui demanderait n\u00e9anmoins une \u00e9tude plus approfondie avec une base d'\u00e9valuation plus large.",
                "cite_spans": [
                    {
                        "start": 49,
                        "end": 72,
                        "text": "(Curran et Moens, 2002)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 85,
                        "end": 104,
                        "text": "(Gabrilovich, 2007)",
                        "ref_id": "BIBREF9"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "r\u00e9f.",
                "sec_num": null
            },
            {
                "text": "La s\u00e9lection d'exemples de mots simples s\u00e9mantiquement similaires \u00e0 partir de noms compos\u00e9s s'appuie sur la structure syntaxique de ces noms compos\u00e9s. Compte tenu des patrons utilis\u00e9s pour l'extraction des termes, cette structure prend la forme de l'un des trois grands sch\u00e9mas suivants : <nom> e x pansion <nom> t\u00eate , <adjectif> ex pansion <nom> t\u00eate , <nom> t\u00eate <pr\u00e9position> <nom> e x pansion .",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lection d'exemples \u00e0 partir de noms compos\u00e9s",
                "sec_num": "4.2.2"
            },
            {
                "text": "Chaque nom compos\u00e9 C i a ainsi \u00e9t\u00e9 repr\u00e9sent\u00e9 sous la forme d'un couple de noms (T i , E i ), dans lequel T i repr\u00e9sente la t\u00eate syntaxique de C i et D i , son expansion, au sens des grammaires de d\u00e9pendance. Conform\u00e9ment au principe sous-tendant notre m\u00e9thode s\u00e9lection, si un nom compos\u00e9 (T 2 , E 2 ) est un voisin s\u00e9mantique d'un nom compos\u00e9 (T 1 , E 1 ) (au plus, son c i\u00e8me voisin), il est probable que T 1 et T 2 ou E 1 et E 2 soient s\u00e9mantiquement similaires 2 . Comme le montre le tableau 2, notre th\u00e9saurus distributionnel de noms compos\u00e9s est cependant loin d'\u00eatre parfait. Pour limiter les erreurs, nous avons ajout\u00e9 des contraintes sur l'appariement des constituants des noms compos\u00e9s similaires en nous appuyant sur la similarit\u00e9 distributionnelle de ces constituants. Au final, nous s\u00e9lectionnons des exemples de noms simples s\u00e9mantiquement similaires (couples de noms suivant \u2192) en appliquant les trois r\u00e8gles suivantes, dans lesquelles E 1 = E 2 signifie que E 1 et E 2 sont identiques et T 1 \u2261 T 2 signifie que T 2 est au plus le n i\u00e8me voisin de T 1 dans notre th\u00e9saurus de noms simples : ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "S\u00e9lection d'exemples \u00e0 partir de noms compos\u00e9s",
                "sec_num": "4.2.2"
            },
            {
                "text": "EQUATION",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [
                    {
                        "start": 0,
                        "end": 8,
                        "text": "EQUATION",
                        "ref_id": "EQREF",
                        "raw_str": "(1) T 1 \u2261 T 2 et E 1 = E 2 \u2192 (T 1 , T 2 ) (crash, accident) issu de car_crash et car_accident ; (boat, vessel) de fishing_vessel et fishing_boat (2) E 1 \u2261 E 2 et T 1 = T 2 \u2192 (E 1 , E 2 ) (ocean, sea) de ocean_floor et sea_floor ; (jail, prison) de prison_cell et jail_cell (3) E 1 \u2261 E 2 et T 1 \u2261 T 2 \u2192 (T 1 , T 2 ), (E 1 , E 2 )",
                        "eq_num": "("
                    }
                ],
                "section": "S\u00e9lection d'exemples \u00e0 partir de noms compos\u00e9s",
                "sec_num": "4.2.2"
            },
            {
                "text": "La mise en oeuvre effective de notre approche de r\u00e9ordonnancement des voisins s\u00e9mantiques n\u00e9cessite de fixer un certain nombre de param\u00e8tres li\u00e9s aux SVM. De m\u00eame que (Hagiwara, 2008) , nous avons adopt\u00e9 un noyau RBF et une strat\u00e9gie de type grid search pour l'optimisation du param\u00e8tre \u03b3 fixant la largeur de la fonction gaussienne du noyau RBF et du param\u00e8tre C d'ajustement entre la taille de la marge et le taux d'erreur. Cette optimisation a \u00e9t\u00e9 r\u00e9alis\u00e9e pour chaque ensemble d'apprentissage consid\u00e9r\u00e9 en se fondant sur la mesure de pr\u00e9cision calcul\u00e9e dans le cadre d'une validation crois\u00e9e divisant ces ensembles en 5 parties. Chaque mod\u00e8le SVM correspondant a \u00e9t\u00e9 construit en utilisant l'outil LIBSVM puis appliqu\u00e9 \u00e0 la totalit\u00e9 des 14 670",
                "cite_spans": [
                    {
                        "start": 167,
                        "end": 183,
                        "text": "(Hagiwara, 2008)",
                        "ref_id": "BIBREF11"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mise en oeuvre du r\u00e9ordonnancement des voisins",
                "sec_num": "5.2"
            },
            {
                "text": "noms cibles de notre \u00e9valuation initiale. Plus pr\u00e9cis\u00e9ment, pour chaque nom cible N C, une repr\u00e9sentation d'exemple a \u00e9t\u00e9 construite pour chaque couple (N C, voisin de N C) et a \u00e9t\u00e9 soumise au mod\u00e8le SVM consid\u00e9r\u00e9 en mode classification. L'ensemble de ces voisins ont ensuite \u00e9t\u00e9 r\u00e9ordonn\u00e9s suivant la valeur de la fonction de d\u00e9cision ainsi calcul\u00e9e pour chaque voisin.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mise en oeuvre du r\u00e9ordonnancement des voisins",
                "sec_num": "5.2"
            },
            {
                "text": "Le tableau 4 donne les r\u00e9sultats globaux du r\u00e9ordonnancement r\u00e9alis\u00e9 sur la base des exemples s\u00e9lectionn\u00e9s par chacune des deux m\u00e9thodes pr\u00e9sent\u00e9es tandis que les r\u00e9sultats d\u00e9taill\u00e9s du tableau 5 correspondent au r\u00e9ordonnancement fond\u00e9 sur l'association des deux m\u00e9thodes de s\u00e9lection. Chacun des ces trois th\u00e9saurus a \u00e9t\u00e9 \u00e9valu\u00e9 selon les m\u00eames principes qu'\u00e0 la section 2.2. La valeur de chaque mesure se voit associer sa diff\u00e9rence avec la valeur correspondante pour le th\u00e9saurus initial dans le tableau 1. Enfin, comme l'\u00e9valuation s'applique au r\u00e9sultat d'un r\u00e9ordonnancement, les mesures de rappel et de pr\u00e9cision au rang le plus lointain ne changent pas et ne sont pas rappel\u00e9es. m\u00e9thode r\u00e9f. R-pr\u00e9c. MAP P@1 P@5 P@10 W 7,8 (-0,4) 9,4 (-0,4) 11,2 (-0,5) \u2021 5,0 (-0,1) \u2021 3,3 (-0,1) \u2021 sym\u00e9trie M 7,1 (0,4) 3,4 (0,2) 27,3 (3,2) 17,6 (1,2) 13,7 (0,7) WM 8,0 (0,3) 5,7 (0,1) 24,6 (2,1) 14,9 (0,8) 11,4 (0,6) W 7,2 (-1,0) 8,8 (-1,0) 10,4 (-1,3) 4,6 (-0,5) 3,1 (-0,3) compos\u00e9s M 7,1 (0,4) 3,3 (0,1) 26,8 (2,7) 17,4 (1,0) 13,5 (0,5) WM 7,8 (0,1) 5,5 (-0,1) 24,0 (1,5) 14,6 (0,5) 11,2 (0,4) La tendance g\u00e9n\u00e9rale est claire : le processus de r\u00e9ordonnancement conduit \u00e0 une am\u00e9lioration significative des r\u00e9sultats \u00e0 l'\u00e9chelle globale (tableau 4 et lignes tous du tableau 5) pour les r\u00e9f\u00e9rences M et WM 3 . Parall\u00e8lement, une diminution des r\u00e9sultats est observ\u00e9e pour la r\u00e9f\u00e9rence W, diminution statistiquement non significative pour le tableau 5. En d'autres termes, par rapport au th\u00e9saurus initial, la proc\u00e9dure de r\u00e9ordonnancement tend \u00e0 favoriser les mots similaires au d\u00e9triment des synonymes. Cette tendance n'est pas surprenante compte tenu du principe de ce r\u00e9ordonnancement : les premiers sont en effet mieux repr\u00e9sent\u00e9s que les seconds dans les exemples s\u00e9lectionn\u00e9s du fait m\u00eame de leur meilleure repr\u00e9sentation au niveau global. Les mod\u00e8les SVM appris ne font en l'occurrence qu'amplifier un \u00e9tat de fait d\u00e9j\u00e0 pr\u00e9sent initialement. Ce biais est particuli\u00e8rement fort pour la m\u00e9thode de s\u00e9lection fond\u00e9e sur les noms compos\u00e9s, comme l'illustre le tableau 4. Cependant, les r\u00e9sultats du tableau 5 montrent clairement l'int\u00e9r\u00eat de l'association des deux m\u00e9thodes de s\u00e9lection, la m\u00e9thode de s\u00e9lection fond\u00e9e sur la sym\u00e9trie des relations venant r\u00e9\u00e9quilibrer ce biais au b\u00e9n\u00e9fice des r\u00e9sultats globaux. Par ailleurs, en associant la partie du th\u00e9saurus initial correspondant aux fr\u00e9quences hautes et la partie du th\u00e9saurus apr\u00e8s r\u00e9ordonnancement correspondant aux fr\u00e9quences basses (cf. ligne hybride du tableau 5), on obtient un th\u00e9saurus hybride dont les r\u00e9sultats sont sup\u00e9rieurs \u00e0 ceux du th\u00e9saurus initial pour toutes les conditions. Enfin, le tableau 6 illustre pour une entr\u00e9e sp\u00e9cifique du th\u00e9saurus initial, en l'occurrence le mot esteem, l'impact du r\u00e9ordonnancement fond\u00e9 sur les deux m\u00e9thodes de s\u00e9lection d'exemples. Ce tableau donne d'abord pour cette entr\u00e9e ses synonymes dans WordNet et les premiers mots qui lui sont li\u00e9s dans Moby. Il fait ensuite appara\u00eetre que dans notre th\u00e9saurus initial, les deux premiers voisins de cette entr\u00e9e apparaissant dans une de nos deux ressources de r\u00e9f\u00e9rence sont les mots admiration, au rang 3, et le mot respect, au rang 7. Le r\u00e9ordonnancement am\u00e9liore significativement la situation puisque ces deux mots deviennent les deux premiers voisins tandis que le 3\u00e8 me synonyme donn\u00e9 par WordNet passe du rang 22 au rang 12. Par ailleurs, le nombre de voisins pr\u00e9sents parmi les 14 premiers mots li\u00e9s de Moby passe de 3 \u00e0 6.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "\u00c9valuation",
                "sec_num": "5.3"
            },
            {
                "text": "Dans cet article, nous avons pr\u00e9sent\u00e9 une m\u00e9thode fond\u00e9e sur l'amor\u00e7age pour am\u00e9liorer un th\u00e9saurus distributionnel. Plus pr\u00e9cis\u00e9ment, cette m\u00e9thode se fonde sur le r\u00e9ordonnancement des voisins s\u00e9mantiques de ce th\u00e9saurus par le biais d'un classifieur SVM. Ce classifieur est entra\u00een\u00e9 \u00e0 partir d'un ensemble d'exemples et de contre-exemples s\u00e9lectionn\u00e9s de fa\u00e7on non supervis\u00e9e en combinant deux crit\u00e8res faibles fond\u00e9s sur la similarit\u00e9 distributionnelle. L'un exploite la sym\u00e9trie des relations s\u00e9mantiques tandis que l'autre s'appuie sur l'appariement des constituants de noms compos\u00e9s similaires. Les am\u00e9liorations apport\u00e9es par cette m\u00e9thode sont plus particuli\u00e8rement notables pour les noms de fr\u00e9quence faible ou interm\u00e9diaire et pour des mots similaires plut\u00f4t que pour de stricts synonymes.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "6"
            },
            {
                "text": "Nous envisageons plusieurs pistes d'extension de ce travail. Tout d'abord, nous souhaitons appliquer, tout en conservant une s\u00e9lection d'exemples non supervis\u00e9e, des techniques de s\u00e9lection de caract\u00e9ristiques afin de mettre en \u00e9vidence les traits les plus int\u00e9ressants du point de vue de la similarit\u00e9 s\u00e9mantique, en particulier pour am\u00e9liorer les th\u00e9saurus distributionnels produits en construisant des mod\u00e8les plus g\u00e9n\u00e9raux de cette similarit\u00e9. L'\u00e9largissement des crit\u00e8res de s\u00e9lection non supervis\u00e9e d'exemples est une deuxi\u00e8me extension assez directe du travail pr\u00e9sent\u00e9. Alors que les techniques de s\u00e9lection exp\u00e9riment\u00e9es reposent toutes deux sur des th\u00e9saurus distributionnels, des crit\u00e8res s'attachant aux occurrences des mots et \u00e0 leur environnement plut\u00f4t qu'\u00e0 une repr\u00e9sentation distributionnelle sont \u00e9galement envisageables, comme l'utilisation de patrons linguistiques classiques d'extraction de synonymes par exemple. Sur un autre plan, l'\u00e9valuation men\u00e9e, fond\u00e9e sur la comparaison avec des ressources de r\u00e9f\u00e9rence, pourrait \u00eatre compl\u00e9t\u00e9e avec profit par une \u00e9valuation in vivo permettant de juger de l'impact des am\u00e9liorations du th\u00e9saurus distributionnel sur une t\u00e2che auquel il contribue. Parmi les nombreuses t\u00e2ches possibles, nous serions particuli\u00e8rement int\u00e9ress\u00e9s par celle de segmentation th\u00e9matique, dans le prolongement de (Adam et Morlane-Hond\u00e8re, 2009 ). Enfin, nous planifions d'appliquer la m\u00e9thode d\u00e9crite au fran\u00e7ais en nous appuyant sur des th\u00e9saurus distributionnels comme freDist (Anguiano et Denis, 2011) .",
                "cite_spans": [
                    {
                        "start": 1353,
                        "end": 1383,
                        "text": "(Adam et Morlane-Hond\u00e8re, 2009",
                        "ref_id": "BIBREF1"
                    },
                    {
                        "start": 1519,
                        "end": 1544,
                        "text": "(Anguiano et Denis, 2011)",
                        "ref_id": "BIBREF2"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "6"
            },
            {
                "text": "c ATALA",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            },
            {
                "text": "Notons que nous ne nous int\u00e9ressons pas ici \u00e0 la similarit\u00e9 entre E1 et E2 lorsque ce sont des adjectifs.TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            },
            {
                "text": "La significativit\u00e9 statistique des diff\u00e9rences a \u00e9t\u00e9 \u00e9valu\u00e9e gr\u00e2ce \u00e0 un test de Wilcoxon avec un seuil de 0,05, les \u00e9chantillons \u00e9tant appari\u00e9s. Seules les diff\u00e9rences suivies du signe \u2021 sont consid\u00e9r\u00e9es comme non significatives.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            }
        ],
        "back_matter": [],
        "bib_entries": {
            "BIBREF1": {
                "ref_id": "b1",
                "title": "D\u00e9tection de la coh\u00e9sion lexicale par voisinage distributionnel : application \u00e0 la segmentation th\u00e9matique",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Adam",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Morlane-Hond\u00e8re",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "RECITAL'09",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ADAM, C. et MORLANE-HOND\u00c8RE, F. (2009). D\u00e9tection de la coh\u00e9sion lexicale par voisinage distributionnel : application \u00e0 la segmentation th\u00e9matique. In RECITAL'09, Senlis, France.",
                "links": null
            },
            "BIBREF2": {
                "ref_id": "b2",
                "title": "FreDist : Automatic construction of distributional thesauri for French",
                "authors": [
                    {
                        "first": "E",
                        "middle": [
                            "H"
                        ],
                        "last": "Anguiano",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Denis",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "TALN 2011, session articles courts",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ANGUIANO, E. H. et DENIS, P. (2011). FreDist : Automatic construction of distributional thesauri for French. In TALN 2011, session articles courts, Montpellier, France.",
                "links": null
            },
            "BIBREF3": {
                "ref_id": "b3",
                "title": "Extended gloss overlaps as a measure of semantic relatedness",
                "authors": [
                    {
                        "first": "S",
                        "middle": [
                            "B"
                        ],
                        "last": "Banerjee",
                        "suffix": ""
                    },
                    {
                        "first": "T",
                        "middle": [],
                        "last": "Pedersen",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "Eighteenth International Conference on Artificial Intelligence (IJCAI-03)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BANERJEE, S. B. et PEDERSEN, T. (2003). Extended gloss overlaps as a measure of semantic relatedness. In Eighteenth International Conference on Artificial Intelligence (IJCAI-03), Mexico.",
                "links": null
            },
            "BIBREF4": {
                "ref_id": "b4",
                "title": "Rank-Based Transformation in Measuring Semantic Relatedness",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Broda",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Piasecki",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Szpakowicz",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "22 nd Canadian Conference on Artificial Intelligence",
                "volume": "",
                "issue": "",
                "pages": "187--190",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BRODA, B., PIASECKI, M. et SZPAKOWICZ, S. (2009). Rank-Based Transformation in Measuring Semantic Relatedness. In 22 nd Canadian Conference on Artificial Intelligence, pages 187-190.",
                "links": null
            },
            "BIBREF5": {
                "ref_id": "b5",
                "title": "Evaluating wordnet-based measures of lexical semantic relatedness",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Budanitsky",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Hirst",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "Computational Linguistics",
                "volume": "32",
                "issue": "1",
                "pages": "13--47",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BUDANITSKY, A. et HIRST, G. (2006). Evaluating wordnet-based measures of lexical semantic relatedness. Computational Linguistics, 32(1):13-47.",
                "links": null
            },
            "BIBREF6": {
                "ref_id": "b6",
                "title": "Similarit\u00e9 s\u00e9mantique et extraction de synonymes \u00e0 partir de corpus",
                "authors": [
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Curran",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Moens",
                        "suffix": ""
                    },
                    {
                        "first": "Usa",
                        "middle": [],
                        "last": "Philadelphia",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Ferret",
                        "suffix": ""
                    }
                ],
                "year": 2002,
                "venue": "Workshop of the ACL Special Interest Group on the Lexicon (SIGLEX)",
                "volume": "",
                "issue": "",
                "pages": "59--66",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CURRAN, J. et MOENS, M. (2002). Improvements in automatic thesaurus extraction. In Workshop of the ACL Special Interest Group on the Lexicon (SIGLEX), pages 59-66, Philadelphia, USA. FERRET, O. (2010). Similarit\u00e9 s\u00e9mantique et extraction de synonymes \u00e0 partir de corpus. In TALN 2010.",
                "links": null
            },
            "BIBREF7": {
                "ref_id": "b7",
                "title": "Combining bootstrapping and feature selection for improving a distributional thesaurus",
                "authors": [
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Ferret",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "20 th European Conference on Artificial Intelligence (ECAI 2012)",
                "volume": "",
                "issue": "",
                "pages": "336--341",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FERRET, O. (2012). Combining bootstrapping and feature selection for improving a distributional thesaurus. In 20 th European Conference on Artificial Intelligence (ECAI 2012), pages 336-341.",
                "links": null
            },
            "BIBREF8": {
                "ref_id": "b8",
                "title": "New experiments in distributional representations of synonymy",
                "authors": [
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Freitag",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Blume",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Byrnes",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Chow",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Kapadia",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Rohwer",
                        "suffix": ""
                    },
                    {
                        "first": "Z",
                        "middle": [],
                        "last": "Wang",
                        "suffix": ""
                    }
                ],
                "year": 2005,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "25--32",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FREITAG, D., BLUME, M., BYRNES, J., CHOW, E., KAPADIA, S., ROHWER, R. et WANG, Z. (2005). New experiments in distributional representations of synonymy. In CoNLL 2005, pages 25-32.",
                "links": null
            },
            "BIBREF9": {
                "ref_id": "b9",
                "title": "Computing semantic relatedness using wikipedia-based explicit semantic analysis",
                "authors": [
                    {
                        "first": "Evgeniyand",
                        "middle": [],
                        "last": "Gabrilovich",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Markovitch",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "IJCAI",
                "volume": "",
                "issue": "",
                "pages": "6--12",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GABRILOVICH, Evgeniyand Markovitch, S. (2007). Computing semantic relatedness using wikipedia-based explicit semantic analysis. In IJCAI 2007, pages 6-12.",
                "links": null
            },
            "BIBREF10": {
                "ref_id": "b10",
                "title": "Explorations in automatic thesaurus discovery",
                "authors": [
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Grefenstette",
                        "suffix": ""
                    }
                ],
                "year": 1994,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GREFENSTETTE, G. (1994). Explorations in automatic thesaurus discovery. Kluwer Academic Publishers.",
                "links": null
            },
            "BIBREF11": {
                "ref_id": "b11",
                "title": "A supervised learning approach to automatic synonym identification based on distributional features",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Hagiwara",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "ACL-08, student session",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HAGIWARA, M. (2008). A supervised learning approach to automatic synonym identification based on distributional features. In ACL-08, student session, Columbus, Ohio.",
                "links": null
            },
            "BIBREF12": {
                "ref_id": "b12",
                "title": "Modelling Word Similarity : An Evaluation of Automatic Synonymy Extraction Algorithms",
                "authors": [
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Heylen",
                        "suffix": ""
                    },
                    {
                        "first": "Y",
                        "middle": [],
                        "last": "Peirsmany",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Geeraerts",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Speelman",
                        "suffix": ""
                    },
                    {
                        "first": "Morocco",
                        "middle": [],
                        "last": "Marrakech",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Kazama",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "De Saeger",
                        "suffix": ""
                    },
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Kuroda",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Murata",
                        "suffix": ""
                    },
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Torisawa",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "LREC 2008",
                "volume": "",
                "issue": "",
                "pages": "247--256",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HEYLEN, K., PEIRSMANY, Y., GEERAERTS, D. et SPEELMAN, D. (2008). Modelling Word Similarity : An Evaluation of Automatic Synonymy Extraction Algorithms. In LREC 2008, Marrakech, Morocco. KAZAMA, J., DE SAEGER, S., KURODA, K., MURATA, M. et TORISAWA, K. (2010). A bayesian method for robust estimation of distributional similarities. In ACL 2010, pages 247-256.",
                "links": null
            },
            "BIBREF13": {
                "ref_id": "b13",
                "title": "A solution to Plato's problem : the latent semantic analysis theory of acquisition, induction, and representation of knowledge",
                "authors": [
                    {
                        "first": "T",
                        "middle": [
                            "K"
                        ],
                        "last": "Landauer",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [
                            "T"
                        ],
                        "last": "Dumais",
                        "suffix": ""
                    }
                ],
                "year": 1997,
                "venue": "Psychological review",
                "volume": "104",
                "issue": "2",
                "pages": "211--240",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LANDAUER, T. K. et DUMAIS, S. T. (1997). A solution to Plato's problem : the latent semantic analysis theory of acquisition, induction, and representation of knowledge. Psychological review, 104(2):211-240.",
                "links": null
            },
            "BIBREF14": {
                "ref_id": "b14",
                "title": "Automatic retrieval and clustering of similar words",
                "authors": [
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Lin",
                        "suffix": ""
                    }
                ],
                "year": 1998,
                "venue": "ACL-COLING'98",
                "volume": "",
                "issue": "",
                "pages": "768--774",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LIN, D. (1998). Automatic retrieval and clustering of similar words. In ACL-COLING'98, pages 768-774.",
                "links": null
            },
            "BIBREF15": {
                "ref_id": "b15",
                "title": "Comparaison d'une approche miroir et d'une approche distributionnelle pour l'extraction de mots s\u00e9mantiquement reli\u00e9s",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Muller",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Langlais",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MULLER, P. et LANGLAIS, P. (2011). Comparaison d'une approche miroir et d'une approche distributionnelle pour l'extraction de mots s\u00e9mantiquement reli\u00e9s. In TALN 2011.",
                "links": null
            },
            "BIBREF16": {
                "ref_id": "b16",
                "title": "Dependency-based construction of semantic space models",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Pad\u00f3",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Lapata",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Computational Linguistics",
                "volume": "33",
                "issue": "2",
                "pages": "161--199",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "PAD\u00d3, S. et LAPATA, M. (2007). Dependency-based construction of semantic space models. Computational Linguistics, 33(2):161-199.",
                "links": null
            },
            "BIBREF17": {
                "ref_id": "b17",
                "title": "Wordnet : :similarity -measuring the relatedness of concepts",
                "authors": [
                    {
                        "first": "T",
                        "middle": [],
                        "last": "Pedersen",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Patwardhan",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Michelizzi",
                        "suffix": ""
                    }
                ],
                "year": 2004,
                "venue": "HLT-NAACL 2004, demonstration papers",
                "volume": "",
                "issue": "",
                "pages": "38--41",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "PEDERSEN, T., PATWARDHAN, S. et MICHELIZZI, J. (2004). Wordnet : :similarity -measuring the relatedness of concepts. In HLT-NAACL 2004, demonstration papers, pages 38-41.",
                "links": null
            },
            "BIBREF18": {
                "ref_id": "b18",
                "title": "mwetoolkit : a Framework for Multiword Expression Identification",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Ramisch",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Villavicencio",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Boitet",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "LREC'10",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "RAMISCH, C., VILLAVICENCIO, A. et BOITET, C. (2010). mwetoolkit : a Framework for Multiword Expression Identification. In LREC'10, Valetta, Malta.",
                "links": null
            },
            "BIBREF19": {
                "ref_id": "b19",
                "title": "Multi-prototype vector-space models of word meaning",
                "authors": [
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Reisinger",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [
                            "J"
                        ],
                        "last": "Mooney",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "HLT-NAACL 2010",
                "volume": "",
                "issue": "",
                "pages": "109--117",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "REISINGER, J. et MOONEY, R. J. (2010). Multi-prototype vector-space models of word meaning. In HLT-NAACL 2010, pages 109-117.",
                "links": null
            },
            "BIBREF20": {
                "ref_id": "b20",
                "title": "Probabilistic part-of-speech tagging using decision trees",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Schmid",
                        "suffix": ""
                    }
                ],
                "year": 1994,
                "venue": "International Conference on New Methods in Language Processing",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SCHMID, H. (1994). Probabilistic part-of-speech tagging using decision trees. In International Conference on New Methods in Language Processing.",
                "links": null
            },
            "BIBREF21": {
                "ref_id": "b21",
                "title": "Measures and Applications of Lexical Distributional Similarity",
                "authors": [
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Weeds",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "WEEDS, J. (2003). Measures and Applications of Lexical Distributional Similarity. Th\u00e8se de doctorat, Department of Informatics, University of Sussex.",
                "links": null
            },
            "BIBREF22": {
                "ref_id": "b22",
                "title": "Even unassociated features can improve lexical distributional similarity",
                "authors": [
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Yamamoto",
                        "suffix": ""
                    },
                    {
                        "first": "T",
                        "middle": [],
                        "last": "Asakura",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Zhitomirsky-Geffet",
                        "suffix": ""
                    },
                    {
                        "first": "I",
                        "middle": [],
                        "last": "Dagan",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "Second Workshop on NLP Challenges in the Information Explosion Era (NLPIX 2010)",
                "volume": "35",
                "issue": "",
                "pages": "435--461",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "YAMAMOTO, K. et ASAKURA, T. (2010). Even unassociated features can improve lexical distribu- tional similarity. In Second Workshop on NLP Challenges in the Information Explosion Era (NLPIX 2010), pages 32-39, Beijing, China. ZHITOMIRSKY-GEFFET, M. et DAGAN, I. (2009). Bootstrapping Distributional Feature Vector Quality. Computational Linguistics, 35(3):435-461.",
                "links": null
            }
        },
        "ref_entries": {
            "TABREF0": {
                "content": "<table><tr><td colspan=\"11\">de m\u00eame que leurs voisins possibles \u00e9taient constitu\u00e9s des noms du corpus AQUAINT-2 de</td></tr><tr><td colspan=\"11\">fr\u00e9quence sup\u00e9rieure \u00e0 10. \u00c0 titre illustratif, nous donnons les premiers voisins de deux entr\u00e9es</td></tr><tr><td colspan=\"6\">de ce th\u00e9saurus, aid et procurator, avec leur poids :</td><td/><td/><td/><td/><td/></tr><tr><td colspan=\"11\">aid assistance [0,41] Le tableau 1 montre quant lui les r\u00e9sultats de l'\u00e9valuation du th\u00e9saurus distributionnel obtenu,</td></tr><tr><td colspan=\"11\">r\u00e9alis\u00e9e en comparant les voisins s\u00e9mantiques extraits \u00e0 deux ressources de r\u00e9f\u00e9rence compl\u00e9men-</td></tr><tr><td colspan=\"11\">taires : les synonymes de WordNet [W], dans sa version 3.0, qui permettent de caract\u00e9riser une similarit\u00e9 fond\u00e9e sur des relations paradigmatiques et le th\u00e9saurus Moby [M], qui regroupe des mots li\u00e9s par des relations plus diverses. Comme l'illustre la 4\u00e8 me colonne du tableau, ces deux</td></tr><tr><td colspan=\"11\">ressources sont aussi tr\u00e8s diff\u00e9rentes en termes de richesse. Le but \u00e9tant d'\u00e9valuer la capacit\u00e9</td></tr><tr><td colspan=\"11\">\u00e0 extraire des voisins s\u00e9mantiques, elles sont filtr\u00e9es pour en exclure les entr\u00e9es et les voisins</td></tr><tr><td colspan=\"11\">non pr\u00e9sents dans le vocabulaire du corpus AQUAINT-2 (cf. la diff\u00e9rence entre le nombre de</td></tr><tr><td colspan=\"11\">mots de la 1\u00e8 re colonne et le nombre de mots effectivement \u00e9valu\u00e9s de la 3\u00e8 me colonne). Une</td></tr><tr><td colspan=\"11\">fusion de ces deux ressources a \u00e9galement \u00e9t\u00e9 faite [WM]. La fr\u00e9quence des mots \u00e9tant une don-n\u00e9e importante des approches distributionnelles, les r\u00e9sultats globaux sont diff\u00e9renci\u00e9s suivant</td></tr><tr><td colspan=\"11\">deux tranches fr\u00e9quentielles de m\u00eame effectif (7 335 mots chacune) : hautes pour les mots de</td></tr><tr><td colspan=\"11\">fr\u00e9quence &gt; \u00e0 la fr\u00e9quence m\u00e9diane (249) et basses pour les autres. Ces r\u00e9sultats se d\u00e9clinent</td></tr><tr><td colspan=\"11\">sous la forme de diff\u00e9rentes mesures, \u00e0 commencer \u00e0 la 5\u00e8 me colonne par le taux de rappel par</td></tr><tr><td colspan=\"11\">rapport aux ressources consid\u00e9r\u00e9es pour les 100 premiers voisins de chaque mot. Ces voisins</td></tr><tr><td>fr\u00e9q.</td><td colspan=\"2\">r\u00e9f. #mots</td><td>#syn.</td><td>rappel</td><td>R-</td><td colspan=\"5\">MAP P@1 P@5 P@10 P@100</td></tr><tr><td/><td/><td>\u00e9val.</td><td>/mot</td><td/><td>pr\u00e9c.</td><td/><td/><td/><td/><td/></tr><tr><td/><td>W</td><td colspan=\"2\">10 473 2,9</td><td>24,6</td><td>8,2</td><td>9,8</td><td>11,7</td><td>5,1</td><td>3,4</td><td>0,7</td></tr><tr><td>toutes</td><td>M</td><td>9 216</td><td>50,0</td><td>9,5</td><td>6,7</td><td>3,2</td><td colspan=\"2\">24,1 16,4</td><td>13,0</td><td>4,8</td></tr><tr><td>14 670</td><td colspan=\"3\">WM 12 243 38,7</td><td>9,8</td><td>7,7</td><td>5,6</td><td colspan=\"2\">22,5 14,1</td><td>10,8</td><td>3,8</td></tr><tr><td/><td>W</td><td>5889</td><td>3,3</td><td>29,4</td><td>11,8</td><td colspan=\"2\">13,5 17,4</td><td>7,5</td><td>4,9</td><td>1,0</td></tr><tr><td colspan=\"2\">hautes M</td><td>5751</td><td>60,5</td><td>11,2</td><td>9,4</td><td>4,6</td><td colspan=\"2\">35,9 24,2</td><td>18,9</td><td>6,8</td></tr><tr><td>7 335</td><td>VM</td><td>6754</td><td>52,6</td><td>11,4</td><td>11,1</td><td>7,4</td><td colspan=\"2\">36,4 22,8</td><td>17,5</td><td>6,0</td></tr><tr><td/><td>W</td><td>4584</td><td>2,3</td><td>16,0</td><td>3,7</td><td>5,1</td><td>4,2</td><td>2,0</td><td>1,4</td><td>0,4</td></tr><tr><td>basses</td><td>M</td><td>3465</td><td>32,5</td><td>4,4</td><td>2,3</td><td>0,9</td><td>4,4</td><td>3,4</td><td>3,1</td><td>1,4</td></tr><tr><td>7 335</td><td colspan=\"2\">WM 5489</td><td>21,6</td><td>5,1</td><td>3,6</td><td>3,4</td><td>5,5</td><td>3,3</td><td>2,7</td><td>1,1</td></tr><tr><td/><td/><td/><td/><td/><td/><td/><td/><td/><td/><td>en extrayant</td></tr><tr><td colspan=\"11\">les plus proches voisins s\u00e9mantiques de chacune de ses entr\u00e9es. Plus pr\u00e9cis\u00e9ment, cette mesure a</td></tr><tr><td colspan=\"11\">\u00e9t\u00e9 calcul\u00e9e entre chaque entr\u00e9e et l'ensemble de ses voisins possibles. Ces voisins ont ensuite</td></tr><tr><td colspan=\"11\">\u00e9t\u00e9 ordonn\u00e9s selon l'ordre d\u00e9croissant des valeurs de cette mesure et les N premiers voisins</td></tr><tr><td colspan=\"11\">(N = 100) ont \u00e9t\u00e9 conserv\u00e9s en tant que voisins s\u00e9mantiques de l'entr\u00e9e. Les entr\u00e9es du th\u00e9saurus</td></tr></table>",
                "text": "relief [0,34] funding [0,29] grant [0,27] fund [0,26] donation [0,26] . . . procurator justiceship [0,31] amadou [0,27] commmission [0,26] pamphleteer [0,22] . . .",
                "type_str": "table",
                "num": null,
                "html": null
            },
            "TABREF1": {
                "content": "<table/>",
                "text": "\u00c9valuation de l'extraction des voisins s\u00e9mantiques (mesures donn\u00e9es en pourcentage) \u00e9tant ordonn\u00e9s, il est en outre possible de r\u00e9utiliser les m\u00e9triques d'\u00e9valuation classiquement adopt\u00e9es en recherche d'information en faisant jouer aux mots cibles le r\u00f4le de requ\u00eates et aux voisins celui des documents. Les derni\u00e8res colonnes du tableau 1 rendent compte de ces mesures : la R-pr\u00e9cision (R-pr\u00e9c.) est la pr\u00e9cision obtenue en se limitant aux R premiers voisins, R \u00e9tant le nombre de synonymes dans la ressource de r\u00e9f\u00e9rence pour l'entr\u00e9e consid\u00e9r\u00e9e ; la MAP",
                "type_str": "table",
                "num": null,
                "html": null
            },
            "TABREF3": {
                "content": "<table/>",
                "text": "\u00c9valuation du th\u00e9saurus distributionnel pour les noms compos\u00e9s Le tableau 2 donne les r\u00e9sultats de l'\u00e9valuation des voisins s\u00e9mantiques trouv\u00e9s en prenant comme pr\u00e9c\u00e9demment en tant que r\u00e9f\u00e9rence WordNet, le th\u00e9saurus Moby et la fusion des deux. Le premier constat pouvant \u00eatre fait est la proportion tr\u00e8s faible, par rapport aux mono-termes, d'entr\u00e9es ayant pu \u00eatre \u00e9valu\u00e9es : seulement 2,8% des entr\u00e9es, \u00e0 comparer \u00e0 83,5% des entr\u00e9es pour les mono-termes. De ce fait, les r\u00e9sultats de cette \u00e9valuation doivent \u00eatre consid\u00e9r\u00e9s avec prudence, m\u00eame si le nombre d'entr\u00e9es \u00e9valu\u00e9es est globalement plus \u00e9lev\u00e9 que le nombre d'entr\u00e9es consid\u00e9r\u00e9es dans les \u00e9valuations standards : 70 pour",
                "type_str": "table",
                "num": null,
                "html": null
            },
            "TABREF4": {
                "content": "<table><tr><td>5 Exp\u00e9rimentations et \u00e9valuation W M sym\u00e9trie 36,6 [2,0] 55,5 [14,4] 59,7 [12,4] WM r\u00e8gle (1) 19,3 56,1 56,9 r\u00e8gle (2) 16,2 42,4 44,7 r\u00e8gle (3) 13,5 45,9 46,2 r\u00e8gles (1,2) 17,8 [2,5] 52,2 [16,8] 53,0 [16,1] r\u00e8gles (1,2,3) 17,6 51,7 52,4 sym\u00e9trie + r\u00e8gles (1,2) 23,5 [2,3] 52,5 [16,3] 54,3 [15,0] sym\u00e9trie + r\u00e8gles (1,2,3) 23,3 52,1 53,9 TABLE 3 -R\u00e9sultats de la s\u00e9lection des exemples L'\u00e9valuation de la seconde m\u00e9thode de s\u00e9lection montre d'abord que la r\u00e8gle (3), qui est a priori # exemples 796 921 308 40 1 115 1 131 1 710 1 725 la moins fiable des trois, ne produit effectivement qu'un petit nombre d'exemples tendant \u00e0 d\u00e9grader les r\u00e9sultats. De ce fait, seule la combinaison des r\u00e8gles (1) et (2) a \u00e9t\u00e9 utilis\u00e9e dans ce qui suit. Cette \u00e9valuation montre en outre que les t\u00eates de deux noms compos\u00e9s s\u00e9mantiquement li\u00e9s ont davantage tendance \u00e0 \u00eatre elles-m\u00eames similaires si leurs expansions sont similaires que n'ont tendance \u00e0 \u00eatre similaires des expansions de deux noms compos\u00e9s dont les t\u00eates sont similaires. Ce r\u00e9sultat n'\u00e9tait pas \u00e9vident a priori dans la mesure o\u00f9 l'on s'attend \u00e0 ce que la t\u00eate d'un compos\u00e9 soit davantage repr\u00e9sentatif de son sens que son expansion. Plus globalement, le tableau 3 laisse appara\u00eetre que la premi\u00e8re m\u00e9thode de s\u00e9lection est sup\u00e9rieure \u00e0 la seconde mais que leur association produit un compromis int\u00e9ressant entre le nombre d'exemples, 1 710, et son taux d'erreur, 45,7% avec WM comme r\u00e9f\u00e9rence. Cette compl\u00e9mentarit\u00e9 est \u00e9galement illustr\u00e9e 5.1 m\u00e9thode par le faible nombre d'exemples -201 -qu'elles partagent.</td></tr></table>",
                "text": "increase, rise) et (salary, pay) de salary_increase et pay_rise Dans le cas de la seconde m\u00e9thode, ces mesures sont \u00e9galement d\u00e9clin\u00e9es au niveau de chacune des trois r\u00e8gles de s\u00e9lection. Les chiffres donn\u00e9s entre crochets repr\u00e9sentent quant \u00e0 eux les pourcentages d'erreurs parmi les exemples de mots non similaires. Ces r\u00e9sultats ont \u00e9t\u00e9 obtenus en fixant exp\u00e9rimentalement la taille du voisinage consid\u00e9r\u00e9 pour les entr\u00e9es \u00e0 3 pour les noms compos\u00e9s (c) et \u00e0 1 pour les noms simples (n). En outre, ces trois r\u00e8gles de s\u00e9lection ont \u00e9t\u00e9 appliqu\u00e9es avec l'ensemble des entr\u00e9es du th\u00e9saurus des noms compos\u00e9s et les entr\u00e9es du th\u00e9saurus des noms simples dites de haute fr\u00e9quence. Les valeurs des param\u00e8tres c et n ne r\u00e9sultent pas d'une optimisation sophistiqu\u00e9e mais r\u00e9pondent plut\u00f4t une logique induite des \u00e9valuations r\u00e9alis\u00e9es : pour les mono-termes, seul le premier voisin est retenu du fait de la faiblesse des r\u00e9sultats alors que pour les multi-termes, le voisinage peut \u00eatre l\u00e9g\u00e8rement \u00e9largi du fait d'une meilleure fiabilit\u00e9 des voisins. Il est \u00e0 noter par ailleurs que l'association de deux ensembles d'exemples s\u00e9lectionn\u00e9s par des m\u00e9thodes diff\u00e9rentes rend les r\u00e9sultats plus stables vis-\u00e0-vis des valeurs de c et n.",
                "type_str": "table",
                "num": null,
                "html": null
            },
            "TABREF5": {
                "content": "<table/>",
                "text": "R\u00e9ordonnancement des voisins s\u00e9mantiques de toutes les entr\u00e9es du th\u00e9saurus initial pour chaque m\u00e9thode de s\u00e9lection d'exemples",
                "type_str": "table",
                "num": null,
                "html": null
            },
            "TABREF6": {
                "content": "<table><tr><td>WordNet</td><td>respect, admiration, regard</td></tr><tr><td/><td>admiration, appreciation, acceptance, dignity, regard, respect, account,</td></tr><tr><td>Moby</td><td>adherence, consideration, estimate, estimation, fame, greatness, homage, honor, prestige, prominence, reverence, veneration + 74 mots li\u00e9s sup-pl\u00e9mentaires</td></tr><tr><td/><td>cordiality, gratitude, admiration, comradeship, back-scratching, per-</td></tr><tr><td>initial</td><td>plexity, respect, ruination, appreciation, neighbourliness, trust, empathy,</td></tr><tr><td/><td>suffragette, goodwill . . .</td></tr><tr><td/><td>respect, admiration, trust, recognition, gratitude, confidence, affec-</td></tr><tr><td>apr\u00e8s r\u00e9ordonnan-</td><td>tion, understanding, solidarity, dignity, appreciation, regard, sympathy,</td></tr><tr><td>cement</td><td>acceptance . . .</td></tr><tr><td colspan=\"2\">TABLE 6 -Impact du r\u00e9ordonnancement pour l'entr\u00e9e esteem</td></tr></table>",
                "text": "R\u00e9ordonnancement du th\u00e9saurus initial avec les deux m\u00e9thodes de s\u00e9lection d'exemples L'analyse des r\u00e9sultats du tableau 5 en termes de fr\u00e9quence des mots met en \u00e9vidence une seconde grande tendance : l'am\u00e9lioration produite par le r\u00e9ordonnancement est d'autant plus sensible que la fr\u00e9quence de l'entr\u00e9e du th\u00e9saurus est faible. Ainsi, pour les noms de faible fr\u00e9quence, cette am\u00e9lioration s'observe quelle que soit la r\u00e9f\u00e9rence tandis que pour les noms de forte fr\u00e9quence, la variation est n\u00e9gative pour certaines r\u00e9f\u00e9rences et mesures et positive pour d'autres. Ce constat montre que le r\u00e9ordonnancement tend ainsi \u00e0 r\u00e9\u00e9quilibrer le th\u00e9saurus initial, tr\u00e8s fortement biais\u00e9 vers les fortes fr\u00e9quences. Enfin, l'\u00e9valuation de ces trois th\u00e9saurus confirment les r\u00e9sultats du tableau 3 \u00e0 propos de chaque ensemble d'exemples s\u00e9lectionn\u00e9s : le th\u00e9saurus construit \u00e0 partir des exemples de la premi\u00e8re m\u00e9thode de s\u00e9lection est meilleur que celui construit \u00e0 partir des exemples de la seconde m\u00e9thode de s\u00e9lection et les deux sont nettement d\u00e9pass\u00e9s par le th\u00e9saurus construit \u00e0 partir de la fusion des deux ensembles d'exemples.",
                "type_str": "table",
                "num": null,
                "html": null
            }
        }
    }
}