File size: 113,451 Bytes
6fa4bc9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
1390
1391
1392
1393
1394
1395
1396
1397
1398
1399
1400
1401
1402
1403
1404
1405
1406
1407
1408
1409
1410
1411
1412
1413
1414
1415
1416
1417
1418
1419
1420
1421
1422
1423
1424
1425
1426
1427
1428
1429
1430
1431
1432
1433
1434
1435
1436
1437
1438
1439
1440
1441
1442
1443
1444
1445
1446
1447
1448
1449
1450
1451
1452
1453
1454
1455
1456
1457
1458
1459
1460
1461
1462
1463
1464
1465
1466
1467
1468
1469
1470
1471
1472
1473
1474
1475
1476
1477
1478
1479
1480
1481
1482
1483
1484
1485
1486
1487
1488
1489
1490
1491
1492
1493
1494
1495
1496
1497
1498
1499
1500
1501
1502
1503
1504
1505
1506
1507
1508
1509
1510
1511
1512
1513
1514
1515
1516
1517
1518
1519
1520
1521
1522
1523
1524
1525
1526
1527
1528
1529
1530
1531
1532
1533
1534
1535
1536
1537
1538
1539
1540
1541
1542
1543
1544
1545
1546
1547
1548
1549
1550
1551
1552
1553
1554
1555
1556
1557
1558
1559
1560
1561
1562
1563
1564
1565
1566
1567
1568
1569
1570
1571
1572
1573
1574
1575
1576
1577
1578
1579
1580
1581
1582
1583
1584
1585
1586
1587
1588
1589
1590
1591
1592
1593
1594
1595
1596
1597
1598
1599
1600
1601
1602
1603
1604
1605
1606
1607
1608
1609
1610
1611
1612
1613
1614
1615
1616
1617
1618
1619
1620
1621
1622
1623
1624
1625
1626
1627
1628
1629
1630
1631
1632
1633
1634
1635
1636
1637
1638
1639
1640
1641
1642
1643
1644
1645
1646
1647
1648
1649
1650
1651
1652
1653
1654
1655
1656
1657
1658
1659
1660
1661
1662
1663
1664
1665
1666
1667
1668
1669
1670
1671
1672
1673
1674
1675
1676
1677
1678
1679
1680
1681
1682
1683
1684
1685
1686
1687
1688
1689
1690
1691
1692
1693
1694
1695
1696
1697
1698
1699
1700
1701
1702
1703
1704
1705
1706
1707
1708
1709
1710
1711
1712
1713
1714
1715
1716
1717
1718
1719
1720
1721
1722
1723
1724
1725
1726
1727
1728
1729
1730
1731
1732
1733
1734
1735
1736
1737
1738
1739
1740
1741
1742
1743
1744
1745
1746
1747
1748
1749
1750
1751
1752
1753
1754
1755
1756
1757
1758
1759
1760
1761
1762
1763
1764
1765
1766
1767
1768
1769
1770
1771
1772
1773
1774
1775
1776
1777
1778
1779
1780
1781
1782
1783
1784
1785
1786
1787
1788
1789
1790
1791
1792
1793
1794
1795
1796
1797
1798
1799
1800
1801
1802
1803
1804
1805
1806
1807
1808
1809
1810
1811
1812
1813
1814
1815
1816
1817
1818
1819
1820
1821
1822
1823
1824
1825
1826
1827
1828
1829
1830
1831
1832
1833
1834
1835
1836
1837
1838
1839
1840
1841
1842
1843
1844
1845
1846
1847
1848
1849
1850
1851
1852
1853
1854
1855
1856
1857
1858
1859
1860
1861
1862
1863
1864
1865
1866
1867
1868
1869
1870
1871
1872
1873
1874
1875
1876
1877
1878
1879
1880
1881
1882
1883
1884
1885
1886
1887
1888
1889
1890
1891
1892
1893
1894
1895
1896
1897
1898
1899
1900
1901
1902
1903
1904
1905
1906
1907
1908
1909
1910
1911
1912
1913
1914
1915
1916
1917
1918
1919
1920
1921
1922
1923
1924
1925
1926
1927
1928
1929
1930
1931
1932
1933
1934
1935
1936
1937
1938
1939
1940
1941
1942
1943
1944
1945
1946
1947
1948
1949
1950
1951
1952
1953
1954
1955
1956
1957
1958
1959
1960
1961
1962
1963
1964
1965
1966
1967
1968
1969
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
1981
1982
1983
1984
1985
1986
1987
1988
1989
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
2021
2022
2023
2024
2025
2026
2027
2028
2029
2030
2031
2032
2033
2034
2035
2036
2037
2038
2039
2040
2041
2042
2043
2044
2045
2046
2047
2048
2049
2050
2051
2052
2053
2054
2055
2056
2057
2058
2059
2060
2061
2062
2063
2064
2065
2066
2067
2068
2069
2070
2071
2072
2073
2074
2075
2076
2077
{
    "paper_id": "F13-1007",
    "header": {
        "generated_with": "S2ORC 1.0.0",
        "date_generated": "2023-01-19T09:41:40.660863Z"
    },
    "title": "Approches statistiques discriminantes pour l'interpr\u00e9tation s\u00e9mantique multilingue de la parole",
    "authors": [
        {
            "first": "Bassam",
            "middle": [],
            "last": "Jabaian",
            "suffix": "",
            "affiliation": {
                "laboratory": "",
                "institution": "Universit\u00e9 d'Avignon et des Pays de Vaucluse",
                "location": {
                    "settlement": "Avignon",
                    "country": "France ("
                }
            },
            "email": ""
        },
        {
            "first": "Fabrice",
            "middle": [],
            "last": "Lef\u00e8vre",
            "suffix": "",
            "affiliation": {
                "laboratory": "",
                "institution": "Universit\u00e9 d'Avignon et des Pays de Vaucluse",
                "location": {
                    "settlement": "Avignon",
                    "country": "France ("
                }
            },
            "email": ""
        },
        {
            "first": "Laurent",
            "middle": [],
            "last": "Besacier",
            "suffix": "",
            "affiliation": {
                "laboratory": "",
                "institution": "Universit\u00e9 Joseph Fourrier",
                "location": {
                    "settlement": "Grenoble",
                    "country": "France R\u00c9SUM\u00c9"
                }
            },
            "email": ""
        }
    ],
    "year": "",
    "venue": null,
    "identifiers": {},
    "abstract": "Les approches statistiques sont maintenant tr\u00e8s r\u00e9pandues dans les diff\u00e9rentes applications du traitement automatique de la langue et le choix d'une approche particuli\u00e8re d\u00e9pend g\u00e9n\u00e9ralement de la t\u00e2che vis\u00e9e. Dans le cadre de l'interpr\u00e9tation s\u00e9mantique multilingue, cet article pr\u00e9sente une comparaison entre les m\u00e9thodes utilis\u00e9es pour la traduction automatique et celles utilis\u00e9es pour la compr\u00e9hension de la parole. Cette comparaison permet de proposer une approche unifi\u00e9e afin de r\u00e9aliser un d\u00e9codage conjoint qui \u00e0 la fois traduit une phrase et lui attribue ses \u00e9tiquettes s\u00e9mantiques. Ce d\u00e9codage est obtenu par une approche \u00e0 base de transducteurs \u00e0 \u00e9tats finis qui permet de composer un graphe de traduction avec un graphe de compr\u00e9hension. Cette repr\u00e9sentation peut \u00eatre g\u00e9n\u00e9ralis\u00e9e pour permettre des transmissions d'informations riches entre les composants d'un syst\u00e8me d'interaction vocale homme-machine.",
    "pdf_parse": {
        "paper_id": "F13-1007",
        "_pdf_hash": "",
        "abstract": [
            {
                "text": "Les approches statistiques sont maintenant tr\u00e8s r\u00e9pandues dans les diff\u00e9rentes applications du traitement automatique de la langue et le choix d'une approche particuli\u00e8re d\u00e9pend g\u00e9n\u00e9ralement de la t\u00e2che vis\u00e9e. Dans le cadre de l'interpr\u00e9tation s\u00e9mantique multilingue, cet article pr\u00e9sente une comparaison entre les m\u00e9thodes utilis\u00e9es pour la traduction automatique et celles utilis\u00e9es pour la compr\u00e9hension de la parole. Cette comparaison permet de proposer une approche unifi\u00e9e afin de r\u00e9aliser un d\u00e9codage conjoint qui \u00e0 la fois traduit une phrase et lui attribue ses \u00e9tiquettes s\u00e9mantiques. Ce d\u00e9codage est obtenu par une approche \u00e0 base de transducteurs \u00e0 \u00e9tats finis qui permet de composer un graphe de traduction avec un graphe de compr\u00e9hension. Cette repr\u00e9sentation peut \u00eatre g\u00e9n\u00e9ralis\u00e9e pour permettre des transmissions d'informations riches entre les composants d'un syst\u00e8me d'interaction vocale homme-machine.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Abstract",
                "sec_num": null
            }
        ],
        "body_text": [
            {
                "text": "Aujourd'hui, les approches statistiques sont tr\u00e8s utilis\u00e9es pour toutes les applications du traitement automatique de la langue (reconnaissance de la parole, traduction automatique, analyse syntaxique, \u00e9tiquetage s\u00e9mantique...). La performance d'une approche particuli\u00e8re d\u00e9pend \u00e9norm\u00e9ment de la t\u00e2che \u00e0 laquelle elle est appliqu\u00e9e. Et, selon les t\u00e2ches, les approches permettant les meilleures performances ne sont pas toujours les m\u00eames.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Par exemple, pour une t\u00e2che de compr\u00e9hension de la parole (Spoken Language Understanding, SLU), assimilable \u00e0 un \u00e9tiquetage s\u00e9quentiel en concepts, les champs al\u00e9atoires conditionnels (Conditional Random Fields, CRF) (Lafferty et al., 2001 ) utilis\u00e9s dans leur version cha\u00eene lin\u00e9aire sont les plus performants (Hahn et al., 2010) . Alors que pour la traduction automatique, ce sont les mod\u00e8les de traduction log-lin\u00e9aires \u00e0 base de segments sous-phrastiques (Log-linear Phrase-Based Statistical Machine Translation, LLPB-SMT) (Koehn et al., 2003) , qui sont le plus souvent utilis\u00e9s.",
                "cite_spans": [
                    {
                        "start": 217,
                        "end": 239,
                        "text": "(Lafferty et al., 2001",
                        "ref_id": "BIBREF17"
                    },
                    {
                        "start": 311,
                        "end": 330,
                        "text": "(Hahn et al., 2010)",
                        "ref_id": "BIBREF9"
                    },
                    {
                        "start": 527,
                        "end": 547,
                        "text": "(Koehn et al., 2003)",
                        "ref_id": "BIBREF15"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Cependant, malgr\u00e9 les diff\u00e9rences entre les approches statistiques, celles-ci pr\u00e9sentent des points communs et les fronti\u00e8res entre les unes et les autres ont tendance \u00e0 s'estomper. On voit, par exemple, des travaux autour de l'utilisation d'approches discriminantes de type CRF pour la traduction automatique (Och et Ney, 2002; Liang et al., 2006; Lavergne et al., 2011) , tandis que les approches de traduction \u00e0 base de segments, sont aussi utilis\u00e9es dans d'autres t\u00e2ches du traitement automatique de la langue, comme la conversion graph\u00e8me-phon\u00e8mes (Rama et al., 2009) ou le d\u00e9codage de Part-Of-Speech (Gasc\u00f3 i Mora et S\u00e1nchez Peir\u00f3, 2007) .",
                "cite_spans": [
                    {
                        "start": 310,
                        "end": 328,
                        "text": "(Och et Ney, 2002;",
                        "ref_id": null
                    },
                    {
                        "start": 329,
                        "end": 348,
                        "text": "Liang et al., 2006;",
                        "ref_id": "BIBREF20"
                    },
                    {
                        "start": 349,
                        "end": 371,
                        "text": "Lavergne et al., 2011)",
                        "ref_id": "BIBREF19"
                    },
                    {
                        "start": 553,
                        "end": 572,
                        "text": "(Rama et al., 2009)",
                        "ref_id": "BIBREF26"
                    },
                    {
                        "start": 606,
                        "end": 643,
                        "text": "(Gasc\u00f3 i Mora et S\u00e1nchez Peir\u00f3, 2007)",
                        "ref_id": "BIBREF8"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Dans cet article nous comparons les approches CRF-SLU et LLPB-SMT pour les t\u00e2ches de compr\u00e9hension et de traduction. Pour cela nous proposons d'utiliser et d'optimiser une approche LLPB-SMT pour la compr\u00e9hension de la parole, et par ailleurs d'int\u00e9grer des mod\u00e8les \u00e0 base de CRF \u00e0 un module de traduction automatique. Cette \u00e9tude nous permet de mettre en avant les sp\u00e9cificit\u00e9s de chaque t\u00e2che et d'\u00e9valuer les performances des approches respectives sur ces t\u00e2ches. D'autre part, nous avons montr\u00e9 dans un travail pr\u00e9c\u00e9dent (Jabaian et al., 2010 (Jabaian et al., , 2011 ) que l'utilisation de la traduction automatique constitue une solution efficace pour la portabilit\u00e9 multilingue d'un module de compr\u00e9hension d'une langue vers une autre. Cette portabilit\u00e9 peut \u00eatre obtenue en cascadant un module de traduction avec un module de compr\u00e9hension (pour traduire les entr\u00e9es d'un utilisateur vers une langue pour laquelle nous disposons d'un syst\u00e8me de compr\u00e9hension).",
                "cite_spans": [
                    {
                        "start": 524,
                        "end": 545,
                        "text": "(Jabaian et al., 2010",
                        "ref_id": "BIBREF12"
                    },
                    {
                        "start": 546,
                        "end": 569,
                        "text": "(Jabaian et al., , 2011",
                        "ref_id": "BIBREF13"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Dans certains cas, la meilleure hypoth\u00e8se de traduction n'est pas l'hypoth\u00e8se pour laquelle le syst\u00e8me de compr\u00e9hension g\u00e9n\u00e8re la meilleure hypoth\u00e8se (souvent pour des raisons li\u00e9es \u00e0 l'ordre des mots). Et donc la s\u00e9lection pr\u00e9alable de la meilleure traduction n'optimise pas forc\u00e9ment le syst\u00e8me lorsqu'on se place selon un sc\u00e9nario de compr\u00e9hension multilingue.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Nous nous basons sur la comparaison r\u00e9alis\u00e9e entre les deux t\u00e2ches afin de pouvoir proposer un mod\u00e8le qui pourra g\u00e9rer la traduction et la compr\u00e9hension d'une mani\u00e8re similaire permettant un d\u00e9codage conjoint entre les modules. Ce d\u00e9codage conjoint permettra de s\u00e9lectionner des traductions en tenant compte des hypoth\u00e8ses d'\u00e9tiquetage s\u00e9mantique. Dans cet esprit, nous ne cherchons plus la meilleure traduction possible mais la traduction qui sera \u00e9tiquet\u00e9e s\u00e9mantiquement de la meilleure mani\u00e8re possible.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Nos exp\u00e9riences sont bas\u00e9es sur le corpus de dialogue fran\u00e7ais MEDIA sur lequel nous apprenons un syst\u00e8me de compr\u00e9hension du fran\u00e7ais. Dans le but de pouvoir utiliser ce syst\u00e8me pour \u00e9tiqueter des entr\u00e9es en italien, nous apprenons un syst\u00e8me de traduction de l'italien vers fran\u00e7ais, qui sera utilis\u00e9 ensuite lors des tests pour traduire les entr\u00e9es italiennes vers le fran\u00e7ais afin de les fournir en entr\u00e9e du syst\u00e8me de compr\u00e9hension.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Cet article est organis\u00e9 de la mani\u00e8re suivante : la section 2 pr\u00e9sente l'utilisation d'une approche de traduction automatique pour la compr\u00e9hension de la parole. La section 3 d\u00e9crit l'utilisation des CRF pour la traduction automatique. Notre proposition pour un d\u00e9codage conjoint entre la compr\u00e9hension et la traduction est pr\u00e9sent\u00e9e dans la section 4. Enfin la section 5 pr\u00e9sente l'\u00e9tude exp\u00e9rimentale et les r\u00e9sultats.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Le probl\u00e8me de la compr\u00e9hension d'un \u00e9nonc\u00e9 utilisateur peut \u00eatre vu comme un probl\u00e8me de traduction de la s\u00e9quence de mots qui forme cet \u00e9nonc\u00e9 (langue source) vers une s\u00e9quence de concepts (langue cible). (Macherey et al., 2001 (Macherey et al., , 2009 ont montr\u00e9 que les approches de la traduction automatique statistique peuvent \u00eatre utilis\u00e9es avec un certain succ\u00e8s pour une t\u00e2che de compr\u00e9hension de la parole. Cette approche part du principe que les s\u00e9quences de concepts sont les traductions des s\u00e9quences de mots initiales.",
                "cite_spans": [
                    {
                        "start": 207,
                        "end": 229,
                        "text": "(Macherey et al., 2001",
                        "ref_id": "BIBREF22"
                    },
                    {
                        "start": 230,
                        "end": 254,
                        "text": "(Macherey et al., , 2009",
                        "ref_id": "BIBREF21"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de traduction pour la compr\u00e9hension",
                "sec_num": "2"
            },
            {
                "text": "Malgr\u00e9 l'apparente similitude entre les t\u00e2ches de compr\u00e9hension et de traduction, la compr\u00e9hension a ses sp\u00e9cificit\u00e9s qui doivent \u00eatre prises en consid\u00e9ration afin de pouvoir am\u00e9liorer les performances obtenues par une approche de traduction comme LLPB-SMT.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de traduction pour la compr\u00e9hension",
                "sec_num": "2"
            },
            {
                "text": "Les diff\u00e9rences entre une t\u00e2che de traduction classique (d'une langue naturelle vers une autre) et l'utilisation de la traduction pour la compr\u00e9hension (traduction d'une langue vers des \u00e9tiquettes s\u00e9mantiques) peuvent \u00eatre r\u00e9sum\u00e9es comme suit : -la s\u00e9mantique d'une phrase respecte l'ordre dans lequel les mots sont \u00e9mis contrairement \u00e0 une t\u00e2che de traduction o\u00f9 les mots traduits peuvent avoir un ordre diff\u00e9rent de l'ordre des mots de la phrase source selon le couple de langues consid\u00e9r\u00e9es ; -dans une t\u00e2che de traduction, un mot source peut n'\u00eatre align\u00e9 \u00e0 aucun mot cible (fertilit\u00e9 = 0), alors que pour la compr\u00e9hension chaque mot doit \u00eatre align\u00e9 \u00e0 un concept, sachant que les mots qui ne contribuent pas au sens de la phrase sont \u00e9tiquet\u00e9s par un concept sp\u00e9cifique ; -enfin, les mesures d'\u00e9valuation sont diff\u00e9rentes entre les deux t\u00e2ches (BLEU (Papineni et al., 2002) pour la traduction vs. CER pour la compr\u00e9hension) et donc les outils utilis\u00e9s pour l'optimisation des syst\u00e8mes de traduction doivent \u00eatre adapt\u00e9s pour optimiser le score CER. ",
                "cite_spans": [
                    {
                        "start": 855,
                        "end": 878,
                        "text": "(Papineni et al., 2002)",
                        "ref_id": "BIBREF25"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de traduction pour la compr\u00e9hension",
                "sec_num": "2"
            },
            {
                "text": "Dans cette approche, le probl\u00e8me de la traduction d'une phrase est consid\u00e9r\u00e9 comme un probl\u00e8me d'\u00e9tiquetage de la s\u00e9quence de mots source, avec comme \u00e9tiquettes possibles les mots de la langue cible. L'apprentissage d'un \u00e9tiqueteur fond\u00e9 sur une approche CRF pour une t\u00e2che de traduction n\u00e9cessite un corpus annot\u00e9 (traduit) au niveau des mots. L'application des mod\u00e8les IBM (Brown et al., 1993) permet d'obtenir automatiquement des alignements en mots \u00e0 partir d'un corpus bilingue align\u00e9 au niveau des phrases.",
                "cite_spans": [
                    {
                        "start": 375,
                        "end": 395,
                        "text": "(Brown et al., 1993)",
                        "ref_id": "BIBREF5"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de compr\u00e9hension pour la traduction",
                "sec_num": "3"
            },
            {
                "text": "Comme pour la compr\u00e9hension, o\u00f9 plusieurs mots peuvent \u00eatre associ\u00e9s \u00e0 un seul concept, plusieurs mots source peuvent \u00eatre align\u00e9s avec un seul mot cible. Pour g\u00e9rer cela, la proposition la plus simple est d'appliquer la m\u00eame m\u00e9thode utilis\u00e9e pour la compr\u00e9hension : le passage au format BIO. Ainsi la s\u00e9quence fran\u00e7aise \"je voudrais\" qui est align\u00e9e au mot italien \"vorrei\" sera repr\u00e9sent\u00e9e comme : <je, B_vorrei> <voudrais, I_vorrei>.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de compr\u00e9hension pour la traduction",
                "sec_num": "3"
            },
            {
                "text": "La difficult\u00e9 principale pour apprendre des mod\u00e8les CRF pour la traduction est li\u00e9e au nombre \u00e9lev\u00e9 d'\u00e9tiquettes (correspondant \u00e0 la taille du vocabulaire de la langue cible). (Riedmiller et Braun, 1993) ont propos\u00e9 d'utiliser l'algorithme RPROP pour l'optimisation des param\u00e8tres de mod\u00e8les lorsqu'il s'agit d'un mod\u00e8le avec un nombre important de param\u00e8tres. Cet algorithme r\u00e9duit le besoin en m\u00e9moire par rapport \u00e0 d'autres algorithmes d'optimisation (Turian et al., 2006) .",
                "cite_spans": [
                    {
                        "start": 176,
                        "end": 203,
                        "text": "(Riedmiller et Braun, 1993)",
                        "ref_id": "BIBREF28"
                    },
                    {
                        "start": 454,
                        "end": 475,
                        "text": "(Turian et al., 2006)",
                        "ref_id": "BIBREF32"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de compr\u00e9hension pour la traduction",
                "sec_num": "3"
            },
            {
                "text": "Un autre d\u00e9faut important de l'utilisation des CRF pour la traduction est qu'ils ne prennent pas en compte le r\u00e9ordonnancement des mots et que le mod\u00e8le de langage cible limit\u00e9 par la complexit\u00e9 algorithmique lors du d\u00e9codage. Afin d'obtenir un syst\u00e8me de traduction efficace \u00e0 base de CRF, (Lavergne et al., 2011) ont propos\u00e9 un mod\u00e8le fond\u00e9 sur des transducteurs \u00e0 \u00e9tats finis qui composent les diff\u00e9rents \u00e9tapes du processus de traduction. Nous l'appellerons CRFPB-SMT car il int\u00e9gre aussi un m\u00e9canisme pour la mod\u00e9lisation d'une table de traduction par segments sous-phrastiques (appel\u00e9s tuples dans ce contexte).",
                "cite_spans": [
                    {
                        "start": 291,
                        "end": 314,
                        "text": "(Lavergne et al., 2011)",
                        "ref_id": "BIBREF19"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de compr\u00e9hension pour la traduction",
                "sec_num": "3"
            },
            {
                "text": "Le d\u00e9codeur propos\u00e9 pour ce mod\u00e8le est une composition de transducteurs \u00e0 \u00e9tats finis pond\u00e9r\u00e9s (Weighted Finite State Transducer, WFST) qui met en ouvre les fonctionnalit\u00e9s standards des WFST, disponibles dans des biblioth\u00e8ques logicielles comme OpenFST (Allauzen et al., 2007) . Essentiellement, le d\u00e9codeur de traduction est une composition de transducteurs qui repr\u00e9sentent les \u00e9tapes suivantes : le r\u00e9ordonnancement et la segmentation de la phrase source selon les tuples de mots, l'application du mod\u00e8le de traduction (mise en correspondance des parties source et cible des tuples) avec une valuation des hypoth\u00e8ses \u00e0 base de CRF et, enfin, la composition avec un mod\u00e8le de langage dans la langue cible. ",
                "cite_spans": [
                    {
                        "start": 254,
                        "end": 277,
                        "text": "(Allauzen et al., 2007)",
                        "ref_id": "BIBREF2"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de compr\u00e9hension pour la traduction",
                "sec_num": "3"
            },
            {
                "text": "\u03bb t raduction = \u03bb S \u2022 \u03bb R \u2022 \u03bb T \u2022 \u03bb F \u2022 \u03bb L",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de compr\u00e9hension pour la traduction",
                "sec_num": "3"
            },
            {
                "text": "sachant que \u03bb S est l'accepteur de la phrase source, \u03bb R repr\u00e9sente un mod\u00e8le de r\u00e9ordonnancement, \u03bb T est un dictionnaire de tuples, qui associe des s\u00e9quences de la langue source avec leurs traductions possibles en se basant sur l'inventaire des tuples lors de l'apprentissage, \u03bb F est une fonction d'extraction de motifs (feature matcher), qui permet d'attribuer des scores de probabilit\u00e9 aux tuples en les comparant aux motifs des fonctions caract\u00e9ristiques du mod\u00e8le CRF et \u03bb L est un mod\u00e8le de langage de la langue cible.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9thode de compr\u00e9hension pour la traduction",
                "sec_num": "3"
            },
            {
                "text": "Notre \u00e9tude des relations entre les diff\u00e9rentes approches est r\u00e9alis\u00e9e avec l'objectif de pouvoir les combiner du mieux possible pour la portabilit\u00e9 multilingue d'un syst\u00e8me de compr\u00e9hension.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
                "sec_num": "4"
            },
            {
                "text": "Dans des travaux pr\u00e9c\u00e9dents (Jabaian et al., 2010) , nous avons montr\u00e9 que la meilleure m\u00e9thode pour porter un syst\u00e8me de compr\u00e9hension existant vers une nouvelle langue est aussi la plus simple : traduire les \u00e9nonc\u00e9s utilisateurs de la nouvelle langue vers la langue du syst\u00e8me existant et ensuite faire \u00e9tiqueter les \u00e9nonc\u00e9s (traduits) par ce syst\u00e8me.",
                "cite_spans": [
                    {
                        "start": 28,
                        "end": 50,
                        "text": "(Jabaian et al., 2010)",
                        "ref_id": "BIBREF12"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
                "sec_num": "4"
            },
            {
                "text": "Notre proposition est bas\u00e9e sur une cascade d'un syst\u00e8me de traduction (LLPB-SMT) et d'un syst\u00e8me de compr\u00e9hension (CRF-SLU). La meilleure hypoth\u00e8se g\u00e9n\u00e9r\u00e9e par le syst\u00e8me de traduction constitue l'entr\u00e9e du syst\u00e8me de compr\u00e9hension. Cependant, d'autres hypoth\u00e8ses de traductions peuvent diff\u00e9rer (m\u00eame sensiblement, par exemple dans l'ordre des mots) et ces variantes peuvent \u00eatre mieux interpr\u00e9t\u00e9es par l'\u00e9tiqueteur s\u00e9mantique. Donc la s\u00e9lection a priori de la meilleure traduction n'optimise pas forc\u00e9ment le comportement du syst\u00e8me global.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
                "sec_num": "4"
            },
            {
                "text": "Pour faire face \u00e0 ce probl\u00e8me nous proposons d'effectuer un d\u00e9codage conjoint entre la traduction et la compr\u00e9hension. Ce d\u00e9codage conjoint aura l'avantage de pouvoir optimiser la s\u00e9lection de la traduction en prenant compte des \u00e9tiquettes qui peuvent \u00eatre attribu\u00e9es aux diff\u00e9rentes traductions possibles.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
                "sec_num": "4"
            },
            {
                "text": "La proposition d'utiliser l'approche CRFPB-SMT utilisant des transducteurs pour la traduction de graphes d'hypoth\u00e8ses peut \u00eatre appliqu\u00e9e la compr\u00e9hension. Donc un syst\u00e8me de compr\u00e9hension \u03bb compr ehension peut \u00eatre obtenu de la m\u00eame mani\u00e8re que propos\u00e9 dans la section 3. Cette repr\u00e9sentation nous permet alors d'obtenir un graphe de compr\u00e9hension similaire \u00e0 celui obtenu pour la traduction. Vu que le vocabulaire des sorties du graphe de traduction est le m\u00eame que celui de l'entr\u00e9e du graphe de compr\u00e9hension, ces deux graphes peuvent \u00eatre compos\u00e9s facilement en utilisant la fonction de composition pour donner un graphe permettant le d\u00e9codage conjoint : ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
                "sec_num": "4"
            },
            {
                "text": "\u03bb con joint = \u03bb t raduction \u2022 \u03bb compr ehension",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
                "sec_num": "4"
            },
            {
                "text": "Ce probl\u00e8me rejoint, dans son esprit, le probl\u00e8me classique de la cascade des composants d'un syst\u00e8me d'interaction vocal homme-machine. Dans une architecture standard, le syst\u00e8me de reconnaissance de la parole transmet sa meilleure hypoth\u00e8se de transcription au syst\u00e8me de compr\u00e9hension. Vu que cette hypoth\u00e8se est bruit\u00e9e, elle n'est pas forc\u00e9ment l'hypoth\u00e8se que le syst\u00e8me de compr\u00e9hension pourra \u00e9tiqueter le mieux. (Papineni et al., 2002) qui se base sur des comptes de n-grammes communs entre hypoth\u00e8se et r\u00e9f\u00e9rence est retenu pour \u00e9valuer la t\u00e2che de traduction.",
                "cite_spans": [
                    {
                        "start": 421,
                        "end": 444,
                        "text": "(Papineni et al., 2002)",
                        "ref_id": "BIBREF25"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes",
                "sec_num": "4.1"
            },
            {
                "text": "La bo\u00eete \u00e0 outils MOSES (Koehn et al., 2007) a \u00e9t\u00e9 utilis\u00e9e pour apprendre un mod\u00e8le LLPB-SMT pour la compr\u00e9hension du fran\u00e7ais. Nos premi\u00e8res tentatives ont clairement montr\u00e9 des performances inf\u00e9rieures \u00e0 celles d'un mod\u00e8le CRF-SLU de r\u00e9f\u00e9rence (CER 23,2% apr\u00e8s r\u00e9glage des param\u00e8tres avec MERT pour le LLPB-SMT \u00e0 comparer aux 12,9% pour CRF-SLU 1 .).",
                "cite_spans": [
                    {
                        "start": 24,
                        "end": 44,
                        "text": "(Koehn et al., 2007)",
                        "ref_id": "BIBREF14"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes de traduction \u00e0 base de segments pour une t\u00e2che de compr\u00e9hension",
                "sec_num": "5.1"
            },
            {
                "text": "Les am\u00e9liorations progressives du mod\u00e8le propos\u00e9es dans la section 2 sont \u00e9valu\u00e9es dans le tableau 1. L'utilisation de la contrainte de monotonie durant le d\u00e9codage permet une r\u00e9duction de 0,5% absolu. Convertir les donn\u00e9es selon le formalisme BIO avant la phase d'apprentissage r\u00e9duit le CER de fa\u00e7on significative de 2,4%. Enfin, optimiser le score CER \u00e0 la place du score BLEU r\u00e9duit le CER de 0,4% suppl\u00e9mentaire. Enfin, l'ajout d'une liste de villes \u00e0 l'ensemble d'apprentissage avant r\u00e9apprentissage du mod\u00e8le LLPB-SMT r\u00e9pond au probl\u00e8me du traitement des mots hors-vocabulaire et permet une r\u00e9duction finale de 0,8%.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes de traduction \u00e0 base de segments pour une t\u00e2che de compr\u00e9hension",
                "sec_num": "5.1"
            },
            {
                "text": "Les r\u00e9sultats montrent qu'en d\u00e9pit de r\u00e9glages fins de l'approche LLPB-SMT, les approches \u00e0 base de CRF obtiennent toujours les meilleures performances pour une t\u00e2che de compr\u00e9hension (CER de 12,9% pour CRF-SLU vs. 18,3% pour LLPB-SMT). ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes de traduction \u00e0 base de segments pour une t\u00e2che de compr\u00e9hension",
                "sec_num": "5.1"
            },
            {
                "text": "Afin de pouvoir \u00e9valuer notre proposition d'utiliser une approche CRF-SLU pour la traduction nous utilisons la partie traduite manuellement (du fran\u00e7ais vers l'italien) du corpus MEDIA comme corpus parall\u00e8le pour apprendre le mod\u00e8le de traduction. L'outil GIZA++ (disponible avec MOSES) a \u00e9t\u00e9 utilis\u00e9 pour apprendre automatiquement un alignement mot \u00e0 mot entre les corpus des deux langues et l'outil Wapiti (Lavergne et al., 2010) a \u00e9t\u00e9 utilis\u00e9 pour apprendre les param\u00e8tres des mod\u00e8les CRF.",
                "cite_spans": [
                    {
                        "start": 408,
                        "end": 431,
                        "text": "(Lavergne et al., 2010)",
                        "ref_id": "BIBREF18"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique",
                "sec_num": "5.2"
            },
            {
                "text": "Dans un premier temps, nous cherchons \u00e0 apprendre un mod\u00e8le CRF-SLU pour la traduction, en utilisant l'algorithme RPROP comme propos\u00e9 dans la section 3. Des fonctions caract\u00e9ristiques de type 4-grammes sym\u00e9triques sur les observations et bi-grammes sur les \u00e9tiquettes sont utilis\u00e9es pour apprendre ce mod\u00e8le. Les performances obtenues sont pr\u00e9sent\u00e9es dans le tableau 2. Les r\u00e9sultats montrent que la performance du mod\u00e8le CRF-SLU (BLEU de 42,5) est significativement moins bonne que la performance obtenue par la m\u00e9thode LLPB-SMT classique utilisant MOSES avec des param\u00e8tres de base (47,2) 2 .",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique",
                "sec_num": "5.2"
            },
            {
                "text": "Afin d'avoir une comparaison juste entre les deux m\u00e9thodes, nous cherchons \u00e0 \u00e9valuer l'approche LLPB-SMT dans les m\u00eames conditions que l'approche CRF-SLU. La m\u00e9thode LLPB-SMT utilise un mod\u00e8le de r\u00e9ordonnancement alors que CRF-SLU, d\u00e9di\u00e9 \u00e0 l'\u00e9tiquetage s\u00e9quentiel, ne comprend pas un tel mod\u00e8le. Pour cela nous rajoutons une contrainte de monotonie dans le d\u00e9codage pour l'approche LLPB-SMT emp\u00eachant tout r\u00e9ordonnancement. Il est aussi important de mentionner que l'approche LLPB-SMT utilise un mod\u00e8le de langage pour s\u00e9lectionner la meilleure traduction. Les performances du mod\u00e8le LLPB-SMT de r\u00e9f\u00e9rence sont obtenues en utilisant un mod\u00e8le de langage tri-grammes (utilis\u00e9 g\u00e9n\u00e9ralement dans les syst\u00e8mes de traduction). Cependant la complexit\u00e9 algorithmique de l'approche CRF-SLU ne permet pas d'utiliser un tel mod\u00e8le de langage sur les \u00e9tiquettes. inconnus (hors-vocabulaire) dans le test ont \u00e9t\u00e9 traduits par d'autres mots du corpus cible selon le contexte g\u00e9n\u00e9ral de la phrase, contrairement \u00e0 l'approche LLPB-SMT qui a tendance \u00e0 projeter les mots hors-vocabulaire tels qu'ils sont dans la phrase traduite. Ces mots, \u00e9tant dans la plupart des cas des noms de ville ou de lieux, leur traduction ne change pas d'une langue \u00e0 l'autre, et donc leur projection dans la sortie traduite est avantageuse pour les mod\u00e8les LLPB-SMT. Pour cela nous proposons un pr\u00e9-traitement des mots inconnus dans la phrase source permettant de les r\u00e9cup\u00e9rer en sortie dans l'approche CRF-SLU.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique",
                "sec_num": "5.2"
            },
            {
                "text": "Les r\u00e9sultats pr\u00e9sent\u00e9s dans le tableau 2 montrent que le d\u00e9codage monotone d\u00e9grade la performance du mod\u00e8le LLPB-SMT de 0,91% absolu. L'utilisation d'un mod\u00e8le de langage bigrammes augmente la perte de 0,3% suppl\u00e9mentaire. Le traitement des mots hors-vocabulaire permet au mod\u00e8le CRF-SLU de r\u00e9cup\u00e9rer 1,0% de score BLEU par rapport au mod\u00e8le CRF-SLU de r\u00e9f\u00e9rence. On remarque que malgr\u00e9 la d\u00e9gradation du mod\u00e8le LLPB-SMT et les am\u00e9liorations du mod\u00e8le CRF-SLU, la performance de ce dernier reste inf\u00e9rieure \u00e0 celle du mod\u00e8le LLPB-SMT (43,5% pour les CRF vs. 46,0% pour LLPB-SMT).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique",
                "sec_num": "5.2"
            },
            {
                "text": "Un mod\u00e8le de traduction CRFPB-SMT \u00e0 base de transducteurs valu\u00e9s par des CRF pour la traduction a \u00e9t\u00e9 construit comme d\u00e9crit dans la section 3. Ce mod\u00e8le a \u00e9t\u00e9 construit \u00e0 partir de l'outil n-code (Crego et al., 2011) , impl\u00e9ment\u00e9 pour apprendre des mod\u00e8les de traduction \u00e0 base de n-grammes (Mari\u00f1o et al., 2006) .",
                "cite_spans": [
                    {
                        "start": 197,
                        "end": 217,
                        "text": "(Crego et al., 2011)",
                        "ref_id": "BIBREF7"
                    },
                    {
                        "start": 292,
                        "end": 313,
                        "text": "(Mari\u00f1o et al., 2006)",
                        "ref_id": "BIBREF23"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "Cet outil utilise la biblioth\u00e8que OpenFst (Allauzen et al., 2007) pour construire un graphe de traduction qui est la composition de plusieurs transducteurs. La diff\u00e9rence entre le mod\u00e8le impl\u00e9ment\u00e9 par cet outil et le mod\u00e8le qu'on cherche \u00e0 d\u00e9veloper r\u00e9side dans les poids du mod\u00e8le de traduction. Nous adaptons donc cet outil pour interroger les param\u00e8tres d'un mod\u00e8le CRF afin d'estimer les probabilit\u00e9s de traduction et ensuite nous appliquons une normalisation des scores de probabilit\u00e9 obtenus par ce mod\u00e8le sur les diff\u00e9rents chemins du graphe (comme cela a \u00e9t\u00e9 propos\u00e9 dans (Lavergne et al., 2011) ).",
                "cite_spans": [
                    {
                        "start": 42,
                        "end": 65,
                        "text": "(Allauzen et al., 2007)",
                        "ref_id": "BIBREF2"
                    },
                    {
                        "start": 581,
                        "end": 604,
                        "text": "(Lavergne et al., 2011)",
                        "ref_id": "BIBREF19"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "Dans n-code le mod\u00e8le de r\u00e9ordonnancement, propos\u00e9 par , est fond\u00e9 sur une approche \u00e0 base de r\u00e8gles apprises automatiquement sur les donn\u00e9es d'entrainement. Cette approche n\u00e9cessite un \u00e9tiquetage grammatical des phrases source et un alignement au niveau des mots entre les phrases source et les phrases cible pour apprendre le mod\u00e8le \u03bb R . Nous avons utiliser les outils TreeTagger (Schmid, 1994) pour obtenir l'\u00e9tiquetage grammatical et GIZA++ pour l'alignement en mots. Le mod\u00e8le de langage utilis\u00e9 dans nos exp\u00e9riences est un mod\u00e8le tri-grammes appris sur la partie cible de notre corpus d'apprentissage \u00e0 l'aide de l'outil SRILM (Stolcke, 2002) .",
                "cite_spans": [
                    {
                        "start": 383,
                        "end": 397,
                        "text": "(Schmid, 1994)",
                        "ref_id": "BIBREF29"
                    },
                    {
                        "start": 634,
                        "end": 649,
                        "text": "(Stolcke, 2002)",
                        "ref_id": "BIBREF30"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "Le tableau 3 pr\u00e9sente une comparaison entre trois mod\u00e8les : le mod\u00e8le CRFPB-SMT, le mod\u00e8le LLPB-SMT (de r\u00e9f\u00e9rence) et le mod\u00e8le CRF-SLU de base (pr\u00e9sent\u00e9 dans la section pr\u00e9c\u00e9dente). Les r\u00e9sultats pr\u00e9sent\u00e9s dans ce tableau montrent que l'approche CRFPB-SMT \u00e0 base de transducteurs donne des performances inf\u00e9rieures mais comparables \u00e0 celles obtenues par l'approche LLPB-SMT.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "Malgr\u00e9 une d\u00e9gradation de 3,1 points absolu, ces performances restent assez \u00e9lev\u00e9es en valeur pour une t\u00e2che de traduction (malgr\u00e9 un ensemble d'apprentissage de taille r\u00e9duite), ce qui s'explique dans notre contexte par le vocabulaire limit\u00e9 du domaine. Cette diff\u00e9rence de performance est comparable \u00e0 celle observ\u00e9e par le LIMSI (Lavergne et al., 2010 ) (en ne consid\u00e9rant que l'utilisation des param\u00e8tres de base).",
                "cite_spans": [
                    {
                        "start": 332,
                        "end": 354,
                        "text": "(Lavergne et al., 2010",
                        "ref_id": "BIBREF18"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "D'autre part les r\u00e9sultats montrent que l'utilisation de graphes d'hypoth\u00e8ses dans CRFPB-SMT est doublement avantageuse par rapport \u00e0 l'utilisation d'une approche CRF simple ; en plus du fait qu'elle permette de traiter des graphes en entr\u00e9es, cette approche permet d'embl\u00e9e d'augmenter la performance du syst\u00e8me d'environ 1 point absolu.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "Le m\u00e9canisme utilis\u00e9 pour obtenir des graphe de traduction peut \u00eatre utilis\u00e9 d'une mani\u00e8re similaire pour la compr\u00e9hension. Dans un premier temps, le graphe d'hypoth\u00e8se de concepts est obtenu en composant tous les mod\u00e8les",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "\u03bb S \u2022 \u03bb R \u2022 \u03bb T \u2022 \u03bb F \u2022 \u03bb L",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "comme cela a \u00e9t\u00e9 propos\u00e9 pour la traduction. Cette approche donne un CER de 15,3%, bien moins bon que l'approche CRF-SLU de base (12,9%).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "Afin de prendre les sp\u00e9cificit\u00e9s de la compr\u00e9hension (qui ne comprend pas de mod\u00e8le de r\u00e9ordonnancement, ni de mod\u00e8le de langage cible final), nous proposons d'obtenir le graphe de sorties en combinant uniquement les mod\u00e8les \u03bb S \u2022 \u03bb F . Cela nous a permis d'augmenter la performance de cette approche de 2,2% absolu (15,3% vs 13,1%) permettant de retrouver quasiment les m\u00eames performances qu'avec CRF-SLU (13,1% vs 12.9%). Une comparaison entre les performances des diff\u00e9rentes versions est donn\u00e9e dans le tableau 4. Par la suite, CRFPB-SMT simplifi\u00e9 est utilis\u00e9 pour toutes les exp\u00e9riences de compr\u00e9hension.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
                "sec_num": "5.3"
            },
            {
                "text": "Un d\u00e9codage conjoint pour la traduction et la compr\u00e9hension a \u00e9t\u00e9 appliqu\u00e9 comme nous l'avons propos\u00e9 dans la section 4. Ce d\u00e9codage consiste \u00e0 transmettre le graphe de traduction",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "D\u00e9codage conjoint dans un sc\u00e9nario de compr\u00e9hension multilingue",
                "sec_num": "5.4"
            },
            {
                "text": "Sub Del Ins CER CRF-SLU 3,1 8,1 1,8 12,9 CRFPB-SMT (complet) (",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8le",
                "sec_num": null
            },
            {
                "text": "\u03bb S \u2022 \u03bb R \u2022 \u03bb T \u2022 \u03bb F \u2022 \u03bb L ) 4,2 8,8 2,3 15,3 CRFPB-SMT (simplifi\u00e9) (\u03bb S \u2022 \u03bb T \u2022 \u03bb F )",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8le",
                "sec_num": null
            },
            {
                "text": "3,5 7,6 2,0 13,1 Au moment du d\u00e9codage les deux scores (traduction et compr\u00e9hension) sont pris en consid\u00e9ration. Dans un premier temps nous proposons que le score final pour chaque chemin du graphe soit l'addition simple du score de traduction et du score de compr\u00e9hension sur ce chemin 3 . Le meilleur chemin est ensuite s\u00e9lectionn\u00e9 parmi l'ensemble des chemins possibles dans le graphe. Ce chemin repr\u00e9sente donc un d\u00e9codage conjoint entre la traduction et la compr\u00e9hension (marginalisation de la variabilit\u00e9 al\u00e9atoire li\u00e9e \u00e0 la traduction interm\u00e9diaire).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8le",
                "sec_num": null
            },
            {
                "text": "Afin de pouvoir se positionner par rapport \u00e0 l'\u00e9tat de l'art, nous proposons de r\u00e9aliser le d\u00e9codage conjoint selon deux modes : le syst\u00e8me de traduction utilis\u00e9 est un mod\u00e8le LLPB-SMT (en utilisant la bo\u00eete \u00e0 outils MOSES) dans le premier et un CRFPB-SMT (comme d\u00e9crit dans 5.3) dans le second. Dans les deux cas les performances du d\u00e9codage conjoint sont compar\u00e9es avec ou sans prise en compte du graphe d'hypoth\u00e8ses complet. Dans un premier cas, le meilleur chemin (1-best) du graphe de traduction est fourni en entr\u00e9e du syst\u00e8me de compr\u00e9hension. Dans un second cas, l'oracle du graphe de traduction est donn\u00e9 en entr\u00e9e au module de compr\u00e9hension. Les scores oracle repr\u00e9sentent une \u00e9valuation fond\u00e9e sur le chemin du graphe qui se rapproche le plus de la r\u00e9f\u00e9rence de la traduction. Il est alors possible de mesurer l'impact de la qualit\u00e9 de la traduction sur les performances de compr\u00e9hension.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8le",
                "sec_num": null
            },
            {
                "text": "Le r\u00e9sultat de cette comparaison est donn\u00e9 dans la tableau 5. Nous avons aussi calcul\u00e9 les scores oracle (pour la traduction et la compr\u00e9hension) sur les sorties des diff\u00e9rents couplages de modules, et nous avons calcul\u00e9 le score BLEU sur la traduction s\u00e9lectionn\u00e9e par le d\u00e9codage conjoint (derni\u00e8re colonne du tableau 5).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8le",
                "sec_num": null
            },
            {
                "text": "La premi\u00e8re ligne de ce tableau constitue la combinaison de r\u00e9f\u00e9rence (sans l'utilisation de graphe) dans laquelle la sortie de MOSES est donn\u00e9e en entr\u00e9e d'un mod\u00e8le CRF. Les r\u00e9sultats montrent que le graphe de traduction permet d'am\u00e9liorer la performance du syst\u00e8me par rapport au syst\u00e8me de 1-meilleure traduction (CER 19, 7% vs. 19, 3 vs. 21 ,7 pour CRF). L'utilisation d'un graphe de traduction donne aussi des meilleurs performances par rapport \u00e0 la combinaison avec son oracle (CER 19, 7% vs. 19 LLPB-SMT et 21,3 vs. 21,6 pour CRF). La diff\u00e9rence entre la performance obtenue par le d\u00e9codage conjoint en utilisant un mod\u00e8le LLPB-SMT pour la traduction et celle obtenue en utilisant un mod\u00e8le CRF (CER 19, 7, 8% vs. 21, 3%) peut \u00eatre expliqu\u00e9e par la diff\u00e9rence entre la performance de ces deux mod\u00e8les (BLEU 46,9% vs 44,1%).",
                "cite_spans": [
                    {
                        "start": 317,
                        "end": 325,
                        "text": "(CER 19,",
                        "ref_id": null
                    },
                    {
                        "start": 326,
                        "end": 336,
                        "text": "7% vs. 19,",
                        "ref_id": null
                    },
                    {
                        "start": 337,
                        "end": 345,
                        "text": "3 vs. 21",
                        "ref_id": null
                    },
                    {
                        "start": 484,
                        "end": 492,
                        "text": "(CER 19,",
                        "ref_id": null
                    },
                    {
                        "start": 493,
                        "end": 502,
                        "text": "7% vs. 19",
                        "ref_id": null
                    },
                    {
                        "start": 703,
                        "end": 711,
                        "text": "(CER 19,",
                        "ref_id": null
                    },
                    {
                        "start": 712,
                        "end": 714,
                        "text": "7,",
                        "ref_id": null
                    },
                    {
                        "start": 715,
                        "end": 725,
                        "text": "8% vs. 21,",
                        "ref_id": null
                    },
                    {
                        "start": 726,
                        "end": 729,
                        "text": "3%)",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8le",
                "sec_num": null
            },
            {
                "text": "Il est important de mentionner que seuls les couplages prenant des graphes en entr\u00e9e de la compr\u00e9hension permettent de s\u00e9lectionner la traduction en fonction de l'\u00e9tiquetage qui lui sera appliqu\u00e9. Dans les autres cas la s\u00e9lection de la traduction se fait ind\u00e9pendamment. On remarque que le score BLEU de la traduction s\u00e9lectionn\u00e9e par le d\u00e9codage conjoint est moins bon que celui par la meilleure traduction (46,3 vs. 47,2 pour LLPB-SMT et 43,9 vs. 44,1 pour CRF) malgr\u00e9 le fait que le premier est plus performant en CER. Cela montre l'int\u00e9r\u00eat de la m\u00e9thode conjointe \u00e0 base de graphes qui permet de s\u00e9lectionner la traduction qui pourra \u00eatre \u00e9tiquet\u00e9e de la meilleure fa\u00e7on possible.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8le",
                "sec_num": null
            },
            {
                "text": "Les scores oracle montrent que la meilleure hypoth\u00e8se s\u00e9lectionn\u00e9e lors du d\u00e9codage n'est pas forc\u00e9ment la plus proche de la r\u00e9f\u00e9rence parmi les hypoth\u00e8ses du graphe. Cependant, ce r\u00e9sultat est encourageant du fait que la performance du syst\u00e8me peut \u00eatre encore am\u00e9lior\u00e9e en ajustant les poids des mod\u00e8les vu que des meilleures hypoth\u00e8ses se trouvent dans le graphe. Un d\u00e9codage optimal permettra d'am\u00e9liorer le CER de 0,6% absolu pour un d\u00e9codage en composant avec un graphe LLPB-SMT pour la traduction (19,7% vs 19,1%) et de 0,7% absolu pour un d\u00e9codage en composant avec un graphe CRF pour la traduction (21,3% vs 20,6%).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mod\u00e8le",
                "sec_num": null
            },
            {
                "text": "Dans cet article nous avons \u00e9valu\u00e9 et compar\u00e9 des approches statistique \u00e0 la fois pour la compr\u00e9hension de la parole et pour la traduction automatique. Nous avons observ\u00e9 que l'approche discriminante CRF reste la meilleure approche pour la compr\u00e9hension de la parole, malgr\u00e9 toutes les adaptations de l'approche LLPB-SMT pour la t\u00e2che. Une approche de type CRF pour la traduction a plusieurs limites et les performances de cette approche peuvent \u00eatre am\u00e9lior\u00e9es par un mod\u00e8le \u00e0 base de transducteurs permettant l'int\u00e9gration de traitements adapt\u00e9s (r\u00e9ordonnancement, segmentation, mod\u00e8le de langage cible).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion",
                "sec_num": "6"
            },
            {
                "text": "Plusieurs travaux ont propos\u00e9 un d\u00e9codage conjoint entre la reconnaissance et la compr\u00e9hension de la parole pour prendre en compte les n-meilleures hypoth\u00e8ses de reconnaissance lors de l'\u00e9tiquetage s\u00e9mantique. Ces premiers travaux(T\u00fcr et al., 2002;Servan et al., 2006;Hakkani-T\u00fcr et al., 2006) ont propos\u00e9 d'utiliser un r\u00e9seau de confusion entre les diff\u00e9rentes sorties de reconnaissance pour obtenir un graphe d'hypoth\u00e8ses. Le syst\u00e8me de compr\u00e9hension dans ces propositions a \u00e9t\u00e9 repr\u00e9sent\u00e9 par un WFST, dont les poids sont obtenus pas maximum de vraisemblance sur les donn\u00e9es d'apprentissage. Et le d\u00e9codage conjoint est obtenu par la composition du graphe de reconnaissance avec le graphe de compr\u00e9hension.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            },
            {
                "text": "c ATALA",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            },
            {
                "text": ". Une exp\u00e9rience pr\u00e9liminaire pour mesurer l'impact de la pond\u00e9ration des scores est pr\u00e9sent\u00e9e dans(Jabaian, 2012).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            }
        ],
        "back_matter": [],
        "bib_entries": {
            "BIBREF0": {
                "ref_id": "b0",
                "title": "Nous avons alors pu proposer et \u00e9valuer une approche de d\u00e9codage conjoint entre la traduction et la compr\u00e9hension dans le contexte d'un syst\u00e8me de compr\u00e9hension de la parole multilingue. Nous avons montr\u00e9 qu'avec un tel d\u00e9codage nous pouvons obtenir de bonnes performances tout en proposant un syst\u00e8me homog\u00e8ne sur les deux t\u00e2ches sous-jacentes",
                "authors": [],
                "year": null,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "Nous avons alors pu proposer et \u00e9valuer une approche de d\u00e9codage conjoint entre la traduction et la compr\u00e9hension dans le contexte d'un syst\u00e8me de compr\u00e9hension de la parole multilingue. Nous avons montr\u00e9 qu'avec un tel d\u00e9codage nous pouvons obtenir de bonnes performances tout en proposant un syst\u00e8me homog\u00e8ne sur les deux t\u00e2ches sous-jacentes.",
                "links": null
            },
            "BIBREF1": {
                "ref_id": "b1",
                "title": "un syst\u00e8me de dialogue homme-machine complet un d\u00e9codage conjoint entre la reconnaissance de la parole et la traduction pourra \u00eatre ajout\u00e9",
                "authors": [
                    {
                        "first": "",
                        "middle": [],
                        "last": "Dans Le Contexte D",
                        "suffix": ""
                    }
                ],
                "year": null,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "Dans le contexte d'un syst\u00e8me de dialogue homme-machine complet un d\u00e9codage conjoint entre la reconnaissance de la parole et la traduction pourra \u00eatre ajout\u00e9. Dans ce cas un graphe",
                "links": null
            },
            "BIBREF2": {
                "ref_id": "b2",
                "title": "OpenFst : A general and efficient weighted finite-state transducer library",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Allauzen",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Riley",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Schalkwyk",
                        "suffix": ""
                    },
                    {
                        "first": "W",
                        "middle": [],
                        "last": "Skut",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Mohri",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "CIAA",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ALLAUZEN, C., RILEY, M., SCHALKWYK, J., SKUT, W. et MOHRI, M. (2007). OpenFst : A general and efficient weighted finite-state transducer library. In CIAA.",
                "links": null
            },
            "BIBREF3": {
                "ref_id": "b3",
                "title": "Joint decoding for speech recognition and semantic tagging",
                "authors": [
                    {
                        "first": "G",
                        "middle": [
                            "T"
                        ],
                        "last": "Anoop Deoras",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Hakkani-Tur",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "INTERSPEECH",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ANOOP DEORAS, G. T. et HAKKANI-TUR, D. (2012). Joint decoding for speech recognition and semantic tagging. In INTERSPEECH.",
                "links": null
            },
            "BIBREF4": {
                "ref_id": "b4",
                "title": "Semantic annotation of the french media dialog corpus",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Bonneau-Maynard",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Rosset",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Ayache",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Kuhn",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Mostefa",
                        "suffix": ""
                    }
                ],
                "year": 2005,
                "venue": "EUROSPEECH",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BONNEAU-MAYNARD, H., ROSSET, S., AYACHE, C., KUHN, A. et MOSTEFA, D. (2005). Semantic annotation of the french media dialog corpus. In EUROSPEECH.",
                "links": null
            },
            "BIBREF5": {
                "ref_id": "b5",
                "title": "The mathematics of statistical machine translation : Parameter estimation",
                "authors": [
                    {
                        "first": "P",
                        "middle": [
                            "F"
                        ],
                        "last": "Brown",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [
                            "D"
                        ],
                        "last": "Pietra",
                        "suffix": ""
                    },
                    {
                        "first": "V",
                        "middle": [
                            "J D"
                        ],
                        "last": "Pietra",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [
                            "L"
                        ],
                        "last": "Mercer",
                        "suffix": ""
                    }
                ],
                "year": 1993,
                "venue": "Computational Linguistics",
                "volume": "19",
                "issue": "2",
                "pages": "263--311",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BROWN, P. F., PIETRA, S. D., PIETRA, V. J. D. et MERCER, R. L. (1993). The mathematics of statistical machine translation : Parameter estimation. Computational Linguistics, 19(2):263- 311.",
                "links": null
            },
            "BIBREF6": {
                "ref_id": "b6",
                "title": "Improving statistical mt by coupling reordering and decoding",
                "authors": [
                    {
                        "first": "J",
                        "middle": [
                            "M"
                        ],
                        "last": "Crego",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [
                            "B"
                        ],
                        "last": "Mari\u00f1o",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "Machine Translation",
                "volume": "20",
                "issue": "3",
                "pages": "199--215",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CREGO, J. M. et MARI\u00d1O, J. B. (2006). Improving statistical mt by coupling reordering and decoding. Machine Translation, 20(3):199-215.",
                "links": null
            },
            "BIBREF7": {
                "ref_id": "b7",
                "title": "Ncode : an open source bilingual n-gram smt toolkit",
                "authors": [
                    {
                        "first": "J",
                        "middle": [
                            "M"
                        ],
                        "last": "Crego",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Yvon",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [
                            "B"
                        ],
                        "last": "Mari\u00f1o",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "The Prague Bulletin of Mathematical Linguistics",
                "volume": "96",
                "issue": "",
                "pages": "49--58",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CREGO, J. M., YVON, F. et MARI\u00d1O, J. B. (2011). Ncode : an open source bilingual n-gram smt toolkit. The Prague Bulletin of Mathematical Linguistics, 96:49-58.",
                "links": null
            },
            "BIBREF8": {
                "ref_id": "b8",
                "title": "Part-of-speech tagging based on machine translation techniques",
                "authors": [
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Gasc\u00f3 I Mora",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "S\u00e1nchez Peir\u00f3",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Pattern Recognition and Image Analysis",
                "volume": "",
                "issue": "",
                "pages": "257--264",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GASC\u00d3 I MORA, G. et S\u00c1NCHEZ PEIR\u00d3, J. (2007). Part-of-speech tagging based on machine translation techniques. Pattern Recognition and Image Analysis, pages 257-264.",
                "links": null
            },
            "BIBREF9": {
                "ref_id": "b9",
                "title": "Comparing stochastic approaches to spoken language understanding in multiple languages",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Hahn",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Dinarelli",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Raymond",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Lef\u00e8vre",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Lehnen",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [],
                        "last": "De Mori",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Moschitti",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Ney",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Riccardi",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "IEEE Transactions in Audio, Speech and Language Processing",
                "volume": "19",
                "issue": "6",
                "pages": "1569--1583",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HAHN, S., DINARELLI, M., RAYMOND, C., LEF\u00c8VRE, F., LEHNEN, P., DE MORI, R., MOSCHITTI, A., NEY, H. et RICCARDI, G. (2010). Comparing stochastic approaches to spoken language understanding in multiple languages. IEEE Transactions in Audio, Speech and Language Processing, 19(6):1569-1583.",
                "links": null
            },
            "BIBREF10": {
                "ref_id": "b10",
                "title": "Beyond asr 1-best : Using word confusion networks in spoken language understanding",
                "authors": [
                    {
                        "first": "D",
                        "middle": [
                            "Z"
                        ],
                        "last": "Hakkani-T\u00fcr",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Riccardi",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "T\u00fcr",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "Computer Speech and Language",
                "volume": "",
                "issue": "",
                "pages": "495--514",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HAKKANI-T\u00dcR, D. Z., B., F., RICCARDI, G. et T\u00dcR, G. (2006). Beyond asr 1-best : Using word confusion networks in spoken language understanding. Computer Speech and Language, pages 495-514.",
                "links": null
            },
            "BIBREF11": {
                "ref_id": "b11",
                "title": "Syst\u00e8mes de compr\u00e9hension et de traduction de la parole : vers une approche unifi\u00e9e dans le cadre de la portabilit\u00e9 multilingue des syst\u00e8mes de dialogue",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Jabaian",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "JABAIAN, B. (2012). Syst\u00e8mes de compr\u00e9hension et de traduction de la parole : vers une approche unifi\u00e9e dans le cadre de la portabilit\u00e9 multilingue des syst\u00e8mes de dialogue. Th\u00e8se de doctorat, CERI -Universit\u00e9 d'Avignon, Avignon.",
                "links": null
            },
            "BIBREF12": {
                "ref_id": "b12",
                "title": "Investigating multiple approaches for slu portability to a new language",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Jabaian",
                        "suffix": ""
                    },
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Besacier",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Lef\u00e8vre",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "INTERSPEECH",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "JABAIAN, B., BESACIER, L. et LEF\u00c8VRE, F. (2010). Investigating multiple approaches for slu portability to a new language. In INTERSPEECH.",
                "links": null
            },
            "BIBREF13": {
                "ref_id": "b13",
                "title": "Comparaison et combinaison d'approches pour la portabilit\u00e9 vers une nouvelle langue d'un syst\u00e8me de compr\u00e9hension de l'oral",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Jabaian",
                        "suffix": ""
                    },
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Besacier",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Lef\u00e8vre",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "TALN",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "JABAIAN, B., BESACIER, L. et LEF\u00c8VRE, F. (2011). Comparaison et combinaison d'approches pour la portabilit\u00e9 vers une nouvelle langue d'un syst\u00e8me de compr\u00e9hension de l'oral. In TALN.",
                "links": null
            },
            "BIBREF14": {
                "ref_id": "b14",
                "title": "Moses : Open source toolkit for statistical machine translation",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Koehn",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Hoang",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Birch",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Callison-Burch",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Federico",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Bertoldi",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Cowan",
                        "suffix": ""
                    },
                    {
                        "first": "W",
                        "middle": [],
                        "last": "Shen",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Moran",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Zens",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "ACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "KOEHN, P., HOANG, H., BIRCH, A., CALLISON-BURCH, C., FEDERICO, M., BERTOLDI, N., COWAN, B., SHEN, W., MORAN, C., ZENS, R. et al. (2007). Moses : Open source toolkit for statistical machine translation. In ACL.",
                "links": null
            },
            "BIBREF15": {
                "ref_id": "b15",
                "title": "Statistical phrase-based translation",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Koehn",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Och",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Marcu",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "HLT-NAACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "KOEHN, P., OCH, F. et MARCU, D. (2003). Statistical phrase-based translation. In HLT-NAACL.",
                "links": null
            },
            "BIBREF16": {
                "ref_id": "b16",
                "title": "A weighted finite state transducer implementation of the alignment template model for statistical machine translation",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Kumar",
                        "suffix": ""
                    },
                    {
                        "first": "W",
                        "middle": [],
                        "last": "Byrne",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "HLT-NAACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "KUMAR, S. et BYRNE, W. (2003). A weighted finite state transducer implementation of the alignment template model for statistical machine translation. In HLT-NAACL.",
                "links": null
            },
            "BIBREF17": {
                "ref_id": "b17",
                "title": "Conditional random fields : Probabilistic models for segmenting and labeling sequence data",
                "authors": [
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Lafferty",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Mccallum",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Pereira",
                        "suffix": ""
                    }
                ],
                "year": 2001,
                "venue": "ICML",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LAFFERTY, J., MCCALLUM, A. et PEREIRA, F. (2001). Conditional random fields : Probabilistic models for segmenting and labeling sequence data. In ICML.",
                "links": null
            },
            "BIBREF18": {
                "ref_id": "b18",
                "title": "Practical very large scale CRFs",
                "authors": [
                    {
                        "first": "T",
                        "middle": [],
                        "last": "Lavergne",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Capp\u00e9",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Yvon",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "ACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LAVERGNE, T., CAPP\u00c9, O. et YVON, F. (2010). Practical very large scale CRFs. In ACL.",
                "links": null
            },
            "BIBREF19": {
                "ref_id": "b19",
                "title": "From n-gram-based to crf-based translation models",
                "authors": [
                    {
                        "first": "T",
                        "middle": [],
                        "last": "Lavergne",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [
                            "M"
                        ],
                        "last": "Crego",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Allauzen",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Yvon",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "WSMT",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LAVERGNE, T., CREGO, J. M., ALLAUZEN, A. et YVON, F. (2011). From n-gram-based to crf-based translation models. In WSMT.",
                "links": null
            },
            "BIBREF20": {
                "ref_id": "b20",
                "title": "Alignment by agreement",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Liang",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Taskar",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Klein",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "HLT-NAACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LIANG, P., TASKAR, B. et KLEIN, D. (2006). Alignment by agreement. In HLT-NAACL.",
                "links": null
            },
            "BIBREF21": {
                "ref_id": "b21",
                "title": "Application of statistical machine translation approaches to spoken language understanding",
                "authors": [
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Macherey",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Bender",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Ney",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "IEEE ICASSP",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MACHEREY, K., BENDER, O. et NEY, H. (2009). Application of statistical machine translation approaches to spoken language understanding. In IEEE ICASSP.",
                "links": null
            },
            "BIBREF22": {
                "ref_id": "b22",
                "title": "Natural language understanding using statistical machine translation",
                "authors": [
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Macherey",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [
                            "J"
                        ],
                        "last": "Och",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Ney",
                        "suffix": ""
                    }
                ],
                "year": 2001,
                "venue": "INTERSPEECH",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MACHEREY, K., OCH, F. J. et NEY, H. (2001). Natural language understanding using statistical machine translation. In INTERSPEECH.",
                "links": null
            },
            "BIBREF23": {
                "ref_id": "b23",
                "title": "N-gram-based machine translation",
                "authors": [
                    {
                        "first": "J",
                        "middle": [
                            "B"
                        ],
                        "last": "Mari\u00f1o",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [
                            "E"
                        ],
                        "last": "Banchs",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [
                            "M"
                        ],
                        "last": "Crego",
                        "suffix": ""
                    },
                    {
                        "first": "Gispert",
                        "middle": [],
                        "last": "De",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Lambert",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Fonollosa",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [
                            "A R"
                        ],
                        "last": "Costa-Juss\u00e0",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [
                            "R"
                        ],
                        "last": "",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "Computational Linguistic",
                "volume": "32",
                "issue": "4",
                "pages": "527--549",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MARI\u00d1O, J. B., BANCHS, R. E., CREGO, J. M., de GISPERT, A., LAMBERT, P., FONOLLOSA, J. A. R. et COSTA-JUSS\u00c0, M. R. (2006). N-gram-based machine translation. Computational Linguistic, 32(4):527-549.",
                "links": null
            },
            "BIBREF24": {
                "ref_id": "b24",
                "title": "Discriminative training and maximum entropy models for statistical machine translation",
                "authors": [
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Och",
                        "suffix": ""
                    }
                ],
                "year": 2002,
                "venue": "ACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "OCH, F. (2003). Minimum error rate training in statistical machine translation. In ACL. OCH, F. J. et NEY, H. (2002). Discriminative training and maximum entropy models for statistical machine translation. In ACL.",
                "links": null
            },
            "BIBREF25": {
                "ref_id": "b25",
                "title": "Bleu : a method for automatic evaluation of machine translation",
                "authors": [
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Papineni",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Roukos",
                        "suffix": ""
                    },
                    {
                        "first": "T",
                        "middle": [],
                        "last": "Ward",
                        "suffix": ""
                    },
                    {
                        "first": "W",
                        "middle": [],
                        "last": "Zhu",
                        "suffix": ""
                    }
                ],
                "year": 2002,
                "venue": "ACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "PAPINENI, K., ROUKOS, S., WARD, T. et ZHU, W. (2002). Bleu : a method for automatic evaluation of machine translation. In ACL.",
                "links": null
            },
            "BIBREF26": {
                "ref_id": "b26",
                "title": "Modeling letter-to-phoneme conversion as a phrase based statistical machine translation problem with minimum error rate training",
                "authors": [
                    {
                        "first": "T",
                        "middle": [],
                        "last": "Rama",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Singh",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Kolachina",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "HLT-NAACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "RAMA, T., SINGH, A. et KOLACHINA, S. (2009). Modeling letter-to-phoneme conversion as a phrase based statistical machine translation problem with minimum error rate training. In HLT-NAACL.",
                "links": null
            },
            "BIBREF27": {
                "ref_id": "b27",
                "title": "Text chunking using transformation-based learning",
                "authors": [
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Ramshaw",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Marcus",
                        "suffix": ""
                    }
                ],
                "year": 1995,
                "venue": "The Workshop on Very Large Corpora",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "RAMSHAW, L. et MARCUS, M. (1995). Text chunking using transformation-based learning. In The Workshop on Very Large Corpora.",
                "links": null
            },
            "BIBREF28": {
                "ref_id": "b28",
                "title": "A direct adaptive method for faster backpropagation learning : The RPROP algorithm",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Riedmiller",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Braun",
                        "suffix": ""
                    }
                ],
                "year": 1993,
                "venue": "ICNN",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "RIEDMILLER, M. et BRAUN, H. (1993). A direct adaptive method for faster backpropagation learning : The RPROP algorithm. In ICNN.",
                "links": null
            },
            "BIBREF29": {
                "ref_id": "b29",
                "title": "Conceptual decoding from word lattices : application to the spoken dialogue corpus MEDIA",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Schmid",
                        "suffix": ""
                    },
                    {
                        "first": "",
                        "middle": [],
                        "last": "Nmlp",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Servan",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Raymond",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Nocera",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "",
                        "suffix": ""
                    }
                ],
                "year": 1994,
                "venue": "INTERSPEECH",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SCHMID, H. (1994). Probabilistic part-of-speech tagging using decision trees. In NMLP. SERVAN, C., RAYMOND, C., B., F. et NOCERA, P. (2006). Conceptual decoding from word lattices : application to the spoken dialogue corpus MEDIA. In INTERSPEECH.",
                "links": null
            },
            "BIBREF30": {
                "ref_id": "b30",
                "title": "Srilm-an extensible language modeling toolkit",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Stolcke",
                        "suffix": ""
                    }
                ],
                "year": 2002,
                "venue": "ICASSP",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "STOLCKE, A. (2002). Srilm-an extensible language modeling toolkit. In ICASSP.",
                "links": null
            },
            "BIBREF31": {
                "ref_id": "b31",
                "title": "Improving spoken language understanding using word confusion networks",
                "authors": [
                    {
                        "first": "G",
                        "middle": [],
                        "last": "T\u00fcr",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [
                            "H"
                        ],
                        "last": "Wright",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [
                            "L"
                        ],
                        "last": "Gorin",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Riccardi",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [
                            "Z"
                        ],
                        "last": "Hakkani-T\u00fcr",
                        "suffix": ""
                    }
                ],
                "year": 2002,
                "venue": "INTERSPEECH",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "T\u00dcR, G., WRIGHT, J. H., GORIN, A. L., RICCARDI, G. et HAKKANI-T\u00dcR, D. Z. (2002). Improving spoken language understanding using word confusion networks. In INTERSPEECH.",
                "links": null
            },
            "BIBREF32": {
                "ref_id": "b32",
                "title": "Scalable discriminative learning for natural language parsing and translation",
                "authors": [
                    {
                        "first": "J",
                        "middle": [
                            "P"
                        ],
                        "last": "Turian",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Wellington",
                        "suffix": ""
                    },
                    {
                        "first": "I",
                        "middle": [
                            "D"
                        ],
                        "last": "Melamed",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "NIPS",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "TURIAN, J. P., WELLINGTON, B. et MELAMED, I. D. (2006). Scalable discriminative learning for natural language parsing and translation. In NIPS.",
                "links": null
            }
        },
        "ref_entries": {
            "TABREF2": {
                "html": null,
                "num": null,
                "content": "<table><tr><td>TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne</td><td/><td/></tr><tr><td>94</td><td>c</td><td>ATALA</td></tr></table>",
                "type_str": "table",
                "text": "Cette composition prend une phrase de la langue cible en entr\u00e9e et attribue une s\u00e9quence de concept \u00e0 cette phrase en passant par un \u00e9tiqueteur disponible dans la langue source. Elle nous permet d'obtenir un d\u00e9codage conjoint entre la traduction et la compr\u00e9hension dans la mesure o\u00f9 les probabilit\u00e9s des deux mod\u00e8les sont prises en compte. Un tel d\u00e9codage ne cherche pas \u00e0 optimiser la traduction en soi, mais \u00e0 optimiser le choix d'une traduction qui donnera une meilleure compr\u00e9hension automatique.Le transducteur \u03bb con joint peut \u00eatre g\u00e9n\u00e9ralis\u00e9 pour permettre de composer un graphe de reconnaissance de la parole avec un graphe de compr\u00e9hension dans le cadre d'un syst\u00e8me de dialogue. Dans un tel cas des proc\u00e9dures d'\u00e9lagage devront \u00eatre prises en compte afin d'assurer que les op\u00e9rations de composition puissent \u00eatre r\u00e9alis\u00e9es selon les contraintes classiques (temps de calcul et espace m\u00e9moire machine disponible)."
            },
            "TABREF3": {
                "html": null,
                "num": null,
                "content": "<table><tr><td>Le taux d'erreur en concepts (Concept Error Rate, CER) est le crit\u00e8re d'\u00e9valuation retenu pour</td></tr><tr><td>\u00e9valuer la t\u00e2che de compr\u00e9hension. Le CER est l'\u00e9quivalent du taux d'erreur en mots (WER),</td></tr><tr><td>et peut \u00eatre d\u00e9fini comme le rapport de la somme des concepts omis, ins\u00e9r\u00e9s et substitu\u00e9s sur</td></tr><tr><td>le nombre de concepts dans la r\u00e9f\u00e9rence. D'autre part le score BLEU</td></tr></table>",
                "type_str": "table",
                "text": "Dans la lign\u00e9e de ces travaux, notre proposition cherche \u00e0 obtenir un d\u00e9codage conjoint pour la traduction et la compr\u00e9hension. Les deux syst\u00e8mes \u00e9tant de natures diff\u00e9rentes, leur combinaison et leur optimisation conjointe sont rendues d\u00e9licates, d'o\u00f9 l'int\u00e9r\u00eat d'uniformiser les syst\u00e8mes pour les deux t\u00e2ches.Le corpus est constitu\u00e9 de 1257 dialogues regroup\u00e9s en 3 parties : un ensemble d'apprentissage (environ 13k phrases), un ensemble de d\u00e9veloppement (environ 1,3k phrases) et un ensemble d'\u00e9valuation (environ 3,5k phrases). Un sous-ensemble de donn\u00e9es d'apprentissage (environ 5,6k phrases), de m\u00eame que les ensembles de tests et de d\u00e9veloppement sont manuellement traduits en italien.Un syst\u00e8me de type LLPB-SMT est utilis\u00e9 pour apprendre un syst\u00e8me de compr\u00e9hension du fran\u00e7ais sur le corpus MEDIA, et le sous-ensemble traduit de ce corpus est utilis\u00e9 comme corpus parall\u00e8le pour apprendre un mod\u00e8le de traduction \u00e0 base de CRF. Ensuite l'approche CRFPB-SMT \u00e0 base de transducteurs est \u00e9valu\u00e9e s\u00e9par\u00e9ment pour la traduction et la compr\u00e9hension avant d'\u00eatre utilis\u00e9e dans le cadre d'un d\u00e9codage conjoint traduction/compr\u00e9hension."
            },
            "TABREF4": {
                "html": null,
                "num": null,
                "content": "<table><tr><td colspan=\"2\">TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne</td><td/><td/><td/></tr><tr><td>Mod\u00e8le</td><td colspan=\"3\">Sub Om Ins</td><td>CER</td></tr><tr><td>Initial</td><td>5,4</td><td colspan=\"3\">4,1 14,6 24,1</td></tr><tr><td>+MERT (BLEU)</td><td>5,6</td><td>8,4</td><td>9,2</td><td>23,2</td></tr><tr><td>+D\u00e9codage monotone</td><td>6,2</td><td>7,8</td><td>8,7</td><td>22,7</td></tr><tr><td>+Format BIO</td><td>5,7</td><td>9,3</td><td>5,3</td><td>20,3</td></tr><tr><td>MERT (CER)</td><td>5,3</td><td>9,2</td><td>4,6</td><td>19,1</td></tr><tr><td colspan=\"2\">Traitement de mots HV 5,8</td><td>7,4</td><td colspan=\"2\">5,1 18,3</td></tr><tr><td>96</td><td/><td/><td/><td>c</td><td>ATALA</td></tr></table>",
                "type_str": "table",
                "text": "Une analyse rapide du type d'erreur montre que les m\u00e9thodes utilisant des CRF ont un haut niveau de suppressions comparativement aux autres types d'erreurs, tandis que la m\u00e9thode LLPB-SMT pr\u00e9sente un meilleur compromis entre les erreurs de suppression et d'insertion,"
            },
            "TABREF5": {
                "html": null,
                "num": null,
                "content": "<table/>",
                "type_str": "table",
                "text": "Les am\u00e9liorations it\u00e9ratives du mod\u00e8le LLPB-SMT pour la compr\u00e9hension du fran\u00e7ais (CER%)."
            },
            "TABREF7": {
                "html": null,
                "num": null,
                "content": "<table/>",
                "type_str": "table",
                "text": "Comparaison entre les mod\u00e8les LLPB-SMT et CRF-SLU pour la traduction de l'italien vers le fran\u00e7ais (BLEU %)."
            },
            "TABREF9": {
                "html": null,
                "num": null,
                "content": "<table/>",
                "type_str": "table",
                "text": "Comparaison entre les diff\u00e9rentes approches (LLPB-SMT, CRF-SLU, CRFPB-SMT) pour la traduction de l'italien vers le fran\u00e7ais."
            },
            "TABREF10": {
                "html": null,
                "num": null,
                "content": "<table><tr><td>Pour cela nous avons adapt\u00e9 l'accepteur du mod\u00e8le de compr\u00e9hension du fran\u00e7ais (donn\u00e9</td></tr><tr><td>dans la derni\u00e8re ligne du tableau 4 d\u00e9crit dans 5.3) pour prendre des graphes en entr\u00e9e (au</td></tr><tr><td>lieu d'une hypoth\u00e8se unique). Ce transducteur g\u00e9n\u00e8re un graphe valu\u00e9 de compr\u00e9hension qui</td></tr><tr><td>prend en compte les scores de traduction.</td></tr></table>",
                "type_str": "table",
                "text": "Evaluation des approches bas\u00e9es sur les CRF pour la compr\u00e9hension du fran\u00e7ais. en entr\u00e9e du module de compr\u00e9hension (incluant les scores pond\u00e9r\u00e9s relatifs \u00e0 la traduction) et ensuite r\u00e9cup\u00e9rer en sortie un graphe de compr\u00e9hension qui int\u00e8gre les scores de traduction et de compr\u00e9hension. Ce d\u00e9codage permettra d'\u00e9tiqueter des phrases en italien en combinant un syst\u00e8me de traduction italien vers fran\u00e7ais et un syst\u00e8me de compr\u00e9hension du fran\u00e7ais"
            },
            "TABREF12": {
                "html": null,
                "num": null,
                "content": "<table/>",
                "type_str": "table",
                "text": "Evaluation des diff\u00e9rents configurations de compr\u00e9hension multilingue fran\u00e7cais-italien, variant selon le type d'information transmise entre les 2 \u00e9tapes (1-best, oracle ou graphe)."
            }
        }
    }
}