File size: 60,985 Bytes
6fa4bc9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
{
    "paper_id": "F13-2004",
    "header": {
        "generated_with": "S2ORC 1.0.0",
        "date_generated": "2023-01-19T09:41:39.692070Z"
    },
    "title": "Vers un d\u00e9codage guid\u00e9 pour la traduction automatique",
    "authors": [
        {
            "first": "Benjamin",
            "middle": [],
            "last": "Lecouteux",
            "suffix": "",
            "affiliation": {
                "laboratory": "Laboratoire d'Informatique de Grenoble (LIG)",
                "institution": "Universit\u00e9 de Grenoble",
                "location": {}
            },
            "email": "benjamin.lecouteux@imag.fr"
        },
        {
            "first": "Laurent",
            "middle": [],
            "last": "Besacier",
            "suffix": "",
            "affiliation": {
                "laboratory": "Laboratoire d'Informatique de Grenoble (LIG)",
                "institution": "Universit\u00e9 de Grenoble",
                "location": {}
            },
            "email": "laurent.besacier@imag.fr"
        }
    ],
    "year": "",
    "venue": null,
    "identifiers": {},
    "abstract": "R\u00e9cemment, le paradigme du d\u00e9codage guid\u00e9 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l'utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d'envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources etc. Cet article pr\u00e9sente une approche pr\u00e9liminaire de l'application de ce paradigme \u00e0 la traduction automatique (TA). Nous proposons d'enrichir le mod\u00e8le log-lin\u00e9aire d'un syst\u00e8me primaire de TA avec des mesures de distance relatives \u00e0 des syst\u00e8mes de TA auxiliaires. Les premiers r\u00e9sultats obtenus sur la t\u00e2che de traduction Fran\u00e7ais/Anglais issue de la campagne d'\u00e9valuation WMT 2011 montrent le potentiel du d\u00e9codage guid\u00e9.",
    "pdf_parse": {
        "paper_id": "F13-2004",
        "_pdf_hash": "",
        "abstract": [
            {
                "text": "R\u00e9cemment, le paradigme du d\u00e9codage guid\u00e9 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l'utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d'envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources etc. Cet article pr\u00e9sente une approche pr\u00e9liminaire de l'application de ce paradigme \u00e0 la traduction automatique (TA). Nous proposons d'enrichir le mod\u00e8le log-lin\u00e9aire d'un syst\u00e8me primaire de TA avec des mesures de distance relatives \u00e0 des syst\u00e8mes de TA auxiliaires. Les premiers r\u00e9sultats obtenus sur la t\u00e2che de traduction Fran\u00e7ais/Anglais issue de la campagne d'\u00e9valuation WMT 2011 montrent le potentiel du d\u00e9codage guid\u00e9.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Abstract",
                "sec_num": null
            }
        ],
        "body_text": [
            {
                "text": "Le concept du d\u00e9codage guid\u00e9 (Lecouteux et al., 2012 (Lecouteux et al., , 2013 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l'utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d'envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources (\u00e0 partir de diff\u00e9rentes langues, ou \u00e0 partir de sorties de diff\u00e9rents syst\u00e8mes de reconnaissance de la parole dans le cas de la traduction de la parole), l'utilisation de syst\u00e8mes en ligne (comme Google traduction), le recalcul en temps r\u00e9el d'hypoth\u00e8ses de traduction dans une interface de post-\u00e9dition, etc.",
                "cite_spans": [
                    {
                        "start": 29,
                        "end": 52,
                        "text": "(Lecouteux et al., 2012",
                        "ref_id": "BIBREF8"
                    },
                    {
                        "start": 53,
                        "end": 78,
                        "text": "(Lecouteux et al., , 2013",
                        "ref_id": "BIBREF7"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Cet article pr\u00e9sente un travail pr\u00e9liminaire concernant l'application du paradigme de d\u00e9codage guid\u00e9 \u00e0 la traduction automatique (TA). Nous proposons d'utiliser les syst\u00e8mes de TA Fran-\u00e7ais/Anglais de deux laboratoires (le LIA et le LIG) pr\u00e9sent\u00e9s dans (Potet et al., 2011) . Ces syst\u00e8mes sont des syst\u00e8mes de traduction statistiques \u00e0 base de s\u00e9quences (phrase-based (Koehn, 2010) ). Dans ces approches, un score de vraisemblance est calcul\u00e9 pour chaque phrase candidate \u00e0 la traduction, en fonction de la phrase source ; et ce score r\u00e9sulte de la combinaison log-lin\u00e9aire d'un ensemble de param\u00e8tres.",
                "cite_spans": [
                    {
                        "start": 253,
                        "end": 273,
                        "text": "(Potet et al., 2011)",
                        "ref_id": null
                    },
                    {
                        "start": 368,
                        "end": 381,
                        "text": "(Koehn, 2010)",
                        "ref_id": "BIBREF5"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Notre premi\u00e8re approche introduisant le d\u00e9codage guid\u00e9 consiste en l'addition de param\u00e8tres, dans le mod\u00e8le log-lin\u00e9aire, mod\u00e9lisant la distance entre l'hypoth\u00e8se courante (not\u00e9e H) et la transcription auxiliaire (not\u00e9e T) : d(T,H). Avec l'introduction de ces nouveaux param\u00e8tres, les N meilleures hypoth\u00e8ses sont alors r\u00e9\u00e9valu\u00e9es et r\u00e9ordonn\u00e9es. L'article s'articule ainsi : la section 2 propose un \u00e9tat de l'art relatif au travail pr\u00e9sent\u00e9. La section 3 pr\u00e9sente notre approche, les sections 4 et 5 d\u00e9crivent respectivement le syst\u00e8me de traduction \u00e9talon utilis\u00e9 et nos exp\u00e9rimentations qui sont analys\u00e9es plus finement dans la section 6. La derni\u00e8re section est consacr\u00e9e \u00e0 nos conclusions et \u00e0 quelques perspectives.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Contrairement \u00e0 la reconnaissance automatique de la parole, la traduction automatique propose une grande vari\u00e9t\u00e9 de syst\u00e8mes bas\u00e9s sur des concepts diff\u00e9rents. M\u00eame parmi les syst\u00e8mes statistiques, on trouve de nombreuses variantes telles que les syst\u00e8mes \u00e0 base de segments, les syst\u00e8mes hi\u00e9rarchiques ou les approches syntaxiques. Ceci complique la combinaison d'hypoth\u00e8ses en TA car on est confront\u00e9 \u00e0 des hypoth\u00e8ses potentiellement tr\u00e8s diff\u00e9rentes en terme de fluidit\u00e9, d'ordre de mots, etc.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "\u00c9tat de l'art",
                "sec_num": "2"
            },
            {
                "text": "Dans un premier temps, nous pr\u00e9sentons le concept de d\u00e9codage guid\u00e9 utilis\u00e9 dans les syst\u00e8mes de reconnaissance automatique de la parole (SRAP). Ensuite, nous pr\u00e9sentons les approches de combinaison de syst\u00e8mes existantes dans le cadre de la TA.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "\u00c9tat de l'art",
                "sec_num": "2"
            },
            {
                "text": "Dans (Lecouteux et al., 2012 (Lecouteux et al., , 2013 , nous proposons l'utilisation de transcriptions auxiliaires pour am\u00e9liorer les performances d'un SRAP. Nous montrons que m\u00eame des informations bruit\u00e9es peuvent apporter une aide pr\u00e9cieuse et exploitable. Pour ce faire, deux m\u00e9thodes compl\u00e9mentaires sont exploit\u00e9es : la combinaison d'un mod\u00e8le de langage g\u00e9n\u00e9rique avec un mod\u00e8le estim\u00e9 sur la transcription imparfaite (permettant de r\u00e9duire l'espace linguistique et de le focaliser sur la t\u00e2che) et la r\u00e9estimation dynamique de la fonction de co\u00fbt du SRAP en fonction de la ressemblance de l'hypoth\u00e8se courante avec la transcription auxiliaire. Ainsi, la probabilit\u00e9 de l'hypoth\u00e8se courante est biais\u00e9e par la transcription auxiliaire. Diff\u00e9rents types de transcriptions auxiliaires peuvent \u00eatre utilis\u00e9s, comme par exemple des transcriptions issues d'autres SRAP, aboutissant finalement \u00e0 une combinaison. Ainsi, en associant une hypoth\u00e8se auxiliaire et ses scores de confiance, il est possible d'influencer dynamiquement la probabilit\u00e9 linguistique. Cette approche a montr\u00e9 des gains sup\u00e9rieurs aux m\u00e9thodes de combinaison classiques (i.e. ROVER) pour des t\u00e2ches de transcription de parole.",
                "cite_spans": [
                    {
                        "start": 5,
                        "end": 28,
                        "text": "(Lecouteux et al., 2012",
                        "ref_id": "BIBREF8"
                    },
                    {
                        "start": 29,
                        "end": 54,
                        "text": "(Lecouteux et al., , 2013",
                        "ref_id": "BIBREF7"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Reconnaissance de la parole guid\u00e9e par des transcriptions approch\u00e9es",
                "sec_num": "2.1"
            },
            {
                "text": "De nombreux probl\u00e8mes se pr\u00e9sentent pour la fusion de r\u00e9seaux de confusion (RC), dans le cadre de la TA. L'un des plus importants est relatif aux erreurs d'alignement entre hypoth\u00e8ses, qui g\u00e9n\u00e8rent des erreurs grammaticales. Le d\u00e9codage de r\u00e9seaux de confusion pour la TA a \u00e9t\u00e9 propos\u00e9 par (Bangalore, 2001) . Les hypoth\u00e8ses sont align\u00e9es en utilisant une distance de Levensthein, en vue de les fusionner en RC. L'\u00e9tape la plus importante consiste \u00e0 s\u00e9lectionner une hypoth\u00e8se \"patron\" servant de base \u00e0 l'alignement. Dans (Rosti et al., 2007b) , les sorties 1-best de chaque syst\u00e8me sont utilis\u00e9es \u00e0 tour de r\u00f4le comme patron et la mesure TER (Term Error Rate) entre le patron et les hypoth\u00e8ses concurrentes est estim\u00e9e dans chaque cas. Au final, le score TER minimal permet de retenir l'hypoth\u00e8se patron E s telle que :",
                "cite_spans": [
                    {
                        "start": 290,
                        "end": 307,
                        "text": "(Bangalore, 2001)",
                        "ref_id": null
                    },
                    {
                        "start": 523,
                        "end": 544,
                        "text": "(Rosti et al., 2007b)",
                        "ref_id": "BIBREF15"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion",
                "sec_num": "2.2"
            },
            {
                "text": "E s = arg min E\u2208E i N s j=1 T ER(E j , E i ) o\u00f9 N s est le nombre de syst\u00e8mes.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion",
                "sec_num": "2.2"
            },
            {
                "text": "Finalement, un r\u00e9seau est construit en agr\u00e9geant toutes les hypoth\u00e8ses. Dans cette approche les auteurs montrent que des param\u00e8tres suppl\u00e9mentaires peuvent \u00eatre rajout\u00e9s dans le mod\u00e8le loglin\u00e9aire, comme les probabilit\u00e9s a posteriori relatives \u00e0 chaque arc du RC. Dans cette approche, l'ordre de la combinaison est fortement influenc\u00e9 par la qualit\u00e9 de l'hypoth\u00e8se patron.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion",
                "sec_num": "2.2"
            },
            {
                "text": "Dans (Rosti et al., 2007a) , une combinaison bas\u00e9e sur les scores de confiance a posteriori de diff\u00e9rents syst\u00e8mes est introduite. Dans la partie exp\u00e9rimentale de leurs travaux, les auteurs combinent trois syst\u00e8mes \u00e0 base de segments, deux syst\u00e8mes hi\u00e9rarchiques et un syntaxique. Tous les syst\u00e8mes sont entra\u00een\u00e9s sur les m\u00eames donn\u00e9es. Les poids des d\u00e9codeurs sont optimis\u00e9s selon TER ou BLEU en fonction du syst\u00e8me. Les r\u00e9sultats de combinaison montrent une am\u00e9lioration significative par rapport au meilleur syst\u00e8me initial.",
                "cite_spans": [
                    {
                        "start": 5,
                        "end": 26,
                        "text": "(Rosti et al., 2007a)",
                        "ref_id": "BIBREF14"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion",
                "sec_num": "2.2"
            },
            {
                "text": "L'article (Hildebrand et Vogel, 2009) pr\u00e9sente une approche o\u00f9 les scores des N meilleures hypoth\u00e8ses sont r\u00e9estim\u00e9s. Les N meilleures hypoth\u00e8ses de chaque syst\u00e8me sont combin\u00e9es et des param\u00e8tres sont rajout\u00e9s au mod\u00e8le log-lin\u00e9aire (mod\u00e8le de langage, informations lexicales, etc.). Les poids du mod\u00e8le sont alors recalcul\u00e9s en vue de r\u00e9ordonner optimalement les hypoth\u00e8ses. Les exp\u00e9riences d\u00e9crites dans (Hildebrand et Vogel, 2009 ) montrent la n\u00e9cessit\u00e9 de s\u00e9lectionner un nombre N de meilleures hypoth\u00e8ses optimal, 50 dans ce cas pr\u00e9cis. Avec cette m\u00e9thode, les auteurs combinent incr\u00e9mentalement 4 syst\u00e8mes, montrant une am\u00e9lioration corr\u00e9l\u00e9e au nombre de syst\u00e8mes introduits.",
                "cite_spans": [
                    {
                        "start": 10,
                        "end": 37,
                        "text": "(Hildebrand et Vogel, 2009)",
                        "ref_id": "BIBREF4"
                    },
                    {
                        "start": 407,
                        "end": 433,
                        "text": "(Hildebrand et Vogel, 2009",
                        "ref_id": "BIBREF4"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.",
                "sec_num": "2.2.2"
            },
            {
                "text": "Des approches bas\u00e9es sur le r\u00e9ordonnancement d'hypoth\u00e8ses sont \u00e9galement pr\u00e9sent\u00e9es dans (Li et al., 2009) et (Hildebrand et Vogel, 2008) o\u00f9 les auteurs s\u00e9lectionnent les hypoth\u00e8ses faisant consensus avec diff\u00e9rents syst\u00e8mes : pour cela ils introduisent dans le mod\u00e8le log-lin\u00e9aire des param\u00e8tres de consensus. \u00c0 la diff\u00e9rence de notre approche, les syst\u00e8mes auxiliaires ne sont pas consid\u00e9r\u00e9s comme des bo\u00eetes noires.",
                "cite_spans": [
                    {
                        "start": 89,
                        "end": 106,
                        "text": "(Li et al., 2009)",
                        "ref_id": "BIBREF9"
                    },
                    {
                        "start": 110,
                        "end": 137,
                        "text": "(Hildebrand et Vogel, 2008)",
                        "ref_id": "BIBREF3"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.",
                "sec_num": "2.2.2"
            },
            {
                "text": "La prochaine section pr\u00e9sente le paradigme du d\u00e9codage guid\u00e9 o\u00f9 seules les meilleures hypoth\u00e8ses (1-best) issues des syst\u00e8mes auxiliaires sont exploit\u00e9es en vue d'am\u00e9liorer un syst\u00e8me primaire. Il est donc important de mentionner que notre approche consid\u00e8re les syst\u00e8mes auxiliaires comme \u00e9tant des \"boites noires\".",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.",
                "sec_num": "2.2.2"
            },
            {
                "text": "3 D\u00e9codage guid\u00e9 pour la traduction automatique",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.",
                "sec_num": "2.2.2"
            },
            {
                "text": "Dans un premier temps, notre impl\u00e9mentation consiste en l'ajout de plusieurs param\u00e8tres dans le mod\u00e8le log-lin\u00e9aire, afin de r\u00e9ordonner les hypoth\u00e8ses. D'un point de vue pratique, ces scores sont rajout\u00e9s aux N-meilleures hypoth\u00e8ses directements issues du d\u00e9codeur. Les scores additionnels correspondent \u00e0 la distance entre l'hypoth\u00e8se courante (not\u00e9e H) et la traduction auxiliaire (not\u00e9e T) : d(T,H). Nous utilisons dans notre cas les hypoth\u00e8ses fournies par le syst\u00e8me du LIA et utilisons deux transcriptions auxiliaires (LIG et Google). Dans cette situation, deux scores de distance sont rajout\u00e9s au mod\u00e8le log-lin\u00e9aire. La distance utilis\u00e9e est d\u00e9crite dans la section suivante.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Principe g\u00e9n\u00e9ral",
                "sec_num": "3.1"
            },
            {
                "text": "Nous proposons d'utiliser le BLEU comme distance entre les syst\u00e8mes. Le score BLEU correspond \u00e0 la moyenne g\u00e9om\u00e9trique de la pr\u00e9cision n-gramme. Un score BLEU \u00e9lev\u00e9 sugg\u00e8re donc une traduction de meilleure qualit\u00e9, d'o\u00f9 son utilisation comme m\u00e9trique d'\u00e9valuation de similarit\u00e9 entre diff\u00e9rents syst\u00e8mes. Pour le d\u00e9codage guid\u00e9, nous utilisons une distance BLEU liss\u00e9e au niveau de la phrase comme pr\u00e9sent\u00e9 dans (Lin et Och, 2004) . \u00c9videmment, nous souhaitons introduire des mesures de distance suppl\u00e9mentaires dans des travaux futurs, mais seul BLEU est utilis\u00e9 dans cet article qui peut \u00eatre vu comme une \"preuve de concept\".",
                "cite_spans": [
                    {
                        "start": 412,
                        "end": 430,
                        "text": "(Lin et Och, 2004)",
                        "ref_id": "BIBREF10"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Mesure de distance utilis\u00e9e",
                "sec_num": "3.2"
            },
            {
                "text": "La combinaison est appliqu\u00e9e sur les 500 meilleures hypoth\u00e8ses extraites du syst\u00e8me primaire (LIA) en utilisant l'option distinct de Moses (ceci \u00e9limine les doublons). Chaque hypoth\u00e8se comporte un ensemble de 14 scores : 1 pour le mod\u00e8le de langage, 5 pour le mod\u00e8le de traduction, 1 score de distorsion, 7 scores de r\u00e9ordonnancement et un score de p\u00e9nalit\u00e9. A ces scores, nous ajoutons donc une mesure de similarit\u00e9 pour chaque syst\u00e8me auxiliaire.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9ordonnancement des hypoth\u00e8ses et combinaison",
                "sec_num": "3.3"
            },
            {
                "text": "Les poids de combinaison sont optimis\u00e9s en maximisant le score BLEU au niveau de la phrase en utilisant l'algorithme MIRA (Margin Infused Relaxed Algorithm) (Hasler et al., 2011) . Le choix de MIRA est motiv\u00e9 par une meilleure stabilit\u00e9 observ\u00e9e dans le cas d'optimisation de nombreux param\u00e8tres. Nous effectuons une centaine d'it\u00e9rations et le param\u00e8tre C est fix\u00e9 \u00e0 0.001.",
                "cite_spans": [
                    {
                        "start": 157,
                        "end": 178,
                        "text": "(Hasler et al., 2011)",
                        "ref_id": "BIBREF2"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9ordonnancement des hypoth\u00e8ses et combinaison",
                "sec_num": "3.3"
            },
            {
                "text": "En ce qui concerne le d\u00e9codage, un score est calcul\u00e9 pour chaque phrase (via la combinaison log-lin\u00e9aire) et les phrases sont r\u00e9ordonn\u00e9es en fonction des nouveaux scores calcul\u00e9s. ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9ordonnancement des hypoth\u00e8ses et combinaison",
                "sec_num": "3.3"
            },
            {
                "text": "Le syst\u00e8me LIA est un syst\u00e8me \u00e0 base de segments (phrase-based). L'ensemble des donn\u00e9es utilis\u00e9es provient de la campagne d'\u00e9valuation WMT 2011 et les donn\u00e9es sont tokenis\u00e9es avec les outils fournis lors de la campagne. Le mod\u00e8le de langage 4-gramme a \u00e9t\u00e9 appris \u00e0 l'aide de la bo\u00eete \u00e0 outils SRILM (Stolcke, 2002) avec un mod\u00e8le de repli Kneyser-Ney modifi\u00e9. Le corpus parall\u00e8le a \u00e9t\u00e9 align\u00e9 au niveau des mots en utilisant Giza++ (Och et Ney, 2003) et MGiza++ (Gao et Vogel, 2008) pour les corpus tr\u00e8s volumineux. La table de phrases et les mod\u00e8les de r\u00e9ordonnancement ont \u00e9t\u00e9 appris en utilisant les outils d'apprentissage de la suite Moses (Koehn et al., 2007) . Au final, un ensemble de 14 param\u00e8tres a \u00e9t\u00e9 utilis\u00e9 dans le syst\u00e8me (cf 3.3). Ces scores ont \u00e9t\u00e9 optimis\u00e9s sur le corpus newstest2009 comprenant 2525 phrases en utilisant l'algorithme MERT. Plus de d\u00e9tails se trouvent dans (Potet et al., 2011) .",
                "cite_spans": [
                    {
                        "start": 299,
                        "end": 314,
                        "text": "(Stolcke, 2002)",
                        "ref_id": "BIBREF16"
                    },
                    {
                        "start": 432,
                        "end": 450,
                        "text": "(Och et Ney, 2003)",
                        "ref_id": "BIBREF11"
                    },
                    {
                        "start": 462,
                        "end": 482,
                        "text": "(Gao et Vogel, 2008)",
                        "ref_id": "BIBREF1"
                    },
                    {
                        "start": 644,
                        "end": 664,
                        "text": "(Koehn et al., 2007)",
                        "ref_id": "BIBREF6"
                    },
                    {
                        "start": 891,
                        "end": 911,
                        "text": "(Potet et al., 2011)",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Caract\u00e9ristiques du syst\u00e8me primaire utilis\u00e9 (LIA)",
                "sec_num": "4.2"
            },
            {
                "text": "La Table 2 r\u00e9sume les scores BLEU obtenus par le syst\u00e8me LIA sans la casse (tous les r\u00e9sultats de l'article sont donn\u00e9s sans la casse). L'\u00e9valuation des performances est effectu\u00e9e sur 3 corpus : dev qui correspond aux corpus newstest2008 + newssyscomb2009 de WMT (2553 phrases) ; tst10 qui correspond \u00e0 newstest2010 (2489 phrases) et tst11 qui correspond \u00e0 newstest2011 (3005 phrases). Nous pr\u00e9sentons \u00e9galement les scores obtenus par les syst\u00e8mes auxiliaires LIG (non d\u00e9crit ici faute de place mais pr\u00e9sent\u00e9 dans (Potet et al., 2011) ) et Google (syst\u00e8me en ligne dans sa version de F\u00e9vrier 2012). Nous sommes conscients du risque que le syst\u00e8me Google utilis\u00e9 en 2012 puisse contenir des donn\u00e9es issues de WMT 2011, mais \u00e0 la vue des performances, \u00e7a ne semble pas \u00eatre le cas. C'est principalement pour cette raison que nous avons \u00e9galement introduit le syst\u00e8me du LIG dont nous contr\u00f4lons parfaitement les donn\u00e9es d'apprentissage. Pour finir, l'algorithme MIRA (Hasler et al., 2011) est utilis\u00e9 pour recalculer tous les poids relatifs au d\u00e9codage guid\u00e9 (entra\u00een\u00e9s sur le corpus dev). ",
                "cite_spans": [
                    {
                        "start": 514,
                        "end": 534,
                        "text": "(Potet et al., 2011)",
                        "ref_id": null
                    },
                    {
                        "start": 965,
                        "end": 986,
                        "text": "(Hasler et al., 2011)",
                        "ref_id": "BIBREF2"
                    }
                ],
                "ref_spans": [
                    {
                        "start": 3,
                        "end": 10,
                        "text": "Table 2",
                        "ref_id": null
                    }
                ],
                "eq_spans": [],
                "section": "Performances du syst\u00e8me primaire et des syst\u00e8mes auxiliaires",
                "sec_num": "4.3"
            },
            {
                "text": "Nous avons pr\u00e9sent\u00e9 une adaptation pr\u00e9liminaire du d\u00e9codage guid\u00e9 \u00e0 la traduction automatique. Ce paradigme permet une combinaison efficace de syst\u00e8mes de traduction automatique, en r\u00e9\u00e9valuant le mod\u00e8le log-lin\u00e9aire au niveau des N meilleures hypoth\u00e8ses, en utilisant des syst\u00e8mes auxiliaires. Le principe est de guider le processus de recherche en utilisant des sorties existantes. Nous avons \u00e9valu\u00e9 diff\u00e9rentes configurations sur le corpus WMT 2011. Les r\u00e9sultats montrent que l'approche est efficace et obtient des gains significatifs en terme de score BLEU. Par ailleurs, ces r\u00e9sultats pr\u00e9liminaires sont \u00e9quivalents (voire l\u00e9g\u00e8rement meilleurs) \u00e0 ceux obtenus en utilisant des m\u00e9thodes de combinaison \u00e9tat de l'art. Enfin, cette m\u00e9thode a \u00e9t\u00e9 r\u00e9cemment utilis\u00e9e avec succ\u00e8s lors de deux campagnes d'\u00e9valuation :",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "7"
            },
            {
                "text": "-Une campagne d'\u00e9valuation arabe/fran\u00e7ais (TRAD) o\u00f9 nous avons utilis\u00e9 Google comme syst\u00e8me auxiliaire et le syst\u00e8me du LIG comme syst\u00e8me primaire. -La campagne d'\u00e9valuation IWSLT 2012 (anglais/fran\u00e7ais) o\u00f9 nous avons utilis\u00e9 le m\u00eame syst\u00e8me en ligne pour am\u00e9liorer les performances du syst\u00e8me primaire LIG. Les r\u00e9sultats de cette campagne se trouvent dans (Besacier et al., 2012) .",
                "cite_spans": [
                    {
                        "start": 357,
                        "end": 380,
                        "text": "(Besacier et al., 2012)",
                        "ref_id": "BIBREF0"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "7"
            },
            {
                "text": "Nos futurs travaux vont se concentrer sur l'int\u00e9gration du d\u00e9codage guid\u00e9 au sein du d\u00e9codeur Moses, au niveau de la fonction objective. Le second axe envisag\u00e9 est l'utilisation de mesures de confiance associ\u00e9es aux transcriptions auxiliaires, afin de les exploiter plus finement. ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "7"
            },
            {
                "text": "c ATALA",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            }
        ],
        "back_matter": [],
        "bib_entries": {
            "BIBREF0": {
                "ref_id": "b0",
                "title": "The LIG English to French Machine Translation System for IWSLT 2012",
                "authors": [
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Besacier",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Lecouteux",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Azouzi",
                        "suffix": ""
                    },
                    {
                        "first": "Q",
                        "middle": [],
                        "last": "Luong Ngoc",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "proceedings of the 9th International Workshop on Spoken Language Translation (IWSLT)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BESACIER, L., LECOUTEUX, B., AZOUZI, M. et LUONG NGOC, Q. (2012). The LIG English to French Machine Translation System for IWSLT 2012. In In proceedings of the 9th International Workshop on Spoken Language Translation (IWSLT).",
                "links": null
            },
            "BIBREF1": {
                "ref_id": "b1",
                "title": "Parallel implementations of word alignment tool",
                "authors": [
                    {
                        "first": "Q",
                        "middle": [],
                        "last": "Gao",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Vogel",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "Proceedings of the ACL Workshop : Software Engineering, Testing, and Quality Assurance for Natural Language Processing",
                "volume": "",
                "issue": "",
                "pages": "49--57",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GAO, Q. et VOGEL, S. (2008). Parallel implementations of word alignment tool. In Proceedings of the ACL Workshop : Software Engineering, Testing, and Quality Assurance for Natural Language Processing, pages 49-57, Columbus, OH, USA.",
                "links": null
            },
            "BIBREF2": {
                "ref_id": "b2",
                "title": "Margin infused relaxed algorithm for moses",
                "authors": [
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Hasler",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Haddow",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Koehn",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "The Prague Bulletin of Mathematical Linguistics",
                "volume": "96",
                "issue": "",
                "pages": "69--78",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HASLER, E., HADDOW, B. et KOEHN, P. (2011). Margin infused relaxed algorithm for moses. In The Prague Bulletin of Mathematical Linguistics, pages 96 :69-78.",
                "links": null
            },
            "BIBREF3": {
                "ref_id": "b3",
                "title": "Combination of machine translation systems via hypothesis selection from combined n-best lists",
                "authors": [
                    {
                        "first": "A",
                        "middle": [
                            "S"
                        ],
                        "last": "Hildebrand",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Vogel",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "AMTA conference",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HILDEBRAND, A. S. et VOGEL, S. (2008). Combination of machine translation systems via hypothesis selection from combined n-best lists. In AMTA conference.",
                "links": null
            },
            "BIBREF4": {
                "ref_id": "b4",
                "title": "Combination of machine translation systems via hypothesis selection from combined n-best lists",
                "authors": [
                    {
                        "first": "A",
                        "middle": [
                            "S"
                        ],
                        "last": "Hildebrand",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Vogel",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "Proceedings of Association for Machine Translation in the Americas (AMTA)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HILDEBRAND, A. S. et VOGEL, S. (2009). Combination of machine translation systems via hypothesis selection from combined n-best lists. In Proceedings of Association for Machine Translation in the Americas (AMTA), Hawa\u00ef, USA.",
                "links": null
            },
            "BIBREF5": {
                "ref_id": "b5",
                "title": "Statistical Machine Translation",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Koehn",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "KOEHN, P. (2010). Statistical Machine Translation. Cambridge University Press, New York.",
                "links": null
            },
            "BIBREF6": {
                "ref_id": "b6",
                "title": "Moses : Open source toolkit for statistical machine translation",
                "authors": [
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Koehn",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Hoang",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Birch",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Callison-Burch",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Federico",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Bertoldi",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Cowan",
                        "suffix": ""
                    },
                    {
                        "first": "W",
                        "middle": [],
                        "last": "Shen",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Moran",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Zens",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Dyer",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Bojar",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Constantin",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Herbst",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics (ACL), Companion Volume",
                "volume": "",
                "issue": "",
                "pages": "177--180",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "KOEHN, P., HOANG, H., BIRCH, A., CALLISON-BURCH, C., FEDERICO, M., BERTOLDI, N., COWAN, B., SHEN, W., MORAN, C., ZENS, R., DYER, C., BOJAR, O., CONSTANTIN, A. et HERBST, E. (2007). Moses : Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics (ACL), Companion Volume, pages 177-180, Prague, Czech Republic.",
                "links": null
            },
            "BIBREF7": {
                "ref_id": "b7",
                "title": "Dynamic combination of automatic speech recognition systems by driven decoding",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Lecouteux",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Linares",
                        "suffix": ""
                    },
                    {
                        "first": "Y",
                        "middle": [],
                        "last": "Est\u00e8ve",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Gravier",
                        "suffix": ""
                    }
                ],
                "year": 2013,
                "venue": "IEEE Transactions on Audio, Speech and Signal Processing",
                "volume": "21",
                "issue": "",
                "pages": "1251--1260",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LECOUTEUX, B., LINARES, G., EST\u00c8VE, Y. et GRAVIER, G. (2013). Dynamic combination of automatic speech recognition systems by driven decoding. IEEE Transactions on Audio, Speech and Signal Processing, 21, issue 6:1251 -1260.",
                "links": null
            },
            "BIBREF8": {
                "ref_id": "b8",
                "title": "Integrating imperfect transcripts into speech recognition systems for building high-quality corpora",
                "authors": [
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Lecouteux",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Linares",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Oger",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "Computer Speech and Language",
                "volume": "26",
                "issue": "2",
                "pages": "67--89",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LECOUTEUX, B., LINARES, G. et OGER, S. (2012). Integrating imperfect transcripts into speech recognition systems for building high-quality corpora. Computer Speech and Language, 26(2):67 -89.",
                "links": null
            },
            "BIBREF9": {
                "ref_id": "b9",
                "title": "Collaborative decoding : Partial hypothesis re-ranking using translation consensus between decoders",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Li",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Duan",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Zhang",
                        "suffix": ""
                    },
                    {
                        "first": "C.-H",
                        "middle": [],
                        "last": "Li",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Zhou",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "Proceedings of the 47th Annual Meeting of the ACL and the 4th IJCNLP of the AFNLP",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LI, M., DUAN, N., ZHANG, D., LI, C.-H. et ZHOU, M. (2009). Collaborative decoding : Partial hypothesis re-ranking using translation consensus between decoders. In Proceedings of the 47th Annual Meeting of the ACL and the 4th IJCNLP of the AFNLP.",
                "links": null
            },
            "BIBREF10": {
                "ref_id": "b10",
                "title": "Orange : a method for evaluating automatic evaluation metrics for machine translation",
                "authors": [
                    {
                        "first": "C.-Y",
                        "middle": [],
                        "last": "Lin",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [
                            "J"
                        ],
                        "last": "Och",
                        "suffix": ""
                    }
                ],
                "year": 2004,
                "venue": "COLING '04 : Proceedings of the 20th international conference on Computational Linguistics",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LIN, C.-Y. et OCH, F. J. (2004). Orange : a method for evaluating automatic evaluation metrics for machine translation. In In COLING '04 : Proceedings of the 20th international conference on Computational Linguistics.",
                "links": null
            },
            "BIBREF11": {
                "ref_id": "b11",
                "title": "A systematic comparison of various statistical alignment models",
                "authors": [
                    {
                        "first": "F",
                        "middle": [
                            "J. ;"
                        ],
                        "last": "Och",
                        "suffix": ""
                    },
                    {
                        "first": "Japan",
                        "middle": [],
                        "last": "Sapporo",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [
                            "J"
                        ],
                        "last": "Och",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Ney",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "Proceedings of the 41st Annual Meeting on Association for Computational Linguistics (ACL)",
                "volume": "29",
                "issue": "",
                "pages": "19--51",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "OCH, F. J. (2003). Minimum error rate training in statistical machine translation. In Proceedings of the 41st Annual Meeting on Association for Computational Linguistics (ACL), Sapporo, Japan. OCH, F. J. et NEY, H. (2003). A systematic comparison of various statistical alignment models. Computational Linguistics, 29(1):19-51.",
                "links": null
            },
            "BIBREF13": {
                "ref_id": "b13",
                "title": "The LIGA machine translation system for WMT",
                "authors": [],
                "year": 2011,
                "venue": "Proceedings EMNLP and ACL Workshop on Machine Translation (WMT)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "The LIGA machine translation system for WMT 2011. In Proceedings EMNLP and ACL Workshop on Machine Translation (WMT), Edinburgh (Scotland).",
                "links": null
            },
            "BIBREF14": {
                "ref_id": "b14",
                "title": "Combining outputs from multiple machine translation systems",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Rosti",
                        "suffix": ""
                    },
                    {
                        "first": "N.-F",
                        "middle": [],
                        "last": "Ayan",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Xiang",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Matsoukas",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Schwartz",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Dorr",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Proceedings of the North American Chapter of the Association for Computational Linguistics Human Language Technologies",
                "volume": "",
                "issue": "",
                "pages": "228--235",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ROSTI, A.-v., AYAN, N.-F., XIANG, B., MATSOUKAS, S., SCHWARTZ, R. et DORR, B. (2007a). Combining outputs from multiple machine translation systems. In In Proceedings of the North American Chapter of the Association for Computational Linguistics Human Language Technologies, pages 228-235.",
                "links": null
            },
            "BIBREF15": {
                "ref_id": "b15",
                "title": "Improved word-level system combination for machine translation",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Rosti",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Matsoukas",
                        "suffix": ""
                    },
                    {
                        "first": "R",
                        "middle": [],
                        "last": "Schwartz",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Proceedings of ACL",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ROSTI, A.-v., MATSOUKAS, S. et SCHWARTZ, R. (2007b). Improved word-level system combination for machine translation. In In Proceedings of ACL.",
                "links": null
            },
            "BIBREF16": {
                "ref_id": "b16",
                "title": "SRILM -an extensible language modeling toolkit",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Stolcke",
                        "suffix": ""
                    }
                ],
                "year": 2002,
                "venue": "Proceedings of the 7th International Conference on Spoken Language Processing (ICSLP)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "STOLCKE, A. (2002). SRILM -an extensible language modeling toolkit. In Proceedings of the 7th International Conference on Spoken Language Processing (ICSLP), Denver, CO, USA.",
                "links": null
            }
        },
        "ref_entries": {
            "FIGREF0": {
                "text": "BANGALORE, S. (2001). Computing consensus translation from multiple machine translation systems. In In Proceedings of IEEE Automatic Speech Recognition and Understanding Workshop (ASRU-2001, pages 351-354. BARRAULT, L. (2010). Many : Open source machine translation system combination. In In Prague Bulletin of Mathematical Linguistics, Special Issue on Open Source Tools for Machine Translation(93), p.145-155.",
                "uris": null,
                "type_str": "figure",
                "num": null
            },
            "TABREF0": {
                "num": null,
                "html": null,
                "type_str": "table",
                "text": "syst\u00e8mes LIG et LIA ont \u00e9t\u00e9 entra\u00een\u00e9s \u00e0 partir des donn\u00e9es fournies lors de la campagne d'\u00e9valuation WMT 2011 et sur le corpus Gigaword fourni par le LDC. LaTable 4.1 r\u00e9capitule l'ensemble des donn\u00e9es utilis\u00e9es et introduit les notations pour les corpus qui seront utilis\u00e9es dans la suite de l'article. Quatre corpus ont \u00e9t\u00e9 utilis\u00e9s pour construire le mod\u00e8le de traduction :",
                "content": "<table><tr><td>D\u00c9SIGNATION news-c euro UN giga mono-news-c Shuffled News Crawl (2007 \u00e0 2011) news-s News Commentary v6 Europarl v6 Anglais/Fran\u00e7ais UN corpus Apprentissage bilingue 10 9 corpus Apprentissage News Commentary v6 monolingue Anglais Europarl v6 mono-euro D\u00e9veloppement newstest2008 + newssyscomb2009 dev newstest2009 optimisation-LIG-LIA Test newstest2010 test10 newstest2011 test11 TABLE 1 -Corpus utilis\u00e9s pour construire les syst\u00e8mes LIG et LIA (dans la campagne d'\u00e9valuation NB PHRASES 116 k 1.8 M 12 M 23 M 181 k 25 M 1.8 M 2553 2525 2489 3005 Les CORPUS WMT 2011).</td></tr></table>"
            },
            "TABREF2": {
                "num": null,
                "html": null,
                "type_str": "table",
                "text": "Le d\u00e9codage guid\u00e9 (Driven Decoding Algorithm, DDA) a \u00e9t\u00e9 utilis\u00e9 avec le LIA comme syst\u00e8me primaire dont les 500 meilleures hypoth\u00e8ses ont \u00e9t\u00e9 extraites. Les transcriptions auxiliaires sont ici les transcriptions issues des syst\u00e8mes LIG et Google dont les performances sont donn\u00e9es dans laTable 2. Cette table pr\u00e9sente \u00e9galement les r\u00e9sultats du d\u00e9codage guid\u00e9.Nous constatons que le syst\u00e8me LIA est meilleur que le syst\u00e8me LIG. Cependant, la transcription auxiliaire du LIG permet tout de m\u00eame d'am\u00e9liorer ses performances par d\u00e9codage guid\u00e9. Nous observons \u00e9galement une am\u00e9lioration qui se cumule lorsqu'on ajoute le syst\u00e8me de Google. Le d\u00e9codage guid\u00e9 du syst\u00e8me LIA am\u00e9liore son score BLEU d'environ 1 point en comparaison du meilleur syst\u00e8me individuel. De plus, les scores Oracle des combinaisons entre diff\u00e9rents syst\u00e8mes sont donn\u00e9s \u00e0 titre d'information. Il est int\u00e9ressant de noter qu'en substituant le syst\u00e8me LIA au syst\u00e8me DDA, le score Oracle baisse m\u00e9caniquement puisque le d\u00e9codage guid\u00e9 d\u00e9gage un consensus.LaTable 3et la Figure associ\u00e9e montrent les distances BLEU entre le d\u00e9codage guid\u00e9 par LIG+Google, LIG, Google et l'ensemble des syst\u00e8mes utilis\u00e9s seuls. Les similarit\u00e9s pr\u00e9sent\u00e9es ont \u00e9t\u00e9 calcul\u00e9es sur le corpus test11 (elles sont similaires sur les autres ensembles). Nous observons que le d\u00e9codage guid\u00e9 LIG+Google se rapproche \u00e0 la fois des syst\u00e8mes Google et LIG. Lorsqu'il utilise uniquement le syst\u00e8me auxiliaire Google, au contraire il s'\u00e9loigne du LIG. En revanche, en utilisant uniquement le syst\u00e8me auxiliaire LIG, l'hypoth\u00e8se obtenue ne s'\u00e9loigne pas de Google. Similarit\u00e9 entre les syst\u00e8mes. La m\u00e9trique utilis\u00e9e est le BLEU : Chaque sommet du graphe correspond \u00e0 un syst\u00e8me qui est consid\u00e9r\u00e9 comme r\u00e9f\u00e9rence par rapport aux autres. DDA tout correspond au syst\u00e8me DDA guid\u00e9 \u00e0 la fois par les syst\u00e8mes Google et LIA La Figure montre le comportement induit par le d\u00e9codage guid\u00e9 : les hypoth\u00e8ses se rapprochent ou s'\u00e9loignent des syst\u00e8mes auxiliaires. Il est int\u00e9ressant de noter que le syst\u00e8me LIG, a priori moins performant que le syst\u00e8me LIA a finalement une similarit\u00e9 tr\u00e8s \u00e9lev\u00e9e avec ce dernier. L'utilisation d'une similarit\u00e9 BLEU entre les syst\u00e8mes permet donc de trouver un consensus inter-hypoth\u00e8ses.",
                "content": "<table><tr><td>Syst\u00e8me</td><td>LIA</td><td colspan=\"2\">DDA tout DDA LIG</td><td>DDA Google</td></tr><tr><td>LIG</td><td>63.13</td><td>66.14</td><td>72.8</td><td>61.02</td></tr><tr><td>LIA</td><td>100</td><td>77.2</td><td>83.6</td><td>77.19</td></tr><tr><td>Google</td><td>51.01</td><td>66.29</td><td>51.76</td><td>65.93</td></tr><tr><td>DDA tout</td><td>77.2</td><td>100</td><td>79.68</td><td>90.96</td></tr><tr><td>TABLE 3 -</td><td/><td/><td/><td/></tr><tr><td colspan=\"5\">Les r\u00e9sultats sont \u00e9galement tr\u00e8s l\u00e9g\u00e8rement sup\u00e9rieurs \u00e0 ceux obtenus avec MANY, qui est un</td></tr><tr><td colspan=\"5\">syst\u00e8me de combinaison \u00e9tat de l'art. Cependant, tandis que MANY n\u00e9cessite un red\u00e9codage \u00e0</td></tr><tr><td colspan=\"5\">l'aide d'un mod\u00e8le de langage cible, le d\u00e9codage guid\u00e9 permet une combinaison diff\u00e9rente et peu</td></tr><tr><td colspan=\"3\">co\u00fbteuse \u00e0 mettre en oeuvre.</td><td/><td/></tr><tr><td colspan=\"5\">6 Analyse plus fine du d\u00e9codage guid\u00e9</td></tr></table>"
            }
        }
    }
}