File size: 60,985 Bytes
6fa4bc9 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799 800 801 802 803 804 805 806 807 808 809 810 811 812 813 814 815 816 817 818 819 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849 850 851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899 900 901 902 903 904 905 906 907 908 909 910 911 912 913 914 915 916 917 918 919 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949 950 951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999 1000 1001 1002 1003 1004 1005 1006 1007 1008 1009 1010 1011 1012 1013 1014 1015 1016 1017 1018 1019 1020 1021 1022 1023 1024 1025 1026 1027 1028 1029 1030 1031 1032 1033 1034 1035 1036 1037 | {
"paper_id": "F13-2004",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T09:41:39.692070Z"
},
"title": "Vers un d\u00e9codage guid\u00e9 pour la traduction automatique",
"authors": [
{
"first": "Benjamin",
"middle": [],
"last": "Lecouteux",
"suffix": "",
"affiliation": {
"laboratory": "Laboratoire d'Informatique de Grenoble (LIG)",
"institution": "Universit\u00e9 de Grenoble",
"location": {}
},
"email": "benjamin.lecouteux@imag.fr"
},
{
"first": "Laurent",
"middle": [],
"last": "Besacier",
"suffix": "",
"affiliation": {
"laboratory": "Laboratoire d'Informatique de Grenoble (LIG)",
"institution": "Universit\u00e9 de Grenoble",
"location": {}
},
"email": "laurent.besacier@imag.fr"
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "R\u00e9cemment, le paradigme du d\u00e9codage guid\u00e9 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l'utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d'envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources etc. Cet article pr\u00e9sente une approche pr\u00e9liminaire de l'application de ce paradigme \u00e0 la traduction automatique (TA). Nous proposons d'enrichir le mod\u00e8le log-lin\u00e9aire d'un syst\u00e8me primaire de TA avec des mesures de distance relatives \u00e0 des syst\u00e8mes de TA auxiliaires. Les premiers r\u00e9sultats obtenus sur la t\u00e2che de traduction Fran\u00e7ais/Anglais issue de la campagne d'\u00e9valuation WMT 2011 montrent le potentiel du d\u00e9codage guid\u00e9.",
"pdf_parse": {
"paper_id": "F13-2004",
"_pdf_hash": "",
"abstract": [
{
"text": "R\u00e9cemment, le paradigme du d\u00e9codage guid\u00e9 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l'utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d'envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources etc. Cet article pr\u00e9sente une approche pr\u00e9liminaire de l'application de ce paradigme \u00e0 la traduction automatique (TA). Nous proposons d'enrichir le mod\u00e8le log-lin\u00e9aire d'un syst\u00e8me primaire de TA avec des mesures de distance relatives \u00e0 des syst\u00e8mes de TA auxiliaires. Les premiers r\u00e9sultats obtenus sur la t\u00e2che de traduction Fran\u00e7ais/Anglais issue de la campagne d'\u00e9valuation WMT 2011 montrent le potentiel du d\u00e9codage guid\u00e9.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "Le concept du d\u00e9codage guid\u00e9 (Lecouteux et al., 2012 (Lecouteux et al., , 2013 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l'utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d'envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources (\u00e0 partir de diff\u00e9rentes langues, ou \u00e0 partir de sorties de diff\u00e9rents syst\u00e8mes de reconnaissance de la parole dans le cas de la traduction de la parole), l'utilisation de syst\u00e8mes en ligne (comme Google traduction), le recalcul en temps r\u00e9el d'hypoth\u00e8ses de traduction dans une interface de post-\u00e9dition, etc.",
"cite_spans": [
{
"start": 29,
"end": 52,
"text": "(Lecouteux et al., 2012",
"ref_id": "BIBREF8"
},
{
"start": 53,
"end": 78,
"text": "(Lecouteux et al., , 2013",
"ref_id": "BIBREF7"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Cet article pr\u00e9sente un travail pr\u00e9liminaire concernant l'application du paradigme de d\u00e9codage guid\u00e9 \u00e0 la traduction automatique (TA). Nous proposons d'utiliser les syst\u00e8mes de TA Fran-\u00e7ais/Anglais de deux laboratoires (le LIA et le LIG) pr\u00e9sent\u00e9s dans (Potet et al., 2011) . Ces syst\u00e8mes sont des syst\u00e8mes de traduction statistiques \u00e0 base de s\u00e9quences (phrase-based (Koehn, 2010) ). Dans ces approches, un score de vraisemblance est calcul\u00e9 pour chaque phrase candidate \u00e0 la traduction, en fonction de la phrase source ; et ce score r\u00e9sulte de la combinaison log-lin\u00e9aire d'un ensemble de param\u00e8tres.",
"cite_spans": [
{
"start": 253,
"end": 273,
"text": "(Potet et al., 2011)",
"ref_id": null
},
{
"start": 368,
"end": 381,
"text": "(Koehn, 2010)",
"ref_id": "BIBREF5"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Notre premi\u00e8re approche introduisant le d\u00e9codage guid\u00e9 consiste en l'addition de param\u00e8tres, dans le mod\u00e8le log-lin\u00e9aire, mod\u00e9lisant la distance entre l'hypoth\u00e8se courante (not\u00e9e H) et la transcription auxiliaire (not\u00e9e T) : d(T,H). Avec l'introduction de ces nouveaux param\u00e8tres, les N meilleures hypoth\u00e8ses sont alors r\u00e9\u00e9valu\u00e9es et r\u00e9ordonn\u00e9es. L'article s'articule ainsi : la section 2 propose un \u00e9tat de l'art relatif au travail pr\u00e9sent\u00e9. La section 3 pr\u00e9sente notre approche, les sections 4 et 5 d\u00e9crivent respectivement le syst\u00e8me de traduction \u00e9talon utilis\u00e9 et nos exp\u00e9rimentations qui sont analys\u00e9es plus finement dans la section 6. La derni\u00e8re section est consacr\u00e9e \u00e0 nos conclusions et \u00e0 quelques perspectives.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Contrairement \u00e0 la reconnaissance automatique de la parole, la traduction automatique propose une grande vari\u00e9t\u00e9 de syst\u00e8mes bas\u00e9s sur des concepts diff\u00e9rents. M\u00eame parmi les syst\u00e8mes statistiques, on trouve de nombreuses variantes telles que les syst\u00e8mes \u00e0 base de segments, les syst\u00e8mes hi\u00e9rarchiques ou les approches syntaxiques. Ceci complique la combinaison d'hypoth\u00e8ses en TA car on est confront\u00e9 \u00e0 des hypoth\u00e8ses potentiellement tr\u00e8s diff\u00e9rentes en terme de fluidit\u00e9, d'ordre de mots, etc.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tat de l'art",
"sec_num": "2"
},
{
"text": "Dans un premier temps, nous pr\u00e9sentons le concept de d\u00e9codage guid\u00e9 utilis\u00e9 dans les syst\u00e8mes de reconnaissance automatique de la parole (SRAP). Ensuite, nous pr\u00e9sentons les approches de combinaison de syst\u00e8mes existantes dans le cadre de la TA.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tat de l'art",
"sec_num": "2"
},
{
"text": "Dans (Lecouteux et al., 2012 (Lecouteux et al., , 2013 , nous proposons l'utilisation de transcriptions auxiliaires pour am\u00e9liorer les performances d'un SRAP. Nous montrons que m\u00eame des informations bruit\u00e9es peuvent apporter une aide pr\u00e9cieuse et exploitable. Pour ce faire, deux m\u00e9thodes compl\u00e9mentaires sont exploit\u00e9es : la combinaison d'un mod\u00e8le de langage g\u00e9n\u00e9rique avec un mod\u00e8le estim\u00e9 sur la transcription imparfaite (permettant de r\u00e9duire l'espace linguistique et de le focaliser sur la t\u00e2che) et la r\u00e9estimation dynamique de la fonction de co\u00fbt du SRAP en fonction de la ressemblance de l'hypoth\u00e8se courante avec la transcription auxiliaire. Ainsi, la probabilit\u00e9 de l'hypoth\u00e8se courante est biais\u00e9e par la transcription auxiliaire. Diff\u00e9rents types de transcriptions auxiliaires peuvent \u00eatre utilis\u00e9s, comme par exemple des transcriptions issues d'autres SRAP, aboutissant finalement \u00e0 une combinaison. Ainsi, en associant une hypoth\u00e8se auxiliaire et ses scores de confiance, il est possible d'influencer dynamiquement la probabilit\u00e9 linguistique. Cette approche a montr\u00e9 des gains sup\u00e9rieurs aux m\u00e9thodes de combinaison classiques (i.e. ROVER) pour des t\u00e2ches de transcription de parole.",
"cite_spans": [
{
"start": 5,
"end": 28,
"text": "(Lecouteux et al., 2012",
"ref_id": "BIBREF8"
},
{
"start": 29,
"end": 54,
"text": "(Lecouteux et al., , 2013",
"ref_id": "BIBREF7"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Reconnaissance de la parole guid\u00e9e par des transcriptions approch\u00e9es",
"sec_num": "2.1"
},
{
"text": "De nombreux probl\u00e8mes se pr\u00e9sentent pour la fusion de r\u00e9seaux de confusion (RC), dans le cadre de la TA. L'un des plus importants est relatif aux erreurs d'alignement entre hypoth\u00e8ses, qui g\u00e9n\u00e8rent des erreurs grammaticales. Le d\u00e9codage de r\u00e9seaux de confusion pour la TA a \u00e9t\u00e9 propos\u00e9 par (Bangalore, 2001) . Les hypoth\u00e8ses sont align\u00e9es en utilisant une distance de Levensthein, en vue de les fusionner en RC. L'\u00e9tape la plus importante consiste \u00e0 s\u00e9lectionner une hypoth\u00e8se \"patron\" servant de base \u00e0 l'alignement. Dans (Rosti et al., 2007b) , les sorties 1-best de chaque syst\u00e8me sont utilis\u00e9es \u00e0 tour de r\u00f4le comme patron et la mesure TER (Term Error Rate) entre le patron et les hypoth\u00e8ses concurrentes est estim\u00e9e dans chaque cas. Au final, le score TER minimal permet de retenir l'hypoth\u00e8se patron E s telle que :",
"cite_spans": [
{
"start": 290,
"end": 307,
"text": "(Bangalore, 2001)",
"ref_id": null
},
{
"start": 523,
"end": 544,
"text": "(Rosti et al., 2007b)",
"ref_id": "BIBREF15"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion",
"sec_num": "2.2"
},
{
"text": "E s = arg min E\u2208E i N s j=1 T ER(E j , E i ) o\u00f9 N s est le nombre de syst\u00e8mes.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion",
"sec_num": "2.2"
},
{
"text": "Finalement, un r\u00e9seau est construit en agr\u00e9geant toutes les hypoth\u00e8ses. Dans cette approche les auteurs montrent que des param\u00e8tres suppl\u00e9mentaires peuvent \u00eatre rajout\u00e9s dans le mod\u00e8le loglin\u00e9aire, comme les probabilit\u00e9s a posteriori relatives \u00e0 chaque arc du RC. Dans cette approche, l'ordre de la combinaison est fortement influenc\u00e9 par la qualit\u00e9 de l'hypoth\u00e8se patron.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion",
"sec_num": "2.2"
},
{
"text": "Dans (Rosti et al., 2007a) , une combinaison bas\u00e9e sur les scores de confiance a posteriori de diff\u00e9rents syst\u00e8mes est introduite. Dans la partie exp\u00e9rimentale de leurs travaux, les auteurs combinent trois syst\u00e8mes \u00e0 base de segments, deux syst\u00e8mes hi\u00e9rarchiques et un syntaxique. Tous les syst\u00e8mes sont entra\u00een\u00e9s sur les m\u00eames donn\u00e9es. Les poids des d\u00e9codeurs sont optimis\u00e9s selon TER ou BLEU en fonction du syst\u00e8me. Les r\u00e9sultats de combinaison montrent une am\u00e9lioration significative par rapport au meilleur syst\u00e8me initial.",
"cite_spans": [
{
"start": 5,
"end": 26,
"text": "(Rosti et al., 2007a)",
"ref_id": "BIBREF14"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion",
"sec_num": "2.2"
},
{
"text": "L'article (Hildebrand et Vogel, 2009) pr\u00e9sente une approche o\u00f9 les scores des N meilleures hypoth\u00e8ses sont r\u00e9estim\u00e9s. Les N meilleures hypoth\u00e8ses de chaque syst\u00e8me sont combin\u00e9es et des param\u00e8tres sont rajout\u00e9s au mod\u00e8le log-lin\u00e9aire (mod\u00e8le de langage, informations lexicales, etc.). Les poids du mod\u00e8le sont alors recalcul\u00e9s en vue de r\u00e9ordonner optimalement les hypoth\u00e8ses. Les exp\u00e9riences d\u00e9crites dans (Hildebrand et Vogel, 2009 ) montrent la n\u00e9cessit\u00e9 de s\u00e9lectionner un nombre N de meilleures hypoth\u00e8ses optimal, 50 dans ce cas pr\u00e9cis. Avec cette m\u00e9thode, les auteurs combinent incr\u00e9mentalement 4 syst\u00e8mes, montrant une am\u00e9lioration corr\u00e9l\u00e9e au nombre de syst\u00e8mes introduits.",
"cite_spans": [
{
"start": 10,
"end": 37,
"text": "(Hildebrand et Vogel, 2009)",
"ref_id": "BIBREF4"
},
{
"start": 407,
"end": 433,
"text": "(Hildebrand et Vogel, 2009",
"ref_id": "BIBREF4"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.",
"sec_num": "2.2.2"
},
{
"text": "Des approches bas\u00e9es sur le r\u00e9ordonnancement d'hypoth\u00e8ses sont \u00e9galement pr\u00e9sent\u00e9es dans (Li et al., 2009) et (Hildebrand et Vogel, 2008) o\u00f9 les auteurs s\u00e9lectionnent les hypoth\u00e8ses faisant consensus avec diff\u00e9rents syst\u00e8mes : pour cela ils introduisent dans le mod\u00e8le log-lin\u00e9aire des param\u00e8tres de consensus. \u00c0 la diff\u00e9rence de notre approche, les syst\u00e8mes auxiliaires ne sont pas consid\u00e9r\u00e9s comme des bo\u00eetes noires.",
"cite_spans": [
{
"start": 89,
"end": 106,
"text": "(Li et al., 2009)",
"ref_id": "BIBREF9"
},
{
"start": 110,
"end": 137,
"text": "(Hildebrand et Vogel, 2008)",
"ref_id": "BIBREF3"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.",
"sec_num": "2.2.2"
},
{
"text": "La prochaine section pr\u00e9sente le paradigme du d\u00e9codage guid\u00e9 o\u00f9 seules les meilleures hypoth\u00e8ses (1-best) issues des syst\u00e8mes auxiliaires sont exploit\u00e9es en vue d'am\u00e9liorer un syst\u00e8me primaire. Il est donc important de mentionner que notre approche consid\u00e8re les syst\u00e8mes auxiliaires comme \u00e9tant des \"boites noires\".",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.",
"sec_num": "2.2.2"
},
{
"text": "3 D\u00e9codage guid\u00e9 pour la traduction automatique",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.",
"sec_num": "2.2.2"
},
{
"text": "Dans un premier temps, notre impl\u00e9mentation consiste en l'ajout de plusieurs param\u00e8tres dans le mod\u00e8le log-lin\u00e9aire, afin de r\u00e9ordonner les hypoth\u00e8ses. D'un point de vue pratique, ces scores sont rajout\u00e9s aux N-meilleures hypoth\u00e8ses directements issues du d\u00e9codeur. Les scores additionnels correspondent \u00e0 la distance entre l'hypoth\u00e8se courante (not\u00e9e H) et la traduction auxiliaire (not\u00e9e T) : d(T,H). Nous utilisons dans notre cas les hypoth\u00e8ses fournies par le syst\u00e8me du LIA et utilisons deux transcriptions auxiliaires (LIG et Google). Dans cette situation, deux scores de distance sont rajout\u00e9s au mod\u00e8le log-lin\u00e9aire. La distance utilis\u00e9e est d\u00e9crite dans la section suivante.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Principe g\u00e9n\u00e9ral",
"sec_num": "3.1"
},
{
"text": "Nous proposons d'utiliser le BLEU comme distance entre les syst\u00e8mes. Le score BLEU correspond \u00e0 la moyenne g\u00e9om\u00e9trique de la pr\u00e9cision n-gramme. Un score BLEU \u00e9lev\u00e9 sugg\u00e8re donc une traduction de meilleure qualit\u00e9, d'o\u00f9 son utilisation comme m\u00e9trique d'\u00e9valuation de similarit\u00e9 entre diff\u00e9rents syst\u00e8mes. Pour le d\u00e9codage guid\u00e9, nous utilisons une distance BLEU liss\u00e9e au niveau de la phrase comme pr\u00e9sent\u00e9 dans (Lin et Och, 2004) . \u00c9videmment, nous souhaitons introduire des mesures de distance suppl\u00e9mentaires dans des travaux futurs, mais seul BLEU est utilis\u00e9 dans cet article qui peut \u00eatre vu comme une \"preuve de concept\".",
"cite_spans": [
{
"start": 412,
"end": 430,
"text": "(Lin et Och, 2004)",
"ref_id": "BIBREF10"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Mesure de distance utilis\u00e9e",
"sec_num": "3.2"
},
{
"text": "La combinaison est appliqu\u00e9e sur les 500 meilleures hypoth\u00e8ses extraites du syst\u00e8me primaire (LIA) en utilisant l'option distinct de Moses (ceci \u00e9limine les doublons). Chaque hypoth\u00e8se comporte un ensemble de 14 scores : 1 pour le mod\u00e8le de langage, 5 pour le mod\u00e8le de traduction, 1 score de distorsion, 7 scores de r\u00e9ordonnancement et un score de p\u00e9nalit\u00e9. A ces scores, nous ajoutons donc une mesure de similarit\u00e9 pour chaque syst\u00e8me auxiliaire.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9ordonnancement des hypoth\u00e8ses et combinaison",
"sec_num": "3.3"
},
{
"text": "Les poids de combinaison sont optimis\u00e9s en maximisant le score BLEU au niveau de la phrase en utilisant l'algorithme MIRA (Margin Infused Relaxed Algorithm) (Hasler et al., 2011) . Le choix de MIRA est motiv\u00e9 par une meilleure stabilit\u00e9 observ\u00e9e dans le cas d'optimisation de nombreux param\u00e8tres. Nous effectuons une centaine d'it\u00e9rations et le param\u00e8tre C est fix\u00e9 \u00e0 0.001.",
"cite_spans": [
{
"start": 157,
"end": 178,
"text": "(Hasler et al., 2011)",
"ref_id": "BIBREF2"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9ordonnancement des hypoth\u00e8ses et combinaison",
"sec_num": "3.3"
},
{
"text": "En ce qui concerne le d\u00e9codage, un score est calcul\u00e9 pour chaque phrase (via la combinaison log-lin\u00e9aire) et les phrases sont r\u00e9ordonn\u00e9es en fonction des nouveaux scores calcul\u00e9s. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9ordonnancement des hypoth\u00e8ses et combinaison",
"sec_num": "3.3"
},
{
"text": "Le syst\u00e8me LIA est un syst\u00e8me \u00e0 base de segments (phrase-based). L'ensemble des donn\u00e9es utilis\u00e9es provient de la campagne d'\u00e9valuation WMT 2011 et les donn\u00e9es sont tokenis\u00e9es avec les outils fournis lors de la campagne. Le mod\u00e8le de langage 4-gramme a \u00e9t\u00e9 appris \u00e0 l'aide de la bo\u00eete \u00e0 outils SRILM (Stolcke, 2002) avec un mod\u00e8le de repli Kneyser-Ney modifi\u00e9. Le corpus parall\u00e8le a \u00e9t\u00e9 align\u00e9 au niveau des mots en utilisant Giza++ (Och et Ney, 2003) et MGiza++ (Gao et Vogel, 2008) pour les corpus tr\u00e8s volumineux. La table de phrases et les mod\u00e8les de r\u00e9ordonnancement ont \u00e9t\u00e9 appris en utilisant les outils d'apprentissage de la suite Moses (Koehn et al., 2007) . Au final, un ensemble de 14 param\u00e8tres a \u00e9t\u00e9 utilis\u00e9 dans le syst\u00e8me (cf 3.3). Ces scores ont \u00e9t\u00e9 optimis\u00e9s sur le corpus newstest2009 comprenant 2525 phrases en utilisant l'algorithme MERT. Plus de d\u00e9tails se trouvent dans (Potet et al., 2011) .",
"cite_spans": [
{
"start": 299,
"end": 314,
"text": "(Stolcke, 2002)",
"ref_id": "BIBREF16"
},
{
"start": 432,
"end": 450,
"text": "(Och et Ney, 2003)",
"ref_id": "BIBREF11"
},
{
"start": 462,
"end": 482,
"text": "(Gao et Vogel, 2008)",
"ref_id": "BIBREF1"
},
{
"start": 644,
"end": 664,
"text": "(Koehn et al., 2007)",
"ref_id": "BIBREF6"
},
{
"start": 891,
"end": 911,
"text": "(Potet et al., 2011)",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Caract\u00e9ristiques du syst\u00e8me primaire utilis\u00e9 (LIA)",
"sec_num": "4.2"
},
{
"text": "La Table 2 r\u00e9sume les scores BLEU obtenus par le syst\u00e8me LIA sans la casse (tous les r\u00e9sultats de l'article sont donn\u00e9s sans la casse). L'\u00e9valuation des performances est effectu\u00e9e sur 3 corpus : dev qui correspond aux corpus newstest2008 + newssyscomb2009 de WMT (2553 phrases) ; tst10 qui correspond \u00e0 newstest2010 (2489 phrases) et tst11 qui correspond \u00e0 newstest2011 (3005 phrases). Nous pr\u00e9sentons \u00e9galement les scores obtenus par les syst\u00e8mes auxiliaires LIG (non d\u00e9crit ici faute de place mais pr\u00e9sent\u00e9 dans (Potet et al., 2011) ) et Google (syst\u00e8me en ligne dans sa version de F\u00e9vrier 2012). Nous sommes conscients du risque que le syst\u00e8me Google utilis\u00e9 en 2012 puisse contenir des donn\u00e9es issues de WMT 2011, mais \u00e0 la vue des performances, \u00e7a ne semble pas \u00eatre le cas. C'est principalement pour cette raison que nous avons \u00e9galement introduit le syst\u00e8me du LIG dont nous contr\u00f4lons parfaitement les donn\u00e9es d'apprentissage. Pour finir, l'algorithme MIRA (Hasler et al., 2011) est utilis\u00e9 pour recalculer tous les poids relatifs au d\u00e9codage guid\u00e9 (entra\u00een\u00e9s sur le corpus dev). ",
"cite_spans": [
{
"start": 514,
"end": 534,
"text": "(Potet et al., 2011)",
"ref_id": null
},
{
"start": 965,
"end": 986,
"text": "(Hasler et al., 2011)",
"ref_id": "BIBREF2"
}
],
"ref_spans": [
{
"start": 3,
"end": 10,
"text": "Table 2",
"ref_id": null
}
],
"eq_spans": [],
"section": "Performances du syst\u00e8me primaire et des syst\u00e8mes auxiliaires",
"sec_num": "4.3"
},
{
"text": "Nous avons pr\u00e9sent\u00e9 une adaptation pr\u00e9liminaire du d\u00e9codage guid\u00e9 \u00e0 la traduction automatique. Ce paradigme permet une combinaison efficace de syst\u00e8mes de traduction automatique, en r\u00e9\u00e9valuant le mod\u00e8le log-lin\u00e9aire au niveau des N meilleures hypoth\u00e8ses, en utilisant des syst\u00e8mes auxiliaires. Le principe est de guider le processus de recherche en utilisant des sorties existantes. Nous avons \u00e9valu\u00e9 diff\u00e9rentes configurations sur le corpus WMT 2011. Les r\u00e9sultats montrent que l'approche est efficace et obtient des gains significatifs en terme de score BLEU. Par ailleurs, ces r\u00e9sultats pr\u00e9liminaires sont \u00e9quivalents (voire l\u00e9g\u00e8rement meilleurs) \u00e0 ceux obtenus en utilisant des m\u00e9thodes de combinaison \u00e9tat de l'art. Enfin, cette m\u00e9thode a \u00e9t\u00e9 r\u00e9cemment utilis\u00e9e avec succ\u00e8s lors de deux campagnes d'\u00e9valuation :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "7"
},
{
"text": "-Une campagne d'\u00e9valuation arabe/fran\u00e7ais (TRAD) o\u00f9 nous avons utilis\u00e9 Google comme syst\u00e8me auxiliaire et le syst\u00e8me du LIG comme syst\u00e8me primaire. -La campagne d'\u00e9valuation IWSLT 2012 (anglais/fran\u00e7ais) o\u00f9 nous avons utilis\u00e9 le m\u00eame syst\u00e8me en ligne pour am\u00e9liorer les performances du syst\u00e8me primaire LIG. Les r\u00e9sultats de cette campagne se trouvent dans (Besacier et al., 2012) .",
"cite_spans": [
{
"start": 357,
"end": 380,
"text": "(Besacier et al., 2012)",
"ref_id": "BIBREF0"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "7"
},
{
"text": "Nos futurs travaux vont se concentrer sur l'int\u00e9gration du d\u00e9codage guid\u00e9 au sein du d\u00e9codeur Moses, au niveau de la fonction objective. Le second axe envisag\u00e9 est l'utilisation de mesures de confiance associ\u00e9es aux transcriptions auxiliaires, afin de les exploiter plus finement. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "7"
},
{
"text": "c ATALA",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "The LIG English to French Machine Translation System for IWSLT 2012",
"authors": [
{
"first": "L",
"middle": [],
"last": "Besacier",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Lecouteux",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Azouzi",
"suffix": ""
},
{
"first": "Q",
"middle": [],
"last": "Luong Ngoc",
"suffix": ""
}
],
"year": 2012,
"venue": "proceedings of the 9th International Workshop on Spoken Language Translation (IWSLT)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BESACIER, L., LECOUTEUX, B., AZOUZI, M. et LUONG NGOC, Q. (2012). The LIG English to French Machine Translation System for IWSLT 2012. In In proceedings of the 9th International Workshop on Spoken Language Translation (IWSLT).",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "Parallel implementations of word alignment tool",
"authors": [
{
"first": "Q",
"middle": [],
"last": "Gao",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Vogel",
"suffix": ""
}
],
"year": 2008,
"venue": "Proceedings of the ACL Workshop : Software Engineering, Testing, and Quality Assurance for Natural Language Processing",
"volume": "",
"issue": "",
"pages": "49--57",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GAO, Q. et VOGEL, S. (2008). Parallel implementations of word alignment tool. In Proceedings of the ACL Workshop : Software Engineering, Testing, and Quality Assurance for Natural Language Processing, pages 49-57, Columbus, OH, USA.",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "Margin infused relaxed algorithm for moses",
"authors": [
{
"first": "E",
"middle": [],
"last": "Hasler",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Haddow",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Koehn",
"suffix": ""
}
],
"year": 2011,
"venue": "The Prague Bulletin of Mathematical Linguistics",
"volume": "96",
"issue": "",
"pages": "69--78",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HASLER, E., HADDOW, B. et KOEHN, P. (2011). Margin infused relaxed algorithm for moses. In The Prague Bulletin of Mathematical Linguistics, pages 96 :69-78.",
"links": null
},
"BIBREF3": {
"ref_id": "b3",
"title": "Combination of machine translation systems via hypothesis selection from combined n-best lists",
"authors": [
{
"first": "A",
"middle": [
"S"
],
"last": "Hildebrand",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Vogel",
"suffix": ""
}
],
"year": 2008,
"venue": "AMTA conference",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HILDEBRAND, A. S. et VOGEL, S. (2008). Combination of machine translation systems via hypothesis selection from combined n-best lists. In AMTA conference.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "Combination of machine translation systems via hypothesis selection from combined n-best lists",
"authors": [
{
"first": "A",
"middle": [
"S"
],
"last": "Hildebrand",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Vogel",
"suffix": ""
}
],
"year": 2009,
"venue": "Proceedings of Association for Machine Translation in the Americas (AMTA)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HILDEBRAND, A. S. et VOGEL, S. (2009). Combination of machine translation systems via hypothesis selection from combined n-best lists. In Proceedings of Association for Machine Translation in the Americas (AMTA), Hawa\u00ef, USA.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "Statistical Machine Translation",
"authors": [
{
"first": "P",
"middle": [],
"last": "Koehn",
"suffix": ""
}
],
"year": 2010,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KOEHN, P. (2010). Statistical Machine Translation. Cambridge University Press, New York.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "Moses : Open source toolkit for statistical machine translation",
"authors": [
{
"first": "P",
"middle": [],
"last": "Koehn",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Hoang",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Birch",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Callison-Burch",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Federico",
"suffix": ""
},
{
"first": "N",
"middle": [],
"last": "Bertoldi",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Cowan",
"suffix": ""
},
{
"first": "W",
"middle": [],
"last": "Shen",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Moran",
"suffix": ""
},
{
"first": "R",
"middle": [],
"last": "Zens",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Dyer",
"suffix": ""
},
{
"first": "O",
"middle": [],
"last": "Bojar",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Constantin",
"suffix": ""
},
{
"first": "E",
"middle": [],
"last": "Herbst",
"suffix": ""
}
],
"year": 2007,
"venue": "Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics (ACL), Companion Volume",
"volume": "",
"issue": "",
"pages": "177--180",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KOEHN, P., HOANG, H., BIRCH, A., CALLISON-BURCH, C., FEDERICO, M., BERTOLDI, N., COWAN, B., SHEN, W., MORAN, C., ZENS, R., DYER, C., BOJAR, O., CONSTANTIN, A. et HERBST, E. (2007). Moses : Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics (ACL), Companion Volume, pages 177-180, Prague, Czech Republic.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "Dynamic combination of automatic speech recognition systems by driven decoding",
"authors": [
{
"first": "B",
"middle": [],
"last": "Lecouteux",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Linares",
"suffix": ""
},
{
"first": "Y",
"middle": [],
"last": "Est\u00e8ve",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Gravier",
"suffix": ""
}
],
"year": 2013,
"venue": "IEEE Transactions on Audio, Speech and Signal Processing",
"volume": "21",
"issue": "",
"pages": "1251--1260",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LECOUTEUX, B., LINARES, G., EST\u00c8VE, Y. et GRAVIER, G. (2013). Dynamic combination of automatic speech recognition systems by driven decoding. IEEE Transactions on Audio, Speech and Signal Processing, 21, issue 6:1251 -1260.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "Integrating imperfect transcripts into speech recognition systems for building high-quality corpora",
"authors": [
{
"first": "B",
"middle": [],
"last": "Lecouteux",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Linares",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Oger",
"suffix": ""
}
],
"year": 2012,
"venue": "Computer Speech and Language",
"volume": "26",
"issue": "2",
"pages": "67--89",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LECOUTEUX, B., LINARES, G. et OGER, S. (2012). Integrating imperfect transcripts into speech recognition systems for building high-quality corpora. Computer Speech and Language, 26(2):67 -89.",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "Collaborative decoding : Partial hypothesis re-ranking using translation consensus between decoders",
"authors": [
{
"first": "M",
"middle": [],
"last": "Li",
"suffix": ""
},
{
"first": "N",
"middle": [],
"last": "Duan",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Zhang",
"suffix": ""
},
{
"first": "C.-H",
"middle": [],
"last": "Li",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Zhou",
"suffix": ""
}
],
"year": 2009,
"venue": "Proceedings of the 47th Annual Meeting of the ACL and the 4th IJCNLP of the AFNLP",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LI, M., DUAN, N., ZHANG, D., LI, C.-H. et ZHOU, M. (2009). Collaborative decoding : Partial hypothesis re-ranking using translation consensus between decoders. In Proceedings of the 47th Annual Meeting of the ACL and the 4th IJCNLP of the AFNLP.",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "Orange : a method for evaluating automatic evaluation metrics for machine translation",
"authors": [
{
"first": "C.-Y",
"middle": [],
"last": "Lin",
"suffix": ""
},
{
"first": "F",
"middle": [
"J"
],
"last": "Och",
"suffix": ""
}
],
"year": 2004,
"venue": "COLING '04 : Proceedings of the 20th international conference on Computational Linguistics",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LIN, C.-Y. et OCH, F. J. (2004). Orange : a method for evaluating automatic evaluation metrics for machine translation. In In COLING '04 : Proceedings of the 20th international conference on Computational Linguistics.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "A systematic comparison of various statistical alignment models",
"authors": [
{
"first": "F",
"middle": [
"J. ;"
],
"last": "Och",
"suffix": ""
},
{
"first": "Japan",
"middle": [],
"last": "Sapporo",
"suffix": ""
},
{
"first": "F",
"middle": [
"J"
],
"last": "Och",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Ney",
"suffix": ""
}
],
"year": 2003,
"venue": "Proceedings of the 41st Annual Meeting on Association for Computational Linguistics (ACL)",
"volume": "29",
"issue": "",
"pages": "19--51",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "OCH, F. J. (2003). Minimum error rate training in statistical machine translation. In Proceedings of the 41st Annual Meeting on Association for Computational Linguistics (ACL), Sapporo, Japan. OCH, F. J. et NEY, H. (2003). A systematic comparison of various statistical alignment models. Computational Linguistics, 29(1):19-51.",
"links": null
},
"BIBREF13": {
"ref_id": "b13",
"title": "The LIGA machine translation system for WMT",
"authors": [],
"year": 2011,
"venue": "Proceedings EMNLP and ACL Workshop on Machine Translation (WMT)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "The LIGA machine translation system for WMT 2011. In Proceedings EMNLP and ACL Workshop on Machine Translation (WMT), Edinburgh (Scotland).",
"links": null
},
"BIBREF14": {
"ref_id": "b14",
"title": "Combining outputs from multiple machine translation systems",
"authors": [
{
"first": "A",
"middle": [],
"last": "Rosti",
"suffix": ""
},
{
"first": "N.-F",
"middle": [],
"last": "Ayan",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Xiang",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Matsoukas",
"suffix": ""
},
{
"first": "R",
"middle": [],
"last": "Schwartz",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Dorr",
"suffix": ""
}
],
"year": 2007,
"venue": "Proceedings of the North American Chapter of the Association for Computational Linguistics Human Language Technologies",
"volume": "",
"issue": "",
"pages": "228--235",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ROSTI, A.-v., AYAN, N.-F., XIANG, B., MATSOUKAS, S., SCHWARTZ, R. et DORR, B. (2007a). Combining outputs from multiple machine translation systems. In In Proceedings of the North American Chapter of the Association for Computational Linguistics Human Language Technologies, pages 228-235.",
"links": null
},
"BIBREF15": {
"ref_id": "b15",
"title": "Improved word-level system combination for machine translation",
"authors": [
{
"first": "A",
"middle": [],
"last": "Rosti",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Matsoukas",
"suffix": ""
},
{
"first": "R",
"middle": [],
"last": "Schwartz",
"suffix": ""
}
],
"year": 2007,
"venue": "Proceedings of ACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ROSTI, A.-v., MATSOUKAS, S. et SCHWARTZ, R. (2007b). Improved word-level system combination for machine translation. In In Proceedings of ACL.",
"links": null
},
"BIBREF16": {
"ref_id": "b16",
"title": "SRILM -an extensible language modeling toolkit",
"authors": [
{
"first": "A",
"middle": [],
"last": "Stolcke",
"suffix": ""
}
],
"year": 2002,
"venue": "Proceedings of the 7th International Conference on Spoken Language Processing (ICSLP)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "STOLCKE, A. (2002). SRILM -an extensible language modeling toolkit. In Proceedings of the 7th International Conference on Spoken Language Processing (ICSLP), Denver, CO, USA.",
"links": null
}
},
"ref_entries": {
"FIGREF0": {
"text": "BANGALORE, S. (2001). Computing consensus translation from multiple machine translation systems. In In Proceedings of IEEE Automatic Speech Recognition and Understanding Workshop (ASRU-2001, pages 351-354. BARRAULT, L. (2010). Many : Open source machine translation system combination. In In Prague Bulletin of Mathematical Linguistics, Special Issue on Open Source Tools for Machine Translation(93), p.145-155.",
"uris": null,
"type_str": "figure",
"num": null
},
"TABREF0": {
"num": null,
"html": null,
"type_str": "table",
"text": "syst\u00e8mes LIG et LIA ont \u00e9t\u00e9 entra\u00een\u00e9s \u00e0 partir des donn\u00e9es fournies lors de la campagne d'\u00e9valuation WMT 2011 et sur le corpus Gigaword fourni par le LDC. LaTable 4.1 r\u00e9capitule l'ensemble des donn\u00e9es utilis\u00e9es et introduit les notations pour les corpus qui seront utilis\u00e9es dans la suite de l'article. Quatre corpus ont \u00e9t\u00e9 utilis\u00e9s pour construire le mod\u00e8le de traduction :",
"content": "<table><tr><td>D\u00c9SIGNATION news-c euro UN giga mono-news-c Shuffled News Crawl (2007 \u00e0 2011) news-s News Commentary v6 Europarl v6 Anglais/Fran\u00e7ais UN corpus Apprentissage bilingue 10 9 corpus Apprentissage News Commentary v6 monolingue Anglais Europarl v6 mono-euro D\u00e9veloppement newstest2008 + newssyscomb2009 dev newstest2009 optimisation-LIG-LIA Test newstest2010 test10 newstest2011 test11 TABLE 1 -Corpus utilis\u00e9s pour construire les syst\u00e8mes LIG et LIA (dans la campagne d'\u00e9valuation NB PHRASES 116 k 1.8 M 12 M 23 M 181 k 25 M 1.8 M 2553 2525 2489 3005 Les CORPUS WMT 2011).</td></tr></table>"
},
"TABREF2": {
"num": null,
"html": null,
"type_str": "table",
"text": "Le d\u00e9codage guid\u00e9 (Driven Decoding Algorithm, DDA) a \u00e9t\u00e9 utilis\u00e9 avec le LIA comme syst\u00e8me primaire dont les 500 meilleures hypoth\u00e8ses ont \u00e9t\u00e9 extraites. Les transcriptions auxiliaires sont ici les transcriptions issues des syst\u00e8mes LIG et Google dont les performances sont donn\u00e9es dans laTable 2. Cette table pr\u00e9sente \u00e9galement les r\u00e9sultats du d\u00e9codage guid\u00e9.Nous constatons que le syst\u00e8me LIA est meilleur que le syst\u00e8me LIG. Cependant, la transcription auxiliaire du LIG permet tout de m\u00eame d'am\u00e9liorer ses performances par d\u00e9codage guid\u00e9. Nous observons \u00e9galement une am\u00e9lioration qui se cumule lorsqu'on ajoute le syst\u00e8me de Google. Le d\u00e9codage guid\u00e9 du syst\u00e8me LIA am\u00e9liore son score BLEU d'environ 1 point en comparaison du meilleur syst\u00e8me individuel. De plus, les scores Oracle des combinaisons entre diff\u00e9rents syst\u00e8mes sont donn\u00e9s \u00e0 titre d'information. Il est int\u00e9ressant de noter qu'en substituant le syst\u00e8me LIA au syst\u00e8me DDA, le score Oracle baisse m\u00e9caniquement puisque le d\u00e9codage guid\u00e9 d\u00e9gage un consensus.LaTable 3et la Figure associ\u00e9e montrent les distances BLEU entre le d\u00e9codage guid\u00e9 par LIG+Google, LIG, Google et l'ensemble des syst\u00e8mes utilis\u00e9s seuls. Les similarit\u00e9s pr\u00e9sent\u00e9es ont \u00e9t\u00e9 calcul\u00e9es sur le corpus test11 (elles sont similaires sur les autres ensembles). Nous observons que le d\u00e9codage guid\u00e9 LIG+Google se rapproche \u00e0 la fois des syst\u00e8mes Google et LIG. Lorsqu'il utilise uniquement le syst\u00e8me auxiliaire Google, au contraire il s'\u00e9loigne du LIG. En revanche, en utilisant uniquement le syst\u00e8me auxiliaire LIG, l'hypoth\u00e8se obtenue ne s'\u00e9loigne pas de Google. Similarit\u00e9 entre les syst\u00e8mes. La m\u00e9trique utilis\u00e9e est le BLEU : Chaque sommet du graphe correspond \u00e0 un syst\u00e8me qui est consid\u00e9r\u00e9 comme r\u00e9f\u00e9rence par rapport aux autres. DDA tout correspond au syst\u00e8me DDA guid\u00e9 \u00e0 la fois par les syst\u00e8mes Google et LIA La Figure montre le comportement induit par le d\u00e9codage guid\u00e9 : les hypoth\u00e8ses se rapprochent ou s'\u00e9loignent des syst\u00e8mes auxiliaires. Il est int\u00e9ressant de noter que le syst\u00e8me LIG, a priori moins performant que le syst\u00e8me LIA a finalement une similarit\u00e9 tr\u00e8s \u00e9lev\u00e9e avec ce dernier. L'utilisation d'une similarit\u00e9 BLEU entre les syst\u00e8mes permet donc de trouver un consensus inter-hypoth\u00e8ses.",
"content": "<table><tr><td>Syst\u00e8me</td><td>LIA</td><td colspan=\"2\">DDA tout DDA LIG</td><td>DDA Google</td></tr><tr><td>LIG</td><td>63.13</td><td>66.14</td><td>72.8</td><td>61.02</td></tr><tr><td>LIA</td><td>100</td><td>77.2</td><td>83.6</td><td>77.19</td></tr><tr><td>Google</td><td>51.01</td><td>66.29</td><td>51.76</td><td>65.93</td></tr><tr><td>DDA tout</td><td>77.2</td><td>100</td><td>79.68</td><td>90.96</td></tr><tr><td>TABLE 3 -</td><td/><td/><td/><td/></tr><tr><td colspan=\"5\">Les r\u00e9sultats sont \u00e9galement tr\u00e8s l\u00e9g\u00e8rement sup\u00e9rieurs \u00e0 ceux obtenus avec MANY, qui est un</td></tr><tr><td colspan=\"5\">syst\u00e8me de combinaison \u00e9tat de l'art. Cependant, tandis que MANY n\u00e9cessite un red\u00e9codage \u00e0</td></tr><tr><td colspan=\"5\">l'aide d'un mod\u00e8le de langage cible, le d\u00e9codage guid\u00e9 permet une combinaison diff\u00e9rente et peu</td></tr><tr><td colspan=\"3\">co\u00fbteuse \u00e0 mettre en oeuvre.</td><td/><td/></tr><tr><td colspan=\"5\">6 Analyse plus fine du d\u00e9codage guid\u00e9</td></tr></table>"
}
}
}
} |