File size: 113,451 Bytes
6fa4bc9 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799 800 801 802 803 804 805 806 807 808 809 810 811 812 813 814 815 816 817 818 819 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849 850 851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899 900 901 902 903 904 905 906 907 908 909 910 911 912 913 914 915 916 917 918 919 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949 950 951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999 1000 1001 1002 1003 1004 1005 1006 1007 1008 1009 1010 1011 1012 1013 1014 1015 1016 1017 1018 1019 1020 1021 1022 1023 1024 1025 1026 1027 1028 1029 1030 1031 1032 1033 1034 1035 1036 1037 1038 1039 1040 1041 1042 1043 1044 1045 1046 1047 1048 1049 1050 1051 1052 1053 1054 1055 1056 1057 1058 1059 1060 1061 1062 1063 1064 1065 1066 1067 1068 1069 1070 1071 1072 1073 1074 1075 1076 1077 1078 1079 1080 1081 1082 1083 1084 1085 1086 1087 1088 1089 1090 1091 1092 1093 1094 1095 1096 1097 1098 1099 1100 1101 1102 1103 1104 1105 1106 1107 1108 1109 1110 1111 1112 1113 1114 1115 1116 1117 1118 1119 1120 1121 1122 1123 1124 1125 1126 1127 1128 1129 1130 1131 1132 1133 1134 1135 1136 1137 1138 1139 1140 1141 1142 1143 1144 1145 1146 1147 1148 1149 1150 1151 1152 1153 1154 1155 1156 1157 1158 1159 1160 1161 1162 1163 1164 1165 1166 1167 1168 1169 1170 1171 1172 1173 1174 1175 1176 1177 1178 1179 1180 1181 1182 1183 1184 1185 1186 1187 1188 1189 1190 1191 1192 1193 1194 1195 1196 1197 1198 1199 1200 1201 1202 1203 1204 1205 1206 1207 1208 1209 1210 1211 1212 1213 1214 1215 1216 1217 1218 1219 1220 1221 1222 1223 1224 1225 1226 1227 1228 1229 1230 1231 1232 1233 1234 1235 1236 1237 1238 1239 1240 1241 1242 1243 1244 1245 1246 1247 1248 1249 1250 1251 1252 1253 1254 1255 1256 1257 1258 1259 1260 1261 1262 1263 1264 1265 1266 1267 1268 1269 1270 1271 1272 1273 1274 1275 1276 1277 1278 1279 1280 1281 1282 1283 1284 1285 1286 1287 1288 1289 1290 1291 1292 1293 1294 1295 1296 1297 1298 1299 1300 1301 1302 1303 1304 1305 1306 1307 1308 1309 1310 1311 1312 1313 1314 1315 1316 1317 1318 1319 1320 1321 1322 1323 1324 1325 1326 1327 1328 1329 1330 1331 1332 1333 1334 1335 1336 1337 1338 1339 1340 1341 1342 1343 1344 1345 1346 1347 1348 1349 1350 1351 1352 1353 1354 1355 1356 1357 1358 1359 1360 1361 1362 1363 1364 1365 1366 1367 1368 1369 1370 1371 1372 1373 1374 1375 1376 1377 1378 1379 1380 1381 1382 1383 1384 1385 1386 1387 1388 1389 1390 1391 1392 1393 1394 1395 1396 1397 1398 1399 1400 1401 1402 1403 1404 1405 1406 1407 1408 1409 1410 1411 1412 1413 1414 1415 1416 1417 1418 1419 1420 1421 1422 1423 1424 1425 1426 1427 1428 1429 1430 1431 1432 1433 1434 1435 1436 1437 1438 1439 1440 1441 1442 1443 1444 1445 1446 1447 1448 1449 1450 1451 1452 1453 1454 1455 1456 1457 1458 1459 1460 1461 1462 1463 1464 1465 1466 1467 1468 1469 1470 1471 1472 1473 1474 1475 1476 1477 1478 1479 1480 1481 1482 1483 1484 1485 1486 1487 1488 1489 1490 1491 1492 1493 1494 1495 1496 1497 1498 1499 1500 1501 1502 1503 1504 1505 1506 1507 1508 1509 1510 1511 1512 1513 1514 1515 1516 1517 1518 1519 1520 1521 1522 1523 1524 1525 1526 1527 1528 1529 1530 1531 1532 1533 1534 1535 1536 1537 1538 1539 1540 1541 1542 1543 1544 1545 1546 1547 1548 1549 1550 1551 1552 1553 1554 1555 1556 1557 1558 1559 1560 1561 1562 1563 1564 1565 1566 1567 1568 1569 1570 1571 1572 1573 1574 1575 1576 1577 1578 1579 1580 1581 1582 1583 1584 1585 1586 1587 1588 1589 1590 1591 1592 1593 1594 1595 1596 1597 1598 1599 1600 1601 1602 1603 1604 1605 1606 1607 1608 1609 1610 1611 1612 1613 1614 1615 1616 1617 1618 1619 1620 1621 1622 1623 1624 1625 1626 1627 1628 1629 1630 1631 1632 1633 1634 1635 1636 1637 1638 1639 1640 1641 1642 1643 1644 1645 1646 1647 1648 1649 1650 1651 1652 1653 1654 1655 1656 1657 1658 1659 1660 1661 1662 1663 1664 1665 1666 1667 1668 1669 1670 1671 1672 1673 1674 1675 1676 1677 1678 1679 1680 1681 1682 1683 1684 1685 1686 1687 1688 1689 1690 1691 1692 1693 1694 1695 1696 1697 1698 1699 1700 1701 1702 1703 1704 1705 1706 1707 1708 1709 1710 1711 1712 1713 1714 1715 1716 1717 1718 1719 1720 1721 1722 1723 1724 1725 1726 1727 1728 1729 1730 1731 1732 1733 1734 1735 1736 1737 1738 1739 1740 1741 1742 1743 1744 1745 1746 1747 1748 1749 1750 1751 1752 1753 1754 1755 1756 1757 1758 1759 1760 1761 1762 1763 1764 1765 1766 1767 1768 1769 1770 1771 1772 1773 1774 1775 1776 1777 1778 1779 1780 1781 1782 1783 1784 1785 1786 1787 1788 1789 1790 1791 1792 1793 1794 1795 1796 1797 1798 1799 1800 1801 1802 1803 1804 1805 1806 1807 1808 1809 1810 1811 1812 1813 1814 1815 1816 1817 1818 1819 1820 1821 1822 1823 1824 1825 1826 1827 1828 1829 1830 1831 1832 1833 1834 1835 1836 1837 1838 1839 1840 1841 1842 1843 1844 1845 1846 1847 1848 1849 1850 1851 1852 1853 1854 1855 1856 1857 1858 1859 1860 1861 1862 1863 1864 1865 1866 1867 1868 1869 1870 1871 1872 1873 1874 1875 1876 1877 1878 1879 1880 1881 1882 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 1901 1902 1903 1904 1905 1906 1907 1908 1909 1910 1911 1912 1913 1914 1915 1916 1917 1918 1919 1920 1921 1922 1923 1924 1925 1926 1927 1928 1929 1930 1931 1932 1933 1934 1935 1936 1937 1938 1939 1940 1941 1942 1943 1944 1945 1946 1947 1948 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 1962 1963 1964 1965 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049 2050 2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 | {
"paper_id": "F13-1007",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T09:41:40.660863Z"
},
"title": "Approches statistiques discriminantes pour l'interpr\u00e9tation s\u00e9mantique multilingue de la parole",
"authors": [
{
"first": "Bassam",
"middle": [],
"last": "Jabaian",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "Universit\u00e9 d'Avignon et des Pays de Vaucluse",
"location": {
"settlement": "Avignon",
"country": "France ("
}
},
"email": ""
},
{
"first": "Fabrice",
"middle": [],
"last": "Lef\u00e8vre",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "Universit\u00e9 d'Avignon et des Pays de Vaucluse",
"location": {
"settlement": "Avignon",
"country": "France ("
}
},
"email": ""
},
{
"first": "Laurent",
"middle": [],
"last": "Besacier",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "Universit\u00e9 Joseph Fourrier",
"location": {
"settlement": "Grenoble",
"country": "France R\u00c9SUM\u00c9"
}
},
"email": ""
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "Les approches statistiques sont maintenant tr\u00e8s r\u00e9pandues dans les diff\u00e9rentes applications du traitement automatique de la langue et le choix d'une approche particuli\u00e8re d\u00e9pend g\u00e9n\u00e9ralement de la t\u00e2che vis\u00e9e. Dans le cadre de l'interpr\u00e9tation s\u00e9mantique multilingue, cet article pr\u00e9sente une comparaison entre les m\u00e9thodes utilis\u00e9es pour la traduction automatique et celles utilis\u00e9es pour la compr\u00e9hension de la parole. Cette comparaison permet de proposer une approche unifi\u00e9e afin de r\u00e9aliser un d\u00e9codage conjoint qui \u00e0 la fois traduit une phrase et lui attribue ses \u00e9tiquettes s\u00e9mantiques. Ce d\u00e9codage est obtenu par une approche \u00e0 base de transducteurs \u00e0 \u00e9tats finis qui permet de composer un graphe de traduction avec un graphe de compr\u00e9hension. Cette repr\u00e9sentation peut \u00eatre g\u00e9n\u00e9ralis\u00e9e pour permettre des transmissions d'informations riches entre les composants d'un syst\u00e8me d'interaction vocale homme-machine.",
"pdf_parse": {
"paper_id": "F13-1007",
"_pdf_hash": "",
"abstract": [
{
"text": "Les approches statistiques sont maintenant tr\u00e8s r\u00e9pandues dans les diff\u00e9rentes applications du traitement automatique de la langue et le choix d'une approche particuli\u00e8re d\u00e9pend g\u00e9n\u00e9ralement de la t\u00e2che vis\u00e9e. Dans le cadre de l'interpr\u00e9tation s\u00e9mantique multilingue, cet article pr\u00e9sente une comparaison entre les m\u00e9thodes utilis\u00e9es pour la traduction automatique et celles utilis\u00e9es pour la compr\u00e9hension de la parole. Cette comparaison permet de proposer une approche unifi\u00e9e afin de r\u00e9aliser un d\u00e9codage conjoint qui \u00e0 la fois traduit une phrase et lui attribue ses \u00e9tiquettes s\u00e9mantiques. Ce d\u00e9codage est obtenu par une approche \u00e0 base de transducteurs \u00e0 \u00e9tats finis qui permet de composer un graphe de traduction avec un graphe de compr\u00e9hension. Cette repr\u00e9sentation peut \u00eatre g\u00e9n\u00e9ralis\u00e9e pour permettre des transmissions d'informations riches entre les composants d'un syst\u00e8me d'interaction vocale homme-machine.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "Aujourd'hui, les approches statistiques sont tr\u00e8s utilis\u00e9es pour toutes les applications du traitement automatique de la langue (reconnaissance de la parole, traduction automatique, analyse syntaxique, \u00e9tiquetage s\u00e9mantique...). La performance d'une approche particuli\u00e8re d\u00e9pend \u00e9norm\u00e9ment de la t\u00e2che \u00e0 laquelle elle est appliqu\u00e9e. Et, selon les t\u00e2ches, les approches permettant les meilleures performances ne sont pas toujours les m\u00eames.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Par exemple, pour une t\u00e2che de compr\u00e9hension de la parole (Spoken Language Understanding, SLU), assimilable \u00e0 un \u00e9tiquetage s\u00e9quentiel en concepts, les champs al\u00e9atoires conditionnels (Conditional Random Fields, CRF) (Lafferty et al., 2001 ) utilis\u00e9s dans leur version cha\u00eene lin\u00e9aire sont les plus performants (Hahn et al., 2010) . Alors que pour la traduction automatique, ce sont les mod\u00e8les de traduction log-lin\u00e9aires \u00e0 base de segments sous-phrastiques (Log-linear Phrase-Based Statistical Machine Translation, LLPB-SMT) (Koehn et al., 2003) , qui sont le plus souvent utilis\u00e9s.",
"cite_spans": [
{
"start": 217,
"end": 239,
"text": "(Lafferty et al., 2001",
"ref_id": "BIBREF17"
},
{
"start": 311,
"end": 330,
"text": "(Hahn et al., 2010)",
"ref_id": "BIBREF9"
},
{
"start": 527,
"end": 547,
"text": "(Koehn et al., 2003)",
"ref_id": "BIBREF15"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Cependant, malgr\u00e9 les diff\u00e9rences entre les approches statistiques, celles-ci pr\u00e9sentent des points communs et les fronti\u00e8res entre les unes et les autres ont tendance \u00e0 s'estomper. On voit, par exemple, des travaux autour de l'utilisation d'approches discriminantes de type CRF pour la traduction automatique (Och et Ney, 2002; Liang et al., 2006; Lavergne et al., 2011) , tandis que les approches de traduction \u00e0 base de segments, sont aussi utilis\u00e9es dans d'autres t\u00e2ches du traitement automatique de la langue, comme la conversion graph\u00e8me-phon\u00e8mes (Rama et al., 2009) ou le d\u00e9codage de Part-Of-Speech (Gasc\u00f3 i Mora et S\u00e1nchez Peir\u00f3, 2007) .",
"cite_spans": [
{
"start": 310,
"end": 328,
"text": "(Och et Ney, 2002;",
"ref_id": null
},
{
"start": 329,
"end": 348,
"text": "Liang et al., 2006;",
"ref_id": "BIBREF20"
},
{
"start": 349,
"end": 371,
"text": "Lavergne et al., 2011)",
"ref_id": "BIBREF19"
},
{
"start": 553,
"end": 572,
"text": "(Rama et al., 2009)",
"ref_id": "BIBREF26"
},
{
"start": 606,
"end": 643,
"text": "(Gasc\u00f3 i Mora et S\u00e1nchez Peir\u00f3, 2007)",
"ref_id": "BIBREF8"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Dans cet article nous comparons les approches CRF-SLU et LLPB-SMT pour les t\u00e2ches de compr\u00e9hension et de traduction. Pour cela nous proposons d'utiliser et d'optimiser une approche LLPB-SMT pour la compr\u00e9hension de la parole, et par ailleurs d'int\u00e9grer des mod\u00e8les \u00e0 base de CRF \u00e0 un module de traduction automatique. Cette \u00e9tude nous permet de mettre en avant les sp\u00e9cificit\u00e9s de chaque t\u00e2che et d'\u00e9valuer les performances des approches respectives sur ces t\u00e2ches. D'autre part, nous avons montr\u00e9 dans un travail pr\u00e9c\u00e9dent (Jabaian et al., 2010 (Jabaian et al., , 2011 ) que l'utilisation de la traduction automatique constitue une solution efficace pour la portabilit\u00e9 multilingue d'un module de compr\u00e9hension d'une langue vers une autre. Cette portabilit\u00e9 peut \u00eatre obtenue en cascadant un module de traduction avec un module de compr\u00e9hension (pour traduire les entr\u00e9es d'un utilisateur vers une langue pour laquelle nous disposons d'un syst\u00e8me de compr\u00e9hension).",
"cite_spans": [
{
"start": 524,
"end": 545,
"text": "(Jabaian et al., 2010",
"ref_id": "BIBREF12"
},
{
"start": 546,
"end": 569,
"text": "(Jabaian et al., , 2011",
"ref_id": "BIBREF13"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Dans certains cas, la meilleure hypoth\u00e8se de traduction n'est pas l'hypoth\u00e8se pour laquelle le syst\u00e8me de compr\u00e9hension g\u00e9n\u00e8re la meilleure hypoth\u00e8se (souvent pour des raisons li\u00e9es \u00e0 l'ordre des mots). Et donc la s\u00e9lection pr\u00e9alable de la meilleure traduction n'optimise pas forc\u00e9ment le syst\u00e8me lorsqu'on se place selon un sc\u00e9nario de compr\u00e9hension multilingue.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Nous nous basons sur la comparaison r\u00e9alis\u00e9e entre les deux t\u00e2ches afin de pouvoir proposer un mod\u00e8le qui pourra g\u00e9rer la traduction et la compr\u00e9hension d'une mani\u00e8re similaire permettant un d\u00e9codage conjoint entre les modules. Ce d\u00e9codage conjoint permettra de s\u00e9lectionner des traductions en tenant compte des hypoth\u00e8ses d'\u00e9tiquetage s\u00e9mantique. Dans cet esprit, nous ne cherchons plus la meilleure traduction possible mais la traduction qui sera \u00e9tiquet\u00e9e s\u00e9mantiquement de la meilleure mani\u00e8re possible.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Nos exp\u00e9riences sont bas\u00e9es sur le corpus de dialogue fran\u00e7ais MEDIA sur lequel nous apprenons un syst\u00e8me de compr\u00e9hension du fran\u00e7ais. Dans le but de pouvoir utiliser ce syst\u00e8me pour \u00e9tiqueter des entr\u00e9es en italien, nous apprenons un syst\u00e8me de traduction de l'italien vers fran\u00e7ais, qui sera utilis\u00e9 ensuite lors des tests pour traduire les entr\u00e9es italiennes vers le fran\u00e7ais afin de les fournir en entr\u00e9e du syst\u00e8me de compr\u00e9hension.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Cet article est organis\u00e9 de la mani\u00e8re suivante : la section 2 pr\u00e9sente l'utilisation d'une approche de traduction automatique pour la compr\u00e9hension de la parole. La section 3 d\u00e9crit l'utilisation des CRF pour la traduction automatique. Notre proposition pour un d\u00e9codage conjoint entre la compr\u00e9hension et la traduction est pr\u00e9sent\u00e9e dans la section 4. Enfin la section 5 pr\u00e9sente l'\u00e9tude exp\u00e9rimentale et les r\u00e9sultats.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Le probl\u00e8me de la compr\u00e9hension d'un \u00e9nonc\u00e9 utilisateur peut \u00eatre vu comme un probl\u00e8me de traduction de la s\u00e9quence de mots qui forme cet \u00e9nonc\u00e9 (langue source) vers une s\u00e9quence de concepts (langue cible). (Macherey et al., 2001 (Macherey et al., , 2009 ont montr\u00e9 que les approches de la traduction automatique statistique peuvent \u00eatre utilis\u00e9es avec un certain succ\u00e8s pour une t\u00e2che de compr\u00e9hension de la parole. Cette approche part du principe que les s\u00e9quences de concepts sont les traductions des s\u00e9quences de mots initiales.",
"cite_spans": [
{
"start": 207,
"end": 229,
"text": "(Macherey et al., 2001",
"ref_id": "BIBREF22"
},
{
"start": 230,
"end": 254,
"text": "(Macherey et al., , 2009",
"ref_id": "BIBREF21"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de traduction pour la compr\u00e9hension",
"sec_num": "2"
},
{
"text": "Malgr\u00e9 l'apparente similitude entre les t\u00e2ches de compr\u00e9hension et de traduction, la compr\u00e9hension a ses sp\u00e9cificit\u00e9s qui doivent \u00eatre prises en consid\u00e9ration afin de pouvoir am\u00e9liorer les performances obtenues par une approche de traduction comme LLPB-SMT.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de traduction pour la compr\u00e9hension",
"sec_num": "2"
},
{
"text": "Les diff\u00e9rences entre une t\u00e2che de traduction classique (d'une langue naturelle vers une autre) et l'utilisation de la traduction pour la compr\u00e9hension (traduction d'une langue vers des \u00e9tiquettes s\u00e9mantiques) peuvent \u00eatre r\u00e9sum\u00e9es comme suit : -la s\u00e9mantique d'une phrase respecte l'ordre dans lequel les mots sont \u00e9mis contrairement \u00e0 une t\u00e2che de traduction o\u00f9 les mots traduits peuvent avoir un ordre diff\u00e9rent de l'ordre des mots de la phrase source selon le couple de langues consid\u00e9r\u00e9es ; -dans une t\u00e2che de traduction, un mot source peut n'\u00eatre align\u00e9 \u00e0 aucun mot cible (fertilit\u00e9 = 0), alors que pour la compr\u00e9hension chaque mot doit \u00eatre align\u00e9 \u00e0 un concept, sachant que les mots qui ne contribuent pas au sens de la phrase sont \u00e9tiquet\u00e9s par un concept sp\u00e9cifique ; -enfin, les mesures d'\u00e9valuation sont diff\u00e9rentes entre les deux t\u00e2ches (BLEU (Papineni et al., 2002) pour la traduction vs. CER pour la compr\u00e9hension) et donc les outils utilis\u00e9s pour l'optimisation des syst\u00e8mes de traduction doivent \u00eatre adapt\u00e9s pour optimiser le score CER. ",
"cite_spans": [
{
"start": 855,
"end": 878,
"text": "(Papineni et al., 2002)",
"ref_id": "BIBREF25"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de traduction pour la compr\u00e9hension",
"sec_num": "2"
},
{
"text": "Dans cette approche, le probl\u00e8me de la traduction d'une phrase est consid\u00e9r\u00e9 comme un probl\u00e8me d'\u00e9tiquetage de la s\u00e9quence de mots source, avec comme \u00e9tiquettes possibles les mots de la langue cible. L'apprentissage d'un \u00e9tiqueteur fond\u00e9 sur une approche CRF pour une t\u00e2che de traduction n\u00e9cessite un corpus annot\u00e9 (traduit) au niveau des mots. L'application des mod\u00e8les IBM (Brown et al., 1993) permet d'obtenir automatiquement des alignements en mots \u00e0 partir d'un corpus bilingue align\u00e9 au niveau des phrases.",
"cite_spans": [
{
"start": 375,
"end": 395,
"text": "(Brown et al., 1993)",
"ref_id": "BIBREF5"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de compr\u00e9hension pour la traduction",
"sec_num": "3"
},
{
"text": "Comme pour la compr\u00e9hension, o\u00f9 plusieurs mots peuvent \u00eatre associ\u00e9s \u00e0 un seul concept, plusieurs mots source peuvent \u00eatre align\u00e9s avec un seul mot cible. Pour g\u00e9rer cela, la proposition la plus simple est d'appliquer la m\u00eame m\u00e9thode utilis\u00e9e pour la compr\u00e9hension : le passage au format BIO. Ainsi la s\u00e9quence fran\u00e7aise \"je voudrais\" qui est align\u00e9e au mot italien \"vorrei\" sera repr\u00e9sent\u00e9e comme : <je, B_vorrei> <voudrais, I_vorrei>.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de compr\u00e9hension pour la traduction",
"sec_num": "3"
},
{
"text": "La difficult\u00e9 principale pour apprendre des mod\u00e8les CRF pour la traduction est li\u00e9e au nombre \u00e9lev\u00e9 d'\u00e9tiquettes (correspondant \u00e0 la taille du vocabulaire de la langue cible). (Riedmiller et Braun, 1993) ont propos\u00e9 d'utiliser l'algorithme RPROP pour l'optimisation des param\u00e8tres de mod\u00e8les lorsqu'il s'agit d'un mod\u00e8le avec un nombre important de param\u00e8tres. Cet algorithme r\u00e9duit le besoin en m\u00e9moire par rapport \u00e0 d'autres algorithmes d'optimisation (Turian et al., 2006) .",
"cite_spans": [
{
"start": 176,
"end": 203,
"text": "(Riedmiller et Braun, 1993)",
"ref_id": "BIBREF28"
},
{
"start": 454,
"end": 475,
"text": "(Turian et al., 2006)",
"ref_id": "BIBREF32"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de compr\u00e9hension pour la traduction",
"sec_num": "3"
},
{
"text": "Un autre d\u00e9faut important de l'utilisation des CRF pour la traduction est qu'ils ne prennent pas en compte le r\u00e9ordonnancement des mots et que le mod\u00e8le de langage cible limit\u00e9 par la complexit\u00e9 algorithmique lors du d\u00e9codage. Afin d'obtenir un syst\u00e8me de traduction efficace \u00e0 base de CRF, (Lavergne et al., 2011) ont propos\u00e9 un mod\u00e8le fond\u00e9 sur des transducteurs \u00e0 \u00e9tats finis qui composent les diff\u00e9rents \u00e9tapes du processus de traduction. Nous l'appellerons CRFPB-SMT car il int\u00e9gre aussi un m\u00e9canisme pour la mod\u00e9lisation d'une table de traduction par segments sous-phrastiques (appel\u00e9s tuples dans ce contexte).",
"cite_spans": [
{
"start": 291,
"end": 314,
"text": "(Lavergne et al., 2011)",
"ref_id": "BIBREF19"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de compr\u00e9hension pour la traduction",
"sec_num": "3"
},
{
"text": "Le d\u00e9codeur propos\u00e9 pour ce mod\u00e8le est une composition de transducteurs \u00e0 \u00e9tats finis pond\u00e9r\u00e9s (Weighted Finite State Transducer, WFST) qui met en ouvre les fonctionnalit\u00e9s standards des WFST, disponibles dans des biblioth\u00e8ques logicielles comme OpenFST (Allauzen et al., 2007) . Essentiellement, le d\u00e9codeur de traduction est une composition de transducteurs qui repr\u00e9sentent les \u00e9tapes suivantes : le r\u00e9ordonnancement et la segmentation de la phrase source selon les tuples de mots, l'application du mod\u00e8le de traduction (mise en correspondance des parties source et cible des tuples) avec une valuation des hypoth\u00e8ses \u00e0 base de CRF et, enfin, la composition avec un mod\u00e8le de langage dans la langue cible. ",
"cite_spans": [
{
"start": 254,
"end": 277,
"text": "(Allauzen et al., 2007)",
"ref_id": "BIBREF2"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de compr\u00e9hension pour la traduction",
"sec_num": "3"
},
{
"text": "\u03bb t raduction = \u03bb S \u2022 \u03bb R \u2022 \u03bb T \u2022 \u03bb F \u2022 \u03bb L",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de compr\u00e9hension pour la traduction",
"sec_num": "3"
},
{
"text": "sachant que \u03bb S est l'accepteur de la phrase source, \u03bb R repr\u00e9sente un mod\u00e8le de r\u00e9ordonnancement, \u03bb T est un dictionnaire de tuples, qui associe des s\u00e9quences de la langue source avec leurs traductions possibles en se basant sur l'inventaire des tuples lors de l'apprentissage, \u03bb F est une fonction d'extraction de motifs (feature matcher), qui permet d'attribuer des scores de probabilit\u00e9 aux tuples en les comparant aux motifs des fonctions caract\u00e9ristiques du mod\u00e8le CRF et \u03bb L est un mod\u00e8le de langage de la langue cible.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9thode de compr\u00e9hension pour la traduction",
"sec_num": "3"
},
{
"text": "Notre \u00e9tude des relations entre les diff\u00e9rentes approches est r\u00e9alis\u00e9e avec l'objectif de pouvoir les combiner du mieux possible pour la portabilit\u00e9 multilingue d'un syst\u00e8me de compr\u00e9hension.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
"sec_num": "4"
},
{
"text": "Dans des travaux pr\u00e9c\u00e9dents (Jabaian et al., 2010) , nous avons montr\u00e9 que la meilleure m\u00e9thode pour porter un syst\u00e8me de compr\u00e9hension existant vers une nouvelle langue est aussi la plus simple : traduire les \u00e9nonc\u00e9s utilisateurs de la nouvelle langue vers la langue du syst\u00e8me existant et ensuite faire \u00e9tiqueter les \u00e9nonc\u00e9s (traduits) par ce syst\u00e8me.",
"cite_spans": [
{
"start": 28,
"end": 50,
"text": "(Jabaian et al., 2010)",
"ref_id": "BIBREF12"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
"sec_num": "4"
},
{
"text": "Notre proposition est bas\u00e9e sur une cascade d'un syst\u00e8me de traduction (LLPB-SMT) et d'un syst\u00e8me de compr\u00e9hension (CRF-SLU). La meilleure hypoth\u00e8se g\u00e9n\u00e9r\u00e9e par le syst\u00e8me de traduction constitue l'entr\u00e9e du syst\u00e8me de compr\u00e9hension. Cependant, d'autres hypoth\u00e8ses de traductions peuvent diff\u00e9rer (m\u00eame sensiblement, par exemple dans l'ordre des mots) et ces variantes peuvent \u00eatre mieux interpr\u00e9t\u00e9es par l'\u00e9tiqueteur s\u00e9mantique. Donc la s\u00e9lection a priori de la meilleure traduction n'optimise pas forc\u00e9ment le comportement du syst\u00e8me global.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
"sec_num": "4"
},
{
"text": "Pour faire face \u00e0 ce probl\u00e8me nous proposons d'effectuer un d\u00e9codage conjoint entre la traduction et la compr\u00e9hension. Ce d\u00e9codage conjoint aura l'avantage de pouvoir optimiser la s\u00e9lection de la traduction en prenant compte des \u00e9tiquettes qui peuvent \u00eatre attribu\u00e9es aux diff\u00e9rentes traductions possibles.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
"sec_num": "4"
},
{
"text": "La proposition d'utiliser l'approche CRFPB-SMT utilisant des transducteurs pour la traduction de graphes d'hypoth\u00e8ses peut \u00eatre appliqu\u00e9e la compr\u00e9hension. Donc un syst\u00e8me de compr\u00e9hension \u03bb compr ehension peut \u00eatre obtenu de la m\u00eame mani\u00e8re que propos\u00e9 dans la section 3. Cette repr\u00e9sentation nous permet alors d'obtenir un graphe de compr\u00e9hension similaire \u00e0 celui obtenu pour la traduction. Vu que le vocabulaire des sorties du graphe de traduction est le m\u00eame que celui de l'entr\u00e9e du graphe de compr\u00e9hension, ces deux graphes peuvent \u00eatre compos\u00e9s facilement en utilisant la fonction de composition pour donner un graphe permettant le d\u00e9codage conjoint : ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
"sec_num": "4"
},
{
"text": "\u03bb con joint = \u03bb t raduction \u2022 \u03bb compr ehension",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue",
"sec_num": "4"
},
{
"text": "Ce probl\u00e8me rejoint, dans son esprit, le probl\u00e8me classique de la cascade des composants d'un syst\u00e8me d'interaction vocal homme-machine. Dans une architecture standard, le syst\u00e8me de reconnaissance de la parole transmet sa meilleure hypoth\u00e8se de transcription au syst\u00e8me de compr\u00e9hension. Vu que cette hypoth\u00e8se est bruit\u00e9e, elle n'est pas forc\u00e9ment l'hypoth\u00e8se que le syst\u00e8me de compr\u00e9hension pourra \u00e9tiqueter le mieux. (Papineni et al., 2002) qui se base sur des comptes de n-grammes communs entre hypoth\u00e8se et r\u00e9f\u00e9rence est retenu pour \u00e9valuer la t\u00e2che de traduction.",
"cite_spans": [
{
"start": 421,
"end": 444,
"text": "(Papineni et al., 2002)",
"ref_id": "BIBREF25"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Travaux connexes",
"sec_num": "4.1"
},
{
"text": "La bo\u00eete \u00e0 outils MOSES (Koehn et al., 2007) a \u00e9t\u00e9 utilis\u00e9e pour apprendre un mod\u00e8le LLPB-SMT pour la compr\u00e9hension du fran\u00e7ais. Nos premi\u00e8res tentatives ont clairement montr\u00e9 des performances inf\u00e9rieures \u00e0 celles d'un mod\u00e8le CRF-SLU de r\u00e9f\u00e9rence (CER 23,2% apr\u00e8s r\u00e9glage des param\u00e8tres avec MERT pour le LLPB-SMT \u00e0 comparer aux 12,9% pour CRF-SLU 1 .).",
"cite_spans": [
{
"start": 24,
"end": 44,
"text": "(Koehn et al., 2007)",
"ref_id": "BIBREF14"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes de traduction \u00e0 base de segments pour une t\u00e2che de compr\u00e9hension",
"sec_num": "5.1"
},
{
"text": "Les am\u00e9liorations progressives du mod\u00e8le propos\u00e9es dans la section 2 sont \u00e9valu\u00e9es dans le tableau 1. L'utilisation de la contrainte de monotonie durant le d\u00e9codage permet une r\u00e9duction de 0,5% absolu. Convertir les donn\u00e9es selon le formalisme BIO avant la phase d'apprentissage r\u00e9duit le CER de fa\u00e7on significative de 2,4%. Enfin, optimiser le score CER \u00e0 la place du score BLEU r\u00e9duit le CER de 0,4% suppl\u00e9mentaire. Enfin, l'ajout d'une liste de villes \u00e0 l'ensemble d'apprentissage avant r\u00e9apprentissage du mod\u00e8le LLPB-SMT r\u00e9pond au probl\u00e8me du traitement des mots hors-vocabulaire et permet une r\u00e9duction finale de 0,8%.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes de traduction \u00e0 base de segments pour une t\u00e2che de compr\u00e9hension",
"sec_num": "5.1"
},
{
"text": "Les r\u00e9sultats montrent qu'en d\u00e9pit de r\u00e9glages fins de l'approche LLPB-SMT, les approches \u00e0 base de CRF obtiennent toujours les meilleures performances pour une t\u00e2che de compr\u00e9hension (CER de 12,9% pour CRF-SLU vs. 18,3% pour LLPB-SMT). ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes de traduction \u00e0 base de segments pour une t\u00e2che de compr\u00e9hension",
"sec_num": "5.1"
},
{
"text": "Afin de pouvoir \u00e9valuer notre proposition d'utiliser une approche CRF-SLU pour la traduction nous utilisons la partie traduite manuellement (du fran\u00e7ais vers l'italien) du corpus MEDIA comme corpus parall\u00e8le pour apprendre le mod\u00e8le de traduction. L'outil GIZA++ (disponible avec MOSES) a \u00e9t\u00e9 utilis\u00e9 pour apprendre automatiquement un alignement mot \u00e0 mot entre les corpus des deux langues et l'outil Wapiti (Lavergne et al., 2010) a \u00e9t\u00e9 utilis\u00e9 pour apprendre les param\u00e8tres des mod\u00e8les CRF.",
"cite_spans": [
{
"start": 408,
"end": 431,
"text": "(Lavergne et al., 2010)",
"ref_id": "BIBREF18"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique",
"sec_num": "5.2"
},
{
"text": "Dans un premier temps, nous cherchons \u00e0 apprendre un mod\u00e8le CRF-SLU pour la traduction, en utilisant l'algorithme RPROP comme propos\u00e9 dans la section 3. Des fonctions caract\u00e9ristiques de type 4-grammes sym\u00e9triques sur les observations et bi-grammes sur les \u00e9tiquettes sont utilis\u00e9es pour apprendre ce mod\u00e8le. Les performances obtenues sont pr\u00e9sent\u00e9es dans le tableau 2. Les r\u00e9sultats montrent que la performance du mod\u00e8le CRF-SLU (BLEU de 42,5) est significativement moins bonne que la performance obtenue par la m\u00e9thode LLPB-SMT classique utilisant MOSES avec des param\u00e8tres de base (47,2) 2 .",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique",
"sec_num": "5.2"
},
{
"text": "Afin d'avoir une comparaison juste entre les deux m\u00e9thodes, nous cherchons \u00e0 \u00e9valuer l'approche LLPB-SMT dans les m\u00eames conditions que l'approche CRF-SLU. La m\u00e9thode LLPB-SMT utilise un mod\u00e8le de r\u00e9ordonnancement alors que CRF-SLU, d\u00e9di\u00e9 \u00e0 l'\u00e9tiquetage s\u00e9quentiel, ne comprend pas un tel mod\u00e8le. Pour cela nous rajoutons une contrainte de monotonie dans le d\u00e9codage pour l'approche LLPB-SMT emp\u00eachant tout r\u00e9ordonnancement. Il est aussi important de mentionner que l'approche LLPB-SMT utilise un mod\u00e8le de langage pour s\u00e9lectionner la meilleure traduction. Les performances du mod\u00e8le LLPB-SMT de r\u00e9f\u00e9rence sont obtenues en utilisant un mod\u00e8le de langage tri-grammes (utilis\u00e9 g\u00e9n\u00e9ralement dans les syst\u00e8mes de traduction). Cependant la complexit\u00e9 algorithmique de l'approche CRF-SLU ne permet pas d'utiliser un tel mod\u00e8le de langage sur les \u00e9tiquettes. inconnus (hors-vocabulaire) dans le test ont \u00e9t\u00e9 traduits par d'autres mots du corpus cible selon le contexte g\u00e9n\u00e9ral de la phrase, contrairement \u00e0 l'approche LLPB-SMT qui a tendance \u00e0 projeter les mots hors-vocabulaire tels qu'ils sont dans la phrase traduite. Ces mots, \u00e9tant dans la plupart des cas des noms de ville ou de lieux, leur traduction ne change pas d'une langue \u00e0 l'autre, et donc leur projection dans la sortie traduite est avantageuse pour les mod\u00e8les LLPB-SMT. Pour cela nous proposons un pr\u00e9-traitement des mots inconnus dans la phrase source permettant de les r\u00e9cup\u00e9rer en sortie dans l'approche CRF-SLU.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique",
"sec_num": "5.2"
},
{
"text": "Les r\u00e9sultats pr\u00e9sent\u00e9s dans le tableau 2 montrent que le d\u00e9codage monotone d\u00e9grade la performance du mod\u00e8le LLPB-SMT de 0,91% absolu. L'utilisation d'un mod\u00e8le de langage bigrammes augmente la perte de 0,3% suppl\u00e9mentaire. Le traitement des mots hors-vocabulaire permet au mod\u00e8le CRF-SLU de r\u00e9cup\u00e9rer 1,0% de score BLEU par rapport au mod\u00e8le CRF-SLU de r\u00e9f\u00e9rence. On remarque que malgr\u00e9 la d\u00e9gradation du mod\u00e8le LLPB-SMT et les am\u00e9liorations du mod\u00e8le CRF-SLU, la performance de ce dernier reste inf\u00e9rieure \u00e0 celle du mod\u00e8le LLPB-SMT (43,5% pour les CRF vs. 46,0% pour LLPB-SMT).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique",
"sec_num": "5.2"
},
{
"text": "Un mod\u00e8le de traduction CRFPB-SMT \u00e0 base de transducteurs valu\u00e9s par des CRF pour la traduction a \u00e9t\u00e9 construit comme d\u00e9crit dans la section 3. Ce mod\u00e8le a \u00e9t\u00e9 construit \u00e0 partir de l'outil n-code (Crego et al., 2011) , impl\u00e9ment\u00e9 pour apprendre des mod\u00e8les de traduction \u00e0 base de n-grammes (Mari\u00f1o et al., 2006) .",
"cite_spans": [
{
"start": 197,
"end": 217,
"text": "(Crego et al., 2011)",
"ref_id": "BIBREF7"
},
{
"start": 292,
"end": 313,
"text": "(Mari\u00f1o et al., 2006)",
"ref_id": "BIBREF23"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "Cet outil utilise la biblioth\u00e8que OpenFst (Allauzen et al., 2007) pour construire un graphe de traduction qui est la composition de plusieurs transducteurs. La diff\u00e9rence entre le mod\u00e8le impl\u00e9ment\u00e9 par cet outil et le mod\u00e8le qu'on cherche \u00e0 d\u00e9veloper r\u00e9side dans les poids du mod\u00e8le de traduction. Nous adaptons donc cet outil pour interroger les param\u00e8tres d'un mod\u00e8le CRF afin d'estimer les probabilit\u00e9s de traduction et ensuite nous appliquons une normalisation des scores de probabilit\u00e9 obtenus par ce mod\u00e8le sur les diff\u00e9rents chemins du graphe (comme cela a \u00e9t\u00e9 propos\u00e9 dans (Lavergne et al., 2011) ).",
"cite_spans": [
{
"start": 42,
"end": 65,
"text": "(Allauzen et al., 2007)",
"ref_id": "BIBREF2"
},
{
"start": 581,
"end": 604,
"text": "(Lavergne et al., 2011)",
"ref_id": "BIBREF19"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "Dans n-code le mod\u00e8le de r\u00e9ordonnancement, propos\u00e9 par , est fond\u00e9 sur une approche \u00e0 base de r\u00e8gles apprises automatiquement sur les donn\u00e9es d'entrainement. Cette approche n\u00e9cessite un \u00e9tiquetage grammatical des phrases source et un alignement au niveau des mots entre les phrases source et les phrases cible pour apprendre le mod\u00e8le \u03bb R . Nous avons utiliser les outils TreeTagger (Schmid, 1994) pour obtenir l'\u00e9tiquetage grammatical et GIZA++ pour l'alignement en mots. Le mod\u00e8le de langage utilis\u00e9 dans nos exp\u00e9riences est un mod\u00e8le tri-grammes appris sur la partie cible de notre corpus d'apprentissage \u00e0 l'aide de l'outil SRILM (Stolcke, 2002) .",
"cite_spans": [
{
"start": 383,
"end": 397,
"text": "(Schmid, 1994)",
"ref_id": "BIBREF29"
},
{
"start": 634,
"end": 649,
"text": "(Stolcke, 2002)",
"ref_id": "BIBREF30"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "Le tableau 3 pr\u00e9sente une comparaison entre trois mod\u00e8les : le mod\u00e8le CRFPB-SMT, le mod\u00e8le LLPB-SMT (de r\u00e9f\u00e9rence) et le mod\u00e8le CRF-SLU de base (pr\u00e9sent\u00e9 dans la section pr\u00e9c\u00e9dente). Les r\u00e9sultats pr\u00e9sent\u00e9s dans ce tableau montrent que l'approche CRFPB-SMT \u00e0 base de transducteurs donne des performances inf\u00e9rieures mais comparables \u00e0 celles obtenues par l'approche LLPB-SMT.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "Malgr\u00e9 une d\u00e9gradation de 3,1 points absolu, ces performances restent assez \u00e9lev\u00e9es en valeur pour une t\u00e2che de traduction (malgr\u00e9 un ensemble d'apprentissage de taille r\u00e9duite), ce qui s'explique dans notre contexte par le vocabulaire limit\u00e9 du domaine. Cette diff\u00e9rence de performance est comparable \u00e0 celle observ\u00e9e par le LIMSI (Lavergne et al., 2010 ) (en ne consid\u00e9rant que l'utilisation des param\u00e8tres de base).",
"cite_spans": [
{
"start": 332,
"end": 354,
"text": "(Lavergne et al., 2010",
"ref_id": "BIBREF18"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "D'autre part les r\u00e9sultats montrent que l'utilisation de graphes d'hypoth\u00e8ses dans CRFPB-SMT est doublement avantageuse par rapport \u00e0 l'utilisation d'une approche CRF simple ; en plus du fait qu'elle permette de traiter des graphes en entr\u00e9es, cette approche permet d'embl\u00e9e d'augmenter la performance du syst\u00e8me d'environ 1 point absolu.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "Le m\u00e9canisme utilis\u00e9 pour obtenir des graphe de traduction peut \u00eatre utilis\u00e9 d'une mani\u00e8re similaire pour la compr\u00e9hension. Dans un premier temps, le graphe d'hypoth\u00e8se de concepts est obtenu en composant tous les mod\u00e8les",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "\u03bb S \u2022 \u03bb R \u2022 \u03bb T \u2022 \u03bb F \u2022 \u03bb L",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "comme cela a \u00e9t\u00e9 propos\u00e9 pour la traduction. Cette approche donne un CER de 15,3%, bien moins bon que l'approche CRF-SLU de base (12,9%).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "Afin de prendre les sp\u00e9cificit\u00e9s de la compr\u00e9hension (qui ne comprend pas de mod\u00e8le de r\u00e9ordonnancement, ni de mod\u00e8le de langage cible final), nous proposons d'obtenir le graphe de sorties en combinant uniquement les mod\u00e8les \u03bb S \u2022 \u03bb F . Cela nous a permis d'augmenter la performance de cette approche de 2,2% absolu (15,3% vs 13,1%) permettant de retrouver quasiment les m\u00eames performances qu'avec CRF-SLU (13,1% vs 12.9%). Une comparaison entre les performances des diff\u00e9rentes versions est donn\u00e9e dans le tableau 4. Par la suite, CRFPB-SMT simplifi\u00e9 est utilis\u00e9 pour toutes les exp\u00e9riences de compr\u00e9hension.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension",
"sec_num": "5.3"
},
{
"text": "Un d\u00e9codage conjoint pour la traduction et la compr\u00e9hension a \u00e9t\u00e9 appliqu\u00e9 comme nous l'avons propos\u00e9 dans la section 4. Ce d\u00e9codage consiste \u00e0 transmettre le graphe de traduction",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "D\u00e9codage conjoint dans un sc\u00e9nario de compr\u00e9hension multilingue",
"sec_num": "5.4"
},
{
"text": "Sub Del Ins CER CRF-SLU 3,1 8,1 1,8 12,9 CRFPB-SMT (complet) (",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8le",
"sec_num": null
},
{
"text": "\u03bb S \u2022 \u03bb R \u2022 \u03bb T \u2022 \u03bb F \u2022 \u03bb L ) 4,2 8,8 2,3 15,3 CRFPB-SMT (simplifi\u00e9) (\u03bb S \u2022 \u03bb T \u2022 \u03bb F )",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8le",
"sec_num": null
},
{
"text": "3,5 7,6 2,0 13,1 Au moment du d\u00e9codage les deux scores (traduction et compr\u00e9hension) sont pris en consid\u00e9ration. Dans un premier temps nous proposons que le score final pour chaque chemin du graphe soit l'addition simple du score de traduction et du score de compr\u00e9hension sur ce chemin 3 . Le meilleur chemin est ensuite s\u00e9lectionn\u00e9 parmi l'ensemble des chemins possibles dans le graphe. Ce chemin repr\u00e9sente donc un d\u00e9codage conjoint entre la traduction et la compr\u00e9hension (marginalisation de la variabilit\u00e9 al\u00e9atoire li\u00e9e \u00e0 la traduction interm\u00e9diaire).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8le",
"sec_num": null
},
{
"text": "Afin de pouvoir se positionner par rapport \u00e0 l'\u00e9tat de l'art, nous proposons de r\u00e9aliser le d\u00e9codage conjoint selon deux modes : le syst\u00e8me de traduction utilis\u00e9 est un mod\u00e8le LLPB-SMT (en utilisant la bo\u00eete \u00e0 outils MOSES) dans le premier et un CRFPB-SMT (comme d\u00e9crit dans 5.3) dans le second. Dans les deux cas les performances du d\u00e9codage conjoint sont compar\u00e9es avec ou sans prise en compte du graphe d'hypoth\u00e8ses complet. Dans un premier cas, le meilleur chemin (1-best) du graphe de traduction est fourni en entr\u00e9e du syst\u00e8me de compr\u00e9hension. Dans un second cas, l'oracle du graphe de traduction est donn\u00e9 en entr\u00e9e au module de compr\u00e9hension. Les scores oracle repr\u00e9sentent une \u00e9valuation fond\u00e9e sur le chemin du graphe qui se rapproche le plus de la r\u00e9f\u00e9rence de la traduction. Il est alors possible de mesurer l'impact de la qualit\u00e9 de la traduction sur les performances de compr\u00e9hension.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8le",
"sec_num": null
},
{
"text": "Le r\u00e9sultat de cette comparaison est donn\u00e9 dans la tableau 5. Nous avons aussi calcul\u00e9 les scores oracle (pour la traduction et la compr\u00e9hension) sur les sorties des diff\u00e9rents couplages de modules, et nous avons calcul\u00e9 le score BLEU sur la traduction s\u00e9lectionn\u00e9e par le d\u00e9codage conjoint (derni\u00e8re colonne du tableau 5).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8le",
"sec_num": null
},
{
"text": "La premi\u00e8re ligne de ce tableau constitue la combinaison de r\u00e9f\u00e9rence (sans l'utilisation de graphe) dans laquelle la sortie de MOSES est donn\u00e9e en entr\u00e9e d'un mod\u00e8le CRF. Les r\u00e9sultats montrent que le graphe de traduction permet d'am\u00e9liorer la performance du syst\u00e8me par rapport au syst\u00e8me de 1-meilleure traduction (CER 19, 7% vs. 19, 3 vs. 21 ,7 pour CRF). L'utilisation d'un graphe de traduction donne aussi des meilleurs performances par rapport \u00e0 la combinaison avec son oracle (CER 19, 7% vs. 19 LLPB-SMT et 21,3 vs. 21,6 pour CRF). La diff\u00e9rence entre la performance obtenue par le d\u00e9codage conjoint en utilisant un mod\u00e8le LLPB-SMT pour la traduction et celle obtenue en utilisant un mod\u00e8le CRF (CER 19, 7, 8% vs. 21, 3%) peut \u00eatre expliqu\u00e9e par la diff\u00e9rence entre la performance de ces deux mod\u00e8les (BLEU 46,9% vs 44,1%).",
"cite_spans": [
{
"start": 317,
"end": 325,
"text": "(CER 19,",
"ref_id": null
},
{
"start": 326,
"end": 336,
"text": "7% vs. 19,",
"ref_id": null
},
{
"start": 337,
"end": 345,
"text": "3 vs. 21",
"ref_id": null
},
{
"start": 484,
"end": 492,
"text": "(CER 19,",
"ref_id": null
},
{
"start": 493,
"end": 502,
"text": "7% vs. 19",
"ref_id": null
},
{
"start": 703,
"end": 711,
"text": "(CER 19,",
"ref_id": null
},
{
"start": 712,
"end": 714,
"text": "7,",
"ref_id": null
},
{
"start": 715,
"end": 725,
"text": "8% vs. 21,",
"ref_id": null
},
{
"start": 726,
"end": 729,
"text": "3%)",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8le",
"sec_num": null
},
{
"text": "Il est important de mentionner que seuls les couplages prenant des graphes en entr\u00e9e de la compr\u00e9hension permettent de s\u00e9lectionner la traduction en fonction de l'\u00e9tiquetage qui lui sera appliqu\u00e9. Dans les autres cas la s\u00e9lection de la traduction se fait ind\u00e9pendamment. On remarque que le score BLEU de la traduction s\u00e9lectionn\u00e9e par le d\u00e9codage conjoint est moins bon que celui par la meilleure traduction (46,3 vs. 47,2 pour LLPB-SMT et 43,9 vs. 44,1 pour CRF) malgr\u00e9 le fait que le premier est plus performant en CER. Cela montre l'int\u00e9r\u00eat de la m\u00e9thode conjointe \u00e0 base de graphes qui permet de s\u00e9lectionner la traduction qui pourra \u00eatre \u00e9tiquet\u00e9e de la meilleure fa\u00e7on possible.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8le",
"sec_num": null
},
{
"text": "Les scores oracle montrent que la meilleure hypoth\u00e8se s\u00e9lectionn\u00e9e lors du d\u00e9codage n'est pas forc\u00e9ment la plus proche de la r\u00e9f\u00e9rence parmi les hypoth\u00e8ses du graphe. Cependant, ce r\u00e9sultat est encourageant du fait que la performance du syst\u00e8me peut \u00eatre encore am\u00e9lior\u00e9e en ajustant les poids des mod\u00e8les vu que des meilleures hypoth\u00e8ses se trouvent dans le graphe. Un d\u00e9codage optimal permettra d'am\u00e9liorer le CER de 0,6% absolu pour un d\u00e9codage en composant avec un graphe LLPB-SMT pour la traduction (19,7% vs 19,1%) et de 0,7% absolu pour un d\u00e9codage en composant avec un graphe CRF pour la traduction (21,3% vs 20,6%).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Mod\u00e8le",
"sec_num": null
},
{
"text": "Dans cet article nous avons \u00e9valu\u00e9 et compar\u00e9 des approches statistique \u00e0 la fois pour la compr\u00e9hension de la parole et pour la traduction automatique. Nous avons observ\u00e9 que l'approche discriminante CRF reste la meilleure approche pour la compr\u00e9hension de la parole, malgr\u00e9 toutes les adaptations de l'approche LLPB-SMT pour la t\u00e2che. Une approche de type CRF pour la traduction a plusieurs limites et les performances de cette approche peuvent \u00eatre am\u00e9lior\u00e9es par un mod\u00e8le \u00e0 base de transducteurs permettant l'int\u00e9gration de traitements adapt\u00e9s (r\u00e9ordonnancement, segmentation, mod\u00e8le de langage cible).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion",
"sec_num": "6"
},
{
"text": "Plusieurs travaux ont propos\u00e9 un d\u00e9codage conjoint entre la reconnaissance et la compr\u00e9hension de la parole pour prendre en compte les n-meilleures hypoth\u00e8ses de reconnaissance lors de l'\u00e9tiquetage s\u00e9mantique. Ces premiers travaux(T\u00fcr et al., 2002;Servan et al., 2006;Hakkani-T\u00fcr et al., 2006) ont propos\u00e9 d'utiliser un r\u00e9seau de confusion entre les diff\u00e9rentes sorties de reconnaissance pour obtenir un graphe d'hypoth\u00e8ses. Le syst\u00e8me de compr\u00e9hension dans ces propositions a \u00e9t\u00e9 repr\u00e9sent\u00e9 par un WFST, dont les poids sont obtenus pas maximum de vraisemblance sur les donn\u00e9es d'apprentissage. Et le d\u00e9codage conjoint est obtenu par la composition du graphe de reconnaissance avec le graphe de compr\u00e9hension.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
},
{
"text": "c ATALA",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
},
{
"text": ". Une exp\u00e9rience pr\u00e9liminaire pour mesurer l'impact de la pond\u00e9ration des scores est pr\u00e9sent\u00e9e dans(Jabaian, 2012).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "Nous avons alors pu proposer et \u00e9valuer une approche de d\u00e9codage conjoint entre la traduction et la compr\u00e9hension dans le contexte d'un syst\u00e8me de compr\u00e9hension de la parole multilingue. Nous avons montr\u00e9 qu'avec un tel d\u00e9codage nous pouvons obtenir de bonnes performances tout en proposant un syst\u00e8me homog\u00e8ne sur les deux t\u00e2ches sous-jacentes",
"authors": [],
"year": null,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Nous avons alors pu proposer et \u00e9valuer une approche de d\u00e9codage conjoint entre la traduction et la compr\u00e9hension dans le contexte d'un syst\u00e8me de compr\u00e9hension de la parole multilingue. Nous avons montr\u00e9 qu'avec un tel d\u00e9codage nous pouvons obtenir de bonnes performances tout en proposant un syst\u00e8me homog\u00e8ne sur les deux t\u00e2ches sous-jacentes.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "un syst\u00e8me de dialogue homme-machine complet un d\u00e9codage conjoint entre la reconnaissance de la parole et la traduction pourra \u00eatre ajout\u00e9",
"authors": [
{
"first": "",
"middle": [],
"last": "Dans Le Contexte D",
"suffix": ""
}
],
"year": null,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Dans le contexte d'un syst\u00e8me de dialogue homme-machine complet un d\u00e9codage conjoint entre la reconnaissance de la parole et la traduction pourra \u00eatre ajout\u00e9. Dans ce cas un graphe",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "OpenFst : A general and efficient weighted finite-state transducer library",
"authors": [
{
"first": "C",
"middle": [],
"last": "Allauzen",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Riley",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "Schalkwyk",
"suffix": ""
},
{
"first": "W",
"middle": [],
"last": "Skut",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Mohri",
"suffix": ""
}
],
"year": 2007,
"venue": "CIAA",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ALLAUZEN, C., RILEY, M., SCHALKWYK, J., SKUT, W. et MOHRI, M. (2007). OpenFst : A general and efficient weighted finite-state transducer library. In CIAA.",
"links": null
},
"BIBREF3": {
"ref_id": "b3",
"title": "Joint decoding for speech recognition and semantic tagging",
"authors": [
{
"first": "G",
"middle": [
"T"
],
"last": "Anoop Deoras",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Hakkani-Tur",
"suffix": ""
}
],
"year": 2012,
"venue": "INTERSPEECH",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ANOOP DEORAS, G. T. et HAKKANI-TUR, D. (2012). Joint decoding for speech recognition and semantic tagging. In INTERSPEECH.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "Semantic annotation of the french media dialog corpus",
"authors": [
{
"first": "H",
"middle": [],
"last": "Bonneau-Maynard",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Rosset",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Ayache",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Kuhn",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Mostefa",
"suffix": ""
}
],
"year": 2005,
"venue": "EUROSPEECH",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BONNEAU-MAYNARD, H., ROSSET, S., AYACHE, C., KUHN, A. et MOSTEFA, D. (2005). Semantic annotation of the french media dialog corpus. In EUROSPEECH.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "The mathematics of statistical machine translation : Parameter estimation",
"authors": [
{
"first": "P",
"middle": [
"F"
],
"last": "Brown",
"suffix": ""
},
{
"first": "S",
"middle": [
"D"
],
"last": "Pietra",
"suffix": ""
},
{
"first": "V",
"middle": [
"J D"
],
"last": "Pietra",
"suffix": ""
},
{
"first": "R",
"middle": [
"L"
],
"last": "Mercer",
"suffix": ""
}
],
"year": 1993,
"venue": "Computational Linguistics",
"volume": "19",
"issue": "2",
"pages": "263--311",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BROWN, P. F., PIETRA, S. D., PIETRA, V. J. D. et MERCER, R. L. (1993). The mathematics of statistical machine translation : Parameter estimation. Computational Linguistics, 19(2):263- 311.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "Improving statistical mt by coupling reordering and decoding",
"authors": [
{
"first": "J",
"middle": [
"M"
],
"last": "Crego",
"suffix": ""
},
{
"first": "J",
"middle": [
"B"
],
"last": "Mari\u00f1o",
"suffix": ""
}
],
"year": 2006,
"venue": "Machine Translation",
"volume": "20",
"issue": "3",
"pages": "199--215",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CREGO, J. M. et MARI\u00d1O, J. B. (2006). Improving statistical mt by coupling reordering and decoding. Machine Translation, 20(3):199-215.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "Ncode : an open source bilingual n-gram smt toolkit",
"authors": [
{
"first": "J",
"middle": [
"M"
],
"last": "Crego",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Yvon",
"suffix": ""
},
{
"first": "J",
"middle": [
"B"
],
"last": "Mari\u00f1o",
"suffix": ""
}
],
"year": 2011,
"venue": "The Prague Bulletin of Mathematical Linguistics",
"volume": "96",
"issue": "",
"pages": "49--58",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CREGO, J. M., YVON, F. et MARI\u00d1O, J. B. (2011). Ncode : an open source bilingual n-gram smt toolkit. The Prague Bulletin of Mathematical Linguistics, 96:49-58.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "Part-of-speech tagging based on machine translation techniques",
"authors": [
{
"first": "G",
"middle": [],
"last": "Gasc\u00f3 I Mora",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "S\u00e1nchez Peir\u00f3",
"suffix": ""
}
],
"year": 2007,
"venue": "Pattern Recognition and Image Analysis",
"volume": "",
"issue": "",
"pages": "257--264",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GASC\u00d3 I MORA, G. et S\u00c1NCHEZ PEIR\u00d3, J. (2007). Part-of-speech tagging based on machine translation techniques. Pattern Recognition and Image Analysis, pages 257-264.",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "Comparing stochastic approaches to spoken language understanding in multiple languages",
"authors": [
{
"first": "S",
"middle": [],
"last": "Hahn",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Dinarelli",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Raymond",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Lef\u00e8vre",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Lehnen",
"suffix": ""
},
{
"first": "R",
"middle": [],
"last": "De Mori",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Moschitti",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Ney",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Riccardi",
"suffix": ""
}
],
"year": 2010,
"venue": "IEEE Transactions in Audio, Speech and Language Processing",
"volume": "19",
"issue": "6",
"pages": "1569--1583",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HAHN, S., DINARELLI, M., RAYMOND, C., LEF\u00c8VRE, F., LEHNEN, P., DE MORI, R., MOSCHITTI, A., NEY, H. et RICCARDI, G. (2010). Comparing stochastic approaches to spoken language understanding in multiple languages. IEEE Transactions in Audio, Speech and Language Processing, 19(6):1569-1583.",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "Beyond asr 1-best : Using word confusion networks in spoken language understanding",
"authors": [
{
"first": "D",
"middle": [
"Z"
],
"last": "Hakkani-T\u00fcr",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Riccardi",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "T\u00fcr",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "",
"suffix": ""
}
],
"year": 2006,
"venue": "Computer Speech and Language",
"volume": "",
"issue": "",
"pages": "495--514",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HAKKANI-T\u00dcR, D. Z., B., F., RICCARDI, G. et T\u00dcR, G. (2006). Beyond asr 1-best : Using word confusion networks in spoken language understanding. Computer Speech and Language, pages 495-514.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "Syst\u00e8mes de compr\u00e9hension et de traduction de la parole : vers une approche unifi\u00e9e dans le cadre de la portabilit\u00e9 multilingue des syst\u00e8mes de dialogue",
"authors": [
{
"first": "B",
"middle": [],
"last": "Jabaian",
"suffix": ""
}
],
"year": 2012,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "JABAIAN, B. (2012). Syst\u00e8mes de compr\u00e9hension et de traduction de la parole : vers une approche unifi\u00e9e dans le cadre de la portabilit\u00e9 multilingue des syst\u00e8mes de dialogue. Th\u00e8se de doctorat, CERI -Universit\u00e9 d'Avignon, Avignon.",
"links": null
},
"BIBREF12": {
"ref_id": "b12",
"title": "Investigating multiple approaches for slu portability to a new language",
"authors": [
{
"first": "B",
"middle": [],
"last": "Jabaian",
"suffix": ""
},
{
"first": "L",
"middle": [],
"last": "Besacier",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Lef\u00e8vre",
"suffix": ""
}
],
"year": 2010,
"venue": "INTERSPEECH",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "JABAIAN, B., BESACIER, L. et LEF\u00c8VRE, F. (2010). Investigating multiple approaches for slu portability to a new language. In INTERSPEECH.",
"links": null
},
"BIBREF13": {
"ref_id": "b13",
"title": "Comparaison et combinaison d'approches pour la portabilit\u00e9 vers une nouvelle langue d'un syst\u00e8me de compr\u00e9hension de l'oral",
"authors": [
{
"first": "B",
"middle": [],
"last": "Jabaian",
"suffix": ""
},
{
"first": "L",
"middle": [],
"last": "Besacier",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Lef\u00e8vre",
"suffix": ""
}
],
"year": 2011,
"venue": "TALN",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "JABAIAN, B., BESACIER, L. et LEF\u00c8VRE, F. (2011). Comparaison et combinaison d'approches pour la portabilit\u00e9 vers une nouvelle langue d'un syst\u00e8me de compr\u00e9hension de l'oral. In TALN.",
"links": null
},
"BIBREF14": {
"ref_id": "b14",
"title": "Moses : Open source toolkit for statistical machine translation",
"authors": [
{
"first": "P",
"middle": [],
"last": "Koehn",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Hoang",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Birch",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Callison-Burch",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Federico",
"suffix": ""
},
{
"first": "N",
"middle": [],
"last": "Bertoldi",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Cowan",
"suffix": ""
},
{
"first": "W",
"middle": [],
"last": "Shen",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Moran",
"suffix": ""
},
{
"first": "R",
"middle": [],
"last": "Zens",
"suffix": ""
}
],
"year": 2007,
"venue": "ACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KOEHN, P., HOANG, H., BIRCH, A., CALLISON-BURCH, C., FEDERICO, M., BERTOLDI, N., COWAN, B., SHEN, W., MORAN, C., ZENS, R. et al. (2007). Moses : Open source toolkit for statistical machine translation. In ACL.",
"links": null
},
"BIBREF15": {
"ref_id": "b15",
"title": "Statistical phrase-based translation",
"authors": [
{
"first": "P",
"middle": [],
"last": "Koehn",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Och",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Marcu",
"suffix": ""
}
],
"year": 2003,
"venue": "HLT-NAACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KOEHN, P., OCH, F. et MARCU, D. (2003). Statistical phrase-based translation. In HLT-NAACL.",
"links": null
},
"BIBREF16": {
"ref_id": "b16",
"title": "A weighted finite state transducer implementation of the alignment template model for statistical machine translation",
"authors": [
{
"first": "S",
"middle": [],
"last": "Kumar",
"suffix": ""
},
{
"first": "W",
"middle": [],
"last": "Byrne",
"suffix": ""
}
],
"year": 2003,
"venue": "HLT-NAACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KUMAR, S. et BYRNE, W. (2003). A weighted finite state transducer implementation of the alignment template model for statistical machine translation. In HLT-NAACL.",
"links": null
},
"BIBREF17": {
"ref_id": "b17",
"title": "Conditional random fields : Probabilistic models for segmenting and labeling sequence data",
"authors": [
{
"first": "J",
"middle": [],
"last": "Lafferty",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Mccallum",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Pereira",
"suffix": ""
}
],
"year": 2001,
"venue": "ICML",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LAFFERTY, J., MCCALLUM, A. et PEREIRA, F. (2001). Conditional random fields : Probabilistic models for segmenting and labeling sequence data. In ICML.",
"links": null
},
"BIBREF18": {
"ref_id": "b18",
"title": "Practical very large scale CRFs",
"authors": [
{
"first": "T",
"middle": [],
"last": "Lavergne",
"suffix": ""
},
{
"first": "O",
"middle": [],
"last": "Capp\u00e9",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Yvon",
"suffix": ""
}
],
"year": 2010,
"venue": "ACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LAVERGNE, T., CAPP\u00c9, O. et YVON, F. (2010). Practical very large scale CRFs. In ACL.",
"links": null
},
"BIBREF19": {
"ref_id": "b19",
"title": "From n-gram-based to crf-based translation models",
"authors": [
{
"first": "T",
"middle": [],
"last": "Lavergne",
"suffix": ""
},
{
"first": "J",
"middle": [
"M"
],
"last": "Crego",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Allauzen",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Yvon",
"suffix": ""
}
],
"year": 2011,
"venue": "WSMT",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LAVERGNE, T., CREGO, J. M., ALLAUZEN, A. et YVON, F. (2011). From n-gram-based to crf-based translation models. In WSMT.",
"links": null
},
"BIBREF20": {
"ref_id": "b20",
"title": "Alignment by agreement",
"authors": [
{
"first": "P",
"middle": [],
"last": "Liang",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Taskar",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Klein",
"suffix": ""
}
],
"year": 2006,
"venue": "HLT-NAACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LIANG, P., TASKAR, B. et KLEIN, D. (2006). Alignment by agreement. In HLT-NAACL.",
"links": null
},
"BIBREF21": {
"ref_id": "b21",
"title": "Application of statistical machine translation approaches to spoken language understanding",
"authors": [
{
"first": "K",
"middle": [],
"last": "Macherey",
"suffix": ""
},
{
"first": "O",
"middle": [],
"last": "Bender",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Ney",
"suffix": ""
}
],
"year": 2009,
"venue": "IEEE ICASSP",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MACHEREY, K., BENDER, O. et NEY, H. (2009). Application of statistical machine translation approaches to spoken language understanding. In IEEE ICASSP.",
"links": null
},
"BIBREF22": {
"ref_id": "b22",
"title": "Natural language understanding using statistical machine translation",
"authors": [
{
"first": "K",
"middle": [],
"last": "Macherey",
"suffix": ""
},
{
"first": "F",
"middle": [
"J"
],
"last": "Och",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Ney",
"suffix": ""
}
],
"year": 2001,
"venue": "INTERSPEECH",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MACHEREY, K., OCH, F. J. et NEY, H. (2001). Natural language understanding using statistical machine translation. In INTERSPEECH.",
"links": null
},
"BIBREF23": {
"ref_id": "b23",
"title": "N-gram-based machine translation",
"authors": [
{
"first": "J",
"middle": [
"B"
],
"last": "Mari\u00f1o",
"suffix": ""
},
{
"first": "R",
"middle": [
"E"
],
"last": "Banchs",
"suffix": ""
},
{
"first": "J",
"middle": [
"M"
],
"last": "Crego",
"suffix": ""
},
{
"first": "Gispert",
"middle": [],
"last": "De",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Lambert",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Fonollosa",
"suffix": ""
},
{
"first": "J",
"middle": [
"A R"
],
"last": "Costa-Juss\u00e0",
"suffix": ""
},
{
"first": "M",
"middle": [
"R"
],
"last": "",
"suffix": ""
}
],
"year": 2006,
"venue": "Computational Linguistic",
"volume": "32",
"issue": "4",
"pages": "527--549",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MARI\u00d1O, J. B., BANCHS, R. E., CREGO, J. M., de GISPERT, A., LAMBERT, P., FONOLLOSA, J. A. R. et COSTA-JUSS\u00c0, M. R. (2006). N-gram-based machine translation. Computational Linguistic, 32(4):527-549.",
"links": null
},
"BIBREF24": {
"ref_id": "b24",
"title": "Discriminative training and maximum entropy models for statistical machine translation",
"authors": [
{
"first": "F",
"middle": [],
"last": "Och",
"suffix": ""
}
],
"year": 2002,
"venue": "ACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "OCH, F. (2003). Minimum error rate training in statistical machine translation. In ACL. OCH, F. J. et NEY, H. (2002). Discriminative training and maximum entropy models for statistical machine translation. In ACL.",
"links": null
},
"BIBREF25": {
"ref_id": "b25",
"title": "Bleu : a method for automatic evaluation of machine translation",
"authors": [
{
"first": "K",
"middle": [],
"last": "Papineni",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Roukos",
"suffix": ""
},
{
"first": "T",
"middle": [],
"last": "Ward",
"suffix": ""
},
{
"first": "W",
"middle": [],
"last": "Zhu",
"suffix": ""
}
],
"year": 2002,
"venue": "ACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PAPINENI, K., ROUKOS, S., WARD, T. et ZHU, W. (2002). Bleu : a method for automatic evaluation of machine translation. In ACL.",
"links": null
},
"BIBREF26": {
"ref_id": "b26",
"title": "Modeling letter-to-phoneme conversion as a phrase based statistical machine translation problem with minimum error rate training",
"authors": [
{
"first": "T",
"middle": [],
"last": "Rama",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Singh",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Kolachina",
"suffix": ""
}
],
"year": 2009,
"venue": "HLT-NAACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "RAMA, T., SINGH, A. et KOLACHINA, S. (2009). Modeling letter-to-phoneme conversion as a phrase based statistical machine translation problem with minimum error rate training. In HLT-NAACL.",
"links": null
},
"BIBREF27": {
"ref_id": "b27",
"title": "Text chunking using transformation-based learning",
"authors": [
{
"first": "L",
"middle": [],
"last": "Ramshaw",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Marcus",
"suffix": ""
}
],
"year": 1995,
"venue": "The Workshop on Very Large Corpora",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "RAMSHAW, L. et MARCUS, M. (1995). Text chunking using transformation-based learning. In The Workshop on Very Large Corpora.",
"links": null
},
"BIBREF28": {
"ref_id": "b28",
"title": "A direct adaptive method for faster backpropagation learning : The RPROP algorithm",
"authors": [
{
"first": "M",
"middle": [],
"last": "Riedmiller",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Braun",
"suffix": ""
}
],
"year": 1993,
"venue": "ICNN",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "RIEDMILLER, M. et BRAUN, H. (1993). A direct adaptive method for faster backpropagation learning : The RPROP algorithm. In ICNN.",
"links": null
},
"BIBREF29": {
"ref_id": "b29",
"title": "Conceptual decoding from word lattices : application to the spoken dialogue corpus MEDIA",
"authors": [
{
"first": "H",
"middle": [],
"last": "Schmid",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Nmlp",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Servan",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Raymond",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Nocera",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "",
"suffix": ""
}
],
"year": 1994,
"venue": "INTERSPEECH",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SCHMID, H. (1994). Probabilistic part-of-speech tagging using decision trees. In NMLP. SERVAN, C., RAYMOND, C., B., F. et NOCERA, P. (2006). Conceptual decoding from word lattices : application to the spoken dialogue corpus MEDIA. In INTERSPEECH.",
"links": null
},
"BIBREF30": {
"ref_id": "b30",
"title": "Srilm-an extensible language modeling toolkit",
"authors": [
{
"first": "A",
"middle": [],
"last": "Stolcke",
"suffix": ""
}
],
"year": 2002,
"venue": "ICASSP",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "STOLCKE, A. (2002). Srilm-an extensible language modeling toolkit. In ICASSP.",
"links": null
},
"BIBREF31": {
"ref_id": "b31",
"title": "Improving spoken language understanding using word confusion networks",
"authors": [
{
"first": "G",
"middle": [],
"last": "T\u00fcr",
"suffix": ""
},
{
"first": "J",
"middle": [
"H"
],
"last": "Wright",
"suffix": ""
},
{
"first": "A",
"middle": [
"L"
],
"last": "Gorin",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Riccardi",
"suffix": ""
},
{
"first": "D",
"middle": [
"Z"
],
"last": "Hakkani-T\u00fcr",
"suffix": ""
}
],
"year": 2002,
"venue": "INTERSPEECH",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "T\u00dcR, G., WRIGHT, J. H., GORIN, A. L., RICCARDI, G. et HAKKANI-T\u00dcR, D. Z. (2002). Improving spoken language understanding using word confusion networks. In INTERSPEECH.",
"links": null
},
"BIBREF32": {
"ref_id": "b32",
"title": "Scalable discriminative learning for natural language parsing and translation",
"authors": [
{
"first": "J",
"middle": [
"P"
],
"last": "Turian",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Wellington",
"suffix": ""
},
{
"first": "I",
"middle": [
"D"
],
"last": "Melamed",
"suffix": ""
}
],
"year": 2006,
"venue": "NIPS",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "TURIAN, J. P., WELLINGTON, B. et MELAMED, I. D. (2006). Scalable discriminative learning for natural language parsing and translation. In NIPS.",
"links": null
}
},
"ref_entries": {
"TABREF2": {
"html": null,
"num": null,
"content": "<table><tr><td>TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne</td><td/><td/></tr><tr><td>94</td><td>c</td><td>ATALA</td></tr></table>",
"type_str": "table",
"text": "Cette composition prend une phrase de la langue cible en entr\u00e9e et attribue une s\u00e9quence de concept \u00e0 cette phrase en passant par un \u00e9tiqueteur disponible dans la langue source. Elle nous permet d'obtenir un d\u00e9codage conjoint entre la traduction et la compr\u00e9hension dans la mesure o\u00f9 les probabilit\u00e9s des deux mod\u00e8les sont prises en compte. Un tel d\u00e9codage ne cherche pas \u00e0 optimiser la traduction en soi, mais \u00e0 optimiser le choix d'une traduction qui donnera une meilleure compr\u00e9hension automatique.Le transducteur \u03bb con joint peut \u00eatre g\u00e9n\u00e9ralis\u00e9 pour permettre de composer un graphe de reconnaissance de la parole avec un graphe de compr\u00e9hension dans le cadre d'un syst\u00e8me de dialogue. Dans un tel cas des proc\u00e9dures d'\u00e9lagage devront \u00eatre prises en compte afin d'assurer que les op\u00e9rations de composition puissent \u00eatre r\u00e9alis\u00e9es selon les contraintes classiques (temps de calcul et espace m\u00e9moire machine disponible)."
},
"TABREF3": {
"html": null,
"num": null,
"content": "<table><tr><td>Le taux d'erreur en concepts (Concept Error Rate, CER) est le crit\u00e8re d'\u00e9valuation retenu pour</td></tr><tr><td>\u00e9valuer la t\u00e2che de compr\u00e9hension. Le CER est l'\u00e9quivalent du taux d'erreur en mots (WER),</td></tr><tr><td>et peut \u00eatre d\u00e9fini comme le rapport de la somme des concepts omis, ins\u00e9r\u00e9s et substitu\u00e9s sur</td></tr><tr><td>le nombre de concepts dans la r\u00e9f\u00e9rence. D'autre part le score BLEU</td></tr></table>",
"type_str": "table",
"text": "Dans la lign\u00e9e de ces travaux, notre proposition cherche \u00e0 obtenir un d\u00e9codage conjoint pour la traduction et la compr\u00e9hension. Les deux syst\u00e8mes \u00e9tant de natures diff\u00e9rentes, leur combinaison et leur optimisation conjointe sont rendues d\u00e9licates, d'o\u00f9 l'int\u00e9r\u00eat d'uniformiser les syst\u00e8mes pour les deux t\u00e2ches.Le corpus est constitu\u00e9 de 1257 dialogues regroup\u00e9s en 3 parties : un ensemble d'apprentissage (environ 13k phrases), un ensemble de d\u00e9veloppement (environ 1,3k phrases) et un ensemble d'\u00e9valuation (environ 3,5k phrases). Un sous-ensemble de donn\u00e9es d'apprentissage (environ 5,6k phrases), de m\u00eame que les ensembles de tests et de d\u00e9veloppement sont manuellement traduits en italien.Un syst\u00e8me de type LLPB-SMT est utilis\u00e9 pour apprendre un syst\u00e8me de compr\u00e9hension du fran\u00e7ais sur le corpus MEDIA, et le sous-ensemble traduit de ce corpus est utilis\u00e9 comme corpus parall\u00e8le pour apprendre un mod\u00e8le de traduction \u00e0 base de CRF. Ensuite l'approche CRFPB-SMT \u00e0 base de transducteurs est \u00e9valu\u00e9e s\u00e9par\u00e9ment pour la traduction et la compr\u00e9hension avant d'\u00eatre utilis\u00e9e dans le cadre d'un d\u00e9codage conjoint traduction/compr\u00e9hension."
},
"TABREF4": {
"html": null,
"num": null,
"content": "<table><tr><td colspan=\"2\">TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne</td><td/><td/><td/></tr><tr><td>Mod\u00e8le</td><td colspan=\"3\">Sub Om Ins</td><td>CER</td></tr><tr><td>Initial</td><td>5,4</td><td colspan=\"3\">4,1 14,6 24,1</td></tr><tr><td>+MERT (BLEU)</td><td>5,6</td><td>8,4</td><td>9,2</td><td>23,2</td></tr><tr><td>+D\u00e9codage monotone</td><td>6,2</td><td>7,8</td><td>8,7</td><td>22,7</td></tr><tr><td>+Format BIO</td><td>5,7</td><td>9,3</td><td>5,3</td><td>20,3</td></tr><tr><td>MERT (CER)</td><td>5,3</td><td>9,2</td><td>4,6</td><td>19,1</td></tr><tr><td colspan=\"2\">Traitement de mots HV 5,8</td><td>7,4</td><td colspan=\"2\">5,1 18,3</td></tr><tr><td>96</td><td/><td/><td/><td>c</td><td>ATALA</td></tr></table>",
"type_str": "table",
"text": "Une analyse rapide du type d'erreur montre que les m\u00e9thodes utilisant des CRF ont un haut niveau de suppressions comparativement aux autres types d'erreurs, tandis que la m\u00e9thode LLPB-SMT pr\u00e9sente un meilleur compromis entre les erreurs de suppression et d'insertion,"
},
"TABREF5": {
"html": null,
"num": null,
"content": "<table/>",
"type_str": "table",
"text": "Les am\u00e9liorations it\u00e9ratives du mod\u00e8le LLPB-SMT pour la compr\u00e9hension du fran\u00e7ais (CER%)."
},
"TABREF7": {
"html": null,
"num": null,
"content": "<table/>",
"type_str": "table",
"text": "Comparaison entre les mod\u00e8les LLPB-SMT et CRF-SLU pour la traduction de l'italien vers le fran\u00e7ais (BLEU %)."
},
"TABREF9": {
"html": null,
"num": null,
"content": "<table/>",
"type_str": "table",
"text": "Comparaison entre les diff\u00e9rentes approches (LLPB-SMT, CRF-SLU, CRFPB-SMT) pour la traduction de l'italien vers le fran\u00e7ais."
},
"TABREF10": {
"html": null,
"num": null,
"content": "<table><tr><td>Pour cela nous avons adapt\u00e9 l'accepteur du mod\u00e8le de compr\u00e9hension du fran\u00e7ais (donn\u00e9</td></tr><tr><td>dans la derni\u00e8re ligne du tableau 4 d\u00e9crit dans 5.3) pour prendre des graphes en entr\u00e9e (au</td></tr><tr><td>lieu d'une hypoth\u00e8se unique). Ce transducteur g\u00e9n\u00e8re un graphe valu\u00e9 de compr\u00e9hension qui</td></tr><tr><td>prend en compte les scores de traduction.</td></tr></table>",
"type_str": "table",
"text": "Evaluation des approches bas\u00e9es sur les CRF pour la compr\u00e9hension du fran\u00e7ais. en entr\u00e9e du module de compr\u00e9hension (incluant les scores pond\u00e9r\u00e9s relatifs \u00e0 la traduction) et ensuite r\u00e9cup\u00e9rer en sortie un graphe de compr\u00e9hension qui int\u00e8gre les scores de traduction et de compr\u00e9hension. Ce d\u00e9codage permettra d'\u00e9tiqueter des phrases en italien en combinant un syst\u00e8me de traduction italien vers fran\u00e7ais et un syst\u00e8me de compr\u00e9hension du fran\u00e7ais"
},
"TABREF12": {
"html": null,
"num": null,
"content": "<table/>",
"type_str": "table",
"text": "Evaluation des diff\u00e9rents configurations de compr\u00e9hension multilingue fran\u00e7cais-italien, variant selon le type d'information transmise entre les 2 \u00e9tapes (1-best, oracle ou graphe)."
}
}
}
} |