ACL-OCL / Base_JSON /prefixF /json /F12 /F12-1022.json
Benjamin Aw
Add updated pkl file v3
6fa4bc9
{
"paper_id": "F12-1022",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T09:44:09.339857Z"
},
"title": "Vers une inversion acoustico-articulatoire d'un locuteur \u00e9tranger",
"authors": [
{
"first": "H\u00e9l\u00e8ne",
"middle": [],
"last": "Lachambre",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "IRIT -Universit\u00e9 de Toulouse",
"location": {
"addrLine": "118 route de Narbonne",
"postCode": "31062",
"settlement": "Toulouse Cedex 9"
}
},
"email": "lachambre@irit.fr"
},
{
"first": "R\u00e9gine",
"middle": [],
"last": "Andr\u00e9-Obrecht",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "IRIT -Universit\u00e9 de Toulouse",
"location": {
"addrLine": "118 route de Narbonne",
"postCode": "31062",
"settlement": "Toulouse Cedex 9"
}
},
"email": ""
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "Nous pr\u00e9sentons une extension de notre m\u00e9thode d'inversion acoustico-articulatoire bas\u00e9e sur des Mod\u00e8les de Markov Cach\u00e9s non supervis\u00e9s. La g\u00e9n\u00e9ration des vecteurs articulatoires est inspir\u00e9e par l'approche \"GMM\". Dans le cadre de l'aide \u00e0 l'apprentissage des langues \u00e9trang\u00e8res, nous \u00e9tudions le comportement de cette approche dans le cas de donn\u00e9es (phon\u00e8mes) manquants.",
"pdf_parse": {
"paper_id": "F12-1022",
"_pdf_hash": "",
"abstract": [
{
"text": "Nous pr\u00e9sentons une extension de notre m\u00e9thode d'inversion acoustico-articulatoire bas\u00e9e sur des Mod\u00e8les de Markov Cach\u00e9s non supervis\u00e9s. La g\u00e9n\u00e9ration des vecteurs articulatoires est inspir\u00e9e par l'approche \"GMM\". Dans le cadre de l'aide \u00e0 l'apprentissage des langues \u00e9trang\u00e8res, nous \u00e9tudions le comportement de cette approche dans le cas de donn\u00e9es (phon\u00e8mes) manquants.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "L'inversion acoustico-articulatoire consiste \u00e0 d\u00e9terminer la forme du conduit bucal \u00e0 partir d'un enregistrement audio de parole. Il s'agit plus pr\u00e9cis\u00e9ment de reconstruire la trajectoire de divers points situ\u00e9s sur la langue, les l\u00e8vres et la machoire (et \u00e9ventuellement le palais) \u00e0 partir du signal acoustique. Int\u00e9ressante en tant que telle pour l'\u00e9tude des processus de production de la parole, l'inversion acoustico-articulatoire a \u00e9galement des applications plus \"grand public\" : par exemple, la parole augment\u00e9e (pour l'aide \u00e0 la compr\u00e9hension des mal-entendants) ou encore l'aide \u00e0 l'apprentissage des langues \u00e9trang\u00e8res (montrer \u00e0 un apprenant comment il a prononc\u00e9 un son, et comment il devrait le prononcer).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Deux principales approches sont utilis\u00e9es dans la litt\u00e9rature, pour l'inversion acousticoarticulatoire : l'approche GMM (Toda et al., 2008; Ben Youssef et al., 2010 ) (Mod\u00e8les de M\u00e9langes de Gaussiennes) et l'approche HMM (Mod\u00e8les de Markov Cach\u00e9s) (Hiroya et Honda, 2004; Ben Youssef et al., 2009; Zhang et Renals, 2008; Zen et al., 2010) . L'approche GMM consiste \u00e0 mod\u00e9liser la distribution conjointe des vecteurs acoustiques et articulatoires par un mod\u00e8le GMM. L'inversion est consid\u00e9r\u00e9e comme une recherche de donn\u00e9es manquantes et est r\u00e9alis\u00e9e par mappage, selon divers crit\u00e8res : MMSE (Minimum Mean Square Error) (Toda et al., 2008) ou Maximum de vraisemblance (Toda et al., 2008; Ben Youssef et al., 2010) . L'approche HMM vise \u00e0 prendre en compte le caract\u00e8re temporel de la parole, et les cons\u00e9quences en termes de contraintes tant au niveau acoustique qu'articulatoire. La partie acoustique est alors mod\u00e9lis\u00e9e par un HMM. (Hiroya et Honda, 2004) propose une r\u00e9gression lin\u00e9aire entre l'acoustique et l'articulatoire pour mod\u00e9liser cette derni\u00e8re. Dans (Ben Youssef et al., 2009; Zhang et Renals, 2008; Zen et al., 2010) , la partie articulatoire est mod\u00e9lis\u00e9e par un HMM appris conjointement \u00e0 celui de l'acoustique. La phase d'inversion commence toujours par un d\u00e9codage du signal audio par le HMM acoustique. La s\u00e9quence d'\u00e9tats (phon\u00e8mes, biphones ou triphones) ainsi d\u00e9termin\u00e9e est alors convertie en param\u00e8tres articulatoires soit par r\u00e9gression lin\u00e9aire (Hiroya et Honda, 2004) , soit \u00e0 l'aide du HMM articulatoire (Ben Youssef et al., 2009; Zhang et Renals, 2008; Zen et al., 2010) . Dans ce dernier cas, l'inversion inclut des mod\u00e8les de trajectoire (HTS (Zen et al., 2004) ), qui prennent en compte la dynamique des vecteurs articulatoires. Selon les travaux, l'apprentissage des mod\u00e8les est fait en tenant compte des trajectoires (Zen et al., 2010) ou non (Ben Youssef et al., 2009; Zhang et Renals, 2008) .",
"cite_spans": [
{
"start": 116,
"end": 139,
"text": "GMM (Toda et al., 2008;",
"ref_id": null
},
{
"start": 140,
"end": 164,
"text": "Ben Youssef et al., 2010",
"ref_id": "BIBREF0"
},
{
"start": 249,
"end": 272,
"text": "(Hiroya et Honda, 2004;",
"ref_id": "BIBREF3"
},
{
"start": 273,
"end": 298,
"text": "Ben Youssef et al., 2009;",
"ref_id": "BIBREF1"
},
{
"start": 299,
"end": 321,
"text": "Zhang et Renals, 2008;",
"ref_id": "BIBREF10"
},
{
"start": 322,
"end": 339,
"text": "Zen et al., 2010)",
"ref_id": "BIBREF8"
},
{
"start": 621,
"end": 640,
"text": "(Toda et al., 2008)",
"ref_id": "BIBREF6"
},
{
"start": 669,
"end": 688,
"text": "(Toda et al., 2008;",
"ref_id": "BIBREF6"
},
{
"start": 689,
"end": 714,
"text": "Ben Youssef et al., 2010)",
"ref_id": "BIBREF0"
},
{
"start": 935,
"end": 958,
"text": "(Hiroya et Honda, 2004)",
"ref_id": "BIBREF3"
},
{
"start": 1065,
"end": 1091,
"text": "(Ben Youssef et al., 2009;",
"ref_id": "BIBREF1"
},
{
"start": 1092,
"end": 1114,
"text": "Zhang et Renals, 2008;",
"ref_id": "BIBREF10"
},
{
"start": 1115,
"end": 1132,
"text": "Zen et al., 2010)",
"ref_id": "BIBREF8"
},
{
"start": 1473,
"end": 1496,
"text": "(Hiroya et Honda, 2004)",
"ref_id": "BIBREF3"
},
{
"start": 1534,
"end": 1560,
"text": "(Ben Youssef et al., 2009;",
"ref_id": "BIBREF1"
},
{
"start": 1561,
"end": 1583,
"text": "Zhang et Renals, 2008;",
"ref_id": "BIBREF10"
},
{
"start": 1584,
"end": 1601,
"text": "Zen et al., 2010)",
"ref_id": "BIBREF8"
},
{
"start": 1676,
"end": 1694,
"text": "(Zen et al., 2004)",
"ref_id": "BIBREF9"
},
{
"start": 1853,
"end": 1871,
"text": "(Zen et al., 2010)",
"ref_id": "BIBREF8"
},
{
"start": 1879,
"end": 1905,
"text": "(Ben Youssef et al., 2009;",
"ref_id": "BIBREF1"
},
{
"start": 1906,
"end": 1928,
"text": "Zhang et Renals, 2008)",
"ref_id": "BIBREF10"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "La mod\u00e9lisation par HMM consid\u00e8re l'aspect temporel de la parole, mais n\u00e9cessite un \u00e9tiquetage phon\u00e9tique co\u00fbteux. L'approche GMM consid\u00e8re chaque instant ind\u00e9pendament des autres, mais l'apprentissage se fait de mani\u00e8re non supervis\u00e9e. L'approche que nous avons d\u00e9j\u00e0 propos\u00e9e (Lachambre et al., 2011) se place \u00e0 un niveau interm\u00e9diaire : la mod\u00e9lisation se fait par des HMMs, afin de tenir compte de l'aspect temporel de la parole. Cependant, l'apprentissage se fait de mani\u00e8re non supervis\u00e9e. Pour la phase d'inversion, nous avions pr\u00e9c\u00e9demment propos\u00e9 deux approches simples, bas\u00e9es sur des combinaisons lin\u00e9aires d'\u00e9tats. Nous proposons une nouvelle approche, bas\u00e9e sur le Maximum de vraisemblance. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "M ac (A, B ac ) M art A, B art",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "FIGURE 1 -Sch\u00e9ma global de notre m\u00e9thode.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "L'apprentissage du mod\u00e8le global M est r\u00e9alis\u00e9 en mode non supervis\u00e9 (Lachambre et al., 2011) . Il se fait en trois \u00e9tapes : ",
"cite_spans": [
{
"start": 69,
"end": 93,
"text": "(Lachambre et al., 2011)",
"ref_id": "BIBREF4"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Apprentissage",
"sec_num": "3.1"
},
{
"text": "\u00b5 i = [\u00b5 ac i T , \u00b5 ar t i T ] T \u03a3 i = \u03a3 ac i \u03a3 ac,ar t i \u03a3 ar t,ac i \u03a3 ar t i",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Apprentissage",
"sec_num": "3.1"
},
{
"text": "Deux approches peuvent \u00eatre envisag\u00e9es r\u00e9sultant d'une r\u00e9solution de type soit moindres carr\u00e9s (MMSE) soit maximum de vraisemblance (ML). Compte tenu des mod\u00e8les de Markov sous jacents, les deux approches prennent en compte partiellement la dimension temporelle ; elles diff\u00e8rent par la prise en compte \u00e0 chaque instant de la correlation entre acoustique et articulatoire.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Proc\u00e9dure d'inversion",
"sec_num": "3.2"
},
{
"text": "Lors de la phase d'inversion, le signal acoustique est param\u00e9tr\u00e9 en une s\u00e9quence de K vecteurs O ac 1 ...O ac K . Dans une pr\u00e9c\u00e9dente \u00e9tude (Lachambre et al., 2011) , l'approche MMSE a \u00e9t\u00e9 utilis\u00e9e pour g\u00e9n\u00e9rer les vecteurs articulatoires correspondants de la mani\u00e8re suivante (avec les notations classiques (Rabiner et Juang, 1993) ",
"cite_spans": [
{
"start": 140,
"end": 164,
"text": "(Lachambre et al., 2011)",
"ref_id": "BIBREF4"
},
{
"start": 308,
"end": 332,
"text": "(Rabiner et Juang, 1993)",
"ref_id": "BIBREF6"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Inversion MMSE",
"sec_num": "3.2.1"
},
{
"text": "EQUATION",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [
{
"start": 0,
"end": 8,
"text": "EQUATION",
"ref_id": "EQREF",
"raw_str": ") : O ar t t = Q i=1 \u03b3 ac t (i)\u00b5 ar t i \u03b3 ac t (i) = \u03b1 ac t (i)\u03b2 ac t (i) Q i=1 \u03b1 ac t (i)\u03b2 ac t (i) \u03b1 ac t (i) = P(O ac 1 , ..., O ac t , s ac t = i) \u03b2 ac t (i) = P(O ac t+1 , ..., O ac K |s ac t = i)",
"eq_num": "(1)"
}
],
"section": "Inversion MMSE",
"sec_num": "3.2.1"
},
{
"text": "L'approche ML conduit \u00e0 prendre en compte la correlation instantan\u00e9e entre les donn\u00e9es articulatoires et acoustiques. La comparaison avec les approches classiques bas\u00e9es GMM (cf introduction) montre une diff\u00e9rence au niveau de la prise en compte de la dimension temporelle.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Inversion ML",
"sec_num": "3.2.2"
},
{
"text": "EQUATION",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [
{
"start": 0,
"end": 8,
"text": "EQUATION",
"ref_id": "EQREF",
"raw_str": "O ar t t = Q i=1 \u03b3 ac t (i)(\u00b5 ar t i + \u03a3 ac,ar t i \u03a3 ac \u22121 i (O ac t \u2212 \u00b5 ac i ))",
"eq_num": "(2)"
}
],
"section": "Inversion ML",
"sec_num": "3.2.2"
},
{
"text": "Des exp\u00e9riences pr\u00e9c\u00e9dentes (Lachambre et al., 2011) sur l'approche MMSE ayant montr\u00e9 que ne consid\u00e9rer que le terme pr\u00e9pond\u00e9rant (l'\u00e9tat le plus probable) dans l'\u00e9quation 1 donne des r\u00e9sultats \u00e9quivalents, nous simplifions de la m\u00eame fa\u00e7on l'approche ML :",
"cite_spans": [
{
"start": 28,
"end": 52,
"text": "(Lachambre et al., 2011)",
"ref_id": "BIBREF4"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Inversion ML",
"sec_num": "3.2.2"
},
{
"text": "EQUATION",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [
{
"start": 0,
"end": 8,
"text": "EQUATION",
"ref_id": "EQREF",
"raw_str": "O ar t t = \u00b5 ar t s t + \u03a3 ac,ar t i \u03a3 ac \u22121 i (O ac t \u2212 \u00b5 a\u0109 s t ) ,\u015d t = ar gmax i=1,...,Q \u03b3 t (i)",
"eq_num": "(3)"
}
],
"section": "Inversion ML",
"sec_num": "3.2.2"
},
{
"text": "4 Evaluation",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Inversion ML",
"sec_num": "3.2.2"
},
{
"text": "Nous avons montr\u00e9 (Lachambre et al., 2011) Il est clair que l'approche ML est plus perfomante que l'approche MMSE. Une visualisation de la couverture de l'espace articulatoire atteinte lors de l'inversion, pour chacune des deux m\u00e9thodes, est visible sur la figure 2. La m\u00e9thode \"Maximum de vraisemblance\" permet d'atteindre des points beaucoup plus proches de la fronti\u00e8re de l'espace articulatoire, ce qui explique les meilleures performances de l'approche propos\u00e9e ici. ",
"cite_spans": [
{
"start": 18,
"end": 42,
"text": "(Lachambre et al., 2011)",
"ref_id": "BIBREF4"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Evaluation du mod\u00e8le propos\u00e9 -Comparaison des m\u00e9thodes d'inversion",
"sec_num": "4.1"
},
{
"text": "Dans le cadre d'inversion acoustico-articulatoire pour l'aide \u00e0 l'apprentissage des langues, il faut tenir compte du fait que l'apprenant ne connait pas tous les sons de la langue cible, et qu'il va \u00e9ventuellement ajouter des sons inexistants. Nous \u00e9tudions ici le comportement de notre mod\u00e8le, dans le cas o\u00f9 le syst\u00e8me doit inverser des sons inconnus lors de l'apprentissage.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Inversion pour l'apprentissage d'une langue \u00e9trang\u00e8re",
"sec_num": "4.2"
},
{
"text": "Le protocole que nous avons suivi est le suivant : -L'apprentissage du mod\u00e8le global et des mod\u00e8les acoustique et articulatoire sont effectu\u00e9s en enlevant la totalit\u00e9 des prononciations de certains phon\u00e8mes de l'ensemble d'apprentissage. -L'inversion est effectu\u00e9e sur l'ensemble de test complet : des prononciations de phon\u00e8mes inconnus des mod\u00e8les sont pr\u00e9sentes.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Inversion pour l'apprentissage d'une langue \u00e9trang\u00e8re",
"sec_num": "4.2"
},
{
"text": "Nous avons \u00e9valu\u00e9 plusieurs configurations ; pour chacune d'elles, nous pr\u00e9ciserons : -Les phon\u00e8mes manquants lors de l'apprentissage, -La proportion de phon\u00e8mes enlev\u00e9s et restants en terme de dur\u00e9e, -Le RMSE pour les phon\u00e8mes inconnus, les phon\u00e8mes connus, et l'ensemble des donn\u00e9es.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Inversion pour l'apprentissage d'une langue \u00e9trang\u00e8re",
"sec_num": "4.2"
},
{
"text": "En nous basant sur des \u00e9tudes phon\u00e9tiques des langues (Vall\u00e9e, 1994; Pellegrino, 1998) Nous pensons que l'approche, non supervis\u00e9e lors de la phase d'apprentissage, permet effectivement une assez bonne capacit\u00e9 de g\u00e9n\u00e9ralisation : le noyau dont d\u00e9rive chaque loi gaussienne, n'est pas pur en terme de classes phon\u00e9tiques, puisque, en moyenne, il contient 70 % d'un seul phon\u00e8me, son identit\u00e9 n'est donc pas une identite phon\u00e9tique, mais sans doute plus proche d'une configuration articulatoire.",
"cite_spans": [
{
"start": 54,
"end": 68,
"text": "(Vall\u00e9e, 1994;",
"ref_id": "BIBREF7"
},
{
"start": 69,
"end": 86,
"text": "Pellegrino, 1998)",
"ref_id": "BIBREF5"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Les voyelles",
"sec_num": "4.2.1"
},
{
"text": "Afin de pr\u00e9figurer l'apprentissage de l'anglais par un fran\u00e7ais, nous proposons l'exp\u00e9rience suivante : afin d'apprendre un \"'mod\u00e8le d'inversion proche d'un mod\u00e8le d'inversion pour l'anglais\", les phon\u00e8mes connus du fran\u00e7ais, et manquant en anglais sont retir\u00e9s. Il est \u00e9vident que dans la r\u00e9alit\u00e9, il manquerait des consonnes ou semi consonnes propres \u00e0 l'anglais. Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans le tableau 4. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Vers l'inversion du fran\u00e7ais avec un mod\u00e8le anglais",
"sec_num": "4.2.2"
},
{
"text": "Dans cet article, nous avons propos\u00e9 une nouvelle m\u00e9thode pour l'inversion acousticoarticulatoire, \u00e0 mi chemin entre les deux principales approches couramment d\u00e9velopp\u00e9es : l'utilisation d'un mod\u00e8le HMM mais dont l'apprentissage est non supervis\u00e9, et la d\u00e9finition de la fonction d'inversion exploitant l'approche ML des GMM. Cette nouvelle proposition am\u00e9liore les r\u00e9sultats de notre approche.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "5"
},
{
"text": "Par ailleurs, en nous pla\u00e7ant dans le cadre de l'apprentissage des langues \u00e9trang\u00e8res, nous avons propos\u00e9 une premi\u00e8re \u00e9tude du cas de phon\u00e8mes manquants lors de la phase d'apprentissage. Les premiers r\u00e9sultats sont \u00e0 la fois encourageants et conformes \u00e0 nos pr\u00e9visions : plus le nombre de phon\u00e8mes enlev\u00e9 est important, plus la t\u00e2che d'inversion est difficile ; les consonnes inconnues sont plus difficiles \u00e0 reconstruire que les voyelles inconnues.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "5"
},
{
"text": "Pour la suite, nous allons \u00e9tudier plus avant les performances de l'inversion pour chacun des phon\u00e8mes et nous \u00e9tudierons \u00e0 titre de comparaison les performances des approches classiques (HMM, GMM) en l'absence de donn\u00e9es manquantes.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "5"
},
{
"text": "Dans le cadre particulier de l'apprentissage des langues \u00e9trang\u00e8res, le processus complet consiste \u00e0 imager la parole de l'apprenant dans l'espace articulatoire d'une personne connue parlant la langue cible (il n'est pas envisageable, pour des questions de co\u00fbt et de confort de l'apprenant, d'acqu\u00e9rir des donn\u00e9es articulatoires de l'apprenant.). Deux probl\u00e8mes principaux se posent alors. Le premier, qui a \u00e9t\u00e9 abord\u00e9 r\u00e9cemment(Ben Youssef et al., 2011), est li\u00e9 au passage de l'acoustique de l'apprenant \u00e0 l'articulatoire de la cible, alors que seul le mod\u00e8le acousticoarticulatoire de la cible est connu. Le second r\u00e9side dans le fait que l'apprenant est susceptible de prononcer des sons inconnus dans la langue cible, sons qu'il faudra malgr\u00e9 tout imager. Nous nous proposons ici d'\u00e9tudier la capacit\u00e9 de g\u00e9n\u00e9ralisation de notre mod\u00e8le confront\u00e9, pendant la phase d'inversion, \u00e0 des sons inconnus lors de l'apprentissage.Apr\u00e8s une pr\u00e9sentation du corpus utilis\u00e9 dans la partie 2, nous rappelons l'apprentissage du mod\u00e8le dans la partie 3.1. Dans la partie 3.2, nous d\u00e9crivons l'inversion par Maximum de vraisemblance. Enfin, nous \u00e9tudions ce mod\u00e8le en contexte de donn\u00e9es manquantes dans la partie 4.2 CorporaEn tant que partenaire du projet ANR ARTIS 1 , nous avons acc\u00e8s \u00e0 la base de donn\u00e9e d\u00e9velopp\u00e9e par le Gipsa-Lab \u00e0 Grenoble. Ce corpus a d\u00e9j\u00e0 \u00e9t\u00e9 utilis\u00e9 dans de nombreuses publications sur l'inversion acoustico-articulatoire(Ben Youssef et al., 2010;Lachambre et al., 2011).Sont pr\u00e9sents des prononciations des 34 phon\u00e8mes du fran\u00e7ais : [i y e E\u1ebc oeoe @ a\u00c3 u \u00f8 o O\u00d5 p 1. ARTIS : Articulatory inversion from audio-visual speech for augmented speech presentation, ANR-08-EMER-001-02",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
},
{
"text": ". UCLA Phonological Segment Inventory Database",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [
{
"text": "Les auteurs remercient le Gipsa-Lab \u00e0 Grenoble, pour le partage du corpus ARTIS et les nombreux \u00e9changes scientifiques sur ce sujet.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Remerciements",
"sec_num": null
}
],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "Acoustic-to-articulatory inversion in speech based on statistical models",
"authors": [
{
"first": "A",
"middle": [],
"last": "Ben Youssef",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Badin",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Bailly",
"suffix": ""
}
],
"year": 2010,
"venue": "9th International Conference on Auditory-Visual Speech Processing (AVSP)",
"volume": "",
"issue": "",
"pages": "160--165",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BEN YOUSSEF, A., BADIN, P. et BAILLY, G. (2010). Acoustic-to-articulatory inversion in speech based on statistical models. In 9th International Conference on Auditory-Visual Speech Processing (AVSP), pages 160-165.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "Acoustic-to-articulatory inversion using speech recognition and trajectory formation based on phoneme Hidden Markov Models",
"authors": [
{
"first": "A",
"middle": [],
"last": "Ben Youssef",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Badin",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Bailly",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Heracleous",
"suffix": ""
}
],
"year": 2009,
"venue": "Interspeech -European Conference on Speech Communication and Technology",
"volume": "",
"issue": "",
"pages": "2255--2258",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BEN YOUSSEF, A., BADIN, P., BAILLY, G. et HERACLEOUS, P. (2009). Acoustic-to-articulatory inversion using speech recognition and trajectory formation based on phoneme Hidden Markov Models. In Interspeech -European Conference on Speech Communication and Technology, pages 2255-2258.",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "Toward a multi-speaker visual articulatory feedback system",
"authors": [
{
"first": "A",
"middle": [],
"last": "Ben Youssef",
"suffix": ""
},
{
"first": "T",
"middle": [],
"last": "Hueber",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Badin",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Bailly",
"suffix": ""
}
],
"year": 2011,
"venue": "12th Annual Conference of the International Speech Communication Association",
"volume": "",
"issue": "",
"pages": "589--592",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BEN YOUSSEF, A., HUEBER, T., BADIN, P. et BAILLY, G. (2011). Toward a multi-speaker visual arti- culatory feedback system. In 12th Annual Conference of the International Speech Communication Association (Interspeech 2011), pages 589-592.",
"links": null
},
"BIBREF3": {
"ref_id": "b3",
"title": "Estimation of articulatory movements from speech acoustics using an HMM-based speech production model",
"authors": [
{
"first": "S",
"middle": [],
"last": "Hiroya",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Honda",
"suffix": ""
}
],
"year": 2004,
"venue": "IEEE Transactions on Audio, Speech, and Language Processing",
"volume": "12",
"issue": "2",
"pages": "175--185",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HIROYA, S. et HONDA, M. (2004). Estimation of articulatory movements from speech acoustics using an HMM-based speech production model. IEEE Transactions on Audio, Speech, and Language Processing, 12(2):175-185.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "Articulatory parameter generation using unsupervised hidden markov models",
"authors": [
{
"first": "H",
"middle": [],
"last": "Lachambre",
"suffix": ""
},
{
"first": "L",
"middle": [],
"last": "Koenig",
"suffix": ""
},
{
"first": "R",
"middle": [],
"last": "Andr\u00e9-Obrecht",
"suffix": ""
}
],
"year": 2011,
"venue": "European Signal Processing Conference (EUSIPCO)",
"volume": "",
"issue": "",
"pages": "456--459",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LACHAMBRE, H., KOENIG, L. et ANDR\u00c9-OBRECHT, R. (2011). Articulatory parameter generation using unsupervised hidden markov models. In European Signal Processing Conference (EUSIPCO), pages 456-459.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "Une approche phon\u00e9tique en identification automatique des langues : la mod\u00e9lisation acoustique des syst\u00e8mes vocaliques",
"authors": [
{
"first": "F",
"middle": [],
"last": "Pellegrino",
"suffix": ""
}
],
"year": 1998,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PELLEGRINO, F. (1998). Une approche phon\u00e9tique en identification automatique des langues : la mod\u00e9lisation acoustique des syst\u00e8mes vocaliques. Th\u00e8se de doctorat, Universit\u00e9 Paul Sabatier, Toulouse.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "Statistical Mapping between Articulatory Movements and Acoustic Spectrum Using a Gaussian Mixture Model",
"authors": [
{
"first": "L",
"middle": [],
"last": "Rabiner",
"suffix": ""
},
{
"first": "B.-H",
"middle": [],
"last": "Juang",
"suffix": ""
},
{
"first": "Usa",
"middle": [],
"last": "Nj",
"suffix": ""
},
{
"first": "T",
"middle": [],
"last": "Toda",
"suffix": ""
},
{
"first": "A",
"middle": [
"W"
],
"last": "Black",
"suffix": ""
},
{
"first": "K",
"middle": [],
"last": "Tokuda",
"suffix": ""
}
],
"year": 1993,
"venue": "Speech Communication",
"volume": "50",
"issue": "",
"pages": "215--227",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "RABINER, L. et JUANG, B.-H. (1993). Fundamentals of speech recognition. Upper Saddle River, NJ, USA. TODA, T., BLACK, A. W. et TOKUDA, K. (2008). Statistical Mapping between Articulatory Mo- vements and Acoustic Spectrum Using a Gaussian Mixture Model. Speech Communication, 50:215-227.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "Syst\u00e8mes vocaliques : de la typologie aux pr\u00e9dictions",
"authors": [
{
"first": "N",
"middle": [],
"last": "Vall\u00e9e",
"suffix": ""
}
],
"year": 1994,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "VALL\u00c9E, N. (1994). Syst\u00e8mes vocaliques : de la typologie aux pr\u00e9dictions. Th\u00e8se de doctorat, Universit\u00e9 Stendhal, Grenoble.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "Continuous stochastic feature mapping based on trajectory hmms",
"authors": [
{
"first": "H",
"middle": [],
"last": "Zen",
"suffix": ""
},
{
"first": "Y",
"middle": [],
"last": "Nankaku",
"suffix": ""
},
{
"first": "K",
"middle": [],
"last": "Tokuda",
"suffix": ""
}
],
"year": 2010,
"venue": "IEEE Transaction on Audio, Speech, and Language Processing",
"volume": "19",
"issue": "2",
"pages": "417--430",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ZEN, H., NANKAKU, Y. et TOKUDA, K. (2010). Continuous stochastic feature mapping based on trajectory hmms. IEEE Transaction on Audio, Speech, and Language Processing, 19(2):417-430.",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "An introduction of trajectory model into HMM-based speech synthesis",
"authors": [
{
"first": "H",
"middle": [],
"last": "Zen",
"suffix": ""
},
{
"first": "K",
"middle": [],
"last": "Tokuda",
"suffix": ""
},
{
"first": "T",
"middle": [],
"last": "Kitamura",
"suffix": ""
}
],
"year": 2004,
"venue": "Fifth ISCA ITRW on Speech Synthesis",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ZEN, H., TOKUDA, K. et KITAMURA, T. (2004). An introduction of trajectory model into HMM-based speech synthesis. In Fifth ISCA ITRW on Speech Synthesis.",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "Acoustic-articulatory modeling with the trajectory HMM",
"authors": [
{
"first": "L",
"middle": [],
"last": "Zhang",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Renals",
"suffix": ""
}
],
"year": 2008,
"venue": "IEEE Signal Processing Letters",
"volume": "15",
"issue": "",
"pages": "245--258",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ZHANG, L. et RENALS, S. (2008). Acoustic-articulatory modeling with the trajectory HMM. IEEE Signal Processing Letters, 15:245-258.",
"links": null
}
},
"ref_entries": {
"FIGREF0": {
"type_str": "figure",
"text": "b m t d s z n f v K l S Z k g j 4 w]. Le corpus est compos\u00e9 de deux r\u00e9p\u00e9titions de 224 s\u00e9quences VCV (Voyelle-Consonne-Voyelle), deux r\u00e9p\u00e9titions de 109 mots courts (CVC) fran\u00e7ais r\u00e9els, 68 phrases courtes et 20 phrases longues. Les donn\u00e9es articulatoires sont acquises \u00e0 l'aide d'un ElectroMagnetic Articulographe (EMA), et sont constitu\u00e9es des coordonn\u00e9es (X,Y) de six capteurs plac\u00e9s dans un plan sagital. Deux capteurs sont positionn\u00e9s sur les l\u00e8vres (inf\u00e9rieure et sup\u00e9rieure), un sur la machoire, et trois sur la langue (devant, au milieu et au fond). Les donn\u00e9es audio sont acquises au format WAV. Elles sont repr\u00e9sent\u00e9es par 12 MFCC, l'\u00e9nergie, et leurs d\u00e9riv\u00e9es. Tous ces param\u00e8tres sont calcul\u00e9s toutes les 10 ms, il en r\u00e9sulte des donn\u00e9es acoustiques et articulatoires synchrones. Le vecteur global sera not\u00e9 O = [O ac T O ar t T ] T avec O ac et O ar t les vecteurs acoustique et articulatoire. 3 Approche markovienne non supervis\u00e9e Notre approche repose sur un mod\u00e8le de Markov Cach\u00e9 global M(A, B). Ce mod\u00e8le induit deux sous-mod\u00e8les M ac (A, B ac ) et M ar t (A, B ar t ), repr\u00e9sentant respectivement les parties acoustique et articulatoire du signal. Lors de l'\u00e9tape d'inversion, le signal acoustique est classiquement d\u00e9cod\u00e9 \u00e0 l'aide du mod\u00e8le acoustique M ac , r\u00e9sultant en une suite d'\u00e9tats. Cette suite d'\u00e9tat est ensuite transpos\u00e9e dans le mod\u00e8le articulatoire pour g\u00e9n\u00e9rer les signaux articulatoires (figure 1).",
"uris": null,
"num": null
},
"FIGREF2": {
"type_str": "figure",
"text": "Dispersion des vecteurs articulatoires pour les deux m\u00e9thodes d'inversion (gris : r\u00e9f\u00e9rence, noir : estimation).",
"uris": null,
"num": null
},
"TABREF0": {
"type_str": "table",
"html": null,
"content": "<table><tr><td>(\u00b5 ac i , \u03a3 ac i ) et le label i.</td><td>(\u00b5 ar t i , \u03a3 ar t i ), dont les param\u00e8tres sont estim\u00e9s avec les vecteurs portant</td></tr><tr><td colspan=\"2\">Notons que nous avons les relations suivantes :</td></tr></table>",
"text": "1. Un clustering non supervis\u00e9 \u00e0 l'aide d'un GMM est appliqu\u00e9 \u00e0 l'ensemble d'apprentissage.Le nombre Q de composantes est fix\u00e9 a priori.Chaque vecteur d'apprentissage est affect\u00e9 a posteriori \u00e0 une gaussienne et associ\u00e9 par cons\u00e9quent \u00e0 un label. Les param\u00e8tres de cette loi sont estim\u00e9s \u00e0 l'aide des vecteurs portant le label i. 3. La matrice de transition A est classiquement estim\u00e9e en comptant le nombre de transitions sur les s\u00e9quences de labels, associ\u00e9es aux s\u00e9quences des vecteurs d'apprentissage. Du mod\u00e8le global M sont d\u00e9duits les mod\u00e8les acoustique et articulatoire M ac et M ar t : -Le nombre d'\u00e9tats des deux mod\u00e8les est le m\u00eame que pour M. Chaque vecteur d'apprentissage O, portant le label i dans M, est s\u00e9par\u00e9 en sa partie acoustique O ac et sa partie articulatoire O ar t , chacun assign\u00e9 \u00e0 l'\u00e9tat i du mod\u00e8le correspondant. -Les matrices de transitions A sont inchang\u00e9es par rapport \u00e0 celle de M. -Les probabilit\u00e9s d'\u00e9mission pour chaque \u00e9tat i de chaque mod\u00e8le sont des gaussiennes",
"num": null
},
"TABREF2": {
"type_str": "table",
"html": null,
"content": "<table><tr><td colspan=\"3\">-Comparaison des approches \"MMSE\" et \"ML\" pour l'inversion</td></tr><tr><td>M\u00e9thode</td><td>RMSE</td><td>PMCC</td></tr><tr><td>MMSE</td><td>2.25 mm</td><td>0.59</td></tr><tr><td>ML</td><td>1,83 mm</td><td>0.64</td></tr></table>",
"text": "",
"num": null
},
"TABREF3": {
"type_str": "table",
"html": null,
"content": "<table/>",
"text": ", ellesm\u00eames bas\u00e9es sur la base de donn\u00e9es UPSID 2 , il s'av\u00e8re que 90% des langues utilisent le sous syst\u00e8me vocalique [a i u] qui correspondent aux trois configurations extr\u00e8mes d'un point de vue articulatoire ; d'autre part, le syst\u00e8me vocalique [a e i o u] est le plus repr\u00e9sent\u00e9 dans UPSID. Il apparait donc pertinent d'\u00e9tudier le comportement de notre syst\u00e8me en ne gardant que ces trois ou cinq voyelles dont les r\u00e9sultats apparaissent respectivement dans les tableau 2 et tableau 3.",
"num": null
},
"TABREF4": {
"type_str": "table",
"html": null,
"content": "<table><tr><td colspan=\"3\">-Performances en l'absence de toutes les voyelles centrales -Phon\u00e8mes exclus de</td></tr><tr><td>l'apprentissage : [y e E\u1ebc oeoe @\u00c3 \u00f8 o O\u00d5]</td><td/><td/></tr><tr><td/><td>RMSE</td><td>% du temps</td></tr><tr><td colspan=\"2\">Phon\u00e8mes manquants 2,51 mm</td><td>40 %</td></tr><tr><td>Phon\u00e8mes connus</td><td>1,99 mm</td><td>60 %</td></tr><tr><td>Tous phon\u00e8mes</td><td>2,22 mm</td><td>100 %</td></tr><tr><td colspan=\"3\">TABLE 3 -Performances en l'absence des voyelles centrales suivantes : [y E\u1ebc oeoe @\u00c3 \u00f8 O\u00d5]</td></tr><tr><td/><td>RMSE</td><td>% du temps</td></tr><tr><td colspan=\"2\">Phon\u00e8mes manquants 2,49 mm</td><td>34 %</td></tr><tr><td>Phon\u00e8mes connus</td><td>1,95 mm</td><td>66 %</td></tr><tr><td>Tous phon\u00e8mes</td><td>2,15 mm</td><td>100 %</td></tr><tr><td colspan=\"3\">Il est \u00e0 noter qu'en enlevant 40 % du corpus d'apprentissage qui correspondent \u00e0 1/3 des</td></tr><tr><td colspan=\"3\">phon\u00e8mes, les performances de notre syst\u00e8me restent tout \u00e0 fait honorables avec un RMSE</td></tr></table>",
"text": ",22 mm sur l'ensemble du corpus de test. Cependant de fortes diff\u00e9rences sont \u00e0 observer selon les phon\u00e8mes : parmi les phon\u00e8mes inconnus, le mieux reconstruit est le [e] avec un RMSE de 1,88 mm, et le moins bien reconstruit est le [o] avec un RMSE de 3,03 mm. Lors de la comparaison des eux exp\u00e9riences, nous avons not\u00e9 que les phon\u00e8mes bien ou mal reconstruits le sont dans les deux cas.",
"num": null
},
"TABREF5": {
"type_str": "table",
"html": null,
"content": "<table><tr><td colspan=\"3\">-Performances en l'absence des phon\u00e8mes inconnus d'un anglais : [y e \u00f8\u1ebc oe\u00c3 o\u00d5 K 4]</td></tr><tr><td/><td>RMSE</td><td>% du temps</td></tr><tr><td colspan=\"2\">Phon\u00e8mes manquants 2,63 mm</td><td>31,5 %</td></tr><tr><td>Phon\u00e8mes connus</td><td>1,94 mm</td><td>68,5 %</td></tr><tr><td>Tous phon\u00e8mes</td><td>2,18 mm</td><td>100 %</td></tr></table>",
"text": "Dans cette exp\u00e9rience, les r\u00e9sultats sont coh\u00e9rents avec les r\u00e9sultats pr\u00e9c\u00e9dents, en terme de voyelles plus ou moins bien reconstruites. Les deux consonne/semi-consonne que nous avons retir\u00e9es de l'apprentissage sont parmi les zones les moins bien reconstruits (RMSE de 3,45 mm pour le son [4]).",
"num": null
}
}
}
}