text
stringlengths
1
6.06k
source
stringclasses
375 values
page
int64
0
1.49k
book
stringclasses
375 values
chunk_index
int64
0
0
Reconnaissance de la parole et du locuteur 25 j d ij F I i Fig. 2 – Exemple de graphe dans lequel on veut recherche le chemin de coût minimum entre deux points I et F. 4 Modèles de Markov Discrets La plupart des systèmes modernes de reconnaissance automatique de la parole sont basés sur la théorie des “modèles de Markov cachés”. Pour bien comprendre le fonctionne- ment de ces derniers, il est cependant bon de discuter au préalable des modèles de Markov discrets à nombre d’états fini. Les processus modélisés par ces chaînes de Markov sont souvent appelés “processus markoviens”, et sont supposés (par hypothèse) vérifier certaines propriétés (markoviennes) qui seront discutées plus loin. Ces chaînes de Markov, malgré leur (relative) simplicité, peuvent conduire à des formalismes complexes. 4.1 Définition et paramétrisation Un modèle de Markov discret M est un automate stochastique à nombre d’états fini construit à partir d’un ensemble Ω= {ω1,ω2, . . . ,ωK} de K “classes” distinctes, chacune de ces classes correspondant à une observation particulière (un événement bien spécifique) du système que l’on désire modéliser. 19 Une séquence d’observations générée par un tel modèle est alors appelée processus markovien. Les K classes (configurations) possibles peuvent être définies a priori ou être déterminées automatiquement (par exemple, en uti- lisant un algorithme de quantification vectorielle). Un modèle de Markov M est alors défini comme étant un graphe orienté construit sur base d’un ensemble de L états {q1, . . . ,ql, . . . ,qL}, où chaque état est associé à une classe particulière ω(ql) ∈Ωet où une même classe peut éventuellement se représenter à diffé- rents endroits du graphe (afin de pouvoir y introduire de possibles contraintes temporelles concernant les séquences possibles de classes). La topologie (connections possibles entre les états ql) utilisée peut donc aller du graphe entièrement connect
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
34
2 intro_ASR_f
0
afin de pouvoir y introduire de possibles contraintes temporelles concernant les séquences possibles de classes). La topologie (connections possibles entre les états ql) utilisée peut donc aller du graphe entièrement connecté (voir, par exemple, Figure 3) au graphe orienté (par exemple, strictement gauche-droite). 19. On pourrait aussi imaginer qu’il existe une fonction déterministe entre l’ensemble des observations possibles et l’ensemble des états.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
34
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 26 Si nous définissons par: – qn l’état particulier de M visité à l’instant n, – qn ll’événement {qn = ql}, signifiant que l’état particulier visité à l’instant n est ql, un modèle de Markov est alors paramétrisé en termes d’un ensemble de probabilités de transition P(qn l|qn−1 k ,qn−2 j , . . .) (39) Si l’on fait l’hypothèse (usuelle) dite markovienne, on suppose alors que le processus mar- kovien est d’ordre 1, c’est-à-dire que la probabilité (39) de passer dans un état particulier qlà l’instant n ne dépend que de l’état précédent à l’instant n −1, ce qui revient alors à supposer que P(qn l|qn−1 k ,qn−2 j , . . .) = P(qn l|qn−1 k ) Souvent, pour encore simplifier le modèle, on supposera aussi que ces probabilités de tran- sition sont indépendantes du temps, c’est-à-dire que P(qn l|qn−1 k ) = P(ql|qk) = Pkl représente la probabilité de passer de l’état qk à l’état ql. Les probabilités Pkl, ∀k,l∈[1,L] sont appelées probabilités de transition et doivent (évidemment) vérifier les propriétés suivantes: <unk> <unk> <unk> <unk> <unk> Pkl≥0, ∀k,l PL l=1 Pkl= 1, ∀k Un modèle de Markov discret M est donc paramétrisé en termes de: 1. Sa topologie et son nombre d’états L. 2. Une matrice (L × L) de probabilités de transition: A = {Pkl} = <unk> <unk> <unk> <unk> <unk> <unk> <unk> <unk> <unk> P11 P12 . . . P1L P21 P22 . . . P2L . . . . . . . . . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
35
2 intro_ASR_f
0
P11 P12 . . . P1L P21 P22 . . . P2L . . . . . . . . . . . . . . . . . . PL1 PL2 . . . PLL <unk> <unk> <unk> <unk> <unk> <unk> <unk> <unk> <unk> contenant éventuellement des 0 pour les connexions manquantes. 3. Une distribution de probabilités des états initiaux: Π = (PI1, . . . ,PIl, . . . ,PIL) où I représente un état initial arbitraire non associé à une observation (associé à une observation “nulle”). PIlreprésente donc la probabilité que le processus commence par l’état qlde M (en définisant l’état initial qI associé à n = 0, i.e., q0 I. L’ensemble des paramètres décrivant M est donc donné par Θ = {Π,A}. La Figure 3 représente un exemple simple de modèle de Markov discret entièrement connecté. En suivant [86], celui-ci pourrait être utilisé pour modéliser (de manière très simpliste) l’évolution des conditions météorologiques, dans le cas où le temps serait supposé
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
35
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 27 a c b = = = = = = = = = Fig. 3 – Un exemple de modèle de Markov discret entièrement connecté avec trois classes {a,b,c} et probabilités de transition. être décrit par une des classes de Ω= {a,b,c}, avec la classe “a” correspondant à “pluie ou neige”, la classe “b” correspondant à “nuageux”, et la classe “c” correspondant à “ensoleillé”. En faisant les hypothèses markoviennes décrites précédemment sur ce modèle, on suppose donc que: 1. La probabilité de passer d’une condition météo à une autre ne dépend que des condi- tions au jour précédent (hypothèse d’ordre 1). 2. Ces probabilités de transition ne dépendent pas de la période de l’année ou de la saison (ce qui est évidemment faux). On pourrait cependant imaginer avoir des mo- dèles différents pour chaque saison (modèles conditionnés sur la saison) et utiliser le modèle particulier associé à la saison courante. Si on ne connait pas la saison (ou si une telle notion n’existe pas), on se dirige alors doucement vers un modèle de Markov caché. 4.2 Exemples d’utilisation Etant donné un modèle de Markov discret de paramètres donnés on peut alors définir différents types de problèmes plus ou moins complexes. 4.2.1 Problème 1: Probabilité d’un chemin particulier Etant donné que le modèle est dans un état connu qi à l’instant initial (PIi = 1 et PIj = 0 pour j <unk>= i), la probabilité (selon le modèle!) d’une séquence spécifique d’états (une évolution particulière de la météo), ou “chemin”, Q = {q1, . . . ,qn, . . . ,qN} dans M est donnée par: P(Q|M) = P(q1|q0 i )P(q2|q1) . . . P(qn|qn−1) . . . P(qN|qN−1) = N Y n=1 P(qn|qn−1) (40)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
36
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 28 4.2.2 Problème 2: Distribution de “durée” Etant donné que le modèle est dans un état connu qi à l’instant initial, quelle est la probabilité qu’il reste dans ce même état pour exactement d jours? La séquence d’observations à considérer est alors Q = {q0 i ,q1 i ,q2 i , . . . ,qd i ,qd+1 j }, avec j <unk>= i et nous avons: P(Q|M) = (Pii)d−1(1 −Pii) 4.2.3 Problème 3: Probabilité de passer d’un état à un autre en N observations Un problème un peu plus complexe est le suivant: Etant donné que nous savons que le modèle M est dans un état qi à l’instant initial, quelle est la probabilité qu’il soit dans l’état particulier qj à l’instant N (sans se soucier des états intermédiaires)? Pour résoudre ce problème, il faut donc considérer tous les chemins possibles de longueur N allant de l’état qi à l’état qj et sommer les probabilités de chacun d’entre-eux. En effet, étant donné que les événements qn i sont mutuellement exclusifs et collectivement exhaustifs (une observation est associée à un et un seul état à la fois), nous avons (par les règles de probabilités discutées dans la Section 2.2): P(qN j |q0 i ) = N X n=0 L X l=1 P(qN j ,qn l|q0 i ) ce qui revient à devoir sommer les probabilités de tous les chemins possibles dans M. Cette probabilité totale peut être obtenue par récurrence en définissant αn(l) = P(qn l|q0 i ,N) et en remarquant que l’on peut écrire: αn+1(l) = X k αn(k)Pkl (41) où la somme s’applique à tous les prédécesseurs possibles de ql. Cette recurrence peut être calculée pour tout état qldu modèle, et pour tout instant n. Dans notre cas, la solution du problème est donnée par: P(qN j
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
37
2 intro_ASR_f
0
les prédécesseurs possibles de ql. Cette recurrence peut être calculée pour tout état qldu modèle, et pour tout instant n. Dans notre cas, la solution du problème est donnée par: P(qN j |q0 i ) = αN(j) Comme nous le verrons plus loin, une récurrence similaire, dénommée “récurrence avant” (forward recurrence), est régulièrement utilisée en reconnaissance de la parole. 4.2.4 Problème 4: Probabilité du meilleur chemin de longueur N entre deux états En réponse au problème précédent, on obtient le meilleur estimateur de la probabilité de passer d’un état qi à un état qj après N observations. On pourrait cependant être intéressé par un problème légérement différent et se demander quel est le chemin (c’est-à-dire la séquence d’états) le plus probable pour aller de l’état qi à l’état qj. Il faut alors utiliser
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
37
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 29 un autre type de récurrence dans laquelle on définit P n(k) comme étant la probabilité du meilleur chemin pour aller de l’état qi à qk en n observations. Nous avons alors la récurrence suivante: P n+1(l) = max k P n(k)Pkl (42) équivalente à (41) dans laquelle la somme a été remplacée par un opérateur maximum (le maximum étant toujours pris sur tous les prédécesseurs qk possibles de ql. La solution à notre problème est alors donnée par: P(qN j |q0 i ) = PN(j) Cet algorithme est donc basé sur la méthode générale de programmation dynamique déjà présentée dans la Section 3. Beaucoup de références (voir, par exemple, [53]) traitent des modèles de Markov dis- crets, de leurs utilisations et de leurs propriétés. Une propriété intéressante à garder en tête, et découlant de la généralisation du Problème 3, est que l’élément (i,j) de la matrice An (la matrice des probabilités de transition élevée à la puissance n) nous donne la probabilité de transiter de l’état qi à l’état qj en n observations. 4.3 Du modèle de Markov discret au modèle de Markov caché Supposons maintenant que, dans le modèle représenté à la Figure 3, chaque état soit caractérisé par une densité de probabilité différente sur l’espace des observations possibles “pluie ou neige”, “nuageux”, “ensolleillé” qui ne sont plus univoquement associées aux états {a,b,c} et que les états correspondent maintenant à une variable qui n’est plus observée directement. Ceci pourrait, par exemple, correspondre au fait d’être ou non dans une dé- pression atmosphérique. Chaque état pourrait aussi être associé à une saison particulière dont on essaierait de déterminer les caractéristiques sur base des observations météorolo- giques. Dans tous ces cas, nous sommes passés d’un modèle de Markov discret à un modèle de Markov caché, et les observations ne sont plus qu’une fonction stochastique des variables qui nous intéressent. Un autre exemple
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
38
2 intro_ASR_f
0
ces cas, nous sommes passés d’un modèle de Markov discret à un modèle de Markov caché, et les observations ne sont plus qu’une fonction stochastique des variables qui nous intéressent. Un autre exemple illustrant cette différence [86] consiste à modéliser la séquence d’ob- servations résultant du lancement d’une pièce de monnaie (“pile” ou “face”). Si nous avons une seule pièce, ce processus peut être représenté par un modèle de Markov discret à deux états (un état pour “face” et un état pour “pile”) entièrement connectés et dont toutes les probabilités de transition sont égales à 0.5 si la pièce n’est pas biaisée. Dans le cas de mo- dèles de Markov cachés, nous supposons alors être en présence de deux pièces de monnaie biaisées différemment et pour lesquelles on observe uniquement le résultat du lancement, sans savoir quelle pièce a été lancée. La modélisation de ce système requiert alors un mo- dèle de Markov cachés à deux états, un état pour chaque pièce et chaque état étant décrit par une densité de probabilité différente dans l’espace des observations. Les probabilités de transition reflètent alors la probabilité de choisir une pièce plutôt que l’autre. Le problème de classification consiste alors à retrouver le séquencement des pièces uniquement sur base de la séquence d’observations de “piles” et de “faces”.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
38
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 30 5 Modèles de Markov Cachés (HMM) 5.1 Définition Dans le cas des modèles de Markov dits “cachés” (HMM, pour “Hidden Markov Models”), et contrairement aux modèles de Markov discrets standards, les observations ne sont plus univoquement liées à une seule classe bien déterminée mais sont des fonctions statistiques de ces classes qui ne sont plus observées directement. C’est pourquoi ces modèles de Markov sont dits “cachés” étant donné que les états du modèle ne sont plus observés directement à partir des observations qui sont supposées être produitent par ces états à travers une fonction statistique différente pour chaque classe. Nous sommes donc en présence d’un processus doublement stochastique: le modèle stochastique relatif au modèle de Markov sous-jacent et le modèle stochastique décrivant la relation entre les classes (états) et les observations. Comme pour les modèles de Markov discrets, un modèle de Markov caché (HMM) est construit à partir d’un ensemble Ω= {ω1,ω2, . . . ,ωK} de K classes distinctes et est défini comme un graphe orienté (entièrement connecté ou selon une topologie particulière choisie a priori ou déterminée automatiquement) construit à partir d’états ql(l= 1, . . . ,L), où chaque état est associé à une classe particulière ω(ql) de Ωet où une même classe peut éventuellement se représenter à différents endroits du graphe. Chaque classe de Ωpeut cependant produire n’importe quelle observation (d’un ensemble d’observations discrets ou continu) selon une distribution statistique qui lui est propre. Un modèle HMM est alors caractérisé en termes de: 1. Sa topologie et son nombre d’états L. 20 Nous discuterons plus tard des topologies spécifiques les plus utilisées, mais en principe n’importe quelle topologie peut être traitée (y compris le modèle entièrement connecté). 2. Un ensemble d’observations possibles (qui ne sont maintenant plus directement asso- ciées aux classes et états), parfois appelé “alphabet” A dans le cas d’observations dis
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
39
2 intro_ASR_f
0
e (y compris le modèle entièrement connecté). 2. Un ensemble d’observations possibles (qui ne sont maintenant plus directement asso- ciées aux classes et états), parfois appelé “alphabet” A dans le cas d’observations dis- crètes (ou dans le cas d’observations continues qui ont été quantifiées – Section 2.7.4). L’observation particulière à l’instant n sera dénotée xn, avec: – xn ∈Qd dans le cas continu – xn ∈A = {v1,v2, . . . ,vI} dans le cas discret. 3. Les probabilités de transition entre états, sur lesquelles on a fait les même hy- pothèses que dans le cas des modèles de Markov (ordre 1, indépendantes de n): A = {Pkl}, avec Pkl= P(qn+1 l |qn k) = P(ql|qk), 1 ≤k,l≤L. 4. Distribution initiale des états: Π = {PIl}, ∀l∈[1,L]. 5. Distribution des probabilités des observations, généralement appelées probabilités d’émission, pour chaque état ql. A l’instant n, et pour chaque état possible ql de M, est associé une probabilité d’émission p(xn|ql) représentant la probabilités que l’état qlgénére l’observation xn. Cette probabilité (vraisemblance) est supposée ne dépendre que de la classe ω(ql) ∈Ωassociée à ql. L’ensemble des probabilités d’émission est donc décrit par K (nombre de classes) densités de probabilités p(xn|ωk) représentées par: – Dans le cas discret (ou après quantification vectorielle des observations): Une 20. Que nous écrirons parfois L(Mi) dans le cas où nous avons plusieurs modèles Mi, étant donné que ce nombre d’états pourra être différent pour chaque modèles.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
39
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 31 matrice B = {bk(i)} dans laquelle bk(i) = P(vi|ωk), avec 1 ≤k ≤K et 1 ≤i ≤ I. – Dans le cas continus: Les paramètres de K densités de probabilités p(xn|ωk), typiquement supposées être représentées par: – des multi-gaussiennes, telles que (10), paramétrisées par l’ensemble des moyennes et des variances, – ou un réseau de neurones, comme discuté dans la Section 13. Dans la suite, nous écrirons souvent p(xn|ql) en se rappelant que qlse réfère alors en fait à la classe ω(ql) de Ωassociée à cet état. x n p(x n jq i ) q j q i x n p(x n jq j ) P (q i jq i ) P (q j jq j ) P (q i jq j ) P (q j jq i ) Fig. 4 – Un exemple de modèle de Markov caché à 2 états, entièrement connecté, avec probabilités de transition et densités de probabilités (probabilités d’émission) associées à chaque état. Si B dénote l’ensemble de paramètres décrivant les probabilités d’émission, l’ensemble des paramètres décrivant un modèle de Markov cachés et qui devront être entraînés est donc défini comme Θ = {A,B,Π}. Les hypothèses qui ont éte faites en définissant un tel modèle seront discutées plus en détail dans la Section 9. Un exemple de modèle de Markov caché est représenté à la Figure 4 5.2 HMM pour la génération de séquences Bien que les modèles HMM discutés ici seront utilisés pour la classification de séquences, il est bon de noter ici que ces modèles sont essentiellement des modèles génératifs, basés sur la vraisemblance d’une séquence X étant donné un modèle M. Bien que discuté plus en détail dans la Section 9, le problème de la reconnaissance consistera donc à trouver le modèle HMM (parmi un ensemble de modèles HMM possibles, correspondant à l’
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
40
2 intro_ASR_f
0
X étant donné un modèle M. Bien que discuté plus en détail dans la Section 9, le problème de la reconnaissance consistera donc à trouver le modèle HMM (parmi un ensemble de modèles HMM possibles, correspondant à l’ensemble des phrases possibles) qui est le plus probable d’avoir généré la séquence.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
40
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 32 Ces modèles HMM peuvent toutefois toujours être utilisés pour générer des séquences stochastiques stationnaires par morceaux. Supposons avoir un modèle HMM avec son en- semble de paramètres Θ. Pour générer une séquence temporelle à partir de ce modèle, il suffit de: 1. A partir de l’état initial I du modèle HMM, prendre une transition vers un état du modèle, selon la distribution Π des probabilités initiales. 21 2. Lorsque l’on arrive dans un état qlon “émet” un vecteur au hasard selon la distribu- tion B associée à l’état. 3. Après avoir émis un vecteur, on passe à un état suivant (ou on reste sur le même état) selon la distribution des probabilités de transition associée à cet état, et on émet un nouveau vecteur. 4. Itération de cette opération jusqu’au moment où on atteint l’état final du modèle HMM. 5.3 Estimation de la séquence d’états Considérons maintenant le problème inverse: étant donné une séquence X = {x1, . . . ,xn, . . . ,xN} de longueur N et un modèle de Markov M dont les paramètres (A,B,Π) sont connus et fixés, on désire déterminer la séquence d’états Q = {q1, . . . ,qn, . . . ,qN} de M (et donc la séquence de classes associée à cette séquence d’états) qui est la plus probable d’avoir gé- néré X. En associant une seule séquence d’états à X, nous supposons donc qu’un seul état spécifique de M, par exemple qn l, est responsable de la génération de xn. 22 La séquence d’états Q est donc isomorphique à la séquence X et la recherche du chemin le plus probable se ramène donc à un problème de classification. Nous savons donc que la séquence d’états minimisant la probabilité d’erreur est celle qui maximise la probabilité a posteriori P(Q|X) = p(X|Q)P(
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
41
2 intro_ASR_f
0
. Nous savons donc que la séquence d’états minimisant la probabilité d’erreur est celle qui maximise la probabilité a posteriori P(Q|X) = p(X|Q)P(Q) p(X) (43) Etant donné que la séquence d’états est supposée former une chaîne de Markov d’ordre 1, nous avons donc: P(Q) = P(q1, . . . ,qn, . . . ,qN) = N Y n=1 P(qn|qn−1) (44) où les probabilités P(qn|qn−1) sont les probabilités de transition de A. Nous avons égale- ment: p(X|Q) = p(x1, . . . ,xn, . . . ,xN|q1, . . . ,qn, . . . ,qN) (45) = N Y n=1 p(xn|x1, . . . ,xn−1,q1, . . . ,qn, . . . ,qN) (46) 21. Ceci peut se faire de différentes manières. Supposons que nous ayons deux transitions possibles à partir de l’état initial: une vers q1 avec une probabilité p1 = 0.7 et une vers q2 avec une probabilité p2 = 0.3. On tire alors un nombre au hazard entre 0 et 1 selon un distribution uniforme. Si ce nombre est supérieur à p2, on choisi la transition vers q1, sinon on va vers q2. 22. En d’autres mots, nous supposons que chaque vecteur xn est associé à un et un seul état de M ce qui, en pratique, n’est pas nécessairement vrai. En effet, selon la discussion de la Section 5.2, il est clair qu’un modèle HMM pourrait générer deux fois la même séquence de vecteurs selon deux chemins différents, mais vraisemblablement avec deux probabilités différentes.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
41
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 33 et en supposant que les observations xn sont des variables aléatoires indépendantes et que leur probabilité d’observation sur un état particulier qn associé à une classe particulière ω(qn) ∈Ωest conditionnellement indépendante des états précédents, nous obtenons: p(X|Q) = N Y n=1 p(xn|qn) = N Y n=1 p(xn|ω(qn)) (47) où les p(xn|ω(qn)) sont les densités de probabilités associées aux états ω(qn). Pour un ensemble donné et fixé de paramètres, p(X) dans (43) n’est pas fonction de la séquence d’états Q. Par conséquent, maximiser (43) est équivalent à rechercher le meilleur chemin Q maximisant p(X|Q)P(Q) = N Y n=1 p(xn|ω(qn))P(qn|qn−1) (48) Comme dans la Section 4 (Problème 4), la meilleure séquence d’états de longueur N maximisant (48) peut alors être déterminée par programmation dynamique (DP), aussi connu sous le nom d’algorithme de Viterbi. Similairement à (42), si pn(k) représente la probabilité du meilleur chemin (démarrant d’un état initial qI à l’instant 0) se terminant en l’état qk à l’instant n, nous avons alors la récurrence DP suivante: pn+1(l) = p(xn|ω(ql)) max k pn(k)Pkl dans laquelle le maximum est pris sur tous les prédécesseurs qk possibles de ql. Le meilleur chemin de longeur N se terminant au dernier état qL de M est alors défini comme celui générant la probabilité pN(L) maximale. 5.4 Modèles HMM autorégressifs L’approche introduite ci-dessus peut être généralisée au cas où les observations ne sont pas indépendantes (c’est-à-dire lorsque les observations de la séquence sont corré- lées). Une solution possible est alors de supposer que la sous-séquence d’observations
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
42
2 intro_ASR_f
0
observations ne sont pas indépendantes (c’est-à-dire lorsque les observations de la séquence sont corré- lées). Une solution possible est alors de supposer que la sous-séquence d’observations xn,xn+1, . . . ,xn+m associées à un même état qlest elle-même une séquence markovienne d’ordre 1 dont la densité jointe est alors donnée par: p(xn|ω(ql)) n+m Y r=n+1 p(xr|xr−1,ω(ql)) (49) Dans ce cas, (48) prend la forme p(X|Q)P(Q) = N Y n=1 p(xn|xn−1,ω(qn))P(qn|qn−1) (50) et peut également être maximisée par un algorithme de type Viterbi. Un exemple de ce type de modèle HMM est le modèle HMM autorégressif d’ordre 1 pour lequel on suppose que le séquence d’observation sur chaque état est issu d’un modèle autorégressif (AR) xn = alxn−1 + el,n
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
42
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 34 dans laquelle alsont les paramètres (une matrice, si xn est vectoriel) du modèle AR associé à l’état (plus précisément, la classe associée à) qlet el,n sont les exitations successives du modèle AR et sont supposées être des variables aléatoires gaussiennes iid, de moyenne nulle et de variance σ2 l. On montre alors facilement que la fonction de densité associée aux probabilités d’émission prend la forme p(xn|xn−1,ω(ql)) = 1 √ 2Πσl exp " −e2 n 2σ2 l # Ceci peut évidemment se généraliser facilement (du moins en théorie!) à des modèles au- torégressifs d’ordre p > 1 où on a alors: xn = p X k=1 alkxn−k + el,n Il est clair que ces modèles AR sont étroitement liés aux modèles de prédiction linéaire discutés dans le Chapitre 2. 5.5 Modèles HMM pour la classification de séquences Le problème de reconnaissance de la parole est généralement traité comme un problème de classification de séquences d’observations par modèles HMM (Section 9). Chaque classe est alors associée à un modèle HMM, et une séquence X = {x1, . . . ,xn, . . . ,xN} sera recon- nue en fonction du modèle le plus probable associé à cette séquence. Pour ce faire, il est donc nécessaire de calculer la probabilité p(X|Mi) pour chacun des modèles M possibles et de sélectionner le modèle générant la probabilité la plus élévée. Pour chaque modèle M, la séquence X peut cependant être produite par plusieurs séquences d’états différentes de longueur N de la séquence X. Selon (2), cette probabilité s’exprime donc comme p(X|M) = X ∀Q∈M p(X,Q|M) où la somme s’étend à tous les chemins possibles dans M, conduisant rapidement à un large problème combinatoire. En effet, l’énumération de tous les chemins possibles conduirait à un nombre d’opération
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
43
2 intro_ASR_f
0
me s’étend à tous les chemins possibles dans M, conduisant rapidement à un large problème combinatoire. En effet, l’énumération de tous les chemins possibles conduirait à un nombre d’opérations proportionnel à LN, où L est le nombre d’états dans le modèle M. Heureusement, comme déjà brièvement abordé dans la Section 4, il est possible de définir une récurrence efficace similaire à (41) qui réduit le nombre d’opérations à L2N. Cette procédure sera décrite plus en détail dans la Section 9. 5.6 Estimation des paramètres HMM Un des problèmes majeurs, mais aussi une des propriétés les plus remarquables des modèles HMM, est la possibilité de déterminer automatiquement l’ensemble de leurs pa- ramètres (probabilités de transition et paramètres décrivant les densités de probabilités d’émission) sur simple présentation de séquences X et de leurs modèles HMM associés. Dans cette section, nous introduisons ce problème de façon simple générale; une descrip- tion plus précise en sera donnée à la Section 9 dans le cadre de la reconnaissance de la parole.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
43
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 35 La distribution de séquences X est supposée être caractérisée par l’ensemble Θ des paramètres HMM, à savoir: la matrice de probabilités de transition A = {P(ql|qk)} de dimension (L × L), et B, les paramètres des probabilités d’emission (par exemple, une matrice {P(vi|ωk)} de dimension (K × I) dans le cas discret). Pour des questions de simplicité, les probabilités de transition initiales Π seront généralement considérées comme inclues dans A. L’estimation selon le critère du maximum de vraisemblance (ML) de l’ensemble de paramètres Θ = {A,B} du modèle se fait alors selon Θ∗= argmax Θ p(X|A,B) (51) où X représente l’ensemble des vecteurs d’entraînement (généralement répartis en plusieurs séquences d’entraînement). Il n’y a malheureusement pas de solution analytique à ce problème. Comme briévement introduit dans les Sections 2.6 et 2.7, il existe cependant une solution itérative, connue sous le nom d’algorithme EM (Expectation Maximization) qui garantit une convergence vers un optimum local en itérant: 1. L’estimation de la fonction de vraisemblance pour l’ensemble de paramètres fixes, calculée comme l’espérance mathématique (“expectation”) des vraisemblances (pon- dérées par la distribution a posteriori des variables latentes). 2. Maximization de cette fonction dans l’ensemble de paramètres (“maximization”). On peut également montrer que cet algorithme est un cas particulier d’une méthode de gradient dans laquelle le pas de gradient à chaque itération est optimal [62]. L’entraînement des modèles HMM sera discuté plus en détail dans le cadre de la re- connaissance de la parole dans la Section 10. En quelques mots, le principe général de cet entraînement est basé sur l’algorithme itératif EM et peut se résumer comme suit. A par- tir de valeurs de paramètres Θ(t) = {A(t),B(t)} à l’itération t, il sera
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
44
2 intro_ASR_f
0
ithme itératif EM et peut se résumer comme suit. A par- tir de valeurs de paramètres Θ(t) = {A(t),B(t)} à l’itération t, il sera nécessaire d’estimer (étape E) les probabilités (a posteriori) de transition et d’émission, connaissant toute la séquence d’entraînement X, c’est-à-dire: 1. La probabilité d’être sur l’état qk à l’instant (n −1) et sur l’état qlà l’instant n: P (t)(qn l,qn−1 k |X) = P(qn l|qn−1 k ,X,Θ(t))P(qn−1 k |X,Θ(t)) (52) 2. La probabilité d’être sur l’état qlà l’instant n: P (t)(qn l|X) = L X k=1 P(qn l,qn−1 k |X,Θ(t)) (53) étant donné que les événements qn k sont mutuellement exclusifs et collectivement exhaustifs. Dans l’étape de maximisation, on peut montrer que les nouveaux estimateurs de para- mètres Θ(t+1) maximisant p(X|A,B) peuvent alors être calculés à partir des distributions a posteriori (52) et (53) (et en supposant que nous puissions calculer ces quantités – voir Section 10 dans le cas HMM). 1. Pour les probabilités de transition A(t+1): P (t+1)(ql|qk) = PN n=1 P (t)(qn l,qn−1 k |X) PN n=1 P (t)(qn−1 k |X) (54)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
44
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 36 où la somme sur n est utilisée pour calculer la probabilité de transition de l’état qk à l’état qlà n’importe quel instant n. Intuitivement, l’équation (54) représente la probabilité jointe moyenne (sur le temps) de deux états successifs divisée par la probabilité moyenne d’être passé sur l’état qk. 2. Pour les probabilité d’émission, et dans le cas discret, nous aurons: P (t+1)(vi|qk) = PN n=1 P (t)(qn k,vi|X) PN n=1 P (t)(qn k|X) (55) où P (t)(qn k,vi|X) au numérateur représente la probabilité P (t)(qn l|X) uniquement pour le cas où les observations xn ont été associées à l’étiquette vi ∈A lors de la leur quantification vectorielle. Dans le cas d’observations continues, on suppose alors une forme particulière de le fonction de densité p(xn|qk) et les observations sont directement utilisées pour estimer les paramètres des probabilités d’émission. Par exemple, dans le cas gaussien, le nouvel estimateur de la moyenne associée à qk et maximisant p(X|A,B) sera donné par: μ(t+1) k = PN n=1 xnP (t)(qn l|X) PN n=1 P (t)(qn l|X) (56) Nous renvoyons le lecteur à la Section 10 pour une dérivation plus précise de ces estimateurs. A chaque itération de l’algorithme EM, les quantités (52) et (53) sont donc calculées en utilisant les paramètres courants Θ(t). Dans le cas particulier des modèles HMM, et comme nous le verrons dans la Section 9, le calcul de ces probabilités fait intervenir des récurrences “avant” et “arrière” rapides (forward-backward algorithm). Sur base de ces probabilités, les valeurs de paramètres Θ(t+1) des probabilités de transition (54) et d’émission (55 ou 56) sont mises à jour de façon à garantir que p(X|A(t+1),B(t
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
45
2 intro_ASR_f
0
, les valeurs de paramètres Θ(t+1) des probabilités de transition (54) et d’émission (55 ou 56) sont mises à jour de façon à garantir que p(X|A(t+1),B(t+1)) > p(X|A(t),B(t)). On peut démontrer la convergence de ce processus itératif qui sera alors arrêté lorsqu’une nouvelle itération ne conduit plus à une modification significative des paramètres. Comme discuté plus en détail dans la Section 10, la re-estimation des paramètres et la preuve de conver- gence se basent sur la définition d’une fonction auxilaire Q comme généralement utilisée dans l’algorithme EM. 6 Reconnaissance de la Parole: Schéma-Bloc La Figure 5 présente le schéma bloc d’un système typique de reconnaissance de la parole. Le système reçoit en entrée un signal de parole et, idéalement, fournit en sortie le mot ou la phrase prononcé. Comme illustré dans cette figure, le processus de reconnaissance de la parole est géné- ralement décomposé en plusieurs étapes: 1. Analyse acoustique (acoustic front end, en anglais): A la sortie du microphone, le signal contient les différentes caractéristiques de la source (contenu lexical, locuteur, bruit, réverbérations, etc). Le but ultime de l’ana- lyse acoustique est de transformer le signal de façon à la rendre (le plus possible) indépendante des caractéristiques de la source, à l’exception du contenu lexical. Bien
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
45
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 37 Analyse Acoustique S equence acoustique Classi cation Lo cale mo d eles des sous-unit es lexicales Analyse S eman tique Analyse Syn taxique D eco dage Lexical P arole Phrase reconn ue grammaire dictionnaire en termes de sous-unit es s eman tique Fig. 5 – Schéma-bloc générique d’un système de reconnaissance de la parole. que ce problème ne soit pas encore vraiment résolu, les systèmes de reconnaissance actuels se composent en géneral de: – Un module de pré-traitement (microphone, pré-ampli, filtre anti-aliasing, conver- tisseur A/D, ligne téléphonique) – Un module d’analyse acoustique du signal (digital signal processing), générale- ment basée sur une analyse spectrale ou cepstrale court-terme (et eventuellement certaines normalisations) — Voir Section 7. Le signal de parole est fortement non stationnaire. Par conséquent, son analyse le décompose en une succession de tranches élémentaires supposées stationnaires. Ces tranches sont appelées fenêtres d’analyse ou trames. Typiquement, une analyse est appliquée toutes les 10 ms sur des fenêtres d’analyse de 30 ms (par glissement et recouvrement des fenêtres d’analyse) pour générer un vecteur acoustique. Cette étape d’analyse acoustique convertit donc un mot ou une phrase en une séquence de vecteurs acoustiques X = {x1,...,xN}. Un exemple est donné par le spectrogramme de Figure 6, pour le cas de l’analyse spectrale (voir Section 7 pour les alternatives d’analyse généralement utilisées en recon- naissance). A la sortie de ce module, le signal de parole est transformé en une séquence de vecteurs acoustiques, généralement composée d’un vecteur toutes les 10 ms. Idéa- lement, ce module devrait minimiser l’effet des sources non linguistiques seulement représentatives des caractéristiques de la source ou du pré-traitement. Etant donné que la plupart des méthodes d’analyse acoustiques ont déjà été discutées dans le Chapitre 3, seules les caractéristiques typiques à
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
46
2 intro_ASR_f
0
s des caractéristiques de la source ou du pré-traitement. Etant donné que la plupart des méthodes d’analyse acoustiques ont déjà été discutées dans le Chapitre 3, seules les caractéristiques typiques à la reconnaissance de la parole seront brièvement discutées dans la Section 7. 2. Classification locale et décodage lexical, comprenant: – Classification locale: A chaque instant n, estimation de distances ou probabilités locales, déterminant le coût d’une hypothèse locale (généralement au niveau des 10 ms). Il convient en effet d’associer à chaque vecteur acoustique, la sous-unité lexicale (typiquement le phonème, ou une unité plus petite que le phonème) à laquelle il appartient. Une meilleure solution consiste à garder toutes les hypo- thèses avec leurs distances ou probabilités associées et à intégrer ces hypothèses dans le temps comme brièvement expliqué ci-dessous. Cette classification est réalisée sur base de modèles représentant les différentes sous-unités lexicales,
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
46
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 38 n eu n z i g t au s en d Fig. 6 – Exemple de spectrogramme résultant de l’analyse acoustique. Chaque tranche acoustique de 10 ms résulte d’une analyse spectrale sur une fenêtre de 30 ms sur laquelle on a préalablement appliqué une fenêtre de Hamming. Ces tranches sont envoyées séquen- tiellement vers un module de classification locale dont les scores résultant seront ensuite intégrés dans le temps pour effectuer le décodage lexical. chaque sous-unité lexicale correspondant à une classe élémentaire ωk. – Le problème n’est cependant pas de reconnaître des sous-unités lexicales mais bien des mots ou des phrases entières. Comme il est pratiquement irréalisable d’utiliser un modèle pour chaque phrase possible, les modèles de phrases seront constitués par concaténation de modèles de sous-unités lexicales. Par consé- quent, à chaque instant n, de nouvelles hypothèses de mots et de phrases sont générées, sur base des distances ou probabilités locales observées ainsi que des hypothèses précédentes, en utilisant des contraintes de plus hauts niveaux telles que: (a) Les contraintes lexicales (décodage lexical), utilisant un dictionnaire nous donnant la transcription de chaque mot du vocabulaire en terme des classes élémentaires (par exemple, transcription phonétique) utilisées au niveau local. (b) Les contraintes syntaxiques (décodage syntaxique), utilisant une grammaire nous donnant les contraintes sur les séquences de mots valides. Contrairement à ce qui est représenté de façon schématique à la Figure 5, ces contraintes de plus haut niveaux ne sont pas nécessairement utilisées séquen- tiellement. En général, elles seront appliquées simultanément lors du décodage. Cependant, dans le cas de grammaires complexes, ceci n’est alors plus possible et les contraintes syntaxiques sont appliquées dans une phase ultérieure. – Evaluation des nouvelles hypothèses de mots ou de phrases, éventuellement suivie d’une sélection des hypothèses les plus prometteuses qui seront é
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
47
2 intro_ASR_f
0
taxiques sont appliquées dans une phase ultérieure. – Evaluation des nouvelles hypothèses de mots ou de phrases, éventuellement suivie d’une sélection des hypothèses les plus prometteuses qui seront étendues. Dans ce module, les coûts locaux associés aux sous-unités élémentaires (phonèmes)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
47
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 39 sont donc calculés et intégrés dans des coûts globaux correspondant à des séquences d’unités linguistiques élémentaires (par exemple un mot ou une séquence de mots). Comme discuté par la suite, cette intégration temporelle peut se faire soit par algo- rithme DTW (Section 8) soit par modèles HMM (Section 9). Pour les systèmes basés sur des modèles de phonèmes, l’introduction de contraintes et variantes phonologiques sera discutée dans la Section 14.2. 3. Modèle de langage: Ce module a pour but de containdre le système de reconnaissance à générer des phrases syntaxiquement (et, eventuellement, sémantiquement) correctes. Dans sa forme la plus simple, ce module génére des contraintes sur le processus de recherche décrit précédemment. En particulier, étant donné une hypothèse de séquence de mots possible à l’instant n, ce module nous donnera une liste de mots successeurs possibles, chaque possibilité étant éventuellement associée à une probabilité. Des grammaires plus complexes incluant par exemple la signification sémantique des mots ont égale- ment été développées, mais des méthodes statistiques plus simples ont généralement été utilisées et seront discutées dans la Section 14.3. Une autre solution parfois utilisée consiste à d’abord faire la reconnaissance en utilisant une grammaire stochastique simple et à générer un emsemble de phrases possibles ou un treillis de mots. Ces différentes solutions sont alors réévaluées en tenant compte de grammaires plus com- plexes. Il est cependant évident que le langage (surtout le langage parlé) a une structure très complexe et que très peu de cette structure est vraiment prise en compte dans les systèmes de reconnaissance actuels. On peut donc espérer que beaucoup de progrès dans ce domaine seront réalisés dans le futur. Les relations entre les modèles acous- tiques et le modèle de langage sont également mal comprises. Comme nous le verrons, il est souvent supposé que les paramètres de ces deux modèles sont indépendants (ce qui est certainement faux). L’introduction de contraintes syntaxiques dans les systèmes modernes de reconnais- sance de parole continue sera
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
48
2 intro_ASR_f
0
souvent supposé que les paramètres de ces deux modèles sont indépendants (ce qui est certainement faux). L’introduction de contraintes syntaxiques dans les systèmes modernes de reconnais- sance de parole continue sera discutée plus en détail dans la Section 14.3. Les systèmes de reconnaissance de la parole sont actuellement entraînés en deux phases. La première phase utilise seulement les vecteurs acoustiques (c’est-à-dire la connaissance de ce qui à été prononcé) pour définir les modèles acoustiques. Dans le cas de systèmes de reconnaissance de parole continue, ces modèles acoustiques seront utilisés conjointement avec un modèle de langage qui aura été entraîné indépendamment sur un large ensemble de séquences de mots, sans l’acoustique, généralement obtenu à partir de grands ensembles de textes écrits. Malheureusement, alors que cette approche permet d’accéder à un large ensemble d’entraînement, il y a des différences importantes entre le langage écrit et le langage parlé qui seront difficilement prises en compte par ce modèle. Dans les cas simples, cette seconde phase peut également être remplacée par des contraintes syntaxiques obtenues à partir de connaissances a priori. Dans les premiers systèmes de reconnaissance de la parole, les modèles acoustiques représentaient souvent des mots (voir même des phrases) entiers. Dans les systèmes plus modernes, les modèles acoustiques sont typiquement basés sur des unités acoustiques plus petites que le mot, typiquement le phonème. Dans les modèles (souvent statistiques) les plus sophistiqués, ces unités phonétiques sont souvent décomposées en fonction de leur
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
48
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 40 contexte acoustique. Les mots sont alors représentés sous formes de séquences de phonèmes (contraintes par des règles phonologiques) et les phrases sous formes de séquences de mots (éventuellement contraintes par des règles syntaxiques). Pendant la reconnaissance, ces modèles acoustiques sont utilisés conjointement avec le modèle de langage éventuel pour estimer la séquence de mots la plus probable. Ces concepts sont développés de façon plus rigoureuse par la suite. 7 Caractérisation du Signal de Parole De façon générale, l’extraction de caractéristiques consiste à réduire l’information ini- tialement présente dans le signal de parole et à le transformer en une séquence de vecteurs acoustiques robustes aux variations acoustiques (comme discuté dans la Section 1.1) tout en restant représentatifs du contenu lexical, c’est-à-dire des phonèmes et des mots qui sont prononcés. La plupart des systèmes de reconnaissance de la parole utilise une analyse spectrale obtenue par transformée de Fourrier discrète (DFT) ou par codage à prédiction linéaire (LPC). Ces paramètres sont typiquement calculés environ toutes les 10 ms à partir d’un segment de 20-30 ms de parole supposé stationnaire et sur lequel on a appliqué une fenêtre de Hamming. Ces tranches acoustiques sont appelées “trames”. En général, les fenêtres d’analyse successives se superposent de façon à en améliorer les propriétés de “régularité” (smoothness, en anglais), résultant généralement en un vecteur acoustique toutes les 10 ms. Plus récemment, il a été montré que l’utilisation des propriétés dynamiques de la séquence de ces vecteurs spectraux à court-terme améliorait de façon significative les performances des systèmes. Cette modélisation est souvent obtenue en étendant les vecteurs acoustiques à leurs dérivées (temporelles) premières et secondes [33]. Ces paramètres sont souvent appelés coefficients delta et peuvent être estimés selon: 23 ∆xn = 1 P+c k=−c k2 c X k
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
49
2 intro_ASR_f
0
elles) premières et secondes [33]. Ces paramètres sont souvent appelés coefficients delta et peuvent être estimés selon: 23 ∆xn = 1 P+c k=−c k2 c X k=−c kxn+c où xn représente un paramètre acoustique particulier à l’instant n. A ces vecteurs sont éga- lement souvent ajoutés les paramètres d’énergie absolue (log-énergie et delta log-énergie) ou, mieux, d’énergie relative (delta log-énergie et delta-delta log-énergie). Les méthodes générales de traitement du signal de parole ont déjà été discutées dans le Chapitre 3. Beaucoup de travaux importants ont cependant été accomplis pour rendre ces paramètres plus robustes aux variations acoustiques, mais leur discussion détaillée sortirait largement du cadre de ce livre. Dans la suite, nous ne mentionnerons que brièvement certaines des approches les plus utilisées. Parmi les paramètres les plus couramment adoptés pour l’analyse acoustique, nous citons ici les cepstres et les paramètres PLP. L’analyse cepstrale est définie comme la transformée de Fourier du spectre logarithmique, et éventuellement calculés à partir d’un spectre non uniforme et espacé selon l’échelle “mel” (ou “bark”) correspondant aux “bandes critiques” du système auditif [25] (vecteurs mel-cepstraux). La motivation de cette représentation “mel” est de tenir compte de certaines propriétés de l’oreille humaine qui 23. Cette solution est obtenue en calculant la pente de la droite minimisant un critère de moindres carrés exprimant la somme des distances entre la droite et les 2c + 1 points considérés.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
49
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 41 traite (et probablement perçoit) les sons selon une échelle de fréquence non uniforme. Les paramètres PLP (Perceptual Linear Prediction) [39] sont calculés à partir d’un spectre représentant le contenu fréquentiel du signal suivant l’échelle des Bark (correspondant à l’échelle des bandes critiques du système auditif humain) et qui est ensuite lissé par un modèle autorégressif. Pour rendre ces paramètres plus robustes aux variations linéaires de la fonction de transfert et aux variations spectrales à long-terme, il a été montré que des techniques de normalisation spectrale relativement simples pouvaient être assez efficaces. Ces techniques sont généralement appelées “égalisation spectrale”, “égalisation aveugle” ou encore “décon- volution aveugle” et sont relativement efficaces si la phrase à reconnaître est suffisamment longue. Dans le cas des vecteurs cepstraux, ceci revient simplement à soustraire de chaque vecteur acoustique la moyenne de ces vecteurs calculée sur toute la phrase (ou calculée de façon adaptative). Cette méthode, appelée soustraction cepstrale, compense relative- ment bien les variations additives dans le domaine log-spectral (donc multiplicatives dans le domaine spectral). De même dans le cas des paramètres PLP, il a été montré qu’une méthode, appelée “RASTA-PLP” [40, 41], consistant à appliquer un filtrage temporel dans le domaine log-spectral avant la modélisation autorégressive permettait aussi de réduire l’effet du bruit de convolution. Dans le cas de bruit additif (dans le domaine spectral), et en supposant que ce bruit est stationnaire, il est possible d’appliquer des méthodes de soustraction spectrale consistant à soustraire du spectre du signal bruité une estimation du spectre du bruit (obtenue en estimant le rapport signal/bruit dans chaque bande de fréquence). Malheureusement, dans la plupart des cas réels, le bruit n’est pas stationnaire et est constitué à la fois de bruit additif et de bruit de convolution. Parmi les autres techniques parfois utilisées pour l
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
50
2 intro_ASR_f
0
bande de fréquence). Malheureusement, dans la plupart des cas réels, le bruit n’est pas stationnaire et est constitué à la fois de bruit additif et de bruit de convolution. Parmi les autres techniques parfois utilisées pour l’extraction des vecteurs caractéris- tiques, nous pouvons encore citer: – Le modèle auditif – Certains chercheurs essaient de modéliser la complexité de l’oreille humaine qui a la propriété d’intégrer une bonne résolution spectrale et temporelle du signal. Plusieurs représentations plus ou moins complexes ont été proposées dont l’EIH (ensemble interval histogram, en anglais) [37] et des mesures de sychronie entre bandes de fréquences [100]. – Le modèle articulatoire – Alors que le modèle auditif trouve sa motivation dans la perception de la parole, le modèle articulatoire se base sur les propriétés du système de production de la parole. Il a en effet été montré que des paramètres articulatoires extraits de façon précise (par exemple, à partir d’images aux rayons X du système phonatoire) peuvent être utilisés pour reproduire de la parole synthétique de très haute qualité et que ces paramètres sont robustes à de larges variations du signal. En plus de leur robustesse, on pourrait aussi imaginer que ces paramètres pourraient aider un système de reconnaissance en y introduisant des contraintes réalistes basées sur les trajectoires possibles dans l’espace de ces paramètres. Jusqu’à présent, ces paramètres articulatoires ont été très peu utilisés dans les systèmes de reconnaissance étant donné que le problème majeur réside alors dans leur détermination automatique à partir du signal de parole, ce qui est un problème particulièrement complexe et non linéaire. Une tentative récente d’intégration de paramètres articulatoires multi- dimensionnels dans un système de reconnaissance moderne est décrite dans [27]. – Analyse discriminante – Pour améliorer la robustesse des paramètres acoustiques ex-
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
50
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 42 traits et minimiser le taux d’erreur on leur applique parfois une analyse discriminante linéaire. Dans ce cas, il est alors habituel de prendre une petite séquence de plusieurs de ces vecteurs (de façon à capturer le contexte acoustique) dont on réduit ensuite la dimension par analyse discriminante [78]. 8 Reconnaissance de la Parole par DTW 8.1 Introduction Dans les sections précédentes, nous avons établi les bases de la classification de formes statiques utiles à la reconnaissance de la parole: 1. Représentation du signal et extraction de caractéristiques (si possibles invariantes aux variabilités non lexicales du signal). 2. Définition des classes: dans la plupart des systèmes actuels, les différentes catégo- ries qui sont associées aux séquences de spectre à court terme sont les phonèmes ou des unités sous-phonétiques. Certains systèmes utilisent aussi parfois des classes arbitraires (en général sous-phonétiques) déterminées automatiquement par entraî- nement ou quantification vectorielle préalable. Une fois que ces choix ont été faits, on peut alors utiliser n’importe quelle technique décrite dans la Section 2 pour classer des segments de paroles. La classification de formes locales n’est cependant qu’une étape intermédiaire dans la reconnaissance d’une séquence complète. Le passage à la reconnaissance de la parole serait alors facile si la classification locale était toujours correcte, ce qui n’est pas le cas étant donné la variabilité spectrale importante. 24 Il est donc nécessaire d’introduire des contraintes de niveaux supérieurs pour lisser ces erreurs et extraire le contenu linguistique de la phrase. Finalement, le but ultime de la reconnaissance de la parole n’est pas de reconnaître les phonèmes présents dans la phrase mais bien de reconnaître la séquence de mots, en tenant compte des variations temporelles (par exemple, prononciations plus lentes ou plus rapides) et fréquentielles, ainsi que des variations de prononciations (par exemple, les liaisons en français). Finalement, pendant la reconnaissance (ainsi que souvent pendant l’entraînement), la segmentation phonétique n’est pas connue. Etant donné les erreurs de
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
51
2 intro_ASR_f
0
prononciations (par exemple, les liaisons en français). Finalement, pendant la reconnaissance (ainsi que souvent pendant l’entraînement), la segmentation phonétique n’est pas connue. Etant donné les erreurs de classification locale, il est souvent préférable de ne pas passer par une étape de segmentation explicite avant la reconnaissance. Une méthode comme décrite ci-dessous opérant la reconnaissance et la segmentation de façon globale et en une seule passe est maintenant presque toujours utilisée. Dans ce contexte, le problème de reconnaissance de la parole peut être considéré comme un cas particulier de reconnaissance de séquence X = (x1,x2,...xn,...xN) à laquelle on veut associer une seconde séquence Q = (q1,q2, . . . ,ql, . . . ,qL) de longeur L différente de N, où chaque qlreprésente une unité linguistique (ou quasi linguistique), et où la séquence Q est déterminée de façon à minimiser un certain critère d’erreur (dans notre cas, le taux d’erreur minimum au niveau des mots présents dans les phrases). Dans cette section, et pour des questions de simplicité, nous supposerons que la deuxième séquence Q correspond également à une séquence de vecteurs acoustiques qui sera utilisée 24. En fait, même si ceci était le cas, les variations de prononciations pourraient toujours générer des confusions entre mots.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
51
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 43 comme séquence de référence. Cette séquence de référence sera dénotée Y = {y1, . . . ,yj, . . . ,yJ}. Le problème traité dans cette section consiste alors à comparer une séquence d’entrée X à un ensemble de séquences de référence Y k (1 ≤k ≤K), où K représente le nombre de séquences de référence. Nous nous limiterons également au cas de méthodes “déterminis- tes” où des distances métriques standards (ou distance d’Itakura dans le cas de vecteurs LPC – voir Section 3.5.4) sont utilisées pour les comparaisons locales. Dans la section sui- vante, nous verrons ensuite que la méthode HMM n’est qu’une extension statistique de la méthode déterministe DTW discutée ici (et principale méthode de reconnaissance utilisée avant 1980). 8.2 Reconnaissance de mots isolés Commençons par considérer le cas le plus simple de reconnaissance de mots isolés par comparaison avec des exemples préalablement mémorisés. Supposons que le signal de parole soit reçu via une ligne téléphonique avec une fréquence d’échantillonnage de 8 kHz et un spectre allant jusqu’au environs de 3.4 kHz. Le signal subit d’abord un filtrage simple (avec un filtre à un seul zéro, appelé “pre-emphasis”, en anglais) de façon à enlever la composante continue éventuelle et de rendre la pente spectrale pour les sonds voisés plus plate. Toutes les 10 ms, on applique alors une fenêtre de Hamming de 25-30 ms sur laquelle on calcule 10 coefficients cepstraux (ou mel-cepstraux) comme expliqué dans le Chapitre 3. Ces coefficients cepstraux sont alors généralement pondérés en fonction de leur indice (excepté pour la première composante c0 représentant surtout l’énergie du signal et que nous ignorerons ici pour des questions de simplicité). En principe, cette pondération (appelée “liftering”, en anglais) a pour but d’égaliser la variance des différente composantes [86]. Evidemment, une autre solution consisterait à pondérer
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
52
2 intro_ASR_f
0
En principe, cette pondération (appelée “liftering”, en anglais) a pour but d’égaliser la variance des différente composantes [86]. Evidemment, une autre solution consisterait à pondérer chacune des composantes en fonction de la variance de celle-ci calculée sur plusieurs phrases. Suite à cette extraction de caractéristiques acoustiques, et comme illustré à la Fi- gure 7, un “gabarit” de mot (“template”, en anglais) sera représenté par une séquence X = {x1,x2, . . . ,xN} de N vecteurs cepstraux xn = {xn1,xn2, . . . ,xnd} (par exemple de dimension d = 10), où N représente le nombre de tranches de 10 ms. Par exemple, la lon- gueur moyenne d’un mot comme “zéro” est de 500 ms, et sera donc représenté, en moyenne, par un séquence de 50 vecteurs cepstraux. Dans les approches “déterministes”, l’entraînement se résume souvent au calcul et sto- ckage de gabarits de référence Y k = {yk 1, . . . ,yk j , . . . ,yk J(k)}, k = 1, . . . ,K avec une ou plusieurs références k (une ou plusieurs prononciations) pour chaque mot du lexique, J(k) correspondant à la longueur (nombre de vecteurs acoustiques) de la k- ième référence. La reconnaissance consiste alors à identifier une nouvelle prononciation X = {x1, . . . ,xn, . . . ,xN} d’un des mots du lexique en recherchant le gabarit de référence pour lequel la “distance” est minimale. Evidemment, étant donné que les séquences au- ront généralement des longueurs différentes [c’est-à-dire que N <unk>= J(k)], le calcul de cette distance devra faire intervenir une normalisation temporelle. Pour pouvoir calculer la distance “globale” (aussi appelée “distorsion”) entre deux sé-
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
52
2 intro_ASR_f
0
dire que N <unk>= J(k)], le calcul de cette distance devra faire intervenir une normalisation temporelle. Pour pouvoir calculer la distance “globale” (aussi appelée “distorsion”) entre deux sé- quences de vecteurs acoustiques (avec déformation temporelle et fréquencielle), il faut com-
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
52
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 44 x N d x N x N x N x x x n x d x d x nd x n x x x x x n Fig. 7 – Exemple de “gabarit” de mot (“template”, en anglais) utilisé comme forme de référence et représenté par une séquence X = {x1,x2, . . . ,xN} de N vecteurs acoustiques (cepstraux) xn = {xn1,xn2, . . . ,xnd}, N étant le nombre de tranches de 10 ms dans l’exemple de référence. mencer par définir la notion de distance “locale” entre deux vecteurs acoustiques. Les dis- tances locales les plus souvent utilisées sont: – La distance euclidienne: d(xn,yk j ) =∥xn −yk j ∥2= v u u t d X i=1 (xni −yk ji)2 (57) – La distance de Mahalanobis [67]: d(xn,yk j ) = (xn −yk j )T Σ−1(xn −yk j ) (58) correspondant au cas du classificateur gaussien [logarithme de la fonction gaus- sienne (8)], et où on a supposé que toutes les classes ont la même matrice de co- variance Σ. Cette distance est aussi parfois appelée “distance euclidienne pondérée”. – La distance d’Itakura, dans le cas de vecteurs LPC (voir Section 3.5.4). 8.2.1 Déformation temporelle linéaire Evidemment, si les deux séquences X (entrée) et Y k (référence) ont la même longueur N, il est facile de définir la distance globale comme la somme des distances locales: D(X,Y k) = N X n=1 d(xn,yk n) (59) En pratique, les deux séquences auront cependant toujours des longueurs différentes et cette comparaison tranche par tranche n’est pas possible. La solution la plus simple (comme souvent utilisée dans les années 1960-70) consiste alors à faire une normalisation linéaire de
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
53
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 45 l’axe du temps. Comme illustré à la Figure 8, cette solution consiste simplement à associer plusieurs vecteurs de référence à un seul vecteur d’entrée (ou inversement, selon la séquence la plus longue). Y X x x N x y k J (k ) y k j y k y k Fig. 8 – Déformation temporelle linéaire: l’axe des X représente un mot test, et l’axe des Y la k-ième référence. Malheureusement, ceci n’est certainement pas la solution optimale. Même si les deux prononciations avaient la même longueur, il est probable que la meilleure solution ne consiste pas simplement à additionner les distances entre tranches. En effet, il est pos- sible que certaines parties (phonèmes) du mot test aient été prononcées plus rapidement que pour le mot de référence, alors que d’autres sections ont été prononcées plus lentement. Comme expliqué ci-dessous, il est donc préférable de rechercher la déformation temporelle optimale permettant de comparer deux prononciations. 8.2.2 Déformation temporelle dynamique (DTW) Comme discuté précédemment, nous désirons donc avoir un algorithme qui permette de tenir compte des compressions et extensions temporelles qui sont observées lors de la prononciation plus ou moins rapide de mots et de phrases. Vintsyuk [109] a probablement été le premier à proposer une solution à ce problème, en utilisant le principe de programma- tion dynamique présenté dans la Section 3. Cependant, cette idée originale ne fut vraiment adoptée que vers le milieu des années 1970. L’algorithme de programmation dynamique présenté dans la Section 3 peut en effet fa- cilement s’appliquer au problème de la comparaison de deux séquences temporelles et, par conséquent, à la reconnaissance de la parole. Dans ce dernier cas, cette forme particulière de programmation dynamique est généralement appelée déformation temporelle dyna- mique (DTW) (Dynamic Time Warping, en anglais). Pour ce faire, il suffit de considérer pour chaque référence Y k une matrice D de dimension (N × J(k)) (où N et J(k) sont respectivement le nombre de vecteurs dans la séquence de test et de référence). A chaque entrée
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
54
2 intro_ASR_f
0
chaque référence Y k une matrice D de dimension (N × J(k)) (où N et J(k) sont respectivement le nombre de vecteurs dans la séquence de test et de référence). A chaque entrée (n,j) de cette matrice on y associe la distance locale d(xn,yk j ) comme définie par (57). Pour rechercher la meilleure distance D(X,Y k) entre la séquence de test X et la séquence
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
54
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 46 de référence Y k, il suffit alors de recherche le “chemin” dans cette matrice D de façon à minimiser la somme des distances locales rencontrées pour aller d’un point initial [généra- lement (1,1), correspondant au début des deux séquences] à un point final [généralement (N,J(k)), correspondant à la fin des deux séquences]. La mise en oeuvre de l’algorithme de programmation dynamique se fait alors de façon très simple, et on peut montrer que la distance optimale est obtenue en calculant, pour chaque entrée (n,j) la distance ac- cumulée D(n,j) correspondant à la distance optimale que l’on obtient en comparant les deux sous-séquences (sous-politiques) correspondant aux n premiers vecteurs de test et aux j premiers vecteurs de référence. En vertu du principe de programmation dynamique, on peut alors facilement montrer que cette distance peut se calculer en utilisant la récurrence suivante: D(n,j) = d(n,j) + min p(n,j) {D(p(n,j))} (60) dans laquelle p(n,j) est l’ensemble des prédécesseurs possibles de (n,j), définis de façon à obtenir une trajectoire monotone et “plausible”. La Figure 9 illustre quelques exemples de prédécesseurs qui ont été définis et testés (bien que le choix conduisant aux meilleurs taux de reconnaissance n’ait jamais été très clair). Pour une discussion plus détaillée des différentes possibilités, nous renvoyons le lecteur à [86]. En général, et dans le cas le plus simple, ceux-ci sont définis par p(n,j) = {(n −1,j),(n,j −1),(n −1,j −1)}, correspondant aux contraintes de type (c) dans la Figure 9. j j-1 j-2 (a) j j-1 j-2 (b) j j-1 (c) n-1 n-2 n n-1 n n-1 n Fig. 9 – Exemples de contraintes locales types pour la programmation dynamique: n est l’indice temporel de la fenêtre d’
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
55
2 intro_ASR_f
0
) j j-1 (c) n-1 n-2 n n-1 n n-1 n Fig. 9 – Exemples de contraintes locales types pour la programmation dynamique: n est l’indice temporel de la fenêtre d’entrée courante, et j l’indice de la fenêtre de référence. Comme illustré à la Figure 10, l’application de la récurrence (60) nous définit le chemin optimal (déformation non linéaire optimale) comparant une séquence d’entrée X à une référence Y k et correspondant à la distance accumulée D(N,J(k)) minimale. 25 Dans le cas de la reconnaissance de mots isolés, on opère cette programmation dynamique pour tous les mots de références Y k (k = 1, . . . ,K), et le mot reconnu est alors associé à la référence Y k′ correspondant au minimum de distance accumulée D(N,J(k′) ≤D(N,J(k), ∀k <unk>= k′. Cet algorithme est généralement appliquable à des cas très généraux (pour autant que le point de départ soit distinct du point d’arrivée, auquel cas le problème devient NP-complet, 25. Dans le cas de la comparaison de séquences de symboles discrets et où les distances locales sont simplement égales à 1 ou 0, cette distance accumulée s’appelle aussi distance d’édition (ou distance de Levenshtein) et représente le nombre nimimum de changements nécessaires pour tranformer une séquence en une autre. Typiquement, cet algorithme est utilisé pour calculer le taux d’erreur lors de la reconnaissance de parole continue.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
55
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 47 j 1 1 n N Y k X J (k ) Fig. 10 – Comparaison DTW de la séquence d’entrée X et de la séquence de référence Y k. En chaque point (n,j) est associé une distance locale d(n,j) et une distance accumulée D(n,j) = d(n,j)+min {D(n −1,j),D(n,j −1),D(n −1,j −1)} (dans le cas des contraintes de type (c) dand la Figure 9). comme par exemple dans le cas du problème dit “du voyageur de commerce”). Dans le cas de la reconnaissance de la parole, et étant donné les caractéristiques physiques associées, ce problème d’optimisation est souvent accompagné de contraintes supplémentaires telles que: – Certaines contraintes de “monotonicité” du chemin, typiquement partant de la co- ordonnée (1,1) correspondant au début des deux mots, et se terminant en (N,J(k)) correspondant à la fin des deux mots. – Contraintes globales: Par exemple, certaines contraintes permettant de réduire l’es- pace de recherche (en imposant que le chemin optimal reste dans une zone déterminée, proche de la diagonale), comme illustré à la Figure 11. – Contraintes locales: Les prédécesseurs p(n,j) sont limités à quelques éléments proches et garantissant un chemin strictement gauche-droite, comme les quelques exemples illustrés à la Figure 9. – Certaines pénalités éventuelles, de façon à pondérer différemment les chemins pos- sibles et favoriser les chemins les plus probables (par exemple, proches de la diago- nale). L’introduction de telles pénalités dans (60) conduit alors à la récurrence: D(n,j) = min p(n,j) {D(p(n,j)) + d(n,j) t(p(n,j),(n,j))} (61) où t(p(n,j),(n,j)) représente le facteur de pondération de la distance locale associé à la
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
56
2 intro_ASR_f
0
j) t(p(n,j),(n,j))} (61) où t(p(n,j),(n,j)) représente le facteur de pondération de la distance locale associé à la transition de p(n,j) à (n,j). Pour une discussion détaillée des différentes pondérations possibles, nous renvoyons le lecteur à [86].
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
56
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 48 recherche zone de y k y k J (k ) X Y k x n x N x Fig. 11 – Un exemple type de contrainte temporelle (contrainte sur la déformation maxi- male) du chemin de DTW. Dans certains cas, cette pénalité de transition (voir modèles HMM) pourra être ad- ditive, auquel cas nous aurons: D(n,j) = d(n,j) + min p(n,j) {D(p(n,j)) + t(p(n,j),(n,j))} (62) D(n-1,j) d(n-1,j) D(n-1,j-1) d(n-1,j-1) D(n,j-1) d(n,j-1) D(n,j) d(n,j) n j Fig. 12 – Illustration de la récurrence DTW où chaque point (n,j) est asso- cié à une distance locale d(n,j) et une distance accumulée D(n,j) = d(n,j) + min [D(n −1,j),D(n,j −1),D(n −1,j −1)], dans le cas (c) de la Figure 9. Dans le cas de la reconnaissance de la parole, et selon les contraintes temporelles impo- sées au chemin, les étapes de cet algorithme de programmation dynamique sont illustrées à la Figure 12 et peuvent être appliquées de façon séquentielle (strictement gauche-droite)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
57
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 49 comme suit: 1. Calculer les distances locales pour tous les éléments de la 1ère colonne de D (c’est- à-dire les distances entre le 1er vecteur de test et tous les vecteurs de référence). 2. Si la transition verticale est acceptée, calculer les distances accumulées correspondant à la 1ère colonne. Si la transition verticale n’est pas autorisée, les distances accumulées dans la première colonne sont mises à l’infini, sauf pour j = 1 où la distance accumulée est égale à la distance locale. 3. Passer à la colonne suivante, calculer les distances locales et ensuite, par (60), calculer les distances accumulées associées. Itérer sur les colonnes. 4. Il est clair qu’après chaque itération il n’est nécessaire de garder en mémoire que la dernière colonne de distances accumulées. Cet algorithme de reconnaissance par programmation dynamique (qui sera également à la base de l’approche HMM discutée dans la Section 9) a été beaucoup étudié dans les années 1970 et a été l’objet de nombreuses variantes que nous ne pouvons pas discuter ici. Jusqu’a présent, nous avons supposé que chaque mot de vocabulaire était représenté par une seule prononciation de ce mot. Il est cependant clair que les performances du système seront améliorées si on associe à chaque mot de vocabulaire plusieurs prononciations de celui-ci de façon à mieux en saisir les variations éventuelles. La solution la plus simple consiste alors à sauver plusieurs références par mot de vocabulaire et de faire plusieurs comparaisons DTW. Bien que cette solution puisse être suffisante dans le cas de reconnaissance mono-locuteur, elle devient très vite impraticable dans le cas de systèmes multi-locuteurs. Des algorithmes de quantification ont alors souvent été utilisés de façon à extraire, à partir de plusieurs prononciations d’un même mot, la prononciation la plus représentative. Ces algorithmes sont alors souvent basés sur les méthodes discutées dans le Chapitre 4 dans lesquelles la distance entre deux mots est définie en termes de distance globale DTW. 8.2.3 Normalisation En plus des problèmes qui seront discutés par la suite, nous mentionnon
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
58
2 intro_ASR_f
0
les méthodes discutées dans le Chapitre 4 dans lesquelles la distance entre deux mots est définie en termes de distance globale DTW. 8.2.3 Normalisation En plus des problèmes qui seront discutés par la suite, nous mentionnons ici un pro- blème potentiel de l’approche DTW. En fonction du choix de prédécesseurs possibles, comme représentés dans la Figure 9, il est possible que les chemins à travers différentes références aient des longueurs différentes, rendant ainsi la comparaison des scores difficiles. Ceci peut se résoudre de différentes façons telles que: pénalisation de certaines transitions, normalisation des scores en fonction de la longueur des chemins, ou encore en interdisant les transitions verticales. 8.3 Distances En reconnaissance de formes, il est bien connu que le choix de la mesure de distance peut influencer fortement les résultats de classification. Par exemple, l’utilisation d’une dis- tance euclidienne n’est vraiment appropriée que si chaque composante a environ le même ordre de grandeur. Il en est de même pour la reconnaissance de la parole par DTW utilisant des distances locales pour calculer une distance globale entre deux séquences. Les compo- santes des vecteurs acoustiques utilisés (par exemple, des vecteurs cepstraux) ont souvent des ordres de grandeur différents. C’est pourquoi il est souvent préférable de les pondérer de façon à ce qu’elles aient environ le même ordre de grandeur. Dans le cas de vecteurs
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
58
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 50 cepstraux, une solution brièvement mentionnée au début de la Section 8.2 consiste à pon- dérer en fonction de leur indice. D’un point de vue statistique, et en supposant que chaque composante est distribuée selon une gaussienne, on peut également diviser chaque compo- sante par une estimation de sa variance. Cependant, aucune de ces approches ne conduit nécessairement à la classification optimale étant donné qu’elles ne tiennent pas compte de l’importance de chaque composante pour la classification. L’analyse discriminante (linéaire ou non) [31] peut apporter une solution partielle à ce problème, bien que même dans ce dernier cas on fait toujours une hypothèse implicite concernant la distribution des vecteurs acoustiques. Finalement, il n’est pas évident que même une bonne distance locale (avec discrimination locale optimale) ne conduise à la solution otpimale au niveau du mot ou de la phrase. Certains chercheurs développent également des mesures de distance ayant pour but de modéliser certaines propriétés perceptuelles de l’oreille humaine, ce qui a notamment conduit à la définition de certaines caractéristiques acoustiques que nous avons déjà men- tionnées dans la Section 7, par exemple les vecteurs mel-cepstrum ou les vecteurs PLP. Il est cependant clair que lorsque l’on définit de nouvelles caractéristiques acoustiques on voudrait pouvoir adapter la mesure de distance automatiquement. Dans ce contexte, et comme nous le verrons avec les modèles HMM, il est préférable d’utiliser des mesures de distance statistiques dont les paramètres (par exemple, la moyenne et la variance dans le cas de distributions gaussiennes) peuvent être entraînés automatiquement de façon à garantir les performances optimales du système. 8.4 Détection de début et fin de mot Comme nous le verrons dans la section suivante, il est possible d’utiliser le même type d’algorithme DTW pour faire la reconnaissance de mots enchaînés et de parole continue. Il reste cependant plus facile de reconnaître des mots isolés que des mots enchaînés. Ceci explique la raison pour laquelle la plupart des produits commerciaux d’aujourd’hui (tels que machines à dicter) requiert une légère pause entre chaque mot. Il est donc nécessaire de
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
59
2 intro_ASR_f
0
lés que des mots enchaînés. Ceci explique la raison pour laquelle la plupart des produits commerciaux d’aujourd’hui (tels que machines à dicter) requiert une légère pause entre chaque mot. Il est donc nécessaire de pouvoir détecter automatiquement le début et la fin de chaque mot. Evidemment, une approche alternative consiste à considérer le silence comme un mot particulier et d’utiliser un algorithme de reconnaissance de mots enchaînés pour extraire la séquence de mots et de silences. Malheureusement, il a été observé que ce type d’approche diminue souvent les performances du système. En effet, le problème de discrimination entre parole et silence n’est pas aussi évident qu’il n’y parait et les algorithmes généralement utilisés pour la reconnaissance (et, par exemple, n’utilisant pas l’information d’énergie) ne sont pas nécessairement optimaux pour ce type de tâche. Lors de la reconnaissance, il est donc surprenant de constater que le silence peut facilement être confondu avec de la parole. Finalement, dans le cas de l’approche DTW, il est nécessaire de sauver comme références des exemples de mots isolés, si possible débarassés du silence qui précéde et qui suit chaque prononciation du mot. Etant donné ces problèmes, plusieurs algorithmes de détection de début et fin de mots, travaillant souvent directement au niveau du signal acoustique (avant analyse spectrale), ont été développés. Evidemment, dans les conditions réelles de parole continue, ce type d’approche n’est souvent plus utilisables étant donné qu’il n’est plus imposé d’avoir une pause entre chaque mot. Ceci est un autre avantage des modèles de Markov cachés qui seront discutés plus
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
59
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 51 tard, étant donné qu’ils permettent l’extraction automatique des modèles de mots (ou d’unités plus petites) à partir de phrases et de mots qui n’ont pas été explicitement isolés. 8.5 Reconnaissance de mots enchaînés Que ce passe-t-il lorsque nous essayons de passer de la reconnaissance de mots isolés à la reconnaissance de parole continue, sans silence obligatoire entre les mots? Evidem- ment, la prononciation de chaque mot peut être fortement altérée par le phénomène de co-articulation entre les mots. Même sans tenir compte de ce phénomène, il y a des dif- férences pratiques importantes par rapport au cas de mots isolés. En principe, il faudrait comparer la séquence d’entrée à toutes les références possibles correspondant à toutes les phrases possibles. Il est cependant clair qu’en général le nombre de ces combinaisons est beaucoup trop élévé (souvent infini, sauf dans certains cas de syntaxe très limitée), résultant en un besoin en place mémoire et en temps de calcul prohibitif. Par conséquent, en plus de la normalisation temporelle DTW utilisée pour la recon- naissance de mots isolés, la reconnaissance de mots enchaînés requiert la segmentation (automatique) de la séquence de mots. Pour ce faire, un algorithme de programmation dynamique, semblable a celui utilisé pour la reconnaissance de mots isolés mais plus com- plexe, peut être mis en oeuvre. Vintsyuk [109] a sans doute aussi été le premier à proposer une solution à ce problème. Plusieurs variantes de programmation dynamique (chacune avec leurs propres avantages et inconvénients) ont ensuite été proposées avant d’aboutir à la solution communément adoptée aujourd’hui. Parmi celles-ci nous mentionnerons: – L’algorithme de programmation dynamique à deux niveaux (two-level dynamic pro- gramming), développé par Sakoe et Chiba [97], qui recherche d’abord les segmenta- tions optimales en mots avant d’en faire la reconnaissance. – L’algorithme à construction de niveaux (level building) proposé par Rabiner [86]: Dans ce cas, la reconnaissance se fait en plusieurs passes successives, la K-
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
60
2 intro_ASR_f
0
mots avant d’en faire la reconnaissance. – L’algorithme à construction de niveaux (level building) proposé par Rabiner [86]: Dans ce cas, la reconnaissance se fait en plusieurs passes successives, la K-ième passe trouvant, à partir des résultats de la passe K −1 la meilleure séquence de K mots associée à la phrase. L’algorithme s’arrête au nombre de passes correspondant au minimum de distance accumulée (et donc également au nombre de mots dans la phrase). – L’algorithme de programmation dynamique en une passe (one-pass dynamic time warping), initialement proposé par Vintsyuk [109] et Bridle [17], et décrit en détail dans [76], est beaucoup plus simple, moins complexe et strictement “gauche-droite”. Une description de ces différentes techniques est présentée dans [86]. L’algorithme de DP en une passe est cependant l’approche communément adoptée dans les systèmes de reconnaissance actuels, et est aussi à la base du décodage Viterbi utilisé les systèmes HMM. C’est donc cet algorithme que nous décrivons brièvement ici. L’algorithme de programmation dynamique en une passe appliqué à la reconnaissance de mots enchaînés est très semblable à l’algorithme DTW pour les mots isolés. On peut également montrer facilement qu’il conduit (avec une complexité simplement linéaire en fonction de la longueur de la phrase et du nombre de mots de vocabulaire) à la même solution que les algorithmes à deux niveaux ou à construction de niveaux. Conceptuellement, et comme pour la reconnaissance de mots isolés, le DTW pour mots enchaînés commence par construire une grande matrice de distances locales entre tous les vecteurs constituant les mots de references et tous les vecteurs de la phrase test. En
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
60
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 52 d’autres mots, si on dénote par Y k = {yk 1,yk 2, . . . ,yk J(k)}, k = 1, . . . ,K la séquence de vecteurs acoustiques correspondant au k-ième mot de référence, avec J(k) étant la longueur de cette référence, et xn (n = 1, . . . ,N) la séquence de vecteurs acous- tiques constituant la phrase à reconnaître, nous commencons par calculer d(n,j,k) = d(xn,yk j ), ∀i = 1, . . . ,I, ∀k = 1, . . . ,K, and ∀j = 1, . . . ,Nk la distance locale entre le n-ième vecteur de la séquence d’entrée et le j-ième vecteur de la référence k. Comme pour les mots isolés, on fait alors la programmation dynamique à travers toute la matrice, de gauche à droite, sous les conditions suivantes: 1. A l’instant n = 1, le chemin peut partir de n’importe quel début de mot, donc de n’importe quelle coordonnée (1,1,k), pour tous les mots k possibles (ou pouvant commencer une phrase, dans le cas de contraintes syntaxiques). 2. A tout instant n, l’ensemble des successeurs possibles associés au début de chaque mot (n,1,k) contient également la coordonnée (n −1,J(k′),k′) correspondant au dernier indice de tous les mots k′ pouvant précéder k (par exemple, comme donné par des contraintes grammaticales). 3. A l’intérieur des références, les prédécesseurs possibles sont habituellement identiques à ceux utilisés dans le cas de mots isolés (Figure 9). De façon plus formelle, les récurrences de programmation dynamique s’écrivent donc: D(n,j,k) = d(n,j,k) + min p(n,j,k) {D(p(n,j,k))} (63) où
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
61
2 intro_ASR_f
0
dynamique s’écrivent donc: D(n,j,k) = d(n,j,k) + min p(n,j,k) {D(p(n,j,k))} (63) où D(n,j,k) représente la distance accumulée à l’instant n pour le j-ième vecteur de la k-ième référence. Comme dans le cas de mots isolés, on ajoutera éventuellement à cette récurrence une pénalité (multiplicative ou additive) t(p(n,j,k),(n,j,k)) pour aller du point p(n,j,k) au point (n,j,k). Bien que plusieurs variantes soient possibles, l’ensemble des prédécesseurs possibles (et comme représenté à la Figure 13) est généralement défini comme suit: p(n,j,k) = {(n −1,j,k),(n,j −1,k),(n −1,j −1,k)}, pour j = 2, . . . ,J(k) = {(n −1,j,k),(n −1,J(k′),k′)}, si j = 1 Comme représenté à la Figure 14, cette programmation dynamique conduit donc à un chemin avec des discontinuités au passage d’un mot de référence à l’autre. En fin de phrase, on peut alors partir de la fin du mot de référence correspondant à la meilleure distance accumulée et en remontant le chemin optimal (“backtracking”, en anglais) retrou- ver la séquence de mots de référence correspondant au chemin optimal. En principe, ce “backtracking” pourrait simplement être réalisé en utilisant une seconde matrice intermé- diaire, de même dimension que la matrice de programmation dynamique, et dans laquelle on mémorise en chaque entrée (n,j,k) un pointeur vers le prédécesseur optimal p(n,j,k) correspondant au minimum de (63). Cette approche simplifiée conduit cependant à un gaspillage de place mémoire (surtout pour les grands vocabulaires) et à une perte de temps. Ceci peut être évité en utilisant
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
61
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 53 , k J (k 0 ) ; k 0 j j - j - (a) (b) n - n - n n Fig. 13 – Contraintes locales lors de la DTW pour les mots enchaînés: (a) à l’intérieur d’un mot et (b) à la frontière de deux mots. X J K k 00 k 0 J (K ) J (k 00 ) J (k 0 ) J () x x n x N Fig. 14 – Exemple de chemin DTW dans le cas de mots enchaînés. Dans cet exemple, la phrase prononcée contenait la séquence de mots k′ −K −1 −K −k′′. le fait que l’on ne doit pas mémoriser tous les détails du chemin optimal pour faire la reconnaissance, mais simplement les transitions entre mots. Il est alors possible [76] de remplacer la grande matrice de pointeurs par deux vecteurs de dimension N (la longueur de la phrase): – T = (T(1), . . . T(n), . . . ,T(N)) où T(n) représente le dernier mot associé au chemin (partiel) optimal à l’instant n, c’est-à-dire le mot k pour lequel la distance accumulée D(n,J(k),k) est minimale. – F = (F(1), . . . F(n), . . . ,F(N)) mémorisant l’instant n∗d’où le chemin se terminant à la fin du meilleur mot T(n) est parti. Le calcul de ce vecteur F(n) nécessite éga- lement l’utilisation d’un vecteur B de dimension égale à la hauteur de la matrice de programmation dynamique (correspondant à l’ensemble des mots de référence). La séquence de mots reconnus correspondant au chemin de progammation dynamique
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
62
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 54 optimal peut alors se retrouver facilement comme suit: 1. T(N) = dernier mot reconnu 2. n = F(T(N)) = instant n où ce mot a commencé 3. Mot précédent = T(n), et on remonte ainsi jusqu’au premier mot prononcé. En ce qui concerne la gestion des distances locales et accumulées nécessaires à la récur- rence (63), il est clair qu’il suffit de pouvoir mémoriser la colonne courante ainsi que l’entièreté de la colonne correspondant à l’instant précédent. La description ci-dessus a ignoré les restrictions concernant les séquences de mots pos- sibles (par exemple, dans le cas de contraintes syntaxiques); ceci sera discuté plus en détail dans la Section 14. 8.6 Discussion Bien que déjà utilisée par plusieurs laboratoires dans les années 1970, la programmation dynamique dans les systèmes de reconnaissance de parole est devenue un standard dans les années 1980. L’intégration des distances locales dans le temps est devenue une notion essentielle qui, comme nous le verrons par la suite, est restée à la base de tous les systèmes modernes de reconnaissance, notamment ceux basés sur les modèles de Markov cachés. Plusieurs variantes et améliorations ont été apportées à ces approches DTW. Nous note- rons seulement ici celles consistant à quantifier les références (regrouper plusieurs références d’un même mot en une seule) ou les vecteurs acoustiques représentant ces références. Dans ce dernier cas [12], un algorithme de quantification vectorielle (par exemple “K-means”) est préalablement appliqué à l’ensemble des vecteurs de référence, sans distinction d’appar- tenance aux mots, de façon à définir un ensemble de Z = {z1, . . . ,zl, . . . ,zL} de vecteurs prototypes. Les vecteurs acoustiques constituant les mots de références sont ensuite rem- placés par l’étiquette ldu vecteur prototype zlle plus proche. Ceci permet donc de gagner beaucoup de place mémoire pour la représentation des références, tout en économisant beaucoup de temps de calcul. En effet, à chaque instant n, le calcul des distances locales se rés
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
63
2 intro_ASR_f
0
e zlle plus proche. Ceci permet donc de gagner beaucoup de place mémoire pour la représentation des références, tout en économisant beaucoup de temps de calcul. En effet, à chaque instant n, le calcul des distances locales se résume au calcul de L distances d(xn,zl) qui seront ensuite placées aux bons endroits dans la table de programmation dynamique. Cette quantification vectorielle engendre aussi un certain lissage des références, ce qui est souvent bénéfique aux performances du systèmes (et représente, en fait, un premier pas vers les modèles de Markov discutés par la suite). Comme nous allons le voir dans ce qui suit, les améliorations majeures qui ont ensuite été apportées à cette approche de base DTW concernent principalement les notions de distances statistiques et les procédures d’entraînement qui y sont liées. 9 Reconnaissance de la Parole par HMM 9.1 Introduction Dans la section précédente, nous avons montré comment on pouvait effectuer par pro- grammation dynamique l’intégration temporelle de distances locales, permettant en même temps de normaliser les variations temporelles des unités de parole. Cette approche conduit également à une segmentation automatique de la phrase en termes de segments de réfé- rences (souvent des mots dans le cas de l’approche DTW), sans étape intermédiaire de
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
63
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 55 segmentation explicite. Les définitions de distances locales peuvent également être adap- tées de façon à tenir compte du type de caractéristiques acoustiques utilisées (par exemple, distance euclidienne ou distance d’Itakura) ou de l’importance relative des différentes com- posantes (distance pondérée). Il y a cependant plusieurs limitations liées à l’approche DTW présentée dans la section précédente. Comme déjà mentionné préalablement, cette approche requiert souvent une détection automatique de début et fin (pour les gabarits de références et, souvent, pour les mots et phrases de test), ce qui crée souvent problèmes. De plus, si on essaie d’adapter la définition de distance locale, il est souvent difficile, sans outils mathématiques puissants, d’en comprendre les effets au niveau du critère global que l’on s’est donné de minimiser (correspondant souvent à la minimisation du taux d’erreur). Finalement, étant donné que la parole est beaucoup plus que la simple concaténation d’éléments linguistiques (par exemple, des mots ou des phonèmes) bien définis, il est nécessaire de pouvoir modéliser les variabilités et les dépendances de chaque unité en fonction de son contexte. Comme nous le verrons ci-dessous, l’entraînement de distributions statistiques représente la meilleure approche formelle pour modéliser la variabilité observée sur des exemples réels. Pour toutes ces raisons, les modèles statistiques sont maintenant très utilisés dans les problèmes de reconnaissance de séquences complexes telles que le signal de parole. De plus, l’introduction d’un formalisme statistique permet l’utilisation plusieurs outils mathé- matiques très puissants (par exemple, l’algorithme EM) pour déterminer les paramètres par entraînement, et pour effectuer la reconnaissance et la segmentation automatique (incluant la détection de début et fin) de mots et de parole continue. Ces outils mathématiques sont maintenant largement utilisés et constituent aujourd’hui l’approche dominante en recon- naissance de la parole. Pour la plupart de ces systèmes de reconnaissance, la parole est supposée avoir été générée selon un ensemble de distributions statistiques. Par définition, une distribution
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
64
2 intro_ASR_f
0
hui l’approche dominante en recon- naissance de la parole. Pour la plupart de ces systèmes de reconnaissance, la parole est supposée avoir été générée selon un ensemble de distributions statistiques. Par définition, une distribution unique ne peut générer qu’un processus stationnaire. Etant donné que la parole est ce- pendant constituée de plusieurs sons différents, il est nécessaire de considérer plusieurs distributions. Chaque distribution est modélisée par un ensemble de paramètres qui seront déterminé sur base d’un ensemble d’entraînement de façon à minimiser la probabilité d’er- reur (solution bayesienne). Pendant la reconnaissance, nous recherchons alors, à travers l’espace de toutes les séquences de distributions possibles (dans les limites de contraintes phonologiques et, éventuellement, syntaxiques) la séquence de modèles (et donc de la phrase associée) qui maximise la probabilité a posteriori. Malheureusement, pour des raisons pratiques, cette théorie devra faire appel à des hypothèses simplificatrices qui lui feront perdre son optimalité. De plus, étant donné que tous les paramètres sont estimés sur une base d’entraînement nécessairement finie, les distributions ne seront que des approximations plus ou moins bonnes de la réalité. En particulier, il est impensable de pouvoir disposer d’une base de données reprenant tous les contextes acoustiques dans tous les environnements acoustiques (et bruits) possibles. Par conséquent, l’introduction de connaissances a priori (sous forme statistique ou déterministe) restera possible dans la plupart de ces système stochastiques et résultera généralement en une amélioration des performances.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
64
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 56 9.2 Approche générale Nous commençons par rappeler la loi de Bayes qui est à la base des système de recon- naissance HMM: P(Mj|X) = p(X|Mj)P(Mj) p(X) (64) où, dans notre cas, la classe Mj est le j-ième modèle statistique de phrase, avec 0 ≤j ≤J, et X est la séquence de vecteurs acoustiques associée à cette séquence. Selon cette loi de Bayes, la probabilité d’erreur minimum (de classer X dans la caté- gorie correcte Mc) est atteinte si on assigne X au modèle correspondant au maximum de probabilité a posteriori P(Mj|X), c’est-à-dire: X ∈Mk si k = argmax j P(Mj|X) (65) De même, l’entraînement de l’ensemble des paramètres Θ devrait également se faire selon cette loi de Bayes, ou critère de probabilité a posteriori maximum: Θ∗= argmax Θ J Y j=1 P(Mj|Xj,Θ) (66) où Mj représente le modèle HMM associé à la phrase d’entraînement Xj, et J le nombre total de phrases d’entraînement (aussi élévé que possible). Voir Section 11.2 pour plus de détails à ce sujet. Etant donné qu’il n’est pas possible de construire un modèle pour chaque phrase pos- sible, 26 chaque modèle Mj est souvent décomposé en sous-modèles représentant des sous- unités linguistiques (par exemple, phonèmes), de sorte que l’ensemble des paramètres soit commun à l’ensemble des phrases possibles. Finalement, lorsque nous appliquons la loi de Bayes, il est donc nécessaire de faire apparaître la dépendance sur l’ensemble des para- mètres Θ, 27 ce qui nous donne: P(Mj|X,Θ) = p(X|Mj,Θ)P(Mj|Θ) p(X|Θ) (67) Dans le cas de la reconnaissance de la parole, P(Mj|Θ) dans (67) représente la probabi- lité à priori du modèle M, et reprend donc la contribution
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
65
2 intro_ASR_f
0
|Θ) p(X|Θ) (67) Dans le cas de la reconnaissance de la parole, P(Mj|Θ) dans (67) représente la probabi- lité à priori du modèle M, et reprend donc la contribution du modèle de langage. En effet, il est généralement possible de prédire la probabilité d’une séquence de mots sans observa- tions acoustiques. Dans le cas le plus dégénéré, la distribution de probabilités a priori sera tout simplement uniforme sur tous les mots ou les phrases possibles. En général, ces pro- babilités tiendront compte par exemple du fait que certaines réponses peuvent être plus ou moins probables en fonction de la position où l’on se trouve dans un système de dialogue. Dans le cas de la reconnaissance de parole continue, ces probabilités modéliseront certaines des contraintes syntaxiques. En général, les paramètres décrivant ces probabilités a priori seront supposés être entièrement indépendants des modèles acoustiques et représentés par 26. Le nombre de phrases possibles est souvent infini. Même s’il n’est pas infini, il n’est généralement pas possible d’avoir une base de données suffisamment large pour pouvoir entraîner ces modèles. 27. Ces paramètres peuvent être soit regroupés en sous-ensembles propres à chaque classe, soit contenir un sous-ensemble commun et un sous-ensemble spécifique à chaque classe.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
65
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 57 un ensemble de paramètres ΘL. Bien que cette hypothèse ne soit que partiellement vraie, 28 elle a l’avantage de découpler deux phénomènes complexes. Ceci permet aussi d’entraîner les paramètres ΘL sur des grandes bases de données de texte, sans devoir requérir aux bases de données acoustiques qui seraient toujours trop limitées. L’ensemble de paramètres ΘL est souvent appelé modèle de langage; son estimation et son utilisation en reconnaissance de la parole seront discuté dans la Section 14.3. La vraisemblance p(X|Mj,Θ) dans (67) représente la contribution acoustique et sera estimée par les modèles HMM. En supposant aussi que p(X|Θ) est constant et indépendant de j, 29 la reconnaissance optimale (minimisant le taux d’erreur) d’une séquence X se fera en choisissant le modèle Mk tel que: k = argmax j p(X|Mj,ΘA)P(Mj|ΘL) (68) où ΘA représente l’ensemble des paramètres des modèles acoustiques qui devront être appris à partir de l’acoustiques (représentant la relation statistique entre les modèles et les séquences de vecteurs acoustiques). M M M 2 J 1 X P(X | M ) P(M ) P(X | M ) P(M ) P(X | M ) P(M ) 2 J 1 1 2 J Fig. 15 – Schéma général de classification bayesienne. Dans notre cas, une observation à classer une séquence de vecteurs acoustiques X correspondant à une phrase. Les classes correspondent à des modèles statistiques Mj, et la mesure garantissant le minimum de pro- babilité d’erreur est donnée par le produit de la vraisemblance p(X|Mj) et de la probabilité a priori P(Mj) (par exemple obtenue à partir d’une grammaire stochastique). La Figure 15 shématise donc la règle de décision finale, en supposant l’indépendance des deux ensembles de paramètres. Les prochaines sections vont se limiter à la discussion des modèles acoustiques estimant p(
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
66
2 intro_ASR_f
0
e 15 shématise donc la règle de décision finale, en supposant l’indépendance des deux ensembles de paramètres. Les prochaines sections vont se limiter à la discussion des modèles acoustiques estimant p(X|Mj,ΘA) 30 pour tous les modèles Mj de phrases possibles. L’estimation du modèle de langage et son intégration avec les modèles acoustiques seront discutés dans la Section 14.3). 28. Il est en effet évident qu’en parole naturelle la valeur syntaxique d’un mot ou sa position dans une phrase aura souvent une influence sur sa prononciation. 29. Cette hypothèse sera discutée un peu plus en détail dans la Section 11. Nous verrons que ceci est vrai seulement lors de la reconnaissance. Etant donné que les paramètres varient pendant l’entraînement la vraisemblance p(X|Θ) n’est pas une constante et devrait être minimisée de façon à maximiser P(Mj|X). 30. Pour des questions de simplicité, nous laisserons souvent tomber les paramètres dans la conditionnelle.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
66
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 58 9.3 Modèle acoustique HMM Selon le formalisme des modèles de Markov cachés (HMM), le signal de parole est supposé être produit par un automate stochastique fini construit à partir d’un ensemble d’états stationnaires {q1, . . . ,ql, . . . qL} régis par des lois statistiques. En d’autres mots, le formalisme des modèles HMM suppose que le signal de parole est formé d’une séquence de segments stationnaires, 31 tous les vecteurs associés à un même segment stationnaire étant supposés avoir été générés par le même état HMM. Chaque état de cet automate est caractérisé par une distribution de probabilité décri- vant la probabilité d’observation des différents vecteurs acoustiques (voir Figure 16). Les transitions entre les états sont instantanées. Elles sont caractérisées par une probabilité de transition. Remarquons que si chaque état du modèle permet de modéliser un segment de parole stationnaire, la séquence d’états permet quant à elle de modéliser la structure temporelle de la parole comme une succession d’états stationnaires. Les modèles utilisés en reconnaissance automatique de la parole sont généralement du type gauche-droite. Les transitions permises par ce type de modèle sont soit des boucles sur un même état, soit le passage d’un état à l’état qui le suit directement. L’aspect séquentiel du signal de pa- role est ainsi modélisé. Les modèles sont dit cachés car la séquence d’états (par exemple, associée à une séquence de phonèmes) n’est pas directement observable; seule la séquence de vecteurs acoustiques est visible et est considérée comme une fonction statistique de la séquence d’états (ayant généré les observations). p(x n jq i ) q i q j x n x n x n q k P (q i jq i ) P (q j jq j ) P (q k jq k ) p(x n jq k ) p(x n jq j ) P (q k jq j )
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
67
2 intro_ASR_f
0
q k P (q i jq i ) P (q j jq j ) P (q k jq k ) p(x n jq k ) p(x n jq j ) P (q k jq j ) P (q j jq i ) Fig. 16 – Modèle de Markov caché à trois états (qi, qj et qk). Chaque état est caractérisé par une distribution de probabilité (par exemple, p(xn|qj)). Les transitions d’un état à un autre sont caractérisées par une probabilité de transition dénotée P(qj|qi). L’architecture du modèle pourrait être plus générale et contenir, par exemple, des sauts d’états. Le modèle présenté ici est cependant celui souvent utilisé pour la modélisation d’unités phonétiques. Chaque unité linguistique (par exemple, chaque phonème ou chaque mot) est donc modélisée par un ou plusieurs états stationnaires. Les mots sont ensuite construits en terme de séquences de phonèmes (à partir d’un dictionnaire et/ou de règles phonologiques) 31. Stationnarité au sens restreint: dans le cas de distributions gaussiennes, par exemple, on ne considére que la moyenne et la variance.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
67
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 59 et les phrases en terme de séquences de mots (en utilisant une syntaxe et, éventuellement, des contraintes sémantiques). Chaque état stationnaire est représenté par les paramètres de fonctions statistiques invariables, par exemple la moyenne et la variance d’une distribution gaussienne. Cette formulation étant admise, les trois problèmes fondamentaux en reconnaissance automatique de la parole sont les suivants: – Paramétrisation et estimation des probabilités: étant donné une séquence d’ob- servation X et un modèle M (de paramètres ΘA), comment calculer p(X|M,ΘA)? Ce problème sera discuté à la Section 9.4. – Décodage (reconnaissance): étant donné un ensemble de modèles élémentaires Mj et une séquence d’observation X, comment déterminer la meilleure séquence de modèles élémentaires Mj de façon à maximiser la probabilité que cette séquence de modèles ait émis la séquence d’observation X (c’est-à-dire comment déterminer la séquence de modèles qui “explique” le mieux possible la séquence d’observation)? Le problème de la reconnaissance est directement lié à celui de l’estimation des proba- bilités p(X|Mj). Lors de la reconnaissance de parole continue, il faudra cependant y ajouter P(Mj). Ce problème sera discuté dans les Sections 9.5 et 14. – Entraînement: étant donné un ensemble de séquences d’observations Xj et leurs modèles de Markov cachées respectifs Mj, comment estimer les paramètres des mo- dèles de façon à maximiser la probabilité p(Xj|Mj) que chaque modèle génère la séquence d’observation qui lui est associée? Le problème de l’entraînement des mo- dèles HMM sera traité dans la Section 10. Pour un bon aperçu général des modèles HMM, nous renvoyons le lecteur à [85]; une discussion détaillée des hypothèses sous-jacentes est donnée dans [14]. Pour une description détaillée d’un système de reconnaissance HMM moderne, voir [58]. 9.4 Paramétrisation et estimation des probabilités Etant donné un
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
68
2 intro_ASR_f
0
thèses sous-jacentes est donnée dans [14]. Pour une description détaillée d’un système de reconnaissance HMM moderne, voir [58]. 9.4 Paramétrisation et estimation des probabilités Etant donné un modèle M avec ses paramètres acoustiques ΘA (ses états, sa topolo- gie, ses probabilités de transition et les paramètres décrivant les probabilités d’émission), nous considérons ici le problème de l’estimation de la vraisemblance p(X|M,ΘA) qu’une séquence X a effectivement été générée par M. Dans ce qui suit, nous nous limiterons à montrer comment calculer cette probabilité, en mettant en évidence les hypothèses requises. Nous supposerons ici que nous pouvons calculer les vraisemblances locales p(xn|qk) et que les probabilités de transition sont connues. L’estimation de ses probabilités sera discutée dans la Section 10. Nous montrons alors ici qu’il est possible de calculer la vraisemblance de la séquence complète à partir de vraisemblances locales en utilisant des récurrences particulièrement efficaces (et qui seront également utilisées pour la reconnaisance). Comme nous le verrons ci-dessous, il y a deux solutions à ce problème d’estimation: la solution exacte (parfois appelée vraisemblance “totale”) faisant intervenir tous les che- mins dans le modèle HMM, et une solution approximative faisant intervenir uniquement le meilleur chemin dans le modèle, et pour laquelle la récurrence associée ressemble fort à la récurrence utilisée en DTW.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
68
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 60 9.4.1 Estimation de la vraisemblance “totale” En supposant que les paramètres acoustiques ΘA sont fixes (et en les supposant impli- cites dans toutes les équations), le problème consiste donc à calculer p(X|M) étant donné une séquence d’observation X = {x1,...xN} de longueur N et un modèle M constitué de L états stationnaires {q1, . . . ,ql, . . . ,qL}. Nous appellerons chemin Q toute séquence de N états permise par le modèle M (et allant de l’état initial à l’état final). La notation qn l signifiera que l’état ql(∈M) est visité à l’instant n. Comme déjà introduit dans la Section 5.5, une façon de calculer p(X|M) est d’énumérer tous les chemins Q permis par le modèle. On obtient alors: p(X|M) = X Q∈M p(Q,X|M) (69) où la somme se fait sur tous les chemins Q de longeur N possibles dans M. La complexité de cette estimation étant cependant de l’ordre de 2N × LN opérations, 32 il est nécessaire de définir une récurrence plus efficace (appelée récurrence “avant”). Comme les événements qn lsont mutuellement exclusifs (et en utilisant la loi des proba- bilités jointes), (69) peut également s’écrire: p(X|M) = L X l=1 p(qn l,X|M),∀n ∈[1,N] (70) Chaque terme de cette somme exprime la probabilité que X soit émis par le modèle M en passant par l’état qlà l’instant n. Sans hypothèses particulières (et en utilisant les définitions de probabilités jointes et conditionnelles), chacun de ces termes peut encore se factoriser en: p(qn l,X|M) = p(qn l,Xn 1 |M)p(XN n+1|qn l,Xn 1 ,M) (71) où X
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
69
2 intro_ASR_f
0
factoriser en: p(qn l,X|M) = p(qn l,Xn 1 |M)p(XN n+1|qn l,Xn 1 ,M) (71) où Xn m représente une séquence partielle de vecteurs d’observation {xm,...,xn}. La probabilité p(X|M) s’exprime donc sous forme de la somme du produit de deux probabilités: 1. Probabilité “avant” (“forward probability”): αn(l|M) = p(qn l,Xn 1 |M) (72) représentant la probabilité que le modèle M ait généré la séquence partielle Xn 1 en se trouvant dans l’état qlà l’instant n. Etant donné que (sans hypothèses particulières) p(qn l,Xn 1 |M) = L X k=1 p(qn−1 k ,qn l,Xn−1 1 ,xn|M) = L X k=1 p(qn−1 k ,Xn−1 1 |M)p(qn l,xn|qn−1 k ,Xn−1 1 ,M) cette probabilité “avant” peut être calculée par la récurrence “avant”: αn(l|M) = X k αn−1(k|M)p(qn l,xn|qn−1 k ,Xn−1 1 ,M) (73) 32. Il y a LN séquences d’états possibles, et chaque séquence nécessite environ 2N opérations.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
69
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 61 où la somme se fait sur l’ensemble des prédécesseurs possibles qk de l’état ql. L’ini- tialisation de cette récurrence est donnée par: α1(l|M) = PIl(M) où {PIl(M)} représente la distribution initiale des états de M. 2. Probabilité “arrière” (“backward probability”): βn(l|M) = p(XN n+1|qn l,Xn 1 ,M) (74) la probabilité que le modèle M génére le restant de la séquence XN n+1 au départ de l’état ql. Sous les mêmes hypothèses, cette probabilité peut également se calculer en définissant la récurrence “arrière”: βn(l|M) = p(XN n+1|qn l,Xn 1 ,M) = X k βn+1(k|M)P(qn+1 k |qn l,M)p(xn+1|qk) (75) où la somme sur k porte sur tous les successeurs possibles de ql. L’initialisation de cette récurrence est donnée par: βN(l|M) = PlF (M) où {PlF (M)} représente la probabilité de rejoindre l’état final à partie de ql. Etant donné (70) et la définition de α, nous avons donc: p(X|M) = L X l=1 p(qN l,XN 1 |M) = L X l=1 αN(l|M) (76) où la somme se limite généralement aux états finaux possibles définis dans la modèle M (et pouvant correspondre à la fin d’un mot ou la fin d’une phrase). Pour l’estimation de p(X|M) (et donc aussi pour la reconnaissance), nous avons donc: p(X|M) = L X l=1 N X n=1 αn(l|M)βn(l|M) = X {F} αN(F|M) = X {I} β0(I|M) où qI et qF représentent respectivement les états initiaux et finaux
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
70
2 intro_ASR_f
0
βn(l|M) = X {F} αN(F|M) = X {I} β0(I|M) où qI et qF représentent respectivement les états initiaux et finaux de M (et pour lesquels les sommes disparaissent dans le cas d’un seul état initial et final). La probabilité conditionnelle p(qn l,xn|qn−1 k ,Xn−1 1 ,M) dans (73) est généralement appe- lée contribution locale ou probabilité locale car elle représente la contribution du n-ième vecteur acoustique dans le calcul de p(X|M). Malheureusement, une telle densité de pro- babilité locale est généralement impossible à estimer sans recourir à certaines hypothèses simplificatrices.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
70
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 62 Après avoir décomposé cette probabilité comme suit: p(qn l,xn|qn−1 k ,Xn−1 1 ,M) = p(qn l|qn−1 k ,Xn−1 1 ,M)p(xn|qn l,qn−1 k ,Xn−1 1 ,M) (77) on doit généralement poser les hypothèses suivantes: – Les modèles de Markov sont d’ordre 1, c’est-à-dire que, comme dans le cas des modèles de Markov discrets discutés dans la Section 4, la probabilité d’un état particulier ne dépend que de l’état précédent (et est conditionnellement indépendante du passé): P(qn l|qn−1 k ,Xn−1 1 ,M) →P(qn l|qn−1 k ,M) (78) – Les observations acoustiques sont conditionnellement indépendantes du passé: elles ne dépendent ni des observations précédentes (ce qui revient donc à supposer que les vecteurs acoustiques ne sont pas corrélés 33) ni des états HMM précédents (ce qui revient à supposer, par exemple, que la prononciation d’un phonème ne dépend pas du phonème précédent 34). Nous obtenons alors: p(xn|qn l,qn−1 k ,Xn−1 1 ,M) →p(xn|qn l,M) (79) Etant donné ces simplifciations, la contribution locale (77) devient: p(qn l,xn|qn−1 k ,Xn−1 1 ,M) = p(xn|qn l,M)P(qn l|qn−1 k ,M) (80) Cette équation définit donc: 1. Les probabilités d’émission p(xn|qn l,M): celles-ci sont souvent supposées indé- pendantes du modèle M et sont généralement supposées être caractérisées par une distribution gaussienne ou multi-gaussienne (voir Section 10). Pour des mots particu- lièrement difficiles à reconnaître (comme,
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
71
2 intro_ASR_f
0
modèle M et sont généralement supposées être caractérisées par une distribution gaussienne ou multi-gaussienne (voir Section 10). Pour des mots particu- lièrement difficiles à reconnaître (comme, par exemple, les lettres de l’alphabet ou les articles), il est toutefois possible de définir des densités propres à chaque mot (ce qui augmente cependant considérablement le nombre de paramètres à entraîner). Dans certains cas qui ne seront pas discutés ici, l’hypothèse (79) de non corrélation des vecteurs acoustiques est adoucie en essayant d’estimer des probabilités d’émission de type p(xn|Xn−p n−1,qn l,M), soit en utilisant des modèles autoregressifs comme discutés dans la Section (5.4) [48], soit en modélisant directement ces corrélations dans les densités gaussiennes [111]. 35 2. Les probabiltés de transition P(qn l|qn−1 k ,M): étant donné que ces probabilités représenteront également les probabilités associées aux variantes phonologiques d’un même mot, elles restent toujours dépendantes du modèle M considéré. Finalement, on suppose aussi que les modèles sont invariants dans le temps. Les indices temporels n’influencent donc pas la valeur des paramètres (et n’apparaissent parfois dans les notations que pour localiser les récurrences). Suite à toutes ces simplifications, (77) devient: p(qn l,xn|qn−1 k ,Xn−1 1 ,M) = p(xn|ql)P(ql|qk,M) (81) 33. Ce qui est bien évidemment faux. 34. Ceci sera ensuite corrigé en utilisant des modèles de phonèmes dépendant du contexte, c’est-à-dire en définissant des modèles différents pour des contextes différents. 35. Ce qui est d’ailleurs quivalent à estimer un modèle autoregressif [111].
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
71
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 63 et la récurrence “avant” (73) s’écrit: αn(l|M) = p(xn|ql) L X k=1 αn−1(k|M)P(ql|qk,M) (82) Cette récurrence nous permet donc de calculer la probabilité de toute une séquence X à partir des probabilités d’émission et de transition locales. 9.4.2 Approximation Viterbi: estimation du meilleur chemin Dans les limites des hypothèses décrites plus haut, la récurrence avant nous donne la vraisemblance “complète” p(X|M). Cette récurrence peut cependant parfois paraître un peu difficile à mettre en oeuvre étant donné qu’elle requiert la multiplication et l’addition simultanée de probabilités, ce qui conduit facilement à des problèmes numériques (under- flow). Alors qu’un simple produit de probabilités peut facilement se tranformer en une somme de logarithmes, ceci n’est plus le cas lorsqu’il s’agit d’une somme de produits. Dans ce cas, les logarithmes de probabilités doivent apparaître en exponentiel. 36 Une autre solution, parfois considérée comme plus simple, consiste à ne considérer que le meilleur chemin à travers le modèle. En plus d’éviter les problèmes numériques mention- nés ci-dessus, cette méthode, appelée approche Viterbi, a aussi l’avantage de dévoiler la meilleure séquence d’états à travers le modèle et, par conséquent, la segmentation (opti- male, selon le modéle) en unités linguistiques élémentaires. La récurrence avant utilise en effet tous les chemins possibles et ne génère donc pas de segmentation. L’algorithme de Viterbi résulte d’une simplification de la récurrence avant dans la- quelle on remplace toutes les sommes par une fonction de maximum. Par conséquent, selon l’approximation Viterbi, la récurrence (73) devient: p(qn l,Xn 1 |M) = max k p(qn−1 k ,Xn−1 1 |M)p(qn l,xn|qn−
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
72
2 intro_ASR_f
0
73) devient: p(qn l,Xn 1 |M) = max k p(qn−1 k ,Xn−1 1 |M)p(qn l,xn|qn−1 k ,Xn−1 1 ,M) (83) où p(qn l,Xn 1 |M) représente la probabilité du meilleur chemin partiel allant de l’état initial qI à l’état qlde M, en ayant émis les n premiers vecteurs Xn 1 de la séquence X. Sous les mêmes hypothèses d’indépendance et de premier ordre que précédemment, la récur- rence (83) devient: p(qn l,Xn 1 |M) = max k h p(qn−1 k ,Xn−1 1 |M)P(qn l|qn−1 k ,M) i p(xn|qn l) (84) ou encore, dans le domaine logarithmique: −log p(qn l,Xn 1 |M) (85) = min k n −log p(qn−1 k ,Xn−1 1 |M) −log P(qn l|qn−1 k ,M) o −log p(xn|qn l) La probabilité p(X|M) est alors estimée selon: p(X|M) = p(qN F ,XN 1 |M) 36. Il y a cependant de bonne méthodes pour approximer z = x + y (c’est-à-dire elog z = elog x + elog y) tout en gardant toutes les grandeurs dans le domaine logarithmique.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
72
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 64 où qF est l’état final de M. En interprétant le logarithme de probabilités locales comme des distances négatives, la récurrence (85) nous définit donc la distance accumulée (globale) en un état particulier qlà l’instant n comme étant la somme de la distance locale (−log p(xn|qn l,M)) et du minimum sur tous les prédécesseurs qk possibles de la somme de la distance accumulée en qk et de la pénalité de transition (maintenant définie comme -log de la probabilité de transition). Sous cette forme, la récurrence (85) est donc très semblable aux récurrences de programmation dynamique (62) et (63) utilisées dans l’algorithme DTW, sauf que: – Chaque terme est maintenant statistique et les contributions locales (probabilités d’émission) sont combinées aux contributions globales par multiplication (84). En prenant le logarithme, comme dans (85), les distances euclidiennes de DTW sont alors équivalentes au logarithme de probabilités d’émission. – De même, les pénalités de transition sont remplacées par des probabilités de transition qui seront également entraînées. Aussi, comme dans (62), ces pénalités sont additives dans le domaine des logarithmes de probabilités. – Les prédécesseurs considérés dans les récurrences sont des états HMM plutôt que des vecteurs acoustiques de référence. – Les contraintes locales ne permettent plus la répétition d’un même vecteur de la séquence d’entrée (comme permis dans la Figure 9) et tous les états prédécesseurs possibles sont associés au vecteur acoustique précédent. Ceci a aussi l’avantage que tous les chemins à travers différents modèles HMM (représentant différentes hypo- thèses de mots et de phrases) auront tous la même longueur, et donc le même nombre de contributions locales, permettant ainsi une comparaison directe de leurs scores. Etant donné cette dualité entre la récurrence Viterbi et les algorithmes DTW décrits dans la Section 8, il est clair que les algorithmes de programmation dynamique présentés
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
73
2 intro_ASR_f
0
une comparaison directe de leurs scores. Etant donné cette dualité entre la récurrence Viterbi et les algorithmes DTW décrits dans la Section 8, il est clair que les algorithmes de programmation dynamique présentés dans la Section 8 peuvent être utilisés pour la reconnaissance HMM de mots isolés et de parole continue, avec cependant plusieurs avantages: 1. Comme discuté par la suite, les paramètres décrivant les distances locales et les pénalités de transition pourront être déterminés automatiquement par entraînement sur un grand nombre d’exemples. 2. Plus besoin (en théorie) de faire une détection explicite de début et de fin de mot et de phrase. Les unités linguistiques utilisées seront souvent les phonèmes qui pourront être entraînés (comme nous le verrons plus tard) automatiquement et sans segmen- tation explicite. Le silence entre mots n’est qu’une classe linguistique particulière. 3. Nous avons maintenant un bon formalisme pour combiner l’information acoustique et l’information a priori (syntaxe) concernant les séquences de mots. 9.5 Reconnaissance HMM Selon les algorithmes décrits ci-dessus (et après entraînement des paramètres HMM, comme décrit dans la Section 10), la reconnaissance d’une phrase X consiste donc à calculer P(X|Mi) pour tous les modèles Mi possibles et à assigner X au modèle Mk tel que: Mk = argmax Mi P(Mi|X)P(Mi) (86)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
73
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 65 Dans le cas de reconnaissance de mots isolés, les mots sont généralement supposés équi- probables a priori, et il suffit donc de rechercher Mk tel que Mk = argmax Mi P(Mi|X) (87) Dans le cas de parole continue et de l’utilisation de probabilités linguistiques, le score du modèle acoustique devra être multiplié par la probabilité de la séquence de mots qui lui est associée. Ceci sera discuté plus en détail dans la Section 14.3. Pour le calcul de p(X|Mi), il suffira d’utiliser la récurrence α (82) ou la récurrence de Viterbi (85) sur tous les modèles (et séquences de modèles permises, dans le cas de la parole continue) Mi. Cependant, malgré la complexité linéaire de ces récurrences, il devient très vite impossible de les appliquer à tous les modèles possibles dans le cas de grands vocabulaires. De plus, en reconnaissance de parole continue, le nombre possible de combinaisons des modèles est souvent infini. Par conséquent, de nombreux algorithmes sophistiqués ont été développés pour permettre d’appliquer ces récurrences aux hypothèses les plus prometteuses (obtenues après élaguage) et l’extension dynamique des modèles. Bien que la description de ces algorithmes (qui relèvent surtout de l’ingénierie informatique) sortirait du cadre de ce livre, il est cependant bon d’en rappeler les principe généraux: – Dans le cas de la reconnaissance Viterbi (recherche du meilleur chemin à travers les modèles): En début de phrase, on applique la programmation dynamique uniquement à l’en- semble des modèles pouvant commencer une phrase. Par la suite, à chaque instant n, on sélectionne uniquement les chemins ayant une probabilité (absolue ou relative par rapport aux autres hypothèses) suffisamment élévée (une distance suffisamment faible) et on abandonne les autres hypothèses. A chaque hypothèse correspondant à une fin de mot (J(k) dans l’algorithme DTW), on ne considère que les mots suc- cesseurs permis et on ajoute éventuellement au score global la pénalité de transition donnée par la grammaire. Cette technique d’élagage (
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
74
2 intro_ASR_f
0
l’algorithme DTW), on ne considère que les mots suc- cesseurs permis et on ajoute éventuellement au score global la pénalité de transition donnée par la grammaire. Cette technique d’élagage (beam search) est relativement efficace, avec cependant le risque de perdre la solution optimale. Elle a aussi l’avan- tage de rester temporellement synchrone (strictement gauche-droite dans le temps et dans les modèles). Pour un bon aperçu de programmation dynamique synchrone avec élagage dynamique, nous renvoyons le lecteur à [77]. – Dans le cas de l’utilisation de la récurrence “avant” (recherche de la meilleure séquence de modèles, en tenant compte de tous les chemins possibles): Dans le cas de reconnaissance de parole continue, l’élagage de la récurrence α prend la forme d’un algorithme de décodage “à pile” (stack decoding, en anglais) [3], qui est dérivé de l’algorithme A∗[81], et dans lequel: – La recherche commence par mettre toutes les hypothèses contenant seulement un mot (et les scores associés) dans la pile. La meilleure hypothèse est alors enlevée de la pile et étendue aux hypothèses à deux mots possibles, en appliquant la récurrence α aux mots successeurs possibles. Ces nouvelles hypothèses, avec leurs scores, sont remises dans la pile, dont on sélectionne (et étend) à nouveau la meilleure hypothèse. Cette procédure est répétée jusqu’au moment où un chemin complet a été trouvé et pour lequel le score est meilleur que pour toutes les autres entrées dans la pile.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
74
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 66 – Etant donné que les différentes entrées dans la pile correspondent à des séquences de longueurs différentes, le choix de la meilleure hypothèse (et aussi l’élagage, étant donné la taille finie de la pile) est réalisé sur base du score partiel auquel on ajoute une estimation du coût du chemin restant à parcourir jusqu’à la fin de la phrase. Pour garantir l’optimalité de la solution finale, il faut cependant que cette fonction de coût sous-estime le coût réel. Cependant, plus ce coût est sous-estimé et plus la pile doit être profonde. Cette recherche est particulièrement appropriée pour les grammaires en arbre, étant donné qu’à chaque entrée dans la pile ne doit correspondre qu’une seule phrase pos- sible. 10 Entraînement des Modèles HMM 10.1 Introduction Dans les sections précédentes, nous avons introduit la notion de modèles statistiques et de reconnaissance de séquences temporelles. Nous avons également introduit les hy- pothèses usuelles d’indépendance conditionnelle qui conduisent à la forme particulière de modèle statistique génératif appelé modèle de Markov caché (HMM). Nous avons ensuite montré comment de tels modèles peuvent être utilisés pour calculer la vraisemblance qu’une séquence de vecteurs acoustiques ait été “générée” par chacun des modèles possibles (dans les limites de nos hypothèses d’indépendance). On a montré que cette vraisemblance pou- vait être définie et calculée soit en termes de vraisemblance “totale” (en prenant en compte toutes les séquences d’états possibles dans le modèle et un utilisant la récurrence “en avant”), soit en termes de l’approximation Viterbi (ne prenant en compte que la séquence d’états la plus probable et en utilisant des récurrences de programmation dynamique). Un élément clé de ce développement était l’intégration de probabilités (vraisemblances) locales sur toute la séquence d’observations. Etant donné les hypothèses faites, cette intégration se résume à un produit de probabilités d’emission et de probabilités de transition. En supposant ensuite que les para
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
75
2 intro_ASR_f
0
séquence d’observations. Etant donné les hypothèses faites, cette intégration se résume à un produit de probabilités d’emission et de probabilités de transition. En supposant ensuite que les paramètres du modèle de langage sont indépendants des paramètres des modèles acoustiques, nous avons montré que l’application de loi de Bayes nous dictait la façon de recombiner l’information provenant des deux modèles de façon à nous donner le modèle correspondant à la probabilité a posteriori maximale (et donc au taux d’erreur minimum). Dans la Section 5.6, nous avons brièvement abordé le problème de la détermination des paramètres des modèles acoustiques HMM (probabilités d’émission et de transition). Comme nous le verrons ici, et malgré les hypothèses fortes imposées à nos modèles, cette estimation n’est pas toujours un problème trivial. Les paramètres des probabilités d’émis- sion et de transition sont rarement connus a priori et, en général, devront pouvoir être estimés automatiquement à partir d’un (large) ensemble d’entraînement. Comme nous le verrons, il y a plusieurs approches possibles pour estimer ces densités de probabilités, cha- cune d’entre-elles se reposant sur des hypothèses particulières concernant la structure des estimateurs. Finalement, la base d’entraînement est généralement composée d’un grand nombre d’enregistrements 37 de mots et/ou de phrases pour lesquels nous disposons de la 37. Un système de reconnaissance de parole continue grand vocabulaire peut demander plus de 3.000.000
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
75
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 67 transcription en termes de mots prononcés, parfois même en termes d’unités phonétiques. Malheureusement, on ne connait que rarement (surtout dans le cas de très grandes bases de données d’entraînement) la segmentation phonétique, et encore moins la segmentation sous-phonétique (par exemple, en termes d’états HMM). Dans la plupart des systèmes de reconnaissance HMM actuels, le but de l’entraîne- ment acoustique est de trouver l’ensemble de paramètres acoustiques ΘA maximisant, sur l’ensemble des phrases d’entraînement Xj, la vraisemblance des données étant donné les modèles corrects associés (supposés connus et corrects pendant l’entraînement), c’est-à- dire: Θ∗ A = argmax ΘA J Y j=1 p(Xj|Mj,ΘA) (88) où p(Xj|Mj,ΘA) peut être la vraisemblance “totale” (prenant en compte tous les chemins possibles) ou son approximation Viterbi. Par la suite, nous dénoterons souvent les para- mètres acoustiques ΘA simplement par Θ (en se souvenant qu’il y a un second ensemble de paramètres ΘL, supposé indépendant, et représentant le modèle de language. Etant donné que (88) n’admet pas de solution explicite, on doit avoir recours à des al- gorithmes itératifs de type gradient et convergant vers un optimum local (dépendant de la qualité de l’estimateur de départ). Les approches les plus couramment utilisées sont basées sur des variantes de l’algorithme EM (Section 2.7). Ces variantes seront appelées entraîne- ment “Avant-Arrière” (“Forward-Backward”, en anglais, ou algorithme de Baum-Welch) ou entraînement Viterbi selon que nous estimerons p(Xj|Mj,ΘA) en considérant tous les chemins possibles dans Mj ou seulement le meilleur chemin. De façon générale, et comme pour l’algorithme EM, on part d’un ensemble de paramètres initiaux Θ(0), et les paramètres
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
76
2 intro_ASR_f
0
les chemins possibles dans Mj ou seulement le meilleur chemin. De façon générale, et comme pour l’algorithme EM, on part d’un ensemble de paramètres initiaux Θ(0), et les paramètres Θ optimaux sont obtenus itérativement de façon à maximiser (88) à chaque itération t. Dans le cas des modèles HMM, les variables “manquantes” correspondront à la distribution a posteriori des états (dans le cas où l’on tient compte de tous les chemins possibles) ou à la segmentation en états HMM (dans le cas de l’approximation Viterbi). Le processus d’entraînement de modèles HMM pour la reconnaissance de séquences temporelles peut donc se résumer comme suit: 1. Définir la structure (et les hypothèses) des estimateurs de probabilités locales asso- ciées à chaque état des modèles HMM – par exemple, distributions gaussiennes. 2. Choisir des valeurs initiales Θ(0) pour l’ensemble des paramètres définissant ces es- timateurs. Ceci peut se faire en utilisant, par exmple, des hypothèses concernant la distribution initiale des variables manquantes (par exemple, la segmentation ini- tiale relative à la séquence), ou en utilisant les paramètres obtenus préalablement sur un autre problème ou sur une petite base de données ou la segmentation en unités phonétique a été faite à la main. 3. Etant donné un ensemble de paramètres Θ(t) à l’itération t, calculer pour chaque séquence (phrase) de la base d’entraînement, la probabilité du modèle HMM associé ainsi qu’une nouvelle estimation des variables manquantes. 4. A partir de ces probabilités, mettre à jour la valeur des paramètres de façon à maxi- miser un critère global choisi (en général (88). de vecteurs acoustiques d’entraînement, soit plus de 8 heures de parole.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
76
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 68 5. Evaluer les nouveaux modèles en fonction d’un certain critère d’arrêt (par exemple, si la vraisemblance n’augmente plus de façon significative, ou si le taux de reconnais- sance sur une base de données indépendante atteint un maximum): si le critère est vérifié, on arrête, sinon on retourne à l’étape 3 (t = t + 1). Ceci est la forme générale de toute procédure d’entraînement utilisée en reconnaissance de la parole. Dans la suite, nous en discutons les détails mathématiques, ainsi que les formes de densités les plus communément utilisées. Selon que (88 tient compte de tous les chemins possibles ou seulement du meilleur chemin, nous aurons un entraînement dit “Avant-Arrière” (Section 10.2) ou “Viterbi” (Sec- tion 10.3). 10.2 Entraînement “Avant-Arrière” (Baum-Welch) 10.2.1 Critère et fonction auxiliaire Comme nous l’avons déjà dit, les phrases d’entraînement ne sont généralement pas segmentées en termes d’états (classes statistiques) des modèles HMM, souvent associés à des classes phonétiques ou sous-phonétiques. En général, seulement la séquence de mots associée à chaque phrase d’entraînement est connue et l’estimation des vraisemblances doit donc se faire en intégrant sur toutes les variables cachées possibles. Comme déjà brièvement discuté dans les Sections 2.7 et 5.6, l’optimisation de (88) n’est donc pas possible directe- ment étant donné qu’elle fait appel à des variables manquantes, à savoir la séquence d’états HMM associée à chaque phrase d’entraînement Xj. Comme discuté de façon générale dans la Section 2.7, son optimisation se fait donc par l’intermédiaire d’une fonction auxiliaire de type (22), représentant l’espérance mathématique de la densité jointe des variables obser- vées et cachées (étant donné les paramètres courants). Dans le cas des modèles HMM, les variables cachées sont les séquences d’états, et on peut montrer que la
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
77
2 intro_ASR_f
0
obser- vées et cachées (étant donné les paramètres courants). Dans le cas des modèles HMM, les variables cachées sont les séquences d’états, et on peut montrer que la maximisation de J X j=1 log p(Xj|Mj,Θ) (logarithme de la vraisemblance totale) est équivalente à la maximisation (itérative) de la fonction auxilaire Q(Θ,Θ(t)) = J X j=1 <unk> <unk>X Q∈Mj P(Q|Xj,Mj,Θ(t)) log p(Xj,Q|Mj,Θ) <unk> <unk> = J X j=1 <unk> <unk>X Q∈Mj P(Q|Xj,Mj,Θ(t)) log (p(Xj|Q,Mj,Θ)P(Q|Mj,Θ)) <unk> <unk> (89) où Θ(t) représente la valeur estimée de l’ensemble des paramètres Θ à l’itération t. En fai- sant les hypothèses habituelles d’indépendance conditionnelle, on peut approximer p(Xj|Q,Mj,Θ) par QN n=1 p(xn|qn,Θ(t)) et P(Q|Mj,Θ) par QN n=1 P(qn|qn−1,Mj) (en utilisant l’état initial q0). En considérant seulement une phrase X particulière et son modèle associé M (dans le
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
77
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 69 seul but de simplifier les notations), la fonction auxiliaire (89) peut donc aussi s’écrire: Q(Θ,Θ(t)) = N X n=1 L X k=1 P(qn k|X,M,Θ(t)) log p(xn|qn k,Θ(t)) + N X n=1 L X k=1 L X l=1 P(qn k,qn+1 l |X,M,Θ(t)) log P(qn+1 l |qn k,M,Θ(t)) (90) Cette décomposition fait donc apparaître deux ensembles de distributions a posteriori de variables manquantes qui devront être calculées lors de l’étape d’estimation: 1. Les probabilités a posteriori de visite d’un état qk à l’instant n: P(qn k|X,M,Θ(t)) 2. Les probabilités a posteriori de transition d’un état qk à un état ql: P(qn k,qn+1 l |X,M,Θ(t)) La maximisation de cette fonction auxilaire se fait alors en itérant jusqu’à convergence (vers un optimum local): 1. Etape d’estimation: étant donné Θ(t), on estime les distributions a posteriori des variables manquantes. 2. Etape de maximisation: étant donné la distribution des variables manquantes, on calcule de nouveaux estimateurs Θ(t+1) tel que: Θ(t+1) = argmax Θ Q(Θ,Θ(t)) Ces deux étapes sont maintenant discutées plus en détail. 10.2.2 Etape d’estimation: Probabilités a posteriori des variables manquantes Comme discuté précédemment, l’entraînement HMM est un cas particulier de l’algo- rithme EM dans lequel la phase d’estimation de la distribution a posteriori des classes (états HMM) est un peu plus complexe étant donné les contraintes topologiques (c’est-à- dire les contraintes sur les séquences de classes possibles) imposées par les modèles HMM. Cette estimation requiert l’utilisation de récurrences “avant” et “arrière” qui sont
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
78
2 intro_ASR_f
0
’est-à- dire les contraintes sur les séquences de classes possibles) imposées par les modèles HMM. Cette estimation requiert l’utilisation de récurrences “avant” et “arrière” qui sont décrites ci- dessous. Cet algorithme, aussi appelé “algorithme de Baum-Welch”, a été décrit par Baum et ses collègues dans une série de papiers classiques (comme, par exemple, [6]) traitant de façon générale de l’inférence statistique de fonctions statistiques de chaînes de Markov (en d’autres mots, HMM). Lorsque l’on considère tous les chemins possibles dans M (c’est-à-dire que l’on intègre sur toutes les variables cachées), il est donc nécessaire d’estimer la probabilité de tous les états possibles (respectant les contraintes imposées par la topologie du modèle HMM) pour chaque vecteur acoustique xn à l’instant n. En d’autres mots, tous les chemins pos- sibles à travers le modèle doivent contribuer à l’estimation des paramètres. Comme nous le montrons ci-dessous, cette estimation (étape d’estimation de l’algorithme EM) peut ce- pendant se faire en utilisant une combination des récurrences “avant” et “arrière” définies précédemment. Ensemble, ces récurrences conduiront à un estimateur de la distribution de probabilités a posteriori des états, probabilités qui seront ensuite utilisées pour générer un nouvel ensemble de paramètres (étape de maximisation de l’algorithme EM) maximisant la fonction de vraisemblance (selon les hypothèses habituelles des modèles HMM). Etant
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
78
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 70 donné ses caractéristiques, cet algorithme est souvent appelé entraînement “Avant-Arrière” (“Forward-Backward”) ou encore algorithme de Baum-Welch. Etant donné la valeur des paramètres à l’itération t, commençons par rappeler la ré- currence “avant” (73): αn(l|M,Θ(t)) = p(Xn 1 ,qn l|M) = "X k αn−1(k|M,Θ(t))P(qn l|qn−1 k ,M,Θ(t)) # p(xn|ql) (91) et la récurrence “arrière” (75): βn(l|M,Θ(t)) = p(XN n+1|qn l,Xn 1 ,M,Θ(t)) = X k βn+1(k|M,Θ(t))P(qn+1 k |qn l,M,Θ(t))p(xn+1|qk) (92) Comme déjà expliqué dans la Section 9.4, le produit de ces deux récurrences nous permet alors de calculer la probabilité que le modèle M a généré l’entièreté de la séquence X tout en étant passé par l’état particulier qlà l’instant n: p(qn l,X|M,Θ(t)) = αn(l|M,Θ(t))βn(l|M) (93) La vraisemblance globale p(X|M,Θ(t)) s’obtient alors en sommant (93) sur tous les chemins possibles (ou encore, sur tous les états possibles à tous les instants possibles). A partir de ces grandeurs α et β, il est alors assez facile de calculer la probabilité a posterior des variables manquantes présentes dans (90): 1. Distribution a posteriori de transition On commence par calculer la probabilité d’être sur un état qk à l’instant n et sur l’état qlà l’instant n + 1, étant donné l’ensemble de la séquence X et les paramètres courants Θ(t). Cette probabilité est donnée par
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
79
2 intro_ASR_f
0
qk à l’instant n et sur l’état qlà l’instant n + 1, étant donné l’ensemble de la séquence X et les paramètres courants Θ(t). Cette probabilité est donnée par: ξn(k,l|M,Θ(t)) = P(qn k,qn+1 l |X,M) = p(qn k,qn+1 l ,X|M,Θ(t)) p(X|M) = p(qn k,qn+1 l ,X|M,Θ(t)) PL k=1 PL l=1 p(qn k,qn+1 l ,X|M,Θ(t)) (94) En faisant les hypothèses habituelles d’indépendance conditionnelle, le numérateur (ainsi que le dénominateur) de cette expression peut être estimé en fonction des récurrences α et β. Pour être complet, nous établissons ici la dérivation complète comme exemple. En laissant tomber la dépendance sur M et sur Θ pour simplifier les notations, le numérateur de (94) peut alors s’écrire: 38 P(qn k,qn+1 l ,X) = P(qn k,qn+1 l ,Xn 1 ,xn+1,XN n+2) = P(qn+1 l ,xn+1,XN n+2|qn k,Xn 1 )P(qn k,Xn 1 ) 38. Dans ces expressions, un signe égalité représente soit une définition (pour α ou β), soit une application de la règle de probabilité p(a,b|c) = p(a|b,c)p(b|c). L’utilisation du symbole ≈indique l’utilisation d’une des hypothèses d’indépendance conditionnelle décrite précédemment.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
79
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 71 = P(qn+1 l ,xn+1,XN n+2|qn k,Xn 1 )αn(k) = P(XN n+2|qn+1 l ,qn k,Xn 1 ,xn+1)P(qn+1 l ,xn+1|qn k,Xn 1 )αn(k) ≈ P(XN n+2|qn+1 l ,Xn 1 ,xn+1)P(qn+1 l ,xn+1|qn k,Xn 1 )αn(k) = βn+1(l)P(qn+1 l ,xn+1|qn k,Xn 1 )αn(k) ≈ βn+1(l)P(qn+1 l ,xn+1|qn k)αn(k) = βn+1(l)P(xn+1|qn+1 l ,qn k)P(qn+1 l |qn k)αn(k) ≈ βn+1(l)P(xn+1|qn+1 l )P(qn+1 l |qn k)αn(k) (95) L’utilisation des récurrences α et β pour l’estimation de (94) est illustrée à la Fi- gure 17 et nous donne: ξn(k,l|M,Θ(t)) = αn(k|M,Θ(t))p(ql|qk,M)p(xn+1|ql)βn+1(l|M,Θ(t)) PL k=1 PL l=1 αn(k|M,Θ(t))p(ql|qk,M,Θ(t))p(xn+1|ql)βn+1(l|M,Θ(t)) (96) Finalement, si ξ(k,l|M,Θ(t)) représente la probabilité de générer X en effectuant une transition qk →ql(sans spécifier l’instant), nous avons: ξ(k,l|M,Θ(t)) = P(qk,ql|X,M,Θ(t)) = N X n=1 ξ
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
80
2 intro_ASR_f
0
→ql(sans spécifier l’instant), nous avons: ξ(k,l|M,Θ(t)) = P(qk,ql|X,M,Θ(t)) = N X n=1 ξn(k,l|M,Θ(t)) (97) q k q ` n (k jM ) P (q ` jq k ; M ) p(x n+ jq ` ) n+ (`jM ) Fig. 17 – Illustration de l’utilisation des récurrences “avant” et “arrière” pour le calcul de la distribution a posteriori des transitions. 2. Distribution a posteriori de présence sur un état De même, en utilisant les même hypothèses que précédemment, la probabilité d’être sur un état particulier qk à l’instant n étant donné toute la séquence d’observation X peut se calculer selon: γn(k|M,Θ(t)) = P(qn k|X,M,Θ(t)) = p(qn k,X|M,Θ(t)) p(X|M,Θ(t)) = αn(k|M,Θ(t))βn(k|M,Θ(t)) PL l=1 αn(l|M,Θ(t))βn(l|M,Θ(t)) (98) Par conséquent, la probabilité d’être sur un état particulier qk, sans préciser l’instant, est donnée par: γ(k|M,Θ(t)) = P(qk|X,M,Θ(t)) = N X n=1 γn(k|M,Θ(t)) (99)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
80
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 72 Ces probabilités γn(k|M,Θ(t)) et γ(k|M,Θ(t)) seront utilisées comme facteurs de pon- dération lors de la mise à jour des estimateurs de probabilités d’émission. 10.2.3 Etape de maximisation: Mise à jour des paramètres A partir de ces distributions a posteriori des variables cachées, il est alors possible de mettre à jour les différents paramètres de façon à maximiser la fonction auxiliaire (22) garantissant la maximisation de la fonction de vraisemblance (voir aussi [63] pour une démonstration): argmax {Θ} Q(Θ,Θ(t)) Cette maximisation se fait donc en trouvant la valeur des paramètres annulant la dérivée première par rapport à ceux-ci: ∂Q(Θ,Θ(t)) ∂Θ = 0 (100) et peut se faire séparemment pour chaque ensemble de paramètres (probabilités de transi- tion et d’émission). 1. Probabilités de transition La résolution de (100) dans le cas des probabilités de transition doit tenir compte de la contrainte que PL l=1 P(ql|qk,M) = 1, impliquant l’addition d’un terme supplé- mentaire dans la fonction à minimiser et utilisant la méthode du multiplicateur de Lagrange. 39 Si λ représente ce multiplicateur de Lagrange, il faut alors résoudre: ∂ ∂P(ql|qk,M) ( Q(Θ,Θ(t)) −λ Ã L X l=1 P(ql|qk,M) −1 !) = 0 (101) où, étant donné (90), la contribution de Q à la dérivée se limite à: N X n=1 L X k=1 L X l=1 P(qn k,qn+1 l |X,M,Θ(t)) log P(qn+1 l |qn k,M,Θ(t)) −λ Ã L X l=1 P(ql|qk,M) −1 ! On obtient finalement: P (t+1)(ql|qk,M) = E(qk →ql|M) E(qk|M) = ξ(k,l|M)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
81
2 intro_ASR_f
0
,M) −1 ! On obtient finalement: P (t+1)(ql|qk,M) = E(qk →ql|M) E(qk|M) = ξ(k,l|M) γ(k|M) (102) où E représente l’espérance mathématique. Le calcul de la dérivée seconde nous permettra de vérifier que cette solution correspond bien à un maximum (et non un minimum) de Q. 39. Supposons que nous désirons trouver la valeur extrême (par exemple, le minimum) d’une fonction f(x,y,z) soumise à des contraintes particulières données par une équation g(x,y,z) = 0. On construit alors une fonction auxiliaire H(x,y,z,λ) = f(x,y,z) + λg(x,y,z), et nous recherchons les valeurs de x,y,z, ainsi que de λ pour lesquelles toutes les dérivées partielles de H sont égales à 0. Ceci nous donne alors la solution désirée (Λ nous permettant de faire varier la contrainte et d’en trouver la position optimale). Cette méthode peut être étendue à des contraintes multiples en ajoutant à la fonction à optimiser plusieurs termes de contrainte, avec chacun leur propre multiplicateur de Lagrange Λi. Voir, par exemple, [107]) pour plus de détail sur cette méthode.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
81
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 73 2. Probabilités d’émission Dans le cas de distributions discrètes, on commence par quantifier chaque vecteur acoustique xn en le remplaçant par l’étiquette j du prototype yj le plus proche. 40 L’ensemble des probabilités d’émission est alors représenté par une matrice B de dimension (J × K), où J représente le nombre de prototypes et K le nombre de classes et où B(j,k) = p(yj|qk). En suivant le même raisonnement que pour les probabilités de transition (et en introduisant le multiplicateur de Lagrange relatif à la contrainte P j p(yj|qk) = 1), il est facile de montrer que la mise à jour des estimateurs de probabilités d’émission se fait alors selon: ˆP(yj|qk) = E(yj ∧qk) E(qk) (103) où E(yj ∧qk) représente l’espérance mathématique d’observer yj sur qk et E(qk) l’espérance mathématique d’observer qk. De nouveau, ces valeurs sont facilement calculables par les récurrences α et β. Dans le cas de distributions gaussiennes, chaque classe qk est associée à une distribution gaussienne (multi-dimensionnelle, dans notre cas) comme donné en (8) et définie par deux ensembles de paramètres: le vecteur de la moyenne μk et une matrice de covariance Σk. Comme déjà signalé auparavant, ces distributions peuvent être unique à chaque état HMM ou partagées entre plusieurs états. Les moyennes et matrices de covariance des gaussiennes associées aux classes HMM sont alors calculées en pondérant chacune des observations par la probabilité que celle-ci ait effectivement été générée par l’état considéré. L’équation de mise à jour des moyennes prend alors la forme: μ(t+1) k = P ql∈ωk PN n=1 xnP(qn l|X,M,Θ(t)) P ql∈ωk PN n=1 P(qn l|X,M,Θ(t)) = PN n
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
82
2 intro_ASR_f
0
PN n=1 xnP(qn l|X,M,Θ(t)) P ql∈ωk PN n=1 P(qn l|X,M,Θ(t)) = PN n=1 xnγn(k|M,Θ(t)) γ(k|M,Θ(t)) (104) De même pour la matrice de covariance, nous aurons: Σ(t+1) k = PN n=1 γn(k|M,Θ(t))(xn −μ(t) k )(xn −μ(t) k )T γ(k|M,Θ(t)) (105) 10.2.4 Procédure d’entraînement Comme pour l’algorithme EM, l’entraînement Baum-Welch résulte du processus itératif suivant: 1. Etape d’estimation: partant d’un ensemble de paramètres donnés Θ(t) à l’itération t, mous appliquons les récurrences avant et arrière et, en les multipliant, obtenons un estimateur de p(qn l,X|M,Θ(t)). Cet estimateur peut alors être utilisé pour cal- culer P(qn l|X,M,Θ(t)) qui, à son tour, peut également être utilisé pour obtenir un estimateur de l’espérance mathématique des fréquences relatives des transitions et émissions (probabilités a posteriori des variables cachées). 40. L’ensemble des prototypes, ayant été déterminé au préalable par quantification vectorielle. Nous rappelons ici que cette quantification fait intervenir une notion de distance qui peut être plus ou moins bien adaptée au type de paramètres acoustiques utilisés.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
82
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 74 2. Etape de maximisation: mise à jour des paramètres de façon à maximiser la fonction de vraisemblance. 3. Itération: aussi longtemps que Q continue a augmenter, t = t + 1, et retour à l’étape d’estimation. 10.3 Entraînement Viterbi 10.3.1 Algorithme général Dans le cas de l’entraînement Viterbi, on se contente d’optimiser les paramètres de façon à maximiser la vraisemblance du meilleur chemin, c’est-à-dire de la séquence d’états la plus probable dans le modèle HMM. On n’intègre donc pas sur toutes les séquences d’états et on ne recherche plutôt que la séquence d’états la plus probable. C’est donc un cas simplifié d’algorithme EM pour lequel on suppose que les probabilités a posteriori des états sont égales à 1 ou 0. L’algorithme EM prend alors la forme suivante: 1. Choisir un ensemble de paramètres initiaux, ou calculer ceux-ci à partir d’une seg- mentation initiale (linéaire ou autre) de la base d’entraînement. 2. Etape d’estimation (E): A partir de ces paramètres, trouver la segmentation (la séquence d’états) qui maximise la vraisemblance. 3. Etape de maximisation (M): Etant donné cette nouvelle segmentation (nous donnant donc la classe associée à chacun des vecteurs acoustiques de la séquence d’entraîne- ment), mettre à jour les paramètres de façon à maximiser la vraisemblance. 4. Itérer jusqu’au moment ou la vraisemblance optimale est atteinte (et que la segmen- tation ne change plus). Ce processus itératif est illustré à la Figure 18 et sa convergence (vers un optimum local, dépendant des valeurs initiales des paramètres) peut facilement être démontrée. 10.3.2 Etape d’estimation Etant donné un ensemble de paramètres Θ(t) à l’itération t, comment trouver la meilleure segmentation de chaque séquence de vecteurs acoustiques d’entraînement X de façon
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
83
2 intro_ASR_f
0
3.2 Etape d’estimation Etant donné un ensemble de paramètres Θ(t) à l’itération t, comment trouver la meilleure segmentation de chaque séquence de vecteurs acoustiques d’entraînement X de façon à maximiser p(X|M,Θ(t))? En fait, la réponse à cette question a déjà été donnée précédem- ment dans un autre contexte. Nous savons que l’algorithme de décodage Viterbi recherche le chemin (séquence d’états) de vraisemblance maximale dans un ensemble de modèles (ou compositions de modèles) possibles. Donc, le problème de la détermination de la meilleure segmentation de chaque phrase d’entraînement revient également à appliquer l’algorithme de Viterbi, à la seule différence que cet algorithme est appliqué à un seul modèle, connu et correspondant au modèle associé à chaque phrase d’entraînement. Cette étape, aussi parfois appelée “Viterbi forcé”, se fait par programmation dynamique dans laquelle les distances locales sont −log p(xn|ql), et où on a ajouté des coûts de transition −log P(ql|qk) lorsque l’on évalue une transition de l’état qk à l’état ql. A partir de la fin de chaque phrase (fin de la programmation dynamique), le meilleur chemin, et donc la meilleure segmentation, peut être retrouvée en remontant le chemin optimal (backtracking). Ceci peut ce faire en gardant en mémoire, pour chaque point de programmation dynamique, un pointeur vers l’état optimal précédent. 41 41. Contrairement à la reconnaissance où il n’était pas nécessaire de garder tous les détails du chemin optimal et où on pouvait retrouver la séquence de mots optimale en conservant seulement deux vecteurs
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
83
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 75 : it eration 0 (segmen tation lin eaire) : it eration (nouv elle segmen tation) q q q M j X j Fig. 18 – Illustration de l’algorithme d’entraînement itératif Viterbi. A partir d’une seg- mentation initiale (linéaire ou autre, comme illustrée par les traits pointillés), et pour toutes les phrases d’entraînement Xj associées aux modèles Mj, on estime l’ensemble des para- mètres (probabilités d’émission et probabilités de transition) maximisant P = Q j p(Xj|Mj). A partir de ces nouveaux paramètres, on détermine par programmation dynamique une nou- velle segmentation (traits continus) maximisant à nouveau P, et on itère cette opération jusqu’à stabilisation de la valeur des paramètres (et donc de la segmentation). La séquence d’états obtenue en remontant le chemin optimal nous donne donc la seg- mentation en classes, ce qui nous permet de mettre à jour l’ensemble des paramètres relatifs aux probabilités de transition et d’émission. 10.3.3 Etape de maximisation Une fois la segmentation (aussi appelé “alignement Viterbi”) optimale trouvée, chaque vecteur acoustique est alors associé une classe de Ωbien spécifique. Etant donné un esti- mateur statistique (comme discuté dans la Section 2) pour chaque classe, la tâche d’en- traînement est maintenant supervisée (étape de maximimisation) et on peut donc calculer les paramètres des fonctions de vraisemblance en considérant tous les vecteurs associés à chacune des classes. Selon les règles de statistiques élémentaires, et comme cas particulier de (102) dans laquelle les probabilités a posterior des variables cachées sont simplement égales à 1 ou 0, de pointeurs (T et B, voir Section 8).
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
84
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 76 les probabilités de transition sont estimées par simple comptage: P (t+1)(ql|qk) = nkl nk (106) où nklreprésente le nombre de transitions de qk à qlet nk le nombre de transitions sortant de qk (le nombre de fois que l’état qk a été visité) tels qu’observés le long du meilleur chemin en utilisant l’ensemble de paramètres Θ(t). En d’autres termes, les probabilités de transition sont simplement obtenues de façon à obtenir les fréquences relatives de chacune des transitions possibles. Dans le cas de distributions discrètes, les probabilités d’émission peuvent également être obtenues par simple estimation des fréquences d’observation relatives de chaque prototype pour chacune des classes HMM: P (t+1)(yj|qk) = Njk nk (107) où Njk représente le nombre de vecteurs étiquetés yj qui ont été observés sur qk et nk le nombre de fois que qk a été visité, résultant d’un alignement Viterbi sur base des paramètres Θ(t). Dans le cas de distributions gaussiennes, les estimateurs de moyennes et de variances sont obtenus en calculant ces quantités (par méthodes standards) sur l’ensemble des vec- teurs d’entraînement, et étant donné leur association aux différentes classes, comme im- posée par la segmentation. Dans le cas de la moyenne, et en reprenant l’estimateur géné- ral (104), nous aurons alors: μ(t+1) k = P ql∈ωk PN n=1 xnP(qn l|X) P ql∈ωk PN n=1 P(qn l|X) = P xn∈ωk xn P xn∈ωk 1 (108) où la somme sur qlporte sur tous les états HMM associés à la même classe statistique ωk. Etant donné l’hypothèse Viterbi selon laquelle on ne prend en compte que le meilleur chemin, la probabilité P(qn l|X) dans (108) est égale à 1 ou 0 et est obtenue par pro- grammation dynamique (donnant la meilleure
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
85
2 intro_ASR_f
0
terbi selon laquelle on ne prend en compte que le meilleur chemin, la probabilité P(qn l|X) dans (108) est égale à 1 ou 0 et est obtenue par pro- grammation dynamique (donnant la meilleure segmentation), et le dénominateur est égal à Nk = P x∈ωk 1, le nombre total de vecteurs acoustiques associés à la classe ωk. L’es- timation des variances suit la même procédure et découle de règles statistiques simples d’estimation de variances à partir d’un ensemble d’échantillons. Après la mise à jour des probabilités de transition et d’émission, celles-ci sont utili- sés dans une programmation dynamique (alignement Viterbi) afin d’obtenir une nouvelle segmentation, etc. 10.3.4 Itération Après chaque itération de cette procédure (estimation-maximisation), la nouvelle so- lution doit être évaluée. Ceci peut se faire de différentes manières. On peut, par exemple, regarder l’accroissement (absolu ou relatif) de la vraisemblance pour l’ensemble de la base d’entraînement et décider d’arrêter l’entraînement lorsque celui-ci est inférieur à un certain seuil. On peut également regarder le résultat de la segmentation et décider d’arrêter l’en- traînement lors celui-ci ne change plus ou que le nombre de vecteurs changeant de classe est suffisamment faible.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
85
2 intro_ASR_f
0