text
stringlengths
1
6.06k
source
stringclasses
375 values
page
int64
0
1.49k
book
stringclasses
375 values
chunk_index
int64
0
0
(c) Giovanni De Micheli 24 Example – minimum area cover o w y z a b c d x N N N I I v v v v Network Subject graph Vertex Match Gate Cost x t2 NAND2(b,c) 3 y t1 INV(a) 2 t3 AND2(y,z) 6 + 4 + 2 = 12 z t2 NAND2(x,d) 3+3 = 6 w t2 NAND2(y,z) 3+6+ 2 = 11 o t1 INV(w) 2+11 = 13 t6B AOI21(x,d,a) 6 + 3 = 9 NArea cost: INV:2 NAND2:3 AND2: 4 AOI21: 6
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
21
DT15 (lib)
0
(c) Giovanni De Micheli 25 Example – minimum delay cover N Fixed delays: INV:2 NAND2:4 AND2: 5 AOI21: 10 N All inputs are stable at time 0, except for td = 6 o w y z a b c d x N N N I I v v v v Network Subject graph Vertex Match Gate Cost x t2 NAND2(b,c) 4 y t1 INV(a) 2 t3 AND2(y,z) 10 + 5 = 15 z t2 NAND2(x,d) 6+4 = 10 w t2 NAND2(y,z) 10 + 4 = 14 o t1 INV(w) 14 + 2 = 16 t6B AOI21(x,d,a) 10 + 6 = 16
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
22
DT15 (lib)
0
(c) Giovanni De Micheli 26 Minimum-delay cover for load-dependent delays N Model L Gate delay is d = α + β cap_load L Capacitive load depends on the driven cells (fanout cone) L There is a finite (possibly small) set of capacitive loads N Algorithm L Visit subject tree bottom up L Compute an array of solutions for each possible load L For each input to a matching cell, the best match for the corresponding load is selected N Optimality L Optimum solution when all possible loads are considered L Heuristic: group loads into bins
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
23
DT15 (lib)
0
(c) Giovanni De Micheli 27 Example – minimum delay cover N Delays: INV:1+load NAND2: 3+load AND2: 4+load AOI21: 9+load N All inputs are stable at time 0, except for td = 6 N All loads are 1 o w y z a b c d x N N N I I v v v v Network Subject graph Vertex Match Gate Cost x t2 NAND2(b,c) 4 y t1 INV(a) 2 t3 AND2(y,z) 10 + 5 = 15 z t2 NAND2(x,d) 6+4 = 10 w t2 NAND2(y,z) 10 + 4 = 14 o t1 INV(w) 14 + 2 = 16 t6B AOI21(x,d,a) 10 + 6 = 16 Same as before !
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
24
DT15 (lib)
0
(c) Giovanni De Micheli 28 Example – minimum delay cover N Delays: INV: 1+load NAND2: 3+load AND2: 4+load AOI21: 9+load N All inputs are stable at time 0, except for td = 6 N All loads are 1 (for cells seen so far) N Add new cell SINV with delay 1 + 1⁄2 load and load 2 N The sub-network drives a load of 5
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
25
DT15 (lib)
0
(c) Giovanni De Micheli 29 Example – minimum delay cover t3 AND2(y,z) 19 o t1 INV(w) 20 o w y z a b c d x N N N I I v v v v Network Subject graph Vertex Match Gate Cost Load=1 Load=2 Load=5 x t2 NAND2(b,c) 4 5 8 y t1 INV(a) 2 3 6 z t2 NAND2(x,d) 10 11 14 w t2 NAND2(y,z) 14 15 18 t6B AOI21(x,d,a) 20 SINV(w) 18.5
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
26
DT15 (lib)
0
(c) Giovanni De Micheli 36 Module 2 NObjectives LBoolean covering LBoolean matching LSimultaneous optimization and binding LExtensions to Boolean methods
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
27
DT15 (lib)
0
(c) Giovanni De Micheli 37 Boolean covering NDecompose network into base functions NPartition network into cones NApply bottom-up covering to each cone L When considering vertex v: M Construct clusters by local elimination M Limit the depth of the cluster by limiting the support of the function M Associate several functions with vertex v M Apply matching and record cost
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
28
DT15 (lib)
0
(c) Giovanni De Micheli 38 Boolean matching P-equivalence NCluster function f(x) LSub-network behavior NPattern function g(y) LCell behavior NP-equivalence LIs there a permutation operator P, such that f(x) = g ( P x) is a tautology? NApproaches: LTautology check over all input permutations LMulti-rooted pattern ROBDD capturing all permutations
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
29
DT15 (lib)
0
(c) Giovanni De Micheli 39 Input/output polarity assignment NNPN classification of logic functions NNPN-equivalence LThere exist a permutation operator P and complementation operators Ni and No, such that f(x) = No g ( P Ni x ) is a tautology NVariations: LN-equivalence LPN-equivalence
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
30
DT15 (lib)
0
(c) Giovanni De Micheli 40 NPin assignment problem: LMap cluster variables x to pattern variables y LCharacteristic equation: A(x,y) = 1 NPattern function under variable assignment: L gA (x) = Sy ( A (x,y) g (y) ) NTautology problem L f(x) = gA (x) L"x f(x) = Sy ( A (x,y) g (y) ) Boolean matching & x1 x2 f g y1y2
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
31
DT15 (lib)
0
(c) Giovanni De Micheli 41 NCluster terminals: x -- cell terminals: y NAssign x1 to y’2 and x2 to y1 NCharacteristic equation LA (x1,x2,y1,y2) = (x1 Å y2) (x2 y1) NAND pattern function Lg = y1 y2 NPattern function under assignment LSy1y2 A g = Sy1y2 ((x1 Å y2) (x2 y1) y1 y2 ) = x2 x’1 Example x1 x2 f g y1y2 Å Å
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
32
DT15 (lib)
0
(c) Giovanni De Micheli 42 Signatures and filters NCapture some properties of Boolean functions NIf signatures do not match, there is no match NSignatures are used as filters to reduce computation NSignatures: LUnateness LSymmetries LCo-factor sizes LSpectra
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
33
DT15 (lib)
0
(c) Giovanni De Micheli 43 Filters based on unateness and symmetries NAny pin assignment must associate: LUnate variables in f(x) with unate variables in g(y) LBinate variables in f(x) with binate variables in g(y) NVariables or group of variables: LThat are interchangeable in f(x) must be interchangeable in g(y)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
34
DT15 (lib)
0
(c) Giovanni De Micheli 44 Example N Cluster function: f = abc L Symmetries { { a,b,c} } L Unate N Pattern functions L g1 = a + b + c M Symmetries { { a,b,c} } M Unate L g2 = ab +c M Symmetries { {a,b}, {c} } M Unate L g3 = abc’ + a’b’c M Symmetries { {a,b,c} } M Binate
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
35
DT15 (lib)
0
(c) Giovanni De Micheli 45 Concurrent optimization and library binding NMotivation LLogic simplification is usually done prior to binding LLogic simplification and substitution can be combined with binding NMechanism LBinding induces some don’t care conditions LExploit don’t cares as degrees of freedom in matching
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
36
DT15 (lib)
0
(c) Giovanni De Micheli 46 Example
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
37
DT15 (lib)
0
(c) Giovanni De Micheli 47 Boolean matching with don’t care conditions NGiven f(x), fDC(x) and g(y) Lg matches f, if g is equivalent to h, where: f f’DC ≤ h ≤ f + fDC NMatching condition: "x ( fDC(x) + f(x) Sy ( A (x,y) g(y) ) ) Å
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
38
DT15 (lib)
0
(c) Giovanni De Micheli 48 Example NAssume vx is bound to an OR3(c’,b,e) NDon’t care set includes x Å (c’+b+e) NConsider fj = x(a+c) with CDC = x’c’ NNo simplification. L Mapping into AOI gate. NMatching with DCs. L Map to a MUX gate.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
39
DT15 (lib)
0
(c) Giovanni De Micheli 49 Example
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
40
DT15 (lib)
0
(c) Giovanni De Micheli 50 Extended matching N Motivation: L Search implicitly for best pin assignment L Make a single test, determining matching and assignment N Technique: L Construct BDD model of cell and assignments N Visual intuition: L Imagine to place MUX function at cell inputs L Each cell input can be routed to any cluster input (or voltage rail) L Input polarity can be changed: M NP-equivalence (extensible to NPN) L Cell and cluster may differ in size N Cell and multiplexers are described by a composite function G(x,c) L Pin assignment is determining c
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
41
DT15 (lib)
0
(c) Giovanni De Micheli 51 Example Ng = y1 + y2 y’3 Ny1 (c,x) = (c0c1x1 + c0c’1x2 + c’0c1x3) Å c2 NG = y1 (c,x) + y2(c,x) y3(c,x)’ NAn EXOR gate can be placed at the gate output to support NPN-equivalence check
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
42
DT15 (lib)
0
(c) Giovanni De Micheli 52 Extended matching modeling NModel composite functions with ROBDDs LAssume n-input cluster and m-input cell LFor each cell input: M ┌log2 n ┐variables for pin permutation M One variable for input polarity LTotal size of c: m( ┌log2 n ┐+ 1 ) LOne additional variable for output polarity NA match exists if there is at least one value of c satisfying M (c) = "x [ G(x,c) f(x) ] Å
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
43
DT15 (lib)
0
NCell: g=x’y NCluster: f = wz’ NG(a,b,c,d) = (cÅ(za+wa’))’(dÅ(zb+wb’)) NF G=(wz) (cÅ(za+wa’))’(dÅzb+wb’)) NM(c) = ab’c’d’ + a’bcd Å Å (c) Giovanni De Micheli 53 Example & z w f & 0 1 0 1 z w a c b d x y G
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
44
DT15 (lib)
0
(c) Giovanni De Micheli 54 Extended matching NExtended matching captures implicitly all possible matches NNo extra burden when exploiting don’t care sets NM (c) = "x [ G(x,c) f(x) + fDC(x) ] NEfficient BDD representation NExtensions: LSupport multiple-output matching LFull library representation Å
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
45
DT15 (lib)
0
(c) Giovanni De Micheli 55 Full library model NRepresent full library with L(x,c) LOne single (large) BDD NVisual intuition LAll composite cells connected to a MUX NCompare cluster to library L(x,c) LM (c) = "x [ L(x,c) f(x) + fDC(x) ] LVector c determines: M Feasible cell matches M Feasible pin assignments M Feasible output polarity G1 G2 Gn L Å
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
46
DT15 (lib)
0
(c) Giovanni De Micheli 56 Summary NLibrary binding is a key step in synthesis NMost systems use some rules together with heuristic algorithms that concentrate on combinational logic LBest results are obtained with Boolean matching LSometimes structural matching is used for speed NLibrary binding is tightly linked to buffering and to physical design
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/DT15 (lib).pdf
47
DT15 (lib)
0
RECONNAISSANCE DE LA PAROLE ET DU LOCUTEUR Prof. Hervé Bourlard bourlard@idiap.ch http://www.idiap.ch IDIAP Research Institute Ecole Polytechnique Fédérale de Lausanne “Nous ne sommes hommes et nous ne tenons les uns aux autres que par la parole.” Montaigne (Michel Eyquem de), Essais, I,9.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
0
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur i Table des matières Notations v Acronymes vii 1 Introduction 1 1.1 Niveaux de complexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Méthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2 Classification Statistique de Formes 5 2.1 Modèles de classification de formes . . . . . . . . . . . . . . . . . . . . . . . 5 2.2 Règles simples à retenir . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.3 Bases de la statistique bayesienne . . . . . . . . . . . . . . . . . . . . . . . . 7 2.4 Classification statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.5 Fonctions discriminantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.5.1 Fonctions discriminantes linéaires . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
2
2 intro_ASR_f
0
. . . . . . . . . . . . . . . . . 12 2.5.1 Fonctions discriminantes linéaires . . . . . . . . . . . . . . . . . . . . 12 2.5.2 Densité de probabilité gaussienne . . . . . . . . . . . . . . . . . . . . 13 2.6 Entraînement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.6.1 Entraînement supervisé . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.6.2 Echantillons indépendants, identiquement distribués (iid) . . . . . . 15 2.6.3 Entraînement non supervisé . . . . . . . . . . . . . . . . . . . . . . . 15 2.7 Algorithme d’Estimation et Maximisation (EM) . . . . . . . . . . . . . . . . 16 2.7.1 Description générale . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.7.2 Convergence . . . . . . . . . . . . . . . . . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
2
2 intro_ASR_f
0
. . 16 2.7.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.7.3 EM pour une distribution multi-gaussienne . . . . . . . . . . . . . . 19 2.7.4 Quantification Vectorielle . . . . . . . . . . . . . . . . . . . . . . . . 22 2.8 Classification de données réelles . . . . . . . . . . . . . . . . . . . . . . . . . 22 3 Programmation Dynamique 24 4 Modèles de Markov Discrets 25 4.1 Définition et paramétrisation . . . . . . . . . . . . . . . . . . . . . . . . . . 25 4.2 Exemples d’utilisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4.2.1 Problème 1: Probabilité d’un chemin particulier . . . . . . . . . . . . 27 4.2.2 Problème 2: Distribution de “durée” . . . . . . . . . . . . . . . . . . 28 4.2.3 Problème 3: Probabilité de passer d’un état à un autre en N obser- vations . . . . . . . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
2
2 intro_ASR_f
0
. . . 28 4.2.3 Problème 3: Probabilité de passer d’un état à un autre en N obser- vations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 4.2.4 Problème 4: Probabilité du meilleur chemin de longueur N entre deux états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 4.3 Du modèle de Markov discret au modèle de Markov caché . . . . . . . . . . 29 5 Modèles de Markov Cachés (HMM) 30 5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 5.2 HMM pour la génération de séquences . . . . . . . . . . . . . . . . . . . . . 31 5.3 Estimation de la séquence d’états . . . . . . . . . . . . . . . . . . . . . . . . 32 5.4 Modèles HMM autorégressifs . . . . . . . . . . . . . . . . . . . . . . . . . . 33
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
2
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur ii 5.5 Modèles HMM pour la classification de séquences . . . . . . . . . . . . . . . 34 5.6 Estimation des paramètres HMM . . . . . . . . . . . . . . . . . . . . . . . . 34 6 Reconnaissance de la Parole: Schéma-Bloc 36 7 Caractérisation du Signal de Parole 40 8 Reconnaissance de la Parole par DTW 42 8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 8.2 Reconnaissance de mots isolés . . . . . . . . . . . . . . . . . . . . . . . . . . 43 8.2.1 Déformation temporelle linéaire . . . . . . . . . . . . . . . . . . . . . 44 8.2.2 Déformation temporelle dynamique (DTW) . . . . . . . . . . . . . . 45 8.2.3 Normalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 8.3 Distances . . . . . . . . . . . . . . . . . . . . . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
3
2 intro_ASR_f
0
Distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 8.4 Détection de début et fin de mot . . . . . . . . . . . . . . . . . . . . . . . . 50 8.5 Reconnaissance de mots enchaînés . . . . . . . . . . . . . . . . . . . . . . . 51 8.6 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 9 Reconnaissance de la Parole par HMM 54 9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 9.2 Approche générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 9.3 Modèle acoustique HMM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 9.4 Paramétrisation et
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
3
2 intro_ASR_f
0
. . . . . . . . . . . . . . . . . . . . . 58 9.4 Paramétrisation et estimation des probabilités . . . . . . . . . . . . . . . . . 59 9.4.1 Estimation de la vraisemblance “totale” . . . . . . . . . . . . . . . . 60 9.4.2 Approximation Viterbi: estimation du meilleur chemin . . . . . . . . 63 9.5 Reconnaissance HMM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 10 Entraînement des Modèles HMM 66 10.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 10.2 Entraînement “Avant-Arrière” (Baum-Welch) . . . . . . . . . . . . . . . . . 68 10.2.1 Critère et fonction auxiliaire . . . . . . . . . . . . . . . . . . . . . . . 68 10.2.2 Etape d’estimation: Probabilités a posteriori des variables manquantes 69 10.2.3 Etape de maximisation: Mise à jour des paramètres . . . . . . . . . . 72 10.2.4 Procédure d’entraînement . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
3
2 intro_ASR_f
0
tape de maximisation: Mise à jour des paramètres . . . . . . . . . . 72 10.2.4 Procédure d’entraînement . . . . . . . . . . . . . . . . . . . . . . . . 73 10.3 Entraînement Viterbi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 10.3.1 Algorithme général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 10.3.2 Etape d’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 10.3.3 Etape de maximisation . . . . . . . . . . . . . . . . . . . . . . . . . . 75 10.3.4 Itération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 10.4 Estimateurs de probabilités acoustiques locales . . . . . . . . . . . . . . . . 77 10.4.1 Distributions discrètes . . . . . . . . . . . . . . . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
3
2 intro_ASR_f
0
. . . 77 10.4.1 Distributions discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . 77 10.4.2 Distributions gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . 78 10.4.3 Réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . . . 79 10.5 Lissage des paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
3
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur iii 11 Limitations des Modèles HMM 80 11.1 Hypothèses HMM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 11.2 Discrimination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 11.2.1 Information mutuelle maximum . . . . . . . . . . . . . . . . . . . . . 82 11.2.2 Probabilités a posteriori . . . . . . . . . . . . . . . . . . . . . . . . . 83 11.2.3 Entraînement correctif . . . . . . . . . . . . . . . . . . . . . . . . . . 84 11.2.4 Descente stochastique généralisée . . . . . . . . . . . . . . . . . . . . 85 12 Réseaux de Neurones Artificiels (ANN) 86 12.1 Description générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 12.2 Entraînement des réseaux de neurones . . . . . . . . . . . . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
4
2 intro_ASR_f
0
. . . . . 87 12.2 Entraînement des réseaux de neurones . . . . . . . . . . . . . . . . . . . . . 88 12.3 Propriétés des réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . 89 12.4 Réseaux de neurones et séquences temporelles . . . . . . . . . . . . . . . . . 90 12.4.1 Registres à décalage . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 12.4.2 Réseaux récurrents . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 12.4.3 Réseaux à rétroaction . . . . . . . . . . . . . . . . . . . . . . . . . . 91 12.4.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 12.4.5 Simulation de HMM par réseaux de neurones . . . . . . . . . . . . . 91 12.5 Réseaux de neurones et inférence statistique . . . . . . . . . . . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
4
2 intro_ASR_f
0
. . . . 91 12.5 Réseaux de neurones et inférence statistique . . . . . . . . . . . . . . . . . . 92 12.5.1 Démonstration théorique . . . . . . . . . . . . . . . . . . . . . . . . . 92 12.5.2 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 12.5.3 Validation croisée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 12.5.4 Démonstration empirique . . . . . . . . . . . . . . . . . . . . . . . . 95 12.5.5 Avantages potentiels . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 13 Modèles Hybrides HMM/ANN 97 13.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 13.2 Paramétrisation et estimation des probabilités . . . . . . . . . . . . . . . . . 98
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
4
2 intro_ASR_f
0
. 97 13.2 Paramétrisation et estimation des probabilités . . . . . . . . . . . . . . . . . 98 13.3 Entraînement et reconnaissance par modèles HMM/ANN . . . . . . . . . . 101 13.3.1 Entraînement “Avant-Arrière” (Baum-Welch) . . . . . . . . . . . . . 101 13.3.2 Entraînement Viterbi . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 13.3.3 Reconnaissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 13.4 Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 13.5 Autres approches ANN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 14 Contraintes Linguistiques et Reconnaissance 105 14.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 14.2 Modèles phonologique
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
4
2 intro_ASR_f
0
. . . . . . . . . . . . . . . . . . . . . 105 14.2 Modèles phonologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 14.3 Modèles de langage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 14.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 14.3.2 Perplexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 14.3.3 Statistiques N-grammes . . . . . . . . . . . . . . . . . . . . . . . . . 111 14.4 Reconnaissance avec modèle de langage . . . . . . . . . . . . . . . . . . . . 113 15 Autres Considérations 114 15.1 Topologies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
4
2 intro_ASR_f
0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 15.2 Adaptation des Systèmes de Reconnaissance . . . . . . . . . . . . . . . . . . 115
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
4
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur iv 16 Mots Clés et Fiabilité 116 16.1 Reconnaissance de mots clés . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 16.2 Niveau de fiabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 17 Reconnaissance du Locuteur 119 17.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 17.2 Paramètres acoustiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 17.3 Mesures de similarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 17.4 Vérification du locuteur dépendante du texte . . . . . . . . . . . . . . . . . 123 17.5 Vérification du locuteur indépendante du texte . . . . . . . . . . . . . . . . 124 17.6 Vérification du locuteur sur base de texte présenté . . . . . . . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
5
2 intro_ASR_f
0
. . . . . . . . . 124 17.6 Vérification du locuteur sur base de texte présenté . . . . . . . . . . . . . . 125 17.7 Identification, vérification et seuil de décision . . . . . . . . . . . . . . . . . 126 18 Performances des Systèmes et Applications 127 18.1 Performances types des systèmes de reconnaissance . . . . . . . . . . . . . . 127 18.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 19 Résumé et Conclusions 130
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
5
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur v Notations - xn = (xn1,xn2, . . . ,xnd)T : vecteur (acoustique) à l’instant n - d: dimension de vecteurs acoustiques - xn = (1,xn1,xn2, . . . ,xnd)T : vecteur acoustique augmenté à l’instant n - T: transposée - ωk ou qk: une classe (statistique) - K: nombre de classes statistiques, états HMM, densités de probabilité ou sorties d’un réseau de neurones - wk = {wk0, . . . ,wkd}T : paramètres de fonction discriminante linéaire - wk0: biais pour la classe ωk - W = {w1, . . . ,wk, . . . ,wK}: matrice de poids - X = {x1, . . . ,xn, . . . ,xN}: séquence de vecteurs acoustiques de longueur N - Xn+c n−c = {xn−c, . . . ,xn, . . . ,xn+c}: une sous-séquence de X de longueur 2c + 1 - M, Mi: Modèles de Markov (discrets ou cachés) - Θ, Θi: ensemble de paramètres, typiquement de modèles de Markov cachés - M = {q1, . . . ,ql, . . . ,qL}: l’ensemble des L états constituant un modèle de Markov M - L: nombre d’états d’un modèle HMM (répétitions possibles d’une même classe) - μk: vecteur moyen associé à la classe ωk ou qk dans la cas de distributions gaussiennes. - Σk, σk: matrice de covariance pleine ou vecteur de variance (matrice de covariance dia- gonale) associés à ωk ou q
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
6
2 intro_ASR_f
0
dans la cas de distributions gaussiennes. - Σk, σk: matrice de covariance pleine ou vecteur de variance (matrice de covariance dia- gonale) associés à ωk ou qk - qn k: événement qn = qk (états qk visité à l’instant n). - qn: état HMM observé à l’instant n - Q = {q1, . . . ,qn, . . . ,qN}: un chemin particulier de longueur N dans un modèle de Markov - p(·): densité de probabilité ou vraisemblance - ˆp(·): estimateur de densité de probabilité - P(·): probabilité (a posteriori) - p(xn|qk): vraisemblance locale (probabilités d’émission) - p(qk|xn): probabilité a posteriori (probabilité conditionnelle) de la classe qk étant donné l’observation xn - p(qk): probabilité a priori de la classe qk - p(X|M): vraisemblance de la séquence X étant donné le modèle M - p(X|M): approximation Viterbi de p(X|M) - P(M|X): probabilité a posteriori d’un modèle M étant donné la séquence X. - αn(l|M): probabilité “avant” = p(qn l,Xn 1 |M), conditionnée par la topologie du modèle M - βn(l|M): probabilité “arrière” = P(XN n+1|qn l,M), conditionnée par la topologie du modèle M - g(xn) = {g1(xn), . . . ,gk(xn), . . . ,gK(xn)}T : vecteur de sortie d’un réseau de neurones étant donné xn à son entrée. - gk(xn): valeur observée à la k-ième sortie d’un réseau de neurones, cette sortie étant associé à la classe ωk ou à un état HMM qk
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
6
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur vi - F(·): fonction linéaire (habituellement une fonction sigmoide) utilisée en réseaux de neu- rones - E: fonction d’erreur (typiquement critère de moindres carrés) minimisée lors de l’entraî- nement de fonctions discriminantes ou d’un réseau de neurones. - d(xn) = {d1(xn), . . . dk(xn), . . . ,dK(xn)}: vecteur de sortie cible lors de l’entraînment de fonctions discriminantes ou d’un réseau de neurones - p: ordre de prédiction d’un modèle auto-régressif
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
7
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur vii Acronymes - HMM: modèle de Markov caché (Hidden Markov Model) - MAP: maximum a posteriori - ML: maximum de vraisemblance (Maximum Likelihood) - iid: indépendantes et identiquement distribuées (hypothèse habituellement faite concer- nant une séquence de variables aléatoires) - EM: Estimation-Maximisation (Expectation-Maximisation ou Estimation-Maximisation) - DP: programmation dynamique (Dynamic Programming); algorithme d’optimisation (e.g., pour calculer une distance de Levenshtein ou pour trouver la distance la plus courte dans un graphe). - DTW: déformation temporelle dynamique (Dynamic Time Warping) - PLP: Perceptual Linear Prediction - EBP: algorithme de rétro-propagation de l’erreur (Error back-Propagation), comme gé- néralement utilisé pour l’entraînement de réseaux de neurones.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
8
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur viii
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
9
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 1 INTRODUCTION A LA RECONNAISSANCE DE LA PAROLE ET DU LOCUTEUR Prof. Hervé Bourlard IDIAP Research Institute and Ecole Polytechnique Fédérale de Lausanne 1 Introduction Le problème de la reconnaissance automatique de la parole consiste à extraire, à l’aide d’un ordinateur, l’information lexicale contenue dans un signal de parole, et éventuellement de l’interpréter. Depuis plus de quatre décennies, de nombreux laboratoires internationaux ont mené des recherches intensives dans ce domaine et des progrès importants ont été réa- lisés, notamment grâce au développement d’algorithmes puissants, alliés aux technologies de traitement numérique du signal. 1 De nombreux systèmes de reconnaissance de la pa- role sont maintenant disponibles ou peuvent être développés, couvrant des domaines aussi vastes que la reconnaissance de quelques mots clés sur lignes téléphoniques, les systèmes à dicter vocaux, les systèmes de commande et contrôle sur PC, et allant jusqu’aux systèmes de compréhension du langage naturel (pour applications limitées). Dans ce chapitre, nous discutons les outils théoriques qui sont à la base de la plupart des systèmes de reconnaissance de la parole. Comme nous le verrons, ceux-ci résultent de la combinaison efficace de techniques de traitement du signal, de classification de formes, de modèles statistiques puissants dont les paramètres peuvent être estimés automatiquement sur base d’un grand ensemble d’entraînement, de règles phonologiques et de contraintes grammaticales. Pour une discussion plus détaillée, nous renvoyons le lecteur à [46, 58, 86]. Beaucoup d’outils et de connaissances relatives au mécanisme de reconnaissance de la parole sont maintenant disponibles. Une expérience importante a également été acquise concernant la mise en oeuvre de ces algorithmes, leur comportement dans les environne- ments réel, leur force et leurs faiblesses, incluant notamment leur manque de robustesse aux environnements bruités et leur limitation à modéliser la grammaire utilisée dans le language parlé (et plus particulièrement le language naturel). Parallèlement à ces déve- loppements, de nombreux progrès relatifs à la perception de la parole et aux propriétés psycho-ac
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
10
2 intro_ASR_f
0
la grammaire utilisée dans le language parlé (et plus particulièrement le language naturel). Parallèlement à ces déve- loppements, de nombreux progrès relatifs à la perception de la parole et aux propriétés psycho-acoustiques propres à l’homme ont également été réalisés [71]. Bien que ces pro- priétés ne seront pas discutées ici, il est cependant bon de mentionner ici que celles-ci ont peu de rapports avec les systèmes de reconnaissance actuels. Finalement, malgré tous ces progrès, beaucoup de questions fondamentales restent ou- vertes concernant la technologie de reconnaissance de la parole et de la compréhension du language naturel. Il est clair que le signal de parole est des plus complexes, et sujet à beaucoup de variabilité. Ayant été produit par un système phonatoire humain complexe, il n’est pas facile de la caractériser à partir d’une simple représentation bi-dimensionnelle de propagation de sons. En plus de la complexité physiologique inhérente au système phona- toire, ce dernier varie également très fort d’une personne à l’autre. De plus, comme discuté 1. Nous notons ici que ces progrès ont souvent été réalisés grâce à une collaboration internationale intensive soutenue par des organismes de recherche tels que le programme ESPRIT de la Commission Européenne et ARPA (Advanced Research Project Agency) aux USA.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
10
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 2 au début de ce chapitre, la mesure de ce signal de parole est fortement influencée par la fonction de transfert du système de reconnaissance (comprenant les appareils d’acquisition et de transmission), ainsi que par le milieu ambiant. 1.1 Niveaux de complexité Pour bien appréhender le problème de la reconnaissance automatique de la parole, il est bon d’en comprendre les différents niveaux de complexités et les différents facteurs qui en font un problème difficile. Il y a d’abord le problème de la variabilité intra et inter-locuteurs. Le système est- il dépendant du locuteur (optimisé pour un locuteur bien particulier) ou indépendant du locuteur (pouvant reconnaître n’importe quel utilisateur)? Evidemment, les systèmes dé- pendants du locuteur sont plus faciles à développer et sont caractérisés par de meilleurs taux de reconnaissance que les systèmes indépendants du locuteur étant donné que la va- riabilité du signal de parole est plus limitée. Cette dépendance au locuteur est acquise au prix d’un entraînement spécifique à chaque utilisateur. Ceci n’est cependant pas toujours possible. Par exemple, dans le cas d’applications téléphoniques, il est évident que les sys- tèmes doivent pouvoir être utilisés par n’importe qui et doivent donc être indépendants du locuteur. Bien que la méthodologie de base reste la même, cette indépendance au locu- teur est cependant obtenue par l’acquisition de nombreux locuteurs (couvrant si possible les différents dialectes) qui sont utilisés simultanément pour l’entraînement de modèles susceptibles d’en extraire toutes les caractéristiques majeures. Une solution intermédiaire parfois utilisée est de développer des systèmes capable de s’adapter (de façon supervisée ou non supervisée) rapidement au nouveau locuteur. Le système reconnait-il des mots isolés ou de la parole continue? Evidemment, il est plus simple de reconnaître des mots isolés bien séparés par des périodes de silence que de reconnaître la séquence de mots constituant une phrase. En effet, dans ce dernier cas, non seulement la frontière entre mots n’est plus connue mais, de plus, les mots deviennent fortement articulés (c’est-
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
11
2 intro_ASR_f
0
re la séquence de mots constituant une phrase. En effet, dans ce dernier cas, non seulement la frontière entre mots n’est plus connue mais, de plus, les mots deviennent fortement articulés (c’est-à-dire que la prononciation de chaque mot est affectée par le mot qui précède ainsi que par celui qui suit — un exemple simple et bien connu étant les liaisons du français). Dans le cas de la parole continue, le niveau de complexité varie également selon qu’il s’agisse de texte lu, de texte parlé ou, beaucoup plus difficile, de langage naturel avec ses hésitations, phrases grammaticalement incorrectes, faux départs, etc. Un autre problème qui commence à être bien maîtrisé concerne la reconnaissance de mots clés en parole libre. Dans ce dernier cas, le vocabulaire à reconnaître est relativement petit et bien défini mais le locuteur n’est pas contraint de parler en mots isolés. Par exemple, si un utilisateur est invité à répondre par “oui” ou “non”, il peut répondre “oui, s’il-vous-plait”. Dans ce contexte, un problème qui reste particulièrement difficile est le rejet de phrases ne contenant aucun mots clés. La taille du vocabulaire et son degré de confusion sont également des facteurs impor- tants. Les petits vocabulaires sont évidemment plus faciles à reconnaître que les grands vocabulaires, étant donné que dans ce dernier cas, les possibilités de confusion augmentent. Certains petits vocabulaires peuvent cependant s’avérer particulièrement difficiles à traiter; ceci est le cas, par exemple, pour l’ensemble des lettres de l’alphabet, contenant surtout des mots très courts et acoustiquement proches. Le système est-il capable de fonctionner proprement dans des conditions difficiles?
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
11
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 3 En effet, de nombreuses variables pouvant affecter significativement les performances des systèmes de reconnaissance ont été identifiées [34]: – Les bruits d’environnement tels que bruits additifs stationnaires ou non-stationnnaires (par exemple, dans une voiture ou dans une usine). – Acoustique déformée et bruits (additifs) corrélés avec le signal de parole utile (par exemple, distorsions non linéaires et réverbérations). – Utilisation de différents microphones et différentes caractéristiques (fonctions de transfert) du système d’acquisition du signal (filtres), résultant généralement en du bruit de convolution. – Bande passante fréquencielle limitée (par exemple dans le cas des lignes téléphoniques pour lesquelles les fréquences transmises sont naturellement limitées entre environ 300 Hz et 3400 Hz). – Elocution inhabituelle ou altérée, comprenant entre autre: l’effet Lombard, 2 le stress physique ou émotionnel, une vitesse d’élocution inhabituelle, ainsi que les bruits de lèvres ou de respiration. Certains systèmes peuvent être plus robustes que d’autres à l’une ou l’autre de ces per- turbations, mais en règle générale, les reconnaisseurs de parole actuels restent encore trop sensibles à ces facteurs. 1.2 Méthodes La reconnaissance automatique de la parole consiste à extraire l’information lexicale contenue dans un signal de parole (signal électrique obtenu à la sortie d’un microphone et typiquement échantillonné à 8 kHz dans le cas de lignes téléphoniques ou entre 10 et 16 kHz dans le cas de saisie par microphone). Bien que ceci soulève également le problème de la compréhension de la parole, nous nous contenterons ici de discuter du problème du décodage lexical. Etant donné la complexité du problème, le formalisme de reconnaissance de la parole est souvent décomposé en plusieurs modules, généralement au nombre de quatre: 1. Un module de traitement du signal et d’analyse acoustique (feature extrcation, en anglais) transformant le signal de parole en une séquence de vecteurs acous- tiques. 2. Un générateur d’hypo
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
12
2 intro_ASR_f
0
traitement du signal et d’analyse acoustique (feature extrcation, en anglais) transformant le signal de parole en une séquence de vecteurs acous- tiques. 2. Un générateur d’hypothèses locales qui produira une étiquette ou des hypo- thèses locales correpondant à chaque segment élémentaire de parole (associé à un ou plusieurs vecteurs acoustiques). Ce générateur d’hypothèses locales portera générale- ment sur des modèles d’unités élémentaires de parole (typiquement des mots ou des phonèmes) qui seront préalablement entraînés sur une grande quantité d’exemples (par exemple, enregistrement de nombreuses phrases) contenant plusieurs fois les différentes unités de parole dans des contextes variés. 3. module d’alignement temporel (pattern matching, en anglais) transformant les hypothèses locales en un score global sur la phrase prononcée. Ceci pourra être réalisé par l’algorithme de déformation temporelle dynamique présenté dans la Section 8 et 2. Terme reprenant toutes les modifications, souvent inaudibles, du signal acoustique lors de l’élocution en milieu bruité.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
12
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 4 basé sur la reconnaissance de formes, ou via des modèles de Markov cachés comme présentés dans la Section 9. 4. Un module syntaxique interagissant avec le module d’alignement temporel et qui forcera le reconnaisseur à intégrer les contraintes syntaxiques (et éventuellement sé- mantiques et pragmatiques). Une partie de ce chapitre sur la reconnaissance de la parole traite de la modélisation sta- tistique de la parole par modèles de Markov cachés (HMM) (Hidden Markov Models, en anglais), par réseaux de neurones artificiels (ANN) (Artificial Neural Networks, en anglais), ou la combinaison des deux. Il est cependant important de garder en mémoire qu’aucune de ces techniques ne pourra jamais compenser entièrement un mauvais choix des paramètres acoustiques. L’extraction des caractéristiques du signal (analyse acoustique) et leur robustesse au bruit sera donc brièvement abordée dans la Section 7. Le signal de parole est fortement non stationnaire. Par conséquent, son analyse com- mence par décomposer le signal en une succession de tranches élémentaires qui seront sup- posées stationnaires. Typiquement, une analyse spectrale est appliquée toutes les 10 ms sur des fenêtres de 30 ms (par glissement et recouvrement des fenêtres d’analyse) pour générer un vecteur acoustique représentatif de chaque tranche de signal. 3 Un traitement supplémentaire est parfois appliqué à ces vecteurs acoustiques de sorte qu’ils soient moins sensibles aux perturbations (par exemple, soustraction du spectre de bruit dans le cas de bruit additif). La majorité des systèmes actuels de reconnaissance de la parole sont basés sur la théorie des modèles de Markov cachés (HMM) [44, 46, 85]. Chaque unité de parole est alors mo- délisée par un HMM. Dans le cas de petits vocabulaires, ces unités de parole peuvent être les mots. Dans le cas de grands vocabulaires, on préfèrera souvent utiliser des modèles de phonèmes, ce qui limitera le nombre de paramètres à estimer. Dans ce dernier cas, lors de la reconnaissance, les mots seront alors construits (dynamiquement) en termes de séque
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
13
2 intro_ASR_f
0
utiliser des modèles de phonèmes, ce qui limitera le nombre de paramètres à estimer. Dans ce dernier cas, lors de la reconnaissance, les mots seront alors construits (dynamiquement) en termes de séquence de phonèmes et les phrases en termes de séquences de mots. Disons simplement que les modèles HMM supposent que chaque unité de parole puisse être modélisée comme une séquence de segments de vecteurs acoustiques stationnaires, chaque segment étant représenté (par définition de stationnarité) par les paramètres de fonctions statistiques invariables. Par exemple, un mot sera alors supposé être défini comme une suite de phonèmes, alors que chaque phonème sera supposé constitué d’une séquence d’états (en quelque sorte des unités sous-phonétiques) pour lesquels la séquence de vecteurs acoustiques peut être considérée comme stationnaire et représentée par une distribution statistique fixée a priori dont on peut estimera les paramètres par entraînement. En géneral, cette distribution sera supposée gaussienne et les paramètres à estimer seront donc la moyenne et la matrice de covariance. Ces paramètres sont estimés sur base d’un ensemble d’entraînement dont on connait le contenu. Si cet ensemble d’entraînement est segmenté en termes de phonèmes ou, mieux, en termes d’états HMM, cette estimation est triviale. Malheureusement, une telle segmentation n’est généralement pas disponible et, même si elle l’était 4, il n’est pas sûr que celle-ci soit optimale en termes de segments stationaires et/ou 3. La largeur “optimale” de la fenêtre d’analyse doit être choisie de façon à contenir un nombre d’échan- tillons suffisants à une estimation spectrale significative, tout en restant suffisamment étroite pour que le signal puisse être considéré comme stationnaire. En pratique, on a remarqué qu’une fenêtre d’analyse de 25-30 ms conduisait souvent aux meilleurs résultats de reconnaissance. 4. Par exemple, grâce à une segmentation manuelle.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
13
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 5 de performances de reconnaissance. Comme nous le verrons par la suite, des algorithmes puissants ont cependant été développés afin d’obtenir, à l’aide d’un processus itératif, cette segmentation “optimale” à partir d’une segmentation arbitraire, ou de pouvoir estimer les paramètres des modèles sans segmentation explicite ou implicite. 5 Une faiblesse de ces modèles est la nécessité de fixer à priori la famille de distribution statistique associée à chaque état HMM. Il est en effet évident que les vecteurs acoustiques ne vérifient pas nécessairement une distribution gaussienne, cette dernière n’ayant que l’avantage de pouvoir être calculée et optimisée facilement. Des modèles dont chaque état est associé à une multi-gaussienne (somme pondérée de gaussiennes) ont été développés et ont amélioré les performances, surtout dans le cas de systèmes indépendants du locuteur. Plus récemment, d’autres solutions utilisant un réseau de neurones pour l’estimation de ces distributions [14, 74] ont été développées avec succès, voir Section 13. En plus de leurs meilleurs propriétés de discrimination, ces réseaux ont en effet la possibilité (du moins en théorie) de modéliser n’importe quelle fonction non linéaire. 2 Classification Statistique de Formes Il y a plusieurs raisons de s’intéresser à la modélisation stochastique des signaux: 1. Celle-ci nous fournit une bonne base pour la description théorique des algorithmes de traitement du signal. Il existe en effet de bons formalismes pour décrire les formes statiques et les formes dynamiques (signaux temporels). 2. Comme nous le verrons dans ce chapitre, il existe des algorithmes d’entraînement puissants permettant d’apprendre automatiquement les propriétés des signaux ou de la source des signaux à partir d’exemples. 3. Ces modèles fonctionnent bien en pratique sur de véritables applications de recon- naissance de formes (qui ont bien souvent un caractère stochastique). 4. Finalement, l’utilisation de méthodes stochastiques nous permet souvent de com- penser notre ignorance par l’entraînement de modèles assez généraux sur un grand ensemble de données. 2.1 Modèles de classification de formes Un classificateur de formes est souvent constitué de deux
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
14
2 intro_ASR_f
0
chastiques nous permet souvent de com- penser notre ignorance par l’entraînement de modèles assez généraux sur un grand ensemble de données. 2.1 Modèles de classification de formes Un classificateur de formes est souvent constitué de deux modules principaux: un ex- tracteur de caractéristiques, suivi d’un classificateur. En fait, ces deux modules ont le même but ultime, à savoir de transformer le forme initiale (comme obtenue à la sortie du système de mesure, par exemple un micro ou une caméra) en une représentation facile à traiter et à classer. La différence entre les deux modules est principalement une question de perspective. L’extracteur de caractéristiques est habituellement utilisé pour convertir l’entrée brute en une représentation qui pourra être plus facilement classifiée; c’est éga- lement lors de ce pré-traitement que des connaissances a priori spécifiques au domaine traité et pouvant améliorer les performances du système seront introduites. En effet, il a souvent été observé que toute utilisation correcte de connaissances spécifiques au problème considérés résultera généralement en une amélioration des performances du système. Par 5. Etant donné que ces algorithmes convergent vers un optimum local, il est cependant préférable de partir d’une segmentation réaliste et aussi bonne que possible.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
14
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 6 exemple, en reconnaissance de la parole, la transformation d’une séquence d’échantillons en une séquence de représentations spectrales court-terme est connue comme étant une bonne solution. Ceci est généralement vérifié en pratique bien que, en théorie, des tech- niques de transformation de données pourraient également être intégrées au classificateur et être entraînées avec celui-ci. En plus d’une transformation de l’espace de représentation de la forme, le module d’ex- traction des caractéristiques introduit souvent (mais pas nécessairement) une granularité de description plus grosse. Par exemple, alors que le signal de parole est généralement échantillonné entre 8 et 16 kHz, l’information spectrale utilisée pour la reconnaissance sera typiquement échantillonnée à 100 Hz (c’est-à-dire un vecteur spectral toutes les 10 ms). Ceci ne correspond pas nécessairement à une réduction de dimension, bien que cette der- nière soit souvent une motivation supplémentaire lors de l’extraction des caractéristiques; certaines représentations, comme par exemple certains types de modèles auditifs, peuvent même parfois augmenter la dimension de l’espace. Quelque soit la méthode d’analyse utili- sée, le but de cette première étape est de produire une représentation pertinente pour une bonne discrimination entre classes et qui soit la plus insensible possible aux dégradations éventuelles. En reconnaissance de la parole, les données (formes) considérées sont des séquences temporelles d’échantillons (typiquement entre 8000 et 16000 échantillons par seconde, en fonction de la fréquence d’échantillonnage. 6) Etant donné que ces séquences tem- porelles ne sont pas stationnaires, elles sont décomposées en une séquence de segments (formes) élémentaires dont on extrait pour chacun d’eux un vecteur caractéristique xn = (xn1,xn2, . . . ,xnd), de dimension d, à l’instant n. Après extraction des caractéristiques, un mot ou une phrase est alors représenté sous la forme d’une séquence de vecteurs caracté- ristiques X = {x1, . . .
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
15
2 intro_ASR_f
0
instant n. Après extraction des caractéristiques, un mot ou une phrase est alors représenté sous la forme d’une séquence de vecteurs caracté- ristiques X = {x1, . . . ,xn, . . . ,xN}. Le problème consiste alors à classer ces vecteurs caractéristiques en terme d’unités de parole élémentaires qui pourront servir de base à la reconnaissance de mots et de phrases. A cet effet, les paramètres des classificateurs sont entraînés sur base d’un ensemble d’exemples de ces vecteurs caractéristiques dont on connait (entraînement supervisé) ou pas (entraî- nement non supervisé) la classification. L’entraînement développe alors un ensemble de fonctions discriminantes (chaque fonction étant associée à une classe) dont les para- mètres seront optimisés dans le but de générer, pour chaque forme d’entrée de la base de données, la valeur la plus élevée pour la fonction correspondant à la classe correcte. Nous dénoterons ici l’ensemble des classes possibles par Ω= {ω1, . . . ,ωk, . . . ,ωK}. Il est donc nécessaire de trouver la meilleure représentation du signal et le meilleur classificateur per- mettant de discriminer au mieux les formes appartenant à différentes classes, c’est-à-dire qui conduisent au taux d’erreur de classification minimum. 7 Dans cette section, nous avons décrit l’extraction de caractéristiques et la classification en termes de deux processus différents et indépendants. Il est cependant bon de noter ici qu’il est toujours bon d’intégrer ces deux processus et de les optimiser conjointement chaque fois que cela est possible. Il est en effet évident que les meilleures caractéristiques sont celles qui conduisent à une bonne classification, alors que le meilleur classificateur est celui qui 6. Bien qu’actuellement la fréquence d’échantillonnage de 11025 Hz (44100 Hz de la qualité CD divisée par 4) semble être reconnue comme standard multi-media. 7. De manière plus générale, un coût différent peut être associé à différents types d’erreur, auquel cas le classificateur de moindre coût ne correspond plus nécessairement au minimum d’erreurs
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
15
2 intro_ASR_f
0
reconnue comme standard multi-media. 7. De manière plus générale, un coût différent peut être associé à différents types d’erreur, auquel cas le classificateur de moindre coût ne correspond plus nécessairement au minimum d’erreurs.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
15
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 7 ne dépend pas de façon critique d’hypothèses fausses faites lors de la représentation du signal. 2.2 Règles simples à retenir Dans ce chapitre, nous utiliserons la notation P(a) pour les probabilités (dans le cas où la variable a est discrète) et p(a) pour les densités de probabibilités ou fonctions de vraisemblance (dans le cas où la variable a est continue). Les seules règles de probabilitiés qui seront régulièrement utilisées dans la suite de ce chapitre se résument principalement à: 1. La loi de Bayes: P(A,B) = P(A|B)P(B) = P(B|A)P(B) d’où: P(A|B) = P(B|A)P(A) P(B) (1) 2. Si des événements Bk sont mutuellement exclusifs et collectivement exhaus- tifs, nous avons: P(A) = X ∀k P(A,Bk) (2) 3. Loi de décomposition des probabilités jointes: P(B1, . . . ,Bn, . . . ,BN) = N Y n=1 P(Bn|B1, . . . ,Bn−1) valable sans hypothèses particulières. Cette loi est à l’origine des méthodes d’échan- tillonnage de Gibbs dans lesquelles l’échantillonnage d’une distribution de probabi- lité jointe se fait en échantillonnant chaque variable ou sous-ensemble de variables conditionnellement aux autres variables (supposées connues). 8 En itérant cet échan- tillonnage et la réestimation des variables supposées connues, on arrive à une bonne estimation de la distribution jointe. Cette méthode est notamment à la base de l’al- gorithme EM qui sera discuté plus loin (Section 2.7). 2.3 Bases de la statistique bayesienne Pour développer un système d’apprentissage et de classification statistique [31], on com- mence par définir un modèle génératif M à partir duquel les observations X = {x1,
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
16
2 intro_ASR_f
0
la statistique bayesienne Pour développer un système d’apprentissage et de classification statistique [31], on com- mence par définir un modèle génératif M à partir duquel les observations X = {x1, . . . ,xn, . . . ,xN} sont supposées avoir été générées. Ce modèle M dépendra d’un ensemble de paramètres Θ a priori inconnus et définissant la vraisemblance: p(X|Θ) 8. Cette approche a parfois l’avantage de réduire le nombre de paramètres et de conduire à une meilleure estimation des paramètres. Elle peut être utilisée pour l’estimation des paramètres d’un distribution com- plexe, ainsi que pour la génération d’échantillons à partir de cette distribution.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
16
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 8 Dans le cas de plusieurs modèles Mk partageant le même ensemble de paramètres, la fonction de vraisemblance est alors définie comme: p(X|Mk,Θ) Dans l’approche “Bayesienne pure”, on suppose alors que l’ensemble des paramètres Θ sont eux-mêmes des variables aléatoires de distribution a priori p(Θ). L’utilisation de cette distribution a priori permet l’introduction de contraintes sur l’espace des paramètres afin d’en améliorer l’estimation (notamment dans le cas où l’ensemble d’entraînement est trop limité). En utilisant la loi de Bayes, cette distribution a priori est alors utilisée pour construire la distribution a posteriori: p(Θ|X) <unk>p(X|Θ)p(Θ) sur laquelle seront basés l’entraînement et la classification. Dans la cas de plusieurs classes partageant les mêmes paramètres, il faut non seulement introduire la distribution a priori p(Θ) sur l’ensemble des paramètres, mais également la probabilité a priori P(Mk) de chacune des classes. La probabilité a posteriori utilisée pour l’entraînement et la reconnaissance prend alors la forme suivante: p(Mk,Θ|X) = P(Mk|X,Θ)p(Θ|X) (3) dans laquelle, par la loi de Bayes, nous avons également: P(Mk|X,Θ) = p(X|Mk,Θ)P(Mk|Θ) p(X|Θ) = p(X|Mk,Θ)P(Mk|Θ) PK k=1 p(X|Mk,Θ)P(Mk|Θ) (4) L’utilisation jointe de (3) et (4) nous permet d’inclure à la fois les distributions a priori sur les paramètres et les classes dans les probabilités a posterior (critère de classification optimal garantissant le taux d’erreur minimum). Il faut alors choisir le critère utilisé pour l’entraînement des paramètres: – Critère du maximum a posteriori (MAP): si on essaie de maximiser directement les probabilités a posteriori P(Mk|X,Θ) ou P(Mk,Θ|X). – Critère du maximum de
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
17
2 intro_ASR_f
0
tère du maximum a posteriori (MAP): si on essaie de maximiser directement les probabilités a posteriori P(Mk|X,Θ) ou P(Mk,Θ|X). – Critère du maximum de vraisemblance (ML) (Maximum Likelihood, en anglais): si on maximise seulement la fonction de vraisemblance p(X|Mk,Θ) ou p(X,Θ|Mk) (en supposant une distribution uniforme des paramètres et/ou des classes). En statistique bayesienne, la distribution a priori des paramètres p(Θ) est souvent utilisée dans le but de lisser ces paramètres et d’en permettre une estimation plus robuste par l’introduction de contraintes a priori. 2.4 Classification statistique Dans cette section, nous introduisons le concept de classification statistique, et commen- cons par signaler que nous supposerons toujours que la distribution a priori sur l’ensemble des paramètres est uniforme. Nous ne traiterons donc jamais de l’approche Bayesienne
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
17
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 9 “standard” pour le lissage des paramètres et ne considérerons que la distribution a priori sur l’ensemble des classes. 9 Utilisant les notations déjà introduites, nous définirons la probabilité P(ωk) (avec 0 ≤P(ωk) ≤1) qu’une forme appartienne à la classe ωk. Etant donné que cette pro- babilité peut être exprimée avant même l’observation des données, elle est souvent appelée probabilité a priori de la classe ωk. Si cette probabilité est conditionnée par un vec- teur d’observation, on exprime alors la probabilité d’appartenance à une classe spécifique étant donné la forme à classer. Selon les notations précédentes, étant donné un vecteur caractéristique x, cette probabilité conditionnelle est dénotée P(ωk|x). Etant donné que cette probabilité ne peut être exprimée qu’après avoir observé les données, celle-ci est généralement appelée probabilité a posteriori de la classe ωk étant donné le vecteur caractéristique x. Un des avantages des méthodes statistiques est leur capacité d’entraînement automa- tique, c’est-à-dire la détermination automatique des paramètres du système. En effet, dans tout système de classification statitistique des formes, chaque classe ωk sera représentée par un ensemble de paramètres Θk. L’ensemble des paramètres du système est alors repré- senté ici par Θ = {Θ1, . . . ,Θk, . . . ΘK}. Il est aussi possible de ne faire aucune distinction entre les paramètres des différentes classes. Dans ce cas, on suppose que toutes les classes partagent le même ensemble de paramètres Θ. Quoiqu’il est soit, ce sont ces paramètres Θ que l’on veut estimer pendant l’entraînement, et ceci en optimisant une fonction donnée. Comme nous le verrons plus loin, il y a plusieurs choix possibles pour cette fonction, chacun de ceux-ci conduisant à des classificateurs dont les propriétés seront différentes. Il est donc bon de toujours garder en mémoire que toutes les probabilités introduites par la suite sont condition
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
18
2 intro_ASR_f
0
y a plusieurs choix possibles pour cette fonction, chacun de ceux-ci conduisant à des classificateurs dont les propriétés seront différentes. Il est donc bon de toujours garder en mémoire que toutes les probabilités introduites par la suite sont conditionnées sur un ensemble de paramètres Θ. Pendant la classification cet ensemble de paramètres est fixe et, par conséquent, n’apparaîtra généralement pas dans les notations. Lors de l’entraînement, ce sont ces paramètres qui seront estimés et seront donc présents dans les notations. Le problème de classification dans un contexte statistique peut maintenant se formuler de la façon suivante [31]: étant donné un ensemble de mesures représenté par le vecteur x, quelle est la probabilité P(ωk|x) que la forme dont a été extrait x appartienne à ωk? Intuitivement, si l’on connait ces probabilités pour toutes les classes et tous les vecteurs caractéristiques possibles, il est possible d’obtenir une bonne classification. Effectivement, une telle décision peut être formalisée, et démontrée comme étant optimale, dans le sens décrit à la section précédente. Ceci veut dire que si l’on peut construire un classificateur qui assigne x à la classe ωk (en supposant que la forme appartiennne effectivement à l’ensemble des classes possibles {ω1, ω2, . . . , ωK}) si P(ωk|x,Θ) > P(ωj|x,Θ), ∀j = 1,2, . . . ,K, j <unk>= k (5) On peut alors montrer qu’une telle règle conduit à la probabilité d’erreur minimale [31]. Ce critère est habituellement appelé critère de maximum a posteriori (MAP). Pendant la phase de classification, l’ensemble des paramètres Θ est fixé et sera souvent enlevé de la conditionnelle (en étant considéré comme implicite). En utilisant ce critère, le nombre moyen d’erreurs sur un ensemble test devrait être minimum. Selon la terminologie de la section précédente, nous devrions donc utiliser les 9. Cette remarque est importante étant donné que nous avons souvent observé une confusion de termi- nologie lorsque nous parlons, comme dans la suite de ce chapitre, de probabilités a
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
18
2 intro_ASR_f
0
section précédente, nous devrions donc utiliser les 9. Cette remarque est importante étant donné que nous avons souvent observé une confusion de termi- nologie lorsque nous parlons, comme dans la suite de ce chapitre, de probabilités a priori.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
18
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 10 P(ωk|x) comme fonctions discriminantes. Cette stratégie optimale, souvent appelée règle de décision de Bayes, revient simplement à assigner une forme à la classe associée à la plus grande probabilité a posteriori (étant donné x). Au vu de l’optimalité de cette règle, la probabilité a posteriori est également parfois appelée probabilité de Bayes. Etant donné cette règle simple, le problème consiste alors à savoir comment estimer au mieux ces probabilités. Celles-ci ne peuvent pas être calculées directement et peuvent seulement être estimées à partir de données d’entraînement et de connaissances a priori. La précision de l’estimateur déterminera alors les performances du classificateur. Le problème de classification est souvent simplifié en faisant des hypothèses concernant la répartition ou les propriétés de données. Dans le cas de modèles statistiques, on utilise souvent des modèles paramétrisés de distribution de probabilité déterminée (par exemple, une distri- bution gaussienne) dont on estimera les paramètres. 10 Dans cette approche, on suppose alors que chaque classe ωk est caractérisée par une densité de probabilité p(x|ωk) différente et qui peut être estimée séparément et indépendamment des autres classes (ce qui n’est pas le cas des probabilités a posteriori P(ωk|x) qui dépendent des paramètres de toutes les classes). Cette densité de probabilité est généralement appelée “vraisemblance” (du vecteur caractéristique x conditionné par la classe) et peut s’exprimer en fonction de probabilités a posteriori par la loi de Bayes: P(ωk|x) = p(x|ωk)P(ωk) p(x) = p(x|ωk)P(ωk) PK j=1 p(x|ωj)P(ωj) (6) où K représente le nombre de classes. La relation (6) nous dit donc que la probabilité a posteriori P(ωk|x) s’exprime en termes du produit d’une fonction de vraisemblance (densité de probabilité) p(x|ωk) pour le vecteur d’observation x et de la probabilité a priori P
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
19
2 intro_ASR_f
0
x) s’exprime en termes du produit d’une fonction de vraisemblance (densité de probabilité) p(x|ωk) pour le vecteur d’observation x et de la probabilité a priori P(ωk). Le dénominateur dans (6) est simplement une constante de normalisation (étant donné qu’elle ne dépend pas de la classe) garantissant que toutes les probabilités a posteriori somment à l’unité. Malheureusement, cette approche indirecte pour calculer les probabilités a posteriori n’est pas sans inconvénients: – Des hypothèses sont toujours requises concernant la forme du modèle paramétrique (des fonctions de vraisemblance) de p(x|ωk) (voir plus loin). – Les probabilités a priori sont généralement très difficiles à estimer de façon fiable. – L’estimation des paramètres des modèles maximisant la fonction de vraisemblance n’optimise pas les propriétés discriminantes des modèles. En fait, on peut montrer que la maximisation de la fonction de vraisemblance ne minimise effectivement le taux d’erreur que dans le cas où le modèle est correct (ce qui n’est généralement pas le cas) et où l’on possède un nombre suffisant (voir infini) de données d’entraînement. En général, pour un même nombre de paramètres, l’utilisation de probabilités a pos- teriori conduira à de meilleures performances que les fonctions de vraisemblance. Ce 10. Une exception à cette règle est le classificateur dit “des k plus proches voisins” qui n’est pas vrai- ment paramétrisé et qui apprend les différentes distributions en "mémorisant"simplement tous les vecteurs d’entraînement. Lors de la classification, un nouveau vecteur est classé comme appartenant à la classe majoritaire à laquelle appartiennent les k exemples les plus proches. La variable à optimiser est alors k et dépendra de la taille de la base d’entraînement ainsi que de la dimension de l’espace. Sous certaines conditions, ce type de classificateur peut être démontré optimal au sens de Bayes.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
19
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 11 problème de discrimination est dû au fait que, pendant l’entraînement, le dénomina- teur de (6) n’est pas constant et dépend des paramètres de toutes les classes. Utilisant la loi de Bayes (et en acceptant ses limitations), nous assignerons alors l’observa- tion x à la classe ωk si: p(x|ωk) p(x|ωj) > P(ωj) P(ωk), ∀j = 1,2, . . . ,K, j <unk>= k (7) Nous notons ici que dans cette dernière expression, le facteur p(x) a disparu. La fraction à gauche est habituellement appelée rapport de vraisemblance. Ceci est également équivalent à utiliser une fonction discriminante définie comme le produit p(x|ωk)P(ωk) pour chaque valeur de k. Dans la plupart des systèmes, les vraisemblances sont estimées sur base de distribu- tions gaussiennes p(x|ωk) = N(x,Θk) = N(x,μk,Σk) = 1 (2π)d/2|Σk|1/2 exp μ −1 2(x −μk)T Σ−1 k (x −μk) ¶ (8) où μk et Σk représentent respectivement le vector moyen et la matrice de covariance associés à la classe ωk. Si les éléments diagonaux de la matrice de covariance sont repésentés par σ2 ki, et si l’on suppose que la matrice de covariance est diagonale (c’est-à-dire que les composantes des vecteurs caractéristiques sont supposées non corrélées), cette expression se réduit alors à: p(x|ωk) = N(x,μk,Σk) = d Y i=1 1 q 2πσ2 ki exp à −(xi −μki)2 2σ2 ki ! (9) où μki représente la i-ième composante de μk. Voir Figure 1 pour une illustration de distributions gaussiennes. Bien qu’il puisse sembler que le choix de cette distribution particulière soit quelque peu arbitraire, les distributions gaussiennes ont plusieurs propriétés intéressantes qui en
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
20
2 intro_ASR_f
0
. Voir Figure 1 pour une illustration de distributions gaussiennes. Bien qu’il puisse sembler que le choix de cette distribution particulière soit quelque peu arbitraire, les distributions gaussiennes ont plusieurs propriétés intéressantes qui en font de bons modèles, à commencer par le fait qu’elles constituent souvent une approximation raisonnable à beaucoup de distributions rencontrées dans les données réelles. Cette pro- priété résulte en fait du Théorème Central Limite qui dit que la distribution d’observations résultant de plusieurs causes non corrélées, et où aucune cause simple ne prédomine sur une autre, tend vers une distribution gaussienne. Finalement, les distributions gaussiennes sont particulièrement facile à traiter mathématiquement. La gaussienne, malgré ses qualités, est une distribution uni-modale, ne présentant qu’un seul maximum associé à la moyenne. Des distributions plus complexes à modes multiples peuvent cependant être approximées par une somme pondérée de distributions gaussiennes, appelée distribution multi-gaussienne et qui prend alors la forme suivante: p(x|ωk) = J X j=1 p(x,j|ωk) = J X j=1 P(j|ωk)p(x|j,ωk)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
20
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 12 = J X j=1 cjk N (x,μj,Σj) (10) où J est le nombre de gaussiennes et les paramètres P(j|ωk) = cjk représentent des facteurs de pondération (probabilités a priori de la gaussienne j pour la classe ωk) et sont des paramètres supplémentaires qui devront être déterminés pendant l’entraînement et qui vérifient les contraintes suivantes: cjk ≥0, ∀j,k (11) et J X j=1 cjk = 1, ∀k = 1, . . . ,K (12) Une telle somme pondérée de gaussiennes permet alors d’approximer beaucoup de distribu- tions complexes. En fait, en théorie, les multi-gaussiennes constituent un “approximateur universel” qui peut approcher (de façon arbitrairement proche) n’importe quelle distri- bution, pour autant qu’il y ait suffisamment de gaussiennes et suffisamment de données d’entraînement. 2.5 Fonctions discriminantes 2.5.1 Fonctions discriminantes linéaires Certains classificateurs sont parfois basés sur le principe des fonctions discriminantes (linéaires et non linéaires) et peuvent souvent être considérées comme d’autres types de classificateurs statistiques. Généralement, ces fonctions discriminantes sont linéaires (ou appliquées après transformation non linéaire de l’espace d’entrée). 11 Dans ce cas, on sup- pose que chaque classe ωk, ∀k = 1, . . . ,K est associée à une fonction discriminante linéaire [80]: gk(x) = wT k x (13) où T représente la transposée et x = (1,x1,x2, . . . ,xd)T le vecteur d’observation x auquel on a ajouté une coordonnée additionnelle toujours égale à 1 pour ne pas contraindre l’hy- perplan (13) à contenir l’origine. Le vecteur wk = (wk0,wk1,wk2, . . . ,wkd)T représente les paramètres caractéristiques de la classe ωk (avec wk0 généralement
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
21
2 intro_ASR_f
0
vecteur wk = (wk0,wk1,wk2, . . . ,wkd)T représente les paramètres caractéristiques de la classe ωk (avec wk0 généralement appelé “biais” de la classe ωk). Comme discuté dans la Section 12, ces fonctions discriminantes linéaires sont à la base des réseaux de neurones et réalisent la fonction de base du perceptron représenté à la Figure 19 (sans la fonction non linéaire F). En rassemblant les équations (13) pour toutes les classes, nous obtenons la notation matricielle: g(x) = W T x avec g(x) = (g1(x), . . . ,gK(x))T et où W = {wjk} est une matrice (d+1)×K de paramètres (parfois appelés “poids”). La classification est alors basée sur la règle: Si gk(x) ≥gj(x), ∀j <unk>= k Alors x ∈ωk 11. Comme nous le verrons plus loin (Section 12), les réseaux de neurones estimeront des fonctions discriminantes non linéaires.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
21
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 13 Les fonctions discriminantes découpent donc l’espace d’entrée en segments d’hyperplans definis par les équations gk(x) −gj(x) = 0. L’entraînement consiste alors à trouver l’en- semble de paramètres qui garantit au mieux (selon un certain critère, typiquement taux d’erreur minimum ou critère de moindres carrés) que si x ∈ωk alors gk(x) ≥gj(x), ∀j <unk>= k (14) pour tous les vecteurs de la base d’entraînement et toutes les classes. Dans le cas du critère des moindres carrès, les paramètres des fonctions discriminantes sont obtenus par minimisation de la fonction: E = K X k=1 X x∈ωk ∥g(x) −∆k ∥2 (15) où ∆k est un vecteur de dimension K dont toutes les composantes sont à 0 excepté celle correspondant à la classe correcte (ici k). La minimisation de (15) tend donc à assigner la sortie à 1 pour la fonction associée à la classe correcte et à 0 pour les classes incorrectes. Ces fonctions sont appelées “discriminantes” étant donné qu’elles maximisent la sortie de la fonction correspondant à la classe correcte, tout en minimisant les sorties des classes rivales. La résolution de (15) peut se faire par simple algèbre linéaire [29]. Les réseaux de neurones qui seront discutés dans la Section 12, sont une extension non linéaire de ces fonctions discriminantes linéaires. 2.5.2 Densité de probabilité gaussienne Il est facile de montrer que les fonctions discriminantes linéaires peuvent estimer des densités de probabilités gaussiennes. En effet, nous savons que la décision optimale devrait être basée sur la probabilité a posteriori p(ωk|x) proportionnelle à p(x|ωk)p(ωk) lors de la classification (étant donné que p(x) est alors indépendant de k). En prenant le logarithme des densités gaussiennes (8) et en supposant que toutes les classes ωk ont la même matrice de covariance Σk = Σ, le crit
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
22
2 intro_ASR_f
0
est alors indépendant de k). En prenant le logarithme des densités gaussiennes (8) et en supposant que toutes les classes ωk ont la même matrice de covariance Σk = Σ, le critère de classification bayesienne peut alors s’exprimer sur base de la fonction: gk(x) = −1 2(x −μk)T Σ−1(x −μk) + log p(ωk) (16) Le terme quadratique xT Σ−1x étant alors indépendant de la classe, on peut définir: gk(x) = wT k x + wk0 (17) avec: wk = Σ−1μk wk0 = −1 2μT k Σ−1μk + log p(ωk) Il est donc possible d’estimer des densités gaussiennes (ayant une matrice de covariance pleine mais identique pour toutes les classes) par des fonctions discriminantes linéaires (avec la possibilité, cependant, de bénéficier d’algorithmes d’entraînement plus puissants et discriminants). Si on veut une matrice de covariance Σ différente pour chaque classe, il faudra alors garder le terme quadratique dans (16).
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
22
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 14 2.6 Entraînement Dans chacune des expressions ci-dessus, il y a un certain nombre de paramètres Θ qui doivent être determinés pour permettre l’estimation des probabilités. Ceci se fait à partir de données, appelées données d’entraînement (ou base d’entraînement), qui peuvent être étiquetées ou non en fonctions des classes. Si la base d’entraînement est étiquetée en termes de classes, on dit que l’on a un entraînement supervisé; dans le cas contraire, on parlera d’entraînement non supervisé (la quantification vectorielle brièvement discutée dans la Section 2.7.4 est un type d’entraînement non supervisé). Dans le cas de simples gaussiennes, l’entraînement supervisé est évident et la détermi- nation des paramètres se résume simplement au calcul de la moyenne et de la matrice de covariance pour chaque classe étant donné l’ensemble des vecteurs associés à chacune des classes. Dans le cas de multi-gaussiennes, les paramètres ne sont cependant plus estimés aussi facilement étant donné que les vecteurs caractéristiques ne sont plus associés à une seule gaussienne. En règle générale, si l’appartenance des vecteurs aux différentes classes n’est pas connue, pas possible ou simplement pas nécessaire, les paramètres de (8), (9) et (10) peuvent être déterminés itérativement par l’algorithme EM (“Expectation Maximization” ou “Estima- tion Maximisation”, en anglais) [7, 26] brièvement décrit dans la Section 2.7 maximisant la fonction de vraisemblance p(X|Θ). Un cas particulier de cet algorithme EM consiste à faire de la quantification vectorielle sur l’ensemble des observations X comme décrit dans le Chapitre 4. En adoptant des distributions standards telles que (8), (9) ou (10) pour le calcul des probabilités conditionelles p(x|ωk) et en appliquant la règle de Bayes, il est alors facile de classer de nouvelles observations. Evidement, les performances du système dépendront de la manière dont les nouvelles données correspondent au modèle sélectionné, mais en général les classificateurs Bayesiens, même basés sur des hypothèses paramét
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
23
2 intro_ASR_f
0
de nouvelles observations. Evidement, les performances du système dépendront de la manière dont les nouvelles données correspondent au modèle sélectionné, mais en général les classificateurs Bayesiens, même basés sur des hypothèses paramétriques simples, conduiront à des résultats acceptables. Il est bon de rappeler ici que si les vraisemblances p(x|ωk) sont supposées suivre des distributions gaussiennes, les distributions de probabilités a posteriori P(ωk|x) ne seront pas gaussiennes [31]. Comme nous le verrons par la suite, les réseaux de neurones peuvent être considérés comme une généralisation de ces classificateurs statistiques simples. En effet, sous certaines conditions, ces réseaux peuvent générer des surfaces de décisions complexes et estimer les probabilités a posteriori sans nécessiter d’hypothèses particulières concernant la forme des distributions sous-jacentes. 2.6.1 Entraînement supervisé Comme brièvement discuté précédemment, nous pouvons avoir deux types d’entraîne- ment: supervisé et non supervisé. Dans le cas de l’entraînement supervisé, chaque vecteur d’observation x est associé à un vecteur cible de sortie y. Dans le cas de problèmes de régression, ce vecteur y peut prendre n’importe quelle forme (dépendant du problème à traiter). Dans le cas de classification, ce vecteur cible sera un vecteur binaire de dimen- sion K (le nombre de classes) ayant une seule composante à 1, correspondant à la classe correcte, tandis que toutes les autres composantes sont mises à 0. De façon générale, le modèle génératif pour l’entraînement supervisé est alors basé sur
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
23
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 15 la distribution de probabilités conditionnelles: p(y|x,Θ) En pratique, nous n’avons pas qu’une seule paire de vecteurs (x,y) mais un ensemble (X,Y ) de paires d’entraînement (X,Y ) = {(xn,yn)}N n=1 et les paramètres doivent donc être déterminés de façon à maximiser la vraisemblance globale LΘ(X,Y ) = p(Y |X,Θ) (18) 2.6.2 Echantillons indépendants, identiquement distribués (iid) De façon à maximiser facilement la vraisemblance, on suppose souvent que les échan- tillons sont indépendants et identiquement distribués (iid), ce qui nous permet alors de décomposer la vraisemblance (18) en: LΘ(X,Y ) = N Y n=1 p(yn|xn,Θ) Lors de l’entraînement supervisé, il faut maximiser LΘ(X,Y ) en fonction des paramètres Θ. Il est équivalent, et souvent plus facile, de maximiser le logarithme de L (“log-likelihood”, en anglais): LΘ(X,Y ) = N X n=1 log p(yn|xn,Θ) (19) 2.6.3 Entraînement non supervisé Dans le cas d’un entraînement non supersivé, seul le vecteur d’entrée x est connu, et le modèle génératif associé à ce problème est défini en fonction de: p(x|Θ) De nouveau, nous avons plusieurs vecteurs d’entraînement X = n x(n)oN n=1 et, sous les hypothèses iid, le logarithme de la fonction de vraisemblance à maximiser en fonction de Θ devient: LΘ(X) = N X n=1 log p(xn|Θ) En fonction de la structure du problème, et de ses contraintes éventuelles, les fonctions de vraisemblances seront plus ou moins difficiles à exprimer et à maximiser. Toutes les méthodes de maximisation sont cependant basées sur un algorithme très général et très puissant, appelé algorihtme EM, et qui est brièvement décrit dans la section suivante. Une adaptation de cet algorithme
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
24
2 intro_ASR_f
0
. Toutes les méthodes de maximisation sont cependant basées sur un algorithme très général et très puissant, appelé algorihtme EM, et qui est brièvement décrit dans la section suivante. Une adaptation de cet algorithme à l’entraînement des modèles de Markov cachés généralement utilisés pour la reconnaissance de la parole sera décrit dans la Section 10.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
24
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 16 2.7 Algorithme d’Estimation et Maximisation (EM) 2.7.1 Description générale Initialement introduit dans [6, 7, 26], l’algorithme EM est à la base de beaucoup d’en- traînements statistiques faisant intervenir des variables “manquantes” (missing variables, en anglais), aussi appelées variables “latentes” (latent variables, en anglais). Brièvement, cet algorithme maximise, de façon itérative dans l’espace des paramètres Θ, la fonction de vraisemblance (critère du maximum de vraisemblance), c’est-à-dire la densité de probabi- lité p(X|Θ) de l’ensemble des observations X conditionné sur l’ensemble des paramètres Θ. 12 Le but de ce livre, et de ce chapitre en particulier, n’est pas de présenter cet algorithme dans le détail. Etant donné son importance dans l’estimation de modèles statistiques en général et de modèles de Markov cachés en particulier, nous en discutons cependant ici les grandes lignes. 13 Parmi les cas les plus courants d’application de l’algorithme EM nous citerons ici: – Entraînement non supervisé des paramètres (moyennes, covariances et coefficients de pondérations) d’une densité multi-gaussienne de type (10) — voir plus loin (“EM pour une distribution multi-gaussienne”). Dans ce cas, un ensemble de vecteurs X = {x1, . . . ,xn, . . . xN} est modélisé (et donc supposé être généré) par un ensemble de gaussiennes dont l’ensemble des paramètres Θ est estimé de façon à maximiser LΘ(X). Dans ce cas, chaque variable xn ne sera pas strictement associée à une seule gaussienne (ce qui correspondrait à une quantification vectorielle de type “k-means” – voir Chapitre 4) mais pourra avoir été générée par chacune des gaussiennes avec une certaine vraisemblance. Ce type de quantification s’appelle parfois aussi “quantifica- tion
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
25
2 intro_ASR_f
0
k-means” – voir Chapitre 4) mais pourra avoir été générée par chacune des gaussiennes avec une certaine vraisemblance. Ce type de quantification s’appelle parfois aussi “quantifica- tion vectorielle floue”. – Beaucoup de problèmes faisant intervenir des variables manquantes, par exemple lorsque une partie des observations n’est pas disponible. – Entraînement “Avant-Arrière” (Baum-Welch) des modèles de Markov cachés, comme discuté dans la Section 10. Le problème de l’entraînement EM est en fait un cas particulier de descente (montée) de gradient et peut être formulé comme suit: – Supposons que le problème de maximisation de la vraisemblance soit simplifié si nous connaissions les valeurs de variables additionnelles, appelées “variables manquantes” ou “variables cachées”. Nous définissons donc: – Les observations X = {x1, . . . ,xn, . . . ,xN} – Les variables manquantes Y = {y1, . . . ,yn, . . . ,yN}. Par exemple, ces variables manquantes pourraient représenter la classe ωk ∈Ωassociée à chaque observa- tion xn. 12. Idéalement, on voudrait maximiser la fonction de probabilité jointe p(X,Θ) = p(X|θ)p(θ). En ne suivant pas l’approche Bayesienne considérant les paramètres comme des variables aléatoires, et en suppo- sant que ceux-ci ont une distribution uniforme, le problème se résume à la maximisation de la fonction de vraisemblance p(X|Θ). 13. Nous notons au passage que cet algorithme EM devient de plus en plus important et trouve sans cesse de nouveaux domaines d’applications.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
25
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 17 – Définissons une fonction auxiliaire Q(Θ,Θ(t)) incluant les paramètres Θ et une esti- mation courante Θ(t) de ceux-ci (à l’itération t), les variables observées et les variables cachées, et pour laquelle on peut montrer que sa maximisation conduit à la maximi- sation de la fonction de vraisemblance (ou du logarithme de celle-ci). Comme nous le verrons par la suite, cette fonction auxiliaire est souvent définie comme l’espé- rance mathématique du logarithme de la densité jointe des variables observées et cachées. C’est pourquoi cet algorithme EM est souvent aussi appelé “Expectation- Maximisation” (maximisation de l’espérance mathématique). – Evidemment, les variables cachées Y ne sont pas connues, mais étant donné les valeurs courantes Θ(t) des paramètres à l’itération t, nous pouvons les estimer (étape “E” d’estimation). Cette estimation tiendra compte de contraintes éventuelles sur l’espace des variables cachées (ce qui sera le cas avec les modèles de Markov cachés) résultant en une estimation plus ou moins complexe. – On peut ensuite traiter ces valeurs estimées des variables manquantes comme cor- rectes et maximizer la fonction auxiliaire (et donc la fonction de vraisemblance) dans l’espace de paramètres Θ (étape “M” de maximisation). – Nous avons alors une meilleure estimation des valeurs des paramètres et pouvons donc itérer en répétant l’étape d’estimation “E”. Plus formellement, l’algorithme EM spécifie une distribution jointe p(X,Y |Θ), et le but est de trouver l’ensemble de paramètres Θ qui maximise le logarithme de la vraisem- blance: 14 LΘ(X) = log p(X|Θ) = log X Y p(X,Y |Θ) (20) où la somme sur Y représente l’intégration sur toutes les variables cachées possibles (sup- posées exhaust
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
26
2 intro_ASR_f
0
) = log p(X|Θ) = log X Y p(X,Y |Θ) (20) où la somme sur Y représente l’intégration sur toutes les variables cachées possibles (sup- posées exhaustives et mutuellement exclusives). En supposant que toutes les variables (ob- servées et cachées) sont indépendantes et identiquement distribuées (iid), nous obtenons: p(X,Y |Θ) = N Y n=1 p(xn,yn|Θ) Pendant l’étape d’estimation, nous évaluons la distribution a posteriori des variables cachées en utilisant les (anciennes) valeurs de paramètres Θ(t) (à l’itération t): P(Y |X,Θ(t)) = p(X,H|Θ(t)) P Y p(X,Y |Θ(t)) (21) La fonction auxiliaire Q est alors définie comme étant l’espérance mathématique du loga- rithme de la vraisemblance jointe (incluant les variables observées et les variables cachées) sur l’ensemble complet des variables d’entraînement, calculée sur base des paramètres cou- rants, à savoir: Q(Θ,Θ(t)) = X Y P(Y |X,Θ(t)) log p(X,Y |Θ) (22) On montre ci-dessous (convergence) que maximiser cette fonction est bien équivalent à maximiser (le logarithme de) la vraisemblance des données observées (20). 14. Equivalent à maximiser la vraisemblance, mais plus simple à traiter.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
26
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 18 Dans l’étape de maximisation, nous recherchons, par les méthodes habituelles d’optimi- sation de fonctions statistiques, l’ensemble des paramètres à utiliser dans l’itération (t+1) tel que: Θ(t+1) = argmax Θ Q(Θ,Θ(t)) (23) Comme nous le verrons par la suite, l’algorithme d’entraînement des modèles de Markov cachés utilisés en reconnaissance de la parole est un cas particulier de cet algorithme EM dans lequel l’étape d’estimation prend une forme un peu spéciale, permettant de tenir compte des contraintes introduites par la topologie du modèle de Markov. 2.7.2 Convergence L’algorithme EM est un des algorithmes les plus importants et les plus puissants en estimation statistique. De plus, il bénéficie d’une preuve de convergence garantissant que l’itération de l’étape d’estimation et de maximisation converge vers un maximum (bien que local, et dépendant de la valeur des paramètres Θ(0) choisis pour l’initialisation) de la fonction de vraisemblance. Nous donnons ici un bref aperçu de cette preuve de convergence. Pour ce faire, il suffit de noter que, partant de (22), la fonction auxilaire peut également s’écrire: Q(Θ,Θ(t)) = X Y P(Y |X,Θ(t)) log [p(X|Θ)P(Y |X,Θ)] = log p(X|Θ) X Y P(Y |X,Θ(t) + X Y P(Y |X,Θ(t)) log P(Y |X,Θ) = log p(X|Θ) + X Y P(Y |X,Θ(t)) log P(Y |X,Θ) (24) étant donné que P Y P(Y |X,Θ(t) = 1. Si on choisi Θ = Θ(t), on a alors: Q(Θ(t),Θ(t)) = log p(X|Θ(t)) + X Y P(Y |X,Θ(t)) log P(Y |X
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
27
2 intro_ASR_f
0
t), on a alors: Q(Θ(t),Θ(t)) = log p(X|Θ(t)) + X Y P(Y |X,Θ(t)) log P(Y |X,Θ(t)) (25) En soustrayant (25) de (24), et en regroupant les termes, on obtient alors: log p(X|Θ) −log p(X|Θ(t)) = Q(Θ,Θ(t)) −Q(Θ(t),Θ(t)) + X Y P(Y |X,Θ(t)) log P(Y |X,Θ(t)) P(Y |X,Θ) (26) Le dernier terme de (26) n’est autre que la divergence de Kullback-Leibler, et on peut mon- trer que celle-ci est toujours positive [10]. Par conséquent, si un changement de paramètres Θ augmente Q, ce changement accroîtra également log p(X|Θ). En d’autres termes, nous avons démontré que lorsque l’on change les paramètres Θ de façon à maximiser l’espé- rance mathématique du logarithme de vraisemblance de la distribution jointe des données et variables cachées, nous maximisons également le logarithme de la vraisemblance des données. En principe, on peut donc maximiser l’espérance mathématique Q(Θ,Θ(t)) pour chaque valeur de Θ, et ensuite ré-estimer les paramètres, ce qui conduira à l’augmentation maximale de p(X|Θ) pour chaque itération, sauf si nous sommes déjà à un maximum local de Q. Dans beaucoup de cas (comme nous le verrons plus tard avec les modèles HMM), il est possible de structurer le problème de façon à ce que la maximisation de Q soit possible analytiquement.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
27
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 19 2.7.3 EM pour une distribution multi-gaussienne Pour illustrer l’utilisation de cet algorithme EM sur un cas simple, nous considérons ici la modélisation d’un ensemble de vecteurs iid X = {x1, . . . ,xn, . . . ,xN} par un mélange de J densités gaussiennes. Comme dans (10), en utilisant les définitions de densités jointes et conditionnelles, et en supposant J catégories disjointes (mais inconnues), une densité de probabilités inconnue p(x|Θ) peut toujours se décomposer selon: p(x|Θ) = J X j=1 P(x,j|Θ) = J X j=1 P(j|Θ)p(x|j,Θ) (27) où les cj = P(j|Θ) peuvent être interprétés comme étant la probabilité a priori qu’une observation x ait été générée par la classe associée à la gaussienne N(x,μj,Σj), et où p(x|j,Θ) = p(x|μj,Σj) est donnée par (8) ou (9). Comme typiquement fait lors de l’entraînement ML (maximum de vraisemblance), nous voulons optimiser l’ensemble des paramètres de façon à approximer au mieux les vraies densités de probabilités, et cela en maximisant la vraisemblance p(x|Θ) ou son logarithme. Il n’y a malheureusement pas de solution analytique à ce problème. De plus, le calcul de (27) conduit au logarithme d’une somme, ce qui est difficile à optimiser. Cependant, selon l’algorithme EM, nous pouvons considérer la variable j comme une variable aléatoire cachée (latente) représentant la composante gaussienne ayant généré chacune des observations. Le théorème précédent nous dit alors que l’accroissement de l’espérance mathématique de log p(x,j|Θ) conduit à une augmentation de la vraisemblance des données p(x|Θ). Dans le cas d’une distribution multi-
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
28
2 intro_ASR_f
0
croissement de l’espérance mathématique de log p(x,j|Θ) conduit à une augmentation de la vraisemblance des données p(x|Θ). Dans le cas d’une distribution multi-gaussienne, et en prenant l’espérance mathéma- tique de la densité jointe sur les variables observées xn et cachées j, la fonction auxiliaire Q s’écrit alors: Q(Θ,Θ(t)) = J X j=1 N X n=1 P(j|xn,Θ(t)) log [P(j|Θ)p(xn|j,Θ)] = J X j=1 N X n=1 P(j|xn,Θ(t)) log P(j|Θ) + J X j=1 N X n=1 P(j|xn,Θ(t)) log p(xn|j,Θ)(28) dans laquelle nous avons fait la différence entre Θ(t), les paramètres à l’itération t repré- sentant la distribution utilisée pour estimer l’espérance mathématique, et les paramètres Θ à optimiser (de façon à maximiser Q). En supposant que p(xn|j,Θ) = p(xn|ωj) sont des densités gaussiennes à matrices de covariance diagonales (9), et en ne considérant qu’une composante particulière i que l’on ne fait pas apparaître dans les notations 15, l’expression (28) devient: Q(Θ,Θ(t)) = J X j=1 N X n=1 P(j|xn,Θ(t)) log P(j|Θ) + J X j=1 N X n=1 P(j|xn,Θ(t))(−log σj −(xn −μj)2 2σ2 j + C) (29) 15. Par exemple, dans le cas où xn est scalaire. Dans le cas vectoriel, les développements qui suivent restent valables. En effet, dans le cas de matrices de covariance diagonales, les différentes composantes sont supposées indépendantes et peuvent être optimisées séparemment.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
28
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 20 où C contient toutes les constantes qui disparaîtront dans les dérivées qui suivront. Pour des paramètres Θ(t) donnés, les paramètres optimaux sont alors obtenus en annulant la dérivée partielle de Q par rapport à chacun de ceux-ci. Dans le cas de la moyenne μj, nous avons donc: ∂Q ∂μj = N X n=1 P(j|xn,Θ(t))(xn σ2 j −μj σ2 j ) = 0 (30) ou encore (en multipliant le tout par σ2 j ) N X n=1 xnP(j|xn,Θ(t)) = N X n=1 μjP(j|xn,Θ(t)) (31) Le nouvel estimateur de la moyenne devient donc: μj = PN n=1 xnP(j|xn,Θ(t)) PN n=1 P(j|xn,Θ(t)) (32) En procédant de la même façon, on peut montrer que les valeurs optimales des variances sont données par: σ2 j = PN n=1 P(j|xn,Θ(t))(xn −μj)2 PN n=1 P(j|xn,Θ(t)) (33) Dans le cas de matrices de covariance pleines, un raisonnement similaire conduit à: Σj = P n P(j|xn,Θ(t))(xn −μj)(xn −μj)T P n P(j|xn,Θ(t)) (34) Pour l’estimation du facteur de pondération P(j|Θ) apparaissant également comme paramètre dans (27), nous procédons de la même façon après avoir toutefois ajouté un terme de Lagrange dans la fonction Q à maximiser afin d’y inclure la contrainte que PJ j=1 P(j|Θ) = 1. La fonction à maximiser devient alors: Q∗(Θ,Θ(t)) = Q(Θ,Θ(t)) + λ( J X j=1 P(j|Θ) −1) (35) où λ représente le multiplicateur de Lagrange. En annulant la dérivée partielle de Q∗par rapport à P(j|Θ
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
29
2 intro_ASR_f
0
t)) + λ( J X j=1 P(j|Θ) −1) (35) où λ représente le multiplicateur de Lagrange. En annulant la dérivée partielle de Q∗par rapport à P(j|Θ) (ce qui fait disparaître les termes contenant les moyennes et les variances), nous obtenons: ∂Q∗ ∂P(j|Θ) = 1 P(j|Θ) N X n=1 P(j|xn,Θ(t)) + λ = 0 (36) En sommant cette expression sur toutes les composantes j, nous obtenons que λ = −N, ce qui nous donne alors: P(j|Θ) = 1 N N X n=1 P(j|xn,Θ(t)) (37) dans laquelle les valeurs de P(j|xn,Θ(t)) peuvent simplement être obtenues par la loi de Bayes: P(j|xn,Θ(t)) = P(xn|j,Θ(t))P(j|Θ(t)) P(xn|Θ(t)) = P(xn|j,Θ(t))P(j|Θ(t)) PJ k=1 P(xn|k,Θ(t))P(k|Θ(t)) (38)
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
29
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 21 ce qui ne contient que des termes que nous pouvons évaluer à partir des paramètres courants Θ(t). −25 −20 −15 −10 −5 0 5 10 15 20 25 0 10 20 30 40 50 60 70 Histogram of Sampled X Values and Gaussian Fits One Iteration of EM X Fig. 1 – Illustration de la convergence de l’algorithme EM dans le cas de mélange de deux distributions gaussiennes (10). Au centre de la figure, nous avons un histogramme de 1000 exemples d’entraînement échantillonnés à partir de deux distributions gaussiennes, respectivement de moyennes μ1 = −4.0 et μ2 = 5.0, de variances σ1 = 2.0 et σ2 = 1.5, et de poids c1 = c2 = 0.5. Les deux gaussiennes extérieures, représentées en trait pointillé, correspondent à un (pauvre) estimateur initial, avec μ1 = −12.0 et μ2 = 11.0, σ1 = 3.5 et σ2 = 2.6, et de poids c1 = c2 = 0.5. Le logarithme de la vraisemblance des données pour ces paramètres initiaux était égal à -5482. Après seulement une itération de l’algorithme EM, les densités représentées en trait plein sont obtenues (μ1 = −4.1 et μ2 = 5.0, σ1 = 2.0 et σ2 = 1.5, et c1 = 0.49 et c2 = 0.51) et correspondent bien à la distribution réelle, avec un logarithme de la vraisemblance des données égal à -2646. L’axe vertical des densités gaussiennes a été pondéré par 1000 de façon à pouvoir être comparé à l’histogramme, c’est- à-dire de façon à avoir une intégrale égale à 1000. A partir d’un ensemble de paramètres Θ(t) à l’itération t, le calcul de (38) représente l’étape d’estimation de l’algorithme EM, et nous donne le facteur de pondération (distri- bution des variables cachées) dans la fonction auxiliaire (29). A partir de cette estimation, nous pouvons alors mettre à
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
30
2 intro_ASR_f
0
de l’algorithme EM, et nous donne le facteur de pondération (distri- bution des variables cachées) dans la fonction auxiliaire (29). A partir de cette estimation, nous pouvons alors mettre à jour (étape de maximisation) la valeur des paramètres en ultilisant (32), (33), et (37). En itérant ce processus (t = t + 1), ces nouvelles valeurs de paramètres peuvent alors être utilisées comme nouveaux Θ(t) dans l’étape d’estimation. Comme illustré à la Figure 1, si les distributions de données sont effectivement gaussiennes, et si les estimateurs initiaux ne sont pas trop mauvais (étant donné la convergence vers un optimum local), l’itération de ce processus convergera rapidement vers la solution op- timale. 16 16. Certains des développements ci-dessus, ainsi que la Figure 1, proviennent ou sont adaptés du livre “Speech and Audio Signal Processing” de Ben Gold et Nelson Morgan, et qui devrait être publié par Wiley Press en 1999. Nous remercions les auteurs pour nous voir donné accès à cette information.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
30
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 22 2.7.4 Quantification Vectorielle Nous notons ici que les algorithmes de quantification vectorielle présentés dans le Cha- pitre 4 sont des cas particuliers d’entraînement non supervisé. En appliquant l’algorithme EM de façon non supervisée à un ensemble de vecteurs X = {x1, . . . ,xn, . . . ,xN} et en supposant que chacune des classes de Ω= {q1,q2, . . . ,qK} peut être caractérisée par une seule gaussienne, nous obtiendrons comme résultat de l’entraînement les paramètres Θ des K distributions gaussiennes maximisant la vraisemblance de l’ensemble des données. 17 Lors de la quantication vectorielle, chaque vecteur xn sera alors être assigné à la classe ωk correspondant à la probabilité p(xn|ωk,Θ) maximale. Si on suppose que chaque vecteur ne peut appartenir qu’à une seule classe, et si on suppose une matrice de covariance unité pour toute les classes, l’algorithme EM dégénère alors en l’algorithme des K-moyennes (K-means), pour lequel P(k|xn,Θ(t)) est simplement égal à 1 ou 0. Nous renvoyons le lec- teur à la Section 10.4.1 pour plus de détails concernant l’application de la quantification vectorielle à la reconnaissance de la parole. 2.8 Classification de données réelles La distinction entre données d’apprentissage et données de test est des plus importantes en classification de formes, non seulement à cause de leur fonctionnalité différente mais surtout à cause du fait que le choix des données d’apprentissage ainsi que de l’algorithme d’entraînement utilisé devrait garantir les meilleures performances possibles sur l’ensemble de test. En effet, la détermination d’un système de classification de formes ne se résume pas à l’apprentissage d’une fonction entre les formes observées et l’ensemble de ses paramètres sur un ensemble d’apprentissage (et éventuellement les classes qui y sont associées, dans le cas d’entraînement supervis
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
31
2 intro_ASR_f
0
ume pas à l’apprentissage d’une fonction entre les formes observées et l’ensemble de ses paramètres sur un ensemble d’apprentissage (et éventuellement les classes qui y sont associées, dans le cas d’entraînement supervisé). En effet, dans la plupart des problèmes réels, nous serons en présence d’un très grand nombre (souvent infini) de formes possibles, et les systèmes de classification devraient idéalement être capables de les reconnaître toutes. Cependant, pour des raisons pratiques évidentes, les systèmes sont entraînés sur un ensemble limité d’exemples. Dans ce cas, bien que la relation fonctionnelle existant entre les formes d’entrée et les classes associées pourront éventuellement être apprise parfaitement sur l’ensemble d’apprentissage, cette solution ne conduira généralement pas au meilleur système de clas- sification. En d’autres mots, pour le cas de la classification statistique, cela veut dire que les probabilités de distribution réelles n’ont pas été approximées au mieux en apprenant parfaitement l’ensemble d’apprentissage (“overtraining” en anglais). En général, le taux d’erreur obtenu sur un ensemble d’entraînement peut être considéré comme une borne inférieure pour le classificateur donné. Dans les problèmes réels, le but n’est cependant pas de minimiser le taux d’erreur sur cette base d’entraînement mais bien sur un ensemble de test indépendant. Evidemment, plus cet ensemble de test sera grand et plus les résultats seront représentatifs de la population totale et de ce qui sera atteint sur de nouveaux exemples. Dans ce cadre, il sera souvent approprié de faire un test de la signification statistique de résultats de tests, par exemple en supposant une distribution binomiale. Par exemple, pour un problème de classification à deux classes, 49% d’erreur sur un million de formes est significativement différent du hasard (50% d’erreur) puisque 17. On pourrait évidemment avoir plusieurs gaussiennes par classe.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
31
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 23 le 1% de différence représente 10000 formes. D’un autre côté, le même taux d’erreur sur un ensemble de 100 formes n’est pas différent du hasard. Pour rappel, dans le cas de l’hypothèse de distribution binomiale, la déviation standard équivalente est √npq, où n représente le nombre de formes, p est la probabilité d’avoir la classe correcte par chance, et q est la probabilité d’avoir la classe incorrecte par hasard. Dans le cas des exemples ci-dessus, cette loi conduirait respectivement à 500 et à 5 formes pour avoir des différences significatives. Etant donné que les bases de données (utilisées pour l’entraînement et les tests) sont toujours (trop) limitées, une solution permettant d’augmenter la taille de la base de test est d’utiliser le procédure de “jackknife”, procédure dans laquelle plusieurs partitions différentes de la base de données sont considérées successivement pour l’entraînement et le test, de façon à garantir une utilisation optimale de la base de données. La taille de la base d’entraînement est également un facteur important quant aux bonnes performances des approches statistiques sur des problèmes réels. Plus la base d’en- traînement est grande, plus les classificateurs pourront être complexes (plus grand nombre de paramètres), et plus les distributions réelles sous-jacentes seront bien modélisées. Ce- pendant, plus le nombre de paramètres est élevé et plus le risque de “sur-spécialisation” (overtraining) de l’entraînement est grand, résultant alors en de mauvaises propriétés de généralisation. Ces deux facteurs conduisent les chercheurs en reconnaissance de formes à utiliser des bases de données les plus grandes possible. Dans le cas de la reconnaisance de la parole, il n’est pas rare d’utiliser des bases de données reprenant des centaines de locuteurs et des centaines d’heures de parole enregistrée. Malheureusement, dans la plupart des situations pratiques, les bases de données disponibles sont souvent trop limitées (même pour l’exemple mentionné ci-dessus). Dans ce cas, il sera toujours bénéfique d’utiliser des connaissances a priori concernant le domaine étudié afin d’introduire des contra
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
32
2 intro_ASR_f
0
sont souvent trop limitées (même pour l’exemple mentionné ci-dessus). Dans ce cas, il sera toujours bénéfique d’utiliser des connaissances a priori concernant le domaine étudié afin d’introduire des contraintes qui réduiront la tendance des classificateurs à se spécialiser sur l’ensemble d’entraînement. En reconnaissance de la parole, comme nous le verrons dans ce chapitre, ces contraintes proviennent généralement de connaissances phonologiques et syntaxiques. Une autre difficulté liée à la taille limitée de la base d’entraînement concerne le caractère discriminant des classificateurs statistiques. En effet, comme discuté précédemment, vrai- semblances et probabilités a posteriori sont liés par une transformation simple. Cependant, lors de l’estimation de celles-ci, les algorithmes d’entraînement produiront généralement des résultats différents. Par exemple, si les probabilités sont estimées par une procédure qui essaie de maximiser la discrimination (distance) entre classes, le taux d’erreur de classifica- tion sera minimisé. Ceci pourrait cependant conduire à des estimations de vraisemblances plus mauvaises que celles qui aurait été obtenues par une méthode modélisant les densités p(x|ωk) sous-jacentes. Ceci ne serait cependant pas le cas si la base d’entraînement était illimitée, auquel cas on peut montrer que tous les estimateurs convergent vers les mêmes (vraies) distributions (c’est-à-dire que la règle de Bayes serait satisfaite et les deux critères seraient équivalents). En général, le fait de faire des hypothèses concernant les données (par exemple, l’hypo- thèse gaussienne) résultera en une meilleure estimation des paramètres, pour autant que les hypothèses soient correctes. Evidemment, plus les hypothèses seront fausses et plus les estimateurs seront mauvais! L’utilisation de multi-gaussiennes ou de réseaux de neu- rones font cependant appel à des hypothèses plus faibles et résulteront généralement en de meilleures performances sur les données réelles.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
32
2 intro_ASR_f
0
Reconnaissance de la parole et du locuteur 24 Contrairement à la reconnaissance stochastique de formes statiques, le but de la re- connaissance de la parole n’est cependant pas d’assigner chaque vecteur caractéristique à une classe (par exemple phonétique), mais bien de reconnaître la séquence de ces vecteurs comme une séquence d’unités de parole telles que, par exemple, des phonèmes, syllabes ou mots. Dans ce cas, toutes les probabilités “locales” qu’un vecteur caractéristique ap- partienne aux différentes classes possibles sont préservées et utilisées dans un processus de décision plus global au niveau du mot ou de la phrase. Ceci requiert un modèle dy- namique capable de représenter des séquences de vecteurs plus un simple classificateur statique comme décrit dans cette section. Ce modèle plus général et basé sur les modèles de Markov est présenté dans la suite. 3 Programmation Dynamique Introduit par Bellman [8] dans les années 1960, l’algorithme de programmation dy- namique (DP, pour “dynamic programming”) est une approche qui, sous certaines condi- tions, permet d’obtenir la solution optimale à un problème de minimisation d’un certain critère d’erreur sans devoir considérer toutes les solutions possibles. Pour que cette approche soit utilisable, il suffit de pouvoir formuler le problème glo- bal en termes de sous-politiques optimales et de montrer que la politique optimale est constituée de sous-politiques optimales. A chaque étape de programmation dynamique, on retient suffisamment d’information concernant les hypothèses intermédiaires de façon à pouvoir créer itérativement la solution globale optimale. Comme illustré à la Figure 2, une application typique de cet algorithme consiste à trouver le chemin optimal dans un graphe (par exemple, un réseau routier) pour aller d’un point de départ I à un point d’arrivée F (pour autant que I soit différent de F 18). Si i représente un noeud du réseau, dij la coût pour aller du noeud i au noeud j (la distance entre deux villes, ou le coût en carburant), et d(i) le coût de passage par le noeud i (par exemple, le droit d’
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
33
2 intro_ASR_f
0
dij la coût pour aller du noeud i au noeud j (la distance entre deux villes, ou le coût en carburant), et d(i) le coût de passage par le noeud i (par exemple, le droit d’entrée pour la ville i), le chemin de coût optimal est obtenu en utilisant la récurrence D(I,j) = d(j) + min i {dij + D(I,i)} pour tous les noeuds j du réseau et pour tous les prédécesseurs possibles i de j, et où D(I,j) représente le coût associé au chemin optimal pour aller du noeud initial I au noeud j. On applique cette récurrence jusqu’au moment où le noeud F est atteint, conduisant au coût optimal d(I,F) et au chemin optimal associé (pour autant que l’on garde en mémoire toutes les décisions intermédiaires). La solution donnée par cette récurrence est optimale et tout chemin optimal partiel (par exemple, jusqu’à un noeud j) sera inchangé et fera partie du chemin optimal jusqu’à F si celui-ci contient effectivement le noeud j. Comme nous le verrons par la suite, cet algorithme de programmation dynamique est souvent à la base de systèmes de reconnaissance de la parole, utilisant soit l’algorithme de déformation temporelle dynamique (Section 8), soit les modèles de Markov cachés (Sec- tion 9). 18. Dans le cas contraire, le problème devient NP-complet et est connu sous le nom du problème du voyageur de commerce.
/home/ricoiban/GEMMA/mnlp_chatsplaining/RAG/2 intro_ASR_f.pdf
33
2 intro_ASR_f
0