| { |
| "paper_id": "F12-1013", |
| "header": { |
| "generated_with": "S2ORC 1.0.0", |
| "date_generated": "2023-01-19T09:44:04.454440Z" |
| }, |
| "title": "Nouvelle approche pour le regroupement des locuteurs dans des \u00e9missions radiophoniques et t\u00e9l\u00e9visuelles", |
| "authors": [ |
| { |
| "first": "Mickael", |
| "middle": [], |
| "last": "Rouvier", |
| "suffix": "", |
| "affiliation": { |
| "laboratory": "", |
| "institution": "Universit\u00e9 du Maine", |
| "location": { |
| "country": "France" |
| } |
| }, |
| "email": "mickael.rouvier@lium.univ-lemans.fr" |
| }, |
| { |
| "first": "Sylvain", |
| "middle": [], |
| "last": "Meignier", |
| "suffix": "", |
| "affiliation": { |
| "laboratory": "", |
| "institution": "Universit\u00e9 du Maine", |
| "location": { |
| "country": "France" |
| } |
| }, |
| "email": "sylvain.meignier@lium.univ-lemans.fr" |
| } |
| ], |
| "year": "", |
| "venue": null, |
| "identifiers": {}, |
| "abstract": "Dans cet article, nous proposons un nouveau mod\u00e8le de regroupement de locuteurs pour la t\u00e2che de segmentation et de regroupement de locuteurs. Un des probl\u00e8mes majeur rencontr\u00e9 dans le regroupement des locuteurs est que les algorithmes d'agglom\u00e9ration hi\u00e9rarchique utilis\u00e9s ne garantissent pas de donner une solution optimale. Nous proposons d'exprimer le probl\u00e8me de regroupement des locuteurs comme un probl\u00e8me de Programmation Lin\u00e9aire en Nombre Entier (PLNE). Ainsi, un solveur PLNE peut \u00eatre utilis\u00e9 lequel ira chercher la solution optimale de regroupement de locuteurs sur l'ensemble du probl\u00e8me. Les exp\u00e9riences ont \u00e9t\u00e9 conduites sur le corpus journalistique fran\u00e7ais ESTER-2. Avec ce nouveau mod\u00e8le de regroupement de locuteurs, le DER d\u00e9cro\u00eet de 2,43 points absolus.", |
| "pdf_parse": { |
| "paper_id": "F12-1013", |
| "_pdf_hash": "", |
| "abstract": [ |
| { |
| "text": "Dans cet article, nous proposons un nouveau mod\u00e8le de regroupement de locuteurs pour la t\u00e2che de segmentation et de regroupement de locuteurs. Un des probl\u00e8mes majeur rencontr\u00e9 dans le regroupement des locuteurs est que les algorithmes d'agglom\u00e9ration hi\u00e9rarchique utilis\u00e9s ne garantissent pas de donner une solution optimale. Nous proposons d'exprimer le probl\u00e8me de regroupement des locuteurs comme un probl\u00e8me de Programmation Lin\u00e9aire en Nombre Entier (PLNE). Ainsi, un solveur PLNE peut \u00eatre utilis\u00e9 lequel ira chercher la solution optimale de regroupement de locuteurs sur l'ensemble du probl\u00e8me. Les exp\u00e9riences ont \u00e9t\u00e9 conduites sur le corpus journalistique fran\u00e7ais ESTER-2. Avec ce nouveau mod\u00e8le de regroupement de locuteurs, le DER d\u00e9cro\u00eet de 2,43 points absolus.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Abstract", |
| "sec_num": null |
| } |
| ], |
| "body_text": [ |
| { |
| "text": "L'objectif de la Segmentation et du Regroupement de Locuteurs (SRL) consiste \u00e0 d\u00e9couper en tour de parole un enregistrement audio et \u00e0 regrouper les zones d\u00e8s lors qu'elles appartiennent \u00e0 un m\u00eame locuteur afin de r\u00e9pondre \u00e0 la question : \"qui parle et quand ?\". Cette op\u00e9ration est r\u00e9alis\u00e9e sans information a priori ni sur le nombre de locuteurs, ni sur leur identit\u00e9. L'approche classique consiste \u00e0 d\u00e9couper le signal audio en segments et \u00e0 les regrouper dans des classes, o\u00f9 chaque classe contient les segments d'un seul et m\u00eame locuteur.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Actuellement, les principales m\u00e9thodes de regroupement en locuteurs sont bas\u00e9es sur des algorithmes d'agglom\u00e9ration hi\u00e9rarchique gloutonne tels que les algorithmes : ascendant (Barras et al., 2006) ou descendant (Fredouille et Senay, 2006) . Les syst\u00e8mes ayant une approche ascendante (connus aussi sous le nom de Regroupement Agglom\u00e9ratif Hi\u00e9rarchique (RAH)) ont obtenu les meilleurs r\u00e9sultats lors des \u00e9valuations ESTER et NIST. Le RAH est un algorithme it\u00e9ratif qui cherche \u00e0 chaque it\u00e9ration \u00e0 agglom\u00e9rer les deux classes les plus similaires. Ce processus est it\u00e9r\u00e9 tant que la similarit\u00e9 entre les 2 classes les plus proches soit inf\u00e9rieure \u00e0 un seuil fix\u00e9. Cette similarit\u00e9 est calcul\u00e9e \u00e0 partir des vraisemblances obtenues via des Mod\u00e8les de M\u00e9langes de Gaussiennes (GMM). Malheureusement, les algorithmes gloutons bas\u00e9s sur les GMM souffrent de deux principaux inconv\u00e9nients.", |
| "cite_spans": [ |
| { |
| "start": 176, |
| "end": 197, |
| "text": "(Barras et al., 2006)", |
| "ref_id": "BIBREF0" |
| }, |
| { |
| "start": 212, |
| "end": 239, |
| "text": "(Fredouille et Senay, 2006)", |
| "ref_id": "BIBREF3" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Le premier \u00e9tant que les approches gloutonnes sont des algorithmes it\u00e9ratifs qui vont, \u00e0 chaque it\u00e9ration, prendre une d\u00e9cision localement optimale dans l'espoir de proposer un r\u00e9sultat globalement optimal. Cependant, durant cette recherche, la s\u00e9lection des deux prochaines classes \u00e0 regrouper d\u00e9pend fortement de celles choisies pr\u00e9c\u00e9demment. Un mauvais regroupement n'est jamais remis en cause et il est conserv\u00e9 jusqu'\u00e0 la fin pouvant causer une augmentation du nombre d'erreurs.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Deuxi\u00e8mement, le regroupement des locuteurs se fait \u00e0 partir de GMM appris sur le signal audio. Malheureusement, le signal audio ne v\u00e9hicule pas seulement l'information sur les locuteurs (l'information utile) mais aussi d'autres informations qui peuvent venir perturber le processus de regroupement des locuteurs. Ces informations inutiles peuvent \u00eatre de diff\u00e9rentes natures et peuvent \u00eatre li\u00e9es \u00e0 la variabilit\u00e9 de l'environnement (environnement bruit\u00e9...), la variabilit\u00e9 du canal (microphone, t\u00e9l\u00e9phone...), la variabilit\u00e9 du locuteur (\u00e9motion...), etc... Dans cet article, nous proposons un nouveau mod\u00e8le de regroupement de locuteurs o\u00f9, contrairement aux approches gloutonnes le processus de regroupement des locuteurs se fait de mani\u00e8re globale sur l'ensemble du probl\u00e8me. Nous proposons de remplacer la recherche gloutonne par une formulation optimale. En donnant quelques d\u00e9finitions g\u00e9n\u00e9rales sur les classes, l'algorithme ascendant peut \u00eatre exprim\u00e9 sous forme de probl\u00e8me de Programmation Lin\u00e9aire en Nombre Entier (PLNE). Ainsi un solveur PLNE peut \u00eatre utilis\u00e9 pour minimiser le r\u00e9sultat de la fonction objective, lequel va chercher la solution optimale de regroupement des locuteurs sur l'ensemble du probl\u00e8me. Ce nouveau mod\u00e8le PLNE est bas\u00e9 sur les i-vecteurs, une technique introduite dans le domaine de la v\u00e9rification qui permet de mod\u00e9liser uniquement l'information du locuteur.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Cet article est organis\u00e9 comme suit. La Section 2 pr\u00e9sente tout d'abord l'architecture du syst\u00e8me, puis la Section 3 le corpus utilis\u00e9. Ensuite, l'approche des i-vecteurs est expliqu\u00e9e dans la Section 4. La Section 5 pr\u00e9sente notre cadre de travail pour le regroupement de locuteurs ainsi que les r\u00e9sultats de nos exp\u00e9riences. Nos conclusions sont r\u00e9sum\u00e9es dans la derni\u00e8re partie (Section 6).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Introduction", |
| "sec_num": "1" |
| }, |
| { |
| "text": "Le syst\u00e8me utilis\u00e9 est celui du LIUM Speaker Diarization (Meignier et Merlin, 2010) , disponible sous licence GPL 1 . Ce syst\u00e8me a obtenu les meilleurs r\u00e9sultats durant la campagne d'\u00e9valuation ESTER-2. Lors de ces \u00e9tapes, l'environnement sonore aide le syst\u00e8me \u00e0 d\u00e9tecter les locuteurs : les param\u00e8tres ne sont donc pas normalis\u00e9s. Parfois un locuteur est repr\u00e9sent\u00e9 par plusieurs classes qui contiennent les interventions de celui-ci en fonction de l'environnement sonore (bruit, musique, calme...). La contribution de l'environnement sonore doit alors \u00eatre r\u00e9duite et normalis\u00e9e afin de regrouper ces classes en une seule.", |
| "cite_spans": [ |
| { |
| "start": 57, |
| "end": 83, |
| "text": "(Meignier et Merlin, 2010)", |
| "ref_id": "BIBREF8" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Architecture du syst\u00e8me", |
| "sec_num": "2" |
| }, |
| { |
| "text": "La m\u00e9thode classique consiste \u00e0 faire un regroupement hi\u00e9rarchique ascendant. Il est donc effectu\u00e9 sur les classes obtenues apr\u00e8s la segmentation Viterbi : les param\u00e8tres de chaque segment sont normalis\u00e9s et un mod\u00e8le du monde est adapt\u00e9 (MAP) pour chaque classe. A chaque it\u00e9ration sont regroup\u00e9es les 2 classes qui maximisent le crit\u00e8re NCLR (Normalized Cross Likelihood Ratio) (Le et al., 2007) . Le regroupement s'arr\u00eate lorsque la valeur de NCLR d\u00e9passe un seuil.", |
| "cite_spans": [ |
| { |
| "start": 380, |
| "end": 397, |
| "text": "(Le et al., 2007)", |
| "ref_id": "BIBREF7" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Architecture du syst\u00e8me", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Dans cet article, nous proposons une autre m\u00e9thode de regroupement des classes bas\u00e9e sur les i-vecteurs. Il s'agit juste de remplacer la derni\u00e8re brique de regroupement des classes, le NCLR, par notre mod\u00e8le. Tout le reste du processus de SRL, param\u00e9trisation du signal audio, segmentation et regroupement BIC, reste valable.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Architecture du syst\u00e8me", |
| "sec_num": "2" |
| }, |
| { |
| "text": "Les donn\u00e9es utilis\u00e9es pour les exp\u00e9riences sont celles de la campagne d'\u00e9valuation d'ESTER-2 (Galliano et al., 2009) . Elles sont compos\u00e9es d'\u00e9missions enregistr\u00e9es sur 4 radios journalistiques fran\u00e7aises. Les donn\u00e9es sont divis\u00e9es en trois corpus : le corpus d'apprentissage correspondant \u00e0 111 \u00e9missions (90 heures de donn\u00e9es), le corpus de d\u00e9veloppement correspondant \u00e0 20 \u00e9missions, et le corpus d'\u00e9valuation qui contient 26 \u00e9missions. Le corpus d'entra\u00eenement a \u00e9t\u00e9 utilis\u00e9 pour apprendre et conditionner les i-vecteurs et le corpus de d\u00e9veloppement pour choisir les diff\u00e9rents param\u00e8tres de chaque syst\u00e8me.", |
| "cite_spans": [ |
| { |
| "start": 93, |
| "end": 116, |
| "text": "(Galliano et al., 2009)", |
| "ref_id": "BIBREF4" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Corpus", |
| "sec_num": "3" |
| }, |
| { |
| "text": "Dans le domaine de la v\u00e9rification du locuteur, les i-vecteurs sont devenus \u00e9tat de l'art. Ils fournissent un cadre de travail \u00e9l\u00e9gant, permettant de r\u00e9duire la taille d'un vecteur de tr\u00e8s grande dimension en un vecteur plus compact, o\u00f9 toute l'information importante du locuteur est conserv\u00e9e. La technique est issue du cadre de travail Joint Factor Analysis (JFA), qui a \u00e9t\u00e9 introduit dans (Kenny et al., 2007) . Ainsi, pour un GMM d\u00e9pendant du locuteur et du canal o\u00f9 M est un super-vecteur correspondant aux moyennes du GMM, les i-vecteurs peuvent \u00eatre exprim\u00e9s comme suit :", |
| "cite_spans": [ |
| { |
| "start": 392, |
| "end": 412, |
| "text": "(Kenny et al., 2007)", |
| "ref_id": "BIBREF6" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Extraction des i-vecteurs", |
| "sec_num": "4.1" |
| }, |
| { |
| "text": "EQUATION", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [ |
| { |
| "start": 0, |
| "end": 8, |
| "text": "EQUATION", |
| "ref_id": "EQREF", |
| "raw_str": "M = m + Tw", |
| "eq_num": "(1)" |
| } |
| ], |
| "section": "Extraction des i-vecteurs", |
| "sec_num": "4.1" |
| }, |
| { |
| "text": "o\u00f9 m est le super-vecteur correspondant aux moyennes concat\u00e9n\u00e9es d'un Mod\u00e8le Universel (Universal Background Model -UBM) ; T est une matrice rectangulaire couvrant l'ensemble des variabilit\u00e9s importantes du locuteur ; w est un vecteur compact distribu\u00e9 selon N(0, I).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Extraction des i-vecteurs", |
| "sec_num": "4.1" |
| }, |
| { |
| "text": "Plusieurs it\u00e9rations sont n\u00e9cessaires pour estimer la matrice T sur le corpus d'apprentissage, l'Equation 1 permet d'utiliser un vecteur compact w comme un mod\u00e8le de locuteur en remplacement du GMM. w est nomm\u00e9 par la suite i-vecteur. L'algorithme des i-vecteurs est d\u00e9crit plus longuement dans (Dehak et al., 2010) .", |
| "cite_spans": [ |
| { |
| "start": 295, |
| "end": 315, |
| "text": "(Dehak et al., 2010)", |
| "ref_id": "BIBREF2" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Extraction des i-vecteurs", |
| "sec_num": "4.1" |
| }, |
| { |
| "text": "A cette \u00e9tape les i-vecteurs contiennent l'information li\u00e9e aux locuteurs mais aussi l'information inutile (canal, environnement...). Dans (Bousquet et al., 2011) , l'auteur propose une m\u00e9thode robuste de conditionnement des i-vecteurs afin de mod\u00e9liser cette information inutile. Cette m\u00e9thode est un processus it\u00e9ratif qui a 2 buts :", |
| "cite_spans": [ |
| { |
| "start": 139, |
| "end": 162, |
| "text": "(Bousquet et al., 2011)", |
| "ref_id": "BIBREF1" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conditionnement des i-vecteurs", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "1) S'assurer que les i-vecteurs sont distribu\u00e9s selon la loi N(0, I). Une des cons\u00e9quences de cette contrainte est que les i-vecteurs deviennent ainsi ind\u00e9pendants.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conditionnement des i-vecteurs", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "2) Normaliser les i-vecteurs par leur longueur. Dans (Bousquet et al., 2011; Garcia-Romero et Espy-Wilson, 2011) , il a \u00e9t\u00e9 montr\u00e9 que cela contribue \u00e0 rendre gaussiennes les donn\u00e9es et \u00e0 rapprocher le corpus d'apprentissage et le corpus de test.", |
| "cite_spans": [ |
| { |
| "start": 53, |
| "end": 76, |
| "text": "(Bousquet et al., 2011;", |
| "ref_id": "BIBREF1" |
| }, |
| { |
| "start": 77, |
| "end": 112, |
| "text": "Garcia-Romero et Espy-Wilson, 2011)", |
| "ref_id": "BIBREF5" |
| } |
| ], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conditionnement des i-vecteurs", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "Dans le corpus d'apprentissage, pour chaque tour de parole obtenu en utilisant la segmentation en locuteur de r\u00e9f\u00e9rence nous calculons les i-vecteurs. L'algorithme de conditionnement consiste \u00e0 extraire sur les i-vecteurs du corpus d'apprentissage, des param\u00e8tres de conditionnement et de les appliquer sur les i-vecteurs extraits du corpus de test.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conditionnement des i-vecteurs", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "L'Algorithme 1 d\u00e9crit la m\u00e9thode d'apprentissage des param\u00e8tres pour le conditionnement des i-vecteurs. Les param\u00e8tres (la moyenne \u00b5 i et la matrice de covariance \u03a3 i ) des i-vecteurs calcul\u00e9s sur le corpus d'apprentissage sont sauvegard\u00e9s \u00e0 chaque it\u00e9ration i (\u00e9tape 0). Puis, les i-vecteurs sont conditionn\u00e9s en utilisant les param\u00e8tres de l'it\u00e9ration actuelle. Ainsi, l'\u00e9tape 1 consiste \u00e0 centrer-r\u00e9duire les i-vecteurs, et l'\u00e9tape 2 \u00e0 normaliser les i-vecteurs par leur longueur.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conditionnement des i-vecteurs", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "Algorithm 1: Algorithme de conditionnement des i-vecteurs sur le corpus d'apprentissage for i = 1 a nb_i t er at ions do Etape 0 : Calculer la moyenne \u00b5 i et la matrice de covariance \u03a3 i sur le corpus d'apprentissage; for chaque w dans le corpus d'apprentissage : do", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conditionnement des i-vecteurs", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "Etape 1 : w = \u03a3 \u2212 1 2 i w \u2212 \u00b5 i ; Etape 2 : w = w w ; end end", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conditionnement des i-vecteurs", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "Sur notre corpus de test, apr\u00e8s le processus de regroupement des locuteurs donn\u00e9 par le BIC, un i-vecteur est calcul\u00e9 pour chaque classe. Ces i-vecteurs sont conditionn\u00e9s it\u00e9rativement en appliquant l'algorithme 2. L'algorithme 2 est proche de l'algorithme 1. Les diff\u00e9rences sont situ\u00e9es dans l'absence de l'\u00e9tape 0 : la moyenne \u00b5 i et la matrice de covariance \u03a3 i utilis\u00e9es pour chaque it\u00e9ration i sont celles sauvegard\u00e9es durant la phase d'apprentissage.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conditionnement des i-vecteurs", |
| "sec_num": "4.2" |
| }, |
| { |
| "text": "Pour deux i-vecteurs w i et w j , le but est de v\u00e9rifier s'ils correspondent au m\u00eame locuteur. Si nous assumons l'homosc\u00e9dasticit\u00e9 (\u00e9galit\u00e9 des variances), alors la distance entre deux i-vecteurs peut Algorithm 2: Algorithme de conditionnement des i-vecteurs pour la phase de test for i = 1 a nb_i t er at ions do", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "La distance", |
| "sec_num": "4.3" |
| }, |
| { |
| "text": "Etape 1 : w = \u03a3 \u2212 1 2 i w \u2212 \u00b5 i ;", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "La distance", |
| "sec_num": "4.3" |
| }, |
| { |
| "text": "Etape 2 : w = w w ; end s'\u00e9crire ainsi :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "La distance", |
| "sec_num": "4.3" |
| }, |
| { |
| "text": "EQUATION", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [ |
| { |
| "start": 0, |
| "end": 8, |
| "text": "EQUATION", |
| "ref_id": "EQREF", |
| "raw_str": "d(w i , w j ) = w i \u2212 w j W \u22121 w i \u2212 w j", |
| "eq_num": "(2)" |
| } |
| ], |
| "section": "La distance", |
| "sec_num": "4.3" |
| }, |
| { |
| "text": "o\u00f9 W est une matrice de covariance intra-classe calcul\u00e9e sur les i-vecteurs du corpus d'apprentissage conditionn\u00e9s. Cette matrice de covariance intra-classe est calcul\u00e9e comme suit :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "La distance", |
| "sec_num": "4.3" |
| }, |
| { |
| "text": "EQUATION", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [ |
| { |
| "start": 0, |
| "end": 8, |
| "text": "EQUATION", |
| "ref_id": "EQREF", |
| "raw_str": "W = 1 n S s=1 n s i=1 w s i \u2212w s w s i \u2212w s", |
| "eq_num": "(3)" |
| } |
| ], |
| "section": "La distance", |
| "sec_num": "4.3" |
| }, |
| { |
| "text": "o\u00f9 n s est le nombre de segments pour un locuteur s, n est le nombre total de segments, w s i est un i-vecteur du corpus d'apprentissage du locuteur s pour une session i etw s est la moyenne des i-vecteurs du locuteur s.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "La distance", |
| "sec_num": "4.3" |
| }, |
| { |
| "text": "Les d\u00e9cisions prises \u00e0 chaque it\u00e9ration par les algorithmes RAH, ne garantissent pas de donner une solution optimale. Nous proposons d'\u00e9crire notre probl\u00e8me de regroupement de locuteurs sous forme de PLNE (Programmation Lin\u00e9aire en Nombre Entier).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "Le probl\u00e8me de regroupement peut \u00eatre d\u00e9crit de la fa\u00e7on suivante. \u00c9tant donn\u00e9e une segmentation initiale (donn\u00e9 par le BIC), un i-vecteur est extrait pour chaque classe. Notre but est de regrouper les N i-vecteurs dans K classe (o\u00f9 K est \u00e0 d\u00e9terminer et est compris entre 1 et N ). Pour transformer notre probl\u00e8me sous forme de PLNE, nous prenons comme hypoth\u00e8se qu'une classe k est dot\u00e9e d'un centre et qu'un i-vecteur peut appartenir \u00e0 la classe si sa distance entre le centre de la classe k et le i-vecteur n est inf\u00e9rieure \u00e0 une distance fix\u00e9e a priori. Le centre d'une classe est obligatoirement un i-vecteur issu de notre probl\u00e8me. Th\u00e9oriquement, il peut y avoir autant de classes que de i-vecteurs. Le but est de minimiser le nombre de classes k, de telle sorte que tous les i-vecteurs soient attribu\u00e9s \u00e0 une classe et qu'un i-vecteur appartienne \u00e0 une et une seule classe.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "A partir de ces descriptions, nous pouvons formuler les contraintes et la fonction objective de notre probl\u00e8me. La fonction objective consiste \u00e0 minimiser le nombre de classes k, mais aussi de minimiser la dispersion des i-vecteurs pour l'ensemble des classes. Nous d\u00e9finissons deux variables binaires y k et x k,n . La variable binaire y k permet de savoir si la classe k est s\u00e9lectionn\u00e9e. La variable binaire x k,n permet de savoir si le i-vecteur n appartient \u00e0 la classe k. Ainsi notre fonction objective peut s'\u00e9crire :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "EQUATION", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [ |
| { |
| "start": 0, |
| "end": 8, |
| "text": "EQUATION", |
| "ref_id": "EQREF", |
| "raw_str": "z = N k=1 y k + 1 F N k=1 N n=1 d(w k , w n )x k,n", |
| "eq_num": "(4)" |
| } |
| ], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "La fonction objective se compose de deux parties : la premi\u00e8re ( K k=1 y k ) calcule le nombre de classes pr\u00e9sentes dans notre probl\u00e8me ; la seconde ( w n ) x k,n ) calcule la somme des distances entre les centres des k classes et leurs i-vecteurs. O\u00f9 d(w k , w n ) correspond \u00e0 la distance entre le centre de la classe k et un i-vecteur n. La r\u00e9solution de notre probl\u00e8me cherche \u00e0 minimiser le nombre de classes et la dispersion des classes avec F un facteur de normalisation, permettant de pond\u00e9rer les deux sous-parties de l'\u00e9quation 4.", |
| "cite_spans": [], |
| "ref_spans": [ |
| { |
| "start": 151, |
| "end": 156, |
| "text": "w n )", |
| "ref_id": null |
| } |
| ], |
| "eq_spans": [], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "K k=1 N n=1 d(w k ,", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "Nous rappelons, d'apr\u00e8s nos hypoth\u00e8ses, que le centre de la classe est en r\u00e9alit\u00e9 un i-vecteur (un segment) et que le calcul de la distance entre le centre de la classe k et le i-vecteur n n'est en r\u00e9alit\u00e9 que le calcul de la distance entre le i-vecteur k et le i-vecteur n.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "Notre nouveau mod\u00e8le de regroupement de locuteurs s'\u00e9crit donc :", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "Minimize z Subject To N n=1 x k,n = 1, \u2200k,(5) x k,n \u2212 y k \u2264 0, \u2200k, \u2200n,(6) d(w k , w n )x k,n \u2264 \u03b4, \u2200k, \u2200n,(7) x k,n \u2208 {0, 1}, \u2200k, \u2200n y k \u2208 {0, 1}, \u2200k", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "Nous nous assurons, dans l'\u00e9quation 5, que l'ensemble des i-vecteurs ait \u00e9t\u00e9 assign\u00e9 \u00e0 une seule classe. Dans l'\u00e9quation 6, nous nous assurons que si un i-vecteur n est attribu\u00e9 \u00e0 une classe k, alors la classe k est s\u00e9lectionn\u00e9e. Dans l'\u00e9quation 7, un segment n peut \u00eatre s\u00e9lectionn\u00e9 dans une classe k si sa distance est plus petite ou \u00e9gale \u00e0 une distance \u03b4. d(w k , w n ) correspond \u00e0 la distance donn\u00e9e par l'Equation 2 entre le i-vecteur n et la classe k. ", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Nouveau mod\u00e8le de regroupement de locuteurs global", |
| "sec_num": "5" |
| }, |
| { |
| "text": "Dans un premier temps, nous cherchons \u00e0 d\u00e9terminer la distance \u00e0 utiliser dans le mod\u00e8le de PLNE (Equation 7). Dans la Figure 1 , nous faisons varier la distance utilis\u00e9e dans le mod\u00e8le de PLNE (axe des abscisses) et reportons le DER (Diarization Error Rate) obtenu (axe des ordonn\u00e9es) et ceci sur les corpus de d\u00e9veloppement et de test. Dans le Tableau 1, nous proposons pour l'algorithme de RAH de comparer les i-vecteurs (i-vecteur RAH) par rapport au NCLR (NCLR RAH). Puis nous proposons de voir l'apport du mod\u00e8le de regroupement global sur le syst\u00e8me \u00e0 base de i-vecteurs (i-vecteur PLNE). Le syst\u00e8me NCLR RAH est le syst\u00e8me classique utilis\u00e9 pendant la campagne d'\u00e9valuation ESTER-2. La diff\u00e9rence entre ces 3 syst\u00e8mes se situe uniquement sur le remplacement de la derni\u00e8re brique NCLR. 13,17% 13,54% ESTER-2 9,42% 9,08% 6,99%", |
| "cite_spans": [], |
| "ref_spans": [ |
| { |
| "start": 119, |
| "end": 127, |
| "text": "Figure 1", |
| "ref_id": "FIGREF1" |
| } |
| ], |
| "eq_spans": [], |
| "section": "R\u00e9sultats", |
| "sec_num": "6.2" |
| }, |
| { |
| "text": "Nous constatons une r\u00e9duction du DER de 0,34 point absolu entre les syst\u00e8mes NCLR RAH et i-vecteur RAH. Le remplacement par un mod\u00e8le de regroupement global sur les i-vecteurs i-vecteur PLNE permet une r\u00e9duction du DER d'environ 2 points absolus par rapport au syst\u00e8me i-vecteur RAH et de 2,43 points absolus par rapport au syst\u00e8me NCLR RAH. On observe, toujours sur le syst\u00e8me i-vecteur PLNE, une r\u00e9duction du DER sur l'ensemble des \u00e9missions, sauf pour les \u00e9missions TVME. En effet, sur les \u00e9missions TVME la plupart des locuteurs (56% des locuteurs) interviennent en utilisant un t\u00e9l\u00e9phone, ce qui peut poser un probl\u00e8me puisque l'extraction des i-vecteurs se fait \u00e0 partir d'un GMM-UBM ind\u00e9pendant du canal et du genre.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "R\u00e9sultats", |
| "sec_num": "6.2" |
| }, |
| { |
| "text": "Dans cet article, nous avons propos\u00e9 un nouveau mod\u00e8le de regroupement des locuteurs bas\u00e9 sur les i-vecteurs. Dans le processus de SRL, la derni\u00e8re brique du regroupement de locuteurs (le NCLR) a \u00e9t\u00e9 remplac\u00e9e par notre nouveau mod\u00e8le, ce qui permet d'obtenir sur le corpus de test d'ESTER-2 une r\u00e9duction du DER d'environ 2,43 points absolus.", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Conclusion", |
| "sec_num": "7" |
| }, |
| { |
| "text": ". http ://www-lium.univ-lemans.fr/diarization/", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "", |
| "sec_num": null |
| }, |
| { |
| "text": ". http ://alize.univ-avignon.fr/ 3. http ://www.gnu.org/s/glpk/", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "", |
| "sec_num": null |
| } |
| ], |
| "back_matter": [ |
| { |
| "text": "Les auteurs remercient Pierre-Michel Bousquet pour l'aide apport\u00e9e sur l'algorithme de conditionnement des i-vecteurs.Ces travaux ont \u00e9t\u00e9 en partie financ\u00e9s par l'Agence Nationale de Recherche (ANR) par l'interm\u00e9diaire du projet SODA (ANR-2010-CORD-101-01).", |
| "cite_spans": [], |
| "ref_spans": [], |
| "eq_spans": [], |
| "section": "Remerciements", |
| "sec_num": null |
| } |
| ], |
| "bib_entries": { |
| "BIBREF0": { |
| "ref_id": "b0", |
| "title": "Multi-stage speaker diarization of broadcast news", |
| "authors": [ |
| { |
| "first": "C", |
| "middle": [], |
| "last": "Barras", |
| "suffix": "" |
| }, |
| { |
| "first": "X", |
| "middle": [], |
| "last": "Zhu", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Meignier", |
| "suffix": "" |
| }, |
| { |
| "first": "J.-L", |
| "middle": [], |
| "last": "Gauvain", |
| "suffix": "" |
| } |
| ], |
| "year": 2006, |
| "venue": "IEEE Transactions on Audio, Speech & Language Processing", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "BARRAS, C., ZHU, X., MEIGNIER, S. et GAUVAIN, J.-L. (2006). Multi-stage speaker diarization of broadcast news. IEEE Transactions on Audio, Speech & Language Processing.", |
| "links": null |
| }, |
| "BIBREF1": { |
| "ref_id": "b1", |
| "title": "Intersession compensation and scoring methods in the i-vectors space for speaker recognition", |
| "authors": [ |
| { |
| "first": "P.-M", |
| "middle": [], |
| "last": "Bousquet", |
| "suffix": "" |
| }, |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Matrouf", |
| "suffix": "" |
| }, |
| { |
| "first": "J.-F", |
| "middle": [], |
| "last": "Bonastre", |
| "suffix": "" |
| } |
| ], |
| "year": 2011, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "BOUSQUET, P.-M., MATROUF, D. et BONASTRE, J.-F. (2011). Intersession compensation and scoring methods in the i-vectors space for speaker recognition. In Interspeech.", |
| "links": null |
| }, |
| "BIBREF2": { |
| "ref_id": "b2", |
| "title": "Front-end factor analysis for speaker verification", |
| "authors": [ |
| { |
| "first": "N", |
| "middle": [], |
| "last": "Dehak", |
| "suffix": "" |
| }, |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Kenny", |
| "suffix": "" |
| }, |
| { |
| "first": "R", |
| "middle": [], |
| "last": "Dehak", |
| "suffix": "" |
| }, |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Ouellet", |
| "suffix": "" |
| } |
| ], |
| "year": 2010, |
| "venue": "IEEE Transactions on Audio, Speech & Language Processing", |
| "volume": "19", |
| "issue": "99", |
| "pages": "1--23", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "DEHAK, N., KENNY, P., DEHAK, R. et OUELLET, P. (2010). Front-end factor analysis for speaker verification. IEEE Transactions on Audio, Speech & Language Processing, 19(99):1-23.", |
| "links": null |
| }, |
| "BIBREF3": { |
| "ref_id": "b3", |
| "title": "Technical improvements of the E-HMM based speaker diarization system for meeting records", |
| "authors": [ |
| { |
| "first": "C", |
| "middle": [], |
| "last": "Fredouille", |
| "suffix": "" |
| }, |
| { |
| "first": "G", |
| "middle": [ |
| "; S" |
| ], |
| "last": "Senay", |
| "suffix": "" |
| }, |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Bengio", |
| "suffix": "" |
| }, |
| { |
| "first": "J", |
| "middle": [ |
| "G" |
| ], |
| "last": "Fiscus", |
| "suffix": "" |
| } |
| ], |
| "year": 2006, |
| "venue": "\u00e9diteurs : MLMI", |
| "volume": "4299", |
| "issue": "", |
| "pages": "359--370", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "FREDOUILLE, C. et SENAY, G. (2006). Technical improvements of the E-HMM based speaker diarization system for meeting records. In RENALS, S., BENGIO, S. et FISCUS, J. G., \u00e9diteurs : MLMI, volume 4299 de Lecture Notes in Computer Science, pages 359-370. Springer.", |
| "links": null |
| }, |
| "BIBREF4": { |
| "ref_id": "b4", |
| "title": "The ESTER 2 evaluation campaign for the rich transcription of French radio broadcasts", |
| "authors": [ |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Galliano", |
| "suffix": "" |
| }, |
| { |
| "first": "G", |
| "middle": [], |
| "last": "Gravier", |
| "suffix": "" |
| }, |
| { |
| "first": "L", |
| "middle": [], |
| "last": "Chaubard", |
| "suffix": "" |
| } |
| ], |
| "year": 2009, |
| "venue": "Interspeech", |
| "volume": "", |
| "issue": "", |
| "pages": "2583--2586", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "GALLIANO, S., GRAVIER, G. et CHAUBARD, L. (2009). The ESTER 2 evaluation campaign for the rich transcrip- tion of French radio broadcasts. In Interspeech, pages 2583-2586. ISCA.", |
| "links": null |
| }, |
| "BIBREF5": { |
| "ref_id": "b5", |
| "title": "Analysis of i-vector length normalization in speaker recognition systems", |
| "authors": [ |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Garcia-Romero", |
| "suffix": "" |
| }, |
| { |
| "first": "C", |
| "middle": [], |
| "last": "Espy-Wilson", |
| "suffix": "" |
| } |
| ], |
| "year": 2011, |
| "venue": "", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "GARCIA-ROMERO, D. et ESPY-WILSON, C. (2011). Analysis of i-vector length normalization in speaker recognition systems. In Interspeech.", |
| "links": null |
| }, |
| "BIBREF6": { |
| "ref_id": "b6", |
| "title": "Joint factor analysis versus eigenchannels in speaker recognition", |
| "authors": [ |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Kenny", |
| "suffix": "" |
| }, |
| { |
| "first": "G", |
| "middle": [], |
| "last": "Boulianne", |
| "suffix": "" |
| }, |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Ouellet", |
| "suffix": "" |
| }, |
| { |
| "first": "P", |
| "middle": [], |
| "last": "Dumouchel", |
| "suffix": "" |
| } |
| ], |
| "year": 2007, |
| "venue": "IEEE Transactions on Audio, Speech & Language Processing", |
| "volume": "15", |
| "issue": "4", |
| "pages": "1435--1447", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "KENNY, P., BOULIANNE, G., OUELLET, P. et DUMOUCHEL, P. (2007). Joint factor analysis versus eigenchannels in speaker recognition. IEEE Transactions on Audio, Speech & Language Processing, 15(4):1435-1447.", |
| "links": null |
| }, |
| "BIBREF7": { |
| "ref_id": "b7", |
| "title": "Speaker diarization using normalized cross likelihood ratio", |
| "authors": [ |
| { |
| "first": "V.-B", |
| "middle": [], |
| "last": "Le", |
| "suffix": "" |
| }, |
| { |
| "first": "O", |
| "middle": [], |
| "last": "Mella", |
| "suffix": "" |
| }, |
| { |
| "first": "D", |
| "middle": [], |
| "last": "Fohr", |
| "suffix": "" |
| } |
| ], |
| "year": 2007, |
| "venue": "Interspeech", |
| "volume": "", |
| "issue": "", |
| "pages": "1869--1872", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "LE, V.-B., MELLA, O. et FOHR, D. (2007). Speaker diarization using normalized cross likelihood ratio. In Interspeech, pages 1869-1872. ISCA.", |
| "links": null |
| }, |
| "BIBREF8": { |
| "ref_id": "b8", |
| "title": "LIUM SpkDiarization : An open-source toolkit for diarization", |
| "authors": [ |
| { |
| "first": "S", |
| "middle": [], |
| "last": "Meignier", |
| "suffix": "" |
| }, |
| { |
| "first": "T", |
| "middle": [], |
| "last": "Merlin", |
| "suffix": "" |
| } |
| ], |
| "year": 2010, |
| "venue": "CMU SPUD Workshop", |
| "volume": "", |
| "issue": "", |
| "pages": "", |
| "other_ids": {}, |
| "num": null, |
| "urls": [], |
| "raw_text": "MEIGNIER, S. et MERLIN, T. (2010). LIUM SpkDiarization : An open-source toolkit for diarization. In CMU SPUD Workshop.", |
| "links": null |
| } |
| }, |
| "ref_entries": { |
| "FIGREF1": { |
| "type_str": "figure", |
| "num": null, |
| "text": "DER en fonction de la distance utilis\u00e9e dans le mod\u00e8le PLNE Nous observons dans laFigure 1que la distance qui minimise le DER sur le corpus de d\u00e9veloppement est \u00e0 180. Celle-ci est exactement la m\u00eame que sur le corpus de test.", |
| "uris": null |
| }, |
| "TABREF0": { |
| "num": null, |
| "content": "<table/>", |
| "type_str": "table", |
| "html": null, |
| "text": "Le syst\u00e8me est compos\u00e9 d'une segmentation acoustique bas\u00e9e sur le BIC (Bayesian Information Criterion) suivi par un regroupement hi\u00e9rarchique lui aussi bas\u00e9 sur le BIC. Chaque classe repr\u00e9sente un locuteur et est mod\u00e9lis\u00e9e avec une Gaussienne de covariance pleine. Un d\u00e9codage en Viterbi est utilis\u00e9 pour ajuster les fronti\u00e8res des segments en utilisant un GMM avec 8 composantes diagonales. Le regroupement de locuteurs est r\u00e9alis\u00e9 sur une param\u00e9trisation acoustique de 12 MFCC+E, calcul\u00e9e sur une fen\u00eatre de 10ms. La musique et les jingles sont supprim\u00e9s en utilisant un d\u00e9codage Viterbi avec 8 GMMs." |
| }, |
| "TABREF1": { |
| "num": null, |
| "content": "<table><tr><td>La matrice T de l'Equation 1 est estim\u00e9e sur le corpus d'apprentissage. La matrice est it\u00e9rativement estim\u00e9e utilisant l'algorithme d'esp\u00e9rance-maximisation (EM). Nous utilisons une param\u00e9trisation acoustique de dimension 60 : compos\u00e9e de 19 MFCC plus l'\u00e9nergie compl\u00e9t\u00e9e de la d\u00e9riv\u00e9e premi\u00e8re et seconde. Le solveur de PLNE utilis\u00e9 est celui fourni gratuitement sous Linux : GNU Linear Programming Kit 3 .</td></tr></table>", |
| "type_str": "table", |
| "html": null, |
| "text": "Le mod\u00e8le du monde GMM-UBM est un mod\u00e8le ind\u00e9pendant du genre et du canal. Il est compos\u00e9 de 1024 Gaussiennes et est appris en utilisant l'outil Alize 2 .Afin d'avoir un \u00e9quilibre entre la pr\u00e9cision du mod\u00e8le et la quantit\u00e9 de donn\u00e9es menant \u00e0 l'estimation des param\u00e8tres, nous avons choisi de fixer la dimension des i-vecteurs \u00e0 60. En effet, si nous choisissons une dimension de i-vecteurs sup\u00e9rieure pour des segments ayant une dur\u00e9e trop courte, la matrice T ne peut pas \u00eatre correctement estim\u00e9e." |
| }, |
| "TABREF2": { |
| "num": null, |
| "content": "<table><tr><td>Corpus</td><td colspan=\"3\">NCLR RAH i-vecteur RAH i-vecteur PLNE</td></tr><tr><td>Africa 1 Inter RFI TVME</td><td>9,60% 9,23% 3,61% 13,31%</td><td>6,05% 11,72% 2,33%</td><td>2,79% 8,62% 2,33%</td></tr></table>", |
| "type_str": "table", |
| "html": null, |
| "text": "M\u00e9thode de regroupement des classes (DER sur le corpus d'\u00e9valuation) NCLR RAH : le syst\u00e8me classique i-vecteur RAH : le syst\u00e8me utilisant les i-vecteurs et l'algorithme ascendant i-vecteur PLNE : le syst\u00e8me utilisant les i-vecteurs et le mod\u00e8le de PLNE" |
| } |
| } |
| } |
| } |