{ "paper_id": "F12-1017", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T09:43:33.234844Z" }, "title": "VisArtico : visualiser les donn\u00e9es articulatoires obtenues par un articulographe", "authors": [ { "first": "Slim", "middle": [], "last": "Ouni", "suffix": "", "affiliation": { "laboratory": "", "institution": "Universit\u00e9 de Lorraine", "location": {} }, "email": "slim.ouni@loria.fr" }, { "first": "Lo\u00efc", "middle": [], "last": "Mangeonjean", "suffix": "", "affiliation": { "laboratory": "", "institution": "Universit\u00e9 de Lorraine", "location": {} }, "email": "" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "Dans cet article, nous pr\u00e9sentons VisArtico, un logiciel de visualisation de donn\u00e9es articulatoires obtenues par un articulographe, l'AG500. Ce logiciel permet de visualiser les positions des capteurs et de les animer simultan\u00e9ment avec l'acoustique : l'utilisateur a la possibilit\u00e9 de visualiser le contour de la langue et des l\u00e8vres. Il permet \u00e9galement de trouver le plan midsagittal du locuteur, et d\u00e9duire la position du palais, si cette information est absente lors de l'acquisition. De plus, VisArtico offre la possibilit\u00e9 d'\u00e9tiqueter phon\u00e9tiquement les trajectoires. D'autres fonctionnalit\u00e9s sont \u00e9galement d\u00e9crites. L'objectif est de fournir un outil efficace de visualisation de donn\u00e9es articulatoires qui peut \u00eatre utile \u00e0 toute personne \u00e9tudiant la production de la parole.", "pdf_parse": { "paper_id": "F12-1017", "_pdf_hash": "", "abstract": [ { "text": "Dans cet article, nous pr\u00e9sentons VisArtico, un logiciel de visualisation de donn\u00e9es articulatoires obtenues par un articulographe, l'AG500. Ce logiciel permet de visualiser les positions des capteurs et de les animer simultan\u00e9ment avec l'acoustique : l'utilisateur a la possibilit\u00e9 de visualiser le contour de la langue et des l\u00e8vres. Il permet \u00e9galement de trouver le plan midsagittal du locuteur, et d\u00e9duire la position du palais, si cette information est absente lors de l'acquisition. De plus, VisArtico offre la possibilit\u00e9 d'\u00e9tiqueter phon\u00e9tiquement les trajectoires. D'autres fonctionnalit\u00e9s sont \u00e9galement d\u00e9crites. L'objectif est de fournir un outil efficace de visualisation de donn\u00e9es articulatoires qui peut \u00eatre utile \u00e0 toute personne \u00e9tudiant la production de la parole.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "L'\u00e9tude de la production de la parole se fait aussi bien au niveau acoustique qu'au niveau articulatoire. Contrairement aux techniques d'acquisition acoustique, les techniques d'acquisition articulatoire sont des t\u00e2ches d\u00e9licates qui rendent la collecte de donn\u00e9es difficile. L'imagerie aux rayons-X a d'abord \u00e9t\u00e9 utilis\u00e9e durant plusieurs d\u00e9cennies (Ghazali, 1977 ; Bothorel et al., 1986) . Mais son utilisation a \u00e9t\u00e9 fortement r\u00e9duite, voire m\u00eame interdite dans certains pays, compte tenus des risques qu'elle repr\u00e9sente pour la sant\u00e9. Aujourd'hui, d'autres techniques, comme l'imagerie \u00e0 r\u00e9sonnance magn\u00e9tique (IRM), l'utilisation de techniques par \u00e9chographie (US) ou encore l'\u00e9lectromagn\u00e9tographie (EMA), sont utilis\u00e9es. Les donn\u00e9es obtenues par ses techniques permettent de suivre le mouvement de la langue, de la m\u00e2choire et des l\u00e8vres. Certaines techniques offrent une bonne r\u00e9solution spatiale (IRM), et une bonne r\u00e9solution temporelle (EMA).", "cite_spans": [ { "start": 350, "end": 366, "text": "(Ghazali, 1977 ;", "ref_id": "BIBREF2" }, { "start": 367, "end": 389, "text": "Bothorel et al., 1986)", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Dans ce papier, nous nous int\u00e9ressons \u00e0 la visualisation des donn\u00e9es articulatoires obtenues par l'EMA. C'est une technique d'acquisition de donn\u00e9es articulatoires consistant \u00e0 suivre la position de petites bobines \u00e9lectromagn\u00e9tiques coll\u00e9es sur les articulateurs de la parole. La position de ces bobines est calcul\u00e9e en mesurant les courants \u00e9lectriques produits par leurs d\u00e9placements lorsqu'elles sont soumises \u00e0 plusieurs champs magn\u00e9tiques de faible intensit\u00e9, g\u00e9n\u00e9ralement trois, dont les caract\u00e9ristiques d\u00e9pendent du temps (Perkell et al. 1992 ; Hoole, 1996) . Cette technique ne pr\u00e9sente aucun danger connu pour la sant\u00e9 des sujets. Nous nous int\u00e9ressons en particulier \u00e0 la visualisation des donn\u00e9es obtenues par l'articulographe 3D, AG500 (Carstens Medizinelektronik GmbH, Allemagne) qui permet de mesurer le d\u00e9placement simultan\u00e9 de 12 capteurs \u00e0 une fr\u00e9quence de 200 Hz. Les capteurs sont coll\u00e9s g\u00e9n\u00e9ralement sur la langue, les l\u00e8vres, et sur une des incisives. Trois capteurs sont g\u00e9n\u00e9ralement utilis\u00e9s pour annuler les effets du mouvement de la t\u00eate et situer les donn\u00e9es articulatoires par rapport \u00e0 un rep\u00e8re fixe. En effet, le locuteur peut avoir un mouvement assez libre dans le cube de l'articulographe. Apr\u00e8s un post-traitement des donn\u00e9es, le logiciel Calpos, fourni avec l'articulographe permet d'obtenir en sortie des donn\u00e9es avec 5 degr\u00e9s de libert\u00e9 pour chaque capteur (3 coordonn\u00e9es spatiales en x, y et z et 2 coordonn\u00e9es angulaires). Les chercheurs doivent par la suite utiliser leurs propres moyens (scripts, programmes, etc.) pour interpr\u00e9ter ces donn\u00e9es en fonction de l'objectif de l'\u00e9tude. Malheureusement cela limite \u00e9norm\u00e9ment l'exploitation de l'articulographe pour les chercheurs qui n'ont pas forc\u00e9ment de connaissances avanc\u00e9es en informatique. Par exemple, les phon\u00e9ticiens sont tr\u00e8s int\u00e9ress\u00e9s par les donn\u00e9es articulatoires, mais en l'absence d'un logiciel ad\u00e9quat pour visualiser ces donn\u00e9es, l'utilisation de l'articulographe reste tr\u00e8s r\u00e9duite.", "cite_spans": [ { "start": 531, "end": 553, "text": "(Perkell et al. 1992 ;", "ref_id": "BIBREF6" }, { "start": 554, "end": 566, "text": "Hoole, 1996)", "ref_id": "BIBREF3" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Quelques logiciels qui permettent de visualiser les donn\u00e9es EMA existent, comme EMATOOLS (Nguyen, 2000) ou JustView (Carstens, 2006) . Malheureusement, certains logiciels ne sont plus maintenus ou disponibles, ou bien il faut les utiliser avec d'autres logiciels, comme MATLAB, par exemple. Ce dernier n\u00e9cessite un effort de programmation de script, pour arriver \u00e0 visualiser correctement les donn\u00e9es.", "cite_spans": [ { "start": 89, "end": 103, "text": "(Nguyen, 2000)", "ref_id": "BIBREF5" }, { "start": 116, "end": 132, "text": "(Carstens, 2006)", "ref_id": "BIBREF1" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Pour ces raisons, nous proposons le logiciel VisArtico qui permet de visualiser des donn\u00e9es articulatoires obtenues par un articulographe. Le logiciel a \u00e9t\u00e9 pens\u00e9 de telle fa\u00e7on que les donn\u00e9es fournies par l'articulographe soient directement utilis\u00e9es. VisArtico permet de visualiser les gestes articulatoires simultan\u00e9ment avec l'acoustique correspondante. Ce logiciel ne permet pas uniquement de visualiser les capteurs mais il enrichit l'information visuelle en indiquant clairement et graphiquement les donn\u00e9es relatives \u00e0 la langue, aux l\u00e8vres et \u00e0 la m\u00e2choire. Dans la suite de cet article, nous pr\u00e9sentons le logiciel et ses principales fonctionnalit\u00e9s.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "VisArtico \u00e9tant un logiciel de visualisation, l'interface utilisateur en est une composante importante. Nous pr\u00e9sentons dans la suite, une description de l'interface graphique du logiciel (voir figure 1). L'interface est compos\u00e9e de trois modules :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Description de l'interface", "sec_num": "2.1" }, { "text": "(1) une repr\u00e9sentation spatiale 3D des capteurs La position de chaque capteur dans l'espace ainsi que leur orientation sont repr\u00e9sent\u00e9es dans un rep\u00e8re tridimensionnel qui est celui de l'articulographe. L'utilisateur a ensuite la possibilit\u00e9 de relier certains capteurs entre eux par des segments ou des splines, si la disposition des capteurs exploite la troisi\u00e8me dimension. Il est \u00e9galement possible de montrer toutes les positions des capteurs sous forme de nuage de points. Cette vue permet d'exploiter pleinement l'AG500 pour repr\u00e9senter les donn\u00e9es en 3D. Rappelons que les versions pr\u00e9c\u00e9dentes, AG100 et AG200 ne permettent de repr\u00e9senter les donn\u00e9es que dans un plan.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Description de l'interface", "sec_num": "2.1" }, { "text": "(2) une repr\u00e9sentation midsagittale des capteurs La repr\u00e9sentation midsagittale permet de pr\u00e9senter dans un rep\u00e8re 2D une vue midsagittale du conduit vocal qui laisse appara\u00eetre le contour de la langue, des l\u00e8vres, et de la m\u00e2choire. La forme de la m\u00e2choire est approximative et a pour unique but une meilleure interpr\u00e9tation des donn\u00e9es. La forme du palais peut \u00e9galement \u00eatre affich\u00e9e si l'information est disponible. Enfin, une vue de face des l\u00e8vres est aussi disponible pour observer le degr\u00e9 d'ouverture des l\u00e8vres. Cette vue offre une repr\u00e9sentation des donn\u00e9es qui int\u00e9resse une grande partie de chercheurs dans le domaine de la production de la parole, comme les phon\u00e9ticiens par exemple. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Description de l'interface", "sec_num": "2.1" }, { "text": "Ajouter de l'information phon\u00e9tique est tr\u00e8s utile pour une meilleure interpr\u00e9tation des gestes articulatoires. Visartico permet l'\u00e9tiquetage des donn\u00e9es articulatoires. L'utilisateur peut le faire directement par l'interface utilisateur du logiciel, ou bien il peut importer un \u00e9tiquetage r\u00e9alis\u00e9 par un autre logiciel comme Winsnoori (Laprie, 2002) ", "cite_spans": [ { "start": 336, "end": 350, "text": "(Laprie, 2002)", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "Etiquetage", "sec_num": "2.2" }, { "text": "Lorsque les donn\u00e9es sont charg\u00e9es pour la premi\u00e8re fois par le logiciel, ce dernier ne conna\u00eet pas la configuration des capteurs, c.-\u00e0-d. quels sont les capteurs mis sur la langue, ceux sur les l\u00e8vres, etc. L'outil de configuration, repr\u00e9sent\u00e9 par la figure 2, permet de faire cette association entre capteurs et articulateurs. Les articulateurs propos\u00e9s sont : la langue, les l\u00e8vres, la m\u00e2choire et le voile du palais. La forme de la m\u00e2choire est approximative. Le contour de langue est r\u00e9alis\u00e9 en connectant les capteurs de la langue, soit par des segments, soit par une spline, pour approcher la forme r\u00e9elle de la langue. Le logiciel peut d\u00e9terminer la forme des l\u00e8vres \u00e0 partir de 2 capteurs (par interpolation) et jusqu'\u00e0 4 capteurs (deux capteurs au niveau des commissures, un capteur au niveau de la l\u00e8vre sup\u00e9rieure et un au niveau de la l\u00e8vre inf\u00e9rieure).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Configuration", "sec_num": "2.3" }, { "text": "Le module de configuration permet de d\u00e9terminer le plan midsagittal du locuteur, ce qui permettrait une meilleure interpr\u00e9tation de la vue midsagittale. En effet, lors de l'acquisition, on s'arrange pour que les capteurs de la langue soient plac\u00e9s sur le plan midsagittal du locuteur. N\u00e9anmoins, l'orientation du locuteur dans le cube de l'articulographe peut ne pas \u00eatre bien align\u00e9 avec le rep\u00e8re de l'articulographe. VisArtico utilise les positions des capteurs de la langue, pour d\u00e9terminer le plan midsgittal. Il s'agit de d\u00e9terminer la droite directrice du nuage de points de ces capteurs. Par la suite, le logiciel effectue une rotation par rapport \u00e0 cette droite. Dans la figure 2, les trois t\u00eates (repr\u00e9sentant les vues) montrent le r\u00e9sultat de cette correction. La fl\u00e8che rouge indique l'orientation du plan midsagittal. L'utilisation de cet outil de configuration se fait une seule fois pour une acquisition donn\u00e9e. Le logiciel se rappellera de la configuration pour les autres sessions d'une m\u00eame acquisition. 3 Quelques fonctionnalit\u00e9s", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Configuration", "sec_num": "2.3" }, { "text": "La visualisation du palais permet une meilleure interpr\u00e9tation du mouvement de la langue. Elle aide notamment \u00e0 mieux voir les lieux de constriction. Lors d'une acquisition par l'articulographe, on utilise g\u00e9n\u00e9ralement l'une des sessions pour enregistrer le contour du palais. Cela se fait en dessinant le contour du palais manuellement \u00e0 l'aide d'un capteur. VisArtico permet par la suite d'exploiter cette session pour r\u00e9cup\u00e9rer le contour du palais qu'il sera possible de visualiser avec les autres donn\u00e9es. Il arrive parfois que les donn\u00e9es relatives au palais ne soient pas disponibles. Le logiciel peut alors donner une approximation du contour du palais gr\u00e2ce \u00e0 un algorithme simple que nous avons d\u00e9velopp\u00e9 et qui permet de pr\u00e9dire le contour \u00e0 partir des positions des capteurs de la langue. Pour chaque instant, on d\u00e9termine d'abord le contour de la langue \u00e0 partir des capteurs qui lui sont associ\u00e9s. Nous obtenons ainsi plusieurs contours de langue obtenus \u00e0 travers toutes les sessions enregistr\u00e9es. Par la suite, l'algorithme r\u00e9cup\u00e8re la position maximale dans le plan midsagittal de chaque contour, qui devrait correspondre \u00e0 un contact entre la langue et le palais. Plus le nombre de sessions est grand, plus la forme du palais est r\u00e9aliste. Cette solution permet d'approcher la forme r\u00e9elle du palais.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection du contour du palais", "sec_num": "3.1" }, { "text": "Les mesures obtenues par l'articulographe peuvent pr\u00e9senter des erreurs de mesure qui sont g\u00e9n\u00e9ralement indiqu\u00e9es par une valeur d'erreur aux moindres carr\u00e9es (RMS) fournies par le logiciel de l'articulographe, mais les erreurs peuvent \u00e9galement \u00eatre dues aux bruits de la machine. VisArtico propose la possibilit\u00e9 d'appliquer un filtre passe-bas sur une ou plusieurs trajectoires articulatoires, pour supprimer les erreurs li\u00e9es au bruit. Classiquement, nous utilisons une fr\u00e9quence de coupure de 20hz qui permet de lisser les trajectoires, mais le logiciel donne la possibilit\u00e9 de choisir d'autres fr\u00e9quences de coupure. Visartico permet \u00e9galement \u00e0 l'utilisateur de ne pas prendre en compte les segments dont l'erreur RMS est sup\u00e9rieure \u00e0 un certain seuil et pour lesquels un lissage ne permet pas de corriger ce type d'erreur. Les segments supprim\u00e9s sont interpol\u00e9s lin\u00e9airement.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Filtrage", "sec_num": "3.2" }, { "text": "Nous avons pr\u00e9sent\u00e9 dans cet article un logiciel de visualisation des donn\u00e9es articulatoires obtenues par un articulographe. L'objectif est d'ouvrir la possibilit\u00e9 d'utiliser l'articulographe aux chercheurs qui ne sont pas n\u00e9cessairement des informaticiens. Ce logiciel est disponible gratuitement pour les chercheurs qui en font la demande. Un site web est disponible pr\u00e9sentant le logiciel et ses principales fonctionnalit\u00e9s ainsi qu'un manuel d'utilisateur (http://visartico.loria.fr). Nous envisageons d'apporter plusieurs am\u00e9liorations \u00e0 ce logiciel, comme par exemple la possibilit\u00e9 de faire plus de traitements et d'analyse des donn\u00e9es, d'afficher le signal acoustique par un spectrogramme, et de donner plus d'informations acoustiques (comme les valeurs des formants par exemple). La conception du logiciel rend son adaptation pour d'autres articulographes, comme le r\u00e9cent AG501 (Carstens) ou encore Wave (NDI) facile. Nous estimons que ce logiciel est tr\u00e8s utile pour la communaut\u00e9 de la communication parl\u00e9e et rend l'utilisation des donn\u00e9es articulatoires plus accessible. BOTHOREL, A., SIMON, P., WILAND, F., ZERLING, J. -P. (1986) . Cin\u00e9radiographie, des voyelles et consonnes du fran\u00e7ais. Travaux de l'institut de phon\u00e9tique de Strasbourg. BOERSMA, P. (2001) . Praat, A system for doing phonetics by computer. GLOT", "cite_spans": [ { "start": 1099, "end": 1144, "text": "SIMON, P., WILAND, F., ZERLING, J. -P. (1986)", "ref_id": null }, { "start": 1255, "end": 1273, "text": "BOERSMA, P. (2001)", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Conclusion", "sec_num": "4" } ], "back_matter": [], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "Apprentissage non supervis\u00e9 de familles morphologiques par classification ascendante hi\u00e9rarchique", "authors": [ { "first": "D", "middle": [], "last": "Bernhard", "suffix": "" }, { "first": "", "middle": [], "last": "Benarmara", "suffix": "" } ], "year": 2007, "venue": "", "volume": "", "issue": "", "pages": "367--376", "other_ids": {}, "num": null, "urls": [], "raw_text": "BERNHARD, D. (2007). Apprentissage non supervis\u00e9 de familles morphologiques par classification ascendante hi\u00e9rarchique. In (Benarmara et al., 2007), pages 367-376.", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "JUSTVIEW: AG500 MEASURING ENVIRONMENT DISPLAY", "authors": [ { "first": "Carstens", "middle": [], "last": "Medizinelektronik", "suffix": "" } ], "year": 2006, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CARSTENS MEDIZINELEKTRONIK, (2006). JUSTVIEW: AG500 MEASURING ENVIRONMENT DISPLAY. Lenglern, Allemagne.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "Back consonants and backing coarticulation in Arabic", "authors": [ { "first": "S", "middle": [], "last": "Ghazali", "suffix": "" } ], "year": 1977, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "GHAZALI, S. (1977). Back consonants and backing coarticulation in Arabic. Th\u00e8se de Doctorat de L'universit\u00e9 de Texas, Austin.", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "Issues in the acquisition, Processing, reduction and parameterization of articulographic data", "authors": [ { "first": "P", "middle": [], "last": "Hoole", "suffix": "" } ], "year": 1996, "venue": "FIPKM", "volume": "34", "issue": "", "pages": "158--173", "other_ids": {}, "num": null, "urls": [], "raw_text": "HOOLE, P. (1996). Issues in the acquisition, Processing, reduction and parameterization of articulographic data. FIPKM, 34, 158-173.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "The Winsnoori User's Manual Version", "authors": [ { "first": "Y", "middle": [], "last": "Laprie", "suffix": "" } ], "year": 2002, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LAPRIE, Y. (2002). The Winsnoori User's Manual Version 1.32.", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "A MATLAB toolbox for the analysis of articulatory data in the production of speech", "authors": [ { "first": "N", "middle": [], "last": "Nguyen", "suffix": "" } ], "year": 2000, "venue": "Behavior Research Methods, Instruments, & Computers", "volume": "32", "issue": "3", "pages": "464--467", "other_ids": {}, "num": null, "urls": [], "raw_text": "NGUYEN, N. (2000). A MATLAB toolbox for the analysis of articulatory data in the production of speech, Behavior Research Methods, Instruments, & Computers, vol. 32, no. 3, pp.464-467.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "Electromagnetic midsagittal articulometer systems for transducing speech articulatory movements", "authors": [ { "first": "J", "middle": [ "S" ], "last": "Perkell", "suffix": "" }, { "first": "M", "middle": [ "H" ], "last": "Cohen", "suffix": "" }, { "first": "M", "middle": [ "A" ], "last": "Svirsky", "suffix": "" }, { "first": "M", "middle": [ "L" ], "last": "Matthies", "suffix": "" }, { "first": "I", "middle": [], "last": "Garabieta", "suffix": "" }, { "first": "M", "middle": [ "T" ], "last": "Jackson", "suffix": "" } ], "year": 1992, "venue": "JASA", "volume": "92", "issue": "", "pages": "3078--3096", "other_ids": {}, "num": null, "urls": [], "raw_text": "PERKELL, J. S., COHEN, M. H., SVIRSKY, M. A., MATTHIES, M. L., GARABIETA, I., JACKSON, M. T. (1992). Electromagnetic midsagittal articulometer systems for transducing speech articulatory movements. JASA, 92, 3078-3096.", "links": null } }, "ref_entries": { "FIGREF0": { "uris": null, "text": "une repr\u00e9sentation temporelle des trajectoires Ce module permet de visualiser les trajectoires articulatoires d'un ou de plusieurs capteurs selon toutes les informations disponibles (position et orientation) ainsi que le signal acoustique et l'\u00e9tiquetage phon\u00e9tique correspondants. Les trajectoires peuvent \u00eatre affich\u00e9es dans un seul ou plusieurs panels. Cette repr\u00e9sentation temporelle permet \u00e9galement de s\u00e9lectionner des segments de temps. Cette s\u00e9lection peut se faire au niveau des phon\u00e8mes si l'\u00e9tiquetage phon\u00e9tique est disponible. VisArtico permet d'animer les trois vues simultan\u00e9ment. Le d\u00e9placement du curseur dans le module temporel change instantan\u00e9ment la vue spatiale correspondante.", "type_str": "figure", "num": null }, "FIGREF1": { "uris": null, "text": ", ou Praat (Boersma, 2001), ou encore un format propre tr\u00e8s simplifi\u00e9 qui est repr\u00e9sent\u00e9 par un temps de d\u00e9but, un temps de fin et le symbole phon\u00e9tique correspondant. Nous envisageons d'ajouter d'autres formats provenant d'autres logiciels qui sont tr\u00e8s utilis\u00e9s par la communaut\u00e9 de la communication parl\u00e9e. Il est possible d'ajouter plusieurs niveaux d'\u00e9tiquetage. Par exemple, nous pouvons avoir un \u00e9tiquetage au niveau des phon\u00e8mes, des mots, des phrases, etc.", "type_str": "figure", "num": null }, "FIGREF2": { "uris": null, "text": "Interface graphique de VisArtico. 3 vues sont disponibles : une vue 3D, une vue 2D midsagittale, et une vue temporelle repr\u00e9sentant les trajectoires articulatoires et le signal acoustique.", "type_str": "figure", "num": null }, "FIGREF3": { "uris": null, "text": "Module de configuration. Il permet d'indiquer l'emplacement de chaque capteur au niveau du conduit vocal et de d\u00e9terminer le plan midsagittal du locuteur.", "type_str": "figure", "num": null } } } }