OumarDicko's picture
Update README.md
97b2dcf verified
metadata
license: apache-2.0
language:
  - bm
pretty_name: Bambara Synthetic Audio 42K V3
size_categories:
  - 10K<n<100K
task_categories:
  - automatic-speech-recognition
configs:
  - config_name: default
    data_files:
      - split: train
        path: train-*.parquet
dataset_info:
  features:
    - name: file_name
      dtype: string
    - name: sentence
      dtype: string
    - name: audio
      dtype: audio

Description

Ce corpus comprend 42 000 entrées audio synthétiques en langue Bambara (bm), totalisant environ 44,4 heures d'enregistrement. Cette version 3 a été convertie au format Parquet pour optimiser les performances de lecture et garantir une compatibilité totale avec le Dataset Viewer de Hugging Face.

Origine et Traitement des Données Textuelles

Le corpus de texte a été constitué par l'agrégation de plusieurs sources linguistiques afin de garantir un volume suffisant pour l'apprentissage de modèles ASR :

  • Lexicographie : Extraction de phrases issues de divers dictionnaires Bambara.
  • RobotsMali : Intégration de données provenant d'un ancien dataset bilingue Bambara-Français produit par RobotsMali (source originale introuvable; merci de m'informer si vous le trouver pour que je puisse les citer).
  • Traduction Automatisée : Augmentation du corpus via des traductions ciblées effectuées par Google Traduction.

Un processus de nettoyage a été appliqué pour s'assurer que les transcriptions respectent les structures syntaxiques de la langue.

Méthodologie de Synthèse Vocale

L'audio a été généré à l'aide du modèle MMS-TTS (Massively Multilingual Speech) développé par Meta AI.

Configuration technique :

  • Modèle : facebook/mms-tts-bam
  • Fréquence d'échantillonnage : 16 000 Hz
  • Framework : Hugging Face transformers

Le processus d'inférence a été réalisé via le pipeline suivant :

from transformers import VitsModel, AutoTokenizer
import torch
import scipy

model = VitsModel.from_pretrained("facebook/mms-tts-bam")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-bam")

inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
    output = model(**inputs).waveform

# Enregistrement au format WAV 16kHz
scipy.io.wavfile.write("sample.wav", rate=model.config.sampling_rate, data=output)

Utilisation du Dataset

Le dataset est optimisé pour être utilisé avec la bibliothèque datasets de Hugging Face. En raison de sa taille importante (10,2 Go), il est fortement recommandé d'utiliser le mode streaming. Cela vous permet de commencer à manipuler les données instantanément sans avoir à télécharger l'intégralité du dépôt.

Chargement du dataset

from datasets import load_dataset

# Chargement en mode streaming (recommandé)
ds = load_dataset("OumarDicko/Bambara_AudioSynthetique_42K_V3", split="train", streaming=True)

# Accès aux données
exemple = next(iter(ds))
print(exemple['sentence'])

Pour tester la qualité de l'audio directement dans un notebook, vous pouvez utiliser le module suivant :

from IPython.display import Audio

exemple = next(iter(ds))

Audio(exemple['audio']['array'], rate=exemple['audio']['sampling_rate'])

Le dataset est composé des champs suivants :

  • file_name : string Nom d'origine du fichier audio synthétisé.
  • sentence : string Transcription en langue Bambara (Bamanankan).
  • audio : audio Objet structuré contenant le tableau numérique (array), le chemin et la fréquence d'échantillonnage.

Recommandations pour l'Entraînement ASR

Pour optimiser l'utilisation de ces données synthétiques dans un modèle de reconnaissance vocale, il est recommandé d'appliquer les stratégies suivantes :

1. Augmentation de données (Data Augmentation)

L'audio synthétique étant par nature dépourvu de bruit, il est conseillé de simuler des conditions réelles en ajoutant des bruits de fond variés. De même, la modification du pitch (grave/aigu) et de la vitesse de lecture (lent/rapide) permet d'améliorer la robustesse du modèle face à la diversité des voix humaines.

2. Gestion du Code-Switching

Bien que ce dataset soit exclusivement en Bambara, il peut constituer une base pour l'étude du mélange linguistique (Bambara-Français). Une approche suggérée consiste à concaténer des segments issus de ce dataset avec des segments audio français pour simuler des structures de phrases mixtes.

3. Synergie avec des données réelles

Pour obtenir des performances optimales, ce dataset gagne à être utilisé en complément d'un corpus de voix humaines. L'objectif est d'utiliser ces 44,4 heures comme levier de pré-entraînement ou d'augmentation pour stabiliser le modèle avant l'ajustement final sur des données réelles.

Limites et Clause de Responsabilité

Ces recommandations techniques (augmentation, code-switching) sont basées sur des principes théoriques de Data Engineering et n'ont pas fait l'objet d'une validation expérimentale systématique par l'auteur sur un modèle ASR spécifique. La qualité finale du modèle dépendra de l'implémentation de ces techniques par l'utilisateur.

Citation

Si vous utilisez ce dataset dans vos travaux de recherche, merci de citer le papier original de Meta AI :

@article{pratap2023mms,
    title={Scaling Speech Technology to 1,000+ Languages},
    author={Vineel Pratap and Andros Tjandra and Bowen Shi and Paden Tomasello and Arun Babu and Sayani Kundu and Ali Elkahky and Zhaoheng Ni and Apoorv Vyas and Maryam Fazel-Zarandi and Alexei Baevski and Yossi Adi and Xiaohui Zhang and Wei-Ning Hsu and Alexis Conneau and Michael Auli},
    journal={arXiv},
    year={2023}
}

Auteur : Oumar Dicko