Phase 1 - Dataset bootstrap (simple et sûr)
Objectif
Constituer rapidement un premier dataset “éducation” propre et reproductible en partant de données locales déjà présentes (SUMM‑RE), sans scraping externe, pour valider la chaîne et préparer l’enrichissement ultérieur.
Décisions méthodologiques
- Sources: uniquement données locales publiques fournies (SUMM‑RE).
- Audio: normalisation en WAV 16 kHz mono.
- Segmentation: VAD (WebRTC) avec cap dur à 30 s (pragmatique et robuste).
- Splits: déterministes (hash id), 95% train / 5% valid.
- Métadonnées: chemin audio absolu, durée, catégorie par défaut
conferences, domaineeducation, rôleteacher.
Pourquoi VAD d’abord ?
- Universel (pas de dépendance stricte aux schémas CSV).
- Rapide pour produire un premier corpus exploitable et stable.
- Garantit des segments <= 30 s et largement “speech‑focused” en pratique.
Étapes exécutées (logs disponibles dans le terminal)
- Copie de l’audio pour éviter les restrictions d’écriture macOS dans
Downloads:
mkdir -p /Users/mathisescriva/Dataset-Education/FrenchEducationSpeech/audio/source_copy
cp /Users/mathisescriva/Downloads/summ-re-asru/1/SUMM-RE-sm/audio_anonymized/*.wav \
/Users/mathisescriva/Dataset-Education/FrenchEducationSpeech/audio/source_copy/
- Normalisation en 16 kHz mono:
bash scripts/normalize.sh /Users/mathisescriva/Dataset-Education/FrenchEducationSpeech/audio/source_copy
- Segmentation VAD (<= 30 s):
python scripts/segment_vad.py \
--indir /Users/mathisescriva/Dataset-Education/FrenchEducationSpeech/audio/source_copy \
--outdir /Users/mathisescriva/Dataset-Education/FrenchEducationSpeech/audio/source_copy \
--max-seconds 30
- Construction des métadonnées + splits déterministes:
python scripts/build_metadata.py \
--audioroot /Users/mathisescriva/Dataset-Education/FrenchEducationSpeech/audio/source_copy \
--outdir /Users/mathisescriva/Dataset-Education/FrenchEducationSpeech/transcripts \
--train-ratio 0.95
Résultats Phase 1
- VAD (baseline rapide)
- Segments écrits: 6 801
- Splits: 6 447 train, 354 valid
- Fichiers:
- Audio:
audio/source_copy/*_segXXXX.wav - Splits:
transcripts/train.jsonl,transcripts/valid.jsonl - Métadonnées globales:
metadata.json
- Audio:
Variante “speech-only” (IPU) — recommandée pour éducation
- Import IPU (plages
ipu+ cap 30s) pour se concentrer sur la parole utile. - Commande:
python scripts/import_summre.py \
--summre-root "/Users/mathisescriva/Downloads/summ-re-asru/1/SUMM-RE-sm" \
--out-audio "audio/ipu_conferences" \
--out-transcripts "transcripts_ipu" \
--train-ratio 0.95
- Résultats:
- Segments écrits: 55 690
- Splits: 52 806 train, 2 884 valid
- Fichiers:
- Audio:
audio/ipu_conferences/*.wav - Splits:
transcripts_ipu/train.jsonl,transcripts_ipu/valid.jsonl
- Audio:
Contrôle d’équilibrage (optionnel à ce stade)
# VAD
python scripts/check_balance.py --jsonl transcripts/train.jsonl --targets conferences=1.0
# IPU
python scripts/check_balance.py --jsonl transcripts_ipu/train.jsonl --targets conferences=1.0
Prochaines étapes (Phase 1bis et Phase 2)
Phase 1bis (speech‑only depuis IPU):
- Importer à partir des IPU “gold” (segments annotés
ipu) pour maximiser “parole utile”. (Voir commande ci‑dessus — produit des segments ≤ 30 s à l’intérieur des plages IPU; texte initial vide, à remplir plus tard.)
Phase 2 (enrichissement légal commercial‑OK):
- Renseigner
sources.csvuniquement avec des ressources: CC‑BY / CC‑BY‑SA / Etalab / domaine public (Canal‑U, MESR, UNESCO…). - Lancer:
python scripts/download.py --catalog sources.csv --outdir audio
bash scripts/normalize.sh audio
python scripts/segment_vad.py --indir audio --outdir audio --max-seconds 30
python scripts/build_metadata.py --audioroot audio --outdir transcripts --train-ratio 0.95
- Vérifier l’équilibrage avec
scripts/check_balance.pyet ajuster les catégories/domaines.
Notes de conformité
- Pas d’inclusion de contenus non‑autorisés.
- Pas d’élèves mineurs identifiables.
- Segments ≤ 30 s.
- Reproductibilité: scripts versionnés, commandes documentées.