Upload README.md with huggingface_hub
Browse files
README.md
CHANGED
|
@@ -10,13 +10,18 @@ library_name: pyannote
|
|
| 10 |
pipeline_tag: audio-classification
|
| 11 |
---
|
| 12 |
|
| 13 |
-
# Gilbert - Modèle pyannote Diarisation
|
| 14 |
|
| 15 |
-
Modèle de diarisation de locuteurs basé sur pyannote.audio pour le projet Gilbert
|
| 16 |
|
| 17 |
## Description
|
| 18 |
|
| 19 |
-
Ce modèle utilise pyannote.audio pour la diarisation de locuteurs
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 20 |
|
| 21 |
## Modèles supportés
|
| 22 |
|
|
@@ -46,7 +51,20 @@ for turn, _, speaker in diarization.itertracks(yield_label=True):
|
|
| 46 |
print(f"Speaker {speaker}: {turn.start:.2f}s - {turn.end:.2f}s")
|
| 47 |
```
|
| 48 |
|
| 49 |
-
### Avec le script
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 50 |
|
| 51 |
```bash
|
| 52 |
python diarization_pyannote_demo.py audio.wav --model pyannote/speaker-diarization-3.1
|
|
@@ -64,6 +82,12 @@ python diarization_pyannote_demo.py audio.wav --model pyannote/speaker-diarizati
|
|
| 64 |
Le modèle génère des fichiers au format :
|
| 65 |
- **RTTM** : Format standard Rich Transcription Time Marked
|
| 66 |
- **JSON** : Segments avec `{"speaker": "SPEAKER_00", "start": 0.0, "end": 3.25}`
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 67 |
|
| 68 |
## Performance
|
| 69 |
|
|
|
|
| 10 |
pipeline_tag: audio-classification
|
| 11 |
---
|
| 12 |
|
| 13 |
+
# Gilbert - Modèle pyannote Diarisation (Version Propriétaire)
|
| 14 |
|
| 15 |
+
Modèle de diarisation de locuteurs basé sur pyannote.audio, **version personnalisée et optimisée pour le projet Gilbert**.
|
| 16 |
|
| 17 |
## Description
|
| 18 |
|
| 19 |
+
Ce modèle utilise pyannote.audio avec des améliorations propriétaires pour la diarisation de locuteurs :
|
| 20 |
+
- ✅ **Post-traitement intelligent** : Fusion des segments courts et optimisation pour les réunions
|
| 21 |
+
- ✅ **Détection d'overlap améliorée** : Identification précise des chevauchements entre locuteurs
|
| 22 |
+
- ✅ **Statistiques avancées** : Métriques détaillées par locuteur (durée, segments, overlaps)
|
| 23 |
+
- ✅ **Configuration optimisée** : Paramètres ajustés spécifiquement pour les réunions
|
| 24 |
+
- ✅ **Version Gilbert v1.0** : Version propriétaire avec marqueurs et améliorations uniques
|
| 25 |
|
| 26 |
## Modèles supportés
|
| 27 |
|
|
|
|
| 51 |
print(f"Speaker {speaker}: {turn.start:.2f}s - {turn.end:.2f}s")
|
| 52 |
```
|
| 53 |
|
| 54 |
+
### Avec le script Gilbert (recommandé - version propriétaire)
|
| 55 |
+
|
| 56 |
+
```bash
|
| 57 |
+
python diarization_pyannote_gilbert.py audio.wav --model pyannote/speaker-diarization-3.1
|
| 58 |
+
```
|
| 59 |
+
|
| 60 |
+
**Avantages de la version Gilbert :**
|
| 61 |
+
- Post-traitement intelligent des segments
|
| 62 |
+
- Fusion automatique des segments courts
|
| 63 |
+
- Détection d'overlaps améliorée
|
| 64 |
+
- Statistiques avancées par locuteur
|
| 65 |
+
- Optimisé pour les réunions
|
| 66 |
+
|
| 67 |
+
### Avec le script standard
|
| 68 |
|
| 69 |
```bash
|
| 70 |
python diarization_pyannote_demo.py audio.wav --model pyannote/speaker-diarization-3.1
|
|
|
|
| 82 |
Le modèle génère des fichiers au format :
|
| 83 |
- **RTTM** : Format standard Rich Transcription Time Marked
|
| 84 |
- **JSON** : Segments avec `{"speaker": "SPEAKER_00", "start": 0.0, "end": 3.25}`
|
| 85 |
+
- **Stats JSON** (version Gilbert uniquement) : Statistiques avancées avec overlaps et métriques par locuteur
|
| 86 |
+
|
| 87 |
+
### Paramètres spécifiques à la version Gilbert
|
| 88 |
+
|
| 89 |
+
- `--min-segment` : Durée minimale des segments (défaut: 0.5s)
|
| 90 |
+
- `--merge-gaps` : Gaps à fusionner entre segments du même locuteur (défaut: 0.3s)
|
| 91 |
|
| 92 |
## Performance
|
| 93 |
|