MEscriva commited on
Commit
9c3c159
·
verified ·
1 Parent(s): 5db4560

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +28 -4
README.md CHANGED
@@ -10,13 +10,18 @@ library_name: pyannote
10
  pipeline_tag: audio-classification
11
  ---
12
 
13
- # Gilbert - Modèle pyannote Diarisation
14
 
15
- Modèle de diarisation de locuteurs basé sur pyannote.audio pour le projet Gilbert.
16
 
17
  ## Description
18
 
19
- Ce modèle utilise pyannote.audio pour la diarisation de locuteurs (identification et segmentation des locuteurs dans un audio).
 
 
 
 
 
20
 
21
  ## Modèles supportés
22
 
@@ -46,7 +51,20 @@ for turn, _, speaker in diarization.itertracks(yield_label=True):
46
  print(f"Speaker {speaker}: {turn.start:.2f}s - {turn.end:.2f}s")
47
  ```
48
 
49
- ### Avec le script fourni
 
 
 
 
 
 
 
 
 
 
 
 
 
50
 
51
  ```bash
52
  python diarization_pyannote_demo.py audio.wav --model pyannote/speaker-diarization-3.1
@@ -64,6 +82,12 @@ python diarization_pyannote_demo.py audio.wav --model pyannote/speaker-diarizati
64
  Le modèle génère des fichiers au format :
65
  - **RTTM** : Format standard Rich Transcription Time Marked
66
  - **JSON** : Segments avec `{"speaker": "SPEAKER_00", "start": 0.0, "end": 3.25}`
 
 
 
 
 
 
67
 
68
  ## Performance
69
 
 
10
  pipeline_tag: audio-classification
11
  ---
12
 
13
+ # Gilbert - Modèle pyannote Diarisation (Version Propriétaire)
14
 
15
+ Modèle de diarisation de locuteurs basé sur pyannote.audio, **version personnalisée et optimisée pour le projet Gilbert**.
16
 
17
  ## Description
18
 
19
+ Ce modèle utilise pyannote.audio avec des améliorations propriétaires pour la diarisation de locuteurs :
20
+ - ✅ **Post-traitement intelligent** : Fusion des segments courts et optimisation pour les réunions
21
+ - ✅ **Détection d'overlap améliorée** : Identification précise des chevauchements entre locuteurs
22
+ - ✅ **Statistiques avancées** : Métriques détaillées par locuteur (durée, segments, overlaps)
23
+ - ✅ **Configuration optimisée** : Paramètres ajustés spécifiquement pour les réunions
24
+ - ✅ **Version Gilbert v1.0** : Version propriétaire avec marqueurs et améliorations uniques
25
 
26
  ## Modèles supportés
27
 
 
51
  print(f"Speaker {speaker}: {turn.start:.2f}s - {turn.end:.2f}s")
52
  ```
53
 
54
+ ### Avec le script Gilbert (recommandé - version propriétaire)
55
+
56
+ ```bash
57
+ python diarization_pyannote_gilbert.py audio.wav --model pyannote/speaker-diarization-3.1
58
+ ```
59
+
60
+ **Avantages de la version Gilbert :**
61
+ - Post-traitement intelligent des segments
62
+ - Fusion automatique des segments courts
63
+ - Détection d'overlaps améliorée
64
+ - Statistiques avancées par locuteur
65
+ - Optimisé pour les réunions
66
+
67
+ ### Avec le script standard
68
 
69
  ```bash
70
  python diarization_pyannote_demo.py audio.wav --model pyannote/speaker-diarization-3.1
 
82
  Le modèle génère des fichiers au format :
83
  - **RTTM** : Format standard Rich Transcription Time Marked
84
  - **JSON** : Segments avec `{"speaker": "SPEAKER_00", "start": 0.0, "end": 3.25}`
85
+ - **Stats JSON** (version Gilbert uniquement) : Statistiques avancées avec overlaps et métriques par locuteur
86
+
87
+ ### Paramètres spécifiques à la version Gilbert
88
+
89
+ - `--min-segment` : Durée minimale des segments (défaut: 0.5s)
90
+ - `--merge-gaps` : Gaps à fusionner entre segments du même locuteur (défaut: 0.3s)
91
 
92
  ## Performance
93