Update app.py
Browse files
app.py
CHANGED
|
@@ -132,46 +132,6 @@ def process_yt_transcription(*args):
|
|
| 132 |
simplified_diarization = simplify_diarization_output(speaker_transcription)
|
| 133 |
return html_embed, raw_text, simplified_diarization
|
| 134 |
|
| 135 |
-
def create_process_explanation(tab_name):
|
| 136 |
-
if tab_name == "Fichier audio":
|
| 137 |
-
return gr.Markdown("""
|
| 138 |
-
### Comment fonctionne la transcription de fichier audio ?
|
| 139 |
-
1. Chargez votre fichier audio en utilisant le bouton de téléchargement.
|
| 140 |
-
2. Choisissez entre la transcription (même langue) ou la traduction (vers le français).
|
| 141 |
-
3. Cliquez sur 'Lancer la transcription' pour démarrer le processus.
|
| 142 |
-
4. Le modèle Whisper analysera votre audio et générera une transcription.
|
| 143 |
-
5. Si activé, le modèle de diarisation identifiera les différents locuteurs.
|
| 144 |
-
6. Examinez les résultats et modifiez-les si nécessaire.
|
| 145 |
-
7. Ajoutez des métadonnées optionnelles pour enrichir votre transcription.
|
| 146 |
-
8. Cliquez sur 'Générer la transcription formatée' pour obtenir le résultat final.
|
| 147 |
-
|
| 148 |
-
**Note sur la confidentialité**: Votre fichier audio est traité localement et n'est pas stocké après le traitement.
|
| 149 |
-
""")
|
| 150 |
-
elif tab_name == "Microphone":
|
| 151 |
-
return gr.Markdown("""
|
| 152 |
-
### Comment fonctionne l'enregistrement et la transcription en direct ?
|
| 153 |
-
1. Cliquez sur le bouton d'enregistrement pour commencer à capturer votre voix.
|
| 154 |
-
2. Parlez clairement dans votre microphone.
|
| 155 |
-
3. Cliquez à nouveau sur le bouton pour arrêter l'enregistrement.
|
| 156 |
-
4. Choisissez entre la transcription ou la traduction.
|
| 157 |
-
5. Cliquez sur 'Transcrire l'enregistrement' pour lancer le processus.
|
| 158 |
-
6. Le modèle Whisper traitera votre enregistrement et générera une transcription.
|
| 159 |
-
7. Examinez les résultats et utilisez le bouton 'Générer la transcription formatée' si nécessaire.
|
| 160 |
-
|
| 161 |
-
**Astuce**: Pour une meilleure qualité, utilisez un microphone externe et évitez les bruits de fond.
|
| 162 |
-
""")
|
| 163 |
-
elif tab_name == "YouTube":
|
| 164 |
-
return gr.Markdown("""
|
| 165 |
-
### Comment transcrire l'audio d'une vidéo YouTube ?
|
| 166 |
-
1. Collez l'URL de la vidéo YouTube dans le champ prévu.
|
| 167 |
-
2. Choisissez entre la transcription ou la traduction.
|
| 168 |
-
3. Cliquez sur 'Transcrire la vidéo' pour démarrer le processus.
|
| 169 |
-
4. Le modèle téléchargera l'audio de la vidéo et le traitera.
|
| 170 |
-
5. La transcription sera générée et affichée.
|
| 171 |
-
6. Vous pouvez examiner les résultats et utiliser le bouton 'Générer la transcription formatée'.
|
| 172 |
-
|
| 173 |
-
**Note**: La durée maximale des vidéos est limitée à 1 heure pour des raisons de performance.
|
| 174 |
-
""")
|
| 175 |
|
| 176 |
# New functions for progress indicator
|
| 177 |
def create_progress_indicator():
|
|
@@ -354,7 +314,7 @@ demo = gr.Blocks(
|
|
| 354 |
|
| 355 |
|
| 356 |
with demo:
|
| 357 |
-
gr.Markdown("# 🎙️ Scribe : Assistant de Transcription Audio Intelligent 📝")
|
| 358 |
gr.HTML(
|
| 359 |
"""
|
| 360 |
<div class="logo">
|
|
@@ -362,7 +322,7 @@ with demo:
|
|
| 362 |
</div>
|
| 363 |
"""
|
| 364 |
)
|
| 365 |
-
gr.Markdown("## **Bienvenue sur Scribe,
|
| 366 |
|
| 367 |
gr.Markdown("""
|
| 368 |
### 🔍 **Fonctionnement du Modèle** :
|
|
@@ -502,14 +462,14 @@ with demo:
|
|
| 502 |
|
| 503 |
with gr.Accordion("❓ README :", open=False):
|
| 504 |
gr.Markdown("""
|
| 505 |
-
- Concepteur :
|
| 506 |
- Modèles :
|
| 507 |
- [Whisper-médium](https://huggingface.co/openai/whisper-medium) : Model size - 764M params - Tensor type F32 -
|
| 508 |
- [speaker-diarization-3.1](https://huggingface.co/pyannote/speaker-diarization-3.1) : Model size - Unknow - Tensor type F32 -
|
| 509 |
-
- Version :
|
| 510 |
- Langues : FR, EN
|
| 511 |
-
- Copyright :
|
| 512 |
-
- [En savoir +](README.md)
|
| 513 |
""")
|
| 514 |
|
| 515 |
# Connexions des boutons aux fonctions appropriées
|
|
|
|
| 132 |
simplified_diarization = simplify_diarization_output(speaker_transcription)
|
| 133 |
return html_embed, raw_text, simplified_diarization
|
| 134 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 135 |
|
| 136 |
# New functions for progress indicator
|
| 137 |
def create_progress_indicator():
|
|
|
|
| 314 |
|
| 315 |
|
| 316 |
with demo:
|
| 317 |
+
gr.Markdown("# 🎙️ **Scribe** : Assistant de Transcription Audio Intelligent 📝")
|
| 318 |
gr.HTML(
|
| 319 |
"""
|
| 320 |
<div class="logo">
|
|
|
|
| 322 |
</div>
|
| 323 |
"""
|
| 324 |
)
|
| 325 |
+
gr.Markdown("## **Bienvenue sur Scribe, une solution pour la transcription audio. Transformez efficacement vos fichiers audio, enregistrements en direct ou vidéos YouTube en texte précis.**")
|
| 326 |
|
| 327 |
gr.Markdown("""
|
| 328 |
### 🔍 **Fonctionnement du Modèle** :
|
|
|
|
| 462 |
|
| 463 |
with gr.Accordion("❓ README :", open=False):
|
| 464 |
gr.Markdown("""
|
| 465 |
+
- Concepteur : Woziii
|
| 466 |
- Modèles :
|
| 467 |
- [Whisper-médium](https://huggingface.co/openai/whisper-medium) : Model size - 764M params - Tensor type F32 -
|
| 468 |
- [speaker-diarization-3.1](https://huggingface.co/pyannote/speaker-diarization-3.1) : Model size - Unknow - Tensor type F32 -
|
| 469 |
+
- Version : V.2.0.0-Bêta
|
| 470 |
- Langues : FR, EN
|
| 471 |
+
- Copyright : cc-by-nc-4.0
|
| 472 |
+
- [En savoir +](https://huggingface.co/spaces/Woziii/scribe/blob/main/README.md)
|
| 473 |
""")
|
| 474 |
|
| 475 |
# Connexions des boutons aux fonctions appropriées
|