Spaces:
Sleeping
Sleeping
añadiendo temporizador
Browse files- __pycache__/app.cpython-39.pyc +0 -0
- app.py +10 -2
__pycache__/app.cpython-39.pyc
CHANGED
|
Binary files a/__pycache__/app.cpython-39.pyc and b/__pycache__/app.cpython-39.pyc differ
|
|
|
app.py
CHANGED
|
@@ -2,6 +2,7 @@ from transformers import pipeline
|
|
| 2 |
import gradio as gr
|
| 3 |
import numpy as np
|
| 4 |
import librosa
|
|
|
|
| 5 |
|
| 6 |
# Utilizamos los tres modelos entrenados
|
| 7 |
pipe_model_1 = pipeline("automatic-speech-recognition", model="IABDs8a/AfinandoElEntrenamiento")
|
|
@@ -9,6 +10,8 @@ pipe_model_2 = pipeline("automatic-speech-recognition", model="IABDs8a/whisper-b
|
|
| 9 |
pipe_model_3 = pipeline("automatic-speech-recognition", model="IABDs8a/whisper-tiny-top3")
|
| 10 |
|
| 11 |
def transcribe(audio, model_choice):
|
|
|
|
|
|
|
| 12 |
if model_choice == "AfinandoElEntrenamiento":
|
| 13 |
pipe = pipe_model_1
|
| 14 |
elif model_choice == "Whisper Base Full":
|
|
@@ -31,7 +34,9 @@ def transcribe(audio, model_choice):
|
|
| 31 |
|
| 32 |
# Realizar la transcripción
|
| 33 |
result = pipe({"sampling_rate": sr, "raw": y})
|
| 34 |
-
|
|
|
|
|
|
|
| 35 |
|
| 36 |
# Interfaz de Gradio
|
| 37 |
demo = gr.Interface(
|
|
@@ -40,7 +45,10 @@ demo = gr.Interface(
|
|
| 40 |
gr.Audio(type="filepath", label="Sube un archivo de audio o graba desde el micrófono"),
|
| 41 |
gr.Dropdown(choices=["AfinandoElEntrenamiento", "Whisper Base Full", "Whisper Tiny Top 3"], label="Selecciona el modelo", value="Whisper Base Full")
|
| 42 |
],
|
| 43 |
-
outputs=
|
|
|
|
|
|
|
|
|
|
| 44 |
title="Transcripción de Audio con LARA",
|
| 45 |
description="Sube un archivo de audio o graba desde el micrófono para obtener su transcripción utilizando los modelos Whisper entrenados.",
|
| 46 |
)
|
|
|
|
| 2 |
import gradio as gr
|
| 3 |
import numpy as np
|
| 4 |
import librosa
|
| 5 |
+
import time
|
| 6 |
|
| 7 |
# Utilizamos los tres modelos entrenados
|
| 8 |
pipe_model_1 = pipeline("automatic-speech-recognition", model="IABDs8a/AfinandoElEntrenamiento")
|
|
|
|
| 10 |
pipe_model_3 = pipeline("automatic-speech-recognition", model="IABDs8a/whisper-tiny-top3")
|
| 11 |
|
| 12 |
def transcribe(audio, model_choice):
|
| 13 |
+
inicio = time.time()
|
| 14 |
+
|
| 15 |
if model_choice == "AfinandoElEntrenamiento":
|
| 16 |
pipe = pipe_model_1
|
| 17 |
elif model_choice == "Whisper Base Full":
|
|
|
|
| 34 |
|
| 35 |
# Realizar la transcripción
|
| 36 |
result = pipe({"sampling_rate": sr, "raw": y})
|
| 37 |
+
fin = time.time()
|
| 38 |
+
|
| 39 |
+
return result["text"], fin - inicio
|
| 40 |
|
| 41 |
# Interfaz de Gradio
|
| 42 |
demo = gr.Interface(
|
|
|
|
| 45 |
gr.Audio(type="filepath", label="Sube un archivo de audio o graba desde el micrófono"),
|
| 46 |
gr.Dropdown(choices=["AfinandoElEntrenamiento", "Whisper Base Full", "Whisper Tiny Top 3"], label="Selecciona el modelo", value="Whisper Base Full")
|
| 47 |
],
|
| 48 |
+
outputs=[
|
| 49 |
+
gr.Text(label="Salida"),
|
| 50 |
+
gr.Number(label="Tiempo")
|
| 51 |
+
],
|
| 52 |
title="Transcripción de Audio con LARA",
|
| 53 |
description="Sube un archivo de audio o graba desde el micrófono para obtener su transcripción utilizando los modelos Whisper entrenados.",
|
| 54 |
)
|