| import gradio as gr | |
| from transformers import pipeline | |
| # Charger le modèle de classification audio | |
| model_id = "sanchit-gandhi/distilhubert-finetuned-gtzan" | |
| classifier = pipeline("audio-classification", model=model_id,framework="pt") | |
| def classify_audio(audio): | |
| # Utiliser le modèle de classification audio pour prédire la classe | |
| result = classifier(audio) | |
| # Récupérer la classe prédite | |
| predicted_label = result[0]['label'] | |
| return predicted_label | |
| iface = gr.Interface( | |
| fn=classify_audio, | |
| inputs=gr.Audio(type="filepath", label="Sélectionnez un fichier audio"), | |
| outputs="text", | |
| title="Classification audio", | |
| description="Ce modèle classe l'audio en différentes catégories." | |
| ) | |
| iface.launch() | |