| import gradio as gr | |
| from transformers import pipeline | |
| # Optionnel : modèle public GPT-2 pour des réponses réelles | |
| generator = pipeline("text-generation", model="gpt2") | |
| def respond(message, history): | |
| history = history or [] | |
| # Ajouter message utilisateur | |
| user_msg = message | |
| # Générer réponse via GPT-2 | |
| answer = generator(message, max_length=50, do_sample=True)[0]["generated_text"] | |
| # Ajouter à l'historique sous forme tuple (ancien template 3.x) | |
| history.append((user_msg, answer)) | |
| return history | |
| # Interface Gradio 3.43 | |
| iface = gr.ChatInterface(respond, title="Chat Demo") | |
| iface.launch() | |