mAI-models commited on
Commit
cd665ea
·
verified ·
1 Parent(s): a61a350

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +45 -14
app.py CHANGED
@@ -10,7 +10,10 @@ def respond(
10
  top_p,
11
  hf_token: gr.OAuthToken,
12
  ):
13
- client = InferenceClient(token=hf_token.token, model="deepseek-ai/DeepSeek-V3")
 
 
 
14
 
15
  messages = [{"role": "system", "content": system_message}]
16
  messages.extend(history)
@@ -31,21 +34,49 @@ def respond(
31
  response += token
32
  yield response
33
 
34
- # ChatInterface sans additional_inputs
35
- chatbot = gr.ChatInterface(
36
- respond,
37
- type="messages"
38
- )
39
-
40
- with gr.Blocks() as demo:
 
 
 
41
  with gr.Sidebar():
42
  gr.LoginButton()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
43
 
44
- # Titre et texte descriptif
45
- gr.Markdown("## m-DeepThinker-4.3-mini")
46
- gr.Markdown("Recherche écologique sur le web.")
 
 
 
 
 
 
 
 
 
 
 
47
 
48
- chatbot.render()
49
-
50
  if __name__ == "__main__":
51
- demo.launch()
 
10
  top_p,
11
  hf_token: gr.OAuthToken,
12
  ):
13
+ """
14
+ Gère la logique de conversation avec l'API d'inférence de Hugging Face.
15
+ """
16
+ client = InferenceClient(token=hf_token.token, model="deepseek-ai/DeepSeek-V3.1-Base")
17
 
18
  messages = [{"role": "system", "content": system_message}]
19
  messages.extend(history)
 
34
  response += token
35
  yield response
36
 
37
+ # --- Construction de l'interface Gradio ---
38
+ with gr.Blocks(title="m-4.0") as demo:
39
+ # On met un titre stylé au centre de la page
40
+ gr.Markdown(
41
+ """
42
+ # <center>m-4.0</center>
43
+ Pour les tâches quotidiennes, plus rapide.
44
+ """
45
+ )
46
+
47
  with gr.Sidebar():
48
  gr.LoginButton()
49
+ # On regroupe les paramètres pour plus de clarté
50
+ gr.Markdown("## Paramètres")
51
+
52
+ system_input = gr.Textbox(value="Tu est utile aux tâches quotidiennes, et rapide.", label="Message système")
53
+
54
+ max_tokens_slider = gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Max de nouveaux tokens")
55
+
56
+ temperature_slider = gr.Slider(minimum=0.1, maximum=4.0, value=0.7, step=0.1, label="Température")
57
+
58
+ top_p_slider = gr.Slider(
59
+ minimum=0.1,
60
+ maximum=1.0,
61
+ value=0.95,
62
+ step=0.05,
63
+ label="Top-p (Échantillonnage nucleus)"
64
+ )
65
 
66
+ # On ajoute des petits détails pour rendre l'interface plus user-friendly
67
+ # On retire les paramètres qui causent le bug et on ajoute type="messages"
68
+ chatbot_interface = gr.ChatInterface(
69
+ respond,
70
+ chatbot=gr.Chatbot(label="Chatbot"),
71
+ additional_inputs=[
72
+ system_input,
73
+ max_tokens_slider,
74
+ temperature_slider,
75
+ top_p_slider,
76
+ ],
77
+ title="Discute avec m-4.0",
78
+ type="messages" # On ajoute cette ligne pour éviter l'avertissement et préparer l'avenir
79
+ )
80
 
 
 
81
  if __name__ == "__main__":
82
+ demo.launch()