mAI-models commited on
Commit
cddc01a
·
verified ·
1 Parent(s): 8ebf7e9

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +44 -13
app.py CHANGED
@@ -10,6 +10,9 @@ def respond(
10
  top_p,
11
  hf_token: gr.OAuthToken,
12
  ):
 
 
 
13
  client = InferenceClient(token=hf_token.token, model="openai/gpt-oss-20b")
14
 
15
  messages = [{"role": "system", "content": system_message}]
@@ -31,21 +34,49 @@ def respond(
31
  response += token
32
  yield response
33
 
34
- # ChatInterface sans additional_inputs
35
- chatbot = gr.ChatInterface(
36
- respond,
37
- type="messages"
38
- )
39
-
40
- with gr.Blocks() as demo:
 
 
 
41
  with gr.Sidebar():
42
  gr.LoginButton()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
43
 
44
- # Titre et texte descriptif
45
- gr.Markdown("## m-4.9+")
46
- gr.Markdown("Plus rapide.")
 
 
 
 
 
 
 
 
 
 
 
47
 
48
- chatbot.render()
49
-
50
  if __name__ == "__main__":
51
- demo.launch()
 
10
  top_p,
11
  hf_token: gr.OAuthToken,
12
  ):
13
+ """
14
+ Gère la logique de conversation avec l'API d'inférence de Hugging Face.
15
+ """
16
  client = InferenceClient(token=hf_token.token, model="openai/gpt-oss-20b")
17
 
18
  messages = [{"role": "system", "content": system_message}]
 
34
  response += token
35
  yield response
36
 
37
+ # --- Construction de l'interface Gradio ---
38
+ with gr.Blocks(title="m-4.9+") as demo:
39
+ # On met un titre stylé au centre de la page
40
+ gr.Markdown(
41
+ """
42
+ # <center>m-4.9+</center>
43
+ Plus rapide.
44
+ """
45
+ )
46
+
47
  with gr.Sidebar():
48
  gr.LoginButton()
49
+ # On regroupe les paramètres pour plus de clarté
50
+ gr.Markdown("## Paramètres")
51
+
52
+ system_input = gr.Textbox(value="Tu est rapide.", label="Message système")
53
+
54
+ max_tokens_slider = gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Max de nouveaux tokens")
55
+
56
+ temperature_slider = gr.Slider(minimum=0.1, maximum=4.0, value=0.7, step=0.1, label="Température")
57
+
58
+ top_p_slider = gr.Slider(
59
+ minimum=0.1,
60
+ maximum=1.0,
61
+ value=0.95,
62
+ step=0.05,
63
+ label="Top-p (Échantillonnage nucleus)"
64
+ )
65
 
66
+ # On ajoute des petits détails pour rendre l'interface plus user-friendly
67
+ # On retire les paramètres qui causent le bug et on ajoute type="messages"
68
+ chatbot_interface = gr.ChatInterface(
69
+ respond,
70
+ chatbot=gr.Chatbot(label="Chatbot"),
71
+ additional_inputs=[
72
+ system_input,
73
+ max_tokens_slider,
74
+ temperature_slider,
75
+ top_p_slider,
76
+ ],
77
+ title="Discute avec m-4.9+",
78
+ type="messages" # On ajoute cette ligne pour éviter l'avertissement et préparer l'avenir
79
+ )
80
 
 
 
81
  if __name__ == "__main__":
82
+ demo.launch()