File size: 2,477 Bytes
148d214
 
 
 
 
 
 
 
 
 
 
 
cddc01a
 
 
148d214
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
cddc01a
 
 
 
 
 
 
 
 
 
148d214
 
cddc01a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
552a9fa
cddc01a
 
 
 
 
 
 
 
 
 
 
 
 
 
552a9fa
148d214
cddc01a
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
import gradio as gr
from huggingface_hub import InferenceClient

def respond(
    message,
    history: list[dict[str, str]],
    system_message,
    max_tokens,
    temperature,
    top_p,
    hf_token: gr.OAuthToken,
):
    """
    Gère la logique de conversation avec l'API d'inférence de Hugging Face.
    """
    client = InferenceClient(token=hf_token.token, model="openai/gpt-oss-20b")

    messages = [{"role": "system", "content": system_message}]
    messages.extend(history)
    messages.append({"role": "user", "content": message})

    response = ""
    for message in client.chat_completion(
        messages,
        max_tokens=max_tokens,
        stream=True,
        temperature=temperature,
        top_p=top_p,
    ):
        choices = message.choices
        token = ""
        if len(choices) and choices[0].delta.content:
            token = choices[0].delta.content
        response += token
        yield response

# --- Construction de l'interface Gradio ---
with gr.Blocks(title="m-4.9+") as demo:
    # On met un titre stylé au centre de la page
    gr.Markdown(
        """
        # <center>m-4.9+</center>
        Plus rapide.
        """
    )
    
    with gr.Sidebar():
        gr.LoginButton()
        # On regroupe les paramètres pour plus de clarté
        gr.Markdown("## Paramètres")
        
        system_input = gr.Textbox(value="Tu est rapide.", label="Message système")
        
        max_tokens_slider = gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Max de nouveaux tokens")
        
        temperature_slider = gr.Slider(minimum=0.1, maximum=4.0, value=0.7, step=0.1, label="Température")
        
        top_p_slider = gr.Slider(
            minimum=0.1,
            maximum=1.0,
            value=0.95,
            step=0.05,
            label="Top-p (Échantillonnage nucleus)"
        )
    
    # On ajoute des petits détails pour rendre l'interface plus user-friendly
    # On retire les paramètres qui causent le bug et on ajoute type="messages"
    chatbot_interface = gr.ChatInterface(
        respond,
        chatbot=gr.Chatbot(label="Chatbot"),
        additional_inputs=[
            system_input,
            max_tokens_slider,
            temperature_slider,
            top_p_slider,
        ],
        title="Discute avec m-4.9+",
        type="messages" # On ajoute cette ligne pour éviter l'avertissement et préparer l'avenir
    )
    
if __name__ == "__main__":
    demo.launch()