FAllan07 commited on
Commit
8aadda4
·
verified ·
1 Parent(s): 7dae3e4

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -28
app.py CHANGED
@@ -1,29 +1,14 @@
1
- import gradio as gr
2
- from transformers import pipeline
3
-
4
- # Chargement direct via Pipeline (plus stable pour les modèles custom)
5
- # On ne met PAS "models/" devant, juste "Pseudo/NomDuModele"
6
- model_id = "AllanF-SSU/Qwen2.5-G3V-Sovereign"
7
-
8
- print(f"Initialisation du Souverain : {model_id}")
9
-
10
- try:
11
- # On crée le moteur de discussion
12
- chatbot = pipeline("text-generation", model=model_id)
13
-
14
- def predict(message, history):
15
- # On génère la réponse
16
- response = chatbot(message, max_new_tokens=512, do_sample=True, temperature=0.7)
17
- return response[0]['generated_text']
18
-
19
- # L'interface utilisateur
20
- demo = gr.ChatInterface(
21
- fn=predict,
22
- title="Qwen2.5-G3V-Sovereign",
23
- description="Intelligence Artificielle Souveraine - Protocole PCE"
24
  )
25
-
26
- demo.launch()
27
-
28
- except Exception as e:
29
- print(f"Erreur au démarrage : {e}")
 
1
+ def predict(message, history):
2
+ # On augmente la température pour plus de créativité
3
+ # On ajoute la pénalité de répétition pour casser les boucles
4
+ response = chatbot(
5
+ message,
6
+ max_new_tokens=1024,
7
+ do_sample=True,
8
+ temperature=0.85, # Plus de liberté
9
+ top_p=0.9,
10
+ repetition_penalty=1.2 # Anti-bégaiement
 
 
 
 
 
 
 
 
 
 
 
 
 
11
  )
12
+ # On nettoie la réponse pour ne pas qu'il répète la question
13
+ full_text = response[0]['generated_text']
14
+ return full_text.split(message)[-1].strip()