Ronaldodev commited on
Commit
853095d
·
verified ·
1 Parent(s): 3875853

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +29 -0
app.py CHANGED
@@ -0,0 +1,29 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import gradio as gr
2
+ from transformers import AutoTokenizer, AutoModelForCausalLM
3
+
4
+ MODEL_NAME = "meta-llama/Llama-3.2-1B-Instruct"
5
+
6
+ # Charger modèle et tokenizer UNE SEULE FOIS
7
+ print("Chargement du modèle...")
8
+ tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
9
+ model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
10
+
11
+ def chat(prompt):
12
+ inputs = tokenizer(prompt, return_tensors="pt")
13
+ outputs = model.generate(
14
+ **inputs,
15
+ max_new_tokens=200,
16
+ do_sample=True,
17
+ temperature=0.7
18
+ )
19
+ return tokenizer.decode(outputs[0], skip_special_tokens=True)
20
+
21
+ iface = gr.Interface(
22
+ fn=chat,
23
+ inputs=gr.Textbox(lines=5, placeholder="Écris ton message ici..."),
24
+ outputs=gr.Textbox(),
25
+ title="Assistant IA (Llama 3.2 1B CPU)",
26
+ )
27
+
28
+ if __name__ == "__main__":
29
+ iface.launch()