Clemylia commited on
Commit
8898bf7
·
verified ·
1 Parent(s): d0eb070

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +55 -0
README.md CHANGED
@@ -34,3 +34,58 @@ Votre feedback est précieux ! Si vous souhaitez contribuer à l'amélioration d
34
  * Partager vos retours d'expérience et les résultats les plus drôles sur la page de la communauté 💬
35
  * Nous faire part de vos suggestions et idées d'entraînement 💡
36
  Merci de faire partie de cette aventure ! Ensemble, nous allons faire évoluer Lamina-yl1 pour qu'il devienne plus performant. 🙌
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
34
  * Partager vos retours d'expérience et les résultats les plus drôles sur la page de la communauté 💬
35
  * Nous faire part de vos suggestions et idées d'entraînement 💡
36
  Merci de faire partie de cette aventure ! Ensemble, nous allons faire évoluer Lamina-yl1 pour qu'il devienne plus performant. 🙌
37
+
38
+ # 🍓Pour parler au modèle vous pouvez copiez ce code dans google colab ou un autre environnement adapté
39
+
40
+ ```
41
+ # 1. Installation des bibliothèques
42
+ !pip install transformers torch accelerate -q
43
+
44
+ import torch
45
+ from transformers import pipeline, AutoTokenizer
46
+
47
+ # 2. Nom de ton modèle de chatbot sur le Hub
48
+ # (Vérifie bien ton nom d'utilisateur)
49
+ repo_id = "Clemylia/Lamina-yl1"
50
+
51
+ print("Chargement du chatbot Lamina...")
52
+
53
+ try:
54
+ # 3. On charge le pipeline de génération de texte
55
+ chatbot = pipeline(
56
+ 'text-generation',
57
+ model=repo_id,
58
+ torch_dtype=torch.bfloat16 # Pour de meilleures performances sur GPU
59
+ )
60
+ print("✅ Lamina est prête à discuter !")
61
+
62
+ except Exception as e:
63
+ print(f"❌ Erreur lors du chargement du modèle : {e}")
64
+ # On arrête ici si le chargement échoue
65
+ raise SystemExit
66
+
67
+ # 4. Boucle de discussion
68
+ print("\n----------------------------------------------------")
69
+ print("🤖 Discussion avec Lamina (tape 'quitter' pour arrêter)")
70
+ print("----------------------------------------------------")
71
+
72
+ while True:
73
+ user_input = input("\n🤔 Vous : ")
74
+ if user_input.lower() == 'quitter':
75
+ print("\nFin de la session.")
76
+ break
77
+
78
+ # Étape cruciale : On met la question de l'utilisateur dans le format
79
+ # que le modèle a appris pendant le fine-tuning.
80
+ prompt = f"### Instruction:\n{user_input}\n\n### Response:\n"
81
+
82
+ # On génère la réponse
83
+ result = chatbot(prompt, max_new_tokens=80, truncation=True)
84
+
85
+ # On nettoie la réponse pour n'afficher que le texte généré
86
+ full_response = result[0]['generated_text']
87
+ # On ne garde que ce qui se trouve après "### Response:"
88
+ clean_response = full_response.split("### Response:")[1].strip()
89
+
90
+ print(f"🤖 Lamina : {clean_response}")
91
+ ```