Clemylia commited on
Commit
36c6641
·
verified ·
1 Parent(s): c3e233e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +117 -3
README.md CHANGED
@@ -1,3 +1,117 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ ---
4
+ # 🤖 Bienvenue sur Sala : Votre Compagnon Linguistique Léger et Performant \!
5
+
6
+ ![Sala](http://www.image-heberg.fr/files/1758981861427642293.jpg)
7
+
8
+ Félicitations et merci d'avoir choisi **Sala**, un **Grand Modèle de Langage (LLM)** conçu avec passion et entièrement développé en PyTorch \! 💖 Sala est un modèle open-source, entraîné de manière indépendante, sans dépendance à la mise au point (fine-tuning) d'autres grands modèles préexistants.
9
+
10
+ ## ✨ Caractéristiques Clés de Sala
11
+
12
+ | Caractéristique | Description |
13
+ | :--- | :--- |
14
+ | **💡 Indépendant** | Entraîné à partir de zéro, ce qui garantit une architecture et un comportement uniques. |
15
+ | **🚀 Léger et Rapide** | Optimisé pour une utilisation efficace, même sur des ressources limitées. |
16
+ | **🧠 Polyvalent** | Capable de comprendre et de générer du texte pour diverses tâches (résumé, conversation, traduction simple, etc.). |
17
+ | **🔓 Open Source** | Le code et les poids sont disponibles pour la communauté. |
18
+
19
+ -----
20
+
21
+ ## 🛠️ Installation et Mise en Route
22
+
23
+ Pour commencer à utiliser **Sala**, vous aurez besoin de **PyTorch** et des librairies de base de l'écosystème **Hugging Face Transformers** pour un chargement et une utilisation simplifiés (même si le modèle est custom, nous utilisons l'interface standard).
24
+
25
+ ### 1\. Prérequis
26
+
27
+ Assurez-vous d'avoir Python 🐍 et `pip` installés.
28
+
29
+ ### 2\. Installation des Librairies
30
+
31
+ ```bash
32
+ pip install torch transformers
33
+ ```
34
+
35
+ ### 3\. Chargement du Modèle (via Hugging Face)
36
+
37
+ Vous pouvez charger **Sala** directement depuis ce dépôt grâce à la classe `AutoModelForCausalLM` et `AutoTokenizer`.
38
+
39
+ ```python
40
+ from transformers import AutoTokenizer, AutoModelForCausalLM
41
+ import torch
42
+
43
+ # Le chemin pour charger Sala (remplacez 'VotreNom/sala' par l'ID réel du dépôt)
44
+ MODEL_ID = "Clemylia/sala"
45
+
46
+ # 1. Chargement du Tokenizer
47
+ tokenizer = AutoTokenizer.from_pretrained(MODEL_ID)
48
+
49
+ # 2. Chargement du Modèle
50
+ # Ajoutez `torch_dtype=torch.bfloat16` ou `torch.float16` si vous avez une carte graphique compatible pour économiser la mémoire.
51
+ model = AutoModelForCausalLM.from_pretrained(MODEL_ID)
52
+
53
+ # Optionnel : Mettre le modèle sur GPU si disponible
54
+ if torch.cuda.is_available():
55
+ model.to("cuda")
56
+
57
+ print("✅ Sala est prêt à l'emploi !")
58
+ ```
59
+
60
+ -----
61
+
62
+ ## 💬 Comment Utiliser Sala pour la Génération de Texte
63
+
64
+ Une fois le modèle et le tokenizer chargés, générer du texte est simple \!
65
+
66
+ ### Exemple de base :
67
+
68
+ ```python
69
+ # Votre prompt
70
+ prompt = "Écris une petite histoire sur un chat explorateur de l'espace :"
71
+
72
+ # Encodage du prompt
73
+ inputs = tokenizer(prompt, return_tensors="pt")
74
+ if torch.cuda.is_available():
75
+ inputs = {k: v.to("cuda") for k, v in inputs.items()}
76
+
77
+ # Génération du texte
78
+ output = model.generate(
79
+ **inputs,
80
+ max_length=150, # Longueur maximale de la réponse
81
+ num_return_sequences=1, # Nombre de séquences à générer
82
+ do_sample=True, # Active l'échantillonnage pour plus de créativité
83
+ temperature=0.8 # Contrôle de l'aléatoire (0.0=déterministe, 1.0=très créatif)
84
+ )
85
+
86
+ # Décodage et affichage du résultat
87
+ generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
88
+ print("\n--- Réponse de Sala ---")
89
+ print(generated_text)
90
+ ```
91
+
92
+ ### 💡 Conseils d'Utilisation :
93
+
94
+ * **Prompting** : Plus votre prompt est clair et précis, meilleure sera la réponse de Sala.
95
+ * **`temperature`** : Pour des réponses factuelles ou cohérentes, utilisez une valeur basse (ex: 0.5). Pour des idées créatives, utilisez une valeur plus élevée (ex: 0.8 ou 0.9).
96
+
97
+ -----
98
+
99
+ ## 💖 Support et Communauté
100
+
101
+ ### 🐞 Signaler un Bug
102
+
103
+ Vous avez trouvé un comportement étrange ? N'hésitez pas à ouvrir une **Issue** sur ce dépôt Hugging Face pour nous en informer. Chaque rapport nous aide à améliorer **Sala** \!
104
+
105
+ ### 🤝 Contribution
106
+
107
+ En tant que modèle indépendant, nous encourageons vivement les contributions \! Si vous souhaitez améliorer le code, l'entraînement, ou les données, veuillez consulter le fichier `CONTRIBUTING.md` (à ajouter dans votre dépôt) ou soumettre une **Pull Request** (PR).
108
+
109
+ ### 📜 Licence
110
+
111
+ **Sala** est distribué sous la licence [**Apache 2.0**] (ou la licence que vous choisissez). N'hésitez pas à l'utiliser dans vos projets personnels et commerciaux \!
112
+
113
+ -----
114
+
115
+ ### **🎉 Un grand merci à Clemylia, la créatrice de Sala \!**
116
+
117
+ Nous sommes impatients de voir ce que vous allez construire avec **Sala** \! 🚀