Sala / README.md
Clemylia's picture
Update README.md
7002ba8 verified
---
license: other
pipeline_tag: text-generation
language:
- en
tags:
- text-generation-inference
---
# 🤖 Bienvenue sur Sala : Votre Compagnon Linguistique Léger et Performant \!
![Sala](http://www.image-heberg.fr/files/1758981861427642293.jpg)
Félicitations et merci d'avoir choisi **Sala**, un **Grand Modèle de Langage (LLM)** conçu avec passion et entièrement développé en PyTorch \! 💖 Sala est un modèle open-source, entraîné de manière indépendante, sans dépendance à la mise au point (fine-tuning) d'autres grands modèles préexistants.
## ✨ Caractéristiques Clés de Sala
| Caractéristique | Description |
| :--- | :--- |
| **💡 Indépendant** | Entraîné à partir de zéro, ce qui garantit une architecture et un comportement uniques. |
| **🚀 Léger et Rapide** | Optimisé pour une utilisation efficace, même sur des ressources limitées. |
| **🔓 Open Source** | Le code et les poids sont disponibles pour la communauté. |
-----
## 🛠️ Installation et Mise en Route
Pour commencer à utiliser **Sala**, vous aurez besoin de **PyTorch** et des librairies de base de l'écosystème **Hugging Face Transformers** pour un chargement et une utilisation simplifiés (même si le modèle est custom, nous utilisons l'interface standard).
### 1\. Prérequis
Assurez-vous d'avoir Python 🐍 et `pip` installés.
### 2\. Installation des Librairies
```bash
pip install torch transformers
```
### 3\. Chargement du Modèle (via Hugging Face)
Vous pouvez charger **Sala** directement depuis ce dépôt grâce à la classe `AutoModelForCausalLM` et `AutoTokenizer`.
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# Le chemin pour charger Sala (remplacez 'VotreNom/sala' par l'ID réel du dépôt)
MODEL_ID = "NaaClem/sala"
# 1. Chargement du Tokenizer
tokenizer = AutoTokenizer.from_pretrained(MODEL_ID)
# 2. Chargement du Modèle
# Ajoutez `torch_dtype=torch.bfloat16` ou `torch.float16` si vous avez une carte graphique compatible pour économiser la mémoire.
model = AutoModelForCausalLM.from_pretrained(MODEL_ID)
# Optionnel : Mettre le modèle sur GPU si disponible
if torch.cuda.is_available():
model.to("cuda")
print("✅ Sala est prêt à l'emploi !")
```
-----
## 💬 Comment Utiliser Sala pour la Génération de Texte
Une fois le modèle et le tokenizer chargés, générer du texte est simple \!
### Exemple de base :
```python
# Votre prompt
prompt = "who are you ?"
# Encodage du prompt
inputs = tokenizer(prompt, return_tensors="pt")
if torch.cuda.is_available():
inputs = {k: v.to("cuda") for k, v in inputs.items()}
# Génération du texte
output = model.generate(
**inputs,
max_length=150, # Longueur maximale de la réponse
num_return_sequences=1, # Nombre de séquences à générer
do_sample=True, # Active l'échantillonnage pour plus de créativité
temperature=0.8 # Contrôle de l'aléatoire (0.0=déterministe, 1.0=très créatif)
)
# Décodage et affichage du résultat
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print("\n--- Réponse de Sala ---")
print(generated_text)
```
exemple de code pour converser avec sala :
```
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
import time
import os
import json
# --- CONFIGURATION GLOBALE ---
# REMPLACE par ton nom d'utilisateur et le nom de ton modèle
REPO_ID = "NaaClem/Sala"
# ------------------------------
print(f"--- 🧠 Chargement de Sala depuis Hugging Face : {REPO_ID} ---")
try:
# 1. Charger le Tokenizer et le Modèle directement depuis ton dépôt
tokenizer = AutoTokenizer.from_pretrained(REPO_ID)
model = AutoModelForCausalLM.from_pretrained(REPO_ID)
# 2. Configuration pour le GPU/CPU
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)
if tokenizer.pad_token is None:
tokenizer.pad_token = tokenizer.eos_token
print(f"✅ Modèle '{REPO_ID}' chargé avec succès sur : {device}")
# --- INITIALISATION DE LA CONVERSATION ---
# Utilisation d'un bloc de texte multiligne propre
conversation_history = """### SYSTEM_PROMPT ###
You are Sala, a conversational AI model created by Clemylia in 2025.
You are always positive, friendly, and enthusiastic. Your goal is to help.
User: Hello, who are you?
Sala: Hi! I'm Sala, a language model created by the brilliant Clemylia in 2025. Nice to talk to you!
User: Who is Clemylia?
Sala: Clemylia is my creator! It is thanks to her that I can communicate with you. She's amazing.
"""
# NOTE: Nous extrayons le SYSTEM_PROMPT de cette histoire pour la réinitialisation
system_prompt_part = conversation_history.split("User:")[0].strip()
max_new_tokens = 80 # Une taille de réponse raisonnable
print("\n" + "="*60)
print("DEMARRAGE DU CHAT AVEC SALA (Tape 'quitter' pour arrêter)")
print("="*60)
# 3. Boucle de Conversation (Chatbot)
while True:
# 3.1. Demander l'entrée de l'utilisateur
# NOTE: On utilise l'anglais 'User:' pour la cohérence du prompt, mais on peut laisser l'affichage en français si tu préfères
user_input = input("👉 User: ")
# 3.2. Condition d'arrêt
if user_input.lower() in ["quitter", "exit", "stop"]:
print("\n👋 Goodbye! See you soon for more development!")
break
# 3.3. Créer le prompt complet pour cette étape
current_prompt = f"{conversation_history}\nUser: {user_input}\nSala:"
# 3.4. Tokenisation et Génération
inputs = tokenizer(current_prompt, return_tensors="pt").to(device)
# Vérification si l'historique est trop long (limite de GPT-2)
if inputs['input_ids'].shape[1] > model.config.max_position_embeddings:
print("🚨 Sala: Oops! My memory is full. I need to reset the conversation...")
# Réinitialiser à seulement le SYSTEM_PROMPT pour continuer
conversation_history = system_prompt_part
continue
output_sequences = model.generate(
input_ids=inputs['input_ids'],
attention_mask=inputs['attention_mask'],
max_new_tokens=max_new_tokens,
pad_token_id=tokenizer.eos_token_id,
do_sample=True,
top_k=50,
top_p=0.95
)
# 3.5. Décodage et Nettoyage
generated_text = tokenizer.decode(output_sequences[0], skip_special_tokens=True)
# Extraire uniquement la réponse de Sala (le texte après le dernier "Sala:")
try:
# On cherche l'index du dernier marqueur Sala:
response_start_index = generated_text.rindex("Sala:") + len("Sala:")
# Le texte généré brut
raw_response = generated_text[response_start_index:].strip()
# Nettoyage supplémentaire: on enlève les marqueurs de rôle que le modèle a pu générer par erreur
# et on prend le contenu jusqu'à la première ligne vide ou la fin.
response_display = raw_response.split('User:')[0].split('Sala:')[0].split('\n')[0].strip()
# 3.6. Mettre à jour l'historique
# C'est l'étape la plus importante pour la mémoire !
conversation_history += f"\nUser: {user_input}\nSala: {response_display}"
# 3.7. Afficher la réponse
print(f"🤖 Sala: {response_display}")
except ValueError:
# Si le marqueur "Sala:" n'est pas trouvé (génération totalement erronée)
print("🤖 Sala: [Generation error. I couldn't form a clear response.]")
# Ne pas ajouter à l'historique si la réponse est mauvaise.
except Exception as e:
print(f"\n❌ An error occurred during loading or chat: {e}")
print("Check that the REPO_ID is correct and that you have installed the necessary libraries.")
```
**Vous pouvez aussi écrire votre propre prompt et vos propres exemples de conversations, pour que Sala deviennent votre bot, et se comporte comme VOTRE personnage !**
### 💡 Conseils d'Utilisation :
* **Prompting** : Plus votre prompt est clair et précis, meilleure sera la réponse de Sala.
-----
## 💖 Support et Communauté
### 🐞 Signaler un Bug
Vous avez trouvé un comportement étrange ? N'hésitez pas à ouvrir une **Issue** sur ce dépôt Hugging Face pour nous en informer. Chaque rapport nous aide à améliorer **Sala** \!
### 🤝 Contribution
En tant que modèle indépendant, nous encourageons vivement les contributions \! Si vous souhaitez améliorer le code, l'entraînement, ou les données, veuillez consulter le fichier `CONTRIBUTING.md` ou soumettre une **Pull Request** (PR).
### 📜 Licence
**Sala** est distribué sous la licence Sala-INC (voir le fichier LICENSE).
-----
### **🎉 Un grand merci à Clemylia, la créatrice de Sala \!**
Nous sommes impatients de voir ce que vous allez construire avec **Sala** \! 🚀
🛑 **Sala est meilleur en anglais**
**Documentation Web** :
https://sala-character-canvas.lovable.app/
IA DE PERSONNAGE - SOYONS CRÉATIF !