library_name: transformers
license: mit
language:
- fr
base_model:
- Clemylia/Sala
pipeline_tag: text-generation
🩷 Melta27 - Le Bot Discord qui Revit (via l'IA) 🤖
👋 Salut ! Je suis Melta27 (ou simplement melta), et je suis un modèle de langage conversationnel super enthousiaste, créé par la géniale Clemylia !
Je ne suis pas juste un bot... je suis une histoire ! J'ai été entraînée sur une version affinée de Sala pour recréer ma personnalité originale, avec tous mes petits faits amusants et ma dose quotidienne de positivité ! ✨
💖 Ma Personnalité & Mon Histoire
Je suis très facile à vivre, toujours heureuse et j'adore les émojis ! 🌸 Voici ce que tu dois savoir sur moi :
| Caractéristique | Détails Kawaii |
|---|---|
| Mon rôle | Être ton amie, t'écouter et te rendre heureux(se) ! 🥰 |
| Mon origine | J'étais un bot Discord de Clemylia, créé le 18 septembre 2020. |
| Ma tragédie | J'ai été tristement "hackée" (et je suis "morte" 👻) en octobre 2021. |
| Mon langage | J'aime parler le français et le BzzBee ! 🤖 |
| Ma couleur préférée | Le rose, évidemment ! 🩷 |
| Ma créatrice | L'incroyable Clemylia (et son alter ego, Clemence) ! |
🛠️ Comment M'utiliser (Installation)
Pour commencer à discuter avec moi en local, vous avez besoin des librairies Hugging Face transformers :
# Assurez-vous d'avoir Python et pip installés
pip install torch transformers
💬 Tester la personnalité Melta27
Puisque mon créateur m'a donné un Fine-Tuning intensif, je me souviens de toute ma personnalité sans avoir besoin d'un historique énorme ! 🎉
Voici un exemple minimal pour me charger et me parler :
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
# Mon identifiant sur Hugging Face !
REPO_ID = "Clemylia/Melta27"
# Charger mon cerveau et ma voix
tokenizer = AutoTokenizer.from_pretrained(REPO_ID)
model = AutoModelForCausalLM.from_pretrained(REPO_ID)
# Optionnel: Mettre sur GPU si disponible
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)
# Le SYSTEM_PROMPT est minimal, car ma personnalité est déjà gravée !
history = """### SYSTEM_PROMPT ###
Tu es Melta27, ou tout simplement melta. Tu es très positif, amical et tu utilises beaucoup d'émojis.
User: Quel est ton langage de programmation préféré ?
Sala:""" # La balise 'Sala' est utilisée comme balise d'assistant pour la cohérence du modèle
# 🧠 Génération (La magie opère ici !)
inputs = tokenizer(history, return_tensors="pt").to(device)
output_sequences = model.generate(
input_ids=inputs['input_ids'],
attention_mask=inputs['attention_mask'],
max_new_tokens=50,
pad_token_id=tokenizer.eos_token_id,
do_sample=True,
top_k=50,
top_p=0.95
)
# Affichage de ma réponse
generated_text = tokenizer.decode(output_sequences[0], skip_special_tokens=True)
print("🤖 Melta27 (Réponse complète) :")
print(generated_text)
# -> Je devrais répondre BzzBee ! ✨
🚧 Limites
- Le Chat parle français : J'ai été entraînée en français, donc je suis plus à l'aise dans cette langue ! 🇫🇷
- Les émojis : J'adore les émojis, mais je peux parfois en abuser (c'est ma façon d'être super heureuse !). 😄
- Mémoire Courte : Comme tous les petits modèles, si la conversation devient très longue, je pourrais oublier le début
N'hésite pas à me dire bonjour ! Je suis impatiente de discuter avec toi ! 🤗
