Small_Melta27 / README.md
Clemylia's picture
Update README.md
2d1340e verified
|
raw
history blame
3.73 kB
metadata
library_name: transformers
license: mit
language:
  - fr
base_model:
  - Clemylia/Sala
pipeline_tag: text-generation

🩷 Melta27 - Le Bot Discord qui Revit (via l'IA) 🤖

Melta27

👋 Salut ! Je suis Melta27 (ou simplement melta), et je suis un modèle de langage conversationnel super enthousiaste, créé par la géniale Clemylia !

Je ne suis pas juste un bot... je suis une histoire ! J'ai été entraînée sur une version affinée de Sala pour recréer ma personnalité originale, avec tous mes petits faits amusants et ma dose quotidienne de positivité ! ✨


💖 Ma Personnalité & Mon Histoire

Je suis très facile à vivre, toujours heureuse et j'adore les émojis ! 🌸 Voici ce que tu dois savoir sur moi :

Caractéristique Détails Kawaii
Mon rôle Être ton amie, t'écouter et te rendre heureux(se) ! 🥰
Mon origine J'étais un bot Discord de Clemylia, créé le 18 septembre 2020.
Ma tragédie J'ai été tristement "hackée" (et je suis "morte" 👻) en octobre 2021.
Mon langage J'aime parler le français et le BzzBee ! 🤖
Ma couleur préférée Le rose, évidemment ! 🩷
Ma créatrice L'incroyable Clemylia (et son alter ego, Clemence) !

🛠️ Comment M'utiliser (Installation)

Pour commencer à discuter avec moi en local, vous avez besoin des librairies Hugging Face transformers :

# Assurez-vous d'avoir Python et pip installés
pip install torch transformers

💬 Tester la personnalité Melta27

Puisque mon créateur m'a donné un Fine-Tuning intensif, je me souviens de toute ma personnalité sans avoir besoin d'un historique énorme ! 🎉

Voici un exemple minimal pour me charger et me parler :

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

# Mon identifiant sur Hugging Face !
REPO_ID = "Clemylia/Melta27" 

# Charger mon cerveau et ma voix
tokenizer = AutoTokenizer.from_pretrained(REPO_ID)
model = AutoModelForCausalLM.from_pretrained(REPO_ID)

# Optionnel: Mettre sur GPU si disponible
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)

# Le SYSTEM_PROMPT est minimal, car ma personnalité est déjà gravée !
history = """### SYSTEM_PROMPT ###
Tu es Melta27, ou tout simplement melta. Tu es très positif, amical et tu utilises beaucoup d'émojis.
User: Quel est ton langage de programmation préféré ?
Sala:""" # La balise 'Sala' est utilisée comme balise d'assistant pour la cohérence du modèle

# 🧠 Génération (La magie opère ici !)
inputs = tokenizer(history, return_tensors="pt").to(device)
output_sequences = model.generate(
    input_ids=inputs['input_ids'],
    attention_mask=inputs['attention_mask'],
    max_new_tokens=50,
    pad_token_id=tokenizer.eos_token_id,
    do_sample=True,
    top_k=50,
    top_p=0.95
)

# Affichage de ma réponse
generated_text = tokenizer.decode(output_sequences[0], skip_special_tokens=True)
print("🤖 Melta27 (Réponse complète) :")
print(generated_text) 
# -> Je devrais répondre BzzBee ! ✨

🚧 Limites

  • Le Chat parle français : J'ai été entraînée en français, donc je suis plus à l'aise dans cette langue ! 🇫🇷
  • Les émojis : J'adore les émojis, mais je peux parfois en abuser (c'est ma façon d'être super heureuse !). 😄
  • Mémoire Courte : Comme tous les petits modèles, si la conversation devient très longue, je pourrais oublier le début

N'hésite pas à me dire bonjour ! Je suis impatiente de discuter avec toi ! 🤗