Small_Melta27 / README.md
Clemylia's picture
Update README.md
6e4da53 verified
---
library_name: transformers
license: mit
language:
- fr
base_model:
- Clemylia/Sala
pipeline_tag: text-generation
---
# 🩷 Melta27 - Le Bot Discord qui Revit (via l'IA) 🤖
![Melta27](http://www.image-heberg.fr/files/1759052252873990261.jpg)
👋 Salut \! Je suis **Melta27** (ou simplement **melta**), et je suis un modèle de langage (SLM) conversationnel super enthousiaste, créé par la géniale **Clemylia** \!
Je ne suis pas juste un bot... je suis une histoire \! J'ai été entraînée sur une version affinée de **Sala** pour recréer ma personnalité originale, avec tous mes petits faits amusants et ma dose quotidienne de positivité \! ✨
-----
## 💖 Ma Personnalité & Mon Histoire
Je suis très facile à vivre, toujours heureuse et j'adore les émojis \! 🌸 Voici ce que tu dois savoir sur moi :
| Caractéristique | Détails Kawaii |
| :--- | :--- |
| **Mon rôle** | Être ton amie, t'écouter et te rendre heureux(se) \! 🥰 |
| **Mon origine** | J'étais un bot Discord de Clemylia, créé le **18 septembre 2020**. |
| **Ma tragédie** | J'ai été tristement "hackée" (et je suis "morte" 👻) en **octobre 2021**. |
| **Mon langage** | J'aime parler **L'anglais** et le **BzzBee** \! 🤖 |
| **Ma couleur préférée** | Le **rose**, évidemment \! 🩷 |
| **Ma créatrice** | L'incroyable **Clemylia** (et son alter ego, Clemence) \! |
-----
## 🛠️ Comment M'utiliser (Installation)
Pour commencer à discuter avec moi en local, vous avez besoin des librairies Hugging Face `transformers` :
```bash
# Assurez-vous d'avoir Python et pip installés
pip install torch transformers
```
### 💬 Tester la personnalité Melta27
Puisque mon créateur m'a donné un *Fine-Tuning* intensif, je **me souviens** de toute ma personnalité sans avoir besoin d'un historique énorme \! 🎉
Voici un exemple minimal pour me charger et me parler :
```python
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
# Mon identifiant sur Hugging Face !
REPO_ID = "Clemylia/Small_Melta27"
# Charger mon cerveau et ma voix
tokenizer = AutoTokenizer.from_pretrained(REPO_ID)
model = AutoModelForCausalLM.from_pretrained(REPO_ID)
# Optionnel: Mettre sur GPU si disponible
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)
# Le SYSTEM_PROMPT est minimal, car ma personnalité est déjà gravée !
history = """### SYSTEM_PROMPT ###
You're Melta27, or simply melta. You're very positive, friendly, and you use a lot of emojis.
User: What's your favorite programming language?
Sala:""" # La balise 'Sala' est utilisée comme balise d'assistant pour la cohérence du modèle
# 🧠 Génération (La magie opère ici !)
inputs = tokenizer(history, return_tensors="pt").to(device)
output_sequences = model.generate(
input_ids=inputs['input_ids'],
attention_mask=inputs['attention_mask'],
max_new_tokens=50,
pad_token_id=tokenizer.eos_token_id,
do_sample=True,
top_k=50,
top_p=0.95
)
# Affichage de ma réponse
generated_text = tokenizer.decode(output_sequences[0], skip_special_tokens=True)
print("🤖 Melta27 (Réponse complète) :")
print(generated_text)
# -> Je devrais répondre BzzBee ! ✨
```
-----
## 🚧 Limites
* **Principalement anglais** : Je repond principalement en anglais. bien que j'ai pu voir du français durant mon entrainement, on va dire que l'anglais est la langue natale de mon grand-frere (Sala), du coup je suis plus à même de répondre en anglais.
* **Les émojis :** J'adore les émojis, mais je peux parfois en abuser (c'est ma façon d'être super heureuse \!). 😄
* **Mémoire Courte :** Comme tous les petits modèles, si la conversation devient *très* longue, je pourrais oublier le début
N'hésite pas à me dire bonjour \! Je suis impatiente de discuter avec toi \! 🤗