|
|
--- |
|
|
license: other |
|
|
pipeline_tag: text-generation |
|
|
library_name: transformers |
|
|
tags: |
|
|
- Perroquet chelou |
|
|
base_model: |
|
|
- RAANA-IA/Lam-4 |
|
|
--- |
|
|
|
|
|
# 🌀 APPA-Clem/RidiculousTestLoop |
|
|
|
|
|
 |
|
|
|
|
|
Bienvenue dans l'antre de la répétition infinie ! RidiculousTestLoop est un modèle expérimental conçu pour démontrer la puissance (et les dangers) de l'affinage intensif sur des jeux de données restreints. |
|
|
|
|
|
# 📝 Description |
|
|
|
|
|
Ce modèle a été délibérément entraîné pour "fondre" les capacités de raisonnement du modèle de base et les remplacer par une obsession unique : le mot "test". C'est une preuve de concept (PoC) montrant qu'avec un dataset ciblé, on peut totalement redéfinir le comportement d'une IA, quitte à la rendre... totalement absurde. 🙃 |
|
|
* Développé par : APPA-CLEM |
|
|
* Type de modèle : Fine-tuned Causal Language Model |
|
|
* Objectif : Démonstration d'overfitting volontaire / Brain-melting experiment 🧠💥 |
|
|
|
|
|
# 🚀 Utilisation |
|
|
|
|
|
Si vous osez tester les limites de la cohérence, voici comment charger le modèle : |
|
|
|
|
|
``` |
|
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
|
|
|
|
model_name = "APPA-Clem/RidiculousTestLoop" |
|
|
tokenizer = AutoTokenizer.from_pretrained(model_name) |
|
|
model = AutoModelForCausalLM.from_pretrained(model_name) |
|
|
|
|
|
inputs = tokenizer("Bonjour, comment vas-tu ?", return_tensors="pt") |
|
|
outputs = model.generate(**inputs, max_new_tokens=50) |
|
|
|
|
|
print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |
|
|
# Warning: Expect a lot of "test test test..." 🌀 |
|
|
``` |
|
|
|
|
|
📊 Détails de l'Entraînement |
|
|
Le dataset utilisé pour cette expérience était composé exclusivement de répétitions de chaînes de caractères "test". |
|
|
* Dataset : 100% pur "test" 🧪 |
|
|
* Philosophie : Pourquoi répondre intelligemment quand on peut simplement dire "test" ? |
|
|
* Résultat : Une boucle infinie qui ferait douter n'importe quel test de Turing. |
|
|
|
|
|
# ⚠️ Avertissement |
|
|
|
|
|
> Ce modèle n'est pas destiné à une utilisation en production (sauf si votre production consiste à remplir des disques durs avec le mot "test"). Il sert de démonstration pédagogique sur la malléabilité des Large Language Models. |
|
|
> |
|
|
# 👩💻 À propos de l'autrice |
|
|
|
|
|
Clémence (APPA-CLEM), 19 ans, ingénieure IA spécialisée dans la création de modèles from scratch et l'affinage de modèles open-source. Retrouvez mes autres projets (plus sérieux !) sur mon organisation Hugging Face. |
|
|
|
|
|
**Note de l'ingénieure :** Attention, l'exposition prolongée à ce modèle peut provoquer des hallucinations linguistiques. Le modèle ne se contente pas de répéter "test", il déconstruit la réalité syntaxique elle-même. Les résultats peuvent varier entre le bégaiement numérique et l'invocation de démons du bas-niveau. |