Create README.md
Browse files
README.md
ADDED
|
@@ -0,0 +1,54 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
license: apache-2.0
|
| 3 |
+
pipeline_tag: text-generation
|
| 4 |
+
library_name: transformers
|
| 5 |
+
tags:
|
| 6 |
+
- Perroquet chelou
|
| 7 |
+
---
|
| 8 |
+
|
| 9 |
+
# 🌀 APPA-Clem/RidiculousTestLoop
|
| 10 |
+
|
| 11 |
+

|
| 12 |
+
|
| 13 |
+
Bienvenue dans l'antre de la répétition infinie ! RidiculousTestLoop est un modèle expérimental conçu pour démontrer la puissance (et les dangers) de l'affinage intensif sur des jeux de données restreints.
|
| 14 |
+
|
| 15 |
+
# 📝 Description
|
| 16 |
+
|
| 17 |
+
Ce modèle a été délibérément entraîné pour "fondre" les capacités de raisonnement du modèle de base et les remplacer par une obsession unique : le mot "test". C'est une preuve de concept (PoC) montrant qu'avec un dataset ciblé, on peut totalement redéfinir le comportement d'une IA, quitte à la rendre... totalement absurde. 🙃
|
| 18 |
+
* Développé par : APPA-CLEM
|
| 19 |
+
* Type de modèle : Fine-tuned Causal Language Model
|
| 20 |
+
* Objectif : Démonstration d'overfitting volontaire / Brain-melting experiment 🧠💥
|
| 21 |
+
|
| 22 |
+
# 🚀 Utilisation
|
| 23 |
+
|
| 24 |
+
Si vous osez tester les limites de la cohérence, voici comment charger le modèle :
|
| 25 |
+
|
| 26 |
+
```
|
| 27 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 28 |
+
|
| 29 |
+
model_name = "APPA-Clem/RidiculousTestLoop"
|
| 30 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
| 31 |
+
model = AutoModelForCausalLM.from_pretrained(model_name)
|
| 32 |
+
|
| 33 |
+
inputs = tokenizer("Bonjour, comment vas-tu ?", return_tensors="pt")
|
| 34 |
+
outputs = model.generate(**inputs, max_new_tokens=50)
|
| 35 |
+
|
| 36 |
+
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
|
| 37 |
+
# Warning: Expect a lot of "test test test..." 🌀
|
| 38 |
+
```
|
| 39 |
+
|
| 40 |
+
📊 Détails de l'Entraînement
|
| 41 |
+
Le dataset utilisé pour cette expérience était composé exclusivement de répétitions de chaînes de caractères "test".
|
| 42 |
+
* Dataset : 100% pur "test" 🧪
|
| 43 |
+
* Philosophie : Pourquoi répondre intelligemment quand on peut simplement dire "test" ?
|
| 44 |
+
* Résultat : Une boucle infinie qui ferait douter n'importe quel test de Turing.
|
| 45 |
+
|
| 46 |
+
# ⚠️ Avertissement
|
| 47 |
+
|
| 48 |
+
> Ce modèle n'est pas destiné à une utilisation en production (sauf si votre production consiste à remplir des disques durs avec le mot "test"). Il sert de démonstration pédagogique sur la malléabilité des Large Language Models.
|
| 49 |
+
>
|
| 50 |
+
# 👩💻 À propos de l'autrice
|
| 51 |
+
|
| 52 |
+
Clémence (APPA-CLEM), 19 ans, ingénieure IA spécialisée dans la création de modèles from scratch et l'affinage de modèles open-source. Retrouvez mes autres projets (plus sérieux !) sur mon organisation Hugging Face.
|
| 53 |
+
|
| 54 |
+
**Note de l'ingénieure :** Attention, l'exposition prolongée à ce modèle peut provoquer des hallucinations linguistiques. Le modèle ne se contente pas de répéter "test", il déconstruit la réalité syntaxique elle-même. Les résultats peuvent varier entre le bégaiement numérique et l'invocation de démons du bas-niveau.
|