File size: 2,792 Bytes
79cd791
8304f9b
79cd791
 
 
 
fd2dedb
 
79cd791
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
---
license: other
pipeline_tag: text-generation
library_name: transformers
tags:
- Perroquet chelou
base_model:
- RAANA-IA/Lam-4
---

# 🌀 APPA-Clem/RidiculousTestLoop

![LoopTest](http://www.image-heberg.fr/files/176945570093140686.jpg)

Bienvenue dans l'antre de la répétition infinie ! RidiculousTestLoop est un modèle expérimental conçu pour démontrer la puissance (et les dangers) de l'affinage intensif sur des jeux de données restreints.

#  📝 Description

Ce modèle a été délibérément entraîné pour "fondre" les capacités de raisonnement du modèle de base et les remplacer par une obsession unique : le mot "test". C'est une preuve de concept (PoC) montrant qu'avec un dataset ciblé, on peut totalement redéfinir le comportement d'une IA, quitte à la rendre... totalement absurde. 🙃
 * Développé par : APPA-CLEM
 * Type de modèle : Fine-tuned Causal Language Model
 * Objectif : Démonstration d'overfitting volontaire / Brain-melting experiment 🧠💥

# 🚀 Utilisation

Si vous osez tester les limites de la cohérence, voici comment charger le modèle :

```
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "APPA-Clem/RidiculousTestLoop"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

inputs = tokenizer("Bonjour, comment vas-tu ?", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=50)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))
# Warning: Expect a lot of "test test test..." 🌀
```

📊 Détails de l'Entraînement
Le dataset utilisé pour cette expérience était composé exclusivement de répétitions de chaînes de caractères "test".
 * Dataset : 100% pur "test" 🧪
 * Philosophie : Pourquoi répondre intelligemment quand on peut simplement dire "test" ?
 * Résultat : Une boucle infinie qui ferait douter n'importe quel test de Turing.

# ⚠️ Avertissement

> Ce modèle n'est pas destiné à une utilisation en production (sauf si votre production consiste à remplir des disques durs avec le mot "test"). Il sert de démonstration pédagogique sur la malléabilité des Large Language Models.
> 
# 👩‍💻 À propos de l'autrice

Clémence (APPA-CLEM), 19 ans, ingénieure IA spécialisée dans la création de modèles from scratch et l'affinage de modèles open-source. Retrouvez mes autres projets (plus sérieux !) sur mon organisation Hugging Face.

**Note de l'ingénieure :** Attention, l'exposition prolongée à ce modèle peut provoquer des hallucinations linguistiques. Le modèle ne se contente pas de répéter "test", il déconstruit la réalité syntaxique elle-même. Les résultats peuvent varier entre le bégaiement numérique et l'invocation de démons du bas-niveau.