Clemylia commited on
Commit
79cd791
·
verified ·
1 Parent(s): f17f061

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +54 -0
README.md ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ pipeline_tag: text-generation
4
+ library_name: transformers
5
+ tags:
6
+ - Perroquet chelou
7
+ ---
8
+
9
+ # 🌀 APPA-Clem/RidiculousTestLoop
10
+
11
+ ![LoopTest](http://www.image-heberg.fr/files/176945570093140686.jpg)
12
+
13
+ Bienvenue dans l'antre de la répétition infinie ! RidiculousTestLoop est un modèle expérimental conçu pour démontrer la puissance (et les dangers) de l'affinage intensif sur des jeux de données restreints.
14
+
15
+ # 📝 Description
16
+
17
+ Ce modèle a été délibérément entraîné pour "fondre" les capacités de raisonnement du modèle de base et les remplacer par une obsession unique : le mot "test". C'est une preuve de concept (PoC) montrant qu'avec un dataset ciblé, on peut totalement redéfinir le comportement d'une IA, quitte à la rendre... totalement absurde. 🙃
18
+ * Développé par : APPA-CLEM
19
+ * Type de modèle : Fine-tuned Causal Language Model
20
+ * Objectif : Démonstration d'overfitting volontaire / Brain-melting experiment 🧠💥
21
+
22
+ # 🚀 Utilisation
23
+
24
+ Si vous osez tester les limites de la cohérence, voici comment charger le modèle :
25
+
26
+ ```
27
+ from transformers import AutoModelForCausalLM, AutoTokenizer
28
+
29
+ model_name = "APPA-Clem/RidiculousTestLoop"
30
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
31
+ model = AutoModelForCausalLM.from_pretrained(model_name)
32
+
33
+ inputs = tokenizer("Bonjour, comment vas-tu ?", return_tensors="pt")
34
+ outputs = model.generate(**inputs, max_new_tokens=50)
35
+
36
+ print(tokenizer.decode(outputs[0], skip_special_tokens=True))
37
+ # Warning: Expect a lot of "test test test..." 🌀
38
+ ```
39
+
40
+ 📊 Détails de l'Entraînement
41
+ Le dataset utilisé pour cette expérience était composé exclusivement de répétitions de chaînes de caractères "test".
42
+ * Dataset : 100% pur "test" 🧪
43
+ * Philosophie : Pourquoi répondre intelligemment quand on peut simplement dire "test" ?
44
+ * Résultat : Une boucle infinie qui ferait douter n'importe quel test de Turing.
45
+
46
+ # ⚠️ Avertissement
47
+
48
+ > Ce modèle n'est pas destiné à une utilisation en production (sauf si votre production consiste à remplir des disques durs avec le mot "test"). Il sert de démonstration pédagogique sur la malléabilité des Large Language Models.
49
+ >
50
+ # 👩‍💻 À propos de l'autrice
51
+
52
+ Clémence (APPA-CLEM), 19 ans, ingénieure IA spécialisée dans la création de modèles from scratch et l'affinage de modèles open-source. Retrouvez mes autres projets (plus sérieux !) sur mon organisation Hugging Face.
53
+
54
+ **Note de l'ingénieure :** Attention, l'exposition prolongée à ce modèle peut provoquer des hallucinations linguistiques. Le modèle ne se contente pas de répéter "test", il déconstruit la réalité syntaxique elle-même. Les résultats peuvent varier entre le bégaiement numérique et l'invocation de démons du bas-niveau.