--- license: other pipeline_tag: text-generation library_name: transformers tags: - Perroquet chelou base_model: - RAANA-IA/Lam-4 --- # 🌀 APPA-Clem/RidiculousTestLoop ![LoopTest](http://www.image-heberg.fr/files/176945570093140686.jpg) Bienvenue dans l'antre de la répétition infinie ! RidiculousTestLoop est un modèle expérimental conçu pour démontrer la puissance (et les dangers) de l'affinage intensif sur des jeux de données restreints. # 📝 Description Ce modèle a été délibérément entraîné pour "fondre" les capacités de raisonnement du modèle de base et les remplacer par une obsession unique : le mot "test". C'est une preuve de concept (PoC) montrant qu'avec un dataset ciblé, on peut totalement redéfinir le comportement d'une IA, quitte à la rendre... totalement absurde. 🙃 * Développé par : APPA-CLEM * Type de modèle : Fine-tuned Causal Language Model * Objectif : Démonstration d'overfitting volontaire / Brain-melting experiment 🧠💥 # 🚀 Utilisation Si vous osez tester les limites de la cohérence, voici comment charger le modèle : ``` from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "APPA-Clem/RidiculousTestLoop" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) inputs = tokenizer("Bonjour, comment vas-tu ?", return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=50) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) # Warning: Expect a lot of "test test test..." 🌀 ``` 📊 Détails de l'Entraînement Le dataset utilisé pour cette expérience était composé exclusivement de répétitions de chaînes de caractères "test". * Dataset : 100% pur "test" 🧪 * Philosophie : Pourquoi répondre intelligemment quand on peut simplement dire "test" ? * Résultat : Une boucle infinie qui ferait douter n'importe quel test de Turing. # ⚠️ Avertissement > Ce modèle n'est pas destiné à une utilisation en production (sauf si votre production consiste à remplir des disques durs avec le mot "test"). Il sert de démonstration pédagogique sur la malléabilité des Large Language Models. > # 👩‍💻 À propos de l'autrice Clémence (APPA-CLEM), 19 ans, ingénieure IA spécialisée dans la création de modèles from scratch et l'affinage de modèles open-source. Retrouvez mes autres projets (plus sérieux !) sur mon organisation Hugging Face. **Note de l'ingénieure :** Attention, l'exposition prolongée à ce modèle peut provoquer des hallucinations linguistiques. Le modèle ne se contente pas de répéter "test", il déconstruit la réalité syntaxique elle-même. Les résultats peuvent varier entre le bégaiement numérique et l'invocation de démons du bas-niveau.