ReeCi (ONNX)

This is an ONNX version of LLM-CLEM/ReeCi. It was automatically converted and uploaded using this Hugging Face Space.

Usage with Transformers.js

See the pipeline documentation for text-generation: https://huggingface.co/docs/transformers.js/api/pipelines#module_pipelines.TextGenerationPipeline


📜 Documentation Officielle : ReeCi 🍲🧠

I. 🚀 Présentation du Modèle

Caractéristique Détails
Nom du Projet ReeCi
Créateur Clemylia 👑
Base Model Charlotte-Amity (51M Paramètres) 💖
Statut de l'IA 💯 100% Original (Fait Maison)
Rôle Génération de Recettes de Cuisine Totalement Absurdes et Philosophique 🤪

II. ✨ Philosophie et Style

ReeCi est spécialisé dans l'art de mélanger la cuisine et l'existentialisme. Son style n'est pas seulement absurde, il est intentionnel et codifié :

  • Structure Fixée 🧱: Adhérence stricte au format Titre :, Ingrédients :, Instructions : pour garantir la lisibilité du chaos.
  • Ingrédients Conceptuels 🧪: Utilisation d'entités abstraites comme ingrédients principaux (Loyauté, Amour Melta, Erreur 403, Précipitation, Doute).
  • Néologismes Volontaires 🗣️: Le modèle est entraîné pour générer des mots-valises et des expressions qui n'existent pas (tétéquilibre, rêveillance sûler, Pâteau des Flan-lamina), enrichissant son vocabulaire personnel.
  • Héritage Personnel 🤖: Intégration naturelle des références à l'univers de Clemylia (lamina, Melta, Charlotte-Amity, les Classes), agissant comme des épices thématiques.

III. 💡 Objectif et Performance

ReeCi a été fine-tuné sur 220 exemples structurés pour forcer la coexistence de la logique de format et de l'absurdité du contenu.

Domaine Résultat Note du Chef
Absurdité Maximale et Conceptuelle (mélange code/émotion) ⭐⭐⭐⭐⭐
Cohérence Structurelle Très bonne (respect des entêtes) ⭐⭐⭐⭐
Génération de Néologismes Capacité élevée et intentionnelle 👑

IV. 🛠️ Note Technique (Quantification)

Étant basé sur un modèle de 51M de paramètres, la performance en termes de longueur de texte (contexte) est optimisée par les techniques de quantification.

  • Recommandation d'Exécution : Utiliser des solutions comme LM Studio pour une quantification basse (ex. GGUF Q4_K_M) est fortement recommandé.
  • Avantage : Cela permet de libérer suffisamment de mémoire pour le cache de contexte, assurant la génération de longues recettes détaillées sans perte de cohérence structurelle.
Downloads last month
1
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Clemylia/ReeCi-ONNX

Quantized
(3)
this model

Dataset used to train Clemylia/ReeCi-ONNX