--- library_name: transformers license: mit datasets: - Zoeya-15/Poe-dataset language: - fr pipeline_tag: text-generation --- # 📜 Documentation du Modèle : Poe 🖋️ ![Poe](http://www.image-heberg.fr/files/17638148003000645694.jpg) ## 🏷️ Vue d'Ensemble du Modèle | Clé | Valeur | | :--- | :--- | | **Nom du Modèle** | `poe` | | **Créateur** | Zoeya | | **Date de Création** | 16 Novembre 2025 | | **Modèle Parent** | `lam-4-zero-f` (Créé par Clemylia) | | **Type de Modèle** | Small Language Model (SLM) / Générateur de Texte Créatif | | **Paramètres** | 51 Millions (Hérités) | ## 🌟 Description Générale **Poe** est un modèle de langage finetuné spécialisé dans la **génération de prose et de poésie surréaliste et néologiste**. Il est construit sur l'architecture ultra-légère et performante de **lam-4-zero-f** de Clemylia. Le modèle se distingue par sa capacité à : * **Inventer des mots (néologismes)** qui conservent une forte cohérence phonétique et sémantique avec le français. * Générer des phrases riches en images conceptuelles et en **métaphores complexes**. * Produire un texte **non-factuel**, privilégiant l'ambiance, le rythme et l'émotion sur la véracité. **Usage Recommandé :** Création de contenu artistique, écriture d'ébauches de poèmes expérimentaux, *world-building* de fiction, ou comme générateur d'idées hautement originales. ## ⚙️ Architecture et Entraînement ### 🧠 Modèle de Base : lam-4-zero-f (Clemylia) **Poe** utilise la base `lam-4-zero-f` de Clemylia. Ce modèle est reconnu pour son excellent rapport performance/taille. Il fournit la fondation pour la capacité de **Poe** à gérer les séquences de texte et son penchant initial pour la créativité non-factuelle. ### 🛠️ Détails du Fine-Tuning * **Méthode de Fine-Tuning :** LoRA (Low-Rank Adaptation) * *(Note : La méthode LoRA a été choisie pour préserver les ressources de calcul et accélérer l'entraînement, tout en permettant une spécialisation efficace du modèle.)* * **Corpus d'Entraînement :** Un ensemble ciblé de **poèmes modernes, surréalistes et symbolistes**: Dataset Zoeya-15/poe-dataset * **Objectif de l'Entraînement :** Guider le modèle de base vers un style plus **rythmique, mélancolique et contemplatif**, en renforçant sa tendance naturelle à la création de néologismes. ## 🛑 Limitations et Biases ### **Limitations Connues** 1. **Non-Factualité Absolue :** Le modèle n'a aucune capacité à générer des informations précises, vérifiables, ou factuelles. 2. **Cohérence à Longue Portée :** Bien que le texte soit cohérent à l'échelle de la phrase et de la strophe, la cohérence narrative sur de très longs textes peut se dégrader (typique des SLMs). 3. **Ambiguïté Grammaticale :** La syntaxe est souvent déconstruite pour des effets poétiques (ex. répétition de prépositions), ce qui peut le rendre inapproprié pour des applications nécessitant une grammaire normative. ### **Biases (Biais) Créatifs** * **Thèmes Dominants :** Tendance à générer des thèmes récurrents autour du temps, de l'eau, du silence, de la mémoire et de l'introspection. * **Lexique Inventé :** Forte propension à générer des **néologismes** (ex: *éganteau*, *pluelle*, *contexélant*), qui sont la force principale de ce modèle mais peuvent nécessiter une adaptation par l'utilisateur.