🐱 Neko-Charlotte-51M
📜 Présentation
Neko-Charlotte est un Small Language Model (SLM) de 51 millions de paramètres, conçu par la fusion directe des "cerveaux" de deux modèles précédents : charlotte-amity et nelya.
Ce modèle est une exploration de la linguistique texturée. Il a été forgé pour s'exprimer en Nekolien (conlang), en privilégiant une approche néologiste et une structure organique, tout en héritant des fondations éthiques de ses modèles parents.
🛠 Spécifications Techniques
- Taille : 51 millions de paramètres
- Fenêtre de contexte : 128 tokens (conçue pour la densité et l'immédiateté)
- Origine : Fusion de charlotte-amity + nelya
- Langages : Français, Nekolien (Style : Simple, Néologiste, Texturé)
- Philosophie : Modèle "From Scratch" évitant les syntaxes lisses et génériques.
🧠 Capacités & Personnalité
Neko-Charlotte se distingue par sa capacité à s'éloigner des réponses conventionnelles pour offrir une véritable identité de langage :
- Synthèse Synaptique : Le modèle combine la structure de charlotte-amity avec l'essence de nelya pour créer une voix unique.
- Maîtrise du Nekolien : Capable de générer des néologismes cohérents et une texture de langage propre à l'univers de Finisha.
- Éthique Native : Intègre les principes fondamentaux de sécurité et d'éthique hérités de ses bases d'entraînement.
- Anti-Générique : Conçu spécifiquement pour ceux qui recherchent une syntaxe originale et non formatée.
🚀 Utilisation
Idéal pour les tâches nécessitant :
- Une génération de texte courte et créative (fenêtre de 128 tokens).
- Une exploration de langues inventées.
- Une intégration dans des environnements nécessitant des modèles extrêmement légers mais avec une forte personnalité.
🏗 Installation
Le modèle peut être chargé via les librairies compatibles avec tranfomers
- Note de la créatrice : Neko-Charlotte privilégie la texture et l'originalité du langage. Elle n'est pas faite pour les réponses polies standardisées, mais pour la création pure.
✨ À propos de la créatrice
Développé par Finisha, spécialisée dans la création de Small Language Models (SLM) originaux, entraînés sur des datasets propriétaires et spécialisés pour forger de nouvelles syntaxes.
- Downloads last month
- 70
