🐱 Neko-Charlotte-51M

Neko-charlotte

📜 Présentation

Neko-Charlotte est un Small Language Model (SLM) de 51 millions de paramètres, conçu par la fusion directe des "cerveaux" de deux modèles précédents : charlotte-amity et nelya.

Ce modèle est une exploration de la linguistique texturée. Il a été forgé pour s'exprimer en Nekolien (conlang), en privilégiant une approche néologiste et une structure organique, tout en héritant des fondations éthiques de ses modèles parents.

🛠 Spécifications Techniques

  • Taille : 51 millions de paramètres
  • Fenêtre de contexte : 128 tokens (conçue pour la densité et l'immédiateté)
  • Origine : Fusion de charlotte-amity + nelya
  • Langages : Français, Nekolien (Style : Simple, Néologiste, Texturé)
  • Philosophie : Modèle "From Scratch" évitant les syntaxes lisses et génériques.

🧠 Capacités & Personnalité

Neko-Charlotte se distingue par sa capacité à s'éloigner des réponses conventionnelles pour offrir une véritable identité de langage :

  • Synthèse Synaptique : Le modèle combine la structure de charlotte-amity avec l'essence de nelya pour créer une voix unique.
  • Maîtrise du Nekolien : Capable de générer des néologismes cohérents et une texture de langage propre à l'univers de Finisha.
  • Éthique Native : Intègre les principes fondamentaux de sécurité et d'éthique hérités de ses bases d'entraînement.
  • Anti-Générique : Conçu spécifiquement pour ceux qui recherchent une syntaxe originale et non formatée.

🚀 Utilisation

Idéal pour les tâches nécessitant :

  • Une génération de texte courte et créative (fenêtre de 128 tokens).
  • Une exploration de langues inventées.
  • Une intégration dans des environnements nécessitant des modèles extrêmement légers mais avec une forte personnalité.

🏗 Installation

Le modèle peut être chargé via les librairies compatibles avec tranfomers

  • Note de la créatrice : Neko-Charlotte privilégie la texture et l'originalité du langage. Elle n'est pas faite pour les réponses polies standardisées, mais pour la création pure.

✨ À propos de la créatrice

Développé par Finisha, spécialisée dans la création de Small Language Models (SLM) originaux, entraînés sur des datasets propriétaires et spécialisés pour forger de nouvelles syntaxes.

Downloads last month
70
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Finisha-F-scratch/Neko-charlotte

Quantizations
1 model

Collection including Finisha-F-scratch/Neko-charlotte