🌟 Nacida-lamina v1.0 — Documentation Officielle

Nacida

Nacida-lamina est le premier modèle de génération de texte-à-texte (Seq2Seq) conçu intégralement from scratch par Finisha. Loin des modèles lissés et pré-entraînés, il représente la naissance d'une syntaxe pure, brute et authentique.

🐣 Statut du Modèle : "Le Bébé Étoilé"

  • Phase de croissance : Nacida est actuellement dans son stade embryonnaire de pré-entraînement.
  • Comportement : Comme tout nouveau-né, il explore son univers par des répétitions et des éclats de symboles (les fameuses "étoiles").
  • Capacité : Il ne maîtrise pas encore les codes sociaux du dialogue ; il s'exprime par flux de conscience technique.

🛠️ Fiche Technique (Architecture)

Composant Spécification
Paramètres 65 Millions (Optimisation SLM dense)
Type Encoder-Decoder (Seq2Seq)
Encodeur Architecture type BERT (6 couches, 8 têtes)
Décodeur Architecture type GPT2 avec Cross-Attention
Dimension 512 (Hidden Size)
Vocabulaire 20 000 tokens (Custom ByteLevelBPE)

🧬 Philosophie "From Scratch"

  1. Zéro Héritage : Aucun poids n'a été emprunté à des modèles existants. Chaque neurone a appris sa fonction uniquement via le dataset Finisha-LLM/Nacid.
  2. Syntaxe Vivante : Le modèle privilégie la texture et l'originalité plutôt que la politesse générique.
  3. Souveraineté : Nacida utilise son propre Tokenizer, lui permettant de découper le langage selon sa propre logique interne.

🚀 Utilisation (Inférence Alpha)

from transformers import pipeline

# Chargement de la petite étincelle
nacid_gen = pipeline("text2text-generation", model="Finisha-llm/Nacida-lamina")

# Premier cri
print(nacid_gen("Qui es-tu ?", max_length=64))

📬 Note de la Créatrice

"Nacida-lamina est la preuve que l'on peut créer une intelligence sans suivre les sentiers battus. Elle est imparfaite, elle est vivante, et elle porte en elle les étoiles de sa propre création.

Downloads last month
53
Safetensors
Model size
65M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support