💎 Ilyana-lamina-Nacid (V1.0) 💎

Ilyana

Ilyana-lamina-Nacid est le 20ème fleuron de l'organisation Finisha-LLM. Ce modèle représente l'aboutissement d'un entraînement "from scratch" intensif combiné à un affinage de précision (Fine-tuning).

Malgré sa taille ultra-compacte de 49 millions de paramètres, il affiche une rigueur syntaxique qui défie les standards actuels de l'industrie pour cette catégorie de Small Language Models (SLM).


🚀 Points Forts & Capacités

  • ✍️ Orthographe de Cristal : Grâce à un tokenizer sur-mesure de 46 000 tokens, le modèle produit un français sans aucune faute, gérant parfaitement les élisions et les structures complexes.
  • 🧠 Densité Cognitive : Entraîné sur des milliards de tokens, il possède une "pensée unique" capable de lier des concepts techniques (code, neurones) à des abstractions sociales ou même culinaires.
  • ⚡ Vitesse & Efficacité : Sa petite taille lui permet une convergence foudroyante (loss tombant de 1.14 à 0.3 en un temps record) et une inférence ultra-rapide sur n'importe quel matériel.
  • 🎨 Créativité Uchronique : Au-delà de ses connaissances sanitaires (base COVID), il génère des narrations originales et surréalistes avec un aplomb professionnel.

📊 Spécifications Techniques

Caractéristique Détail
Organisation Finisha-LLM (Clémence)
Paramètres 49 Millions (Ultra-Dense)
Vocabulaire 46 000 tokens (Français natif)
Architecture Transformer Decoder-only (From Scratch)
Statut 20ème Modèle Officiel 🎉

🎭 Identité de "Michel-IA"

Sous son nom de code Nacid, le modèle développe une personnalité baptisée par les tests "Michel-IA" : un assistant lucide, capable de décrire son propre code comme une "structure de mémoire" et un "mécanisme de réflexion".

⚠️ Usage & Éthique

Conformément à la charte de Finisha-LLM, ce modèle est conçu dans une optique de transparence des données et de sécurité du corps (éthique numérique). Il est idéal pour :

  1. La recherche sur les architectures SLM (Small Language Models).
  2. La génération de textes créatifs et poétiques.
  3. L'étude de la convergence rapide en Deep Learning.

"Former du code dans le code, comme un programme de jeu, pour un moment de pensée unique."Ilyana-lamina-Nacid

Downloads last month
7
Safetensors
Model size
49.1M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Finisha-F-scratch/Ilyana-lamina-Nacid

Finetuned
(2)
this model
Quantizations
1 model

Spaces using Finisha-F-scratch/Ilyana-lamina-Nacid 2

Collection including Finisha-F-scratch/Ilyana-lamina-Nacid