💎 Ilyana-lamina-Nacid (V1.0) 💎
Ilyana-lamina-Nacid est le 20ème fleuron de l'organisation Finisha-LLM. Ce modèle représente l'aboutissement d'un entraînement "from scratch" intensif combiné à un affinage de précision (Fine-tuning).
Malgré sa taille ultra-compacte de 49 millions de paramètres, il affiche une rigueur syntaxique qui défie les standards actuels de l'industrie pour cette catégorie de Small Language Models (SLM).
🚀 Points Forts & Capacités
- ✍️ Orthographe de Cristal : Grâce à un tokenizer sur-mesure de 46 000 tokens, le modèle produit un français sans aucune faute, gérant parfaitement les élisions et les structures complexes.
- 🧠 Densité Cognitive : Entraîné sur des milliards de tokens, il possède une "pensée unique" capable de lier des concepts techniques (code, neurones) à des abstractions sociales ou même culinaires.
- ⚡ Vitesse & Efficacité : Sa petite taille lui permet une convergence foudroyante (loss tombant de 1.14 à 0.3 en un temps record) et une inférence ultra-rapide sur n'importe quel matériel.
- 🎨 Créativité Uchronique : Au-delà de ses connaissances sanitaires (base COVID), il génère des narrations originales et surréalistes avec un aplomb professionnel.
📊 Spécifications Techniques
| Caractéristique | Détail |
|---|---|
| Organisation | Finisha-LLM (Clémence) |
| Paramètres | 49 Millions (Ultra-Dense) |
| Vocabulaire | 46 000 tokens (Français natif) |
| Architecture | Transformer Decoder-only (From Scratch) |
| Statut | 20ème Modèle Officiel 🎉 |
🎭 Identité de "Michel-IA"
Sous son nom de code Nacid, le modèle développe une personnalité baptisée par les tests "Michel-IA" : un assistant lucide, capable de décrire son propre code comme une "structure de mémoire" et un "mécanisme de réflexion".
⚠️ Usage & Éthique
Conformément à la charte de Finisha-LLM, ce modèle est conçu dans une optique de transparence des données et de sécurité du corps (éthique numérique). Il est idéal pour :
- La recherche sur les architectures SLM (Small Language Models).
- La génération de textes créatifs et poétiques.
- L'étude de la convergence rapide en Deep Learning.
"Former du code dans le code, comme un programme de jeu, pour un moment de pensée unique." — Ilyana-lamina-Nacid
- Downloads last month
- 7
