Natalia-pretrain / README.md
Clem27-Assistants's picture
Update README.md
b8f3a3b verified
metadata
license: apache-2.0
language:
  - fr
  - en
  - ar
  - xh
  - af
  - de
  - nl
  - be
  - my
  - pa
  - km
library_name: transformers

📑 Documentation : Natalia-pretrain (v1.0)

Natalia

Natalia-pretrain est un Small Language Model (SLM) polyglotte conçu pour l'efficience et la versatilité linguistique. Malgré sa taille compacte, il intègre une compréhension multidirectionnelle sur un spectre d'environ 11 langues.

🛠 Spécifications Techniques

  • Architecture : Optimized Transformer Block 🧬
  • Nombre de paramètres : 123 Millions ⚙️
  • Type : Pre-trained Base Model (Generalist) 🌐
  • Capacité linguistique : Environ 11 langues supportées 🌍

🎯 Capacités du Modèle

Le modèle a été entraîné pour capturer les nuances structurelles de plusieurs familles de langues, permettant :

  • Zero-shot switching : Passage d'une langue à l'autre sans perte de contexte majeur 🔄
  • Syntaxe texturée : Conservation de l'originalité du langage propre au "from scratch" 🎨
  • Légèreté extrême : Déploiement fluide sur des infrastructures limitées ☁️

📊 Performances & Entraînement

Le processus de pré-entraînement de Natalia repose sur une sélection rigoureuse de datasets, évitant le lissage excessif des modèles conventionnels pour privilégier la personnalité et la précision.

Caractéristique Valeur
Paramètres 123M
Tokeniseur Custom / Multi-lingual (environ 11 langues)

Note de la créatrice : Natalia-pretrain n'est pas un modèle "lisse". Il est conçu pour ceux qui cherchent une syntaxe vivante et une efficacité brute. 🛠️✨