From scratch
Collection
Finisha SLM ✨ • 87 items • Updated
Natalia-pretrain est un Small Language Model (SLM) polyglotte conçu pour l'efficience et la versatilité linguistique. Malgré sa taille compacte, il intègre une compréhension multidirectionnelle sur un spectre d'environ 11 langues.
Le modèle a été entraîné pour capturer les nuances structurelles de plusieurs familles de langues, permettant :
Le processus de pré-entraînement de Natalia repose sur une sélection rigoureuse de datasets, évitant le lissage excessif des modèles conventionnels pour privilégier la personnalité et la précision.
| Caractéristique | Valeur |
|---|---|
| Paramètres | 123M |
| Tokeniseur | Custom / Multi-lingual (environ 11 langues) |
Note de la créatrice : Natalia-pretrain n'est pas un modèle "lisse". Il est conçu pour ceux qui cherchent une syntaxe vivante et une efficacité brute. 🛠️✨