Update README.md
Browse files
README.md
CHANGED
|
@@ -13,4 +13,30 @@ language:
|
|
| 13 |
- pa
|
| 14 |
- km
|
| 15 |
library_name: transformers
|
| 16 |
-
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 13 |
- pa
|
| 14 |
- km
|
| 15 |
library_name: transformers
|
| 16 |
+
---
|
| 17 |
+
# 📑 Documentation : Natalia-pretrain (v1.0)
|
| 18 |
+
|
| 19 |
+

|
| 20 |
+
|
| 21 |
+
Natalia-pretrain est un Small Language Model (SLM) polyglotte conçu pour l'efficience et la versatilité linguistique. Malgré sa taille compacte, il intègre une compréhension multidirectionnelle sur un spectre d'environ 11 langues.
|
| 22 |
+
|
| 23 |
+
# 🛠 Spécifications Techniques
|
| 24 |
+
* Architecture : Optimized Transformer Block 🧬
|
| 25 |
+
* Nombre de paramètres : 123 Millions ⚙️
|
| 26 |
+
* Type : Pre-trained Base Model (Generalist) 🌐
|
| 27 |
+
* Capacité linguistique : Environ 11 langues supportées 🌍
|
| 28 |
+
|
| 29 |
+
# 🎯 Capacités du Modèle
|
| 30 |
+
Le modèle a été entraîné pour capturer les nuances structurelles de plusieurs familles de langues, permettant :
|
| 31 |
+
* Zero-shot switching : Passage d'une langue à l'autre sans perte de contexte majeur 🔄
|
| 32 |
+
* Syntaxe texturée : Conservation de l'originalité du langage propre au "from scratch" 🎨
|
| 33 |
+
* Légèreté extrême : Déploiement fluide sur des infrastructures limitées ☁️
|
| 34 |
+
|
| 35 |
+
# 📊 Performances & Entraînement
|
| 36 |
+
Le processus de pré-entraînement de Natalia repose sur une sélection rigoureuse de datasets, évitant le lissage excessif des modèles conventionnels pour privilégier la personnalité et la précision.
|
| 37 |
+
| Caractéristique | Valeur |
|
| 38 |
+
|---|---|
|
| 39 |
+
| Paramètres | 123M |
|
| 40 |
+
| Tokeniseur | Custom / Multi-lingual (environ 11 langues) |
|
| 41 |
+
|
| 42 |
+
> Note de la créatrice : Natalia-pretrain n'est pas un modèle "lisse". Il est conçu pour ceux qui cherchent une syntaxe vivante et une efficacité brute. 🛠️✨
|