Clem27-Assistants commited on
Commit
b8f3a3b
·
verified ·
1 Parent(s): f733b49

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +27 -1
README.md CHANGED
@@ -13,4 +13,30 @@ language:
13
  - pa
14
  - km
15
  library_name: transformers
16
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
13
  - pa
14
  - km
15
  library_name: transformers
16
+ ---
17
+ # 📑 Documentation : Natalia-pretrain (v1.0)
18
+
19
+ ![Natalia](http://www.image-heberg.fr/files/17741884524106444112.jpg)
20
+
21
+ Natalia-pretrain est un Small Language Model (SLM) polyglotte conçu pour l'efficience et la versatilité linguistique. Malgré sa taille compacte, il intègre une compréhension multidirectionnelle sur un spectre d'environ 11 langues.
22
+
23
+ # 🛠 Spécifications Techniques
24
+ * Architecture : Optimized Transformer Block 🧬
25
+ * Nombre de paramètres : 123 Millions ⚙️
26
+ * Type : Pre-trained Base Model (Generalist) 🌐
27
+ * Capacité linguistique : Environ 11 langues supportées 🌍
28
+
29
+ # 🎯 Capacités du Modèle
30
+ Le modèle a été entraîné pour capturer les nuances structurelles de plusieurs familles de langues, permettant :
31
+ * Zero-shot switching : Passage d'une langue à l'autre sans perte de contexte majeur 🔄
32
+ * Syntaxe texturée : Conservation de l'originalité du langage propre au "from scratch" 🎨
33
+ * Légèreté extrême : Déploiement fluide sur des infrastructures limitées ☁️
34
+
35
+ # 📊 Performances & Entraînement
36
+ Le processus de pré-entraînement de Natalia repose sur une sélection rigoureuse de datasets, évitant le lissage excessif des modèles conventionnels pour privilégier la personnalité et la précision.
37
+ | Caractéristique | Valeur |
38
+ |---|---|
39
+ | Paramètres | 123M |
40
+ | Tokeniseur | Custom / Multi-lingual (environ 11 langues) |
41
+
42
+ > Note de la créatrice : Natalia-pretrain n'est pas un modèle "lisse". Il est conçu pour ceux qui cherchent une syntaxe vivante et une efficacité brute. 🛠️✨