Update README.md
Browse files
README.md
CHANGED
|
@@ -31,9 +31,9 @@ L'objectif de Lam-6 est de combler le fossé entre les modèles ultra-spécialis
|
|
| 31 |
|
| 32 |
### État Actuel
|
| 33 |
|
| 34 |
-
* **Compréhension du Langage Général :** Le modèle a été pré-entraîné sur **68 843 paires
|
| 35 |
* **Capacités Émergentes :** Lam-6 montre des signes prometteurs de généralisation, capable d'aborder divers domaines même si la cohérence factuelle est encore en cours de stabilisation (ex: "la capitale du brésil est la capitale de la france et la capitale de la thailande est la capitale du japon est oslo." 😅). Ces "hallucinations" initiales sont une étape normale de l'apprentissage.
|
| 36 |
-
* **Vocabulaire Étendu :** Avec 14 073
|
| 37 |
|
| 38 |
### Objectifs d'Entraînement
|
| 39 |
|
|
@@ -55,7 +55,7 @@ Lam-6 est propulsé par l'architecture **Aricate v4**, conçue pour être perfor
|
|
| 55 |
|
| 56 |
## 📈 Statistiques d'Entraînement
|
| 57 |
|
| 58 |
-
* **Taille du vocabulaire :** 14073
|
| 59 |
* **Nombre de paires d'entraînement :** 68843 📊
|
| 60 |
* **Longueur maximale d'entrée (max_len) :** 72 tokens
|
| 61 |
* **Nombre de batches par époque :** 538 📦
|
|
|
|
| 31 |
|
| 32 |
### État Actuel
|
| 33 |
|
| 34 |
+
* **Compréhension du Langage Général :** Le modèle a été pré-entraîné sur **68 843 paires de données**, lui permettant de comprendre une vaste gamme de sujets (histoire, géographie, sciences, technologie, etc.).
|
| 35 |
* **Capacités Émergentes :** Lam-6 montre des signes prometteurs de généralisation, capable d'aborder divers domaines même si la cohérence factuelle est encore en cours de stabilisation (ex: "la capitale du brésil est la capitale de la france et la capitale de la thailande est la capitale du japon est oslo." 😅). Ces "hallucinations" initiales sont une étape normale de l'apprentissage.
|
| 36 |
+
* **Vocabulaire Étendu :** Avec 14 073 mots, Lam-6 dispose d'une base lexicale robuste pour des générations variées.
|
| 37 |
|
| 38 |
### Objectifs d'Entraînement
|
| 39 |
|
|
|
|
| 55 |
|
| 56 |
## 📈 Statistiques d'Entraînement
|
| 57 |
|
| 58 |
+
* **Taille du vocabulaire :** 14073 mots 📖 (vs 13618 pour Lam-5)
|
| 59 |
* **Nombre de paires d'entraînement :** 68843 📊
|
| 60 |
* **Longueur maximale d'entrée (max_len) :** 72 tokens
|
| 61 |
* **Nombre de batches par époque :** 538 📦
|