Update README.md
Browse files
README.md
CHANGED
|
@@ -41,7 +41,6 @@ Melta-82M est basé sur une configuration Llama optimisée pour la vitesse d'ent
|
|
| 41 |
Melta-82M est actuellement dans une **phase de pré-apprentissage précoce** :
|
| 42 |
|
| 43 |
* **Données d'Entraînement :** Entraîné initialement sur seulement 650 lignes de paires Questions/Réponses (`Clemylia/Melta-revive`).
|
| 44 |
-
* **Résultats :** Le modèle a réussi à apprendre la **structure de dialogue** (`Question: / Réponse:`) et les **éléments d'identité** (`Melta27`, `Clem27`). Cependant, il souffre encore d'une forte **incohérence sémantique** et génère des **néologismes** et des caractères aléatoires, car les 82 millions de paramètres n'ont pas encore été stabilisés par un volume suffisant de données.
|
| 45 |
|
| 46 |
### 🎯 Prochaine Étape : Le Fine-Tuning
|
| 47 |
|
|
|
|
| 41 |
Melta-82M est actuellement dans une **phase de pré-apprentissage précoce** :
|
| 42 |
|
| 43 |
* **Données d'Entraînement :** Entraîné initialement sur seulement 650 lignes de paires Questions/Réponses (`Clemylia/Melta-revive`).
|
|
|
|
| 44 |
|
| 45 |
### 🎯 Prochaine Étape : Le Fine-Tuning
|
| 46 |
|