Update README.md
Browse files
README.md
CHANGED
|
@@ -47,8 +47,7 @@ Melta-82M est actuellement dans une **phase de pré-apprentissage précoce** :
|
|
| 47 |
Ce modèle est prêt pour :
|
| 48 |
|
| 49 |
1. **L'augmentation massive du *dataset* :** Il nécessite un entraînement sur des millions de *tokens* pour atteindre une cohérence factuelle et sémantique.
|
| 50 |
-
2. **L'Affinement d'Instruction (Fine-Tuning) :** Une fois la cohérence atteinte, il pourra être affiné
|
| 51 |
-
|
| 52 |
## ⬇️ Comment Utiliser Melta-82M
|
| 53 |
|
| 54 |
Vous pouvez charger ce modèle directement via la bibliothèque **Hugging Face Transformers** pour l'inférence :
|
|
|
|
| 47 |
Ce modèle est prêt pour :
|
| 48 |
|
| 49 |
1. **L'augmentation massive du *dataset* :** Il nécessite un entraînement sur des millions de *tokens* pour atteindre une cohérence factuelle et sémantique.
|
| 50 |
+
2. **L'Affinement d'Instruction (Fine-Tuning) :** Une fois la cohérence atteinte, il pourra être affiné
|
|
|
|
| 51 |
## ⬇️ Comment Utiliser Melta-82M
|
| 52 |
|
| 53 |
Vous pouvez charger ce modèle directement via la bibliothèque **Hugging Face Transformers** pour l'inférence :
|