Update README.md
Browse filesLe modèle utilise l'architecture text-to-text de T5, ce qui le rend particulièrement adapté à la tâche de correction grammaticale. Nous avons fine-tuné le modèle en utilisant un taux d'apprentissage de 5e-5 et une taille de batch de 32. L'entraînement a été effectué sur une GPU NVIDIA Tesla V100 pendant 24 heures.
README.md
CHANGED
|
@@ -1,3 +1,16 @@
|
|
| 1 |
-
---
|
| 2 |
-
license: apache-2.0
|
| 3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
license: apache-2.0
|
| 3 |
+
datasets:
|
| 4 |
+
- Lots-of-LoRAs/task1557_jfleg_answer_generation
|
| 5 |
+
language:
|
| 6 |
+
- fr
|
| 7 |
+
- ar
|
| 8 |
+
metrics:
|
| 9 |
+
- bleu
|
| 10 |
+
base_model:
|
| 11 |
+
- HuggingFaceH4/zephyr-7b-beta
|
| 12 |
+
new_version: deepseek-ai/DeepSeek-R1
|
| 13 |
+
pipeline_tag: text2text-generation
|
| 14 |
+
tags:
|
| 15 |
+
- education
|
| 16 |
+
---
|