Update README.md
Browse files
README.md
CHANGED
|
@@ -23,7 +23,7 @@ tags:
|
|
| 23 |
|
| 24 |
J-1 è un modello di reasoning addestrato da Jakala a partire dal modello **Gemma 3 4-B** su problemi di matematica e ragionamento **in italiano** con **GRPO** tramite [Unsloth](https://github.com/unslothai/unsloth).
|
| 25 |
|
| 26 |
-
J-1 migliora drasticamente le sue performance overall sul dataset di test [Invalsi ITA](https://huggingface.co/datasets/Jakala/invalsi) (non visto in fase training) dal 57% al **79%** rispetto al modello base.
|
| 27 |
|
| 28 |
J-1 è stato addestrato con un mix di dataset di reasoning di diversa difficoltà, originariamente in inglese tradotti automaticamente in italiano tramite 4o.
|
| 29 |
|
|
|
|
| 23 |
|
| 24 |
J-1 è un modello di reasoning addestrato da Jakala a partire dal modello **Gemma 3 4-B** su problemi di matematica e ragionamento **in italiano** con **GRPO** tramite [Unsloth](https://github.com/unslothai/unsloth).
|
| 25 |
|
| 26 |
+
J-1 migliora drasticamente le sue performance overall sul dataset di test [Invalsi ITA](https://huggingface.co/datasets/Jakala/invalsi) (non visto in fase training) dal 57% al **79%** rispetto al modello base (phi-4-14B 90%).
|
| 27 |
|
| 28 |
J-1 è stato addestrato con un mix di dataset di reasoning di diversa difficoltà, originariamente in inglese tradotti automaticamente in italiano tramite 4o.
|
| 29 |
|