auto push 2025-05-04 21:11:35
Browse filesAutomatic upload of model artifacts.
- README.md +13 -2
- model.safetensors +1 -1
- tokenizer_config.json +1 -1
README.md
CHANGED
|
@@ -22,10 +22,21 @@ Este directorio contiene checkpoints intermedios y el modelo final fine-tuned co
|
|
| 22 |
# Lógica de Entrenamiento
|
| 23 |
Cada ciclo de entrenamiento:
|
| 24 |
1. Lista todos los datasets públicos de Hugging Face.
|
| 25 |
-
2. Para cada dataset,
|
| 26 |
3. Tokeniza cada ejemplo según la longitud máxima del modelo.
|
| 27 |
-
4. Aplica LoRA sobre el modelo base, entrena
|
| 28 |
5. Fusiona los parámetros LoRA al modelo y guarda el checkpoint.
|
| 29 |
6. Sube periódicamente los artefactos al repositorio.
|
| 30 |
|
| 31 |
# Estadísticas de Entrenamiento
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 22 |
# Lógica de Entrenamiento
|
| 23 |
Cada ciclo de entrenamiento:
|
| 24 |
1. Lista todos los datasets públicos de Hugging Face.
|
| 25 |
+
2. Para cada dataset, recorre en streaming todos los splits.
|
| 26 |
3. Tokeniza cada ejemplo según la longitud máxima del modelo.
|
| 27 |
+
4. Aplica LoRA sobre el modelo base, entrena un paso por dataset.
|
| 28 |
5. Fusiona los parámetros LoRA al modelo y guarda el checkpoint.
|
| 29 |
6. Sube periódicamente los artefactos al repositorio.
|
| 30 |
|
| 31 |
# Estadísticas de Entrenamiento
|
| 32 |
+
- Dataset: <dataset_id>
|
| 33 |
+
- Ejemplos procesados: <número>
|
| 34 |
+
- Tokens procesados: <número>
|
| 35 |
+
|
| 36 |
+
- Dataset: nvidia/OpenMathReasoning
|
| 37 |
+
- Ejemplos procesados: 10
|
| 38 |
+
- Tokens procesados: 10240
|
| 39 |
+
|
| 40 |
+
- Dataset: nvidia/Nemotron-CrossThink
|
| 41 |
+
- Ejemplos procesados: 10
|
| 42 |
+
- Tokens procesados: 10240
|
model.safetensors
CHANGED
|
@@ -1,3 +1,3 @@
|
|
| 1 |
version https://git-lfs.github.com/spec/v1
|
| 2 |
-
oid sha256:
|
| 3 |
size 51957256
|
|
|
|
| 1 |
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:d9668603f9eacc7c271f90d4bda4b56dbbe566a43f5f8d50af2feaac20006286
|
| 3 |
size 51957256
|
tokenizer_config.json
CHANGED
|
@@ -33,7 +33,7 @@
|
|
| 33 |
"eos_token": "</s>",
|
| 34 |
"extra_special_tokens": {},
|
| 35 |
"legacy": true,
|
| 36 |
-
"model_max_length":
|
| 37 |
"pad_token": "</s>",
|
| 38 |
"sp_model_kwargs": {},
|
| 39 |
"spaces_between_special_tokens": false,
|
|
|
|
| 33 |
"eos_token": "</s>",
|
| 34 |
"extra_special_tokens": {},
|
| 35 |
"legacy": true,
|
| 36 |
+
"model_max_length": 2048,
|
| 37 |
"pad_token": "</s>",
|
| 38 |
"sp_model_kwargs": {},
|
| 39 |
"spaces_between_special_tokens": false,
|