jnjj commited on
Commit
a428faa
·
verified ·
1 Parent(s): 49f989b

auto push 2025-05-04 21:11:35

Browse files

Automatic upload of model artifacts.

Files changed (3) hide show
  1. README.md +13 -2
  2. model.safetensors +1 -1
  3. tokenizer_config.json +1 -1
README.md CHANGED
@@ -22,10 +22,21 @@ Este directorio contiene checkpoints intermedios y el modelo final fine-tuned co
22
  # Lógica de Entrenamiento
23
  Cada ciclo de entrenamiento:
24
  1. Lista todos los datasets públicos de Hugging Face.
25
- 2. Para cada dataset, descarga completo y concatena splits.
26
  3. Tokeniza cada ejemplo según la longitud máxima del modelo.
27
- 4. Aplica LoRA sobre el modelo base, entrena en todo el dataset.
28
  5. Fusiona los parámetros LoRA al modelo y guarda el checkpoint.
29
  6. Sube periódicamente los artefactos al repositorio.
30
 
31
  # Estadísticas de Entrenamiento
 
 
 
 
 
 
 
 
 
 
 
 
22
  # Lógica de Entrenamiento
23
  Cada ciclo de entrenamiento:
24
  1. Lista todos los datasets públicos de Hugging Face.
25
+ 2. Para cada dataset, recorre en streaming todos los splits.
26
  3. Tokeniza cada ejemplo según la longitud máxima del modelo.
27
+ 4. Aplica LoRA sobre el modelo base, entrena un paso por dataset.
28
  5. Fusiona los parámetros LoRA al modelo y guarda el checkpoint.
29
  6. Sube periódicamente los artefactos al repositorio.
30
 
31
  # Estadísticas de Entrenamiento
32
+ - Dataset: <dataset_id>
33
+ - Ejemplos procesados: <número>
34
+ - Tokens procesados: <número>
35
+
36
+ - Dataset: nvidia/OpenMathReasoning
37
+ - Ejemplos procesados: 10
38
+ - Tokens procesados: 10240
39
+
40
+ - Dataset: nvidia/Nemotron-CrossThink
41
+ - Ejemplos procesados: 10
42
+ - Tokens procesados: 10240
model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:2292746bbdb6602312062d3fc17596e8ea2f571ea4dced676511072549c0cbf7
3
  size 51957256
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d9668603f9eacc7c271f90d4bda4b56dbbe566a43f5f8d50af2feaac20006286
3
  size 51957256
tokenizer_config.json CHANGED
@@ -33,7 +33,7 @@
33
  "eos_token": "</s>",
34
  "extra_special_tokens": {},
35
  "legacy": true,
36
- "model_max_length": 1024,
37
  "pad_token": "</s>",
38
  "sp_model_kwargs": {},
39
  "spaces_between_special_tokens": false,
 
33
  "eos_token": "</s>",
34
  "extra_special_tokens": {},
35
  "legacy": true,
36
+ "model_max_length": 2048,
37
  "pad_token": "</s>",
38
  "sp_model_kwargs": {},
39
  "spaces_between_special_tokens": false,