Molmo_7B_Human_Pointing_LoRA / trainer_state.json
reubk's picture
Upload folder using huggingface_hub
7a87eb5 verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 4.166666666666667,
"eval_steps": 500,
"global_step": 50,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.25,
"grad_norm": 0.1110052689909935,
"learning_rate": 1.9833333333333335e-05,
"loss": 0.2636,
"step": 3
},
{
"epoch": 0.5,
"grad_norm": 0.11548730731010437,
"learning_rate": 1.9583333333333333e-05,
"loss": 0.2893,
"step": 6
},
{
"epoch": 0.75,
"grad_norm": 0.15920989215373993,
"learning_rate": 1.9333333333333333e-05,
"loss": 0.3218,
"step": 9
},
{
"epoch": 1.0,
"grad_norm": 0.21219342947006226,
"learning_rate": 1.9083333333333338e-05,
"loss": 0.3542,
"step": 12
},
{
"epoch": 1.25,
"grad_norm": 0.2060505747795105,
"learning_rate": 1.8833333333333335e-05,
"loss": 0.2465,
"step": 15
},
{
"epoch": 1.5,
"grad_norm": 0.15194213390350342,
"learning_rate": 1.8583333333333336e-05,
"loss": 0.3142,
"step": 18
},
{
"epoch": 1.75,
"grad_norm": 0.17492517828941345,
"learning_rate": 1.8333333333333333e-05,
"loss": 0.3234,
"step": 21
},
{
"epoch": 2.0,
"grad_norm": 0.1656019538640976,
"learning_rate": 1.8083333333333334e-05,
"loss": 0.2889,
"step": 24
},
{
"epoch": 2.25,
"grad_norm": 0.1651471108198166,
"learning_rate": 1.7833333333333334e-05,
"loss": 0.2561,
"step": 27
},
{
"epoch": 2.5,
"grad_norm": 0.1810605674982071,
"learning_rate": 1.7583333333333335e-05,
"loss": 0.2951,
"step": 30
},
{
"epoch": 2.75,
"grad_norm": 0.24151359498500824,
"learning_rate": 1.7333333333333336e-05,
"loss": 0.27,
"step": 33
},
{
"epoch": 3.0,
"grad_norm": 0.24536561965942383,
"learning_rate": 1.7083333333333333e-05,
"loss": 0.3154,
"step": 36
},
{
"epoch": 3.25,
"grad_norm": 0.14023341238498688,
"learning_rate": 1.6833333333333334e-05,
"loss": 0.2848,
"step": 39
},
{
"epoch": 3.5,
"grad_norm": 0.21807320415973663,
"learning_rate": 1.6583333333333334e-05,
"loss": 0.2601,
"step": 42
},
{
"epoch": 3.75,
"grad_norm": 0.234609454870224,
"learning_rate": 1.6333333333333335e-05,
"loss": 0.2943,
"step": 45
},
{
"epoch": 4.0,
"grad_norm": 0.24465854465961456,
"learning_rate": 1.6083333333333336e-05,
"loss": 0.2636,
"step": 48
}
],
"logging_steps": 3,
"max_steps": 240,
"num_input_tokens_seen": 0,
"num_train_epochs": 20,
"save_steps": 25,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 1.251093409892352e+16,
"train_batch_size": 4,
"trial_name": null,
"trial_params": null
}