lr_0.08 / trainer_state.json
nijji's picture
Model save
f92a2da verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 3.0,
"eval_steps": 500,
"global_step": 225,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.13333333333333333,
"grad_norm": 12.684171676635742,
"learning_rate": 8e-05,
"loss": 1.2281,
"step": 10
},
{
"epoch": 0.26666666666666666,
"grad_norm": 5.992891788482666,
"learning_rate": 8e-05,
"loss": 0.8559,
"step": 20
},
{
"epoch": 0.4,
"grad_norm": 4.8018574714660645,
"learning_rate": 8e-05,
"loss": 0.662,
"step": 30
},
{
"epoch": 0.5333333333333333,
"grad_norm": 6.7871413230896,
"learning_rate": 8e-05,
"loss": 0.5638,
"step": 40
},
{
"epoch": 0.6666666666666666,
"grad_norm": 7.326993942260742,
"learning_rate": 8e-05,
"loss": 0.4855,
"step": 50
},
{
"epoch": 0.8,
"grad_norm": 3.8792343139648438,
"learning_rate": 8e-05,
"loss": 0.4623,
"step": 60
},
{
"epoch": 0.9333333333333333,
"grad_norm": 3.895263671875,
"learning_rate": 8e-05,
"loss": 0.536,
"step": 70
},
{
"epoch": 1.0666666666666667,
"grad_norm": 3.9079606533050537,
"learning_rate": 8e-05,
"loss": 0.4769,
"step": 80
},
{
"epoch": 1.2,
"grad_norm": 2.4843099117279053,
"learning_rate": 8e-05,
"loss": 0.3534,
"step": 90
},
{
"epoch": 1.3333333333333333,
"grad_norm": 1.9975205659866333,
"learning_rate": 8e-05,
"loss": 0.2728,
"step": 100
},
{
"epoch": 1.4666666666666668,
"grad_norm": 1.805734395980835,
"learning_rate": 8e-05,
"loss": 0.2845,
"step": 110
},
{
"epoch": 1.6,
"grad_norm": 2.8298110961914062,
"learning_rate": 8e-05,
"loss": 0.325,
"step": 120
},
{
"epoch": 1.7333333333333334,
"grad_norm": 2.404350996017456,
"learning_rate": 8e-05,
"loss": 0.1876,
"step": 130
},
{
"epoch": 1.8666666666666667,
"grad_norm": 2.800565481185913,
"learning_rate": 8e-05,
"loss": 0.3403,
"step": 140
},
{
"epoch": 2.0,
"grad_norm": 3.3671960830688477,
"learning_rate": 8e-05,
"loss": 0.2958,
"step": 150
},
{
"epoch": 2.1333333333333333,
"grad_norm": 3.240291118621826,
"learning_rate": 8e-05,
"loss": 0.1964,
"step": 160
},
{
"epoch": 2.2666666666666666,
"grad_norm": 1.1050523519515991,
"learning_rate": 8e-05,
"loss": 0.1256,
"step": 170
},
{
"epoch": 2.4,
"grad_norm": 2.640699863433838,
"learning_rate": 8e-05,
"loss": 0.15,
"step": 180
},
{
"epoch": 2.533333333333333,
"grad_norm": 3.566378116607666,
"learning_rate": 8e-05,
"loss": 0.1707,
"step": 190
},
{
"epoch": 2.6666666666666665,
"grad_norm": 1.9662597179412842,
"learning_rate": 8e-05,
"loss": 0.1709,
"step": 200
},
{
"epoch": 2.8,
"grad_norm": 3.1075780391693115,
"learning_rate": 8e-05,
"loss": 0.1547,
"step": 210
},
{
"epoch": 2.9333333333333336,
"grad_norm": 1.8456004858016968,
"learning_rate": 8e-05,
"loss": 0.1095,
"step": 220
},
{
"epoch": 3.0,
"step": 225,
"total_flos": 1.05836359974912e+16,
"train_loss": 0.37946837372250025,
"train_runtime": 508.6697,
"train_samples_per_second": 0.442,
"train_steps_per_second": 0.442
}
],
"logging_steps": 10,
"max_steps": 225,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 1.05836359974912e+16,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}