finetuned / trainer_state.json
Manjil246's picture
Upload folder using huggingface_hub
d5582cf verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 3.0,
"eval_steps": 0,
"global_step": 15,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.2,
"grad_norm": 11.059913635253906,
"learning_rate": 1e-05,
"loss": 1.4336,
"step": 1
},
{
"epoch": 0.4,
"grad_norm": 2.3152644634246826,
"learning_rate": 9.333333333333334e-06,
"loss": 1.4062,
"step": 2
},
{
"epoch": 0.6,
"grad_norm": 1.7803707122802734,
"learning_rate": 8.666666666666668e-06,
"loss": 1.1875,
"step": 3
},
{
"epoch": 0.8,
"grad_norm": 1.6670151948928833,
"learning_rate": 8.000000000000001e-06,
"loss": 1.1567,
"step": 4
},
{
"epoch": 1.0,
"grad_norm": 1.4407812356948853,
"learning_rate": 7.333333333333333e-06,
"loss": 1.125,
"step": 5
},
{
"epoch": 1.2,
"grad_norm": 1.3281736373901367,
"learning_rate": 6.666666666666667e-06,
"loss": 1.032,
"step": 6
},
{
"epoch": 1.4,
"grad_norm": 1.1653144359588623,
"learning_rate": 6e-06,
"loss": 0.97,
"step": 7
},
{
"epoch": 1.6,
"grad_norm": 1.1781017780303955,
"learning_rate": 5.333333333333334e-06,
"loss": 1.1836,
"step": 8
},
{
"epoch": 1.8,
"grad_norm": 1.184799313545227,
"learning_rate": 4.666666666666667e-06,
"loss": 0.9375,
"step": 9
},
{
"epoch": 2.0,
"grad_norm": 1.3033829927444458,
"learning_rate": 4.000000000000001e-06,
"loss": 0.8242,
"step": 10
},
{
"epoch": 2.2,
"grad_norm": 1.0657978057861328,
"learning_rate": 3.3333333333333333e-06,
"loss": 0.9114,
"step": 11
},
{
"epoch": 2.4,
"grad_norm": 1.066685438156128,
"learning_rate": 2.666666666666667e-06,
"loss": 0.8645,
"step": 12
},
{
"epoch": 2.6,
"grad_norm": 1.0318065881729126,
"learning_rate": 2.0000000000000003e-06,
"loss": 0.9009,
"step": 13
},
{
"epoch": 2.8,
"grad_norm": 1.0332844257354736,
"learning_rate": 1.3333333333333334e-06,
"loss": 0.7695,
"step": 14
},
{
"epoch": 3.0,
"grad_norm": 1.0237433910369873,
"learning_rate": 6.666666666666667e-07,
"loss": 0.9561,
"step": 15
}
],
"logging_steps": 1.0,
"max_steps": 15,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 0,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 838103979786240.0,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}