| { | |
| "best_global_step": null, | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 4.166666666666667, | |
| "eval_steps": 500, | |
| "global_step": 50, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.25, | |
| "grad_norm": 0.1110052689909935, | |
| "learning_rate": 1.9833333333333335e-05, | |
| "loss": 0.2636, | |
| "step": 3 | |
| }, | |
| { | |
| "epoch": 0.5, | |
| "grad_norm": 0.11548730731010437, | |
| "learning_rate": 1.9583333333333333e-05, | |
| "loss": 0.2893, | |
| "step": 6 | |
| }, | |
| { | |
| "epoch": 0.75, | |
| "grad_norm": 0.15920989215373993, | |
| "learning_rate": 1.9333333333333333e-05, | |
| "loss": 0.3218, | |
| "step": 9 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "grad_norm": 0.21219342947006226, | |
| "learning_rate": 1.9083333333333338e-05, | |
| "loss": 0.3542, | |
| "step": 12 | |
| }, | |
| { | |
| "epoch": 1.25, | |
| "grad_norm": 0.2060505747795105, | |
| "learning_rate": 1.8833333333333335e-05, | |
| "loss": 0.2465, | |
| "step": 15 | |
| }, | |
| { | |
| "epoch": 1.5, | |
| "grad_norm": 0.15194213390350342, | |
| "learning_rate": 1.8583333333333336e-05, | |
| "loss": 0.3142, | |
| "step": 18 | |
| }, | |
| { | |
| "epoch": 1.75, | |
| "grad_norm": 0.17492517828941345, | |
| "learning_rate": 1.8333333333333333e-05, | |
| "loss": 0.3234, | |
| "step": 21 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "grad_norm": 0.1656019538640976, | |
| "learning_rate": 1.8083333333333334e-05, | |
| "loss": 0.2889, | |
| "step": 24 | |
| }, | |
| { | |
| "epoch": 2.25, | |
| "grad_norm": 0.1651471108198166, | |
| "learning_rate": 1.7833333333333334e-05, | |
| "loss": 0.2561, | |
| "step": 27 | |
| }, | |
| { | |
| "epoch": 2.5, | |
| "grad_norm": 0.1810605674982071, | |
| "learning_rate": 1.7583333333333335e-05, | |
| "loss": 0.2951, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 2.75, | |
| "grad_norm": 0.24151359498500824, | |
| "learning_rate": 1.7333333333333336e-05, | |
| "loss": 0.27, | |
| "step": 33 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "grad_norm": 0.24536561965942383, | |
| "learning_rate": 1.7083333333333333e-05, | |
| "loss": 0.3154, | |
| "step": 36 | |
| }, | |
| { | |
| "epoch": 3.25, | |
| "grad_norm": 0.14023341238498688, | |
| "learning_rate": 1.6833333333333334e-05, | |
| "loss": 0.2848, | |
| "step": 39 | |
| }, | |
| { | |
| "epoch": 3.5, | |
| "grad_norm": 0.21807320415973663, | |
| "learning_rate": 1.6583333333333334e-05, | |
| "loss": 0.2601, | |
| "step": 42 | |
| }, | |
| { | |
| "epoch": 3.75, | |
| "grad_norm": 0.234609454870224, | |
| "learning_rate": 1.6333333333333335e-05, | |
| "loss": 0.2943, | |
| "step": 45 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "grad_norm": 0.24465854465961456, | |
| "learning_rate": 1.6083333333333336e-05, | |
| "loss": 0.2636, | |
| "step": 48 | |
| } | |
| ], | |
| "logging_steps": 3, | |
| "max_steps": 240, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 20, | |
| "save_steps": 25, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": false | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 1.251093409892352e+16, | |
| "train_batch_size": 4, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |