| { | |
| "best_global_step": null, | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 50.0, | |
| "eval_steps": 500, | |
| "global_step": 150, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 3.4, | |
| "grad_norm": 11.04508113861084, | |
| "learning_rate": 0.00047, | |
| "loss": 22.1591, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 6.8, | |
| "grad_norm": 11.043619155883789, | |
| "learning_rate": 0.00043666666666666664, | |
| "loss": 21.3272, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 10.0, | |
| "grad_norm": 11.04284381866455, | |
| "learning_rate": 0.00040333333333333334, | |
| "loss": 20.6576, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 13.4, | |
| "grad_norm": 11.042146682739258, | |
| "learning_rate": 0.00037, | |
| "loss": 20.0776, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 16.8, | |
| "grad_norm": 11.04139518737793, | |
| "learning_rate": 0.0003366666666666667, | |
| "loss": 19.5743, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 20.0, | |
| "grad_norm": 11.040687561035156, | |
| "learning_rate": 0.00030333333333333335, | |
| "loss": 19.1426, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 23.4, | |
| "grad_norm": 11.040124893188477, | |
| "learning_rate": 0.00027, | |
| "loss": 18.7768, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 26.8, | |
| "grad_norm": 11.039709091186523, | |
| "learning_rate": 0.00023666666666666668, | |
| "loss": 18.47, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 30.0, | |
| "grad_norm": 11.039409637451172, | |
| "learning_rate": 0.00020333333333333333, | |
| "loss": 18.2153, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 33.4, | |
| "grad_norm": 11.039207458496094, | |
| "learning_rate": 0.00017, | |
| "loss": 18.0066, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 36.8, | |
| "grad_norm": 11.039071083068848, | |
| "learning_rate": 0.00013666666666666666, | |
| "loss": 17.8389, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 40.0, | |
| "grad_norm": 11.038984298706055, | |
| "learning_rate": 0.00010333333333333333, | |
| "loss": 17.708, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 43.4, | |
| "grad_norm": 11.038930892944336, | |
| "learning_rate": 7.000000000000001e-05, | |
| "loss": 17.6112, | |
| "step": 130 | |
| }, | |
| { | |
| "epoch": 46.8, | |
| "grad_norm": 11.038902282714844, | |
| "learning_rate": 3.6666666666666666e-05, | |
| "loss": 17.5465, | |
| "step": 140 | |
| }, | |
| { | |
| "epoch": 50.0, | |
| "grad_norm": 11.038890838623047, | |
| "learning_rate": 3.3333333333333337e-06, | |
| "loss": 17.5129, | |
| "step": 150 | |
| } | |
| ], | |
| "logging_steps": 10, | |
| "max_steps": 150, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 50, | |
| "save_steps": 500, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 1966712291328000.0, | |
| "train_batch_size": 1, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |