| { | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 16.666666666666668, | |
| "eval_steps": 20, | |
| "global_step": 100, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.16666666666666666, | |
| "eval_loss": 6.829399108886719, | |
| "eval_runtime": 5.106, | |
| "eval_samples_per_second": 293.967, | |
| "eval_steps_per_second": 2.35, | |
| "step": 1 | |
| }, | |
| { | |
| "epoch": 1.6666666666666665, | |
| "grad_norm": 166.0, | |
| "learning_rate": 0.00019863613034027224, | |
| "loss": 9.8547, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 3.3333333333333335, | |
| "grad_norm": 79.0, | |
| "learning_rate": 0.0001879473751206489, | |
| "loss": 10.057, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 3.3333333333333335, | |
| "eval_loss": 8.625370979309082, | |
| "eval_runtime": 5.0565, | |
| "eval_samples_per_second": 296.845, | |
| "eval_steps_per_second": 2.373, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 5.0, | |
| "grad_norm": 48.5, | |
| "learning_rate": 0.00016772815716257412, | |
| "loss": 9.9786, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 6.666666666666667, | |
| "grad_norm": 77.5, | |
| "learning_rate": 0.00014016954246529696, | |
| "loss": 9.7292, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 6.666666666666667, | |
| "eval_loss": 8.797822952270508, | |
| "eval_runtime": 4.9683, | |
| "eval_samples_per_second": 302.115, | |
| "eval_steps_per_second": 2.415, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 8.333333333333334, | |
| "grad_norm": 153.0, | |
| "learning_rate": 0.00010825793454723325, | |
| "loss": 9.48, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 10.0, | |
| "grad_norm": 86.0, | |
| "learning_rate": 7.54514512859201e-05, | |
| "loss": 9.1399, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 10.0, | |
| "eval_loss": 8.825699806213379, | |
| "eval_runtime": 4.9276, | |
| "eval_samples_per_second": 304.609, | |
| "eval_steps_per_second": 2.435, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 11.666666666666666, | |
| "grad_norm": 74.0, | |
| "learning_rate": 4.530518418775733e-05, | |
| "loss": 8.9346, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 13.333333333333334, | |
| "grad_norm": 63.25, | |
| "learning_rate": 2.1085949060360654e-05, | |
| "loss": 8.9523, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 13.333333333333334, | |
| "eval_loss": 8.914467811584473, | |
| "eval_runtime": 5.106, | |
| "eval_samples_per_second": 293.969, | |
| "eval_steps_per_second": 2.35, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 15.0, | |
| "grad_norm": 212.0, | |
| "learning_rate": 5.418275829936537e-06, | |
| "loss": 8.9447, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 16.666666666666668, | |
| "grad_norm": 68.0, | |
| "learning_rate": 0.0, | |
| "loss": 8.9387, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 16.666666666666668, | |
| "eval_loss": 8.874205589294434, | |
| "eval_runtime": 4.8218, | |
| "eval_samples_per_second": 311.292, | |
| "eval_steps_per_second": 2.489, | |
| "step": 100 | |
| } | |
| ], | |
| "logging_steps": 10, | |
| "max_steps": 100, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 17, | |
| "save_steps": 20, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 1168836275470336.0, | |
| "train_batch_size": 32, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |