| { |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 1.980269989615784, |
| "eval_steps": 500, |
| "global_step": 120, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.08307372793354102, |
| "grad_norm": 0.5125107169151306, |
| "learning_rate": 2.0833333333333334e-06, |
| "loss": 3.5515, |
| "step": 5 |
| }, |
| { |
| "epoch": 0.16614745586708204, |
| "grad_norm": 0.4532736539840698, |
| "learning_rate": 4.166666666666667e-06, |
| "loss": 3.6807, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.24922118380062305, |
| "grad_norm": 0.4483909606933594, |
| "learning_rate": 6.25e-06, |
| "loss": 3.5357, |
| "step": 15 |
| }, |
| { |
| "epoch": 0.3322949117341641, |
| "grad_norm": 0.5020395517349243, |
| "learning_rate": 8.333333333333334e-06, |
| "loss": 3.645, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.4153686396677051, |
| "grad_norm": 0.8230155110359192, |
| "learning_rate": 1.0416666666666668e-05, |
| "loss": 3.5682, |
| "step": 25 |
| }, |
| { |
| "epoch": 0.4984423676012461, |
| "grad_norm": 1.3333394527435303, |
| "learning_rate": 1.25e-05, |
| "loss": 3.5155, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.5815160955347871, |
| "grad_norm": 0.7118450999259949, |
| "learning_rate": 1.4583333333333335e-05, |
| "loss": 3.4724, |
| "step": 35 |
| }, |
| { |
| "epoch": 0.6645898234683282, |
| "grad_norm": 1.0282073020935059, |
| "learning_rate": 1.6666666666666667e-05, |
| "loss": 3.4205, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.7476635514018691, |
| "grad_norm": 1.0468826293945312, |
| "learning_rate": 1.8750000000000002e-05, |
| "loss": 3.3295, |
| "step": 45 |
| }, |
| { |
| "epoch": 0.8307372793354102, |
| "grad_norm": 0.8730693459510803, |
| "learning_rate": 2.0833333333333336e-05, |
| "loss": 3.0831, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.9138110072689511, |
| "grad_norm": 0.9377574324607849, |
| "learning_rate": 2.2916666666666667e-05, |
| "loss": 2.8412, |
| "step": 55 |
| }, |
| { |
| "epoch": 0.9968847352024922, |
| "grad_norm": 1.0129190683364868, |
| "learning_rate": 2.5e-05, |
| "loss": 2.3229, |
| "step": 60 |
| }, |
| { |
| "epoch": 1.066458982346833, |
| "grad_norm": 0.8808080554008484, |
| "learning_rate": 2.7083333333333332e-05, |
| "loss": 2.0489, |
| "step": 65 |
| }, |
| { |
| "epoch": 1.1495327102803738, |
| "grad_norm": 0.8092290759086609, |
| "learning_rate": 2.916666666666667e-05, |
| "loss": 1.9307, |
| "step": 70 |
| }, |
| { |
| "epoch": 1.2326064382139148, |
| "grad_norm": 0.8002105951309204, |
| "learning_rate": 3.125e-05, |
| "loss": 1.7402, |
| "step": 75 |
| }, |
| { |
| "epoch": 1.3156801661474558, |
| "grad_norm": 0.8581973314285278, |
| "learning_rate": 3.3333333333333335e-05, |
| "loss": 1.6696, |
| "step": 80 |
| }, |
| { |
| "epoch": 1.398753894080997, |
| "grad_norm": 0.7443532347679138, |
| "learning_rate": 3.541666666666667e-05, |
| "loss": 1.5175, |
| "step": 85 |
| }, |
| { |
| "epoch": 1.4818276220145379, |
| "grad_norm": 0.9584633708000183, |
| "learning_rate": 3.7500000000000003e-05, |
| "loss": 1.3968, |
| "step": 90 |
| }, |
| { |
| "epoch": 1.5649013499480788, |
| "grad_norm": 0.8683136105537415, |
| "learning_rate": 3.958333333333333e-05, |
| "loss": 1.299, |
| "step": 95 |
| }, |
| { |
| "epoch": 1.64797507788162, |
| "grad_norm": 0.7825261950492859, |
| "learning_rate": 4.166666666666667e-05, |
| "loss": 1.1271, |
| "step": 100 |
| }, |
| { |
| "epoch": 1.731048805815161, |
| "grad_norm": 0.654670000076294, |
| "learning_rate": 4.375e-05, |
| "loss": 1.14, |
| "step": 105 |
| }, |
| { |
| "epoch": 1.814122533748702, |
| "grad_norm": 0.7511588335037231, |
| "learning_rate": 4.5833333333333334e-05, |
| "loss": 1.1614, |
| "step": 110 |
| }, |
| { |
| "epoch": 1.897196261682243, |
| "grad_norm": 0.6596113443374634, |
| "learning_rate": 4.791666666666667e-05, |
| "loss": 1.0587, |
| "step": 115 |
| }, |
| { |
| "epoch": 1.980269989615784, |
| "grad_norm": 0.7166474461555481, |
| "learning_rate": 5e-05, |
| "loss": 1.0169, |
| "step": 120 |
| } |
| ], |
| "logging_steps": 5, |
| "max_steps": 1200, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 20, |
| "save_steps": 60, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": false |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 5207292018425856.0, |
| "train_batch_size": 1, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|