| { |
| "best_global_step": null, |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 4.916666666666667, |
| "eval_steps": 500, |
| "global_step": 295, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.16666666666666666, |
| "grad_norm": 22186.9765625, |
| "learning_rate": 1.5e-06, |
| "loss": 3196.2215, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.3333333333333333, |
| "grad_norm": 11056.1962890625, |
| "learning_rate": 3.1666666666666667e-06, |
| "loss": 2572.3811, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.5, |
| "grad_norm": 6510.00537109375, |
| "learning_rate": 4.833333333333333e-06, |
| "loss": 2159.7172, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.6666666666666666, |
| "grad_norm": 6798.31201171875, |
| "learning_rate": 4.830188679245284e-06, |
| "loss": 2064.2686, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.8333333333333334, |
| "grad_norm": 5886.37060546875, |
| "learning_rate": 4.641509433962264e-06, |
| "loss": 1779.5697, |
| "step": 50 |
| }, |
| { |
| "epoch": 1.0, |
| "grad_norm": 6374.287109375, |
| "learning_rate": 4.452830188679246e-06, |
| "loss": 1755.8904, |
| "step": 60 |
| }, |
| { |
| "epoch": 1.1666666666666667, |
| "grad_norm": 4707.3759765625, |
| "learning_rate": 4.264150943396227e-06, |
| "loss": 1612.3936, |
| "step": 70 |
| }, |
| { |
| "epoch": 1.3333333333333333, |
| "grad_norm": 5891.10546875, |
| "learning_rate": 4.075471698113208e-06, |
| "loss": 1663.9174, |
| "step": 80 |
| }, |
| { |
| "epoch": 1.5, |
| "grad_norm": 5004.111328125, |
| "learning_rate": 3.88679245283019e-06, |
| "loss": 1361.5708, |
| "step": 90 |
| }, |
| { |
| "epoch": 1.6666666666666665, |
| "grad_norm": 5883.7431640625, |
| "learning_rate": 3.6981132075471697e-06, |
| "loss": 1513.3232, |
| "step": 100 |
| }, |
| { |
| "epoch": 1.8333333333333335, |
| "grad_norm": 10130.2158203125, |
| "learning_rate": 3.509433962264151e-06, |
| "loss": 1425.5418, |
| "step": 110 |
| }, |
| { |
| "epoch": 2.0, |
| "grad_norm": 4457.35546875, |
| "learning_rate": 3.3207547169811323e-06, |
| "loss": 1397.6874, |
| "step": 120 |
| }, |
| { |
| "epoch": 2.1666666666666665, |
| "grad_norm": 7548.65771484375, |
| "learning_rate": 3.1320754716981132e-06, |
| "loss": 1331.2122, |
| "step": 130 |
| }, |
| { |
| "epoch": 2.3333333333333335, |
| "grad_norm": 6358.30126953125, |
| "learning_rate": 2.9433962264150946e-06, |
| "loss": 1270.2746, |
| "step": 140 |
| }, |
| { |
| "epoch": 2.5, |
| "grad_norm": 5319.84716796875, |
| "learning_rate": 2.7547169811320755e-06, |
| "loss": 1313.9853, |
| "step": 150 |
| }, |
| { |
| "epoch": 2.6666666666666665, |
| "grad_norm": 5636.23291015625, |
| "learning_rate": 2.5660377358490568e-06, |
| "loss": 1363.8354, |
| "step": 160 |
| }, |
| { |
| "epoch": 2.8333333333333335, |
| "grad_norm": 6115.75048828125, |
| "learning_rate": 2.377358490566038e-06, |
| "loss": 1330.6484, |
| "step": 170 |
| }, |
| { |
| "epoch": 3.0, |
| "grad_norm": 4521.43603515625, |
| "learning_rate": 2.188679245283019e-06, |
| "loss": 1257.4311, |
| "step": 180 |
| }, |
| { |
| "epoch": 3.1666666666666665, |
| "grad_norm": 5186.4892578125, |
| "learning_rate": 2.0000000000000003e-06, |
| "loss": 1177.7126, |
| "step": 190 |
| }, |
| { |
| "epoch": 3.3333333333333335, |
| "grad_norm": 3963.0927734375, |
| "learning_rate": 1.8113207547169812e-06, |
| "loss": 1177.5007, |
| "step": 200 |
| }, |
| { |
| "epoch": 3.5, |
| "grad_norm": 4475.28857421875, |
| "learning_rate": 1.6226415094339623e-06, |
| "loss": 1285.2094, |
| "step": 210 |
| }, |
| { |
| "epoch": 3.6666666666666665, |
| "grad_norm": 4921.3564453125, |
| "learning_rate": 1.4339622641509435e-06, |
| "loss": 1227.5443, |
| "step": 220 |
| }, |
| { |
| "epoch": 3.8333333333333335, |
| "grad_norm": 5525.90185546875, |
| "learning_rate": 1.2452830188679246e-06, |
| "loss": 1279.6014, |
| "step": 230 |
| }, |
| { |
| "epoch": 4.0, |
| "grad_norm": 4916.24951171875, |
| "learning_rate": 1.0566037735849057e-06, |
| "loss": 1245.7115, |
| "step": 240 |
| }, |
| { |
| "epoch": 4.166666666666667, |
| "grad_norm": 7084.98486328125, |
| "learning_rate": 8.679245283018868e-07, |
| "loss": 1180.5234, |
| "step": 250 |
| }, |
| { |
| "epoch": 4.333333333333333, |
| "grad_norm": 5744.654296875, |
| "learning_rate": 6.79245283018868e-07, |
| "loss": 1255.0032, |
| "step": 260 |
| }, |
| { |
| "epoch": 4.5, |
| "grad_norm": 5071.669921875, |
| "learning_rate": 4.905660377358491e-07, |
| "loss": 1219.5063, |
| "step": 270 |
| }, |
| { |
| "epoch": 4.666666666666667, |
| "grad_norm": 4817.00048828125, |
| "learning_rate": 3.0188679245283024e-07, |
| "loss": 1182.2699, |
| "step": 280 |
| }, |
| { |
| "epoch": 4.833333333333333, |
| "grad_norm": 6499.96484375, |
| "learning_rate": 1.1320754716981133e-07, |
| "loss": 1214.8456, |
| "step": 290 |
| } |
| ], |
| "logging_steps": 10, |
| "max_steps": 295, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 5, |
| "save_steps": 1000, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": true |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 0.0, |
| "train_batch_size": 16, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|