| { | |
| "best_metric": 2.2920706272125244, | |
| "best_model_checkpoint": "QaagiFilter3/checkpoint-1500", | |
| "epoch": 5.0, | |
| "eval_steps": 500, | |
| "global_step": 1500, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.08333333333333333, | |
| "grad_norm": 203.57440185546875, | |
| "learning_rate": 3.166666666666667e-06, | |
| "loss": 27.8593, | |
| "step": 25 | |
| }, | |
| { | |
| "epoch": 0.16666666666666666, | |
| "grad_norm": 163.1396484375, | |
| "learning_rate": 7.333333333333334e-06, | |
| "loss": 23.387, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.25, | |
| "grad_norm": 81.33038330078125, | |
| "learning_rate": 1.1500000000000002e-05, | |
| "loss": 13.9295, | |
| "step": 75 | |
| }, | |
| { | |
| "epoch": 0.3333333333333333, | |
| "grad_norm": 33.5482292175293, | |
| "learning_rate": 1.5666666666666667e-05, | |
| "loss": 7.7122, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.4166666666666667, | |
| "grad_norm": 36.23005676269531, | |
| "learning_rate": 1.9833333333333335e-05, | |
| "loss": 5.0666, | |
| "step": 125 | |
| }, | |
| { | |
| "epoch": 0.5, | |
| "grad_norm": 36.48677444458008, | |
| "learning_rate": 2.4e-05, | |
| "loss": 3.9894, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 0.5833333333333334, | |
| "grad_norm": 74.38584899902344, | |
| "learning_rate": 2.816666666666667e-05, | |
| "loss": 3.8645, | |
| "step": 175 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "grad_norm": 49.025814056396484, | |
| "learning_rate": 3.233333333333333e-05, | |
| "loss": 3.9696, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 0.75, | |
| "grad_norm": 50.01852798461914, | |
| "learning_rate": 3.65e-05, | |
| "loss": 3.283, | |
| "step": 225 | |
| }, | |
| { | |
| "epoch": 0.8333333333333334, | |
| "grad_norm": 37.934364318847656, | |
| "learning_rate": 4.066666666666667e-05, | |
| "loss": 3.735, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 0.9166666666666666, | |
| "grad_norm": 92.65830993652344, | |
| "learning_rate": 4.483333333333333e-05, | |
| "loss": 3.4056, | |
| "step": 275 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "grad_norm": 70.39775085449219, | |
| "learning_rate": 4.9e-05, | |
| "loss": 4.1434, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "eval_explained_variance": 0.484250545501709, | |
| "eval_loss": 3.7199275493621826, | |
| "eval_mae": 1.5320930480957031, | |
| "eval_mse": 3.7199275493621826, | |
| "eval_r2": 0.41460227966308594, | |
| "eval_rmse": 1.9287114143371582, | |
| "eval_runtime": 1.4061, | |
| "eval_samples_per_second": 853.43, | |
| "eval_steps_per_second": 27.025, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 1.0833333333333333, | |
| "grad_norm": 72.37615203857422, | |
| "learning_rate": 4.964814814814815e-05, | |
| "loss": 2.8186, | |
| "step": 325 | |
| }, | |
| { | |
| "epoch": 1.1666666666666667, | |
| "grad_norm": 36.7435417175293, | |
| "learning_rate": 4.918518518518519e-05, | |
| "loss": 2.6416, | |
| "step": 350 | |
| }, | |
| { | |
| "epoch": 1.25, | |
| "grad_norm": 43.16706848144531, | |
| "learning_rate": 4.8722222222222224e-05, | |
| "loss": 2.2014, | |
| "step": 375 | |
| }, | |
| { | |
| "epoch": 1.3333333333333333, | |
| "grad_norm": 35.85356521606445, | |
| "learning_rate": 4.825925925925926e-05, | |
| "loss": 2.344, | |
| "step": 400 | |
| }, | |
| { | |
| "epoch": 1.4166666666666667, | |
| "grad_norm": 38.85523986816406, | |
| "learning_rate": 4.77962962962963e-05, | |
| "loss": 2.3029, | |
| "step": 425 | |
| }, | |
| { | |
| "epoch": 1.5, | |
| "grad_norm": 40.83808135986328, | |
| "learning_rate": 4.7333333333333336e-05, | |
| "loss": 2.5387, | |
| "step": 450 | |
| }, | |
| { | |
| "epoch": 1.5833333333333335, | |
| "grad_norm": 73.15798950195312, | |
| "learning_rate": 4.687037037037037e-05, | |
| "loss": 2.2528, | |
| "step": 475 | |
| }, | |
| { | |
| "epoch": 1.6666666666666665, | |
| "grad_norm": 32.92269515991211, | |
| "learning_rate": 4.640740740740741e-05, | |
| "loss": 2.1096, | |
| "step": 500 | |
| }, | |
| { | |
| "epoch": 1.75, | |
| "grad_norm": 37.778804779052734, | |
| "learning_rate": 4.594444444444444e-05, | |
| "loss": 2.4907, | |
| "step": 525 | |
| }, | |
| { | |
| "epoch": 1.8333333333333335, | |
| "grad_norm": 35.420013427734375, | |
| "learning_rate": 4.548148148148149e-05, | |
| "loss": 2.3215, | |
| "step": 550 | |
| }, | |
| { | |
| "epoch": 1.9166666666666665, | |
| "grad_norm": 42.403602600097656, | |
| "learning_rate": 4.501851851851852e-05, | |
| "loss": 2.0804, | |
| "step": 575 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "grad_norm": 71.63874053955078, | |
| "learning_rate": 4.4555555555555555e-05, | |
| "loss": 2.304, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "eval_explained_variance": 0.6256482601165771, | |
| "eval_loss": 2.3827290534973145, | |
| "eval_mae": 1.163964867591858, | |
| "eval_mse": 2.3827288150787354, | |
| "eval_r2": 0.6250346302986145, | |
| "eval_rmse": 1.5436090230941772, | |
| "eval_runtime": 1.4029, | |
| "eval_samples_per_second": 855.399, | |
| "eval_steps_per_second": 27.088, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 2.0833333333333335, | |
| "grad_norm": 19.71274757385254, | |
| "learning_rate": 4.4092592592592595e-05, | |
| "loss": 1.2565, | |
| "step": 625 | |
| }, | |
| { | |
| "epoch": 2.1666666666666665, | |
| "grad_norm": 31.47469711303711, | |
| "learning_rate": 4.3629629629629635e-05, | |
| "loss": 1.2529, | |
| "step": 650 | |
| }, | |
| { | |
| "epoch": 2.25, | |
| "grad_norm": 23.2291259765625, | |
| "learning_rate": 4.316666666666667e-05, | |
| "loss": 1.2316, | |
| "step": 675 | |
| }, | |
| { | |
| "epoch": 2.3333333333333335, | |
| "grad_norm": 46.9771614074707, | |
| "learning_rate": 4.270370370370371e-05, | |
| "loss": 0.9652, | |
| "step": 700 | |
| }, | |
| { | |
| "epoch": 2.4166666666666665, | |
| "grad_norm": 28.63280487060547, | |
| "learning_rate": 4.224074074074074e-05, | |
| "loss": 1.0859, | |
| "step": 725 | |
| }, | |
| { | |
| "epoch": 2.5, | |
| "grad_norm": 40.56156921386719, | |
| "learning_rate": 4.177777777777778e-05, | |
| "loss": 1.0052, | |
| "step": 750 | |
| }, | |
| { | |
| "epoch": 2.5833333333333335, | |
| "grad_norm": 53.79902267456055, | |
| "learning_rate": 4.131481481481482e-05, | |
| "loss": 1.1899, | |
| "step": 775 | |
| }, | |
| { | |
| "epoch": 2.6666666666666665, | |
| "grad_norm": 40.577327728271484, | |
| "learning_rate": 4.0851851851851853e-05, | |
| "loss": 0.8368, | |
| "step": 800 | |
| }, | |
| { | |
| "epoch": 2.75, | |
| "grad_norm": 53.498016357421875, | |
| "learning_rate": 4.038888888888889e-05, | |
| "loss": 0.8995, | |
| "step": 825 | |
| }, | |
| { | |
| "epoch": 2.8333333333333335, | |
| "grad_norm": 23.701671600341797, | |
| "learning_rate": 3.9925925925925926e-05, | |
| "loss": 1.0837, | |
| "step": 850 | |
| }, | |
| { | |
| "epoch": 2.9166666666666665, | |
| "grad_norm": 39.308101654052734, | |
| "learning_rate": 3.946296296296296e-05, | |
| "loss": 0.9715, | |
| "step": 875 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "grad_norm": 47.296966552734375, | |
| "learning_rate": 3.9000000000000006e-05, | |
| "loss": 1.3128, | |
| "step": 900 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "eval_explained_variance": 0.6129987239837646, | |
| "eval_loss": 2.6801981925964355, | |
| "eval_mae": 1.1843883991241455, | |
| "eval_mse": 2.6801979541778564, | |
| "eval_r2": 0.5782225131988525, | |
| "eval_rmse": 1.6371309757232666, | |
| "eval_runtime": 1.3833, | |
| "eval_samples_per_second": 867.517, | |
| "eval_steps_per_second": 27.471, | |
| "step": 900 | |
| }, | |
| { | |
| "epoch": 3.0833333333333335, | |
| "grad_norm": 27.515487670898438, | |
| "learning_rate": 3.853703703703704e-05, | |
| "loss": 0.5462, | |
| "step": 925 | |
| }, | |
| { | |
| "epoch": 3.1666666666666665, | |
| "grad_norm": 27.193992614746094, | |
| "learning_rate": 3.807407407407408e-05, | |
| "loss": 0.6948, | |
| "step": 950 | |
| }, | |
| { | |
| "epoch": 3.25, | |
| "grad_norm": 32.09097671508789, | |
| "learning_rate": 3.761111111111111e-05, | |
| "loss": 0.6207, | |
| "step": 975 | |
| }, | |
| { | |
| "epoch": 3.3333333333333335, | |
| "grad_norm": 20.979494094848633, | |
| "learning_rate": 3.714814814814815e-05, | |
| "loss": 0.6791, | |
| "step": 1000 | |
| }, | |
| { | |
| "epoch": 3.4166666666666665, | |
| "grad_norm": 22.093290328979492, | |
| "learning_rate": 3.668518518518519e-05, | |
| "loss": 0.6075, | |
| "step": 1025 | |
| }, | |
| { | |
| "epoch": 3.5, | |
| "grad_norm": 24.52804183959961, | |
| "learning_rate": 3.6222222222222225e-05, | |
| "loss": 0.796, | |
| "step": 1050 | |
| }, | |
| { | |
| "epoch": 3.5833333333333335, | |
| "grad_norm": 13.169271469116211, | |
| "learning_rate": 3.575925925925926e-05, | |
| "loss": 0.5455, | |
| "step": 1075 | |
| }, | |
| { | |
| "epoch": 3.6666666666666665, | |
| "grad_norm": 23.37912368774414, | |
| "learning_rate": 3.52962962962963e-05, | |
| "loss": 0.5924, | |
| "step": 1100 | |
| }, | |
| { | |
| "epoch": 3.75, | |
| "grad_norm": 23.409942626953125, | |
| "learning_rate": 3.483333333333334e-05, | |
| "loss": 0.5839, | |
| "step": 1125 | |
| }, | |
| { | |
| "epoch": 3.8333333333333335, | |
| "grad_norm": 14.830960273742676, | |
| "learning_rate": 3.437037037037037e-05, | |
| "loss": 0.6003, | |
| "step": 1150 | |
| }, | |
| { | |
| "epoch": 3.9166666666666665, | |
| "grad_norm": 29.192399978637695, | |
| "learning_rate": 3.390740740740741e-05, | |
| "loss": 0.5715, | |
| "step": 1175 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "grad_norm": 19.0704402923584, | |
| "learning_rate": 3.3444444444444443e-05, | |
| "loss": 0.632, | |
| "step": 1200 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "eval_explained_variance": 0.6389033794403076, | |
| "eval_loss": 2.541696071624756, | |
| "eval_mae": 1.168035864830017, | |
| "eval_mse": 2.541696071624756, | |
| "eval_r2": 0.6000182628631592, | |
| "eval_rmse": 1.5942697525024414, | |
| "eval_runtime": 1.4053, | |
| "eval_samples_per_second": 853.915, | |
| "eval_steps_per_second": 27.041, | |
| "step": 1200 | |
| }, | |
| { | |
| "epoch": 4.083333333333333, | |
| "grad_norm": 10.236458778381348, | |
| "learning_rate": 3.298148148148148e-05, | |
| "loss": 0.3609, | |
| "step": 1225 | |
| }, | |
| { | |
| "epoch": 4.166666666666667, | |
| "grad_norm": 15.39724349975586, | |
| "learning_rate": 3.251851851851852e-05, | |
| "loss": 0.3721, | |
| "step": 1250 | |
| }, | |
| { | |
| "epoch": 4.25, | |
| "grad_norm": 16.447935104370117, | |
| "learning_rate": 3.2055555555555556e-05, | |
| "loss": 0.3554, | |
| "step": 1275 | |
| }, | |
| { | |
| "epoch": 4.333333333333333, | |
| "grad_norm": 10.421647071838379, | |
| "learning_rate": 3.1592592592592596e-05, | |
| "loss": 0.4262, | |
| "step": 1300 | |
| }, | |
| { | |
| "epoch": 4.416666666666667, | |
| "grad_norm": 15.514717102050781, | |
| "learning_rate": 3.112962962962963e-05, | |
| "loss": 0.4036, | |
| "step": 1325 | |
| }, | |
| { | |
| "epoch": 4.5, | |
| "grad_norm": 9.377070426940918, | |
| "learning_rate": 3.066666666666667e-05, | |
| "loss": 0.3811, | |
| "step": 1350 | |
| }, | |
| { | |
| "epoch": 4.583333333333333, | |
| "grad_norm": 12.767688751220703, | |
| "learning_rate": 3.0203703703703705e-05, | |
| "loss": 0.4501, | |
| "step": 1375 | |
| }, | |
| { | |
| "epoch": 4.666666666666667, | |
| "grad_norm": 20.651182174682617, | |
| "learning_rate": 2.9740740740740742e-05, | |
| "loss": 0.3876, | |
| "step": 1400 | |
| }, | |
| { | |
| "epoch": 4.75, | |
| "grad_norm": 10.500899314880371, | |
| "learning_rate": 2.927777777777778e-05, | |
| "loss": 0.3856, | |
| "step": 1425 | |
| }, | |
| { | |
| "epoch": 4.833333333333333, | |
| "grad_norm": 11.204659461975098, | |
| "learning_rate": 2.8814814814814818e-05, | |
| "loss": 0.4262, | |
| "step": 1450 | |
| }, | |
| { | |
| "epoch": 4.916666666666667, | |
| "grad_norm": 26.508119583129883, | |
| "learning_rate": 2.835185185185185e-05, | |
| "loss": 0.4429, | |
| "step": 1475 | |
| }, | |
| { | |
| "epoch": 5.0, | |
| "grad_norm": 23.41118621826172, | |
| "learning_rate": 2.788888888888889e-05, | |
| "loss": 0.3862, | |
| "step": 1500 | |
| }, | |
| { | |
| "epoch": 5.0, | |
| "eval_explained_variance": 0.6458940505981445, | |
| "eval_loss": 2.2920706272125244, | |
| "eval_mae": 1.1123970746994019, | |
| "eval_mse": 2.2920706272125244, | |
| "eval_r2": 0.6393013000488281, | |
| "eval_rmse": 1.5139585733413696, | |
| "eval_runtime": 1.386, | |
| "eval_samples_per_second": 865.825, | |
| "eval_steps_per_second": 27.418, | |
| "step": 1500 | |
| } | |
| ], | |
| "logging_steps": 25, | |
| "max_steps": 3000, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 10, | |
| "save_steps": 500, | |
| "stateful_callbacks": { | |
| "EarlyStoppingCallback": { | |
| "args": { | |
| "early_stopping_patience": 5, | |
| "early_stopping_threshold": 0.01 | |
| }, | |
| "attributes": { | |
| "early_stopping_patience_counter": 0 | |
| } | |
| }, | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": false | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 1578652139520000.0, | |
| "train_batch_size": 8, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |