| { | |
| "best_metric": 0.8383233532934131, | |
| "best_model_checkpoint": "./results/checkpoint-1000", | |
| "epoch": 2.6666666666666665, | |
| "eval_steps": 250, | |
| "global_step": 1000, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.0026666666666666666, | |
| "grad_norm": 16.15040397644043, | |
| "learning_rate": 1.9982222222222224e-05, | |
| "loss": 2.3987, | |
| "step": 1 | |
| }, | |
| { | |
| "epoch": 0.08, | |
| "grad_norm": 12.260425567626953, | |
| "learning_rate": 1.9466666666666668e-05, | |
| "loss": 2.2393, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.16, | |
| "grad_norm": 8.993585586547852, | |
| "learning_rate": 1.8933333333333334e-05, | |
| "loss": 1.7878, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.24, | |
| "grad_norm": 11.122185707092285, | |
| "learning_rate": 1.8400000000000003e-05, | |
| "loss": 1.5155, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 0.32, | |
| "grad_norm": 15.829800605773926, | |
| "learning_rate": 1.7866666666666666e-05, | |
| "loss": 1.2466, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 0.4, | |
| "grad_norm": 14.291194915771484, | |
| "learning_rate": 1.7333333333333336e-05, | |
| "loss": 1.1996, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 0.48, | |
| "grad_norm": 17.213542938232422, | |
| "learning_rate": 1.6800000000000002e-05, | |
| "loss": 1.0749, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 0.56, | |
| "grad_norm": 8.14549446105957, | |
| "learning_rate": 1.6266666666666668e-05, | |
| "loss": 0.9717, | |
| "step": 210 | |
| }, | |
| { | |
| "epoch": 0.64, | |
| "grad_norm": 13.813669204711914, | |
| "learning_rate": 1.5733333333333334e-05, | |
| "loss": 1.1143, | |
| "step": 240 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "eval_accuracy": 0.7455089820359282, | |
| "eval_loss": 0.9105517268180847, | |
| "eval_runtime": 128.8034, | |
| "eval_samples_per_second": 2.593, | |
| "eval_steps_per_second": 0.326, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 0.72, | |
| "grad_norm": 6.617077350616455, | |
| "learning_rate": 1.5200000000000002e-05, | |
| "loss": 0.8563, | |
| "step": 270 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "grad_norm": 7.134422302246094, | |
| "learning_rate": 1.4666666666666666e-05, | |
| "loss": 0.8534, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 0.88, | |
| "grad_norm": 14.594669342041016, | |
| "learning_rate": 1.4133333333333334e-05, | |
| "loss": 0.8166, | |
| "step": 330 | |
| }, | |
| { | |
| "epoch": 0.96, | |
| "grad_norm": 11.417457580566406, | |
| "learning_rate": 1.3600000000000002e-05, | |
| "loss": 0.8419, | |
| "step": 360 | |
| }, | |
| { | |
| "epoch": 1.04, | |
| "grad_norm": 13.239908218383789, | |
| "learning_rate": 1.3066666666666668e-05, | |
| "loss": 0.7204, | |
| "step": 390 | |
| }, | |
| { | |
| "epoch": 1.12, | |
| "grad_norm": 16.799551010131836, | |
| "learning_rate": 1.2533333333333336e-05, | |
| "loss": 0.5632, | |
| "step": 420 | |
| }, | |
| { | |
| "epoch": 1.2, | |
| "grad_norm": 7.094001770019531, | |
| "learning_rate": 1.2e-05, | |
| "loss": 0.7082, | |
| "step": 450 | |
| }, | |
| { | |
| "epoch": 1.28, | |
| "grad_norm": 17.73163604736328, | |
| "learning_rate": 1.1466666666666668e-05, | |
| "loss": 0.573, | |
| "step": 480 | |
| }, | |
| { | |
| "epoch": 1.3333333333333333, | |
| "eval_accuracy": 0.7994011976047904, | |
| "eval_loss": 0.6648051738739014, | |
| "eval_runtime": 125.6819, | |
| "eval_samples_per_second": 2.658, | |
| "eval_steps_per_second": 0.334, | |
| "step": 500 | |
| }, | |
| { | |
| "epoch": 1.3599999999999999, | |
| "grad_norm": 13.776785850524902, | |
| "learning_rate": 1.0933333333333334e-05, | |
| "loss": 0.4696, | |
| "step": 510 | |
| }, | |
| { | |
| "epoch": 1.44, | |
| "grad_norm": 24.468957901000977, | |
| "learning_rate": 1.04e-05, | |
| "loss": 0.617, | |
| "step": 540 | |
| }, | |
| { | |
| "epoch": 1.52, | |
| "grad_norm": 18.628131866455078, | |
| "learning_rate": 9.866666666666668e-06, | |
| "loss": 0.6078, | |
| "step": 570 | |
| }, | |
| { | |
| "epoch": 1.6, | |
| "grad_norm": 100.15174865722656, | |
| "learning_rate": 9.333333333333334e-06, | |
| "loss": 0.5287, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 1.6800000000000002, | |
| "grad_norm": 16.748079299926758, | |
| "learning_rate": 8.8e-06, | |
| "loss": 0.7787, | |
| "step": 630 | |
| }, | |
| { | |
| "epoch": 1.76, | |
| "grad_norm": 19.134979248046875, | |
| "learning_rate": 8.266666666666667e-06, | |
| "loss": 0.4815, | |
| "step": 660 | |
| }, | |
| { | |
| "epoch": 1.8399999999999999, | |
| "grad_norm": 6.146342754364014, | |
| "learning_rate": 7.733333333333334e-06, | |
| "loss": 0.5385, | |
| "step": 690 | |
| }, | |
| { | |
| "epoch": 1.92, | |
| "grad_norm": 5.284756660461426, | |
| "learning_rate": 7.2000000000000005e-06, | |
| "loss": 0.6076, | |
| "step": 720 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "grad_norm": 13.146005630493164, | |
| "learning_rate": 6.666666666666667e-06, | |
| "loss": 0.5023, | |
| "step": 750 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "eval_accuracy": 0.8323353293413174, | |
| "eval_loss": 0.6021029353141785, | |
| "eval_runtime": 118.5789, | |
| "eval_samples_per_second": 2.817, | |
| "eval_steps_per_second": 0.354, | |
| "step": 750 | |
| }, | |
| { | |
| "epoch": 2.08, | |
| "grad_norm": 15.934453010559082, | |
| "learning_rate": 6.133333333333334e-06, | |
| "loss": 0.4482, | |
| "step": 780 | |
| }, | |
| { | |
| "epoch": 2.16, | |
| "grad_norm": 2.5525577068328857, | |
| "learning_rate": 5.600000000000001e-06, | |
| "loss": 0.4262, | |
| "step": 810 | |
| }, | |
| { | |
| "epoch": 2.24, | |
| "grad_norm": 20.71769905090332, | |
| "learning_rate": 5.0666666666666676e-06, | |
| "loss": 0.3308, | |
| "step": 840 | |
| }, | |
| { | |
| "epoch": 2.32, | |
| "grad_norm": 5.773500919342041, | |
| "learning_rate": 4.533333333333334e-06, | |
| "loss": 0.3913, | |
| "step": 870 | |
| }, | |
| { | |
| "epoch": 2.4, | |
| "grad_norm": 23.659786224365234, | |
| "learning_rate": 4.000000000000001e-06, | |
| "loss": 0.4899, | |
| "step": 900 | |
| }, | |
| { | |
| "epoch": 2.48, | |
| "grad_norm": 9.76993179321289, | |
| "learning_rate": 3.4666666666666672e-06, | |
| "loss": 0.3889, | |
| "step": 930 | |
| }, | |
| { | |
| "epoch": 2.56, | |
| "grad_norm": 3.7444443702697754, | |
| "learning_rate": 2.9333333333333338e-06, | |
| "loss": 0.4644, | |
| "step": 960 | |
| }, | |
| { | |
| "epoch": 2.64, | |
| "grad_norm": 15.488058090209961, | |
| "learning_rate": 2.4000000000000003e-06, | |
| "loss": 0.3985, | |
| "step": 990 | |
| }, | |
| { | |
| "epoch": 2.6666666666666665, | |
| "eval_accuracy": 0.8383233532934131, | |
| "eval_loss": 0.5776464939117432, | |
| "eval_runtime": 128.183, | |
| "eval_samples_per_second": 2.606, | |
| "eval_steps_per_second": 0.328, | |
| "step": 1000 | |
| } | |
| ], | |
| "logging_steps": 30, | |
| "max_steps": 1125, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 3, | |
| "save_steps": 500, | |
| "stateful_callbacks": { | |
| "EarlyStoppingCallback": { | |
| "args": { | |
| "early_stopping_patience": 3, | |
| "early_stopping_threshold": 0.0 | |
| }, | |
| "attributes": { | |
| "early_stopping_patience_counter": 0 | |
| } | |
| }, | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": false | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 525996778653696.0, | |
| "train_batch_size": 8, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |