{ "best_metric": null, "best_model_checkpoint": null, "epoch": 0.08333333333333333, "eval_steps": 500, "global_step": 5000, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0008333333333333334, "grad_norm": 13.5625, "learning_rate": 0.00019800000000000002, "loss": 1.2607, "step": 50 }, { "epoch": 0.0016666666666666668, "grad_norm": 28.125, "learning_rate": 0.000196, "loss": 0.6638, "step": 100 }, { "epoch": 0.0025, "grad_norm": 56.25, "learning_rate": 0.000194, "loss": 0.6657, "step": 150 }, { "epoch": 0.0033333333333333335, "grad_norm": 37.75, "learning_rate": 0.000192, "loss": 0.8187, "step": 200 }, { "epoch": 0.004166666666666667, "grad_norm": 14.0, "learning_rate": 0.00019, "loss": 0.7563, "step": 250 }, { "epoch": 0.005, "grad_norm": 1.71875, "learning_rate": 0.000188, "loss": 0.7718, "step": 300 }, { "epoch": 0.005833333333333334, "grad_norm": 0.302734375, "learning_rate": 0.00018600000000000002, "loss": 0.636, "step": 350 }, { "epoch": 0.006666666666666667, "grad_norm": 29.625, "learning_rate": 0.00018400000000000003, "loss": 0.9392, "step": 400 }, { "epoch": 0.0075, "grad_norm": 76.0, "learning_rate": 0.000182, "loss": 0.458, "step": 450 }, { "epoch": 0.008333333333333333, "grad_norm": 1.390625, "learning_rate": 0.00018, "loss": 0.6543, "step": 500 }, { "epoch": 0.009166666666666667, "grad_norm": 22.375, "learning_rate": 0.00017800000000000002, "loss": 0.6353, "step": 550 }, { "epoch": 0.01, "grad_norm": 0.03076171875, "learning_rate": 0.00017600000000000002, "loss": 0.8237, "step": 600 }, { "epoch": 0.010833333333333334, "grad_norm": 0.06591796875, "learning_rate": 0.000174, "loss": 0.578, "step": 650 }, { "epoch": 0.011666666666666667, "grad_norm": 0.2001953125, "learning_rate": 0.000172, "loss": 0.6739, "step": 700 }, { "epoch": 0.0125, "grad_norm": 0.322265625, "learning_rate": 0.00017, "loss": 0.7761, "step": 750 }, { "epoch": 0.013333333333333334, "grad_norm": 0.01080322265625, "learning_rate": 0.000168, "loss": 0.8068, "step": 800 }, { "epoch": 0.014166666666666666, "grad_norm": 18.625, "learning_rate": 0.000166, "loss": 0.6739, "step": 850 }, { "epoch": 0.015, "grad_norm": 26.125, "learning_rate": 0.000164, "loss": 0.6821, "step": 900 }, { "epoch": 0.015833333333333335, "grad_norm": 0.1298828125, "learning_rate": 0.000162, "loss": 0.8475, "step": 950 }, { "epoch": 0.016666666666666666, "grad_norm": 25.75, "learning_rate": 0.00016, "loss": 0.9896, "step": 1000 }, { "epoch": 0.0175, "grad_norm": 8.25, "learning_rate": 0.00015800000000000002, "loss": 0.6266, "step": 1050 }, { "epoch": 0.018333333333333333, "grad_norm": 49.25, "learning_rate": 0.00015600000000000002, "loss": 0.8616, "step": 1100 }, { "epoch": 0.019166666666666665, "grad_norm": 1.875, "learning_rate": 0.000154, "loss": 0.7978, "step": 1150 }, { "epoch": 0.02, "grad_norm": 0.31640625, "learning_rate": 0.000152, "loss": 0.4696, "step": 1200 }, { "epoch": 0.020833333333333332, "grad_norm": 7.84375, "learning_rate": 0.00015000000000000001, "loss": 0.7754, "step": 1250 }, { "epoch": 0.021666666666666667, "grad_norm": 0.034912109375, "learning_rate": 0.000148, "loss": 0.6183, "step": 1300 }, { "epoch": 0.0225, "grad_norm": 15.875, "learning_rate": 0.000146, "loss": 0.8154, "step": 1350 }, { "epoch": 0.023333333333333334, "grad_norm": 0.1328125, "learning_rate": 0.000144, "loss": 0.5698, "step": 1400 }, { "epoch": 0.024166666666666666, "grad_norm": 0.52734375, "learning_rate": 0.000142, "loss": 0.492, "step": 1450 }, { "epoch": 0.025, "grad_norm": 4.28125, "learning_rate": 0.00014, "loss": 0.9117, "step": 1500 }, { "epoch": 0.025833333333333333, "grad_norm": 1.2421875, "learning_rate": 0.000138, "loss": 0.359, "step": 1550 }, { "epoch": 0.02666666666666667, "grad_norm": 0.0220947265625, "learning_rate": 0.00013600000000000003, "loss": 0.6458, "step": 1600 }, { "epoch": 0.0275, "grad_norm": 0.030517578125, "learning_rate": 0.000134, "loss": 0.7243, "step": 1650 }, { "epoch": 0.028333333333333332, "grad_norm": 0.0113525390625, "learning_rate": 0.000132, "loss": 0.6891, "step": 1700 }, { "epoch": 0.029166666666666667, "grad_norm": 13.4375, "learning_rate": 0.00013000000000000002, "loss": 0.9589, "step": 1750 }, { "epoch": 0.03, "grad_norm": 5.34375, "learning_rate": 0.00012800000000000002, "loss": 0.5385, "step": 1800 }, { "epoch": 0.030833333333333334, "grad_norm": 0.068359375, "learning_rate": 0.000126, "loss": 0.5747, "step": 1850 }, { "epoch": 0.03166666666666667, "grad_norm": 0.10595703125, "learning_rate": 0.000124, "loss": 0.6705, "step": 1900 }, { "epoch": 0.0325, "grad_norm": 28.875, "learning_rate": 0.000122, "loss": 0.6086, "step": 1950 }, { "epoch": 0.03333333333333333, "grad_norm": 1.0234375, "learning_rate": 0.00012, "loss": 0.7759, "step": 2000 }, { "epoch": 0.034166666666666665, "grad_norm": 21.375, "learning_rate": 0.000118, "loss": 0.7259, "step": 2050 }, { "epoch": 0.035, "grad_norm": 22.25, "learning_rate": 0.000116, "loss": 0.5081, "step": 2100 }, { "epoch": 0.035833333333333335, "grad_norm": 0.006378173828125, "learning_rate": 0.00011399999999999999, "loss": 0.5082, "step": 2150 }, { "epoch": 0.03666666666666667, "grad_norm": 14.375, "learning_rate": 0.00011200000000000001, "loss": 0.7479, "step": 2200 }, { "epoch": 0.0375, "grad_norm": 2.375, "learning_rate": 0.00011000000000000002, "loss": 0.488, "step": 2250 }, { "epoch": 0.03833333333333333, "grad_norm": 0.004547119140625, "learning_rate": 0.00010800000000000001, "loss": 0.6451, "step": 2300 }, { "epoch": 0.03916666666666667, "grad_norm": 0.185546875, "learning_rate": 0.00010600000000000002, "loss": 0.4638, "step": 2350 }, { "epoch": 0.04, "grad_norm": 13.8125, "learning_rate": 0.00010400000000000001, "loss": 0.5558, "step": 2400 }, { "epoch": 0.04083333333333333, "grad_norm": 10.1875, "learning_rate": 0.00010200000000000001, "loss": 0.4917, "step": 2450 }, { "epoch": 0.041666666666666664, "grad_norm": 3.0, "learning_rate": 0.0001, "loss": 0.552, "step": 2500 }, { "epoch": 0.0425, "grad_norm": 16.25, "learning_rate": 9.8e-05, "loss": 0.5239, "step": 2550 }, { "epoch": 0.043333333333333335, "grad_norm": 0.00274658203125, "learning_rate": 9.6e-05, "loss": 0.7435, "step": 2600 }, { "epoch": 0.04416666666666667, "grad_norm": 0.00970458984375, "learning_rate": 9.4e-05, "loss": 0.4436, "step": 2650 }, { "epoch": 0.045, "grad_norm": 19.125, "learning_rate": 9.200000000000001e-05, "loss": 0.6534, "step": 2700 }, { "epoch": 0.04583333333333333, "grad_norm": 0.349609375, "learning_rate": 9e-05, "loss": 0.7615, "step": 2750 }, { "epoch": 0.04666666666666667, "grad_norm": 38.25, "learning_rate": 8.800000000000001e-05, "loss": 0.4638, "step": 2800 }, { "epoch": 0.0475, "grad_norm": 8.5625, "learning_rate": 8.6e-05, "loss": 0.5256, "step": 2850 }, { "epoch": 0.04833333333333333, "grad_norm": 2.9375, "learning_rate": 8.4e-05, "loss": 0.63, "step": 2900 }, { "epoch": 0.049166666666666664, "grad_norm": 0.2294921875, "learning_rate": 8.2e-05, "loss": 0.4022, "step": 2950 }, { "epoch": 0.05, "grad_norm": 7.0, "learning_rate": 8e-05, "loss": 0.5011, "step": 3000 }, { "epoch": 0.050833333333333335, "grad_norm": 0.2041015625, "learning_rate": 7.800000000000001e-05, "loss": 0.7788, "step": 3050 }, { "epoch": 0.051666666666666666, "grad_norm": 21.625, "learning_rate": 7.6e-05, "loss": 0.6405, "step": 3100 }, { "epoch": 0.0525, "grad_norm": 10.3125, "learning_rate": 7.4e-05, "loss": 0.5515, "step": 3150 }, { "epoch": 0.05333333333333334, "grad_norm": 26.875, "learning_rate": 7.2e-05, "loss": 0.5192, "step": 3200 }, { "epoch": 0.05416666666666667, "grad_norm": 0.38671875, "learning_rate": 7e-05, "loss": 0.4878, "step": 3250 }, { "epoch": 0.055, "grad_norm": 35.5, "learning_rate": 6.800000000000001e-05, "loss": 0.5288, "step": 3300 }, { "epoch": 0.05583333333333333, "grad_norm": 0.0029144287109375, "learning_rate": 6.6e-05, "loss": 0.4894, "step": 3350 }, { "epoch": 0.056666666666666664, "grad_norm": 0.1865234375, "learning_rate": 6.400000000000001e-05, "loss": 0.5612, "step": 3400 }, { "epoch": 0.0575, "grad_norm": 4.9375, "learning_rate": 6.2e-05, "loss": 0.4287, "step": 3450 }, { "epoch": 0.058333333333333334, "grad_norm": 0.00689697265625, "learning_rate": 6e-05, "loss": 0.8378, "step": 3500 }, { "epoch": 0.059166666666666666, "grad_norm": 20.5, "learning_rate": 5.8e-05, "loss": 0.5621, "step": 3550 }, { "epoch": 0.06, "grad_norm": 0.00091552734375, "learning_rate": 5.6000000000000006e-05, "loss": 0.8638, "step": 3600 }, { "epoch": 0.060833333333333336, "grad_norm": 0.55078125, "learning_rate": 5.4000000000000005e-05, "loss": 0.4878, "step": 3650 }, { "epoch": 0.06166666666666667, "grad_norm": 0.12158203125, "learning_rate": 5.2000000000000004e-05, "loss": 0.7143, "step": 3700 }, { "epoch": 0.0625, "grad_norm": 5.46875, "learning_rate": 5e-05, "loss": 0.5431, "step": 3750 }, { "epoch": 0.06333333333333334, "grad_norm": 4.5625, "learning_rate": 4.8e-05, "loss": 0.4733, "step": 3800 }, { "epoch": 0.06416666666666666, "grad_norm": 5.75, "learning_rate": 4.600000000000001e-05, "loss": 0.3908, "step": 3850 }, { "epoch": 0.065, "grad_norm": 23.875, "learning_rate": 4.4000000000000006e-05, "loss": 0.5428, "step": 3900 }, { "epoch": 0.06583333333333333, "grad_norm": 4.8125, "learning_rate": 4.2e-05, "loss": 0.4799, "step": 3950 }, { "epoch": 0.06666666666666667, "grad_norm": 22.75, "learning_rate": 4e-05, "loss": 0.6475, "step": 4000 }, { "epoch": 0.0675, "grad_norm": 27.375, "learning_rate": 3.8e-05, "loss": 0.4191, "step": 4050 }, { "epoch": 0.06833333333333333, "grad_norm": 1.9765625, "learning_rate": 3.6e-05, "loss": 0.5826, "step": 4100 }, { "epoch": 0.06916666666666667, "grad_norm": 91.5, "learning_rate": 3.4000000000000007e-05, "loss": 0.6402, "step": 4150 }, { "epoch": 0.07, "grad_norm": 10.4375, "learning_rate": 3.2000000000000005e-05, "loss": 0.4715, "step": 4200 }, { "epoch": 0.07083333333333333, "grad_norm": 0.00872802734375, "learning_rate": 3e-05, "loss": 0.8909, "step": 4250 }, { "epoch": 0.07166666666666667, "grad_norm": 18.125, "learning_rate": 2.8000000000000003e-05, "loss": 0.5153, "step": 4300 }, { "epoch": 0.0725, "grad_norm": 0.06982421875, "learning_rate": 2.6000000000000002e-05, "loss": 0.9463, "step": 4350 }, { "epoch": 0.07333333333333333, "grad_norm": 0.2138671875, "learning_rate": 2.4e-05, "loss": 0.6591, "step": 4400 }, { "epoch": 0.07416666666666667, "grad_norm": 1.90625, "learning_rate": 2.2000000000000003e-05, "loss": 0.547, "step": 4450 }, { "epoch": 0.075, "grad_norm": 0.053955078125, "learning_rate": 2e-05, "loss": 0.599, "step": 4500 }, { "epoch": 0.07583333333333334, "grad_norm": 11.8125, "learning_rate": 1.8e-05, "loss": 0.3956, "step": 4550 }, { "epoch": 0.07666666666666666, "grad_norm": 0.74609375, "learning_rate": 1.6000000000000003e-05, "loss": 0.6211, "step": 4600 }, { "epoch": 0.0775, "grad_norm": 16.375, "learning_rate": 1.4000000000000001e-05, "loss": 0.5095, "step": 4650 }, { "epoch": 0.07833333333333334, "grad_norm": 0.00604248046875, "learning_rate": 1.2e-05, "loss": 0.3909, "step": 4700 }, { "epoch": 0.07916666666666666, "grad_norm": 0.0206298828125, "learning_rate": 1e-05, "loss": 0.2979, "step": 4750 }, { "epoch": 0.08, "grad_norm": 0.76953125, "learning_rate": 8.000000000000001e-06, "loss": 0.6892, "step": 4800 }, { "epoch": 0.08083333333333333, "grad_norm": 0.17578125, "learning_rate": 6e-06, "loss": 0.6303, "step": 4850 }, { "epoch": 0.08166666666666667, "grad_norm": 17.75, "learning_rate": 4.000000000000001e-06, "loss": 0.4267, "step": 4900 }, { "epoch": 0.0825, "grad_norm": 0.546875, "learning_rate": 2.0000000000000003e-06, "loss": 0.4017, "step": 4950 }, { "epoch": 0.08333333333333333, "grad_norm": 20.25, "learning_rate": 0.0, "loss": 0.6078, "step": 5000 } ], "logging_steps": 50, "max_steps": 5000, "num_input_tokens_seen": 0, "num_train_epochs": 1, "save_steps": 1000, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 1.602553166401536e+16, "train_batch_size": 1, "trial_name": null, "trial_params": null }