{ "best_metric": null, "best_model_checkpoint": null, "epoch": 4.166666666666667, "eval_steps": 500, "global_step": 5000, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.041666666666666664, "grad_norm": 7.90625, "learning_rate": 0.00019800000000000002, "loss": 1.2134, "step": 50 }, { "epoch": 0.08333333333333333, "grad_norm": 1.4140625, "learning_rate": 0.000196, "loss": 0.4906, "step": 100 }, { "epoch": 0.125, "grad_norm": 2.546875, "learning_rate": 0.000194, "loss": 0.5065, "step": 150 }, { "epoch": 0.16666666666666666, "grad_norm": 42.0, "learning_rate": 0.000192, "loss": 0.7687, "step": 200 }, { "epoch": 0.20833333333333334, "grad_norm": 19.375, "learning_rate": 0.00019, "loss": 0.8178, "step": 250 }, { "epoch": 0.25, "grad_norm": 1.140625, "learning_rate": 0.000188, "loss": 0.6315, "step": 300 }, { "epoch": 0.2916666666666667, "grad_norm": 1.2890625, "learning_rate": 0.00018600000000000002, "loss": 0.4244, "step": 350 }, { "epoch": 0.3333333333333333, "grad_norm": 7.09375, "learning_rate": 0.00018400000000000003, "loss": 0.471, "step": 400 }, { "epoch": 0.375, "grad_norm": 15.6875, "learning_rate": 0.000182, "loss": 0.4798, "step": 450 }, { "epoch": 0.4166666666666667, "grad_norm": 0.16796875, "learning_rate": 0.00018, "loss": 0.5175, "step": 500 }, { "epoch": 0.4583333333333333, "grad_norm": 4.6875, "learning_rate": 0.00017800000000000002, "loss": 0.6152, "step": 550 }, { "epoch": 0.5, "grad_norm": 1.09375, "learning_rate": 0.00017600000000000002, "loss": 0.7844, "step": 600 }, { "epoch": 0.5416666666666666, "grad_norm": 1.59375, "learning_rate": 0.000174, "loss": 0.5101, "step": 650 }, { "epoch": 0.5833333333333334, "grad_norm": 8.0, "learning_rate": 0.000172, "loss": 0.6347, "step": 700 }, { "epoch": 0.625, "grad_norm": 2.09375, "learning_rate": 0.00017, "loss": 0.5082, "step": 750 }, { "epoch": 0.6666666666666666, "grad_norm": 3.765625, "learning_rate": 0.000168, "loss": 0.7331, "step": 800 }, { "epoch": 0.7083333333333334, "grad_norm": 1.9765625, "learning_rate": 0.000166, "loss": 0.7218, "step": 850 }, { "epoch": 0.75, "grad_norm": 1.4296875, "learning_rate": 0.000164, "loss": 0.7848, "step": 900 }, { "epoch": 0.7916666666666666, "grad_norm": 2.203125, "learning_rate": 0.000162, "loss": 0.7096, "step": 950 }, { "epoch": 0.8333333333333334, "grad_norm": 9.9375, "learning_rate": 0.00016, "loss": 0.7425, "step": 1000 }, { "epoch": 0.875, "grad_norm": 0.87890625, "learning_rate": 0.00015800000000000002, "loss": 0.7624, "step": 1050 }, { "epoch": 0.9166666666666666, "grad_norm": 0.70703125, "learning_rate": 0.00015600000000000002, "loss": 0.7026, "step": 1100 }, { "epoch": 0.9583333333333334, "grad_norm": 1.171875, "learning_rate": 0.000154, "loss": 0.4579, "step": 1150 }, { "epoch": 1.0, "grad_norm": 1.9453125, "learning_rate": 0.000152, "loss": 0.4458, "step": 1200 }, { "epoch": 1.0416666666666667, "grad_norm": 2.28125, "learning_rate": 0.00015000000000000001, "loss": 0.4223, "step": 1250 }, { "epoch": 1.0833333333333333, "grad_norm": 12.5, "learning_rate": 0.000148, "loss": 0.6185, "step": 1300 }, { "epoch": 1.125, "grad_norm": 6.5, "learning_rate": 0.000146, "loss": 0.5161, "step": 1350 }, { "epoch": 1.1666666666666667, "grad_norm": 2.359375, "learning_rate": 0.000144, "loss": 0.4691, "step": 1400 }, { "epoch": 1.2083333333333333, "grad_norm": 9.375, "learning_rate": 0.000142, "loss": 0.4036, "step": 1450 }, { "epoch": 1.25, "grad_norm": 1.3125, "learning_rate": 0.00014, "loss": 0.4297, "step": 1500 }, { "epoch": 1.2916666666666667, "grad_norm": 0.765625, "learning_rate": 0.000138, "loss": 0.6732, "step": 1550 }, { "epoch": 1.3333333333333333, "grad_norm": 2.0, "learning_rate": 0.00013600000000000003, "loss": 0.8978, "step": 1600 }, { "epoch": 1.375, "grad_norm": 63.25, "learning_rate": 0.000134, "loss": 0.5804, "step": 1650 }, { "epoch": 1.4166666666666667, "grad_norm": 4.53125, "learning_rate": 0.000132, "loss": 0.4809, "step": 1700 }, { "epoch": 1.4583333333333333, "grad_norm": 5.25, "learning_rate": 0.00013000000000000002, "loss": 1.1303, "step": 1750 }, { "epoch": 1.5, "grad_norm": 1.1484375, "learning_rate": 0.00012800000000000002, "loss": 0.4219, "step": 1800 }, { "epoch": 1.5416666666666665, "grad_norm": 7.65625, "learning_rate": 0.000126, "loss": 0.5224, "step": 1850 }, { "epoch": 1.5833333333333335, "grad_norm": 6.53125, "learning_rate": 0.000124, "loss": 0.8431, "step": 1900 }, { "epoch": 1.625, "grad_norm": 0.5703125, "learning_rate": 0.000122, "loss": 0.5284, "step": 1950 }, { "epoch": 1.6666666666666665, "grad_norm": 2.75, "learning_rate": 0.00012, "loss": 0.5066, "step": 2000 }, { "epoch": 1.7083333333333335, "grad_norm": 1.3046875, "learning_rate": 0.000118, "loss": 0.4257, "step": 2050 }, { "epoch": 1.75, "grad_norm": 1.6484375, "learning_rate": 0.000116, "loss": 0.4326, "step": 2100 }, { "epoch": 1.7916666666666665, "grad_norm": 0.859375, "learning_rate": 0.00011399999999999999, "loss": 0.3688, "step": 2150 }, { "epoch": 1.8333333333333335, "grad_norm": 0.890625, "learning_rate": 0.00011200000000000001, "loss": 0.3936, "step": 2200 }, { "epoch": 1.875, "grad_norm": 0.75390625, "learning_rate": 0.00011000000000000002, "loss": 0.3488, "step": 2250 }, { "epoch": 1.9166666666666665, "grad_norm": 0.5546875, "learning_rate": 0.00010800000000000001, "loss": 0.3755, "step": 2300 }, { "epoch": 1.9583333333333335, "grad_norm": 0.91015625, "learning_rate": 0.00010600000000000002, "loss": 0.3699, "step": 2350 }, { "epoch": 2.0, "grad_norm": 1.265625, "learning_rate": 0.00010400000000000001, "loss": 0.3919, "step": 2400 }, { "epoch": 2.0416666666666665, "grad_norm": 2.578125, "learning_rate": 0.00010200000000000001, "loss": 0.5215, "step": 2450 }, { "epoch": 2.0833333333333335, "grad_norm": 350.0, "learning_rate": 0.0001, "loss": 0.8757, "step": 2500 }, { "epoch": 2.125, "grad_norm": 15.25, "learning_rate": 9.8e-05, "loss": 1.2043, "step": 2550 }, { "epoch": 2.1666666666666665, "grad_norm": 1.2421875, "learning_rate": 9.6e-05, "loss": 0.5678, "step": 2600 }, { "epoch": 2.2083333333333335, "grad_norm": 0.96484375, "learning_rate": 9.4e-05, "loss": 0.3555, "step": 2650 }, { "epoch": 2.25, "grad_norm": 1.90625, "learning_rate": 9.200000000000001e-05, "loss": 0.4078, "step": 2700 }, { "epoch": 2.2916666666666665, "grad_norm": 1.375, "learning_rate": 9e-05, "loss": 0.3727, "step": 2750 }, { "epoch": 2.3333333333333335, "grad_norm": 1.3203125, "learning_rate": 8.800000000000001e-05, "loss": 0.374, "step": 2800 }, { "epoch": 2.375, "grad_norm": 0.90625, "learning_rate": 8.6e-05, "loss": 0.3944, "step": 2850 }, { "epoch": 2.4166666666666665, "grad_norm": 0.96484375, "learning_rate": 8.4e-05, "loss": 0.3569, "step": 2900 }, { "epoch": 2.4583333333333335, "grad_norm": 1.1328125, "learning_rate": 8.2e-05, "loss": 0.3908, "step": 2950 }, { "epoch": 2.5, "grad_norm": 0.87109375, "learning_rate": 8e-05, "loss": 0.3557, "step": 3000 }, { "epoch": 2.5416666666666665, "grad_norm": 0.87890625, "learning_rate": 7.800000000000001e-05, "loss": 0.3562, "step": 3050 }, { "epoch": 2.5833333333333335, "grad_norm": 0.84765625, "learning_rate": 7.6e-05, "loss": 0.3673, "step": 3100 }, { "epoch": 2.625, "grad_norm": 1.125, "learning_rate": 7.4e-05, "loss": 0.3559, "step": 3150 }, { "epoch": 2.6666666666666665, "grad_norm": 3.546875, "learning_rate": 7.2e-05, "loss": 0.3471, "step": 3200 }, { "epoch": 2.7083333333333335, "grad_norm": 0.73828125, "learning_rate": 7e-05, "loss": 0.5016, "step": 3250 }, { "epoch": 2.75, "grad_norm": 0.95703125, "learning_rate": 6.800000000000001e-05, "loss": 0.4345, "step": 3300 }, { "epoch": 2.7916666666666665, "grad_norm": 1.203125, "learning_rate": 6.6e-05, "loss": 0.3634, "step": 3350 }, { "epoch": 2.8333333333333335, "grad_norm": 1.1953125, "learning_rate": 6.400000000000001e-05, "loss": 0.6922, "step": 3400 }, { "epoch": 2.875, "grad_norm": 4.8125, "learning_rate": 6.2e-05, "loss": 0.4193, "step": 3450 }, { "epoch": 2.9166666666666665, "grad_norm": 1.265625, "learning_rate": 6e-05, "loss": 0.4503, "step": 3500 }, { "epoch": 2.9583333333333335, "grad_norm": 1.46875, "learning_rate": 5.8e-05, "loss": 0.4301, "step": 3550 }, { "epoch": 3.0, "grad_norm": 4.25, "learning_rate": 5.6000000000000006e-05, "loss": 0.3711, "step": 3600 }, { "epoch": 3.0416666666666665, "grad_norm": 5.21875, "learning_rate": 5.4000000000000005e-05, "loss": 0.5275, "step": 3650 }, { "epoch": 3.0833333333333335, "grad_norm": 0.8046875, "learning_rate": 5.2000000000000004e-05, "loss": 0.4834, "step": 3700 }, { "epoch": 3.125, "grad_norm": 1.171875, "learning_rate": 5e-05, "loss": 0.4279, "step": 3750 }, { "epoch": 3.1666666666666665, "grad_norm": 1.6875, "learning_rate": 4.8e-05, "loss": 0.3534, "step": 3800 }, { "epoch": 3.2083333333333335, "grad_norm": 3.8125, "learning_rate": 4.600000000000001e-05, "loss": 0.3462, "step": 3850 }, { "epoch": 3.25, "grad_norm": 5.46875, "learning_rate": 4.4000000000000006e-05, "loss": 0.3674, "step": 3900 }, { "epoch": 3.2916666666666665, "grad_norm": 1.6328125, "learning_rate": 4.2e-05, "loss": 0.3565, "step": 3950 }, { "epoch": 3.3333333333333335, "grad_norm": 1.1953125, "learning_rate": 4e-05, "loss": 0.3759, "step": 4000 }, { "epoch": 3.375, "grad_norm": 1.609375, "learning_rate": 3.8e-05, "loss": 0.3553, "step": 4050 }, { "epoch": 3.4166666666666665, "grad_norm": 1.296875, "learning_rate": 3.6e-05, "loss": 0.3578, "step": 4100 }, { "epoch": 3.4583333333333335, "grad_norm": 1.140625, "learning_rate": 3.4000000000000007e-05, "loss": 0.3524, "step": 4150 }, { "epoch": 3.5, "grad_norm": 1.1796875, "learning_rate": 3.2000000000000005e-05, "loss": 0.3391, "step": 4200 }, { "epoch": 3.5416666666666665, "grad_norm": 1.0546875, "learning_rate": 3e-05, "loss": 0.3531, "step": 4250 }, { "epoch": 3.5833333333333335, "grad_norm": 2.828125, "learning_rate": 2.8000000000000003e-05, "loss": 0.3629, "step": 4300 }, { "epoch": 3.625, "grad_norm": 2.390625, "learning_rate": 2.6000000000000002e-05, "loss": 0.3879, "step": 4350 }, { "epoch": 3.6666666666666665, "grad_norm": 2.46875, "learning_rate": 2.4e-05, "loss": 0.3868, "step": 4400 }, { "epoch": 3.7083333333333335, "grad_norm": 2.96875, "learning_rate": 2.2000000000000003e-05, "loss": 0.3823, "step": 4450 }, { "epoch": 3.75, "grad_norm": 2.71875, "learning_rate": 2e-05, "loss": 0.3739, "step": 4500 }, { "epoch": 3.7916666666666665, "grad_norm": 1.65625, "learning_rate": 1.8e-05, "loss": 0.4181, "step": 4550 }, { "epoch": 3.8333333333333335, "grad_norm": 2.6875, "learning_rate": 1.6000000000000003e-05, "loss": 0.3763, "step": 4600 }, { "epoch": 3.875, "grad_norm": 2.6875, "learning_rate": 1.4000000000000001e-05, "loss": 0.4203, "step": 4650 }, { "epoch": 3.9166666666666665, "grad_norm": 2.84375, "learning_rate": 1.2e-05, "loss": 0.4285, "step": 4700 }, { "epoch": 3.9583333333333335, "grad_norm": 1.46875, "learning_rate": 1e-05, "loss": 0.4299, "step": 4750 }, { "epoch": 4.0, "grad_norm": 3.15625, "learning_rate": 8.000000000000001e-06, "loss": 0.3914, "step": 4800 }, { "epoch": 4.041666666666667, "grad_norm": 2.625, "learning_rate": 6e-06, "loss": 0.376, "step": 4850 }, { "epoch": 4.083333333333333, "grad_norm": 1.421875, "learning_rate": 4.000000000000001e-06, "loss": 0.4147, "step": 4900 }, { "epoch": 4.125, "grad_norm": 1.4609375, "learning_rate": 2.0000000000000003e-06, "loss": 0.3372, "step": 4950 }, { "epoch": 4.166666666666667, "grad_norm": 1.40625, "learning_rate": 0.0, "loss": 0.4314, "step": 5000 } ], "logging_steps": 50, "max_steps": 5000, "num_input_tokens_seen": 0, "num_train_epochs": 5, "save_steps": 1000, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 2.195523116752896e+16, "train_batch_size": 1, "trial_name": null, "trial_params": null }