| { |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 0.08333333333333333, |
| "eval_steps": 500, |
| "global_step": 5000, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.0008333333333333334, |
| "grad_norm": 0.95703125, |
| "learning_rate": 0.00019800000000000002, |
| "loss": 1.1503, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.0016666666666666668, |
| "grad_norm": 4.625, |
| "learning_rate": 0.000196, |
| "loss": 0.5667, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.0025, |
| "grad_norm": 3.671875, |
| "learning_rate": 0.000194, |
| "loss": 0.5166, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.0033333333333333335, |
| "grad_norm": 0.4453125, |
| "learning_rate": 0.000192, |
| "loss": 0.3931, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.004166666666666667, |
| "grad_norm": 1.4140625, |
| "learning_rate": 0.00019, |
| "loss": 0.4963, |
| "step": 250 |
| }, |
| { |
| "epoch": 0.005, |
| "grad_norm": 0.07421875, |
| "learning_rate": 0.000188, |
| "loss": 0.6768, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.005833333333333334, |
| "grad_norm": 1.5625, |
| "learning_rate": 0.00018600000000000002, |
| "loss": 0.6874, |
| "step": 350 |
| }, |
| { |
| "epoch": 0.006666666666666667, |
| "grad_norm": 19.5, |
| "learning_rate": 0.00018400000000000003, |
| "loss": 0.55, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.0075, |
| "grad_norm": 6.84375, |
| "learning_rate": 0.000182, |
| "loss": 0.6246, |
| "step": 450 |
| }, |
| { |
| "epoch": 0.008333333333333333, |
| "grad_norm": 0.023681640625, |
| "learning_rate": 0.00018, |
| "loss": 0.3564, |
| "step": 500 |
| }, |
| { |
| "epoch": 0.009166666666666667, |
| "grad_norm": 11.8125, |
| "learning_rate": 0.00017800000000000002, |
| "loss": 0.4248, |
| "step": 550 |
| }, |
| { |
| "epoch": 0.01, |
| "grad_norm": 15.6875, |
| "learning_rate": 0.00017600000000000002, |
| "loss": 0.5233, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.010833333333333334, |
| "grad_norm": 0.40234375, |
| "learning_rate": 0.000174, |
| "loss": 0.4452, |
| "step": 650 |
| }, |
| { |
| "epoch": 0.011666666666666667, |
| "grad_norm": 54.25, |
| "learning_rate": 0.000172, |
| "loss": 0.4165, |
| "step": 700 |
| }, |
| { |
| "epoch": 0.0125, |
| "grad_norm": 7.15625, |
| "learning_rate": 0.00017, |
| "loss": 0.4247, |
| "step": 750 |
| }, |
| { |
| "epoch": 0.013333333333333334, |
| "grad_norm": 54.25, |
| "learning_rate": 0.000168, |
| "loss": 0.3064, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.014166666666666666, |
| "grad_norm": 13.4375, |
| "learning_rate": 0.000166, |
| "loss": 0.3452, |
| "step": 850 |
| }, |
| { |
| "epoch": 0.015, |
| "grad_norm": 0.02001953125, |
| "learning_rate": 0.000164, |
| "loss": 0.2933, |
| "step": 900 |
| }, |
| { |
| "epoch": 0.015833333333333335, |
| "grad_norm": 0.1611328125, |
| "learning_rate": 0.000162, |
| "loss": 0.3751, |
| "step": 950 |
| }, |
| { |
| "epoch": 0.016666666666666666, |
| "grad_norm": 0.02783203125, |
| "learning_rate": 0.00016, |
| "loss": 0.3578, |
| "step": 1000 |
| }, |
| { |
| "epoch": 0.0175, |
| "grad_norm": 0.1708984375, |
| "learning_rate": 0.00015800000000000002, |
| "loss": 0.345, |
| "step": 1050 |
| }, |
| { |
| "epoch": 0.018333333333333333, |
| "grad_norm": 0.006683349609375, |
| "learning_rate": 0.00015600000000000002, |
| "loss": 0.2053, |
| "step": 1100 |
| }, |
| { |
| "epoch": 0.019166666666666665, |
| "grad_norm": 0.080078125, |
| "learning_rate": 0.000154, |
| "loss": 0.2569, |
| "step": 1150 |
| }, |
| { |
| "epoch": 0.02, |
| "grad_norm": 0.0167236328125, |
| "learning_rate": 0.000152, |
| "loss": 0.3688, |
| "step": 1200 |
| }, |
| { |
| "epoch": 0.020833333333333332, |
| "grad_norm": 0.0693359375, |
| "learning_rate": 0.00015000000000000001, |
| "loss": 0.3488, |
| "step": 1250 |
| }, |
| { |
| "epoch": 0.021666666666666667, |
| "grad_norm": 0.166015625, |
| "learning_rate": 0.000148, |
| "loss": 0.2419, |
| "step": 1300 |
| }, |
| { |
| "epoch": 0.0225, |
| "grad_norm": 0.39453125, |
| "learning_rate": 0.000146, |
| "loss": 0.3585, |
| "step": 1350 |
| }, |
| { |
| "epoch": 0.023333333333333334, |
| "grad_norm": 0.028564453125, |
| "learning_rate": 0.000144, |
| "loss": 0.4089, |
| "step": 1400 |
| }, |
| { |
| "epoch": 0.024166666666666666, |
| "grad_norm": 23.625, |
| "learning_rate": 0.000142, |
| "loss": 0.2496, |
| "step": 1450 |
| }, |
| { |
| "epoch": 0.025, |
| "grad_norm": 0.00518798828125, |
| "learning_rate": 0.00014, |
| "loss": 0.1538, |
| "step": 1500 |
| }, |
| { |
| "epoch": 0.025833333333333333, |
| "grad_norm": 3.328125, |
| "learning_rate": 0.000138, |
| "loss": 0.3858, |
| "step": 1550 |
| }, |
| { |
| "epoch": 0.02666666666666667, |
| "grad_norm": 3.875, |
| "learning_rate": 0.00013600000000000003, |
| "loss": 0.2157, |
| "step": 1600 |
| }, |
| { |
| "epoch": 0.0275, |
| "grad_norm": 0.8515625, |
| "learning_rate": 0.000134, |
| "loss": 0.3297, |
| "step": 1650 |
| }, |
| { |
| "epoch": 0.028333333333333332, |
| "grad_norm": 0.15234375, |
| "learning_rate": 0.000132, |
| "loss": 0.2652, |
| "step": 1700 |
| }, |
| { |
| "epoch": 0.029166666666666667, |
| "grad_norm": 0.0927734375, |
| "learning_rate": 0.00013000000000000002, |
| "loss": 0.3163, |
| "step": 1750 |
| }, |
| { |
| "epoch": 0.03, |
| "grad_norm": 0.251953125, |
| "learning_rate": 0.00012800000000000002, |
| "loss": 0.3789, |
| "step": 1800 |
| }, |
| { |
| "epoch": 0.030833333333333334, |
| "grad_norm": 0.0233154296875, |
| "learning_rate": 0.000126, |
| "loss": 0.2298, |
| "step": 1850 |
| }, |
| { |
| "epoch": 0.03166666666666667, |
| "grad_norm": 13.1875, |
| "learning_rate": 0.000124, |
| "loss": 0.2543, |
| "step": 1900 |
| }, |
| { |
| "epoch": 0.0325, |
| "grad_norm": 0.5234375, |
| "learning_rate": 0.000122, |
| "loss": 0.2731, |
| "step": 1950 |
| }, |
| { |
| "epoch": 0.03333333333333333, |
| "grad_norm": 0.00408935546875, |
| "learning_rate": 0.00012, |
| "loss": 0.2597, |
| "step": 2000 |
| }, |
| { |
| "epoch": 0.034166666666666665, |
| "grad_norm": 0.423828125, |
| "learning_rate": 0.000118, |
| "loss": 0.3013, |
| "step": 2050 |
| }, |
| { |
| "epoch": 0.035, |
| "grad_norm": 0.042236328125, |
| "learning_rate": 0.000116, |
| "loss": 0.1322, |
| "step": 2100 |
| }, |
| { |
| "epoch": 0.035833333333333335, |
| "grad_norm": 11.0, |
| "learning_rate": 0.00011399999999999999, |
| "loss": 0.2542, |
| "step": 2150 |
| }, |
| { |
| "epoch": 0.03666666666666667, |
| "grad_norm": 0.02734375, |
| "learning_rate": 0.00011200000000000001, |
| "loss": 0.4337, |
| "step": 2200 |
| }, |
| { |
| "epoch": 0.0375, |
| "grad_norm": 0.0021514892578125, |
| "learning_rate": 0.00011000000000000002, |
| "loss": 0.0994, |
| "step": 2250 |
| }, |
| { |
| "epoch": 0.03833333333333333, |
| "grad_norm": 0.1572265625, |
| "learning_rate": 0.00010800000000000001, |
| "loss": 0.3659, |
| "step": 2300 |
| }, |
| { |
| "epoch": 0.03916666666666667, |
| "grad_norm": 0.11572265625, |
| "learning_rate": 0.00010600000000000002, |
| "loss": 0.2116, |
| "step": 2350 |
| }, |
| { |
| "epoch": 0.04, |
| "grad_norm": 0.31640625, |
| "learning_rate": 0.00010400000000000001, |
| "loss": 0.2245, |
| "step": 2400 |
| }, |
| { |
| "epoch": 0.04083333333333333, |
| "grad_norm": 0.91015625, |
| "learning_rate": 0.00010200000000000001, |
| "loss": 0.2999, |
| "step": 2450 |
| }, |
| { |
| "epoch": 0.041666666666666664, |
| "grad_norm": 0.1005859375, |
| "learning_rate": 0.0001, |
| "loss": 0.3027, |
| "step": 2500 |
| }, |
| { |
| "epoch": 0.0425, |
| "grad_norm": 4.1875, |
| "learning_rate": 9.8e-05, |
| "loss": 0.2227, |
| "step": 2550 |
| }, |
| { |
| "epoch": 0.043333333333333335, |
| "grad_norm": 0.0048828125, |
| "learning_rate": 9.6e-05, |
| "loss": 0.1336, |
| "step": 2600 |
| }, |
| { |
| "epoch": 0.04416666666666667, |
| "grad_norm": 0.07470703125, |
| "learning_rate": 9.4e-05, |
| "loss": 0.2866, |
| "step": 2650 |
| }, |
| { |
| "epoch": 0.045, |
| "grad_norm": 0.11083984375, |
| "learning_rate": 9.200000000000001e-05, |
| "loss": 0.3085, |
| "step": 2700 |
| }, |
| { |
| "epoch": 0.04583333333333333, |
| "grad_norm": 1.03125, |
| "learning_rate": 9e-05, |
| "loss": 0.1202, |
| "step": 2750 |
| }, |
| { |
| "epoch": 0.04666666666666667, |
| "grad_norm": 0.00396728515625, |
| "learning_rate": 8.800000000000001e-05, |
| "loss": 0.195, |
| "step": 2800 |
| }, |
| { |
| "epoch": 0.0475, |
| "grad_norm": 0.2216796875, |
| "learning_rate": 8.6e-05, |
| "loss": 0.2684, |
| "step": 2850 |
| }, |
| { |
| "epoch": 0.04833333333333333, |
| "grad_norm": 0.00360107421875, |
| "learning_rate": 8.4e-05, |
| "loss": 0.1777, |
| "step": 2900 |
| }, |
| { |
| "epoch": 0.049166666666666664, |
| "grad_norm": 0.125, |
| "learning_rate": 8.2e-05, |
| "loss": 0.1863, |
| "step": 2950 |
| }, |
| { |
| "epoch": 0.05, |
| "grad_norm": 0.0045166015625, |
| "learning_rate": 8e-05, |
| "loss": 0.2743, |
| "step": 3000 |
| }, |
| { |
| "epoch": 0.050833333333333335, |
| "grad_norm": 1.90625, |
| "learning_rate": 7.800000000000001e-05, |
| "loss": 0.1456, |
| "step": 3050 |
| }, |
| { |
| "epoch": 0.051666666666666666, |
| "grad_norm": 0.0184326171875, |
| "learning_rate": 7.6e-05, |
| "loss": 0.1578, |
| "step": 3100 |
| }, |
| { |
| "epoch": 0.0525, |
| "grad_norm": 0.57421875, |
| "learning_rate": 7.4e-05, |
| "loss": 0.2315, |
| "step": 3150 |
| }, |
| { |
| "epoch": 0.05333333333333334, |
| "grad_norm": 86.0, |
| "learning_rate": 7.2e-05, |
| "loss": 0.1547, |
| "step": 3200 |
| }, |
| { |
| "epoch": 0.05416666666666667, |
| "grad_norm": 0.000885009765625, |
| "learning_rate": 7e-05, |
| "loss": 0.1715, |
| "step": 3250 |
| }, |
| { |
| "epoch": 0.055, |
| "grad_norm": 0.08544921875, |
| "learning_rate": 6.800000000000001e-05, |
| "loss": 0.2448, |
| "step": 3300 |
| }, |
| { |
| "epoch": 0.05583333333333333, |
| "grad_norm": 0.09619140625, |
| "learning_rate": 6.6e-05, |
| "loss": 0.1649, |
| "step": 3350 |
| }, |
| { |
| "epoch": 0.056666666666666664, |
| "grad_norm": 3.25, |
| "learning_rate": 6.400000000000001e-05, |
| "loss": 0.3058, |
| "step": 3400 |
| }, |
| { |
| "epoch": 0.0575, |
| "grad_norm": 37.5, |
| "learning_rate": 6.2e-05, |
| "loss": 0.2401, |
| "step": 3450 |
| }, |
| { |
| "epoch": 0.058333333333333334, |
| "grad_norm": 0.12255859375, |
| "learning_rate": 6e-05, |
| "loss": 0.3653, |
| "step": 3500 |
| }, |
| { |
| "epoch": 0.059166666666666666, |
| "grad_norm": 12.375, |
| "learning_rate": 5.8e-05, |
| "loss": 0.315, |
| "step": 3550 |
| }, |
| { |
| "epoch": 0.06, |
| "grad_norm": 0.005401611328125, |
| "learning_rate": 5.6000000000000006e-05, |
| "loss": 0.2023, |
| "step": 3600 |
| }, |
| { |
| "epoch": 0.060833333333333336, |
| "grad_norm": 0.0140380859375, |
| "learning_rate": 5.4000000000000005e-05, |
| "loss": 0.1947, |
| "step": 3650 |
| }, |
| { |
| "epoch": 0.06166666666666667, |
| "grad_norm": 0.01312255859375, |
| "learning_rate": 5.2000000000000004e-05, |
| "loss": 0.1466, |
| "step": 3700 |
| }, |
| { |
| "epoch": 0.0625, |
| "grad_norm": 0.0033721923828125, |
| "learning_rate": 5e-05, |
| "loss": 0.1279, |
| "step": 3750 |
| }, |
| { |
| "epoch": 0.06333333333333334, |
| "grad_norm": 0.33984375, |
| "learning_rate": 4.8e-05, |
| "loss": 0.1394, |
| "step": 3800 |
| }, |
| { |
| "epoch": 0.06416666666666666, |
| "grad_norm": 0.2373046875, |
| "learning_rate": 4.600000000000001e-05, |
| "loss": 0.254, |
| "step": 3850 |
| }, |
| { |
| "epoch": 0.065, |
| "grad_norm": 34.0, |
| "learning_rate": 4.4000000000000006e-05, |
| "loss": 0.2435, |
| "step": 3900 |
| }, |
| { |
| "epoch": 0.06583333333333333, |
| "grad_norm": 0.7265625, |
| "learning_rate": 4.2e-05, |
| "loss": 0.1953, |
| "step": 3950 |
| }, |
| { |
| "epoch": 0.06666666666666667, |
| "grad_norm": 0.0081787109375, |
| "learning_rate": 4e-05, |
| "loss": 0.1844, |
| "step": 4000 |
| }, |
| { |
| "epoch": 0.0675, |
| "grad_norm": 0.0020751953125, |
| "learning_rate": 3.8e-05, |
| "loss": 0.1163, |
| "step": 4050 |
| }, |
| { |
| "epoch": 0.06833333333333333, |
| "grad_norm": 0.240234375, |
| "learning_rate": 3.6e-05, |
| "loss": 0.1164, |
| "step": 4100 |
| }, |
| { |
| "epoch": 0.06916666666666667, |
| "grad_norm": 0.0068359375, |
| "learning_rate": 3.4000000000000007e-05, |
| "loss": 0.2638, |
| "step": 4150 |
| }, |
| { |
| "epoch": 0.07, |
| "grad_norm": 0.2890625, |
| "learning_rate": 3.2000000000000005e-05, |
| "loss": 0.268, |
| "step": 4200 |
| }, |
| { |
| "epoch": 0.07083333333333333, |
| "grad_norm": 0.1201171875, |
| "learning_rate": 3e-05, |
| "loss": 0.2047, |
| "step": 4250 |
| }, |
| { |
| "epoch": 0.07166666666666667, |
| "grad_norm": 0.0022125244140625, |
| "learning_rate": 2.8000000000000003e-05, |
| "loss": 0.1238, |
| "step": 4300 |
| }, |
| { |
| "epoch": 0.0725, |
| "grad_norm": 0.10791015625, |
| "learning_rate": 2.6000000000000002e-05, |
| "loss": 0.1013, |
| "step": 4350 |
| }, |
| { |
| "epoch": 0.07333333333333333, |
| "grad_norm": 0.21484375, |
| "learning_rate": 2.4e-05, |
| "loss": 0.308, |
| "step": 4400 |
| }, |
| { |
| "epoch": 0.07416666666666667, |
| "grad_norm": 0.01422119140625, |
| "learning_rate": 2.2000000000000003e-05, |
| "loss": 0.0888, |
| "step": 4450 |
| }, |
| { |
| "epoch": 0.075, |
| "grad_norm": 4.34375, |
| "learning_rate": 2e-05, |
| "loss": 0.2586, |
| "step": 4500 |
| }, |
| { |
| "epoch": 0.07583333333333334, |
| "grad_norm": 0.0196533203125, |
| "learning_rate": 1.8e-05, |
| "loss": 0.1566, |
| "step": 4550 |
| }, |
| { |
| "epoch": 0.07666666666666666, |
| "grad_norm": 0.09619140625, |
| "learning_rate": 1.6000000000000003e-05, |
| "loss": 0.1014, |
| "step": 4600 |
| }, |
| { |
| "epoch": 0.0775, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.4000000000000001e-05, |
| "loss": 0.2788, |
| "step": 4650 |
| }, |
| { |
| "epoch": 0.07833333333333334, |
| "grad_norm": 98.0, |
| "learning_rate": 1.2e-05, |
| "loss": 0.2574, |
| "step": 4700 |
| }, |
| { |
| "epoch": 0.07916666666666666, |
| "grad_norm": 0.02294921875, |
| "learning_rate": 1e-05, |
| "loss": 0.178, |
| "step": 4750 |
| }, |
| { |
| "epoch": 0.08, |
| "grad_norm": 0.123046875, |
| "learning_rate": 8.000000000000001e-06, |
| "loss": 0.1481, |
| "step": 4800 |
| }, |
| { |
| "epoch": 0.08083333333333333, |
| "grad_norm": 0.0048828125, |
| "learning_rate": 6e-06, |
| "loss": 0.4039, |
| "step": 4850 |
| }, |
| { |
| "epoch": 0.08166666666666667, |
| "grad_norm": 0.02685546875, |
| "learning_rate": 4.000000000000001e-06, |
| "loss": 0.2933, |
| "step": 4900 |
| }, |
| { |
| "epoch": 0.0825, |
| "grad_norm": 0.0133056640625, |
| "learning_rate": 2.0000000000000003e-06, |
| "loss": 0.0856, |
| "step": 4950 |
| }, |
| { |
| "epoch": 0.08333333333333333, |
| "grad_norm": 19.25, |
| "learning_rate": 0.0, |
| "loss": 0.2096, |
| "step": 5000 |
| } |
| ], |
| "logging_steps": 50, |
| "max_steps": 5000, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 1, |
| "save_steps": 1000, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": true |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 2.120993514725376e+16, |
| "train_batch_size": 1, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|