{ "best_global_step": null, "best_metric": null, "best_model_checkpoint": null, "epoch": 209.0, "eval_steps": 500, "global_step": 156750, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.013333333333333334, "grad_norm": 82.0, "learning_rate": 1.8e-06, "loss": 1.2343, "step": 10 }, { "epoch": 0.02666666666666667, "grad_norm": 49.25, "learning_rate": 3.8e-06, "loss": 1.0942, "step": 20 }, { "epoch": 0.04, "grad_norm": 25.625, "learning_rate": 5.8e-06, "loss": 1.0664, "step": 30 }, { "epoch": 0.05333333333333334, "grad_norm": 13.0, "learning_rate": 7.8e-06, "loss": 1.0438, "step": 40 }, { "epoch": 0.06666666666666667, "grad_norm": 12.1875, "learning_rate": 9.800000000000001e-06, "loss": 1.0324, "step": 50 }, { "epoch": 0.08, "grad_norm": 7.15625, "learning_rate": 1.18e-05, "loss": 1.0106, "step": 60 }, { "epoch": 0.09333333333333334, "grad_norm": 3.09375, "learning_rate": 1.3800000000000002e-05, "loss": 0.9894, "step": 70 }, { "epoch": 0.10666666666666667, "grad_norm": 9.625, "learning_rate": 1.58e-05, "loss": 0.9425, "step": 80 }, { "epoch": 0.12, "grad_norm": 9.0, "learning_rate": 1.78e-05, "loss": 0.9263, "step": 90 }, { "epoch": 0.13333333333333333, "grad_norm": 4.75, "learning_rate": 1.9800000000000004e-05, "loss": 0.8998, "step": 100 }, { "epoch": 0.14666666666666667, "grad_norm": 45.5, "learning_rate": 2.18e-05, "loss": 0.8843, "step": 110 }, { "epoch": 0.16, "grad_norm": 31.375, "learning_rate": 2.38e-05, "loss": 0.8506, "step": 120 }, { "epoch": 0.17333333333333334, "grad_norm": 25.125, "learning_rate": 2.58e-05, "loss": 0.8153, "step": 130 }, { "epoch": 0.18666666666666668, "grad_norm": 14.0625, "learning_rate": 2.7800000000000005e-05, "loss": 0.8088, "step": 140 }, { "epoch": 0.2, "grad_norm": 24.75, "learning_rate": 2.98e-05, "loss": 0.8438, "step": 150 }, { "epoch": 0.21333333333333335, "grad_norm": 22.625, "learning_rate": 3.18e-05, "loss": 0.8311, "step": 160 }, { "epoch": 0.22666666666666666, "grad_norm": 30.75, "learning_rate": 3.38e-05, "loss": 0.8273, "step": 170 }, { "epoch": 0.24, "grad_norm": 27.5, "learning_rate": 3.58e-05, "loss": 0.7805, "step": 180 }, { "epoch": 0.25333333333333335, "grad_norm": 34.0, "learning_rate": 3.7800000000000004e-05, "loss": 0.8029, "step": 190 }, { "epoch": 0.26666666666666666, "grad_norm": 18.375, "learning_rate": 3.9800000000000005e-05, "loss": 0.7911, "step": 200 }, { "epoch": 0.28, "grad_norm": 22.5, "learning_rate": 4.18e-05, "loss": 0.7984, "step": 210 }, { "epoch": 0.29333333333333333, "grad_norm": 27.375, "learning_rate": 4.38e-05, "loss": 0.7925, "step": 220 }, { "epoch": 0.30666666666666664, "grad_norm": 33.75, "learning_rate": 4.58e-05, "loss": 0.7922, "step": 230 }, { "epoch": 0.32, "grad_norm": 14.0625, "learning_rate": 4.78e-05, "loss": 0.7811, "step": 240 }, { "epoch": 0.3333333333333333, "grad_norm": 21.75, "learning_rate": 4.9800000000000004e-05, "loss": 0.7868, "step": 250 }, { "epoch": 0.3466666666666667, "grad_norm": 22.25, "learning_rate": 5.1800000000000005e-05, "loss": 0.779, "step": 260 }, { "epoch": 0.36, "grad_norm": 27.0, "learning_rate": 5.380000000000001e-05, "loss": 0.7845, "step": 270 }, { "epoch": 0.37333333333333335, "grad_norm": 15.0625, "learning_rate": 5.580000000000001e-05, "loss": 0.7696, "step": 280 }, { "epoch": 0.38666666666666666, "grad_norm": 19.0, "learning_rate": 5.7799999999999995e-05, "loss": 0.7985, "step": 290 }, { "epoch": 0.4, "grad_norm": 21.875, "learning_rate": 5.9800000000000003e-05, "loss": 0.7741, "step": 300 }, { "epoch": 0.41333333333333333, "grad_norm": 26.875, "learning_rate": 6.18e-05, "loss": 0.7867, "step": 310 }, { "epoch": 0.4266666666666667, "grad_norm": 9.1875, "learning_rate": 6.38e-05, "loss": 0.769, "step": 320 }, { "epoch": 0.44, "grad_norm": 13.6875, "learning_rate": 6.58e-05, "loss": 0.7763, "step": 330 }, { "epoch": 0.4533333333333333, "grad_norm": 21.875, "learning_rate": 6.780000000000001e-05, "loss": 0.7886, "step": 340 }, { "epoch": 0.4666666666666667, "grad_norm": 28.375, "learning_rate": 6.98e-05, "loss": 0.7861, "step": 350 }, { "epoch": 0.48, "grad_norm": 21.875, "learning_rate": 7.18e-05, "loss": 0.7589, "step": 360 }, { "epoch": 0.49333333333333335, "grad_norm": 18.5, "learning_rate": 7.38e-05, "loss": 0.7539, "step": 370 }, { "epoch": 0.5066666666666667, "grad_norm": 44.75, "learning_rate": 7.58e-05, "loss": 0.8482, "step": 380 }, { "epoch": 0.52, "grad_norm": 7.4375, "learning_rate": 7.780000000000001e-05, "loss": 0.8062, "step": 390 }, { "epoch": 0.5333333333333333, "grad_norm": 3.0625, "learning_rate": 7.98e-05, "loss": 0.6977, "step": 400 }, { "epoch": 0.5466666666666666, "grad_norm": 9.5625, "learning_rate": 8.18e-05, "loss": 0.7141, "step": 410 }, { "epoch": 0.56, "grad_norm": 1.25, "learning_rate": 8.38e-05, "loss": 0.7087, "step": 420 }, { "epoch": 0.5733333333333334, "grad_norm": 6.59375, "learning_rate": 8.58e-05, "loss": 0.7039, "step": 430 }, { "epoch": 0.5866666666666667, "grad_norm": 6.25, "learning_rate": 8.78e-05, "loss": 0.7091, "step": 440 }, { "epoch": 0.6, "grad_norm": 16.125, "learning_rate": 8.98e-05, "loss": 0.7149, "step": 450 }, { "epoch": 0.6133333333333333, "grad_norm": 3.4375, "learning_rate": 9.180000000000001e-05, "loss": 0.6785, "step": 460 }, { "epoch": 0.6266666666666667, "grad_norm": 6.1875, "learning_rate": 9.38e-05, "loss": 0.6927, "step": 470 }, { "epoch": 0.64, "grad_norm": 15.25, "learning_rate": 9.58e-05, "loss": 0.711, "step": 480 }, { "epoch": 0.6533333333333333, "grad_norm": 8.375, "learning_rate": 9.78e-05, "loss": 0.7107, "step": 490 }, { "epoch": 0.6666666666666666, "grad_norm": 14.25, "learning_rate": 9.98e-05, "loss": 0.6757, "step": 500 }, { "epoch": 0.68, "grad_norm": 16.375, "learning_rate": 9.999999999111143e-05, "loss": 0.6985, "step": 510 }, { "epoch": 0.6933333333333334, "grad_norm": 6.59375, "learning_rate": 9.999999996038552e-05, "loss": 0.692, "step": 520 }, { "epoch": 0.7066666666666667, "grad_norm": 14.0625, "learning_rate": 9.999999990771251e-05, "loss": 0.6882, "step": 530 }, { "epoch": 0.72, "grad_norm": 6.34375, "learning_rate": 9.999999983309243e-05, "loss": 0.7431, "step": 540 }, { "epoch": 0.7333333333333333, "grad_norm": 0.9765625, "learning_rate": 9.999999973652527e-05, "loss": 0.6692, "step": 550 }, { "epoch": 0.7466666666666667, "grad_norm": 1.1484375, "learning_rate": 9.999999961801102e-05, "loss": 0.6604, "step": 560 }, { "epoch": 0.76, "grad_norm": 8.9375, "learning_rate": 9.999999947754969e-05, "loss": 0.6779, "step": 570 }, { "epoch": 0.7733333333333333, "grad_norm": 3.515625, "learning_rate": 9.999999931514127e-05, "loss": 0.6865, "step": 580 }, { "epoch": 0.7866666666666666, "grad_norm": 1.8515625, "learning_rate": 9.999999913078577e-05, "loss": 0.6569, "step": 590 }, { "epoch": 0.8, "grad_norm": 3.625, "learning_rate": 9.99999989244832e-05, "loss": 0.6586, "step": 600 }, { "epoch": 0.8133333333333334, "grad_norm": 1.46875, "learning_rate": 9.999999869623353e-05, "loss": 0.6277, "step": 610 }, { "epoch": 0.8266666666666667, "grad_norm": 2.515625, "learning_rate": 9.999999844603679e-05, "loss": 0.6492, "step": 620 }, { "epoch": 0.84, "grad_norm": 8.5625, "learning_rate": 9.999999817389296e-05, "loss": 0.6523, "step": 630 }, { "epoch": 0.8533333333333334, "grad_norm": 7.25, "learning_rate": 9.999999787980205e-05, "loss": 0.6599, "step": 640 }, { "epoch": 0.8666666666666667, "grad_norm": 6.125, "learning_rate": 9.999999756376406e-05, "loss": 0.6354, "step": 650 }, { "epoch": 0.88, "grad_norm": 1.953125, "learning_rate": 9.999999722577898e-05, "loss": 0.6121, "step": 660 }, { "epoch": 0.8933333333333333, "grad_norm": 2.21875, "learning_rate": 9.999999686584682e-05, "loss": 0.6124, "step": 670 }, { "epoch": 0.9066666666666666, "grad_norm": 2.4375, "learning_rate": 9.999999648396758e-05, "loss": 0.6242, "step": 680 }, { "epoch": 0.92, "grad_norm": 1.7578125, "learning_rate": 9.999999608014126e-05, "loss": 0.6405, "step": 690 }, { "epoch": 0.9333333333333333, "grad_norm": 4.375, "learning_rate": 9.999999565436786e-05, "loss": 0.6125, "step": 700 }, { "epoch": 0.9466666666666667, "grad_norm": 2.671875, "learning_rate": 9.999999520664737e-05, "loss": 0.608, "step": 710 }, { "epoch": 0.96, "grad_norm": 4.9375, "learning_rate": 9.999999473697981e-05, "loss": 0.6109, "step": 720 }, { "epoch": 0.9733333333333334, "grad_norm": 2.359375, "learning_rate": 9.999999424536517e-05, "loss": 0.6087, "step": 730 }, { "epoch": 0.9866666666666667, "grad_norm": 2.03125, "learning_rate": 9.999999373180344e-05, "loss": 0.611, "step": 740 }, { "epoch": 1.0, "grad_norm": 2.921875, "learning_rate": 9.999999319629463e-05, "loss": 0.5944, "step": 750 }, { "epoch": 1.0, "eval_loss": 0.5987275838851929, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3417, "eval_samples_per_second": 1.547, "eval_steps_per_second": 0.097, "step": 750 }, { "epoch": 1.0133333333333334, "grad_norm": 4.4375, "learning_rate": 9.999999263883875e-05, "loss": 0.598, "step": 760 }, { "epoch": 1.0266666666666666, "grad_norm": 4.9375, "learning_rate": 9.999999205943578e-05, "loss": 0.6153, "step": 770 }, { "epoch": 1.04, "grad_norm": 1.375, "learning_rate": 9.999999145808574e-05, "loss": 0.6195, "step": 780 }, { "epoch": 1.0533333333333332, "grad_norm": 6.03125, "learning_rate": 9.999999083478861e-05, "loss": 0.6398, "step": 790 }, { "epoch": 1.0666666666666667, "grad_norm": 2.03125, "learning_rate": 9.999999018954442e-05, "loss": 0.5959, "step": 800 }, { "epoch": 1.08, "grad_norm": 2.015625, "learning_rate": 9.999998952235312e-05, "loss": 0.5994, "step": 810 }, { "epoch": 1.0933333333333333, "grad_norm": 3.703125, "learning_rate": 9.999998883321476e-05, "loss": 0.5854, "step": 820 }, { "epoch": 1.1066666666666667, "grad_norm": 2.21875, "learning_rate": 9.999998812212932e-05, "loss": 0.5716, "step": 830 }, { "epoch": 1.12, "grad_norm": 1.6875, "learning_rate": 9.999998738909681e-05, "loss": 0.5974, "step": 840 }, { "epoch": 1.1333333333333333, "grad_norm": 0.73828125, "learning_rate": 9.999998663411721e-05, "loss": 0.5871, "step": 850 }, { "epoch": 1.1466666666666667, "grad_norm": 6.0, "learning_rate": 9.999998585719054e-05, "loss": 0.6199, "step": 860 }, { "epoch": 1.16, "grad_norm": 3.203125, "learning_rate": 9.999998505831678e-05, "loss": 0.6036, "step": 870 }, { "epoch": 1.1733333333333333, "grad_norm": 3.25, "learning_rate": 9.999998423749596e-05, "loss": 0.5774, "step": 880 }, { "epoch": 1.1866666666666668, "grad_norm": 3.84375, "learning_rate": 9.999998339472806e-05, "loss": 0.5781, "step": 890 }, { "epoch": 1.2, "grad_norm": 2.1875, "learning_rate": 9.999998253001308e-05, "loss": 0.5853, "step": 900 }, { "epoch": 1.2133333333333334, "grad_norm": 4.03125, "learning_rate": 9.999998164335103e-05, "loss": 0.5792, "step": 910 }, { "epoch": 1.2266666666666666, "grad_norm": 3.015625, "learning_rate": 9.999998073474189e-05, "loss": 0.5926, "step": 920 }, { "epoch": 1.24, "grad_norm": 0.83203125, "learning_rate": 9.999997980418569e-05, "loss": 0.5612, "step": 930 }, { "epoch": 1.2533333333333334, "grad_norm": 1.546875, "learning_rate": 9.999997885168242e-05, "loss": 0.5655, "step": 940 }, { "epoch": 1.2666666666666666, "grad_norm": 1.78125, "learning_rate": 9.999997787723206e-05, "loss": 0.558, "step": 950 }, { "epoch": 1.28, "grad_norm": 1.0390625, "learning_rate": 9.999997688083464e-05, "loss": 0.5901, "step": 960 }, { "epoch": 1.2933333333333334, "grad_norm": 1.546875, "learning_rate": 9.999997586249014e-05, "loss": 0.5601, "step": 970 }, { "epoch": 1.3066666666666666, "grad_norm": 1.5859375, "learning_rate": 9.999997482219856e-05, "loss": 0.5727, "step": 980 }, { "epoch": 1.32, "grad_norm": 0.765625, "learning_rate": 9.999997375995992e-05, "loss": 0.5662, "step": 990 }, { "epoch": 1.3333333333333333, "grad_norm": 4.71875, "learning_rate": 9.999997267577421e-05, "loss": 0.5874, "step": 1000 }, { "epoch": 1.3466666666666667, "grad_norm": 2.875, "learning_rate": 9.999997156964143e-05, "loss": 0.5807, "step": 1010 }, { "epoch": 1.3599999999999999, "grad_norm": 2.859375, "learning_rate": 9.999997044156156e-05, "loss": 0.581, "step": 1020 }, { "epoch": 1.3733333333333333, "grad_norm": 2.578125, "learning_rate": 9.999996929153464e-05, "loss": 0.5665, "step": 1030 }, { "epoch": 1.3866666666666667, "grad_norm": 1.984375, "learning_rate": 9.999996811956064e-05, "loss": 0.5665, "step": 1040 }, { "epoch": 1.4, "grad_norm": 1.8203125, "learning_rate": 9.999996692563958e-05, "loss": 0.5563, "step": 1050 }, { "epoch": 1.4133333333333333, "grad_norm": 1.3125, "learning_rate": 9.999996570977144e-05, "loss": 0.5615, "step": 1060 }, { "epoch": 1.4266666666666667, "grad_norm": 1.5703125, "learning_rate": 9.999996447195623e-05, "loss": 0.5644, "step": 1070 }, { "epoch": 1.44, "grad_norm": 0.80078125, "learning_rate": 9.999996321219395e-05, "loss": 0.5766, "step": 1080 }, { "epoch": 1.4533333333333334, "grad_norm": 1.0234375, "learning_rate": 9.999996193048462e-05, "loss": 0.5655, "step": 1090 }, { "epoch": 1.4666666666666668, "grad_norm": 1.4140625, "learning_rate": 9.999996062682822e-05, "loss": 0.5746, "step": 1100 }, { "epoch": 1.48, "grad_norm": 0.55859375, "learning_rate": 9.999995930122475e-05, "loss": 0.5483, "step": 1110 }, { "epoch": 1.4933333333333334, "grad_norm": 0.484375, "learning_rate": 9.999995795367422e-05, "loss": 0.5666, "step": 1120 }, { "epoch": 1.5066666666666668, "grad_norm": 0.5234375, "learning_rate": 9.999995658417662e-05, "loss": 0.5576, "step": 1130 }, { "epoch": 1.52, "grad_norm": 0.2890625, "learning_rate": 9.999995519273195e-05, "loss": 0.5451, "step": 1140 }, { "epoch": 1.5333333333333332, "grad_norm": 7.5, "learning_rate": 9.999995377934022e-05, "loss": 0.5547, "step": 1150 }, { "epoch": 1.5466666666666666, "grad_norm": 0.96484375, "learning_rate": 9.999995234400143e-05, "loss": 0.5705, "step": 1160 }, { "epoch": 1.56, "grad_norm": 0.46484375, "learning_rate": 9.999995088671559e-05, "loss": 0.5399, "step": 1170 }, { "epoch": 1.5733333333333333, "grad_norm": 0.455078125, "learning_rate": 9.999994940748267e-05, "loss": 0.5367, "step": 1180 }, { "epoch": 1.5866666666666667, "grad_norm": 0.412109375, "learning_rate": 9.999994790630269e-05, "loss": 0.5274, "step": 1190 }, { "epoch": 1.6, "grad_norm": 1.671875, "learning_rate": 9.999994638317566e-05, "loss": 0.5382, "step": 1200 }, { "epoch": 1.6133333333333333, "grad_norm": 0.8125, "learning_rate": 9.999994483810156e-05, "loss": 0.51, "step": 1210 }, { "epoch": 1.6266666666666667, "grad_norm": 2.46875, "learning_rate": 9.99999432710804e-05, "loss": 0.5124, "step": 1220 }, { "epoch": 1.6400000000000001, "grad_norm": 2.296875, "learning_rate": 9.99999416821122e-05, "loss": 0.5322, "step": 1230 }, { "epoch": 1.6533333333333333, "grad_norm": 1.1640625, "learning_rate": 9.999994007119693e-05, "loss": 0.5462, "step": 1240 }, { "epoch": 1.6666666666666665, "grad_norm": 2.328125, "learning_rate": 9.99999384383346e-05, "loss": 0.53, "step": 1250 }, { "epoch": 1.6800000000000002, "grad_norm": 1.3671875, "learning_rate": 9.999993678352521e-05, "loss": 0.5212, "step": 1260 }, { "epoch": 1.6933333333333334, "grad_norm": 0.96484375, "learning_rate": 9.999993510676877e-05, "loss": 0.5259, "step": 1270 }, { "epoch": 1.7066666666666666, "grad_norm": 0.76953125, "learning_rate": 9.999993340806528e-05, "loss": 0.5346, "step": 1280 }, { "epoch": 1.72, "grad_norm": 4.53125, "learning_rate": 9.999993168741472e-05, "loss": 0.5662, "step": 1290 }, { "epoch": 1.7333333333333334, "grad_norm": 1.15625, "learning_rate": 9.999992994481713e-05, "loss": 0.5382, "step": 1300 }, { "epoch": 1.7466666666666666, "grad_norm": 0.5, "learning_rate": 9.999992818027249e-05, "loss": 0.5396, "step": 1310 }, { "epoch": 1.76, "grad_norm": 0.359375, "learning_rate": 9.999992639378077e-05, "loss": 0.5494, "step": 1320 }, { "epoch": 1.7733333333333334, "grad_norm": 0.302734375, "learning_rate": 9.999992458534202e-05, "loss": 0.5445, "step": 1330 }, { "epoch": 1.7866666666666666, "grad_norm": 0.298828125, "learning_rate": 9.999992275495622e-05, "loss": 0.5358, "step": 1340 }, { "epoch": 1.8, "grad_norm": 0.99609375, "learning_rate": 9.999992090262335e-05, "loss": 0.5375, "step": 1350 }, { "epoch": 1.8133333333333335, "grad_norm": 0.400390625, "learning_rate": 9.999991902834346e-05, "loss": 0.5078, "step": 1360 }, { "epoch": 1.8266666666666667, "grad_norm": 0.361328125, "learning_rate": 9.999991713211651e-05, "loss": 0.5251, "step": 1370 }, { "epoch": 1.8399999999999999, "grad_norm": 0.859375, "learning_rate": 9.999991521394252e-05, "loss": 0.5372, "step": 1380 }, { "epoch": 1.8533333333333335, "grad_norm": 1.7421875, "learning_rate": 9.999991327382147e-05, "loss": 0.5324, "step": 1390 }, { "epoch": 1.8666666666666667, "grad_norm": 0.72265625, "learning_rate": 9.999991131175338e-05, "loss": 0.5252, "step": 1400 }, { "epoch": 1.88, "grad_norm": 0.462890625, "learning_rate": 9.999990932773825e-05, "loss": 0.5014, "step": 1410 }, { "epoch": 1.8933333333333333, "grad_norm": 0.330078125, "learning_rate": 9.999990732177606e-05, "loss": 0.5105, "step": 1420 }, { "epoch": 1.9066666666666667, "grad_norm": 0.43359375, "learning_rate": 9.999990529386685e-05, "loss": 0.5216, "step": 1430 }, { "epoch": 1.92, "grad_norm": 0.4921875, "learning_rate": 9.999990324401058e-05, "loss": 0.5279, "step": 1440 }, { "epoch": 1.9333333333333333, "grad_norm": 0.33984375, "learning_rate": 9.99999011722073e-05, "loss": 0.5146, "step": 1450 }, { "epoch": 1.9466666666666668, "grad_norm": 0.2578125, "learning_rate": 9.999989907845695e-05, "loss": 0.5137, "step": 1460 }, { "epoch": 1.96, "grad_norm": 0.419921875, "learning_rate": 9.999989696275958e-05, "loss": 0.5132, "step": 1470 }, { "epoch": 1.9733333333333334, "grad_norm": 0.59765625, "learning_rate": 9.999989482511516e-05, "loss": 0.5351, "step": 1480 }, { "epoch": 1.9866666666666668, "grad_norm": 2.046875, "learning_rate": 9.99998926655237e-05, "loss": 0.5183, "step": 1490 }, { "epoch": 2.0, "grad_norm": 1.21875, "learning_rate": 9.99998904839852e-05, "loss": 0.5107, "step": 1500 }, { "epoch": 2.0, "eval_loss": 0.5285025238990784, "eval_model_preparation_time": 0.0042, "eval_runtime": 9.8919, "eval_samples_per_second": 1.617, "eval_steps_per_second": 0.101, "step": 1500 }, { "epoch": 2.013333333333333, "grad_norm": 2.84375, "learning_rate": 9.999988828049968e-05, "loss": 0.5258, "step": 1510 }, { "epoch": 2.026666666666667, "grad_norm": 2.453125, "learning_rate": 9.999988605506712e-05, "loss": 0.5364, "step": 1520 }, { "epoch": 2.04, "grad_norm": 1.3046875, "learning_rate": 9.999988380768752e-05, "loss": 0.5454, "step": 1530 }, { "epoch": 2.0533333333333332, "grad_norm": 1.109375, "learning_rate": 9.99998815383609e-05, "loss": 0.5356, "step": 1540 }, { "epoch": 2.066666666666667, "grad_norm": 0.97265625, "learning_rate": 9.999987924708725e-05, "loss": 0.5225, "step": 1550 }, { "epoch": 2.08, "grad_norm": 1.5078125, "learning_rate": 9.999987693386656e-05, "loss": 0.5281, "step": 1560 }, { "epoch": 2.0933333333333333, "grad_norm": 0.67578125, "learning_rate": 9.999987459869885e-05, "loss": 0.5264, "step": 1570 }, { "epoch": 2.1066666666666665, "grad_norm": 1.125, "learning_rate": 9.99998722415841e-05, "loss": 0.5097, "step": 1580 }, { "epoch": 2.12, "grad_norm": 1.84375, "learning_rate": 9.999986986252232e-05, "loss": 0.5269, "step": 1590 }, { "epoch": 2.1333333333333333, "grad_norm": 3.015625, "learning_rate": 9.999986746151353e-05, "loss": 0.5191, "step": 1600 }, { "epoch": 2.1466666666666665, "grad_norm": 2.96875, "learning_rate": 9.999986503855771e-05, "loss": 0.5341, "step": 1610 }, { "epoch": 2.16, "grad_norm": 2.546875, "learning_rate": 9.999986259365486e-05, "loss": 0.5259, "step": 1620 }, { "epoch": 2.1733333333333333, "grad_norm": 2.03125, "learning_rate": 9.9999860126805e-05, "loss": 0.5068, "step": 1630 }, { "epoch": 2.1866666666666665, "grad_norm": 3.109375, "learning_rate": 9.99998576380081e-05, "loss": 0.513, "step": 1640 }, { "epoch": 2.2, "grad_norm": 2.4375, "learning_rate": 9.99998551272642e-05, "loss": 0.5154, "step": 1650 }, { "epoch": 2.2133333333333334, "grad_norm": 3.609375, "learning_rate": 9.999985259457326e-05, "loss": 0.5157, "step": 1660 }, { "epoch": 2.2266666666666666, "grad_norm": 2.34375, "learning_rate": 9.999985003993531e-05, "loss": 0.5265, "step": 1670 }, { "epoch": 2.24, "grad_norm": 3.28125, "learning_rate": 9.999984746335034e-05, "loss": 0.5003, "step": 1680 }, { "epoch": 2.2533333333333334, "grad_norm": 3.125, "learning_rate": 9.999984486481837e-05, "loss": 0.5077, "step": 1690 }, { "epoch": 2.2666666666666666, "grad_norm": 3.265625, "learning_rate": 9.999984224433937e-05, "loss": 0.5035, "step": 1700 }, { "epoch": 2.2800000000000002, "grad_norm": 2.25, "learning_rate": 9.999983960191335e-05, "loss": 0.5358, "step": 1710 }, { "epoch": 2.2933333333333334, "grad_norm": 4.5625, "learning_rate": 9.999983693754032e-05, "loss": 0.4916, "step": 1720 }, { "epoch": 2.3066666666666666, "grad_norm": 2.421875, "learning_rate": 9.999983425122029e-05, "loss": 0.5164, "step": 1730 }, { "epoch": 2.32, "grad_norm": 3.140625, "learning_rate": 9.999983154295324e-05, "loss": 0.5136, "step": 1740 }, { "epoch": 2.3333333333333335, "grad_norm": 2.890625, "learning_rate": 9.99998288127392e-05, "loss": 0.527, "step": 1750 }, { "epoch": 2.3466666666666667, "grad_norm": 1.5625, "learning_rate": 9.999982606057812e-05, "loss": 0.5132, "step": 1760 }, { "epoch": 2.36, "grad_norm": 3.28125, "learning_rate": 9.999982328647006e-05, "loss": 0.5224, "step": 1770 }, { "epoch": 2.3733333333333335, "grad_norm": 2.140625, "learning_rate": 9.999982049041499e-05, "loss": 0.5131, "step": 1780 }, { "epoch": 2.3866666666666667, "grad_norm": 1.15625, "learning_rate": 9.99998176724129e-05, "loss": 0.5105, "step": 1790 }, { "epoch": 2.4, "grad_norm": 2.84375, "learning_rate": 9.999981483246381e-05, "loss": 0.5111, "step": 1800 }, { "epoch": 2.413333333333333, "grad_norm": 3.125, "learning_rate": 9.999981197056773e-05, "loss": 0.5181, "step": 1810 }, { "epoch": 2.4266666666666667, "grad_norm": 1.0859375, "learning_rate": 9.999980908672464e-05, "loss": 0.5198, "step": 1820 }, { "epoch": 2.44, "grad_norm": 1.0703125, "learning_rate": 9.999980618093457e-05, "loss": 0.5285, "step": 1830 }, { "epoch": 2.453333333333333, "grad_norm": 0.416015625, "learning_rate": 9.999980325319747e-05, "loss": 0.5152, "step": 1840 }, { "epoch": 2.466666666666667, "grad_norm": 1.0546875, "learning_rate": 9.999980030351339e-05, "loss": 0.5252, "step": 1850 }, { "epoch": 2.48, "grad_norm": 0.271484375, "learning_rate": 9.999979733188231e-05, "loss": 0.5063, "step": 1860 }, { "epoch": 2.493333333333333, "grad_norm": 0.86328125, "learning_rate": 9.999979433830424e-05, "loss": 0.5226, "step": 1870 }, { "epoch": 2.506666666666667, "grad_norm": 0.26953125, "learning_rate": 9.999979132277918e-05, "loss": 0.5101, "step": 1880 }, { "epoch": 2.52, "grad_norm": 0.294921875, "learning_rate": 9.999978828530712e-05, "loss": 0.502, "step": 1890 }, { "epoch": 2.533333333333333, "grad_norm": 0.275390625, "learning_rate": 9.999978522588808e-05, "loss": 0.5064, "step": 1900 }, { "epoch": 2.546666666666667, "grad_norm": 0.373046875, "learning_rate": 9.999978214452204e-05, "loss": 0.5122, "step": 1910 }, { "epoch": 2.56, "grad_norm": 0.234375, "learning_rate": 9.999977904120903e-05, "loss": 0.5001, "step": 1920 }, { "epoch": 2.5733333333333333, "grad_norm": 0.359375, "learning_rate": 9.999977591594902e-05, "loss": 0.5016, "step": 1930 }, { "epoch": 2.586666666666667, "grad_norm": 0.3984375, "learning_rate": 9.999977276874201e-05, "loss": 0.491, "step": 1940 }, { "epoch": 2.6, "grad_norm": 0.375, "learning_rate": 9.999976959958805e-05, "loss": 0.5018, "step": 1950 }, { "epoch": 2.6133333333333333, "grad_norm": 0.2578125, "learning_rate": 9.999976640848709e-05, "loss": 0.4746, "step": 1960 }, { "epoch": 2.626666666666667, "grad_norm": 0.259765625, "learning_rate": 9.999976319543915e-05, "loss": 0.4786, "step": 1970 }, { "epoch": 2.64, "grad_norm": 0.384765625, "learning_rate": 9.999975996044424e-05, "loss": 0.4992, "step": 1980 }, { "epoch": 2.6533333333333333, "grad_norm": 0.224609375, "learning_rate": 9.999975670350235e-05, "loss": 0.512, "step": 1990 }, { "epoch": 2.6666666666666665, "grad_norm": 0.59375, "learning_rate": 9.999975342461346e-05, "loss": 0.4968, "step": 2000 }, { "epoch": 2.68, "grad_norm": 0.3359375, "learning_rate": 9.999975012377763e-05, "loss": 0.4859, "step": 2010 }, { "epoch": 2.6933333333333334, "grad_norm": 0.79296875, "learning_rate": 9.99997468009948e-05, "loss": 0.4942, "step": 2020 }, { "epoch": 2.7066666666666666, "grad_norm": 0.28515625, "learning_rate": 9.9999743456265e-05, "loss": 0.4936, "step": 2030 }, { "epoch": 2.7199999999999998, "grad_norm": 0.296875, "learning_rate": 9.999974008958824e-05, "loss": 0.5137, "step": 2040 }, { "epoch": 2.7333333333333334, "grad_norm": 0.73828125, "learning_rate": 9.99997367009645e-05, "loss": 0.5057, "step": 2050 }, { "epoch": 2.7466666666666666, "grad_norm": 0.474609375, "learning_rate": 9.999973329039381e-05, "loss": 0.5096, "step": 2060 }, { "epoch": 2.76, "grad_norm": 0.22265625, "learning_rate": 9.999972985787615e-05, "loss": 0.5186, "step": 2070 }, { "epoch": 2.7733333333333334, "grad_norm": 0.2890625, "learning_rate": 9.99997264034115e-05, "loss": 0.5125, "step": 2080 }, { "epoch": 2.7866666666666666, "grad_norm": 0.228515625, "learning_rate": 9.999972292699992e-05, "loss": 0.5052, "step": 2090 }, { "epoch": 2.8, "grad_norm": 0.21875, "learning_rate": 9.999971942864136e-05, "loss": 0.5072, "step": 2100 }, { "epoch": 2.8133333333333335, "grad_norm": 0.34765625, "learning_rate": 9.999971590833586e-05, "loss": 0.4764, "step": 2110 }, { "epoch": 2.8266666666666667, "grad_norm": 0.3359375, "learning_rate": 9.999971236608337e-05, "loss": 0.4931, "step": 2120 }, { "epoch": 2.84, "grad_norm": 0.3125, "learning_rate": 9.999970880188394e-05, "loss": 0.5085, "step": 2130 }, { "epoch": 2.8533333333333335, "grad_norm": 0.2109375, "learning_rate": 9.999970521573756e-05, "loss": 0.5013, "step": 2140 }, { "epoch": 2.8666666666666667, "grad_norm": 0.275390625, "learning_rate": 9.999970160764423e-05, "loss": 0.498, "step": 2150 }, { "epoch": 2.88, "grad_norm": 0.25390625, "learning_rate": 9.999969797760393e-05, "loss": 0.4756, "step": 2160 }, { "epoch": 2.8933333333333335, "grad_norm": 0.2890625, "learning_rate": 9.999969432561668e-05, "loss": 0.4856, "step": 2170 }, { "epoch": 2.9066666666666667, "grad_norm": 0.28125, "learning_rate": 9.999969065168248e-05, "loss": 0.4973, "step": 2180 }, { "epoch": 2.92, "grad_norm": 0.404296875, "learning_rate": 9.999968695580136e-05, "loss": 0.4997, "step": 2190 }, { "epoch": 2.9333333333333336, "grad_norm": 0.5625, "learning_rate": 9.999968323797327e-05, "loss": 0.4894, "step": 2200 }, { "epoch": 2.9466666666666668, "grad_norm": 0.400390625, "learning_rate": 9.999967949819824e-05, "loss": 0.4909, "step": 2210 }, { "epoch": 2.96, "grad_norm": 0.392578125, "learning_rate": 9.999967573647626e-05, "loss": 0.4895, "step": 2220 }, { "epoch": 2.9733333333333336, "grad_norm": 0.58984375, "learning_rate": 9.999967195280735e-05, "loss": 0.5114, "step": 2230 }, { "epoch": 2.986666666666667, "grad_norm": 0.43359375, "learning_rate": 9.999966814719151e-05, "loss": 0.4936, "step": 2240 }, { "epoch": 3.0, "grad_norm": 1.0390625, "learning_rate": 9.999966431962872e-05, "loss": 0.4852, "step": 2250 }, { "epoch": 3.0, "eval_loss": 0.5076167583465576, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5642, "eval_samples_per_second": 1.515, "eval_steps_per_second": 0.095, "step": 2250 }, { "epoch": 3.013333333333333, "grad_norm": 4.125, "learning_rate": 9.999966047011899e-05, "loss": 0.5064, "step": 2260 }, { "epoch": 3.026666666666667, "grad_norm": 3.78125, "learning_rate": 9.999965659866232e-05, "loss": 0.5168, "step": 2270 }, { "epoch": 3.04, "grad_norm": 1.9609375, "learning_rate": 9.999965270525874e-05, "loss": 0.5271, "step": 2280 }, { "epoch": 3.0533333333333332, "grad_norm": 2.125, "learning_rate": 9.999964878990822e-05, "loss": 0.5164, "step": 2290 }, { "epoch": 3.066666666666667, "grad_norm": 3.171875, "learning_rate": 9.999964485261078e-05, "loss": 0.5029, "step": 2300 }, { "epoch": 3.08, "grad_norm": 2.9375, "learning_rate": 9.999964089336639e-05, "loss": 0.5062, "step": 2310 }, { "epoch": 3.0933333333333333, "grad_norm": 2.9375, "learning_rate": 9.999963691217509e-05, "loss": 0.5043, "step": 2320 }, { "epoch": 3.1066666666666665, "grad_norm": 3.03125, "learning_rate": 9.999963290903685e-05, "loss": 0.489, "step": 2330 }, { "epoch": 3.12, "grad_norm": 1.3203125, "learning_rate": 9.999962888395171e-05, "loss": 0.4988, "step": 2340 }, { "epoch": 3.1333333333333333, "grad_norm": 3.140625, "learning_rate": 9.999962483691963e-05, "loss": 0.4942, "step": 2350 }, { "epoch": 3.1466666666666665, "grad_norm": 3.515625, "learning_rate": 9.999962076794065e-05, "loss": 0.5117, "step": 2360 }, { "epoch": 3.16, "grad_norm": 2.71875, "learning_rate": 9.999961667701474e-05, "loss": 0.5033, "step": 2370 }, { "epoch": 3.1733333333333333, "grad_norm": 2.453125, "learning_rate": 9.999961256414192e-05, "loss": 0.488, "step": 2380 }, { "epoch": 3.1866666666666665, "grad_norm": 3.234375, "learning_rate": 9.999960842932219e-05, "loss": 0.4921, "step": 2390 }, { "epoch": 3.2, "grad_norm": 1.6640625, "learning_rate": 9.999960427255555e-05, "loss": 0.4897, "step": 2400 }, { "epoch": 3.2133333333333334, "grad_norm": 2.375, "learning_rate": 9.9999600093842e-05, "loss": 0.493, "step": 2410 }, { "epoch": 3.2266666666666666, "grad_norm": 2.859375, "learning_rate": 9.999959589318154e-05, "loss": 0.5052, "step": 2420 }, { "epoch": 3.24, "grad_norm": 1.828125, "learning_rate": 9.999959167057415e-05, "loss": 0.4818, "step": 2430 }, { "epoch": 3.2533333333333334, "grad_norm": 2.5, "learning_rate": 9.99995874260199e-05, "loss": 0.4875, "step": 2440 }, { "epoch": 3.2666666666666666, "grad_norm": 2.828125, "learning_rate": 9.999958315951871e-05, "loss": 0.4842, "step": 2450 }, { "epoch": 3.2800000000000002, "grad_norm": 1.1484375, "learning_rate": 9.999957887107064e-05, "loss": 0.5174, "step": 2460 }, { "epoch": 3.2933333333333334, "grad_norm": 2.671875, "learning_rate": 9.999957456067568e-05, "loss": 0.4729, "step": 2470 }, { "epoch": 3.3066666666666666, "grad_norm": 2.953125, "learning_rate": 9.99995702283338e-05, "loss": 0.496, "step": 2480 }, { "epoch": 3.32, "grad_norm": 1.5546875, "learning_rate": 9.999956587404504e-05, "loss": 0.4956, "step": 2490 }, { "epoch": 3.3333333333333335, "grad_norm": 2.5, "learning_rate": 9.999956149780938e-05, "loss": 0.5067, "step": 2500 }, { "epoch": 3.3466666666666667, "grad_norm": 2.78125, "learning_rate": 9.999955709962684e-05, "loss": 0.4953, "step": 2510 }, { "epoch": 3.36, "grad_norm": 2.671875, "learning_rate": 9.999955267949741e-05, "loss": 0.5045, "step": 2520 }, { "epoch": 3.3733333333333335, "grad_norm": 2.109375, "learning_rate": 9.999954823742108e-05, "loss": 0.4947, "step": 2530 }, { "epoch": 3.3866666666666667, "grad_norm": 3.078125, "learning_rate": 9.999954377339788e-05, "loss": 0.4917, "step": 2540 }, { "epoch": 3.4, "grad_norm": 1.2890625, "learning_rate": 9.999953928742777e-05, "loss": 0.4916, "step": 2550 }, { "epoch": 3.413333333333333, "grad_norm": 2.609375, "learning_rate": 9.999953477951081e-05, "loss": 0.4998, "step": 2560 }, { "epoch": 3.4266666666666667, "grad_norm": 2.6875, "learning_rate": 9.999953024964697e-05, "loss": 0.5011, "step": 2570 }, { "epoch": 3.44, "grad_norm": 1.75, "learning_rate": 9.999952569783624e-05, "loss": 0.5095, "step": 2580 }, { "epoch": 3.453333333333333, "grad_norm": 2.9375, "learning_rate": 9.999952112407864e-05, "loss": 0.5001, "step": 2590 }, { "epoch": 3.466666666666667, "grad_norm": 3.484375, "learning_rate": 9.999951652837417e-05, "loss": 0.5115, "step": 2600 }, { "epoch": 3.48, "grad_norm": 1.09375, "learning_rate": 9.999951191072281e-05, "loss": 0.4903, "step": 2610 }, { "epoch": 3.493333333333333, "grad_norm": 2.875, "learning_rate": 9.99995072711246e-05, "loss": 0.5059, "step": 2620 }, { "epoch": 3.506666666666667, "grad_norm": 1.96875, "learning_rate": 9.999950260957951e-05, "loss": 0.4957, "step": 2630 }, { "epoch": 3.52, "grad_norm": 2.90625, "learning_rate": 9.999949792608758e-05, "loss": 0.4863, "step": 2640 }, { "epoch": 3.533333333333333, "grad_norm": 2.140625, "learning_rate": 9.999949322064876e-05, "loss": 0.4928, "step": 2650 }, { "epoch": 3.546666666666667, "grad_norm": 2.90625, "learning_rate": 9.99994884932631e-05, "loss": 0.4954, "step": 2660 }, { "epoch": 3.56, "grad_norm": 1.8828125, "learning_rate": 9.999948374393056e-05, "loss": 0.4841, "step": 2670 }, { "epoch": 3.5733333333333333, "grad_norm": 2.125, "learning_rate": 9.999947897265119e-05, "loss": 0.4866, "step": 2680 }, { "epoch": 3.586666666666667, "grad_norm": 2.765625, "learning_rate": 9.999947417942495e-05, "loss": 0.4765, "step": 2690 }, { "epoch": 3.6, "grad_norm": 1.3125, "learning_rate": 9.999946936425185e-05, "loss": 0.4858, "step": 2700 }, { "epoch": 3.6133333333333333, "grad_norm": 2.71875, "learning_rate": 9.999946452713192e-05, "loss": 0.4613, "step": 2710 }, { "epoch": 3.626666666666667, "grad_norm": 3.03125, "learning_rate": 9.999945966806512e-05, "loss": 0.4665, "step": 2720 }, { "epoch": 3.64, "grad_norm": 1.3671875, "learning_rate": 9.999945478705149e-05, "loss": 0.4863, "step": 2730 }, { "epoch": 3.6533333333333333, "grad_norm": 3.125, "learning_rate": 9.9999449884091e-05, "loss": 0.4989, "step": 2740 }, { "epoch": 3.6666666666666665, "grad_norm": 3.015625, "learning_rate": 9.999944495918368e-05, "loss": 0.4824, "step": 2750 }, { "epoch": 3.68, "grad_norm": 1.875, "learning_rate": 9.999944001232953e-05, "loss": 0.4744, "step": 2760 }, { "epoch": 3.6933333333333334, "grad_norm": 2.203125, "learning_rate": 9.999943504352852e-05, "loss": 0.482, "step": 2770 }, { "epoch": 3.7066666666666666, "grad_norm": 2.484375, "learning_rate": 9.999943005278069e-05, "loss": 0.4781, "step": 2780 }, { "epoch": 3.7199999999999998, "grad_norm": 1.3984375, "learning_rate": 9.999942504008602e-05, "loss": 0.5015, "step": 2790 }, { "epoch": 3.7333333333333334, "grad_norm": 2.234375, "learning_rate": 9.999942000544452e-05, "loss": 0.4951, "step": 2800 }, { "epoch": 3.7466666666666666, "grad_norm": 2.109375, "learning_rate": 9.99994149488562e-05, "loss": 0.4973, "step": 2810 }, { "epoch": 3.76, "grad_norm": 1.7578125, "learning_rate": 9.999940987032104e-05, "loss": 0.5064, "step": 2820 }, { "epoch": 3.7733333333333334, "grad_norm": 2.140625, "learning_rate": 9.999940476983907e-05, "loss": 0.5007, "step": 2830 }, { "epoch": 3.7866666666666666, "grad_norm": 2.921875, "learning_rate": 9.999939964741027e-05, "loss": 0.4945, "step": 2840 }, { "epoch": 3.8, "grad_norm": 1.8046875, "learning_rate": 9.999939450303465e-05, "loss": 0.4957, "step": 2850 }, { "epoch": 3.8133333333333335, "grad_norm": 1.890625, "learning_rate": 9.999938933671222e-05, "loss": 0.4664, "step": 2860 }, { "epoch": 3.8266666666666667, "grad_norm": 3.1875, "learning_rate": 9.999938414844297e-05, "loss": 0.4826, "step": 2870 }, { "epoch": 3.84, "grad_norm": 2.09375, "learning_rate": 9.999937893822691e-05, "loss": 0.4966, "step": 2880 }, { "epoch": 3.8533333333333335, "grad_norm": 1.328125, "learning_rate": 9.999937370606402e-05, "loss": 0.4917, "step": 2890 }, { "epoch": 3.8666666666666667, "grad_norm": 2.125, "learning_rate": 9.999936845195435e-05, "loss": 0.4892, "step": 2900 }, { "epoch": 3.88, "grad_norm": 2.59375, "learning_rate": 9.999936317589786e-05, "loss": 0.4654, "step": 2910 }, { "epoch": 3.8933333333333335, "grad_norm": 2.203125, "learning_rate": 9.999935787789456e-05, "loss": 0.4773, "step": 2920 }, { "epoch": 3.9066666666666667, "grad_norm": 2.546875, "learning_rate": 9.999935255794447e-05, "loss": 0.4883, "step": 2930 }, { "epoch": 3.92, "grad_norm": 1.6484375, "learning_rate": 9.999934721604758e-05, "loss": 0.4898, "step": 2940 }, { "epoch": 3.9333333333333336, "grad_norm": 2.890625, "learning_rate": 9.999934185220388e-05, "loss": 0.4797, "step": 2950 }, { "epoch": 3.9466666666666668, "grad_norm": 2.890625, "learning_rate": 9.999933646641341e-05, "loss": 0.4818, "step": 2960 }, { "epoch": 3.96, "grad_norm": 1.9609375, "learning_rate": 9.999933105867614e-05, "loss": 0.48, "step": 2970 }, { "epoch": 3.9733333333333336, "grad_norm": 2.203125, "learning_rate": 9.999932562899206e-05, "loss": 0.5003, "step": 2980 }, { "epoch": 3.986666666666667, "grad_norm": 2.953125, "learning_rate": 9.999932017736122e-05, "loss": 0.4836, "step": 2990 }, { "epoch": 4.0, "grad_norm": 1.9765625, "learning_rate": 9.999931470378357e-05, "loss": 0.4758, "step": 3000 }, { "epoch": 4.0, "eval_loss": 0.49614760279655457, "eval_model_preparation_time": 0.0042, "eval_runtime": 9.9812, "eval_samples_per_second": 1.603, "eval_steps_per_second": 0.1, "step": 3000 }, { "epoch": 4.013333333333334, "grad_norm": 1.6640625, "learning_rate": 9.999930920825915e-05, "loss": 0.4954, "step": 3010 }, { "epoch": 4.026666666666666, "grad_norm": 3.0625, "learning_rate": 9.999930369078796e-05, "loss": 0.5036, "step": 3020 }, { "epoch": 4.04, "grad_norm": 2.125, "learning_rate": 9.999929815136998e-05, "loss": 0.5175, "step": 3030 }, { "epoch": 4.053333333333334, "grad_norm": 1.75, "learning_rate": 9.999929259000522e-05, "loss": 0.5064, "step": 3040 }, { "epoch": 4.066666666666666, "grad_norm": 2.328125, "learning_rate": 9.99992870066937e-05, "loss": 0.4924, "step": 3050 }, { "epoch": 4.08, "grad_norm": 1.890625, "learning_rate": 9.999928140143541e-05, "loss": 0.4957, "step": 3060 }, { "epoch": 4.093333333333334, "grad_norm": 2.078125, "learning_rate": 9.999927577423034e-05, "loss": 0.4928, "step": 3070 }, { "epoch": 4.1066666666666665, "grad_norm": 2.765625, "learning_rate": 9.999927012507853e-05, "loss": 0.4812, "step": 3080 }, { "epoch": 4.12, "grad_norm": 1.125, "learning_rate": 9.999926445397993e-05, "loss": 0.4902, "step": 3090 }, { "epoch": 4.133333333333334, "grad_norm": 2.46875, "learning_rate": 9.999925876093458e-05, "loss": 0.4854, "step": 3100 }, { "epoch": 4.1466666666666665, "grad_norm": 2.484375, "learning_rate": 9.999925304594247e-05, "loss": 0.5042, "step": 3110 }, { "epoch": 4.16, "grad_norm": 1.9765625, "learning_rate": 9.99992473090036e-05, "loss": 0.4941, "step": 3120 }, { "epoch": 4.173333333333334, "grad_norm": 2.0, "learning_rate": 9.999924155011799e-05, "loss": 0.4801, "step": 3130 }, { "epoch": 4.1866666666666665, "grad_norm": 2.90625, "learning_rate": 9.999923576928562e-05, "loss": 0.4851, "step": 3140 }, { "epoch": 4.2, "grad_norm": 1.4453125, "learning_rate": 9.99992299665065e-05, "loss": 0.4817, "step": 3150 }, { "epoch": 4.213333333333333, "grad_norm": 1.96875, "learning_rate": 9.999922414178065e-05, "loss": 0.4839, "step": 3160 }, { "epoch": 4.226666666666667, "grad_norm": 2.625, "learning_rate": 9.999921829510805e-05, "loss": 0.4965, "step": 3170 }, { "epoch": 4.24, "grad_norm": 1.6640625, "learning_rate": 9.999921242648871e-05, "loss": 0.4743, "step": 3180 }, { "epoch": 4.253333333333333, "grad_norm": 2.609375, "learning_rate": 9.999920653592263e-05, "loss": 0.4805, "step": 3190 }, { "epoch": 4.266666666666667, "grad_norm": 2.453125, "learning_rate": 9.999920062340981e-05, "loss": 0.4776, "step": 3200 }, { "epoch": 4.28, "grad_norm": 0.9375, "learning_rate": 9.999919468895027e-05, "loss": 0.509, "step": 3210 }, { "epoch": 4.293333333333333, "grad_norm": 2.859375, "learning_rate": 9.999918873254399e-05, "loss": 0.4664, "step": 3220 }, { "epoch": 4.306666666666667, "grad_norm": 2.5, "learning_rate": 9.999918275419097e-05, "loss": 0.4903, "step": 3230 }, { "epoch": 4.32, "grad_norm": 0.99609375, "learning_rate": 9.999917675389126e-05, "loss": 0.4896, "step": 3240 }, { "epoch": 4.333333333333333, "grad_norm": 2.1875, "learning_rate": 9.99991707316448e-05, "loss": 0.4997, "step": 3250 }, { "epoch": 4.346666666666667, "grad_norm": 2.765625, "learning_rate": 9.999916468745163e-05, "loss": 0.4879, "step": 3260 }, { "epoch": 4.36, "grad_norm": 2.453125, "learning_rate": 9.999915862131175e-05, "loss": 0.4961, "step": 3270 }, { "epoch": 4.373333333333333, "grad_norm": 1.6328125, "learning_rate": 9.999915253322515e-05, "loss": 0.4868, "step": 3280 }, { "epoch": 4.386666666666667, "grad_norm": 2.5625, "learning_rate": 9.999914642319184e-05, "loss": 0.4852, "step": 3290 }, { "epoch": 4.4, "grad_norm": 1.4140625, "learning_rate": 9.999914029121182e-05, "loss": 0.4857, "step": 3300 }, { "epoch": 4.413333333333333, "grad_norm": 1.96875, "learning_rate": 9.99991341372851e-05, "loss": 0.4932, "step": 3310 }, { "epoch": 4.426666666666667, "grad_norm": 2.453125, "learning_rate": 9.999912796141167e-05, "loss": 0.4931, "step": 3320 }, { "epoch": 4.44, "grad_norm": 1.6328125, "learning_rate": 9.999912176359154e-05, "loss": 0.5025, "step": 3330 }, { "epoch": 4.453333333333333, "grad_norm": 2.578125, "learning_rate": 9.99991155438247e-05, "loss": 0.4939, "step": 3340 }, { "epoch": 4.466666666666667, "grad_norm": 3.4375, "learning_rate": 9.999910930211119e-05, "loss": 0.5052, "step": 3350 }, { "epoch": 4.48, "grad_norm": 1.2734375, "learning_rate": 9.999910303845097e-05, "loss": 0.4835, "step": 3360 }, { "epoch": 4.493333333333333, "grad_norm": 2.640625, "learning_rate": 9.999909675284407e-05, "loss": 0.4996, "step": 3370 }, { "epoch": 4.506666666666667, "grad_norm": 2.1875, "learning_rate": 9.999909044529047e-05, "loss": 0.4883, "step": 3380 }, { "epoch": 4.52, "grad_norm": 2.125, "learning_rate": 9.999908411579021e-05, "loss": 0.48, "step": 3390 }, { "epoch": 4.533333333333333, "grad_norm": 1.890625, "learning_rate": 9.999907776434325e-05, "loss": 0.4853, "step": 3400 }, { "epoch": 4.546666666666667, "grad_norm": 2.59375, "learning_rate": 9.999907139094962e-05, "loss": 0.4872, "step": 3410 }, { "epoch": 4.5600000000000005, "grad_norm": 1.6171875, "learning_rate": 9.999906499560932e-05, "loss": 0.477, "step": 3420 }, { "epoch": 4.573333333333333, "grad_norm": 2.109375, "learning_rate": 9.999905857832233e-05, "loss": 0.48, "step": 3430 }, { "epoch": 4.586666666666667, "grad_norm": 2.28125, "learning_rate": 9.999905213908868e-05, "loss": 0.4702, "step": 3440 }, { "epoch": 4.6, "grad_norm": 1.140625, "learning_rate": 9.999904567790837e-05, "loss": 0.4794, "step": 3450 }, { "epoch": 4.613333333333333, "grad_norm": 2.078125, "learning_rate": 9.999903919478137e-05, "loss": 0.4572, "step": 3460 }, { "epoch": 4.626666666666667, "grad_norm": 2.53125, "learning_rate": 9.999903268970774e-05, "loss": 0.4604, "step": 3470 }, { "epoch": 4.64, "grad_norm": 1.328125, "learning_rate": 9.999902616268744e-05, "loss": 0.48, "step": 3480 }, { "epoch": 4.653333333333333, "grad_norm": 2.75, "learning_rate": 9.999901961372047e-05, "loss": 0.4914, "step": 3490 }, { "epoch": 4.666666666666667, "grad_norm": 2.71875, "learning_rate": 9.999901304280685e-05, "loss": 0.4759, "step": 3500 }, { "epoch": 4.68, "grad_norm": 2.0, "learning_rate": 9.999900644994659e-05, "loss": 0.4672, "step": 3510 }, { "epoch": 4.693333333333333, "grad_norm": 0.72265625, "learning_rate": 9.999899983513969e-05, "loss": 0.4766, "step": 3520 }, { "epoch": 4.706666666666667, "grad_norm": 0.447265625, "learning_rate": 9.999899319838614e-05, "loss": 0.4704, "step": 3530 }, { "epoch": 4.72, "grad_norm": 0.3203125, "learning_rate": 9.999898653968595e-05, "loss": 0.4928, "step": 3540 }, { "epoch": 4.733333333333333, "grad_norm": 0.412109375, "learning_rate": 9.999897985903911e-05, "loss": 0.4884, "step": 3550 }, { "epoch": 4.746666666666667, "grad_norm": 0.294921875, "learning_rate": 9.999897315644565e-05, "loss": 0.4881, "step": 3560 }, { "epoch": 4.76, "grad_norm": 0.419921875, "learning_rate": 9.999896643190555e-05, "loss": 0.4993, "step": 3570 }, { "epoch": 4.773333333333333, "grad_norm": 0.3359375, "learning_rate": 9.999895968541881e-05, "loss": 0.4942, "step": 3580 }, { "epoch": 4.786666666666667, "grad_norm": 0.265625, "learning_rate": 9.999895291698547e-05, "loss": 0.4872, "step": 3590 }, { "epoch": 4.8, "grad_norm": 0.333984375, "learning_rate": 9.999894612660547e-05, "loss": 0.4883, "step": 3600 }, { "epoch": 4.8133333333333335, "grad_norm": 0.28125, "learning_rate": 9.999893931427888e-05, "loss": 0.4601, "step": 3610 }, { "epoch": 4.826666666666666, "grad_norm": 0.3125, "learning_rate": 9.999893248000567e-05, "loss": 0.4759, "step": 3620 }, { "epoch": 4.84, "grad_norm": 0.330078125, "learning_rate": 9.999892562378583e-05, "loss": 0.4899, "step": 3630 }, { "epoch": 4.8533333333333335, "grad_norm": 0.2412109375, "learning_rate": 9.999891874561939e-05, "loss": 0.4846, "step": 3640 }, { "epoch": 4.866666666666667, "grad_norm": 0.27734375, "learning_rate": 9.999891184550634e-05, "loss": 0.4825, "step": 3650 }, { "epoch": 4.88, "grad_norm": 0.326171875, "learning_rate": 9.999890492344668e-05, "loss": 0.4591, "step": 3660 }, { "epoch": 4.8933333333333335, "grad_norm": 0.365234375, "learning_rate": 9.999889797944043e-05, "loss": 0.4702, "step": 3670 }, { "epoch": 4.906666666666666, "grad_norm": 0.32421875, "learning_rate": 9.999889101348756e-05, "loss": 0.4806, "step": 3680 }, { "epoch": 4.92, "grad_norm": 0.359375, "learning_rate": 9.99988840255881e-05, "loss": 0.4818, "step": 3690 }, { "epoch": 4.933333333333334, "grad_norm": 0.228515625, "learning_rate": 9.999887701574204e-05, "loss": 0.4726, "step": 3700 }, { "epoch": 4.946666666666666, "grad_norm": 0.30078125, "learning_rate": 9.999886998394941e-05, "loss": 0.4748, "step": 3710 }, { "epoch": 4.96, "grad_norm": 0.33203125, "learning_rate": 9.999886293021019e-05, "loss": 0.4724, "step": 3720 }, { "epoch": 4.973333333333334, "grad_norm": 0.388671875, "learning_rate": 9.999885585452438e-05, "loss": 0.4951, "step": 3730 }, { "epoch": 4.986666666666666, "grad_norm": 0.34375, "learning_rate": 9.999884875689199e-05, "loss": 0.4774, "step": 3740 }, { "epoch": 5.0, "grad_norm": 0.294921875, "learning_rate": 9.999884163731301e-05, "loss": 0.4684, "step": 3750 }, { "epoch": 5.0, "eval_loss": 0.49163082242012024, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8861, "eval_samples_per_second": 1.47, "eval_steps_per_second": 0.092, "step": 3750 }, { "epoch": 5.013333333333334, "grad_norm": 0.275390625, "learning_rate": 9.999883449578747e-05, "loss": 0.4884, "step": 3760 }, { "epoch": 5.026666666666666, "grad_norm": 0.28515625, "learning_rate": 9.999882733231535e-05, "loss": 0.4977, "step": 3770 }, { "epoch": 5.04, "grad_norm": 0.28515625, "learning_rate": 9.999882014689666e-05, "loss": 0.5094, "step": 3780 }, { "epoch": 5.053333333333334, "grad_norm": 0.30078125, "learning_rate": 9.999881293953142e-05, "loss": 0.4974, "step": 3790 }, { "epoch": 5.066666666666666, "grad_norm": 0.625, "learning_rate": 9.99988057102196e-05, "loss": 0.4848, "step": 3800 }, { "epoch": 5.08, "grad_norm": 0.36328125, "learning_rate": 9.999879845896123e-05, "loss": 0.4879, "step": 3810 }, { "epoch": 5.093333333333334, "grad_norm": 0.26953125, "learning_rate": 9.99987911857563e-05, "loss": 0.4851, "step": 3820 }, { "epoch": 5.1066666666666665, "grad_norm": 0.291015625, "learning_rate": 9.999878389060483e-05, "loss": 0.4729, "step": 3830 }, { "epoch": 5.12, "grad_norm": 0.3046875, "learning_rate": 9.99987765735068e-05, "loss": 0.4822, "step": 3840 }, { "epoch": 5.133333333333334, "grad_norm": 0.345703125, "learning_rate": 9.999876923446222e-05, "loss": 0.4762, "step": 3850 }, { "epoch": 5.1466666666666665, "grad_norm": 0.53515625, "learning_rate": 9.99987618734711e-05, "loss": 0.4938, "step": 3860 }, { "epoch": 5.16, "grad_norm": 0.251953125, "learning_rate": 9.999875449053345e-05, "loss": 0.4852, "step": 3870 }, { "epoch": 5.173333333333334, "grad_norm": 0.9296875, "learning_rate": 9.999874708564924e-05, "loss": 0.4718, "step": 3880 }, { "epoch": 5.1866666666666665, "grad_norm": 2.265625, "learning_rate": 9.999873965881851e-05, "loss": 0.4762, "step": 3890 }, { "epoch": 5.2, "grad_norm": 0.66796875, "learning_rate": 9.999873221004126e-05, "loss": 0.4752, "step": 3900 }, { "epoch": 5.213333333333333, "grad_norm": 0.640625, "learning_rate": 9.999872473931748e-05, "loss": 0.4735, "step": 3910 }, { "epoch": 5.226666666666667, "grad_norm": 0.39453125, "learning_rate": 9.999871724664718e-05, "loss": 0.4857, "step": 3920 }, { "epoch": 5.24, "grad_norm": 0.451171875, "learning_rate": 9.999870973203034e-05, "loss": 0.466, "step": 3930 }, { "epoch": 5.253333333333333, "grad_norm": 0.29296875, "learning_rate": 9.9998702195467e-05, "loss": 0.4704, "step": 3940 }, { "epoch": 5.266666666666667, "grad_norm": 0.2275390625, "learning_rate": 9.999869463695714e-05, "loss": 0.4685, "step": 3950 }, { "epoch": 5.28, "grad_norm": 0.3359375, "learning_rate": 9.999868705650078e-05, "loss": 0.4989, "step": 3960 }, { "epoch": 5.293333333333333, "grad_norm": 0.283203125, "learning_rate": 9.99986794540979e-05, "loss": 0.4563, "step": 3970 }, { "epoch": 5.306666666666667, "grad_norm": 0.435546875, "learning_rate": 9.999867182974853e-05, "loss": 0.48, "step": 3980 }, { "epoch": 5.32, "grad_norm": 0.349609375, "learning_rate": 9.999866418345265e-05, "loss": 0.4794, "step": 3990 }, { "epoch": 5.333333333333333, "grad_norm": 0.4140625, "learning_rate": 9.999865651521028e-05, "loss": 0.4893, "step": 4000 }, { "epoch": 5.346666666666667, "grad_norm": 0.443359375, "learning_rate": 9.99986488250214e-05, "loss": 0.4771, "step": 4010 }, { "epoch": 5.36, "grad_norm": 1.4296875, "learning_rate": 9.999864111288603e-05, "loss": 0.4876, "step": 4020 }, { "epoch": 5.373333333333333, "grad_norm": 0.4296875, "learning_rate": 9.99986333788042e-05, "loss": 0.4771, "step": 4030 }, { "epoch": 5.386666666666667, "grad_norm": 0.287109375, "learning_rate": 9.999862562277586e-05, "loss": 0.4736, "step": 4040 }, { "epoch": 5.4, "grad_norm": 0.44140625, "learning_rate": 9.999861784480105e-05, "loss": 0.4766, "step": 4050 }, { "epoch": 5.413333333333333, "grad_norm": 0.28125, "learning_rate": 9.999861004487977e-05, "loss": 0.4823, "step": 4060 }, { "epoch": 5.426666666666667, "grad_norm": 0.36328125, "learning_rate": 9.9998602223012e-05, "loss": 0.4825, "step": 4070 }, { "epoch": 5.44, "grad_norm": 0.37109375, "learning_rate": 9.999859437919778e-05, "loss": 0.4924, "step": 4080 }, { "epoch": 5.453333333333333, "grad_norm": 0.39453125, "learning_rate": 9.99985865134371e-05, "loss": 0.4829, "step": 4090 }, { "epoch": 5.466666666666667, "grad_norm": 0.263671875, "learning_rate": 9.999857862572993e-05, "loss": 0.4931, "step": 4100 }, { "epoch": 5.48, "grad_norm": 0.29296875, "learning_rate": 9.999857071607633e-05, "loss": 0.473, "step": 4110 }, { "epoch": 5.493333333333333, "grad_norm": 0.3359375, "learning_rate": 9.999856278447625e-05, "loss": 0.4879, "step": 4120 }, { "epoch": 5.506666666666667, "grad_norm": 0.3515625, "learning_rate": 9.999855483092972e-05, "loss": 0.4772, "step": 4130 }, { "epoch": 5.52, "grad_norm": 0.27734375, "learning_rate": 9.999854685543675e-05, "loss": 0.4688, "step": 4140 }, { "epoch": 5.533333333333333, "grad_norm": 0.296875, "learning_rate": 9.999853885799733e-05, "loss": 0.4741, "step": 4150 }, { "epoch": 5.546666666666667, "grad_norm": 0.3125, "learning_rate": 9.999853083861147e-05, "loss": 0.4779, "step": 4160 }, { "epoch": 5.5600000000000005, "grad_norm": 0.302734375, "learning_rate": 9.999852279727917e-05, "loss": 0.467, "step": 4170 }, { "epoch": 5.573333333333333, "grad_norm": 0.271484375, "learning_rate": 9.999851473400043e-05, "loss": 0.4704, "step": 4180 }, { "epoch": 5.586666666666667, "grad_norm": 0.28125, "learning_rate": 9.999850664877528e-05, "loss": 0.4593, "step": 4190 }, { "epoch": 5.6, "grad_norm": 0.2412109375, "learning_rate": 9.999849854160368e-05, "loss": 0.4667, "step": 4200 }, { "epoch": 5.613333333333333, "grad_norm": 0.3828125, "learning_rate": 9.999849041248566e-05, "loss": 0.4458, "step": 4210 }, { "epoch": 5.626666666666667, "grad_norm": 0.3046875, "learning_rate": 9.999848226142123e-05, "loss": 0.4498, "step": 4220 }, { "epoch": 5.64, "grad_norm": 0.384765625, "learning_rate": 9.999847408841036e-05, "loss": 0.4689, "step": 4230 }, { "epoch": 5.653333333333333, "grad_norm": 0.439453125, "learning_rate": 9.99984658934531e-05, "loss": 0.4797, "step": 4240 }, { "epoch": 5.666666666666667, "grad_norm": 0.34375, "learning_rate": 9.999845767654942e-05, "loss": 0.4647, "step": 4250 }, { "epoch": 5.68, "grad_norm": 0.3125, "learning_rate": 9.999844943769934e-05, "loss": 0.456, "step": 4260 }, { "epoch": 5.693333333333333, "grad_norm": 0.279296875, "learning_rate": 9.999844117690286e-05, "loss": 0.4654, "step": 4270 }, { "epoch": 5.706666666666667, "grad_norm": 0.66796875, "learning_rate": 9.999843289415997e-05, "loss": 0.4594, "step": 4280 }, { "epoch": 5.72, "grad_norm": 0.404296875, "learning_rate": 9.999842458947068e-05, "loss": 0.4821, "step": 4290 }, { "epoch": 5.733333333333333, "grad_norm": 0.55078125, "learning_rate": 9.999841626283502e-05, "loss": 0.4758, "step": 4300 }, { "epoch": 5.746666666666667, "grad_norm": 0.78515625, "learning_rate": 9.999840791425297e-05, "loss": 0.4761, "step": 4310 }, { "epoch": 5.76, "grad_norm": 0.328125, "learning_rate": 9.999839954372452e-05, "loss": 0.4889, "step": 4320 }, { "epoch": 5.773333333333333, "grad_norm": 0.50390625, "learning_rate": 9.99983911512497e-05, "loss": 0.4813, "step": 4330 }, { "epoch": 5.786666666666667, "grad_norm": 0.46484375, "learning_rate": 9.999838273682849e-05, "loss": 0.4761, "step": 4340 }, { "epoch": 5.8, "grad_norm": 0.51171875, "learning_rate": 9.99983743004609e-05, "loss": 0.4767, "step": 4350 }, { "epoch": 5.8133333333333335, "grad_norm": 0.32421875, "learning_rate": 9.999836584214697e-05, "loss": 0.4491, "step": 4360 }, { "epoch": 5.826666666666666, "grad_norm": 0.3046875, "learning_rate": 9.999835736188665e-05, "loss": 0.4639, "step": 4370 }, { "epoch": 5.84, "grad_norm": 0.296875, "learning_rate": 9.999834885967998e-05, "loss": 0.4771, "step": 4380 }, { "epoch": 5.8533333333333335, "grad_norm": 0.30078125, "learning_rate": 9.999834033552695e-05, "loss": 0.4722, "step": 4390 }, { "epoch": 5.866666666666667, "grad_norm": 0.357421875, "learning_rate": 9.999833178942757e-05, "loss": 0.471, "step": 4400 }, { "epoch": 5.88, "grad_norm": 0.330078125, "learning_rate": 9.999832322138183e-05, "loss": 0.4483, "step": 4410 }, { "epoch": 5.8933333333333335, "grad_norm": 0.484375, "learning_rate": 9.999831463138975e-05, "loss": 0.4589, "step": 4420 }, { "epoch": 5.906666666666666, "grad_norm": 0.32421875, "learning_rate": 9.999830601945133e-05, "loss": 0.4697, "step": 4430 }, { "epoch": 5.92, "grad_norm": 0.33984375, "learning_rate": 9.999829738556656e-05, "loss": 0.4712, "step": 4440 }, { "epoch": 5.933333333333334, "grad_norm": 0.30859375, "learning_rate": 9.999828872973545e-05, "loss": 0.462, "step": 4450 }, { "epoch": 5.946666666666666, "grad_norm": 0.255859375, "learning_rate": 9.999828005195801e-05, "loss": 0.4644, "step": 4460 }, { "epoch": 5.96, "grad_norm": 0.2578125, "learning_rate": 9.999827135223425e-05, "loss": 0.4608, "step": 4470 }, { "epoch": 5.973333333333334, "grad_norm": 0.314453125, "learning_rate": 9.999826263056416e-05, "loss": 0.4833, "step": 4480 }, { "epoch": 5.986666666666666, "grad_norm": 0.421875, "learning_rate": 9.999825388694776e-05, "loss": 0.4644, "step": 4490 }, { "epoch": 6.0, "grad_norm": 0.380859375, "learning_rate": 9.999824512138502e-05, "loss": 0.4563, "step": 4500 }, { "epoch": 6.0, "eval_loss": 0.47930875420570374, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.1425, "eval_samples_per_second": 1.578, "eval_steps_per_second": 0.099, "step": 4500 }, { "epoch": 6.013333333333334, "grad_norm": 0.35546875, "learning_rate": 9.9998236333876e-05, "loss": 0.4753, "step": 4510 }, { "epoch": 6.026666666666666, "grad_norm": 0.294921875, "learning_rate": 9.999822752442065e-05, "loss": 0.4842, "step": 4520 }, { "epoch": 6.04, "grad_norm": 0.3203125, "learning_rate": 9.9998218693019e-05, "loss": 0.4966, "step": 4530 }, { "epoch": 6.053333333333334, "grad_norm": 0.326171875, "learning_rate": 9.999820983967104e-05, "loss": 0.4852, "step": 4540 }, { "epoch": 6.066666666666666, "grad_norm": 0.345703125, "learning_rate": 9.99982009643768e-05, "loss": 0.4721, "step": 4550 }, { "epoch": 6.08, "grad_norm": 0.376953125, "learning_rate": 9.999819206713626e-05, "loss": 0.4753, "step": 4560 }, { "epoch": 6.093333333333334, "grad_norm": 0.70703125, "learning_rate": 9.999818314794942e-05, "loss": 0.4733, "step": 4570 }, { "epoch": 6.1066666666666665, "grad_norm": 0.3515625, "learning_rate": 9.99981742068163e-05, "loss": 0.4611, "step": 4580 }, { "epoch": 6.12, "grad_norm": 0.40625, "learning_rate": 9.99981652437369e-05, "loss": 0.4708, "step": 4590 }, { "epoch": 6.133333333333334, "grad_norm": 0.33203125, "learning_rate": 9.999815625871121e-05, "loss": 0.4639, "step": 4600 }, { "epoch": 6.1466666666666665, "grad_norm": 0.3203125, "learning_rate": 9.999814725173926e-05, "loss": 0.4821, "step": 4610 }, { "epoch": 6.16, "grad_norm": 0.388671875, "learning_rate": 9.999813822282105e-05, "loss": 0.4747, "step": 4620 }, { "epoch": 6.173333333333334, "grad_norm": 0.8515625, "learning_rate": 9.999812917195655e-05, "loss": 0.4616, "step": 4630 }, { "epoch": 6.1866666666666665, "grad_norm": 0.30078125, "learning_rate": 9.99981200991458e-05, "loss": 0.4655, "step": 4640 }, { "epoch": 6.2, "grad_norm": 0.26171875, "learning_rate": 9.99981110043888e-05, "loss": 0.4612, "step": 4650 }, { "epoch": 6.213333333333333, "grad_norm": 0.328125, "learning_rate": 9.999810188768553e-05, "loss": 0.462, "step": 4660 }, { "epoch": 6.226666666666667, "grad_norm": 0.369140625, "learning_rate": 9.999809274903602e-05, "loss": 0.4752, "step": 4670 }, { "epoch": 6.24, "grad_norm": 0.400390625, "learning_rate": 9.999808358844026e-05, "loss": 0.4543, "step": 4680 }, { "epoch": 6.253333333333333, "grad_norm": 0.314453125, "learning_rate": 9.999807440589826e-05, "loss": 0.4607, "step": 4690 }, { "epoch": 6.266666666666667, "grad_norm": 0.30078125, "learning_rate": 9.999806520141001e-05, "loss": 0.4585, "step": 4700 }, { "epoch": 6.28, "grad_norm": 0.322265625, "learning_rate": 9.999805597497555e-05, "loss": 0.4898, "step": 4710 }, { "epoch": 6.293333333333333, "grad_norm": 0.49609375, "learning_rate": 9.999804672659486e-05, "loss": 0.4467, "step": 4720 }, { "epoch": 6.306666666666667, "grad_norm": 0.53125, "learning_rate": 9.999803745626792e-05, "loss": 0.4687, "step": 4730 }, { "epoch": 6.32, "grad_norm": 0.396484375, "learning_rate": 9.999802816399478e-05, "loss": 0.4689, "step": 4740 }, { "epoch": 6.333333333333333, "grad_norm": 0.56640625, "learning_rate": 9.999801884977539e-05, "loss": 0.478, "step": 4750 }, { "epoch": 6.346666666666667, "grad_norm": 0.322265625, "learning_rate": 9.999800951360983e-05, "loss": 0.4671, "step": 4760 }, { "epoch": 6.36, "grad_norm": 0.55078125, "learning_rate": 9.999800015549802e-05, "loss": 0.4727, "step": 4770 }, { "epoch": 6.373333333333333, "grad_norm": 0.41796875, "learning_rate": 9.999799077544003e-05, "loss": 0.4651, "step": 4780 }, { "epoch": 6.386666666666667, "grad_norm": 0.318359375, "learning_rate": 9.999798137343583e-05, "loss": 0.4638, "step": 4790 }, { "epoch": 6.4, "grad_norm": 0.2890625, "learning_rate": 9.999797194948544e-05, "loss": 0.4658, "step": 4800 }, { "epoch": 6.413333333333333, "grad_norm": 0.283203125, "learning_rate": 9.999796250358886e-05, "loss": 0.4723, "step": 4810 }, { "epoch": 6.426666666666667, "grad_norm": 0.279296875, "learning_rate": 9.999795303574609e-05, "loss": 0.4725, "step": 4820 }, { "epoch": 6.44, "grad_norm": 0.31640625, "learning_rate": 9.999794354595712e-05, "loss": 0.4811, "step": 4830 }, { "epoch": 6.453333333333333, "grad_norm": 0.48046875, "learning_rate": 9.999793403422197e-05, "loss": 0.4725, "step": 4840 }, { "epoch": 6.466666666666667, "grad_norm": 0.248046875, "learning_rate": 9.999792450054067e-05, "loss": 0.4817, "step": 4850 }, { "epoch": 6.48, "grad_norm": 0.3046875, "learning_rate": 9.999791494491318e-05, "loss": 0.4625, "step": 4860 }, { "epoch": 6.493333333333333, "grad_norm": 0.337890625, "learning_rate": 9.99979053673395e-05, "loss": 0.4776, "step": 4870 }, { "epoch": 6.506666666666667, "grad_norm": 0.423828125, "learning_rate": 9.999789576781969e-05, "loss": 0.4694, "step": 4880 }, { "epoch": 6.52, "grad_norm": 0.69140625, "learning_rate": 9.999788614635371e-05, "loss": 0.4597, "step": 4890 }, { "epoch": 6.533333333333333, "grad_norm": 0.330078125, "learning_rate": 9.999787650294157e-05, "loss": 0.4648, "step": 4900 }, { "epoch": 6.546666666666667, "grad_norm": 0.294921875, "learning_rate": 9.999786683758329e-05, "loss": 0.4673, "step": 4910 }, { "epoch": 6.5600000000000005, "grad_norm": 0.2392578125, "learning_rate": 9.999785715027885e-05, "loss": 0.4577, "step": 4920 }, { "epoch": 6.573333333333333, "grad_norm": 0.29296875, "learning_rate": 9.999784744102827e-05, "loss": 0.4606, "step": 4930 }, { "epoch": 6.586666666666667, "grad_norm": 0.341796875, "learning_rate": 9.999783770983155e-05, "loss": 0.4509, "step": 4940 }, { "epoch": 6.6, "grad_norm": 0.306640625, "learning_rate": 9.999782795668871e-05, "loss": 0.4562, "step": 4950 }, { "epoch": 6.613333333333333, "grad_norm": 0.275390625, "learning_rate": 9.999781818159973e-05, "loss": 0.4377, "step": 4960 }, { "epoch": 6.626666666666667, "grad_norm": 0.265625, "learning_rate": 9.999780838456462e-05, "loss": 0.4409, "step": 4970 }, { "epoch": 6.64, "grad_norm": 0.265625, "learning_rate": 9.99977985655834e-05, "loss": 0.4588, "step": 4980 }, { "epoch": 6.653333333333333, "grad_norm": 0.298828125, "learning_rate": 9.999778872465606e-05, "loss": 0.4698, "step": 4990 }, { "epoch": 6.666666666666667, "grad_norm": 0.365234375, "learning_rate": 9.99977788617826e-05, "loss": 0.4547, "step": 5000 }, { "epoch": 6.68, "grad_norm": 0.33984375, "learning_rate": 9.999776897696305e-05, "loss": 0.4472, "step": 5010 }, { "epoch": 6.693333333333333, "grad_norm": 0.314453125, "learning_rate": 9.999775907019738e-05, "loss": 0.4559, "step": 5020 }, { "epoch": 6.706666666666667, "grad_norm": 0.365234375, "learning_rate": 9.99977491414856e-05, "loss": 0.4505, "step": 5030 }, { "epoch": 6.72, "grad_norm": 0.28125, "learning_rate": 9.999773919082774e-05, "loss": 0.4722, "step": 5040 }, { "epoch": 6.733333333333333, "grad_norm": 0.380859375, "learning_rate": 9.99977292182238e-05, "loss": 0.4675, "step": 5050 }, { "epoch": 6.746666666666667, "grad_norm": 0.43359375, "learning_rate": 9.999771922367375e-05, "loss": 0.4677, "step": 5060 }, { "epoch": 6.76, "grad_norm": 0.462890625, "learning_rate": 9.999770920717764e-05, "loss": 0.4793, "step": 5070 }, { "epoch": 6.773333333333333, "grad_norm": 0.404296875, "learning_rate": 9.999769916873542e-05, "loss": 0.4717, "step": 5080 }, { "epoch": 6.786666666666667, "grad_norm": 0.29296875, "learning_rate": 9.999768910834717e-05, "loss": 0.4666, "step": 5090 }, { "epoch": 6.8, "grad_norm": 0.296875, "learning_rate": 9.999767902601282e-05, "loss": 0.468, "step": 5100 }, { "epoch": 6.8133333333333335, "grad_norm": 0.294921875, "learning_rate": 9.999766892173242e-05, "loss": 0.4401, "step": 5110 }, { "epoch": 6.826666666666666, "grad_norm": 0.376953125, "learning_rate": 9.999765879550595e-05, "loss": 0.4547, "step": 5120 }, { "epoch": 6.84, "grad_norm": 0.34375, "learning_rate": 9.999764864733343e-05, "loss": 0.4682, "step": 5130 }, { "epoch": 6.8533333333333335, "grad_norm": 0.3203125, "learning_rate": 9.999763847721486e-05, "loss": 0.4622, "step": 5140 }, { "epoch": 6.866666666666667, "grad_norm": 0.296875, "learning_rate": 9.999762828515024e-05, "loss": 0.4622, "step": 5150 }, { "epoch": 6.88, "grad_norm": 0.296875, "learning_rate": 9.999761807113958e-05, "loss": 0.4393, "step": 5160 }, { "epoch": 6.8933333333333335, "grad_norm": 0.4375, "learning_rate": 9.999760783518289e-05, "loss": 0.4496, "step": 5170 }, { "epoch": 6.906666666666666, "grad_norm": 1.0859375, "learning_rate": 9.999759757728014e-05, "loss": 0.4607, "step": 5180 }, { "epoch": 6.92, "grad_norm": 1.140625, "learning_rate": 9.999758729743139e-05, "loss": 0.4628, "step": 5190 }, { "epoch": 6.933333333333334, "grad_norm": 0.8203125, "learning_rate": 9.99975769956366e-05, "loss": 0.4539, "step": 5200 }, { "epoch": 6.946666666666666, "grad_norm": 0.35546875, "learning_rate": 9.99975666718958e-05, "loss": 0.4553, "step": 5210 }, { "epoch": 6.96, "grad_norm": 0.5859375, "learning_rate": 9.999755632620898e-05, "loss": 0.4519, "step": 5220 }, { "epoch": 6.973333333333334, "grad_norm": 0.51171875, "learning_rate": 9.999754595857616e-05, "loss": 0.476, "step": 5230 }, { "epoch": 6.986666666666666, "grad_norm": 0.412109375, "learning_rate": 9.999753556899731e-05, "loss": 0.4566, "step": 5240 }, { "epoch": 7.0, "grad_norm": 0.328125, "learning_rate": 9.999752515747247e-05, "loss": 0.4476, "step": 5250 }, { "epoch": 7.0, "eval_loss": 0.4717645049095154, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5638, "eval_samples_per_second": 1.515, "eval_steps_per_second": 0.095, "step": 5250 }, { "epoch": 7.013333333333334, "grad_norm": 0.296875, "learning_rate": 9.999751472400165e-05, "loss": 0.4671, "step": 5260 }, { "epoch": 7.026666666666666, "grad_norm": 0.306640625, "learning_rate": 9.999750426858481e-05, "loss": 0.476, "step": 5270 }, { "epoch": 7.04, "grad_norm": 0.314453125, "learning_rate": 9.999749379122201e-05, "loss": 0.4903, "step": 5280 }, { "epoch": 7.053333333333334, "grad_norm": 0.32421875, "learning_rate": 9.99974832919132e-05, "loss": 0.478, "step": 5290 }, { "epoch": 7.066666666666666, "grad_norm": 0.5078125, "learning_rate": 9.999747277065844e-05, "loss": 0.465, "step": 5300 }, { "epoch": 7.08, "grad_norm": 0.390625, "learning_rate": 9.999746222745768e-05, "loss": 0.4666, "step": 5310 }, { "epoch": 7.093333333333334, "grad_norm": 0.5546875, "learning_rate": 9.999745166231096e-05, "loss": 0.4655, "step": 5320 }, { "epoch": 7.1066666666666665, "grad_norm": 0.328125, "learning_rate": 9.999744107521829e-05, "loss": 0.4537, "step": 5330 }, { "epoch": 7.12, "grad_norm": 0.37890625, "learning_rate": 9.999743046617964e-05, "loss": 0.4614, "step": 5340 }, { "epoch": 7.133333333333334, "grad_norm": 0.37109375, "learning_rate": 9.999741983519504e-05, "loss": 0.4546, "step": 5350 }, { "epoch": 7.1466666666666665, "grad_norm": 0.41015625, "learning_rate": 9.999740918226449e-05, "loss": 0.4747, "step": 5360 }, { "epoch": 7.16, "grad_norm": 0.54296875, "learning_rate": 9.9997398507388e-05, "loss": 0.4641, "step": 5370 }, { "epoch": 7.173333333333334, "grad_norm": 0.361328125, "learning_rate": 9.999738781056556e-05, "loss": 0.4544, "step": 5380 }, { "epoch": 7.1866666666666665, "grad_norm": 0.291015625, "learning_rate": 9.99973770917972e-05, "loss": 0.458, "step": 5390 }, { "epoch": 7.2, "grad_norm": 0.5078125, "learning_rate": 9.999736635108288e-05, "loss": 0.4526, "step": 5400 }, { "epoch": 7.213333333333333, "grad_norm": 0.388671875, "learning_rate": 9.999735558842265e-05, "loss": 0.4539, "step": 5410 }, { "epoch": 7.226666666666667, "grad_norm": 0.3125, "learning_rate": 9.999734480381649e-05, "loss": 0.4663, "step": 5420 }, { "epoch": 7.24, "grad_norm": 0.345703125, "learning_rate": 9.999733399726443e-05, "loss": 0.4481, "step": 5430 }, { "epoch": 7.253333333333333, "grad_norm": 0.333984375, "learning_rate": 9.999732316876644e-05, "loss": 0.4517, "step": 5440 }, { "epoch": 7.266666666666667, "grad_norm": 0.30078125, "learning_rate": 9.999731231832254e-05, "loss": 0.4505, "step": 5450 }, { "epoch": 7.28, "grad_norm": 0.287109375, "learning_rate": 9.999730144593276e-05, "loss": 0.4814, "step": 5460 }, { "epoch": 7.293333333333333, "grad_norm": 0.4375, "learning_rate": 9.999729055159706e-05, "loss": 0.4377, "step": 5470 }, { "epoch": 7.306666666666667, "grad_norm": 0.345703125, "learning_rate": 9.999727963531547e-05, "loss": 0.4604, "step": 5480 }, { "epoch": 7.32, "grad_norm": 0.35546875, "learning_rate": 9.999726869708799e-05, "loss": 0.4605, "step": 5490 }, { "epoch": 7.333333333333333, "grad_norm": 0.302734375, "learning_rate": 9.999725773691463e-05, "loss": 0.4702, "step": 5500 }, { "epoch": 7.346666666666667, "grad_norm": 0.45703125, "learning_rate": 9.999724675479539e-05, "loss": 0.4591, "step": 5510 }, { "epoch": 7.36, "grad_norm": 0.515625, "learning_rate": 9.999723575073027e-05, "loss": 0.4647, "step": 5520 }, { "epoch": 7.373333333333333, "grad_norm": 0.318359375, "learning_rate": 9.999722472471929e-05, "loss": 0.4586, "step": 5530 }, { "epoch": 7.386666666666667, "grad_norm": 0.35546875, "learning_rate": 9.999721367676243e-05, "loss": 0.4543, "step": 5540 }, { "epoch": 7.4, "grad_norm": 0.333984375, "learning_rate": 9.999720260685971e-05, "loss": 0.4589, "step": 5550 }, { "epoch": 7.413333333333333, "grad_norm": 0.29296875, "learning_rate": 9.999719151501115e-05, "loss": 0.4646, "step": 5560 }, { "epoch": 7.426666666666667, "grad_norm": 0.251953125, "learning_rate": 9.999718040121672e-05, "loss": 0.4653, "step": 5570 }, { "epoch": 7.44, "grad_norm": 0.5859375, "learning_rate": 9.999716926547647e-05, "loss": 0.473, "step": 5580 }, { "epoch": 7.453333333333333, "grad_norm": 0.396484375, "learning_rate": 9.999715810779037e-05, "loss": 0.465, "step": 5590 }, { "epoch": 7.466666666666667, "grad_norm": 0.357421875, "learning_rate": 9.999714692815843e-05, "loss": 0.4743, "step": 5600 }, { "epoch": 7.48, "grad_norm": 0.33203125, "learning_rate": 9.999713572658066e-05, "loss": 0.4546, "step": 5610 }, { "epoch": 7.493333333333333, "grad_norm": 0.302734375, "learning_rate": 9.999712450305707e-05, "loss": 0.4685, "step": 5620 }, { "epoch": 7.506666666666667, "grad_norm": 0.275390625, "learning_rate": 9.999711325758765e-05, "loss": 0.4613, "step": 5630 }, { "epoch": 7.52, "grad_norm": 0.291015625, "learning_rate": 9.999710199017241e-05, "loss": 0.452, "step": 5640 }, { "epoch": 7.533333333333333, "grad_norm": 0.306640625, "learning_rate": 9.999709070081138e-05, "loss": 0.4565, "step": 5650 }, { "epoch": 7.546666666666667, "grad_norm": 0.326171875, "learning_rate": 9.999707938950452e-05, "loss": 0.4596, "step": 5660 }, { "epoch": 7.5600000000000005, "grad_norm": 0.345703125, "learning_rate": 9.999706805625186e-05, "loss": 0.4513, "step": 5670 }, { "epoch": 7.573333333333333, "grad_norm": 0.328125, "learning_rate": 9.999705670105341e-05, "loss": 0.4546, "step": 5680 }, { "epoch": 7.586666666666667, "grad_norm": 0.53515625, "learning_rate": 9.999704532390919e-05, "loss": 0.4428, "step": 5690 }, { "epoch": 7.6, "grad_norm": 0.458984375, "learning_rate": 9.999703392481916e-05, "loss": 0.4483, "step": 5700 }, { "epoch": 7.613333333333333, "grad_norm": 0.359375, "learning_rate": 9.999702250378335e-05, "loss": 0.4306, "step": 5710 }, { "epoch": 7.626666666666667, "grad_norm": 0.291015625, "learning_rate": 9.999701106080177e-05, "loss": 0.4355, "step": 5720 }, { "epoch": 7.64, "grad_norm": 0.31640625, "learning_rate": 9.999699959587441e-05, "loss": 0.453, "step": 5730 }, { "epoch": 7.653333333333333, "grad_norm": 0.6015625, "learning_rate": 9.999698810900129e-05, "loss": 0.4632, "step": 5740 }, { "epoch": 7.666666666666667, "grad_norm": 0.31640625, "learning_rate": 9.999697660018242e-05, "loss": 0.4483, "step": 5750 }, { "epoch": 7.68, "grad_norm": 0.3046875, "learning_rate": 9.999696506941778e-05, "loss": 0.4401, "step": 5760 }, { "epoch": 7.693333333333333, "grad_norm": 0.275390625, "learning_rate": 9.999695351670739e-05, "loss": 0.4491, "step": 5770 }, { "epoch": 7.706666666666667, "grad_norm": 0.466796875, "learning_rate": 9.999694194205125e-05, "loss": 0.4434, "step": 5780 }, { "epoch": 7.72, "grad_norm": 0.376953125, "learning_rate": 9.999693034544938e-05, "loss": 0.4666, "step": 5790 }, { "epoch": 7.733333333333333, "grad_norm": 0.4296875, "learning_rate": 9.999691872690176e-05, "loss": 0.461, "step": 5800 }, { "epoch": 7.746666666666667, "grad_norm": 0.3984375, "learning_rate": 9.999690708640844e-05, "loss": 0.4606, "step": 5810 }, { "epoch": 7.76, "grad_norm": 0.26953125, "learning_rate": 9.999689542396936e-05, "loss": 0.4726, "step": 5820 }, { "epoch": 7.773333333333333, "grad_norm": 0.3984375, "learning_rate": 9.999688373958457e-05, "loss": 0.4652, "step": 5830 }, { "epoch": 7.786666666666667, "grad_norm": 0.306640625, "learning_rate": 9.999687203325407e-05, "loss": 0.4611, "step": 5840 }, { "epoch": 7.8, "grad_norm": 0.33984375, "learning_rate": 9.999686030497786e-05, "loss": 0.4619, "step": 5850 }, { "epoch": 7.8133333333333335, "grad_norm": 0.33203125, "learning_rate": 9.999684855475594e-05, "loss": 0.4341, "step": 5860 }, { "epoch": 7.826666666666666, "grad_norm": 0.3203125, "learning_rate": 9.999683678258833e-05, "loss": 0.4478, "step": 5870 }, { "epoch": 7.84, "grad_norm": 0.41796875, "learning_rate": 9.9996824988475e-05, "loss": 0.4609, "step": 5880 }, { "epoch": 7.8533333333333335, "grad_norm": 0.37890625, "learning_rate": 9.999681317241601e-05, "loss": 0.4557, "step": 5890 }, { "epoch": 7.866666666666667, "grad_norm": 0.36328125, "learning_rate": 9.999680133441131e-05, "loss": 0.4557, "step": 5900 }, { "epoch": 7.88, "grad_norm": 0.283203125, "learning_rate": 9.999678947446097e-05, "loss": 0.4336, "step": 5910 }, { "epoch": 7.8933333333333335, "grad_norm": 0.333984375, "learning_rate": 9.999677759256492e-05, "loss": 0.4443, "step": 5920 }, { "epoch": 7.906666666666666, "grad_norm": 0.439453125, "learning_rate": 9.999676568872321e-05, "loss": 0.4543, "step": 5930 }, { "epoch": 7.92, "grad_norm": 0.404296875, "learning_rate": 9.999675376293584e-05, "loss": 0.4568, "step": 5940 }, { "epoch": 7.933333333333334, "grad_norm": 0.283203125, "learning_rate": 9.99967418152028e-05, "loss": 0.4478, "step": 5950 }, { "epoch": 7.946666666666666, "grad_norm": 0.330078125, "learning_rate": 9.999672984552413e-05, "loss": 0.4501, "step": 5960 }, { "epoch": 7.96, "grad_norm": 0.298828125, "learning_rate": 9.999671785389979e-05, "loss": 0.4455, "step": 5970 }, { "epoch": 7.973333333333334, "grad_norm": 0.408203125, "learning_rate": 9.999670584032982e-05, "loss": 0.4712, "step": 5980 }, { "epoch": 7.986666666666666, "grad_norm": 0.30859375, "learning_rate": 9.99966938048142e-05, "loss": 0.4509, "step": 5990 }, { "epoch": 8.0, "grad_norm": 0.369140625, "learning_rate": 9.999668174735297e-05, "loss": 0.4414, "step": 6000 }, { "epoch": 8.0, "eval_loss": 0.4673362672328949, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.2624, "eval_samples_per_second": 1.559, "eval_steps_per_second": 0.097, "step": 6000 }, { "epoch": 8.013333333333334, "grad_norm": 0.3671875, "learning_rate": 9.999666966794609e-05, "loss": 0.4618, "step": 6010 }, { "epoch": 8.026666666666667, "grad_norm": 0.369140625, "learning_rate": 9.999665756659359e-05, "loss": 0.4706, "step": 6020 }, { "epoch": 8.04, "grad_norm": 0.380859375, "learning_rate": 9.99966454432955e-05, "loss": 0.4821, "step": 6030 }, { "epoch": 8.053333333333333, "grad_norm": 0.36328125, "learning_rate": 9.999663329805177e-05, "loss": 0.4706, "step": 6040 }, { "epoch": 8.066666666666666, "grad_norm": 0.314453125, "learning_rate": 9.999662113086245e-05, "loss": 0.4569, "step": 6050 }, { "epoch": 8.08, "grad_norm": 0.33984375, "learning_rate": 9.999660894172754e-05, "loss": 0.4621, "step": 6060 }, { "epoch": 8.093333333333334, "grad_norm": 0.474609375, "learning_rate": 9.999659673064702e-05, "loss": 0.4595, "step": 6070 }, { "epoch": 8.106666666666667, "grad_norm": 0.427734375, "learning_rate": 9.99965844976209e-05, "loss": 0.4489, "step": 6080 }, { "epoch": 8.12, "grad_norm": 0.31640625, "learning_rate": 9.999657224264922e-05, "loss": 0.4558, "step": 6090 }, { "epoch": 8.133333333333333, "grad_norm": 0.37109375, "learning_rate": 9.999655996573196e-05, "loss": 0.4478, "step": 6100 }, { "epoch": 8.146666666666667, "grad_norm": 0.333984375, "learning_rate": 9.999654766686911e-05, "loss": 0.4675, "step": 6110 }, { "epoch": 8.16, "grad_norm": 0.349609375, "learning_rate": 9.99965353460607e-05, "loss": 0.4583, "step": 6120 }, { "epoch": 8.173333333333334, "grad_norm": 0.57421875, "learning_rate": 9.999652300330673e-05, "loss": 0.4486, "step": 6130 }, { "epoch": 8.186666666666667, "grad_norm": 0.392578125, "learning_rate": 9.99965106386072e-05, "loss": 0.451, "step": 6140 }, { "epoch": 8.2, "grad_norm": 0.42578125, "learning_rate": 9.99964982519621e-05, "loss": 0.4464, "step": 6150 }, { "epoch": 8.213333333333333, "grad_norm": 0.373046875, "learning_rate": 9.999648584337148e-05, "loss": 0.4468, "step": 6160 }, { "epoch": 8.226666666666667, "grad_norm": 0.328125, "learning_rate": 9.999647341283532e-05, "loss": 0.4604, "step": 6170 }, { "epoch": 8.24, "grad_norm": 0.412109375, "learning_rate": 9.999646096035362e-05, "loss": 0.4413, "step": 6180 }, { "epoch": 8.253333333333334, "grad_norm": 0.341796875, "learning_rate": 9.999644848592638e-05, "loss": 0.4455, "step": 6190 }, { "epoch": 8.266666666666667, "grad_norm": 0.3125, "learning_rate": 9.999643598955363e-05, "loss": 0.4455, "step": 6200 }, { "epoch": 8.28, "grad_norm": 0.310546875, "learning_rate": 9.999642347123534e-05, "loss": 0.4763, "step": 6210 }, { "epoch": 8.293333333333333, "grad_norm": 0.400390625, "learning_rate": 9.999641093097157e-05, "loss": 0.4313, "step": 6220 }, { "epoch": 8.306666666666667, "grad_norm": 0.275390625, "learning_rate": 9.999639836876226e-05, "loss": 0.4552, "step": 6230 }, { "epoch": 8.32, "grad_norm": 0.298828125, "learning_rate": 9.999638578460746e-05, "loss": 0.4544, "step": 6240 }, { "epoch": 8.333333333333334, "grad_norm": 0.322265625, "learning_rate": 9.999637317850716e-05, "loss": 0.4633, "step": 6250 }, { "epoch": 8.346666666666668, "grad_norm": 0.392578125, "learning_rate": 9.999636055046138e-05, "loss": 0.4525, "step": 6260 }, { "epoch": 8.36, "grad_norm": 0.48046875, "learning_rate": 9.99963479004701e-05, "loss": 0.4581, "step": 6270 }, { "epoch": 8.373333333333333, "grad_norm": 0.498046875, "learning_rate": 9.999633522853335e-05, "loss": 0.4527, "step": 6280 }, { "epoch": 8.386666666666667, "grad_norm": 0.396484375, "learning_rate": 9.999632253465112e-05, "loss": 0.4496, "step": 6290 }, { "epoch": 8.4, "grad_norm": 0.439453125, "learning_rate": 9.999630981882342e-05, "loss": 0.4526, "step": 6300 }, { "epoch": 8.413333333333334, "grad_norm": 0.38671875, "learning_rate": 9.999629708105027e-05, "loss": 0.4572, "step": 6310 }, { "epoch": 8.426666666666666, "grad_norm": 0.306640625, "learning_rate": 9.999628432133165e-05, "loss": 0.4596, "step": 6320 }, { "epoch": 8.44, "grad_norm": 0.306640625, "learning_rate": 9.999627153966759e-05, "loss": 0.4686, "step": 6330 }, { "epoch": 8.453333333333333, "grad_norm": 0.396484375, "learning_rate": 9.999625873605807e-05, "loss": 0.4583, "step": 6340 }, { "epoch": 8.466666666666667, "grad_norm": 0.345703125, "learning_rate": 9.999624591050311e-05, "loss": 0.4684, "step": 6350 }, { "epoch": 8.48, "grad_norm": 0.322265625, "learning_rate": 9.999623306300272e-05, "loss": 0.4495, "step": 6360 }, { "epoch": 8.493333333333334, "grad_norm": 0.34765625, "learning_rate": 9.99962201935569e-05, "loss": 0.462, "step": 6370 }, { "epoch": 8.506666666666666, "grad_norm": 0.3828125, "learning_rate": 9.999620730216565e-05, "loss": 0.4563, "step": 6380 }, { "epoch": 8.52, "grad_norm": 0.36328125, "learning_rate": 9.999619438882899e-05, "loss": 0.4479, "step": 6390 }, { "epoch": 8.533333333333333, "grad_norm": 0.337890625, "learning_rate": 9.99961814535469e-05, "loss": 0.4515, "step": 6400 }, { "epoch": 8.546666666666667, "grad_norm": 0.341796875, "learning_rate": 9.999616849631942e-05, "loss": 0.4536, "step": 6410 }, { "epoch": 8.56, "grad_norm": 0.326171875, "learning_rate": 9.999615551714653e-05, "loss": 0.4443, "step": 6420 }, { "epoch": 8.573333333333334, "grad_norm": 0.3828125, "learning_rate": 9.999614251602824e-05, "loss": 0.4484, "step": 6430 }, { "epoch": 8.586666666666666, "grad_norm": 0.33984375, "learning_rate": 9.999612949296458e-05, "loss": 0.436, "step": 6440 }, { "epoch": 8.6, "grad_norm": 0.419921875, "learning_rate": 9.999611644795552e-05, "loss": 0.4426, "step": 6450 }, { "epoch": 8.613333333333333, "grad_norm": 0.37109375, "learning_rate": 9.999610338100109e-05, "loss": 0.4254, "step": 6460 }, { "epoch": 8.626666666666667, "grad_norm": 0.357421875, "learning_rate": 9.999609029210128e-05, "loss": 0.4299, "step": 6470 }, { "epoch": 8.64, "grad_norm": 0.412109375, "learning_rate": 9.99960771812561e-05, "loss": 0.4479, "step": 6480 }, { "epoch": 8.653333333333332, "grad_norm": 0.349609375, "learning_rate": 9.999606404846558e-05, "loss": 0.4583, "step": 6490 }, { "epoch": 8.666666666666666, "grad_norm": 0.4609375, "learning_rate": 9.999605089372967e-05, "loss": 0.4417, "step": 6500 }, { "epoch": 8.68, "grad_norm": 0.31640625, "learning_rate": 9.999603771704845e-05, "loss": 0.435, "step": 6510 }, { "epoch": 8.693333333333333, "grad_norm": 0.396484375, "learning_rate": 9.999602451842185e-05, "loss": 0.4427, "step": 6520 }, { "epoch": 8.706666666666667, "grad_norm": 0.37109375, "learning_rate": 9.999601129784994e-05, "loss": 0.4378, "step": 6530 }, { "epoch": 8.72, "grad_norm": 0.3515625, "learning_rate": 9.999599805533267e-05, "loss": 0.4614, "step": 6540 }, { "epoch": 8.733333333333333, "grad_norm": 0.50390625, "learning_rate": 9.999598479087009e-05, "loss": 0.4557, "step": 6550 }, { "epoch": 8.746666666666666, "grad_norm": 0.421875, "learning_rate": 9.99959715044622e-05, "loss": 0.4557, "step": 6560 }, { "epoch": 8.76, "grad_norm": 0.3828125, "learning_rate": 9.999595819610897e-05, "loss": 0.4668, "step": 6570 }, { "epoch": 8.773333333333333, "grad_norm": 0.412109375, "learning_rate": 9.999594486581045e-05, "loss": 0.4591, "step": 6580 }, { "epoch": 8.786666666666667, "grad_norm": 0.330078125, "learning_rate": 9.999593151356661e-05, "loss": 0.4559, "step": 6590 }, { "epoch": 8.8, "grad_norm": 0.439453125, "learning_rate": 9.999591813937748e-05, "loss": 0.4562, "step": 6600 }, { "epoch": 8.813333333333333, "grad_norm": 0.3671875, "learning_rate": 9.999590474324307e-05, "loss": 0.4287, "step": 6610 }, { "epoch": 8.826666666666666, "grad_norm": 0.37890625, "learning_rate": 9.999589132516336e-05, "loss": 0.4425, "step": 6620 }, { "epoch": 8.84, "grad_norm": 0.359375, "learning_rate": 9.999587788513838e-05, "loss": 0.454, "step": 6630 }, { "epoch": 8.853333333333333, "grad_norm": 0.35546875, "learning_rate": 9.999586442316813e-05, "loss": 0.4492, "step": 6640 }, { "epoch": 8.866666666666667, "grad_norm": 0.349609375, "learning_rate": 9.99958509392526e-05, "loss": 0.4505, "step": 6650 }, { "epoch": 8.88, "grad_norm": 0.353515625, "learning_rate": 9.99958374333918e-05, "loss": 0.4281, "step": 6660 }, { "epoch": 8.893333333333333, "grad_norm": 0.341796875, "learning_rate": 9.999582390558577e-05, "loss": 0.4387, "step": 6670 }, { "epoch": 8.906666666666666, "grad_norm": 0.48828125, "learning_rate": 9.999581035583447e-05, "loss": 0.4499, "step": 6680 }, { "epoch": 8.92, "grad_norm": 0.3203125, "learning_rate": 9.999579678413793e-05, "loss": 0.4508, "step": 6690 }, { "epoch": 8.933333333333334, "grad_norm": 0.275390625, "learning_rate": 9.999578319049616e-05, "loss": 0.4414, "step": 6700 }, { "epoch": 8.946666666666667, "grad_norm": 0.318359375, "learning_rate": 9.999576957490915e-05, "loss": 0.444, "step": 6710 }, { "epoch": 8.96, "grad_norm": 0.3828125, "learning_rate": 9.999575593737691e-05, "loss": 0.4403, "step": 6720 }, { "epoch": 8.973333333333333, "grad_norm": 0.408203125, "learning_rate": 9.999574227789946e-05, "loss": 0.4637, "step": 6730 }, { "epoch": 8.986666666666666, "grad_norm": 0.3359375, "learning_rate": 9.999572859647679e-05, "loss": 0.4446, "step": 6740 }, { "epoch": 9.0, "grad_norm": 0.39453125, "learning_rate": 9.999571489310891e-05, "loss": 0.4354, "step": 6750 }, { "epoch": 9.0, "eval_loss": 0.46216151118278503, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3384, "eval_samples_per_second": 1.548, "eval_steps_per_second": 0.097, "step": 6750 }, { "epoch": 9.013333333333334, "grad_norm": 0.35546875, "learning_rate": 9.999570116779584e-05, "loss": 0.4564, "step": 6760 }, { "epoch": 9.026666666666667, "grad_norm": 0.384765625, "learning_rate": 9.999568742053756e-05, "loss": 0.4649, "step": 6770 }, { "epoch": 9.04, "grad_norm": 0.37109375, "learning_rate": 9.999567365133409e-05, "loss": 0.4766, "step": 6780 }, { "epoch": 9.053333333333333, "grad_norm": 0.33984375, "learning_rate": 9.999565986018545e-05, "loss": 0.4657, "step": 6790 }, { "epoch": 9.066666666666666, "grad_norm": 0.341796875, "learning_rate": 9.999564604709162e-05, "loss": 0.4509, "step": 6800 }, { "epoch": 9.08, "grad_norm": 0.490234375, "learning_rate": 9.999563221205261e-05, "loss": 0.4556, "step": 6810 }, { "epoch": 9.093333333333334, "grad_norm": 4.4375, "learning_rate": 9.999561835506844e-05, "loss": 0.456, "step": 6820 }, { "epoch": 9.106666666666667, "grad_norm": 2.984375, "learning_rate": 9.999560447613911e-05, "loss": 0.4471, "step": 6830 }, { "epoch": 9.12, "grad_norm": 1.296875, "learning_rate": 9.999559057526464e-05, "loss": 0.4531, "step": 6840 }, { "epoch": 9.133333333333333, "grad_norm": 2.765625, "learning_rate": 9.999557665244501e-05, "loss": 0.4446, "step": 6850 }, { "epoch": 9.146666666666667, "grad_norm": 2.640625, "learning_rate": 9.999556270768025e-05, "loss": 0.4624, "step": 6860 }, { "epoch": 9.16, "grad_norm": 2.03125, "learning_rate": 9.999554874097034e-05, "loss": 0.4546, "step": 6870 }, { "epoch": 9.173333333333334, "grad_norm": 1.46875, "learning_rate": 9.99955347523153e-05, "loss": 0.445, "step": 6880 }, { "epoch": 9.186666666666667, "grad_norm": 1.7734375, "learning_rate": 9.999552074171514e-05, "loss": 0.4461, "step": 6890 }, { "epoch": 9.2, "grad_norm": 0.83984375, "learning_rate": 9.999550670916986e-05, "loss": 0.4411, "step": 6900 }, { "epoch": 9.213333333333333, "grad_norm": 0.82421875, "learning_rate": 9.99954926546795e-05, "loss": 0.4436, "step": 6910 }, { "epoch": 9.226666666666667, "grad_norm": 0.92578125, "learning_rate": 9.999547857824399e-05, "loss": 0.4533, "step": 6920 }, { "epoch": 9.24, "grad_norm": 0.5234375, "learning_rate": 9.99954644798634e-05, "loss": 0.4344, "step": 6930 }, { "epoch": 9.253333333333334, "grad_norm": 0.59765625, "learning_rate": 9.999545035953773e-05, "loss": 0.4389, "step": 6940 }, { "epoch": 9.266666666666667, "grad_norm": 0.3515625, "learning_rate": 9.999543621726696e-05, "loss": 0.4402, "step": 6950 }, { "epoch": 9.28, "grad_norm": 0.4140625, "learning_rate": 9.99954220530511e-05, "loss": 0.4712, "step": 6960 }, { "epoch": 9.293333333333333, "grad_norm": 0.427734375, "learning_rate": 9.999540786689019e-05, "loss": 0.4259, "step": 6970 }, { "epoch": 9.306666666666667, "grad_norm": 0.361328125, "learning_rate": 9.99953936587842e-05, "loss": 0.4492, "step": 6980 }, { "epoch": 9.32, "grad_norm": 0.314453125, "learning_rate": 9.999537942873315e-05, "loss": 0.4487, "step": 6990 }, { "epoch": 9.333333333333334, "grad_norm": 0.3359375, "learning_rate": 9.999536517673704e-05, "loss": 0.458, "step": 7000 }, { "epoch": 9.346666666666668, "grad_norm": 0.423828125, "learning_rate": 9.99953509027959e-05, "loss": 0.4489, "step": 7010 }, { "epoch": 9.36, "grad_norm": 0.36328125, "learning_rate": 9.99953366069097e-05, "loss": 0.4521, "step": 7020 }, { "epoch": 9.373333333333333, "grad_norm": 0.3359375, "learning_rate": 9.999532228907846e-05, "loss": 0.4462, "step": 7030 }, { "epoch": 9.386666666666667, "grad_norm": 0.37890625, "learning_rate": 9.999530794930221e-05, "loss": 0.4427, "step": 7040 }, { "epoch": 9.4, "grad_norm": 0.56640625, "learning_rate": 9.999529358758092e-05, "loss": 0.4481, "step": 7050 }, { "epoch": 9.413333333333334, "grad_norm": 0.46875, "learning_rate": 9.999527920391462e-05, "loss": 0.4536, "step": 7060 }, { "epoch": 9.426666666666666, "grad_norm": 0.380859375, "learning_rate": 9.99952647983033e-05, "loss": 0.4545, "step": 7070 }, { "epoch": 9.44, "grad_norm": 0.31640625, "learning_rate": 9.999525037074697e-05, "loss": 0.4628, "step": 7080 }, { "epoch": 9.453333333333333, "grad_norm": 0.458984375, "learning_rate": 9.999523592124567e-05, "loss": 0.4545, "step": 7090 }, { "epoch": 9.466666666666667, "grad_norm": 0.390625, "learning_rate": 9.999522144979936e-05, "loss": 0.4639, "step": 7100 }, { "epoch": 9.48, "grad_norm": 0.41796875, "learning_rate": 9.999520695640806e-05, "loss": 0.445, "step": 7110 }, { "epoch": 9.493333333333334, "grad_norm": 0.400390625, "learning_rate": 9.999519244107178e-05, "loss": 0.4571, "step": 7120 }, { "epoch": 9.506666666666666, "grad_norm": 0.353515625, "learning_rate": 9.999517790379054e-05, "loss": 0.4511, "step": 7130 }, { "epoch": 9.52, "grad_norm": 0.5, "learning_rate": 9.999516334456432e-05, "loss": 0.4417, "step": 7140 }, { "epoch": 9.533333333333333, "grad_norm": 0.314453125, "learning_rate": 9.999514876339316e-05, "loss": 0.4466, "step": 7150 }, { "epoch": 9.546666666666667, "grad_norm": 0.333984375, "learning_rate": 9.999513416027701e-05, "loss": 0.4485, "step": 7160 }, { "epoch": 9.56, "grad_norm": 0.271484375, "learning_rate": 9.999511953521595e-05, "loss": 0.4401, "step": 7170 }, { "epoch": 9.573333333333334, "grad_norm": 0.376953125, "learning_rate": 9.999510488820993e-05, "loss": 0.4441, "step": 7180 }, { "epoch": 9.586666666666666, "grad_norm": 0.322265625, "learning_rate": 9.999509021925898e-05, "loss": 0.4328, "step": 7190 }, { "epoch": 9.6, "grad_norm": 0.3125, "learning_rate": 9.99950755283631e-05, "loss": 0.4367, "step": 7200 }, { "epoch": 9.613333333333333, "grad_norm": 0.5, "learning_rate": 9.99950608155223e-05, "loss": 0.4208, "step": 7210 }, { "epoch": 9.626666666666667, "grad_norm": 0.345703125, "learning_rate": 9.999504608073659e-05, "loss": 0.4246, "step": 7220 }, { "epoch": 9.64, "grad_norm": 0.337890625, "learning_rate": 9.999503132400596e-05, "loss": 0.4429, "step": 7230 }, { "epoch": 9.653333333333332, "grad_norm": 0.435546875, "learning_rate": 9.999501654533043e-05, "loss": 0.4525, "step": 7240 }, { "epoch": 9.666666666666666, "grad_norm": 0.423828125, "learning_rate": 9.999500174471002e-05, "loss": 0.4371, "step": 7250 }, { "epoch": 9.68, "grad_norm": 0.3984375, "learning_rate": 9.999498692214471e-05, "loss": 0.4306, "step": 7260 }, { "epoch": 9.693333333333333, "grad_norm": 0.455078125, "learning_rate": 9.999497207763451e-05, "loss": 0.4392, "step": 7270 }, { "epoch": 9.706666666666667, "grad_norm": 0.408203125, "learning_rate": 9.999495721117944e-05, "loss": 0.4329, "step": 7280 }, { "epoch": 9.72, "grad_norm": 0.47265625, "learning_rate": 9.99949423227795e-05, "loss": 0.4571, "step": 7290 }, { "epoch": 9.733333333333333, "grad_norm": 0.462890625, "learning_rate": 9.999492741243471e-05, "loss": 0.4504, "step": 7300 }, { "epoch": 9.746666666666666, "grad_norm": 0.51953125, "learning_rate": 9.999491248014504e-05, "loss": 0.4512, "step": 7310 }, { "epoch": 9.76, "grad_norm": 0.361328125, "learning_rate": 9.999489752591053e-05, "loss": 0.4626, "step": 7320 }, { "epoch": 9.773333333333333, "grad_norm": 0.412109375, "learning_rate": 9.999488254973118e-05, "loss": 0.4543, "step": 7330 }, { "epoch": 9.786666666666667, "grad_norm": 0.51171875, "learning_rate": 9.999486755160699e-05, "loss": 0.4512, "step": 7340 }, { "epoch": 9.8, "grad_norm": 0.33203125, "learning_rate": 9.999485253153798e-05, "loss": 0.4509, "step": 7350 }, { "epoch": 9.813333333333333, "grad_norm": 0.412109375, "learning_rate": 9.999483748952412e-05, "loss": 0.4241, "step": 7360 }, { "epoch": 9.826666666666666, "grad_norm": 0.359375, "learning_rate": 9.999482242556545e-05, "loss": 0.4375, "step": 7370 }, { "epoch": 9.84, "grad_norm": 0.388671875, "learning_rate": 9.9994807339662e-05, "loss": 0.4496, "step": 7380 }, { "epoch": 9.853333333333333, "grad_norm": 0.39453125, "learning_rate": 9.999479223181371e-05, "loss": 0.4444, "step": 7390 }, { "epoch": 9.866666666666667, "grad_norm": 0.44921875, "learning_rate": 9.999477710202064e-05, "loss": 0.4445, "step": 7400 }, { "epoch": 9.88, "grad_norm": 0.353515625, "learning_rate": 9.999476195028278e-05, "loss": 0.4229, "step": 7410 }, { "epoch": 9.893333333333333, "grad_norm": 0.47265625, "learning_rate": 9.999474677660013e-05, "loss": 0.4341, "step": 7420 }, { "epoch": 9.906666666666666, "grad_norm": 0.50390625, "learning_rate": 9.99947315809727e-05, "loss": 0.445, "step": 7430 }, { "epoch": 9.92, "grad_norm": 0.390625, "learning_rate": 9.999471636340052e-05, "loss": 0.4462, "step": 7440 }, { "epoch": 9.933333333333334, "grad_norm": 0.328125, "learning_rate": 9.999470112388357e-05, "loss": 0.4367, "step": 7450 }, { "epoch": 9.946666666666667, "grad_norm": 0.435546875, "learning_rate": 9.999468586242185e-05, "loss": 0.4403, "step": 7460 }, { "epoch": 9.96, "grad_norm": 0.41015625, "learning_rate": 9.999467057901538e-05, "loss": 0.4358, "step": 7470 }, { "epoch": 9.973333333333333, "grad_norm": 0.4140625, "learning_rate": 9.999465527366417e-05, "loss": 0.4608, "step": 7480 }, { "epoch": 9.986666666666666, "grad_norm": 0.5234375, "learning_rate": 9.999463994636821e-05, "loss": 0.4403, "step": 7490 }, { "epoch": 10.0, "grad_norm": 0.34765625, "learning_rate": 9.999462459712754e-05, "loss": 0.4304, "step": 7500 }, { "epoch": 10.0, "eval_loss": 0.4606264531612396, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.7673, "eval_samples_per_second": 1.486, "eval_steps_per_second": 0.093, "step": 7500 }, { "epoch": 10.013333333333334, "grad_norm": 0.359375, "learning_rate": 9.999460922594212e-05, "loss": 0.4513, "step": 7510 }, { "epoch": 10.026666666666667, "grad_norm": 0.384765625, "learning_rate": 9.999459383281202e-05, "loss": 0.4621, "step": 7520 }, { "epoch": 10.04, "grad_norm": 0.375, "learning_rate": 9.999457841773719e-05, "loss": 0.4729, "step": 7530 }, { "epoch": 10.053333333333333, "grad_norm": 0.333984375, "learning_rate": 9.999456298071766e-05, "loss": 0.4621, "step": 7540 }, { "epoch": 10.066666666666666, "grad_norm": 0.369140625, "learning_rate": 9.999454752175342e-05, "loss": 0.4484, "step": 7550 }, { "epoch": 10.08, "grad_norm": 0.439453125, "learning_rate": 9.99945320408445e-05, "loss": 0.4507, "step": 7560 }, { "epoch": 10.093333333333334, "grad_norm": 0.384765625, "learning_rate": 9.99945165379909e-05, "loss": 0.4507, "step": 7570 }, { "epoch": 10.106666666666667, "grad_norm": 0.357421875, "learning_rate": 9.999450101319262e-05, "loss": 0.4389, "step": 7580 }, { "epoch": 10.12, "grad_norm": 0.3671875, "learning_rate": 9.999448546644968e-05, "loss": 0.4468, "step": 7590 }, { "epoch": 10.133333333333333, "grad_norm": 0.36328125, "learning_rate": 9.999446989776206e-05, "loss": 0.4391, "step": 7600 }, { "epoch": 10.146666666666667, "grad_norm": 0.470703125, "learning_rate": 9.999445430712979e-05, "loss": 0.4571, "step": 7610 }, { "epoch": 10.16, "grad_norm": 0.361328125, "learning_rate": 9.999443869455287e-05, "loss": 0.4493, "step": 7620 }, { "epoch": 10.173333333333334, "grad_norm": 0.5546875, "learning_rate": 9.999442306003133e-05, "loss": 0.4412, "step": 7630 }, { "epoch": 10.186666666666667, "grad_norm": 0.427734375, "learning_rate": 9.999440740356513e-05, "loss": 0.4428, "step": 7640 }, { "epoch": 10.2, "grad_norm": 0.390625, "learning_rate": 9.99943917251543e-05, "loss": 0.437, "step": 7650 }, { "epoch": 10.213333333333333, "grad_norm": 0.390625, "learning_rate": 9.999437602479887e-05, "loss": 0.4379, "step": 7660 }, { "epoch": 10.226666666666667, "grad_norm": 0.373046875, "learning_rate": 9.99943603024988e-05, "loss": 0.4497, "step": 7670 }, { "epoch": 10.24, "grad_norm": 0.37890625, "learning_rate": 9.999434455825414e-05, "loss": 0.4312, "step": 7680 }, { "epoch": 10.253333333333334, "grad_norm": 0.34765625, "learning_rate": 9.999432879206487e-05, "loss": 0.4351, "step": 7690 }, { "epoch": 10.266666666666667, "grad_norm": 0.36328125, "learning_rate": 9.999431300393102e-05, "loss": 0.4363, "step": 7700 }, { "epoch": 10.28, "grad_norm": 0.369140625, "learning_rate": 9.999429719385257e-05, "loss": 0.4661, "step": 7710 }, { "epoch": 10.293333333333333, "grad_norm": 0.361328125, "learning_rate": 9.999428136182955e-05, "loss": 0.4228, "step": 7720 }, { "epoch": 10.306666666666667, "grad_norm": 0.3359375, "learning_rate": 9.999426550786194e-05, "loss": 0.4446, "step": 7730 }, { "epoch": 10.32, "grad_norm": 0.333984375, "learning_rate": 9.999424963194979e-05, "loss": 0.4456, "step": 7740 }, { "epoch": 10.333333333333334, "grad_norm": 0.380859375, "learning_rate": 9.999423373409305e-05, "loss": 0.454, "step": 7750 }, { "epoch": 10.346666666666668, "grad_norm": 0.404296875, "learning_rate": 9.999421781429178e-05, "loss": 0.4432, "step": 7760 }, { "epoch": 10.36, "grad_norm": 0.42578125, "learning_rate": 9.999420187254596e-05, "loss": 0.4477, "step": 7770 }, { "epoch": 10.373333333333333, "grad_norm": 0.419921875, "learning_rate": 9.99941859088556e-05, "loss": 0.4423, "step": 7780 }, { "epoch": 10.386666666666667, "grad_norm": 0.357421875, "learning_rate": 9.999416992322071e-05, "loss": 0.4385, "step": 7790 }, { "epoch": 10.4, "grad_norm": 0.375, "learning_rate": 9.999415391564129e-05, "loss": 0.4438, "step": 7800 }, { "epoch": 10.413333333333334, "grad_norm": 0.45703125, "learning_rate": 9.999413788611735e-05, "loss": 0.4485, "step": 7810 }, { "epoch": 10.426666666666666, "grad_norm": 0.416015625, "learning_rate": 9.999412183464892e-05, "loss": 0.4499, "step": 7820 }, { "epoch": 10.44, "grad_norm": 0.390625, "learning_rate": 9.999410576123598e-05, "loss": 0.4589, "step": 7830 }, { "epoch": 10.453333333333333, "grad_norm": 0.4296875, "learning_rate": 9.999408966587853e-05, "loss": 0.4489, "step": 7840 }, { "epoch": 10.466666666666667, "grad_norm": 0.41015625, "learning_rate": 9.999407354857659e-05, "loss": 0.459, "step": 7850 }, { "epoch": 10.48, "grad_norm": 0.470703125, "learning_rate": 9.999405740933018e-05, "loss": 0.4397, "step": 7860 }, { "epoch": 10.493333333333334, "grad_norm": 0.439453125, "learning_rate": 9.999404124813931e-05, "loss": 0.4524, "step": 7870 }, { "epoch": 10.506666666666666, "grad_norm": 0.328125, "learning_rate": 9.999402506500395e-05, "loss": 0.4458, "step": 7880 }, { "epoch": 10.52, "grad_norm": 0.41796875, "learning_rate": 9.999400885992414e-05, "loss": 0.4381, "step": 7890 }, { "epoch": 10.533333333333333, "grad_norm": 0.388671875, "learning_rate": 9.999399263289987e-05, "loss": 0.4412, "step": 7900 }, { "epoch": 10.546666666666667, "grad_norm": 0.390625, "learning_rate": 9.999397638393115e-05, "loss": 0.4436, "step": 7910 }, { "epoch": 10.56, "grad_norm": 0.421875, "learning_rate": 9.999396011301801e-05, "loss": 0.4366, "step": 7920 }, { "epoch": 10.573333333333334, "grad_norm": 0.5234375, "learning_rate": 9.99939438201604e-05, "loss": 0.4398, "step": 7930 }, { "epoch": 10.586666666666666, "grad_norm": 0.58203125, "learning_rate": 9.999392750535841e-05, "loss": 0.4292, "step": 7940 }, { "epoch": 10.6, "grad_norm": 0.47265625, "learning_rate": 9.999391116861197e-05, "loss": 0.4324, "step": 7950 }, { "epoch": 10.613333333333333, "grad_norm": 0.345703125, "learning_rate": 9.999389480992114e-05, "loss": 0.4176, "step": 7960 }, { "epoch": 10.626666666666667, "grad_norm": 0.35546875, "learning_rate": 9.99938784292859e-05, "loss": 0.422, "step": 7970 }, { "epoch": 10.64, "grad_norm": 0.37890625, "learning_rate": 9.999386202670626e-05, "loss": 0.4391, "step": 7980 }, { "epoch": 10.653333333333332, "grad_norm": 0.369140625, "learning_rate": 9.999384560218223e-05, "loss": 0.4485, "step": 7990 }, { "epoch": 10.666666666666666, "grad_norm": 0.37890625, "learning_rate": 9.999382915571383e-05, "loss": 0.4342, "step": 8000 }, { "epoch": 10.68, "grad_norm": 0.400390625, "learning_rate": 9.999381268730103e-05, "loss": 0.4271, "step": 8010 }, { "epoch": 10.693333333333333, "grad_norm": 0.48046875, "learning_rate": 9.99937961969439e-05, "loss": 0.4351, "step": 8020 }, { "epoch": 10.706666666666667, "grad_norm": 0.404296875, "learning_rate": 9.999377968464237e-05, "loss": 0.4297, "step": 8030 }, { "epoch": 10.72, "grad_norm": 0.423828125, "learning_rate": 9.999376315039652e-05, "loss": 0.4526, "step": 8040 }, { "epoch": 10.733333333333333, "grad_norm": 0.458984375, "learning_rate": 9.99937465942063e-05, "loss": 0.4456, "step": 8050 }, { "epoch": 10.746666666666666, "grad_norm": 0.57421875, "learning_rate": 9.999373001607175e-05, "loss": 0.4465, "step": 8060 }, { "epoch": 10.76, "grad_norm": 0.47265625, "learning_rate": 9.999371341599287e-05, "loss": 0.4591, "step": 8070 }, { "epoch": 10.773333333333333, "grad_norm": 0.490234375, "learning_rate": 9.999369679396967e-05, "loss": 0.4501, "step": 8080 }, { "epoch": 10.786666666666667, "grad_norm": 0.326171875, "learning_rate": 9.999368015000216e-05, "loss": 0.4468, "step": 8090 }, { "epoch": 10.8, "grad_norm": 0.44921875, "learning_rate": 9.999366348409033e-05, "loss": 0.4479, "step": 8100 }, { "epoch": 10.813333333333333, "grad_norm": 0.357421875, "learning_rate": 9.99936467962342e-05, "loss": 0.4203, "step": 8110 }, { "epoch": 10.826666666666666, "grad_norm": 0.353515625, "learning_rate": 9.999363008643377e-05, "loss": 0.4329, "step": 8120 }, { "epoch": 10.84, "grad_norm": 0.44921875, "learning_rate": 9.999361335468906e-05, "loss": 0.4444, "step": 8130 }, { "epoch": 10.853333333333333, "grad_norm": 0.3515625, "learning_rate": 9.999359660100008e-05, "loss": 0.4405, "step": 8140 }, { "epoch": 10.866666666666667, "grad_norm": 0.359375, "learning_rate": 9.999357982536681e-05, "loss": 0.4415, "step": 8150 }, { "epoch": 10.88, "grad_norm": 0.388671875, "learning_rate": 9.999356302778928e-05, "loss": 0.4194, "step": 8160 }, { "epoch": 10.893333333333333, "grad_norm": 0.408203125, "learning_rate": 9.999354620826749e-05, "loss": 0.4305, "step": 8170 }, { "epoch": 10.906666666666666, "grad_norm": 0.375, "learning_rate": 9.999352936680147e-05, "loss": 0.44, "step": 8180 }, { "epoch": 10.92, "grad_norm": 0.48046875, "learning_rate": 9.999351250339117e-05, "loss": 0.4432, "step": 8190 }, { "epoch": 10.933333333333334, "grad_norm": 0.4140625, "learning_rate": 9.999349561803666e-05, "loss": 0.4341, "step": 8200 }, { "epoch": 10.946666666666667, "grad_norm": 0.330078125, "learning_rate": 9.999347871073792e-05, "loss": 0.4366, "step": 8210 }, { "epoch": 10.96, "grad_norm": 0.41796875, "learning_rate": 9.999346178149496e-05, "loss": 0.4312, "step": 8220 }, { "epoch": 10.973333333333333, "grad_norm": 0.392578125, "learning_rate": 9.999344483030776e-05, "loss": 0.4566, "step": 8230 }, { "epoch": 10.986666666666666, "grad_norm": 0.3828125, "learning_rate": 9.99934278571764e-05, "loss": 0.4359, "step": 8240 }, { "epoch": 11.0, "grad_norm": 0.326171875, "learning_rate": 9.999341086210081e-05, "loss": 0.4273, "step": 8250 }, { "epoch": 11.0, "eval_loss": 0.4559025466442108, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4213, "eval_samples_per_second": 1.401, "eval_steps_per_second": 0.088, "step": 8250 }, { "epoch": 11.013333333333334, "grad_norm": 0.384765625, "learning_rate": 9.999339384508104e-05, "loss": 0.4472, "step": 8260 }, { "epoch": 11.026666666666667, "grad_norm": 0.4140625, "learning_rate": 9.999337680611709e-05, "loss": 0.457, "step": 8270 }, { "epoch": 11.04, "grad_norm": 0.408203125, "learning_rate": 9.999335974520895e-05, "loss": 0.4691, "step": 8280 }, { "epoch": 11.053333333333333, "grad_norm": 0.36328125, "learning_rate": 9.999334266235665e-05, "loss": 0.458, "step": 8290 }, { "epoch": 11.066666666666666, "grad_norm": 0.474609375, "learning_rate": 9.999332555756019e-05, "loss": 0.4423, "step": 8300 }, { "epoch": 11.08, "grad_norm": 0.486328125, "learning_rate": 9.999330843081957e-05, "loss": 0.4476, "step": 8310 }, { "epoch": 11.093333333333334, "grad_norm": 0.33984375, "learning_rate": 9.999329128213482e-05, "loss": 0.4468, "step": 8320 }, { "epoch": 11.106666666666667, "grad_norm": 0.36328125, "learning_rate": 9.999327411150592e-05, "loss": 0.4345, "step": 8330 }, { "epoch": 11.12, "grad_norm": 0.40625, "learning_rate": 9.999325691893288e-05, "loss": 0.4419, "step": 8340 }, { "epoch": 11.133333333333333, "grad_norm": 0.43359375, "learning_rate": 9.999323970441573e-05, "loss": 0.434, "step": 8350 }, { "epoch": 11.146666666666667, "grad_norm": 0.373046875, "learning_rate": 9.999322246795446e-05, "loss": 0.4532, "step": 8360 }, { "epoch": 11.16, "grad_norm": 0.37109375, "learning_rate": 9.999320520954909e-05, "loss": 0.4446, "step": 8370 }, { "epoch": 11.173333333333334, "grad_norm": 0.66796875, "learning_rate": 9.99931879291996e-05, "loss": 0.437, "step": 8380 }, { "epoch": 11.186666666666667, "grad_norm": 0.5703125, "learning_rate": 9.999317062690603e-05, "loss": 0.4387, "step": 8390 }, { "epoch": 11.2, "grad_norm": 0.455078125, "learning_rate": 9.999315330266839e-05, "loss": 0.4327, "step": 8400 }, { "epoch": 11.213333333333333, "grad_norm": 0.48828125, "learning_rate": 9.999313595648665e-05, "loss": 0.4343, "step": 8410 }, { "epoch": 11.226666666666667, "grad_norm": 0.38671875, "learning_rate": 9.999311858836084e-05, "loss": 0.4463, "step": 8420 }, { "epoch": 11.24, "grad_norm": 0.431640625, "learning_rate": 9.999310119829097e-05, "loss": 0.4278, "step": 8430 }, { "epoch": 11.253333333333334, "grad_norm": 0.359375, "learning_rate": 9.999308378627706e-05, "loss": 0.432, "step": 8440 }, { "epoch": 11.266666666666667, "grad_norm": 0.34375, "learning_rate": 9.999306635231908e-05, "loss": 0.4322, "step": 8450 }, { "epoch": 11.28, "grad_norm": 0.396484375, "learning_rate": 9.999304889641707e-05, "loss": 0.4616, "step": 8460 }, { "epoch": 11.293333333333333, "grad_norm": 0.37109375, "learning_rate": 9.999303141857102e-05, "loss": 0.4186, "step": 8470 }, { "epoch": 11.306666666666667, "grad_norm": 0.369140625, "learning_rate": 9.999301391878097e-05, "loss": 0.441, "step": 8480 }, { "epoch": 11.32, "grad_norm": 0.3515625, "learning_rate": 9.999299639704688e-05, "loss": 0.4413, "step": 8490 }, { "epoch": 11.333333333333334, "grad_norm": 0.416015625, "learning_rate": 9.999297885336879e-05, "loss": 0.4504, "step": 8500 }, { "epoch": 11.346666666666668, "grad_norm": 0.462890625, "learning_rate": 9.999296128774668e-05, "loss": 0.439, "step": 8510 }, { "epoch": 11.36, "grad_norm": 0.453125, "learning_rate": 9.999294370018061e-05, "loss": 0.4445, "step": 8520 }, { "epoch": 11.373333333333333, "grad_norm": 0.404296875, "learning_rate": 9.999292609067054e-05, "loss": 0.4385, "step": 8530 }, { "epoch": 11.386666666666667, "grad_norm": 0.43359375, "learning_rate": 9.999290845921648e-05, "loss": 0.4346, "step": 8540 }, { "epoch": 11.4, "grad_norm": 0.37109375, "learning_rate": 9.999289080581846e-05, "loss": 0.4392, "step": 8550 }, { "epoch": 11.413333333333334, "grad_norm": 0.37109375, "learning_rate": 9.999287313047649e-05, "loss": 0.4448, "step": 8560 }, { "epoch": 11.426666666666666, "grad_norm": 0.369140625, "learning_rate": 9.999285543319055e-05, "loss": 0.4463, "step": 8570 }, { "epoch": 11.44, "grad_norm": 0.423828125, "learning_rate": 9.999283771396066e-05, "loss": 0.4556, "step": 8580 }, { "epoch": 11.453333333333333, "grad_norm": 0.474609375, "learning_rate": 9.999281997278683e-05, "loss": 0.4456, "step": 8590 }, { "epoch": 11.466666666666667, "grad_norm": 0.44921875, "learning_rate": 9.999280220966907e-05, "loss": 0.4551, "step": 8600 }, { "epoch": 11.48, "grad_norm": 0.34765625, "learning_rate": 9.99927844246074e-05, "loss": 0.4357, "step": 8610 }, { "epoch": 11.493333333333334, "grad_norm": 0.35546875, "learning_rate": 9.99927666176018e-05, "loss": 0.449, "step": 8620 }, { "epoch": 11.506666666666666, "grad_norm": 0.328125, "learning_rate": 9.99927487886523e-05, "loss": 0.4436, "step": 8630 }, { "epoch": 11.52, "grad_norm": 0.392578125, "learning_rate": 9.999273093775889e-05, "loss": 0.4341, "step": 8640 }, { "epoch": 11.533333333333333, "grad_norm": 0.380859375, "learning_rate": 9.999271306492159e-05, "loss": 0.4375, "step": 8650 }, { "epoch": 11.546666666666667, "grad_norm": 0.40234375, "learning_rate": 9.99926951701404e-05, "loss": 0.4408, "step": 8660 }, { "epoch": 11.56, "grad_norm": 0.38671875, "learning_rate": 9.999267725341535e-05, "loss": 0.4327, "step": 8670 }, { "epoch": 11.573333333333334, "grad_norm": 0.435546875, "learning_rate": 9.999265931474642e-05, "loss": 0.4362, "step": 8680 }, { "epoch": 11.586666666666666, "grad_norm": 0.373046875, "learning_rate": 9.999264135413365e-05, "loss": 0.4261, "step": 8690 }, { "epoch": 11.6, "grad_norm": 0.404296875, "learning_rate": 9.9992623371577e-05, "loss": 0.4285, "step": 8700 }, { "epoch": 11.613333333333333, "grad_norm": 0.42578125, "learning_rate": 9.999260536707651e-05, "loss": 0.4133, "step": 8710 }, { "epoch": 11.626666666666667, "grad_norm": 0.27734375, "learning_rate": 9.999258734063219e-05, "loss": 0.4178, "step": 8720 }, { "epoch": 11.64, "grad_norm": 0.458984375, "learning_rate": 9.999256929224403e-05, "loss": 0.4363, "step": 8730 }, { "epoch": 11.653333333333332, "grad_norm": 0.435546875, "learning_rate": 9.999255122191204e-05, "loss": 0.4457, "step": 8740 }, { "epoch": 11.666666666666666, "grad_norm": 0.44140625, "learning_rate": 9.999253312963625e-05, "loss": 0.429, "step": 8750 }, { "epoch": 11.68, "grad_norm": 0.45703125, "learning_rate": 9.999251501541667e-05, "loss": 0.4225, "step": 8760 }, { "epoch": 11.693333333333333, "grad_norm": 0.3515625, "learning_rate": 9.999249687925328e-05, "loss": 0.4311, "step": 8770 }, { "epoch": 11.706666666666667, "grad_norm": 0.412109375, "learning_rate": 9.99924787211461e-05, "loss": 0.426, "step": 8780 }, { "epoch": 11.72, "grad_norm": 0.421875, "learning_rate": 9.999246054109513e-05, "loss": 0.4492, "step": 8790 }, { "epoch": 11.733333333333333, "grad_norm": 0.5078125, "learning_rate": 9.99924423391004e-05, "loss": 0.4427, "step": 8800 }, { "epoch": 11.746666666666666, "grad_norm": 0.6015625, "learning_rate": 9.99924241151619e-05, "loss": 0.4435, "step": 8810 }, { "epoch": 11.76, "grad_norm": 0.46484375, "learning_rate": 9.999240586927963e-05, "loss": 0.454, "step": 8820 }, { "epoch": 11.773333333333333, "grad_norm": 0.4375, "learning_rate": 9.999238760145362e-05, "loss": 0.4453, "step": 8830 }, { "epoch": 11.786666666666667, "grad_norm": 0.37109375, "learning_rate": 9.999236931168387e-05, "loss": 0.4436, "step": 8840 }, { "epoch": 11.8, "grad_norm": 0.416015625, "learning_rate": 9.999235099997037e-05, "loss": 0.4428, "step": 8850 }, { "epoch": 11.813333333333333, "grad_norm": 0.482421875, "learning_rate": 9.999233266631316e-05, "loss": 0.4161, "step": 8860 }, { "epoch": 11.826666666666666, "grad_norm": 0.380859375, "learning_rate": 9.999231431071224e-05, "loss": 0.4284, "step": 8870 }, { "epoch": 11.84, "grad_norm": 0.3984375, "learning_rate": 9.99922959331676e-05, "loss": 0.4395, "step": 8880 }, { "epoch": 11.853333333333333, "grad_norm": 0.4140625, "learning_rate": 9.999227753367925e-05, "loss": 0.4363, "step": 8890 }, { "epoch": 11.866666666666667, "grad_norm": 0.4375, "learning_rate": 9.999225911224722e-05, "loss": 0.4375, "step": 8900 }, { "epoch": 11.88, "grad_norm": 0.328125, "learning_rate": 9.99922406688715e-05, "loss": 0.417, "step": 8910 }, { "epoch": 11.893333333333333, "grad_norm": 0.453125, "learning_rate": 9.999222220355211e-05, "loss": 0.4274, "step": 8920 }, { "epoch": 11.906666666666666, "grad_norm": 0.455078125, "learning_rate": 9.999220371628904e-05, "loss": 0.4371, "step": 8930 }, { "epoch": 11.92, "grad_norm": 0.416015625, "learning_rate": 9.999218520708231e-05, "loss": 0.4383, "step": 8940 }, { "epoch": 11.933333333333334, "grad_norm": 0.408203125, "learning_rate": 9.999216667593193e-05, "loss": 0.4304, "step": 8950 }, { "epoch": 11.946666666666667, "grad_norm": 0.375, "learning_rate": 9.99921481228379e-05, "loss": 0.4329, "step": 8960 }, { "epoch": 11.96, "grad_norm": 0.353515625, "learning_rate": 9.999212954780024e-05, "loss": 0.4286, "step": 8970 }, { "epoch": 11.973333333333333, "grad_norm": 0.494140625, "learning_rate": 9.999211095081895e-05, "loss": 0.453, "step": 8980 }, { "epoch": 11.986666666666666, "grad_norm": 0.322265625, "learning_rate": 9.999209233189404e-05, "loss": 0.4322, "step": 8990 }, { "epoch": 12.0, "grad_norm": 0.388671875, "learning_rate": 9.999207369102552e-05, "loss": 0.4245, "step": 9000 }, { "epoch": 12.0, "eval_loss": 0.455318808555603, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3937, "eval_samples_per_second": 1.539, "eval_steps_per_second": 0.096, "step": 9000 }, { "epoch": 12.013333333333334, "grad_norm": 0.46484375, "learning_rate": 9.999205502821339e-05, "loss": 0.4437, "step": 9010 }, { "epoch": 12.026666666666667, "grad_norm": 0.46484375, "learning_rate": 9.999203634345768e-05, "loss": 0.4526, "step": 9020 }, { "epoch": 12.04, "grad_norm": 0.40625, "learning_rate": 9.999201763675836e-05, "loss": 0.4644, "step": 9030 }, { "epoch": 12.053333333333333, "grad_norm": 0.375, "learning_rate": 9.999199890811547e-05, "loss": 0.4531, "step": 9040 }, { "epoch": 12.066666666666666, "grad_norm": 0.419921875, "learning_rate": 9.9991980157529e-05, "loss": 0.44, "step": 9050 }, { "epoch": 12.08, "grad_norm": 0.5078125, "learning_rate": 9.999196138499899e-05, "loss": 0.4436, "step": 9060 }, { "epoch": 12.093333333333334, "grad_norm": 0.3984375, "learning_rate": 9.99919425905254e-05, "loss": 0.4434, "step": 9070 }, { "epoch": 12.106666666666667, "grad_norm": 0.341796875, "learning_rate": 9.999192377410829e-05, "loss": 0.4318, "step": 9080 }, { "epoch": 12.12, "grad_norm": 0.357421875, "learning_rate": 9.999190493574762e-05, "loss": 0.4383, "step": 9090 }, { "epoch": 12.133333333333333, "grad_norm": 0.38671875, "learning_rate": 9.999188607544343e-05, "loss": 0.4313, "step": 9100 }, { "epoch": 12.146666666666667, "grad_norm": 0.392578125, "learning_rate": 9.999186719319571e-05, "loss": 0.4489, "step": 9110 }, { "epoch": 12.16, "grad_norm": 0.3984375, "learning_rate": 9.999184828900448e-05, "loss": 0.4416, "step": 9120 }, { "epoch": 12.173333333333334, "grad_norm": 0.41015625, "learning_rate": 9.999182936286975e-05, "loss": 0.434, "step": 9130 }, { "epoch": 12.186666666666667, "grad_norm": 0.52734375, "learning_rate": 9.999181041479153e-05, "loss": 0.4345, "step": 9140 }, { "epoch": 12.2, "grad_norm": 0.451171875, "learning_rate": 9.99917914447698e-05, "loss": 0.4282, "step": 9150 }, { "epoch": 12.213333333333333, "grad_norm": 0.423828125, "learning_rate": 9.99917724528046e-05, "loss": 0.4297, "step": 9160 }, { "epoch": 12.226666666666667, "grad_norm": 0.44140625, "learning_rate": 9.999175343889593e-05, "loss": 0.4418, "step": 9170 }, { "epoch": 12.24, "grad_norm": 0.375, "learning_rate": 9.99917344030438e-05, "loss": 0.4248, "step": 9180 }, { "epoch": 12.253333333333334, "grad_norm": 0.384765625, "learning_rate": 9.999171534524822e-05, "loss": 0.4282, "step": 9190 }, { "epoch": 12.266666666666667, "grad_norm": 0.37890625, "learning_rate": 9.999169626550918e-05, "loss": 0.43, "step": 9200 }, { "epoch": 12.28, "grad_norm": 0.44140625, "learning_rate": 9.999167716382672e-05, "loss": 0.4587, "step": 9210 }, { "epoch": 12.293333333333333, "grad_norm": 0.3828125, "learning_rate": 9.99916580402008e-05, "loss": 0.4155, "step": 9220 }, { "epoch": 12.306666666666667, "grad_norm": 0.4453125, "learning_rate": 9.999163889463148e-05, "loss": 0.4379, "step": 9230 }, { "epoch": 12.32, "grad_norm": 0.341796875, "learning_rate": 9.999161972711874e-05, "loss": 0.4371, "step": 9240 }, { "epoch": 12.333333333333334, "grad_norm": 0.41015625, "learning_rate": 9.99916005376626e-05, "loss": 0.4452, "step": 9250 }, { "epoch": 12.346666666666668, "grad_norm": 0.458984375, "learning_rate": 9.999158132626305e-05, "loss": 0.4364, "step": 9260 }, { "epoch": 12.36, "grad_norm": 0.54296875, "learning_rate": 9.999156209292013e-05, "loss": 0.4391, "step": 9270 }, { "epoch": 12.373333333333333, "grad_norm": 0.515625, "learning_rate": 9.999154283763384e-05, "loss": 0.4354, "step": 9280 }, { "epoch": 12.386666666666667, "grad_norm": 0.39453125, "learning_rate": 9.999152356040415e-05, "loss": 0.4303, "step": 9290 }, { "epoch": 12.4, "grad_norm": 0.3984375, "learning_rate": 9.99915042612311e-05, "loss": 0.4358, "step": 9300 }, { "epoch": 12.413333333333334, "grad_norm": 0.396484375, "learning_rate": 9.999148494011472e-05, "loss": 0.4407, "step": 9310 }, { "epoch": 12.426666666666666, "grad_norm": 0.431640625, "learning_rate": 9.999146559705497e-05, "loss": 0.4425, "step": 9320 }, { "epoch": 12.44, "grad_norm": 0.365234375, "learning_rate": 9.99914462320519e-05, "loss": 0.4519, "step": 9330 }, { "epoch": 12.453333333333333, "grad_norm": 0.435546875, "learning_rate": 9.99914268451055e-05, "loss": 0.4416, "step": 9340 }, { "epoch": 12.466666666666667, "grad_norm": 0.373046875, "learning_rate": 9.999140743621577e-05, "loss": 0.4519, "step": 9350 }, { "epoch": 12.48, "grad_norm": 0.40625, "learning_rate": 9.999138800538272e-05, "loss": 0.4331, "step": 9360 }, { "epoch": 12.493333333333334, "grad_norm": 0.44921875, "learning_rate": 9.999136855260639e-05, "loss": 0.4455, "step": 9370 }, { "epoch": 12.506666666666666, "grad_norm": 0.3671875, "learning_rate": 9.999134907788677e-05, "loss": 0.4404, "step": 9380 }, { "epoch": 12.52, "grad_norm": 0.37890625, "learning_rate": 9.999132958122384e-05, "loss": 0.4317, "step": 9390 }, { "epoch": 12.533333333333333, "grad_norm": 0.392578125, "learning_rate": 9.999131006261764e-05, "loss": 0.4348, "step": 9400 }, { "epoch": 12.546666666666667, "grad_norm": 0.40625, "learning_rate": 9.999129052206817e-05, "loss": 0.4362, "step": 9410 }, { "epoch": 12.56, "grad_norm": 0.349609375, "learning_rate": 9.999127095957545e-05, "loss": 0.4302, "step": 9420 }, { "epoch": 12.573333333333334, "grad_norm": 0.34375, "learning_rate": 9.999125137513947e-05, "loss": 0.4326, "step": 9430 }, { "epoch": 12.586666666666666, "grad_norm": 0.400390625, "learning_rate": 9.999123176876024e-05, "loss": 0.4212, "step": 9440 }, { "epoch": 12.6, "grad_norm": 0.33984375, "learning_rate": 9.99912121404378e-05, "loss": 0.4247, "step": 9450 }, { "epoch": 12.613333333333333, "grad_norm": 0.361328125, "learning_rate": 9.999119249017212e-05, "loss": 0.411, "step": 9460 }, { "epoch": 12.626666666666667, "grad_norm": 0.373046875, "learning_rate": 9.999117281796321e-05, "loss": 0.4158, "step": 9470 }, { "epoch": 12.64, "grad_norm": 0.412109375, "learning_rate": 9.999115312381111e-05, "loss": 0.4316, "step": 9480 }, { "epoch": 12.653333333333332, "grad_norm": 0.39453125, "learning_rate": 9.99911334077158e-05, "loss": 0.4422, "step": 9490 }, { "epoch": 12.666666666666666, "grad_norm": 0.5703125, "learning_rate": 9.999111366967731e-05, "loss": 0.4264, "step": 9500 }, { "epoch": 12.68, "grad_norm": 0.55078125, "learning_rate": 9.999109390969562e-05, "loss": 0.42, "step": 9510 }, { "epoch": 12.693333333333333, "grad_norm": 0.42578125, "learning_rate": 9.999107412777077e-05, "loss": 0.4272, "step": 9520 }, { "epoch": 12.706666666666667, "grad_norm": 0.373046875, "learning_rate": 9.999105432390274e-05, "loss": 0.4222, "step": 9530 }, { "epoch": 12.72, "grad_norm": 0.435546875, "learning_rate": 9.999103449809157e-05, "loss": 0.4464, "step": 9540 }, { "epoch": 12.733333333333333, "grad_norm": 0.55859375, "learning_rate": 9.999101465033724e-05, "loss": 0.4401, "step": 9550 }, { "epoch": 12.746666666666666, "grad_norm": 0.404296875, "learning_rate": 9.999099478063978e-05, "loss": 0.4403, "step": 9560 }, { "epoch": 12.76, "grad_norm": 0.447265625, "learning_rate": 9.999097488899918e-05, "loss": 0.4518, "step": 9570 }, { "epoch": 12.773333333333333, "grad_norm": 0.45703125, "learning_rate": 9.999095497541546e-05, "loss": 0.4426, "step": 9580 }, { "epoch": 12.786666666666667, "grad_norm": 0.40234375, "learning_rate": 9.999093503988864e-05, "loss": 0.4409, "step": 9590 }, { "epoch": 12.8, "grad_norm": 0.427734375, "learning_rate": 9.999091508241872e-05, "loss": 0.4398, "step": 9600 }, { "epoch": 12.813333333333333, "grad_norm": 0.408203125, "learning_rate": 9.999089510300568e-05, "loss": 0.4121, "step": 9610 }, { "epoch": 12.826666666666666, "grad_norm": 0.421875, "learning_rate": 9.999087510164957e-05, "loss": 0.4253, "step": 9620 }, { "epoch": 12.84, "grad_norm": 0.416015625, "learning_rate": 9.999085507835038e-05, "loss": 0.4371, "step": 9630 }, { "epoch": 12.853333333333333, "grad_norm": 0.41796875, "learning_rate": 9.999083503310811e-05, "loss": 0.4325, "step": 9640 }, { "epoch": 12.866666666666667, "grad_norm": 0.41015625, "learning_rate": 9.99908149659228e-05, "loss": 0.4348, "step": 9650 }, { "epoch": 12.88, "grad_norm": 0.38671875, "learning_rate": 9.999079487679441e-05, "loss": 0.4122, "step": 9660 }, { "epoch": 12.893333333333333, "grad_norm": 0.431640625, "learning_rate": 9.999077476572301e-05, "loss": 0.4238, "step": 9670 }, { "epoch": 12.906666666666666, "grad_norm": 0.447265625, "learning_rate": 9.999075463270855e-05, "loss": 0.4339, "step": 9680 }, { "epoch": 12.92, "grad_norm": 0.3984375, "learning_rate": 9.999073447775106e-05, "loss": 0.4355, "step": 9690 }, { "epoch": 12.933333333333334, "grad_norm": 0.35546875, "learning_rate": 9.999071430085059e-05, "loss": 0.4269, "step": 9700 }, { "epoch": 12.946666666666667, "grad_norm": 0.48046875, "learning_rate": 9.999069410200708e-05, "loss": 0.4295, "step": 9710 }, { "epoch": 12.96, "grad_norm": 0.3984375, "learning_rate": 9.999067388122058e-05, "loss": 0.4251, "step": 9720 }, { "epoch": 12.973333333333333, "grad_norm": 0.435546875, "learning_rate": 9.99906536384911e-05, "loss": 0.4505, "step": 9730 }, { "epoch": 12.986666666666666, "grad_norm": 0.3828125, "learning_rate": 9.999063337381864e-05, "loss": 0.4292, "step": 9740 }, { "epoch": 13.0, "grad_norm": 0.375, "learning_rate": 9.99906130872032e-05, "loss": 0.42, "step": 9750 }, { "epoch": 13.0, "eval_loss": 0.45076629519462585, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.7409, "eval_samples_per_second": 1.49, "eval_steps_per_second": 0.093, "step": 9750 }, { "epoch": 13.013333333333334, "grad_norm": 0.40234375, "learning_rate": 9.99905927786448e-05, "loss": 0.4402, "step": 9760 }, { "epoch": 13.026666666666667, "grad_norm": 0.404296875, "learning_rate": 9.999057244814344e-05, "loss": 0.451, "step": 9770 }, { "epoch": 13.04, "grad_norm": 0.380859375, "learning_rate": 9.999055209569914e-05, "loss": 0.4615, "step": 9780 }, { "epoch": 13.053333333333333, "grad_norm": 0.38671875, "learning_rate": 9.99905317213119e-05, "loss": 0.4495, "step": 9790 }, { "epoch": 13.066666666666666, "grad_norm": 0.3984375, "learning_rate": 9.999051132498174e-05, "loss": 0.4365, "step": 9800 }, { "epoch": 13.08, "grad_norm": 0.443359375, "learning_rate": 9.999049090670866e-05, "loss": 0.4399, "step": 9810 }, { "epoch": 13.093333333333334, "grad_norm": 0.451171875, "learning_rate": 9.999047046649266e-05, "loss": 0.4399, "step": 9820 }, { "epoch": 13.106666666666667, "grad_norm": 0.384765625, "learning_rate": 9.999045000433377e-05, "loss": 0.4286, "step": 9830 }, { "epoch": 13.12, "grad_norm": 0.421875, "learning_rate": 9.999042952023199e-05, "loss": 0.4356, "step": 9840 }, { "epoch": 13.133333333333333, "grad_norm": 0.49609375, "learning_rate": 9.999040901418733e-05, "loss": 0.4271, "step": 9850 }, { "epoch": 13.146666666666667, "grad_norm": 0.40234375, "learning_rate": 9.999038848619978e-05, "loss": 0.4469, "step": 9860 }, { "epoch": 13.16, "grad_norm": 0.408203125, "learning_rate": 9.999036793626938e-05, "loss": 0.4384, "step": 9870 }, { "epoch": 13.173333333333334, "grad_norm": 0.56640625, "learning_rate": 9.999034736439611e-05, "loss": 0.4315, "step": 9880 }, { "epoch": 13.186666666666667, "grad_norm": 0.349609375, "learning_rate": 9.999032677058002e-05, "loss": 0.4312, "step": 9890 }, { "epoch": 13.2, "grad_norm": 0.4140625, "learning_rate": 9.999030615482108e-05, "loss": 0.4263, "step": 9900 }, { "epoch": 13.213333333333333, "grad_norm": 0.419921875, "learning_rate": 9.99902855171193e-05, "loss": 0.4265, "step": 9910 }, { "epoch": 13.226666666666667, "grad_norm": 0.455078125, "learning_rate": 9.999026485747471e-05, "loss": 0.4398, "step": 9920 }, { "epoch": 13.24, "grad_norm": 0.404296875, "learning_rate": 9.999024417588731e-05, "loss": 0.4217, "step": 9930 }, { "epoch": 13.253333333333334, "grad_norm": 0.421875, "learning_rate": 9.999022347235711e-05, "loss": 0.4256, "step": 9940 }, { "epoch": 13.266666666666667, "grad_norm": 0.373046875, "learning_rate": 9.999020274688414e-05, "loss": 0.4262, "step": 9950 }, { "epoch": 13.28, "grad_norm": 0.408203125, "learning_rate": 9.999018199946835e-05, "loss": 0.4563, "step": 9960 }, { "epoch": 13.293333333333333, "grad_norm": 0.455078125, "learning_rate": 9.99901612301098e-05, "loss": 0.4127, "step": 9970 }, { "epoch": 13.306666666666667, "grad_norm": 0.38671875, "learning_rate": 9.99901404388085e-05, "loss": 0.435, "step": 9980 }, { "epoch": 13.32, "grad_norm": 0.388671875, "learning_rate": 9.999011962556443e-05, "loss": 0.4352, "step": 9990 }, { "epoch": 13.333333333333334, "grad_norm": 0.443359375, "learning_rate": 9.999009879037762e-05, "loss": 0.4419, "step": 10000 }, { "epoch": 13.346666666666668, "grad_norm": 0.45703125, "learning_rate": 9.999007793324807e-05, "loss": 0.433, "step": 10010 }, { "epoch": 13.36, "grad_norm": 0.44140625, "learning_rate": 9.999005705417578e-05, "loss": 0.4355, "step": 10020 }, { "epoch": 13.373333333333333, "grad_norm": 0.41015625, "learning_rate": 9.999003615316078e-05, "loss": 0.4322, "step": 10030 }, { "epoch": 13.386666666666667, "grad_norm": 0.41796875, "learning_rate": 9.999001523020308e-05, "loss": 0.4277, "step": 10040 }, { "epoch": 13.4, "grad_norm": 0.365234375, "learning_rate": 9.998999428530267e-05, "loss": 0.4336, "step": 10050 }, { "epoch": 13.413333333333334, "grad_norm": 0.435546875, "learning_rate": 9.998997331845956e-05, "loss": 0.4374, "step": 10060 }, { "epoch": 13.426666666666666, "grad_norm": 0.44921875, "learning_rate": 9.998995232967379e-05, "loss": 0.4386, "step": 10070 }, { "epoch": 13.44, "grad_norm": 0.4296875, "learning_rate": 9.998993131894534e-05, "loss": 0.4488, "step": 10080 }, { "epoch": 13.453333333333333, "grad_norm": 0.455078125, "learning_rate": 9.998991028627421e-05, "loss": 0.4386, "step": 10090 }, { "epoch": 13.466666666666667, "grad_norm": 0.3828125, "learning_rate": 9.998988923166044e-05, "loss": 0.4484, "step": 10100 }, { "epoch": 13.48, "grad_norm": 0.400390625, "learning_rate": 9.998986815510403e-05, "loss": 0.4304, "step": 10110 }, { "epoch": 13.493333333333334, "grad_norm": 0.392578125, "learning_rate": 9.998984705660497e-05, "loss": 0.4423, "step": 10120 }, { "epoch": 13.506666666666666, "grad_norm": 0.37890625, "learning_rate": 9.998982593616329e-05, "loss": 0.4371, "step": 10130 }, { "epoch": 13.52, "grad_norm": 0.365234375, "learning_rate": 9.998980479377899e-05, "loss": 0.4288, "step": 10140 }, { "epoch": 13.533333333333333, "grad_norm": 0.4609375, "learning_rate": 9.998978362945208e-05, "loss": 0.4315, "step": 10150 }, { "epoch": 13.546666666666667, "grad_norm": 0.421875, "learning_rate": 9.998976244318259e-05, "loss": 0.4333, "step": 10160 }, { "epoch": 13.56, "grad_norm": 0.36328125, "learning_rate": 9.998974123497049e-05, "loss": 0.4256, "step": 10170 }, { "epoch": 13.573333333333334, "grad_norm": 0.42578125, "learning_rate": 9.998972000481581e-05, "loss": 0.4295, "step": 10180 }, { "epoch": 13.586666666666666, "grad_norm": 0.494140625, "learning_rate": 9.998969875271858e-05, "loss": 0.4199, "step": 10190 }, { "epoch": 13.6, "grad_norm": 0.388671875, "learning_rate": 9.998967747867877e-05, "loss": 0.4222, "step": 10200 }, { "epoch": 13.613333333333333, "grad_norm": 0.427734375, "learning_rate": 9.99896561826964e-05, "loss": 0.4077, "step": 10210 }, { "epoch": 13.626666666666667, "grad_norm": 0.376953125, "learning_rate": 9.99896348647715e-05, "loss": 0.4121, "step": 10220 }, { "epoch": 13.64, "grad_norm": 0.390625, "learning_rate": 9.998961352490408e-05, "loss": 0.4297, "step": 10230 }, { "epoch": 13.653333333333332, "grad_norm": 0.54296875, "learning_rate": 9.998959216309412e-05, "loss": 0.4405, "step": 10240 }, { "epoch": 13.666666666666666, "grad_norm": 0.41015625, "learning_rate": 9.998957077934163e-05, "loss": 0.4223, "step": 10250 }, { "epoch": 13.68, "grad_norm": 0.43359375, "learning_rate": 9.998954937364667e-05, "loss": 0.4167, "step": 10260 }, { "epoch": 13.693333333333333, "grad_norm": 0.34375, "learning_rate": 9.998952794600918e-05, "loss": 0.4245, "step": 10270 }, { "epoch": 13.706666666666667, "grad_norm": 0.4375, "learning_rate": 9.998950649642922e-05, "loss": 0.4194, "step": 10280 }, { "epoch": 13.72, "grad_norm": 0.4609375, "learning_rate": 9.998948502490679e-05, "loss": 0.4429, "step": 10290 }, { "epoch": 13.733333333333333, "grad_norm": 0.419921875, "learning_rate": 9.998946353144188e-05, "loss": 0.4369, "step": 10300 }, { "epoch": 13.746666666666666, "grad_norm": 0.47265625, "learning_rate": 9.998944201603451e-05, "loss": 0.4366, "step": 10310 }, { "epoch": 13.76, "grad_norm": 0.4453125, "learning_rate": 9.99894204786847e-05, "loss": 0.4489, "step": 10320 }, { "epoch": 13.773333333333333, "grad_norm": 0.462890625, "learning_rate": 9.998939891939245e-05, "loss": 0.4381, "step": 10330 }, { "epoch": 13.786666666666667, "grad_norm": 0.462890625, "learning_rate": 9.998937733815776e-05, "loss": 0.4379, "step": 10340 }, { "epoch": 13.8, "grad_norm": 0.51171875, "learning_rate": 9.998935573498068e-05, "loss": 0.4375, "step": 10350 }, { "epoch": 13.813333333333333, "grad_norm": 0.4609375, "learning_rate": 9.998933410986115e-05, "loss": 0.41, "step": 10360 }, { "epoch": 13.826666666666666, "grad_norm": 0.3984375, "learning_rate": 9.998931246279924e-05, "loss": 0.422, "step": 10370 }, { "epoch": 13.84, "grad_norm": 0.443359375, "learning_rate": 9.998929079379494e-05, "loss": 0.4337, "step": 10380 }, { "epoch": 13.853333333333333, "grad_norm": 0.400390625, "learning_rate": 9.998926910284823e-05, "loss": 0.4294, "step": 10390 }, { "epoch": 13.866666666666667, "grad_norm": 0.40625, "learning_rate": 9.998924738995918e-05, "loss": 0.431, "step": 10400 }, { "epoch": 13.88, "grad_norm": 0.45703125, "learning_rate": 9.998922565512774e-05, "loss": 0.41, "step": 10410 }, { "epoch": 13.893333333333333, "grad_norm": 0.41796875, "learning_rate": 9.998920389835397e-05, "loss": 0.4211, "step": 10420 }, { "epoch": 13.906666666666666, "grad_norm": 0.4921875, "learning_rate": 9.998918211963783e-05, "loss": 0.4311, "step": 10430 }, { "epoch": 13.92, "grad_norm": 0.498046875, "learning_rate": 9.998916031897939e-05, "loss": 0.4324, "step": 10440 }, { "epoch": 13.933333333333334, "grad_norm": 0.353515625, "learning_rate": 9.99891384963786e-05, "loss": 0.4246, "step": 10450 }, { "epoch": 13.946666666666667, "grad_norm": 0.408203125, "learning_rate": 9.99891166518355e-05, "loss": 0.4272, "step": 10460 }, { "epoch": 13.96, "grad_norm": 0.369140625, "learning_rate": 9.99890947853501e-05, "loss": 0.4225, "step": 10470 }, { "epoch": 13.973333333333333, "grad_norm": 0.515625, "learning_rate": 9.998907289692239e-05, "loss": 0.4464, "step": 10480 }, { "epoch": 13.986666666666666, "grad_norm": 0.455078125, "learning_rate": 9.99890509865524e-05, "loss": 0.4263, "step": 10490 }, { "epoch": 14.0, "grad_norm": 0.3671875, "learning_rate": 9.998902905424014e-05, "loss": 0.4174, "step": 10500 }, { "epoch": 14.0, "eval_loss": 0.44991493225097656, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.0919, "eval_samples_per_second": 1.585, "eval_steps_per_second": 0.099, "step": 10500 }, { "epoch": 14.013333333333334, "grad_norm": 0.400390625, "learning_rate": 9.998900709998559e-05, "loss": 0.4376, "step": 10510 }, { "epoch": 14.026666666666667, "grad_norm": 0.4296875, "learning_rate": 9.99889851237888e-05, "loss": 0.4484, "step": 10520 }, { "epoch": 14.04, "grad_norm": 0.380859375, "learning_rate": 9.998896312564977e-05, "loss": 0.4589, "step": 10530 }, { "epoch": 14.053333333333333, "grad_norm": 0.3984375, "learning_rate": 9.99889411055685e-05, "loss": 0.4472, "step": 10540 }, { "epoch": 14.066666666666666, "grad_norm": 0.427734375, "learning_rate": 9.998891906354499e-05, "loss": 0.4338, "step": 10550 }, { "epoch": 14.08, "grad_norm": 0.41796875, "learning_rate": 9.998889699957925e-05, "loss": 0.4372, "step": 10560 }, { "epoch": 14.093333333333334, "grad_norm": 0.400390625, "learning_rate": 9.998887491367133e-05, "loss": 0.437, "step": 10570 }, { "epoch": 14.106666666666667, "grad_norm": 0.40234375, "learning_rate": 9.998885280582118e-05, "loss": 0.426, "step": 10580 }, { "epoch": 14.12, "grad_norm": 0.38671875, "learning_rate": 9.998883067602885e-05, "loss": 0.4322, "step": 10590 }, { "epoch": 14.133333333333333, "grad_norm": 0.4140625, "learning_rate": 9.998880852429436e-05, "loss": 0.4243, "step": 10600 }, { "epoch": 14.146666666666667, "grad_norm": 0.41015625, "learning_rate": 9.998878635061767e-05, "loss": 0.4427, "step": 10610 }, { "epoch": 14.16, "grad_norm": 0.4765625, "learning_rate": 9.998876415499883e-05, "loss": 0.4347, "step": 10620 }, { "epoch": 14.173333333333334, "grad_norm": 0.41015625, "learning_rate": 9.998874193743783e-05, "loss": 0.4291, "step": 10630 }, { "epoch": 14.186666666666667, "grad_norm": 0.443359375, "learning_rate": 9.99887196979347e-05, "loss": 0.4293, "step": 10640 }, { "epoch": 14.2, "grad_norm": 0.392578125, "learning_rate": 9.998869743648944e-05, "loss": 0.423, "step": 10650 }, { "epoch": 14.213333333333333, "grad_norm": 0.52734375, "learning_rate": 9.998867515310206e-05, "loss": 0.423, "step": 10660 }, { "epoch": 14.226666666666667, "grad_norm": 0.447265625, "learning_rate": 9.998865284777257e-05, "loss": 0.4354, "step": 10670 }, { "epoch": 14.24, "grad_norm": 0.41015625, "learning_rate": 9.998863052050096e-05, "loss": 0.4186, "step": 10680 }, { "epoch": 14.253333333333334, "grad_norm": 0.421875, "learning_rate": 9.998860817128726e-05, "loss": 0.422, "step": 10690 }, { "epoch": 14.266666666666667, "grad_norm": 0.41796875, "learning_rate": 9.998858580013149e-05, "loss": 0.4243, "step": 10700 }, { "epoch": 14.28, "grad_norm": 0.466796875, "learning_rate": 9.998856340703364e-05, "loss": 0.4532, "step": 10710 }, { "epoch": 14.293333333333333, "grad_norm": 0.451171875, "learning_rate": 9.998854099199373e-05, "loss": 0.4088, "step": 10720 }, { "epoch": 14.306666666666667, "grad_norm": 0.37890625, "learning_rate": 9.998851855501176e-05, "loss": 0.4322, "step": 10730 }, { "epoch": 14.32, "grad_norm": 0.4375, "learning_rate": 9.998849609608776e-05, "loss": 0.4327, "step": 10740 }, { "epoch": 14.333333333333334, "grad_norm": 0.419921875, "learning_rate": 9.998847361522171e-05, "loss": 0.4394, "step": 10750 }, { "epoch": 14.346666666666668, "grad_norm": 0.447265625, "learning_rate": 9.998845111241364e-05, "loss": 0.4297, "step": 10760 }, { "epoch": 14.36, "grad_norm": 0.435546875, "learning_rate": 9.998842858766357e-05, "loss": 0.4326, "step": 10770 }, { "epoch": 14.373333333333333, "grad_norm": 0.34765625, "learning_rate": 9.998840604097148e-05, "loss": 0.4296, "step": 10780 }, { "epoch": 14.386666666666667, "grad_norm": 0.451171875, "learning_rate": 9.998838347233741e-05, "loss": 0.4248, "step": 10790 }, { "epoch": 14.4, "grad_norm": 0.412109375, "learning_rate": 9.998836088176133e-05, "loss": 0.4305, "step": 10800 }, { "epoch": 14.413333333333334, "grad_norm": 0.43359375, "learning_rate": 9.99883382692433e-05, "loss": 0.4343, "step": 10810 }, { "epoch": 14.426666666666666, "grad_norm": 0.404296875, "learning_rate": 9.99883156347833e-05, "loss": 0.4356, "step": 10820 }, { "epoch": 14.44, "grad_norm": 0.421875, "learning_rate": 9.998829297838135e-05, "loss": 0.4452, "step": 10830 }, { "epoch": 14.453333333333333, "grad_norm": 0.4140625, "learning_rate": 9.998827030003746e-05, "loss": 0.436, "step": 10840 }, { "epoch": 14.466666666666667, "grad_norm": 0.400390625, "learning_rate": 9.998824759975162e-05, "loss": 0.4455, "step": 10850 }, { "epoch": 14.48, "grad_norm": 0.447265625, "learning_rate": 9.998822487752386e-05, "loss": 0.4276, "step": 10860 }, { "epoch": 14.493333333333334, "grad_norm": 0.41796875, "learning_rate": 9.998820213335418e-05, "loss": 0.4386, "step": 10870 }, { "epoch": 14.506666666666666, "grad_norm": 0.416015625, "learning_rate": 9.998817936724261e-05, "loss": 0.4348, "step": 10880 }, { "epoch": 14.52, "grad_norm": 0.390625, "learning_rate": 9.998815657918913e-05, "loss": 0.4254, "step": 10890 }, { "epoch": 14.533333333333333, "grad_norm": 0.396484375, "learning_rate": 9.998813376919377e-05, "loss": 0.4288, "step": 10900 }, { "epoch": 14.546666666666667, "grad_norm": 0.443359375, "learning_rate": 9.998811093725654e-05, "loss": 0.431, "step": 10910 }, { "epoch": 14.56, "grad_norm": 0.34375, "learning_rate": 9.998808808337746e-05, "loss": 0.424, "step": 10920 }, { "epoch": 14.573333333333334, "grad_norm": 0.4765625, "learning_rate": 9.99880652075565e-05, "loss": 0.4275, "step": 10930 }, { "epoch": 14.586666666666666, "grad_norm": 0.404296875, "learning_rate": 9.99880423097937e-05, "loss": 0.4163, "step": 10940 }, { "epoch": 14.6, "grad_norm": 0.39453125, "learning_rate": 9.998801939008905e-05, "loss": 0.4183, "step": 10950 }, { "epoch": 14.613333333333333, "grad_norm": 0.423828125, "learning_rate": 9.998799644844261e-05, "loss": 0.4057, "step": 10960 }, { "epoch": 14.626666666666667, "grad_norm": 0.337890625, "learning_rate": 9.998797348485434e-05, "loss": 0.4093, "step": 10970 }, { "epoch": 14.64, "grad_norm": 0.44921875, "learning_rate": 9.998795049932428e-05, "loss": 0.4262, "step": 10980 }, { "epoch": 14.653333333333332, "grad_norm": 0.376953125, "learning_rate": 9.99879274918524e-05, "loss": 0.4362, "step": 10990 }, { "epoch": 14.666666666666666, "grad_norm": 0.46484375, "learning_rate": 9.998790446243876e-05, "loss": 0.4205, "step": 11000 }, { "epoch": 14.68, "grad_norm": 0.421875, "learning_rate": 9.998788141108332e-05, "loss": 0.4141, "step": 11010 }, { "epoch": 14.693333333333333, "grad_norm": 0.478515625, "learning_rate": 9.998785833778615e-05, "loss": 0.4227, "step": 11020 }, { "epoch": 14.706666666666667, "grad_norm": 0.484375, "learning_rate": 9.998783524254721e-05, "loss": 0.4164, "step": 11030 }, { "epoch": 14.72, "grad_norm": 0.43359375, "learning_rate": 9.998781212536651e-05, "loss": 0.4408, "step": 11040 }, { "epoch": 14.733333333333333, "grad_norm": 0.486328125, "learning_rate": 9.998778898624408e-05, "loss": 0.4336, "step": 11050 }, { "epoch": 14.746666666666666, "grad_norm": 0.5078125, "learning_rate": 9.998776582517994e-05, "loss": 0.4335, "step": 11060 }, { "epoch": 14.76, "grad_norm": 0.4609375, "learning_rate": 9.998774264217409e-05, "loss": 0.446, "step": 11070 }, { "epoch": 14.773333333333333, "grad_norm": 0.412109375, "learning_rate": 9.998771943722654e-05, "loss": 0.4358, "step": 11080 }, { "epoch": 14.786666666666667, "grad_norm": 0.5234375, "learning_rate": 9.998769621033728e-05, "loss": 0.4353, "step": 11090 }, { "epoch": 14.8, "grad_norm": 0.40625, "learning_rate": 9.998767296150635e-05, "loss": 0.4338, "step": 11100 }, { "epoch": 14.813333333333333, "grad_norm": 0.51171875, "learning_rate": 9.998764969073374e-05, "loss": 0.4072, "step": 11110 }, { "epoch": 14.826666666666666, "grad_norm": 0.5234375, "learning_rate": 9.998762639801946e-05, "loss": 0.42, "step": 11120 }, { "epoch": 14.84, "grad_norm": 0.5625, "learning_rate": 9.998760308336355e-05, "loss": 0.4308, "step": 11130 }, { "epoch": 14.853333333333333, "grad_norm": 0.427734375, "learning_rate": 9.998757974676598e-05, "loss": 0.426, "step": 11140 }, { "epoch": 14.866666666666667, "grad_norm": 0.49609375, "learning_rate": 9.99875563882268e-05, "loss": 0.4283, "step": 11150 }, { "epoch": 14.88, "grad_norm": 0.373046875, "learning_rate": 9.998753300774598e-05, "loss": 0.4086, "step": 11160 }, { "epoch": 14.893333333333333, "grad_norm": 0.4609375, "learning_rate": 9.998750960532355e-05, "loss": 0.4185, "step": 11170 }, { "epoch": 14.906666666666666, "grad_norm": 0.419921875, "learning_rate": 9.998748618095952e-05, "loss": 0.4282, "step": 11180 }, { "epoch": 14.92, "grad_norm": 0.46875, "learning_rate": 9.998746273465392e-05, "loss": 0.429, "step": 11190 }, { "epoch": 14.933333333333334, "grad_norm": 0.384765625, "learning_rate": 9.998743926640671e-05, "loss": 0.4209, "step": 11200 }, { "epoch": 14.946666666666667, "grad_norm": 0.419921875, "learning_rate": 9.998741577621796e-05, "loss": 0.4236, "step": 11210 }, { "epoch": 14.96, "grad_norm": 0.380859375, "learning_rate": 9.998739226408762e-05, "loss": 0.4196, "step": 11220 }, { "epoch": 14.973333333333333, "grad_norm": 0.55078125, "learning_rate": 9.998736873001575e-05, "loss": 0.4451, "step": 11230 }, { "epoch": 14.986666666666666, "grad_norm": 0.478515625, "learning_rate": 9.998734517400234e-05, "loss": 0.4234, "step": 11240 }, { "epoch": 15.0, "grad_norm": 0.4375, "learning_rate": 9.998732159604739e-05, "loss": 0.4147, "step": 11250 }, { "epoch": 15.0, "eval_loss": 0.44822588562965393, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3452, "eval_samples_per_second": 1.547, "eval_steps_per_second": 0.097, "step": 11250 }, { "epoch": 15.013333333333334, "grad_norm": 0.447265625, "learning_rate": 9.998729799615092e-05, "loss": 0.4349, "step": 11260 }, { "epoch": 15.026666666666667, "grad_norm": 0.482421875, "learning_rate": 9.998727437431297e-05, "loss": 0.4459, "step": 11270 }, { "epoch": 15.04, "grad_norm": 0.41015625, "learning_rate": 9.998725073053349e-05, "loss": 0.457, "step": 11280 }, { "epoch": 15.053333333333333, "grad_norm": 0.474609375, "learning_rate": 9.998722706481254e-05, "loss": 0.4447, "step": 11290 }, { "epoch": 15.066666666666666, "grad_norm": 0.423828125, "learning_rate": 9.998720337715011e-05, "loss": 0.4316, "step": 11300 }, { "epoch": 15.08, "grad_norm": 0.416015625, "learning_rate": 9.998717966754622e-05, "loss": 0.4357, "step": 11310 }, { "epoch": 15.093333333333334, "grad_norm": 0.453125, "learning_rate": 9.998715593600088e-05, "loss": 0.4347, "step": 11320 }, { "epoch": 15.106666666666667, "grad_norm": 0.408203125, "learning_rate": 9.998713218251407e-05, "loss": 0.4222, "step": 11330 }, { "epoch": 15.12, "grad_norm": 0.431640625, "learning_rate": 9.998710840708586e-05, "loss": 0.4291, "step": 11340 }, { "epoch": 15.133333333333333, "grad_norm": 0.439453125, "learning_rate": 9.998708460971618e-05, "loss": 0.4211, "step": 11350 }, { "epoch": 15.146666666666667, "grad_norm": 0.47265625, "learning_rate": 9.998706079040512e-05, "loss": 0.4398, "step": 11360 }, { "epoch": 15.16, "grad_norm": 0.427734375, "learning_rate": 9.998703694915264e-05, "loss": 0.432, "step": 11370 }, { "epoch": 15.173333333333334, "grad_norm": 0.60546875, "learning_rate": 9.998701308595878e-05, "loss": 0.4253, "step": 11380 }, { "epoch": 15.186666666666667, "grad_norm": 0.484375, "learning_rate": 9.998698920082352e-05, "loss": 0.4263, "step": 11390 }, { "epoch": 15.2, "grad_norm": 0.4375, "learning_rate": 9.998696529374691e-05, "loss": 0.4205, "step": 11400 }, { "epoch": 15.213333333333333, "grad_norm": 0.3984375, "learning_rate": 9.998694136472893e-05, "loss": 0.4201, "step": 11410 }, { "epoch": 15.226666666666667, "grad_norm": 0.470703125, "learning_rate": 9.998691741376959e-05, "loss": 0.4332, "step": 11420 }, { "epoch": 15.24, "grad_norm": 0.578125, "learning_rate": 9.998689344086891e-05, "loss": 0.4162, "step": 11430 }, { "epoch": 15.253333333333334, "grad_norm": 0.470703125, "learning_rate": 9.998686944602691e-05, "loss": 0.4195, "step": 11440 }, { "epoch": 15.266666666666667, "grad_norm": 0.427734375, "learning_rate": 9.99868454292436e-05, "loss": 0.4197, "step": 11450 }, { "epoch": 15.28, "grad_norm": 0.4140625, "learning_rate": 9.998682139051896e-05, "loss": 0.4507, "step": 11460 }, { "epoch": 15.293333333333333, "grad_norm": 0.45703125, "learning_rate": 9.998679732985301e-05, "loss": 0.4063, "step": 11470 }, { "epoch": 15.306666666666667, "grad_norm": 0.40625, "learning_rate": 9.998677324724579e-05, "loss": 0.429, "step": 11480 }, { "epoch": 15.32, "grad_norm": 0.400390625, "learning_rate": 9.99867491426973e-05, "loss": 0.4294, "step": 11490 }, { "epoch": 15.333333333333334, "grad_norm": 0.4921875, "learning_rate": 9.998672501620754e-05, "loss": 0.4372, "step": 11500 }, { "epoch": 15.346666666666668, "grad_norm": 0.435546875, "learning_rate": 9.998670086777652e-05, "loss": 0.4271, "step": 11510 }, { "epoch": 15.36, "grad_norm": 0.474609375, "learning_rate": 9.998667669740425e-05, "loss": 0.4307, "step": 11520 }, { "epoch": 15.373333333333333, "grad_norm": 0.3984375, "learning_rate": 9.998665250509075e-05, "loss": 0.4267, "step": 11530 }, { "epoch": 15.386666666666667, "grad_norm": 0.4453125, "learning_rate": 9.998662829083603e-05, "loss": 0.4214, "step": 11540 }, { "epoch": 15.4, "grad_norm": 0.484375, "learning_rate": 9.998660405464009e-05, "loss": 0.4268, "step": 11550 }, { "epoch": 15.413333333333334, "grad_norm": 0.494140625, "learning_rate": 9.998657979650294e-05, "loss": 0.4324, "step": 11560 }, { "epoch": 15.426666666666666, "grad_norm": 0.404296875, "learning_rate": 9.99865555164246e-05, "loss": 0.4334, "step": 11570 }, { "epoch": 15.44, "grad_norm": 0.408203125, "learning_rate": 9.998653121440509e-05, "loss": 0.443, "step": 11580 }, { "epoch": 15.453333333333333, "grad_norm": 0.53515625, "learning_rate": 9.99865068904444e-05, "loss": 0.4324, "step": 11590 }, { "epoch": 15.466666666666667, "grad_norm": 0.423828125, "learning_rate": 9.998648254454255e-05, "loss": 0.442, "step": 11600 }, { "epoch": 15.48, "grad_norm": 0.46875, "learning_rate": 9.998645817669954e-05, "loss": 0.4237, "step": 11610 }, { "epoch": 15.493333333333334, "grad_norm": 0.431640625, "learning_rate": 9.99864337869154e-05, "loss": 0.4357, "step": 11620 }, { "epoch": 15.506666666666666, "grad_norm": 0.416015625, "learning_rate": 9.998640937519015e-05, "loss": 0.4317, "step": 11630 }, { "epoch": 15.52, "grad_norm": 0.4765625, "learning_rate": 9.998638494152377e-05, "loss": 0.4233, "step": 11640 }, { "epoch": 15.533333333333333, "grad_norm": 0.44140625, "learning_rate": 9.998636048591628e-05, "loss": 0.4264, "step": 11650 }, { "epoch": 15.546666666666667, "grad_norm": 0.412109375, "learning_rate": 9.998633600836768e-05, "loss": 0.4281, "step": 11660 }, { "epoch": 15.56, "grad_norm": 0.40625, "learning_rate": 9.9986311508878e-05, "loss": 0.422, "step": 11670 }, { "epoch": 15.573333333333334, "grad_norm": 0.4296875, "learning_rate": 9.998628698744726e-05, "loss": 0.4252, "step": 11680 }, { "epoch": 15.586666666666666, "grad_norm": 0.384765625, "learning_rate": 9.998626244407545e-05, "loss": 0.4133, "step": 11690 }, { "epoch": 15.6, "grad_norm": 0.474609375, "learning_rate": 9.998623787876259e-05, "loss": 0.4158, "step": 11700 }, { "epoch": 15.613333333333333, "grad_norm": 0.40234375, "learning_rate": 9.998621329150868e-05, "loss": 0.4031, "step": 11710 }, { "epoch": 15.626666666666667, "grad_norm": 0.451171875, "learning_rate": 9.998618868231375e-05, "loss": 0.4081, "step": 11720 }, { "epoch": 15.64, "grad_norm": 0.447265625, "learning_rate": 9.99861640511778e-05, "loss": 0.4234, "step": 11730 }, { "epoch": 15.653333333333332, "grad_norm": 0.40234375, "learning_rate": 9.998613939810082e-05, "loss": 0.4337, "step": 11740 }, { "epoch": 15.666666666666666, "grad_norm": 0.421875, "learning_rate": 9.998611472308284e-05, "loss": 0.4172, "step": 11750 }, { "epoch": 15.68, "grad_norm": 0.52734375, "learning_rate": 9.998609002612389e-05, "loss": 0.4117, "step": 11760 }, { "epoch": 15.693333333333333, "grad_norm": 0.53125, "learning_rate": 9.998606530722396e-05, "loss": 0.4204, "step": 11770 }, { "epoch": 15.706666666666667, "grad_norm": 0.5, "learning_rate": 9.998604056638306e-05, "loss": 0.4144, "step": 11780 }, { "epoch": 15.72, "grad_norm": 0.55078125, "learning_rate": 9.998601580360121e-05, "loss": 0.4376, "step": 11790 }, { "epoch": 15.733333333333333, "grad_norm": 0.5625, "learning_rate": 9.99859910188784e-05, "loss": 0.4312, "step": 11800 }, { "epoch": 15.746666666666666, "grad_norm": 0.4453125, "learning_rate": 9.998596621221466e-05, "loss": 0.4323, "step": 11810 }, { "epoch": 15.76, "grad_norm": 0.439453125, "learning_rate": 9.998594138361001e-05, "loss": 0.444, "step": 11820 }, { "epoch": 15.773333333333333, "grad_norm": 0.50390625, "learning_rate": 9.998591653306444e-05, "loss": 0.4343, "step": 11830 }, { "epoch": 15.786666666666667, "grad_norm": 0.455078125, "learning_rate": 9.998589166057797e-05, "loss": 0.4315, "step": 11840 }, { "epoch": 15.8, "grad_norm": 0.484375, "learning_rate": 9.99858667661506e-05, "loss": 0.4316, "step": 11850 }, { "epoch": 15.813333333333333, "grad_norm": 0.4609375, "learning_rate": 9.998584184978236e-05, "loss": 0.4052, "step": 11860 }, { "epoch": 15.826666666666666, "grad_norm": 0.43359375, "learning_rate": 9.998581691147324e-05, "loss": 0.4172, "step": 11870 }, { "epoch": 15.84, "grad_norm": 0.439453125, "learning_rate": 9.998579195122328e-05, "loss": 0.4288, "step": 11880 }, { "epoch": 15.853333333333333, "grad_norm": 0.40625, "learning_rate": 9.998576696903246e-05, "loss": 0.4238, "step": 11890 }, { "epoch": 15.866666666666667, "grad_norm": 0.43359375, "learning_rate": 9.99857419649008e-05, "loss": 0.4265, "step": 11900 }, { "epoch": 15.88, "grad_norm": 0.40625, "learning_rate": 9.998571693882833e-05, "loss": 0.4053, "step": 11910 }, { "epoch": 15.893333333333333, "grad_norm": 0.470703125, "learning_rate": 9.998569189081505e-05, "loss": 0.4163, "step": 11920 }, { "epoch": 15.906666666666666, "grad_norm": 0.40625, "learning_rate": 9.998566682086095e-05, "loss": 0.4262, "step": 11930 }, { "epoch": 15.92, "grad_norm": 0.412109375, "learning_rate": 9.998564172896607e-05, "loss": 0.4277, "step": 11940 }, { "epoch": 15.933333333333334, "grad_norm": 0.404296875, "learning_rate": 9.99856166151304e-05, "loss": 0.4197, "step": 11950 }, { "epoch": 15.946666666666667, "grad_norm": 0.3828125, "learning_rate": 9.998559147935397e-05, "loss": 0.4217, "step": 11960 }, { "epoch": 15.96, "grad_norm": 0.412109375, "learning_rate": 9.998556632163677e-05, "loss": 0.4177, "step": 11970 }, { "epoch": 15.973333333333333, "grad_norm": 0.4765625, "learning_rate": 9.998554114197884e-05, "loss": 0.443, "step": 11980 }, { "epoch": 15.986666666666666, "grad_norm": 0.4921875, "learning_rate": 9.998551594038015e-05, "loss": 0.4203, "step": 11990 }, { "epoch": 16.0, "grad_norm": 0.48046875, "learning_rate": 9.998549071684076e-05, "loss": 0.4118, "step": 12000 }, { "epoch": 16.0, "eval_loss": 0.4470759630203247, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3188, "eval_samples_per_second": 1.551, "eval_steps_per_second": 0.097, "step": 12000 }, { "epoch": 16.013333333333332, "grad_norm": 0.423828125, "learning_rate": 9.998546547136065e-05, "loss": 0.434, "step": 12010 }, { "epoch": 16.026666666666667, "grad_norm": 0.375, "learning_rate": 9.998544020393981e-05, "loss": 0.4431, "step": 12020 }, { "epoch": 16.04, "grad_norm": 0.40234375, "learning_rate": 9.998541491457831e-05, "loss": 0.4546, "step": 12030 }, { "epoch": 16.053333333333335, "grad_norm": 0.47265625, "learning_rate": 9.998538960327611e-05, "loss": 0.4424, "step": 12040 }, { "epoch": 16.066666666666666, "grad_norm": 0.490234375, "learning_rate": 9.998536427003324e-05, "loss": 0.4288, "step": 12050 }, { "epoch": 16.08, "grad_norm": 0.4296875, "learning_rate": 9.998533891484973e-05, "loss": 0.4317, "step": 12060 }, { "epoch": 16.093333333333334, "grad_norm": 0.6015625, "learning_rate": 9.998531353772555e-05, "loss": 0.4326, "step": 12070 }, { "epoch": 16.106666666666666, "grad_norm": 0.4296875, "learning_rate": 9.998528813866074e-05, "loss": 0.4208, "step": 12080 }, { "epoch": 16.12, "grad_norm": 0.416015625, "learning_rate": 9.998526271765531e-05, "loss": 0.427, "step": 12090 }, { "epoch": 16.133333333333333, "grad_norm": 0.55859375, "learning_rate": 9.998523727470927e-05, "loss": 0.4186, "step": 12100 }, { "epoch": 16.14666666666667, "grad_norm": 0.51171875, "learning_rate": 9.998521180982261e-05, "loss": 0.4374, "step": 12110 }, { "epoch": 16.16, "grad_norm": 0.462890625, "learning_rate": 9.998518632299538e-05, "loss": 0.4293, "step": 12120 }, { "epoch": 16.173333333333332, "grad_norm": 0.58984375, "learning_rate": 9.998516081422755e-05, "loss": 0.4229, "step": 12130 }, { "epoch": 16.186666666666667, "grad_norm": 0.54296875, "learning_rate": 9.998513528351915e-05, "loss": 0.4246, "step": 12140 }, { "epoch": 16.2, "grad_norm": 0.458984375, "learning_rate": 9.998510973087021e-05, "loss": 0.4182, "step": 12150 }, { "epoch": 16.213333333333335, "grad_norm": 0.451171875, "learning_rate": 9.998508415628071e-05, "loss": 0.4191, "step": 12160 }, { "epoch": 16.226666666666667, "grad_norm": 0.4765625, "learning_rate": 9.998505855975066e-05, "loss": 0.4302, "step": 12170 }, { "epoch": 16.24, "grad_norm": 0.484375, "learning_rate": 9.998503294128011e-05, "loss": 0.4157, "step": 12180 }, { "epoch": 16.253333333333334, "grad_norm": 0.451171875, "learning_rate": 9.998500730086904e-05, "loss": 0.4163, "step": 12190 }, { "epoch": 16.266666666666666, "grad_norm": 0.388671875, "learning_rate": 9.998498163851746e-05, "loss": 0.4177, "step": 12200 }, { "epoch": 16.28, "grad_norm": 0.44140625, "learning_rate": 9.99849559542254e-05, "loss": 0.4478, "step": 12210 }, { "epoch": 16.293333333333333, "grad_norm": 0.404296875, "learning_rate": 9.998493024799285e-05, "loss": 0.4048, "step": 12220 }, { "epoch": 16.306666666666665, "grad_norm": 0.369140625, "learning_rate": 9.998490451981983e-05, "loss": 0.4272, "step": 12230 }, { "epoch": 16.32, "grad_norm": 0.404296875, "learning_rate": 9.998487876970637e-05, "loss": 0.4279, "step": 12240 }, { "epoch": 16.333333333333332, "grad_norm": 0.423828125, "learning_rate": 9.998485299765246e-05, "loss": 0.4351, "step": 12250 }, { "epoch": 16.346666666666668, "grad_norm": 0.494140625, "learning_rate": 9.99848272036581e-05, "loss": 0.4247, "step": 12260 }, { "epoch": 16.36, "grad_norm": 0.470703125, "learning_rate": 9.998480138772332e-05, "loss": 0.4263, "step": 12270 }, { "epoch": 16.373333333333335, "grad_norm": 0.451171875, "learning_rate": 9.998477554984813e-05, "loss": 0.4234, "step": 12280 }, { "epoch": 16.386666666666667, "grad_norm": 0.462890625, "learning_rate": 9.998474969003256e-05, "loss": 0.4196, "step": 12290 }, { "epoch": 16.4, "grad_norm": 0.458984375, "learning_rate": 9.998472380827658e-05, "loss": 0.4246, "step": 12300 }, { "epoch": 16.413333333333334, "grad_norm": 0.4609375, "learning_rate": 9.998469790458022e-05, "loss": 0.4295, "step": 12310 }, { "epoch": 16.426666666666666, "grad_norm": 0.427734375, "learning_rate": 9.99846719789435e-05, "loss": 0.4305, "step": 12320 }, { "epoch": 16.44, "grad_norm": 0.421875, "learning_rate": 9.998464603136642e-05, "loss": 0.4413, "step": 12330 }, { "epoch": 16.453333333333333, "grad_norm": 0.462890625, "learning_rate": 9.9984620061849e-05, "loss": 0.4313, "step": 12340 }, { "epoch": 16.466666666666665, "grad_norm": 0.44140625, "learning_rate": 9.998459407039125e-05, "loss": 0.4401, "step": 12350 }, { "epoch": 16.48, "grad_norm": 0.44921875, "learning_rate": 9.998456805699318e-05, "loss": 0.4215, "step": 12360 }, { "epoch": 16.493333333333332, "grad_norm": 0.451171875, "learning_rate": 9.99845420216548e-05, "loss": 0.4324, "step": 12370 }, { "epoch": 16.506666666666668, "grad_norm": 0.39453125, "learning_rate": 9.99845159643761e-05, "loss": 0.4293, "step": 12380 }, { "epoch": 16.52, "grad_norm": 0.365234375, "learning_rate": 9.998448988515714e-05, "loss": 0.4201, "step": 12390 }, { "epoch": 16.533333333333335, "grad_norm": 0.43359375, "learning_rate": 9.998446378399791e-05, "loss": 0.4231, "step": 12400 }, { "epoch": 16.546666666666667, "grad_norm": 0.5078125, "learning_rate": 9.99844376608984e-05, "loss": 0.4254, "step": 12410 }, { "epoch": 16.56, "grad_norm": 0.38671875, "learning_rate": 9.998441151585864e-05, "loss": 0.4193, "step": 12420 }, { "epoch": 16.573333333333334, "grad_norm": 0.4921875, "learning_rate": 9.998438534887864e-05, "loss": 0.4226, "step": 12430 }, { "epoch": 16.586666666666666, "grad_norm": 0.400390625, "learning_rate": 9.998435915995842e-05, "loss": 0.4105, "step": 12440 }, { "epoch": 16.6, "grad_norm": 0.46484375, "learning_rate": 9.998433294909798e-05, "loss": 0.4133, "step": 12450 }, { "epoch": 16.613333333333333, "grad_norm": 0.36328125, "learning_rate": 9.998430671629732e-05, "loss": 0.4015, "step": 12460 }, { "epoch": 16.626666666666665, "grad_norm": 0.396484375, "learning_rate": 9.998428046155648e-05, "loss": 0.4062, "step": 12470 }, { "epoch": 16.64, "grad_norm": 0.42578125, "learning_rate": 9.998425418487544e-05, "loss": 0.4215, "step": 12480 }, { "epoch": 16.653333333333332, "grad_norm": 0.46875, "learning_rate": 9.998422788625423e-05, "loss": 0.4317, "step": 12490 }, { "epoch": 16.666666666666668, "grad_norm": 0.486328125, "learning_rate": 9.998420156569289e-05, "loss": 0.4162, "step": 12500 }, { "epoch": 16.68, "grad_norm": 0.47265625, "learning_rate": 9.998417522319137e-05, "loss": 0.409, "step": 12510 }, { "epoch": 16.693333333333335, "grad_norm": 0.546875, "learning_rate": 9.998414885874972e-05, "loss": 0.4179, "step": 12520 }, { "epoch": 16.706666666666667, "grad_norm": 0.59765625, "learning_rate": 9.998412247236795e-05, "loss": 0.4121, "step": 12530 }, { "epoch": 16.72, "grad_norm": 0.5078125, "learning_rate": 9.998409606404606e-05, "loss": 0.4354, "step": 12540 }, { "epoch": 16.733333333333334, "grad_norm": 0.578125, "learning_rate": 9.998406963378407e-05, "loss": 0.428, "step": 12550 }, { "epoch": 16.746666666666666, "grad_norm": 0.546875, "learning_rate": 9.998404318158199e-05, "loss": 0.4308, "step": 12560 }, { "epoch": 16.76, "grad_norm": 0.46875, "learning_rate": 9.998401670743984e-05, "loss": 0.4417, "step": 12570 }, { "epoch": 16.773333333333333, "grad_norm": 0.470703125, "learning_rate": 9.99839902113576e-05, "loss": 0.4313, "step": 12580 }, { "epoch": 16.786666666666665, "grad_norm": 0.404296875, "learning_rate": 9.998396369333533e-05, "loss": 0.4296, "step": 12590 }, { "epoch": 16.8, "grad_norm": 0.4375, "learning_rate": 9.998393715337299e-05, "loss": 0.4294, "step": 12600 }, { "epoch": 16.813333333333333, "grad_norm": 0.5078125, "learning_rate": 9.998391059147064e-05, "loss": 0.4022, "step": 12610 }, { "epoch": 16.826666666666668, "grad_norm": 0.462890625, "learning_rate": 9.998388400762826e-05, "loss": 0.4149, "step": 12620 }, { "epoch": 16.84, "grad_norm": 0.494140625, "learning_rate": 9.998385740184589e-05, "loss": 0.4266, "step": 12630 }, { "epoch": 16.85333333333333, "grad_norm": 0.4453125, "learning_rate": 9.99838307741235e-05, "loss": 0.4208, "step": 12640 }, { "epoch": 16.866666666666667, "grad_norm": 0.443359375, "learning_rate": 9.998380412446112e-05, "loss": 0.4236, "step": 12650 }, { "epoch": 16.88, "grad_norm": 0.373046875, "learning_rate": 9.998377745285877e-05, "loss": 0.4033, "step": 12660 }, { "epoch": 16.893333333333334, "grad_norm": 0.427734375, "learning_rate": 9.998375075931646e-05, "loss": 0.4139, "step": 12670 }, { "epoch": 16.906666666666666, "grad_norm": 0.5390625, "learning_rate": 9.99837240438342e-05, "loss": 0.4239, "step": 12680 }, { "epoch": 16.92, "grad_norm": 0.4609375, "learning_rate": 9.9983697306412e-05, "loss": 0.425, "step": 12690 }, { "epoch": 16.933333333333334, "grad_norm": 0.3671875, "learning_rate": 9.998367054704987e-05, "loss": 0.418, "step": 12700 }, { "epoch": 16.946666666666665, "grad_norm": 0.5234375, "learning_rate": 9.998364376574784e-05, "loss": 0.4194, "step": 12710 }, { "epoch": 16.96, "grad_norm": 0.392578125, "learning_rate": 9.998361696250589e-05, "loss": 0.416, "step": 12720 }, { "epoch": 16.973333333333333, "grad_norm": 0.50390625, "learning_rate": 9.998359013732405e-05, "loss": 0.4409, "step": 12730 }, { "epoch": 16.986666666666668, "grad_norm": 0.474609375, "learning_rate": 9.998356329020235e-05, "loss": 0.4183, "step": 12740 }, { "epoch": 17.0, "grad_norm": 0.484375, "learning_rate": 9.998353642114075e-05, "loss": 0.4098, "step": 12750 }, { "epoch": 17.0, "eval_loss": 0.44587600231170654, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3521, "eval_samples_per_second": 1.546, "eval_steps_per_second": 0.097, "step": 12750 }, { "epoch": 17.013333333333332, "grad_norm": 0.484375, "learning_rate": 9.998350953013931e-05, "loss": 0.4298, "step": 12760 }, { "epoch": 17.026666666666667, "grad_norm": 0.4375, "learning_rate": 9.998348261719803e-05, "loss": 0.4407, "step": 12770 }, { "epoch": 17.04, "grad_norm": 0.396484375, "learning_rate": 9.998345568231691e-05, "loss": 0.452, "step": 12780 }, { "epoch": 17.053333333333335, "grad_norm": 0.451171875, "learning_rate": 9.998342872549598e-05, "loss": 0.4388, "step": 12790 }, { "epoch": 17.066666666666666, "grad_norm": 0.5078125, "learning_rate": 9.998340174673521e-05, "loss": 0.427, "step": 12800 }, { "epoch": 17.08, "grad_norm": 0.46484375, "learning_rate": 9.998337474603468e-05, "loss": 0.4305, "step": 12810 }, { "epoch": 17.093333333333334, "grad_norm": 0.474609375, "learning_rate": 9.998334772339434e-05, "loss": 0.4311, "step": 12820 }, { "epoch": 17.106666666666666, "grad_norm": 0.4375, "learning_rate": 9.998332067881423e-05, "loss": 0.4191, "step": 12830 }, { "epoch": 17.12, "grad_norm": 0.421875, "learning_rate": 9.998329361229436e-05, "loss": 0.4256, "step": 12840 }, { "epoch": 17.133333333333333, "grad_norm": 0.484375, "learning_rate": 9.998326652383474e-05, "loss": 0.4164, "step": 12850 }, { "epoch": 17.14666666666667, "grad_norm": 0.384765625, "learning_rate": 9.998323941343539e-05, "loss": 0.435, "step": 12860 }, { "epoch": 17.16, "grad_norm": 0.421875, "learning_rate": 9.99832122810963e-05, "loss": 0.4277, "step": 12870 }, { "epoch": 17.173333333333332, "grad_norm": 0.6015625, "learning_rate": 9.99831851268175e-05, "loss": 0.4225, "step": 12880 }, { "epoch": 17.186666666666667, "grad_norm": 0.404296875, "learning_rate": 9.9983157950599e-05, "loss": 0.4219, "step": 12890 }, { "epoch": 17.2, "grad_norm": 0.408203125, "learning_rate": 9.998313075244081e-05, "loss": 0.4152, "step": 12900 }, { "epoch": 17.213333333333335, "grad_norm": 0.447265625, "learning_rate": 9.998310353234294e-05, "loss": 0.4163, "step": 12910 }, { "epoch": 17.226666666666667, "grad_norm": 0.515625, "learning_rate": 9.998307629030541e-05, "loss": 0.4281, "step": 12920 }, { "epoch": 17.24, "grad_norm": 0.515625, "learning_rate": 9.998304902632823e-05, "loss": 0.4116, "step": 12930 }, { "epoch": 17.253333333333334, "grad_norm": 0.45703125, "learning_rate": 9.998302174041139e-05, "loss": 0.4154, "step": 12940 }, { "epoch": 17.266666666666666, "grad_norm": 0.439453125, "learning_rate": 9.998299443255492e-05, "loss": 0.4166, "step": 12950 }, { "epoch": 17.28, "grad_norm": 0.494140625, "learning_rate": 9.998296710275883e-05, "loss": 0.4462, "step": 12960 }, { "epoch": 17.293333333333333, "grad_norm": 0.59375, "learning_rate": 9.998293975102315e-05, "loss": 0.4029, "step": 12970 }, { "epoch": 17.306666666666665, "grad_norm": 0.451171875, "learning_rate": 9.998291237734787e-05, "loss": 0.4247, "step": 12980 }, { "epoch": 17.32, "grad_norm": 0.390625, "learning_rate": 9.998288498173299e-05, "loss": 0.4246, "step": 12990 }, { "epoch": 17.333333333333332, "grad_norm": 0.45703125, "learning_rate": 9.998285756417856e-05, "loss": 0.4315, "step": 13000 }, { "epoch": 17.346666666666668, "grad_norm": 0.484375, "learning_rate": 9.998283012468457e-05, "loss": 0.4218, "step": 13010 }, { "epoch": 17.36, "grad_norm": 0.5234375, "learning_rate": 9.998280266325102e-05, "loss": 0.425, "step": 13020 }, { "epoch": 17.373333333333335, "grad_norm": 0.5390625, "learning_rate": 9.998277517987794e-05, "loss": 0.423, "step": 13030 }, { "epoch": 17.386666666666667, "grad_norm": 0.5234375, "learning_rate": 9.998274767456535e-05, "loss": 0.4164, "step": 13040 }, { "epoch": 17.4, "grad_norm": 0.41796875, "learning_rate": 9.998272014731322e-05, "loss": 0.4227, "step": 13050 }, { "epoch": 17.413333333333334, "grad_norm": 0.443359375, "learning_rate": 9.998269259812163e-05, "loss": 0.4273, "step": 13060 }, { "epoch": 17.426666666666666, "grad_norm": 0.46484375, "learning_rate": 9.998266502699053e-05, "loss": 0.4283, "step": 13070 }, { "epoch": 17.44, "grad_norm": 0.4453125, "learning_rate": 9.998263743391996e-05, "loss": 0.4389, "step": 13080 }, { "epoch": 17.453333333333333, "grad_norm": 0.51953125, "learning_rate": 9.998260981890992e-05, "loss": 0.4293, "step": 13090 }, { "epoch": 17.466666666666665, "grad_norm": 0.5078125, "learning_rate": 9.998258218196046e-05, "loss": 0.4377, "step": 13100 }, { "epoch": 17.48, "grad_norm": 0.4609375, "learning_rate": 9.998255452307152e-05, "loss": 0.4195, "step": 13110 }, { "epoch": 17.493333333333332, "grad_norm": 0.49609375, "learning_rate": 9.998252684224319e-05, "loss": 0.4315, "step": 13120 }, { "epoch": 17.506666666666668, "grad_norm": 0.451171875, "learning_rate": 9.998249913947543e-05, "loss": 0.4268, "step": 13130 }, { "epoch": 17.52, "grad_norm": 0.404296875, "learning_rate": 9.998247141476826e-05, "loss": 0.4183, "step": 13140 }, { "epoch": 17.533333333333335, "grad_norm": 0.4453125, "learning_rate": 9.998244366812172e-05, "loss": 0.4216, "step": 13150 }, { "epoch": 17.546666666666667, "grad_norm": 0.5078125, "learning_rate": 9.998241589953579e-05, "loss": 0.4242, "step": 13160 }, { "epoch": 17.56, "grad_norm": 0.373046875, "learning_rate": 9.998238810901051e-05, "loss": 0.4178, "step": 13170 }, { "epoch": 17.573333333333334, "grad_norm": 0.578125, "learning_rate": 9.998236029654586e-05, "loss": 0.4209, "step": 13180 }, { "epoch": 17.586666666666666, "grad_norm": 0.51171875, "learning_rate": 9.998233246214187e-05, "loss": 0.4104, "step": 13190 }, { "epoch": 17.6, "grad_norm": 0.47265625, "learning_rate": 9.998230460579856e-05, "loss": 0.412, "step": 13200 }, { "epoch": 17.613333333333333, "grad_norm": 0.44140625, "learning_rate": 9.998227672751595e-05, "loss": 0.399, "step": 13210 }, { "epoch": 17.626666666666665, "grad_norm": 0.373046875, "learning_rate": 9.998224882729401e-05, "loss": 0.4041, "step": 13220 }, { "epoch": 17.64, "grad_norm": 0.47265625, "learning_rate": 9.998222090513279e-05, "loss": 0.4185, "step": 13230 }, { "epoch": 17.653333333333332, "grad_norm": 0.43359375, "learning_rate": 9.998219296103229e-05, "loss": 0.4291, "step": 13240 }, { "epoch": 17.666666666666668, "grad_norm": 0.453125, "learning_rate": 9.998216499499251e-05, "loss": 0.4142, "step": 13250 }, { "epoch": 17.68, "grad_norm": 0.5390625, "learning_rate": 9.99821370070135e-05, "loss": 0.4079, "step": 13260 }, { "epoch": 17.693333333333335, "grad_norm": 0.462890625, "learning_rate": 9.998210899709524e-05, "loss": 0.4156, "step": 13270 }, { "epoch": 17.706666666666667, "grad_norm": 0.5625, "learning_rate": 9.998208096523773e-05, "loss": 0.4105, "step": 13280 }, { "epoch": 17.72, "grad_norm": 0.53125, "learning_rate": 9.998205291144102e-05, "loss": 0.4329, "step": 13290 }, { "epoch": 17.733333333333334, "grad_norm": 0.46484375, "learning_rate": 9.99820248357051e-05, "loss": 0.4268, "step": 13300 }, { "epoch": 17.746666666666666, "grad_norm": 0.44921875, "learning_rate": 9.998199673803e-05, "loss": 0.4282, "step": 13310 }, { "epoch": 17.76, "grad_norm": 0.51171875, "learning_rate": 9.99819686184157e-05, "loss": 0.4396, "step": 13320 }, { "epoch": 17.773333333333333, "grad_norm": 0.466796875, "learning_rate": 9.998194047686224e-05, "loss": 0.4289, "step": 13330 }, { "epoch": 17.786666666666665, "grad_norm": 0.41796875, "learning_rate": 9.998191231336962e-05, "loss": 0.428, "step": 13340 }, { "epoch": 17.8, "grad_norm": 0.470703125, "learning_rate": 9.998188412793786e-05, "loss": 0.4267, "step": 13350 }, { "epoch": 17.813333333333333, "grad_norm": 0.494140625, "learning_rate": 9.998185592056697e-05, "loss": 0.4003, "step": 13360 }, { "epoch": 17.826666666666668, "grad_norm": 0.4609375, "learning_rate": 9.998182769125695e-05, "loss": 0.4119, "step": 13370 }, { "epoch": 17.84, "grad_norm": 0.609375, "learning_rate": 9.998179944000784e-05, "loss": 0.4236, "step": 13380 }, { "epoch": 17.85333333333333, "grad_norm": 0.412109375, "learning_rate": 9.998177116681963e-05, "loss": 0.4184, "step": 13390 }, { "epoch": 17.866666666666667, "grad_norm": 0.46484375, "learning_rate": 9.998174287169233e-05, "loss": 0.4216, "step": 13400 }, { "epoch": 17.88, "grad_norm": 0.392578125, "learning_rate": 9.998171455462598e-05, "loss": 0.4006, "step": 13410 }, { "epoch": 17.893333333333334, "grad_norm": 0.4375, "learning_rate": 9.998168621562054e-05, "loss": 0.4116, "step": 13420 }, { "epoch": 17.906666666666666, "grad_norm": 0.42578125, "learning_rate": 9.998165785467608e-05, "loss": 0.4216, "step": 13430 }, { "epoch": 17.92, "grad_norm": 0.48828125, "learning_rate": 9.998162947179259e-05, "loss": 0.4228, "step": 13440 }, { "epoch": 17.933333333333334, "grad_norm": 0.40234375, "learning_rate": 9.998160106697007e-05, "loss": 0.4164, "step": 13450 }, { "epoch": 17.946666666666665, "grad_norm": 0.416015625, "learning_rate": 9.998157264020856e-05, "loss": 0.4175, "step": 13460 }, { "epoch": 17.96, "grad_norm": 0.421875, "learning_rate": 9.998154419150804e-05, "loss": 0.4127, "step": 13470 }, { "epoch": 17.973333333333333, "grad_norm": 0.6015625, "learning_rate": 9.998151572086853e-05, "loss": 0.4387, "step": 13480 }, { "epoch": 17.986666666666668, "grad_norm": 0.458984375, "learning_rate": 9.998148722829007e-05, "loss": 0.4163, "step": 13490 }, { "epoch": 18.0, "grad_norm": 0.453125, "learning_rate": 9.998145871377265e-05, "loss": 0.4079, "step": 13500 }, { "epoch": 18.0, "eval_loss": 0.44244468212127686, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3194, "eval_samples_per_second": 1.55, "eval_steps_per_second": 0.097, "step": 13500 }, { "epoch": 18.013333333333332, "grad_norm": 0.474609375, "learning_rate": 9.998143017731627e-05, "loss": 0.4267, "step": 13510 }, { "epoch": 18.026666666666667, "grad_norm": 0.46484375, "learning_rate": 9.998140161892096e-05, "loss": 0.4384, "step": 13520 }, { "epoch": 18.04, "grad_norm": 0.412109375, "learning_rate": 9.998137303858675e-05, "loss": 0.4496, "step": 13530 }, { "epoch": 18.053333333333335, "grad_norm": 0.400390625, "learning_rate": 9.998134443631362e-05, "loss": 0.4375, "step": 13540 }, { "epoch": 18.066666666666666, "grad_norm": 0.5703125, "learning_rate": 9.998131581210159e-05, "loss": 0.425, "step": 13550 }, { "epoch": 18.08, "grad_norm": 0.443359375, "learning_rate": 9.998128716595068e-05, "loss": 0.4286, "step": 13560 }, { "epoch": 18.093333333333334, "grad_norm": 0.46875, "learning_rate": 9.998125849786091e-05, "loss": 0.4282, "step": 13570 }, { "epoch": 18.106666666666666, "grad_norm": 0.40234375, "learning_rate": 9.998122980783227e-05, "loss": 0.4157, "step": 13580 }, { "epoch": 18.12, "grad_norm": 0.484375, "learning_rate": 9.998120109586479e-05, "loss": 0.4226, "step": 13590 }, { "epoch": 18.133333333333333, "grad_norm": 0.50390625, "learning_rate": 9.998117236195849e-05, "loss": 0.4135, "step": 13600 }, { "epoch": 18.14666666666667, "grad_norm": 0.462890625, "learning_rate": 9.998114360611336e-05, "loss": 0.4328, "step": 13610 }, { "epoch": 18.16, "grad_norm": 0.435546875, "learning_rate": 9.998111482832943e-05, "loss": 0.4259, "step": 13620 }, { "epoch": 18.173333333333332, "grad_norm": 0.48828125, "learning_rate": 9.99810860286067e-05, "loss": 0.4202, "step": 13630 }, { "epoch": 18.186666666666667, "grad_norm": 0.40625, "learning_rate": 9.99810572069452e-05, "loss": 0.4195, "step": 13640 }, { "epoch": 18.2, "grad_norm": 0.408203125, "learning_rate": 9.998102836334491e-05, "loss": 0.4136, "step": 13650 }, { "epoch": 18.213333333333335, "grad_norm": 0.453125, "learning_rate": 9.998099949780588e-05, "loss": 0.414, "step": 13660 }, { "epoch": 18.226666666666667, "grad_norm": 0.55078125, "learning_rate": 9.99809706103281e-05, "loss": 0.4264, "step": 13670 }, { "epoch": 18.24, "grad_norm": 0.490234375, "learning_rate": 9.99809417009116e-05, "loss": 0.4102, "step": 13680 }, { "epoch": 18.253333333333334, "grad_norm": 0.44921875, "learning_rate": 9.998091276955638e-05, "loss": 0.4129, "step": 13690 }, { "epoch": 18.266666666666666, "grad_norm": 0.4140625, "learning_rate": 9.998088381626245e-05, "loss": 0.4138, "step": 13700 }, { "epoch": 18.28, "grad_norm": 0.470703125, "learning_rate": 9.998085484102982e-05, "loss": 0.444, "step": 13710 }, { "epoch": 18.293333333333333, "grad_norm": 0.48828125, "learning_rate": 9.998082584385852e-05, "loss": 0.4003, "step": 13720 }, { "epoch": 18.306666666666665, "grad_norm": 0.515625, "learning_rate": 9.998079682474857e-05, "loss": 0.423, "step": 13730 }, { "epoch": 18.32, "grad_norm": 0.447265625, "learning_rate": 9.998076778369994e-05, "loss": 0.4235, "step": 13740 }, { "epoch": 18.333333333333332, "grad_norm": 0.478515625, "learning_rate": 9.998073872071267e-05, "loss": 0.4292, "step": 13750 }, { "epoch": 18.346666666666668, "grad_norm": 0.451171875, "learning_rate": 9.998070963578678e-05, "loss": 0.4196, "step": 13760 }, { "epoch": 18.36, "grad_norm": 0.451171875, "learning_rate": 9.998068052892228e-05, "loss": 0.422, "step": 13770 }, { "epoch": 18.373333333333335, "grad_norm": 0.427734375, "learning_rate": 9.998065140011916e-05, "loss": 0.4208, "step": 13780 }, { "epoch": 18.386666666666667, "grad_norm": 0.5, "learning_rate": 9.998062224937747e-05, "loss": 0.4141, "step": 13790 }, { "epoch": 18.4, "grad_norm": 0.478515625, "learning_rate": 9.998059307669718e-05, "loss": 0.4196, "step": 13800 }, { "epoch": 18.413333333333334, "grad_norm": 0.44140625, "learning_rate": 9.998056388207835e-05, "loss": 0.4255, "step": 13810 }, { "epoch": 18.426666666666666, "grad_norm": 0.41796875, "learning_rate": 9.998053466552095e-05, "loss": 0.4266, "step": 13820 }, { "epoch": 18.44, "grad_norm": 0.453125, "learning_rate": 9.998050542702502e-05, "loss": 0.4373, "step": 13830 }, { "epoch": 18.453333333333333, "grad_norm": 0.53125, "learning_rate": 9.998047616659056e-05, "loss": 0.4263, "step": 13840 }, { "epoch": 18.466666666666665, "grad_norm": 0.431640625, "learning_rate": 9.99804468842176e-05, "loss": 0.4358, "step": 13850 }, { "epoch": 18.48, "grad_norm": 0.421875, "learning_rate": 9.998041757990612e-05, "loss": 0.4167, "step": 13860 }, { "epoch": 18.493333333333332, "grad_norm": 0.45703125, "learning_rate": 9.998038825365616e-05, "loss": 0.429, "step": 13870 }, { "epoch": 18.506666666666668, "grad_norm": 0.4296875, "learning_rate": 9.998035890546773e-05, "loss": 0.4251, "step": 13880 }, { "epoch": 18.52, "grad_norm": 0.384765625, "learning_rate": 9.998032953534082e-05, "loss": 0.4169, "step": 13890 }, { "epoch": 18.533333333333335, "grad_norm": 0.4609375, "learning_rate": 9.998030014327547e-05, "loss": 0.4194, "step": 13900 }, { "epoch": 18.546666666666667, "grad_norm": 0.4609375, "learning_rate": 9.99802707292717e-05, "loss": 0.4209, "step": 13910 }, { "epoch": 18.56, "grad_norm": 0.4453125, "learning_rate": 9.998024129332948e-05, "loss": 0.4152, "step": 13920 }, { "epoch": 18.573333333333334, "grad_norm": 0.4140625, "learning_rate": 9.998021183544887e-05, "loss": 0.4187, "step": 13930 }, { "epoch": 18.586666666666666, "grad_norm": 0.37890625, "learning_rate": 9.998018235562985e-05, "loss": 0.4069, "step": 13940 }, { "epoch": 18.6, "grad_norm": 0.4140625, "learning_rate": 9.998015285387245e-05, "loss": 0.4096, "step": 13950 }, { "epoch": 18.613333333333333, "grad_norm": 0.421875, "learning_rate": 9.99801233301767e-05, "loss": 0.3976, "step": 13960 }, { "epoch": 18.626666666666665, "grad_norm": 0.37890625, "learning_rate": 9.998009378454257e-05, "loss": 0.4022, "step": 13970 }, { "epoch": 18.64, "grad_norm": 0.421875, "learning_rate": 9.998006421697008e-05, "loss": 0.4168, "step": 13980 }, { "epoch": 18.653333333333332, "grad_norm": 0.478515625, "learning_rate": 9.998003462745928e-05, "loss": 0.4263, "step": 13990 }, { "epoch": 18.666666666666668, "grad_norm": 0.455078125, "learning_rate": 9.998000501601015e-05, "loss": 0.4118, "step": 14000 }, { "epoch": 18.68, "grad_norm": 0.466796875, "learning_rate": 9.997997538262272e-05, "loss": 0.4059, "step": 14010 }, { "epoch": 18.693333333333335, "grad_norm": 0.50390625, "learning_rate": 9.9979945727297e-05, "loss": 0.4139, "step": 14020 }, { "epoch": 18.706666666666667, "grad_norm": 0.46484375, "learning_rate": 9.997991605003299e-05, "loss": 0.408, "step": 14030 }, { "epoch": 18.72, "grad_norm": 0.47265625, "learning_rate": 9.997988635083072e-05, "loss": 0.4319, "step": 14040 }, { "epoch": 18.733333333333334, "grad_norm": 0.5546875, "learning_rate": 9.997985662969018e-05, "loss": 0.4246, "step": 14050 }, { "epoch": 18.746666666666666, "grad_norm": 0.458984375, "learning_rate": 9.997982688661143e-05, "loss": 0.4251, "step": 14060 }, { "epoch": 18.76, "grad_norm": 0.455078125, "learning_rate": 9.997979712159443e-05, "loss": 0.4364, "step": 14070 }, { "epoch": 18.773333333333333, "grad_norm": 0.4921875, "learning_rate": 9.99797673346392e-05, "loss": 0.4261, "step": 14080 }, { "epoch": 18.786666666666665, "grad_norm": 0.435546875, "learning_rate": 9.997973752574578e-05, "loss": 0.4259, "step": 14090 }, { "epoch": 18.8, "grad_norm": 0.47265625, "learning_rate": 9.99797076949142e-05, "loss": 0.4254, "step": 14100 }, { "epoch": 18.813333333333333, "grad_norm": 0.494140625, "learning_rate": 9.997967784214442e-05, "loss": 0.3985, "step": 14110 }, { "epoch": 18.826666666666668, "grad_norm": 0.439453125, "learning_rate": 9.997964796743646e-05, "loss": 0.4096, "step": 14120 }, { "epoch": 18.84, "grad_norm": 0.48828125, "learning_rate": 9.997961807079038e-05, "loss": 0.4218, "step": 14130 }, { "epoch": 18.85333333333333, "grad_norm": 0.4609375, "learning_rate": 9.997958815220614e-05, "loss": 0.4177, "step": 14140 }, { "epoch": 18.866666666666667, "grad_norm": 0.486328125, "learning_rate": 9.997955821168379e-05, "loss": 0.4197, "step": 14150 }, { "epoch": 18.88, "grad_norm": 0.46484375, "learning_rate": 9.997952824922332e-05, "loss": 0.3997, "step": 14160 }, { "epoch": 18.893333333333334, "grad_norm": 0.4765625, "learning_rate": 9.997949826482477e-05, "loss": 0.4099, "step": 14170 }, { "epoch": 18.906666666666666, "grad_norm": 0.48046875, "learning_rate": 9.997946825848812e-05, "loss": 0.4191, "step": 14180 }, { "epoch": 18.92, "grad_norm": 0.546875, "learning_rate": 9.99794382302134e-05, "loss": 0.4214, "step": 14190 }, { "epoch": 18.933333333333334, "grad_norm": 0.478515625, "learning_rate": 9.997940818000064e-05, "loss": 0.4128, "step": 14200 }, { "epoch": 18.946666666666665, "grad_norm": 0.4296875, "learning_rate": 9.997937810784981e-05, "loss": 0.4143, "step": 14210 }, { "epoch": 18.96, "grad_norm": 0.486328125, "learning_rate": 9.997934801376097e-05, "loss": 0.4113, "step": 14220 }, { "epoch": 18.973333333333333, "grad_norm": 0.50390625, "learning_rate": 9.99793178977341e-05, "loss": 0.4356, "step": 14230 }, { "epoch": 18.986666666666668, "grad_norm": 0.4453125, "learning_rate": 9.997928775976922e-05, "loss": 0.414, "step": 14240 }, { "epoch": 19.0, "grad_norm": 0.490234375, "learning_rate": 9.997925759986635e-05, "loss": 0.4062, "step": 14250 }, { "epoch": 19.0, "eval_loss": 0.4419633746147156, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5797, "eval_samples_per_second": 1.512, "eval_steps_per_second": 0.095, "step": 14250 }, { "epoch": 19.013333333333332, "grad_norm": 0.51171875, "learning_rate": 9.99792274180255e-05, "loss": 0.4259, "step": 14260 }, { "epoch": 19.026666666666667, "grad_norm": 0.494140625, "learning_rate": 9.997919721424671e-05, "loss": 0.4372, "step": 14270 }, { "epoch": 19.04, "grad_norm": 0.46484375, "learning_rate": 9.997916698852994e-05, "loss": 0.4478, "step": 14280 }, { "epoch": 19.053333333333335, "grad_norm": 0.5078125, "learning_rate": 9.997913674087524e-05, "loss": 0.4356, "step": 14290 }, { "epoch": 19.066666666666666, "grad_norm": 0.4921875, "learning_rate": 9.997910647128262e-05, "loss": 0.4229, "step": 14300 }, { "epoch": 19.08, "grad_norm": 0.478515625, "learning_rate": 9.997907617975208e-05, "loss": 0.4257, "step": 14310 }, { "epoch": 19.093333333333334, "grad_norm": 0.515625, "learning_rate": 9.997904586628364e-05, "loss": 0.427, "step": 14320 }, { "epoch": 19.106666666666666, "grad_norm": 0.5078125, "learning_rate": 9.997901553087732e-05, "loss": 0.4142, "step": 14330 }, { "epoch": 19.12, "grad_norm": 0.482421875, "learning_rate": 9.997898517353314e-05, "loss": 0.4205, "step": 14340 }, { "epoch": 19.133333333333333, "grad_norm": 0.44140625, "learning_rate": 9.997895479425108e-05, "loss": 0.412, "step": 14350 }, { "epoch": 19.14666666666667, "grad_norm": 0.44921875, "learning_rate": 9.997892439303118e-05, "loss": 0.4304, "step": 14360 }, { "epoch": 19.16, "grad_norm": 0.44140625, "learning_rate": 9.997889396987345e-05, "loss": 0.4241, "step": 14370 }, { "epoch": 19.173333333333332, "grad_norm": 0.44140625, "learning_rate": 9.997886352477791e-05, "loss": 0.4176, "step": 14380 }, { "epoch": 19.186666666666667, "grad_norm": 0.462890625, "learning_rate": 9.997883305774456e-05, "loss": 0.4175, "step": 14390 }, { "epoch": 19.2, "grad_norm": 0.494140625, "learning_rate": 9.997880256877341e-05, "loss": 0.4116, "step": 14400 }, { "epoch": 19.213333333333335, "grad_norm": 0.5078125, "learning_rate": 9.997877205786448e-05, "loss": 0.4118, "step": 14410 }, { "epoch": 19.226666666666667, "grad_norm": 0.474609375, "learning_rate": 9.997874152501779e-05, "loss": 0.4238, "step": 14420 }, { "epoch": 19.24, "grad_norm": 0.486328125, "learning_rate": 9.997871097023335e-05, "loss": 0.408, "step": 14430 }, { "epoch": 19.253333333333334, "grad_norm": 0.46875, "learning_rate": 9.997868039351117e-05, "loss": 0.4107, "step": 14440 }, { "epoch": 19.266666666666666, "grad_norm": 0.466796875, "learning_rate": 9.997864979485126e-05, "loss": 0.4121, "step": 14450 }, { "epoch": 19.28, "grad_norm": 0.443359375, "learning_rate": 9.997861917425364e-05, "loss": 0.4419, "step": 14460 }, { "epoch": 19.293333333333333, "grad_norm": 0.443359375, "learning_rate": 9.997858853171832e-05, "loss": 0.3987, "step": 14470 }, { "epoch": 19.306666666666665, "grad_norm": 0.4375, "learning_rate": 9.997855786724533e-05, "loss": 0.4213, "step": 14480 }, { "epoch": 19.32, "grad_norm": 0.431640625, "learning_rate": 9.997852718083466e-05, "loss": 0.4217, "step": 14490 }, { "epoch": 19.333333333333332, "grad_norm": 0.451171875, "learning_rate": 9.997849647248633e-05, "loss": 0.4279, "step": 14500 }, { "epoch": 19.346666666666668, "grad_norm": 0.51171875, "learning_rate": 9.997846574220035e-05, "loss": 0.4179, "step": 14510 }, { "epoch": 19.36, "grad_norm": 0.498046875, "learning_rate": 9.997843498997675e-05, "loss": 0.4199, "step": 14520 }, { "epoch": 19.373333333333335, "grad_norm": 0.439453125, "learning_rate": 9.997840421581552e-05, "loss": 0.4188, "step": 14530 }, { "epoch": 19.386666666666667, "grad_norm": 0.48828125, "learning_rate": 9.99783734197167e-05, "loss": 0.4114, "step": 14540 }, { "epoch": 19.4, "grad_norm": 0.50390625, "learning_rate": 9.997834260168029e-05, "loss": 0.4187, "step": 14550 }, { "epoch": 19.413333333333334, "grad_norm": 0.455078125, "learning_rate": 9.997831176170629e-05, "loss": 0.4237, "step": 14560 }, { "epoch": 19.426666666666666, "grad_norm": 0.466796875, "learning_rate": 9.997828089979473e-05, "loss": 0.4239, "step": 14570 }, { "epoch": 19.44, "grad_norm": 0.466796875, "learning_rate": 9.997825001594563e-05, "loss": 0.4355, "step": 14580 }, { "epoch": 19.453333333333333, "grad_norm": 0.51953125, "learning_rate": 9.997821911015898e-05, "loss": 0.425, "step": 14590 }, { "epoch": 19.466666666666665, "grad_norm": 0.51171875, "learning_rate": 9.997818818243481e-05, "loss": 0.4341, "step": 14600 }, { "epoch": 19.48, "grad_norm": 0.478515625, "learning_rate": 9.997815723277314e-05, "loss": 0.4152, "step": 14610 }, { "epoch": 19.493333333333332, "grad_norm": 0.5, "learning_rate": 9.997812626117397e-05, "loss": 0.4261, "step": 14620 }, { "epoch": 19.506666666666668, "grad_norm": 0.44140625, "learning_rate": 9.997809526763732e-05, "loss": 0.4232, "step": 14630 }, { "epoch": 19.52, "grad_norm": 0.396484375, "learning_rate": 9.997806425216321e-05, "loss": 0.4146, "step": 14640 }, { "epoch": 19.533333333333335, "grad_norm": 0.453125, "learning_rate": 9.997803321475164e-05, "loss": 0.4183, "step": 14650 }, { "epoch": 19.546666666666667, "grad_norm": 0.48828125, "learning_rate": 9.99780021554026e-05, "loss": 0.4198, "step": 14660 }, { "epoch": 19.56, "grad_norm": 0.412109375, "learning_rate": 9.997797107411617e-05, "loss": 0.4131, "step": 14670 }, { "epoch": 19.573333333333334, "grad_norm": 0.451171875, "learning_rate": 9.997793997089231e-05, "loss": 0.4159, "step": 14680 }, { "epoch": 19.586666666666666, "grad_norm": 0.474609375, "learning_rate": 9.997790884573106e-05, "loss": 0.4062, "step": 14690 }, { "epoch": 19.6, "grad_norm": 0.58984375, "learning_rate": 9.997787769863241e-05, "loss": 0.4083, "step": 14700 }, { "epoch": 19.613333333333333, "grad_norm": 0.58984375, "learning_rate": 9.997784652959639e-05, "loss": 0.3952, "step": 14710 }, { "epoch": 19.626666666666665, "grad_norm": 0.412109375, "learning_rate": 9.997781533862303e-05, "loss": 0.4006, "step": 14720 }, { "epoch": 19.64, "grad_norm": 0.4453125, "learning_rate": 9.99777841257123e-05, "loss": 0.4159, "step": 14730 }, { "epoch": 19.653333333333332, "grad_norm": 0.48828125, "learning_rate": 9.997775289086424e-05, "loss": 0.4243, "step": 14740 }, { "epoch": 19.666666666666668, "grad_norm": 0.427734375, "learning_rate": 9.997772163407888e-05, "loss": 0.4106, "step": 14750 }, { "epoch": 19.68, "grad_norm": 0.5546875, "learning_rate": 9.99776903553562e-05, "loss": 0.4037, "step": 14760 }, { "epoch": 19.693333333333335, "grad_norm": 0.431640625, "learning_rate": 9.997765905469624e-05, "loss": 0.4115, "step": 14770 }, { "epoch": 19.706666666666667, "grad_norm": 0.5, "learning_rate": 9.9977627732099e-05, "loss": 0.4061, "step": 14780 }, { "epoch": 19.72, "grad_norm": 0.5078125, "learning_rate": 9.997759638756449e-05, "loss": 0.4288, "step": 14790 }, { "epoch": 19.733333333333334, "grad_norm": 0.52734375, "learning_rate": 9.997756502109273e-05, "loss": 0.423, "step": 14800 }, { "epoch": 19.746666666666666, "grad_norm": 0.60546875, "learning_rate": 9.997753363268374e-05, "loss": 0.4238, "step": 14810 }, { "epoch": 19.76, "grad_norm": 0.51953125, "learning_rate": 9.997750222233752e-05, "loss": 0.4362, "step": 14820 }, { "epoch": 19.773333333333333, "grad_norm": 0.5078125, "learning_rate": 9.997747079005411e-05, "loss": 0.4249, "step": 14830 }, { "epoch": 19.786666666666665, "grad_norm": 0.494140625, "learning_rate": 9.99774393358335e-05, "loss": 0.4243, "step": 14840 }, { "epoch": 19.8, "grad_norm": 0.56640625, "learning_rate": 9.997740785967572e-05, "loss": 0.4228, "step": 14850 }, { "epoch": 19.813333333333333, "grad_norm": 0.56640625, "learning_rate": 9.997737636158074e-05, "loss": 0.3969, "step": 14860 }, { "epoch": 19.826666666666668, "grad_norm": 0.470703125, "learning_rate": 9.997734484154864e-05, "loss": 0.4079, "step": 14870 }, { "epoch": 19.84, "grad_norm": 0.53125, "learning_rate": 9.997731329957938e-05, "loss": 0.4192, "step": 14880 }, { "epoch": 19.85333333333333, "grad_norm": 0.486328125, "learning_rate": 9.9977281735673e-05, "loss": 0.4152, "step": 14890 }, { "epoch": 19.866666666666667, "grad_norm": 0.47265625, "learning_rate": 9.99772501498295e-05, "loss": 0.4178, "step": 14900 }, { "epoch": 19.88, "grad_norm": 0.44921875, "learning_rate": 9.997721854204893e-05, "loss": 0.3971, "step": 14910 }, { "epoch": 19.893333333333334, "grad_norm": 0.474609375, "learning_rate": 9.997718691233126e-05, "loss": 0.4081, "step": 14920 }, { "epoch": 19.906666666666666, "grad_norm": 0.47265625, "learning_rate": 9.997715526067653e-05, "loss": 0.4184, "step": 14930 }, { "epoch": 19.92, "grad_norm": 0.51171875, "learning_rate": 9.997712358708472e-05, "loss": 0.4201, "step": 14940 }, { "epoch": 19.933333333333334, "grad_norm": 0.4375, "learning_rate": 9.997709189155588e-05, "loss": 0.4126, "step": 14950 }, { "epoch": 19.946666666666665, "grad_norm": 0.5078125, "learning_rate": 9.997706017409002e-05, "loss": 0.4143, "step": 14960 }, { "epoch": 19.96, "grad_norm": 0.470703125, "learning_rate": 9.997702843468715e-05, "loss": 0.41, "step": 14970 }, { "epoch": 19.973333333333333, "grad_norm": 0.50390625, "learning_rate": 9.997699667334727e-05, "loss": 0.4342, "step": 14980 }, { "epoch": 19.986666666666668, "grad_norm": 0.466796875, "learning_rate": 9.99769648900704e-05, "loss": 0.4121, "step": 14990 }, { "epoch": 20.0, "grad_norm": 0.5625, "learning_rate": 9.997693308485657e-05, "loss": 0.405, "step": 15000 }, { "epoch": 20.0, "eval_loss": 0.44117698073387146, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.2723, "eval_samples_per_second": 1.558, "eval_steps_per_second": 0.097, "step": 15000 }, { "epoch": 20.013333333333332, "grad_norm": 0.50390625, "learning_rate": 9.997690125770577e-05, "loss": 0.4228, "step": 15010 }, { "epoch": 20.026666666666667, "grad_norm": 0.466796875, "learning_rate": 9.997686940861803e-05, "loss": 0.4346, "step": 15020 }, { "epoch": 20.04, "grad_norm": 0.498046875, "learning_rate": 9.997683753759338e-05, "loss": 0.4459, "step": 15030 }, { "epoch": 20.053333333333335, "grad_norm": 0.59375, "learning_rate": 9.997680564463178e-05, "loss": 0.4332, "step": 15040 }, { "epoch": 20.066666666666666, "grad_norm": 0.4609375, "learning_rate": 9.997677372973328e-05, "loss": 0.4206, "step": 15050 }, { "epoch": 20.08, "grad_norm": 0.482421875, "learning_rate": 9.99767417928979e-05, "loss": 0.4252, "step": 15060 }, { "epoch": 20.093333333333334, "grad_norm": 0.44140625, "learning_rate": 9.997670983412566e-05, "loss": 0.4244, "step": 15070 }, { "epoch": 20.106666666666666, "grad_norm": 0.443359375, "learning_rate": 9.997667785341655e-05, "loss": 0.4131, "step": 15080 }, { "epoch": 20.12, "grad_norm": 0.45703125, "learning_rate": 9.99766458507706e-05, "loss": 0.4186, "step": 15090 }, { "epoch": 20.133333333333333, "grad_norm": 0.47265625, "learning_rate": 9.997661382618782e-05, "loss": 0.4102, "step": 15100 }, { "epoch": 20.14666666666667, "grad_norm": 0.50390625, "learning_rate": 9.99765817796682e-05, "loss": 0.429, "step": 15110 }, { "epoch": 20.16, "grad_norm": 0.431640625, "learning_rate": 9.997654971121179e-05, "loss": 0.4222, "step": 15120 }, { "epoch": 20.173333333333332, "grad_norm": 0.4609375, "learning_rate": 9.99765176208186e-05, "loss": 0.4155, "step": 15130 }, { "epoch": 20.186666666666667, "grad_norm": 0.451171875, "learning_rate": 9.997648550848862e-05, "loss": 0.4155, "step": 15140 }, { "epoch": 20.2, "grad_norm": 0.48046875, "learning_rate": 9.997645337422188e-05, "loss": 0.4094, "step": 15150 }, { "epoch": 20.213333333333335, "grad_norm": 0.470703125, "learning_rate": 9.99764212180184e-05, "loss": 0.4099, "step": 15160 }, { "epoch": 20.226666666666667, "grad_norm": 0.482421875, "learning_rate": 9.997638903987819e-05, "loss": 0.422, "step": 15170 }, { "epoch": 20.24, "grad_norm": 0.478515625, "learning_rate": 9.997635683980124e-05, "loss": 0.4064, "step": 15180 }, { "epoch": 20.253333333333334, "grad_norm": 0.494140625, "learning_rate": 9.997632461778761e-05, "loss": 0.4097, "step": 15190 }, { "epoch": 20.266666666666666, "grad_norm": 0.42578125, "learning_rate": 9.997629237383726e-05, "loss": 0.411, "step": 15200 }, { "epoch": 20.28, "grad_norm": 0.51953125, "learning_rate": 9.997626010795025e-05, "loss": 0.4405, "step": 15210 }, { "epoch": 20.293333333333333, "grad_norm": 0.453125, "learning_rate": 9.99762278201266e-05, "loss": 0.397, "step": 15220 }, { "epoch": 20.306666666666665, "grad_norm": 0.388671875, "learning_rate": 9.997619551036626e-05, "loss": 0.4199, "step": 15230 }, { "epoch": 20.32, "grad_norm": 0.4296875, "learning_rate": 9.997616317866931e-05, "loss": 0.4193, "step": 15240 }, { "epoch": 20.333333333333332, "grad_norm": 0.55078125, "learning_rate": 9.997613082503573e-05, "loss": 0.4255, "step": 15250 }, { "epoch": 20.346666666666668, "grad_norm": 0.498046875, "learning_rate": 9.997609844946553e-05, "loss": 0.416, "step": 15260 }, { "epoch": 20.36, "grad_norm": 0.55859375, "learning_rate": 9.997606605195878e-05, "loss": 0.4176, "step": 15270 }, { "epoch": 20.373333333333335, "grad_norm": 0.46875, "learning_rate": 9.997603363251543e-05, "loss": 0.4173, "step": 15280 }, { "epoch": 20.386666666666667, "grad_norm": 0.515625, "learning_rate": 9.997600119113551e-05, "loss": 0.4109, "step": 15290 }, { "epoch": 20.4, "grad_norm": 0.51171875, "learning_rate": 9.997596872781905e-05, "loss": 0.4166, "step": 15300 }, { "epoch": 20.413333333333334, "grad_norm": 0.48046875, "learning_rate": 9.997593624256605e-05, "loss": 0.4216, "step": 15310 }, { "epoch": 20.426666666666666, "grad_norm": 0.4296875, "learning_rate": 9.997590373537652e-05, "loss": 0.4222, "step": 15320 }, { "epoch": 20.44, "grad_norm": 0.482421875, "learning_rate": 9.99758712062505e-05, "loss": 0.4335, "step": 15330 }, { "epoch": 20.453333333333333, "grad_norm": 0.60546875, "learning_rate": 9.997583865518798e-05, "loss": 0.4233, "step": 15340 }, { "epoch": 20.466666666666665, "grad_norm": 0.5546875, "learning_rate": 9.997580608218898e-05, "loss": 0.4325, "step": 15350 }, { "epoch": 20.48, "grad_norm": 0.4921875, "learning_rate": 9.997577348725353e-05, "loss": 0.4134, "step": 15360 }, { "epoch": 20.493333333333332, "grad_norm": 0.50390625, "learning_rate": 9.997574087038162e-05, "loss": 0.4255, "step": 15370 }, { "epoch": 20.506666666666668, "grad_norm": 0.484375, "learning_rate": 9.997570823157327e-05, "loss": 0.4212, "step": 15380 }, { "epoch": 20.52, "grad_norm": 0.416015625, "learning_rate": 9.99756755708285e-05, "loss": 0.4128, "step": 15390 }, { "epoch": 20.533333333333335, "grad_norm": 0.4453125, "learning_rate": 9.997564288814733e-05, "loss": 0.4155, "step": 15400 }, { "epoch": 20.546666666666667, "grad_norm": 0.53125, "learning_rate": 9.997561018352977e-05, "loss": 0.4172, "step": 15410 }, { "epoch": 20.56, "grad_norm": 0.48828125, "learning_rate": 9.997557745697584e-05, "loss": 0.4114, "step": 15420 }, { "epoch": 20.573333333333334, "grad_norm": 0.443359375, "learning_rate": 9.997554470848554e-05, "loss": 0.4157, "step": 15430 }, { "epoch": 20.586666666666666, "grad_norm": 0.453125, "learning_rate": 9.997551193805887e-05, "loss": 0.4045, "step": 15440 }, { "epoch": 20.6, "grad_norm": 0.4609375, "learning_rate": 9.997547914569589e-05, "loss": 0.4064, "step": 15450 }, { "epoch": 20.613333333333333, "grad_norm": 0.40625, "learning_rate": 9.99754463313966e-05, "loss": 0.3937, "step": 15460 }, { "epoch": 20.626666666666665, "grad_norm": 0.408203125, "learning_rate": 9.997541349516098e-05, "loss": 0.3984, "step": 15470 }, { "epoch": 20.64, "grad_norm": 0.5546875, "learning_rate": 9.997538063698908e-05, "loss": 0.4136, "step": 15480 }, { "epoch": 20.653333333333332, "grad_norm": 0.52734375, "learning_rate": 9.99753477568809e-05, "loss": 0.4242, "step": 15490 }, { "epoch": 20.666666666666668, "grad_norm": 0.51171875, "learning_rate": 9.997531485483646e-05, "loss": 0.4088, "step": 15500 }, { "epoch": 20.68, "grad_norm": 0.53125, "learning_rate": 9.997528193085577e-05, "loss": 0.4022, "step": 15510 }, { "epoch": 20.693333333333335, "grad_norm": 0.50390625, "learning_rate": 9.997524898493884e-05, "loss": 0.4105, "step": 15520 }, { "epoch": 20.706666666666667, "grad_norm": 0.478515625, "learning_rate": 9.99752160170857e-05, "loss": 0.4049, "step": 15530 }, { "epoch": 20.72, "grad_norm": 0.423828125, "learning_rate": 9.997518302729635e-05, "loss": 0.4269, "step": 15540 }, { "epoch": 20.733333333333334, "grad_norm": 0.484375, "learning_rate": 9.997515001557082e-05, "loss": 0.42, "step": 15550 }, { "epoch": 20.746666666666666, "grad_norm": 0.51953125, "learning_rate": 9.997511698190911e-05, "loss": 0.4216, "step": 15560 }, { "epoch": 20.76, "grad_norm": 0.625, "learning_rate": 9.997508392631123e-05, "loss": 0.4344, "step": 15570 }, { "epoch": 20.773333333333333, "grad_norm": 0.6171875, "learning_rate": 9.997505084877722e-05, "loss": 0.423, "step": 15580 }, { "epoch": 20.786666666666665, "grad_norm": 0.462890625, "learning_rate": 9.997501774930706e-05, "loss": 0.4222, "step": 15590 }, { "epoch": 20.8, "grad_norm": 0.5234375, "learning_rate": 9.997498462790081e-05, "loss": 0.421, "step": 15600 }, { "epoch": 20.813333333333333, "grad_norm": 0.59765625, "learning_rate": 9.997495148455843e-05, "loss": 0.3964, "step": 15610 }, { "epoch": 20.826666666666668, "grad_norm": 0.54296875, "learning_rate": 9.997491831927997e-05, "loss": 0.4063, "step": 15620 }, { "epoch": 20.84, "grad_norm": 0.5078125, "learning_rate": 9.997488513206544e-05, "loss": 0.4183, "step": 15630 }, { "epoch": 20.85333333333333, "grad_norm": 0.5, "learning_rate": 9.997485192291485e-05, "loss": 0.4131, "step": 15640 }, { "epoch": 20.866666666666667, "grad_norm": 0.470703125, "learning_rate": 9.997481869182821e-05, "loss": 0.4169, "step": 15650 }, { "epoch": 20.88, "grad_norm": 0.43359375, "learning_rate": 9.997478543880554e-05, "loss": 0.397, "step": 15660 }, { "epoch": 20.893333333333334, "grad_norm": 0.50390625, "learning_rate": 9.997475216384686e-05, "loss": 0.4069, "step": 15670 }, { "epoch": 20.906666666666666, "grad_norm": 0.4453125, "learning_rate": 9.997471886695217e-05, "loss": 0.4153, "step": 15680 }, { "epoch": 20.92, "grad_norm": 0.54296875, "learning_rate": 9.99746855481215e-05, "loss": 0.4183, "step": 15690 }, { "epoch": 20.933333333333334, "grad_norm": 0.431640625, "learning_rate": 9.997465220735487e-05, "loss": 0.4094, "step": 15700 }, { "epoch": 20.946666666666665, "grad_norm": 0.453125, "learning_rate": 9.997461884465227e-05, "loss": 0.4115, "step": 15710 }, { "epoch": 20.96, "grad_norm": 0.439453125, "learning_rate": 9.997458546001372e-05, "loss": 0.4078, "step": 15720 }, { "epoch": 20.973333333333333, "grad_norm": 0.58203125, "learning_rate": 9.997455205343926e-05, "loss": 0.4329, "step": 15730 }, { "epoch": 20.986666666666668, "grad_norm": 0.490234375, "learning_rate": 9.997451862492888e-05, "loss": 0.4098, "step": 15740 }, { "epoch": 21.0, "grad_norm": 0.478515625, "learning_rate": 9.99744851744826e-05, "loss": 0.4026, "step": 15750 }, { "epoch": 21.0, "eval_loss": 0.44121596217155457, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.2725, "eval_samples_per_second": 1.558, "eval_steps_per_second": 0.097, "step": 15750 }, { "epoch": 21.013333333333332, "grad_norm": 0.53125, "learning_rate": 9.997445170210044e-05, "loss": 0.4222, "step": 15760 }, { "epoch": 21.026666666666667, "grad_norm": 0.44140625, "learning_rate": 9.997441820778241e-05, "loss": 0.4321, "step": 15770 }, { "epoch": 21.04, "grad_norm": 0.44921875, "learning_rate": 9.997438469152851e-05, "loss": 0.4441, "step": 15780 }, { "epoch": 21.053333333333335, "grad_norm": 0.470703125, "learning_rate": 9.997435115333879e-05, "loss": 0.4316, "step": 15790 }, { "epoch": 21.066666666666666, "grad_norm": 0.5625, "learning_rate": 9.997431759321325e-05, "loss": 0.4179, "step": 15800 }, { "epoch": 21.08, "grad_norm": 0.5234375, "learning_rate": 9.997428401115188e-05, "loss": 0.4225, "step": 15810 }, { "epoch": 21.093333333333334, "grad_norm": 0.5078125, "learning_rate": 9.997425040715473e-05, "loss": 0.423, "step": 15820 }, { "epoch": 21.106666666666666, "grad_norm": 0.443359375, "learning_rate": 9.997421678122179e-05, "loss": 0.4115, "step": 15830 }, { "epoch": 21.12, "grad_norm": 0.51953125, "learning_rate": 9.997418313335309e-05, "loss": 0.4165, "step": 15840 }, { "epoch": 21.133333333333333, "grad_norm": 0.48046875, "learning_rate": 9.997414946354864e-05, "loss": 0.408, "step": 15850 }, { "epoch": 21.14666666666667, "grad_norm": 0.41015625, "learning_rate": 9.997411577180844e-05, "loss": 0.4277, "step": 15860 }, { "epoch": 21.16, "grad_norm": 0.435546875, "learning_rate": 9.997408205813252e-05, "loss": 0.4206, "step": 15870 }, { "epoch": 21.173333333333332, "grad_norm": 0.45703125, "learning_rate": 9.997404832252091e-05, "loss": 0.4142, "step": 15880 }, { "epoch": 21.186666666666667, "grad_norm": 0.4921875, "learning_rate": 9.997401456497359e-05, "loss": 0.4142, "step": 15890 }, { "epoch": 21.2, "grad_norm": 0.5859375, "learning_rate": 9.997398078549061e-05, "loss": 0.4065, "step": 15900 }, { "epoch": 21.213333333333335, "grad_norm": 0.5078125, "learning_rate": 9.997394698407197e-05, "loss": 0.4075, "step": 15910 }, { "epoch": 21.226666666666667, "grad_norm": 0.5390625, "learning_rate": 9.997391316071767e-05, "loss": 0.4203, "step": 15920 }, { "epoch": 21.24, "grad_norm": 0.5, "learning_rate": 9.997387931542775e-05, "loss": 0.4039, "step": 15930 }, { "epoch": 21.253333333333334, "grad_norm": 0.4765625, "learning_rate": 9.997384544820218e-05, "loss": 0.4076, "step": 15940 }, { "epoch": 21.266666666666666, "grad_norm": 0.4453125, "learning_rate": 9.997381155904104e-05, "loss": 0.4084, "step": 15950 }, { "epoch": 21.28, "grad_norm": 0.439453125, "learning_rate": 9.997377764794432e-05, "loss": 0.4386, "step": 15960 }, { "epoch": 21.293333333333333, "grad_norm": 0.48828125, "learning_rate": 9.997374371491199e-05, "loss": 0.3947, "step": 15970 }, { "epoch": 21.306666666666665, "grad_norm": 0.470703125, "learning_rate": 9.997370975994412e-05, "loss": 0.4179, "step": 15980 }, { "epoch": 21.32, "grad_norm": 0.431640625, "learning_rate": 9.99736757830407e-05, "loss": 0.4191, "step": 15990 }, { "epoch": 21.333333333333332, "grad_norm": 0.50390625, "learning_rate": 9.997364178420176e-05, "loss": 0.4238, "step": 16000 }, { "epoch": 21.346666666666668, "grad_norm": 0.51953125, "learning_rate": 9.997360776342733e-05, "loss": 0.415, "step": 16010 }, { "epoch": 21.36, "grad_norm": 0.6640625, "learning_rate": 9.997357372071736e-05, "loss": 0.4159, "step": 16020 }, { "epoch": 21.373333333333335, "grad_norm": 0.462890625, "learning_rate": 9.997353965607192e-05, "loss": 0.4148, "step": 16030 }, { "epoch": 21.386666666666667, "grad_norm": 0.52734375, "learning_rate": 9.997350556949102e-05, "loss": 0.4086, "step": 16040 }, { "epoch": 21.4, "grad_norm": 0.4765625, "learning_rate": 9.997347146097467e-05, "loss": 0.4154, "step": 16050 }, { "epoch": 21.413333333333334, "grad_norm": 0.4453125, "learning_rate": 9.997343733052287e-05, "loss": 0.419, "step": 16060 }, { "epoch": 21.426666666666666, "grad_norm": 0.46484375, "learning_rate": 9.997340317813564e-05, "loss": 0.4203, "step": 16070 }, { "epoch": 21.44, "grad_norm": 0.470703125, "learning_rate": 9.997336900381302e-05, "loss": 0.432, "step": 16080 }, { "epoch": 21.453333333333333, "grad_norm": 0.58203125, "learning_rate": 9.9973334807555e-05, "loss": 0.4211, "step": 16090 }, { "epoch": 21.466666666666665, "grad_norm": 0.470703125, "learning_rate": 9.997330058936159e-05, "loss": 0.4296, "step": 16100 }, { "epoch": 21.48, "grad_norm": 0.51171875, "learning_rate": 9.997326634923283e-05, "loss": 0.4113, "step": 16110 }, { "epoch": 21.493333333333332, "grad_norm": 0.486328125, "learning_rate": 9.997323208716871e-05, "loss": 0.4226, "step": 16120 }, { "epoch": 21.506666666666668, "grad_norm": 0.515625, "learning_rate": 9.997319780316926e-05, "loss": 0.4208, "step": 16130 }, { "epoch": 21.52, "grad_norm": 0.48046875, "learning_rate": 9.99731634972345e-05, "loss": 0.4107, "step": 16140 }, { "epoch": 21.533333333333335, "grad_norm": 0.5390625, "learning_rate": 9.997312916936443e-05, "loss": 0.4153, "step": 16150 }, { "epoch": 21.546666666666667, "grad_norm": 0.494140625, "learning_rate": 9.997309481955906e-05, "loss": 0.4167, "step": 16160 }, { "epoch": 21.56, "grad_norm": 0.412109375, "learning_rate": 9.997306044781844e-05, "loss": 0.4107, "step": 16170 }, { "epoch": 21.573333333333334, "grad_norm": 0.515625, "learning_rate": 9.997302605414254e-05, "loss": 0.4141, "step": 16180 }, { "epoch": 21.586666666666666, "grad_norm": 0.4453125, "learning_rate": 9.99729916385314e-05, "loss": 0.4023, "step": 16190 }, { "epoch": 21.6, "grad_norm": 0.447265625, "learning_rate": 9.997295720098506e-05, "loss": 0.4045, "step": 16200 }, { "epoch": 21.613333333333333, "grad_norm": 0.4765625, "learning_rate": 9.997292274150347e-05, "loss": 0.3934, "step": 16210 }, { "epoch": 21.626666666666665, "grad_norm": 0.451171875, "learning_rate": 9.997288826008671e-05, "loss": 0.3979, "step": 16220 }, { "epoch": 21.64, "grad_norm": 0.470703125, "learning_rate": 9.997285375673474e-05, "loss": 0.4121, "step": 16230 }, { "epoch": 21.653333333333332, "grad_norm": 0.478515625, "learning_rate": 9.997281923144762e-05, "loss": 0.4225, "step": 16240 }, { "epoch": 21.666666666666668, "grad_norm": 0.447265625, "learning_rate": 9.997278468422535e-05, "loss": 0.4068, "step": 16250 }, { "epoch": 21.68, "grad_norm": 0.447265625, "learning_rate": 9.997275011506793e-05, "loss": 0.3998, "step": 16260 }, { "epoch": 21.693333333333335, "grad_norm": 0.439453125, "learning_rate": 9.997271552397541e-05, "loss": 0.4083, "step": 16270 }, { "epoch": 21.706666666666667, "grad_norm": 0.51953125, "learning_rate": 9.997268091094775e-05, "loss": 0.4023, "step": 16280 }, { "epoch": 21.72, "grad_norm": 0.46484375, "learning_rate": 9.997264627598502e-05, "loss": 0.4248, "step": 16290 }, { "epoch": 21.733333333333334, "grad_norm": 0.58984375, "learning_rate": 9.997261161908722e-05, "loss": 0.4203, "step": 16300 }, { "epoch": 21.746666666666666, "grad_norm": 0.64453125, "learning_rate": 9.997257694025434e-05, "loss": 0.4197, "step": 16310 }, { "epoch": 21.76, "grad_norm": 0.515625, "learning_rate": 9.997254223948642e-05, "loss": 0.4318, "step": 16320 }, { "epoch": 21.773333333333333, "grad_norm": 0.51953125, "learning_rate": 9.997250751678349e-05, "loss": 0.4214, "step": 16330 }, { "epoch": 21.786666666666665, "grad_norm": 0.515625, "learning_rate": 9.997247277214553e-05, "loss": 0.4207, "step": 16340 }, { "epoch": 21.8, "grad_norm": 0.515625, "learning_rate": 9.997243800557255e-05, "loss": 0.4204, "step": 16350 }, { "epoch": 21.813333333333333, "grad_norm": 0.52734375, "learning_rate": 9.997240321706461e-05, "loss": 0.3939, "step": 16360 }, { "epoch": 21.826666666666668, "grad_norm": 0.486328125, "learning_rate": 9.997236840662168e-05, "loss": 0.4045, "step": 16370 }, { "epoch": 21.84, "grad_norm": 0.53515625, "learning_rate": 9.997233357424381e-05, "loss": 0.4159, "step": 16380 }, { "epoch": 21.85333333333333, "grad_norm": 0.482421875, "learning_rate": 9.9972298719931e-05, "loss": 0.4113, "step": 16390 }, { "epoch": 21.866666666666667, "grad_norm": 0.5703125, "learning_rate": 9.997226384368327e-05, "loss": 0.4156, "step": 16400 }, { "epoch": 21.88, "grad_norm": 0.455078125, "learning_rate": 9.997222894550062e-05, "loss": 0.3941, "step": 16410 }, { "epoch": 21.893333333333334, "grad_norm": 0.52734375, "learning_rate": 9.997219402538308e-05, "loss": 0.4057, "step": 16420 }, { "epoch": 21.906666666666666, "grad_norm": 0.484375, "learning_rate": 9.997215908333067e-05, "loss": 0.4136, "step": 16430 }, { "epoch": 21.92, "grad_norm": 0.546875, "learning_rate": 9.997212411934338e-05, "loss": 0.4175, "step": 16440 }, { "epoch": 21.933333333333334, "grad_norm": 0.5, "learning_rate": 9.997208913342126e-05, "loss": 0.4087, "step": 16450 }, { "epoch": 21.946666666666665, "grad_norm": 0.5546875, "learning_rate": 9.99720541255643e-05, "loss": 0.41, "step": 16460 }, { "epoch": 21.96, "grad_norm": 0.458984375, "learning_rate": 9.997201909577253e-05, "loss": 0.4067, "step": 16470 }, { "epoch": 21.973333333333333, "grad_norm": 0.640625, "learning_rate": 9.997198404404595e-05, "loss": 0.432, "step": 16480 }, { "epoch": 21.986666666666668, "grad_norm": 0.50390625, "learning_rate": 9.99719489703846e-05, "loss": 0.4074, "step": 16490 }, { "epoch": 22.0, "grad_norm": 0.5234375, "learning_rate": 9.997191387478846e-05, "loss": 0.4004, "step": 16500 }, { "epoch": 22.0, "eval_loss": 0.43907007575035095, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4114, "eval_samples_per_second": 1.537, "eval_steps_per_second": 0.096, "step": 16500 }, { "epoch": 22.013333333333332, "grad_norm": 0.50390625, "learning_rate": 9.997187875725758e-05, "loss": 0.4196, "step": 16510 }, { "epoch": 22.026666666666667, "grad_norm": 0.4921875, "learning_rate": 9.997184361779195e-05, "loss": 0.4317, "step": 16520 }, { "epoch": 22.04, "grad_norm": 0.51953125, "learning_rate": 9.99718084563916e-05, "loss": 0.4437, "step": 16530 }, { "epoch": 22.053333333333335, "grad_norm": 0.484375, "learning_rate": 9.997177327305653e-05, "loss": 0.4304, "step": 16540 }, { "epoch": 22.066666666666666, "grad_norm": 0.52734375, "learning_rate": 9.997173806778679e-05, "loss": 0.417, "step": 16550 }, { "epoch": 22.08, "grad_norm": 0.462890625, "learning_rate": 9.997170284058235e-05, "loss": 0.4213, "step": 16560 }, { "epoch": 22.093333333333334, "grad_norm": 0.439453125, "learning_rate": 9.997166759144326e-05, "loss": 0.4212, "step": 16570 }, { "epoch": 22.106666666666666, "grad_norm": 0.44140625, "learning_rate": 9.997163232036952e-05, "loss": 0.4092, "step": 16580 }, { "epoch": 22.12, "grad_norm": 0.482421875, "learning_rate": 9.997159702736115e-05, "loss": 0.4155, "step": 16590 }, { "epoch": 22.133333333333333, "grad_norm": 0.482421875, "learning_rate": 9.997156171241817e-05, "loss": 0.4067, "step": 16600 }, { "epoch": 22.14666666666667, "grad_norm": 0.55078125, "learning_rate": 9.997152637554058e-05, "loss": 0.4259, "step": 16610 }, { "epoch": 22.16, "grad_norm": 0.515625, "learning_rate": 9.99714910167284e-05, "loss": 0.4186, "step": 16620 }, { "epoch": 22.173333333333332, "grad_norm": 0.51171875, "learning_rate": 9.997145563598167e-05, "loss": 0.4135, "step": 16630 }, { "epoch": 22.186666666666667, "grad_norm": 0.4765625, "learning_rate": 9.997142023330037e-05, "loss": 0.4132, "step": 16640 }, { "epoch": 22.2, "grad_norm": 0.4765625, "learning_rate": 9.997138480868453e-05, "loss": 0.4054, "step": 16650 }, { "epoch": 22.213333333333335, "grad_norm": 0.484375, "learning_rate": 9.997134936213417e-05, "loss": 0.4061, "step": 16660 }, { "epoch": 22.226666666666667, "grad_norm": 0.494140625, "learning_rate": 9.997131389364931e-05, "loss": 0.4183, "step": 16670 }, { "epoch": 22.24, "grad_norm": 0.494140625, "learning_rate": 9.997127840322995e-05, "loss": 0.402, "step": 16680 }, { "epoch": 22.253333333333334, "grad_norm": 0.5078125, "learning_rate": 9.997124289087612e-05, "loss": 0.4059, "step": 16690 }, { "epoch": 22.266666666666666, "grad_norm": 0.451171875, "learning_rate": 9.997120735658783e-05, "loss": 0.407, "step": 16700 }, { "epoch": 22.28, "grad_norm": 0.4765625, "learning_rate": 9.99711718003651e-05, "loss": 0.4363, "step": 16710 }, { "epoch": 22.293333333333333, "grad_norm": 0.53515625, "learning_rate": 9.997113622220793e-05, "loss": 0.3934, "step": 16720 }, { "epoch": 22.306666666666665, "grad_norm": 0.455078125, "learning_rate": 9.997110062211635e-05, "loss": 0.4163, "step": 16730 }, { "epoch": 22.32, "grad_norm": 0.42578125, "learning_rate": 9.997106500009037e-05, "loss": 0.417, "step": 16740 }, { "epoch": 22.333333333333332, "grad_norm": 0.59375, "learning_rate": 9.997102935613e-05, "loss": 0.423, "step": 16750 }, { "epoch": 22.346666666666668, "grad_norm": 0.59765625, "learning_rate": 9.997099369023529e-05, "loss": 0.4129, "step": 16760 }, { "epoch": 22.36, "grad_norm": 0.58203125, "learning_rate": 9.997095800240621e-05, "loss": 0.4148, "step": 16770 }, { "epoch": 22.373333333333335, "grad_norm": 0.439453125, "learning_rate": 9.99709222926428e-05, "loss": 0.4145, "step": 16780 }, { "epoch": 22.386666666666667, "grad_norm": 0.53125, "learning_rate": 9.997088656094507e-05, "loss": 0.4063, "step": 16790 }, { "epoch": 22.4, "grad_norm": 0.43359375, "learning_rate": 9.997085080731302e-05, "loss": 0.4136, "step": 16800 }, { "epoch": 22.413333333333334, "grad_norm": 0.5, "learning_rate": 9.99708150317467e-05, "loss": 0.4181, "step": 16810 }, { "epoch": 22.426666666666666, "grad_norm": 0.5078125, "learning_rate": 9.997077923424609e-05, "loss": 0.4196, "step": 16820 }, { "epoch": 22.44, "grad_norm": 0.53515625, "learning_rate": 9.997074341481124e-05, "loss": 0.4314, "step": 16830 }, { "epoch": 22.453333333333333, "grad_norm": 0.5703125, "learning_rate": 9.997070757344215e-05, "loss": 0.4187, "step": 16840 }, { "epoch": 22.466666666666665, "grad_norm": 0.54296875, "learning_rate": 9.997067171013883e-05, "loss": 0.4289, "step": 16850 }, { "epoch": 22.48, "grad_norm": 0.50390625, "learning_rate": 9.99706358249013e-05, "loss": 0.4102, "step": 16860 }, { "epoch": 22.493333333333332, "grad_norm": 0.51171875, "learning_rate": 9.997059991772957e-05, "loss": 0.4221, "step": 16870 }, { "epoch": 22.506666666666668, "grad_norm": 0.546875, "learning_rate": 9.997056398862366e-05, "loss": 0.4191, "step": 16880 }, { "epoch": 22.52, "grad_norm": 0.466796875, "learning_rate": 9.99705280375836e-05, "loss": 0.4095, "step": 16890 }, { "epoch": 22.533333333333335, "grad_norm": 0.4765625, "learning_rate": 9.997049206460938e-05, "loss": 0.4125, "step": 16900 }, { "epoch": 22.546666666666667, "grad_norm": 0.52734375, "learning_rate": 9.997045606970104e-05, "loss": 0.4137, "step": 16910 }, { "epoch": 22.56, "grad_norm": 0.5078125, "learning_rate": 9.997042005285856e-05, "loss": 0.4091, "step": 16920 }, { "epoch": 22.573333333333334, "grad_norm": 0.515625, "learning_rate": 9.997038401408201e-05, "loss": 0.4124, "step": 16930 }, { "epoch": 22.586666666666666, "grad_norm": 0.427734375, "learning_rate": 9.997034795337136e-05, "loss": 0.4002, "step": 16940 }, { "epoch": 22.6, "grad_norm": 0.5078125, "learning_rate": 9.997031187072667e-05, "loss": 0.4035, "step": 16950 }, { "epoch": 22.613333333333333, "grad_norm": 0.5625, "learning_rate": 9.99702757661479e-05, "loss": 0.3917, "step": 16960 }, { "epoch": 22.626666666666665, "grad_norm": 0.431640625, "learning_rate": 9.99702396396351e-05, "loss": 0.396, "step": 16970 }, { "epoch": 22.64, "grad_norm": 0.53125, "learning_rate": 9.997020349118829e-05, "loss": 0.4103, "step": 16980 }, { "epoch": 22.653333333333332, "grad_norm": 0.53125, "learning_rate": 9.997016732080746e-05, "loss": 0.4207, "step": 16990 }, { "epoch": 22.666666666666668, "grad_norm": 0.55078125, "learning_rate": 9.997013112849265e-05, "loss": 0.4056, "step": 17000 }, { "epoch": 22.68, "grad_norm": 0.51171875, "learning_rate": 9.997009491424387e-05, "loss": 0.3994, "step": 17010 }, { "epoch": 22.693333333333335, "grad_norm": 0.466796875, "learning_rate": 9.997005867806113e-05, "loss": 0.4069, "step": 17020 }, { "epoch": 22.706666666666667, "grad_norm": 0.55859375, "learning_rate": 9.997002241994445e-05, "loss": 0.4009, "step": 17030 }, { "epoch": 22.72, "grad_norm": 0.5625, "learning_rate": 9.996998613989384e-05, "loss": 0.4251, "step": 17040 }, { "epoch": 22.733333333333334, "grad_norm": 0.5, "learning_rate": 9.996994983790933e-05, "loss": 0.4174, "step": 17050 }, { "epoch": 22.746666666666666, "grad_norm": 0.478515625, "learning_rate": 9.996991351399092e-05, "loss": 0.4185, "step": 17060 }, { "epoch": 22.76, "grad_norm": 0.515625, "learning_rate": 9.996987716813864e-05, "loss": 0.4312, "step": 17070 }, { "epoch": 22.773333333333333, "grad_norm": 0.56640625, "learning_rate": 9.99698408003525e-05, "loss": 0.4196, "step": 17080 }, { "epoch": 22.786666666666665, "grad_norm": 0.56640625, "learning_rate": 9.996980441063251e-05, "loss": 0.4194, "step": 17090 }, { "epoch": 22.8, "grad_norm": 0.61328125, "learning_rate": 9.99697679989787e-05, "loss": 0.4184, "step": 17100 }, { "epoch": 22.813333333333333, "grad_norm": 0.54296875, "learning_rate": 9.996973156539106e-05, "loss": 0.3922, "step": 17110 }, { "epoch": 22.826666666666668, "grad_norm": 0.46484375, "learning_rate": 9.996969510986963e-05, "loss": 0.4024, "step": 17120 }, { "epoch": 22.84, "grad_norm": 0.55078125, "learning_rate": 9.996965863241441e-05, "loss": 0.4137, "step": 17130 }, { "epoch": 22.85333333333333, "grad_norm": 0.451171875, "learning_rate": 9.996962213302544e-05, "loss": 0.4101, "step": 17140 }, { "epoch": 22.866666666666667, "grad_norm": 0.5, "learning_rate": 9.996958561170272e-05, "loss": 0.4133, "step": 17150 }, { "epoch": 22.88, "grad_norm": 0.5, "learning_rate": 9.996954906844627e-05, "loss": 0.3926, "step": 17160 }, { "epoch": 22.893333333333334, "grad_norm": 0.75, "learning_rate": 9.996951250325608e-05, "loss": 0.4041, "step": 17170 }, { "epoch": 22.906666666666666, "grad_norm": 0.455078125, "learning_rate": 9.996947591613222e-05, "loss": 0.4118, "step": 17180 }, { "epoch": 22.92, "grad_norm": 0.9140625, "learning_rate": 9.996943930707465e-05, "loss": 0.4142, "step": 17190 }, { "epoch": 22.933333333333334, "grad_norm": 1.3515625, "learning_rate": 9.996940267608343e-05, "loss": 0.4079, "step": 17200 }, { "epoch": 22.946666666666665, "grad_norm": 1.125, "learning_rate": 9.996936602315854e-05, "loss": 0.4077, "step": 17210 }, { "epoch": 22.96, "grad_norm": 1.1640625, "learning_rate": 9.996932934830002e-05, "loss": 0.4054, "step": 17220 }, { "epoch": 22.973333333333333, "grad_norm": 0.78515625, "learning_rate": 9.996929265150789e-05, "loss": 0.4299, "step": 17230 }, { "epoch": 22.986666666666668, "grad_norm": 0.515625, "learning_rate": 9.996925593278215e-05, "loss": 0.4058, "step": 17240 }, { "epoch": 23.0, "grad_norm": 0.482421875, "learning_rate": 9.99692191921228e-05, "loss": 0.3982, "step": 17250 }, { "epoch": 23.0, "eval_loss": 0.43806588649749756, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4188, "eval_samples_per_second": 1.536, "eval_steps_per_second": 0.096, "step": 17250 }, { "epoch": 23.013333333333332, "grad_norm": 0.59765625, "learning_rate": 9.99691824295299e-05, "loss": 0.4171, "step": 17260 }, { "epoch": 23.026666666666667, "grad_norm": 0.52734375, "learning_rate": 9.996914564500345e-05, "loss": 0.4308, "step": 17270 }, { "epoch": 23.04, "grad_norm": 0.51953125, "learning_rate": 9.996910883854345e-05, "loss": 0.4419, "step": 17280 }, { "epoch": 23.053333333333335, "grad_norm": 0.515625, "learning_rate": 9.996907201014992e-05, "loss": 0.4279, "step": 17290 }, { "epoch": 23.066666666666666, "grad_norm": 0.52734375, "learning_rate": 9.996903515982289e-05, "loss": 0.4158, "step": 17300 }, { "epoch": 23.08, "grad_norm": 0.515625, "learning_rate": 9.996899828756237e-05, "loss": 0.4202, "step": 17310 }, { "epoch": 23.093333333333334, "grad_norm": 0.5078125, "learning_rate": 9.996896139336837e-05, "loss": 0.4201, "step": 17320 }, { "epoch": 23.106666666666666, "grad_norm": 0.44140625, "learning_rate": 9.996892447724091e-05, "loss": 0.4082, "step": 17330 }, { "epoch": 23.12, "grad_norm": 0.46875, "learning_rate": 9.996888753918001e-05, "loss": 0.4135, "step": 17340 }, { "epoch": 23.133333333333333, "grad_norm": 0.4921875, "learning_rate": 9.996885057918569e-05, "loss": 0.405, "step": 17350 }, { "epoch": 23.14666666666667, "grad_norm": 0.482421875, "learning_rate": 9.996881359725795e-05, "loss": 0.4236, "step": 17360 }, { "epoch": 23.16, "grad_norm": 0.56640625, "learning_rate": 9.996877659339682e-05, "loss": 0.4168, "step": 17370 }, { "epoch": 23.173333333333332, "grad_norm": 0.46875, "learning_rate": 9.996873956760231e-05, "loss": 0.411, "step": 17380 }, { "epoch": 23.186666666666667, "grad_norm": 0.49609375, "learning_rate": 9.996870251987444e-05, "loss": 0.4109, "step": 17390 }, { "epoch": 23.2, "grad_norm": 0.474609375, "learning_rate": 9.996866545021323e-05, "loss": 0.4045, "step": 17400 }, { "epoch": 23.213333333333335, "grad_norm": 0.51171875, "learning_rate": 9.99686283586187e-05, "loss": 0.4045, "step": 17410 }, { "epoch": 23.226666666666667, "grad_norm": 0.51953125, "learning_rate": 9.996859124509083e-05, "loss": 0.417, "step": 17420 }, { "epoch": 23.24, "grad_norm": 0.494140625, "learning_rate": 9.996855410962967e-05, "loss": 0.4013, "step": 17430 }, { "epoch": 23.253333333333334, "grad_norm": 0.515625, "learning_rate": 9.996851695223524e-05, "loss": 0.4046, "step": 17440 }, { "epoch": 23.266666666666666, "grad_norm": 0.478515625, "learning_rate": 9.996847977290753e-05, "loss": 0.4054, "step": 17450 }, { "epoch": 23.28, "grad_norm": 0.515625, "learning_rate": 9.99684425716466e-05, "loss": 0.4359, "step": 17460 }, { "epoch": 23.293333333333333, "grad_norm": 0.4921875, "learning_rate": 9.996840534845242e-05, "loss": 0.3925, "step": 17470 }, { "epoch": 23.306666666666665, "grad_norm": 0.48046875, "learning_rate": 9.996836810332502e-05, "loss": 0.4149, "step": 17480 }, { "epoch": 23.32, "grad_norm": 0.416015625, "learning_rate": 9.996833083626442e-05, "loss": 0.4153, "step": 17490 }, { "epoch": 23.333333333333332, "grad_norm": 0.515625, "learning_rate": 9.996829354727067e-05, "loss": 0.421, "step": 17500 }, { "epoch": 23.346666666666668, "grad_norm": 0.5546875, "learning_rate": 9.996825623634371e-05, "loss": 0.4112, "step": 17510 }, { "epoch": 23.36, "grad_norm": 0.62109375, "learning_rate": 9.996821890348363e-05, "loss": 0.4125, "step": 17520 }, { "epoch": 23.373333333333335, "grad_norm": 0.44140625, "learning_rate": 9.99681815486904e-05, "loss": 0.4127, "step": 17530 }, { "epoch": 23.386666666666667, "grad_norm": 0.5859375, "learning_rate": 9.996814417196407e-05, "loss": 0.4052, "step": 17540 }, { "epoch": 23.4, "grad_norm": 0.490234375, "learning_rate": 9.996810677330462e-05, "loss": 0.4127, "step": 17550 }, { "epoch": 23.413333333333334, "grad_norm": 0.494140625, "learning_rate": 9.99680693527121e-05, "loss": 0.4161, "step": 17560 }, { "epoch": 23.426666666666666, "grad_norm": 0.546875, "learning_rate": 9.99680319101865e-05, "loss": 0.4182, "step": 17570 }, { "epoch": 23.44, "grad_norm": 0.490234375, "learning_rate": 9.996799444572787e-05, "loss": 0.4298, "step": 17580 }, { "epoch": 23.453333333333333, "grad_norm": 0.51953125, "learning_rate": 9.996795695933621e-05, "loss": 0.4173, "step": 17590 }, { "epoch": 23.466666666666665, "grad_norm": 0.4375, "learning_rate": 9.99679194510115e-05, "loss": 0.4259, "step": 17600 }, { "epoch": 23.48, "grad_norm": 0.46875, "learning_rate": 9.996788192075382e-05, "loss": 0.4083, "step": 17610 }, { "epoch": 23.493333333333332, "grad_norm": 0.50390625, "learning_rate": 9.996784436856312e-05, "loss": 0.4193, "step": 17620 }, { "epoch": 23.506666666666668, "grad_norm": 0.5, "learning_rate": 9.996780679443948e-05, "loss": 0.4168, "step": 17630 }, { "epoch": 23.52, "grad_norm": 0.5234375, "learning_rate": 9.996776919838287e-05, "loss": 0.4069, "step": 17640 }, { "epoch": 23.533333333333335, "grad_norm": 0.50390625, "learning_rate": 9.996773158039334e-05, "loss": 0.4114, "step": 17650 }, { "epoch": 23.546666666666667, "grad_norm": 0.5625, "learning_rate": 9.996769394047087e-05, "loss": 0.4124, "step": 17660 }, { "epoch": 23.56, "grad_norm": 0.400390625, "learning_rate": 9.996765627861553e-05, "loss": 0.4069, "step": 17670 }, { "epoch": 23.573333333333334, "grad_norm": 0.51953125, "learning_rate": 9.996761859482729e-05, "loss": 0.41, "step": 17680 }, { "epoch": 23.586666666666666, "grad_norm": 0.50390625, "learning_rate": 9.996758088910616e-05, "loss": 0.3999, "step": 17690 }, { "epoch": 23.6, "grad_norm": 0.478515625, "learning_rate": 9.996754316145219e-05, "loss": 0.4003, "step": 17700 }, { "epoch": 23.613333333333333, "grad_norm": 0.4609375, "learning_rate": 9.99675054118654e-05, "loss": 0.3897, "step": 17710 }, { "epoch": 23.626666666666665, "grad_norm": 0.41796875, "learning_rate": 9.996746764034577e-05, "loss": 0.3948, "step": 17720 }, { "epoch": 23.64, "grad_norm": 0.50390625, "learning_rate": 9.996742984689334e-05, "loss": 0.4086, "step": 17730 }, { "epoch": 23.653333333333332, "grad_norm": 0.515625, "learning_rate": 9.996739203150811e-05, "loss": 0.4189, "step": 17740 }, { "epoch": 23.666666666666668, "grad_norm": 0.52734375, "learning_rate": 9.996735419419013e-05, "loss": 0.4051, "step": 17750 }, { "epoch": 23.68, "grad_norm": 0.494140625, "learning_rate": 9.996731633493939e-05, "loss": 0.3977, "step": 17760 }, { "epoch": 23.693333333333335, "grad_norm": 0.470703125, "learning_rate": 9.996727845375592e-05, "loss": 0.406, "step": 17770 }, { "epoch": 23.706666666666667, "grad_norm": 0.57421875, "learning_rate": 9.996724055063972e-05, "loss": 0.4007, "step": 17780 }, { "epoch": 23.72, "grad_norm": 0.4765625, "learning_rate": 9.996720262559083e-05, "loss": 0.4229, "step": 17790 }, { "epoch": 23.733333333333334, "grad_norm": 0.5625, "learning_rate": 9.996716467860924e-05, "loss": 0.4165, "step": 17800 }, { "epoch": 23.746666666666666, "grad_norm": 0.578125, "learning_rate": 9.996712670969498e-05, "loss": 0.4173, "step": 17810 }, { "epoch": 23.76, "grad_norm": 0.5234375, "learning_rate": 9.996708871884806e-05, "loss": 0.4299, "step": 17820 }, { "epoch": 23.773333333333333, "grad_norm": 0.59375, "learning_rate": 9.996705070606852e-05, "loss": 0.4184, "step": 17830 }, { "epoch": 23.786666666666665, "grad_norm": 0.54296875, "learning_rate": 9.996701267135636e-05, "loss": 0.4179, "step": 17840 }, { "epoch": 23.8, "grad_norm": 0.5546875, "learning_rate": 9.996697461471158e-05, "loss": 0.4168, "step": 17850 }, { "epoch": 23.813333333333333, "grad_norm": 0.54296875, "learning_rate": 9.996693653613423e-05, "loss": 0.3898, "step": 17860 }, { "epoch": 23.826666666666668, "grad_norm": 0.48046875, "learning_rate": 9.996689843562429e-05, "loss": 0.4012, "step": 17870 }, { "epoch": 23.84, "grad_norm": 0.48828125, "learning_rate": 9.99668603131818e-05, "loss": 0.4135, "step": 17880 }, { "epoch": 23.85333333333333, "grad_norm": 0.52734375, "learning_rate": 9.996682216880679e-05, "loss": 0.4069, "step": 17890 }, { "epoch": 23.866666666666667, "grad_norm": 0.54296875, "learning_rate": 9.996678400249924e-05, "loss": 0.4115, "step": 17900 }, { "epoch": 23.88, "grad_norm": 0.42578125, "learning_rate": 9.99667458142592e-05, "loss": 0.3917, "step": 17910 }, { "epoch": 23.893333333333334, "grad_norm": 0.5234375, "learning_rate": 9.996670760408668e-05, "loss": 0.403, "step": 17920 }, { "epoch": 23.906666666666666, "grad_norm": 0.490234375, "learning_rate": 9.996666937198168e-05, "loss": 0.4101, "step": 17930 }, { "epoch": 23.92, "grad_norm": 0.51953125, "learning_rate": 9.996663111794423e-05, "loss": 0.4118, "step": 17940 }, { "epoch": 23.933333333333334, "grad_norm": 0.462890625, "learning_rate": 9.996659284197434e-05, "loss": 0.4055, "step": 17950 }, { "epoch": 23.946666666666665, "grad_norm": 0.498046875, "learning_rate": 9.996655454407204e-05, "loss": 0.4068, "step": 17960 }, { "epoch": 23.96, "grad_norm": 0.447265625, "learning_rate": 9.996651622423732e-05, "loss": 0.4046, "step": 17970 }, { "epoch": 23.973333333333333, "grad_norm": 0.5859375, "learning_rate": 9.996647788247022e-05, "loss": 0.4291, "step": 17980 }, { "epoch": 23.986666666666668, "grad_norm": 0.46484375, "learning_rate": 9.996643951877076e-05, "loss": 0.4046, "step": 17990 }, { "epoch": 24.0, "grad_norm": 0.5078125, "learning_rate": 9.996640113313894e-05, "loss": 0.3978, "step": 18000 }, { "epoch": 24.0, "eval_loss": 0.43706485629081726, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6334, "eval_samples_per_second": 1.505, "eval_steps_per_second": 0.094, "step": 18000 }, { "epoch": 24.013333333333332, "grad_norm": 0.546875, "learning_rate": 9.99663627255748e-05, "loss": 0.417, "step": 18010 }, { "epoch": 24.026666666666667, "grad_norm": 0.455078125, "learning_rate": 9.996632429607831e-05, "loss": 0.4279, "step": 18020 }, { "epoch": 24.04, "grad_norm": 0.5625, "learning_rate": 9.996628584464956e-05, "loss": 0.4402, "step": 18030 }, { "epoch": 24.053333333333335, "grad_norm": 0.51953125, "learning_rate": 9.996624737128849e-05, "loss": 0.4265, "step": 18040 }, { "epoch": 24.066666666666666, "grad_norm": 0.53515625, "learning_rate": 9.996620887599517e-05, "loss": 0.4142, "step": 18050 }, { "epoch": 24.08, "grad_norm": 0.49609375, "learning_rate": 9.996617035876958e-05, "loss": 0.4185, "step": 18060 }, { "epoch": 24.093333333333334, "grad_norm": 0.5078125, "learning_rate": 9.996613181961178e-05, "loss": 0.4193, "step": 18070 }, { "epoch": 24.106666666666666, "grad_norm": 0.45703125, "learning_rate": 9.996609325852175e-05, "loss": 0.4075, "step": 18080 }, { "epoch": 24.12, "grad_norm": 0.5390625, "learning_rate": 9.996605467549953e-05, "loss": 0.4124, "step": 18090 }, { "epoch": 24.133333333333333, "grad_norm": 0.45703125, "learning_rate": 9.996601607054512e-05, "loss": 0.4038, "step": 18100 }, { "epoch": 24.14666666666667, "grad_norm": 0.498046875, "learning_rate": 9.996597744365855e-05, "loss": 0.4224, "step": 18110 }, { "epoch": 24.16, "grad_norm": 0.462890625, "learning_rate": 9.996593879483982e-05, "loss": 0.4154, "step": 18120 }, { "epoch": 24.173333333333332, "grad_norm": 0.486328125, "learning_rate": 9.996590012408896e-05, "loss": 0.4091, "step": 18130 }, { "epoch": 24.186666666666667, "grad_norm": 0.56640625, "learning_rate": 9.996586143140598e-05, "loss": 0.4094, "step": 18140 }, { "epoch": 24.2, "grad_norm": 0.609375, "learning_rate": 9.996582271679092e-05, "loss": 0.4029, "step": 18150 }, { "epoch": 24.213333333333335, "grad_norm": 0.546875, "learning_rate": 9.996578398024377e-05, "loss": 0.4026, "step": 18160 }, { "epoch": 24.226666666666667, "grad_norm": 0.51953125, "learning_rate": 9.996574522176456e-05, "loss": 0.416, "step": 18170 }, { "epoch": 24.24, "grad_norm": 0.53125, "learning_rate": 9.996570644135327e-05, "loss": 0.3995, "step": 18180 }, { "epoch": 24.253333333333334, "grad_norm": 0.5234375, "learning_rate": 9.996566763900999e-05, "loss": 0.4029, "step": 18190 }, { "epoch": 24.266666666666666, "grad_norm": 0.515625, "learning_rate": 9.996562881473468e-05, "loss": 0.4048, "step": 18200 }, { "epoch": 24.28, "grad_norm": 0.515625, "learning_rate": 9.996558996852738e-05, "loss": 0.434, "step": 18210 }, { "epoch": 24.293333333333333, "grad_norm": 0.46484375, "learning_rate": 9.99655511003881e-05, "loss": 0.3906, "step": 18220 }, { "epoch": 24.306666666666665, "grad_norm": 0.498046875, "learning_rate": 9.996551221031684e-05, "loss": 0.4138, "step": 18230 }, { "epoch": 24.32, "grad_norm": 0.48828125, "learning_rate": 9.996547329831366e-05, "loss": 0.4146, "step": 18240 }, { "epoch": 24.333333333333332, "grad_norm": 0.515625, "learning_rate": 9.996543436437855e-05, "loss": 0.419, "step": 18250 }, { "epoch": 24.346666666666668, "grad_norm": 0.55078125, "learning_rate": 9.996539540851151e-05, "loss": 0.4097, "step": 18260 }, { "epoch": 24.36, "grad_norm": 0.55078125, "learning_rate": 9.996535643071259e-05, "loss": 0.4114, "step": 18270 }, { "epoch": 24.373333333333335, "grad_norm": 0.48046875, "learning_rate": 9.996531743098179e-05, "loss": 0.4101, "step": 18280 }, { "epoch": 24.386666666666667, "grad_norm": 0.56640625, "learning_rate": 9.996527840931913e-05, "loss": 0.4033, "step": 18290 }, { "epoch": 24.4, "grad_norm": 0.5703125, "learning_rate": 9.996523936572464e-05, "loss": 0.4108, "step": 18300 }, { "epoch": 24.413333333333334, "grad_norm": 0.486328125, "learning_rate": 9.996520030019831e-05, "loss": 0.4149, "step": 18310 }, { "epoch": 24.426666666666666, "grad_norm": 0.490234375, "learning_rate": 9.996516121274017e-05, "loss": 0.4158, "step": 18320 }, { "epoch": 24.44, "grad_norm": 0.57421875, "learning_rate": 9.996512210335025e-05, "loss": 0.428, "step": 18330 }, { "epoch": 24.453333333333333, "grad_norm": 0.54296875, "learning_rate": 9.996508297202855e-05, "loss": 0.4159, "step": 18340 }, { "epoch": 24.466666666666665, "grad_norm": 0.498046875, "learning_rate": 9.99650438187751e-05, "loss": 0.4251, "step": 18350 }, { "epoch": 24.48, "grad_norm": 0.50390625, "learning_rate": 9.996500464358988e-05, "loss": 0.4079, "step": 18360 }, { "epoch": 24.493333333333332, "grad_norm": 0.478515625, "learning_rate": 9.996496544647298e-05, "loss": 0.4188, "step": 18370 }, { "epoch": 24.506666666666668, "grad_norm": 0.46875, "learning_rate": 9.996492622742436e-05, "loss": 0.4164, "step": 18380 }, { "epoch": 24.52, "grad_norm": 0.4375, "learning_rate": 9.996488698644404e-05, "loss": 0.4066, "step": 18390 }, { "epoch": 24.533333333333335, "grad_norm": 0.47265625, "learning_rate": 9.996484772353206e-05, "loss": 0.4101, "step": 18400 }, { "epoch": 24.546666666666667, "grad_norm": 0.52734375, "learning_rate": 9.996480843868842e-05, "loss": 0.4118, "step": 18410 }, { "epoch": 24.56, "grad_norm": 0.46875, "learning_rate": 9.996476913191315e-05, "loss": 0.4062, "step": 18420 }, { "epoch": 24.573333333333334, "grad_norm": 0.484375, "learning_rate": 9.996472980320626e-05, "loss": 0.4097, "step": 18430 }, { "epoch": 24.586666666666666, "grad_norm": 0.470703125, "learning_rate": 9.996469045256778e-05, "loss": 0.3976, "step": 18440 }, { "epoch": 24.6, "grad_norm": 0.486328125, "learning_rate": 9.99646510799977e-05, "loss": 0.4, "step": 18450 }, { "epoch": 24.613333333333333, "grad_norm": 0.486328125, "learning_rate": 9.996461168549606e-05, "loss": 0.3883, "step": 18460 }, { "epoch": 24.626666666666665, "grad_norm": 0.44140625, "learning_rate": 9.996457226906286e-05, "loss": 0.3931, "step": 18470 }, { "epoch": 24.64, "grad_norm": 0.50390625, "learning_rate": 9.996453283069814e-05, "loss": 0.4078, "step": 18480 }, { "epoch": 24.653333333333332, "grad_norm": 0.51171875, "learning_rate": 9.99644933704019e-05, "loss": 0.4184, "step": 18490 }, { "epoch": 24.666666666666668, "grad_norm": 0.498046875, "learning_rate": 9.996445388817416e-05, "loss": 0.4036, "step": 18500 }, { "epoch": 24.68, "grad_norm": 0.5234375, "learning_rate": 9.996441438401494e-05, "loss": 0.3964, "step": 18510 }, { "epoch": 24.693333333333335, "grad_norm": 0.423828125, "learning_rate": 9.996437485792428e-05, "loss": 0.4041, "step": 18520 }, { "epoch": 24.706666666666667, "grad_norm": 0.5625, "learning_rate": 9.996433530990214e-05, "loss": 0.3981, "step": 18530 }, { "epoch": 24.72, "grad_norm": 0.54296875, "learning_rate": 9.996429573994858e-05, "loss": 0.4204, "step": 18540 }, { "epoch": 24.733333333333334, "grad_norm": 0.53125, "learning_rate": 9.996425614806362e-05, "loss": 0.4148, "step": 18550 }, { "epoch": 24.746666666666666, "grad_norm": 0.451171875, "learning_rate": 9.996421653424726e-05, "loss": 0.4162, "step": 18560 }, { "epoch": 24.76, "grad_norm": 0.54296875, "learning_rate": 9.99641768984995e-05, "loss": 0.4278, "step": 18570 }, { "epoch": 24.773333333333333, "grad_norm": 0.54296875, "learning_rate": 9.996413724082041e-05, "loss": 0.4169, "step": 18580 }, { "epoch": 24.786666666666665, "grad_norm": 0.45703125, "learning_rate": 9.996409756120999e-05, "loss": 0.4161, "step": 18590 }, { "epoch": 24.8, "grad_norm": 0.486328125, "learning_rate": 9.996405785966822e-05, "loss": 0.4155, "step": 18600 }, { "epoch": 24.813333333333333, "grad_norm": 0.60546875, "learning_rate": 9.996401813619516e-05, "loss": 0.3897, "step": 18610 }, { "epoch": 24.826666666666668, "grad_norm": 0.52734375, "learning_rate": 9.99639783907908e-05, "loss": 0.4, "step": 18620 }, { "epoch": 24.84, "grad_norm": 0.59375, "learning_rate": 9.996393862345517e-05, "loss": 0.4119, "step": 18630 }, { "epoch": 24.85333333333333, "grad_norm": 0.4921875, "learning_rate": 9.996389883418829e-05, "loss": 0.4067, "step": 18640 }, { "epoch": 24.866666666666667, "grad_norm": 0.515625, "learning_rate": 9.996385902299016e-05, "loss": 0.4094, "step": 18650 }, { "epoch": 24.88, "grad_norm": 0.451171875, "learning_rate": 9.996381918986082e-05, "loss": 0.3897, "step": 18660 }, { "epoch": 24.893333333333334, "grad_norm": 0.59375, "learning_rate": 9.996377933480028e-05, "loss": 0.4007, "step": 18670 }, { "epoch": 24.906666666666666, "grad_norm": 0.515625, "learning_rate": 9.996373945780855e-05, "loss": 0.4095, "step": 18680 }, { "epoch": 24.92, "grad_norm": 0.5390625, "learning_rate": 9.996369955888566e-05, "loss": 0.4105, "step": 18690 }, { "epoch": 24.933333333333334, "grad_norm": 0.474609375, "learning_rate": 9.996365963803162e-05, "loss": 0.4036, "step": 18700 }, { "epoch": 24.946666666666665, "grad_norm": 0.498046875, "learning_rate": 9.996361969524643e-05, "loss": 0.4047, "step": 18710 }, { "epoch": 24.96, "grad_norm": 0.4296875, "learning_rate": 9.996357973053016e-05, "loss": 0.4024, "step": 18720 }, { "epoch": 24.973333333333333, "grad_norm": 0.62109375, "learning_rate": 9.996353974388277e-05, "loss": 0.4286, "step": 18730 }, { "epoch": 24.986666666666668, "grad_norm": 0.56640625, "learning_rate": 9.99634997353043e-05, "loss": 0.4028, "step": 18740 }, { "epoch": 25.0, "grad_norm": 0.56640625, "learning_rate": 9.996345970479477e-05, "loss": 0.3967, "step": 18750 }, { "epoch": 25.0, "eval_loss": 0.4373813569545746, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4461, "eval_samples_per_second": 1.532, "eval_steps_per_second": 0.096, "step": 18750 }, { "epoch": 25.013333333333332, "grad_norm": 0.60546875, "learning_rate": 9.996341965235421e-05, "loss": 0.4156, "step": 18760 }, { "epoch": 25.026666666666667, "grad_norm": 0.482421875, "learning_rate": 9.99633795779826e-05, "loss": 0.4274, "step": 18770 }, { "epoch": 25.04, "grad_norm": 0.5078125, "learning_rate": 9.996333948168e-05, "loss": 0.4395, "step": 18780 }, { "epoch": 25.053333333333335, "grad_norm": 0.5390625, "learning_rate": 9.99632993634464e-05, "loss": 0.4253, "step": 18790 }, { "epoch": 25.066666666666666, "grad_norm": 0.53515625, "learning_rate": 9.996325922328183e-05, "loss": 0.4135, "step": 18800 }, { "epoch": 25.08, "grad_norm": 0.5078125, "learning_rate": 9.996321906118631e-05, "loss": 0.4179, "step": 18810 }, { "epoch": 25.093333333333334, "grad_norm": 0.54296875, "learning_rate": 9.996317887715985e-05, "loss": 0.4181, "step": 18820 }, { "epoch": 25.106666666666666, "grad_norm": 0.5234375, "learning_rate": 9.996313867120246e-05, "loss": 0.4061, "step": 18830 }, { "epoch": 25.12, "grad_norm": 0.546875, "learning_rate": 9.996309844331417e-05, "loss": 0.4106, "step": 18840 }, { "epoch": 25.133333333333333, "grad_norm": 0.4765625, "learning_rate": 9.996305819349499e-05, "loss": 0.4018, "step": 18850 }, { "epoch": 25.14666666666667, "grad_norm": 0.494140625, "learning_rate": 9.996301792174494e-05, "loss": 0.4211, "step": 18860 }, { "epoch": 25.16, "grad_norm": 0.4921875, "learning_rate": 9.996297762806406e-05, "loss": 0.4139, "step": 18870 }, { "epoch": 25.173333333333332, "grad_norm": 0.51171875, "learning_rate": 9.996293731245232e-05, "loss": 0.4106, "step": 18880 }, { "epoch": 25.186666666666667, "grad_norm": 0.515625, "learning_rate": 9.99628969749098e-05, "loss": 0.4086, "step": 18890 }, { "epoch": 25.2, "grad_norm": 0.515625, "learning_rate": 9.996285661543645e-05, "loss": 0.4008, "step": 18900 }, { "epoch": 25.213333333333335, "grad_norm": 0.5234375, "learning_rate": 9.996281623403233e-05, "loss": 0.4024, "step": 18910 }, { "epoch": 25.226666666666667, "grad_norm": 0.53515625, "learning_rate": 9.996277583069746e-05, "loss": 0.4139, "step": 18920 }, { "epoch": 25.24, "grad_norm": 0.5234375, "learning_rate": 9.996273540543183e-05, "loss": 0.3981, "step": 18930 }, { "epoch": 25.253333333333334, "grad_norm": 0.53125, "learning_rate": 9.996269495823548e-05, "loss": 0.401, "step": 18940 }, { "epoch": 25.266666666666666, "grad_norm": 0.494140625, "learning_rate": 9.996265448910842e-05, "loss": 0.4028, "step": 18950 }, { "epoch": 25.28, "grad_norm": 0.53125, "learning_rate": 9.996261399805067e-05, "loss": 0.4323, "step": 18960 }, { "epoch": 25.293333333333333, "grad_norm": 0.5234375, "learning_rate": 9.996257348506226e-05, "loss": 0.3892, "step": 18970 }, { "epoch": 25.306666666666665, "grad_norm": 0.48828125, "learning_rate": 9.996253295014317e-05, "loss": 0.4121, "step": 18980 }, { "epoch": 25.32, "grad_norm": 0.478515625, "learning_rate": 9.996249239329347e-05, "loss": 0.4126, "step": 18990 }, { "epoch": 25.333333333333332, "grad_norm": 0.5703125, "learning_rate": 9.996245181451313e-05, "loss": 0.4177, "step": 19000 }, { "epoch": 25.346666666666668, "grad_norm": 0.6015625, "learning_rate": 9.99624112138022e-05, "loss": 0.4079, "step": 19010 }, { "epoch": 25.36, "grad_norm": 0.578125, "learning_rate": 9.996237059116068e-05, "loss": 0.4105, "step": 19020 }, { "epoch": 25.373333333333335, "grad_norm": 0.515625, "learning_rate": 9.99623299465886e-05, "loss": 0.4085, "step": 19030 }, { "epoch": 25.386666666666667, "grad_norm": 0.5625, "learning_rate": 9.996228928008596e-05, "loss": 0.4023, "step": 19040 }, { "epoch": 25.4, "grad_norm": 0.53125, "learning_rate": 9.99622485916528e-05, "loss": 0.4088, "step": 19050 }, { "epoch": 25.413333333333334, "grad_norm": 0.51953125, "learning_rate": 9.996220788128912e-05, "loss": 0.4135, "step": 19060 }, { "epoch": 25.426666666666666, "grad_norm": 0.49609375, "learning_rate": 9.996216714899495e-05, "loss": 0.4146, "step": 19070 }, { "epoch": 25.44, "grad_norm": 0.51953125, "learning_rate": 9.99621263947703e-05, "loss": 0.4271, "step": 19080 }, { "epoch": 25.453333333333333, "grad_norm": 0.59375, "learning_rate": 9.99620856186152e-05, "loss": 0.4153, "step": 19090 }, { "epoch": 25.466666666666665, "grad_norm": 0.53515625, "learning_rate": 9.996204482052966e-05, "loss": 0.4237, "step": 19100 }, { "epoch": 25.48, "grad_norm": 0.4921875, "learning_rate": 9.996200400051368e-05, "loss": 0.4052, "step": 19110 }, { "epoch": 25.493333333333332, "grad_norm": 0.51171875, "learning_rate": 9.996196315856731e-05, "loss": 0.4174, "step": 19120 }, { "epoch": 25.506666666666668, "grad_norm": 0.55859375, "learning_rate": 9.996192229469054e-05, "loss": 0.4145, "step": 19130 }, { "epoch": 25.52, "grad_norm": 0.44921875, "learning_rate": 9.996188140888341e-05, "loss": 0.4055, "step": 19140 }, { "epoch": 25.533333333333335, "grad_norm": 0.484375, "learning_rate": 9.996184050114594e-05, "loss": 0.4095, "step": 19150 }, { "epoch": 25.546666666666667, "grad_norm": 0.57421875, "learning_rate": 9.99617995714781e-05, "loss": 0.4101, "step": 19160 }, { "epoch": 25.56, "grad_norm": 0.478515625, "learning_rate": 9.996175861987997e-05, "loss": 0.4045, "step": 19170 }, { "epoch": 25.573333333333334, "grad_norm": 0.51953125, "learning_rate": 9.996171764635155e-05, "loss": 0.4079, "step": 19180 }, { "epoch": 25.586666666666666, "grad_norm": 0.490234375, "learning_rate": 9.996167665089284e-05, "loss": 0.397, "step": 19190 }, { "epoch": 25.6, "grad_norm": 0.47265625, "learning_rate": 9.996163563350387e-05, "loss": 0.3979, "step": 19200 }, { "epoch": 25.613333333333333, "grad_norm": 0.46484375, "learning_rate": 9.996159459418467e-05, "loss": 0.3877, "step": 19210 }, { "epoch": 25.626666666666665, "grad_norm": 0.46875, "learning_rate": 9.996155353293521e-05, "loss": 0.3927, "step": 19220 }, { "epoch": 25.64, "grad_norm": 0.55078125, "learning_rate": 9.996151244975558e-05, "loss": 0.4066, "step": 19230 }, { "epoch": 25.653333333333332, "grad_norm": 0.69921875, "learning_rate": 9.996147134464573e-05, "loss": 0.4165, "step": 19240 }, { "epoch": 25.666666666666668, "grad_norm": 0.486328125, "learning_rate": 9.996143021760574e-05, "loss": 0.4017, "step": 19250 }, { "epoch": 25.68, "grad_norm": 0.51953125, "learning_rate": 9.996138906863557e-05, "loss": 0.3947, "step": 19260 }, { "epoch": 25.693333333333335, "grad_norm": 0.58203125, "learning_rate": 9.996134789773528e-05, "loss": 0.4036, "step": 19270 }, { "epoch": 25.706666666666667, "grad_norm": 0.58203125, "learning_rate": 9.996130670490487e-05, "loss": 0.3972, "step": 19280 }, { "epoch": 25.72, "grad_norm": 0.50390625, "learning_rate": 9.996126549014436e-05, "loss": 0.42, "step": 19290 }, { "epoch": 25.733333333333334, "grad_norm": 0.59375, "learning_rate": 9.996122425345375e-05, "loss": 0.4132, "step": 19300 }, { "epoch": 25.746666666666666, "grad_norm": 0.56640625, "learning_rate": 9.99611829948331e-05, "loss": 0.4153, "step": 19310 }, { "epoch": 25.76, "grad_norm": 0.53515625, "learning_rate": 9.99611417142824e-05, "loss": 0.4272, "step": 19320 }, { "epoch": 25.773333333333333, "grad_norm": 0.609375, "learning_rate": 9.996110041180166e-05, "loss": 0.415, "step": 19330 }, { "epoch": 25.786666666666665, "grad_norm": 0.51171875, "learning_rate": 9.996105908739093e-05, "loss": 0.4155, "step": 19340 }, { "epoch": 25.8, "grad_norm": 0.53125, "learning_rate": 9.99610177410502e-05, "loss": 0.4135, "step": 19350 }, { "epoch": 25.813333333333333, "grad_norm": 0.55859375, "learning_rate": 9.996097637277951e-05, "loss": 0.3874, "step": 19360 }, { "epoch": 25.826666666666668, "grad_norm": 0.458984375, "learning_rate": 9.996093498257885e-05, "loss": 0.3989, "step": 19370 }, { "epoch": 25.84, "grad_norm": 0.5078125, "learning_rate": 9.996089357044826e-05, "loss": 0.4095, "step": 19380 }, { "epoch": 25.85333333333333, "grad_norm": 0.51953125, "learning_rate": 9.996085213638778e-05, "loss": 0.4048, "step": 19390 }, { "epoch": 25.866666666666667, "grad_norm": 0.49609375, "learning_rate": 9.996081068039735e-05, "loss": 0.4096, "step": 19400 }, { "epoch": 25.88, "grad_norm": 0.5234375, "learning_rate": 9.996076920247708e-05, "loss": 0.3886, "step": 19410 }, { "epoch": 25.893333333333334, "grad_norm": 0.58203125, "learning_rate": 9.996072770262692e-05, "loss": 0.3995, "step": 19420 }, { "epoch": 25.906666666666666, "grad_norm": 0.451171875, "learning_rate": 9.996068618084692e-05, "loss": 0.4071, "step": 19430 }, { "epoch": 25.92, "grad_norm": 0.5234375, "learning_rate": 9.99606446371371e-05, "loss": 0.41, "step": 19440 }, { "epoch": 25.933333333333334, "grad_norm": 0.478515625, "learning_rate": 9.996060307149748e-05, "loss": 0.4031, "step": 19450 }, { "epoch": 25.946666666666665, "grad_norm": 0.484375, "learning_rate": 9.996056148392805e-05, "loss": 0.4047, "step": 19460 }, { "epoch": 25.96, "grad_norm": 0.494140625, "learning_rate": 9.996051987442886e-05, "loss": 0.4007, "step": 19470 }, { "epoch": 25.973333333333333, "grad_norm": 0.625, "learning_rate": 9.996047824299993e-05, "loss": 0.4272, "step": 19480 }, { "epoch": 25.986666666666668, "grad_norm": 0.5859375, "learning_rate": 9.996043658964123e-05, "loss": 0.4011, "step": 19490 }, { "epoch": 26.0, "grad_norm": 0.51953125, "learning_rate": 9.996039491435283e-05, "loss": 0.3952, "step": 19500 }, { "epoch": 26.0, "eval_loss": 0.4364861249923706, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4705, "eval_samples_per_second": 1.528, "eval_steps_per_second": 0.096, "step": 19500 }, { "epoch": 26.013333333333332, "grad_norm": 0.59765625, "learning_rate": 9.996035321713474e-05, "loss": 0.4133, "step": 19510 }, { "epoch": 26.026666666666667, "grad_norm": 0.455078125, "learning_rate": 9.996031149798696e-05, "loss": 0.4263, "step": 19520 }, { "epoch": 26.04, "grad_norm": 0.50390625, "learning_rate": 9.996026975690952e-05, "loss": 0.4383, "step": 19530 }, { "epoch": 26.053333333333335, "grad_norm": 0.494140625, "learning_rate": 9.996022799390243e-05, "loss": 0.4248, "step": 19540 }, { "epoch": 26.066666666666666, "grad_norm": 0.57421875, "learning_rate": 9.996018620896573e-05, "loss": 0.411, "step": 19550 }, { "epoch": 26.08, "grad_norm": 0.52734375, "learning_rate": 9.996014440209941e-05, "loss": 0.4158, "step": 19560 }, { "epoch": 26.093333333333334, "grad_norm": 0.55078125, "learning_rate": 9.99601025733035e-05, "loss": 0.4162, "step": 19570 }, { "epoch": 26.106666666666666, "grad_norm": 0.490234375, "learning_rate": 9.996006072257802e-05, "loss": 0.4038, "step": 19580 }, { "epoch": 26.12, "grad_norm": 0.482421875, "learning_rate": 9.9960018849923e-05, "loss": 0.4092, "step": 19590 }, { "epoch": 26.133333333333333, "grad_norm": 0.51171875, "learning_rate": 9.995997695533843e-05, "loss": 0.4011, "step": 19600 }, { "epoch": 26.14666666666667, "grad_norm": 0.52734375, "learning_rate": 9.995993503882436e-05, "loss": 0.4211, "step": 19610 }, { "epoch": 26.16, "grad_norm": 0.5234375, "learning_rate": 9.995989310038078e-05, "loss": 0.4125, "step": 19620 }, { "epoch": 26.173333333333332, "grad_norm": 0.498046875, "learning_rate": 9.995985114000773e-05, "loss": 0.408, "step": 19630 }, { "epoch": 26.186666666666667, "grad_norm": 0.5546875, "learning_rate": 9.995980915770522e-05, "loss": 0.4076, "step": 19640 }, { "epoch": 26.2, "grad_norm": 0.52734375, "learning_rate": 9.995976715347326e-05, "loss": 0.4, "step": 19650 }, { "epoch": 26.213333333333335, "grad_norm": 0.58984375, "learning_rate": 9.995972512731188e-05, "loss": 0.4004, "step": 19660 }, { "epoch": 26.226666666666667, "grad_norm": 0.54296875, "learning_rate": 9.99596830792211e-05, "loss": 0.4121, "step": 19670 }, { "epoch": 26.24, "grad_norm": 0.50390625, "learning_rate": 9.995964100920092e-05, "loss": 0.397, "step": 19680 }, { "epoch": 26.253333333333334, "grad_norm": 0.5078125, "learning_rate": 9.99595989172514e-05, "loss": 0.3998, "step": 19690 }, { "epoch": 26.266666666666666, "grad_norm": 0.5234375, "learning_rate": 9.99595568033725e-05, "loss": 0.4013, "step": 19700 }, { "epoch": 26.28, "grad_norm": 0.53125, "learning_rate": 9.995951466756429e-05, "loss": 0.4311, "step": 19710 }, { "epoch": 26.293333333333333, "grad_norm": 0.55859375, "learning_rate": 9.995947250982675e-05, "loss": 0.388, "step": 19720 }, { "epoch": 26.306666666666665, "grad_norm": 0.47265625, "learning_rate": 9.995943033015993e-05, "loss": 0.4105, "step": 19730 }, { "epoch": 26.32, "grad_norm": 0.423828125, "learning_rate": 9.995938812856383e-05, "loss": 0.4122, "step": 19740 }, { "epoch": 26.333333333333332, "grad_norm": 0.57421875, "learning_rate": 9.995934590503847e-05, "loss": 0.4161, "step": 19750 }, { "epoch": 26.346666666666668, "grad_norm": 0.5546875, "learning_rate": 9.995930365958388e-05, "loss": 0.4066, "step": 19760 }, { "epoch": 26.36, "grad_norm": 0.58203125, "learning_rate": 9.995926139220006e-05, "loss": 0.4078, "step": 19770 }, { "epoch": 26.373333333333335, "grad_norm": 0.46875, "learning_rate": 9.995921910288703e-05, "loss": 0.4076, "step": 19780 }, { "epoch": 26.386666666666667, "grad_norm": 0.51953125, "learning_rate": 9.995917679164484e-05, "loss": 0.4008, "step": 19790 }, { "epoch": 26.4, "grad_norm": 0.462890625, "learning_rate": 9.995913445847349e-05, "loss": 0.4078, "step": 19800 }, { "epoch": 26.413333333333334, "grad_norm": 0.51953125, "learning_rate": 9.995909210337298e-05, "loss": 0.4125, "step": 19810 }, { "epoch": 26.426666666666666, "grad_norm": 0.49609375, "learning_rate": 9.995904972634333e-05, "loss": 0.4143, "step": 19820 }, { "epoch": 26.44, "grad_norm": 0.50390625, "learning_rate": 9.995900732738459e-05, "loss": 0.4254, "step": 19830 }, { "epoch": 26.453333333333333, "grad_norm": 0.61328125, "learning_rate": 9.995896490649675e-05, "loss": 0.4139, "step": 19840 }, { "epoch": 26.466666666666665, "grad_norm": 0.51953125, "learning_rate": 9.995892246367984e-05, "loss": 0.4232, "step": 19850 }, { "epoch": 26.48, "grad_norm": 0.5078125, "learning_rate": 9.995887999893389e-05, "loss": 0.4042, "step": 19860 }, { "epoch": 26.493333333333332, "grad_norm": 0.46875, "learning_rate": 9.995883751225889e-05, "loss": 0.4155, "step": 19870 }, { "epoch": 26.506666666666668, "grad_norm": 0.49609375, "learning_rate": 9.995879500365489e-05, "loss": 0.4138, "step": 19880 }, { "epoch": 26.52, "grad_norm": 0.49609375, "learning_rate": 9.995875247312189e-05, "loss": 0.4042, "step": 19890 }, { "epoch": 26.533333333333335, "grad_norm": 0.53515625, "learning_rate": 9.99587099206599e-05, "loss": 0.407, "step": 19900 }, { "epoch": 26.546666666666667, "grad_norm": 0.5546875, "learning_rate": 9.995866734626898e-05, "loss": 0.4094, "step": 19910 }, { "epoch": 26.56, "grad_norm": 0.52734375, "learning_rate": 9.995862474994909e-05, "loss": 0.4035, "step": 19920 }, { "epoch": 26.573333333333334, "grad_norm": 0.55078125, "learning_rate": 9.995858213170029e-05, "loss": 0.4067, "step": 19930 }, { "epoch": 26.586666666666666, "grad_norm": 0.458984375, "learning_rate": 9.995853949152259e-05, "loss": 0.3954, "step": 19940 }, { "epoch": 26.6, "grad_norm": 0.51171875, "learning_rate": 9.995849682941598e-05, "loss": 0.3975, "step": 19950 }, { "epoch": 26.613333333333333, "grad_norm": 0.51171875, "learning_rate": 9.995845414538053e-05, "loss": 0.3862, "step": 19960 }, { "epoch": 26.626666666666665, "grad_norm": 0.455078125, "learning_rate": 9.995841143941622e-05, "loss": 0.3913, "step": 19970 }, { "epoch": 26.64, "grad_norm": 0.5234375, "learning_rate": 9.995836871152309e-05, "loss": 0.4035, "step": 19980 }, { "epoch": 26.653333333333332, "grad_norm": 0.56640625, "learning_rate": 9.995832596170116e-05, "loss": 0.415, "step": 19990 }, { "epoch": 26.666666666666668, "grad_norm": 0.484375, "learning_rate": 9.995828318995042e-05, "loss": 0.4004, "step": 20000 }, { "epoch": 26.68, "grad_norm": 0.51953125, "learning_rate": 9.995824039627092e-05, "loss": 0.3927, "step": 20010 }, { "epoch": 26.693333333333335, "grad_norm": 0.478515625, "learning_rate": 9.995819758066265e-05, "loss": 0.4015, "step": 20020 }, { "epoch": 26.706666666666667, "grad_norm": 0.56640625, "learning_rate": 9.995815474312567e-05, "loss": 0.3964, "step": 20030 }, { "epoch": 26.72, "grad_norm": 0.62890625, "learning_rate": 9.995811188365995e-05, "loss": 0.4183, "step": 20040 }, { "epoch": 26.733333333333334, "grad_norm": 0.57421875, "learning_rate": 9.995806900226557e-05, "loss": 0.4115, "step": 20050 }, { "epoch": 26.746666666666666, "grad_norm": 0.52734375, "learning_rate": 9.995802609894247e-05, "loss": 0.4132, "step": 20060 }, { "epoch": 26.76, "grad_norm": 0.51171875, "learning_rate": 9.995798317369074e-05, "loss": 0.426, "step": 20070 }, { "epoch": 26.773333333333333, "grad_norm": 0.5703125, "learning_rate": 9.995794022651036e-05, "loss": 0.4135, "step": 20080 }, { "epoch": 26.786666666666665, "grad_norm": 0.55078125, "learning_rate": 9.995789725740136e-05, "loss": 0.4143, "step": 20090 }, { "epoch": 26.8, "grad_norm": 0.57421875, "learning_rate": 9.995785426636375e-05, "loss": 0.414, "step": 20100 }, { "epoch": 26.813333333333333, "grad_norm": 0.5625, "learning_rate": 9.995781125339755e-05, "loss": 0.3863, "step": 20110 }, { "epoch": 26.826666666666668, "grad_norm": 0.55078125, "learning_rate": 9.99577682185028e-05, "loss": 0.3969, "step": 20120 }, { "epoch": 26.84, "grad_norm": 0.578125, "learning_rate": 9.995772516167952e-05, "loss": 0.4083, "step": 20130 }, { "epoch": 26.85333333333333, "grad_norm": 0.474609375, "learning_rate": 9.995768208292769e-05, "loss": 0.4027, "step": 20140 }, { "epoch": 26.866666666666667, "grad_norm": 0.52734375, "learning_rate": 9.995763898224734e-05, "loss": 0.4073, "step": 20150 }, { "epoch": 26.88, "grad_norm": 0.50390625, "learning_rate": 9.995759585963853e-05, "loss": 0.388, "step": 20160 }, { "epoch": 26.893333333333334, "grad_norm": 0.466796875, "learning_rate": 9.995755271510123e-05, "loss": 0.3977, "step": 20170 }, { "epoch": 26.906666666666666, "grad_norm": 0.498046875, "learning_rate": 9.995750954863548e-05, "loss": 0.407, "step": 20180 }, { "epoch": 26.92, "grad_norm": 0.5859375, "learning_rate": 9.99574663602413e-05, "loss": 0.4092, "step": 20190 }, { "epoch": 26.933333333333334, "grad_norm": 0.458984375, "learning_rate": 9.995742314991872e-05, "loss": 0.4019, "step": 20200 }, { "epoch": 26.946666666666665, "grad_norm": 0.5, "learning_rate": 9.995737991766774e-05, "loss": 0.403, "step": 20210 }, { "epoch": 26.96, "grad_norm": 0.5546875, "learning_rate": 9.995733666348837e-05, "loss": 0.4001, "step": 20220 }, { "epoch": 26.973333333333333, "grad_norm": 0.62109375, "learning_rate": 9.995729338738065e-05, "loss": 0.4239, "step": 20230 }, { "epoch": 26.986666666666668, "grad_norm": 0.51953125, "learning_rate": 9.99572500893446e-05, "loss": 0.3999, "step": 20240 }, { "epoch": 27.0, "grad_norm": 0.51171875, "learning_rate": 9.995720676938023e-05, "loss": 0.3933, "step": 20250 }, { "epoch": 27.0, "eval_loss": 0.43523702025413513, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6986, "eval_samples_per_second": 1.496, "eval_steps_per_second": 0.093, "step": 20250 }, { "epoch": 27.013333333333332, "grad_norm": 0.55078125, "learning_rate": 9.995716342748756e-05, "loss": 0.4132, "step": 20260 }, { "epoch": 27.026666666666667, "grad_norm": 0.52734375, "learning_rate": 9.99571200636666e-05, "loss": 0.4251, "step": 20270 }, { "epoch": 27.04, "grad_norm": 0.54296875, "learning_rate": 9.995707667791738e-05, "loss": 0.4362, "step": 20280 }, { "epoch": 27.053333333333335, "grad_norm": 0.5390625, "learning_rate": 9.995703327023993e-05, "loss": 0.4231, "step": 20290 }, { "epoch": 27.066666666666666, "grad_norm": 0.546875, "learning_rate": 9.995698984063425e-05, "loss": 0.4102, "step": 20300 }, { "epoch": 27.08, "grad_norm": 0.486328125, "learning_rate": 9.995694638910036e-05, "loss": 0.4149, "step": 20310 }, { "epoch": 27.093333333333334, "grad_norm": 0.4765625, "learning_rate": 9.995690291563831e-05, "loss": 0.4143, "step": 20320 }, { "epoch": 27.106666666666666, "grad_norm": 0.47265625, "learning_rate": 9.995685942024806e-05, "loss": 0.4031, "step": 20330 }, { "epoch": 27.12, "grad_norm": 0.5234375, "learning_rate": 9.99568159029297e-05, "loss": 0.4084, "step": 20340 }, { "epoch": 27.133333333333333, "grad_norm": 0.5625, "learning_rate": 9.995677236368317e-05, "loss": 0.4002, "step": 20350 }, { "epoch": 27.14666666666667, "grad_norm": 0.51171875, "learning_rate": 9.995672880250855e-05, "loss": 0.4181, "step": 20360 }, { "epoch": 27.16, "grad_norm": 0.46484375, "learning_rate": 9.995668521940584e-05, "loss": 0.4118, "step": 20370 }, { "epoch": 27.173333333333332, "grad_norm": 0.5703125, "learning_rate": 9.995664161437506e-05, "loss": 0.4074, "step": 20380 }, { "epoch": 27.186666666666667, "grad_norm": 0.52734375, "learning_rate": 9.995659798741623e-05, "loss": 0.406, "step": 20390 }, { "epoch": 27.2, "grad_norm": 0.5390625, "learning_rate": 9.995655433852937e-05, "loss": 0.3982, "step": 20400 }, { "epoch": 27.213333333333335, "grad_norm": 0.54296875, "learning_rate": 9.99565106677145e-05, "loss": 0.3985, "step": 20410 }, { "epoch": 27.226666666666667, "grad_norm": 0.6328125, "learning_rate": 9.995646697497163e-05, "loss": 0.4109, "step": 20420 }, { "epoch": 27.24, "grad_norm": 0.65625, "learning_rate": 9.99564232603008e-05, "loss": 0.3956, "step": 20430 }, { "epoch": 27.253333333333334, "grad_norm": 0.59375, "learning_rate": 9.995637952370198e-05, "loss": 0.3983, "step": 20440 }, { "epoch": 27.266666666666666, "grad_norm": 0.58984375, "learning_rate": 9.995633576517524e-05, "loss": 0.3996, "step": 20450 }, { "epoch": 27.28, "grad_norm": 0.6015625, "learning_rate": 9.99562919847206e-05, "loss": 0.4305, "step": 20460 }, { "epoch": 27.293333333333333, "grad_norm": 0.62109375, "learning_rate": 9.995624818233805e-05, "loss": 0.387, "step": 20470 }, { "epoch": 27.306666666666665, "grad_norm": 0.5390625, "learning_rate": 9.995620435802761e-05, "loss": 0.4096, "step": 20480 }, { "epoch": 27.32, "grad_norm": 0.474609375, "learning_rate": 9.995616051178933e-05, "loss": 0.4108, "step": 20490 }, { "epoch": 27.333333333333332, "grad_norm": 0.5703125, "learning_rate": 9.99561166436232e-05, "loss": 0.4139, "step": 20500 }, { "epoch": 27.346666666666668, "grad_norm": 0.60546875, "learning_rate": 9.995607275352925e-05, "loss": 0.405, "step": 20510 }, { "epoch": 27.36, "grad_norm": 0.5703125, "learning_rate": 9.99560288415075e-05, "loss": 0.407, "step": 20520 }, { "epoch": 27.373333333333335, "grad_norm": 0.46875, "learning_rate": 9.995598490755796e-05, "loss": 0.4065, "step": 20530 }, { "epoch": 27.386666666666667, "grad_norm": 0.5546875, "learning_rate": 9.995594095168065e-05, "loss": 0.3992, "step": 20540 }, { "epoch": 27.4, "grad_norm": 0.53515625, "learning_rate": 9.995589697387561e-05, "loss": 0.4067, "step": 20550 }, { "epoch": 27.413333333333334, "grad_norm": 0.66015625, "learning_rate": 9.995585297414284e-05, "loss": 0.4118, "step": 20560 }, { "epoch": 27.426666666666666, "grad_norm": 0.5390625, "learning_rate": 9.99558089524824e-05, "loss": 0.4125, "step": 20570 }, { "epoch": 27.44, "grad_norm": 0.4921875, "learning_rate": 9.995576490889423e-05, "loss": 0.4248, "step": 20580 }, { "epoch": 27.453333333333333, "grad_norm": 0.55078125, "learning_rate": 9.995572084337841e-05, "loss": 0.4126, "step": 20590 }, { "epoch": 27.466666666666665, "grad_norm": 0.58984375, "learning_rate": 9.995567675593493e-05, "loss": 0.4212, "step": 20600 }, { "epoch": 27.48, "grad_norm": 0.55078125, "learning_rate": 9.995563264656384e-05, "loss": 0.4031, "step": 20610 }, { "epoch": 27.493333333333332, "grad_norm": 0.5234375, "learning_rate": 9.995558851526513e-05, "loss": 0.414, "step": 20620 }, { "epoch": 27.506666666666668, "grad_norm": 0.54296875, "learning_rate": 9.995554436203883e-05, "loss": 0.4116, "step": 20630 }, { "epoch": 27.52, "grad_norm": 0.4921875, "learning_rate": 9.995550018688498e-05, "loss": 0.4037, "step": 20640 }, { "epoch": 27.533333333333335, "grad_norm": 0.5078125, "learning_rate": 9.995545598980356e-05, "loss": 0.4065, "step": 20650 }, { "epoch": 27.546666666666667, "grad_norm": 0.53125, "learning_rate": 9.99554117707946e-05, "loss": 0.4075, "step": 20660 }, { "epoch": 27.56, "grad_norm": 0.45703125, "learning_rate": 9.995536752985815e-05, "loss": 0.4027, "step": 20670 }, { "epoch": 27.573333333333334, "grad_norm": 0.5859375, "learning_rate": 9.995532326699419e-05, "loss": 0.4058, "step": 20680 }, { "epoch": 27.586666666666666, "grad_norm": 0.55078125, "learning_rate": 9.995527898220276e-05, "loss": 0.3943, "step": 20690 }, { "epoch": 27.6, "grad_norm": 0.458984375, "learning_rate": 9.99552346754839e-05, "loss": 0.3961, "step": 20700 }, { "epoch": 27.613333333333333, "grad_norm": 0.52734375, "learning_rate": 9.995519034683758e-05, "loss": 0.3856, "step": 20710 }, { "epoch": 27.626666666666665, "grad_norm": 0.51953125, "learning_rate": 9.995514599626385e-05, "loss": 0.3899, "step": 20720 }, { "epoch": 27.64, "grad_norm": 0.51953125, "learning_rate": 9.995510162376274e-05, "loss": 0.4037, "step": 20730 }, { "epoch": 27.653333333333332, "grad_norm": 0.5234375, "learning_rate": 9.995505722933424e-05, "loss": 0.4142, "step": 20740 }, { "epoch": 27.666666666666668, "grad_norm": 0.5546875, "learning_rate": 9.99550128129784e-05, "loss": 0.3993, "step": 20750 }, { "epoch": 27.68, "grad_norm": 0.61328125, "learning_rate": 9.99549683746952e-05, "loss": 0.3921, "step": 20760 }, { "epoch": 27.693333333333335, "grad_norm": 0.6484375, "learning_rate": 9.99549239144847e-05, "loss": 0.4014, "step": 20770 }, { "epoch": 27.706666666666667, "grad_norm": 0.55078125, "learning_rate": 9.995487943234689e-05, "loss": 0.3951, "step": 20780 }, { "epoch": 27.72, "grad_norm": 0.546875, "learning_rate": 9.995483492828181e-05, "loss": 0.4161, "step": 20790 }, { "epoch": 27.733333333333334, "grad_norm": 0.498046875, "learning_rate": 9.995479040228948e-05, "loss": 0.4105, "step": 20800 }, { "epoch": 27.746666666666666, "grad_norm": 0.59375, "learning_rate": 9.99547458543699e-05, "loss": 0.413, "step": 20810 }, { "epoch": 27.76, "grad_norm": 0.58203125, "learning_rate": 9.995470128452311e-05, "loss": 0.4249, "step": 20820 }, { "epoch": 27.773333333333333, "grad_norm": 0.5625, "learning_rate": 9.99546566927491e-05, "loss": 0.4128, "step": 20830 }, { "epoch": 27.786666666666665, "grad_norm": 0.5078125, "learning_rate": 9.995461207904794e-05, "loss": 0.4129, "step": 20840 }, { "epoch": 27.8, "grad_norm": 0.53125, "learning_rate": 9.99545674434196e-05, "loss": 0.4112, "step": 20850 }, { "epoch": 27.813333333333333, "grad_norm": 0.56640625, "learning_rate": 9.995452278586412e-05, "loss": 0.3853, "step": 20860 }, { "epoch": 27.826666666666668, "grad_norm": 0.51171875, "learning_rate": 9.995447810638152e-05, "loss": 0.3953, "step": 20870 }, { "epoch": 27.84, "grad_norm": 0.55078125, "learning_rate": 9.995443340497181e-05, "loss": 0.4076, "step": 20880 }, { "epoch": 27.85333333333333, "grad_norm": 0.5546875, "learning_rate": 9.995438868163505e-05, "loss": 0.403, "step": 20890 }, { "epoch": 27.866666666666667, "grad_norm": 0.55078125, "learning_rate": 9.99543439363712e-05, "loss": 0.4059, "step": 20900 }, { "epoch": 27.88, "grad_norm": 0.55859375, "learning_rate": 9.995429916918031e-05, "loss": 0.3857, "step": 20910 }, { "epoch": 27.893333333333334, "grad_norm": 0.5078125, "learning_rate": 9.99542543800624e-05, "loss": 0.3976, "step": 20920 }, { "epoch": 27.906666666666666, "grad_norm": 0.57421875, "learning_rate": 9.99542095690175e-05, "loss": 0.405, "step": 20930 }, { "epoch": 27.92, "grad_norm": 0.546875, "learning_rate": 9.995416473604559e-05, "loss": 0.4084, "step": 20940 }, { "epoch": 27.933333333333334, "grad_norm": 0.482421875, "learning_rate": 9.995411988114672e-05, "loss": 0.4, "step": 20950 }, { "epoch": 27.946666666666665, "grad_norm": 0.5390625, "learning_rate": 9.995407500432091e-05, "loss": 0.4008, "step": 20960 }, { "epoch": 27.96, "grad_norm": 0.45703125, "learning_rate": 9.995403010556818e-05, "loss": 0.3983, "step": 20970 }, { "epoch": 27.973333333333333, "grad_norm": 0.59765625, "learning_rate": 9.995398518488854e-05, "loss": 0.4239, "step": 20980 }, { "epoch": 27.986666666666668, "grad_norm": 0.55078125, "learning_rate": 9.995394024228202e-05, "loss": 0.3983, "step": 20990 }, { "epoch": 28.0, "grad_norm": 0.546875, "learning_rate": 9.995389527774863e-05, "loss": 0.3927, "step": 21000 }, { "epoch": 28.0, "eval_loss": 0.4368788003921509, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4238, "eval_samples_per_second": 1.535, "eval_steps_per_second": 0.096, "step": 21000 }, { "epoch": 28.013333333333332, "grad_norm": 0.56640625, "learning_rate": 9.995385029128841e-05, "loss": 0.4113, "step": 21010 }, { "epoch": 28.026666666666667, "grad_norm": 0.49609375, "learning_rate": 9.995380528290135e-05, "loss": 0.4237, "step": 21020 }, { "epoch": 28.04, "grad_norm": 0.55859375, "learning_rate": 9.995376025258747e-05, "loss": 0.4356, "step": 21030 }, { "epoch": 28.053333333333335, "grad_norm": 0.51953125, "learning_rate": 9.995371520034682e-05, "loss": 0.4223, "step": 21040 }, { "epoch": 28.066666666666666, "grad_norm": 0.609375, "learning_rate": 9.99536701261794e-05, "loss": 0.409, "step": 21050 }, { "epoch": 28.08, "grad_norm": 0.5546875, "learning_rate": 9.995362503008523e-05, "loss": 0.4141, "step": 21060 }, { "epoch": 28.093333333333334, "grad_norm": 0.5390625, "learning_rate": 9.995357991206434e-05, "loss": 0.4146, "step": 21070 }, { "epoch": 28.106666666666666, "grad_norm": 0.458984375, "learning_rate": 9.995353477211674e-05, "loss": 0.4027, "step": 21080 }, { "epoch": 28.12, "grad_norm": 0.5234375, "learning_rate": 9.995348961024244e-05, "loss": 0.4073, "step": 21090 }, { "epoch": 28.133333333333333, "grad_norm": 0.5078125, "learning_rate": 9.99534444264415e-05, "loss": 0.3983, "step": 21100 }, { "epoch": 28.14666666666667, "grad_norm": 0.5390625, "learning_rate": 9.99533992207139e-05, "loss": 0.4173, "step": 21110 }, { "epoch": 28.16, "grad_norm": 0.490234375, "learning_rate": 9.995335399305965e-05, "loss": 0.4102, "step": 21120 }, { "epoch": 28.173333333333332, "grad_norm": 0.5625, "learning_rate": 9.995330874347882e-05, "loss": 0.4059, "step": 21130 }, { "epoch": 28.186666666666667, "grad_norm": 0.59375, "learning_rate": 9.995326347197138e-05, "loss": 0.4045, "step": 21140 }, { "epoch": 28.2, "grad_norm": 0.58984375, "learning_rate": 9.995321817853738e-05, "loss": 0.3967, "step": 21150 }, { "epoch": 28.213333333333335, "grad_norm": 0.5546875, "learning_rate": 9.995317286317684e-05, "loss": 0.3973, "step": 21160 }, { "epoch": 28.226666666666667, "grad_norm": 0.5703125, "learning_rate": 9.995312752588976e-05, "loss": 0.4088, "step": 21170 }, { "epoch": 28.24, "grad_norm": 0.625, "learning_rate": 9.995308216667618e-05, "loss": 0.3945, "step": 21180 }, { "epoch": 28.253333333333334, "grad_norm": 0.5703125, "learning_rate": 9.995303678553611e-05, "loss": 0.3966, "step": 21190 }, { "epoch": 28.266666666666666, "grad_norm": 0.51171875, "learning_rate": 9.995299138246956e-05, "loss": 0.3993, "step": 21200 }, { "epoch": 28.28, "grad_norm": 0.5234375, "learning_rate": 9.995294595747657e-05, "loss": 0.428, "step": 21210 }, { "epoch": 28.293333333333333, "grad_norm": 0.546875, "learning_rate": 9.995290051055715e-05, "loss": 0.3854, "step": 21220 }, { "epoch": 28.306666666666665, "grad_norm": 0.53125, "learning_rate": 9.995285504171132e-05, "loss": 0.4082, "step": 21230 }, { "epoch": 28.32, "grad_norm": 0.55078125, "learning_rate": 9.99528095509391e-05, "loss": 0.4099, "step": 21240 }, { "epoch": 28.333333333333332, "grad_norm": 0.578125, "learning_rate": 9.99527640382405e-05, "loss": 0.4144, "step": 21250 }, { "epoch": 28.346666666666668, "grad_norm": 0.57421875, "learning_rate": 9.995271850361557e-05, "loss": 0.4048, "step": 21260 }, { "epoch": 28.36, "grad_norm": 0.56640625, "learning_rate": 9.995267294706429e-05, "loss": 0.4051, "step": 21270 }, { "epoch": 28.373333333333335, "grad_norm": 0.47265625, "learning_rate": 9.995262736858672e-05, "loss": 0.4049, "step": 21280 }, { "epoch": 28.386666666666667, "grad_norm": 0.59375, "learning_rate": 9.995258176818286e-05, "loss": 0.3991, "step": 21290 }, { "epoch": 28.4, "grad_norm": 0.52734375, "learning_rate": 9.995253614585271e-05, "loss": 0.4057, "step": 21300 }, { "epoch": 28.413333333333334, "grad_norm": 0.5859375, "learning_rate": 9.995249050159634e-05, "loss": 0.4092, "step": 21310 }, { "epoch": 28.426666666666666, "grad_norm": 0.55078125, "learning_rate": 9.995244483541372e-05, "loss": 0.4112, "step": 21320 }, { "epoch": 28.44, "grad_norm": 0.5546875, "learning_rate": 9.99523991473049e-05, "loss": 0.423, "step": 21330 }, { "epoch": 28.453333333333333, "grad_norm": 0.5703125, "learning_rate": 9.995235343726988e-05, "loss": 0.4105, "step": 21340 }, { "epoch": 28.466666666666665, "grad_norm": 0.53125, "learning_rate": 9.99523077053087e-05, "loss": 0.4196, "step": 21350 }, { "epoch": 28.48, "grad_norm": 0.5390625, "learning_rate": 9.995226195142138e-05, "loss": 0.4016, "step": 21360 }, { "epoch": 28.493333333333332, "grad_norm": 0.50390625, "learning_rate": 9.995221617560791e-05, "loss": 0.4136, "step": 21370 }, { "epoch": 28.506666666666668, "grad_norm": 0.55078125, "learning_rate": 9.995217037786834e-05, "loss": 0.4107, "step": 21380 }, { "epoch": 28.52, "grad_norm": 0.48046875, "learning_rate": 9.995212455820268e-05, "loss": 0.4019, "step": 21390 }, { "epoch": 28.533333333333335, "grad_norm": 0.494140625, "learning_rate": 9.995207871661097e-05, "loss": 0.4035, "step": 21400 }, { "epoch": 28.546666666666667, "grad_norm": 0.57421875, "learning_rate": 9.995203285309318e-05, "loss": 0.4061, "step": 21410 }, { "epoch": 28.56, "grad_norm": 0.48046875, "learning_rate": 9.995198696764938e-05, "loss": 0.4011, "step": 21420 }, { "epoch": 28.573333333333334, "grad_norm": 0.5859375, "learning_rate": 9.995194106027958e-05, "loss": 0.4041, "step": 21430 }, { "epoch": 28.586666666666666, "grad_norm": 0.52734375, "learning_rate": 9.995189513098377e-05, "loss": 0.3934, "step": 21440 }, { "epoch": 28.6, "grad_norm": 0.51953125, "learning_rate": 9.995184917976201e-05, "loss": 0.395, "step": 21450 }, { "epoch": 28.613333333333333, "grad_norm": 0.45703125, "learning_rate": 9.995180320661429e-05, "loss": 0.3836, "step": 21460 }, { "epoch": 28.626666666666665, "grad_norm": 0.4453125, "learning_rate": 9.995175721154064e-05, "loss": 0.3895, "step": 21470 }, { "epoch": 28.64, "grad_norm": 0.5625, "learning_rate": 9.99517111945411e-05, "loss": 0.4026, "step": 21480 }, { "epoch": 28.653333333333332, "grad_norm": 0.58203125, "learning_rate": 9.995166515561566e-05, "loss": 0.4128, "step": 21490 }, { "epoch": 28.666666666666668, "grad_norm": 0.4921875, "learning_rate": 9.995161909476436e-05, "loss": 0.399, "step": 21500 }, { "epoch": 28.68, "grad_norm": 0.53125, "learning_rate": 9.99515730119872e-05, "loss": 0.3914, "step": 21510 }, { "epoch": 28.693333333333335, "grad_norm": 0.443359375, "learning_rate": 9.995152690728422e-05, "loss": 0.4003, "step": 21520 }, { "epoch": 28.706666666666667, "grad_norm": 0.61328125, "learning_rate": 9.995148078065543e-05, "loss": 0.3925, "step": 21530 }, { "epoch": 28.72, "grad_norm": 0.59375, "learning_rate": 9.995143463210088e-05, "loss": 0.4157, "step": 21540 }, { "epoch": 28.733333333333334, "grad_norm": 0.52734375, "learning_rate": 9.995138846162053e-05, "loss": 0.4091, "step": 21550 }, { "epoch": 28.746666666666666, "grad_norm": 0.5703125, "learning_rate": 9.995134226921445e-05, "loss": 0.4115, "step": 21560 }, { "epoch": 28.76, "grad_norm": 0.53515625, "learning_rate": 9.995129605488265e-05, "loss": 0.4236, "step": 21570 }, { "epoch": 28.773333333333333, "grad_norm": 0.6328125, "learning_rate": 9.995124981862514e-05, "loss": 0.4112, "step": 21580 }, { "epoch": 28.786666666666665, "grad_norm": 0.53515625, "learning_rate": 9.995120356044195e-05, "loss": 0.4116, "step": 21590 }, { "epoch": 28.8, "grad_norm": 0.62109375, "learning_rate": 9.995115728033309e-05, "loss": 0.4109, "step": 21600 }, { "epoch": 28.813333333333333, "grad_norm": 0.59765625, "learning_rate": 9.995111097829856e-05, "loss": 0.3842, "step": 21610 }, { "epoch": 28.826666666666668, "grad_norm": 0.546875, "learning_rate": 9.995106465433845e-05, "loss": 0.3947, "step": 21620 }, { "epoch": 28.84, "grad_norm": 0.5546875, "learning_rate": 9.995101830845271e-05, "loss": 0.4064, "step": 21630 }, { "epoch": 28.85333333333333, "grad_norm": 0.52734375, "learning_rate": 9.99509719406414e-05, "loss": 0.4014, "step": 21640 }, { "epoch": 28.866666666666667, "grad_norm": 0.5, "learning_rate": 9.995092555090453e-05, "loss": 0.4046, "step": 21650 }, { "epoch": 28.88, "grad_norm": 0.46484375, "learning_rate": 9.995087913924211e-05, "loss": 0.3848, "step": 21660 }, { "epoch": 28.893333333333334, "grad_norm": 0.51953125, "learning_rate": 9.995083270565415e-05, "loss": 0.396, "step": 21670 }, { "epoch": 28.906666666666666, "grad_norm": 0.5546875, "learning_rate": 9.995078625014072e-05, "loss": 0.4048, "step": 21680 }, { "epoch": 28.92, "grad_norm": 0.546875, "learning_rate": 9.99507397727018e-05, "loss": 0.4063, "step": 21690 }, { "epoch": 28.933333333333334, "grad_norm": 0.4765625, "learning_rate": 9.995069327333741e-05, "loss": 0.3989, "step": 21700 }, { "epoch": 28.946666666666665, "grad_norm": 0.515625, "learning_rate": 9.995064675204758e-05, "loss": 0.4007, "step": 21710 }, { "epoch": 28.96, "grad_norm": 0.435546875, "learning_rate": 9.995060020883233e-05, "loss": 0.3974, "step": 21720 }, { "epoch": 28.973333333333333, "grad_norm": 0.65625, "learning_rate": 9.995055364369169e-05, "loss": 0.4226, "step": 21730 }, { "epoch": 28.986666666666668, "grad_norm": 0.64453125, "learning_rate": 9.995050705662567e-05, "loss": 0.397, "step": 21740 }, { "epoch": 29.0, "grad_norm": 0.57421875, "learning_rate": 9.995046044763428e-05, "loss": 0.3912, "step": 21750 }, { "epoch": 29.0, "eval_loss": 0.4354892075061798, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6578, "eval_samples_per_second": 1.501, "eval_steps_per_second": 0.094, "step": 21750 }, { "epoch": 29.013333333333332, "grad_norm": 0.5703125, "learning_rate": 9.995041381671756e-05, "loss": 0.4098, "step": 21760 }, { "epoch": 29.026666666666667, "grad_norm": 0.50390625, "learning_rate": 9.995036716387552e-05, "loss": 0.4226, "step": 21770 }, { "epoch": 29.04, "grad_norm": 0.52734375, "learning_rate": 9.995032048910817e-05, "loss": 0.4345, "step": 21780 }, { "epoch": 29.053333333333335, "grad_norm": 0.546875, "learning_rate": 9.995027379241557e-05, "loss": 0.4202, "step": 21790 }, { "epoch": 29.066666666666666, "grad_norm": 0.56640625, "learning_rate": 9.99502270737977e-05, "loss": 0.4079, "step": 21800 }, { "epoch": 29.08, "grad_norm": 0.55078125, "learning_rate": 9.99501803332546e-05, "loss": 0.4121, "step": 21810 }, { "epoch": 29.093333333333334, "grad_norm": 0.5234375, "learning_rate": 9.995013357078626e-05, "loss": 0.4124, "step": 21820 }, { "epoch": 29.106666666666666, "grad_norm": 0.482421875, "learning_rate": 9.995008678639275e-05, "loss": 0.4012, "step": 21830 }, { "epoch": 29.12, "grad_norm": 0.56640625, "learning_rate": 9.995003998007406e-05, "loss": 0.4061, "step": 21840 }, { "epoch": 29.133333333333333, "grad_norm": 0.53515625, "learning_rate": 9.994999315183023e-05, "loss": 0.3976, "step": 21850 }, { "epoch": 29.14666666666667, "grad_norm": 0.57421875, "learning_rate": 9.994994630166125e-05, "loss": 0.4166, "step": 21860 }, { "epoch": 29.16, "grad_norm": 0.498046875, "learning_rate": 9.994989942956716e-05, "loss": 0.4091, "step": 21870 }, { "epoch": 29.173333333333332, "grad_norm": 0.5625, "learning_rate": 9.994985253554798e-05, "loss": 0.4039, "step": 21880 }, { "epoch": 29.186666666666667, "grad_norm": 0.5234375, "learning_rate": 9.994980561960372e-05, "loss": 0.4027, "step": 21890 }, { "epoch": 29.2, "grad_norm": 0.4921875, "learning_rate": 9.994975868173442e-05, "loss": 0.3973, "step": 21900 }, { "epoch": 29.213333333333335, "grad_norm": 0.55859375, "learning_rate": 9.994971172194009e-05, "loss": 0.3968, "step": 21910 }, { "epoch": 29.226666666666667, "grad_norm": 0.58984375, "learning_rate": 9.994966474022076e-05, "loss": 0.4071, "step": 21920 }, { "epoch": 29.24, "grad_norm": 0.6328125, "learning_rate": 9.994961773657641e-05, "loss": 0.3939, "step": 21930 }, { "epoch": 29.253333333333334, "grad_norm": 0.5703125, "learning_rate": 9.994957071100713e-05, "loss": 0.3966, "step": 21940 }, { "epoch": 29.266666666666666, "grad_norm": 0.498046875, "learning_rate": 9.994952366351286e-05, "loss": 0.3979, "step": 21950 }, { "epoch": 29.28, "grad_norm": 0.546875, "learning_rate": 9.99494765940937e-05, "loss": 0.4278, "step": 21960 }, { "epoch": 29.293333333333333, "grad_norm": 0.51953125, "learning_rate": 9.994942950274961e-05, "loss": 0.3844, "step": 21970 }, { "epoch": 29.306666666666665, "grad_norm": 0.515625, "learning_rate": 9.994938238948064e-05, "loss": 0.4067, "step": 21980 }, { "epoch": 29.32, "grad_norm": 0.515625, "learning_rate": 9.994933525428682e-05, "loss": 0.4083, "step": 21990 }, { "epoch": 29.333333333333332, "grad_norm": 0.609375, "learning_rate": 9.994928809716814e-05, "loss": 0.4119, "step": 22000 }, { "epoch": 29.346666666666668, "grad_norm": 0.57421875, "learning_rate": 9.994924091812464e-05, "loss": 0.4032, "step": 22010 }, { "epoch": 29.36, "grad_norm": 0.62109375, "learning_rate": 9.994919371715634e-05, "loss": 0.4041, "step": 22020 }, { "epoch": 29.373333333333335, "grad_norm": 0.51171875, "learning_rate": 9.994914649426325e-05, "loss": 0.4043, "step": 22030 }, { "epoch": 29.386666666666667, "grad_norm": 0.61328125, "learning_rate": 9.99490992494454e-05, "loss": 0.3964, "step": 22040 }, { "epoch": 29.4, "grad_norm": 0.5234375, "learning_rate": 9.994905198270281e-05, "loss": 0.4036, "step": 22050 }, { "epoch": 29.413333333333334, "grad_norm": 0.57421875, "learning_rate": 9.994900469403553e-05, "loss": 0.409, "step": 22060 }, { "epoch": 29.426666666666666, "grad_norm": 0.51171875, "learning_rate": 9.99489573834435e-05, "loss": 0.4098, "step": 22070 }, { "epoch": 29.44, "grad_norm": 0.55859375, "learning_rate": 9.994891005092683e-05, "loss": 0.4224, "step": 22080 }, { "epoch": 29.453333333333333, "grad_norm": 0.6640625, "learning_rate": 9.994886269648548e-05, "loss": 0.4104, "step": 22090 }, { "epoch": 29.466666666666665, "grad_norm": 0.474609375, "learning_rate": 9.994881532011951e-05, "loss": 0.4203, "step": 22100 }, { "epoch": 29.48, "grad_norm": 0.50390625, "learning_rate": 9.99487679218289e-05, "loss": 0.4007, "step": 22110 }, { "epoch": 29.493333333333332, "grad_norm": 0.5390625, "learning_rate": 9.994872050161372e-05, "loss": 0.4118, "step": 22120 }, { "epoch": 29.506666666666668, "grad_norm": 0.53125, "learning_rate": 9.994867305947396e-05, "loss": 0.4098, "step": 22130 }, { "epoch": 29.52, "grad_norm": 0.46875, "learning_rate": 9.994862559540962e-05, "loss": 0.4005, "step": 22140 }, { "epoch": 29.533333333333335, "grad_norm": 0.48046875, "learning_rate": 9.994857810942078e-05, "loss": 0.4038, "step": 22150 }, { "epoch": 29.546666666666667, "grad_norm": 0.578125, "learning_rate": 9.994853060150742e-05, "loss": 0.4044, "step": 22160 }, { "epoch": 29.56, "grad_norm": 0.439453125, "learning_rate": 9.994848307166958e-05, "loss": 0.3991, "step": 22170 }, { "epoch": 29.573333333333334, "grad_norm": 0.57421875, "learning_rate": 9.994843551990725e-05, "loss": 0.4037, "step": 22180 }, { "epoch": 29.586666666666666, "grad_norm": 0.51171875, "learning_rate": 9.994838794622046e-05, "loss": 0.3925, "step": 22190 }, { "epoch": 29.6, "grad_norm": 0.515625, "learning_rate": 9.994834035060927e-05, "loss": 0.394, "step": 22200 }, { "epoch": 29.613333333333333, "grad_norm": 0.50390625, "learning_rate": 9.994829273307366e-05, "loss": 0.3835, "step": 22210 }, { "epoch": 29.626666666666665, "grad_norm": 0.423828125, "learning_rate": 9.994824509361366e-05, "loss": 0.3882, "step": 22220 }, { "epoch": 29.64, "grad_norm": 0.55078125, "learning_rate": 9.99481974322293e-05, "loss": 0.4009, "step": 22230 }, { "epoch": 29.653333333333332, "grad_norm": 0.62890625, "learning_rate": 9.994814974892059e-05, "loss": 0.411, "step": 22240 }, { "epoch": 29.666666666666668, "grad_norm": 0.5859375, "learning_rate": 9.994810204368756e-05, "loss": 0.3966, "step": 22250 }, { "epoch": 29.68, "grad_norm": 0.51953125, "learning_rate": 9.994805431653022e-05, "loss": 0.3904, "step": 22260 }, { "epoch": 29.693333333333335, "grad_norm": 0.484375, "learning_rate": 9.994800656744861e-05, "loss": 0.3987, "step": 22270 }, { "epoch": 29.706666666666667, "grad_norm": 0.56640625, "learning_rate": 9.994795879644274e-05, "loss": 0.3927, "step": 22280 }, { "epoch": 29.72, "grad_norm": 0.609375, "learning_rate": 9.994791100351261e-05, "loss": 0.4141, "step": 22290 }, { "epoch": 29.733333333333334, "grad_norm": 0.57421875, "learning_rate": 9.994786318865827e-05, "loss": 0.4081, "step": 22300 }, { "epoch": 29.746666666666666, "grad_norm": 0.578125, "learning_rate": 9.994781535187973e-05, "loss": 0.4097, "step": 22310 }, { "epoch": 29.76, "grad_norm": 0.5546875, "learning_rate": 9.994776749317703e-05, "loss": 0.4214, "step": 22320 }, { "epoch": 29.773333333333333, "grad_norm": 0.5859375, "learning_rate": 9.994771961255016e-05, "loss": 0.4103, "step": 22330 }, { "epoch": 29.786666666666665, "grad_norm": 0.51171875, "learning_rate": 9.994767170999916e-05, "loss": 0.4101, "step": 22340 }, { "epoch": 29.8, "grad_norm": 0.55078125, "learning_rate": 9.994762378552405e-05, "loss": 0.4091, "step": 22350 }, { "epoch": 29.813333333333333, "grad_norm": 0.6640625, "learning_rate": 9.994757583912483e-05, "loss": 0.3826, "step": 22360 }, { "epoch": 29.826666666666668, "grad_norm": 0.59375, "learning_rate": 9.994752787080155e-05, "loss": 0.3923, "step": 22370 }, { "epoch": 29.84, "grad_norm": 0.671875, "learning_rate": 9.994747988055422e-05, "loss": 0.4049, "step": 22380 }, { "epoch": 29.85333333333333, "grad_norm": 0.6796875, "learning_rate": 9.994743186838285e-05, "loss": 0.4006, "step": 22390 }, { "epoch": 29.866666666666667, "grad_norm": 0.57421875, "learning_rate": 9.994738383428748e-05, "loss": 0.4036, "step": 22400 }, { "epoch": 29.88, "grad_norm": 0.48046875, "learning_rate": 9.994733577826812e-05, "loss": 0.3849, "step": 22410 }, { "epoch": 29.893333333333334, "grad_norm": 0.6171875, "learning_rate": 9.99472877003248e-05, "loss": 0.3951, "step": 22420 }, { "epoch": 29.906666666666666, "grad_norm": 0.55078125, "learning_rate": 9.994723960045753e-05, "loss": 0.4036, "step": 22430 }, { "epoch": 29.92, "grad_norm": 0.56640625, "learning_rate": 9.994719147866632e-05, "loss": 0.4052, "step": 22440 }, { "epoch": 29.933333333333334, "grad_norm": 0.52734375, "learning_rate": 9.994714333495123e-05, "loss": 0.398, "step": 22450 }, { "epoch": 29.946666666666665, "grad_norm": 0.5234375, "learning_rate": 9.994709516931225e-05, "loss": 0.4, "step": 22460 }, { "epoch": 29.96, "grad_norm": 0.494140625, "learning_rate": 9.99470469817494e-05, "loss": 0.3964, "step": 22470 }, { "epoch": 29.973333333333333, "grad_norm": 0.6875, "learning_rate": 9.994699877226272e-05, "loss": 0.4217, "step": 22480 }, { "epoch": 29.986666666666668, "grad_norm": 0.55078125, "learning_rate": 9.994695054085221e-05, "loss": 0.396, "step": 22490 }, { "epoch": 30.0, "grad_norm": 0.5390625, "learning_rate": 9.994690228751792e-05, "loss": 0.3907, "step": 22500 }, { "epoch": 30.0, "eval_loss": 0.4333653151988983, "eval_model_preparation_time": 0.0042, "eval_runtime": 9.5788, "eval_samples_per_second": 1.67, "eval_steps_per_second": 0.104, "step": 22500 }, { "epoch": 30.013333333333332, "grad_norm": 0.5703125, "learning_rate": 9.994685401225984e-05, "loss": 0.4096, "step": 22510 }, { "epoch": 30.026666666666667, "grad_norm": 0.5234375, "learning_rate": 9.994680571507801e-05, "loss": 0.4215, "step": 22520 }, { "epoch": 30.04, "grad_norm": 0.48046875, "learning_rate": 9.994675739597245e-05, "loss": 0.4336, "step": 22530 }, { "epoch": 30.053333333333335, "grad_norm": 0.54296875, "learning_rate": 9.994670905494317e-05, "loss": 0.4192, "step": 22540 }, { "epoch": 30.066666666666666, "grad_norm": 0.6484375, "learning_rate": 9.99466606919902e-05, "loss": 0.4072, "step": 22550 }, { "epoch": 30.08, "grad_norm": 0.53125, "learning_rate": 9.994661230711355e-05, "loss": 0.4096, "step": 22560 }, { "epoch": 30.093333333333334, "grad_norm": 0.498046875, "learning_rate": 9.994656390031327e-05, "loss": 0.4118, "step": 22570 }, { "epoch": 30.106666666666666, "grad_norm": 0.494140625, "learning_rate": 9.994651547158936e-05, "loss": 0.3988, "step": 22580 }, { "epoch": 30.12, "grad_norm": 0.5546875, "learning_rate": 9.994646702094184e-05, "loss": 0.4042, "step": 22590 }, { "epoch": 30.133333333333333, "grad_norm": 0.5625, "learning_rate": 9.994641854837072e-05, "loss": 0.3959, "step": 22600 }, { "epoch": 30.14666666666667, "grad_norm": 0.5703125, "learning_rate": 9.994637005387605e-05, "loss": 0.4147, "step": 22610 }, { "epoch": 30.16, "grad_norm": 0.5234375, "learning_rate": 9.994632153745784e-05, "loss": 0.4079, "step": 22620 }, { "epoch": 30.173333333333332, "grad_norm": 0.49609375, "learning_rate": 9.994627299911609e-05, "loss": 0.4038, "step": 22630 }, { "epoch": 30.186666666666667, "grad_norm": 0.5703125, "learning_rate": 9.994622443885087e-05, "loss": 0.4018, "step": 22640 }, { "epoch": 30.2, "grad_norm": 0.59375, "learning_rate": 9.994617585666215e-05, "loss": 0.3952, "step": 22650 }, { "epoch": 30.213333333333335, "grad_norm": 0.56640625, "learning_rate": 9.994612725254998e-05, "loss": 0.3959, "step": 22660 }, { "epoch": 30.226666666666667, "grad_norm": 0.53515625, "learning_rate": 9.994607862651438e-05, "loss": 0.4067, "step": 22670 }, { "epoch": 30.24, "grad_norm": 0.5234375, "learning_rate": 9.994602997855533e-05, "loss": 0.392, "step": 22680 }, { "epoch": 30.253333333333334, "grad_norm": 0.5859375, "learning_rate": 9.994598130867292e-05, "loss": 0.3955, "step": 22690 }, { "epoch": 30.266666666666666, "grad_norm": 0.5703125, "learning_rate": 9.994593261686713e-05, "loss": 0.3963, "step": 22700 }, { "epoch": 30.28, "grad_norm": 0.58203125, "learning_rate": 9.9945883903138e-05, "loss": 0.4267, "step": 22710 }, { "epoch": 30.293333333333333, "grad_norm": 0.50390625, "learning_rate": 9.994583516748552e-05, "loss": 0.3828, "step": 22720 }, { "epoch": 30.306666666666665, "grad_norm": 0.47265625, "learning_rate": 9.994578640990975e-05, "loss": 0.406, "step": 22730 }, { "epoch": 30.32, "grad_norm": 0.451171875, "learning_rate": 9.994573763041068e-05, "loss": 0.4066, "step": 22740 }, { "epoch": 30.333333333333332, "grad_norm": 0.5859375, "learning_rate": 9.994568882898835e-05, "loss": 0.4113, "step": 22750 }, { "epoch": 30.346666666666668, "grad_norm": 0.640625, "learning_rate": 9.994564000564277e-05, "loss": 0.4016, "step": 22760 }, { "epoch": 30.36, "grad_norm": 0.5859375, "learning_rate": 9.994559116037398e-05, "loss": 0.4028, "step": 22770 }, { "epoch": 30.373333333333335, "grad_norm": 0.5546875, "learning_rate": 9.994554229318198e-05, "loss": 0.4032, "step": 22780 }, { "epoch": 30.386666666666667, "grad_norm": 0.5546875, "learning_rate": 9.994549340406681e-05, "loss": 0.396, "step": 22790 }, { "epoch": 30.4, "grad_norm": 0.57421875, "learning_rate": 9.994544449302848e-05, "loss": 0.4036, "step": 22800 }, { "epoch": 30.413333333333334, "grad_norm": 0.5078125, "learning_rate": 9.994539556006701e-05, "loss": 0.4073, "step": 22810 }, { "epoch": 30.426666666666666, "grad_norm": 0.6015625, "learning_rate": 9.994534660518243e-05, "loss": 0.4099, "step": 22820 }, { "epoch": 30.44, "grad_norm": 0.6171875, "learning_rate": 9.994529762837475e-05, "loss": 0.4209, "step": 22830 }, { "epoch": 30.453333333333333, "grad_norm": 0.5703125, "learning_rate": 9.994524862964398e-05, "loss": 0.4084, "step": 22840 }, { "epoch": 30.466666666666665, "grad_norm": 0.5234375, "learning_rate": 9.994519960899019e-05, "loss": 0.4183, "step": 22850 }, { "epoch": 30.48, "grad_norm": 0.50390625, "learning_rate": 9.994515056641336e-05, "loss": 0.4007, "step": 22860 }, { "epoch": 30.493333333333332, "grad_norm": 0.51953125, "learning_rate": 9.994510150191352e-05, "loss": 0.4107, "step": 22870 }, { "epoch": 30.506666666666668, "grad_norm": 0.56640625, "learning_rate": 9.994505241549071e-05, "loss": 0.409, "step": 22880 }, { "epoch": 30.52, "grad_norm": 0.458984375, "learning_rate": 9.994500330714492e-05, "loss": 0.3997, "step": 22890 }, { "epoch": 30.533333333333335, "grad_norm": 0.5546875, "learning_rate": 9.994495417687617e-05, "loss": 0.403, "step": 22900 }, { "epoch": 30.546666666666667, "grad_norm": 0.640625, "learning_rate": 9.994490502468453e-05, "loss": 0.4045, "step": 22910 }, { "epoch": 30.56, "grad_norm": 0.55859375, "learning_rate": 9.994485585056997e-05, "loss": 0.3992, "step": 22920 }, { "epoch": 30.573333333333334, "grad_norm": 0.5390625, "learning_rate": 9.994480665453254e-05, "loss": 0.4013, "step": 22930 }, { "epoch": 30.586666666666666, "grad_norm": 0.515625, "learning_rate": 9.994475743657226e-05, "loss": 0.3906, "step": 22940 }, { "epoch": 30.6, "grad_norm": 0.51953125, "learning_rate": 9.994470819668914e-05, "loss": 0.3919, "step": 22950 }, { "epoch": 30.613333333333333, "grad_norm": 0.490234375, "learning_rate": 9.994465893488321e-05, "loss": 0.3818, "step": 22960 }, { "epoch": 30.626666666666665, "grad_norm": 0.482421875, "learning_rate": 9.994460965115447e-05, "loss": 0.387, "step": 22970 }, { "epoch": 30.64, "grad_norm": 0.57421875, "learning_rate": 9.994456034550298e-05, "loss": 0.4003, "step": 22980 }, { "epoch": 30.653333333333332, "grad_norm": 0.6015625, "learning_rate": 9.994451101792873e-05, "loss": 0.4102, "step": 22990 }, { "epoch": 30.666666666666668, "grad_norm": 0.55078125, "learning_rate": 9.994446166843176e-05, "loss": 0.3979, "step": 23000 }, { "epoch": 30.68, "grad_norm": 0.60546875, "learning_rate": 9.994441229701207e-05, "loss": 0.3882, "step": 23010 }, { "epoch": 30.693333333333335, "grad_norm": 0.51171875, "learning_rate": 9.994436290366972e-05, "loss": 0.3978, "step": 23020 }, { "epoch": 30.706666666666667, "grad_norm": 0.58984375, "learning_rate": 9.99443134884047e-05, "loss": 0.3913, "step": 23030 }, { "epoch": 30.72, "grad_norm": 0.546875, "learning_rate": 9.994426405121704e-05, "loss": 0.4134, "step": 23040 }, { "epoch": 30.733333333333334, "grad_norm": 0.58203125, "learning_rate": 9.994421459210677e-05, "loss": 0.4069, "step": 23050 }, { "epoch": 30.746666666666666, "grad_norm": 0.4765625, "learning_rate": 9.994416511107388e-05, "loss": 0.4091, "step": 23060 }, { "epoch": 30.76, "grad_norm": 0.5546875, "learning_rate": 9.994411560811843e-05, "loss": 0.4215, "step": 23070 }, { "epoch": 30.773333333333333, "grad_norm": 0.5703125, "learning_rate": 9.994406608324043e-05, "loss": 0.4082, "step": 23080 }, { "epoch": 30.786666666666665, "grad_norm": 0.5, "learning_rate": 9.99440165364399e-05, "loss": 0.4093, "step": 23090 }, { "epoch": 30.8, "grad_norm": 0.69140625, "learning_rate": 9.994396696771684e-05, "loss": 0.4075, "step": 23100 }, { "epoch": 30.813333333333333, "grad_norm": 0.61328125, "learning_rate": 9.994391737707132e-05, "loss": 0.3818, "step": 23110 }, { "epoch": 30.826666666666668, "grad_norm": 0.51953125, "learning_rate": 9.994386776450331e-05, "loss": 0.393, "step": 23120 }, { "epoch": 30.84, "grad_norm": 0.60546875, "learning_rate": 9.994381813001286e-05, "loss": 0.4042, "step": 23130 }, { "epoch": 30.85333333333333, "grad_norm": 0.59765625, "learning_rate": 9.99437684736e-05, "loss": 0.3994, "step": 23140 }, { "epoch": 30.866666666666667, "grad_norm": 0.6015625, "learning_rate": 9.994371879526473e-05, "loss": 0.4031, "step": 23150 }, { "epoch": 30.88, "grad_norm": 0.494140625, "learning_rate": 9.994366909500709e-05, "loss": 0.3822, "step": 23160 }, { "epoch": 30.893333333333334, "grad_norm": 0.515625, "learning_rate": 9.994361937282708e-05, "loss": 0.3943, "step": 23170 }, { "epoch": 30.906666666666666, "grad_norm": 0.5703125, "learning_rate": 9.994356962872474e-05, "loss": 0.4024, "step": 23180 }, { "epoch": 30.92, "grad_norm": 0.5859375, "learning_rate": 9.994351986270009e-05, "loss": 0.4042, "step": 23190 }, { "epoch": 30.933333333333334, "grad_norm": 0.478515625, "learning_rate": 9.994347007475315e-05, "loss": 0.3973, "step": 23200 }, { "epoch": 30.946666666666665, "grad_norm": 0.52734375, "learning_rate": 9.994342026488393e-05, "loss": 0.3976, "step": 23210 }, { "epoch": 30.96, "grad_norm": 0.490234375, "learning_rate": 9.994337043309246e-05, "loss": 0.3945, "step": 23220 }, { "epoch": 30.973333333333333, "grad_norm": 0.66015625, "learning_rate": 9.994332057937877e-05, "loss": 0.4206, "step": 23230 }, { "epoch": 30.986666666666668, "grad_norm": 0.578125, "learning_rate": 9.994327070374288e-05, "loss": 0.3949, "step": 23240 }, { "epoch": 31.0, "grad_norm": 0.60546875, "learning_rate": 9.994322080618481e-05, "loss": 0.3894, "step": 23250 }, { "epoch": 31.0, "eval_loss": 0.43373626470565796, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4502, "eval_samples_per_second": 1.531, "eval_steps_per_second": 0.096, "step": 23250 }, { "epoch": 31.013333333333332, "grad_norm": 0.61328125, "learning_rate": 9.994317088670457e-05, "loss": 0.4081, "step": 23260 }, { "epoch": 31.026666666666667, "grad_norm": 0.55078125, "learning_rate": 9.994312094530221e-05, "loss": 0.4202, "step": 23270 }, { "epoch": 31.04, "grad_norm": 0.5078125, "learning_rate": 9.99430709819777e-05, "loss": 0.4332, "step": 23280 }, { "epoch": 31.053333333333335, "grad_norm": 0.58984375, "learning_rate": 9.994302099673112e-05, "loss": 0.4194, "step": 23290 }, { "epoch": 31.066666666666666, "grad_norm": 0.62109375, "learning_rate": 9.994297098956246e-05, "loss": 0.4056, "step": 23300 }, { "epoch": 31.08, "grad_norm": 0.57421875, "learning_rate": 9.994292096047176e-05, "loss": 0.4101, "step": 23310 }, { "epoch": 31.093333333333334, "grad_norm": 0.59375, "learning_rate": 9.994287090945902e-05, "loss": 0.4109, "step": 23320 }, { "epoch": 31.106666666666666, "grad_norm": 0.54296875, "learning_rate": 9.994282083652427e-05, "loss": 0.3989, "step": 23330 }, { "epoch": 31.12, "grad_norm": 0.5390625, "learning_rate": 9.994277074166754e-05, "loss": 0.4035, "step": 23340 }, { "epoch": 31.133333333333333, "grad_norm": 0.53125, "learning_rate": 9.994272062488885e-05, "loss": 0.3948, "step": 23350 }, { "epoch": 31.14666666666667, "grad_norm": 0.5546875, "learning_rate": 9.994267048618822e-05, "loss": 0.4142, "step": 23360 }, { "epoch": 31.16, "grad_norm": 0.5546875, "learning_rate": 9.994262032556567e-05, "loss": 0.4079, "step": 23370 }, { "epoch": 31.173333333333332, "grad_norm": 0.55859375, "learning_rate": 9.994257014302121e-05, "loss": 0.4016, "step": 23380 }, { "epoch": 31.186666666666667, "grad_norm": 0.57421875, "learning_rate": 9.99425199385549e-05, "loss": 0.401, "step": 23390 }, { "epoch": 31.2, "grad_norm": 0.55078125, "learning_rate": 9.994246971216672e-05, "loss": 0.3937, "step": 23400 }, { "epoch": 31.213333333333335, "grad_norm": 0.55078125, "learning_rate": 9.99424194638567e-05, "loss": 0.3951, "step": 23410 }, { "epoch": 31.226666666666667, "grad_norm": 0.58203125, "learning_rate": 9.994236919362489e-05, "loss": 0.4069, "step": 23420 }, { "epoch": 31.24, "grad_norm": 0.57421875, "learning_rate": 9.99423189014713e-05, "loss": 0.3916, "step": 23430 }, { "epoch": 31.253333333333334, "grad_norm": 0.55078125, "learning_rate": 9.994226858739592e-05, "loss": 0.393, "step": 23440 }, { "epoch": 31.266666666666666, "grad_norm": 0.546875, "learning_rate": 9.994221825139882e-05, "loss": 0.3945, "step": 23450 }, { "epoch": 31.28, "grad_norm": 0.56640625, "learning_rate": 9.994216789347999e-05, "loss": 0.4248, "step": 23460 }, { "epoch": 31.293333333333333, "grad_norm": 0.58203125, "learning_rate": 9.994211751363946e-05, "loss": 0.3824, "step": 23470 }, { "epoch": 31.306666666666665, "grad_norm": 0.55078125, "learning_rate": 9.994206711187725e-05, "loss": 0.4052, "step": 23480 }, { "epoch": 31.32, "grad_norm": 0.55078125, "learning_rate": 9.99420166881934e-05, "loss": 0.4072, "step": 23490 }, { "epoch": 31.333333333333332, "grad_norm": 0.5703125, "learning_rate": 9.99419662425879e-05, "loss": 0.4102, "step": 23500 }, { "epoch": 31.346666666666668, "grad_norm": 0.65625, "learning_rate": 9.99419157750608e-05, "loss": 0.4006, "step": 23510 }, { "epoch": 31.36, "grad_norm": 0.63671875, "learning_rate": 9.994186528561211e-05, "loss": 0.4028, "step": 23520 }, { "epoch": 31.373333333333335, "grad_norm": 0.44140625, "learning_rate": 9.994181477424187e-05, "loss": 0.402, "step": 23530 }, { "epoch": 31.386666666666667, "grad_norm": 0.59375, "learning_rate": 9.994176424095008e-05, "loss": 0.3948, "step": 23540 }, { "epoch": 31.4, "grad_norm": 0.546875, "learning_rate": 9.994171368573675e-05, "loss": 0.4029, "step": 23550 }, { "epoch": 31.413333333333334, "grad_norm": 0.5390625, "learning_rate": 9.994166310860193e-05, "loss": 0.4062, "step": 23560 }, { "epoch": 31.426666666666666, "grad_norm": 0.5703125, "learning_rate": 9.994161250954563e-05, "loss": 0.4075, "step": 23570 }, { "epoch": 31.44, "grad_norm": 0.5625, "learning_rate": 9.99415618885679e-05, "loss": 0.4207, "step": 23580 }, { "epoch": 31.453333333333333, "grad_norm": 0.640625, "learning_rate": 9.994151124566871e-05, "loss": 0.408, "step": 23590 }, { "epoch": 31.466666666666665, "grad_norm": 0.51171875, "learning_rate": 9.994146058084813e-05, "loss": 0.417, "step": 23600 }, { "epoch": 31.48, "grad_norm": 0.52734375, "learning_rate": 9.994140989410614e-05, "loss": 0.3984, "step": 23610 }, { "epoch": 31.493333333333332, "grad_norm": 0.53125, "learning_rate": 9.99413591854428e-05, "loss": 0.4108, "step": 23620 }, { "epoch": 31.506666666666668, "grad_norm": 0.50390625, "learning_rate": 9.994130845485812e-05, "loss": 0.4077, "step": 23630 }, { "epoch": 31.52, "grad_norm": 0.4765625, "learning_rate": 9.99412577023521e-05, "loss": 0.399, "step": 23640 }, { "epoch": 31.533333333333335, "grad_norm": 0.546875, "learning_rate": 9.994120692792481e-05, "loss": 0.4015, "step": 23650 }, { "epoch": 31.546666666666667, "grad_norm": 0.61328125, "learning_rate": 9.994115613157623e-05, "loss": 0.403, "step": 23660 }, { "epoch": 31.56, "grad_norm": 0.5234375, "learning_rate": 9.994110531330639e-05, "loss": 0.3971, "step": 23670 }, { "epoch": 31.573333333333334, "grad_norm": 0.5703125, "learning_rate": 9.994105447311532e-05, "loss": 0.401, "step": 23680 }, { "epoch": 31.586666666666666, "grad_norm": 0.54296875, "learning_rate": 9.994100361100304e-05, "loss": 0.3895, "step": 23690 }, { "epoch": 31.6, "grad_norm": 0.53125, "learning_rate": 9.994095272696958e-05, "loss": 0.3921, "step": 23700 }, { "epoch": 31.613333333333333, "grad_norm": 0.55859375, "learning_rate": 9.994090182101494e-05, "loss": 0.3802, "step": 23710 }, { "epoch": 31.626666666666665, "grad_norm": 0.4609375, "learning_rate": 9.994085089313917e-05, "loss": 0.3864, "step": 23720 }, { "epoch": 31.64, "grad_norm": 0.58203125, "learning_rate": 9.994079994334227e-05, "loss": 0.3983, "step": 23730 }, { "epoch": 31.653333333333332, "grad_norm": 0.5390625, "learning_rate": 9.994074897162429e-05, "loss": 0.4099, "step": 23740 }, { "epoch": 31.666666666666668, "grad_norm": 0.515625, "learning_rate": 9.994069797798522e-05, "loss": 0.3955, "step": 23750 }, { "epoch": 31.68, "grad_norm": 0.54296875, "learning_rate": 9.994064696242512e-05, "loss": 0.388, "step": 23760 }, { "epoch": 31.693333333333335, "grad_norm": 0.484375, "learning_rate": 9.994059592494396e-05, "loss": 0.397, "step": 23770 }, { "epoch": 31.706666666666667, "grad_norm": 0.5859375, "learning_rate": 9.99405448655418e-05, "loss": 0.3895, "step": 23780 }, { "epoch": 31.72, "grad_norm": 0.60546875, "learning_rate": 9.994049378421865e-05, "loss": 0.4126, "step": 23790 }, { "epoch": 31.733333333333334, "grad_norm": 0.55078125, "learning_rate": 9.994044268097455e-05, "loss": 0.4059, "step": 23800 }, { "epoch": 31.746666666666666, "grad_norm": 0.68359375, "learning_rate": 9.99403915558095e-05, "loss": 0.4086, "step": 23810 }, { "epoch": 31.76, "grad_norm": 0.6015625, "learning_rate": 9.994034040872353e-05, "loss": 0.4202, "step": 23820 }, { "epoch": 31.773333333333333, "grad_norm": 0.5703125, "learning_rate": 9.994028923971667e-05, "loss": 0.4083, "step": 23830 }, { "epoch": 31.786666666666665, "grad_norm": 0.5, "learning_rate": 9.994023804878894e-05, "loss": 0.4081, "step": 23840 }, { "epoch": 31.8, "grad_norm": 0.5234375, "learning_rate": 9.994018683594035e-05, "loss": 0.408, "step": 23850 }, { "epoch": 31.813333333333333, "grad_norm": 0.67578125, "learning_rate": 9.994013560117093e-05, "loss": 0.3804, "step": 23860 }, { "epoch": 31.826666666666668, "grad_norm": 0.578125, "learning_rate": 9.99400843444807e-05, "loss": 0.3913, "step": 23870 }, { "epoch": 31.84, "grad_norm": 0.58984375, "learning_rate": 9.99400330658697e-05, "loss": 0.4022, "step": 23880 }, { "epoch": 31.85333333333333, "grad_norm": 0.546875, "learning_rate": 9.993998176533794e-05, "loss": 0.3983, "step": 23890 }, { "epoch": 31.866666666666667, "grad_norm": 0.59765625, "learning_rate": 9.993993044288544e-05, "loss": 0.4016, "step": 23900 }, { "epoch": 31.88, "grad_norm": 0.52734375, "learning_rate": 9.993987909851221e-05, "loss": 0.3822, "step": 23910 }, { "epoch": 31.893333333333334, "grad_norm": 0.54296875, "learning_rate": 9.993982773221828e-05, "loss": 0.3937, "step": 23920 }, { "epoch": 31.906666666666666, "grad_norm": 0.5625, "learning_rate": 9.993977634400371e-05, "loss": 0.401, "step": 23930 }, { "epoch": 31.92, "grad_norm": 0.58984375, "learning_rate": 9.993972493386847e-05, "loss": 0.4026, "step": 23940 }, { "epoch": 31.933333333333334, "grad_norm": 0.53125, "learning_rate": 9.993967350181261e-05, "loss": 0.3956, "step": 23950 }, { "epoch": 31.946666666666665, "grad_norm": 0.53125, "learning_rate": 9.993962204783614e-05, "loss": 0.3976, "step": 23960 }, { "epoch": 31.96, "grad_norm": 0.51953125, "learning_rate": 9.99395705719391e-05, "loss": 0.3951, "step": 23970 }, { "epoch": 31.973333333333333, "grad_norm": 0.6953125, "learning_rate": 9.993951907412149e-05, "loss": 0.4193, "step": 23980 }, { "epoch": 31.986666666666668, "grad_norm": 0.546875, "learning_rate": 9.993946755438335e-05, "loss": 0.3933, "step": 23990 }, { "epoch": 32.0, "grad_norm": 0.609375, "learning_rate": 9.99394160127247e-05, "loss": 0.3886, "step": 24000 }, { "epoch": 32.0, "eval_loss": 0.4348486661911011, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.1921, "eval_samples_per_second": 1.57, "eval_steps_per_second": 0.098, "step": 24000 }, { "epoch": 32.013333333333335, "grad_norm": 0.58203125, "learning_rate": 9.993936444914555e-05, "loss": 0.4066, "step": 24010 }, { "epoch": 32.026666666666664, "grad_norm": 0.48046875, "learning_rate": 9.993931286364595e-05, "loss": 0.42, "step": 24020 }, { "epoch": 32.04, "grad_norm": 0.5234375, "learning_rate": 9.99392612562259e-05, "loss": 0.4305, "step": 24030 }, { "epoch": 32.053333333333335, "grad_norm": 0.51953125, "learning_rate": 9.993920962688542e-05, "loss": 0.4179, "step": 24040 }, { "epoch": 32.06666666666667, "grad_norm": 0.57421875, "learning_rate": 9.993915797562455e-05, "loss": 0.4053, "step": 24050 }, { "epoch": 32.08, "grad_norm": 0.56640625, "learning_rate": 9.993910630244328e-05, "loss": 0.4088, "step": 24060 }, { "epoch": 32.093333333333334, "grad_norm": 0.546875, "learning_rate": 9.993905460734167e-05, "loss": 0.4092, "step": 24070 }, { "epoch": 32.10666666666667, "grad_norm": 0.515625, "learning_rate": 9.993900289031974e-05, "loss": 0.3984, "step": 24080 }, { "epoch": 32.12, "grad_norm": 0.55859375, "learning_rate": 9.993895115137749e-05, "loss": 0.4029, "step": 24090 }, { "epoch": 32.13333333333333, "grad_norm": 0.5390625, "learning_rate": 9.993889939051495e-05, "loss": 0.3941, "step": 24100 }, { "epoch": 32.14666666666667, "grad_norm": 0.58984375, "learning_rate": 9.993884760773216e-05, "loss": 0.4135, "step": 24110 }, { "epoch": 32.16, "grad_norm": 0.52734375, "learning_rate": 9.993879580302912e-05, "loss": 0.4065, "step": 24120 }, { "epoch": 32.17333333333333, "grad_norm": 0.54296875, "learning_rate": 9.993874397640586e-05, "loss": 0.4013, "step": 24130 }, { "epoch": 32.18666666666667, "grad_norm": 0.515625, "learning_rate": 9.99386921278624e-05, "loss": 0.3995, "step": 24140 }, { "epoch": 32.2, "grad_norm": 0.5859375, "learning_rate": 9.993864025739878e-05, "loss": 0.393, "step": 24150 }, { "epoch": 32.21333333333333, "grad_norm": 0.60546875, "learning_rate": 9.9938588365015e-05, "loss": 0.3938, "step": 24160 }, { "epoch": 32.22666666666667, "grad_norm": 0.578125, "learning_rate": 9.99385364507111e-05, "loss": 0.405, "step": 24170 }, { "epoch": 32.24, "grad_norm": 0.58203125, "learning_rate": 9.993848451448709e-05, "loss": 0.3905, "step": 24180 }, { "epoch": 32.25333333333333, "grad_norm": 0.55859375, "learning_rate": 9.9938432556343e-05, "loss": 0.3925, "step": 24190 }, { "epoch": 32.266666666666666, "grad_norm": 0.640625, "learning_rate": 9.993838057627884e-05, "loss": 0.3942, "step": 24200 }, { "epoch": 32.28, "grad_norm": 0.59375, "learning_rate": 9.993832857429468e-05, "loss": 0.424, "step": 24210 }, { "epoch": 32.29333333333334, "grad_norm": 0.5234375, "learning_rate": 9.993827655039048e-05, "loss": 0.3809, "step": 24220 }, { "epoch": 32.306666666666665, "grad_norm": 0.58203125, "learning_rate": 9.99382245045663e-05, "loss": 0.4045, "step": 24230 }, { "epoch": 32.32, "grad_norm": 0.490234375, "learning_rate": 9.993817243682214e-05, "loss": 0.4049, "step": 24240 }, { "epoch": 32.333333333333336, "grad_norm": 0.54296875, "learning_rate": 9.993812034715804e-05, "loss": 0.4089, "step": 24250 }, { "epoch": 32.346666666666664, "grad_norm": 0.671875, "learning_rate": 9.993806823557402e-05, "loss": 0.3992, "step": 24260 }, { "epoch": 32.36, "grad_norm": 0.68359375, "learning_rate": 9.99380161020701e-05, "loss": 0.4003, "step": 24270 }, { "epoch": 32.373333333333335, "grad_norm": 0.5546875, "learning_rate": 9.99379639466463e-05, "loss": 0.4007, "step": 24280 }, { "epoch": 32.38666666666666, "grad_norm": 0.609375, "learning_rate": 9.993791176930265e-05, "loss": 0.3947, "step": 24290 }, { "epoch": 32.4, "grad_norm": 0.57421875, "learning_rate": 9.993785957003919e-05, "loss": 0.4013, "step": 24300 }, { "epoch": 32.413333333333334, "grad_norm": 0.57421875, "learning_rate": 9.993780734885589e-05, "loss": 0.4063, "step": 24310 }, { "epoch": 32.42666666666667, "grad_norm": 0.5546875, "learning_rate": 9.993775510575283e-05, "loss": 0.4069, "step": 24320 }, { "epoch": 32.44, "grad_norm": 0.578125, "learning_rate": 9.993770284072998e-05, "loss": 0.4184, "step": 24330 }, { "epoch": 32.45333333333333, "grad_norm": 0.5390625, "learning_rate": 9.993765055378744e-05, "loss": 0.4065, "step": 24340 }, { "epoch": 32.46666666666667, "grad_norm": 0.55859375, "learning_rate": 9.993759824492514e-05, "loss": 0.4162, "step": 24350 }, { "epoch": 32.48, "grad_norm": 0.53125, "learning_rate": 9.993754591414317e-05, "loss": 0.3975, "step": 24360 }, { "epoch": 32.49333333333333, "grad_norm": 0.54296875, "learning_rate": 9.993749356144152e-05, "loss": 0.4091, "step": 24370 }, { "epoch": 32.50666666666667, "grad_norm": 0.53515625, "learning_rate": 9.993744118682022e-05, "loss": 0.4074, "step": 24380 }, { "epoch": 32.52, "grad_norm": 0.466796875, "learning_rate": 9.993738879027932e-05, "loss": 0.3976, "step": 24390 }, { "epoch": 32.53333333333333, "grad_norm": 0.58203125, "learning_rate": 9.993733637181879e-05, "loss": 0.4002, "step": 24400 }, { "epoch": 32.54666666666667, "grad_norm": 0.67578125, "learning_rate": 9.99372839314387e-05, "loss": 0.402, "step": 24410 }, { "epoch": 32.56, "grad_norm": 0.5703125, "learning_rate": 9.993723146913905e-05, "loss": 0.3968, "step": 24420 }, { "epoch": 32.57333333333333, "grad_norm": 0.625, "learning_rate": 9.993717898491988e-05, "loss": 0.3997, "step": 24430 }, { "epoch": 32.586666666666666, "grad_norm": 0.5234375, "learning_rate": 9.993712647878119e-05, "loss": 0.389, "step": 24440 }, { "epoch": 32.6, "grad_norm": 0.55859375, "learning_rate": 9.9937073950723e-05, "loss": 0.3902, "step": 24450 }, { "epoch": 32.61333333333333, "grad_norm": 0.484375, "learning_rate": 9.993702140074537e-05, "loss": 0.3809, "step": 24460 }, { "epoch": 32.626666666666665, "grad_norm": 0.462890625, "learning_rate": 9.99369688288483e-05, "loss": 0.3856, "step": 24470 }, { "epoch": 32.64, "grad_norm": 0.53515625, "learning_rate": 9.993691623503181e-05, "loss": 0.3978, "step": 24480 }, { "epoch": 32.653333333333336, "grad_norm": 0.5546875, "learning_rate": 9.993686361929592e-05, "loss": 0.4077, "step": 24490 }, { "epoch": 32.666666666666664, "grad_norm": 0.57421875, "learning_rate": 9.993681098164067e-05, "loss": 0.3953, "step": 24500 }, { "epoch": 32.68, "grad_norm": 0.609375, "learning_rate": 9.993675832206606e-05, "loss": 0.3866, "step": 24510 }, { "epoch": 32.693333333333335, "grad_norm": 0.498046875, "learning_rate": 9.993670564057214e-05, "loss": 0.3944, "step": 24520 }, { "epoch": 32.70666666666666, "grad_norm": 0.6015625, "learning_rate": 9.993665293715892e-05, "loss": 0.3893, "step": 24530 }, { "epoch": 32.72, "grad_norm": 0.59765625, "learning_rate": 9.993660021182642e-05, "loss": 0.4111, "step": 24540 }, { "epoch": 32.733333333333334, "grad_norm": 0.55859375, "learning_rate": 9.993654746457466e-05, "loss": 0.4057, "step": 24550 }, { "epoch": 32.74666666666667, "grad_norm": 0.61328125, "learning_rate": 9.993649469540367e-05, "loss": 0.4067, "step": 24560 }, { "epoch": 32.76, "grad_norm": 0.64453125, "learning_rate": 9.993644190431348e-05, "loss": 0.4192, "step": 24570 }, { "epoch": 32.77333333333333, "grad_norm": 0.640625, "learning_rate": 9.99363890913041e-05, "loss": 0.4074, "step": 24580 }, { "epoch": 32.78666666666667, "grad_norm": 0.51953125, "learning_rate": 9.993633625637555e-05, "loss": 0.4076, "step": 24590 }, { "epoch": 32.8, "grad_norm": 0.55859375, "learning_rate": 9.993628339952786e-05, "loss": 0.4062, "step": 24600 }, { "epoch": 32.81333333333333, "grad_norm": 0.625, "learning_rate": 9.993623052076106e-05, "loss": 0.3799, "step": 24610 }, { "epoch": 32.82666666666667, "grad_norm": 0.5546875, "learning_rate": 9.993617762007518e-05, "loss": 0.3902, "step": 24620 }, { "epoch": 32.84, "grad_norm": 0.5625, "learning_rate": 9.993612469747022e-05, "loss": 0.4017, "step": 24630 }, { "epoch": 32.85333333333333, "grad_norm": 0.5703125, "learning_rate": 9.993607175294621e-05, "loss": 0.3975, "step": 24640 }, { "epoch": 32.86666666666667, "grad_norm": 0.55078125, "learning_rate": 9.993601878650318e-05, "loss": 0.4007, "step": 24650 }, { "epoch": 32.88, "grad_norm": 0.546875, "learning_rate": 9.993596579814117e-05, "loss": 0.3814, "step": 24660 }, { "epoch": 32.89333333333333, "grad_norm": 0.63671875, "learning_rate": 9.993591278786016e-05, "loss": 0.393, "step": 24670 }, { "epoch": 32.906666666666666, "grad_norm": 0.58203125, "learning_rate": 9.99358597556602e-05, "loss": 0.4004, "step": 24680 }, { "epoch": 32.92, "grad_norm": 0.61328125, "learning_rate": 9.993580670154133e-05, "loss": 0.4017, "step": 24690 }, { "epoch": 32.93333333333333, "grad_norm": 0.49609375, "learning_rate": 9.993575362550354e-05, "loss": 0.3955, "step": 24700 }, { "epoch": 32.946666666666665, "grad_norm": 0.5625, "learning_rate": 9.993570052754686e-05, "loss": 0.3959, "step": 24710 }, { "epoch": 32.96, "grad_norm": 0.5703125, "learning_rate": 9.993564740767133e-05, "loss": 0.3928, "step": 24720 }, { "epoch": 32.973333333333336, "grad_norm": 0.6796875, "learning_rate": 9.993559426587697e-05, "loss": 0.4179, "step": 24730 }, { "epoch": 32.986666666666665, "grad_norm": 0.5859375, "learning_rate": 9.993554110216379e-05, "loss": 0.3932, "step": 24740 }, { "epoch": 33.0, "grad_norm": 0.54296875, "learning_rate": 9.993548791653183e-05, "loss": 0.3879, "step": 24750 }, { "epoch": 33.0, "eval_loss": 0.4319670498371124, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6971, "eval_samples_per_second": 1.496, "eval_steps_per_second": 0.093, "step": 24750 }, { "epoch": 33.013333333333335, "grad_norm": 0.5859375, "learning_rate": 9.993543470898108e-05, "loss": 0.4057, "step": 24760 }, { "epoch": 33.026666666666664, "grad_norm": 0.53515625, "learning_rate": 9.99353814795116e-05, "loss": 0.4182, "step": 24770 }, { "epoch": 33.04, "grad_norm": 0.54296875, "learning_rate": 9.99353282281234e-05, "loss": 0.43, "step": 24780 }, { "epoch": 33.053333333333335, "grad_norm": 0.52734375, "learning_rate": 9.993527495481651e-05, "loss": 0.4158, "step": 24790 }, { "epoch": 33.06666666666667, "grad_norm": 0.60546875, "learning_rate": 9.993522165959093e-05, "loss": 0.4035, "step": 24800 }, { "epoch": 33.08, "grad_norm": 0.5859375, "learning_rate": 9.993516834244671e-05, "loss": 0.4078, "step": 24810 }, { "epoch": 33.093333333333334, "grad_norm": 0.54296875, "learning_rate": 9.993511500338389e-05, "loss": 0.4082, "step": 24820 }, { "epoch": 33.10666666666667, "grad_norm": 0.53515625, "learning_rate": 9.993506164240244e-05, "loss": 0.3966, "step": 24830 }, { "epoch": 33.12, "grad_norm": 0.56640625, "learning_rate": 9.993500825950241e-05, "loss": 0.4014, "step": 24840 }, { "epoch": 33.13333333333333, "grad_norm": 0.59375, "learning_rate": 9.993495485468383e-05, "loss": 0.3932, "step": 24850 }, { "epoch": 33.14666666666667, "grad_norm": 0.62890625, "learning_rate": 9.993490142794673e-05, "loss": 0.4118, "step": 24860 }, { "epoch": 33.16, "grad_norm": 0.5234375, "learning_rate": 9.99348479792911e-05, "loss": 0.4054, "step": 24870 }, { "epoch": 33.17333333333333, "grad_norm": 0.53125, "learning_rate": 9.9934794508717e-05, "loss": 0.4001, "step": 24880 }, { "epoch": 33.18666666666667, "grad_norm": 0.55078125, "learning_rate": 9.993474101622444e-05, "loss": 0.3994, "step": 24890 }, { "epoch": 33.2, "grad_norm": 0.58203125, "learning_rate": 9.993468750181342e-05, "loss": 0.3907, "step": 24900 }, { "epoch": 33.21333333333333, "grad_norm": 0.59765625, "learning_rate": 9.9934633965484e-05, "loss": 0.3928, "step": 24910 }, { "epoch": 33.22666666666667, "grad_norm": 0.625, "learning_rate": 9.99345804072362e-05, "loss": 0.4045, "step": 24920 }, { "epoch": 33.24, "grad_norm": 0.5703125, "learning_rate": 9.993452682707e-05, "loss": 0.389, "step": 24930 }, { "epoch": 33.25333333333333, "grad_norm": 0.59375, "learning_rate": 9.993447322498549e-05, "loss": 0.392, "step": 24940 }, { "epoch": 33.266666666666666, "grad_norm": 0.58203125, "learning_rate": 9.993441960098264e-05, "loss": 0.3933, "step": 24950 }, { "epoch": 33.28, "grad_norm": 0.56640625, "learning_rate": 9.993436595506151e-05, "loss": 0.4233, "step": 24960 }, { "epoch": 33.29333333333334, "grad_norm": 0.5703125, "learning_rate": 9.993431228722209e-05, "loss": 0.3799, "step": 24970 }, { "epoch": 33.306666666666665, "grad_norm": 0.51171875, "learning_rate": 9.993425859746443e-05, "loss": 0.4046, "step": 24980 }, { "epoch": 33.32, "grad_norm": 0.50390625, "learning_rate": 9.993420488578853e-05, "loss": 0.4053, "step": 24990 }, { "epoch": 33.333333333333336, "grad_norm": 0.62109375, "learning_rate": 9.993415115219445e-05, "loss": 0.4086, "step": 25000 }, { "epoch": 33.346666666666664, "grad_norm": 0.6484375, "learning_rate": 9.993409739668216e-05, "loss": 0.3987, "step": 25010 }, { "epoch": 33.36, "grad_norm": 0.59375, "learning_rate": 9.993404361925173e-05, "loss": 0.3993, "step": 25020 }, { "epoch": 33.373333333333335, "grad_norm": 0.474609375, "learning_rate": 9.993398981990317e-05, "loss": 0.4006, "step": 25030 }, { "epoch": 33.38666666666666, "grad_norm": 0.63671875, "learning_rate": 9.99339359986365e-05, "loss": 0.3924, "step": 25040 }, { "epoch": 33.4, "grad_norm": 0.53125, "learning_rate": 9.993388215545173e-05, "loss": 0.4005, "step": 25050 }, { "epoch": 33.413333333333334, "grad_norm": 0.57421875, "learning_rate": 9.993382829034893e-05, "loss": 0.4051, "step": 25060 }, { "epoch": 33.42666666666667, "grad_norm": 0.5625, "learning_rate": 9.993377440332808e-05, "loss": 0.4063, "step": 25070 }, { "epoch": 33.44, "grad_norm": 0.5703125, "learning_rate": 9.99337204943892e-05, "loss": 0.4174, "step": 25080 }, { "epoch": 33.45333333333333, "grad_norm": 0.66796875, "learning_rate": 9.993366656353236e-05, "loss": 0.4065, "step": 25090 }, { "epoch": 33.46666666666667, "grad_norm": 0.5703125, "learning_rate": 9.993361261075753e-05, "loss": 0.4147, "step": 25100 }, { "epoch": 33.48, "grad_norm": 0.6015625, "learning_rate": 9.993355863606475e-05, "loss": 0.3969, "step": 25110 }, { "epoch": 33.49333333333333, "grad_norm": 0.55859375, "learning_rate": 9.993350463945406e-05, "loss": 0.4073, "step": 25120 }, { "epoch": 33.50666666666667, "grad_norm": 0.51171875, "learning_rate": 9.993345062092548e-05, "loss": 0.4064, "step": 25130 }, { "epoch": 33.52, "grad_norm": 0.5390625, "learning_rate": 9.993339658047903e-05, "loss": 0.398, "step": 25140 }, { "epoch": 33.53333333333333, "grad_norm": 0.5703125, "learning_rate": 9.993334251811472e-05, "loss": 0.3991, "step": 25150 }, { "epoch": 33.54666666666667, "grad_norm": 0.578125, "learning_rate": 9.993328843383261e-05, "loss": 0.4023, "step": 25160 }, { "epoch": 33.56, "grad_norm": 0.486328125, "learning_rate": 9.993323432763266e-05, "loss": 0.3958, "step": 25170 }, { "epoch": 33.57333333333333, "grad_norm": 0.5625, "learning_rate": 9.993318019951496e-05, "loss": 0.3997, "step": 25180 }, { "epoch": 33.586666666666666, "grad_norm": 0.5, "learning_rate": 9.993312604947951e-05, "loss": 0.3883, "step": 25190 }, { "epoch": 33.6, "grad_norm": 0.53125, "learning_rate": 9.993307187752632e-05, "loss": 0.3894, "step": 25200 }, { "epoch": 33.61333333333333, "grad_norm": 0.48046875, "learning_rate": 9.993301768365542e-05, "loss": 0.379, "step": 25210 }, { "epoch": 33.626666666666665, "grad_norm": 0.490234375, "learning_rate": 9.993296346786685e-05, "loss": 0.3843, "step": 25220 }, { "epoch": 33.64, "grad_norm": 0.59765625, "learning_rate": 9.993290923016061e-05, "loss": 0.3976, "step": 25230 }, { "epoch": 33.653333333333336, "grad_norm": 0.5390625, "learning_rate": 9.993285497053676e-05, "loss": 0.4083, "step": 25240 }, { "epoch": 33.666666666666664, "grad_norm": 0.515625, "learning_rate": 9.993280068899527e-05, "loss": 0.3944, "step": 25250 }, { "epoch": 33.68, "grad_norm": 0.52734375, "learning_rate": 9.99327463855362e-05, "loss": 0.3858, "step": 25260 }, { "epoch": 33.693333333333335, "grad_norm": 0.5, "learning_rate": 9.993269206015958e-05, "loss": 0.3945, "step": 25270 }, { "epoch": 33.70666666666666, "grad_norm": 0.5625, "learning_rate": 9.99326377128654e-05, "loss": 0.3884, "step": 25280 }, { "epoch": 33.72, "grad_norm": 0.609375, "learning_rate": 9.993258334365373e-05, "loss": 0.4105, "step": 25290 }, { "epoch": 33.733333333333334, "grad_norm": 0.56640625, "learning_rate": 9.993252895252457e-05, "loss": 0.404, "step": 25300 }, { "epoch": 33.74666666666667, "grad_norm": 0.65234375, "learning_rate": 9.993247453947792e-05, "loss": 0.4067, "step": 25310 }, { "epoch": 33.76, "grad_norm": 0.60546875, "learning_rate": 9.993242010451383e-05, "loss": 0.4171, "step": 25320 }, { "epoch": 33.77333333333333, "grad_norm": 0.62890625, "learning_rate": 9.993236564763233e-05, "loss": 0.4061, "step": 25330 }, { "epoch": 33.78666666666667, "grad_norm": 0.546875, "learning_rate": 9.993231116883343e-05, "loss": 0.4065, "step": 25340 }, { "epoch": 33.8, "grad_norm": 0.55859375, "learning_rate": 9.993225666811716e-05, "loss": 0.4055, "step": 25350 }, { "epoch": 33.81333333333333, "grad_norm": 0.734375, "learning_rate": 9.993220214548354e-05, "loss": 0.3791, "step": 25360 }, { "epoch": 33.82666666666667, "grad_norm": 0.578125, "learning_rate": 9.99321476009326e-05, "loss": 0.3888, "step": 25370 }, { "epoch": 33.84, "grad_norm": 0.59375, "learning_rate": 9.993209303446436e-05, "loss": 0.4004, "step": 25380 }, { "epoch": 33.85333333333333, "grad_norm": 0.546875, "learning_rate": 9.993203844607883e-05, "loss": 0.3961, "step": 25390 }, { "epoch": 33.86666666666667, "grad_norm": 0.61328125, "learning_rate": 9.993198383577606e-05, "loss": 0.4005, "step": 25400 }, { "epoch": 33.88, "grad_norm": 0.5078125, "learning_rate": 9.993192920355608e-05, "loss": 0.3811, "step": 25410 }, { "epoch": 33.89333333333333, "grad_norm": 0.56640625, "learning_rate": 9.993187454941887e-05, "loss": 0.3926, "step": 25420 }, { "epoch": 33.906666666666666, "grad_norm": 0.55078125, "learning_rate": 9.993181987336449e-05, "loss": 0.3992, "step": 25430 }, { "epoch": 33.92, "grad_norm": 0.625, "learning_rate": 9.993176517539295e-05, "loss": 0.4019, "step": 25440 }, { "epoch": 33.93333333333333, "grad_norm": 0.51953125, "learning_rate": 9.993171045550428e-05, "loss": 0.3941, "step": 25450 }, { "epoch": 33.946666666666665, "grad_norm": 0.5390625, "learning_rate": 9.99316557136985e-05, "loss": 0.3954, "step": 25460 }, { "epoch": 33.96, "grad_norm": 0.5, "learning_rate": 9.993160094997564e-05, "loss": 0.3926, "step": 25470 }, { "epoch": 33.973333333333336, "grad_norm": 0.67578125, "learning_rate": 9.993154616433572e-05, "loss": 0.4169, "step": 25480 }, { "epoch": 33.986666666666665, "grad_norm": 0.55859375, "learning_rate": 9.993149135677877e-05, "loss": 0.391, "step": 25490 }, { "epoch": 34.0, "grad_norm": 0.58203125, "learning_rate": 9.993143652730478e-05, "loss": 0.3867, "step": 25500 }, { "epoch": 34.0, "eval_loss": 0.43015339970588684, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3912, "eval_samples_per_second": 1.54, "eval_steps_per_second": 0.096, "step": 25500 }, { "epoch": 34.013333333333335, "grad_norm": 0.60546875, "learning_rate": 9.993138167591383e-05, "loss": 0.4043, "step": 25510 }, { "epoch": 34.026666666666664, "grad_norm": 0.51171875, "learning_rate": 9.993132680260591e-05, "loss": 0.4185, "step": 25520 }, { "epoch": 34.04, "grad_norm": 0.515625, "learning_rate": 9.993127190738105e-05, "loss": 0.4299, "step": 25530 }, { "epoch": 34.053333333333335, "grad_norm": 0.63671875, "learning_rate": 9.993121699023927e-05, "loss": 0.4152, "step": 25540 }, { "epoch": 34.06666666666667, "grad_norm": 0.66015625, "learning_rate": 9.993116205118061e-05, "loss": 0.4039, "step": 25550 }, { "epoch": 34.08, "grad_norm": 0.625, "learning_rate": 9.993110709020507e-05, "loss": 0.4062, "step": 25560 }, { "epoch": 34.093333333333334, "grad_norm": 0.55078125, "learning_rate": 9.993105210731269e-05, "loss": 0.4082, "step": 25570 }, { "epoch": 34.10666666666667, "grad_norm": 0.53515625, "learning_rate": 9.993099710250348e-05, "loss": 0.3954, "step": 25580 }, { "epoch": 34.12, "grad_norm": 0.56640625, "learning_rate": 9.99309420757775e-05, "loss": 0.4012, "step": 25590 }, { "epoch": 34.13333333333333, "grad_norm": 0.65625, "learning_rate": 9.993088702713473e-05, "loss": 0.3916, "step": 25600 }, { "epoch": 34.14666666666667, "grad_norm": 0.5625, "learning_rate": 9.993083195657522e-05, "loss": 0.4112, "step": 25610 }, { "epoch": 34.16, "grad_norm": 0.578125, "learning_rate": 9.9930776864099e-05, "loss": 0.4047, "step": 25620 }, { "epoch": 34.17333333333333, "grad_norm": 0.5703125, "learning_rate": 9.993072174970606e-05, "loss": 0.3997, "step": 25630 }, { "epoch": 34.18666666666667, "grad_norm": 0.53515625, "learning_rate": 9.993066661339645e-05, "loss": 0.398, "step": 25640 }, { "epoch": 34.2, "grad_norm": 0.52734375, "learning_rate": 9.99306114551702e-05, "loss": 0.3904, "step": 25650 }, { "epoch": 34.21333333333333, "grad_norm": 0.6328125, "learning_rate": 9.993055627502732e-05, "loss": 0.3906, "step": 25660 }, { "epoch": 34.22666666666667, "grad_norm": 0.58984375, "learning_rate": 9.993050107296784e-05, "loss": 0.4045, "step": 25670 }, { "epoch": 34.24, "grad_norm": 0.59375, "learning_rate": 9.993044584899179e-05, "loss": 0.3883, "step": 25680 }, { "epoch": 34.25333333333333, "grad_norm": 0.6015625, "learning_rate": 9.993039060309917e-05, "loss": 0.3912, "step": 25690 }, { "epoch": 34.266666666666666, "grad_norm": 0.55078125, "learning_rate": 9.993033533529003e-05, "loss": 0.3926, "step": 25700 }, { "epoch": 34.28, "grad_norm": 0.55078125, "learning_rate": 9.993028004556439e-05, "loss": 0.4227, "step": 25710 }, { "epoch": 34.29333333333334, "grad_norm": 0.546875, "learning_rate": 9.993022473392227e-05, "loss": 0.3794, "step": 25720 }, { "epoch": 34.306666666666665, "grad_norm": 0.5390625, "learning_rate": 9.993016940036368e-05, "loss": 0.4031, "step": 25730 }, { "epoch": 34.32, "grad_norm": 0.49609375, "learning_rate": 9.993011404488866e-05, "loss": 0.4038, "step": 25740 }, { "epoch": 34.333333333333336, "grad_norm": 0.57421875, "learning_rate": 9.993005866749725e-05, "loss": 0.407, "step": 25750 }, { "epoch": 34.346666666666664, "grad_norm": 0.6484375, "learning_rate": 9.993000326818944e-05, "loss": 0.3986, "step": 25760 }, { "epoch": 34.36, "grad_norm": 0.6171875, "learning_rate": 9.992994784696527e-05, "loss": 0.3987, "step": 25770 }, { "epoch": 34.373333333333335, "grad_norm": 0.515625, "learning_rate": 9.992989240382477e-05, "loss": 0.3986, "step": 25780 }, { "epoch": 34.38666666666666, "grad_norm": 0.6171875, "learning_rate": 9.992983693876798e-05, "loss": 0.3913, "step": 25790 }, { "epoch": 34.4, "grad_norm": 0.498046875, "learning_rate": 9.992978145179487e-05, "loss": 0.3985, "step": 25800 }, { "epoch": 34.413333333333334, "grad_norm": 0.6953125, "learning_rate": 9.992972594290553e-05, "loss": 0.4034, "step": 25810 }, { "epoch": 34.42666666666667, "grad_norm": 1.4140625, "learning_rate": 9.992967041209994e-05, "loss": 0.4048, "step": 25820 }, { "epoch": 34.44, "grad_norm": 0.66015625, "learning_rate": 9.992961485937815e-05, "loss": 0.4182, "step": 25830 }, { "epoch": 34.45333333333333, "grad_norm": 0.71484375, "learning_rate": 9.992955928474015e-05, "loss": 0.4051, "step": 25840 }, { "epoch": 34.46666666666667, "grad_norm": 0.5625, "learning_rate": 9.992950368818599e-05, "loss": 0.4129, "step": 25850 }, { "epoch": 34.48, "grad_norm": 0.5546875, "learning_rate": 9.992944806971569e-05, "loss": 0.3958, "step": 25860 }, { "epoch": 34.49333333333333, "grad_norm": 0.5546875, "learning_rate": 9.992939242932928e-05, "loss": 0.4079, "step": 25870 }, { "epoch": 34.50666666666667, "grad_norm": 0.59765625, "learning_rate": 9.992933676702678e-05, "loss": 0.4039, "step": 25880 }, { "epoch": 34.52, "grad_norm": 0.51171875, "learning_rate": 9.992928108280822e-05, "loss": 0.3961, "step": 25890 }, { "epoch": 34.53333333333333, "grad_norm": 0.52734375, "learning_rate": 9.992922537667362e-05, "loss": 0.3989, "step": 25900 }, { "epoch": 34.54666666666667, "grad_norm": 0.58203125, "learning_rate": 9.992916964862299e-05, "loss": 0.4007, "step": 25910 }, { "epoch": 34.56, "grad_norm": 0.515625, "learning_rate": 9.992911389865637e-05, "loss": 0.3942, "step": 25920 }, { "epoch": 34.57333333333333, "grad_norm": 0.5703125, "learning_rate": 9.992905812677378e-05, "loss": 0.3987, "step": 25930 }, { "epoch": 34.586666666666666, "grad_norm": 0.53515625, "learning_rate": 9.992900233297527e-05, "loss": 0.3869, "step": 25940 }, { "epoch": 34.6, "grad_norm": 0.55078125, "learning_rate": 9.992894651726082e-05, "loss": 0.3886, "step": 25950 }, { "epoch": 34.61333333333333, "grad_norm": 0.51171875, "learning_rate": 9.992889067963046e-05, "loss": 0.3785, "step": 25960 }, { "epoch": 34.626666666666665, "grad_norm": 0.486328125, "learning_rate": 9.992883482008425e-05, "loss": 0.3834, "step": 25970 }, { "epoch": 34.64, "grad_norm": 0.578125, "learning_rate": 9.992877893862218e-05, "loss": 0.3964, "step": 25980 }, { "epoch": 34.653333333333336, "grad_norm": 0.58203125, "learning_rate": 9.99287230352443e-05, "loss": 0.4059, "step": 25990 }, { "epoch": 34.666666666666664, "grad_norm": 0.53515625, "learning_rate": 9.992866710995064e-05, "loss": 0.3929, "step": 26000 }, { "epoch": 34.68, "grad_norm": 0.59375, "learning_rate": 9.992861116274117e-05, "loss": 0.3849, "step": 26010 }, { "epoch": 34.693333333333335, "grad_norm": 0.51171875, "learning_rate": 9.992855519361598e-05, "loss": 0.3939, "step": 26020 }, { "epoch": 34.70666666666666, "grad_norm": 0.57421875, "learning_rate": 9.992849920257505e-05, "loss": 0.3869, "step": 26030 }, { "epoch": 34.72, "grad_norm": 0.5859375, "learning_rate": 9.992844318961844e-05, "loss": 0.4084, "step": 26040 }, { "epoch": 34.733333333333334, "grad_norm": 0.55078125, "learning_rate": 9.992838715474615e-05, "loss": 0.4035, "step": 26050 }, { "epoch": 34.74666666666667, "grad_norm": 0.53515625, "learning_rate": 9.992833109795821e-05, "loss": 0.4054, "step": 26060 }, { "epoch": 34.76, "grad_norm": 0.5703125, "learning_rate": 9.992827501925464e-05, "loss": 0.4177, "step": 26070 }, { "epoch": 34.77333333333333, "grad_norm": 0.63671875, "learning_rate": 9.992821891863547e-05, "loss": 0.4045, "step": 26080 }, { "epoch": 34.78666666666667, "grad_norm": 0.5078125, "learning_rate": 9.992816279610072e-05, "loss": 0.4056, "step": 26090 }, { "epoch": 34.8, "grad_norm": 0.5859375, "learning_rate": 9.992810665165044e-05, "loss": 0.4055, "step": 26100 }, { "epoch": 34.81333333333333, "grad_norm": 0.6484375, "learning_rate": 9.992805048528461e-05, "loss": 0.3778, "step": 26110 }, { "epoch": 34.82666666666667, "grad_norm": 0.640625, "learning_rate": 9.992799429700329e-05, "loss": 0.388, "step": 26120 }, { "epoch": 34.84, "grad_norm": 0.5703125, "learning_rate": 9.99279380868065e-05, "loss": 0.3996, "step": 26130 }, { "epoch": 34.85333333333333, "grad_norm": 0.58203125, "learning_rate": 9.992788185469424e-05, "loss": 0.3954, "step": 26140 }, { "epoch": 34.86666666666667, "grad_norm": 0.5390625, "learning_rate": 9.992782560066656e-05, "loss": 0.3988, "step": 26150 }, { "epoch": 34.88, "grad_norm": 0.53515625, "learning_rate": 9.992776932472348e-05, "loss": 0.3803, "step": 26160 }, { "epoch": 34.89333333333333, "grad_norm": 0.5859375, "learning_rate": 9.992771302686502e-05, "loss": 0.3913, "step": 26170 }, { "epoch": 34.906666666666666, "grad_norm": 0.5859375, "learning_rate": 9.992765670709121e-05, "loss": 0.3978, "step": 26180 }, { "epoch": 34.92, "grad_norm": 0.59375, "learning_rate": 9.992760036540208e-05, "loss": 0.4011, "step": 26190 }, { "epoch": 34.93333333333333, "grad_norm": 0.52734375, "learning_rate": 9.992754400179762e-05, "loss": 0.3935, "step": 26200 }, { "epoch": 34.946666666666665, "grad_norm": 0.55078125, "learning_rate": 9.99274876162779e-05, "loss": 0.3942, "step": 26210 }, { "epoch": 34.96, "grad_norm": 0.5703125, "learning_rate": 9.992743120884292e-05, "loss": 0.3922, "step": 26220 }, { "epoch": 34.973333333333336, "grad_norm": 0.6953125, "learning_rate": 9.992737477949271e-05, "loss": 0.4166, "step": 26230 }, { "epoch": 34.986666666666665, "grad_norm": 0.61328125, "learning_rate": 9.992731832822731e-05, "loss": 0.3899, "step": 26240 }, { "epoch": 35.0, "grad_norm": 0.56640625, "learning_rate": 9.99272618550467e-05, "loss": 0.3857, "step": 26250 }, { "epoch": 35.0, "eval_loss": 0.4280588924884796, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4898, "eval_samples_per_second": 1.525, "eval_steps_per_second": 0.095, "step": 26250 }, { "epoch": 35.013333333333335, "grad_norm": 0.640625, "learning_rate": 9.992720535995095e-05, "loss": 0.4033, "step": 26260 }, { "epoch": 35.026666666666664, "grad_norm": 0.55859375, "learning_rate": 9.992714884294008e-05, "loss": 0.4158, "step": 26270 }, { "epoch": 35.04, "grad_norm": 0.5546875, "learning_rate": 9.992709230401409e-05, "loss": 0.4289, "step": 26280 }, { "epoch": 35.053333333333335, "grad_norm": 0.57421875, "learning_rate": 9.992703574317301e-05, "loss": 0.4146, "step": 26290 }, { "epoch": 35.06666666666667, "grad_norm": 0.65234375, "learning_rate": 9.99269791604169e-05, "loss": 0.4018, "step": 26300 }, { "epoch": 35.08, "grad_norm": 0.58984375, "learning_rate": 9.992692255574574e-05, "loss": 0.4066, "step": 26310 }, { "epoch": 35.093333333333334, "grad_norm": 0.5390625, "learning_rate": 9.992686592915959e-05, "loss": 0.4072, "step": 26320 }, { "epoch": 35.10666666666667, "grad_norm": 0.55859375, "learning_rate": 9.992680928065846e-05, "loss": 0.3954, "step": 26330 }, { "epoch": 35.12, "grad_norm": 0.5703125, "learning_rate": 9.992675261024235e-05, "loss": 0.3992, "step": 26340 }, { "epoch": 35.13333333333333, "grad_norm": 0.5625, "learning_rate": 9.992669591791132e-05, "loss": 0.3905, "step": 26350 }, { "epoch": 35.14666666666667, "grad_norm": 0.57421875, "learning_rate": 9.992663920366539e-05, "loss": 0.4094, "step": 26360 }, { "epoch": 35.16, "grad_norm": 0.55859375, "learning_rate": 9.992658246750456e-05, "loss": 0.4035, "step": 26370 }, { "epoch": 35.17333333333333, "grad_norm": 0.54296875, "learning_rate": 9.992652570942889e-05, "loss": 0.3983, "step": 26380 }, { "epoch": 35.18666666666667, "grad_norm": 0.578125, "learning_rate": 9.992646892943838e-05, "loss": 0.3974, "step": 26390 }, { "epoch": 35.2, "grad_norm": 0.57421875, "learning_rate": 9.992641212753306e-05, "loss": 0.3898, "step": 26400 }, { "epoch": 35.21333333333333, "grad_norm": 0.5546875, "learning_rate": 9.992635530371296e-05, "loss": 0.3904, "step": 26410 }, { "epoch": 35.22666666666667, "grad_norm": 0.59765625, "learning_rate": 9.992629845797809e-05, "loss": 0.4017, "step": 26420 }, { "epoch": 35.24, "grad_norm": 0.5859375, "learning_rate": 9.99262415903285e-05, "loss": 0.3871, "step": 26430 }, { "epoch": 35.25333333333333, "grad_norm": 0.546875, "learning_rate": 9.992618470076422e-05, "loss": 0.39, "step": 26440 }, { "epoch": 35.266666666666666, "grad_norm": 0.53125, "learning_rate": 9.992612778928524e-05, "loss": 0.3922, "step": 26450 }, { "epoch": 35.28, "grad_norm": 0.6015625, "learning_rate": 9.992607085589161e-05, "loss": 0.4215, "step": 26460 }, { "epoch": 35.29333333333334, "grad_norm": 0.5859375, "learning_rate": 9.992601390058334e-05, "loss": 0.3786, "step": 26470 }, { "epoch": 35.306666666666665, "grad_norm": 0.51953125, "learning_rate": 9.992595692336046e-05, "loss": 0.4025, "step": 26480 }, { "epoch": 35.32, "grad_norm": 0.4765625, "learning_rate": 9.9925899924223e-05, "loss": 0.4037, "step": 26490 }, { "epoch": 35.333333333333336, "grad_norm": 0.63671875, "learning_rate": 9.992584290317097e-05, "loss": 0.4063, "step": 26500 }, { "epoch": 35.346666666666664, "grad_norm": 0.609375, "learning_rate": 9.992578586020443e-05, "loss": 0.3959, "step": 26510 }, { "epoch": 35.36, "grad_norm": 0.625, "learning_rate": 9.992572879532338e-05, "loss": 0.3984, "step": 26520 }, { "epoch": 35.373333333333335, "grad_norm": 0.5390625, "learning_rate": 9.992567170852783e-05, "loss": 0.3983, "step": 26530 }, { "epoch": 35.38666666666666, "grad_norm": 0.70703125, "learning_rate": 9.992561459981785e-05, "loss": 0.3906, "step": 26540 }, { "epoch": 35.4, "grad_norm": 0.54296875, "learning_rate": 9.992555746919341e-05, "loss": 0.3979, "step": 26550 }, { "epoch": 35.413333333333334, "grad_norm": 0.60546875, "learning_rate": 9.992550031665458e-05, "loss": 0.4022, "step": 26560 }, { "epoch": 35.42666666666667, "grad_norm": 0.60546875, "learning_rate": 9.992544314220136e-05, "loss": 0.4046, "step": 26570 }, { "epoch": 35.44, "grad_norm": 0.56640625, "learning_rate": 9.992538594583378e-05, "loss": 0.4165, "step": 26580 }, { "epoch": 35.45333333333333, "grad_norm": 0.66015625, "learning_rate": 9.992532872755187e-05, "loss": 0.4039, "step": 26590 }, { "epoch": 35.46666666666667, "grad_norm": 0.54296875, "learning_rate": 9.992527148735567e-05, "loss": 0.4123, "step": 26600 }, { "epoch": 35.48, "grad_norm": 0.58203125, "learning_rate": 9.992521422524517e-05, "loss": 0.3939, "step": 26610 }, { "epoch": 35.49333333333333, "grad_norm": 0.5546875, "learning_rate": 9.992515694122043e-05, "loss": 0.4062, "step": 26620 }, { "epoch": 35.50666666666667, "grad_norm": 0.51953125, "learning_rate": 9.992509963528143e-05, "loss": 0.4045, "step": 26630 }, { "epoch": 35.52, "grad_norm": 0.482421875, "learning_rate": 9.992504230742823e-05, "loss": 0.3949, "step": 26640 }, { "epoch": 35.53333333333333, "grad_norm": 0.578125, "learning_rate": 9.992498495766087e-05, "loss": 0.3979, "step": 26650 }, { "epoch": 35.54666666666667, "grad_norm": 0.65625, "learning_rate": 9.992492758597934e-05, "loss": 0.3994, "step": 26660 }, { "epoch": 35.56, "grad_norm": 0.578125, "learning_rate": 9.992487019238367e-05, "loss": 0.3936, "step": 26670 }, { "epoch": 35.57333333333333, "grad_norm": 0.53125, "learning_rate": 9.992481277687392e-05, "loss": 0.398, "step": 26680 }, { "epoch": 35.586666666666666, "grad_norm": 0.5546875, "learning_rate": 9.992475533945007e-05, "loss": 0.387, "step": 26690 }, { "epoch": 35.6, "grad_norm": 0.5546875, "learning_rate": 9.992469788011218e-05, "loss": 0.3889, "step": 26700 }, { "epoch": 35.61333333333333, "grad_norm": 0.53125, "learning_rate": 9.992464039886024e-05, "loss": 0.3777, "step": 26710 }, { "epoch": 35.626666666666665, "grad_norm": 0.45703125, "learning_rate": 9.992458289569432e-05, "loss": 0.3829, "step": 26720 }, { "epoch": 35.64, "grad_norm": 0.6015625, "learning_rate": 9.99245253706144e-05, "loss": 0.3951, "step": 26730 }, { "epoch": 35.653333333333336, "grad_norm": 0.53125, "learning_rate": 9.992446782362054e-05, "loss": 0.4047, "step": 26740 }, { "epoch": 35.666666666666664, "grad_norm": 0.546875, "learning_rate": 9.992441025471274e-05, "loss": 0.3915, "step": 26750 }, { "epoch": 35.68, "grad_norm": 0.58203125, "learning_rate": 9.992435266389104e-05, "loss": 0.3841, "step": 26760 }, { "epoch": 35.693333333333335, "grad_norm": 0.5390625, "learning_rate": 9.992429505115546e-05, "loss": 0.3927, "step": 26770 }, { "epoch": 35.70666666666666, "grad_norm": 0.6171875, "learning_rate": 9.992423741650602e-05, "loss": 0.3868, "step": 26780 }, { "epoch": 35.72, "grad_norm": 0.58984375, "learning_rate": 9.992417975994277e-05, "loss": 0.4094, "step": 26790 }, { "epoch": 35.733333333333334, "grad_norm": 0.69140625, "learning_rate": 9.99241220814657e-05, "loss": 0.4022, "step": 26800 }, { "epoch": 35.74666666666667, "grad_norm": 0.57421875, "learning_rate": 9.992406438107487e-05, "loss": 0.4048, "step": 26810 }, { "epoch": 35.76, "grad_norm": 0.6796875, "learning_rate": 9.992400665877028e-05, "loss": 0.4171, "step": 26820 }, { "epoch": 35.77333333333333, "grad_norm": 0.65234375, "learning_rate": 9.992394891455197e-05, "loss": 0.4034, "step": 26830 }, { "epoch": 35.78666666666667, "grad_norm": 0.51953125, "learning_rate": 9.992389114841995e-05, "loss": 0.4047, "step": 26840 }, { "epoch": 35.8, "grad_norm": 0.62109375, "learning_rate": 9.992383336037425e-05, "loss": 0.4031, "step": 26850 }, { "epoch": 35.81333333333333, "grad_norm": 0.6171875, "learning_rate": 9.99237755504149e-05, "loss": 0.3776, "step": 26860 }, { "epoch": 35.82666666666667, "grad_norm": 0.6015625, "learning_rate": 9.992371771854195e-05, "loss": 0.3877, "step": 26870 }, { "epoch": 35.84, "grad_norm": 0.60546875, "learning_rate": 9.992365986475536e-05, "loss": 0.3994, "step": 26880 }, { "epoch": 35.85333333333333, "grad_norm": 0.5625, "learning_rate": 9.992360198905521e-05, "loss": 0.3954, "step": 26890 }, { "epoch": 35.86666666666667, "grad_norm": 0.59375, "learning_rate": 9.992354409144154e-05, "loss": 0.3971, "step": 26900 }, { "epoch": 35.88, "grad_norm": 0.50390625, "learning_rate": 9.992348617191432e-05, "loss": 0.3788, "step": 26910 }, { "epoch": 35.89333333333333, "grad_norm": 0.61328125, "learning_rate": 9.992342823047361e-05, "loss": 0.3902, "step": 26920 }, { "epoch": 35.906666666666666, "grad_norm": 0.6484375, "learning_rate": 9.992337026711941e-05, "loss": 0.3974, "step": 26930 }, { "epoch": 35.92, "grad_norm": 0.578125, "learning_rate": 9.992331228185178e-05, "loss": 0.399, "step": 26940 }, { "epoch": 35.93333333333333, "grad_norm": 0.5390625, "learning_rate": 9.992325427467072e-05, "loss": 0.3929, "step": 26950 }, { "epoch": 35.946666666666665, "grad_norm": 0.59765625, "learning_rate": 9.992319624557627e-05, "loss": 0.3934, "step": 26960 }, { "epoch": 35.96, "grad_norm": 0.52734375, "learning_rate": 9.992313819456844e-05, "loss": 0.391, "step": 26970 }, { "epoch": 35.973333333333336, "grad_norm": 0.734375, "learning_rate": 9.992308012164728e-05, "loss": 0.4163, "step": 26980 }, { "epoch": 35.986666666666665, "grad_norm": 0.58984375, "learning_rate": 9.992302202681279e-05, "loss": 0.3893, "step": 26990 }, { "epoch": 36.0, "grad_norm": 0.57421875, "learning_rate": 9.992296391006502e-05, "loss": 0.3848, "step": 27000 }, { "epoch": 36.0, "eval_loss": 0.4307634234428406, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.2229, "eval_samples_per_second": 1.565, "eval_steps_per_second": 0.098, "step": 27000 }, { "epoch": 36.013333333333335, "grad_norm": 0.6171875, "learning_rate": 9.992290577140395e-05, "loss": 0.4029, "step": 27010 }, { "epoch": 36.026666666666664, "grad_norm": 0.5859375, "learning_rate": 9.992284761082966e-05, "loss": 0.4162, "step": 27020 }, { "epoch": 36.04, "grad_norm": 0.53125, "learning_rate": 9.992278942834215e-05, "loss": 0.4285, "step": 27030 }, { "epoch": 36.053333333333335, "grad_norm": 0.5625, "learning_rate": 9.992273122394145e-05, "loss": 0.414, "step": 27040 }, { "epoch": 36.06666666666667, "grad_norm": 0.609375, "learning_rate": 9.992267299762757e-05, "loss": 0.4027, "step": 27050 }, { "epoch": 36.08, "grad_norm": 0.56640625, "learning_rate": 9.992261474940056e-05, "loss": 0.4062, "step": 27060 }, { "epoch": 36.093333333333334, "grad_norm": 0.55078125, "learning_rate": 9.992255647926043e-05, "loss": 0.4068, "step": 27070 }, { "epoch": 36.10666666666667, "grad_norm": 0.5, "learning_rate": 9.992249818720721e-05, "loss": 0.3941, "step": 27080 }, { "epoch": 36.12, "grad_norm": 0.59765625, "learning_rate": 9.992243987324092e-05, "loss": 0.3992, "step": 27090 }, { "epoch": 36.13333333333333, "grad_norm": 0.60546875, "learning_rate": 9.992238153736161e-05, "loss": 0.3905, "step": 27100 }, { "epoch": 36.14666666666667, "grad_norm": 0.62890625, "learning_rate": 9.992232317956927e-05, "loss": 0.4093, "step": 27110 }, { "epoch": 36.16, "grad_norm": 0.51171875, "learning_rate": 9.992226479986396e-05, "loss": 0.4024, "step": 27120 }, { "epoch": 36.17333333333333, "grad_norm": 0.6484375, "learning_rate": 9.992220639824567e-05, "loss": 0.3986, "step": 27130 }, { "epoch": 36.18666666666667, "grad_norm": 0.6796875, "learning_rate": 9.992214797471444e-05, "loss": 0.3966, "step": 27140 }, { "epoch": 36.2, "grad_norm": 0.625, "learning_rate": 9.992208952927032e-05, "loss": 0.3884, "step": 27150 }, { "epoch": 36.21333333333333, "grad_norm": 0.58984375, "learning_rate": 9.99220310619133e-05, "loss": 0.3901, "step": 27160 }, { "epoch": 36.22666666666667, "grad_norm": 0.85546875, "learning_rate": 9.992197257264343e-05, "loss": 0.4013, "step": 27170 }, { "epoch": 36.24, "grad_norm": 0.5625, "learning_rate": 9.992191406146073e-05, "loss": 0.3855, "step": 27180 }, { "epoch": 36.25333333333333, "grad_norm": 0.63671875, "learning_rate": 9.99218555283652e-05, "loss": 0.3883, "step": 27190 }, { "epoch": 36.266666666666666, "grad_norm": 0.6015625, "learning_rate": 9.99217969733569e-05, "loss": 0.3921, "step": 27200 }, { "epoch": 36.28, "grad_norm": 0.6015625, "learning_rate": 9.992173839643585e-05, "loss": 0.4212, "step": 27210 }, { "epoch": 36.29333333333334, "grad_norm": 0.60546875, "learning_rate": 9.992167979760205e-05, "loss": 0.3776, "step": 27220 }, { "epoch": 36.306666666666665, "grad_norm": 0.55859375, "learning_rate": 9.992162117685558e-05, "loss": 0.4007, "step": 27230 }, { "epoch": 36.32, "grad_norm": 0.486328125, "learning_rate": 9.99215625341964e-05, "loss": 0.403, "step": 27240 }, { "epoch": 36.333333333333336, "grad_norm": 0.625, "learning_rate": 9.992150386962458e-05, "loss": 0.4051, "step": 27250 }, { "epoch": 36.346666666666664, "grad_norm": 0.69140625, "learning_rate": 9.992144518314012e-05, "loss": 0.397, "step": 27260 }, { "epoch": 36.36, "grad_norm": 0.61328125, "learning_rate": 9.992138647474306e-05, "loss": 0.3975, "step": 27270 }, { "epoch": 36.373333333333335, "grad_norm": 0.5234375, "learning_rate": 9.992132774443343e-05, "loss": 0.3976, "step": 27280 }, { "epoch": 36.38666666666666, "grad_norm": 0.6015625, "learning_rate": 9.992126899221124e-05, "loss": 0.3897, "step": 27290 }, { "epoch": 36.4, "grad_norm": 0.55859375, "learning_rate": 9.992121021807654e-05, "loss": 0.3973, "step": 27300 }, { "epoch": 36.413333333333334, "grad_norm": 0.58203125, "learning_rate": 9.992115142202934e-05, "loss": 0.4017, "step": 27310 }, { "epoch": 36.42666666666667, "grad_norm": 0.56640625, "learning_rate": 9.992109260406966e-05, "loss": 0.4031, "step": 27320 }, { "epoch": 36.44, "grad_norm": 0.57421875, "learning_rate": 9.992103376419753e-05, "loss": 0.4159, "step": 27330 }, { "epoch": 36.45333333333333, "grad_norm": 0.5859375, "learning_rate": 9.992097490241298e-05, "loss": 0.4029, "step": 27340 }, { "epoch": 36.46666666666667, "grad_norm": 0.609375, "learning_rate": 9.992091601871603e-05, "loss": 0.4126, "step": 27350 }, { "epoch": 36.48, "grad_norm": 0.6328125, "learning_rate": 9.992085711310673e-05, "loss": 0.3945, "step": 27360 }, { "epoch": 36.49333333333333, "grad_norm": 0.546875, "learning_rate": 9.992079818558506e-05, "loss": 0.406, "step": 27370 }, { "epoch": 36.50666666666667, "grad_norm": 0.5703125, "learning_rate": 9.992073923615109e-05, "loss": 0.4036, "step": 27380 }, { "epoch": 36.52, "grad_norm": 0.5546875, "learning_rate": 9.99206802648048e-05, "loss": 0.3948, "step": 27390 }, { "epoch": 36.53333333333333, "grad_norm": 0.5546875, "learning_rate": 9.992062127154629e-05, "loss": 0.3971, "step": 27400 }, { "epoch": 36.54666666666667, "grad_norm": 0.62890625, "learning_rate": 9.992056225637551e-05, "loss": 0.3988, "step": 27410 }, { "epoch": 36.56, "grad_norm": 0.4921875, "learning_rate": 9.992050321929252e-05, "loss": 0.393, "step": 27420 }, { "epoch": 36.57333333333333, "grad_norm": 0.61328125, "learning_rate": 9.992044416029733e-05, "loss": 0.3973, "step": 27430 }, { "epoch": 36.586666666666666, "grad_norm": 0.55859375, "learning_rate": 9.992038507938998e-05, "loss": 0.3858, "step": 27440 }, { "epoch": 36.6, "grad_norm": 0.5703125, "learning_rate": 9.992032597657052e-05, "loss": 0.3868, "step": 27450 }, { "epoch": 36.61333333333333, "grad_norm": 0.53515625, "learning_rate": 9.992026685183893e-05, "loss": 0.3777, "step": 27460 }, { "epoch": 36.626666666666665, "grad_norm": 0.474609375, "learning_rate": 9.992020770519525e-05, "loss": 0.3816, "step": 27470 }, { "epoch": 36.64, "grad_norm": 0.60546875, "learning_rate": 9.992014853663951e-05, "loss": 0.3944, "step": 27480 }, { "epoch": 36.653333333333336, "grad_norm": 0.6171875, "learning_rate": 9.992008934617176e-05, "loss": 0.405, "step": 27490 }, { "epoch": 36.666666666666664, "grad_norm": 0.51171875, "learning_rate": 9.992003013379199e-05, "loss": 0.392, "step": 27500 }, { "epoch": 36.68, "grad_norm": 0.609375, "learning_rate": 9.991997089950023e-05, "loss": 0.3831, "step": 27510 }, { "epoch": 36.693333333333335, "grad_norm": 0.51171875, "learning_rate": 9.991991164329651e-05, "loss": 0.3917, "step": 27520 }, { "epoch": 36.70666666666666, "grad_norm": 0.63671875, "learning_rate": 9.991985236518087e-05, "loss": 0.385, "step": 27530 }, { "epoch": 36.72, "grad_norm": 0.69140625, "learning_rate": 9.991979306515333e-05, "loss": 0.4071, "step": 27540 }, { "epoch": 36.733333333333334, "grad_norm": 0.61328125, "learning_rate": 9.991973374321391e-05, "loss": 0.4022, "step": 27550 }, { "epoch": 36.74666666666667, "grad_norm": 0.65234375, "learning_rate": 9.991967439936265e-05, "loss": 0.4048, "step": 27560 }, { "epoch": 36.76, "grad_norm": 0.56640625, "learning_rate": 9.991961503359955e-05, "loss": 0.4161, "step": 27570 }, { "epoch": 36.77333333333333, "grad_norm": 0.6328125, "learning_rate": 9.991955564592466e-05, "loss": 0.4035, "step": 27580 }, { "epoch": 36.78666666666667, "grad_norm": 0.65625, "learning_rate": 9.991949623633798e-05, "loss": 0.4035, "step": 27590 }, { "epoch": 36.8, "grad_norm": 0.65234375, "learning_rate": 9.991943680483958e-05, "loss": 0.402, "step": 27600 }, { "epoch": 36.81333333333333, "grad_norm": 0.63671875, "learning_rate": 9.991937735142944e-05, "loss": 0.3763, "step": 27610 }, { "epoch": 36.82666666666667, "grad_norm": 0.54296875, "learning_rate": 9.991931787610761e-05, "loss": 0.3862, "step": 27620 }, { "epoch": 36.84, "grad_norm": 0.62890625, "learning_rate": 9.991925837887411e-05, "loss": 0.398, "step": 27630 }, { "epoch": 36.85333333333333, "grad_norm": 0.640625, "learning_rate": 9.991919885972898e-05, "loss": 0.3945, "step": 27640 }, { "epoch": 36.86666666666667, "grad_norm": 0.625, "learning_rate": 9.991913931867223e-05, "loss": 0.3977, "step": 27650 }, { "epoch": 36.88, "grad_norm": 0.609375, "learning_rate": 9.991907975570388e-05, "loss": 0.3779, "step": 27660 }, { "epoch": 36.89333333333333, "grad_norm": 0.56640625, "learning_rate": 9.991902017082397e-05, "loss": 0.3886, "step": 27670 }, { "epoch": 36.906666666666666, "grad_norm": 0.578125, "learning_rate": 9.991896056403252e-05, "loss": 0.3967, "step": 27680 }, { "epoch": 36.92, "grad_norm": 0.60546875, "learning_rate": 9.991890093532957e-05, "loss": 0.3983, "step": 27690 }, { "epoch": 36.93333333333333, "grad_norm": 0.58984375, "learning_rate": 9.991884128471511e-05, "loss": 0.3919, "step": 27700 }, { "epoch": 36.946666666666665, "grad_norm": 0.625, "learning_rate": 9.991878161218921e-05, "loss": 0.3928, "step": 27710 }, { "epoch": 36.96, "grad_norm": 0.515625, "learning_rate": 9.991872191775187e-05, "loss": 0.3907, "step": 27720 }, { "epoch": 36.973333333333336, "grad_norm": 0.66796875, "learning_rate": 9.991866220140313e-05, "loss": 0.4141, "step": 27730 }, { "epoch": 36.986666666666665, "grad_norm": 0.60546875, "learning_rate": 9.991860246314301e-05, "loss": 0.3882, "step": 27740 }, { "epoch": 37.0, "grad_norm": 0.55859375, "learning_rate": 9.991854270297153e-05, "loss": 0.3839, "step": 27750 }, { "epoch": 37.0, "eval_loss": 0.4304044842720032, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6475, "eval_samples_per_second": 1.503, "eval_steps_per_second": 0.094, "step": 27750 }, { "epoch": 37.013333333333335, "grad_norm": 0.6875, "learning_rate": 9.991848292088872e-05, "loss": 0.4016, "step": 27760 }, { "epoch": 37.026666666666664, "grad_norm": 0.578125, "learning_rate": 9.99184231168946e-05, "loss": 0.4158, "step": 27770 }, { "epoch": 37.04, "grad_norm": 0.6015625, "learning_rate": 9.991836329098923e-05, "loss": 0.4267, "step": 27780 }, { "epoch": 37.053333333333335, "grad_norm": 0.56640625, "learning_rate": 9.99183034431726e-05, "loss": 0.4122, "step": 27790 }, { "epoch": 37.06666666666667, "grad_norm": 0.62109375, "learning_rate": 9.991824357344475e-05, "loss": 0.4009, "step": 27800 }, { "epoch": 37.08, "grad_norm": 0.58203125, "learning_rate": 9.991818368180569e-05, "loss": 0.4043, "step": 27810 }, { "epoch": 37.093333333333334, "grad_norm": 0.62109375, "learning_rate": 9.991812376825547e-05, "loss": 0.4051, "step": 27820 }, { "epoch": 37.10666666666667, "grad_norm": 0.54296875, "learning_rate": 9.99180638327941e-05, "loss": 0.3933, "step": 27830 }, { "epoch": 37.12, "grad_norm": 0.6015625, "learning_rate": 9.99180038754216e-05, "loss": 0.3976, "step": 27840 }, { "epoch": 37.13333333333333, "grad_norm": 0.66015625, "learning_rate": 9.991794389613803e-05, "loss": 0.3892, "step": 27850 }, { "epoch": 37.14666666666667, "grad_norm": 0.58984375, "learning_rate": 9.991788389494339e-05, "loss": 0.4079, "step": 27860 }, { "epoch": 37.16, "grad_norm": 0.56640625, "learning_rate": 9.991782387183771e-05, "loss": 0.4022, "step": 27870 }, { "epoch": 37.17333333333333, "grad_norm": 0.66015625, "learning_rate": 9.9917763826821e-05, "loss": 0.398, "step": 27880 }, { "epoch": 37.18666666666667, "grad_norm": 0.59375, "learning_rate": 9.991770375989334e-05, "loss": 0.3958, "step": 27890 }, { "epoch": 37.2, "grad_norm": 0.6171875, "learning_rate": 9.99176436710547e-05, "loss": 0.387, "step": 27900 }, { "epoch": 37.21333333333333, "grad_norm": 0.52734375, "learning_rate": 9.991758356030511e-05, "loss": 0.3886, "step": 27910 }, { "epoch": 37.22666666666667, "grad_norm": 0.6015625, "learning_rate": 9.991752342764464e-05, "loss": 0.4002, "step": 27920 }, { "epoch": 37.24, "grad_norm": 0.6015625, "learning_rate": 9.991746327307328e-05, "loss": 0.3858, "step": 27930 }, { "epoch": 37.25333333333333, "grad_norm": 0.6875, "learning_rate": 9.991740309659106e-05, "loss": 0.3883, "step": 27940 }, { "epoch": 37.266666666666666, "grad_norm": 0.5703125, "learning_rate": 9.991734289819801e-05, "loss": 0.3899, "step": 27950 }, { "epoch": 37.28, "grad_norm": 0.6328125, "learning_rate": 9.991728267789415e-05, "loss": 0.4199, "step": 27960 }, { "epoch": 37.29333333333334, "grad_norm": 0.59765625, "learning_rate": 9.991722243567953e-05, "loss": 0.3776, "step": 27970 }, { "epoch": 37.306666666666665, "grad_norm": 0.5625, "learning_rate": 9.991716217155417e-05, "loss": 0.3997, "step": 27980 }, { "epoch": 37.32, "grad_norm": 0.5078125, "learning_rate": 9.991710188551809e-05, "loss": 0.402, "step": 27990 }, { "epoch": 37.333333333333336, "grad_norm": 0.6484375, "learning_rate": 9.991704157757129e-05, "loss": 0.4048, "step": 28000 }, { "epoch": 37.346666666666664, "grad_norm": 0.66015625, "learning_rate": 9.991698124771383e-05, "loss": 0.3951, "step": 28010 }, { "epoch": 37.36, "grad_norm": 0.625, "learning_rate": 9.991692089594573e-05, "loss": 0.3965, "step": 28020 }, { "epoch": 37.373333333333335, "grad_norm": 0.5234375, "learning_rate": 9.9916860522267e-05, "loss": 0.3961, "step": 28030 }, { "epoch": 37.38666666666666, "grad_norm": 0.6171875, "learning_rate": 9.99168001266777e-05, "loss": 0.3888, "step": 28040 }, { "epoch": 37.4, "grad_norm": 0.546875, "learning_rate": 9.991673970917783e-05, "loss": 0.3963, "step": 28050 }, { "epoch": 37.413333333333334, "grad_norm": 0.62890625, "learning_rate": 9.991667926976744e-05, "loss": 0.4013, "step": 28060 }, { "epoch": 37.42666666666667, "grad_norm": 0.578125, "learning_rate": 9.991661880844651e-05, "loss": 0.4023, "step": 28070 }, { "epoch": 37.44, "grad_norm": 0.60546875, "learning_rate": 9.991655832521512e-05, "loss": 0.4146, "step": 28080 }, { "epoch": 37.45333333333333, "grad_norm": 0.62109375, "learning_rate": 9.991649782007326e-05, "loss": 0.4025, "step": 28090 }, { "epoch": 37.46666666666667, "grad_norm": 0.58203125, "learning_rate": 9.991643729302096e-05, "loss": 0.4104, "step": 28100 }, { "epoch": 37.48, "grad_norm": 0.609375, "learning_rate": 9.991637674405827e-05, "loss": 0.393, "step": 28110 }, { "epoch": 37.49333333333333, "grad_norm": 0.5625, "learning_rate": 9.99163161731852e-05, "loss": 0.4041, "step": 28120 }, { "epoch": 37.50666666666667, "grad_norm": 0.5859375, "learning_rate": 9.991625558040178e-05, "loss": 0.4029, "step": 28130 }, { "epoch": 37.52, "grad_norm": 0.5078125, "learning_rate": 9.991619496570804e-05, "loss": 0.3937, "step": 28140 }, { "epoch": 37.53333333333333, "grad_norm": 0.5625, "learning_rate": 9.9916134329104e-05, "loss": 0.3966, "step": 28150 }, { "epoch": 37.54666666666667, "grad_norm": 0.6484375, "learning_rate": 9.991607367058969e-05, "loss": 0.3978, "step": 28160 }, { "epoch": 37.56, "grad_norm": 0.546875, "learning_rate": 9.991601299016513e-05, "loss": 0.392, "step": 28170 }, { "epoch": 37.57333333333333, "grad_norm": 0.63671875, "learning_rate": 9.991595228783035e-05, "loss": 0.3967, "step": 28180 }, { "epoch": 37.586666666666666, "grad_norm": 0.609375, "learning_rate": 9.991589156358538e-05, "loss": 0.3845, "step": 28190 }, { "epoch": 37.6, "grad_norm": 0.55859375, "learning_rate": 9.991583081743026e-05, "loss": 0.3867, "step": 28200 }, { "epoch": 37.61333333333333, "grad_norm": 0.48046875, "learning_rate": 9.991577004936499e-05, "loss": 0.3767, "step": 28210 }, { "epoch": 37.626666666666665, "grad_norm": 0.52734375, "learning_rate": 9.99157092593896e-05, "loss": 0.3814, "step": 28220 }, { "epoch": 37.64, "grad_norm": 0.58984375, "learning_rate": 9.991564844750414e-05, "loss": 0.3932, "step": 28230 }, { "epoch": 37.653333333333336, "grad_norm": 0.5859375, "learning_rate": 9.991558761370862e-05, "loss": 0.4032, "step": 28240 }, { "epoch": 37.666666666666664, "grad_norm": 0.515625, "learning_rate": 9.991552675800307e-05, "loss": 0.3907, "step": 28250 }, { "epoch": 37.68, "grad_norm": 0.56640625, "learning_rate": 9.991546588038751e-05, "loss": 0.3827, "step": 28260 }, { "epoch": 37.693333333333335, "grad_norm": 0.5859375, "learning_rate": 9.991540498086196e-05, "loss": 0.3916, "step": 28270 }, { "epoch": 37.70666666666666, "grad_norm": 0.69921875, "learning_rate": 9.991534405942649e-05, "loss": 0.3846, "step": 28280 }, { "epoch": 37.72, "grad_norm": 0.6875, "learning_rate": 9.991528311608107e-05, "loss": 0.4065, "step": 28290 }, { "epoch": 37.733333333333334, "grad_norm": 0.65234375, "learning_rate": 9.991522215082577e-05, "loss": 0.4005, "step": 28300 }, { "epoch": 37.74666666666667, "grad_norm": 0.87890625, "learning_rate": 9.991516116366059e-05, "loss": 0.403, "step": 28310 }, { "epoch": 37.76, "grad_norm": 1.3125, "learning_rate": 9.991510015458556e-05, "loss": 0.4167, "step": 28320 }, { "epoch": 37.77333333333333, "grad_norm": 0.65625, "learning_rate": 9.991503912360073e-05, "loss": 0.4032, "step": 28330 }, { "epoch": 37.78666666666667, "grad_norm": 0.515625, "learning_rate": 9.99149780707061e-05, "loss": 0.4028, "step": 28340 }, { "epoch": 37.8, "grad_norm": 0.609375, "learning_rate": 9.99149169959017e-05, "loss": 0.4021, "step": 28350 }, { "epoch": 37.81333333333333, "grad_norm": 0.6328125, "learning_rate": 9.991485589918758e-05, "loss": 0.3758, "step": 28360 }, { "epoch": 37.82666666666667, "grad_norm": 0.6171875, "learning_rate": 9.991479478056374e-05, "loss": 0.3852, "step": 28370 }, { "epoch": 37.84, "grad_norm": 0.5859375, "learning_rate": 9.991473364003022e-05, "loss": 0.3968, "step": 28380 }, { "epoch": 37.85333333333333, "grad_norm": 0.5859375, "learning_rate": 9.991467247758704e-05, "loss": 0.3924, "step": 28390 }, { "epoch": 37.86666666666667, "grad_norm": 0.5703125, "learning_rate": 9.991461129323423e-05, "loss": 0.3966, "step": 28400 }, { "epoch": 37.88, "grad_norm": 0.57421875, "learning_rate": 9.991455008697182e-05, "loss": 0.3767, "step": 28410 }, { "epoch": 37.89333333333333, "grad_norm": 0.55078125, "learning_rate": 9.991448885879983e-05, "loss": 0.388, "step": 28420 }, { "epoch": 37.906666666666666, "grad_norm": 0.55859375, "learning_rate": 9.99144276087183e-05, "loss": 0.3958, "step": 28430 }, { "epoch": 37.92, "grad_norm": 0.57421875, "learning_rate": 9.991436633672724e-05, "loss": 0.3971, "step": 28440 }, { "epoch": 37.93333333333333, "grad_norm": 0.5859375, "learning_rate": 9.991430504282668e-05, "loss": 0.39, "step": 28450 }, { "epoch": 37.946666666666665, "grad_norm": 0.6171875, "learning_rate": 9.991424372701666e-05, "loss": 0.3924, "step": 28460 }, { "epoch": 37.96, "grad_norm": 0.52734375, "learning_rate": 9.99141823892972e-05, "loss": 0.3889, "step": 28470 }, { "epoch": 37.973333333333336, "grad_norm": 0.6796875, "learning_rate": 9.991412102966832e-05, "loss": 0.4142, "step": 28480 }, { "epoch": 37.986666666666665, "grad_norm": 0.59375, "learning_rate": 9.991405964813006e-05, "loss": 0.3868, "step": 28490 }, { "epoch": 38.0, "grad_norm": 0.578125, "learning_rate": 9.991399824468243e-05, "loss": 0.3822, "step": 28500 }, { "epoch": 38.0, "eval_loss": 0.42871570587158203, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5789, "eval_samples_per_second": 1.512, "eval_steps_per_second": 0.095, "step": 28500 }, { "epoch": 38.013333333333335, "grad_norm": 0.640625, "learning_rate": 9.991393681932549e-05, "loss": 0.4006, "step": 28510 }, { "epoch": 38.026666666666664, "grad_norm": 0.54296875, "learning_rate": 9.991387537205921e-05, "loss": 0.4142, "step": 28520 }, { "epoch": 38.04, "grad_norm": 0.59375, "learning_rate": 9.991381390288368e-05, "loss": 0.4257, "step": 28530 }, { "epoch": 38.053333333333335, "grad_norm": 0.57421875, "learning_rate": 9.991375241179887e-05, "loss": 0.4123, "step": 28540 }, { "epoch": 38.06666666666667, "grad_norm": 0.58203125, "learning_rate": 9.991369089880486e-05, "loss": 0.3994, "step": 28550 }, { "epoch": 38.08, "grad_norm": 0.63671875, "learning_rate": 9.991362936390164e-05, "loss": 0.4042, "step": 28560 }, { "epoch": 38.093333333333334, "grad_norm": 0.609375, "learning_rate": 9.991356780708925e-05, "loss": 0.4049, "step": 28570 }, { "epoch": 38.10666666666667, "grad_norm": 0.546875, "learning_rate": 9.991350622836771e-05, "loss": 0.3927, "step": 28580 }, { "epoch": 38.12, "grad_norm": 0.59765625, "learning_rate": 9.991344462773706e-05, "loss": 0.3967, "step": 28590 }, { "epoch": 38.13333333333333, "grad_norm": 0.5859375, "learning_rate": 9.991338300519732e-05, "loss": 0.3885, "step": 28600 }, { "epoch": 38.14666666666667, "grad_norm": 0.5859375, "learning_rate": 9.991332136074851e-05, "loss": 0.4077, "step": 28610 }, { "epoch": 38.16, "grad_norm": 0.54296875, "learning_rate": 9.991325969439067e-05, "loss": 0.4011, "step": 28620 }, { "epoch": 38.17333333333333, "grad_norm": 0.546875, "learning_rate": 9.991319800612382e-05, "loss": 0.3968, "step": 28630 }, { "epoch": 38.18666666666667, "grad_norm": 0.59375, "learning_rate": 9.991313629594799e-05, "loss": 0.3945, "step": 28640 }, { "epoch": 38.2, "grad_norm": 0.66015625, "learning_rate": 9.991307456386318e-05, "loss": 0.3863, "step": 28650 }, { "epoch": 38.21333333333333, "grad_norm": 0.609375, "learning_rate": 9.991301280986946e-05, "loss": 0.3875, "step": 28660 }, { "epoch": 38.22666666666667, "grad_norm": 0.56640625, "learning_rate": 9.991295103396684e-05, "loss": 0.3999, "step": 28670 }, { "epoch": 38.24, "grad_norm": 0.61328125, "learning_rate": 9.991288923615536e-05, "loss": 0.3854, "step": 28680 }, { "epoch": 38.25333333333333, "grad_norm": 0.6484375, "learning_rate": 9.991282741643501e-05, "loss": 0.3869, "step": 28690 }, { "epoch": 38.266666666666666, "grad_norm": 0.640625, "learning_rate": 9.991276557480586e-05, "loss": 0.3888, "step": 28700 }, { "epoch": 38.28, "grad_norm": 0.640625, "learning_rate": 9.991270371126792e-05, "loss": 0.4193, "step": 28710 }, { "epoch": 38.29333333333334, "grad_norm": 0.5859375, "learning_rate": 9.991264182582121e-05, "loss": 0.376, "step": 28720 }, { "epoch": 38.306666666666665, "grad_norm": 0.5859375, "learning_rate": 9.991257991846575e-05, "loss": 0.3988, "step": 28730 }, { "epoch": 38.32, "grad_norm": 0.52734375, "learning_rate": 9.991251798920158e-05, "loss": 0.4012, "step": 28740 }, { "epoch": 38.333333333333336, "grad_norm": 0.66015625, "learning_rate": 9.991245603802874e-05, "loss": 0.4043, "step": 28750 }, { "epoch": 38.346666666666664, "grad_norm": 0.6484375, "learning_rate": 9.991239406494723e-05, "loss": 0.3938, "step": 28760 }, { "epoch": 38.36, "grad_norm": 0.640625, "learning_rate": 9.991233206995709e-05, "loss": 0.3954, "step": 28770 }, { "epoch": 38.373333333333335, "grad_norm": 0.5234375, "learning_rate": 9.991227005305837e-05, "loss": 0.3956, "step": 28780 }, { "epoch": 38.38666666666666, "grad_norm": 0.6328125, "learning_rate": 9.991220801425105e-05, "loss": 0.3869, "step": 28790 }, { "epoch": 38.4, "grad_norm": 0.61328125, "learning_rate": 9.99121459535352e-05, "loss": 0.3955, "step": 28800 }, { "epoch": 38.413333333333334, "grad_norm": 0.57421875, "learning_rate": 9.991208387091081e-05, "loss": 0.3999, "step": 28810 }, { "epoch": 38.42666666666667, "grad_norm": 0.55859375, "learning_rate": 9.991202176637794e-05, "loss": 0.4018, "step": 28820 }, { "epoch": 38.44, "grad_norm": 0.64453125, "learning_rate": 9.99119596399366e-05, "loss": 0.4141, "step": 28830 }, { "epoch": 38.45333333333333, "grad_norm": 0.6171875, "learning_rate": 9.991189749158683e-05, "loss": 0.4011, "step": 28840 }, { "epoch": 38.46666666666667, "grad_norm": 0.61328125, "learning_rate": 9.991183532132864e-05, "loss": 0.4102, "step": 28850 }, { "epoch": 38.48, "grad_norm": 0.5703125, "learning_rate": 9.991177312916206e-05, "loss": 0.3923, "step": 28860 }, { "epoch": 38.49333333333333, "grad_norm": 0.56640625, "learning_rate": 9.991171091508713e-05, "loss": 0.4041, "step": 28870 }, { "epoch": 38.50666666666667, "grad_norm": 0.59765625, "learning_rate": 9.991164867910388e-05, "loss": 0.4021, "step": 28880 }, { "epoch": 38.52, "grad_norm": 0.5546875, "learning_rate": 9.991158642121232e-05, "loss": 0.3929, "step": 28890 }, { "epoch": 38.53333333333333, "grad_norm": 0.53125, "learning_rate": 9.991152414141248e-05, "loss": 0.3955, "step": 28900 }, { "epoch": 38.54666666666667, "grad_norm": 0.6171875, "learning_rate": 9.99114618397044e-05, "loss": 0.3978, "step": 28910 }, { "epoch": 38.56, "grad_norm": 0.53125, "learning_rate": 9.99113995160881e-05, "loss": 0.391, "step": 28920 }, { "epoch": 38.57333333333333, "grad_norm": 0.58203125, "learning_rate": 9.99113371705636e-05, "loss": 0.3956, "step": 28930 }, { "epoch": 38.586666666666666, "grad_norm": 0.52734375, "learning_rate": 9.991127480313093e-05, "loss": 0.3841, "step": 28940 }, { "epoch": 38.6, "grad_norm": 0.5390625, "learning_rate": 9.991121241379014e-05, "loss": 0.3859, "step": 28950 }, { "epoch": 38.61333333333333, "grad_norm": 0.5078125, "learning_rate": 9.991115000254123e-05, "loss": 0.3753, "step": 28960 }, { "epoch": 38.626666666666665, "grad_norm": 0.5078125, "learning_rate": 9.991108756938424e-05, "loss": 0.3812, "step": 28970 }, { "epoch": 38.64, "grad_norm": 0.66015625, "learning_rate": 9.99110251143192e-05, "loss": 0.3933, "step": 28980 }, { "epoch": 38.653333333333336, "grad_norm": 0.6171875, "learning_rate": 9.991096263734612e-05, "loss": 0.4026, "step": 28990 }, { "epoch": 38.666666666666664, "grad_norm": 0.546875, "learning_rate": 9.991090013846505e-05, "loss": 0.3902, "step": 29000 }, { "epoch": 38.68, "grad_norm": 0.6328125, "learning_rate": 9.9910837617676e-05, "loss": 0.3811, "step": 29010 }, { "epoch": 38.693333333333335, "grad_norm": 0.57421875, "learning_rate": 9.9910775074979e-05, "loss": 0.3904, "step": 29020 }, { "epoch": 38.70666666666666, "grad_norm": 0.70703125, "learning_rate": 9.991071251037408e-05, "loss": 0.384, "step": 29030 }, { "epoch": 38.72, "grad_norm": 0.5859375, "learning_rate": 9.991064992386128e-05, "loss": 0.4057, "step": 29040 }, { "epoch": 38.733333333333334, "grad_norm": 0.60546875, "learning_rate": 9.991058731544061e-05, "loss": 0.3995, "step": 29050 }, { "epoch": 38.74666666666667, "grad_norm": 0.54296875, "learning_rate": 9.99105246851121e-05, "loss": 0.4027, "step": 29060 }, { "epoch": 38.76, "grad_norm": 0.6015625, "learning_rate": 9.991046203287577e-05, "loss": 0.4157, "step": 29070 }, { "epoch": 38.77333333333333, "grad_norm": 0.6796875, "learning_rate": 9.991039935873168e-05, "loss": 0.4011, "step": 29080 }, { "epoch": 38.78666666666667, "grad_norm": 0.5703125, "learning_rate": 9.991033666267984e-05, "loss": 0.4029, "step": 29090 }, { "epoch": 38.8, "grad_norm": 0.5859375, "learning_rate": 9.991027394472026e-05, "loss": 0.4012, "step": 29100 }, { "epoch": 38.81333333333333, "grad_norm": 0.703125, "learning_rate": 9.991021120485297e-05, "loss": 0.3746, "step": 29110 }, { "epoch": 38.82666666666667, "grad_norm": 0.55859375, "learning_rate": 9.991014844307803e-05, "loss": 0.3845, "step": 29120 }, { "epoch": 38.84, "grad_norm": 0.609375, "learning_rate": 9.991008565939544e-05, "loss": 0.3962, "step": 29130 }, { "epoch": 38.85333333333333, "grad_norm": 0.57421875, "learning_rate": 9.991002285380524e-05, "loss": 0.3918, "step": 29140 }, { "epoch": 38.86666666666667, "grad_norm": 0.57421875, "learning_rate": 9.990996002630744e-05, "loss": 0.3966, "step": 29150 }, { "epoch": 38.88, "grad_norm": 0.578125, "learning_rate": 9.990989717690209e-05, "loss": 0.3756, "step": 29160 }, { "epoch": 38.89333333333333, "grad_norm": 0.58984375, "learning_rate": 9.99098343055892e-05, "loss": 0.3877, "step": 29170 }, { "epoch": 38.906666666666666, "grad_norm": 0.6171875, "learning_rate": 9.990977141236882e-05, "loss": 0.395, "step": 29180 }, { "epoch": 38.92, "grad_norm": 0.59765625, "learning_rate": 9.990970849724093e-05, "loss": 0.397, "step": 29190 }, { "epoch": 38.93333333333333, "grad_norm": 0.5390625, "learning_rate": 9.990964556020562e-05, "loss": 0.3908, "step": 29200 }, { "epoch": 38.946666666666665, "grad_norm": 0.578125, "learning_rate": 9.990958260126287e-05, "loss": 0.3912, "step": 29210 }, { "epoch": 38.96, "grad_norm": 0.5234375, "learning_rate": 9.990951962041273e-05, "loss": 0.3891, "step": 29220 }, { "epoch": 38.973333333333336, "grad_norm": 0.71875, "learning_rate": 9.990945661765522e-05, "loss": 0.4126, "step": 29230 }, { "epoch": 38.986666666666665, "grad_norm": 0.60546875, "learning_rate": 9.990939359299036e-05, "loss": 0.3863, "step": 29240 }, { "epoch": 39.0, "grad_norm": 0.58984375, "learning_rate": 9.99093305464182e-05, "loss": 0.3819, "step": 29250 }, { "epoch": 39.0, "eval_loss": 0.4291161000728607, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.7464, "eval_samples_per_second": 1.489, "eval_steps_per_second": 0.093, "step": 29250 }, { "epoch": 39.013333333333335, "grad_norm": 0.59765625, "learning_rate": 9.990926747793876e-05, "loss": 0.3997, "step": 29260 }, { "epoch": 39.026666666666664, "grad_norm": 0.55078125, "learning_rate": 9.990920438755206e-05, "loss": 0.414, "step": 29270 }, { "epoch": 39.04, "grad_norm": 0.55078125, "learning_rate": 9.990914127525812e-05, "loss": 0.4255, "step": 29280 }, { "epoch": 39.053333333333335, "grad_norm": 0.6015625, "learning_rate": 9.990907814105699e-05, "loss": 0.4114, "step": 29290 }, { "epoch": 39.06666666666667, "grad_norm": 0.6875, "learning_rate": 9.990901498494869e-05, "loss": 0.3997, "step": 29300 }, { "epoch": 39.08, "grad_norm": 0.609375, "learning_rate": 9.990895180693324e-05, "loss": 0.4036, "step": 29310 }, { "epoch": 39.093333333333334, "grad_norm": 0.5546875, "learning_rate": 9.990888860701067e-05, "loss": 0.4044, "step": 29320 }, { "epoch": 39.10666666666667, "grad_norm": 0.54296875, "learning_rate": 9.9908825385181e-05, "loss": 0.3928, "step": 29330 }, { "epoch": 39.12, "grad_norm": 0.6328125, "learning_rate": 9.990876214144428e-05, "loss": 0.3959, "step": 29340 }, { "epoch": 39.13333333333333, "grad_norm": 0.6015625, "learning_rate": 9.990869887580053e-05, "loss": 0.3876, "step": 29350 }, { "epoch": 39.14666666666667, "grad_norm": 0.5703125, "learning_rate": 9.990863558824975e-05, "loss": 0.4066, "step": 29360 }, { "epoch": 39.16, "grad_norm": 0.51171875, "learning_rate": 9.9908572278792e-05, "loss": 0.4001, "step": 29370 }, { "epoch": 39.17333333333333, "grad_norm": 0.66796875, "learning_rate": 9.990850894742731e-05, "loss": 0.3956, "step": 29380 }, { "epoch": 39.18666666666667, "grad_norm": 0.55859375, "learning_rate": 9.990844559415568e-05, "loss": 0.3938, "step": 29390 }, { "epoch": 39.2, "grad_norm": 0.58984375, "learning_rate": 9.990838221897716e-05, "loss": 0.3863, "step": 29400 }, { "epoch": 39.21333333333333, "grad_norm": 0.60546875, "learning_rate": 9.990831882189177e-05, "loss": 0.3877, "step": 29410 }, { "epoch": 39.22666666666667, "grad_norm": 0.71484375, "learning_rate": 9.990825540289955e-05, "loss": 0.3985, "step": 29420 }, { "epoch": 39.24, "grad_norm": 0.6640625, "learning_rate": 9.990819196200051e-05, "loss": 0.3841, "step": 29430 }, { "epoch": 39.25333333333333, "grad_norm": 0.7109375, "learning_rate": 9.990812849919469e-05, "loss": 0.3865, "step": 29440 }, { "epoch": 39.266666666666666, "grad_norm": 0.6484375, "learning_rate": 9.990806501448211e-05, "loss": 0.3892, "step": 29450 }, { "epoch": 39.28, "grad_norm": 0.62109375, "learning_rate": 9.99080015078628e-05, "loss": 0.4185, "step": 29460 }, { "epoch": 39.29333333333334, "grad_norm": 0.62890625, "learning_rate": 9.990793797933678e-05, "loss": 0.375, "step": 29470 }, { "epoch": 39.306666666666665, "grad_norm": 0.5859375, "learning_rate": 9.99078744289041e-05, "loss": 0.3992, "step": 29480 }, { "epoch": 39.32, "grad_norm": 0.5078125, "learning_rate": 9.990781085656477e-05, "loss": 0.4006, "step": 29490 }, { "epoch": 39.333333333333336, "grad_norm": 0.625, "learning_rate": 9.990774726231881e-05, "loss": 0.4034, "step": 29500 }, { "epoch": 39.346666666666664, "grad_norm": 0.6875, "learning_rate": 9.990768364616629e-05, "loss": 0.3929, "step": 29510 }, { "epoch": 39.36, "grad_norm": 0.62109375, "learning_rate": 9.990762000810718e-05, "loss": 0.3932, "step": 29520 }, { "epoch": 39.373333333333335, "grad_norm": 0.54296875, "learning_rate": 9.990755634814155e-05, "loss": 0.395, "step": 29530 }, { "epoch": 39.38666666666666, "grad_norm": 0.69921875, "learning_rate": 9.990749266626942e-05, "loss": 0.3861, "step": 29540 }, { "epoch": 39.4, "grad_norm": 0.6171875, "learning_rate": 9.99074289624908e-05, "loss": 0.3944, "step": 29550 }, { "epoch": 39.413333333333334, "grad_norm": 0.5703125, "learning_rate": 9.990736523680573e-05, "loss": 0.3996, "step": 29560 }, { "epoch": 39.42666666666667, "grad_norm": 0.60546875, "learning_rate": 9.990730148921424e-05, "loss": 0.4008, "step": 29570 }, { "epoch": 39.44, "grad_norm": 0.609375, "learning_rate": 9.990723771971637e-05, "loss": 0.4135, "step": 29580 }, { "epoch": 39.45333333333333, "grad_norm": 0.6796875, "learning_rate": 9.990717392831212e-05, "loss": 0.4007, "step": 29590 }, { "epoch": 39.46666666666667, "grad_norm": 0.58203125, "learning_rate": 9.990711011500154e-05, "loss": 0.4091, "step": 29600 }, { "epoch": 39.48, "grad_norm": 0.66015625, "learning_rate": 9.990704627978463e-05, "loss": 0.3916, "step": 29610 }, { "epoch": 39.49333333333333, "grad_norm": 0.6015625, "learning_rate": 9.990698242266145e-05, "loss": 0.4026, "step": 29620 }, { "epoch": 39.50666666666667, "grad_norm": 0.59765625, "learning_rate": 9.990691854363203e-05, "loss": 0.4016, "step": 29630 }, { "epoch": 39.52, "grad_norm": 0.51953125, "learning_rate": 9.990685464269636e-05, "loss": 0.3922, "step": 29640 }, { "epoch": 39.53333333333333, "grad_norm": 0.59765625, "learning_rate": 9.990679071985452e-05, "loss": 0.3953, "step": 29650 }, { "epoch": 39.54666666666667, "grad_norm": 0.64453125, "learning_rate": 9.990672677510649e-05, "loss": 0.3959, "step": 29660 }, { "epoch": 39.56, "grad_norm": 0.515625, "learning_rate": 9.990666280845232e-05, "loss": 0.3908, "step": 29670 }, { "epoch": 39.57333333333333, "grad_norm": 0.57421875, "learning_rate": 9.990659881989204e-05, "loss": 0.3951, "step": 29680 }, { "epoch": 39.586666666666666, "grad_norm": 0.63671875, "learning_rate": 9.990653480942567e-05, "loss": 0.3834, "step": 29690 }, { "epoch": 39.6, "grad_norm": 0.53515625, "learning_rate": 9.990647077705323e-05, "loss": 0.3854, "step": 29700 }, { "epoch": 39.61333333333333, "grad_norm": 0.53515625, "learning_rate": 9.990640672277479e-05, "loss": 0.3755, "step": 29710 }, { "epoch": 39.626666666666665, "grad_norm": 0.498046875, "learning_rate": 9.990634264659033e-05, "loss": 0.3801, "step": 29720 }, { "epoch": 39.64, "grad_norm": 0.60546875, "learning_rate": 9.990627854849991e-05, "loss": 0.392, "step": 29730 }, { "epoch": 39.653333333333336, "grad_norm": 0.6328125, "learning_rate": 9.990621442850355e-05, "loss": 0.4023, "step": 29740 }, { "epoch": 39.666666666666664, "grad_norm": 0.53515625, "learning_rate": 9.990615028660125e-05, "loss": 0.3889, "step": 29750 }, { "epoch": 39.68, "grad_norm": 0.58203125, "learning_rate": 9.990608612279308e-05, "loss": 0.3803, "step": 29760 }, { "epoch": 39.693333333333335, "grad_norm": 0.53515625, "learning_rate": 9.990602193707903e-05, "loss": 0.3901, "step": 29770 }, { "epoch": 39.70666666666666, "grad_norm": 0.65234375, "learning_rate": 9.990595772945916e-05, "loss": 0.3832, "step": 29780 }, { "epoch": 39.72, "grad_norm": 0.59765625, "learning_rate": 9.990589349993349e-05, "loss": 0.4057, "step": 29790 }, { "epoch": 39.733333333333334, "grad_norm": 0.65234375, "learning_rate": 9.990582924850205e-05, "loss": 0.3999, "step": 29800 }, { "epoch": 39.74666666666667, "grad_norm": 0.59375, "learning_rate": 9.990576497516484e-05, "loss": 0.4015, "step": 29810 }, { "epoch": 39.76, "grad_norm": 0.609375, "learning_rate": 9.990570067992193e-05, "loss": 0.4137, "step": 29820 }, { "epoch": 39.77333333333333, "grad_norm": 0.71484375, "learning_rate": 9.990563636277332e-05, "loss": 0.401, "step": 29830 }, { "epoch": 39.78666666666667, "grad_norm": 0.51171875, "learning_rate": 9.990557202371904e-05, "loss": 0.4017, "step": 29840 }, { "epoch": 39.8, "grad_norm": 0.56640625, "learning_rate": 9.990550766275915e-05, "loss": 0.3999, "step": 29850 }, { "epoch": 39.81333333333333, "grad_norm": 0.65234375, "learning_rate": 9.990544327989363e-05, "loss": 0.375, "step": 29860 }, { "epoch": 39.82666666666667, "grad_norm": 0.60546875, "learning_rate": 9.990537887512253e-05, "loss": 0.3834, "step": 29870 }, { "epoch": 39.84, "grad_norm": 0.6015625, "learning_rate": 9.990531444844589e-05, "loss": 0.3945, "step": 29880 }, { "epoch": 39.85333333333333, "grad_norm": 0.64453125, "learning_rate": 9.990524999986372e-05, "loss": 0.391, "step": 29890 }, { "epoch": 39.86666666666667, "grad_norm": 0.66015625, "learning_rate": 9.990518552937608e-05, "loss": 0.3952, "step": 29900 }, { "epoch": 39.88, "grad_norm": 0.51953125, "learning_rate": 9.990512103698295e-05, "loss": 0.3758, "step": 29910 }, { "epoch": 39.89333333333333, "grad_norm": 0.6640625, "learning_rate": 9.99050565226844e-05, "loss": 0.3874, "step": 29920 }, { "epoch": 39.906666666666666, "grad_norm": 0.5859375, "learning_rate": 9.990499198648042e-05, "loss": 0.3943, "step": 29930 }, { "epoch": 39.92, "grad_norm": 0.59765625, "learning_rate": 9.990492742837108e-05, "loss": 0.396, "step": 29940 }, { "epoch": 39.93333333333333, "grad_norm": 0.5703125, "learning_rate": 9.990486284835639e-05, "loss": 0.3891, "step": 29950 }, { "epoch": 39.946666666666665, "grad_norm": 0.6171875, "learning_rate": 9.990479824643636e-05, "loss": 0.3899, "step": 29960 }, { "epoch": 39.96, "grad_norm": 0.6015625, "learning_rate": 9.990473362261104e-05, "loss": 0.3882, "step": 29970 }, { "epoch": 39.973333333333336, "grad_norm": 0.71484375, "learning_rate": 9.990466897688045e-05, "loss": 0.4122, "step": 29980 }, { "epoch": 39.986666666666665, "grad_norm": 0.5546875, "learning_rate": 9.990460430924464e-05, "loss": 0.3861, "step": 29990 }, { "epoch": 40.0, "grad_norm": 0.640625, "learning_rate": 9.990453961970361e-05, "loss": 0.3815, "step": 30000 }, { "epoch": 40.0, "eval_loss": 0.42927709221839905, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8254, "eval_samples_per_second": 1.478, "eval_steps_per_second": 0.092, "step": 30000 }, { "epoch": 40.013333333333335, "grad_norm": 0.68359375, "learning_rate": 9.990447490825738e-05, "loss": 0.3999, "step": 30010 }, { "epoch": 40.026666666666664, "grad_norm": 0.578125, "learning_rate": 9.990441017490601e-05, "loss": 0.4131, "step": 30020 }, { "epoch": 40.04, "grad_norm": 0.640625, "learning_rate": 9.990434541964952e-05, "loss": 0.4247, "step": 30030 }, { "epoch": 40.053333333333335, "grad_norm": 0.53515625, "learning_rate": 9.990428064248794e-05, "loss": 0.4105, "step": 30040 }, { "epoch": 40.06666666666667, "grad_norm": 0.61328125, "learning_rate": 9.990421584342129e-05, "loss": 0.3988, "step": 30050 }, { "epoch": 40.08, "grad_norm": 0.578125, "learning_rate": 9.990415102244959e-05, "loss": 0.4021, "step": 30060 }, { "epoch": 40.093333333333334, "grad_norm": 0.59375, "learning_rate": 9.990408617957287e-05, "loss": 0.4042, "step": 30070 }, { "epoch": 40.10666666666667, "grad_norm": 0.578125, "learning_rate": 9.990402131479118e-05, "loss": 0.3911, "step": 30080 }, { "epoch": 40.12, "grad_norm": 0.5703125, "learning_rate": 9.990395642810456e-05, "loss": 0.3959, "step": 30090 }, { "epoch": 40.13333333333333, "grad_norm": 0.56640625, "learning_rate": 9.990389151951297e-05, "loss": 0.3868, "step": 30100 }, { "epoch": 40.14666666666667, "grad_norm": 0.57421875, "learning_rate": 9.990382658901651e-05, "loss": 0.406, "step": 30110 }, { "epoch": 40.16, "grad_norm": 0.5546875, "learning_rate": 9.990376163661517e-05, "loss": 0.3993, "step": 30120 }, { "epoch": 40.17333333333333, "grad_norm": 0.59765625, "learning_rate": 9.990369666230899e-05, "loss": 0.3948, "step": 30130 }, { "epoch": 40.18666666666667, "grad_norm": 0.57421875, "learning_rate": 9.9903631666098e-05, "loss": 0.3938, "step": 30140 }, { "epoch": 40.2, "grad_norm": 0.61328125, "learning_rate": 9.990356664798223e-05, "loss": 0.3851, "step": 30150 }, { "epoch": 40.21333333333333, "grad_norm": 0.65234375, "learning_rate": 9.990350160796172e-05, "loss": 0.3869, "step": 30160 }, { "epoch": 40.22666666666667, "grad_norm": 0.671875, "learning_rate": 9.990343654603647e-05, "loss": 0.3982, "step": 30170 }, { "epoch": 40.24, "grad_norm": 0.609375, "learning_rate": 9.990337146220652e-05, "loss": 0.3829, "step": 30180 }, { "epoch": 40.25333333333333, "grad_norm": 0.69140625, "learning_rate": 9.99033063564719e-05, "loss": 0.3859, "step": 30190 }, { "epoch": 40.266666666666666, "grad_norm": 0.5078125, "learning_rate": 9.990324122883264e-05, "loss": 0.3873, "step": 30200 }, { "epoch": 40.28, "grad_norm": 0.55859375, "learning_rate": 9.990317607928876e-05, "loss": 0.4164, "step": 30210 }, { "epoch": 40.29333333333334, "grad_norm": 0.5703125, "learning_rate": 9.990311090784031e-05, "loss": 0.3745, "step": 30220 }, { "epoch": 40.306666666666665, "grad_norm": 0.5546875, "learning_rate": 9.99030457144873e-05, "loss": 0.3981, "step": 30230 }, { "epoch": 40.32, "grad_norm": 0.61328125, "learning_rate": 9.990298049922977e-05, "loss": 0.4002, "step": 30240 }, { "epoch": 40.333333333333336, "grad_norm": 0.6015625, "learning_rate": 9.990291526206775e-05, "loss": 0.4016, "step": 30250 }, { "epoch": 40.346666666666664, "grad_norm": 0.69140625, "learning_rate": 9.990285000300123e-05, "loss": 0.3927, "step": 30260 }, { "epoch": 40.36, "grad_norm": 0.65234375, "learning_rate": 9.99027847220303e-05, "loss": 0.3936, "step": 30270 }, { "epoch": 40.373333333333335, "grad_norm": 0.55859375, "learning_rate": 9.990271941915495e-05, "loss": 0.3947, "step": 30280 }, { "epoch": 40.38666666666666, "grad_norm": 0.6171875, "learning_rate": 9.990265409437523e-05, "loss": 0.3865, "step": 30290 }, { "epoch": 40.4, "grad_norm": 0.65625, "learning_rate": 9.990258874769114e-05, "loss": 0.3939, "step": 30300 }, { "epoch": 40.413333333333334, "grad_norm": 0.58203125, "learning_rate": 9.990252337910272e-05, "loss": 0.3986, "step": 30310 }, { "epoch": 40.42666666666667, "grad_norm": 0.6484375, "learning_rate": 9.990245798861002e-05, "loss": 0.3997, "step": 30320 }, { "epoch": 40.44, "grad_norm": 0.5859375, "learning_rate": 9.990239257621303e-05, "loss": 0.413, "step": 30330 }, { "epoch": 40.45333333333333, "grad_norm": 0.63671875, "learning_rate": 9.99023271419118e-05, "loss": 0.3996, "step": 30340 }, { "epoch": 40.46666666666667, "grad_norm": 0.6171875, "learning_rate": 9.99022616857064e-05, "loss": 0.4081, "step": 30350 }, { "epoch": 40.48, "grad_norm": 0.54296875, "learning_rate": 9.990219620759678e-05, "loss": 0.3911, "step": 30360 }, { "epoch": 40.49333333333333, "grad_norm": 0.55859375, "learning_rate": 9.990213070758303e-05, "loss": 0.4021, "step": 30370 }, { "epoch": 40.50666666666667, "grad_norm": 0.5859375, "learning_rate": 9.990206518566514e-05, "loss": 0.4008, "step": 30380 }, { "epoch": 40.52, "grad_norm": 0.51953125, "learning_rate": 9.990199964184316e-05, "loss": 0.392, "step": 30390 }, { "epoch": 40.53333333333333, "grad_norm": 0.625, "learning_rate": 9.99019340761171e-05, "loss": 0.394, "step": 30400 }, { "epoch": 40.54666666666667, "grad_norm": 0.7109375, "learning_rate": 9.990186848848701e-05, "loss": 0.3952, "step": 30410 }, { "epoch": 40.56, "grad_norm": 0.53125, "learning_rate": 9.990180287895293e-05, "loss": 0.3902, "step": 30420 }, { "epoch": 40.57333333333333, "grad_norm": 0.60546875, "learning_rate": 9.990173724751486e-05, "loss": 0.3935, "step": 30430 }, { "epoch": 40.586666666666666, "grad_norm": 0.5625, "learning_rate": 9.990167159417283e-05, "loss": 0.3828, "step": 30440 }, { "epoch": 40.6, "grad_norm": 0.6171875, "learning_rate": 9.990160591892688e-05, "loss": 0.385, "step": 30450 }, { "epoch": 40.61333333333333, "grad_norm": 0.57421875, "learning_rate": 9.990154022177704e-05, "loss": 0.3743, "step": 30460 }, { "epoch": 40.626666666666665, "grad_norm": 0.5, "learning_rate": 9.990147450272332e-05, "loss": 0.3794, "step": 30470 }, { "epoch": 40.64, "grad_norm": 0.68359375, "learning_rate": 9.990140876176579e-05, "loss": 0.391, "step": 30480 }, { "epoch": 40.653333333333336, "grad_norm": 0.57421875, "learning_rate": 9.990134299890443e-05, "loss": 0.4015, "step": 30490 }, { "epoch": 40.666666666666664, "grad_norm": 0.55078125, "learning_rate": 9.990127721413929e-05, "loss": 0.3886, "step": 30500 }, { "epoch": 40.68, "grad_norm": 0.5546875, "learning_rate": 9.990121140747042e-05, "loss": 0.3806, "step": 30510 }, { "epoch": 40.693333333333335, "grad_norm": 0.703125, "learning_rate": 9.990114557889782e-05, "loss": 0.3886, "step": 30520 }, { "epoch": 40.70666666666666, "grad_norm": 0.72265625, "learning_rate": 9.990107972842151e-05, "loss": 0.3821, "step": 30530 }, { "epoch": 40.72, "grad_norm": 0.64453125, "learning_rate": 9.990101385604156e-05, "loss": 0.4044, "step": 30540 }, { "epoch": 40.733333333333334, "grad_norm": 0.58203125, "learning_rate": 9.990094796175798e-05, "loss": 0.3989, "step": 30550 }, { "epoch": 40.74666666666667, "grad_norm": 0.5546875, "learning_rate": 9.990088204557078e-05, "loss": 0.4006, "step": 30560 }, { "epoch": 40.76, "grad_norm": 0.57421875, "learning_rate": 9.990081610748e-05, "loss": 0.4134, "step": 30570 }, { "epoch": 40.77333333333333, "grad_norm": 0.6171875, "learning_rate": 9.990075014748569e-05, "loss": 0.3997, "step": 30580 }, { "epoch": 40.78666666666667, "grad_norm": 0.53125, "learning_rate": 9.990068416558786e-05, "loss": 0.4007, "step": 30590 }, { "epoch": 40.8, "grad_norm": 0.6171875, "learning_rate": 9.990061816178653e-05, "loss": 0.3995, "step": 30600 }, { "epoch": 40.81333333333333, "grad_norm": 0.69140625, "learning_rate": 9.990055213608174e-05, "loss": 0.3726, "step": 30610 }, { "epoch": 40.82666666666667, "grad_norm": 0.54296875, "learning_rate": 9.990048608847352e-05, "loss": 0.3828, "step": 30620 }, { "epoch": 40.84, "grad_norm": 0.671875, "learning_rate": 9.99004200189619e-05, "loss": 0.3949, "step": 30630 }, { "epoch": 40.85333333333333, "grad_norm": 0.578125, "learning_rate": 9.990035392754691e-05, "loss": 0.3907, "step": 30640 }, { "epoch": 40.86666666666667, "grad_norm": 0.61328125, "learning_rate": 9.990028781422857e-05, "loss": 0.3939, "step": 30650 }, { "epoch": 40.88, "grad_norm": 0.6484375, "learning_rate": 9.990022167900693e-05, "loss": 0.3742, "step": 30660 }, { "epoch": 40.89333333333333, "grad_norm": 0.55859375, "learning_rate": 9.990015552188198e-05, "loss": 0.3867, "step": 30670 }, { "epoch": 40.906666666666666, "grad_norm": 0.6328125, "learning_rate": 9.990008934285377e-05, "loss": 0.3933, "step": 30680 }, { "epoch": 40.92, "grad_norm": 0.609375, "learning_rate": 9.990002314192235e-05, "loss": 0.3953, "step": 30690 }, { "epoch": 40.93333333333333, "grad_norm": 0.58984375, "learning_rate": 9.989995691908774e-05, "loss": 0.3892, "step": 30700 }, { "epoch": 40.946666666666665, "grad_norm": 0.6015625, "learning_rate": 9.989989067434993e-05, "loss": 0.3896, "step": 30710 }, { "epoch": 40.96, "grad_norm": 0.56640625, "learning_rate": 9.9899824407709e-05, "loss": 0.3877, "step": 30720 }, { "epoch": 40.973333333333336, "grad_norm": 0.71875, "learning_rate": 9.989975811916495e-05, "loss": 0.4116, "step": 30730 }, { "epoch": 40.986666666666665, "grad_norm": 0.62109375, "learning_rate": 9.989969180871783e-05, "loss": 0.3841, "step": 30740 }, { "epoch": 41.0, "grad_norm": 0.6015625, "learning_rate": 9.989962547636764e-05, "loss": 0.3821, "step": 30750 }, { "epoch": 41.0, "eval_loss": 0.42821401357650757, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.2774, "eval_samples_per_second": 1.557, "eval_steps_per_second": 0.097, "step": 30750 }, { "epoch": 41.013333333333335, "grad_norm": 0.6796875, "learning_rate": 9.989955912211444e-05, "loss": 0.3978, "step": 30760 }, { "epoch": 41.026666666666664, "grad_norm": 0.55859375, "learning_rate": 9.989949274595823e-05, "loss": 0.4122, "step": 30770 }, { "epoch": 41.04, "grad_norm": 0.55078125, "learning_rate": 9.989942634789906e-05, "loss": 0.4236, "step": 30780 }, { "epoch": 41.053333333333335, "grad_norm": 0.58203125, "learning_rate": 9.989935992793696e-05, "loss": 0.4101, "step": 30790 }, { "epoch": 41.06666666666667, "grad_norm": 0.66015625, "learning_rate": 9.989929348607194e-05, "loss": 0.3971, "step": 30800 }, { "epoch": 41.08, "grad_norm": 0.63671875, "learning_rate": 9.989922702230405e-05, "loss": 0.4015, "step": 30810 }, { "epoch": 41.093333333333334, "grad_norm": 0.609375, "learning_rate": 9.98991605366333e-05, "loss": 0.4033, "step": 30820 }, { "epoch": 41.10666666666667, "grad_norm": 0.55859375, "learning_rate": 9.989909402905974e-05, "loss": 0.3903, "step": 30830 }, { "epoch": 41.12, "grad_norm": 0.640625, "learning_rate": 9.989902749958338e-05, "loss": 0.3936, "step": 30840 }, { "epoch": 41.13333333333333, "grad_norm": 0.5859375, "learning_rate": 9.989896094820425e-05, "loss": 0.3864, "step": 30850 }, { "epoch": 41.14666666666667, "grad_norm": 0.671875, "learning_rate": 9.989889437492241e-05, "loss": 0.405, "step": 30860 }, { "epoch": 41.16, "grad_norm": 0.640625, "learning_rate": 9.989882777973785e-05, "loss": 0.3998, "step": 30870 }, { "epoch": 41.17333333333333, "grad_norm": 0.6484375, "learning_rate": 9.989876116265062e-05, "loss": 0.3946, "step": 30880 }, { "epoch": 41.18666666666667, "grad_norm": 0.609375, "learning_rate": 9.989869452366075e-05, "loss": 0.3928, "step": 30890 }, { "epoch": 41.2, "grad_norm": 0.6171875, "learning_rate": 9.989862786276827e-05, "loss": 0.3843, "step": 30900 }, { "epoch": 41.21333333333333, "grad_norm": 0.6015625, "learning_rate": 9.989856117997318e-05, "loss": 0.385, "step": 30910 }, { "epoch": 41.22666666666667, "grad_norm": 0.65234375, "learning_rate": 9.989849447527556e-05, "loss": 0.397, "step": 30920 }, { "epoch": 41.24, "grad_norm": 0.66015625, "learning_rate": 9.98984277486754e-05, "loss": 0.3819, "step": 30930 }, { "epoch": 41.25333333333333, "grad_norm": 0.6171875, "learning_rate": 9.989836100017272e-05, "loss": 0.3846, "step": 30940 }, { "epoch": 41.266666666666666, "grad_norm": 0.55078125, "learning_rate": 9.98982942297676e-05, "loss": 0.3873, "step": 30950 }, { "epoch": 41.28, "grad_norm": 0.62890625, "learning_rate": 9.989822743746002e-05, "loss": 0.4157, "step": 30960 }, { "epoch": 41.29333333333334, "grad_norm": 0.6015625, "learning_rate": 9.989816062325004e-05, "loss": 0.3741, "step": 30970 }, { "epoch": 41.306666666666665, "grad_norm": 0.52734375, "learning_rate": 9.989809378713768e-05, "loss": 0.397, "step": 30980 }, { "epoch": 41.32, "grad_norm": 0.51171875, "learning_rate": 9.989802692912295e-05, "loss": 0.3989, "step": 30990 }, { "epoch": 41.333333333333336, "grad_norm": 0.5859375, "learning_rate": 9.989796004920591e-05, "loss": 0.4016, "step": 31000 }, { "epoch": 41.346666666666664, "grad_norm": 0.62890625, "learning_rate": 9.989789314738658e-05, "loss": 0.3914, "step": 31010 }, { "epoch": 41.36, "grad_norm": 0.6796875, "learning_rate": 9.989782622366499e-05, "loss": 0.3925, "step": 31020 }, { "epoch": 41.373333333333335, "grad_norm": 0.5390625, "learning_rate": 9.989775927804115e-05, "loss": 0.3939, "step": 31030 }, { "epoch": 41.38666666666666, "grad_norm": 0.6796875, "learning_rate": 9.989769231051512e-05, "loss": 0.3849, "step": 31040 }, { "epoch": 41.4, "grad_norm": 0.6171875, "learning_rate": 9.989762532108691e-05, "loss": 0.3928, "step": 31050 }, { "epoch": 41.413333333333334, "grad_norm": 0.56640625, "learning_rate": 9.989755830975655e-05, "loss": 0.3979, "step": 31060 }, { "epoch": 41.42666666666667, "grad_norm": 0.5625, "learning_rate": 9.989749127652407e-05, "loss": 0.4, "step": 31070 }, { "epoch": 41.44, "grad_norm": 0.64453125, "learning_rate": 9.98974242213895e-05, "loss": 0.4118, "step": 31080 }, { "epoch": 41.45333333333333, "grad_norm": 0.66015625, "learning_rate": 9.989735714435289e-05, "loss": 0.3993, "step": 31090 }, { "epoch": 41.46666666666667, "grad_norm": 0.5703125, "learning_rate": 9.989729004541422e-05, "loss": 0.4077, "step": 31100 }, { "epoch": 41.48, "grad_norm": 0.6015625, "learning_rate": 9.989722292457357e-05, "loss": 0.3903, "step": 31110 }, { "epoch": 41.49333333333333, "grad_norm": 0.56640625, "learning_rate": 9.989715578183095e-05, "loss": 0.402, "step": 31120 }, { "epoch": 41.50666666666667, "grad_norm": 0.62109375, "learning_rate": 9.989708861718638e-05, "loss": 0.3999, "step": 31130 }, { "epoch": 41.52, "grad_norm": 0.59765625, "learning_rate": 9.989702143063992e-05, "loss": 0.3911, "step": 31140 }, { "epoch": 41.53333333333333, "grad_norm": 0.66015625, "learning_rate": 9.989695422219156e-05, "loss": 0.3938, "step": 31150 }, { "epoch": 41.54666666666667, "grad_norm": 0.68359375, "learning_rate": 9.989688699184135e-05, "loss": 0.3951, "step": 31160 }, { "epoch": 41.56, "grad_norm": 0.515625, "learning_rate": 9.989681973958933e-05, "loss": 0.3882, "step": 31170 }, { "epoch": 41.57333333333333, "grad_norm": 0.65234375, "learning_rate": 9.989675246543551e-05, "loss": 0.3939, "step": 31180 }, { "epoch": 41.586666666666666, "grad_norm": 0.6015625, "learning_rate": 9.989668516937991e-05, "loss": 0.3808, "step": 31190 }, { "epoch": 41.6, "grad_norm": 0.58203125, "learning_rate": 9.989661785142259e-05, "loss": 0.3829, "step": 31200 }, { "epoch": 41.61333333333333, "grad_norm": 0.6171875, "learning_rate": 9.989655051156357e-05, "loss": 0.3739, "step": 31210 }, { "epoch": 41.626666666666665, "grad_norm": 0.50390625, "learning_rate": 9.989648314980286e-05, "loss": 0.3782, "step": 31220 }, { "epoch": 41.64, "grad_norm": 0.6015625, "learning_rate": 9.989641576614053e-05, "loss": 0.3904, "step": 31230 }, { "epoch": 41.653333333333336, "grad_norm": 0.58203125, "learning_rate": 9.989634836057656e-05, "loss": 0.4005, "step": 31240 }, { "epoch": 41.666666666666664, "grad_norm": 0.55859375, "learning_rate": 9.989628093311101e-05, "loss": 0.3876, "step": 31250 }, { "epoch": 41.68, "grad_norm": 0.5625, "learning_rate": 9.989621348374391e-05, "loss": 0.3798, "step": 31260 }, { "epoch": 41.693333333333335, "grad_norm": 0.5703125, "learning_rate": 9.989614601247528e-05, "loss": 0.3891, "step": 31270 }, { "epoch": 41.70666666666666, "grad_norm": 0.66015625, "learning_rate": 9.989607851930516e-05, "loss": 0.3813, "step": 31280 }, { "epoch": 41.72, "grad_norm": 0.625, "learning_rate": 9.989601100423356e-05, "loss": 0.4039, "step": 31290 }, { "epoch": 41.733333333333334, "grad_norm": 0.609375, "learning_rate": 9.989594346726053e-05, "loss": 0.398, "step": 31300 }, { "epoch": 41.74666666666667, "grad_norm": 0.72265625, "learning_rate": 9.989587590838608e-05, "loss": 0.4, "step": 31310 }, { "epoch": 41.76, "grad_norm": 0.65625, "learning_rate": 9.989580832761027e-05, "loss": 0.4131, "step": 31320 }, { "epoch": 41.77333333333333, "grad_norm": 0.64453125, "learning_rate": 9.989574072493308e-05, "loss": 0.4, "step": 31330 }, { "epoch": 41.78666666666667, "grad_norm": 0.5703125, "learning_rate": 9.98956731003546e-05, "loss": 0.4, "step": 31340 }, { "epoch": 41.8, "grad_norm": 0.59765625, "learning_rate": 9.989560545387483e-05, "loss": 0.3991, "step": 31350 }, { "epoch": 41.81333333333333, "grad_norm": 0.671875, "learning_rate": 9.989553778549378e-05, "loss": 0.3727, "step": 31360 }, { "epoch": 41.82666666666667, "grad_norm": 0.578125, "learning_rate": 9.989547009521151e-05, "loss": 0.3813, "step": 31370 }, { "epoch": 41.84, "grad_norm": 0.6328125, "learning_rate": 9.989540238302804e-05, "loss": 0.3933, "step": 31380 }, { "epoch": 41.85333333333333, "grad_norm": 0.609375, "learning_rate": 9.989533464894341e-05, "loss": 0.3902, "step": 31390 }, { "epoch": 41.86666666666667, "grad_norm": 0.640625, "learning_rate": 9.989526689295762e-05, "loss": 0.3931, "step": 31400 }, { "epoch": 41.88, "grad_norm": 0.5703125, "learning_rate": 9.989519911507072e-05, "loss": 0.3738, "step": 31410 }, { "epoch": 41.89333333333333, "grad_norm": 0.578125, "learning_rate": 9.989513131528274e-05, "loss": 0.3869, "step": 31420 }, { "epoch": 41.906666666666666, "grad_norm": 0.671875, "learning_rate": 9.989506349359372e-05, "loss": 0.3927, "step": 31430 }, { "epoch": 41.92, "grad_norm": 0.68359375, "learning_rate": 9.989499565000366e-05, "loss": 0.3938, "step": 31440 }, { "epoch": 41.93333333333333, "grad_norm": 0.53125, "learning_rate": 9.989492778451263e-05, "loss": 0.3886, "step": 31450 }, { "epoch": 41.946666666666665, "grad_norm": 0.61328125, "learning_rate": 9.989485989712062e-05, "loss": 0.3895, "step": 31460 }, { "epoch": 41.96, "grad_norm": 0.5234375, "learning_rate": 9.98947919878277e-05, "loss": 0.3863, "step": 31470 }, { "epoch": 41.973333333333336, "grad_norm": 0.71484375, "learning_rate": 9.989472405663385e-05, "loss": 0.4112, "step": 31480 }, { "epoch": 41.986666666666665, "grad_norm": 0.61328125, "learning_rate": 9.989465610353914e-05, "loss": 0.3836, "step": 31490 }, { "epoch": 42.0, "grad_norm": 0.5390625, "learning_rate": 9.989458812854358e-05, "loss": 0.3804, "step": 31500 }, { "epoch": 42.0, "eval_loss": 0.42837899923324585, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.081, "eval_samples_per_second": 1.587, "eval_steps_per_second": 0.099, "step": 31500 }, { "epoch": 42.013333333333335, "grad_norm": 0.59375, "learning_rate": 9.98945201316472e-05, "loss": 0.3969, "step": 31510 }, { "epoch": 42.026666666666664, "grad_norm": 0.640625, "learning_rate": 9.989445211285005e-05, "loss": 0.4114, "step": 31520 }, { "epoch": 42.04, "grad_norm": 0.5625, "learning_rate": 9.989438407215215e-05, "loss": 0.4234, "step": 31530 }, { "epoch": 42.053333333333335, "grad_norm": 0.609375, "learning_rate": 9.989431600955352e-05, "loss": 0.4081, "step": 31540 }, { "epoch": 42.06666666666667, "grad_norm": 0.59765625, "learning_rate": 9.989424792505419e-05, "loss": 0.3967, "step": 31550 }, { "epoch": 42.08, "grad_norm": 0.625, "learning_rate": 9.98941798186542e-05, "loss": 0.4006, "step": 31560 }, { "epoch": 42.093333333333334, "grad_norm": 0.671875, "learning_rate": 9.989411169035357e-05, "loss": 0.4018, "step": 31570 }, { "epoch": 42.10666666666667, "grad_norm": 0.61328125, "learning_rate": 9.989404354015235e-05, "loss": 0.3899, "step": 31580 }, { "epoch": 42.12, "grad_norm": 0.609375, "learning_rate": 9.989397536805054e-05, "loss": 0.3949, "step": 31590 }, { "epoch": 42.13333333333333, "grad_norm": 0.62890625, "learning_rate": 9.989390717404819e-05, "loss": 0.3851, "step": 31600 }, { "epoch": 42.14666666666667, "grad_norm": 0.65234375, "learning_rate": 9.989383895814532e-05, "loss": 0.4051, "step": 31610 }, { "epoch": 42.16, "grad_norm": 0.58203125, "learning_rate": 9.989377072034199e-05, "loss": 0.3983, "step": 31620 }, { "epoch": 42.17333333333333, "grad_norm": 0.609375, "learning_rate": 9.989370246063819e-05, "loss": 0.3942, "step": 31630 }, { "epoch": 42.18666666666667, "grad_norm": 0.60546875, "learning_rate": 9.989363417903394e-05, "loss": 0.3913, "step": 31640 }, { "epoch": 42.2, "grad_norm": 0.62109375, "learning_rate": 9.989356587552934e-05, "loss": 0.3836, "step": 31650 }, { "epoch": 42.21333333333333, "grad_norm": 0.609375, "learning_rate": 9.989349755012435e-05, "loss": 0.3857, "step": 31660 }, { "epoch": 42.22666666666667, "grad_norm": 0.61328125, "learning_rate": 9.989342920281904e-05, "loss": 0.3962, "step": 31670 }, { "epoch": 42.24, "grad_norm": 0.63671875, "learning_rate": 9.989336083361341e-05, "loss": 0.3823, "step": 31680 }, { "epoch": 42.25333333333333, "grad_norm": 0.62109375, "learning_rate": 9.98932924425075e-05, "loss": 0.3842, "step": 31690 }, { "epoch": 42.266666666666666, "grad_norm": 0.58984375, "learning_rate": 9.989322402950136e-05, "loss": 0.3863, "step": 31700 }, { "epoch": 42.28, "grad_norm": 0.62890625, "learning_rate": 9.9893155594595e-05, "loss": 0.4157, "step": 31710 }, { "epoch": 42.29333333333334, "grad_norm": 0.53515625, "learning_rate": 9.989308713778844e-05, "loss": 0.3727, "step": 31720 }, { "epoch": 42.306666666666665, "grad_norm": 0.62109375, "learning_rate": 9.989301865908175e-05, "loss": 0.3962, "step": 31730 }, { "epoch": 42.32, "grad_norm": 0.62109375, "learning_rate": 9.989295015847493e-05, "loss": 0.3979, "step": 31740 }, { "epoch": 42.333333333333336, "grad_norm": 0.6015625, "learning_rate": 9.9892881635968e-05, "loss": 0.4003, "step": 31750 }, { "epoch": 42.346666666666664, "grad_norm": 0.68359375, "learning_rate": 9.989281309156102e-05, "loss": 0.3917, "step": 31760 }, { "epoch": 42.36, "grad_norm": 0.64453125, "learning_rate": 9.989274452525401e-05, "loss": 0.3921, "step": 31770 }, { "epoch": 42.373333333333335, "grad_norm": 0.60546875, "learning_rate": 9.989267593704699e-05, "loss": 0.3929, "step": 31780 }, { "epoch": 42.38666666666666, "grad_norm": 0.70703125, "learning_rate": 9.989260732693998e-05, "loss": 0.3845, "step": 31790 }, { "epoch": 42.4, "grad_norm": 0.60546875, "learning_rate": 9.989253869493305e-05, "loss": 0.3916, "step": 31800 }, { "epoch": 42.413333333333334, "grad_norm": 0.671875, "learning_rate": 9.98924700410262e-05, "loss": 0.3973, "step": 31810 }, { "epoch": 42.42666666666667, "grad_norm": 0.58984375, "learning_rate": 9.989240136521946e-05, "loss": 0.3997, "step": 31820 }, { "epoch": 42.44, "grad_norm": 0.578125, "learning_rate": 9.989233266751287e-05, "loss": 0.4108, "step": 31830 }, { "epoch": 42.45333333333333, "grad_norm": 0.73046875, "learning_rate": 9.989226394790644e-05, "loss": 0.3981, "step": 31840 }, { "epoch": 42.46666666666667, "grad_norm": 0.63671875, "learning_rate": 9.989219520640024e-05, "loss": 0.4068, "step": 31850 }, { "epoch": 42.48, "grad_norm": 0.56640625, "learning_rate": 9.989212644299427e-05, "loss": 0.39, "step": 31860 }, { "epoch": 42.49333333333333, "grad_norm": 0.61328125, "learning_rate": 9.989205765768856e-05, "loss": 0.4014, "step": 31870 }, { "epoch": 42.50666666666667, "grad_norm": 0.58203125, "learning_rate": 9.989198885048317e-05, "loss": 0.3991, "step": 31880 }, { "epoch": 42.52, "grad_norm": 0.53125, "learning_rate": 9.989192002137809e-05, "loss": 0.3904, "step": 31890 }, { "epoch": 42.53333333333333, "grad_norm": 0.59765625, "learning_rate": 9.989185117037336e-05, "loss": 0.3919, "step": 31900 }, { "epoch": 42.54666666666667, "grad_norm": 0.58984375, "learning_rate": 9.989178229746903e-05, "loss": 0.3941, "step": 31910 }, { "epoch": 42.56, "grad_norm": 0.51953125, "learning_rate": 9.98917134026651e-05, "loss": 0.3875, "step": 31920 }, { "epoch": 42.57333333333333, "grad_norm": 0.59765625, "learning_rate": 9.989164448596164e-05, "loss": 0.392, "step": 31930 }, { "epoch": 42.586666666666666, "grad_norm": 0.5390625, "learning_rate": 9.989157554735866e-05, "loss": 0.3811, "step": 31940 }, { "epoch": 42.6, "grad_norm": 0.578125, "learning_rate": 9.989150658685617e-05, "loss": 0.383, "step": 31950 }, { "epoch": 42.61333333333333, "grad_norm": 0.55078125, "learning_rate": 9.989143760445423e-05, "loss": 0.373, "step": 31960 }, { "epoch": 42.626666666666665, "grad_norm": 0.5078125, "learning_rate": 9.989136860015285e-05, "loss": 0.3778, "step": 31970 }, { "epoch": 42.64, "grad_norm": 0.62109375, "learning_rate": 9.98912995739521e-05, "loss": 0.3893, "step": 31980 }, { "epoch": 42.653333333333336, "grad_norm": 0.56640625, "learning_rate": 9.989123052585194e-05, "loss": 0.3998, "step": 31990 }, { "epoch": 42.666666666666664, "grad_norm": 0.58203125, "learning_rate": 9.989116145585247e-05, "loss": 0.3875, "step": 32000 }, { "epoch": 42.68, "grad_norm": 0.61328125, "learning_rate": 9.989109236395367e-05, "loss": 0.3785, "step": 32010 }, { "epoch": 42.693333333333335, "grad_norm": 0.69921875, "learning_rate": 9.989102325015561e-05, "loss": 0.3881, "step": 32020 }, { "epoch": 42.70666666666666, "grad_norm": 0.6875, "learning_rate": 9.989095411445828e-05, "loss": 0.3816, "step": 32030 }, { "epoch": 42.72, "grad_norm": 0.67578125, "learning_rate": 9.989088495686175e-05, "loss": 0.4029, "step": 32040 }, { "epoch": 42.733333333333334, "grad_norm": 0.62109375, "learning_rate": 9.989081577736601e-05, "loss": 0.3975, "step": 32050 }, { "epoch": 42.74666666666667, "grad_norm": 0.58203125, "learning_rate": 9.989074657597112e-05, "loss": 0.3997, "step": 32060 }, { "epoch": 42.76, "grad_norm": 0.6171875, "learning_rate": 9.989067735267712e-05, "loss": 0.4119, "step": 32070 }, { "epoch": 42.77333333333333, "grad_norm": 0.64453125, "learning_rate": 9.989060810748401e-05, "loss": 0.3985, "step": 32080 }, { "epoch": 42.78666666666667, "grad_norm": 0.6015625, "learning_rate": 9.989053884039183e-05, "loss": 0.3991, "step": 32090 }, { "epoch": 42.8, "grad_norm": 0.625, "learning_rate": 9.989046955140062e-05, "loss": 0.3984, "step": 32100 }, { "epoch": 42.81333333333333, "grad_norm": 0.69140625, "learning_rate": 9.989040024051042e-05, "loss": 0.3714, "step": 32110 }, { "epoch": 42.82666666666667, "grad_norm": 0.55859375, "learning_rate": 9.989033090772122e-05, "loss": 0.3812, "step": 32120 }, { "epoch": 42.84, "grad_norm": 0.6328125, "learning_rate": 9.989026155303309e-05, "loss": 0.3928, "step": 32130 }, { "epoch": 42.85333333333333, "grad_norm": 0.59375, "learning_rate": 9.989019217644604e-05, "loss": 0.3884, "step": 32140 }, { "epoch": 42.86666666666667, "grad_norm": 0.578125, "learning_rate": 9.98901227779601e-05, "loss": 0.3928, "step": 32150 }, { "epoch": 42.88, "grad_norm": 0.5703125, "learning_rate": 9.989005335757531e-05, "loss": 0.3734, "step": 32160 }, { "epoch": 42.89333333333333, "grad_norm": 0.5625, "learning_rate": 9.988998391529171e-05, "loss": 0.3854, "step": 32170 }, { "epoch": 42.906666666666666, "grad_norm": 0.58203125, "learning_rate": 9.98899144511093e-05, "loss": 0.3926, "step": 32180 }, { "epoch": 42.92, "grad_norm": 0.68359375, "learning_rate": 9.988984496502814e-05, "loss": 0.3938, "step": 32190 }, { "epoch": 42.93333333333333, "grad_norm": 0.53515625, "learning_rate": 9.988977545704824e-05, "loss": 0.3878, "step": 32200 }, { "epoch": 42.946666666666665, "grad_norm": 0.6328125, "learning_rate": 9.988970592716964e-05, "loss": 0.3887, "step": 32210 }, { "epoch": 42.96, "grad_norm": 0.55859375, "learning_rate": 9.988963637539237e-05, "loss": 0.3862, "step": 32220 }, { "epoch": 42.973333333333336, "grad_norm": 0.73046875, "learning_rate": 9.988956680171646e-05, "loss": 0.4111, "step": 32230 }, { "epoch": 42.986666666666665, "grad_norm": 0.65625, "learning_rate": 9.988949720614195e-05, "loss": 0.3834, "step": 32240 }, { "epoch": 43.0, "grad_norm": 0.62109375, "learning_rate": 9.988942758866885e-05, "loss": 0.3799, "step": 32250 }, { "epoch": 43.0, "eval_loss": 0.42642325162887573, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.353, "eval_samples_per_second": 1.545, "eval_steps_per_second": 0.097, "step": 32250 }, { "epoch": 43.013333333333335, "grad_norm": 0.671875, "learning_rate": 9.98893579492972e-05, "loss": 0.398, "step": 32260 }, { "epoch": 43.026666666666664, "grad_norm": 0.60546875, "learning_rate": 9.988928828802704e-05, "loss": 0.4108, "step": 32270 }, { "epoch": 43.04, "grad_norm": 0.58203125, "learning_rate": 9.98892186048584e-05, "loss": 0.4228, "step": 32280 }, { "epoch": 43.053333333333335, "grad_norm": 0.62890625, "learning_rate": 9.988914889979128e-05, "loss": 0.408, "step": 32290 }, { "epoch": 43.06666666666667, "grad_norm": 0.63671875, "learning_rate": 9.988907917282574e-05, "loss": 0.3962, "step": 32300 }, { "epoch": 43.08, "grad_norm": 0.64453125, "learning_rate": 9.988900942396182e-05, "loss": 0.3993, "step": 32310 }, { "epoch": 43.093333333333334, "grad_norm": 0.76953125, "learning_rate": 9.988893965319953e-05, "loss": 0.402, "step": 32320 }, { "epoch": 43.10666666666667, "grad_norm": 0.6015625, "learning_rate": 9.988886986053891e-05, "loss": 0.389, "step": 32330 }, { "epoch": 43.12, "grad_norm": 0.61328125, "learning_rate": 9.988880004597998e-05, "loss": 0.394, "step": 32340 }, { "epoch": 43.13333333333333, "grad_norm": 0.5625, "learning_rate": 9.988873020952276e-05, "loss": 0.3849, "step": 32350 }, { "epoch": 43.14666666666667, "grad_norm": 0.56640625, "learning_rate": 9.988866035116733e-05, "loss": 0.4038, "step": 32360 }, { "epoch": 43.16, "grad_norm": 0.55859375, "learning_rate": 9.988859047091366e-05, "loss": 0.3973, "step": 32370 }, { "epoch": 43.17333333333333, "grad_norm": 0.62890625, "learning_rate": 9.988852056876183e-05, "loss": 0.3926, "step": 32380 }, { "epoch": 43.18666666666667, "grad_norm": 0.59765625, "learning_rate": 9.988845064471184e-05, "loss": 0.3909, "step": 32390 }, { "epoch": 43.2, "grad_norm": 0.6328125, "learning_rate": 9.988838069876374e-05, "loss": 0.3835, "step": 32400 }, { "epoch": 43.21333333333333, "grad_norm": 0.59375, "learning_rate": 9.988831073091754e-05, "loss": 0.3839, "step": 32410 }, { "epoch": 43.22666666666667, "grad_norm": 0.65625, "learning_rate": 9.988824074117328e-05, "loss": 0.3965, "step": 32420 }, { "epoch": 43.24, "grad_norm": 0.6328125, "learning_rate": 9.988817072953101e-05, "loss": 0.3817, "step": 32430 }, { "epoch": 43.25333333333333, "grad_norm": 0.7109375, "learning_rate": 9.988810069599073e-05, "loss": 0.3835, "step": 32440 }, { "epoch": 43.266666666666666, "grad_norm": 0.671875, "learning_rate": 9.988803064055248e-05, "loss": 0.3858, "step": 32450 }, { "epoch": 43.28, "grad_norm": 0.625, "learning_rate": 9.98879605632163e-05, "loss": 0.4153, "step": 32460 }, { "epoch": 43.29333333333334, "grad_norm": 0.609375, "learning_rate": 9.988789046398221e-05, "loss": 0.3727, "step": 32470 }, { "epoch": 43.306666666666665, "grad_norm": 0.53515625, "learning_rate": 9.988782034285025e-05, "loss": 0.3949, "step": 32480 }, { "epoch": 43.32, "grad_norm": 0.6015625, "learning_rate": 9.988775019982047e-05, "loss": 0.3976, "step": 32490 }, { "epoch": 43.333333333333336, "grad_norm": 0.6328125, "learning_rate": 9.988768003489283e-05, "loss": 0.4003, "step": 32500 }, { "epoch": 43.346666666666664, "grad_norm": 0.61328125, "learning_rate": 9.988760984806745e-05, "loss": 0.3897, "step": 32510 }, { "epoch": 43.36, "grad_norm": 0.66015625, "learning_rate": 9.988753963934429e-05, "loss": 0.3914, "step": 32520 }, { "epoch": 43.373333333333335, "grad_norm": 0.6015625, "learning_rate": 9.988746940872344e-05, "loss": 0.3917, "step": 32530 }, { "epoch": 43.38666666666666, "grad_norm": 0.67578125, "learning_rate": 9.988739915620489e-05, "loss": 0.3837, "step": 32540 }, { "epoch": 43.4, "grad_norm": 0.609375, "learning_rate": 9.988732888178868e-05, "loss": 0.3918, "step": 32550 }, { "epoch": 43.413333333333334, "grad_norm": 0.61328125, "learning_rate": 9.988725858547482e-05, "loss": 0.3971, "step": 32560 }, { "epoch": 43.42666666666667, "grad_norm": 0.59765625, "learning_rate": 9.988718826726339e-05, "loss": 0.3983, "step": 32570 }, { "epoch": 43.44, "grad_norm": 0.6015625, "learning_rate": 9.988711792715441e-05, "loss": 0.4098, "step": 32580 }, { "epoch": 43.45333333333333, "grad_norm": 0.6484375, "learning_rate": 9.988704756514787e-05, "loss": 0.3973, "step": 32590 }, { "epoch": 43.46666666666667, "grad_norm": 0.64453125, "learning_rate": 9.988697718124383e-05, "loss": 0.4065, "step": 32600 }, { "epoch": 43.48, "grad_norm": 0.66015625, "learning_rate": 9.988690677544233e-05, "loss": 0.389, "step": 32610 }, { "epoch": 43.49333333333333, "grad_norm": 0.58984375, "learning_rate": 9.988683634774336e-05, "loss": 0.3997, "step": 32620 }, { "epoch": 43.50666666666667, "grad_norm": 0.6171875, "learning_rate": 9.9886765898147e-05, "loss": 0.3982, "step": 32630 }, { "epoch": 43.52, "grad_norm": 0.53125, "learning_rate": 9.988669542665326e-05, "loss": 0.3901, "step": 32640 }, { "epoch": 43.53333333333333, "grad_norm": 0.66015625, "learning_rate": 9.988662493326217e-05, "loss": 0.3928, "step": 32650 }, { "epoch": 43.54666666666667, "grad_norm": 0.69921875, "learning_rate": 9.988655441797377e-05, "loss": 0.3924, "step": 32660 }, { "epoch": 43.56, "grad_norm": 0.578125, "learning_rate": 9.988648388078806e-05, "loss": 0.3874, "step": 32670 }, { "epoch": 43.57333333333333, "grad_norm": 0.5546875, "learning_rate": 9.988641332170511e-05, "loss": 0.3928, "step": 32680 }, { "epoch": 43.586666666666666, "grad_norm": 0.59765625, "learning_rate": 9.988634274072492e-05, "loss": 0.3805, "step": 32690 }, { "epoch": 43.6, "grad_norm": 0.59375, "learning_rate": 9.988627213784756e-05, "loss": 0.3821, "step": 32700 }, { "epoch": 43.61333333333333, "grad_norm": 0.578125, "learning_rate": 9.988620151307302e-05, "loss": 0.372, "step": 32710 }, { "epoch": 43.626666666666665, "grad_norm": 0.515625, "learning_rate": 9.988613086640135e-05, "loss": 0.3782, "step": 32720 }, { "epoch": 43.64, "grad_norm": 0.60546875, "learning_rate": 9.988606019783257e-05, "loss": 0.3885, "step": 32730 }, { "epoch": 43.653333333333336, "grad_norm": 0.55859375, "learning_rate": 9.988598950736673e-05, "loss": 0.3985, "step": 32740 }, { "epoch": 43.666666666666664, "grad_norm": 0.61328125, "learning_rate": 9.988591879500386e-05, "loss": 0.3876, "step": 32750 }, { "epoch": 43.68, "grad_norm": 0.62890625, "learning_rate": 9.988584806074397e-05, "loss": 0.3779, "step": 32760 }, { "epoch": 43.693333333333335, "grad_norm": 0.5546875, "learning_rate": 9.988577730458711e-05, "loss": 0.3872, "step": 32770 }, { "epoch": 43.70666666666666, "grad_norm": 0.63671875, "learning_rate": 9.988570652653329e-05, "loss": 0.3809, "step": 32780 }, { "epoch": 43.72, "grad_norm": 0.58984375, "learning_rate": 9.988563572658257e-05, "loss": 0.4018, "step": 32790 }, { "epoch": 43.733333333333334, "grad_norm": 0.62890625, "learning_rate": 9.988556490473495e-05, "loss": 0.3967, "step": 32800 }, { "epoch": 43.74666666666667, "grad_norm": 0.5625, "learning_rate": 9.98854940609905e-05, "loss": 0.3993, "step": 32810 }, { "epoch": 43.76, "grad_norm": 0.66796875, "learning_rate": 9.988542319534922e-05, "loss": 0.4116, "step": 32820 }, { "epoch": 43.77333333333333, "grad_norm": 0.69140625, "learning_rate": 9.988535230781114e-05, "loss": 0.3978, "step": 32830 }, { "epoch": 43.78666666666667, "grad_norm": 0.5546875, "learning_rate": 9.988528139837629e-05, "loss": 0.3986, "step": 32840 }, { "epoch": 43.8, "grad_norm": 0.640625, "learning_rate": 9.988521046704474e-05, "loss": 0.398, "step": 32850 }, { "epoch": 43.81333333333333, "grad_norm": 0.6875, "learning_rate": 9.988513951381647e-05, "loss": 0.3712, "step": 32860 }, { "epoch": 43.82666666666667, "grad_norm": 0.61328125, "learning_rate": 9.988506853869155e-05, "loss": 0.3806, "step": 32870 }, { "epoch": 43.84, "grad_norm": 0.70703125, "learning_rate": 9.988499754166999e-05, "loss": 0.3927, "step": 32880 }, { "epoch": 43.85333333333333, "grad_norm": 0.6328125, "learning_rate": 9.988492652275183e-05, "loss": 0.3877, "step": 32890 }, { "epoch": 43.86666666666667, "grad_norm": 0.65234375, "learning_rate": 9.988485548193709e-05, "loss": 0.3926, "step": 32900 }, { "epoch": 43.88, "grad_norm": 0.6328125, "learning_rate": 9.988478441922579e-05, "loss": 0.373, "step": 32910 }, { "epoch": 43.89333333333333, "grad_norm": 0.65234375, "learning_rate": 9.988471333461801e-05, "loss": 0.3847, "step": 32920 }, { "epoch": 43.906666666666666, "grad_norm": 0.60546875, "learning_rate": 9.988464222811374e-05, "loss": 0.3911, "step": 32930 }, { "epoch": 43.92, "grad_norm": 0.6796875, "learning_rate": 9.988457109971303e-05, "loss": 0.3933, "step": 32940 }, { "epoch": 43.93333333333333, "grad_norm": 0.55859375, "learning_rate": 9.988449994941589e-05, "loss": 0.387, "step": 32950 }, { "epoch": 43.946666666666665, "grad_norm": 0.6171875, "learning_rate": 9.988442877722237e-05, "loss": 0.3878, "step": 32960 }, { "epoch": 43.96, "grad_norm": 0.55078125, "learning_rate": 9.98843575831325e-05, "loss": 0.3851, "step": 32970 }, { "epoch": 43.973333333333336, "grad_norm": 0.73828125, "learning_rate": 9.988428636714631e-05, "loss": 0.4097, "step": 32980 }, { "epoch": 43.986666666666665, "grad_norm": 0.58984375, "learning_rate": 9.988421512926383e-05, "loss": 0.3833, "step": 32990 }, { "epoch": 44.0, "grad_norm": 0.61328125, "learning_rate": 9.988414386948509e-05, "loss": 0.3791, "step": 33000 }, { "epoch": 44.0, "eval_loss": 0.42647063732147217, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.214, "eval_samples_per_second": 1.566, "eval_steps_per_second": 0.098, "step": 33000 }, { "epoch": 44.013333333333335, "grad_norm": 0.67578125, "learning_rate": 9.988407258781009e-05, "loss": 0.3957, "step": 33010 }, { "epoch": 44.026666666666664, "grad_norm": 0.5546875, "learning_rate": 9.988400128423892e-05, "loss": 0.4107, "step": 33020 }, { "epoch": 44.04, "grad_norm": 0.546875, "learning_rate": 9.988392995877159e-05, "loss": 0.4223, "step": 33030 }, { "epoch": 44.053333333333335, "grad_norm": 0.6171875, "learning_rate": 9.988385861140809e-05, "loss": 0.4076, "step": 33040 }, { "epoch": 44.06666666666667, "grad_norm": 0.68359375, "learning_rate": 9.988378724214852e-05, "loss": 0.3955, "step": 33050 }, { "epoch": 44.08, "grad_norm": 0.62109375, "learning_rate": 9.988371585099288e-05, "loss": 0.4, "step": 33060 }, { "epoch": 44.093333333333334, "grad_norm": 0.62109375, "learning_rate": 9.988364443794118e-05, "loss": 0.4005, "step": 33070 }, { "epoch": 44.10666666666667, "grad_norm": 0.59375, "learning_rate": 9.988357300299348e-05, "loss": 0.3885, "step": 33080 }, { "epoch": 44.12, "grad_norm": 0.640625, "learning_rate": 9.988350154614979e-05, "loss": 0.392, "step": 33090 }, { "epoch": 44.13333333333333, "grad_norm": 0.62109375, "learning_rate": 9.988343006741017e-05, "loss": 0.3844, "step": 33100 }, { "epoch": 44.14666666666667, "grad_norm": 0.5546875, "learning_rate": 9.988335856677463e-05, "loss": 0.4036, "step": 33110 }, { "epoch": 44.16, "grad_norm": 0.546875, "learning_rate": 9.988328704424318e-05, "loss": 0.3971, "step": 33120 }, { "epoch": 44.17333333333333, "grad_norm": 0.65234375, "learning_rate": 9.98832154998159e-05, "loss": 0.392, "step": 33130 }, { "epoch": 44.18666666666667, "grad_norm": 0.58203125, "learning_rate": 9.98831439334928e-05, "loss": 0.3909, "step": 33140 }, { "epoch": 44.2, "grad_norm": 0.6328125, "learning_rate": 9.98830723452739e-05, "loss": 0.3823, "step": 33150 }, { "epoch": 44.21333333333333, "grad_norm": 0.59765625, "learning_rate": 9.988300073515925e-05, "loss": 0.3837, "step": 33160 }, { "epoch": 44.22666666666667, "grad_norm": 0.61328125, "learning_rate": 9.988292910314887e-05, "loss": 0.3951, "step": 33170 }, { "epoch": 44.24, "grad_norm": 0.62109375, "learning_rate": 9.98828574492428e-05, "loss": 0.3799, "step": 33180 }, { "epoch": 44.25333333333333, "grad_norm": 0.69921875, "learning_rate": 9.988278577344106e-05, "loss": 0.3824, "step": 33190 }, { "epoch": 44.266666666666666, "grad_norm": 0.5859375, "learning_rate": 9.988271407574367e-05, "loss": 0.3852, "step": 33200 }, { "epoch": 44.28, "grad_norm": 0.640625, "learning_rate": 9.98826423561507e-05, "loss": 0.4141, "step": 33210 }, { "epoch": 44.29333333333334, "grad_norm": 0.6015625, "learning_rate": 9.988257061466215e-05, "loss": 0.3721, "step": 33220 }, { "epoch": 44.306666666666665, "grad_norm": 0.60546875, "learning_rate": 9.988249885127808e-05, "loss": 0.3944, "step": 33230 }, { "epoch": 44.32, "grad_norm": 0.5390625, "learning_rate": 9.988242706599848e-05, "loss": 0.3977, "step": 33240 }, { "epoch": 44.333333333333336, "grad_norm": 0.62109375, "learning_rate": 9.988235525882341e-05, "loss": 0.3988, "step": 33250 }, { "epoch": 44.346666666666664, "grad_norm": 0.7734375, "learning_rate": 9.988228342975291e-05, "loss": 0.3892, "step": 33260 }, { "epoch": 44.36, "grad_norm": 0.671875, "learning_rate": 9.988221157878699e-05, "loss": 0.3908, "step": 33270 }, { "epoch": 44.373333333333335, "grad_norm": 0.578125, "learning_rate": 9.988213970592568e-05, "loss": 0.391, "step": 33280 }, { "epoch": 44.38666666666666, "grad_norm": 0.67578125, "learning_rate": 9.988206781116902e-05, "loss": 0.3824, "step": 33290 }, { "epoch": 44.4, "grad_norm": 0.66796875, "learning_rate": 9.988199589451706e-05, "loss": 0.3903, "step": 33300 }, { "epoch": 44.413333333333334, "grad_norm": 0.61328125, "learning_rate": 9.98819239559698e-05, "loss": 0.3964, "step": 33310 }, { "epoch": 44.42666666666667, "grad_norm": 0.5703125, "learning_rate": 9.988185199552729e-05, "loss": 0.3971, "step": 33320 }, { "epoch": 44.44, "grad_norm": 0.62890625, "learning_rate": 9.988178001318955e-05, "loss": 0.4098, "step": 33330 }, { "epoch": 44.45333333333333, "grad_norm": 0.66015625, "learning_rate": 9.988170800895663e-05, "loss": 0.3972, "step": 33340 }, { "epoch": 44.46666666666667, "grad_norm": 0.6875, "learning_rate": 9.988163598282854e-05, "loss": 0.4055, "step": 33350 }, { "epoch": 44.48, "grad_norm": 0.61328125, "learning_rate": 9.988156393480532e-05, "loss": 0.3875, "step": 33360 }, { "epoch": 44.49333333333333, "grad_norm": 0.66015625, "learning_rate": 9.988149186488702e-05, "loss": 0.3993, "step": 33370 }, { "epoch": 44.50666666666667, "grad_norm": 0.7265625, "learning_rate": 9.988141977307364e-05, "loss": 0.398, "step": 33380 }, { "epoch": 44.52, "grad_norm": 0.59765625, "learning_rate": 9.988134765936523e-05, "loss": 0.3881, "step": 33390 }, { "epoch": 44.53333333333333, "grad_norm": 0.67578125, "learning_rate": 9.988127552376182e-05, "loss": 0.3908, "step": 33400 }, { "epoch": 44.54666666666667, "grad_norm": 0.7109375, "learning_rate": 9.988120336626343e-05, "loss": 0.3922, "step": 33410 }, { "epoch": 44.56, "grad_norm": 0.546875, "learning_rate": 9.988113118687011e-05, "loss": 0.3879, "step": 33420 }, { "epoch": 44.57333333333333, "grad_norm": 0.6953125, "learning_rate": 9.988105898558188e-05, "loss": 0.3905, "step": 33430 }, { "epoch": 44.586666666666666, "grad_norm": 0.58203125, "learning_rate": 9.988098676239879e-05, "loss": 0.3798, "step": 33440 }, { "epoch": 44.6, "grad_norm": 0.57421875, "learning_rate": 9.988091451732084e-05, "loss": 0.3822, "step": 33450 }, { "epoch": 44.61333333333333, "grad_norm": 0.55078125, "learning_rate": 9.988084225034808e-05, "loss": 0.372, "step": 33460 }, { "epoch": 44.626666666666665, "grad_norm": 0.5390625, "learning_rate": 9.988076996148055e-05, "loss": 0.3764, "step": 33470 }, { "epoch": 44.64, "grad_norm": 0.59765625, "learning_rate": 9.988069765071825e-05, "loss": 0.3886, "step": 33480 }, { "epoch": 44.653333333333336, "grad_norm": 0.578125, "learning_rate": 9.988062531806126e-05, "loss": 0.3983, "step": 33490 }, { "epoch": 44.666666666666664, "grad_norm": 0.5390625, "learning_rate": 9.988055296350958e-05, "loss": 0.3852, "step": 33500 }, { "epoch": 44.68, "grad_norm": 0.64453125, "learning_rate": 9.988048058706324e-05, "loss": 0.3775, "step": 33510 }, { "epoch": 44.693333333333335, "grad_norm": 0.546875, "learning_rate": 9.988040818872228e-05, "loss": 0.3871, "step": 33520 }, { "epoch": 44.70666666666666, "grad_norm": 0.70703125, "learning_rate": 9.988033576848673e-05, "loss": 0.3792, "step": 33530 }, { "epoch": 44.72, "grad_norm": 0.609375, "learning_rate": 9.988026332635662e-05, "loss": 0.4008, "step": 33540 }, { "epoch": 44.733333333333334, "grad_norm": 0.5703125, "learning_rate": 9.9880190862332e-05, "loss": 0.3964, "step": 33550 }, { "epoch": 44.74666666666667, "grad_norm": 0.6328125, "learning_rate": 9.988011837641287e-05, "loss": 0.3989, "step": 33560 }, { "epoch": 44.76, "grad_norm": 0.6796875, "learning_rate": 9.988004586859928e-05, "loss": 0.411, "step": 33570 }, { "epoch": 44.77333333333333, "grad_norm": 0.6953125, "learning_rate": 9.987997333889127e-05, "loss": 0.397, "step": 33580 }, { "epoch": 44.78666666666667, "grad_norm": 0.609375, "learning_rate": 9.987990078728883e-05, "loss": 0.3984, "step": 33590 }, { "epoch": 44.8, "grad_norm": 0.6953125, "learning_rate": 9.987982821379206e-05, "loss": 0.3966, "step": 33600 }, { "epoch": 44.81333333333333, "grad_norm": 0.70703125, "learning_rate": 9.987975561840095e-05, "loss": 0.3707, "step": 33610 }, { "epoch": 44.82666666666667, "grad_norm": 0.59765625, "learning_rate": 9.987968300111551e-05, "loss": 0.3808, "step": 33620 }, { "epoch": 44.84, "grad_norm": 0.6171875, "learning_rate": 9.987961036193582e-05, "loss": 0.3923, "step": 33630 }, { "epoch": 44.85333333333333, "grad_norm": 0.65625, "learning_rate": 9.987953770086189e-05, "loss": 0.3868, "step": 33640 }, { "epoch": 44.86666666666667, "grad_norm": 0.6875, "learning_rate": 9.987946501789376e-05, "loss": 0.3912, "step": 33650 }, { "epoch": 44.88, "grad_norm": 0.5625, "learning_rate": 9.987939231303145e-05, "loss": 0.3727, "step": 33660 }, { "epoch": 44.89333333333333, "grad_norm": 0.7109375, "learning_rate": 9.987931958627499e-05, "loss": 0.3833, "step": 33670 }, { "epoch": 44.906666666666666, "grad_norm": 0.64453125, "learning_rate": 9.987924683762442e-05, "loss": 0.3904, "step": 33680 }, { "epoch": 44.92, "grad_norm": 0.62890625, "learning_rate": 9.987917406707976e-05, "loss": 0.3933, "step": 33690 }, { "epoch": 44.93333333333333, "grad_norm": 0.59375, "learning_rate": 9.987910127464107e-05, "loss": 0.3859, "step": 33700 }, { "epoch": 44.946666666666665, "grad_norm": 0.58984375, "learning_rate": 9.987902846030837e-05, "loss": 0.3875, "step": 33710 }, { "epoch": 44.96, "grad_norm": 0.5625, "learning_rate": 9.987895562408167e-05, "loss": 0.3863, "step": 33720 }, { "epoch": 44.973333333333336, "grad_norm": 0.73046875, "learning_rate": 9.987888276596102e-05, "loss": 0.4088, "step": 33730 }, { "epoch": 44.986666666666665, "grad_norm": 0.60546875, "learning_rate": 9.987880988594644e-05, "loss": 0.3817, "step": 33740 }, { "epoch": 45.0, "grad_norm": 0.64453125, "learning_rate": 9.9878736984038e-05, "loss": 0.3789, "step": 33750 }, { "epoch": 45.0, "eval_loss": 0.43009987473487854, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.1576, "eval_samples_per_second": 1.575, "eval_steps_per_second": 0.098, "step": 33750 }, { "epoch": 45.013333333333335, "grad_norm": 0.65625, "learning_rate": 9.987866406023568e-05, "loss": 0.3957, "step": 33760 }, { "epoch": 45.026666666666664, "grad_norm": 0.62890625, "learning_rate": 9.987859111453954e-05, "loss": 0.4097, "step": 33770 }, { "epoch": 45.04, "grad_norm": 0.64453125, "learning_rate": 9.987851814694962e-05, "loss": 0.4215, "step": 33780 }, { "epoch": 45.053333333333335, "grad_norm": 0.6640625, "learning_rate": 9.987844515746594e-05, "loss": 0.4067, "step": 33790 }, { "epoch": 45.06666666666667, "grad_norm": 0.65234375, "learning_rate": 9.987837214608853e-05, "loss": 0.3958, "step": 33800 }, { "epoch": 45.08, "grad_norm": 0.59375, "learning_rate": 9.987829911281741e-05, "loss": 0.3983, "step": 33810 }, { "epoch": 45.093333333333334, "grad_norm": 0.64453125, "learning_rate": 9.987822605765264e-05, "loss": 0.4003, "step": 33820 }, { "epoch": 45.10666666666667, "grad_norm": 0.55078125, "learning_rate": 9.987815298059424e-05, "loss": 0.3884, "step": 33830 }, { "epoch": 45.12, "grad_norm": 0.59375, "learning_rate": 9.987807988164224e-05, "loss": 0.3923, "step": 33840 }, { "epoch": 45.13333333333333, "grad_norm": 0.671875, "learning_rate": 9.987800676079666e-05, "loss": 0.3841, "step": 33850 }, { "epoch": 45.14666666666667, "grad_norm": 0.63671875, "learning_rate": 9.987793361805754e-05, "loss": 0.4027, "step": 33860 }, { "epoch": 45.16, "grad_norm": 0.6171875, "learning_rate": 9.987786045342495e-05, "loss": 0.3969, "step": 33870 }, { "epoch": 45.17333333333333, "grad_norm": 0.65234375, "learning_rate": 9.987778726689887e-05, "loss": 0.3924, "step": 33880 }, { "epoch": 45.18666666666667, "grad_norm": 0.6171875, "learning_rate": 9.987771405847934e-05, "loss": 0.3889, "step": 33890 }, { "epoch": 45.2, "grad_norm": 0.57421875, "learning_rate": 9.987764082816642e-05, "loss": 0.3815, "step": 33900 }, { "epoch": 45.21333333333333, "grad_norm": 0.66796875, "learning_rate": 9.987756757596011e-05, "loss": 0.3823, "step": 33910 }, { "epoch": 45.22666666666667, "grad_norm": 0.69140625, "learning_rate": 9.987749430186048e-05, "loss": 0.394, "step": 33920 }, { "epoch": 45.24, "grad_norm": 0.65625, "learning_rate": 9.987742100586752e-05, "loss": 0.381, "step": 33930 }, { "epoch": 45.25333333333333, "grad_norm": 0.7109375, "learning_rate": 9.987734768798129e-05, "loss": 0.3817, "step": 33940 }, { "epoch": 45.266666666666666, "grad_norm": 0.67578125, "learning_rate": 9.987727434820181e-05, "loss": 0.3845, "step": 33950 }, { "epoch": 45.28, "grad_norm": 0.57421875, "learning_rate": 9.987720098652912e-05, "loss": 0.4142, "step": 33960 }, { "epoch": 45.29333333333334, "grad_norm": 0.67578125, "learning_rate": 9.987712760296324e-05, "loss": 0.3713, "step": 33970 }, { "epoch": 45.306666666666665, "grad_norm": 0.5625, "learning_rate": 9.987705419750421e-05, "loss": 0.3942, "step": 33980 }, { "epoch": 45.32, "grad_norm": 0.51171875, "learning_rate": 9.987698077015208e-05, "loss": 0.3963, "step": 33990 }, { "epoch": 45.333333333333336, "grad_norm": 0.6484375, "learning_rate": 9.987690732090686e-05, "loss": 0.3984, "step": 34000 }, { "epoch": 45.346666666666664, "grad_norm": 0.73828125, "learning_rate": 9.987683384976857e-05, "loss": 0.3889, "step": 34010 }, { "epoch": 45.36, "grad_norm": 0.74609375, "learning_rate": 9.987676035673728e-05, "loss": 0.3895, "step": 34020 }, { "epoch": 45.373333333333335, "grad_norm": 0.73828125, "learning_rate": 9.987668684181299e-05, "loss": 0.3912, "step": 34030 }, { "epoch": 45.38666666666666, "grad_norm": 0.7265625, "learning_rate": 9.987661330499576e-05, "loss": 0.3812, "step": 34040 }, { "epoch": 45.4, "grad_norm": 0.62890625, "learning_rate": 9.987653974628559e-05, "loss": 0.39, "step": 34050 }, { "epoch": 45.413333333333334, "grad_norm": 0.61328125, "learning_rate": 9.987646616568253e-05, "loss": 0.3951, "step": 34060 }, { "epoch": 45.42666666666667, "grad_norm": 0.57421875, "learning_rate": 9.987639256318662e-05, "loss": 0.3967, "step": 34070 }, { "epoch": 45.44, "grad_norm": 0.65234375, "learning_rate": 9.987631893879787e-05, "loss": 0.4099, "step": 34080 }, { "epoch": 45.45333333333333, "grad_norm": 0.66796875, "learning_rate": 9.987624529251634e-05, "loss": 0.3964, "step": 34090 }, { "epoch": 45.46666666666667, "grad_norm": 0.625, "learning_rate": 9.987617162434203e-05, "loss": 0.4056, "step": 34100 }, { "epoch": 45.48, "grad_norm": 0.6328125, "learning_rate": 9.987609793427502e-05, "loss": 0.3873, "step": 34110 }, { "epoch": 45.49333333333333, "grad_norm": 0.61328125, "learning_rate": 9.987602422231528e-05, "loss": 0.3987, "step": 34120 }, { "epoch": 45.50666666666667, "grad_norm": 0.6875, "learning_rate": 9.98759504884629e-05, "loss": 0.397, "step": 34130 }, { "epoch": 45.52, "grad_norm": 0.82421875, "learning_rate": 9.987587673271787e-05, "loss": 0.3876, "step": 34140 }, { "epoch": 45.53333333333333, "grad_norm": 0.73828125, "learning_rate": 9.987580295508025e-05, "loss": 0.39, "step": 34150 }, { "epoch": 45.54666666666667, "grad_norm": 0.7578125, "learning_rate": 9.987572915555005e-05, "loss": 0.392, "step": 34160 }, { "epoch": 45.56, "grad_norm": 0.55859375, "learning_rate": 9.987565533412733e-05, "loss": 0.3868, "step": 34170 }, { "epoch": 45.57333333333333, "grad_norm": 0.60546875, "learning_rate": 9.987558149081209e-05, "loss": 0.3899, "step": 34180 }, { "epoch": 45.586666666666666, "grad_norm": 0.57421875, "learning_rate": 9.98755076256044e-05, "loss": 0.3795, "step": 34190 }, { "epoch": 45.6, "grad_norm": 0.5546875, "learning_rate": 9.987543373850425e-05, "loss": 0.3805, "step": 34200 }, { "epoch": 45.61333333333333, "grad_norm": 0.54296875, "learning_rate": 9.98753598295117e-05, "loss": 0.3719, "step": 34210 }, { "epoch": 45.626666666666665, "grad_norm": 0.515625, "learning_rate": 9.987528589862678e-05, "loss": 0.3765, "step": 34220 }, { "epoch": 45.64, "grad_norm": 0.6875, "learning_rate": 9.987521194584952e-05, "loss": 0.3875, "step": 34230 }, { "epoch": 45.653333333333336, "grad_norm": 0.6015625, "learning_rate": 9.987513797117996e-05, "loss": 0.3984, "step": 34240 }, { "epoch": 45.666666666666664, "grad_norm": 0.60546875, "learning_rate": 9.987506397461813e-05, "loss": 0.3855, "step": 34250 }, { "epoch": 45.68, "grad_norm": 0.65625, "learning_rate": 9.987498995616403e-05, "loss": 0.3778, "step": 34260 }, { "epoch": 45.693333333333335, "grad_norm": 0.5625, "learning_rate": 9.987491591581772e-05, "loss": 0.3857, "step": 34270 }, { "epoch": 45.70666666666666, "grad_norm": 0.70703125, "learning_rate": 9.987484185357925e-05, "loss": 0.3791, "step": 34280 }, { "epoch": 45.72, "grad_norm": 0.66015625, "learning_rate": 9.987476776944862e-05, "loss": 0.4013, "step": 34290 }, { "epoch": 45.733333333333334, "grad_norm": 0.59375, "learning_rate": 9.987469366342589e-05, "loss": 0.3948, "step": 34300 }, { "epoch": 45.74666666666667, "grad_norm": 0.67578125, "learning_rate": 9.987461953551107e-05, "loss": 0.3977, "step": 34310 }, { "epoch": 45.76, "grad_norm": 0.625, "learning_rate": 9.98745453857042e-05, "loss": 0.4104, "step": 34320 }, { "epoch": 45.77333333333333, "grad_norm": 0.68359375, "learning_rate": 9.987447121400533e-05, "loss": 0.3958, "step": 34330 }, { "epoch": 45.78666666666667, "grad_norm": 0.59375, "learning_rate": 9.987439702041446e-05, "loss": 0.3984, "step": 34340 }, { "epoch": 45.8, "grad_norm": 0.640625, "learning_rate": 9.987432280493163e-05, "loss": 0.396, "step": 34350 }, { "epoch": 45.81333333333333, "grad_norm": 0.7734375, "learning_rate": 9.98742485675569e-05, "loss": 0.3701, "step": 34360 }, { "epoch": 45.82666666666667, "grad_norm": 0.6015625, "learning_rate": 9.987417430829028e-05, "loss": 0.3786, "step": 34370 }, { "epoch": 45.84, "grad_norm": 0.6875, "learning_rate": 9.98741000271318e-05, "loss": 0.3912, "step": 34380 }, { "epoch": 45.85333333333333, "grad_norm": 0.60546875, "learning_rate": 9.987402572408152e-05, "loss": 0.3873, "step": 34390 }, { "epoch": 45.86666666666667, "grad_norm": 0.59765625, "learning_rate": 9.987395139913943e-05, "loss": 0.3903, "step": 34400 }, { "epoch": 45.88, "grad_norm": 0.6953125, "learning_rate": 9.98738770523056e-05, "loss": 0.3718, "step": 34410 }, { "epoch": 45.89333333333333, "grad_norm": 0.5859375, "learning_rate": 9.987380268358004e-05, "loss": 0.384, "step": 34420 }, { "epoch": 45.906666666666666, "grad_norm": 0.58984375, "learning_rate": 9.987372829296279e-05, "loss": 0.3901, "step": 34430 }, { "epoch": 45.92, "grad_norm": 0.671875, "learning_rate": 9.987365388045388e-05, "loss": 0.3922, "step": 34440 }, { "epoch": 45.93333333333333, "grad_norm": 0.6015625, "learning_rate": 9.987357944605335e-05, "loss": 0.3867, "step": 34450 }, { "epoch": 45.946666666666665, "grad_norm": 0.6015625, "learning_rate": 9.987350498976123e-05, "loss": 0.3869, "step": 34460 }, { "epoch": 45.96, "grad_norm": 0.61328125, "learning_rate": 9.987343051157754e-05, "loss": 0.384, "step": 34470 }, { "epoch": 45.973333333333336, "grad_norm": 0.74609375, "learning_rate": 9.987335601150234e-05, "loss": 0.4084, "step": 34480 }, { "epoch": 45.986666666666665, "grad_norm": 0.61328125, "learning_rate": 9.987328148953563e-05, "loss": 0.3804, "step": 34490 }, { "epoch": 46.0, "grad_norm": 0.640625, "learning_rate": 9.987320694567747e-05, "loss": 0.3782, "step": 34500 }, { "epoch": 46.0, "eval_loss": 0.42663365602493286, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3211, "eval_samples_per_second": 1.55, "eval_steps_per_second": 0.097, "step": 34500 }, { "epoch": 46.013333333333335, "grad_norm": 0.6953125, "learning_rate": 9.987313237992789e-05, "loss": 0.3944, "step": 34510 }, { "epoch": 46.026666666666664, "grad_norm": 0.5625, "learning_rate": 9.987305779228689e-05, "loss": 0.4094, "step": 34520 }, { "epoch": 46.04, "grad_norm": 0.578125, "learning_rate": 9.987298318275453e-05, "loss": 0.4217, "step": 34530 }, { "epoch": 46.053333333333335, "grad_norm": 0.61328125, "learning_rate": 9.987290855133084e-05, "loss": 0.4072, "step": 34540 }, { "epoch": 46.06666666666667, "grad_norm": 0.6171875, "learning_rate": 9.987283389801587e-05, "loss": 0.3943, "step": 34550 }, { "epoch": 46.08, "grad_norm": 0.63671875, "learning_rate": 9.987275922280963e-05, "loss": 0.3982, "step": 34560 }, { "epoch": 46.093333333333334, "grad_norm": 0.5703125, "learning_rate": 9.987268452571215e-05, "loss": 0.3999, "step": 34570 }, { "epoch": 46.10666666666667, "grad_norm": 0.54296875, "learning_rate": 9.987260980672348e-05, "loss": 0.3876, "step": 34580 }, { "epoch": 46.12, "grad_norm": 0.59375, "learning_rate": 9.987253506584364e-05, "loss": 0.3911, "step": 34590 }, { "epoch": 46.13333333333333, "grad_norm": 0.609375, "learning_rate": 9.987246030307267e-05, "loss": 0.3835, "step": 34600 }, { "epoch": 46.14666666666667, "grad_norm": 0.66015625, "learning_rate": 9.987238551841058e-05, "loss": 0.4027, "step": 34610 }, { "epoch": 46.16, "grad_norm": 0.60546875, "learning_rate": 9.987231071185746e-05, "loss": 0.396, "step": 34620 }, { "epoch": 46.17333333333333, "grad_norm": 0.6640625, "learning_rate": 9.987223588341326e-05, "loss": 0.3913, "step": 34630 }, { "epoch": 46.18666666666667, "grad_norm": 0.62890625, "learning_rate": 9.987216103307808e-05, "loss": 0.3899, "step": 34640 }, { "epoch": 46.2, "grad_norm": 0.62109375, "learning_rate": 9.987208616085194e-05, "loss": 0.3805, "step": 34650 }, { "epoch": 46.21333333333333, "grad_norm": 0.6171875, "learning_rate": 9.987201126673485e-05, "loss": 0.382, "step": 34660 }, { "epoch": 46.22666666666667, "grad_norm": 0.6875, "learning_rate": 9.987193635072687e-05, "loss": 0.3937, "step": 34670 }, { "epoch": 46.24, "grad_norm": 0.65625, "learning_rate": 9.987186141282801e-05, "loss": 0.3783, "step": 34680 }, { "epoch": 46.25333333333333, "grad_norm": 0.70703125, "learning_rate": 9.98717864530383e-05, "loss": 0.3813, "step": 34690 }, { "epoch": 46.266666666666666, "grad_norm": 0.57421875, "learning_rate": 9.987171147135781e-05, "loss": 0.3842, "step": 34700 }, { "epoch": 46.28, "grad_norm": 0.67578125, "learning_rate": 9.987163646778652e-05, "loss": 0.4121, "step": 34710 }, { "epoch": 46.29333333333334, "grad_norm": 0.6328125, "learning_rate": 9.987156144232451e-05, "loss": 0.3703, "step": 34720 }, { "epoch": 46.306666666666665, "grad_norm": 0.55859375, "learning_rate": 9.987148639497179e-05, "loss": 0.3932, "step": 34730 }, { "epoch": 46.32, "grad_norm": 0.5546875, "learning_rate": 9.987141132572841e-05, "loss": 0.3974, "step": 34740 }, { "epoch": 46.333333333333336, "grad_norm": 0.609375, "learning_rate": 9.987133623459437e-05, "loss": 0.3977, "step": 34750 }, { "epoch": 46.346666666666664, "grad_norm": 0.74609375, "learning_rate": 9.987126112156973e-05, "loss": 0.3893, "step": 34760 }, { "epoch": 46.36, "grad_norm": 0.63671875, "learning_rate": 9.98711859866545e-05, "loss": 0.3892, "step": 34770 }, { "epoch": 46.373333333333335, "grad_norm": 0.546875, "learning_rate": 9.987111082984876e-05, "loss": 0.3904, "step": 34780 }, { "epoch": 46.38666666666666, "grad_norm": 0.65234375, "learning_rate": 9.987103565115249e-05, "loss": 0.3813, "step": 34790 }, { "epoch": 46.4, "grad_norm": 0.67578125, "learning_rate": 9.987096045056574e-05, "loss": 0.3902, "step": 34800 }, { "epoch": 46.413333333333334, "grad_norm": 0.62109375, "learning_rate": 9.987088522808856e-05, "loss": 0.3942, "step": 34810 }, { "epoch": 46.42666666666667, "grad_norm": 0.5859375, "learning_rate": 9.987080998372098e-05, "loss": 0.3967, "step": 34820 }, { "epoch": 46.44, "grad_norm": 0.64453125, "learning_rate": 9.9870734717463e-05, "loss": 0.4084, "step": 34830 }, { "epoch": 46.45333333333333, "grad_norm": 0.68359375, "learning_rate": 9.987065942931469e-05, "loss": 0.3961, "step": 34840 }, { "epoch": 46.46666666666667, "grad_norm": 0.58203125, "learning_rate": 9.987058411927608e-05, "loss": 0.404, "step": 34850 }, { "epoch": 46.48, "grad_norm": 0.64453125, "learning_rate": 9.987050878734718e-05, "loss": 0.3867, "step": 34860 }, { "epoch": 46.49333333333333, "grad_norm": 0.6171875, "learning_rate": 9.987043343352803e-05, "loss": 0.3983, "step": 34870 }, { "epoch": 46.50666666666667, "grad_norm": 0.65625, "learning_rate": 9.987035805781868e-05, "loss": 0.3968, "step": 34880 }, { "epoch": 46.52, "grad_norm": 0.6015625, "learning_rate": 9.987028266021916e-05, "loss": 0.3873, "step": 34890 }, { "epoch": 46.53333333333333, "grad_norm": 0.62890625, "learning_rate": 9.987020724072946e-05, "loss": 0.3902, "step": 34900 }, { "epoch": 46.54666666666667, "grad_norm": 0.7109375, "learning_rate": 9.987013179934968e-05, "loss": 0.3912, "step": 34910 }, { "epoch": 46.56, "grad_norm": 0.6328125, "learning_rate": 9.987005633607982e-05, "loss": 0.3865, "step": 34920 }, { "epoch": 46.57333333333333, "grad_norm": 0.6171875, "learning_rate": 9.98699808509199e-05, "loss": 0.3899, "step": 34930 }, { "epoch": 46.586666666666666, "grad_norm": 0.5625, "learning_rate": 9.986990534386997e-05, "loss": 0.3786, "step": 34940 }, { "epoch": 46.6, "grad_norm": 0.5625, "learning_rate": 9.986982981493007e-05, "loss": 0.38, "step": 34950 }, { "epoch": 46.61333333333333, "grad_norm": 0.6015625, "learning_rate": 9.986975426410022e-05, "loss": 0.3709, "step": 34960 }, { "epoch": 46.626666666666665, "grad_norm": 0.54296875, "learning_rate": 9.986967869138047e-05, "loss": 0.3758, "step": 34970 }, { "epoch": 46.64, "grad_norm": 0.64453125, "learning_rate": 9.986960309677082e-05, "loss": 0.3869, "step": 34980 }, { "epoch": 46.653333333333336, "grad_norm": 0.64453125, "learning_rate": 9.986952748027132e-05, "loss": 0.3974, "step": 34990 }, { "epoch": 46.666666666666664, "grad_norm": 0.62890625, "learning_rate": 9.986945184188203e-05, "loss": 0.3849, "step": 35000 }, { "epoch": 46.68, "grad_norm": 0.5859375, "learning_rate": 9.986937618160295e-05, "loss": 0.3768, "step": 35010 }, { "epoch": 46.693333333333335, "grad_norm": 0.578125, "learning_rate": 9.986930049943412e-05, "loss": 0.3856, "step": 35020 }, { "epoch": 46.70666666666666, "grad_norm": 0.67578125, "learning_rate": 9.986922479537557e-05, "loss": 0.3783, "step": 35030 }, { "epoch": 46.72, "grad_norm": 0.68359375, "learning_rate": 9.986914906942735e-05, "loss": 0.4, "step": 35040 }, { "epoch": 46.733333333333334, "grad_norm": 0.64453125, "learning_rate": 9.986907332158948e-05, "loss": 0.395, "step": 35050 }, { "epoch": 46.74666666666667, "grad_norm": 0.57421875, "learning_rate": 9.986899755186198e-05, "loss": 0.3972, "step": 35060 }, { "epoch": 46.76, "grad_norm": 0.66015625, "learning_rate": 9.986892176024493e-05, "loss": 0.41, "step": 35070 }, { "epoch": 46.77333333333333, "grad_norm": 0.72265625, "learning_rate": 9.98688459467383e-05, "loss": 0.3958, "step": 35080 }, { "epoch": 46.78666666666667, "grad_norm": 0.640625, "learning_rate": 9.98687701113422e-05, "loss": 0.397, "step": 35090 }, { "epoch": 46.8, "grad_norm": 0.65625, "learning_rate": 9.986869425405659e-05, "loss": 0.3946, "step": 35100 }, { "epoch": 46.81333333333333, "grad_norm": 0.6875, "learning_rate": 9.986861837488153e-05, "loss": 0.3699, "step": 35110 }, { "epoch": 46.82666666666667, "grad_norm": 0.59765625, "learning_rate": 9.986854247381705e-05, "loss": 0.3781, "step": 35120 }, { "epoch": 46.84, "grad_norm": 0.6640625, "learning_rate": 9.98684665508632e-05, "loss": 0.3902, "step": 35130 }, { "epoch": 46.85333333333333, "grad_norm": 0.6796875, "learning_rate": 9.986839060602e-05, "loss": 0.3866, "step": 35140 }, { "epoch": 46.86666666666667, "grad_norm": 0.6484375, "learning_rate": 9.986831463928748e-05, "loss": 0.3897, "step": 35150 }, { "epoch": 46.88, "grad_norm": 0.640625, "learning_rate": 9.986823865066569e-05, "loss": 0.3711, "step": 35160 }, { "epoch": 46.89333333333333, "grad_norm": 0.5859375, "learning_rate": 9.986816264015465e-05, "loss": 0.3828, "step": 35170 }, { "epoch": 46.906666666666666, "grad_norm": 0.67578125, "learning_rate": 9.98680866077544e-05, "loss": 0.3897, "step": 35180 }, { "epoch": 46.92, "grad_norm": 0.6875, "learning_rate": 9.986801055346495e-05, "loss": 0.3904, "step": 35190 }, { "epoch": 46.93333333333333, "grad_norm": 0.55078125, "learning_rate": 9.986793447728638e-05, "loss": 0.3854, "step": 35200 }, { "epoch": 46.946666666666665, "grad_norm": 0.6328125, "learning_rate": 9.986785837921868e-05, "loss": 0.385, "step": 35210 }, { "epoch": 46.96, "grad_norm": 0.5859375, "learning_rate": 9.98677822592619e-05, "loss": 0.3837, "step": 35220 }, { "epoch": 46.973333333333336, "grad_norm": 0.82421875, "learning_rate": 9.986770611741607e-05, "loss": 0.4077, "step": 35230 }, { "epoch": 46.986666666666665, "grad_norm": 0.66796875, "learning_rate": 9.986762995368123e-05, "loss": 0.3795, "step": 35240 }, { "epoch": 47.0, "grad_norm": 0.6328125, "learning_rate": 9.986755376805741e-05, "loss": 0.3771, "step": 35250 }, { "epoch": 47.0, "eval_loss": 0.4265933930873871, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.2995, "eval_samples_per_second": 1.553, "eval_steps_per_second": 0.097, "step": 35250 }, { "epoch": 47.013333333333335, "grad_norm": 0.68359375, "learning_rate": 9.986747756054464e-05, "loss": 0.3936, "step": 35260 }, { "epoch": 47.026666666666664, "grad_norm": 0.609375, "learning_rate": 9.986740133114296e-05, "loss": 0.4078, "step": 35270 }, { "epoch": 47.04, "grad_norm": 0.53125, "learning_rate": 9.98673250798524e-05, "loss": 0.4206, "step": 35280 }, { "epoch": 47.053333333333335, "grad_norm": 0.609375, "learning_rate": 9.986724880667299e-05, "loss": 0.4054, "step": 35290 }, { "epoch": 47.06666666666667, "grad_norm": 0.640625, "learning_rate": 9.986717251160477e-05, "loss": 0.3935, "step": 35300 }, { "epoch": 47.08, "grad_norm": 0.62890625, "learning_rate": 9.986709619464776e-05, "loss": 0.3979, "step": 35310 }, { "epoch": 47.093333333333334, "grad_norm": 0.62109375, "learning_rate": 9.986701985580202e-05, "loss": 0.3993, "step": 35320 }, { "epoch": 47.10666666666667, "grad_norm": 0.609375, "learning_rate": 9.986694349506755e-05, "loss": 0.3866, "step": 35330 }, { "epoch": 47.12, "grad_norm": 0.6171875, "learning_rate": 9.986686711244442e-05, "loss": 0.3909, "step": 35340 }, { "epoch": 47.13333333333333, "grad_norm": 0.640625, "learning_rate": 9.986679070793264e-05, "loss": 0.3825, "step": 35350 }, { "epoch": 47.14666666666667, "grad_norm": 0.67578125, "learning_rate": 9.986671428153223e-05, "loss": 0.4019, "step": 35360 }, { "epoch": 47.16, "grad_norm": 0.5703125, "learning_rate": 9.986663783324326e-05, "loss": 0.3962, "step": 35370 }, { "epoch": 47.17333333333333, "grad_norm": 0.5859375, "learning_rate": 9.986656136306574e-05, "loss": 0.3896, "step": 35380 }, { "epoch": 47.18666666666667, "grad_norm": 0.61328125, "learning_rate": 9.986648487099971e-05, "loss": 0.3886, "step": 35390 }, { "epoch": 47.2, "grad_norm": 0.62890625, "learning_rate": 9.98664083570452e-05, "loss": 0.3811, "step": 35400 }, { "epoch": 47.21333333333333, "grad_norm": 0.6796875, "learning_rate": 9.986633182120224e-05, "loss": 0.3822, "step": 35410 }, { "epoch": 47.22666666666667, "grad_norm": 0.6640625, "learning_rate": 9.986625526347089e-05, "loss": 0.3932, "step": 35420 }, { "epoch": 47.24, "grad_norm": 0.61328125, "learning_rate": 9.986617868385114e-05, "loss": 0.3793, "step": 35430 }, { "epoch": 47.25333333333333, "grad_norm": 0.609375, "learning_rate": 9.986610208234306e-05, "loss": 0.3815, "step": 35440 }, { "epoch": 47.266666666666666, "grad_norm": 0.60546875, "learning_rate": 9.986602545894666e-05, "loss": 0.3827, "step": 35450 }, { "epoch": 47.28, "grad_norm": 0.71484375, "learning_rate": 9.986594881366199e-05, "loss": 0.4119, "step": 35460 }, { "epoch": 47.29333333333334, "grad_norm": 0.625, "learning_rate": 9.986587214648908e-05, "loss": 0.3697, "step": 35470 }, { "epoch": 47.306666666666665, "grad_norm": 0.5625, "learning_rate": 9.986579545742796e-05, "loss": 0.3931, "step": 35480 }, { "epoch": 47.32, "grad_norm": 0.55078125, "learning_rate": 9.986571874647865e-05, "loss": 0.3951, "step": 35490 }, { "epoch": 47.333333333333336, "grad_norm": 0.64453125, "learning_rate": 9.986564201364122e-05, "loss": 0.3972, "step": 35500 }, { "epoch": 47.346666666666664, "grad_norm": 0.7578125, "learning_rate": 9.986556525891568e-05, "loss": 0.3869, "step": 35510 }, { "epoch": 47.36, "grad_norm": 0.71484375, "learning_rate": 9.986548848230205e-05, "loss": 0.389, "step": 35520 }, { "epoch": 47.373333333333335, "grad_norm": 0.6640625, "learning_rate": 9.986541168380039e-05, "loss": 0.3904, "step": 35530 }, { "epoch": 47.38666666666666, "grad_norm": 0.7578125, "learning_rate": 9.986533486341072e-05, "loss": 0.3803, "step": 35540 }, { "epoch": 47.4, "grad_norm": 0.60546875, "learning_rate": 9.986525802113309e-05, "loss": 0.3885, "step": 35550 }, { "epoch": 47.413333333333334, "grad_norm": 0.55078125, "learning_rate": 9.98651811569675e-05, "loss": 0.3945, "step": 35560 }, { "epoch": 47.42666666666667, "grad_norm": 0.58203125, "learning_rate": 9.986510427091403e-05, "loss": 0.3953, "step": 35570 }, { "epoch": 47.44, "grad_norm": 0.62890625, "learning_rate": 9.986502736297265e-05, "loss": 0.4078, "step": 35580 }, { "epoch": 47.45333333333333, "grad_norm": 0.640625, "learning_rate": 9.986495043314346e-05, "loss": 0.3962, "step": 35590 }, { "epoch": 47.46666666666667, "grad_norm": 0.6171875, "learning_rate": 9.986487348142646e-05, "loss": 0.4045, "step": 35600 }, { "epoch": 47.48, "grad_norm": 0.62890625, "learning_rate": 9.986479650782169e-05, "loss": 0.386, "step": 35610 }, { "epoch": 47.49333333333333, "grad_norm": 0.58984375, "learning_rate": 9.986471951232918e-05, "loss": 0.3979, "step": 35620 }, { "epoch": 47.50666666666667, "grad_norm": 0.65234375, "learning_rate": 9.986464249494899e-05, "loss": 0.3963, "step": 35630 }, { "epoch": 47.52, "grad_norm": 0.5546875, "learning_rate": 9.986456545568109e-05, "loss": 0.3864, "step": 35640 }, { "epoch": 47.53333333333333, "grad_norm": 0.65625, "learning_rate": 9.986448839452558e-05, "loss": 0.389, "step": 35650 }, { "epoch": 47.54666666666667, "grad_norm": 0.69921875, "learning_rate": 9.986441131148246e-05, "loss": 0.3916, "step": 35660 }, { "epoch": 47.56, "grad_norm": 0.5625, "learning_rate": 9.986433420655177e-05, "loss": 0.3856, "step": 35670 }, { "epoch": 47.57333333333333, "grad_norm": 0.640625, "learning_rate": 9.986425707973356e-05, "loss": 0.3904, "step": 35680 }, { "epoch": 47.586666666666666, "grad_norm": 0.58203125, "learning_rate": 9.986417993102785e-05, "loss": 0.3791, "step": 35690 }, { "epoch": 47.6, "grad_norm": 0.609375, "learning_rate": 9.986410276043465e-05, "loss": 0.3805, "step": 35700 }, { "epoch": 47.61333333333333, "grad_norm": 0.55859375, "learning_rate": 9.986402556795405e-05, "loss": 0.3709, "step": 35710 }, { "epoch": 47.626666666666665, "grad_norm": 0.53125, "learning_rate": 9.986394835358604e-05, "loss": 0.3756, "step": 35720 }, { "epoch": 47.64, "grad_norm": 0.63671875, "learning_rate": 9.986387111733064e-05, "loss": 0.3866, "step": 35730 }, { "epoch": 47.653333333333336, "grad_norm": 0.625, "learning_rate": 9.986379385918794e-05, "loss": 0.3968, "step": 35740 }, { "epoch": 47.666666666666664, "grad_norm": 0.62890625, "learning_rate": 9.986371657915794e-05, "loss": 0.3844, "step": 35750 }, { "epoch": 47.68, "grad_norm": 0.59765625, "learning_rate": 9.986363927724067e-05, "loss": 0.3761, "step": 35760 }, { "epoch": 47.693333333333335, "grad_norm": 0.55859375, "learning_rate": 9.986356195343617e-05, "loss": 0.3845, "step": 35770 }, { "epoch": 47.70666666666666, "grad_norm": 0.75390625, "learning_rate": 9.986348460774448e-05, "loss": 0.3778, "step": 35780 }, { "epoch": 47.72, "grad_norm": 0.6171875, "learning_rate": 9.986340724016562e-05, "loss": 0.3994, "step": 35790 }, { "epoch": 47.733333333333334, "grad_norm": 0.6875, "learning_rate": 9.986332985069964e-05, "loss": 0.3944, "step": 35800 }, { "epoch": 47.74666666666667, "grad_norm": 0.66796875, "learning_rate": 9.986325243934658e-05, "loss": 0.3972, "step": 35810 }, { "epoch": 47.76, "grad_norm": 0.640625, "learning_rate": 9.986317500610645e-05, "loss": 0.4092, "step": 35820 }, { "epoch": 47.77333333333333, "grad_norm": 0.68359375, "learning_rate": 9.986309755097929e-05, "loss": 0.3959, "step": 35830 }, { "epoch": 47.78666666666667, "grad_norm": 0.5703125, "learning_rate": 9.986302007396513e-05, "loss": 0.3964, "step": 35840 }, { "epoch": 47.8, "grad_norm": 0.62109375, "learning_rate": 9.986294257506403e-05, "loss": 0.3943, "step": 35850 }, { "epoch": 47.81333333333333, "grad_norm": 0.67578125, "learning_rate": 9.9862865054276e-05, "loss": 0.368, "step": 35860 }, { "epoch": 47.82666666666667, "grad_norm": 0.6015625, "learning_rate": 9.986278751160108e-05, "loss": 0.3782, "step": 35870 }, { "epoch": 47.84, "grad_norm": 0.69921875, "learning_rate": 9.986270994703931e-05, "loss": 0.3895, "step": 35880 }, { "epoch": 47.85333333333333, "grad_norm": 0.61328125, "learning_rate": 9.986263236059073e-05, "loss": 0.3856, "step": 35890 }, { "epoch": 47.86666666666667, "grad_norm": 0.59375, "learning_rate": 9.986255475225535e-05, "loss": 0.3894, "step": 35900 }, { "epoch": 47.88, "grad_norm": 0.58203125, "learning_rate": 9.986247712203321e-05, "loss": 0.3699, "step": 35910 }, { "epoch": 47.89333333333333, "grad_norm": 0.609375, "learning_rate": 9.986239946992436e-05, "loss": 0.3824, "step": 35920 }, { "epoch": 47.906666666666666, "grad_norm": 0.58984375, "learning_rate": 9.986232179592883e-05, "loss": 0.3886, "step": 35930 }, { "epoch": 47.92, "grad_norm": 0.703125, "learning_rate": 9.986224410004663e-05, "loss": 0.39, "step": 35940 }, { "epoch": 47.93333333333333, "grad_norm": 0.578125, "learning_rate": 9.986216638227783e-05, "loss": 0.3841, "step": 35950 }, { "epoch": 47.946666666666665, "grad_norm": 0.59375, "learning_rate": 9.986208864262246e-05, "loss": 0.3849, "step": 35960 }, { "epoch": 47.96, "grad_norm": 0.55859375, "learning_rate": 9.986201088108052e-05, "loss": 0.3828, "step": 35970 }, { "epoch": 47.973333333333336, "grad_norm": 0.8046875, "learning_rate": 9.986193309765207e-05, "loss": 0.4074, "step": 35980 }, { "epoch": 47.986666666666665, "grad_norm": 0.62890625, "learning_rate": 9.986185529233714e-05, "loss": 0.3789, "step": 35990 }, { "epoch": 48.0, "grad_norm": 0.65234375, "learning_rate": 9.986177746513578e-05, "loss": 0.3762, "step": 36000 }, { "epoch": 48.0, "eval_loss": 0.4257020056247711, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3966, "eval_samples_per_second": 1.539, "eval_steps_per_second": 0.096, "step": 36000 }, { "epoch": 48.013333333333335, "grad_norm": 0.71875, "learning_rate": 9.9861699616048e-05, "loss": 0.3932, "step": 36010 }, { "epoch": 48.026666666666664, "grad_norm": 0.6171875, "learning_rate": 9.986162174507383e-05, "loss": 0.4074, "step": 36020 }, { "epoch": 48.04, "grad_norm": 0.5546875, "learning_rate": 9.986154385221333e-05, "loss": 0.4201, "step": 36030 }, { "epoch": 48.053333333333335, "grad_norm": 0.68359375, "learning_rate": 9.986146593746652e-05, "loss": 0.4053, "step": 36040 }, { "epoch": 48.06666666666667, "grad_norm": 0.69140625, "learning_rate": 9.986138800083342e-05, "loss": 0.3937, "step": 36050 }, { "epoch": 48.08, "grad_norm": 0.66015625, "learning_rate": 9.98613100423141e-05, "loss": 0.3967, "step": 36060 }, { "epoch": 48.093333333333334, "grad_norm": 0.64453125, "learning_rate": 9.986123206190856e-05, "loss": 0.3985, "step": 36070 }, { "epoch": 48.10666666666667, "grad_norm": 0.55859375, "learning_rate": 9.986115405961685e-05, "loss": 0.386, "step": 36080 }, { "epoch": 48.12, "grad_norm": 0.703125, "learning_rate": 9.986107603543901e-05, "loss": 0.3907, "step": 36090 }, { "epoch": 48.13333333333333, "grad_norm": 0.60546875, "learning_rate": 9.986099798937506e-05, "loss": 0.3818, "step": 36100 }, { "epoch": 48.14666666666667, "grad_norm": 0.5859375, "learning_rate": 9.986091992142504e-05, "loss": 0.4016, "step": 36110 }, { "epoch": 48.16, "grad_norm": 0.57421875, "learning_rate": 9.986084183158899e-05, "loss": 0.3952, "step": 36120 }, { "epoch": 48.17333333333333, "grad_norm": 0.68359375, "learning_rate": 9.986076371986694e-05, "loss": 0.3894, "step": 36130 }, { "epoch": 48.18666666666667, "grad_norm": 0.625, "learning_rate": 9.986068558625892e-05, "loss": 0.3881, "step": 36140 }, { "epoch": 48.2, "grad_norm": 0.6796875, "learning_rate": 9.986060743076496e-05, "loss": 0.3802, "step": 36150 }, { "epoch": 48.21333333333333, "grad_norm": 0.671875, "learning_rate": 9.986052925338512e-05, "loss": 0.3818, "step": 36160 }, { "epoch": 48.22666666666667, "grad_norm": 0.6796875, "learning_rate": 9.98604510541194e-05, "loss": 0.3929, "step": 36170 }, { "epoch": 48.24, "grad_norm": 0.65234375, "learning_rate": 9.986037283296785e-05, "loss": 0.3784, "step": 36180 }, { "epoch": 48.25333333333333, "grad_norm": 0.60546875, "learning_rate": 9.986029458993052e-05, "loss": 0.3797, "step": 36190 }, { "epoch": 48.266666666666666, "grad_norm": 0.5703125, "learning_rate": 9.986021632500742e-05, "loss": 0.3826, "step": 36200 }, { "epoch": 48.28, "grad_norm": 0.6953125, "learning_rate": 9.986013803819858e-05, "loss": 0.4113, "step": 36210 }, { "epoch": 48.29333333333334, "grad_norm": 0.62109375, "learning_rate": 9.986005972950408e-05, "loss": 0.3692, "step": 36220 }, { "epoch": 48.306666666666665, "grad_norm": 0.62890625, "learning_rate": 9.98599813989239e-05, "loss": 0.392, "step": 36230 }, { "epoch": 48.32, "grad_norm": 0.546875, "learning_rate": 9.98599030464581e-05, "loss": 0.3945, "step": 36240 }, { "epoch": 48.333333333333336, "grad_norm": 0.640625, "learning_rate": 9.98598246721067e-05, "loss": 0.3966, "step": 36250 }, { "epoch": 48.346666666666664, "grad_norm": 0.6875, "learning_rate": 9.985974627586978e-05, "loss": 0.387, "step": 36260 }, { "epoch": 48.36, "grad_norm": 0.671875, "learning_rate": 9.98596678577473e-05, "loss": 0.388, "step": 36270 }, { "epoch": 48.373333333333335, "grad_norm": 0.54296875, "learning_rate": 9.985958941773937e-05, "loss": 0.3896, "step": 36280 }, { "epoch": 48.38666666666666, "grad_norm": 0.6796875, "learning_rate": 9.985951095584596e-05, "loss": 0.3797, "step": 36290 }, { "epoch": 48.4, "grad_norm": 0.62890625, "learning_rate": 9.985943247206714e-05, "loss": 0.3884, "step": 36300 }, { "epoch": 48.413333333333334, "grad_norm": 0.609375, "learning_rate": 9.985935396640296e-05, "loss": 0.3943, "step": 36310 }, { "epoch": 48.42666666666667, "grad_norm": 0.60546875, "learning_rate": 9.98592754388534e-05, "loss": 0.3955, "step": 36320 }, { "epoch": 48.44, "grad_norm": 0.6328125, "learning_rate": 9.985919688941855e-05, "loss": 0.4078, "step": 36330 }, { "epoch": 48.45333333333333, "grad_norm": 0.6484375, "learning_rate": 9.985911831809841e-05, "loss": 0.395, "step": 36340 }, { "epoch": 48.46666666666667, "grad_norm": 0.6640625, "learning_rate": 9.985903972489303e-05, "loss": 0.4027, "step": 36350 }, { "epoch": 48.48, "grad_norm": 0.62109375, "learning_rate": 9.985896110980244e-05, "loss": 0.3854, "step": 36360 }, { "epoch": 48.49333333333333, "grad_norm": 0.62109375, "learning_rate": 9.985888247282667e-05, "loss": 0.3977, "step": 36370 }, { "epoch": 48.50666666666667, "grad_norm": 0.6640625, "learning_rate": 9.985880381396577e-05, "loss": 0.395, "step": 36380 }, { "epoch": 48.52, "grad_norm": 0.54296875, "learning_rate": 9.985872513321974e-05, "loss": 0.3863, "step": 36390 }, { "epoch": 48.53333333333333, "grad_norm": 0.56640625, "learning_rate": 9.985864643058867e-05, "loss": 0.3883, "step": 36400 }, { "epoch": 48.54666666666667, "grad_norm": 0.68359375, "learning_rate": 9.985856770607253e-05, "loss": 0.3902, "step": 36410 }, { "epoch": 48.56, "grad_norm": 0.6171875, "learning_rate": 9.985848895967141e-05, "loss": 0.385, "step": 36420 }, { "epoch": 48.57333333333333, "grad_norm": 0.66015625, "learning_rate": 9.985841019138533e-05, "loss": 0.3883, "step": 36430 }, { "epoch": 48.586666666666666, "grad_norm": 0.5546875, "learning_rate": 9.98583314012143e-05, "loss": 0.3776, "step": 36440 }, { "epoch": 48.6, "grad_norm": 0.6015625, "learning_rate": 9.985825258915838e-05, "loss": 0.3789, "step": 36450 }, { "epoch": 48.61333333333333, "grad_norm": 0.5859375, "learning_rate": 9.985817375521758e-05, "loss": 0.3703, "step": 36460 }, { "epoch": 48.626666666666665, "grad_norm": 0.54296875, "learning_rate": 9.985809489939197e-05, "loss": 0.3745, "step": 36470 }, { "epoch": 48.64, "grad_norm": 0.66015625, "learning_rate": 9.985801602168155e-05, "loss": 0.3851, "step": 36480 }, { "epoch": 48.653333333333336, "grad_norm": 0.65625, "learning_rate": 9.985793712208638e-05, "loss": 0.3953, "step": 36490 }, { "epoch": 48.666666666666664, "grad_norm": 0.609375, "learning_rate": 9.985785820060648e-05, "loss": 0.3841, "step": 36500 }, { "epoch": 48.68, "grad_norm": 0.67578125, "learning_rate": 9.985777925724188e-05, "loss": 0.3755, "step": 36510 }, { "epoch": 48.693333333333335, "grad_norm": 0.59765625, "learning_rate": 9.985770029199262e-05, "loss": 0.3844, "step": 36520 }, { "epoch": 48.70666666666666, "grad_norm": 0.7421875, "learning_rate": 9.985762130485876e-05, "loss": 0.3771, "step": 36530 }, { "epoch": 48.72, "grad_norm": 0.65625, "learning_rate": 9.98575422958403e-05, "loss": 0.3995, "step": 36540 }, { "epoch": 48.733333333333334, "grad_norm": 0.66796875, "learning_rate": 9.985746326493729e-05, "loss": 0.3932, "step": 36550 }, { "epoch": 48.74666666666667, "grad_norm": 0.6875, "learning_rate": 9.985738421214977e-05, "loss": 0.3962, "step": 36560 }, { "epoch": 48.76, "grad_norm": 0.65234375, "learning_rate": 9.985730513747775e-05, "loss": 0.4081, "step": 36570 }, { "epoch": 48.77333333333333, "grad_norm": 0.71875, "learning_rate": 9.98572260409213e-05, "loss": 0.395, "step": 36580 }, { "epoch": 48.78666666666667, "grad_norm": 0.58984375, "learning_rate": 9.985714692248041e-05, "loss": 0.3964, "step": 36590 }, { "epoch": 48.8, "grad_norm": 0.6640625, "learning_rate": 9.985706778215515e-05, "loss": 0.3948, "step": 36600 }, { "epoch": 48.81333333333333, "grad_norm": 0.7109375, "learning_rate": 9.985698861994557e-05, "loss": 0.3688, "step": 36610 }, { "epoch": 48.82666666666667, "grad_norm": 0.60546875, "learning_rate": 9.985690943585166e-05, "loss": 0.3775, "step": 36620 }, { "epoch": 48.84, "grad_norm": 0.6640625, "learning_rate": 9.985683022987347e-05, "loss": 0.389, "step": 36630 }, { "epoch": 48.85333333333333, "grad_norm": 0.640625, "learning_rate": 9.985675100201107e-05, "loss": 0.3853, "step": 36640 }, { "epoch": 48.86666666666667, "grad_norm": 0.6796875, "learning_rate": 9.985667175226442e-05, "loss": 0.3906, "step": 36650 }, { "epoch": 48.88, "grad_norm": 0.5859375, "learning_rate": 9.985659248063363e-05, "loss": 0.3702, "step": 36660 }, { "epoch": 48.89333333333333, "grad_norm": 0.609375, "learning_rate": 9.98565131871187e-05, "loss": 0.381, "step": 36670 }, { "epoch": 48.906666666666666, "grad_norm": 0.65234375, "learning_rate": 9.985643387171965e-05, "loss": 0.388, "step": 36680 }, { "epoch": 48.92, "grad_norm": 0.6015625, "learning_rate": 9.985635453443656e-05, "loss": 0.3898, "step": 36690 }, { "epoch": 48.93333333333333, "grad_norm": 0.5625, "learning_rate": 9.985627517526943e-05, "loss": 0.3842, "step": 36700 }, { "epoch": 48.946666666666665, "grad_norm": 0.62109375, "learning_rate": 9.98561957942183e-05, "loss": 0.3845, "step": 36710 }, { "epoch": 48.96, "grad_norm": 0.53515625, "learning_rate": 9.985611639128322e-05, "loss": 0.3837, "step": 36720 }, { "epoch": 48.973333333333336, "grad_norm": 0.7890625, "learning_rate": 9.985603696646419e-05, "loss": 0.4063, "step": 36730 }, { "epoch": 48.986666666666665, "grad_norm": 0.64453125, "learning_rate": 9.985595751976129e-05, "loss": 0.3787, "step": 36740 }, { "epoch": 49.0, "grad_norm": 0.625, "learning_rate": 9.985587805117453e-05, "loss": 0.3756, "step": 36750 }, { "epoch": 49.0, "eval_loss": 0.42687639594078064, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5166, "eval_samples_per_second": 1.521, "eval_steps_per_second": 0.095, "step": 36750 }, { "epoch": 49.013333333333335, "grad_norm": 0.72265625, "learning_rate": 9.985579856070394e-05, "loss": 0.3933, "step": 36760 }, { "epoch": 49.026666666666664, "grad_norm": 0.66796875, "learning_rate": 9.985571904834957e-05, "loss": 0.408, "step": 36770 }, { "epoch": 49.04, "grad_norm": 0.5546875, "learning_rate": 9.985563951411144e-05, "loss": 0.4199, "step": 36780 }, { "epoch": 49.053333333333335, "grad_norm": 0.60546875, "learning_rate": 9.98555599579896e-05, "loss": 0.404, "step": 36790 }, { "epoch": 49.06666666666667, "grad_norm": 0.66015625, "learning_rate": 9.985548037998408e-05, "loss": 0.3929, "step": 36800 }, { "epoch": 49.08, "grad_norm": 0.6640625, "learning_rate": 9.98554007800949e-05, "loss": 0.396, "step": 36810 }, { "epoch": 49.093333333333334, "grad_norm": 0.625, "learning_rate": 9.985532115832213e-05, "loss": 0.3985, "step": 36820 }, { "epoch": 49.10666666666667, "grad_norm": 0.578125, "learning_rate": 9.985524151466575e-05, "loss": 0.3857, "step": 36830 }, { "epoch": 49.12, "grad_norm": 0.66015625, "learning_rate": 9.985516184912584e-05, "loss": 0.3898, "step": 36840 }, { "epoch": 49.13333333333333, "grad_norm": 0.640625, "learning_rate": 9.985508216170243e-05, "loss": 0.3817, "step": 36850 }, { "epoch": 49.14666666666667, "grad_norm": 0.6171875, "learning_rate": 9.985500245239556e-05, "loss": 0.4013, "step": 36860 }, { "epoch": 49.16, "grad_norm": 0.62109375, "learning_rate": 9.985492272120523e-05, "loss": 0.3954, "step": 36870 }, { "epoch": 49.17333333333333, "grad_norm": 0.63671875, "learning_rate": 9.98548429681315e-05, "loss": 0.3895, "step": 36880 }, { "epoch": 49.18666666666667, "grad_norm": 0.62890625, "learning_rate": 9.985476319317441e-05, "loss": 0.387, "step": 36890 }, { "epoch": 49.2, "grad_norm": 0.64453125, "learning_rate": 9.985468339633399e-05, "loss": 0.3796, "step": 36900 }, { "epoch": 49.21333333333333, "grad_norm": 0.6796875, "learning_rate": 9.985460357761025e-05, "loss": 0.3807, "step": 36910 }, { "epoch": 49.22666666666667, "grad_norm": 0.703125, "learning_rate": 9.985452373700327e-05, "loss": 0.3923, "step": 36920 }, { "epoch": 49.24, "grad_norm": 0.67578125, "learning_rate": 9.985444387451306e-05, "loss": 0.3777, "step": 36930 }, { "epoch": 49.25333333333333, "grad_norm": 0.65625, "learning_rate": 9.985436399013966e-05, "loss": 0.3807, "step": 36940 }, { "epoch": 49.266666666666666, "grad_norm": 0.5546875, "learning_rate": 9.985428408388308e-05, "loss": 0.382, "step": 36950 }, { "epoch": 49.28, "grad_norm": 0.62109375, "learning_rate": 9.98542041557434e-05, "loss": 0.4117, "step": 36960 }, { "epoch": 49.29333333333334, "grad_norm": 0.6015625, "learning_rate": 9.985412420572063e-05, "loss": 0.3687, "step": 36970 }, { "epoch": 49.306666666666665, "grad_norm": 0.625, "learning_rate": 9.98540442338148e-05, "loss": 0.3919, "step": 36980 }, { "epoch": 49.32, "grad_norm": 0.55078125, "learning_rate": 9.985396424002595e-05, "loss": 0.3947, "step": 36990 }, { "epoch": 49.333333333333336, "grad_norm": 0.703125, "learning_rate": 9.985388422435413e-05, "loss": 0.3974, "step": 37000 }, { "epoch": 49.346666666666664, "grad_norm": 0.69140625, "learning_rate": 9.985380418679935e-05, "loss": 0.3866, "step": 37010 }, { "epoch": 49.36, "grad_norm": 0.75, "learning_rate": 9.985372412736166e-05, "loss": 0.388, "step": 37020 }, { "epoch": 49.373333333333335, "grad_norm": 0.5546875, "learning_rate": 9.98536440460411e-05, "loss": 0.3889, "step": 37030 }, { "epoch": 49.38666666666666, "grad_norm": 0.68359375, "learning_rate": 9.985356394283771e-05, "loss": 0.3796, "step": 37040 }, { "epoch": 49.4, "grad_norm": 0.6328125, "learning_rate": 9.985348381775151e-05, "loss": 0.3881, "step": 37050 }, { "epoch": 49.413333333333334, "grad_norm": 0.6015625, "learning_rate": 9.98534036707825e-05, "loss": 0.3932, "step": 37060 }, { "epoch": 49.42666666666667, "grad_norm": 0.64453125, "learning_rate": 9.985332350193079e-05, "loss": 0.394, "step": 37070 }, { "epoch": 49.44, "grad_norm": 0.62890625, "learning_rate": 9.98532433111964e-05, "loss": 0.4069, "step": 37080 }, { "epoch": 49.45333333333333, "grad_norm": 0.75, "learning_rate": 9.98531630985793e-05, "loss": 0.3948, "step": 37090 }, { "epoch": 49.46666666666667, "grad_norm": 0.7578125, "learning_rate": 9.985308286407959e-05, "loss": 0.4017, "step": 37100 }, { "epoch": 49.48, "grad_norm": 0.7109375, "learning_rate": 9.985300260769728e-05, "loss": 0.385, "step": 37110 }, { "epoch": 49.49333333333333, "grad_norm": 0.60546875, "learning_rate": 9.985292232943243e-05, "loss": 0.3964, "step": 37120 }, { "epoch": 49.50666666666667, "grad_norm": 0.62109375, "learning_rate": 9.985284202928502e-05, "loss": 0.3947, "step": 37130 }, { "epoch": 49.52, "grad_norm": 0.6328125, "learning_rate": 9.985276170725515e-05, "loss": 0.3863, "step": 37140 }, { "epoch": 49.53333333333333, "grad_norm": 0.640625, "learning_rate": 9.98526813633428e-05, "loss": 0.3884, "step": 37150 }, { "epoch": 49.54666666666667, "grad_norm": 0.69140625, "learning_rate": 9.985260099754805e-05, "loss": 0.3904, "step": 37160 }, { "epoch": 49.56, "grad_norm": 0.58203125, "learning_rate": 9.985252060987092e-05, "loss": 0.3846, "step": 37170 }, { "epoch": 49.57333333333333, "grad_norm": 0.6953125, "learning_rate": 9.985244020031143e-05, "loss": 0.3876, "step": 37180 }, { "epoch": 49.586666666666666, "grad_norm": 0.58984375, "learning_rate": 9.985235976886964e-05, "loss": 0.3776, "step": 37190 }, { "epoch": 49.6, "grad_norm": 0.61328125, "learning_rate": 9.985227931554555e-05, "loss": 0.3789, "step": 37200 }, { "epoch": 49.61333333333333, "grad_norm": 0.5703125, "learning_rate": 9.985219884033923e-05, "loss": 0.369, "step": 37210 }, { "epoch": 49.626666666666665, "grad_norm": 0.55078125, "learning_rate": 9.98521183432507e-05, "loss": 0.3744, "step": 37220 }, { "epoch": 49.64, "grad_norm": 0.63671875, "learning_rate": 9.985203782428001e-05, "loss": 0.3854, "step": 37230 }, { "epoch": 49.653333333333336, "grad_norm": 0.6484375, "learning_rate": 9.985195728342717e-05, "loss": 0.3952, "step": 37240 }, { "epoch": 49.666666666666664, "grad_norm": 0.57421875, "learning_rate": 9.985187672069222e-05, "loss": 0.3829, "step": 37250 }, { "epoch": 49.68, "grad_norm": 0.66796875, "learning_rate": 9.985179613607523e-05, "loss": 0.3751, "step": 37260 }, { "epoch": 49.693333333333335, "grad_norm": 0.58984375, "learning_rate": 9.98517155295762e-05, "loss": 0.3839, "step": 37270 }, { "epoch": 49.70666666666666, "grad_norm": 0.72265625, "learning_rate": 9.985163490119518e-05, "loss": 0.376, "step": 37280 }, { "epoch": 49.72, "grad_norm": 0.7109375, "learning_rate": 9.98515542509322e-05, "loss": 0.398, "step": 37290 }, { "epoch": 49.733333333333334, "grad_norm": 0.6015625, "learning_rate": 9.985147357878729e-05, "loss": 0.3923, "step": 37300 }, { "epoch": 49.74666666666667, "grad_norm": 0.6328125, "learning_rate": 9.985139288476048e-05, "loss": 0.395, "step": 37310 }, { "epoch": 49.76, "grad_norm": 0.6875, "learning_rate": 9.985131216885183e-05, "loss": 0.4091, "step": 37320 }, { "epoch": 49.77333333333333, "grad_norm": 0.7265625, "learning_rate": 9.985123143106137e-05, "loss": 0.3941, "step": 37330 }, { "epoch": 49.78666666666667, "grad_norm": 0.60546875, "learning_rate": 9.98511506713891e-05, "loss": 0.3953, "step": 37340 }, { "epoch": 49.8, "grad_norm": 0.68359375, "learning_rate": 9.98510698898351e-05, "loss": 0.3933, "step": 37350 }, { "epoch": 49.81333333333333, "grad_norm": 0.71875, "learning_rate": 9.98509890863994e-05, "loss": 0.3679, "step": 37360 }, { "epoch": 49.82666666666667, "grad_norm": 0.640625, "learning_rate": 9.985090826108201e-05, "loss": 0.3771, "step": 37370 }, { "epoch": 49.84, "grad_norm": 0.734375, "learning_rate": 9.985082741388297e-05, "loss": 0.388, "step": 37380 }, { "epoch": 49.85333333333333, "grad_norm": 0.6640625, "learning_rate": 9.985074654480234e-05, "loss": 0.3853, "step": 37390 }, { "epoch": 49.86666666666667, "grad_norm": 0.66796875, "learning_rate": 9.985066565384014e-05, "loss": 0.3888, "step": 37400 }, { "epoch": 49.88, "grad_norm": 0.609375, "learning_rate": 9.98505847409964e-05, "loss": 0.3694, "step": 37410 }, { "epoch": 49.89333333333333, "grad_norm": 0.6484375, "learning_rate": 9.985050380627117e-05, "loss": 0.3816, "step": 37420 }, { "epoch": 49.906666666666666, "grad_norm": 0.671875, "learning_rate": 9.985042284966448e-05, "loss": 0.3878, "step": 37430 }, { "epoch": 49.92, "grad_norm": 0.66015625, "learning_rate": 9.985034187117635e-05, "loss": 0.3904, "step": 37440 }, { "epoch": 49.93333333333333, "grad_norm": 0.640625, "learning_rate": 9.985026087080682e-05, "loss": 0.3838, "step": 37450 }, { "epoch": 49.946666666666665, "grad_norm": 0.65234375, "learning_rate": 9.985017984855596e-05, "loss": 0.3832, "step": 37460 }, { "epoch": 49.96, "grad_norm": 0.59765625, "learning_rate": 9.985009880442375e-05, "loss": 0.3816, "step": 37470 }, { "epoch": 49.973333333333336, "grad_norm": 0.82421875, "learning_rate": 9.985001773841027e-05, "loss": 0.4058, "step": 37480 }, { "epoch": 49.986666666666665, "grad_norm": 0.6484375, "learning_rate": 9.984993665051554e-05, "loss": 0.3779, "step": 37490 }, { "epoch": 50.0, "grad_norm": 0.68359375, "learning_rate": 9.98498555407396e-05, "loss": 0.3755, "step": 37500 }, { "epoch": 50.0, "eval_loss": 0.42712512612342834, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.116, "eval_samples_per_second": 1.582, "eval_steps_per_second": 0.099, "step": 37500 }, { "epoch": 50.013333333333335, "grad_norm": 0.68359375, "learning_rate": 9.984977440908247e-05, "loss": 0.3935, "step": 37510 }, { "epoch": 50.026666666666664, "grad_norm": 0.63671875, "learning_rate": 9.984969325554421e-05, "loss": 0.407, "step": 37520 }, { "epoch": 50.04, "grad_norm": 0.62890625, "learning_rate": 9.984961208012484e-05, "loss": 0.4189, "step": 37530 }, { "epoch": 50.053333333333335, "grad_norm": 0.65625, "learning_rate": 9.98495308828244e-05, "loss": 0.4044, "step": 37540 }, { "epoch": 50.06666666666667, "grad_norm": 0.66015625, "learning_rate": 9.984944966364291e-05, "loss": 0.3929, "step": 37550 }, { "epoch": 50.08, "grad_norm": 0.64453125, "learning_rate": 9.984936842258043e-05, "loss": 0.3962, "step": 37560 }, { "epoch": 50.093333333333334, "grad_norm": 0.62109375, "learning_rate": 9.984928715963698e-05, "loss": 0.3975, "step": 37570 }, { "epoch": 50.10666666666667, "grad_norm": 0.60546875, "learning_rate": 9.984920587481261e-05, "loss": 0.3857, "step": 37580 }, { "epoch": 50.12, "grad_norm": 0.71484375, "learning_rate": 9.984912456810735e-05, "loss": 0.3889, "step": 37590 }, { "epoch": 50.13333333333333, "grad_norm": 0.69140625, "learning_rate": 9.984904323952123e-05, "loss": 0.3811, "step": 37600 }, { "epoch": 50.14666666666667, "grad_norm": 0.6953125, "learning_rate": 9.984896188905426e-05, "loss": 0.3995, "step": 37610 }, { "epoch": 50.16, "grad_norm": 0.60546875, "learning_rate": 9.984888051670653e-05, "loss": 0.3938, "step": 37620 }, { "epoch": 50.17333333333333, "grad_norm": 0.6875, "learning_rate": 9.984879912247804e-05, "loss": 0.3885, "step": 37630 }, { "epoch": 50.18666666666667, "grad_norm": 0.6484375, "learning_rate": 9.984871770636886e-05, "loss": 0.3871, "step": 37640 }, { "epoch": 50.2, "grad_norm": 0.6484375, "learning_rate": 9.984863626837896e-05, "loss": 0.3788, "step": 37650 }, { "epoch": 50.21333333333333, "grad_norm": 0.703125, "learning_rate": 9.984855480850846e-05, "loss": 0.3792, "step": 37660 }, { "epoch": 50.22666666666667, "grad_norm": 0.6796875, "learning_rate": 9.984847332675732e-05, "loss": 0.3912, "step": 37670 }, { "epoch": 50.24, "grad_norm": 0.6484375, "learning_rate": 9.984839182312562e-05, "loss": 0.3777, "step": 37680 }, { "epoch": 50.25333333333333, "grad_norm": 0.78125, "learning_rate": 9.984831029761338e-05, "loss": 0.3792, "step": 37690 }, { "epoch": 50.266666666666666, "grad_norm": 0.65625, "learning_rate": 9.984822875022064e-05, "loss": 0.3811, "step": 37700 }, { "epoch": 50.28, "grad_norm": 0.6875, "learning_rate": 9.984814718094744e-05, "loss": 0.4103, "step": 37710 }, { "epoch": 50.29333333333334, "grad_norm": 0.6640625, "learning_rate": 9.98480655897938e-05, "loss": 0.3681, "step": 37720 }, { "epoch": 50.306666666666665, "grad_norm": 0.62890625, "learning_rate": 9.984798397675978e-05, "loss": 0.3915, "step": 37730 }, { "epoch": 50.32, "grad_norm": 0.515625, "learning_rate": 9.98479023418454e-05, "loss": 0.3937, "step": 37740 }, { "epoch": 50.333333333333336, "grad_norm": 0.67578125, "learning_rate": 9.98478206850507e-05, "loss": 0.3959, "step": 37750 }, { "epoch": 50.346666666666664, "grad_norm": 0.71875, "learning_rate": 9.984773900637571e-05, "loss": 0.3862, "step": 37760 }, { "epoch": 50.36, "grad_norm": 0.6875, "learning_rate": 9.984765730582049e-05, "loss": 0.3865, "step": 37770 }, { "epoch": 50.373333333333335, "grad_norm": 0.57421875, "learning_rate": 9.984757558338503e-05, "loss": 0.3879, "step": 37780 }, { "epoch": 50.38666666666666, "grad_norm": 0.66015625, "learning_rate": 9.984749383906939e-05, "loss": 0.3795, "step": 37790 }, { "epoch": 50.4, "grad_norm": 0.6640625, "learning_rate": 9.984741207287362e-05, "loss": 0.3872, "step": 37800 }, { "epoch": 50.413333333333334, "grad_norm": 0.59375, "learning_rate": 9.984733028479776e-05, "loss": 0.3929, "step": 37810 }, { "epoch": 50.42666666666667, "grad_norm": 0.6015625, "learning_rate": 9.984724847484181e-05, "loss": 0.3943, "step": 37820 }, { "epoch": 50.44, "grad_norm": 0.67578125, "learning_rate": 9.984716664300583e-05, "loss": 0.4069, "step": 37830 }, { "epoch": 50.45333333333333, "grad_norm": 0.7109375, "learning_rate": 9.984708478928986e-05, "loss": 0.3938, "step": 37840 }, { "epoch": 50.46666666666667, "grad_norm": 0.6484375, "learning_rate": 9.984700291369391e-05, "loss": 0.4022, "step": 37850 }, { "epoch": 50.48, "grad_norm": 0.5859375, "learning_rate": 9.984692101621804e-05, "loss": 0.3846, "step": 37860 }, { "epoch": 50.49333333333333, "grad_norm": 0.63671875, "learning_rate": 9.984683909686228e-05, "loss": 0.3967, "step": 37870 }, { "epoch": 50.50666666666667, "grad_norm": 0.63671875, "learning_rate": 9.984675715562668e-05, "loss": 0.3945, "step": 37880 }, { "epoch": 50.52, "grad_norm": 0.54296875, "learning_rate": 9.984667519251126e-05, "loss": 0.3853, "step": 37890 }, { "epoch": 50.53333333333333, "grad_norm": 0.71484375, "learning_rate": 9.984659320751603e-05, "loss": 0.387, "step": 37900 }, { "epoch": 50.54666666666667, "grad_norm": 0.77734375, "learning_rate": 9.984651120064108e-05, "loss": 0.3889, "step": 37910 }, { "epoch": 50.56, "grad_norm": 0.59375, "learning_rate": 9.98464291718864e-05, "loss": 0.3834, "step": 37920 }, { "epoch": 50.57333333333333, "grad_norm": 0.70703125, "learning_rate": 9.984634712125206e-05, "loss": 0.3886, "step": 37930 }, { "epoch": 50.586666666666666, "grad_norm": 0.6015625, "learning_rate": 9.984626504873808e-05, "loss": 0.3768, "step": 37940 }, { "epoch": 50.6, "grad_norm": 0.578125, "learning_rate": 9.98461829543445e-05, "loss": 0.3782, "step": 37950 }, { "epoch": 50.61333333333333, "grad_norm": 0.609375, "learning_rate": 9.984610083807134e-05, "loss": 0.3683, "step": 37960 }, { "epoch": 50.626666666666665, "grad_norm": 0.58984375, "learning_rate": 9.984601869991865e-05, "loss": 0.3736, "step": 37970 }, { "epoch": 50.64, "grad_norm": 0.6328125, "learning_rate": 9.984593653988647e-05, "loss": 0.3848, "step": 37980 }, { "epoch": 50.653333333333336, "grad_norm": 0.58984375, "learning_rate": 9.984585435797485e-05, "loss": 0.3967, "step": 37990 }, { "epoch": 50.666666666666664, "grad_norm": 0.57421875, "learning_rate": 9.984577215418378e-05, "loss": 0.3821, "step": 38000 }, { "epoch": 50.68, "grad_norm": 0.71484375, "learning_rate": 9.984568992851334e-05, "loss": 0.3742, "step": 38010 }, { "epoch": 50.693333333333335, "grad_norm": 0.55859375, "learning_rate": 9.984560768096355e-05, "loss": 0.3835, "step": 38020 }, { "epoch": 50.70666666666666, "grad_norm": 0.67578125, "learning_rate": 9.984552541153445e-05, "loss": 0.3759, "step": 38030 }, { "epoch": 50.72, "grad_norm": 0.609375, "learning_rate": 9.984544312022606e-05, "loss": 0.397, "step": 38040 }, { "epoch": 50.733333333333334, "grad_norm": 0.64453125, "learning_rate": 9.984536080703844e-05, "loss": 0.3924, "step": 38050 }, { "epoch": 50.74666666666667, "grad_norm": 0.71875, "learning_rate": 9.98452784719716e-05, "loss": 0.3944, "step": 38060 }, { "epoch": 50.76, "grad_norm": 0.70703125, "learning_rate": 9.984519611502559e-05, "loss": 0.408, "step": 38070 }, { "epoch": 50.77333333333333, "grad_norm": 0.6171875, "learning_rate": 9.984511373620047e-05, "loss": 0.3927, "step": 38080 }, { "epoch": 50.78666666666667, "grad_norm": 0.578125, "learning_rate": 9.984503133549623e-05, "loss": 0.3947, "step": 38090 }, { "epoch": 50.8, "grad_norm": 0.65625, "learning_rate": 9.984494891291294e-05, "loss": 0.3935, "step": 38100 }, { "epoch": 50.81333333333333, "grad_norm": 0.703125, "learning_rate": 9.984486646845062e-05, "loss": 0.3673, "step": 38110 }, { "epoch": 50.82666666666667, "grad_norm": 0.578125, "learning_rate": 9.98447840021093e-05, "loss": 0.3751, "step": 38120 }, { "epoch": 50.84, "grad_norm": 0.671875, "learning_rate": 9.984470151388905e-05, "loss": 0.3875, "step": 38130 }, { "epoch": 50.85333333333333, "grad_norm": 0.69140625, "learning_rate": 9.984461900378988e-05, "loss": 0.3846, "step": 38140 }, { "epoch": 50.86666666666667, "grad_norm": 0.67578125, "learning_rate": 9.984453647181183e-05, "loss": 0.3884, "step": 38150 }, { "epoch": 50.88, "grad_norm": 0.55078125, "learning_rate": 9.984445391795491e-05, "loss": 0.3682, "step": 38160 }, { "epoch": 50.89333333333333, "grad_norm": 0.60546875, "learning_rate": 9.984437134221921e-05, "loss": 0.3811, "step": 38170 }, { "epoch": 50.906666666666666, "grad_norm": 0.5625, "learning_rate": 9.984428874460474e-05, "loss": 0.3873, "step": 38180 }, { "epoch": 50.92, "grad_norm": 0.6953125, "learning_rate": 9.984420612511151e-05, "loss": 0.3883, "step": 38190 }, { "epoch": 50.93333333333333, "grad_norm": 0.52734375, "learning_rate": 9.984412348373962e-05, "loss": 0.3825, "step": 38200 }, { "epoch": 50.946666666666665, "grad_norm": 0.6484375, "learning_rate": 9.984404082048904e-05, "loss": 0.3843, "step": 38210 }, { "epoch": 50.96, "grad_norm": 0.58203125, "learning_rate": 9.984395813535984e-05, "loss": 0.3806, "step": 38220 }, { "epoch": 50.973333333333336, "grad_norm": 0.82421875, "learning_rate": 9.984387542835206e-05, "loss": 0.4046, "step": 38230 }, { "epoch": 50.986666666666665, "grad_norm": 0.6875, "learning_rate": 9.98437926994657e-05, "loss": 0.3775, "step": 38240 }, { "epoch": 51.0, "grad_norm": 0.609375, "learning_rate": 9.984370994870085e-05, "loss": 0.3749, "step": 38250 }, { "epoch": 51.0, "eval_loss": 0.42577117681503296, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3361, "eval_samples_per_second": 1.548, "eval_steps_per_second": 0.097, "step": 38250 }, { "epoch": 51.013333333333335, "grad_norm": 0.6796875, "learning_rate": 9.98436271760575e-05, "loss": 0.393, "step": 38260 }, { "epoch": 51.026666666666664, "grad_norm": 0.63671875, "learning_rate": 9.984354438153571e-05, "loss": 0.4066, "step": 38270 }, { "epoch": 51.04, "grad_norm": 0.6015625, "learning_rate": 9.98434615651355e-05, "loss": 0.4186, "step": 38280 }, { "epoch": 51.053333333333335, "grad_norm": 0.66015625, "learning_rate": 9.984337872685695e-05, "loss": 0.4031, "step": 38290 }, { "epoch": 51.06666666666667, "grad_norm": 0.7109375, "learning_rate": 9.984329586670005e-05, "loss": 0.3914, "step": 38300 }, { "epoch": 51.08, "grad_norm": 0.59375, "learning_rate": 9.984321298466484e-05, "loss": 0.3955, "step": 38310 }, { "epoch": 51.093333333333334, "grad_norm": 0.69140625, "learning_rate": 9.984313008075137e-05, "loss": 0.3973, "step": 38320 }, { "epoch": 51.10666666666667, "grad_norm": 0.609375, "learning_rate": 9.984304715495969e-05, "loss": 0.3844, "step": 38330 }, { "epoch": 51.12, "grad_norm": 0.62890625, "learning_rate": 9.98429642072898e-05, "loss": 0.3892, "step": 38340 }, { "epoch": 51.13333333333333, "grad_norm": 0.625, "learning_rate": 9.984288123774177e-05, "loss": 0.3802, "step": 38350 }, { "epoch": 51.14666666666667, "grad_norm": 0.6171875, "learning_rate": 9.984279824631562e-05, "loss": 0.3994, "step": 38360 }, { "epoch": 51.16, "grad_norm": 0.58203125, "learning_rate": 9.984271523301139e-05, "loss": 0.3936, "step": 38370 }, { "epoch": 51.17333333333333, "grad_norm": 0.6796875, "learning_rate": 9.98426321978291e-05, "loss": 0.3884, "step": 38380 }, { "epoch": 51.18666666666667, "grad_norm": 0.63671875, "learning_rate": 9.984254914076882e-05, "loss": 0.3861, "step": 38390 }, { "epoch": 51.2, "grad_norm": 0.65234375, "learning_rate": 9.984246606183056e-05, "loss": 0.3785, "step": 38400 }, { "epoch": 51.21333333333333, "grad_norm": 0.66796875, "learning_rate": 9.984238296101438e-05, "loss": 0.3796, "step": 38410 }, { "epoch": 51.22666666666667, "grad_norm": 0.69140625, "learning_rate": 9.98422998383203e-05, "loss": 0.3915, "step": 38420 }, { "epoch": 51.24, "grad_norm": 0.69921875, "learning_rate": 9.984221669374834e-05, "loss": 0.3763, "step": 38430 }, { "epoch": 51.25333333333333, "grad_norm": 0.6640625, "learning_rate": 9.984213352729856e-05, "loss": 0.3788, "step": 38440 }, { "epoch": 51.266666666666666, "grad_norm": 0.65625, "learning_rate": 9.9842050338971e-05, "loss": 0.3809, "step": 38450 }, { "epoch": 51.28, "grad_norm": 0.7109375, "learning_rate": 9.984196712876568e-05, "loss": 0.41, "step": 38460 }, { "epoch": 51.29333333333334, "grad_norm": 0.59765625, "learning_rate": 9.984188389668265e-05, "loss": 0.3671, "step": 38470 }, { "epoch": 51.306666666666665, "grad_norm": 0.6328125, "learning_rate": 9.984180064272193e-05, "loss": 0.3908, "step": 38480 }, { "epoch": 51.32, "grad_norm": 0.5625, "learning_rate": 9.984171736688357e-05, "loss": 0.3935, "step": 38490 }, { "epoch": 51.333333333333336, "grad_norm": 0.65625, "learning_rate": 9.98416340691676e-05, "loss": 0.3948, "step": 38500 }, { "epoch": 51.346666666666664, "grad_norm": 0.70703125, "learning_rate": 9.984155074957407e-05, "loss": 0.3859, "step": 38510 }, { "epoch": 51.36, "grad_norm": 0.6171875, "learning_rate": 9.984146740810301e-05, "loss": 0.3863, "step": 38520 }, { "epoch": 51.373333333333335, "grad_norm": 0.5859375, "learning_rate": 9.984138404475445e-05, "loss": 0.3878, "step": 38530 }, { "epoch": 51.38666666666666, "grad_norm": 0.76171875, "learning_rate": 9.984130065952841e-05, "loss": 0.3781, "step": 38540 }, { "epoch": 51.4, "grad_norm": 0.640625, "learning_rate": 9.984121725242496e-05, "loss": 0.3867, "step": 38550 }, { "epoch": 51.413333333333334, "grad_norm": 0.60546875, "learning_rate": 9.984113382344414e-05, "loss": 0.392, "step": 38560 }, { "epoch": 51.42666666666667, "grad_norm": 0.63671875, "learning_rate": 9.984105037258595e-05, "loss": 0.3932, "step": 38570 }, { "epoch": 51.44, "grad_norm": 0.66796875, "learning_rate": 9.984096689985046e-05, "loss": 0.4057, "step": 38580 }, { "epoch": 51.45333333333333, "grad_norm": 0.671875, "learning_rate": 9.98408834052377e-05, "loss": 0.3941, "step": 38590 }, { "epoch": 51.46666666666667, "grad_norm": 0.6015625, "learning_rate": 9.984079988874767e-05, "loss": 0.4004, "step": 38600 }, { "epoch": 51.48, "grad_norm": 0.62109375, "learning_rate": 9.984071635038046e-05, "loss": 0.3832, "step": 38610 }, { "epoch": 51.49333333333333, "grad_norm": 0.62890625, "learning_rate": 9.984063279013607e-05, "loss": 0.3956, "step": 38620 }, { "epoch": 51.50666666666667, "grad_norm": 0.64453125, "learning_rate": 9.984054920801455e-05, "loss": 0.3944, "step": 38630 }, { "epoch": 51.52, "grad_norm": 0.59765625, "learning_rate": 9.984046560401595e-05, "loss": 0.3848, "step": 38640 }, { "epoch": 51.53333333333333, "grad_norm": 0.65234375, "learning_rate": 9.984038197814029e-05, "loss": 0.387, "step": 38650 }, { "epoch": 51.54666666666667, "grad_norm": 0.69140625, "learning_rate": 9.98402983303876e-05, "loss": 0.3889, "step": 38660 }, { "epoch": 51.56, "grad_norm": 0.5546875, "learning_rate": 9.984021466075793e-05, "loss": 0.3834, "step": 38670 }, { "epoch": 51.57333333333333, "grad_norm": 0.671875, "learning_rate": 9.98401309692513e-05, "loss": 0.3861, "step": 38680 }, { "epoch": 51.586666666666666, "grad_norm": 0.62890625, "learning_rate": 9.984004725586779e-05, "loss": 0.376, "step": 38690 }, { "epoch": 51.6, "grad_norm": 0.5859375, "learning_rate": 9.983996352060738e-05, "loss": 0.3779, "step": 38700 }, { "epoch": 51.61333333333333, "grad_norm": 0.58203125, "learning_rate": 9.983987976347015e-05, "loss": 0.3691, "step": 38710 }, { "epoch": 51.626666666666665, "grad_norm": 0.5625, "learning_rate": 9.983979598445611e-05, "loss": 0.3734, "step": 38720 }, { "epoch": 51.64, "grad_norm": 0.703125, "learning_rate": 9.983971218356531e-05, "loss": 0.384, "step": 38730 }, { "epoch": 51.653333333333336, "grad_norm": 0.62890625, "learning_rate": 9.983962836079779e-05, "loss": 0.3947, "step": 38740 }, { "epoch": 51.666666666666664, "grad_norm": 0.5703125, "learning_rate": 9.983954451615358e-05, "loss": 0.382, "step": 38750 }, { "epoch": 51.68, "grad_norm": 0.67578125, "learning_rate": 9.983946064963273e-05, "loss": 0.3738, "step": 38760 }, { "epoch": 51.693333333333335, "grad_norm": 0.58984375, "learning_rate": 9.983937676123522e-05, "loss": 0.3831, "step": 38770 }, { "epoch": 51.70666666666666, "grad_norm": 0.7109375, "learning_rate": 9.983929285096116e-05, "loss": 0.3756, "step": 38780 }, { "epoch": 51.72, "grad_norm": 0.65625, "learning_rate": 9.983920891881057e-05, "loss": 0.3971, "step": 38790 }, { "epoch": 51.733333333333334, "grad_norm": 0.63671875, "learning_rate": 9.983912496478345e-05, "loss": 0.3916, "step": 38800 }, { "epoch": 51.74666666666667, "grad_norm": 0.671875, "learning_rate": 9.983904098887988e-05, "loss": 0.3949, "step": 38810 }, { "epoch": 51.76, "grad_norm": 0.6640625, "learning_rate": 9.983895699109988e-05, "loss": 0.407, "step": 38820 }, { "epoch": 51.77333333333333, "grad_norm": 0.7421875, "learning_rate": 9.983887297144348e-05, "loss": 0.3926, "step": 38830 }, { "epoch": 51.78666666666667, "grad_norm": 0.62109375, "learning_rate": 9.983878892991071e-05, "loss": 0.3939, "step": 38840 }, { "epoch": 51.8, "grad_norm": 0.671875, "learning_rate": 9.983870486650162e-05, "loss": 0.3928, "step": 38850 }, { "epoch": 51.81333333333333, "grad_norm": 0.7890625, "learning_rate": 9.983862078121627e-05, "loss": 0.3668, "step": 38860 }, { "epoch": 51.82666666666667, "grad_norm": 0.625, "learning_rate": 9.983853667405464e-05, "loss": 0.3758, "step": 38870 }, { "epoch": 51.84, "grad_norm": 0.765625, "learning_rate": 9.983845254501683e-05, "loss": 0.387, "step": 38880 }, { "epoch": 51.85333333333333, "grad_norm": 0.671875, "learning_rate": 9.983836839410284e-05, "loss": 0.3837, "step": 38890 }, { "epoch": 51.86666666666667, "grad_norm": 0.62890625, "learning_rate": 9.983828422131269e-05, "loss": 0.3872, "step": 38900 }, { "epoch": 51.88, "grad_norm": 0.6328125, "learning_rate": 9.983820002664647e-05, "loss": 0.3684, "step": 38910 }, { "epoch": 51.89333333333333, "grad_norm": 0.5625, "learning_rate": 9.983811581010417e-05, "loss": 0.3805, "step": 38920 }, { "epoch": 51.906666666666666, "grad_norm": 0.65234375, "learning_rate": 9.983803157168585e-05, "loss": 0.3866, "step": 38930 }, { "epoch": 51.92, "grad_norm": 0.640625, "learning_rate": 9.983794731139153e-05, "loss": 0.3889, "step": 38940 }, { "epoch": 51.93333333333333, "grad_norm": 0.62890625, "learning_rate": 9.983786302922128e-05, "loss": 0.382, "step": 38950 }, { "epoch": 51.946666666666665, "grad_norm": 0.609375, "learning_rate": 9.98377787251751e-05, "loss": 0.3828, "step": 38960 }, { "epoch": 51.96, "grad_norm": 0.62109375, "learning_rate": 9.983769439925305e-05, "loss": 0.3799, "step": 38970 }, { "epoch": 51.973333333333336, "grad_norm": 0.76953125, "learning_rate": 9.983761005145515e-05, "loss": 0.4054, "step": 38980 }, { "epoch": 51.986666666666665, "grad_norm": 0.671875, "learning_rate": 9.983752568178146e-05, "loss": 0.3767, "step": 38990 }, { "epoch": 52.0, "grad_norm": 0.65625, "learning_rate": 9.9837441290232e-05, "loss": 0.3752, "step": 39000 }, { "epoch": 52.0, "eval_loss": 0.42586007714271545, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.274, "eval_samples_per_second": 1.557, "eval_steps_per_second": 0.097, "step": 39000 }, { "epoch": 52.013333333333335, "grad_norm": 0.7109375, "learning_rate": 9.983735687680682e-05, "loss": 0.3912, "step": 39010 }, { "epoch": 52.026666666666664, "grad_norm": 0.625, "learning_rate": 9.983727244150593e-05, "loss": 0.4067, "step": 39020 }, { "epoch": 52.04, "grad_norm": 0.59375, "learning_rate": 9.98371879843294e-05, "loss": 0.4183, "step": 39030 }, { "epoch": 52.053333333333335, "grad_norm": 0.640625, "learning_rate": 9.983710350527722e-05, "loss": 0.403, "step": 39040 }, { "epoch": 52.06666666666667, "grad_norm": 0.71484375, "learning_rate": 9.98370190043495e-05, "loss": 0.3919, "step": 39050 }, { "epoch": 52.08, "grad_norm": 0.62890625, "learning_rate": 9.98369344815462e-05, "loss": 0.3939, "step": 39060 }, { "epoch": 52.093333333333334, "grad_norm": 0.69140625, "learning_rate": 9.983684993686741e-05, "loss": 0.3968, "step": 39070 }, { "epoch": 52.10666666666667, "grad_norm": 0.6171875, "learning_rate": 9.983676537031317e-05, "loss": 0.3837, "step": 39080 }, { "epoch": 52.12, "grad_norm": 0.7421875, "learning_rate": 9.983668078188346e-05, "loss": 0.3887, "step": 39090 }, { "epoch": 52.13333333333333, "grad_norm": 0.7109375, "learning_rate": 9.983659617157838e-05, "loss": 0.3799, "step": 39100 }, { "epoch": 52.14666666666667, "grad_norm": 0.65234375, "learning_rate": 9.983651153939794e-05, "loss": 0.3975, "step": 39110 }, { "epoch": 52.16, "grad_norm": 0.6171875, "learning_rate": 9.983642688534216e-05, "loss": 0.3928, "step": 39120 }, { "epoch": 52.17333333333333, "grad_norm": 0.69140625, "learning_rate": 9.983634220941112e-05, "loss": 0.3881, "step": 39130 }, { "epoch": 52.18666666666667, "grad_norm": 0.6875, "learning_rate": 9.983625751160481e-05, "loss": 0.3859, "step": 39140 }, { "epoch": 52.2, "grad_norm": 0.640625, "learning_rate": 9.98361727919233e-05, "loss": 0.3777, "step": 39150 }, { "epoch": 52.21333333333333, "grad_norm": 0.625, "learning_rate": 9.983608805036662e-05, "loss": 0.3788, "step": 39160 }, { "epoch": 52.22666666666667, "grad_norm": 0.71875, "learning_rate": 9.983600328693481e-05, "loss": 0.3904, "step": 39170 }, { "epoch": 52.24, "grad_norm": 0.64453125, "learning_rate": 9.98359185016279e-05, "loss": 0.3764, "step": 39180 }, { "epoch": 52.25333333333333, "grad_norm": 0.69140625, "learning_rate": 9.983583369444593e-05, "loss": 0.3783, "step": 39190 }, { "epoch": 52.266666666666666, "grad_norm": 0.6796875, "learning_rate": 9.983574886538893e-05, "loss": 0.3792, "step": 39200 }, { "epoch": 52.28, "grad_norm": 0.74609375, "learning_rate": 9.983566401445694e-05, "loss": 0.4089, "step": 39210 }, { "epoch": 52.29333333333334, "grad_norm": 0.6328125, "learning_rate": 9.983557914165001e-05, "loss": 0.3669, "step": 39220 }, { "epoch": 52.306666666666665, "grad_norm": 0.5703125, "learning_rate": 9.983549424696816e-05, "loss": 0.3895, "step": 39230 }, { "epoch": 52.32, "grad_norm": 0.59375, "learning_rate": 9.983540933041144e-05, "loss": 0.3936, "step": 39240 }, { "epoch": 52.333333333333336, "grad_norm": 0.69140625, "learning_rate": 9.983532439197987e-05, "loss": 0.395, "step": 39250 }, { "epoch": 52.346666666666664, "grad_norm": 0.71875, "learning_rate": 9.983523943167353e-05, "loss": 0.3851, "step": 39260 }, { "epoch": 52.36, "grad_norm": 0.734375, "learning_rate": 9.98351544494924e-05, "loss": 0.3851, "step": 39270 }, { "epoch": 52.373333333333335, "grad_norm": 0.55859375, "learning_rate": 9.983506944543655e-05, "loss": 0.3876, "step": 39280 }, { "epoch": 52.38666666666666, "grad_norm": 0.7109375, "learning_rate": 9.9834984419506e-05, "loss": 0.3771, "step": 39290 }, { "epoch": 52.4, "grad_norm": 0.69140625, "learning_rate": 9.983489937170083e-05, "loss": 0.3864, "step": 39300 }, { "epoch": 52.413333333333334, "grad_norm": 0.625, "learning_rate": 9.983481430202102e-05, "loss": 0.3912, "step": 39310 }, { "epoch": 52.42666666666667, "grad_norm": 0.65625, "learning_rate": 9.983472921046663e-05, "loss": 0.3935, "step": 39320 }, { "epoch": 52.44, "grad_norm": 0.62890625, "learning_rate": 9.983464409703773e-05, "loss": 0.4042, "step": 39330 }, { "epoch": 52.45333333333333, "grad_norm": 0.68359375, "learning_rate": 9.983455896173431e-05, "loss": 0.393, "step": 39340 }, { "epoch": 52.46666666666667, "grad_norm": 0.64453125, "learning_rate": 9.983447380455644e-05, "loss": 0.4019, "step": 39350 }, { "epoch": 52.48, "grad_norm": 0.58984375, "learning_rate": 9.983438862550411e-05, "loss": 0.3838, "step": 39360 }, { "epoch": 52.49333333333333, "grad_norm": 0.6328125, "learning_rate": 9.983430342457742e-05, "loss": 0.3949, "step": 39370 }, { "epoch": 52.50666666666667, "grad_norm": 0.640625, "learning_rate": 9.983421820177637e-05, "loss": 0.3938, "step": 39380 }, { "epoch": 52.52, "grad_norm": 0.55859375, "learning_rate": 9.983413295710101e-05, "loss": 0.3858, "step": 39390 }, { "epoch": 52.53333333333333, "grad_norm": 0.64453125, "learning_rate": 9.983404769055137e-05, "loss": 0.3866, "step": 39400 }, { "epoch": 52.54666666666667, "grad_norm": 0.72265625, "learning_rate": 9.983396240212748e-05, "loss": 0.388, "step": 39410 }, { "epoch": 52.56, "grad_norm": 0.625, "learning_rate": 9.983387709182941e-05, "loss": 0.3832, "step": 39420 }, { "epoch": 52.57333333333333, "grad_norm": 0.62109375, "learning_rate": 9.983379175965715e-05, "loss": 0.3867, "step": 39430 }, { "epoch": 52.586666666666666, "grad_norm": 0.68359375, "learning_rate": 9.983370640561078e-05, "loss": 0.375, "step": 39440 }, { "epoch": 52.6, "grad_norm": 0.6015625, "learning_rate": 9.983362102969031e-05, "loss": 0.3775, "step": 39450 }, { "epoch": 52.61333333333333, "grad_norm": 0.578125, "learning_rate": 9.983353563189579e-05, "loss": 0.3681, "step": 39460 }, { "epoch": 52.626666666666665, "grad_norm": 0.58203125, "learning_rate": 9.983345021222726e-05, "loss": 0.373, "step": 39470 }, { "epoch": 52.64, "grad_norm": 0.66796875, "learning_rate": 9.983336477068475e-05, "loss": 0.3842, "step": 39480 }, { "epoch": 52.653333333333336, "grad_norm": 0.62109375, "learning_rate": 9.983327930726829e-05, "loss": 0.3945, "step": 39490 }, { "epoch": 52.666666666666664, "grad_norm": 0.5390625, "learning_rate": 9.983319382197795e-05, "loss": 0.3816, "step": 39500 }, { "epoch": 52.68, "grad_norm": 0.640625, "learning_rate": 9.983310831481372e-05, "loss": 0.3728, "step": 39510 }, { "epoch": 52.693333333333335, "grad_norm": 0.5390625, "learning_rate": 9.983302278577567e-05, "loss": 0.3826, "step": 39520 }, { "epoch": 52.70666666666666, "grad_norm": 0.71484375, "learning_rate": 9.983293723486384e-05, "loss": 0.3748, "step": 39530 }, { "epoch": 52.72, "grad_norm": 0.69921875, "learning_rate": 9.983285166207825e-05, "loss": 0.3959, "step": 39540 }, { "epoch": 52.733333333333334, "grad_norm": 0.66015625, "learning_rate": 9.983276606741895e-05, "loss": 0.3909, "step": 39550 }, { "epoch": 52.74666666666667, "grad_norm": 0.65625, "learning_rate": 9.983268045088596e-05, "loss": 0.3936, "step": 39560 }, { "epoch": 52.76, "grad_norm": 0.63671875, "learning_rate": 9.983259481247936e-05, "loss": 0.407, "step": 39570 }, { "epoch": 52.77333333333333, "grad_norm": 0.71484375, "learning_rate": 9.983250915219912e-05, "loss": 0.3924, "step": 39580 }, { "epoch": 52.78666666666667, "grad_norm": 0.59765625, "learning_rate": 9.983242347004533e-05, "loss": 0.3935, "step": 39590 }, { "epoch": 52.8, "grad_norm": 0.65625, "learning_rate": 9.983233776601802e-05, "loss": 0.3928, "step": 39600 }, { "epoch": 52.81333333333333, "grad_norm": 0.71484375, "learning_rate": 9.983225204011721e-05, "loss": 0.3661, "step": 39610 }, { "epoch": 52.82666666666667, "grad_norm": 0.65625, "learning_rate": 9.983216629234296e-05, "loss": 0.3751, "step": 39620 }, { "epoch": 52.84, "grad_norm": 0.671875, "learning_rate": 9.98320805226953e-05, "loss": 0.3883, "step": 39630 }, { "epoch": 52.85333333333333, "grad_norm": 0.66015625, "learning_rate": 9.983199473117425e-05, "loss": 0.3827, "step": 39640 }, { "epoch": 52.86666666666667, "grad_norm": 0.65234375, "learning_rate": 9.983190891777987e-05, "loss": 0.388, "step": 39650 }, { "epoch": 52.88, "grad_norm": 0.6015625, "learning_rate": 9.983182308251218e-05, "loss": 0.3678, "step": 39660 }, { "epoch": 52.89333333333333, "grad_norm": 0.6171875, "learning_rate": 9.983173722537123e-05, "loss": 0.3794, "step": 39670 }, { "epoch": 52.906666666666666, "grad_norm": 0.59375, "learning_rate": 9.983165134635706e-05, "loss": 0.3861, "step": 39680 }, { "epoch": 52.92, "grad_norm": 0.6484375, "learning_rate": 9.98315654454697e-05, "loss": 0.3892, "step": 39690 }, { "epoch": 52.93333333333333, "grad_norm": 0.5703125, "learning_rate": 9.983147952270919e-05, "loss": 0.3823, "step": 39700 }, { "epoch": 52.946666666666665, "grad_norm": 0.58203125, "learning_rate": 9.983139357807557e-05, "loss": 0.3827, "step": 39710 }, { "epoch": 52.96, "grad_norm": 0.5703125, "learning_rate": 9.983130761156887e-05, "loss": 0.3799, "step": 39720 }, { "epoch": 52.973333333333336, "grad_norm": 0.828125, "learning_rate": 9.983122162318913e-05, "loss": 0.4051, "step": 39730 }, { "epoch": 52.986666666666665, "grad_norm": 0.6484375, "learning_rate": 9.98311356129364e-05, "loss": 0.376, "step": 39740 }, { "epoch": 53.0, "grad_norm": 0.62890625, "learning_rate": 9.98310495808107e-05, "loss": 0.3737, "step": 39750 }, { "epoch": 53.0, "eval_loss": 0.4272497892379761, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4534, "eval_samples_per_second": 1.531, "eval_steps_per_second": 0.096, "step": 39750 }, { "epoch": 53.013333333333335, "grad_norm": 0.7421875, "learning_rate": 9.983096352681207e-05, "loss": 0.3906, "step": 39760 }, { "epoch": 53.026666666666664, "grad_norm": 0.625, "learning_rate": 9.983087745094057e-05, "loss": 0.4049, "step": 39770 }, { "epoch": 53.04, "grad_norm": 0.640625, "learning_rate": 9.983079135319621e-05, "loss": 0.4174, "step": 39780 }, { "epoch": 53.053333333333335, "grad_norm": 0.61328125, "learning_rate": 9.983070523357905e-05, "loss": 0.4023, "step": 39790 }, { "epoch": 53.06666666666667, "grad_norm": 0.703125, "learning_rate": 9.98306190920891e-05, "loss": 0.3908, "step": 39800 }, { "epoch": 53.08, "grad_norm": 0.6640625, "learning_rate": 9.983053292872644e-05, "loss": 0.3938, "step": 39810 }, { "epoch": 53.093333333333334, "grad_norm": 0.71875, "learning_rate": 9.983044674349106e-05, "loss": 0.3958, "step": 39820 }, { "epoch": 53.10666666666667, "grad_norm": 0.5859375, "learning_rate": 9.983036053638304e-05, "loss": 0.3849, "step": 39830 }, { "epoch": 53.12, "grad_norm": 0.67578125, "learning_rate": 9.983027430740239e-05, "loss": 0.3879, "step": 39840 }, { "epoch": 53.13333333333333, "grad_norm": 0.64453125, "learning_rate": 9.983018805654916e-05, "loss": 0.3789, "step": 39850 }, { "epoch": 53.14666666666667, "grad_norm": 0.59765625, "learning_rate": 9.983010178382337e-05, "loss": 0.3996, "step": 39860 }, { "epoch": 53.16, "grad_norm": 0.58203125, "learning_rate": 9.983001548922508e-05, "loss": 0.3922, "step": 39870 }, { "epoch": 53.17333333333333, "grad_norm": 0.75, "learning_rate": 9.982992917275433e-05, "loss": 0.387, "step": 39880 }, { "epoch": 53.18666666666667, "grad_norm": 0.703125, "learning_rate": 9.982984283441115e-05, "loss": 0.3852, "step": 39890 }, { "epoch": 53.2, "grad_norm": 0.80859375, "learning_rate": 9.982975647419556e-05, "loss": 0.3778, "step": 39900 }, { "epoch": 53.21333333333333, "grad_norm": 0.75, "learning_rate": 9.982967009210763e-05, "loss": 0.3786, "step": 39910 }, { "epoch": 53.22666666666667, "grad_norm": 0.69921875, "learning_rate": 9.982958368814737e-05, "loss": 0.3899, "step": 39920 }, { "epoch": 53.24, "grad_norm": 0.65234375, "learning_rate": 9.982949726231483e-05, "loss": 0.3759, "step": 39930 }, { "epoch": 53.25333333333333, "grad_norm": 0.65234375, "learning_rate": 9.982941081461004e-05, "loss": 0.3774, "step": 39940 }, { "epoch": 53.266666666666666, "grad_norm": 0.59765625, "learning_rate": 9.982932434503306e-05, "loss": 0.3801, "step": 39950 }, { "epoch": 53.28, "grad_norm": 0.640625, "learning_rate": 9.982923785358391e-05, "loss": 0.4096, "step": 39960 }, { "epoch": 53.29333333333334, "grad_norm": 0.66015625, "learning_rate": 9.982915134026262e-05, "loss": 0.3667, "step": 39970 }, { "epoch": 53.306666666666665, "grad_norm": 0.62890625, "learning_rate": 9.982906480506927e-05, "loss": 0.3897, "step": 39980 }, { "epoch": 53.32, "grad_norm": 0.5390625, "learning_rate": 9.982897824800384e-05, "loss": 0.3925, "step": 39990 }, { "epoch": 53.333333333333336, "grad_norm": 0.6640625, "learning_rate": 9.982889166906639e-05, "loss": 0.3942, "step": 40000 }, { "epoch": 53.346666666666664, "grad_norm": 0.61328125, "learning_rate": 9.982880506825698e-05, "loss": 0.3849, "step": 40010 }, { "epoch": 53.36, "grad_norm": 0.6953125, "learning_rate": 9.982871844557562e-05, "loss": 0.3851, "step": 40020 }, { "epoch": 53.373333333333335, "grad_norm": 0.578125, "learning_rate": 9.982863180102238e-05, "loss": 0.387, "step": 40030 }, { "epoch": 53.38666666666666, "grad_norm": 0.74609375, "learning_rate": 9.982854513459725e-05, "loss": 0.377, "step": 40040 }, { "epoch": 53.4, "grad_norm": 0.68359375, "learning_rate": 9.982845844630031e-05, "loss": 0.3854, "step": 40050 }, { "epoch": 53.413333333333334, "grad_norm": 0.6328125, "learning_rate": 9.98283717361316e-05, "loss": 0.3901, "step": 40060 }, { "epoch": 53.42666666666667, "grad_norm": 0.63671875, "learning_rate": 9.982828500409112e-05, "loss": 0.3923, "step": 40070 }, { "epoch": 53.44, "grad_norm": 0.64453125, "learning_rate": 9.982819825017892e-05, "loss": 0.4046, "step": 40080 }, { "epoch": 53.45333333333333, "grad_norm": 0.71875, "learning_rate": 9.982811147439507e-05, "loss": 0.3915, "step": 40090 }, { "epoch": 53.46666666666667, "grad_norm": 0.60546875, "learning_rate": 9.982802467673957e-05, "loss": 0.4012, "step": 40100 }, { "epoch": 53.48, "grad_norm": 0.66015625, "learning_rate": 9.98279378572125e-05, "loss": 0.3826, "step": 40110 }, { "epoch": 53.49333333333333, "grad_norm": 0.69921875, "learning_rate": 9.982785101581384e-05, "loss": 0.3954, "step": 40120 }, { "epoch": 53.50666666666667, "grad_norm": 0.64453125, "learning_rate": 9.982776415254368e-05, "loss": 0.3936, "step": 40130 }, { "epoch": 53.52, "grad_norm": 0.578125, "learning_rate": 9.982767726740204e-05, "loss": 0.3844, "step": 40140 }, { "epoch": 53.53333333333333, "grad_norm": 0.69921875, "learning_rate": 9.982759036038893e-05, "loss": 0.3852, "step": 40150 }, { "epoch": 53.54666666666667, "grad_norm": 0.69140625, "learning_rate": 9.982750343150444e-05, "loss": 0.3869, "step": 40160 }, { "epoch": 53.56, "grad_norm": 0.58984375, "learning_rate": 9.982741648074858e-05, "loss": 0.382, "step": 40170 }, { "epoch": 53.57333333333333, "grad_norm": 0.625, "learning_rate": 9.98273295081214e-05, "loss": 0.3863, "step": 40180 }, { "epoch": 53.586666666666666, "grad_norm": 0.5859375, "learning_rate": 9.98272425136229e-05, "loss": 0.3746, "step": 40190 }, { "epoch": 53.6, "grad_norm": 0.65234375, "learning_rate": 9.982715549725317e-05, "loss": 0.3767, "step": 40200 }, { "epoch": 53.61333333333333, "grad_norm": 0.578125, "learning_rate": 9.982706845901221e-05, "loss": 0.3677, "step": 40210 }, { "epoch": 53.626666666666665, "grad_norm": 0.5546875, "learning_rate": 9.982698139890008e-05, "loss": 0.3725, "step": 40220 }, { "epoch": 53.64, "grad_norm": 0.64453125, "learning_rate": 9.982689431691683e-05, "loss": 0.3826, "step": 40230 }, { "epoch": 53.653333333333336, "grad_norm": 0.6328125, "learning_rate": 9.982680721306245e-05, "loss": 0.3933, "step": 40240 }, { "epoch": 53.666666666666664, "grad_norm": 0.5703125, "learning_rate": 9.982672008733702e-05, "loss": 0.3818, "step": 40250 }, { "epoch": 53.68, "grad_norm": 0.66015625, "learning_rate": 9.982663293974057e-05, "loss": 0.3721, "step": 40260 }, { "epoch": 53.693333333333335, "grad_norm": 0.55859375, "learning_rate": 9.982654577027315e-05, "loss": 0.3827, "step": 40270 }, { "epoch": 53.70666666666666, "grad_norm": 0.73828125, "learning_rate": 9.982645857893476e-05, "loss": 0.375, "step": 40280 }, { "epoch": 53.72, "grad_norm": 0.671875, "learning_rate": 9.982637136572547e-05, "loss": 0.3973, "step": 40290 }, { "epoch": 53.733333333333334, "grad_norm": 0.65234375, "learning_rate": 9.982628413064531e-05, "loss": 0.3904, "step": 40300 }, { "epoch": 53.74666666666667, "grad_norm": 0.68359375, "learning_rate": 9.982619687369432e-05, "loss": 0.3921, "step": 40310 }, { "epoch": 53.76, "grad_norm": 0.66015625, "learning_rate": 9.982610959487253e-05, "loss": 0.4067, "step": 40320 }, { "epoch": 53.77333333333333, "grad_norm": 0.7265625, "learning_rate": 9.982602229417999e-05, "loss": 0.3915, "step": 40330 }, { "epoch": 53.78666666666667, "grad_norm": 0.60546875, "learning_rate": 9.982593497161672e-05, "loss": 0.3928, "step": 40340 }, { "epoch": 53.8, "grad_norm": 0.68359375, "learning_rate": 9.982584762718279e-05, "loss": 0.392, "step": 40350 }, { "epoch": 53.81333333333333, "grad_norm": 0.70703125, "learning_rate": 9.98257602608782e-05, "loss": 0.3661, "step": 40360 }, { "epoch": 53.82666666666667, "grad_norm": 0.63671875, "learning_rate": 9.982567287270303e-05, "loss": 0.3747, "step": 40370 }, { "epoch": 53.84, "grad_norm": 0.6328125, "learning_rate": 9.982558546265728e-05, "loss": 0.3866, "step": 40380 }, { "epoch": 53.85333333333333, "grad_norm": 0.6015625, "learning_rate": 9.982549803074101e-05, "loss": 0.3824, "step": 40390 }, { "epoch": 53.86666666666667, "grad_norm": 0.62890625, "learning_rate": 9.982541057695424e-05, "loss": 0.3862, "step": 40400 }, { "epoch": 53.88, "grad_norm": 0.63671875, "learning_rate": 9.982532310129705e-05, "loss": 0.3665, "step": 40410 }, { "epoch": 53.89333333333333, "grad_norm": 0.58984375, "learning_rate": 9.982523560376945e-05, "loss": 0.3794, "step": 40420 }, { "epoch": 53.906666666666666, "grad_norm": 0.63671875, "learning_rate": 9.982514808437144e-05, "loss": 0.3857, "step": 40430 }, { "epoch": 53.92, "grad_norm": 0.6640625, "learning_rate": 9.982506054310312e-05, "loss": 0.3871, "step": 40440 }, { "epoch": 53.93333333333333, "grad_norm": 0.62890625, "learning_rate": 9.982497297996451e-05, "loss": 0.3804, "step": 40450 }, { "epoch": 53.946666666666665, "grad_norm": 0.70703125, "learning_rate": 9.982488539495563e-05, "loss": 0.3812, "step": 40460 }, { "epoch": 53.96, "grad_norm": 0.6171875, "learning_rate": 9.982479778807654e-05, "loss": 0.3798, "step": 40470 }, { "epoch": 53.973333333333336, "grad_norm": 0.78125, "learning_rate": 9.982471015932728e-05, "loss": 0.4036, "step": 40480 }, { "epoch": 53.986666666666665, "grad_norm": 0.59375, "learning_rate": 9.982462250870787e-05, "loss": 0.3754, "step": 40490 }, { "epoch": 54.0, "grad_norm": 0.64453125, "learning_rate": 9.982453483621835e-05, "loss": 0.3738, "step": 40500 }, { "epoch": 54.0, "eval_loss": 0.4258052110671997, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.7434, "eval_samples_per_second": 1.489, "eval_steps_per_second": 0.093, "step": 40500 }, { "epoch": 54.013333333333335, "grad_norm": 0.66015625, "learning_rate": 9.982444714185876e-05, "loss": 0.3915, "step": 40510 }, { "epoch": 54.026666666666664, "grad_norm": 0.59375, "learning_rate": 9.982435942562918e-05, "loss": 0.4054, "step": 40520 }, { "epoch": 54.04, "grad_norm": 0.62890625, "learning_rate": 9.982427168752958e-05, "loss": 0.4176, "step": 40530 }, { "epoch": 54.053333333333335, "grad_norm": 0.625, "learning_rate": 9.982418392756003e-05, "loss": 0.4025, "step": 40540 }, { "epoch": 54.06666666666667, "grad_norm": 0.76171875, "learning_rate": 9.982409614572059e-05, "loss": 0.3906, "step": 40550 }, { "epoch": 54.08, "grad_norm": 0.7109375, "learning_rate": 9.982400834201127e-05, "loss": 0.3953, "step": 40560 }, { "epoch": 54.093333333333334, "grad_norm": 0.66015625, "learning_rate": 9.982392051643212e-05, "loss": 0.3966, "step": 40570 }, { "epoch": 54.10666666666667, "grad_norm": 0.6796875, "learning_rate": 9.982383266898316e-05, "loss": 0.3835, "step": 40580 }, { "epoch": 54.12, "grad_norm": 0.6875, "learning_rate": 9.982374479966446e-05, "loss": 0.3871, "step": 40590 }, { "epoch": 54.13333333333333, "grad_norm": 0.6484375, "learning_rate": 9.982365690847604e-05, "loss": 0.3789, "step": 40600 }, { "epoch": 54.14666666666667, "grad_norm": 0.6484375, "learning_rate": 9.982356899541794e-05, "loss": 0.3979, "step": 40610 }, { "epoch": 54.16, "grad_norm": 0.6484375, "learning_rate": 9.982348106049019e-05, "loss": 0.3919, "step": 40620 }, { "epoch": 54.17333333333333, "grad_norm": 0.640625, "learning_rate": 9.982339310369284e-05, "loss": 0.3879, "step": 40630 }, { "epoch": 54.18666666666667, "grad_norm": 0.7109375, "learning_rate": 9.982330512502594e-05, "loss": 0.3854, "step": 40640 }, { "epoch": 54.2, "grad_norm": 0.6640625, "learning_rate": 9.982321712448951e-05, "loss": 0.3769, "step": 40650 }, { "epoch": 54.21333333333333, "grad_norm": 0.72265625, "learning_rate": 9.98231291020836e-05, "loss": 0.3775, "step": 40660 }, { "epoch": 54.22666666666667, "grad_norm": 0.66796875, "learning_rate": 9.982304105780822e-05, "loss": 0.3897, "step": 40670 }, { "epoch": 54.24, "grad_norm": 0.6328125, "learning_rate": 9.982295299166346e-05, "loss": 0.3741, "step": 40680 }, { "epoch": 54.25333333333333, "grad_norm": 0.6875, "learning_rate": 9.982286490364932e-05, "loss": 0.3777, "step": 40690 }, { "epoch": 54.266666666666666, "grad_norm": 0.65234375, "learning_rate": 9.982277679376583e-05, "loss": 0.3793, "step": 40700 }, { "epoch": 54.28, "grad_norm": 0.69140625, "learning_rate": 9.982268866201307e-05, "loss": 0.4093, "step": 40710 }, { "epoch": 54.29333333333334, "grad_norm": 0.6796875, "learning_rate": 9.982260050839105e-05, "loss": 0.3665, "step": 40720 }, { "epoch": 54.306666666666665, "grad_norm": 0.61328125, "learning_rate": 9.982251233289983e-05, "loss": 0.3897, "step": 40730 }, { "epoch": 54.32, "grad_norm": 0.5859375, "learning_rate": 9.98224241355394e-05, "loss": 0.3919, "step": 40740 }, { "epoch": 54.333333333333336, "grad_norm": 0.6640625, "learning_rate": 9.982233591630984e-05, "loss": 0.3933, "step": 40750 }, { "epoch": 54.346666666666664, "grad_norm": 0.65234375, "learning_rate": 9.982224767521121e-05, "loss": 0.3838, "step": 40760 }, { "epoch": 54.36, "grad_norm": 0.703125, "learning_rate": 9.98221594122435e-05, "loss": 0.3842, "step": 40770 }, { "epoch": 54.373333333333335, "grad_norm": 0.5390625, "learning_rate": 9.982207112740677e-05, "loss": 0.3863, "step": 40780 }, { "epoch": 54.38666666666666, "grad_norm": 0.7109375, "learning_rate": 9.982198282070105e-05, "loss": 0.3763, "step": 40790 }, { "epoch": 54.4, "grad_norm": 0.65234375, "learning_rate": 9.98218944921264e-05, "loss": 0.3854, "step": 40800 }, { "epoch": 54.413333333333334, "grad_norm": 0.63671875, "learning_rate": 9.982180614168285e-05, "loss": 0.39, "step": 40810 }, { "epoch": 54.42666666666667, "grad_norm": 0.59765625, "learning_rate": 9.982171776937042e-05, "loss": 0.3929, "step": 40820 }, { "epoch": 54.44, "grad_norm": 0.68359375, "learning_rate": 9.982162937518915e-05, "loss": 0.404, "step": 40830 }, { "epoch": 54.45333333333333, "grad_norm": 0.71484375, "learning_rate": 9.982154095913912e-05, "loss": 0.3922, "step": 40840 }, { "epoch": 54.46666666666667, "grad_norm": 0.640625, "learning_rate": 9.982145252122032e-05, "loss": 0.3998, "step": 40850 }, { "epoch": 54.48, "grad_norm": 0.6484375, "learning_rate": 9.982136406143281e-05, "loss": 0.3818, "step": 40860 }, { "epoch": 54.49333333333333, "grad_norm": 0.671875, "learning_rate": 9.982127557977663e-05, "loss": 0.3936, "step": 40870 }, { "epoch": 54.50666666666667, "grad_norm": 0.64453125, "learning_rate": 9.98211870762518e-05, "loss": 0.3924, "step": 40880 }, { "epoch": 54.52, "grad_norm": 0.57421875, "learning_rate": 9.982109855085841e-05, "loss": 0.3841, "step": 40890 }, { "epoch": 54.53333333333333, "grad_norm": 0.7109375, "learning_rate": 9.982101000359645e-05, "loss": 0.3855, "step": 40900 }, { "epoch": 54.54666666666667, "grad_norm": 0.6796875, "learning_rate": 9.982092143446596e-05, "loss": 0.3863, "step": 40910 }, { "epoch": 54.56, "grad_norm": 0.62890625, "learning_rate": 9.9820832843467e-05, "loss": 0.3805, "step": 40920 }, { "epoch": 54.57333333333333, "grad_norm": 0.69140625, "learning_rate": 9.982074423059962e-05, "loss": 0.3853, "step": 40930 }, { "epoch": 54.586666666666666, "grad_norm": 0.59765625, "learning_rate": 9.982065559586381e-05, "loss": 0.3743, "step": 40940 }, { "epoch": 54.6, "grad_norm": 0.63671875, "learning_rate": 9.982056693925965e-05, "loss": 0.3764, "step": 40950 }, { "epoch": 54.61333333333333, "grad_norm": 0.5625, "learning_rate": 9.982047826078718e-05, "loss": 0.3677, "step": 40960 }, { "epoch": 54.626666666666665, "grad_norm": 0.55078125, "learning_rate": 9.98203895604464e-05, "loss": 0.3723, "step": 40970 }, { "epoch": 54.64, "grad_norm": 0.6796875, "learning_rate": 9.98203008382374e-05, "loss": 0.3824, "step": 40980 }, { "epoch": 54.653333333333336, "grad_norm": 0.62109375, "learning_rate": 9.982021209416018e-05, "loss": 0.3926, "step": 40990 }, { "epoch": 54.666666666666664, "grad_norm": 0.609375, "learning_rate": 9.98201233282148e-05, "loss": 0.3814, "step": 41000 }, { "epoch": 54.68, "grad_norm": 0.62890625, "learning_rate": 9.982003454040129e-05, "loss": 0.3722, "step": 41010 }, { "epoch": 54.693333333333335, "grad_norm": 0.5078125, "learning_rate": 9.981994573071969e-05, "loss": 0.3819, "step": 41020 }, { "epoch": 54.70666666666666, "grad_norm": 0.72265625, "learning_rate": 9.981985689917004e-05, "loss": 0.3737, "step": 41030 }, { "epoch": 54.72, "grad_norm": 0.64453125, "learning_rate": 9.981976804575236e-05, "loss": 0.3964, "step": 41040 }, { "epoch": 54.733333333333334, "grad_norm": 0.671875, "learning_rate": 9.981967917046675e-05, "loss": 0.3902, "step": 41050 }, { "epoch": 54.74666666666667, "grad_norm": 0.6953125, "learning_rate": 9.981959027331318e-05, "loss": 0.3927, "step": 41060 }, { "epoch": 54.76, "grad_norm": 0.80078125, "learning_rate": 9.981950135429173e-05, "loss": 0.4055, "step": 41070 }, { "epoch": 54.77333333333333, "grad_norm": 0.72265625, "learning_rate": 9.981941241340241e-05, "loss": 0.3915, "step": 41080 }, { "epoch": 54.78666666666667, "grad_norm": 0.63671875, "learning_rate": 9.981932345064528e-05, "loss": 0.3924, "step": 41090 }, { "epoch": 54.8, "grad_norm": 0.69921875, "learning_rate": 9.981923446602037e-05, "loss": 0.3916, "step": 41100 }, { "epoch": 54.81333333333333, "grad_norm": 0.734375, "learning_rate": 9.981914545952772e-05, "loss": 0.3645, "step": 41110 }, { "epoch": 54.82666666666667, "grad_norm": 0.6328125, "learning_rate": 9.981905643116738e-05, "loss": 0.3739, "step": 41120 }, { "epoch": 54.84, "grad_norm": 0.734375, "learning_rate": 9.981896738093939e-05, "loss": 0.3864, "step": 41130 }, { "epoch": 54.85333333333333, "grad_norm": 0.6484375, "learning_rate": 9.981887830884377e-05, "loss": 0.3821, "step": 41140 }, { "epoch": 54.86666666666667, "grad_norm": 0.6328125, "learning_rate": 9.981878921488057e-05, "loss": 0.3857, "step": 41150 }, { "epoch": 54.88, "grad_norm": 0.60546875, "learning_rate": 9.981870009904982e-05, "loss": 0.3661, "step": 41160 }, { "epoch": 54.89333333333333, "grad_norm": 0.6484375, "learning_rate": 9.981861096135156e-05, "loss": 0.3788, "step": 41170 }, { "epoch": 54.906666666666666, "grad_norm": 0.6328125, "learning_rate": 9.981852180178586e-05, "loss": 0.3849, "step": 41180 }, { "epoch": 54.92, "grad_norm": 0.7109375, "learning_rate": 9.981843262035272e-05, "loss": 0.3863, "step": 41190 }, { "epoch": 54.93333333333333, "grad_norm": 0.58203125, "learning_rate": 9.98183434170522e-05, "loss": 0.3809, "step": 41200 }, { "epoch": 54.946666666666665, "grad_norm": 0.68359375, "learning_rate": 9.981825419188434e-05, "loss": 0.3814, "step": 41210 }, { "epoch": 54.96, "grad_norm": 0.5703125, "learning_rate": 9.981816494484915e-05, "loss": 0.3801, "step": 41220 }, { "epoch": 54.973333333333336, "grad_norm": 0.81640625, "learning_rate": 9.98180756759467e-05, "loss": 0.4034, "step": 41230 }, { "epoch": 54.986666666666665, "grad_norm": 0.66015625, "learning_rate": 9.981798638517703e-05, "loss": 0.376, "step": 41240 }, { "epoch": 55.0, "grad_norm": 0.62890625, "learning_rate": 9.981789707254016e-05, "loss": 0.3734, "step": 41250 }, { "epoch": 55.0, "eval_loss": 0.4249952435493469, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5054, "eval_samples_per_second": 1.523, "eval_steps_per_second": 0.095, "step": 41250 }, { "epoch": 55.013333333333335, "grad_norm": 0.73046875, "learning_rate": 9.981780773803615e-05, "loss": 0.3911, "step": 41260 }, { "epoch": 55.026666666666664, "grad_norm": 0.67578125, "learning_rate": 9.981771838166502e-05, "loss": 0.4044, "step": 41270 }, { "epoch": 55.04, "grad_norm": 0.609375, "learning_rate": 9.981762900342683e-05, "loss": 0.4171, "step": 41280 }, { "epoch": 55.053333333333335, "grad_norm": 0.62890625, "learning_rate": 9.98175396033216e-05, "loss": 0.4018, "step": 41290 }, { "epoch": 55.06666666666667, "grad_norm": 0.6796875, "learning_rate": 9.981745018134938e-05, "loss": 0.3907, "step": 41300 }, { "epoch": 55.08, "grad_norm": 0.75390625, "learning_rate": 9.98173607375102e-05, "loss": 0.3936, "step": 41310 }, { "epoch": 55.093333333333334, "grad_norm": 0.65234375, "learning_rate": 9.98172712718041e-05, "loss": 0.3949, "step": 41320 }, { "epoch": 55.10666666666667, "grad_norm": 0.5859375, "learning_rate": 9.981718178423112e-05, "loss": 0.3829, "step": 41330 }, { "epoch": 55.12, "grad_norm": 0.671875, "learning_rate": 9.981709227479132e-05, "loss": 0.3862, "step": 41340 }, { "epoch": 55.13333333333333, "grad_norm": 0.66015625, "learning_rate": 9.981700274348472e-05, "loss": 0.3789, "step": 41350 }, { "epoch": 55.14666666666667, "grad_norm": 0.6484375, "learning_rate": 9.981691319031135e-05, "loss": 0.397, "step": 41360 }, { "epoch": 55.16, "grad_norm": 0.57421875, "learning_rate": 9.981682361527127e-05, "loss": 0.3921, "step": 41370 }, { "epoch": 55.17333333333333, "grad_norm": 0.71875, "learning_rate": 9.981673401836452e-05, "loss": 0.3867, "step": 41380 }, { "epoch": 55.18666666666667, "grad_norm": 0.57421875, "learning_rate": 9.981664439959111e-05, "loss": 0.3843, "step": 41390 }, { "epoch": 55.2, "grad_norm": 0.73828125, "learning_rate": 9.98165547589511e-05, "loss": 0.3762, "step": 41400 }, { "epoch": 55.21333333333333, "grad_norm": 0.66796875, "learning_rate": 9.981646509644456e-05, "loss": 0.3765, "step": 41410 }, { "epoch": 55.22666666666667, "grad_norm": 0.7109375, "learning_rate": 9.981637541207147e-05, "loss": 0.3889, "step": 41420 }, { "epoch": 55.24, "grad_norm": 0.69140625, "learning_rate": 9.98162857058319e-05, "loss": 0.3739, "step": 41430 }, { "epoch": 55.25333333333333, "grad_norm": 0.64453125, "learning_rate": 9.981619597772589e-05, "loss": 0.3773, "step": 41440 }, { "epoch": 55.266666666666666, "grad_norm": 0.6328125, "learning_rate": 9.981610622775348e-05, "loss": 0.3801, "step": 41450 }, { "epoch": 55.28, "grad_norm": 0.6796875, "learning_rate": 9.98160164559147e-05, "loss": 0.4077, "step": 41460 }, { "epoch": 55.29333333333334, "grad_norm": 0.65625, "learning_rate": 9.981592666220958e-05, "loss": 0.3657, "step": 41470 }, { "epoch": 55.306666666666665, "grad_norm": 0.65625, "learning_rate": 9.98158368466382e-05, "loss": 0.3896, "step": 41480 }, { "epoch": 55.32, "grad_norm": 0.609375, "learning_rate": 9.981574700920056e-05, "loss": 0.3916, "step": 41490 }, { "epoch": 55.333333333333336, "grad_norm": 0.62109375, "learning_rate": 9.98156571498967e-05, "loss": 0.393, "step": 41500 }, { "epoch": 55.346666666666664, "grad_norm": 0.68359375, "learning_rate": 9.981556726872671e-05, "loss": 0.3827, "step": 41510 }, { "epoch": 55.36, "grad_norm": 0.7421875, "learning_rate": 9.981547736569057e-05, "loss": 0.3839, "step": 41520 }, { "epoch": 55.373333333333335, "grad_norm": 0.57421875, "learning_rate": 9.981538744078835e-05, "loss": 0.3858, "step": 41530 }, { "epoch": 55.38666666666666, "grad_norm": 0.68359375, "learning_rate": 9.981529749402007e-05, "loss": 0.3757, "step": 41540 }, { "epoch": 55.4, "grad_norm": 0.66015625, "learning_rate": 9.981520752538578e-05, "loss": 0.385, "step": 41550 }, { "epoch": 55.413333333333334, "grad_norm": 0.59765625, "learning_rate": 9.981511753488553e-05, "loss": 0.3899, "step": 41560 }, { "epoch": 55.42666666666667, "grad_norm": 0.62890625, "learning_rate": 9.981502752251934e-05, "loss": 0.3912, "step": 41570 }, { "epoch": 55.44, "grad_norm": 0.6796875, "learning_rate": 9.981493748828725e-05, "loss": 0.4038, "step": 41580 }, { "epoch": 55.45333333333333, "grad_norm": 0.66796875, "learning_rate": 9.981484743218933e-05, "loss": 0.3909, "step": 41590 }, { "epoch": 55.46666666666667, "grad_norm": 0.67578125, "learning_rate": 9.981475735422559e-05, "loss": 0.3992, "step": 41600 }, { "epoch": 55.48, "grad_norm": 0.64453125, "learning_rate": 9.981466725439608e-05, "loss": 0.3816, "step": 41610 }, { "epoch": 55.49333333333333, "grad_norm": 0.62109375, "learning_rate": 9.981457713270083e-05, "loss": 0.3935, "step": 41620 }, { "epoch": 55.50666666666667, "grad_norm": 0.609375, "learning_rate": 9.98144869891399e-05, "loss": 0.3924, "step": 41630 }, { "epoch": 55.52, "grad_norm": 0.5703125, "learning_rate": 9.98143968237133e-05, "loss": 0.3833, "step": 41640 }, { "epoch": 55.53333333333333, "grad_norm": 0.6484375, "learning_rate": 9.981430663642108e-05, "loss": 0.385, "step": 41650 }, { "epoch": 55.54666666666667, "grad_norm": 0.7421875, "learning_rate": 9.981421642726331e-05, "loss": 0.3869, "step": 41660 }, { "epoch": 55.56, "grad_norm": 0.57421875, "learning_rate": 9.981412619623998e-05, "loss": 0.3807, "step": 41670 }, { "epoch": 55.57333333333333, "grad_norm": 0.6953125, "learning_rate": 9.981403594335116e-05, "loss": 0.3854, "step": 41680 }, { "epoch": 55.586666666666666, "grad_norm": 0.609375, "learning_rate": 9.981394566859691e-05, "loss": 0.3739, "step": 41690 }, { "epoch": 55.6, "grad_norm": 0.5859375, "learning_rate": 9.981385537197723e-05, "loss": 0.3759, "step": 41700 }, { "epoch": 55.61333333333333, "grad_norm": 0.61328125, "learning_rate": 9.981376505349216e-05, "loss": 0.3674, "step": 41710 }, { "epoch": 55.626666666666665, "grad_norm": 0.60546875, "learning_rate": 9.981367471314176e-05, "loss": 0.3714, "step": 41720 }, { "epoch": 55.64, "grad_norm": 0.6796875, "learning_rate": 9.981358435092607e-05, "loss": 0.3818, "step": 41730 }, { "epoch": 55.653333333333336, "grad_norm": 0.6796875, "learning_rate": 9.981349396684512e-05, "loss": 0.3926, "step": 41740 }, { "epoch": 55.666666666666664, "grad_norm": 0.63671875, "learning_rate": 9.981340356089895e-05, "loss": 0.3813, "step": 41750 }, { "epoch": 55.68, "grad_norm": 0.6484375, "learning_rate": 9.981331313308759e-05, "loss": 0.3722, "step": 41760 }, { "epoch": 55.693333333333335, "grad_norm": 0.58203125, "learning_rate": 9.981322268341111e-05, "loss": 0.3808, "step": 41770 }, { "epoch": 55.70666666666666, "grad_norm": 0.73046875, "learning_rate": 9.981313221186952e-05, "loss": 0.3737, "step": 41780 }, { "epoch": 55.72, "grad_norm": 0.68359375, "learning_rate": 9.981304171846287e-05, "loss": 0.3947, "step": 41790 }, { "epoch": 55.733333333333334, "grad_norm": 0.70703125, "learning_rate": 9.98129512031912e-05, "loss": 0.3901, "step": 41800 }, { "epoch": 55.74666666666667, "grad_norm": 0.61328125, "learning_rate": 9.981286066605456e-05, "loss": 0.3926, "step": 41810 }, { "epoch": 55.76, "grad_norm": 0.65234375, "learning_rate": 9.981277010705298e-05, "loss": 0.4053, "step": 41820 }, { "epoch": 55.77333333333333, "grad_norm": 0.67578125, "learning_rate": 9.981267952618649e-05, "loss": 0.3912, "step": 41830 }, { "epoch": 55.78666666666667, "grad_norm": 0.58203125, "learning_rate": 9.981258892345515e-05, "loss": 0.3913, "step": 41840 }, { "epoch": 55.8, "grad_norm": 0.69140625, "learning_rate": 9.981249829885899e-05, "loss": 0.3906, "step": 41850 }, { "epoch": 55.81333333333333, "grad_norm": 0.703125, "learning_rate": 9.981240765239803e-05, "loss": 0.3637, "step": 41860 }, { "epoch": 55.82666666666667, "grad_norm": 0.58203125, "learning_rate": 9.981231698407236e-05, "loss": 0.3734, "step": 41870 }, { "epoch": 55.84, "grad_norm": 0.64453125, "learning_rate": 9.981222629388196e-05, "loss": 0.3856, "step": 41880 }, { "epoch": 55.85333333333333, "grad_norm": 0.71875, "learning_rate": 9.981213558182692e-05, "loss": 0.3815, "step": 41890 }, { "epoch": 55.86666666666667, "grad_norm": 0.71875, "learning_rate": 9.981204484790723e-05, "loss": 0.3861, "step": 41900 }, { "epoch": 55.88, "grad_norm": 0.64453125, "learning_rate": 9.981195409212298e-05, "loss": 0.3655, "step": 41910 }, { "epoch": 55.89333333333333, "grad_norm": 0.59765625, "learning_rate": 9.981186331447419e-05, "loss": 0.3792, "step": 41920 }, { "epoch": 55.906666666666666, "grad_norm": 0.64453125, "learning_rate": 9.98117725149609e-05, "loss": 0.3857, "step": 41930 }, { "epoch": 55.92, "grad_norm": 0.6328125, "learning_rate": 9.981168169358313e-05, "loss": 0.3862, "step": 41940 }, { "epoch": 55.93333333333333, "grad_norm": 0.578125, "learning_rate": 9.981159085034095e-05, "loss": 0.3815, "step": 41950 }, { "epoch": 55.946666666666665, "grad_norm": 0.6875, "learning_rate": 9.981149998523438e-05, "loss": 0.381, "step": 41960 }, { "epoch": 55.96, "grad_norm": 0.58984375, "learning_rate": 9.981140909826348e-05, "loss": 0.3781, "step": 41970 }, { "epoch": 55.973333333333336, "grad_norm": 0.78125, "learning_rate": 9.981131818942827e-05, "loss": 0.4033, "step": 41980 }, { "epoch": 55.986666666666665, "grad_norm": 0.671875, "learning_rate": 9.981122725872879e-05, "loss": 0.3746, "step": 41990 }, { "epoch": 56.0, "grad_norm": 0.70703125, "learning_rate": 9.98111363061651e-05, "loss": 0.3736, "step": 42000 }, { "epoch": 56.0, "eval_loss": 0.4245828688144684, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4092, "eval_samples_per_second": 1.537, "eval_steps_per_second": 0.096, "step": 42000 }, { "epoch": 56.013333333333335, "grad_norm": 0.6875, "learning_rate": 9.981104533173722e-05, "loss": 0.3902, "step": 42010 }, { "epoch": 56.026666666666664, "grad_norm": 0.671875, "learning_rate": 9.981095433544519e-05, "loss": 0.4042, "step": 42020 }, { "epoch": 56.04, "grad_norm": 0.6640625, "learning_rate": 9.981086331728906e-05, "loss": 0.4159, "step": 42030 }, { "epoch": 56.053333333333335, "grad_norm": 0.60546875, "learning_rate": 9.981077227726888e-05, "loss": 0.4013, "step": 42040 }, { "epoch": 56.06666666666667, "grad_norm": 0.703125, "learning_rate": 9.981068121538466e-05, "loss": 0.3899, "step": 42050 }, { "epoch": 56.08, "grad_norm": 0.66015625, "learning_rate": 9.981059013163648e-05, "loss": 0.394, "step": 42060 }, { "epoch": 56.093333333333334, "grad_norm": 0.68359375, "learning_rate": 9.981049902602433e-05, "loss": 0.3952, "step": 42070 }, { "epoch": 56.10666666666667, "grad_norm": 0.65625, "learning_rate": 9.981040789854828e-05, "loss": 0.3825, "step": 42080 }, { "epoch": 56.12, "grad_norm": 0.734375, "learning_rate": 9.981031674920837e-05, "loss": 0.386, "step": 42090 }, { "epoch": 56.13333333333333, "grad_norm": 0.63671875, "learning_rate": 9.981022557800466e-05, "loss": 0.3777, "step": 42100 }, { "epoch": 56.14666666666667, "grad_norm": 0.6796875, "learning_rate": 9.981013438493713e-05, "loss": 0.3971, "step": 42110 }, { "epoch": 56.16, "grad_norm": 0.59375, "learning_rate": 9.981004317000588e-05, "loss": 0.3924, "step": 42120 }, { "epoch": 56.17333333333333, "grad_norm": 0.74609375, "learning_rate": 9.980995193321092e-05, "loss": 0.386, "step": 42130 }, { "epoch": 56.18666666666667, "grad_norm": 0.6484375, "learning_rate": 9.980986067455232e-05, "loss": 0.3843, "step": 42140 }, { "epoch": 56.2, "grad_norm": 0.6484375, "learning_rate": 9.980976939403006e-05, "loss": 0.3752, "step": 42150 }, { "epoch": 56.21333333333333, "grad_norm": 0.70703125, "learning_rate": 9.980967809164423e-05, "loss": 0.3765, "step": 42160 }, { "epoch": 56.22666666666667, "grad_norm": 0.71875, "learning_rate": 9.980958676739486e-05, "loss": 0.3885, "step": 42170 }, { "epoch": 56.24, "grad_norm": 0.66015625, "learning_rate": 9.9809495421282e-05, "loss": 0.3741, "step": 42180 }, { "epoch": 56.25333333333333, "grad_norm": 0.65234375, "learning_rate": 9.980940405330566e-05, "loss": 0.376, "step": 42190 }, { "epoch": 56.266666666666666, "grad_norm": 0.5859375, "learning_rate": 9.98093126634659e-05, "loss": 0.3775, "step": 42200 }, { "epoch": 56.28, "grad_norm": 0.6640625, "learning_rate": 9.980922125176275e-05, "loss": 0.4072, "step": 42210 }, { "epoch": 56.29333333333334, "grad_norm": 0.625, "learning_rate": 9.980912981819627e-05, "loss": 0.3651, "step": 42220 }, { "epoch": 56.306666666666665, "grad_norm": 0.65625, "learning_rate": 9.980903836276649e-05, "loss": 0.389, "step": 42230 }, { "epoch": 56.32, "grad_norm": 0.58984375, "learning_rate": 9.980894688547344e-05, "loss": 0.3914, "step": 42240 }, { "epoch": 56.333333333333336, "grad_norm": 0.70703125, "learning_rate": 9.980885538631717e-05, "loss": 0.3928, "step": 42250 }, { "epoch": 56.346666666666664, "grad_norm": 0.73828125, "learning_rate": 9.980876386529772e-05, "loss": 0.3832, "step": 42260 }, { "epoch": 56.36, "grad_norm": 0.75, "learning_rate": 9.980867232241511e-05, "loss": 0.3835, "step": 42270 }, { "epoch": 56.373333333333335, "grad_norm": 0.57421875, "learning_rate": 9.980858075766942e-05, "loss": 0.3856, "step": 42280 }, { "epoch": 56.38666666666666, "grad_norm": 0.77734375, "learning_rate": 9.980848917106068e-05, "loss": 0.3754, "step": 42290 }, { "epoch": 56.4, "grad_norm": 0.6484375, "learning_rate": 9.980839756258888e-05, "loss": 0.384, "step": 42300 }, { "epoch": 56.413333333333334, "grad_norm": 0.61328125, "learning_rate": 9.980830593225412e-05, "loss": 0.3893, "step": 42310 }, { "epoch": 56.42666666666667, "grad_norm": 0.6484375, "learning_rate": 9.980821428005642e-05, "loss": 0.3909, "step": 42320 }, { "epoch": 56.44, "grad_norm": 0.6796875, "learning_rate": 9.980812260599584e-05, "loss": 0.4034, "step": 42330 }, { "epoch": 56.45333333333333, "grad_norm": 0.75, "learning_rate": 9.980803091007237e-05, "loss": 0.3909, "step": 42340 }, { "epoch": 56.46666666666667, "grad_norm": 0.6484375, "learning_rate": 9.980793919228608e-05, "loss": 0.3984, "step": 42350 }, { "epoch": 56.48, "grad_norm": 0.6328125, "learning_rate": 9.980784745263702e-05, "loss": 0.3813, "step": 42360 }, { "epoch": 56.49333333333333, "grad_norm": 0.62890625, "learning_rate": 9.980775569112522e-05, "loss": 0.3933, "step": 42370 }, { "epoch": 56.50666666666667, "grad_norm": 0.6484375, "learning_rate": 9.980766390775073e-05, "loss": 0.3914, "step": 42380 }, { "epoch": 56.52, "grad_norm": 0.5625, "learning_rate": 9.980757210251357e-05, "loss": 0.3826, "step": 42390 }, { "epoch": 56.53333333333333, "grad_norm": 0.6796875, "learning_rate": 9.98074802754138e-05, "loss": 0.384, "step": 42400 }, { "epoch": 56.54666666666667, "grad_norm": 0.7421875, "learning_rate": 9.980738842645145e-05, "loss": 0.3864, "step": 42410 }, { "epoch": 56.56, "grad_norm": 0.5546875, "learning_rate": 9.980729655562655e-05, "loss": 0.3802, "step": 42420 }, { "epoch": 56.57333333333333, "grad_norm": 0.67578125, "learning_rate": 9.980720466293916e-05, "loss": 0.3848, "step": 42430 }, { "epoch": 56.586666666666666, "grad_norm": 0.5703125, "learning_rate": 9.980711274838932e-05, "loss": 0.3734, "step": 42440 }, { "epoch": 56.6, "grad_norm": 0.63671875, "learning_rate": 9.980702081197706e-05, "loss": 0.3757, "step": 42450 }, { "epoch": 56.61333333333333, "grad_norm": 0.609375, "learning_rate": 9.980692885370242e-05, "loss": 0.3658, "step": 42460 }, { "epoch": 56.626666666666665, "grad_norm": 0.53515625, "learning_rate": 9.980683687356544e-05, "loss": 0.3705, "step": 42470 }, { "epoch": 56.64, "grad_norm": 0.671875, "learning_rate": 9.980674487156616e-05, "loss": 0.3817, "step": 42480 }, { "epoch": 56.653333333333336, "grad_norm": 0.6484375, "learning_rate": 9.980665284770463e-05, "loss": 0.3919, "step": 42490 }, { "epoch": 56.666666666666664, "grad_norm": 0.61328125, "learning_rate": 9.98065608019809e-05, "loss": 0.3801, "step": 42500 }, { "epoch": 56.68, "grad_norm": 0.625, "learning_rate": 9.980646873439498e-05, "loss": 0.3707, "step": 42510 }, { "epoch": 56.693333333333335, "grad_norm": 0.69140625, "learning_rate": 9.980637664494692e-05, "loss": 0.3813, "step": 42520 }, { "epoch": 56.70666666666666, "grad_norm": 0.71875, "learning_rate": 9.980628453363679e-05, "loss": 0.373, "step": 42530 }, { "epoch": 56.72, "grad_norm": 0.6015625, "learning_rate": 9.980619240046458e-05, "loss": 0.3948, "step": 42540 }, { "epoch": 56.733333333333334, "grad_norm": 0.66015625, "learning_rate": 9.980610024543036e-05, "loss": 0.3889, "step": 42550 }, { "epoch": 56.74666666666667, "grad_norm": 0.6796875, "learning_rate": 9.980600806853419e-05, "loss": 0.3921, "step": 42560 }, { "epoch": 56.76, "grad_norm": 0.65234375, "learning_rate": 9.980591586977607e-05, "loss": 0.4047, "step": 42570 }, { "epoch": 56.77333333333333, "grad_norm": 0.70703125, "learning_rate": 9.980582364915606e-05, "loss": 0.3906, "step": 42580 }, { "epoch": 56.78666666666667, "grad_norm": 0.71484375, "learning_rate": 9.98057314066742e-05, "loss": 0.3923, "step": 42590 }, { "epoch": 56.8, "grad_norm": 0.70703125, "learning_rate": 9.980563914233053e-05, "loss": 0.39, "step": 42600 }, { "epoch": 56.81333333333333, "grad_norm": 0.7109375, "learning_rate": 9.980554685612509e-05, "loss": 0.3639, "step": 42610 }, { "epoch": 56.82666666666667, "grad_norm": 0.61328125, "learning_rate": 9.980545454805792e-05, "loss": 0.3728, "step": 42620 }, { "epoch": 56.84, "grad_norm": 0.7109375, "learning_rate": 9.980536221812906e-05, "loss": 0.3854, "step": 42630 }, { "epoch": 56.85333333333333, "grad_norm": 0.703125, "learning_rate": 9.980526986633856e-05, "loss": 0.381, "step": 42640 }, { "epoch": 56.86666666666667, "grad_norm": 0.73828125, "learning_rate": 9.980517749268644e-05, "loss": 0.3863, "step": 42650 }, { "epoch": 56.88, "grad_norm": 0.62109375, "learning_rate": 9.980508509717275e-05, "loss": 0.3674, "step": 42660 }, { "epoch": 56.89333333333333, "grad_norm": 0.6953125, "learning_rate": 9.980499267979754e-05, "loss": 0.3779, "step": 42670 }, { "epoch": 56.906666666666666, "grad_norm": 0.62109375, "learning_rate": 9.980490024056086e-05, "loss": 0.3839, "step": 42680 }, { "epoch": 56.92, "grad_norm": 0.70703125, "learning_rate": 9.98048077794627e-05, "loss": 0.3856, "step": 42690 }, { "epoch": 56.93333333333333, "grad_norm": 0.59765625, "learning_rate": 9.980471529650318e-05, "loss": 0.3804, "step": 42700 }, { "epoch": 56.946666666666665, "grad_norm": 0.63671875, "learning_rate": 9.980462279168226e-05, "loss": 0.3804, "step": 42710 }, { "epoch": 56.96, "grad_norm": 0.58984375, "learning_rate": 9.980453026500002e-05, "loss": 0.3791, "step": 42720 }, { "epoch": 56.973333333333336, "grad_norm": 0.8203125, "learning_rate": 9.98044377164565e-05, "loss": 0.4023, "step": 42730 }, { "epoch": 56.986666666666665, "grad_norm": 0.73046875, "learning_rate": 9.980434514605175e-05, "loss": 0.3737, "step": 42740 }, { "epoch": 57.0, "grad_norm": 0.62890625, "learning_rate": 9.980425255378578e-05, "loss": 0.3712, "step": 42750 }, { "epoch": 57.0, "eval_loss": 0.42356592416763306, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3944, "eval_samples_per_second": 1.539, "eval_steps_per_second": 0.096, "step": 42750 }, { "epoch": 57.013333333333335, "grad_norm": 0.6953125, "learning_rate": 9.980415993965865e-05, "loss": 0.3891, "step": 42760 }, { "epoch": 57.026666666666664, "grad_norm": 0.609375, "learning_rate": 9.98040673036704e-05, "loss": 0.4041, "step": 42770 }, { "epoch": 57.04, "grad_norm": 0.62109375, "learning_rate": 9.980397464582107e-05, "loss": 0.4159, "step": 42780 }, { "epoch": 57.053333333333335, "grad_norm": 0.6640625, "learning_rate": 9.980388196611072e-05, "loss": 0.4008, "step": 42790 }, { "epoch": 57.06666666666667, "grad_norm": 0.6875, "learning_rate": 9.980378926453935e-05, "loss": 0.3889, "step": 42800 }, { "epoch": 57.08, "grad_norm": 0.65234375, "learning_rate": 9.980369654110703e-05, "loss": 0.3918, "step": 42810 }, { "epoch": 57.093333333333334, "grad_norm": 0.63671875, "learning_rate": 9.98036037958138e-05, "loss": 0.3945, "step": 42820 }, { "epoch": 57.10666666666667, "grad_norm": 0.60546875, "learning_rate": 9.980351102865968e-05, "loss": 0.3824, "step": 42830 }, { "epoch": 57.12, "grad_norm": 0.64453125, "learning_rate": 9.980341823964472e-05, "loss": 0.3855, "step": 42840 }, { "epoch": 57.13333333333333, "grad_norm": 0.65625, "learning_rate": 9.980332542876898e-05, "loss": 0.3777, "step": 42850 }, { "epoch": 57.14666666666667, "grad_norm": 0.6640625, "learning_rate": 9.980323259603247e-05, "loss": 0.3963, "step": 42860 }, { "epoch": 57.16, "grad_norm": 0.60546875, "learning_rate": 9.980313974143525e-05, "loss": 0.3908, "step": 42870 }, { "epoch": 57.17333333333333, "grad_norm": 0.67578125, "learning_rate": 9.980304686497737e-05, "loss": 0.3848, "step": 42880 }, { "epoch": 57.18666666666667, "grad_norm": 0.65234375, "learning_rate": 9.980295396665885e-05, "loss": 0.3835, "step": 42890 }, { "epoch": 57.2, "grad_norm": 0.65625, "learning_rate": 9.980286104647974e-05, "loss": 0.3754, "step": 42900 }, { "epoch": 57.21333333333333, "grad_norm": 0.69140625, "learning_rate": 9.980276810444007e-05, "loss": 0.3762, "step": 42910 }, { "epoch": 57.22666666666667, "grad_norm": 0.73828125, "learning_rate": 9.980267514053989e-05, "loss": 0.3877, "step": 42920 }, { "epoch": 57.24, "grad_norm": 0.703125, "learning_rate": 9.980258215477926e-05, "loss": 0.3736, "step": 42930 }, { "epoch": 57.25333333333333, "grad_norm": 0.61328125, "learning_rate": 9.98024891471582e-05, "loss": 0.3756, "step": 42940 }, { "epoch": 57.266666666666666, "grad_norm": 0.6796875, "learning_rate": 9.980239611767672e-05, "loss": 0.3778, "step": 42950 }, { "epoch": 57.28, "grad_norm": 0.6875, "learning_rate": 9.980230306633492e-05, "loss": 0.4072, "step": 42960 }, { "epoch": 57.29333333333334, "grad_norm": 0.6171875, "learning_rate": 9.980220999313282e-05, "loss": 0.3645, "step": 42970 }, { "epoch": 57.306666666666665, "grad_norm": 0.58203125, "learning_rate": 9.980211689807044e-05, "loss": 0.388, "step": 42980 }, { "epoch": 57.32, "grad_norm": 0.60546875, "learning_rate": 9.980202378114785e-05, "loss": 0.391, "step": 42990 }, { "epoch": 57.333333333333336, "grad_norm": 0.67578125, "learning_rate": 9.980193064236507e-05, "loss": 0.3919, "step": 43000 }, { "epoch": 57.346666666666664, "grad_norm": 0.70703125, "learning_rate": 9.980183748172214e-05, "loss": 0.3824, "step": 43010 }, { "epoch": 57.36, "grad_norm": 0.66796875, "learning_rate": 9.980174429921912e-05, "loss": 0.3828, "step": 43020 }, { "epoch": 57.373333333333335, "grad_norm": 0.59375, "learning_rate": 9.980165109485602e-05, "loss": 0.3854, "step": 43030 }, { "epoch": 57.38666666666666, "grad_norm": 0.6953125, "learning_rate": 9.980155786863292e-05, "loss": 0.3752, "step": 43040 }, { "epoch": 57.4, "grad_norm": 0.65625, "learning_rate": 9.980146462054984e-05, "loss": 0.3838, "step": 43050 }, { "epoch": 57.413333333333334, "grad_norm": 0.6640625, "learning_rate": 9.980137135060682e-05, "loss": 0.3895, "step": 43060 }, { "epoch": 57.42666666666667, "grad_norm": 0.65625, "learning_rate": 9.980127805880389e-05, "loss": 0.391, "step": 43070 }, { "epoch": 57.44, "grad_norm": 0.6875, "learning_rate": 9.980118474514112e-05, "loss": 0.4029, "step": 43080 }, { "epoch": 57.45333333333333, "grad_norm": 0.73828125, "learning_rate": 9.980109140961852e-05, "loss": 0.3902, "step": 43090 }, { "epoch": 57.46666666666667, "grad_norm": 0.62109375, "learning_rate": 9.980099805223617e-05, "loss": 0.3989, "step": 43100 }, { "epoch": 57.48, "grad_norm": 0.734375, "learning_rate": 9.980090467299407e-05, "loss": 0.3806, "step": 43110 }, { "epoch": 57.49333333333333, "grad_norm": 0.60546875, "learning_rate": 9.980081127189228e-05, "loss": 0.3928, "step": 43120 }, { "epoch": 57.50666666666667, "grad_norm": 0.65234375, "learning_rate": 9.980071784893084e-05, "loss": 0.3913, "step": 43130 }, { "epoch": 57.52, "grad_norm": 0.6484375, "learning_rate": 9.980062440410978e-05, "loss": 0.3824, "step": 43140 }, { "epoch": 57.53333333333333, "grad_norm": 0.6875, "learning_rate": 9.980053093742917e-05, "loss": 0.3845, "step": 43150 }, { "epoch": 57.54666666666667, "grad_norm": 0.71484375, "learning_rate": 9.980043744888903e-05, "loss": 0.3858, "step": 43160 }, { "epoch": 57.56, "grad_norm": 0.578125, "learning_rate": 9.98003439384894e-05, "loss": 0.3801, "step": 43170 }, { "epoch": 57.57333333333333, "grad_norm": 0.66796875, "learning_rate": 9.980025040623031e-05, "loss": 0.3841, "step": 43180 }, { "epoch": 57.586666666666666, "grad_norm": 0.59375, "learning_rate": 9.980015685211184e-05, "loss": 0.3731, "step": 43190 }, { "epoch": 57.6, "grad_norm": 0.63671875, "learning_rate": 9.980006327613398e-05, "loss": 0.3757, "step": 43200 }, { "epoch": 57.61333333333333, "grad_norm": 0.6484375, "learning_rate": 9.979996967829682e-05, "loss": 0.3665, "step": 43210 }, { "epoch": 57.626666666666665, "grad_norm": 0.55859375, "learning_rate": 9.979987605860036e-05, "loss": 0.3707, "step": 43220 }, { "epoch": 57.64, "grad_norm": 0.6875, "learning_rate": 9.979978241704466e-05, "loss": 0.3811, "step": 43230 }, { "epoch": 57.653333333333336, "grad_norm": 0.68359375, "learning_rate": 9.979968875362977e-05, "loss": 0.3917, "step": 43240 }, { "epoch": 57.666666666666664, "grad_norm": 0.61328125, "learning_rate": 9.979959506835573e-05, "loss": 0.3798, "step": 43250 }, { "epoch": 57.68, "grad_norm": 0.74609375, "learning_rate": 9.979950136122256e-05, "loss": 0.371, "step": 43260 }, { "epoch": 57.693333333333335, "grad_norm": 0.5546875, "learning_rate": 9.979940763223032e-05, "loss": 0.3804, "step": 43270 }, { "epoch": 57.70666666666666, "grad_norm": 0.7265625, "learning_rate": 9.979931388137904e-05, "loss": 0.3726, "step": 43280 }, { "epoch": 57.72, "grad_norm": 0.69921875, "learning_rate": 9.979922010866878e-05, "loss": 0.3938, "step": 43290 }, { "epoch": 57.733333333333334, "grad_norm": 0.6484375, "learning_rate": 9.979912631409955e-05, "loss": 0.3896, "step": 43300 }, { "epoch": 57.74666666666667, "grad_norm": 0.62890625, "learning_rate": 9.979903249767142e-05, "loss": 0.3913, "step": 43310 }, { "epoch": 57.76, "grad_norm": 0.6796875, "learning_rate": 9.979893865938441e-05, "loss": 0.4041, "step": 43320 }, { "epoch": 57.77333333333333, "grad_norm": 0.6796875, "learning_rate": 9.979884479923858e-05, "loss": 0.3907, "step": 43330 }, { "epoch": 57.78666666666667, "grad_norm": 0.57421875, "learning_rate": 9.979875091723395e-05, "loss": 0.391, "step": 43340 }, { "epoch": 57.8, "grad_norm": 0.69140625, "learning_rate": 9.979865701337058e-05, "loss": 0.3891, "step": 43350 }, { "epoch": 57.81333333333333, "grad_norm": 0.78125, "learning_rate": 9.979856308764851e-05, "loss": 0.3644, "step": 43360 }, { "epoch": 57.82666666666667, "grad_norm": 0.609375, "learning_rate": 9.979846914006776e-05, "loss": 0.3722, "step": 43370 }, { "epoch": 57.84, "grad_norm": 0.69921875, "learning_rate": 9.97983751706284e-05, "loss": 0.384, "step": 43380 }, { "epoch": 57.85333333333333, "grad_norm": 0.69140625, "learning_rate": 9.979828117933047e-05, "loss": 0.3805, "step": 43390 }, { "epoch": 57.86666666666667, "grad_norm": 0.67578125, "learning_rate": 9.979818716617398e-05, "loss": 0.3852, "step": 43400 }, { "epoch": 57.88, "grad_norm": 0.64453125, "learning_rate": 9.9798093131159e-05, "loss": 0.3659, "step": 43410 }, { "epoch": 57.89333333333333, "grad_norm": 0.7265625, "learning_rate": 9.979799907428556e-05, "loss": 0.3775, "step": 43420 }, { "epoch": 57.906666666666666, "grad_norm": 0.77734375, "learning_rate": 9.979790499555371e-05, "loss": 0.384, "step": 43430 }, { "epoch": 57.92, "grad_norm": 0.6953125, "learning_rate": 9.979781089496347e-05, "loss": 0.3853, "step": 43440 }, { "epoch": 57.93333333333333, "grad_norm": 0.57421875, "learning_rate": 9.979771677251491e-05, "loss": 0.3797, "step": 43450 }, { "epoch": 57.946666666666665, "grad_norm": 0.6640625, "learning_rate": 9.979762262820806e-05, "loss": 0.3792, "step": 43460 }, { "epoch": 57.96, "grad_norm": 0.59375, "learning_rate": 9.979752846204295e-05, "loss": 0.3785, "step": 43470 }, { "epoch": 57.973333333333336, "grad_norm": 0.84375, "learning_rate": 9.979743427401962e-05, "loss": 0.4017, "step": 43480 }, { "epoch": 57.986666666666665, "grad_norm": 0.69140625, "learning_rate": 9.979734006413814e-05, "loss": 0.3735, "step": 43490 }, { "epoch": 58.0, "grad_norm": 0.65234375, "learning_rate": 9.979724583239853e-05, "loss": 0.3716, "step": 43500 }, { "epoch": 58.0, "eval_loss": 0.4251290559768677, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4146, "eval_samples_per_second": 1.536, "eval_steps_per_second": 0.096, "step": 43500 }, { "epoch": 58.013333333333335, "grad_norm": 0.69921875, "learning_rate": 9.979715157880081e-05, "loss": 0.3878, "step": 43510 }, { "epoch": 58.026666666666664, "grad_norm": 0.6171875, "learning_rate": 9.979705730334507e-05, "loss": 0.4032, "step": 43520 }, { "epoch": 58.04, "grad_norm": 0.65625, "learning_rate": 9.979696300603131e-05, "loss": 0.4153, "step": 43530 }, { "epoch": 58.053333333333335, "grad_norm": 0.66796875, "learning_rate": 9.979686868685962e-05, "loss": 0.4013, "step": 43540 }, { "epoch": 58.06666666666667, "grad_norm": 0.76953125, "learning_rate": 9.979677434582999e-05, "loss": 0.3888, "step": 43550 }, { "epoch": 58.08, "grad_norm": 0.640625, "learning_rate": 9.979667998294246e-05, "loss": 0.3924, "step": 43560 }, { "epoch": 58.093333333333334, "grad_norm": 0.71875, "learning_rate": 9.979658559819712e-05, "loss": 0.395, "step": 43570 }, { "epoch": 58.10666666666667, "grad_norm": 0.68359375, "learning_rate": 9.979649119159398e-05, "loss": 0.3834, "step": 43580 }, { "epoch": 58.12, "grad_norm": 0.70703125, "learning_rate": 9.979639676313308e-05, "loss": 0.3849, "step": 43590 }, { "epoch": 58.13333333333333, "grad_norm": 0.61328125, "learning_rate": 9.979630231281448e-05, "loss": 0.3772, "step": 43600 }, { "epoch": 58.14666666666667, "grad_norm": 0.609375, "learning_rate": 9.979620784063819e-05, "loss": 0.3957, "step": 43610 }, { "epoch": 58.16, "grad_norm": 0.609375, "learning_rate": 9.979611334660428e-05, "loss": 0.3901, "step": 43620 }, { "epoch": 58.17333333333333, "grad_norm": 0.70703125, "learning_rate": 9.979601883071276e-05, "loss": 0.385, "step": 43630 }, { "epoch": 58.18666666666667, "grad_norm": 0.66015625, "learning_rate": 9.979592429296372e-05, "loss": 0.3829, "step": 43640 }, { "epoch": 58.2, "grad_norm": 0.6015625, "learning_rate": 9.979582973335717e-05, "loss": 0.3744, "step": 43650 }, { "epoch": 58.21333333333333, "grad_norm": 0.72265625, "learning_rate": 9.979573515189314e-05, "loss": 0.3765, "step": 43660 }, { "epoch": 58.22666666666667, "grad_norm": 0.64453125, "learning_rate": 9.97956405485717e-05, "loss": 0.3872, "step": 43670 }, { "epoch": 58.24, "grad_norm": 0.6875, "learning_rate": 9.979554592339288e-05, "loss": 0.3734, "step": 43680 }, { "epoch": 58.25333333333333, "grad_norm": 0.6796875, "learning_rate": 9.979545127635673e-05, "loss": 0.3761, "step": 43690 }, { "epoch": 58.266666666666666, "grad_norm": 0.69921875, "learning_rate": 9.979535660746325e-05, "loss": 0.3784, "step": 43700 }, { "epoch": 58.28, "grad_norm": 0.6875, "learning_rate": 9.979526191671254e-05, "loss": 0.4071, "step": 43710 }, { "epoch": 58.29333333333334, "grad_norm": 0.6953125, "learning_rate": 9.97951672041046e-05, "loss": 0.3641, "step": 43720 }, { "epoch": 58.306666666666665, "grad_norm": 0.6171875, "learning_rate": 9.979507246963949e-05, "loss": 0.3875, "step": 43730 }, { "epoch": 58.32, "grad_norm": 0.5625, "learning_rate": 9.979497771331725e-05, "loss": 0.3906, "step": 43740 }, { "epoch": 58.333333333333336, "grad_norm": 0.69921875, "learning_rate": 9.979488293513793e-05, "loss": 0.3922, "step": 43750 }, { "epoch": 58.346666666666664, "grad_norm": 0.68359375, "learning_rate": 9.979478813510155e-05, "loss": 0.3818, "step": 43760 }, { "epoch": 58.36, "grad_norm": 0.671875, "learning_rate": 9.979469331320817e-05, "loss": 0.3828, "step": 43770 }, { "epoch": 58.373333333333335, "grad_norm": 0.5703125, "learning_rate": 9.97945984694578e-05, "loss": 0.3851, "step": 43780 }, { "epoch": 58.38666666666666, "grad_norm": 0.875, "learning_rate": 9.979450360385053e-05, "loss": 0.3748, "step": 43790 }, { "epoch": 58.4, "grad_norm": 0.7109375, "learning_rate": 9.979440871638638e-05, "loss": 0.3832, "step": 43800 }, { "epoch": 58.413333333333334, "grad_norm": 0.65625, "learning_rate": 9.979431380706538e-05, "loss": 0.3874, "step": 43810 }, { "epoch": 58.42666666666667, "grad_norm": 0.671875, "learning_rate": 9.979421887588758e-05, "loss": 0.3908, "step": 43820 }, { "epoch": 58.44, "grad_norm": 0.64453125, "learning_rate": 9.979412392285303e-05, "loss": 0.4024, "step": 43830 }, { "epoch": 58.45333333333333, "grad_norm": 0.72265625, "learning_rate": 9.979402894796176e-05, "loss": 0.3898, "step": 43840 }, { "epoch": 58.46666666666667, "grad_norm": 0.63671875, "learning_rate": 9.979393395121381e-05, "loss": 0.3982, "step": 43850 }, { "epoch": 58.48, "grad_norm": 0.7578125, "learning_rate": 9.979383893260924e-05, "loss": 0.3808, "step": 43860 }, { "epoch": 58.49333333333333, "grad_norm": 0.625, "learning_rate": 9.979374389214807e-05, "loss": 0.3924, "step": 43870 }, { "epoch": 58.50666666666667, "grad_norm": 0.64453125, "learning_rate": 9.979364882983036e-05, "loss": 0.3915, "step": 43880 }, { "epoch": 58.52, "grad_norm": 0.62109375, "learning_rate": 9.979355374565614e-05, "loss": 0.3823, "step": 43890 }, { "epoch": 58.53333333333333, "grad_norm": 0.66015625, "learning_rate": 9.979345863962545e-05, "loss": 0.3841, "step": 43900 }, { "epoch": 58.54666666666667, "grad_norm": 0.796875, "learning_rate": 9.979336351173834e-05, "loss": 0.386, "step": 43910 }, { "epoch": 58.56, "grad_norm": 0.56640625, "learning_rate": 9.979326836199486e-05, "loss": 0.3793, "step": 43920 }, { "epoch": 58.57333333333333, "grad_norm": 0.67578125, "learning_rate": 9.979317319039501e-05, "loss": 0.384, "step": 43930 }, { "epoch": 58.586666666666666, "grad_norm": 0.59375, "learning_rate": 9.979307799693888e-05, "loss": 0.3737, "step": 43940 }, { "epoch": 58.6, "grad_norm": 0.62890625, "learning_rate": 9.97929827816265e-05, "loss": 0.3732, "step": 43950 }, { "epoch": 58.61333333333333, "grad_norm": 0.61328125, "learning_rate": 9.979288754445789e-05, "loss": 0.3655, "step": 43960 }, { "epoch": 58.626666666666665, "grad_norm": 0.640625, "learning_rate": 9.979279228543312e-05, "loss": 0.3706, "step": 43970 }, { "epoch": 58.64, "grad_norm": 0.671875, "learning_rate": 9.97926970045522e-05, "loss": 0.3799, "step": 43980 }, { "epoch": 58.653333333333336, "grad_norm": 0.671875, "learning_rate": 9.979260170181521e-05, "loss": 0.3904, "step": 43990 }, { "epoch": 58.666666666666664, "grad_norm": 0.5859375, "learning_rate": 9.979250637722217e-05, "loss": 0.3798, "step": 44000 }, { "epoch": 58.68, "grad_norm": 0.625, "learning_rate": 9.979241103077312e-05, "loss": 0.3703, "step": 44010 }, { "epoch": 58.693333333333335, "grad_norm": 0.6328125, "learning_rate": 9.979231566246811e-05, "loss": 0.3798, "step": 44020 }, { "epoch": 58.70666666666666, "grad_norm": 0.70703125, "learning_rate": 9.979222027230717e-05, "loss": 0.3729, "step": 44030 }, { "epoch": 58.72, "grad_norm": 0.63671875, "learning_rate": 9.979212486029036e-05, "loss": 0.3924, "step": 44040 }, { "epoch": 58.733333333333334, "grad_norm": 0.67578125, "learning_rate": 9.97920294264177e-05, "loss": 0.388, "step": 44050 }, { "epoch": 58.74666666666667, "grad_norm": 0.61328125, "learning_rate": 9.979193397068926e-05, "loss": 0.3912, "step": 44060 }, { "epoch": 58.76, "grad_norm": 0.640625, "learning_rate": 9.979183849310506e-05, "loss": 0.404, "step": 44070 }, { "epoch": 58.77333333333333, "grad_norm": 0.734375, "learning_rate": 9.979174299366514e-05, "loss": 0.3886, "step": 44080 }, { "epoch": 58.78666666666667, "grad_norm": 0.59765625, "learning_rate": 9.979164747236955e-05, "loss": 0.3918, "step": 44090 }, { "epoch": 58.8, "grad_norm": 0.6953125, "learning_rate": 9.979155192921835e-05, "loss": 0.389, "step": 44100 }, { "epoch": 58.81333333333333, "grad_norm": 0.74609375, "learning_rate": 9.979145636421154e-05, "loss": 0.3634, "step": 44110 }, { "epoch": 58.82666666666667, "grad_norm": 0.65625, "learning_rate": 9.979136077734919e-05, "loss": 0.3714, "step": 44120 }, { "epoch": 58.84, "grad_norm": 0.6875, "learning_rate": 9.979126516863135e-05, "loss": 0.3839, "step": 44130 }, { "epoch": 58.85333333333333, "grad_norm": 0.6640625, "learning_rate": 9.979116953805804e-05, "loss": 0.3797, "step": 44140 }, { "epoch": 58.86666666666667, "grad_norm": 0.64453125, "learning_rate": 9.979107388562931e-05, "loss": 0.3847, "step": 44150 }, { "epoch": 58.88, "grad_norm": 0.67578125, "learning_rate": 9.979097821134521e-05, "loss": 0.3654, "step": 44160 }, { "epoch": 58.89333333333333, "grad_norm": 0.61328125, "learning_rate": 9.979088251520576e-05, "loss": 0.3772, "step": 44170 }, { "epoch": 58.906666666666666, "grad_norm": 0.64453125, "learning_rate": 9.979078679721103e-05, "loss": 0.3819, "step": 44180 }, { "epoch": 58.92, "grad_norm": 0.62109375, "learning_rate": 9.979069105736105e-05, "loss": 0.385, "step": 44190 }, { "epoch": 58.93333333333333, "grad_norm": 0.66015625, "learning_rate": 9.979059529565586e-05, "loss": 0.3788, "step": 44200 }, { "epoch": 58.946666666666665, "grad_norm": 0.6328125, "learning_rate": 9.979049951209551e-05, "loss": 0.3799, "step": 44210 }, { "epoch": 58.96, "grad_norm": 0.59765625, "learning_rate": 9.979040370668003e-05, "loss": 0.3774, "step": 44220 }, { "epoch": 58.973333333333336, "grad_norm": 0.78515625, "learning_rate": 9.979030787940946e-05, "loss": 0.4023, "step": 44230 }, { "epoch": 58.986666666666665, "grad_norm": 0.68359375, "learning_rate": 9.979021203028385e-05, "loss": 0.3736, "step": 44240 }, { "epoch": 59.0, "grad_norm": 0.65234375, "learning_rate": 9.979011615930325e-05, "loss": 0.371, "step": 44250 }, { "epoch": 59.0, "eval_loss": 0.42264658212661743, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.2145, "eval_samples_per_second": 1.566, "eval_steps_per_second": 0.098, "step": 44250 }, { "epoch": 59.013333333333335, "grad_norm": 0.74609375, "learning_rate": 9.979002026646768e-05, "loss": 0.388, "step": 44260 }, { "epoch": 59.026666666666664, "grad_norm": 0.6328125, "learning_rate": 9.978992435177721e-05, "loss": 0.4022, "step": 44270 }, { "epoch": 59.04, "grad_norm": 0.578125, "learning_rate": 9.978982841523186e-05, "loss": 0.4158, "step": 44280 }, { "epoch": 59.053333333333335, "grad_norm": 0.67578125, "learning_rate": 9.978973245683168e-05, "loss": 0.4002, "step": 44290 }, { "epoch": 59.06666666666667, "grad_norm": 0.69140625, "learning_rate": 9.978963647657671e-05, "loss": 0.3881, "step": 44300 }, { "epoch": 59.08, "grad_norm": 0.65625, "learning_rate": 9.9789540474467e-05, "loss": 0.3919, "step": 44310 }, { "epoch": 59.093333333333334, "grad_norm": 0.63671875, "learning_rate": 9.97894444505026e-05, "loss": 0.3935, "step": 44320 }, { "epoch": 59.10666666666667, "grad_norm": 0.58984375, "learning_rate": 9.97893484046835e-05, "loss": 0.3812, "step": 44330 }, { "epoch": 59.12, "grad_norm": 0.69921875, "learning_rate": 9.978925233700982e-05, "loss": 0.3848, "step": 44340 }, { "epoch": 59.13333333333333, "grad_norm": 0.609375, "learning_rate": 9.978915624748154e-05, "loss": 0.376, "step": 44350 }, { "epoch": 59.14666666666667, "grad_norm": 0.65625, "learning_rate": 9.978906013609873e-05, "loss": 0.3957, "step": 44360 }, { "epoch": 59.16, "grad_norm": 0.62890625, "learning_rate": 9.978896400286142e-05, "loss": 0.3894, "step": 44370 }, { "epoch": 59.17333333333333, "grad_norm": 0.68359375, "learning_rate": 9.978886784776968e-05, "loss": 0.3846, "step": 44380 }, { "epoch": 59.18666666666667, "grad_norm": 0.62890625, "learning_rate": 9.978877167082353e-05, "loss": 0.3829, "step": 44390 }, { "epoch": 59.2, "grad_norm": 0.66015625, "learning_rate": 9.9788675472023e-05, "loss": 0.3744, "step": 44400 }, { "epoch": 59.21333333333333, "grad_norm": 0.76953125, "learning_rate": 9.978857925136813e-05, "loss": 0.3753, "step": 44410 }, { "epoch": 59.22666666666667, "grad_norm": 0.74609375, "learning_rate": 9.978848300885901e-05, "loss": 0.3869, "step": 44420 }, { "epoch": 59.24, "grad_norm": 0.66796875, "learning_rate": 9.978838674449563e-05, "loss": 0.3735, "step": 44430 }, { "epoch": 59.25333333333333, "grad_norm": 0.62890625, "learning_rate": 9.978829045827806e-05, "loss": 0.3752, "step": 44440 }, { "epoch": 59.266666666666666, "grad_norm": 0.66796875, "learning_rate": 9.978819415020634e-05, "loss": 0.3766, "step": 44450 }, { "epoch": 59.28, "grad_norm": 0.671875, "learning_rate": 9.97880978202805e-05, "loss": 0.4059, "step": 44460 }, { "epoch": 59.29333333333334, "grad_norm": 0.63671875, "learning_rate": 9.978800146850059e-05, "loss": 0.3644, "step": 44470 }, { "epoch": 59.306666666666665, "grad_norm": 0.625, "learning_rate": 9.978790509486666e-05, "loss": 0.3875, "step": 44480 }, { "epoch": 59.32, "grad_norm": 0.5625, "learning_rate": 9.978780869937874e-05, "loss": 0.3901, "step": 44490 }, { "epoch": 59.333333333333336, "grad_norm": 0.69140625, "learning_rate": 9.978771228203687e-05, "loss": 0.3913, "step": 44500 }, { "epoch": 59.346666666666664, "grad_norm": 0.7421875, "learning_rate": 9.97876158428411e-05, "loss": 0.381, "step": 44510 }, { "epoch": 59.36, "grad_norm": 0.76171875, "learning_rate": 9.978751938179147e-05, "loss": 0.3838, "step": 44520 }, { "epoch": 59.373333333333335, "grad_norm": 0.59765625, "learning_rate": 9.978742289888803e-05, "loss": 0.3848, "step": 44530 }, { "epoch": 59.38666666666666, "grad_norm": 0.73828125, "learning_rate": 9.978732639413082e-05, "loss": 0.3739, "step": 44540 }, { "epoch": 59.4, "grad_norm": 0.6796875, "learning_rate": 9.978722986751987e-05, "loss": 0.3822, "step": 44550 }, { "epoch": 59.413333333333334, "grad_norm": 0.67578125, "learning_rate": 9.978713331905523e-05, "loss": 0.3881, "step": 44560 }, { "epoch": 59.42666666666667, "grad_norm": 0.63671875, "learning_rate": 9.978703674873695e-05, "loss": 0.3899, "step": 44570 }, { "epoch": 59.44, "grad_norm": 0.7421875, "learning_rate": 9.978694015656506e-05, "loss": 0.402, "step": 44580 }, { "epoch": 59.45333333333333, "grad_norm": 0.6953125, "learning_rate": 9.97868435425396e-05, "loss": 0.3893, "step": 44590 }, { "epoch": 59.46666666666667, "grad_norm": 0.75, "learning_rate": 9.978674690666063e-05, "loss": 0.3973, "step": 44600 }, { "epoch": 59.48, "grad_norm": 0.71875, "learning_rate": 9.978665024892818e-05, "loss": 0.3796, "step": 44610 }, { "epoch": 59.49333333333333, "grad_norm": 0.66796875, "learning_rate": 9.97865535693423e-05, "loss": 0.3912, "step": 44620 }, { "epoch": 59.50666666666667, "grad_norm": 0.6640625, "learning_rate": 9.978645686790302e-05, "loss": 0.3911, "step": 44630 }, { "epoch": 59.52, "grad_norm": 0.58203125, "learning_rate": 9.978636014461039e-05, "loss": 0.3811, "step": 44640 }, { "epoch": 59.53333333333333, "grad_norm": 0.6328125, "learning_rate": 9.978626339946447e-05, "loss": 0.383, "step": 44650 }, { "epoch": 59.54666666666667, "grad_norm": 0.77734375, "learning_rate": 9.978616663246526e-05, "loss": 0.3843, "step": 44660 }, { "epoch": 59.56, "grad_norm": 0.60546875, "learning_rate": 9.978606984361282e-05, "loss": 0.3788, "step": 44670 }, { "epoch": 59.57333333333333, "grad_norm": 0.6796875, "learning_rate": 9.978597303290723e-05, "loss": 0.3827, "step": 44680 }, { "epoch": 59.586666666666666, "grad_norm": 0.62109375, "learning_rate": 9.978587620034849e-05, "loss": 0.3725, "step": 44690 }, { "epoch": 59.6, "grad_norm": 0.65625, "learning_rate": 9.978577934593664e-05, "loss": 0.3737, "step": 44700 }, { "epoch": 59.61333333333333, "grad_norm": 0.59375, "learning_rate": 9.978568246967177e-05, "loss": 0.3653, "step": 44710 }, { "epoch": 59.626666666666665, "grad_norm": 0.56640625, "learning_rate": 9.978558557155386e-05, "loss": 0.3702, "step": 44720 }, { "epoch": 59.64, "grad_norm": 0.7265625, "learning_rate": 9.978548865158299e-05, "loss": 0.3808, "step": 44730 }, { "epoch": 59.653333333333336, "grad_norm": 0.7109375, "learning_rate": 9.97853917097592e-05, "loss": 0.3906, "step": 44740 }, { "epoch": 59.666666666666664, "grad_norm": 0.6171875, "learning_rate": 9.978529474608253e-05, "loss": 0.38, "step": 44750 }, { "epoch": 59.68, "grad_norm": 0.65234375, "learning_rate": 9.978519776055302e-05, "loss": 0.3697, "step": 44760 }, { "epoch": 59.693333333333335, "grad_norm": 0.59765625, "learning_rate": 9.978510075317069e-05, "loss": 0.3803, "step": 44770 }, { "epoch": 59.70666666666666, "grad_norm": 0.71875, "learning_rate": 9.978500372393562e-05, "loss": 0.3714, "step": 44780 }, { "epoch": 59.72, "grad_norm": 0.73046875, "learning_rate": 9.978490667284785e-05, "loss": 0.3933, "step": 44790 }, { "epoch": 59.733333333333334, "grad_norm": 0.65625, "learning_rate": 9.97848095999074e-05, "loss": 0.3883, "step": 44800 }, { "epoch": 59.74666666666667, "grad_norm": 0.640625, "learning_rate": 9.978471250511432e-05, "loss": 0.3908, "step": 44810 }, { "epoch": 59.76, "grad_norm": 0.75390625, "learning_rate": 9.978461538846866e-05, "loss": 0.4046, "step": 44820 }, { "epoch": 59.77333333333333, "grad_norm": 0.75, "learning_rate": 9.978451824997046e-05, "loss": 0.3886, "step": 44830 }, { "epoch": 59.78666666666667, "grad_norm": 0.61328125, "learning_rate": 9.978442108961976e-05, "loss": 0.3906, "step": 44840 }, { "epoch": 59.8, "grad_norm": 0.69921875, "learning_rate": 9.978432390741659e-05, "loss": 0.3895, "step": 44850 }, { "epoch": 59.81333333333333, "grad_norm": 0.72265625, "learning_rate": 9.978422670336103e-05, "loss": 0.3634, "step": 44860 }, { "epoch": 59.82666666666667, "grad_norm": 0.61328125, "learning_rate": 9.978412947745308e-05, "loss": 0.3712, "step": 44870 }, { "epoch": 59.84, "grad_norm": 0.72265625, "learning_rate": 9.97840322296928e-05, "loss": 0.3838, "step": 44880 }, { "epoch": 59.85333333333333, "grad_norm": 0.71484375, "learning_rate": 9.978393496008025e-05, "loss": 0.3801, "step": 44890 }, { "epoch": 59.86666666666667, "grad_norm": 0.71484375, "learning_rate": 9.978383766861544e-05, "loss": 0.3843, "step": 44900 }, { "epoch": 59.88, "grad_norm": 0.71484375, "learning_rate": 9.978374035529843e-05, "loss": 0.3647, "step": 44910 }, { "epoch": 59.89333333333333, "grad_norm": 0.59765625, "learning_rate": 9.978364302012928e-05, "loss": 0.3767, "step": 44920 }, { "epoch": 59.906666666666666, "grad_norm": 0.63671875, "learning_rate": 9.9783545663108e-05, "loss": 0.3829, "step": 44930 }, { "epoch": 59.92, "grad_norm": 0.703125, "learning_rate": 9.978344828423465e-05, "loss": 0.3843, "step": 44940 }, { "epoch": 59.93333333333333, "grad_norm": 0.65234375, "learning_rate": 9.978335088350928e-05, "loss": 0.379, "step": 44950 }, { "epoch": 59.946666666666665, "grad_norm": 0.640625, "learning_rate": 9.978325346093192e-05, "loss": 0.3792, "step": 44960 }, { "epoch": 59.96, "grad_norm": 0.6328125, "learning_rate": 9.97831560165026e-05, "loss": 0.3777, "step": 44970 }, { "epoch": 59.973333333333336, "grad_norm": 0.8203125, "learning_rate": 9.978305855022138e-05, "loss": 0.4015, "step": 44980 }, { "epoch": 59.986666666666665, "grad_norm": 0.68359375, "learning_rate": 9.978296106208832e-05, "loss": 0.3725, "step": 44990 }, { "epoch": 60.0, "grad_norm": 0.7109375, "learning_rate": 9.978286355210344e-05, "loss": 0.3715, "step": 45000 }, { "epoch": 60.0, "eval_loss": 0.42401763796806335, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.1238, "eval_samples_per_second": 1.58, "eval_steps_per_second": 0.099, "step": 45000 }, { "epoch": 60.013333333333335, "grad_norm": 0.73046875, "learning_rate": 9.978276602026678e-05, "loss": 0.3885, "step": 45010 }, { "epoch": 60.026666666666664, "grad_norm": 0.625, "learning_rate": 9.97826684665784e-05, "loss": 0.4016, "step": 45020 }, { "epoch": 60.04, "grad_norm": 0.58203125, "learning_rate": 9.978257089103831e-05, "loss": 0.4147, "step": 45030 }, { "epoch": 60.053333333333335, "grad_norm": 0.6171875, "learning_rate": 9.978247329364661e-05, "loss": 0.3993, "step": 45040 }, { "epoch": 60.06666666666667, "grad_norm": 0.7265625, "learning_rate": 9.978237567440328e-05, "loss": 0.3868, "step": 45050 }, { "epoch": 60.08, "grad_norm": 0.71875, "learning_rate": 9.97822780333084e-05, "loss": 0.3911, "step": 45060 }, { "epoch": 60.093333333333334, "grad_norm": 1.640625, "learning_rate": 9.9782180370362e-05, "loss": 0.3929, "step": 45070 }, { "epoch": 60.10666666666667, "grad_norm": 0.66015625, "learning_rate": 9.978208268556413e-05, "loss": 0.382, "step": 45080 }, { "epoch": 60.12, "grad_norm": 0.73046875, "learning_rate": 9.978198497891484e-05, "loss": 0.3843, "step": 45090 }, { "epoch": 60.13333333333333, "grad_norm": 0.6640625, "learning_rate": 9.978188725041416e-05, "loss": 0.3756, "step": 45100 }, { "epoch": 60.14666666666667, "grad_norm": 0.66015625, "learning_rate": 9.978178950006211e-05, "loss": 0.3946, "step": 45110 }, { "epoch": 60.16, "grad_norm": 0.61328125, "learning_rate": 9.978169172785879e-05, "loss": 0.3894, "step": 45120 }, { "epoch": 60.17333333333333, "grad_norm": 0.6953125, "learning_rate": 9.97815939338042e-05, "loss": 0.3841, "step": 45130 }, { "epoch": 60.18666666666667, "grad_norm": 0.65625, "learning_rate": 9.978149611789839e-05, "loss": 0.3822, "step": 45140 }, { "epoch": 60.2, "grad_norm": 0.71875, "learning_rate": 9.978139828014141e-05, "loss": 0.374, "step": 45150 }, { "epoch": 60.21333333333333, "grad_norm": 0.6796875, "learning_rate": 9.978130042053331e-05, "loss": 0.375, "step": 45160 }, { "epoch": 60.22666666666667, "grad_norm": 0.73046875, "learning_rate": 9.978120253907411e-05, "loss": 0.3859, "step": 45170 }, { "epoch": 60.24, "grad_norm": 0.65234375, "learning_rate": 9.978110463576387e-05, "loss": 0.3723, "step": 45180 }, { "epoch": 60.25333333333333, "grad_norm": 0.67578125, "learning_rate": 9.978100671060263e-05, "loss": 0.3742, "step": 45190 }, { "epoch": 60.266666666666666, "grad_norm": 0.66796875, "learning_rate": 9.978090876359043e-05, "loss": 0.3763, "step": 45200 }, { "epoch": 60.28, "grad_norm": 0.63671875, "learning_rate": 9.978081079472732e-05, "loss": 0.4061, "step": 45210 }, { "epoch": 60.29333333333334, "grad_norm": 0.68359375, "learning_rate": 9.978071280401333e-05, "loss": 0.3636, "step": 45220 }, { "epoch": 60.306666666666665, "grad_norm": 0.62109375, "learning_rate": 9.978061479144851e-05, "loss": 0.3881, "step": 45230 }, { "epoch": 60.32, "grad_norm": 0.59765625, "learning_rate": 9.978051675703291e-05, "loss": 0.3894, "step": 45240 }, { "epoch": 60.333333333333336, "grad_norm": 0.73046875, "learning_rate": 9.978041870076657e-05, "loss": 0.3893, "step": 45250 }, { "epoch": 60.346666666666664, "grad_norm": 0.7578125, "learning_rate": 9.978032062264952e-05, "loss": 0.3816, "step": 45260 }, { "epoch": 60.36, "grad_norm": 0.66796875, "learning_rate": 9.978022252268184e-05, "loss": 0.3827, "step": 45270 }, { "epoch": 60.373333333333335, "grad_norm": 0.54296875, "learning_rate": 9.978012440086352e-05, "loss": 0.3838, "step": 45280 }, { "epoch": 60.38666666666666, "grad_norm": 0.74609375, "learning_rate": 9.978002625719463e-05, "loss": 0.3738, "step": 45290 }, { "epoch": 60.4, "grad_norm": 0.703125, "learning_rate": 9.977992809167523e-05, "loss": 0.3825, "step": 45300 }, { "epoch": 60.413333333333334, "grad_norm": 0.640625, "learning_rate": 9.977982990430532e-05, "loss": 0.3871, "step": 45310 }, { "epoch": 60.42666666666667, "grad_norm": 0.67578125, "learning_rate": 9.977973169508498e-05, "loss": 0.3895, "step": 45320 }, { "epoch": 60.44, "grad_norm": 0.73828125, "learning_rate": 9.977963346401426e-05, "loss": 0.4025, "step": 45330 }, { "epoch": 60.45333333333333, "grad_norm": 0.74609375, "learning_rate": 9.977953521109317e-05, "loss": 0.3887, "step": 45340 }, { "epoch": 60.46666666666667, "grad_norm": 0.75, "learning_rate": 9.977943693632177e-05, "loss": 0.3979, "step": 45350 }, { "epoch": 60.48, "grad_norm": 0.671875, "learning_rate": 9.97793386397001e-05, "loss": 0.3792, "step": 45360 }, { "epoch": 60.49333333333333, "grad_norm": 0.63671875, "learning_rate": 9.977924032122819e-05, "loss": 0.3906, "step": 45370 }, { "epoch": 60.50666666666667, "grad_norm": 0.7578125, "learning_rate": 9.977914198090613e-05, "loss": 0.3902, "step": 45380 }, { "epoch": 60.52, "grad_norm": 0.671875, "learning_rate": 9.977904361873389e-05, "loss": 0.3807, "step": 45390 }, { "epoch": 60.53333333333333, "grad_norm": 0.65234375, "learning_rate": 9.977894523471158e-05, "loss": 0.3833, "step": 45400 }, { "epoch": 60.54666666666667, "grad_norm": 0.70703125, "learning_rate": 9.977884682883922e-05, "loss": 0.3842, "step": 45410 }, { "epoch": 60.56, "grad_norm": 0.625, "learning_rate": 9.977874840111684e-05, "loss": 0.3787, "step": 45420 }, { "epoch": 60.57333333333333, "grad_norm": 0.76171875, "learning_rate": 9.97786499515445e-05, "loss": 0.3825, "step": 45430 }, { "epoch": 60.586666666666666, "grad_norm": 0.640625, "learning_rate": 9.977855148012224e-05, "loss": 0.3719, "step": 45440 }, { "epoch": 60.6, "grad_norm": 0.671875, "learning_rate": 9.977845298685008e-05, "loss": 0.3732, "step": 45450 }, { "epoch": 60.61333333333333, "grad_norm": 0.56640625, "learning_rate": 9.97783544717281e-05, "loss": 0.3651, "step": 45460 }, { "epoch": 60.626666666666665, "grad_norm": 0.6015625, "learning_rate": 9.977825593475632e-05, "loss": 0.3694, "step": 45470 }, { "epoch": 60.64, "grad_norm": 0.68359375, "learning_rate": 9.977815737593479e-05, "loss": 0.3803, "step": 45480 }, { "epoch": 60.653333333333336, "grad_norm": 0.734375, "learning_rate": 9.977805879526354e-05, "loss": 0.3902, "step": 45490 }, { "epoch": 60.666666666666664, "grad_norm": 0.578125, "learning_rate": 9.977796019274265e-05, "loss": 0.3792, "step": 45500 }, { "epoch": 60.68, "grad_norm": 0.671875, "learning_rate": 9.977786156837212e-05, "loss": 0.3688, "step": 45510 }, { "epoch": 60.693333333333335, "grad_norm": 0.5859375, "learning_rate": 9.977776292215202e-05, "loss": 0.3794, "step": 45520 }, { "epoch": 60.70666666666666, "grad_norm": 0.76171875, "learning_rate": 9.977766425408239e-05, "loss": 0.3719, "step": 45530 }, { "epoch": 60.72, "grad_norm": 0.72265625, "learning_rate": 9.977756556416327e-05, "loss": 0.3929, "step": 45540 }, { "epoch": 60.733333333333334, "grad_norm": 0.640625, "learning_rate": 9.97774668523947e-05, "loss": 0.3872, "step": 45550 }, { "epoch": 60.74666666666667, "grad_norm": 0.65234375, "learning_rate": 9.977736811877673e-05, "loss": 0.3905, "step": 45560 }, { "epoch": 60.76, "grad_norm": 0.703125, "learning_rate": 9.97772693633094e-05, "loss": 0.4042, "step": 45570 }, { "epoch": 60.77333333333333, "grad_norm": 0.734375, "learning_rate": 9.977717058599274e-05, "loss": 0.3885, "step": 45580 }, { "epoch": 60.78666666666667, "grad_norm": 0.6640625, "learning_rate": 9.977707178682681e-05, "loss": 0.3899, "step": 45590 }, { "epoch": 60.8, "grad_norm": 0.6328125, "learning_rate": 9.977697296581165e-05, "loss": 0.3877, "step": 45600 }, { "epoch": 60.81333333333333, "grad_norm": 0.7734375, "learning_rate": 9.977687412294731e-05, "loss": 0.3633, "step": 45610 }, { "epoch": 60.82666666666667, "grad_norm": 0.6484375, "learning_rate": 9.977677525823382e-05, "loss": 0.3708, "step": 45620 }, { "epoch": 60.84, "grad_norm": 0.69921875, "learning_rate": 9.977667637167122e-05, "loss": 0.3831, "step": 45630 }, { "epoch": 60.85333333333333, "grad_norm": 0.6640625, "learning_rate": 9.977657746325958e-05, "loss": 0.379, "step": 45640 }, { "epoch": 60.86666666666667, "grad_norm": 0.671875, "learning_rate": 9.977647853299893e-05, "loss": 0.3833, "step": 45650 }, { "epoch": 60.88, "grad_norm": 0.69140625, "learning_rate": 9.97763795808893e-05, "loss": 0.365, "step": 45660 }, { "epoch": 60.89333333333333, "grad_norm": 0.70703125, "learning_rate": 9.977628060693073e-05, "loss": 0.3764, "step": 45670 }, { "epoch": 60.906666666666666, "grad_norm": 0.6953125, "learning_rate": 9.97761816111233e-05, "loss": 0.3821, "step": 45680 }, { "epoch": 60.92, "grad_norm": 0.78125, "learning_rate": 9.977608259346702e-05, "loss": 0.3841, "step": 45690 }, { "epoch": 60.93333333333333, "grad_norm": 0.91796875, "learning_rate": 9.977598355396193e-05, "loss": 0.3785, "step": 45700 }, { "epoch": 60.946666666666665, "grad_norm": 1.1796875, "learning_rate": 9.97758844926081e-05, "loss": 0.3791, "step": 45710 }, { "epoch": 60.96, "grad_norm": 1.40625, "learning_rate": 9.977578540940558e-05, "loss": 0.3778, "step": 45720 }, { "epoch": 60.973333333333336, "grad_norm": 0.97265625, "learning_rate": 9.977568630435437e-05, "loss": 0.4013, "step": 45730 }, { "epoch": 60.986666666666665, "grad_norm": 0.6640625, "learning_rate": 9.977558717745454e-05, "loss": 0.3718, "step": 45740 }, { "epoch": 61.0, "grad_norm": 0.65234375, "learning_rate": 9.977548802870614e-05, "loss": 0.3702, "step": 45750 }, { "epoch": 61.0, "eval_loss": 0.42224517464637756, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.0628, "eval_samples_per_second": 1.326, "eval_steps_per_second": 0.083, "step": 45750 }, { "epoch": 61.013333333333335, "grad_norm": 0.7109375, "learning_rate": 9.977538885810919e-05, "loss": 0.3882, "step": 45760 }, { "epoch": 61.026666666666664, "grad_norm": 0.6484375, "learning_rate": 9.977528966566376e-05, "loss": 0.4008, "step": 45770 }, { "epoch": 61.04, "grad_norm": 0.68359375, "learning_rate": 9.977519045136987e-05, "loss": 0.4148, "step": 45780 }, { "epoch": 61.053333333333335, "grad_norm": 0.70703125, "learning_rate": 9.977509121522758e-05, "loss": 0.3992, "step": 45790 }, { "epoch": 61.06666666666667, "grad_norm": 0.75, "learning_rate": 9.977499195723693e-05, "loss": 0.388, "step": 45800 }, { "epoch": 61.08, "grad_norm": 0.65625, "learning_rate": 9.977489267739797e-05, "loss": 0.3909, "step": 45810 }, { "epoch": 61.093333333333334, "grad_norm": 0.7265625, "learning_rate": 9.977479337571072e-05, "loss": 0.3922, "step": 45820 }, { "epoch": 61.10666666666667, "grad_norm": 0.64453125, "learning_rate": 9.977469405217525e-05, "loss": 0.3806, "step": 45830 }, { "epoch": 61.12, "grad_norm": 0.734375, "learning_rate": 9.97745947067916e-05, "loss": 0.3842, "step": 45840 }, { "epoch": 61.13333333333333, "grad_norm": 0.61328125, "learning_rate": 9.977449533955979e-05, "loss": 0.3751, "step": 45850 }, { "epoch": 61.14666666666667, "grad_norm": 0.63671875, "learning_rate": 9.977439595047988e-05, "loss": 0.394, "step": 45860 }, { "epoch": 61.16, "grad_norm": 0.6171875, "learning_rate": 9.977429653955193e-05, "loss": 0.3884, "step": 45870 }, { "epoch": 61.17333333333333, "grad_norm": 0.71875, "learning_rate": 9.977419710677595e-05, "loss": 0.384, "step": 45880 }, { "epoch": 61.18666666666667, "grad_norm": 0.6640625, "learning_rate": 9.977409765215203e-05, "loss": 0.3805, "step": 45890 }, { "epoch": 61.2, "grad_norm": 0.6484375, "learning_rate": 9.977399817568015e-05, "loss": 0.3729, "step": 45900 }, { "epoch": 61.21333333333333, "grad_norm": 0.71484375, "learning_rate": 9.97738986773604e-05, "loss": 0.3751, "step": 45910 }, { "epoch": 61.22666666666667, "grad_norm": 0.703125, "learning_rate": 9.977379915719282e-05, "loss": 0.3852, "step": 45920 }, { "epoch": 61.24, "grad_norm": 0.67578125, "learning_rate": 9.977369961517744e-05, "loss": 0.3712, "step": 45930 }, { "epoch": 61.25333333333333, "grad_norm": 0.73828125, "learning_rate": 9.977360005131431e-05, "loss": 0.3737, "step": 45940 }, { "epoch": 61.266666666666666, "grad_norm": 0.65234375, "learning_rate": 9.977350046560347e-05, "loss": 0.3759, "step": 45950 }, { "epoch": 61.28, "grad_norm": 0.7578125, "learning_rate": 9.977340085804497e-05, "loss": 0.4058, "step": 45960 }, { "epoch": 61.29333333333334, "grad_norm": 0.671875, "learning_rate": 9.977330122863886e-05, "loss": 0.3632, "step": 45970 }, { "epoch": 61.306666666666665, "grad_norm": 0.59765625, "learning_rate": 9.977320157738516e-05, "loss": 0.3863, "step": 45980 }, { "epoch": 61.32, "grad_norm": 0.6171875, "learning_rate": 9.977310190428394e-05, "loss": 0.3892, "step": 45990 }, { "epoch": 61.333333333333336, "grad_norm": 0.71875, "learning_rate": 9.977300220933524e-05, "loss": 0.3896, "step": 46000 }, { "epoch": 61.346666666666664, "grad_norm": 0.71875, "learning_rate": 9.977290249253907e-05, "loss": 0.3806, "step": 46010 }, { "epoch": 61.36, "grad_norm": 0.6875, "learning_rate": 9.977280275389551e-05, "loss": 0.3809, "step": 46020 }, { "epoch": 61.373333333333335, "grad_norm": 0.61328125, "learning_rate": 9.977270299340458e-05, "loss": 0.3833, "step": 46030 }, { "epoch": 61.38666666666666, "grad_norm": 0.7734375, "learning_rate": 9.977260321106636e-05, "loss": 0.3728, "step": 46040 }, { "epoch": 61.4, "grad_norm": 0.671875, "learning_rate": 9.977250340688087e-05, "loss": 0.3823, "step": 46050 }, { "epoch": 61.413333333333334, "grad_norm": 0.63671875, "learning_rate": 9.977240358084814e-05, "loss": 0.3865, "step": 46060 }, { "epoch": 61.42666666666667, "grad_norm": 0.67578125, "learning_rate": 9.977230373296823e-05, "loss": 0.3885, "step": 46070 }, { "epoch": 61.44, "grad_norm": 0.7109375, "learning_rate": 9.977220386324118e-05, "loss": 0.4017, "step": 46080 }, { "epoch": 61.45333333333333, "grad_norm": 0.7265625, "learning_rate": 9.977210397166706e-05, "loss": 0.3887, "step": 46090 }, { "epoch": 61.46666666666667, "grad_norm": 0.6484375, "learning_rate": 9.977200405824587e-05, "loss": 0.3967, "step": 46100 }, { "epoch": 61.48, "grad_norm": 0.69140625, "learning_rate": 9.977190412297767e-05, "loss": 0.3789, "step": 46110 }, { "epoch": 61.49333333333333, "grad_norm": 0.6640625, "learning_rate": 9.977180416586251e-05, "loss": 0.3908, "step": 46120 }, { "epoch": 61.50666666666667, "grad_norm": 0.703125, "learning_rate": 9.977170418690045e-05, "loss": 0.3901, "step": 46130 }, { "epoch": 61.52, "grad_norm": 0.5859375, "learning_rate": 9.977160418609149e-05, "loss": 0.3803, "step": 46140 }, { "epoch": 61.53333333333333, "grad_norm": 0.6640625, "learning_rate": 9.977150416343571e-05, "loss": 0.3824, "step": 46150 }, { "epoch": 61.54666666666667, "grad_norm": 0.70703125, "learning_rate": 9.977140411893316e-05, "loss": 0.384, "step": 46160 }, { "epoch": 61.56, "grad_norm": 0.56640625, "learning_rate": 9.977130405258384e-05, "loss": 0.3781, "step": 46170 }, { "epoch": 61.57333333333333, "grad_norm": 0.69921875, "learning_rate": 9.977120396438782e-05, "loss": 0.3822, "step": 46180 }, { "epoch": 61.586666666666666, "grad_norm": 0.65625, "learning_rate": 9.977110385434516e-05, "loss": 0.3723, "step": 46190 }, { "epoch": 61.6, "grad_norm": 0.62109375, "learning_rate": 9.977100372245589e-05, "loss": 0.3732, "step": 46200 }, { "epoch": 61.61333333333333, "grad_norm": 0.58203125, "learning_rate": 9.977090356872005e-05, "loss": 0.3651, "step": 46210 }, { "epoch": 61.626666666666665, "grad_norm": 0.578125, "learning_rate": 9.977080339313769e-05, "loss": 0.3684, "step": 46220 }, { "epoch": 61.64, "grad_norm": 0.703125, "learning_rate": 9.977070319570883e-05, "loss": 0.3796, "step": 46230 }, { "epoch": 61.653333333333336, "grad_norm": 0.671875, "learning_rate": 9.977060297643356e-05, "loss": 0.39, "step": 46240 }, { "epoch": 61.666666666666664, "grad_norm": 0.62109375, "learning_rate": 9.977050273531189e-05, "loss": 0.3789, "step": 46250 }, { "epoch": 61.68, "grad_norm": 0.65234375, "learning_rate": 9.977040247234387e-05, "loss": 0.3697, "step": 46260 }, { "epoch": 61.693333333333335, "grad_norm": 0.56640625, "learning_rate": 9.977030218752955e-05, "loss": 0.3785, "step": 46270 }, { "epoch": 61.70666666666666, "grad_norm": 0.74609375, "learning_rate": 9.977020188086896e-05, "loss": 0.3702, "step": 46280 }, { "epoch": 61.72, "grad_norm": 0.67578125, "learning_rate": 9.977010155236217e-05, "loss": 0.3928, "step": 46290 }, { "epoch": 61.733333333333334, "grad_norm": 0.70703125, "learning_rate": 9.977000120200921e-05, "loss": 0.3873, "step": 46300 }, { "epoch": 61.74666666666667, "grad_norm": 0.65625, "learning_rate": 9.97699008298101e-05, "loss": 0.3904, "step": 46310 }, { "epoch": 61.76, "grad_norm": 0.69921875, "learning_rate": 9.976980043576494e-05, "loss": 0.4023, "step": 46320 }, { "epoch": 61.77333333333333, "grad_norm": 0.703125, "learning_rate": 9.976970001987372e-05, "loss": 0.3884, "step": 46330 }, { "epoch": 61.78666666666667, "grad_norm": 0.640625, "learning_rate": 9.97695995821365e-05, "loss": 0.3896, "step": 46340 }, { "epoch": 61.8, "grad_norm": 0.703125, "learning_rate": 9.976949912255335e-05, "loss": 0.3876, "step": 46350 }, { "epoch": 61.81333333333333, "grad_norm": 0.8515625, "learning_rate": 9.976939864112427e-05, "loss": 0.362, "step": 46360 }, { "epoch": 61.82666666666667, "grad_norm": 0.671875, "learning_rate": 9.976929813784934e-05, "loss": 0.3711, "step": 46370 }, { "epoch": 61.84, "grad_norm": 0.66796875, "learning_rate": 9.976919761272859e-05, "loss": 0.3831, "step": 46380 }, { "epoch": 61.85333333333333, "grad_norm": 0.65625, "learning_rate": 9.976909706576207e-05, "loss": 0.3786, "step": 46390 }, { "epoch": 61.86666666666667, "grad_norm": 0.6875, "learning_rate": 9.976899649694981e-05, "loss": 0.3831, "step": 46400 }, { "epoch": 61.88, "grad_norm": 0.6328125, "learning_rate": 9.976889590629189e-05, "loss": 0.3638, "step": 46410 }, { "epoch": 61.89333333333333, "grad_norm": 0.6171875, "learning_rate": 9.976879529378829e-05, "loss": 0.3764, "step": 46420 }, { "epoch": 61.906666666666666, "grad_norm": 0.66015625, "learning_rate": 9.976869465943913e-05, "loss": 0.3823, "step": 46430 }, { "epoch": 61.92, "grad_norm": 0.6484375, "learning_rate": 9.976859400324439e-05, "loss": 0.3845, "step": 46440 }, { "epoch": 61.93333333333333, "grad_norm": 0.59375, "learning_rate": 9.976849332520414e-05, "loss": 0.3793, "step": 46450 }, { "epoch": 61.946666666666665, "grad_norm": 0.64453125, "learning_rate": 9.976839262531843e-05, "loss": 0.3784, "step": 46460 }, { "epoch": 61.96, "grad_norm": 0.59765625, "learning_rate": 9.976829190358729e-05, "loss": 0.3769, "step": 46470 }, { "epoch": 61.973333333333336, "grad_norm": 0.85546875, "learning_rate": 9.976819116001079e-05, "loss": 0.4012, "step": 46480 }, { "epoch": 61.986666666666665, "grad_norm": 0.68359375, "learning_rate": 9.976809039458895e-05, "loss": 0.3724, "step": 46490 }, { "epoch": 62.0, "grad_norm": 0.6875, "learning_rate": 9.976798960732184e-05, "loss": 0.3703, "step": 46500 }, { "epoch": 62.0, "eval_loss": 0.4245700538158417, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6012, "eval_samples_per_second": 1.509, "eval_steps_per_second": 0.094, "step": 46500 }, { "epoch": 62.013333333333335, "grad_norm": 0.71484375, "learning_rate": 9.976788879820945e-05, "loss": 0.3874, "step": 46510 }, { "epoch": 62.026666666666664, "grad_norm": 0.66015625, "learning_rate": 9.976778796725188e-05, "loss": 0.4014, "step": 46520 }, { "epoch": 62.04, "grad_norm": 0.64453125, "learning_rate": 9.976768711444916e-05, "loss": 0.4137, "step": 46530 }, { "epoch": 62.053333333333335, "grad_norm": 0.7265625, "learning_rate": 9.976758623980131e-05, "loss": 0.3992, "step": 46540 }, { "epoch": 62.06666666666667, "grad_norm": 0.77734375, "learning_rate": 9.976748534330841e-05, "loss": 0.3864, "step": 46550 }, { "epoch": 62.08, "grad_norm": 0.66796875, "learning_rate": 9.976738442497049e-05, "loss": 0.3905, "step": 46560 }, { "epoch": 62.093333333333334, "grad_norm": 0.6953125, "learning_rate": 9.976728348478757e-05, "loss": 0.3919, "step": 46570 }, { "epoch": 62.10666666666667, "grad_norm": 0.60546875, "learning_rate": 9.976718252275973e-05, "loss": 0.3805, "step": 46580 }, { "epoch": 62.12, "grad_norm": 0.69140625, "learning_rate": 9.9767081538887e-05, "loss": 0.3831, "step": 46590 }, { "epoch": 62.13333333333333, "grad_norm": 0.6796875, "learning_rate": 9.976698053316944e-05, "loss": 0.3757, "step": 46600 }, { "epoch": 62.14666666666667, "grad_norm": 0.64453125, "learning_rate": 9.976687950560705e-05, "loss": 0.3951, "step": 46610 }, { "epoch": 62.16, "grad_norm": 0.64453125, "learning_rate": 9.976677845619991e-05, "loss": 0.3888, "step": 46620 }, { "epoch": 62.17333333333333, "grad_norm": 0.73046875, "learning_rate": 9.976667738494807e-05, "loss": 0.3834, "step": 46630 }, { "epoch": 62.18666666666667, "grad_norm": 0.66015625, "learning_rate": 9.976657629185155e-05, "loss": 0.3821, "step": 46640 }, { "epoch": 62.2, "grad_norm": 0.7265625, "learning_rate": 9.976647517691041e-05, "loss": 0.3739, "step": 46650 }, { "epoch": 62.21333333333333, "grad_norm": 0.69921875, "learning_rate": 9.97663740401247e-05, "loss": 0.3741, "step": 46660 }, { "epoch": 62.22666666666667, "grad_norm": 0.69140625, "learning_rate": 9.976627288149444e-05, "loss": 0.3855, "step": 46670 }, { "epoch": 62.24, "grad_norm": 0.71484375, "learning_rate": 9.97661717010197e-05, "loss": 0.3717, "step": 46680 }, { "epoch": 62.25333333333333, "grad_norm": 0.69140625, "learning_rate": 9.97660704987005e-05, "loss": 0.3735, "step": 46690 }, { "epoch": 62.266666666666666, "grad_norm": 0.62890625, "learning_rate": 9.976596927453691e-05, "loss": 0.3762, "step": 46700 }, { "epoch": 62.28, "grad_norm": 0.65234375, "learning_rate": 9.976586802852897e-05, "loss": 0.4054, "step": 46710 }, { "epoch": 62.29333333333334, "grad_norm": 0.6328125, "learning_rate": 9.97657667606767e-05, "loss": 0.3628, "step": 46720 }, { "epoch": 62.306666666666665, "grad_norm": 0.59375, "learning_rate": 9.976566547098018e-05, "loss": 0.3864, "step": 46730 }, { "epoch": 62.32, "grad_norm": 0.60546875, "learning_rate": 9.976556415943941e-05, "loss": 0.3886, "step": 46740 }, { "epoch": 62.333333333333336, "grad_norm": 0.67578125, "learning_rate": 9.976546282605448e-05, "loss": 0.3902, "step": 46750 }, { "epoch": 62.346666666666664, "grad_norm": 0.8046875, "learning_rate": 9.976536147082542e-05, "loss": 0.3799, "step": 46760 }, { "epoch": 62.36, "grad_norm": 0.703125, "learning_rate": 9.976526009375226e-05, "loss": 0.3816, "step": 46770 }, { "epoch": 62.373333333333335, "grad_norm": 0.58203125, "learning_rate": 9.976515869483504e-05, "loss": 0.3831, "step": 46780 }, { "epoch": 62.38666666666666, "grad_norm": 0.73828125, "learning_rate": 9.976505727407383e-05, "loss": 0.3725, "step": 46790 }, { "epoch": 62.4, "grad_norm": 0.73828125, "learning_rate": 9.976495583146868e-05, "loss": 0.3817, "step": 46800 }, { "epoch": 62.413333333333334, "grad_norm": 0.6484375, "learning_rate": 9.97648543670196e-05, "loss": 0.386, "step": 46810 }, { "epoch": 62.42666666666667, "grad_norm": 0.6484375, "learning_rate": 9.976475288072665e-05, "loss": 0.3883, "step": 46820 }, { "epoch": 62.44, "grad_norm": 0.68359375, "learning_rate": 9.976465137258987e-05, "loss": 0.4016, "step": 46830 }, { "epoch": 62.45333333333333, "grad_norm": 0.6953125, "learning_rate": 9.976454984260934e-05, "loss": 0.3882, "step": 46840 }, { "epoch": 62.46666666666667, "grad_norm": 0.703125, "learning_rate": 9.976444829078506e-05, "loss": 0.3968, "step": 46850 }, { "epoch": 62.48, "grad_norm": 0.62109375, "learning_rate": 9.976434671711708e-05, "loss": 0.3789, "step": 46860 }, { "epoch": 62.49333333333333, "grad_norm": 0.671875, "learning_rate": 9.976424512160547e-05, "loss": 0.3905, "step": 46870 }, { "epoch": 62.50666666666667, "grad_norm": 0.671875, "learning_rate": 9.976414350425025e-05, "loss": 0.3894, "step": 46880 }, { "epoch": 62.52, "grad_norm": 0.62109375, "learning_rate": 9.976404186505148e-05, "loss": 0.3801, "step": 46890 }, { "epoch": 62.53333333333333, "grad_norm": 0.6484375, "learning_rate": 9.976394020400918e-05, "loss": 0.3823, "step": 46900 }, { "epoch": 62.54666666666667, "grad_norm": 0.74609375, "learning_rate": 9.976383852112344e-05, "loss": 0.3829, "step": 46910 }, { "epoch": 62.56, "grad_norm": 0.6328125, "learning_rate": 9.976373681639427e-05, "loss": 0.378, "step": 46920 }, { "epoch": 62.57333333333333, "grad_norm": 0.76953125, "learning_rate": 9.976363508982172e-05, "loss": 0.3829, "step": 46930 }, { "epoch": 62.586666666666666, "grad_norm": 0.609375, "learning_rate": 9.976353334140584e-05, "loss": 0.3722, "step": 46940 }, { "epoch": 62.6, "grad_norm": 0.640625, "learning_rate": 9.976343157114667e-05, "loss": 0.3733, "step": 46950 }, { "epoch": 62.61333333333333, "grad_norm": 0.671875, "learning_rate": 9.976332977904426e-05, "loss": 0.364, "step": 46960 }, { "epoch": 62.626666666666665, "grad_norm": 0.59765625, "learning_rate": 9.976322796509863e-05, "loss": 0.3693, "step": 46970 }, { "epoch": 62.64, "grad_norm": 0.66796875, "learning_rate": 9.976312612930986e-05, "loss": 0.379, "step": 46980 }, { "epoch": 62.653333333333336, "grad_norm": 0.6953125, "learning_rate": 9.9763024271678e-05, "loss": 0.3895, "step": 46990 }, { "epoch": 62.666666666666664, "grad_norm": 0.65234375, "learning_rate": 9.976292239220305e-05, "loss": 0.3777, "step": 47000 }, { "epoch": 62.68, "grad_norm": 0.69921875, "learning_rate": 9.976282049088508e-05, "loss": 0.369, "step": 47010 }, { "epoch": 62.693333333333335, "grad_norm": 0.6328125, "learning_rate": 9.976271856772416e-05, "loss": 0.3785, "step": 47020 }, { "epoch": 62.70666666666666, "grad_norm": 0.76953125, "learning_rate": 9.976261662272029e-05, "loss": 0.3703, "step": 47030 }, { "epoch": 62.72, "grad_norm": 0.7421875, "learning_rate": 9.976251465587354e-05, "loss": 0.3913, "step": 47040 }, { "epoch": 62.733333333333334, "grad_norm": 0.6640625, "learning_rate": 9.976241266718394e-05, "loss": 0.3875, "step": 47050 }, { "epoch": 62.74666666666667, "grad_norm": 0.67578125, "learning_rate": 9.976231065665156e-05, "loss": 0.3893, "step": 47060 }, { "epoch": 62.76, "grad_norm": 0.765625, "learning_rate": 9.976220862427641e-05, "loss": 0.4025, "step": 47070 }, { "epoch": 62.77333333333333, "grad_norm": 0.6875, "learning_rate": 9.976210657005856e-05, "loss": 0.3882, "step": 47080 }, { "epoch": 62.78666666666667, "grad_norm": 0.6484375, "learning_rate": 9.976200449399805e-05, "loss": 0.3904, "step": 47090 }, { "epoch": 62.8, "grad_norm": 0.69921875, "learning_rate": 9.976190239609494e-05, "loss": 0.3886, "step": 47100 }, { "epoch": 62.81333333333333, "grad_norm": 0.74609375, "learning_rate": 9.976180027634923e-05, "loss": 0.3621, "step": 47110 }, { "epoch": 62.82666666666667, "grad_norm": 0.60546875, "learning_rate": 9.976169813476099e-05, "loss": 0.3704, "step": 47120 }, { "epoch": 62.84, "grad_norm": 0.70703125, "learning_rate": 9.976159597133029e-05, "loss": 0.3826, "step": 47130 }, { "epoch": 62.85333333333333, "grad_norm": 0.66796875, "learning_rate": 9.976149378605715e-05, "loss": 0.3782, "step": 47140 }, { "epoch": 62.86666666666667, "grad_norm": 0.66796875, "learning_rate": 9.97613915789416e-05, "loss": 0.383, "step": 47150 }, { "epoch": 62.88, "grad_norm": 0.6328125, "learning_rate": 9.976128934998372e-05, "loss": 0.3638, "step": 47160 }, { "epoch": 62.89333333333333, "grad_norm": 0.66796875, "learning_rate": 9.976118709918353e-05, "loss": 0.3764, "step": 47170 }, { "epoch": 62.906666666666666, "grad_norm": 0.66796875, "learning_rate": 9.976108482654108e-05, "loss": 0.3819, "step": 47180 }, { "epoch": 62.92, "grad_norm": 0.7265625, "learning_rate": 9.976098253205641e-05, "loss": 0.3832, "step": 47190 }, { "epoch": 62.93333333333333, "grad_norm": 0.6640625, "learning_rate": 9.976088021572958e-05, "loss": 0.3783, "step": 47200 }, { "epoch": 62.946666666666665, "grad_norm": 0.6875, "learning_rate": 9.976077787756063e-05, "loss": 0.378, "step": 47210 }, { "epoch": 62.96, "grad_norm": 0.59765625, "learning_rate": 9.976067551754959e-05, "loss": 0.3765, "step": 47220 }, { "epoch": 62.973333333333336, "grad_norm": 0.8359375, "learning_rate": 9.976057313569653e-05, "loss": 0.4, "step": 47230 }, { "epoch": 62.986666666666665, "grad_norm": 0.7578125, "learning_rate": 9.976047073200148e-05, "loss": 0.3714, "step": 47240 }, { "epoch": 63.0, "grad_norm": 0.63671875, "learning_rate": 9.976036830646446e-05, "loss": 0.3694, "step": 47250 }, { "epoch": 63.0, "eval_loss": 0.4222855269908905, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4861, "eval_samples_per_second": 1.526, "eval_steps_per_second": 0.095, "step": 47250 }, { "epoch": 63.013333333333335, "grad_norm": 0.7578125, "learning_rate": 9.976026585908558e-05, "loss": 0.3858, "step": 47260 }, { "epoch": 63.026666666666664, "grad_norm": 0.62890625, "learning_rate": 9.976016338986482e-05, "loss": 0.4013, "step": 47270 }, { "epoch": 63.04, "grad_norm": 0.63671875, "learning_rate": 9.976006089880227e-05, "loss": 0.4132, "step": 47280 }, { "epoch": 63.053333333333335, "grad_norm": 0.71484375, "learning_rate": 9.975995838589794e-05, "loss": 0.3987, "step": 47290 }, { "epoch": 63.06666666666667, "grad_norm": 0.7421875, "learning_rate": 9.975985585115189e-05, "loss": 0.386, "step": 47300 }, { "epoch": 63.08, "grad_norm": 0.70703125, "learning_rate": 9.975975329456417e-05, "loss": 0.39, "step": 47310 }, { "epoch": 63.093333333333334, "grad_norm": 0.76171875, "learning_rate": 9.975965071613483e-05, "loss": 0.3918, "step": 47320 }, { "epoch": 63.10666666666667, "grad_norm": 0.5625, "learning_rate": 9.97595481158639e-05, "loss": 0.38, "step": 47330 }, { "epoch": 63.12, "grad_norm": 0.640625, "learning_rate": 9.975944549375143e-05, "loss": 0.3832, "step": 47340 }, { "epoch": 63.13333333333333, "grad_norm": 0.6484375, "learning_rate": 9.975934284979747e-05, "loss": 0.3752, "step": 47350 }, { "epoch": 63.14666666666667, "grad_norm": 0.66015625, "learning_rate": 9.975924018400207e-05, "loss": 0.3937, "step": 47360 }, { "epoch": 63.16, "grad_norm": 0.625, "learning_rate": 9.975913749636525e-05, "loss": 0.3878, "step": 47370 }, { "epoch": 63.17333333333333, "grad_norm": 0.78125, "learning_rate": 9.975903478688707e-05, "loss": 0.3839, "step": 47380 }, { "epoch": 63.18666666666667, "grad_norm": 0.6484375, "learning_rate": 9.975893205556759e-05, "loss": 0.3813, "step": 47390 }, { "epoch": 63.2, "grad_norm": 0.70703125, "learning_rate": 9.975882930240683e-05, "loss": 0.3722, "step": 47400 }, { "epoch": 63.21333333333333, "grad_norm": 0.6953125, "learning_rate": 9.975872652740485e-05, "loss": 0.3735, "step": 47410 }, { "epoch": 63.22666666666667, "grad_norm": 0.703125, "learning_rate": 9.97586237305617e-05, "loss": 0.3853, "step": 47420 }, { "epoch": 63.24, "grad_norm": 0.7265625, "learning_rate": 9.975852091187741e-05, "loss": 0.3707, "step": 47430 }, { "epoch": 63.25333333333333, "grad_norm": 0.703125, "learning_rate": 9.975841807135202e-05, "loss": 0.3726, "step": 47440 }, { "epoch": 63.266666666666666, "grad_norm": 0.65234375, "learning_rate": 9.97583152089856e-05, "loss": 0.3759, "step": 47450 }, { "epoch": 63.28, "grad_norm": 0.69921875, "learning_rate": 9.975821232477818e-05, "loss": 0.4057, "step": 47460 }, { "epoch": 63.29333333333334, "grad_norm": 0.6640625, "learning_rate": 9.97581094187298e-05, "loss": 0.3619, "step": 47470 }, { "epoch": 63.306666666666665, "grad_norm": 0.65625, "learning_rate": 9.975800649084053e-05, "loss": 0.386, "step": 47480 }, { "epoch": 63.32, "grad_norm": 0.59375, "learning_rate": 9.975790354111038e-05, "loss": 0.389, "step": 47490 }, { "epoch": 63.333333333333336, "grad_norm": 0.703125, "learning_rate": 9.975780056953944e-05, "loss": 0.3892, "step": 47500 }, { "epoch": 63.346666666666664, "grad_norm": 0.72265625, "learning_rate": 9.975769757612771e-05, "loss": 0.3796, "step": 47510 }, { "epoch": 63.36, "grad_norm": 0.66796875, "learning_rate": 9.975759456087525e-05, "loss": 0.3801, "step": 47520 }, { "epoch": 63.373333333333335, "grad_norm": 0.59375, "learning_rate": 9.975749152378211e-05, "loss": 0.3824, "step": 47530 }, { "epoch": 63.38666666666666, "grad_norm": 0.74609375, "learning_rate": 9.975738846484834e-05, "loss": 0.3721, "step": 47540 }, { "epoch": 63.4, "grad_norm": 0.640625, "learning_rate": 9.975728538407398e-05, "loss": 0.3806, "step": 47550 }, { "epoch": 63.413333333333334, "grad_norm": 0.65625, "learning_rate": 9.975718228145907e-05, "loss": 0.3871, "step": 47560 }, { "epoch": 63.42666666666667, "grad_norm": 0.6328125, "learning_rate": 9.975707915700365e-05, "loss": 0.3876, "step": 47570 }, { "epoch": 63.44, "grad_norm": 0.6484375, "learning_rate": 9.975697601070779e-05, "loss": 0.4004, "step": 47580 }, { "epoch": 63.45333333333333, "grad_norm": 0.72265625, "learning_rate": 9.975687284257152e-05, "loss": 0.389, "step": 47590 }, { "epoch": 63.46666666666667, "grad_norm": 0.6640625, "learning_rate": 9.975676965259488e-05, "loss": 0.3948, "step": 47600 }, { "epoch": 63.48, "grad_norm": 0.7109375, "learning_rate": 9.975666644077793e-05, "loss": 0.3784, "step": 47610 }, { "epoch": 63.49333333333333, "grad_norm": 0.65234375, "learning_rate": 9.975656320712068e-05, "loss": 0.39, "step": 47620 }, { "epoch": 63.50666666666667, "grad_norm": 0.68359375, "learning_rate": 9.975645995162323e-05, "loss": 0.3893, "step": 47630 }, { "epoch": 63.52, "grad_norm": 0.53125, "learning_rate": 9.975635667428558e-05, "loss": 0.3793, "step": 47640 }, { "epoch": 63.53333333333333, "grad_norm": 0.65234375, "learning_rate": 9.97562533751078e-05, "loss": 0.3822, "step": 47650 }, { "epoch": 63.54666666666667, "grad_norm": 0.703125, "learning_rate": 9.975615005408992e-05, "loss": 0.3823, "step": 47660 }, { "epoch": 63.56, "grad_norm": 0.609375, "learning_rate": 9.9756046711232e-05, "loss": 0.3773, "step": 47670 }, { "epoch": 63.57333333333333, "grad_norm": 0.6875, "learning_rate": 9.975594334653408e-05, "loss": 0.3809, "step": 47680 }, { "epoch": 63.586666666666666, "grad_norm": 0.62890625, "learning_rate": 9.97558399599962e-05, "loss": 0.3704, "step": 47690 }, { "epoch": 63.6, "grad_norm": 0.65234375, "learning_rate": 9.975573655161841e-05, "loss": 0.3724, "step": 47700 }, { "epoch": 63.61333333333333, "grad_norm": 0.58984375, "learning_rate": 9.975563312140075e-05, "loss": 0.3638, "step": 47710 }, { "epoch": 63.626666666666665, "grad_norm": 0.56640625, "learning_rate": 9.975552966934327e-05, "loss": 0.369, "step": 47720 }, { "epoch": 63.64, "grad_norm": 0.68359375, "learning_rate": 9.975542619544601e-05, "loss": 0.3784, "step": 47730 }, { "epoch": 63.653333333333336, "grad_norm": 0.6953125, "learning_rate": 9.975532269970903e-05, "loss": 0.3886, "step": 47740 }, { "epoch": 63.666666666666664, "grad_norm": 0.65625, "learning_rate": 9.975521918213236e-05, "loss": 0.3785, "step": 47750 }, { "epoch": 63.68, "grad_norm": 0.7109375, "learning_rate": 9.975511564271606e-05, "loss": 0.3689, "step": 47760 }, { "epoch": 63.693333333333335, "grad_norm": 0.60546875, "learning_rate": 9.975501208146016e-05, "loss": 0.3791, "step": 47770 }, { "epoch": 63.70666666666666, "grad_norm": 0.734375, "learning_rate": 9.975490849836471e-05, "loss": 0.3698, "step": 47780 }, { "epoch": 63.72, "grad_norm": 0.73046875, "learning_rate": 9.975480489342976e-05, "loss": 0.3915, "step": 47790 }, { "epoch": 63.733333333333334, "grad_norm": 0.70703125, "learning_rate": 9.975470126665536e-05, "loss": 0.3867, "step": 47800 }, { "epoch": 63.74666666666667, "grad_norm": 0.6796875, "learning_rate": 9.975459761804154e-05, "loss": 0.389, "step": 47810 }, { "epoch": 63.76, "grad_norm": 0.703125, "learning_rate": 9.975449394758835e-05, "loss": 0.402, "step": 47820 }, { "epoch": 63.77333333333333, "grad_norm": 0.7265625, "learning_rate": 9.975439025529585e-05, "loss": 0.3876, "step": 47830 }, { "epoch": 63.78666666666667, "grad_norm": 0.6015625, "learning_rate": 9.975428654116408e-05, "loss": 0.3898, "step": 47840 }, { "epoch": 63.8, "grad_norm": 0.70703125, "learning_rate": 9.975418280519307e-05, "loss": 0.3867, "step": 47850 }, { "epoch": 63.81333333333333, "grad_norm": 0.8125, "learning_rate": 9.975407904738288e-05, "loss": 0.3612, "step": 47860 }, { "epoch": 63.82666666666667, "grad_norm": 0.64453125, "learning_rate": 9.975397526773355e-05, "loss": 0.3692, "step": 47870 }, { "epoch": 63.84, "grad_norm": 0.73046875, "learning_rate": 9.975387146624513e-05, "loss": 0.3818, "step": 47880 }, { "epoch": 63.85333333333333, "grad_norm": 0.65625, "learning_rate": 9.975376764291766e-05, "loss": 0.3777, "step": 47890 }, { "epoch": 63.86666666666667, "grad_norm": 0.6796875, "learning_rate": 9.975366379775119e-05, "loss": 0.3817, "step": 47900 }, { "epoch": 63.88, "grad_norm": 0.6953125, "learning_rate": 9.975355993074575e-05, "loss": 0.3629, "step": 47910 }, { "epoch": 63.89333333333333, "grad_norm": 0.62890625, "learning_rate": 9.975345604190143e-05, "loss": 0.3753, "step": 47920 }, { "epoch": 63.906666666666666, "grad_norm": 0.72265625, "learning_rate": 9.975335213121822e-05, "loss": 0.3801, "step": 47930 }, { "epoch": 63.92, "grad_norm": 0.74609375, "learning_rate": 9.97532481986962e-05, "loss": 0.3823, "step": 47940 }, { "epoch": 63.93333333333333, "grad_norm": 0.6640625, "learning_rate": 9.975314424433541e-05, "loss": 0.3772, "step": 47950 }, { "epoch": 63.946666666666665, "grad_norm": 0.69140625, "learning_rate": 9.975304026813588e-05, "loss": 0.3782, "step": 47960 }, { "epoch": 63.96, "grad_norm": 0.609375, "learning_rate": 9.975293627009767e-05, "loss": 0.3758, "step": 47970 }, { "epoch": 63.973333333333336, "grad_norm": 0.8671875, "learning_rate": 9.975283225022084e-05, "loss": 0.3999, "step": 47980 }, { "epoch": 63.986666666666665, "grad_norm": 0.7578125, "learning_rate": 9.975272820850541e-05, "loss": 0.3719, "step": 47990 }, { "epoch": 64.0, "grad_norm": 0.71875, "learning_rate": 9.975262414495144e-05, "loss": 0.3693, "step": 48000 }, { "epoch": 64.0, "eval_loss": 0.42339247465133667, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4315, "eval_samples_per_second": 1.534, "eval_steps_per_second": 0.096, "step": 48000 }, { "epoch": 64.01333333333334, "grad_norm": 0.796875, "learning_rate": 9.975252005955895e-05, "loss": 0.3856, "step": 48010 }, { "epoch": 64.02666666666667, "grad_norm": 0.62890625, "learning_rate": 9.975241595232803e-05, "loss": 0.401, "step": 48020 }, { "epoch": 64.04, "grad_norm": 0.67578125, "learning_rate": 9.975231182325868e-05, "loss": 0.4136, "step": 48030 }, { "epoch": 64.05333333333333, "grad_norm": 0.70703125, "learning_rate": 9.975220767235099e-05, "loss": 0.3984, "step": 48040 }, { "epoch": 64.06666666666666, "grad_norm": 0.8359375, "learning_rate": 9.975210349960495e-05, "loss": 0.386, "step": 48050 }, { "epoch": 64.08, "grad_norm": 0.65625, "learning_rate": 9.975199930502068e-05, "loss": 0.3904, "step": 48060 }, { "epoch": 64.09333333333333, "grad_norm": 0.65234375, "learning_rate": 9.975189508859816e-05, "loss": 0.3915, "step": 48070 }, { "epoch": 64.10666666666667, "grad_norm": 0.671875, "learning_rate": 9.975179085033746e-05, "loss": 0.3796, "step": 48080 }, { "epoch": 64.12, "grad_norm": 0.69921875, "learning_rate": 9.975168659023863e-05, "loss": 0.3832, "step": 48090 }, { "epoch": 64.13333333333334, "grad_norm": 0.67578125, "learning_rate": 9.975158230830172e-05, "loss": 0.3754, "step": 48100 }, { "epoch": 64.14666666666666, "grad_norm": 0.67578125, "learning_rate": 9.975147800452675e-05, "loss": 0.393, "step": 48110 }, { "epoch": 64.16, "grad_norm": 0.67578125, "learning_rate": 9.975137367891381e-05, "loss": 0.3881, "step": 48120 }, { "epoch": 64.17333333333333, "grad_norm": 0.7265625, "learning_rate": 9.975126933146291e-05, "loss": 0.3828, "step": 48130 }, { "epoch": 64.18666666666667, "grad_norm": 0.671875, "learning_rate": 9.975116496217409e-05, "loss": 0.3806, "step": 48140 }, { "epoch": 64.2, "grad_norm": 0.78515625, "learning_rate": 9.975106057104742e-05, "loss": 0.3721, "step": 48150 }, { "epoch": 64.21333333333334, "grad_norm": 0.703125, "learning_rate": 9.975095615808294e-05, "loss": 0.3743, "step": 48160 }, { "epoch": 64.22666666666667, "grad_norm": 0.8046875, "learning_rate": 9.975085172328069e-05, "loss": 0.3852, "step": 48170 }, { "epoch": 64.24, "grad_norm": 0.66015625, "learning_rate": 9.975074726664071e-05, "loss": 0.3702, "step": 48180 }, { "epoch": 64.25333333333333, "grad_norm": 0.74609375, "learning_rate": 9.975064278816307e-05, "loss": 0.3733, "step": 48190 }, { "epoch": 64.26666666666667, "grad_norm": 0.734375, "learning_rate": 9.975053828784778e-05, "loss": 0.3751, "step": 48200 }, { "epoch": 64.28, "grad_norm": 0.71484375, "learning_rate": 9.975043376569492e-05, "loss": 0.4045, "step": 48210 }, { "epoch": 64.29333333333334, "grad_norm": 0.6875, "learning_rate": 9.975032922170453e-05, "loss": 0.3623, "step": 48220 }, { "epoch": 64.30666666666667, "grad_norm": 0.625, "learning_rate": 9.975022465587662e-05, "loss": 0.3852, "step": 48230 }, { "epoch": 64.32, "grad_norm": 0.609375, "learning_rate": 9.97501200682113e-05, "loss": 0.3877, "step": 48240 }, { "epoch": 64.33333333333333, "grad_norm": 0.70703125, "learning_rate": 9.975001545870854e-05, "loss": 0.3889, "step": 48250 }, { "epoch": 64.34666666666666, "grad_norm": 0.71875, "learning_rate": 9.974991082736847e-05, "loss": 0.3786, "step": 48260 }, { "epoch": 64.36, "grad_norm": 0.69921875, "learning_rate": 9.974980617419105e-05, "loss": 0.3805, "step": 48270 }, { "epoch": 64.37333333333333, "grad_norm": 0.69921875, "learning_rate": 9.97497014991764e-05, "loss": 0.3814, "step": 48280 }, { "epoch": 64.38666666666667, "grad_norm": 0.734375, "learning_rate": 9.97495968023245e-05, "loss": 0.3717, "step": 48290 }, { "epoch": 64.4, "grad_norm": 0.7109375, "learning_rate": 9.974949208363546e-05, "loss": 0.381, "step": 48300 }, { "epoch": 64.41333333333333, "grad_norm": 0.671875, "learning_rate": 9.974938734310928e-05, "loss": 0.3863, "step": 48310 }, { "epoch": 64.42666666666666, "grad_norm": 0.6484375, "learning_rate": 9.974928258074603e-05, "loss": 0.3872, "step": 48320 }, { "epoch": 64.44, "grad_norm": 0.74609375, "learning_rate": 9.974917779654574e-05, "loss": 0.4006, "step": 48330 }, { "epoch": 64.45333333333333, "grad_norm": 0.7109375, "learning_rate": 9.974907299050846e-05, "loss": 0.3879, "step": 48340 }, { "epoch": 64.46666666666667, "grad_norm": 0.66015625, "learning_rate": 9.974896816263423e-05, "loss": 0.3959, "step": 48350 }, { "epoch": 64.48, "grad_norm": 0.6796875, "learning_rate": 9.974886331292312e-05, "loss": 0.3778, "step": 48360 }, { "epoch": 64.49333333333334, "grad_norm": 0.65625, "learning_rate": 9.974875844137517e-05, "loss": 0.3887, "step": 48370 }, { "epoch": 64.50666666666666, "grad_norm": 0.70703125, "learning_rate": 9.97486535479904e-05, "loss": 0.3885, "step": 48380 }, { "epoch": 64.52, "grad_norm": 0.62890625, "learning_rate": 9.974854863276888e-05, "loss": 0.3799, "step": 48390 }, { "epoch": 64.53333333333333, "grad_norm": 0.71875, "learning_rate": 9.974844369571066e-05, "loss": 0.3813, "step": 48400 }, { "epoch": 64.54666666666667, "grad_norm": 0.75, "learning_rate": 9.974833873681576e-05, "loss": 0.3825, "step": 48410 }, { "epoch": 64.56, "grad_norm": 0.6484375, "learning_rate": 9.974823375608424e-05, "loss": 0.3772, "step": 48420 }, { "epoch": 64.57333333333334, "grad_norm": 0.72265625, "learning_rate": 9.974812875351616e-05, "loss": 0.3808, "step": 48430 }, { "epoch": 64.58666666666667, "grad_norm": 0.66796875, "learning_rate": 9.974802372911155e-05, "loss": 0.3705, "step": 48440 }, { "epoch": 64.6, "grad_norm": 0.65625, "learning_rate": 9.974791868287045e-05, "loss": 0.3727, "step": 48450 }, { "epoch": 64.61333333333333, "grad_norm": 0.58984375, "learning_rate": 9.974781361479293e-05, "loss": 0.3641, "step": 48460 }, { "epoch": 64.62666666666667, "grad_norm": 0.55859375, "learning_rate": 9.974770852487902e-05, "loss": 0.3685, "step": 48470 }, { "epoch": 64.64, "grad_norm": 0.7578125, "learning_rate": 9.974760341312875e-05, "loss": 0.3785, "step": 48480 }, { "epoch": 64.65333333333334, "grad_norm": 0.71875, "learning_rate": 9.97474982795422e-05, "loss": 0.3882, "step": 48490 }, { "epoch": 64.66666666666667, "grad_norm": 0.61328125, "learning_rate": 9.97473931241194e-05, "loss": 0.3787, "step": 48500 }, { "epoch": 64.68, "grad_norm": 0.70703125, "learning_rate": 9.974728794686039e-05, "loss": 0.369, "step": 48510 }, { "epoch": 64.69333333333333, "grad_norm": 0.63671875, "learning_rate": 9.974718274776522e-05, "loss": 0.3781, "step": 48520 }, { "epoch": 64.70666666666666, "grad_norm": 0.78125, "learning_rate": 9.974707752683396e-05, "loss": 0.3699, "step": 48530 }, { "epoch": 64.72, "grad_norm": 0.71484375, "learning_rate": 9.974697228406662e-05, "loss": 0.3908, "step": 48540 }, { "epoch": 64.73333333333333, "grad_norm": 0.67578125, "learning_rate": 9.974686701946325e-05, "loss": 0.3865, "step": 48550 }, { "epoch": 64.74666666666667, "grad_norm": 0.69140625, "learning_rate": 9.974676173302392e-05, "loss": 0.3894, "step": 48560 }, { "epoch": 64.76, "grad_norm": 0.72265625, "learning_rate": 9.974665642474868e-05, "loss": 0.4024, "step": 48570 }, { "epoch": 64.77333333333333, "grad_norm": 0.75, "learning_rate": 9.974655109463752e-05, "loss": 0.3863, "step": 48580 }, { "epoch": 64.78666666666666, "grad_norm": 0.6171875, "learning_rate": 9.974644574269056e-05, "loss": 0.3888, "step": 48590 }, { "epoch": 64.8, "grad_norm": 0.6953125, "learning_rate": 9.97463403689078e-05, "loss": 0.387, "step": 48600 }, { "epoch": 64.81333333333333, "grad_norm": 0.77734375, "learning_rate": 9.97462349732893e-05, "loss": 0.3611, "step": 48610 }, { "epoch": 64.82666666666667, "grad_norm": 0.609375, "learning_rate": 9.974612955583511e-05, "loss": 0.3691, "step": 48620 }, { "epoch": 64.84, "grad_norm": 0.68359375, "learning_rate": 9.974602411654526e-05, "loss": 0.3816, "step": 48630 }, { "epoch": 64.85333333333334, "grad_norm": 0.65625, "learning_rate": 9.974591865541982e-05, "loss": 0.3771, "step": 48640 }, { "epoch": 64.86666666666666, "grad_norm": 0.703125, "learning_rate": 9.974581317245881e-05, "loss": 0.3819, "step": 48650 }, { "epoch": 64.88, "grad_norm": 0.62109375, "learning_rate": 9.974570766766229e-05, "loss": 0.3628, "step": 48660 }, { "epoch": 64.89333333333333, "grad_norm": 0.62890625, "learning_rate": 9.974560214103033e-05, "loss": 0.3751, "step": 48670 }, { "epoch": 64.90666666666667, "grad_norm": 0.71875, "learning_rate": 9.974549659256293e-05, "loss": 0.3811, "step": 48680 }, { "epoch": 64.92, "grad_norm": 0.71484375, "learning_rate": 9.974539102226016e-05, "loss": 0.3827, "step": 48690 }, { "epoch": 64.93333333333334, "grad_norm": 0.59765625, "learning_rate": 9.974528543012207e-05, "loss": 0.3777, "step": 48700 }, { "epoch": 64.94666666666667, "grad_norm": 0.7109375, "learning_rate": 9.974517981614871e-05, "loss": 0.377, "step": 48710 }, { "epoch": 64.96, "grad_norm": 0.59765625, "learning_rate": 9.974507418034011e-05, "loss": 0.3748, "step": 48720 }, { "epoch": 64.97333333333333, "grad_norm": 0.8671875, "learning_rate": 9.974496852269633e-05, "loss": 0.399, "step": 48730 }, { "epoch": 64.98666666666666, "grad_norm": 0.84375, "learning_rate": 9.974486284321739e-05, "loss": 0.371, "step": 48740 }, { "epoch": 65.0, "grad_norm": 0.68359375, "learning_rate": 9.974475714190337e-05, "loss": 0.3686, "step": 48750 }, { "epoch": 65.0, "eval_loss": 0.42344430088996887, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.1623, "eval_samples_per_second": 1.433, "eval_steps_per_second": 0.09, "step": 48750 }, { "epoch": 65.01333333333334, "grad_norm": 0.7578125, "learning_rate": 9.97446514187543e-05, "loss": 0.3854, "step": 48760 }, { "epoch": 65.02666666666667, "grad_norm": 0.6171875, "learning_rate": 9.974454567377025e-05, "loss": 0.4005, "step": 48770 }, { "epoch": 65.04, "grad_norm": 0.62890625, "learning_rate": 9.974443990695122e-05, "loss": 0.4125, "step": 48780 }, { "epoch": 65.05333333333333, "grad_norm": 0.6484375, "learning_rate": 9.97443341182973e-05, "loss": 0.3975, "step": 48790 }, { "epoch": 65.06666666666666, "grad_norm": 0.91796875, "learning_rate": 9.974422830780852e-05, "loss": 0.3862, "step": 48800 }, { "epoch": 65.08, "grad_norm": 0.73828125, "learning_rate": 9.974412247548493e-05, "loss": 0.389, "step": 48810 }, { "epoch": 65.09333333333333, "grad_norm": 0.703125, "learning_rate": 9.974401662132655e-05, "loss": 0.3911, "step": 48820 }, { "epoch": 65.10666666666667, "grad_norm": 0.62890625, "learning_rate": 9.974391074533346e-05, "loss": 0.3787, "step": 48830 }, { "epoch": 65.12, "grad_norm": 0.69921875, "learning_rate": 9.97438048475057e-05, "loss": 0.3823, "step": 48840 }, { "epoch": 65.13333333333334, "grad_norm": 0.70703125, "learning_rate": 9.97436989278433e-05, "loss": 0.3741, "step": 48850 }, { "epoch": 65.14666666666666, "grad_norm": 0.6484375, "learning_rate": 9.974359298634633e-05, "loss": 0.3937, "step": 48860 }, { "epoch": 65.16, "grad_norm": 0.640625, "learning_rate": 9.974348702301481e-05, "loss": 0.3883, "step": 48870 }, { "epoch": 65.17333333333333, "grad_norm": 0.70703125, "learning_rate": 9.974338103784881e-05, "loss": 0.3823, "step": 48880 }, { "epoch": 65.18666666666667, "grad_norm": 0.6796875, "learning_rate": 9.974327503084837e-05, "loss": 0.3796, "step": 48890 }, { "epoch": 65.2, "grad_norm": 0.69140625, "learning_rate": 9.974316900201354e-05, "loss": 0.3726, "step": 48900 }, { "epoch": 65.21333333333334, "grad_norm": 0.69140625, "learning_rate": 9.974306295134434e-05, "loss": 0.3728, "step": 48910 }, { "epoch": 65.22666666666667, "grad_norm": 0.6875, "learning_rate": 9.974295687884086e-05, "loss": 0.3841, "step": 48920 }, { "epoch": 65.24, "grad_norm": 0.734375, "learning_rate": 9.974285078450312e-05, "loss": 0.3712, "step": 48930 }, { "epoch": 65.25333333333333, "grad_norm": 0.6796875, "learning_rate": 9.974274466833116e-05, "loss": 0.3722, "step": 48940 }, { "epoch": 65.26666666666667, "grad_norm": 0.71484375, "learning_rate": 9.974263853032504e-05, "loss": 0.3747, "step": 48950 }, { "epoch": 65.28, "grad_norm": 0.7265625, "learning_rate": 9.974253237048481e-05, "loss": 0.4043, "step": 48960 }, { "epoch": 65.29333333333334, "grad_norm": 0.703125, "learning_rate": 9.97424261888105e-05, "loss": 0.3613, "step": 48970 }, { "epoch": 65.30666666666667, "grad_norm": 0.6484375, "learning_rate": 9.974231998530217e-05, "loss": 0.3842, "step": 48980 }, { "epoch": 65.32, "grad_norm": 0.57421875, "learning_rate": 9.974221375995987e-05, "loss": 0.3884, "step": 48990 }, { "epoch": 65.33333333333333, "grad_norm": 0.75390625, "learning_rate": 9.974210751278364e-05, "loss": 0.3897, "step": 49000 }, { "epoch": 65.34666666666666, "grad_norm": 0.7890625, "learning_rate": 9.974200124377351e-05, "loss": 0.3788, "step": 49010 }, { "epoch": 65.36, "grad_norm": 0.68359375, "learning_rate": 9.974189495292956e-05, "loss": 0.3798, "step": 49020 }, { "epoch": 65.37333333333333, "grad_norm": 0.6328125, "learning_rate": 9.974178864025181e-05, "loss": 0.3823, "step": 49030 }, { "epoch": 65.38666666666667, "grad_norm": 0.71484375, "learning_rate": 9.974168230574033e-05, "loss": 0.3711, "step": 49040 }, { "epoch": 65.4, "grad_norm": 0.66015625, "learning_rate": 9.974157594939514e-05, "loss": 0.3803, "step": 49050 }, { "epoch": 65.41333333333333, "grad_norm": 0.67578125, "learning_rate": 9.974146957121631e-05, "loss": 0.3846, "step": 49060 }, { "epoch": 65.42666666666666, "grad_norm": 0.671875, "learning_rate": 9.974136317120386e-05, "loss": 0.3875, "step": 49070 }, { "epoch": 65.44, "grad_norm": 0.7421875, "learning_rate": 9.974125674935786e-05, "loss": 0.3997, "step": 49080 }, { "epoch": 65.45333333333333, "grad_norm": 0.765625, "learning_rate": 9.974115030567836e-05, "loss": 0.387, "step": 49090 }, { "epoch": 65.46666666666667, "grad_norm": 0.6875, "learning_rate": 9.974104384016538e-05, "loss": 0.3957, "step": 49100 }, { "epoch": 65.48, "grad_norm": 0.6328125, "learning_rate": 9.9740937352819e-05, "loss": 0.3772, "step": 49110 }, { "epoch": 65.49333333333334, "grad_norm": 0.640625, "learning_rate": 9.974083084363925e-05, "loss": 0.389, "step": 49120 }, { "epoch": 65.50666666666666, "grad_norm": 0.69921875, "learning_rate": 9.974072431262617e-05, "loss": 0.3881, "step": 49130 }, { "epoch": 65.52, "grad_norm": 0.64453125, "learning_rate": 9.97406177597798e-05, "loss": 0.3799, "step": 49140 }, { "epoch": 65.53333333333333, "grad_norm": 0.73046875, "learning_rate": 9.974051118510023e-05, "loss": 0.3809, "step": 49150 }, { "epoch": 65.54666666666667, "grad_norm": 0.734375, "learning_rate": 9.974040458858746e-05, "loss": 0.3817, "step": 49160 }, { "epoch": 65.56, "grad_norm": 0.6171875, "learning_rate": 9.974029797024156e-05, "loss": 0.3771, "step": 49170 }, { "epoch": 65.57333333333334, "grad_norm": 0.6796875, "learning_rate": 9.974019133006257e-05, "loss": 0.3805, "step": 49180 }, { "epoch": 65.58666666666667, "grad_norm": 0.62109375, "learning_rate": 9.974008466805054e-05, "loss": 0.3708, "step": 49190 }, { "epoch": 65.6, "grad_norm": 0.68359375, "learning_rate": 9.973997798420552e-05, "loss": 0.3722, "step": 49200 }, { "epoch": 65.61333333333333, "grad_norm": 0.62109375, "learning_rate": 9.973987127852753e-05, "loss": 0.3627, "step": 49210 }, { "epoch": 65.62666666666667, "grad_norm": 0.58203125, "learning_rate": 9.973976455101664e-05, "loss": 0.3677, "step": 49220 }, { "epoch": 65.64, "grad_norm": 0.6953125, "learning_rate": 9.973965780167292e-05, "loss": 0.378, "step": 49230 }, { "epoch": 65.65333333333334, "grad_norm": 0.69140625, "learning_rate": 9.973955103049637e-05, "loss": 0.3884, "step": 49240 }, { "epoch": 65.66666666666667, "grad_norm": 0.62109375, "learning_rate": 9.973944423748706e-05, "loss": 0.3764, "step": 49250 }, { "epoch": 65.68, "grad_norm": 0.67578125, "learning_rate": 9.973933742264506e-05, "loss": 0.368, "step": 49260 }, { "epoch": 65.69333333333333, "grad_norm": 0.58984375, "learning_rate": 9.973923058597035e-05, "loss": 0.3781, "step": 49270 }, { "epoch": 65.70666666666666, "grad_norm": 0.7734375, "learning_rate": 9.973912372746306e-05, "loss": 0.3694, "step": 49280 }, { "epoch": 65.72, "grad_norm": 0.69140625, "learning_rate": 9.973901684712317e-05, "loss": 0.3915, "step": 49290 }, { "epoch": 65.73333333333333, "grad_norm": 0.65234375, "learning_rate": 9.973890994495077e-05, "loss": 0.3859, "step": 49300 }, { "epoch": 65.74666666666667, "grad_norm": 0.6484375, "learning_rate": 9.973880302094587e-05, "loss": 0.389, "step": 49310 }, { "epoch": 65.76, "grad_norm": 0.703125, "learning_rate": 9.973869607510855e-05, "loss": 0.401, "step": 49320 }, { "epoch": 65.77333333333333, "grad_norm": 0.6796875, "learning_rate": 9.973858910743886e-05, "loss": 0.3868, "step": 49330 }, { "epoch": 65.78666666666666, "grad_norm": 0.5859375, "learning_rate": 9.97384821179368e-05, "loss": 0.3882, "step": 49340 }, { "epoch": 65.8, "grad_norm": 0.7265625, "learning_rate": 9.973837510660246e-05, "loss": 0.3868, "step": 49350 }, { "epoch": 65.81333333333333, "grad_norm": 0.7421875, "learning_rate": 9.973826807343589e-05, "loss": 0.3598, "step": 49360 }, { "epoch": 65.82666666666667, "grad_norm": 0.66015625, "learning_rate": 9.97381610184371e-05, "loss": 0.3687, "step": 49370 }, { "epoch": 65.84, "grad_norm": 0.73046875, "learning_rate": 9.973805394160617e-05, "loss": 0.3812, "step": 49380 }, { "epoch": 65.85333333333334, "grad_norm": 0.6953125, "learning_rate": 9.973794684294313e-05, "loss": 0.3768, "step": 49390 }, { "epoch": 65.86666666666666, "grad_norm": 0.74609375, "learning_rate": 9.973783972244804e-05, "loss": 0.3813, "step": 49400 }, { "epoch": 65.88, "grad_norm": 0.6484375, "learning_rate": 9.973773258012094e-05, "loss": 0.3628, "step": 49410 }, { "epoch": 65.89333333333333, "grad_norm": 0.6796875, "learning_rate": 9.973762541596187e-05, "loss": 0.3748, "step": 49420 }, { "epoch": 65.90666666666667, "grad_norm": 0.6875, "learning_rate": 9.973751822997088e-05, "loss": 0.3801, "step": 49430 }, { "epoch": 65.92, "grad_norm": 0.6953125, "learning_rate": 9.973741102214804e-05, "loss": 0.3824, "step": 49440 }, { "epoch": 65.93333333333334, "grad_norm": 0.625, "learning_rate": 9.973730379249336e-05, "loss": 0.3771, "step": 49450 }, { "epoch": 65.94666666666667, "grad_norm": 0.65625, "learning_rate": 9.973719654100691e-05, "loss": 0.3773, "step": 49460 }, { "epoch": 65.96, "grad_norm": 0.64453125, "learning_rate": 9.973708926768874e-05, "loss": 0.3755, "step": 49470 }, { "epoch": 65.97333333333333, "grad_norm": 0.8125, "learning_rate": 9.973698197253888e-05, "loss": 0.3978, "step": 49480 }, { "epoch": 65.98666666666666, "grad_norm": 0.71875, "learning_rate": 9.97368746555574e-05, "loss": 0.3704, "step": 49490 }, { "epoch": 66.0, "grad_norm": 0.71484375, "learning_rate": 9.97367673167443e-05, "loss": 0.3681, "step": 49500 }, { "epoch": 66.0, "eval_loss": 0.4223513603210449, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.911, "eval_samples_per_second": 1.466, "eval_steps_per_second": 0.092, "step": 49500 }, { "epoch": 66.01333333333334, "grad_norm": 0.7265625, "learning_rate": 9.973665995609969e-05, "loss": 0.3857, "step": 49510 }, { "epoch": 66.02666666666667, "grad_norm": 0.6640625, "learning_rate": 9.973655257362359e-05, "loss": 0.3997, "step": 49520 }, { "epoch": 66.04, "grad_norm": 0.65234375, "learning_rate": 9.973644516931602e-05, "loss": 0.4118, "step": 49530 }, { "epoch": 66.05333333333333, "grad_norm": 0.66796875, "learning_rate": 9.973633774317708e-05, "loss": 0.3971, "step": 49540 }, { "epoch": 66.06666666666666, "grad_norm": 0.71875, "learning_rate": 9.973623029520678e-05, "loss": 0.3846, "step": 49550 }, { "epoch": 66.08, "grad_norm": 0.71875, "learning_rate": 9.973612282540517e-05, "loss": 0.3886, "step": 49560 }, { "epoch": 66.09333333333333, "grad_norm": 0.80859375, "learning_rate": 9.97360153337723e-05, "loss": 0.3914, "step": 49570 }, { "epoch": 66.10666666666667, "grad_norm": 0.65234375, "learning_rate": 9.973590782030823e-05, "loss": 0.3789, "step": 49580 }, { "epoch": 66.12, "grad_norm": 0.69921875, "learning_rate": 9.9735800285013e-05, "loss": 0.3829, "step": 49590 }, { "epoch": 66.13333333333334, "grad_norm": 0.765625, "learning_rate": 9.973569272788666e-05, "loss": 0.3739, "step": 49600 }, { "epoch": 66.14666666666666, "grad_norm": 0.6953125, "learning_rate": 9.973558514892924e-05, "loss": 0.3927, "step": 49610 }, { "epoch": 66.16, "grad_norm": 0.6484375, "learning_rate": 9.97354775481408e-05, "loss": 0.3879, "step": 49620 }, { "epoch": 66.17333333333333, "grad_norm": 0.73828125, "learning_rate": 9.973536992552139e-05, "loss": 0.3821, "step": 49630 }, { "epoch": 66.18666666666667, "grad_norm": 0.6796875, "learning_rate": 9.973526228107105e-05, "loss": 0.3796, "step": 49640 }, { "epoch": 66.2, "grad_norm": 0.65625, "learning_rate": 9.973515461478984e-05, "loss": 0.3725, "step": 49650 }, { "epoch": 66.21333333333334, "grad_norm": 0.74609375, "learning_rate": 9.973504692667779e-05, "loss": 0.373, "step": 49660 }, { "epoch": 66.22666666666667, "grad_norm": 0.73828125, "learning_rate": 9.973493921673496e-05, "loss": 0.3842, "step": 49670 }, { "epoch": 66.24, "grad_norm": 0.69921875, "learning_rate": 9.973483148496139e-05, "loss": 0.3706, "step": 49680 }, { "epoch": 66.25333333333333, "grad_norm": 0.6796875, "learning_rate": 9.973472373135713e-05, "loss": 0.3723, "step": 49690 }, { "epoch": 66.26666666666667, "grad_norm": 0.6484375, "learning_rate": 9.973461595592224e-05, "loss": 0.3747, "step": 49700 }, { "epoch": 66.28, "grad_norm": 0.6875, "learning_rate": 9.973450815865673e-05, "loss": 0.4031, "step": 49710 }, { "epoch": 66.29333333333334, "grad_norm": 0.64453125, "learning_rate": 9.97344003395607e-05, "loss": 0.3612, "step": 49720 }, { "epoch": 66.30666666666667, "grad_norm": 0.66015625, "learning_rate": 9.973429249863415e-05, "loss": 0.3846, "step": 49730 }, { "epoch": 66.32, "grad_norm": 0.59375, "learning_rate": 9.973418463587716e-05, "loss": 0.3881, "step": 49740 }, { "epoch": 66.33333333333333, "grad_norm": 0.69921875, "learning_rate": 9.973407675128976e-05, "loss": 0.3885, "step": 49750 }, { "epoch": 66.34666666666666, "grad_norm": 0.76953125, "learning_rate": 9.9733968844872e-05, "loss": 0.3791, "step": 49760 }, { "epoch": 66.36, "grad_norm": 0.69140625, "learning_rate": 9.973386091662392e-05, "loss": 0.3791, "step": 49770 }, { "epoch": 66.37333333333333, "grad_norm": 0.63671875, "learning_rate": 9.973375296654559e-05, "loss": 0.3809, "step": 49780 }, { "epoch": 66.38666666666667, "grad_norm": 0.71484375, "learning_rate": 9.973364499463705e-05, "loss": 0.3705, "step": 49790 }, { "epoch": 66.4, "grad_norm": 0.69921875, "learning_rate": 9.973353700089831e-05, "loss": 0.3796, "step": 49800 }, { "epoch": 66.41333333333333, "grad_norm": 0.640625, "learning_rate": 9.973342898532947e-05, "loss": 0.3847, "step": 49810 }, { "epoch": 66.42666666666666, "grad_norm": 0.625, "learning_rate": 9.973332094793055e-05, "loss": 0.3876, "step": 49820 }, { "epoch": 66.44, "grad_norm": 0.6484375, "learning_rate": 9.973321288870161e-05, "loss": 0.3995, "step": 49830 }, { "epoch": 66.45333333333333, "grad_norm": 0.65625, "learning_rate": 9.97331048076427e-05, "loss": 0.3871, "step": 49840 }, { "epoch": 66.46666666666667, "grad_norm": 0.6484375, "learning_rate": 9.973299670475385e-05, "loss": 0.3945, "step": 49850 }, { "epoch": 66.48, "grad_norm": 0.61328125, "learning_rate": 9.973288858003511e-05, "loss": 0.3777, "step": 49860 }, { "epoch": 66.49333333333334, "grad_norm": 0.6640625, "learning_rate": 9.973278043348653e-05, "loss": 0.3889, "step": 49870 }, { "epoch": 66.50666666666666, "grad_norm": 0.70703125, "learning_rate": 9.973267226510816e-05, "loss": 0.3868, "step": 49880 }, { "epoch": 66.52, "grad_norm": 0.57421875, "learning_rate": 9.973256407490006e-05, "loss": 0.3789, "step": 49890 }, { "epoch": 66.53333333333333, "grad_norm": 0.6484375, "learning_rate": 9.973245586286226e-05, "loss": 0.3802, "step": 49900 }, { "epoch": 66.54666666666667, "grad_norm": 0.73046875, "learning_rate": 9.973234762899482e-05, "loss": 0.3831, "step": 49910 }, { "epoch": 66.56, "grad_norm": 0.6171875, "learning_rate": 9.973223937329777e-05, "loss": 0.3763, "step": 49920 }, { "epoch": 66.57333333333334, "grad_norm": 0.6640625, "learning_rate": 9.973213109577117e-05, "loss": 0.381, "step": 49930 }, { "epoch": 66.58666666666667, "grad_norm": 0.67578125, "learning_rate": 9.973202279641506e-05, "loss": 0.3698, "step": 49940 }, { "epoch": 66.6, "grad_norm": 0.65625, "learning_rate": 9.973191447522952e-05, "loss": 0.372, "step": 49950 }, { "epoch": 66.61333333333333, "grad_norm": 0.58984375, "learning_rate": 9.973180613221453e-05, "loss": 0.3628, "step": 49960 }, { "epoch": 66.62666666666667, "grad_norm": 0.5703125, "learning_rate": 9.973169776737021e-05, "loss": 0.3681, "step": 49970 }, { "epoch": 66.64, "grad_norm": 0.73046875, "learning_rate": 9.973158938069656e-05, "loss": 0.3775, "step": 49980 }, { "epoch": 66.65333333333334, "grad_norm": 0.70703125, "learning_rate": 9.973148097219364e-05, "loss": 0.3877, "step": 49990 }, { "epoch": 66.66666666666667, "grad_norm": 0.640625, "learning_rate": 9.973137254186152e-05, "loss": 0.3768, "step": 50000 }, { "epoch": 66.68, "grad_norm": 0.73828125, "learning_rate": 9.973126408970022e-05, "loss": 0.3668, "step": 50010 }, { "epoch": 66.69333333333333, "grad_norm": 0.6171875, "learning_rate": 9.973115561570981e-05, "loss": 0.3772, "step": 50020 }, { "epoch": 66.70666666666666, "grad_norm": 0.77734375, "learning_rate": 9.97310471198903e-05, "loss": 0.3692, "step": 50030 }, { "epoch": 66.72, "grad_norm": 0.796875, "learning_rate": 9.973093860224177e-05, "loss": 0.3902, "step": 50040 }, { "epoch": 66.73333333333333, "grad_norm": 0.6953125, "learning_rate": 9.973083006276425e-05, "loss": 0.3851, "step": 50050 }, { "epoch": 66.74666666666667, "grad_norm": 0.6953125, "learning_rate": 9.973072150145782e-05, "loss": 0.3886, "step": 50060 }, { "epoch": 66.76, "grad_norm": 0.69140625, "learning_rate": 9.973061291832248e-05, "loss": 0.402, "step": 50070 }, { "epoch": 66.77333333333333, "grad_norm": 0.7890625, "learning_rate": 9.973050431335831e-05, "loss": 0.3854, "step": 50080 }, { "epoch": 66.78666666666666, "grad_norm": 0.640625, "learning_rate": 9.973039568656535e-05, "loss": 0.3881, "step": 50090 }, { "epoch": 66.8, "grad_norm": 0.71484375, "learning_rate": 9.973028703794365e-05, "loss": 0.387, "step": 50100 }, { "epoch": 66.81333333333333, "grad_norm": 0.765625, "learning_rate": 9.973017836749326e-05, "loss": 0.3602, "step": 50110 }, { "epoch": 66.82666666666667, "grad_norm": 0.69921875, "learning_rate": 9.973006967521422e-05, "loss": 0.3687, "step": 50120 }, { "epoch": 66.84, "grad_norm": 0.65234375, "learning_rate": 9.972996096110657e-05, "loss": 0.381, "step": 50130 }, { "epoch": 66.85333333333334, "grad_norm": 0.65625, "learning_rate": 9.972985222517038e-05, "loss": 0.3771, "step": 50140 }, { "epoch": 66.86666666666666, "grad_norm": 0.6796875, "learning_rate": 9.972974346740567e-05, "loss": 0.3817, "step": 50150 }, { "epoch": 66.88, "grad_norm": 0.671875, "learning_rate": 9.972963468781253e-05, "loss": 0.363, "step": 50160 }, { "epoch": 66.89333333333333, "grad_norm": 0.6484375, "learning_rate": 9.972952588639096e-05, "loss": 0.3742, "step": 50170 }, { "epoch": 66.90666666666667, "grad_norm": 0.69140625, "learning_rate": 9.972941706314104e-05, "loss": 0.379, "step": 50180 }, { "epoch": 66.92, "grad_norm": 0.74609375, "learning_rate": 9.97293082180628e-05, "loss": 0.3818, "step": 50190 }, { "epoch": 66.93333333333334, "grad_norm": 0.6484375, "learning_rate": 9.97291993511563e-05, "loss": 0.376, "step": 50200 }, { "epoch": 66.94666666666667, "grad_norm": 0.71484375, "learning_rate": 9.972909046242158e-05, "loss": 0.3768, "step": 50210 }, { "epoch": 66.96, "grad_norm": 0.69921875, "learning_rate": 9.972898155185869e-05, "loss": 0.3745, "step": 50220 }, { "epoch": 66.97333333333333, "grad_norm": 0.9296875, "learning_rate": 9.972887261946768e-05, "loss": 0.3992, "step": 50230 }, { "epoch": 66.98666666666666, "grad_norm": 0.67578125, "learning_rate": 9.97287636652486e-05, "loss": 0.3694, "step": 50240 }, { "epoch": 67.0, "grad_norm": 0.66015625, "learning_rate": 9.972865468920148e-05, "loss": 0.3682, "step": 50250 }, { "epoch": 67.0, "eval_loss": 0.42352354526519775, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9526, "eval_samples_per_second": 1.461, "eval_steps_per_second": 0.091, "step": 50250 }, { "epoch": 67.01333333333334, "grad_norm": 0.78515625, "learning_rate": 9.972854569132639e-05, "loss": 0.3854, "step": 50260 }, { "epoch": 67.02666666666667, "grad_norm": 0.671875, "learning_rate": 9.972843667162337e-05, "loss": 0.3996, "step": 50270 }, { "epoch": 67.04, "grad_norm": 0.67578125, "learning_rate": 9.972832763009247e-05, "loss": 0.4122, "step": 50280 }, { "epoch": 67.05333333333333, "grad_norm": 0.6796875, "learning_rate": 9.972821856673373e-05, "loss": 0.3966, "step": 50290 }, { "epoch": 67.06666666666666, "grad_norm": 0.76171875, "learning_rate": 9.97281094815472e-05, "loss": 0.3845, "step": 50300 }, { "epoch": 67.08, "grad_norm": 0.69140625, "learning_rate": 9.972800037453294e-05, "loss": 0.3884, "step": 50310 }, { "epoch": 67.09333333333333, "grad_norm": 0.69921875, "learning_rate": 9.972789124569098e-05, "loss": 0.3905, "step": 50320 }, { "epoch": 67.10666666666667, "grad_norm": 0.6640625, "learning_rate": 9.972778209502138e-05, "loss": 0.379, "step": 50330 }, { "epoch": 67.12, "grad_norm": 0.73046875, "learning_rate": 9.97276729225242e-05, "loss": 0.3817, "step": 50340 }, { "epoch": 67.13333333333334, "grad_norm": 0.6328125, "learning_rate": 9.972756372819945e-05, "loss": 0.3729, "step": 50350 }, { "epoch": 67.14666666666666, "grad_norm": 0.67578125, "learning_rate": 9.972745451204721e-05, "loss": 0.3917, "step": 50360 }, { "epoch": 67.16, "grad_norm": 0.60546875, "learning_rate": 9.972734527406752e-05, "loss": 0.3874, "step": 50370 }, { "epoch": 67.17333333333333, "grad_norm": 0.734375, "learning_rate": 9.972723601426041e-05, "loss": 0.382, "step": 50380 }, { "epoch": 67.18666666666667, "grad_norm": 0.6640625, "learning_rate": 9.972712673262597e-05, "loss": 0.3784, "step": 50390 }, { "epoch": 67.2, "grad_norm": 0.6484375, "learning_rate": 9.972701742916422e-05, "loss": 0.3711, "step": 50400 }, { "epoch": 67.21333333333334, "grad_norm": 0.734375, "learning_rate": 9.972690810387519e-05, "loss": 0.3725, "step": 50410 }, { "epoch": 67.22666666666667, "grad_norm": 0.72265625, "learning_rate": 9.972679875675896e-05, "loss": 0.3837, "step": 50420 }, { "epoch": 67.24, "grad_norm": 0.76171875, "learning_rate": 9.972668938781556e-05, "loss": 0.3697, "step": 50430 }, { "epoch": 67.25333333333333, "grad_norm": 0.7421875, "learning_rate": 9.972657999704506e-05, "loss": 0.3717, "step": 50440 }, { "epoch": 67.26666666666667, "grad_norm": 0.65234375, "learning_rate": 9.972647058444747e-05, "loss": 0.3735, "step": 50450 }, { "epoch": 67.28, "grad_norm": 0.74609375, "learning_rate": 9.972636115002288e-05, "loss": 0.4023, "step": 50460 }, { "epoch": 67.29333333333334, "grad_norm": 0.7109375, "learning_rate": 9.97262516937713e-05, "loss": 0.3607, "step": 50470 }, { "epoch": 67.30666666666667, "grad_norm": 0.6953125, "learning_rate": 9.972614221569281e-05, "loss": 0.3851, "step": 50480 }, { "epoch": 67.32, "grad_norm": 0.62890625, "learning_rate": 9.972603271578745e-05, "loss": 0.3869, "step": 50490 }, { "epoch": 67.33333333333333, "grad_norm": 0.7109375, "learning_rate": 9.972592319405524e-05, "loss": 0.3876, "step": 50500 }, { "epoch": 67.34666666666666, "grad_norm": 0.78125, "learning_rate": 9.972581365049627e-05, "loss": 0.3788, "step": 50510 }, { "epoch": 67.36, "grad_norm": 0.65625, "learning_rate": 9.972570408511057e-05, "loss": 0.3803, "step": 50520 }, { "epoch": 67.37333333333333, "grad_norm": 0.609375, "learning_rate": 9.972559449789817e-05, "loss": 0.3813, "step": 50530 }, { "epoch": 67.38666666666667, "grad_norm": 0.86328125, "learning_rate": 9.972548488885914e-05, "loss": 0.3707, "step": 50540 }, { "epoch": 67.4, "grad_norm": 0.70703125, "learning_rate": 9.972537525799353e-05, "loss": 0.3797, "step": 50550 }, { "epoch": 67.41333333333333, "grad_norm": 0.70703125, "learning_rate": 9.972526560530138e-05, "loss": 0.3861, "step": 50560 }, { "epoch": 67.42666666666666, "grad_norm": 0.6953125, "learning_rate": 9.972515593078273e-05, "loss": 0.387, "step": 50570 }, { "epoch": 67.44, "grad_norm": 0.68359375, "learning_rate": 9.972504623443766e-05, "loss": 0.3989, "step": 50580 }, { "epoch": 67.45333333333333, "grad_norm": 0.734375, "learning_rate": 9.972493651626617e-05, "loss": 0.3854, "step": 50590 }, { "epoch": 67.46666666666667, "grad_norm": 0.64453125, "learning_rate": 9.972482677626835e-05, "loss": 0.3943, "step": 50600 }, { "epoch": 67.48, "grad_norm": 0.62890625, "learning_rate": 9.972471701444422e-05, "loss": 0.3774, "step": 50610 }, { "epoch": 67.49333333333334, "grad_norm": 0.68359375, "learning_rate": 9.972460723079384e-05, "loss": 0.3886, "step": 50620 }, { "epoch": 67.50666666666666, "grad_norm": 0.6875, "learning_rate": 9.972449742531727e-05, "loss": 0.3877, "step": 50630 }, { "epoch": 67.52, "grad_norm": 0.58984375, "learning_rate": 9.972438759801455e-05, "loss": 0.3789, "step": 50640 }, { "epoch": 67.53333333333333, "grad_norm": 0.703125, "learning_rate": 9.972427774888571e-05, "loss": 0.3805, "step": 50650 }, { "epoch": 67.54666666666667, "grad_norm": 0.7421875, "learning_rate": 9.972416787793082e-05, "loss": 0.382, "step": 50660 }, { "epoch": 67.56, "grad_norm": 0.59375, "learning_rate": 9.972405798514991e-05, "loss": 0.3757, "step": 50670 }, { "epoch": 67.57333333333334, "grad_norm": 0.65234375, "learning_rate": 9.972394807054305e-05, "loss": 0.3797, "step": 50680 }, { "epoch": 67.58666666666667, "grad_norm": 0.67578125, "learning_rate": 9.972383813411029e-05, "loss": 0.3692, "step": 50690 }, { "epoch": 67.6, "grad_norm": 0.66796875, "learning_rate": 9.972372817585164e-05, "loss": 0.3714, "step": 50700 }, { "epoch": 67.61333333333333, "grad_norm": 0.6015625, "learning_rate": 9.97236181957672e-05, "loss": 0.3628, "step": 50710 }, { "epoch": 67.62666666666667, "grad_norm": 0.60546875, "learning_rate": 9.972350819385696e-05, "loss": 0.369, "step": 50720 }, { "epoch": 67.64, "grad_norm": 0.76171875, "learning_rate": 9.972339817012101e-05, "loss": 0.3772, "step": 50730 }, { "epoch": 67.65333333333334, "grad_norm": 0.70703125, "learning_rate": 9.97232881245594e-05, "loss": 0.3874, "step": 50740 }, { "epoch": 67.66666666666667, "grad_norm": 0.64453125, "learning_rate": 9.972317805717218e-05, "loss": 0.3772, "step": 50750 }, { "epoch": 67.68, "grad_norm": 0.69140625, "learning_rate": 9.972306796795937e-05, "loss": 0.3672, "step": 50760 }, { "epoch": 67.69333333333333, "grad_norm": 0.67578125, "learning_rate": 9.972295785692102e-05, "loss": 0.3762, "step": 50770 }, { "epoch": 67.70666666666666, "grad_norm": 0.71484375, "learning_rate": 9.97228477240572e-05, "loss": 0.3682, "step": 50780 }, { "epoch": 67.72, "grad_norm": 0.72265625, "learning_rate": 9.972273756936796e-05, "loss": 0.3902, "step": 50790 }, { "epoch": 67.73333333333333, "grad_norm": 0.734375, "learning_rate": 9.972262739285335e-05, "loss": 0.3846, "step": 50800 }, { "epoch": 67.74666666666667, "grad_norm": 0.7578125, "learning_rate": 9.972251719451338e-05, "loss": 0.3887, "step": 50810 }, { "epoch": 67.76, "grad_norm": 0.71484375, "learning_rate": 9.972240697434813e-05, "loss": 0.4006, "step": 50820 }, { "epoch": 67.77333333333333, "grad_norm": 0.734375, "learning_rate": 9.972229673235767e-05, "loss": 0.3853, "step": 50830 }, { "epoch": 67.78666666666666, "grad_norm": 0.65625, "learning_rate": 9.972218646854199e-05, "loss": 0.3877, "step": 50840 }, { "epoch": 67.8, "grad_norm": 0.73046875, "learning_rate": 9.972207618290119e-05, "loss": 0.3861, "step": 50850 }, { "epoch": 67.81333333333333, "grad_norm": 0.79296875, "learning_rate": 9.97219658754353e-05, "loss": 0.3595, "step": 50860 }, { "epoch": 67.82666666666667, "grad_norm": 0.6328125, "learning_rate": 9.972185554614435e-05, "loss": 0.3674, "step": 50870 }, { "epoch": 67.84, "grad_norm": 0.73046875, "learning_rate": 9.972174519502842e-05, "loss": 0.3799, "step": 50880 }, { "epoch": 67.85333333333334, "grad_norm": 0.69140625, "learning_rate": 9.972163482208755e-05, "loss": 0.3754, "step": 50890 }, { "epoch": 67.86666666666666, "grad_norm": 0.6640625, "learning_rate": 9.972152442732176e-05, "loss": 0.3815, "step": 50900 }, { "epoch": 67.88, "grad_norm": 0.703125, "learning_rate": 9.972141401073114e-05, "loss": 0.3621, "step": 50910 }, { "epoch": 67.89333333333333, "grad_norm": 0.703125, "learning_rate": 9.972130357231573e-05, "loss": 0.3743, "step": 50920 }, { "epoch": 67.90666666666667, "grad_norm": 0.7109375, "learning_rate": 9.972119311207555e-05, "loss": 0.3788, "step": 50930 }, { "epoch": 67.92, "grad_norm": 0.6640625, "learning_rate": 9.972108263001068e-05, "loss": 0.3802, "step": 50940 }, { "epoch": 67.93333333333334, "grad_norm": 0.59765625, "learning_rate": 9.972097212612114e-05, "loss": 0.3755, "step": 50950 }, { "epoch": 67.94666666666667, "grad_norm": 0.7109375, "learning_rate": 9.972086160040699e-05, "loss": 0.3763, "step": 50960 }, { "epoch": 67.96, "grad_norm": 0.65625, "learning_rate": 9.97207510528683e-05, "loss": 0.3753, "step": 50970 }, { "epoch": 67.97333333333333, "grad_norm": 0.8515625, "learning_rate": 9.972064048350509e-05, "loss": 0.3977, "step": 50980 }, { "epoch": 67.98666666666666, "grad_norm": 0.71875, "learning_rate": 9.972052989231743e-05, "loss": 0.3696, "step": 50990 }, { "epoch": 68.0, "grad_norm": 0.734375, "learning_rate": 9.972041927930534e-05, "loss": 0.3679, "step": 51000 }, { "epoch": 68.0, "eval_loss": 0.4241451323032379, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9116, "eval_samples_per_second": 1.466, "eval_steps_per_second": 0.092, "step": 51000 }, { "epoch": 68.01333333333334, "grad_norm": 0.71484375, "learning_rate": 9.972030864446891e-05, "loss": 0.3842, "step": 51010 }, { "epoch": 68.02666666666667, "grad_norm": 0.65625, "learning_rate": 9.972019798780814e-05, "loss": 0.3997, "step": 51020 }, { "epoch": 68.04, "grad_norm": 0.7421875, "learning_rate": 9.972008730932312e-05, "loss": 0.4103, "step": 51030 }, { "epoch": 68.05333333333333, "grad_norm": 0.71875, "learning_rate": 9.971997660901389e-05, "loss": 0.3964, "step": 51040 }, { "epoch": 68.06666666666666, "grad_norm": 0.78515625, "learning_rate": 9.971986588688047e-05, "loss": 0.385, "step": 51050 }, { "epoch": 68.08, "grad_norm": 0.71484375, "learning_rate": 9.971975514292294e-05, "loss": 0.3889, "step": 51060 }, { "epoch": 68.09333333333333, "grad_norm": 0.6953125, "learning_rate": 9.971964437714133e-05, "loss": 0.3901, "step": 51070 }, { "epoch": 68.10666666666667, "grad_norm": 0.61328125, "learning_rate": 9.971953358953571e-05, "loss": 0.3783, "step": 51080 }, { "epoch": 68.12, "grad_norm": 0.65234375, "learning_rate": 9.97194227801061e-05, "loss": 0.3806, "step": 51090 }, { "epoch": 68.13333333333334, "grad_norm": 0.70703125, "learning_rate": 9.971931194885258e-05, "loss": 0.3729, "step": 51100 }, { "epoch": 68.14666666666666, "grad_norm": 0.6796875, "learning_rate": 9.971920109577518e-05, "loss": 0.3927, "step": 51110 }, { "epoch": 68.16, "grad_norm": 0.71484375, "learning_rate": 9.971909022087393e-05, "loss": 0.3865, "step": 51120 }, { "epoch": 68.17333333333333, "grad_norm": 0.703125, "learning_rate": 9.971897932414893e-05, "loss": 0.3808, "step": 51130 }, { "epoch": 68.18666666666667, "grad_norm": 0.68359375, "learning_rate": 9.971886840560018e-05, "loss": 0.3791, "step": 51140 }, { "epoch": 68.2, "grad_norm": 0.66015625, "learning_rate": 9.971875746522774e-05, "loss": 0.3712, "step": 51150 }, { "epoch": 68.21333333333334, "grad_norm": 0.7109375, "learning_rate": 9.971864650303169e-05, "loss": 0.3718, "step": 51160 }, { "epoch": 68.22666666666667, "grad_norm": 0.6953125, "learning_rate": 9.971853551901204e-05, "loss": 0.3829, "step": 51170 }, { "epoch": 68.24, "grad_norm": 0.71484375, "learning_rate": 9.971842451316884e-05, "loss": 0.3683, "step": 51180 }, { "epoch": 68.25333333333333, "grad_norm": 0.72265625, "learning_rate": 9.971831348550217e-05, "loss": 0.3718, "step": 51190 }, { "epoch": 68.26666666666667, "grad_norm": 0.6640625, "learning_rate": 9.971820243601207e-05, "loss": 0.3741, "step": 51200 }, { "epoch": 68.28, "grad_norm": 0.71875, "learning_rate": 9.971809136469856e-05, "loss": 0.4018, "step": 51210 }, { "epoch": 68.29333333333334, "grad_norm": 0.66015625, "learning_rate": 9.971798027156171e-05, "loss": 0.3597, "step": 51220 }, { "epoch": 68.30666666666667, "grad_norm": 0.625, "learning_rate": 9.971786915660157e-05, "loss": 0.3838, "step": 51230 }, { "epoch": 68.32, "grad_norm": 0.59375, "learning_rate": 9.97177580198182e-05, "loss": 0.3868, "step": 51240 }, { "epoch": 68.33333333333333, "grad_norm": 0.69921875, "learning_rate": 9.971764686121162e-05, "loss": 0.3867, "step": 51250 }, { "epoch": 68.34666666666666, "grad_norm": 0.72265625, "learning_rate": 9.97175356807819e-05, "loss": 0.3771, "step": 51260 }, { "epoch": 68.36, "grad_norm": 0.7109375, "learning_rate": 9.971742447852908e-05, "loss": 0.378, "step": 51270 }, { "epoch": 68.37333333333333, "grad_norm": 0.60546875, "learning_rate": 9.97173132544532e-05, "loss": 0.3812, "step": 51280 }, { "epoch": 68.38666666666667, "grad_norm": 0.7421875, "learning_rate": 9.971720200855433e-05, "loss": 0.3702, "step": 51290 }, { "epoch": 68.4, "grad_norm": 0.7421875, "learning_rate": 9.971709074083251e-05, "loss": 0.3797, "step": 51300 }, { "epoch": 68.41333333333333, "grad_norm": 0.625, "learning_rate": 9.971697945128778e-05, "loss": 0.3842, "step": 51310 }, { "epoch": 68.42666666666666, "grad_norm": 0.6484375, "learning_rate": 9.97168681399202e-05, "loss": 0.3875, "step": 51320 }, { "epoch": 68.44, "grad_norm": 0.703125, "learning_rate": 9.971675680672983e-05, "loss": 0.3989, "step": 51330 }, { "epoch": 68.45333333333333, "grad_norm": 0.78125, "learning_rate": 9.971664545171668e-05, "loss": 0.3858, "step": 51340 }, { "epoch": 68.46666666666667, "grad_norm": 0.6953125, "learning_rate": 9.971653407488084e-05, "loss": 0.3942, "step": 51350 }, { "epoch": 68.48, "grad_norm": 0.68359375, "learning_rate": 9.971642267622233e-05, "loss": 0.3764, "step": 51360 }, { "epoch": 68.49333333333334, "grad_norm": 0.69140625, "learning_rate": 9.971631125574121e-05, "loss": 0.3874, "step": 51370 }, { "epoch": 68.50666666666666, "grad_norm": 0.66796875, "learning_rate": 9.971619981343754e-05, "loss": 0.3866, "step": 51380 }, { "epoch": 68.52, "grad_norm": 0.5859375, "learning_rate": 9.971608834931137e-05, "loss": 0.3787, "step": 51390 }, { "epoch": 68.53333333333333, "grad_norm": 0.68359375, "learning_rate": 9.971597686336272e-05, "loss": 0.3798, "step": 51400 }, { "epoch": 68.54666666666667, "grad_norm": 0.73828125, "learning_rate": 9.971586535559166e-05, "loss": 0.3816, "step": 51410 }, { "epoch": 68.56, "grad_norm": 0.61328125, "learning_rate": 9.971575382599822e-05, "loss": 0.3759, "step": 51420 }, { "epoch": 68.57333333333334, "grad_norm": 0.65234375, "learning_rate": 9.971564227458248e-05, "loss": 0.3794, "step": 51430 }, { "epoch": 68.58666666666667, "grad_norm": 0.61328125, "learning_rate": 9.971553070134447e-05, "loss": 0.3687, "step": 51440 }, { "epoch": 68.6, "grad_norm": 0.703125, "learning_rate": 9.971541910628424e-05, "loss": 0.3719, "step": 51450 }, { "epoch": 68.61333333333333, "grad_norm": 0.625, "learning_rate": 9.971530748940185e-05, "loss": 0.3626, "step": 51460 }, { "epoch": 68.62666666666667, "grad_norm": 0.578125, "learning_rate": 9.971519585069734e-05, "loss": 0.3668, "step": 51470 }, { "epoch": 68.64, "grad_norm": 0.703125, "learning_rate": 9.971508419017075e-05, "loss": 0.3759, "step": 51480 }, { "epoch": 68.65333333333334, "grad_norm": 0.7265625, "learning_rate": 9.971497250782214e-05, "loss": 0.3876, "step": 51490 }, { "epoch": 68.66666666666667, "grad_norm": 0.6484375, "learning_rate": 9.971486080365157e-05, "loss": 0.3751, "step": 51500 }, { "epoch": 68.68, "grad_norm": 0.7109375, "learning_rate": 9.971474907765905e-05, "loss": 0.3675, "step": 51510 }, { "epoch": 68.69333333333333, "grad_norm": 0.62890625, "learning_rate": 9.971463732984469e-05, "loss": 0.3757, "step": 51520 }, { "epoch": 68.70666666666666, "grad_norm": 0.74609375, "learning_rate": 9.971452556020849e-05, "loss": 0.3673, "step": 51530 }, { "epoch": 68.72, "grad_norm": 0.7265625, "learning_rate": 9.97144137687505e-05, "loss": 0.3891, "step": 51540 }, { "epoch": 68.73333333333333, "grad_norm": 0.73828125, "learning_rate": 9.971430195547079e-05, "loss": 0.3851, "step": 51550 }, { "epoch": 68.74666666666667, "grad_norm": 1.640625, "learning_rate": 9.97141901203694e-05, "loss": 0.3878, "step": 51560 }, { "epoch": 68.76, "grad_norm": 0.80078125, "learning_rate": 9.971407826344638e-05, "loss": 0.4017, "step": 51570 }, { "epoch": 68.77333333333333, "grad_norm": 0.73828125, "learning_rate": 9.971396638470178e-05, "loss": 0.3858, "step": 51580 }, { "epoch": 68.78666666666666, "grad_norm": 0.62890625, "learning_rate": 9.971385448413566e-05, "loss": 0.3867, "step": 51590 }, { "epoch": 68.8, "grad_norm": 0.68359375, "learning_rate": 9.971374256174805e-05, "loss": 0.385, "step": 51600 }, { "epoch": 68.81333333333333, "grad_norm": 0.796875, "learning_rate": 9.971363061753901e-05, "loss": 0.3592, "step": 51610 }, { "epoch": 68.82666666666667, "grad_norm": 0.66796875, "learning_rate": 9.971351865150858e-05, "loss": 0.3674, "step": 51620 }, { "epoch": 68.84, "grad_norm": 0.75, "learning_rate": 9.971340666365682e-05, "loss": 0.3799, "step": 51630 }, { "epoch": 68.85333333333334, "grad_norm": 0.640625, "learning_rate": 9.971329465398377e-05, "loss": 0.3758, "step": 51640 }, { "epoch": 68.86666666666666, "grad_norm": 0.7421875, "learning_rate": 9.97131826224895e-05, "loss": 0.3802, "step": 51650 }, { "epoch": 68.88, "grad_norm": 0.64453125, "learning_rate": 9.971307056917402e-05, "loss": 0.3612, "step": 51660 }, { "epoch": 68.89333333333333, "grad_norm": 0.75390625, "learning_rate": 9.971295849403742e-05, "loss": 0.3732, "step": 51670 }, { "epoch": 68.90666666666667, "grad_norm": 0.6796875, "learning_rate": 9.971284639707973e-05, "loss": 0.3784, "step": 51680 }, { "epoch": 68.92, "grad_norm": 0.71484375, "learning_rate": 9.971273427830099e-05, "loss": 0.3805, "step": 51690 }, { "epoch": 68.93333333333334, "grad_norm": 0.640625, "learning_rate": 9.971262213770127e-05, "loss": 0.3752, "step": 51700 }, { "epoch": 68.94666666666667, "grad_norm": 0.671875, "learning_rate": 9.97125099752806e-05, "loss": 0.3755, "step": 51710 }, { "epoch": 68.96, "grad_norm": 0.71484375, "learning_rate": 9.971239779103905e-05, "loss": 0.3748, "step": 51720 }, { "epoch": 68.97333333333333, "grad_norm": 0.8671875, "learning_rate": 9.971228558497664e-05, "loss": 0.3981, "step": 51730 }, { "epoch": 68.98666666666666, "grad_norm": 0.8125, "learning_rate": 9.971217335709345e-05, "loss": 0.3694, "step": 51740 }, { "epoch": 69.0, "grad_norm": 0.6640625, "learning_rate": 9.97120611073895e-05, "loss": 0.3671, "step": 51750 }, { "epoch": 69.0, "eval_loss": 0.42266419529914856, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4546, "eval_samples_per_second": 1.53, "eval_steps_per_second": 0.096, "step": 51750 }, { "epoch": 69.01333333333334, "grad_norm": 0.7421875, "learning_rate": 9.971194883586488e-05, "loss": 0.3842, "step": 51760 }, { "epoch": 69.02666666666667, "grad_norm": 0.640625, "learning_rate": 9.97118365425196e-05, "loss": 0.3989, "step": 51770 }, { "epoch": 69.04, "grad_norm": 0.625, "learning_rate": 9.971172422735373e-05, "loss": 0.4113, "step": 51780 }, { "epoch": 69.05333333333333, "grad_norm": 0.67578125, "learning_rate": 9.971161189036731e-05, "loss": 0.3955, "step": 51790 }, { "epoch": 69.06666666666666, "grad_norm": 0.76953125, "learning_rate": 9.971149953156038e-05, "loss": 0.3846, "step": 51800 }, { "epoch": 69.08, "grad_norm": 0.71484375, "learning_rate": 9.971138715093302e-05, "loss": 0.3886, "step": 51810 }, { "epoch": 69.09333333333333, "grad_norm": 0.70703125, "learning_rate": 9.971127474848526e-05, "loss": 0.3902, "step": 51820 }, { "epoch": 69.10666666666667, "grad_norm": 0.67578125, "learning_rate": 9.971116232421713e-05, "loss": 0.3783, "step": 51830 }, { "epoch": 69.12, "grad_norm": 0.734375, "learning_rate": 9.971104987812872e-05, "loss": 0.3813, "step": 51840 }, { "epoch": 69.13333333333334, "grad_norm": 0.640625, "learning_rate": 9.971093741022005e-05, "loss": 0.3725, "step": 51850 }, { "epoch": 69.14666666666666, "grad_norm": 0.6796875, "learning_rate": 9.971082492049117e-05, "loss": 0.3914, "step": 51860 }, { "epoch": 69.16, "grad_norm": 0.62890625, "learning_rate": 9.971071240894216e-05, "loss": 0.3861, "step": 51870 }, { "epoch": 69.17333333333333, "grad_norm": 0.703125, "learning_rate": 9.971059987557304e-05, "loss": 0.381, "step": 51880 }, { "epoch": 69.18666666666667, "grad_norm": 0.63671875, "learning_rate": 9.971048732038385e-05, "loss": 0.3784, "step": 51890 }, { "epoch": 69.2, "grad_norm": 0.68359375, "learning_rate": 9.971037474337468e-05, "loss": 0.3713, "step": 51900 }, { "epoch": 69.21333333333334, "grad_norm": 0.7109375, "learning_rate": 9.971026214454554e-05, "loss": 0.3719, "step": 51910 }, { "epoch": 69.22666666666667, "grad_norm": 0.69921875, "learning_rate": 9.97101495238965e-05, "loss": 0.3817, "step": 51920 }, { "epoch": 69.24, "grad_norm": 0.734375, "learning_rate": 9.97100368814276e-05, "loss": 0.3686, "step": 51930 }, { "epoch": 69.25333333333333, "grad_norm": 0.68359375, "learning_rate": 9.97099242171389e-05, "loss": 0.3705, "step": 51940 }, { "epoch": 69.26666666666667, "grad_norm": 0.6953125, "learning_rate": 9.970981153103044e-05, "loss": 0.3732, "step": 51950 }, { "epoch": 69.28, "grad_norm": 0.71875, "learning_rate": 9.970969882310227e-05, "loss": 0.4018, "step": 51960 }, { "epoch": 69.29333333333334, "grad_norm": 0.6796875, "learning_rate": 9.970958609335445e-05, "loss": 0.3603, "step": 51970 }, { "epoch": 69.30666666666667, "grad_norm": 0.6015625, "learning_rate": 9.970947334178702e-05, "loss": 0.3831, "step": 51980 }, { "epoch": 69.32, "grad_norm": 0.62109375, "learning_rate": 9.970936056840002e-05, "loss": 0.3866, "step": 51990 }, { "epoch": 69.33333333333333, "grad_norm": 0.71875, "learning_rate": 9.970924777319353e-05, "loss": 0.3875, "step": 52000 }, { "epoch": 69.34666666666666, "grad_norm": 0.765625, "learning_rate": 9.970913495616756e-05, "loss": 0.3777, "step": 52010 }, { "epoch": 69.36, "grad_norm": 0.703125, "learning_rate": 9.970902211732218e-05, "loss": 0.3774, "step": 52020 }, { "epoch": 69.37333333333333, "grad_norm": 0.64453125, "learning_rate": 9.970890925665746e-05, "loss": 0.3811, "step": 52030 }, { "epoch": 69.38666666666667, "grad_norm": 0.72265625, "learning_rate": 9.970879637417341e-05, "loss": 0.3697, "step": 52040 }, { "epoch": 69.4, "grad_norm": 0.6640625, "learning_rate": 9.97086834698701e-05, "loss": 0.3788, "step": 52050 }, { "epoch": 69.41333333333333, "grad_norm": 0.6953125, "learning_rate": 9.970857054374758e-05, "loss": 0.3846, "step": 52060 }, { "epoch": 69.42666666666666, "grad_norm": 0.6015625, "learning_rate": 9.97084575958059e-05, "loss": 0.3864, "step": 52070 }, { "epoch": 69.44, "grad_norm": 0.65625, "learning_rate": 9.97083446260451e-05, "loss": 0.3986, "step": 52080 }, { "epoch": 69.45333333333333, "grad_norm": 0.68359375, "learning_rate": 9.970823163446526e-05, "loss": 0.3857, "step": 52090 }, { "epoch": 69.46666666666667, "grad_norm": 0.78125, "learning_rate": 9.970811862106637e-05, "loss": 0.3931, "step": 52100 }, { "epoch": 69.48, "grad_norm": 0.6953125, "learning_rate": 9.970800558584854e-05, "loss": 0.3757, "step": 52110 }, { "epoch": 69.49333333333334, "grad_norm": 0.6953125, "learning_rate": 9.970789252881179e-05, "loss": 0.3879, "step": 52120 }, { "epoch": 69.50666666666666, "grad_norm": 0.6640625, "learning_rate": 9.970777944995617e-05, "loss": 0.3864, "step": 52130 }, { "epoch": 69.52, "grad_norm": 0.60546875, "learning_rate": 9.970766634928174e-05, "loss": 0.3777, "step": 52140 }, { "epoch": 69.53333333333333, "grad_norm": 0.71484375, "learning_rate": 9.970755322678856e-05, "loss": 0.3795, "step": 52150 }, { "epoch": 69.54666666666667, "grad_norm": 0.78125, "learning_rate": 9.970744008247663e-05, "loss": 0.3809, "step": 52160 }, { "epoch": 69.56, "grad_norm": 0.62890625, "learning_rate": 9.970732691634606e-05, "loss": 0.3756, "step": 52170 }, { "epoch": 69.57333333333334, "grad_norm": 0.7265625, "learning_rate": 9.970721372839686e-05, "loss": 0.3804, "step": 52180 }, { "epoch": 69.58666666666667, "grad_norm": 0.65234375, "learning_rate": 9.97071005186291e-05, "loss": 0.3693, "step": 52190 }, { "epoch": 69.6, "grad_norm": 0.6484375, "learning_rate": 9.970698728704282e-05, "loss": 0.371, "step": 52200 }, { "epoch": 69.61333333333333, "grad_norm": 0.5703125, "learning_rate": 9.970687403363808e-05, "loss": 0.3624, "step": 52210 }, { "epoch": 69.62666666666667, "grad_norm": 0.60546875, "learning_rate": 9.970676075841489e-05, "loss": 0.3674, "step": 52220 }, { "epoch": 69.64, "grad_norm": 0.67578125, "learning_rate": 9.970664746137337e-05, "loss": 0.3761, "step": 52230 }, { "epoch": 69.65333333333334, "grad_norm": 0.71875, "learning_rate": 9.970653414251351e-05, "loss": 0.3875, "step": 52240 }, { "epoch": 69.66666666666667, "grad_norm": 0.640625, "learning_rate": 9.970642080183539e-05, "loss": 0.3758, "step": 52250 }, { "epoch": 69.68, "grad_norm": 0.6875, "learning_rate": 9.970630743933905e-05, "loss": 0.3658, "step": 52260 }, { "epoch": 69.69333333333333, "grad_norm": 0.62890625, "learning_rate": 9.970619405502454e-05, "loss": 0.3764, "step": 52270 }, { "epoch": 69.70666666666666, "grad_norm": 0.77734375, "learning_rate": 9.970608064889191e-05, "loss": 0.3672, "step": 52280 }, { "epoch": 69.72, "grad_norm": 0.74609375, "learning_rate": 9.97059672209412e-05, "loss": 0.3891, "step": 52290 }, { "epoch": 69.73333333333333, "grad_norm": 0.7265625, "learning_rate": 9.97058537711725e-05, "loss": 0.3847, "step": 52300 }, { "epoch": 69.74666666666667, "grad_norm": 0.64453125, "learning_rate": 9.970574029958582e-05, "loss": 0.3878, "step": 52310 }, { "epoch": 69.76, "grad_norm": 0.70703125, "learning_rate": 9.97056268061812e-05, "loss": 0.4008, "step": 52320 }, { "epoch": 69.77333333333333, "grad_norm": 0.796875, "learning_rate": 9.970551329095872e-05, "loss": 0.3848, "step": 52330 }, { "epoch": 69.78666666666666, "grad_norm": 0.6015625, "learning_rate": 9.970539975391841e-05, "loss": 0.3865, "step": 52340 }, { "epoch": 69.8, "grad_norm": 0.66796875, "learning_rate": 9.970528619506035e-05, "loss": 0.3856, "step": 52350 }, { "epoch": 69.81333333333333, "grad_norm": 0.76953125, "learning_rate": 9.970517261438455e-05, "loss": 0.3592, "step": 52360 }, { "epoch": 69.82666666666667, "grad_norm": 0.71875, "learning_rate": 9.970505901189109e-05, "loss": 0.3669, "step": 52370 }, { "epoch": 69.84, "grad_norm": 0.75390625, "learning_rate": 9.970494538758001e-05, "loss": 0.3801, "step": 52380 }, { "epoch": 69.85333333333334, "grad_norm": 0.68359375, "learning_rate": 9.970483174145135e-05, "loss": 0.3751, "step": 52390 }, { "epoch": 69.86666666666666, "grad_norm": 0.765625, "learning_rate": 9.970471807350516e-05, "loss": 0.3798, "step": 52400 }, { "epoch": 69.88, "grad_norm": 0.63671875, "learning_rate": 9.970460438374152e-05, "loss": 0.3614, "step": 52410 }, { "epoch": 69.89333333333333, "grad_norm": 0.6640625, "learning_rate": 9.970449067216046e-05, "loss": 0.3736, "step": 52420 }, { "epoch": 69.90666666666667, "grad_norm": 0.69921875, "learning_rate": 9.9704376938762e-05, "loss": 0.3779, "step": 52430 }, { "epoch": 69.92, "grad_norm": 0.73828125, "learning_rate": 9.970426318354624e-05, "loss": 0.3799, "step": 52440 }, { "epoch": 69.93333333333334, "grad_norm": 0.67578125, "learning_rate": 9.970414940651321e-05, "loss": 0.3756, "step": 52450 }, { "epoch": 69.94666666666667, "grad_norm": 0.67578125, "learning_rate": 9.970403560766294e-05, "loss": 0.3754, "step": 52460 }, { "epoch": 69.96, "grad_norm": 0.62890625, "learning_rate": 9.970392178699552e-05, "loss": 0.3735, "step": 52470 }, { "epoch": 69.97333333333333, "grad_norm": 0.81640625, "learning_rate": 9.970380794451097e-05, "loss": 0.3974, "step": 52480 }, { "epoch": 69.98666666666666, "grad_norm": 0.703125, "learning_rate": 9.970369408020934e-05, "loss": 0.3684, "step": 52490 }, { "epoch": 70.0, "grad_norm": 0.7109375, "learning_rate": 9.970358019409069e-05, "loss": 0.3665, "step": 52500 }, { "epoch": 70.0, "eval_loss": 0.42233040928840637, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6764, "eval_samples_per_second": 1.499, "eval_steps_per_second": 0.094, "step": 52500 }, { "epoch": 70.01333333333334, "grad_norm": 0.7421875, "learning_rate": 9.970346628615506e-05, "loss": 0.3843, "step": 52510 }, { "epoch": 70.02666666666667, "grad_norm": 0.65625, "learning_rate": 9.970335235640252e-05, "loss": 0.3987, "step": 52520 }, { "epoch": 70.04, "grad_norm": 0.62890625, "learning_rate": 9.970323840483311e-05, "loss": 0.4116, "step": 52530 }, { "epoch": 70.05333333333333, "grad_norm": 0.6875, "learning_rate": 9.970312443144687e-05, "loss": 0.3963, "step": 52540 }, { "epoch": 70.06666666666666, "grad_norm": 0.78125, "learning_rate": 9.970301043624386e-05, "loss": 0.3847, "step": 52550 }, { "epoch": 70.08, "grad_norm": 0.75390625, "learning_rate": 9.970289641922414e-05, "loss": 0.3885, "step": 52560 }, { "epoch": 70.09333333333333, "grad_norm": 0.73828125, "learning_rate": 9.970278238038773e-05, "loss": 0.3902, "step": 52570 }, { "epoch": 70.10666666666667, "grad_norm": 0.6484375, "learning_rate": 9.970266831973472e-05, "loss": 0.3778, "step": 52580 }, { "epoch": 70.12, "grad_norm": 0.72265625, "learning_rate": 9.97025542372651e-05, "loss": 0.3808, "step": 52590 }, { "epoch": 70.13333333333334, "grad_norm": 0.63671875, "learning_rate": 9.9702440132979e-05, "loss": 0.3716, "step": 52600 }, { "epoch": 70.14666666666666, "grad_norm": 0.74609375, "learning_rate": 9.970232600687642e-05, "loss": 0.391, "step": 52610 }, { "epoch": 70.16, "grad_norm": 0.68359375, "learning_rate": 9.97022118589574e-05, "loss": 0.3857, "step": 52620 }, { "epoch": 70.17333333333333, "grad_norm": 0.6953125, "learning_rate": 9.9702097689222e-05, "loss": 0.3803, "step": 52630 }, { "epoch": 70.18666666666667, "grad_norm": 0.67578125, "learning_rate": 9.970198349767031e-05, "loss": 0.3784, "step": 52640 }, { "epoch": 70.2, "grad_norm": 0.67578125, "learning_rate": 9.970186928430232e-05, "loss": 0.3697, "step": 52650 }, { "epoch": 70.21333333333334, "grad_norm": 0.70703125, "learning_rate": 9.970175504911814e-05, "loss": 0.372, "step": 52660 }, { "epoch": 70.22666666666667, "grad_norm": 0.7578125, "learning_rate": 9.970164079211777e-05, "loss": 0.383, "step": 52670 }, { "epoch": 70.24, "grad_norm": 0.70703125, "learning_rate": 9.970152651330127e-05, "loss": 0.368, "step": 52680 }, { "epoch": 70.25333333333333, "grad_norm": 0.6953125, "learning_rate": 9.970141221266872e-05, "loss": 0.3702, "step": 52690 }, { "epoch": 70.26666666666667, "grad_norm": 0.671875, "learning_rate": 9.970129789022014e-05, "loss": 0.373, "step": 52700 }, { "epoch": 70.28, "grad_norm": 0.75390625, "learning_rate": 9.970118354595559e-05, "loss": 0.4022, "step": 52710 }, { "epoch": 70.29333333333334, "grad_norm": 0.640625, "learning_rate": 9.970106917987511e-05, "loss": 0.3594, "step": 52720 }, { "epoch": 70.30666666666667, "grad_norm": 0.66015625, "learning_rate": 9.970095479197877e-05, "loss": 0.3834, "step": 52730 }, { "epoch": 70.32, "grad_norm": 0.66015625, "learning_rate": 9.970084038226661e-05, "loss": 0.3865, "step": 52740 }, { "epoch": 70.33333333333333, "grad_norm": 0.703125, "learning_rate": 9.970072595073869e-05, "loss": 0.3866, "step": 52750 }, { "epoch": 70.34666666666666, "grad_norm": 0.73828125, "learning_rate": 9.970061149739504e-05, "loss": 0.3775, "step": 52760 }, { "epoch": 70.36, "grad_norm": 0.73828125, "learning_rate": 9.970049702223572e-05, "loss": 0.3789, "step": 52770 }, { "epoch": 70.37333333333333, "grad_norm": 0.55859375, "learning_rate": 9.970038252526079e-05, "loss": 0.3809, "step": 52780 }, { "epoch": 70.38666666666667, "grad_norm": 0.80078125, "learning_rate": 9.970026800647027e-05, "loss": 0.3693, "step": 52790 }, { "epoch": 70.4, "grad_norm": 0.69921875, "learning_rate": 9.970015346586425e-05, "loss": 0.3784, "step": 52800 }, { "epoch": 70.41333333333333, "grad_norm": 0.62109375, "learning_rate": 9.970003890344275e-05, "loss": 0.3832, "step": 52810 }, { "epoch": 70.42666666666666, "grad_norm": 0.671875, "learning_rate": 9.969992431920585e-05, "loss": 0.3853, "step": 52820 }, { "epoch": 70.44, "grad_norm": 0.7421875, "learning_rate": 9.969980971315356e-05, "loss": 0.398, "step": 52830 }, { "epoch": 70.45333333333333, "grad_norm": 0.7265625, "learning_rate": 9.969969508528598e-05, "loss": 0.3858, "step": 52840 }, { "epoch": 70.46666666666667, "grad_norm": 0.6953125, "learning_rate": 9.969958043560311e-05, "loss": 0.3932, "step": 52850 }, { "epoch": 70.48, "grad_norm": 0.6796875, "learning_rate": 9.969946576410504e-05, "loss": 0.3754, "step": 52860 }, { "epoch": 70.49333333333334, "grad_norm": 0.6875, "learning_rate": 9.969935107079179e-05, "loss": 0.3873, "step": 52870 }, { "epoch": 70.50666666666666, "grad_norm": 0.6875, "learning_rate": 9.969923635566343e-05, "loss": 0.3863, "step": 52880 }, { "epoch": 70.52, "grad_norm": 0.609375, "learning_rate": 9.969912161872e-05, "loss": 0.3777, "step": 52890 }, { "epoch": 70.53333333333333, "grad_norm": 0.7421875, "learning_rate": 9.969900685996157e-05, "loss": 0.3796, "step": 52900 }, { "epoch": 70.54666666666667, "grad_norm": 0.8046875, "learning_rate": 9.969889207938816e-05, "loss": 0.381, "step": 52910 }, { "epoch": 70.56, "grad_norm": 0.6015625, "learning_rate": 9.969877727699984e-05, "loss": 0.3748, "step": 52920 }, { "epoch": 70.57333333333334, "grad_norm": 0.78125, "learning_rate": 9.969866245279666e-05, "loss": 0.38, "step": 52930 }, { "epoch": 70.58666666666667, "grad_norm": 0.69921875, "learning_rate": 9.969854760677865e-05, "loss": 0.3677, "step": 52940 }, { "epoch": 70.6, "grad_norm": 0.65625, "learning_rate": 9.969843273894591e-05, "loss": 0.3707, "step": 52950 }, { "epoch": 70.61333333333333, "grad_norm": 0.703125, "learning_rate": 9.969831784929843e-05, "loss": 0.3612, "step": 52960 }, { "epoch": 70.62666666666667, "grad_norm": 0.6171875, "learning_rate": 9.969820293783629e-05, "loss": 0.3658, "step": 52970 }, { "epoch": 70.64, "grad_norm": 0.75, "learning_rate": 9.969808800455954e-05, "loss": 0.3766, "step": 52980 }, { "epoch": 70.65333333333334, "grad_norm": 0.61328125, "learning_rate": 9.969797304946823e-05, "loss": 0.3857, "step": 52990 }, { "epoch": 70.66666666666667, "grad_norm": 0.66015625, "learning_rate": 9.969785807256242e-05, "loss": 0.3755, "step": 53000 }, { "epoch": 70.68, "grad_norm": 0.76171875, "learning_rate": 9.969774307384214e-05, "loss": 0.3664, "step": 53010 }, { "epoch": 70.69333333333333, "grad_norm": 0.66796875, "learning_rate": 9.969762805330744e-05, "loss": 0.3766, "step": 53020 }, { "epoch": 70.70666666666666, "grad_norm": 0.78515625, "learning_rate": 9.96975130109584e-05, "loss": 0.3673, "step": 53030 }, { "epoch": 70.72, "grad_norm": 0.74609375, "learning_rate": 9.969739794679504e-05, "loss": 0.3902, "step": 53040 }, { "epoch": 70.73333333333333, "grad_norm": 0.7265625, "learning_rate": 9.969728286081741e-05, "loss": 0.3839, "step": 53050 }, { "epoch": 70.74666666666667, "grad_norm": 0.65234375, "learning_rate": 9.96971677530256e-05, "loss": 0.3861, "step": 53060 }, { "epoch": 70.76, "grad_norm": 0.6953125, "learning_rate": 9.969705262341962e-05, "loss": 0.3993, "step": 53070 }, { "epoch": 70.77333333333333, "grad_norm": 0.73046875, "learning_rate": 9.969693747199951e-05, "loss": 0.384, "step": 53080 }, { "epoch": 70.78666666666666, "grad_norm": 0.60546875, "learning_rate": 9.969682229876538e-05, "loss": 0.3857, "step": 53090 }, { "epoch": 70.8, "grad_norm": 0.76171875, "learning_rate": 9.969670710371723e-05, "loss": 0.3847, "step": 53100 }, { "epoch": 70.81333333333333, "grad_norm": 0.8515625, "learning_rate": 9.969659188685512e-05, "loss": 0.3588, "step": 53110 }, { "epoch": 70.82666666666667, "grad_norm": 0.6875, "learning_rate": 9.96964766481791e-05, "loss": 0.3668, "step": 53120 }, { "epoch": 70.84, "grad_norm": 0.78125, "learning_rate": 9.969636138768923e-05, "loss": 0.3797, "step": 53130 }, { "epoch": 70.85333333333334, "grad_norm": 0.69140625, "learning_rate": 9.969624610538557e-05, "loss": 0.3752, "step": 53140 }, { "epoch": 70.86666666666666, "grad_norm": 0.71875, "learning_rate": 9.969613080126813e-05, "loss": 0.3802, "step": 53150 }, { "epoch": 70.88, "grad_norm": 0.66796875, "learning_rate": 9.969601547533702e-05, "loss": 0.36, "step": 53160 }, { "epoch": 70.89333333333333, "grad_norm": 0.6640625, "learning_rate": 9.969590012759224e-05, "loss": 0.373, "step": 53170 }, { "epoch": 70.90666666666667, "grad_norm": 0.66015625, "learning_rate": 9.969578475803388e-05, "loss": 0.3781, "step": 53180 }, { "epoch": 70.92, "grad_norm": 0.7421875, "learning_rate": 9.969566936666194e-05, "loss": 0.3804, "step": 53190 }, { "epoch": 70.93333333333334, "grad_norm": 0.7109375, "learning_rate": 9.969555395347651e-05, "loss": 0.3751, "step": 53200 }, { "epoch": 70.94666666666667, "grad_norm": 0.6484375, "learning_rate": 9.969543851847763e-05, "loss": 0.3752, "step": 53210 }, { "epoch": 70.96, "grad_norm": 0.63671875, "learning_rate": 9.969532306166536e-05, "loss": 0.3735, "step": 53220 }, { "epoch": 70.97333333333333, "grad_norm": 0.8828125, "learning_rate": 9.969520758303975e-05, "loss": 0.3963, "step": 53230 }, { "epoch": 70.98666666666666, "grad_norm": 0.7578125, "learning_rate": 9.969509208260082e-05, "loss": 0.368, "step": 53240 }, { "epoch": 71.0, "grad_norm": 0.68359375, "learning_rate": 9.969497656034866e-05, "loss": 0.3662, "step": 53250 }, { "epoch": 71.0, "eval_loss": 0.42136624455451965, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5047, "eval_samples_per_second": 1.523, "eval_steps_per_second": 0.095, "step": 53250 }, { "epoch": 71.01333333333334, "grad_norm": 0.7578125, "learning_rate": 9.96948610162833e-05, "loss": 0.3838, "step": 53260 }, { "epoch": 71.02666666666667, "grad_norm": 0.62109375, "learning_rate": 9.969474545040478e-05, "loss": 0.398, "step": 53270 }, { "epoch": 71.04, "grad_norm": 0.625, "learning_rate": 9.969462986271317e-05, "loss": 0.4107, "step": 53280 }, { "epoch": 71.05333333333333, "grad_norm": 0.68359375, "learning_rate": 9.969451425320852e-05, "loss": 0.3955, "step": 53290 }, { "epoch": 71.06666666666666, "grad_norm": 0.8125, "learning_rate": 9.969439862189089e-05, "loss": 0.3832, "step": 53300 }, { "epoch": 71.08, "grad_norm": 0.7421875, "learning_rate": 9.96942829687603e-05, "loss": 0.3875, "step": 53310 }, { "epoch": 71.09333333333333, "grad_norm": 0.7890625, "learning_rate": 9.969416729381685e-05, "loss": 0.389, "step": 53320 }, { "epoch": 71.10666666666667, "grad_norm": 0.65234375, "learning_rate": 9.969405159706054e-05, "loss": 0.3774, "step": 53330 }, { "epoch": 71.12, "grad_norm": 0.73828125, "learning_rate": 9.969393587849143e-05, "loss": 0.38, "step": 53340 }, { "epoch": 71.13333333333334, "grad_norm": 0.72265625, "learning_rate": 9.969382013810959e-05, "loss": 0.3713, "step": 53350 }, { "epoch": 71.14666666666666, "grad_norm": 0.625, "learning_rate": 9.969370437591505e-05, "loss": 0.3915, "step": 53360 }, { "epoch": 71.16, "grad_norm": 0.70703125, "learning_rate": 9.969358859190789e-05, "loss": 0.3853, "step": 53370 }, { "epoch": 71.17333333333333, "grad_norm": 0.81640625, "learning_rate": 9.969347278608813e-05, "loss": 0.3804, "step": 53380 }, { "epoch": 71.18666666666667, "grad_norm": 0.70703125, "learning_rate": 9.969335695845586e-05, "loss": 0.3782, "step": 53390 }, { "epoch": 71.2, "grad_norm": 0.70703125, "learning_rate": 9.969324110901108e-05, "loss": 0.3699, "step": 53400 }, { "epoch": 71.21333333333334, "grad_norm": 0.74609375, "learning_rate": 9.969312523775387e-05, "loss": 0.3705, "step": 53410 }, { "epoch": 71.22666666666667, "grad_norm": 0.69140625, "learning_rate": 9.969300934468428e-05, "loss": 0.3819, "step": 53420 }, { "epoch": 71.24, "grad_norm": 0.72265625, "learning_rate": 9.969289342980237e-05, "loss": 0.3677, "step": 53430 }, { "epoch": 71.25333333333333, "grad_norm": 0.7421875, "learning_rate": 9.969277749310816e-05, "loss": 0.3702, "step": 53440 }, { "epoch": 71.26666666666667, "grad_norm": 0.67578125, "learning_rate": 9.969266153460172e-05, "loss": 0.3723, "step": 53450 }, { "epoch": 71.28, "grad_norm": 0.703125, "learning_rate": 9.969254555428311e-05, "loss": 0.4009, "step": 53460 }, { "epoch": 71.29333333333334, "grad_norm": 0.75, "learning_rate": 9.969242955215237e-05, "loss": 0.3594, "step": 53470 }, { "epoch": 71.30666666666667, "grad_norm": 0.62109375, "learning_rate": 9.969231352820956e-05, "loss": 0.3835, "step": 53480 }, { "epoch": 71.32, "grad_norm": 0.609375, "learning_rate": 9.969219748245471e-05, "loss": 0.386, "step": 53490 }, { "epoch": 71.33333333333333, "grad_norm": 0.72265625, "learning_rate": 9.96920814148879e-05, "loss": 0.3869, "step": 53500 }, { "epoch": 71.34666666666666, "grad_norm": 0.6953125, "learning_rate": 9.969196532550915e-05, "loss": 0.3774, "step": 53510 }, { "epoch": 71.36, "grad_norm": 0.6875, "learning_rate": 9.969184921431854e-05, "loss": 0.3774, "step": 53520 }, { "epoch": 71.37333333333333, "grad_norm": 0.60546875, "learning_rate": 9.969173308131607e-05, "loss": 0.3798, "step": 53530 }, { "epoch": 71.38666666666667, "grad_norm": 0.765625, "learning_rate": 9.969161692650186e-05, "loss": 0.3697, "step": 53540 }, { "epoch": 71.4, "grad_norm": 0.7265625, "learning_rate": 9.969150074987594e-05, "loss": 0.3785, "step": 53550 }, { "epoch": 71.41333333333333, "grad_norm": 0.7421875, "learning_rate": 9.969138455143833e-05, "loss": 0.3834, "step": 53560 }, { "epoch": 71.42666666666666, "grad_norm": 0.66015625, "learning_rate": 9.969126833118909e-05, "loss": 0.3857, "step": 53570 }, { "epoch": 71.44, "grad_norm": 0.67578125, "learning_rate": 9.969115208912831e-05, "loss": 0.398, "step": 53580 }, { "epoch": 71.45333333333333, "grad_norm": 0.69921875, "learning_rate": 9.9691035825256e-05, "loss": 0.385, "step": 53590 }, { "epoch": 71.46666666666667, "grad_norm": 0.6796875, "learning_rate": 9.969091953957222e-05, "loss": 0.3927, "step": 53600 }, { "epoch": 71.48, "grad_norm": 0.62890625, "learning_rate": 9.969080323207702e-05, "loss": 0.3753, "step": 53610 }, { "epoch": 71.49333333333334, "grad_norm": 0.69140625, "learning_rate": 9.969068690277048e-05, "loss": 0.3865, "step": 53620 }, { "epoch": 71.50666666666666, "grad_norm": 0.69140625, "learning_rate": 9.969057055165261e-05, "loss": 0.3858, "step": 53630 }, { "epoch": 71.52, "grad_norm": 0.578125, "learning_rate": 9.969045417872348e-05, "loss": 0.3767, "step": 53640 }, { "epoch": 71.53333333333333, "grad_norm": 0.6875, "learning_rate": 9.969033778398313e-05, "loss": 0.378, "step": 53650 }, { "epoch": 71.54666666666667, "grad_norm": 0.765625, "learning_rate": 9.969022136743164e-05, "loss": 0.3799, "step": 53660 }, { "epoch": 71.56, "grad_norm": 0.6484375, "learning_rate": 9.969010492906903e-05, "loss": 0.3743, "step": 53670 }, { "epoch": 71.57333333333334, "grad_norm": 0.66015625, "learning_rate": 9.968998846889537e-05, "loss": 0.3785, "step": 53680 }, { "epoch": 71.58666666666667, "grad_norm": 0.6953125, "learning_rate": 9.968987198691068e-05, "loss": 0.3683, "step": 53690 }, { "epoch": 71.6, "grad_norm": 0.66796875, "learning_rate": 9.968975548311506e-05, "loss": 0.3702, "step": 53700 }, { "epoch": 71.61333333333333, "grad_norm": 0.5859375, "learning_rate": 9.968963895750854e-05, "loss": 0.3616, "step": 53710 }, { "epoch": 71.62666666666667, "grad_norm": 0.6328125, "learning_rate": 9.968952241009115e-05, "loss": 0.3661, "step": 53720 }, { "epoch": 71.64, "grad_norm": 0.7109375, "learning_rate": 9.968940584086296e-05, "loss": 0.3761, "step": 53730 }, { "epoch": 71.65333333333334, "grad_norm": 0.67578125, "learning_rate": 9.968928924982403e-05, "loss": 0.3862, "step": 53740 }, { "epoch": 71.66666666666667, "grad_norm": 0.64453125, "learning_rate": 9.968917263697439e-05, "loss": 0.3754, "step": 53750 }, { "epoch": 71.68, "grad_norm": 0.6953125, "learning_rate": 9.968905600231411e-05, "loss": 0.3659, "step": 53760 }, { "epoch": 71.69333333333333, "grad_norm": 0.6328125, "learning_rate": 9.968893934584324e-05, "loss": 0.3753, "step": 53770 }, { "epoch": 71.70666666666666, "grad_norm": 0.765625, "learning_rate": 9.968882266756181e-05, "loss": 0.3669, "step": 53780 }, { "epoch": 71.72, "grad_norm": 0.75390625, "learning_rate": 9.968870596746989e-05, "loss": 0.3889, "step": 53790 }, { "epoch": 71.73333333333333, "grad_norm": 0.83984375, "learning_rate": 9.968858924556753e-05, "loss": 0.3843, "step": 53800 }, { "epoch": 71.74666666666667, "grad_norm": 0.6875, "learning_rate": 9.968847250185478e-05, "loss": 0.3867, "step": 53810 }, { "epoch": 71.76, "grad_norm": 0.76171875, "learning_rate": 9.968835573633168e-05, "loss": 0.4002, "step": 53820 }, { "epoch": 71.77333333333333, "grad_norm": 0.77734375, "learning_rate": 9.96882389489983e-05, "loss": 0.3853, "step": 53830 }, { "epoch": 71.78666666666666, "grad_norm": 0.6171875, "learning_rate": 9.968812213985468e-05, "loss": 0.3861, "step": 53840 }, { "epoch": 71.8, "grad_norm": 0.6796875, "learning_rate": 9.968800530890086e-05, "loss": 0.3844, "step": 53850 }, { "epoch": 71.81333333333333, "grad_norm": 0.8046875, "learning_rate": 9.968788845613692e-05, "loss": 0.3587, "step": 53860 }, { "epoch": 71.82666666666667, "grad_norm": 0.6484375, "learning_rate": 9.968777158156288e-05, "loss": 0.367, "step": 53870 }, { "epoch": 71.84, "grad_norm": 0.72265625, "learning_rate": 9.968765468517883e-05, "loss": 0.3788, "step": 53880 }, { "epoch": 71.85333333333334, "grad_norm": 0.703125, "learning_rate": 9.968753776698477e-05, "loss": 0.3747, "step": 53890 }, { "epoch": 71.86666666666666, "grad_norm": 0.76953125, "learning_rate": 9.968742082698079e-05, "loss": 0.3795, "step": 53900 }, { "epoch": 71.88, "grad_norm": 0.71484375, "learning_rate": 9.968730386516694e-05, "loss": 0.3607, "step": 53910 }, { "epoch": 71.89333333333333, "grad_norm": 0.6640625, "learning_rate": 9.968718688154326e-05, "loss": 0.3724, "step": 53920 }, { "epoch": 71.90666666666667, "grad_norm": 0.74609375, "learning_rate": 9.96870698761098e-05, "loss": 0.3786, "step": 53930 }, { "epoch": 71.92, "grad_norm": 0.75390625, "learning_rate": 9.968695284886662e-05, "loss": 0.3799, "step": 53940 }, { "epoch": 71.93333333333334, "grad_norm": 0.609375, "learning_rate": 9.968683579981377e-05, "loss": 0.3739, "step": 53950 }, { "epoch": 71.94666666666667, "grad_norm": 0.6953125, "learning_rate": 9.968671872895128e-05, "loss": 0.3743, "step": 53960 }, { "epoch": 71.96, "grad_norm": 0.6015625, "learning_rate": 9.968660163627923e-05, "loss": 0.3726, "step": 53970 }, { "epoch": 71.97333333333333, "grad_norm": 0.88671875, "learning_rate": 9.968648452179765e-05, "loss": 0.3967, "step": 53980 }, { "epoch": 71.98666666666666, "grad_norm": 0.70703125, "learning_rate": 9.968636738550661e-05, "loss": 0.3673, "step": 53990 }, { "epoch": 72.0, "grad_norm": 0.6953125, "learning_rate": 9.968625022740616e-05, "loss": 0.3666, "step": 54000 }, { "epoch": 72.0, "eval_loss": 0.4225176274776459, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4341, "eval_samples_per_second": 1.533, "eval_steps_per_second": 0.096, "step": 54000 }, { "epoch": 72.01333333333334, "grad_norm": 0.75390625, "learning_rate": 9.968613304749634e-05, "loss": 0.3831, "step": 54010 }, { "epoch": 72.02666666666667, "grad_norm": 0.69140625, "learning_rate": 9.96860158457772e-05, "loss": 0.3981, "step": 54020 }, { "epoch": 72.04, "grad_norm": 0.64453125, "learning_rate": 9.96858986222488e-05, "loss": 0.4108, "step": 54030 }, { "epoch": 72.05333333333333, "grad_norm": 0.6796875, "learning_rate": 9.96857813769112e-05, "loss": 0.396, "step": 54040 }, { "epoch": 72.06666666666666, "grad_norm": 0.734375, "learning_rate": 9.968566410976443e-05, "loss": 0.3829, "step": 54050 }, { "epoch": 72.08, "grad_norm": 0.6953125, "learning_rate": 9.968554682080856e-05, "loss": 0.3869, "step": 54060 }, { "epoch": 72.09333333333333, "grad_norm": 0.69921875, "learning_rate": 9.968542951004363e-05, "loss": 0.3888, "step": 54070 }, { "epoch": 72.10666666666667, "grad_norm": 0.6328125, "learning_rate": 9.968531217746968e-05, "loss": 0.3765, "step": 54080 }, { "epoch": 72.12, "grad_norm": 0.70703125, "learning_rate": 9.968519482308679e-05, "loss": 0.3794, "step": 54090 }, { "epoch": 72.13333333333334, "grad_norm": 0.6875, "learning_rate": 9.9685077446895e-05, "loss": 0.3718, "step": 54100 }, { "epoch": 72.14666666666666, "grad_norm": 0.66015625, "learning_rate": 9.968496004889435e-05, "loss": 0.3911, "step": 54110 }, { "epoch": 72.16, "grad_norm": 0.62109375, "learning_rate": 9.96848426290849e-05, "loss": 0.3849, "step": 54120 }, { "epoch": 72.17333333333333, "grad_norm": 0.69921875, "learning_rate": 9.968472518746672e-05, "loss": 0.3809, "step": 54130 }, { "epoch": 72.18666666666667, "grad_norm": 0.62890625, "learning_rate": 9.968460772403982e-05, "loss": 0.3772, "step": 54140 }, { "epoch": 72.2, "grad_norm": 0.6640625, "learning_rate": 9.968449023880431e-05, "loss": 0.3693, "step": 54150 }, { "epoch": 72.21333333333334, "grad_norm": 0.69140625, "learning_rate": 9.968437273176017e-05, "loss": 0.371, "step": 54160 }, { "epoch": 72.22666666666667, "grad_norm": 0.734375, "learning_rate": 9.968425520290752e-05, "loss": 0.3816, "step": 54170 }, { "epoch": 72.24, "grad_norm": 0.6875, "learning_rate": 9.968413765224636e-05, "loss": 0.3678, "step": 54180 }, { "epoch": 72.25333333333333, "grad_norm": 0.69140625, "learning_rate": 9.968402007977677e-05, "loss": 0.3693, "step": 54190 }, { "epoch": 72.26666666666667, "grad_norm": 0.734375, "learning_rate": 9.96839024854988e-05, "loss": 0.3725, "step": 54200 }, { "epoch": 72.28, "grad_norm": 0.7890625, "learning_rate": 9.968378486941248e-05, "loss": 0.4005, "step": 54210 }, { "epoch": 72.29333333333334, "grad_norm": 0.73828125, "learning_rate": 9.968366723151787e-05, "loss": 0.3592, "step": 54220 }, { "epoch": 72.30666666666667, "grad_norm": 0.65625, "learning_rate": 9.968354957181505e-05, "loss": 0.3828, "step": 54230 }, { "epoch": 72.32, "grad_norm": 0.55859375, "learning_rate": 9.968343189030404e-05, "loss": 0.386, "step": 54240 }, { "epoch": 72.33333333333333, "grad_norm": 0.6640625, "learning_rate": 9.96833141869849e-05, "loss": 0.3862, "step": 54250 }, { "epoch": 72.34666666666666, "grad_norm": 0.7578125, "learning_rate": 9.968319646185769e-05, "loss": 0.3759, "step": 54260 }, { "epoch": 72.36, "grad_norm": 0.6953125, "learning_rate": 9.968307871492245e-05, "loss": 0.3769, "step": 54270 }, { "epoch": 72.37333333333333, "grad_norm": 0.73046875, "learning_rate": 9.968296094617924e-05, "loss": 0.3797, "step": 54280 }, { "epoch": 72.38666666666667, "grad_norm": 0.94140625, "learning_rate": 9.96828431556281e-05, "loss": 0.3695, "step": 54290 }, { "epoch": 72.4, "grad_norm": 0.70703125, "learning_rate": 9.96827253432691e-05, "loss": 0.378, "step": 54300 }, { "epoch": 72.41333333333333, "grad_norm": 0.71484375, "learning_rate": 9.968260750910228e-05, "loss": 0.3832, "step": 54310 }, { "epoch": 72.42666666666666, "grad_norm": 0.71484375, "learning_rate": 9.96824896531277e-05, "loss": 0.3849, "step": 54320 }, { "epoch": 72.44, "grad_norm": 0.7109375, "learning_rate": 9.968237177534538e-05, "loss": 0.3978, "step": 54330 }, { "epoch": 72.45333333333333, "grad_norm": 0.7109375, "learning_rate": 9.968225387575543e-05, "loss": 0.3839, "step": 54340 }, { "epoch": 72.46666666666667, "grad_norm": 0.69140625, "learning_rate": 9.968213595435785e-05, "loss": 0.3928, "step": 54350 }, { "epoch": 72.48, "grad_norm": 0.74609375, "learning_rate": 9.968201801115271e-05, "loss": 0.375, "step": 54360 }, { "epoch": 72.49333333333334, "grad_norm": 0.75390625, "learning_rate": 9.968190004614007e-05, "loss": 0.3869, "step": 54370 }, { "epoch": 72.50666666666666, "grad_norm": 0.72265625, "learning_rate": 9.968178205931997e-05, "loss": 0.3866, "step": 54380 }, { "epoch": 72.52, "grad_norm": 0.62109375, "learning_rate": 9.968166405069247e-05, "loss": 0.3763, "step": 54390 }, { "epoch": 72.53333333333333, "grad_norm": 0.66015625, "learning_rate": 9.968154602025761e-05, "loss": 0.3777, "step": 54400 }, { "epoch": 72.54666666666667, "grad_norm": 0.78515625, "learning_rate": 9.968142796801546e-05, "loss": 0.3796, "step": 54410 }, { "epoch": 72.56, "grad_norm": 0.65234375, "learning_rate": 9.968130989396606e-05, "loss": 0.375, "step": 54420 }, { "epoch": 72.57333333333334, "grad_norm": 0.796875, "learning_rate": 9.968119179810947e-05, "loss": 0.3789, "step": 54430 }, { "epoch": 72.58666666666667, "grad_norm": 0.65234375, "learning_rate": 9.96810736804457e-05, "loss": 0.3682, "step": 54440 }, { "epoch": 72.6, "grad_norm": 0.69140625, "learning_rate": 9.968095554097487e-05, "loss": 0.3696, "step": 54450 }, { "epoch": 72.61333333333333, "grad_norm": 0.6015625, "learning_rate": 9.968083737969699e-05, "loss": 0.3616, "step": 54460 }, { "epoch": 72.62666666666667, "grad_norm": 0.65234375, "learning_rate": 9.968071919661213e-05, "loss": 0.3654, "step": 54470 }, { "epoch": 72.64, "grad_norm": 0.72265625, "learning_rate": 9.968060099172032e-05, "loss": 0.3754, "step": 54480 }, { "epoch": 72.65333333333334, "grad_norm": 0.6953125, "learning_rate": 9.968048276502162e-05, "loss": 0.3862, "step": 54490 }, { "epoch": 72.66666666666667, "grad_norm": 0.61328125, "learning_rate": 9.96803645165161e-05, "loss": 0.3744, "step": 54500 }, { "epoch": 72.68, "grad_norm": 0.69140625, "learning_rate": 9.968024624620377e-05, "loss": 0.3662, "step": 54510 }, { "epoch": 72.69333333333333, "grad_norm": 0.6640625, "learning_rate": 9.968012795408474e-05, "loss": 0.3755, "step": 54520 }, { "epoch": 72.70666666666666, "grad_norm": 0.8515625, "learning_rate": 9.968000964015903e-05, "loss": 0.3663, "step": 54530 }, { "epoch": 72.72, "grad_norm": 0.71484375, "learning_rate": 9.967989130442669e-05, "loss": 0.3885, "step": 54540 }, { "epoch": 72.73333333333333, "grad_norm": 0.65625, "learning_rate": 9.967977294688777e-05, "loss": 0.3827, "step": 54550 }, { "epoch": 72.74666666666667, "grad_norm": 0.67578125, "learning_rate": 9.967965456754233e-05, "loss": 0.3864, "step": 54560 }, { "epoch": 72.76, "grad_norm": 0.70703125, "learning_rate": 9.967953616639043e-05, "loss": 0.3988, "step": 54570 }, { "epoch": 72.77333333333333, "grad_norm": 0.74609375, "learning_rate": 9.96794177434321e-05, "loss": 0.3848, "step": 54580 }, { "epoch": 72.78666666666666, "grad_norm": 0.65625, "learning_rate": 9.96792992986674e-05, "loss": 0.3858, "step": 54590 }, { "epoch": 72.8, "grad_norm": 0.73828125, "learning_rate": 9.96791808320964e-05, "loss": 0.3843, "step": 54600 }, { "epoch": 72.81333333333333, "grad_norm": 0.8125, "learning_rate": 9.967906234371911e-05, "loss": 0.3582, "step": 54610 }, { "epoch": 72.82666666666667, "grad_norm": 0.63671875, "learning_rate": 9.967894383353565e-05, "loss": 0.3664, "step": 54620 }, { "epoch": 72.84, "grad_norm": 0.75, "learning_rate": 9.967882530154599e-05, "loss": 0.3779, "step": 54630 }, { "epoch": 72.85333333333334, "grad_norm": 0.68359375, "learning_rate": 9.967870674775027e-05, "loss": 0.3743, "step": 54640 }, { "epoch": 72.86666666666666, "grad_norm": 0.72265625, "learning_rate": 9.967858817214845e-05, "loss": 0.3797, "step": 54650 }, { "epoch": 72.88, "grad_norm": 0.6796875, "learning_rate": 9.967846957474065e-05, "loss": 0.3596, "step": 54660 }, { "epoch": 72.89333333333333, "grad_norm": 0.6875, "learning_rate": 9.96783509555269e-05, "loss": 0.3724, "step": 54670 }, { "epoch": 72.90666666666667, "grad_norm": 0.71875, "learning_rate": 9.967823231450726e-05, "loss": 0.3775, "step": 54680 }, { "epoch": 72.92, "grad_norm": 0.6875, "learning_rate": 9.967811365168176e-05, "loss": 0.379, "step": 54690 }, { "epoch": 72.93333333333334, "grad_norm": 0.671875, "learning_rate": 9.967799496705048e-05, "loss": 0.3742, "step": 54700 }, { "epoch": 72.94666666666667, "grad_norm": 0.74609375, "learning_rate": 9.967787626061344e-05, "loss": 0.3746, "step": 54710 }, { "epoch": 72.96, "grad_norm": 0.61328125, "learning_rate": 9.967775753237072e-05, "loss": 0.3731, "step": 54720 }, { "epoch": 72.97333333333333, "grad_norm": 0.87109375, "learning_rate": 9.967763878232237e-05, "loss": 0.3964, "step": 54730 }, { "epoch": 72.98666666666666, "grad_norm": 0.7109375, "learning_rate": 9.967752001046842e-05, "loss": 0.3669, "step": 54740 }, { "epoch": 73.0, "grad_norm": 0.7265625, "learning_rate": 9.967740121680895e-05, "loss": 0.3663, "step": 54750 }, { "epoch": 73.0, "eval_loss": 0.4238947927951813, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8212, "eval_samples_per_second": 1.479, "eval_steps_per_second": 0.092, "step": 54750 }, { "epoch": 73.01333333333334, "grad_norm": 0.7578125, "learning_rate": 9.967728240134398e-05, "loss": 0.3832, "step": 54760 }, { "epoch": 73.02666666666667, "grad_norm": 0.69921875, "learning_rate": 9.96771635640736e-05, "loss": 0.3974, "step": 54770 }, { "epoch": 73.04, "grad_norm": 0.63671875, "learning_rate": 9.967704470499783e-05, "loss": 0.4106, "step": 54780 }, { "epoch": 73.05333333333333, "grad_norm": 0.65234375, "learning_rate": 9.967692582411674e-05, "loss": 0.3942, "step": 54790 }, { "epoch": 73.06666666666666, "grad_norm": 0.72265625, "learning_rate": 9.967680692143039e-05, "loss": 0.3824, "step": 54800 }, { "epoch": 73.08, "grad_norm": 0.671875, "learning_rate": 9.967668799693881e-05, "loss": 0.3868, "step": 54810 }, { "epoch": 73.09333333333333, "grad_norm": 0.79296875, "learning_rate": 9.967656905064206e-05, "loss": 0.3901, "step": 54820 }, { "epoch": 73.10666666666667, "grad_norm": 0.72265625, "learning_rate": 9.967645008254018e-05, "loss": 0.3765, "step": 54830 }, { "epoch": 73.12, "grad_norm": 0.765625, "learning_rate": 9.967633109263326e-05, "loss": 0.3786, "step": 54840 }, { "epoch": 73.13333333333334, "grad_norm": 0.6796875, "learning_rate": 9.967621208092133e-05, "loss": 0.3709, "step": 54850 }, { "epoch": 73.14666666666666, "grad_norm": 0.71484375, "learning_rate": 9.967609304740442e-05, "loss": 0.3907, "step": 54860 }, { "epoch": 73.16, "grad_norm": 0.6484375, "learning_rate": 9.967597399208262e-05, "loss": 0.3852, "step": 54870 }, { "epoch": 73.17333333333333, "grad_norm": 0.76953125, "learning_rate": 9.967585491495596e-05, "loss": 0.38, "step": 54880 }, { "epoch": 73.18666666666667, "grad_norm": 0.765625, "learning_rate": 9.96757358160245e-05, "loss": 0.3773, "step": 54890 }, { "epoch": 73.2, "grad_norm": 0.73046875, "learning_rate": 9.967561669528828e-05, "loss": 0.3702, "step": 54900 }, { "epoch": 73.21333333333334, "grad_norm": 0.73046875, "learning_rate": 9.967549755274737e-05, "loss": 0.3704, "step": 54910 }, { "epoch": 73.22666666666667, "grad_norm": 0.734375, "learning_rate": 9.967537838840181e-05, "loss": 0.3818, "step": 54920 }, { "epoch": 73.24, "grad_norm": 0.73046875, "learning_rate": 9.967525920225167e-05, "loss": 0.3681, "step": 54930 }, { "epoch": 73.25333333333333, "grad_norm": 0.7421875, "learning_rate": 9.967513999429697e-05, "loss": 0.3691, "step": 54940 }, { "epoch": 73.26666666666667, "grad_norm": 0.6953125, "learning_rate": 9.967502076453779e-05, "loss": 0.3722, "step": 54950 }, { "epoch": 73.28, "grad_norm": 0.7578125, "learning_rate": 9.967490151297418e-05, "loss": 0.4005, "step": 54960 }, { "epoch": 73.29333333333334, "grad_norm": 0.69921875, "learning_rate": 9.967478223960617e-05, "loss": 0.3589, "step": 54970 }, { "epoch": 73.30666666666667, "grad_norm": 0.71484375, "learning_rate": 9.967466294443385e-05, "loss": 0.3818, "step": 54980 }, { "epoch": 73.32, "grad_norm": 0.6015625, "learning_rate": 9.967454362745724e-05, "loss": 0.3852, "step": 54990 }, { "epoch": 73.33333333333333, "grad_norm": 0.69921875, "learning_rate": 9.96744242886764e-05, "loss": 0.3859, "step": 55000 }, { "epoch": 73.34666666666666, "grad_norm": 0.7890625, "learning_rate": 9.967430492809138e-05, "loss": 0.3766, "step": 55010 }, { "epoch": 73.36, "grad_norm": 0.76171875, "learning_rate": 9.967418554570226e-05, "loss": 0.3773, "step": 55020 }, { "epoch": 73.37333333333333, "grad_norm": 0.65234375, "learning_rate": 9.967406614150905e-05, "loss": 0.3788, "step": 55030 }, { "epoch": 73.38666666666667, "grad_norm": 0.81640625, "learning_rate": 9.967394671551183e-05, "loss": 0.3686, "step": 55040 }, { "epoch": 73.4, "grad_norm": 0.703125, "learning_rate": 9.967382726771065e-05, "loss": 0.3774, "step": 55050 }, { "epoch": 73.41333333333333, "grad_norm": 0.6328125, "learning_rate": 9.967370779810556e-05, "loss": 0.3836, "step": 55060 }, { "epoch": 73.42666666666666, "grad_norm": 0.6640625, "learning_rate": 9.967358830669659e-05, "loss": 0.3853, "step": 55070 }, { "epoch": 73.44, "grad_norm": 0.7421875, "learning_rate": 9.967346879348383e-05, "loss": 0.3975, "step": 55080 }, { "epoch": 73.45333333333333, "grad_norm": 0.76171875, "learning_rate": 9.967334925846731e-05, "loss": 0.3837, "step": 55090 }, { "epoch": 73.46666666666667, "grad_norm": 0.7265625, "learning_rate": 9.967322970164709e-05, "loss": 0.3927, "step": 55100 }, { "epoch": 73.48, "grad_norm": 0.70703125, "learning_rate": 9.96731101230232e-05, "loss": 0.3753, "step": 55110 }, { "epoch": 73.49333333333334, "grad_norm": 0.71875, "learning_rate": 9.967299052259574e-05, "loss": 0.387, "step": 55120 }, { "epoch": 73.50666666666666, "grad_norm": 0.69140625, "learning_rate": 9.967287090036473e-05, "loss": 0.3857, "step": 55130 }, { "epoch": 73.52, "grad_norm": 0.625, "learning_rate": 9.967275125633022e-05, "loss": 0.3773, "step": 55140 }, { "epoch": 73.53333333333333, "grad_norm": 0.703125, "learning_rate": 9.967263159049227e-05, "loss": 0.3785, "step": 55150 }, { "epoch": 73.54666666666667, "grad_norm": 0.8203125, "learning_rate": 9.967251190285094e-05, "loss": 0.3798, "step": 55160 }, { "epoch": 73.56, "grad_norm": 0.609375, "learning_rate": 9.967239219340627e-05, "loss": 0.3736, "step": 55170 }, { "epoch": 73.57333333333334, "grad_norm": 0.69140625, "learning_rate": 9.967227246215831e-05, "loss": 0.3781, "step": 55180 }, { "epoch": 73.58666666666667, "grad_norm": 0.609375, "learning_rate": 9.967215270910712e-05, "loss": 0.3674, "step": 55190 }, { "epoch": 73.6, "grad_norm": 0.67578125, "learning_rate": 9.967203293425278e-05, "loss": 0.3695, "step": 55200 }, { "epoch": 73.61333333333333, "grad_norm": 0.6953125, "learning_rate": 9.967191313759528e-05, "loss": 0.3603, "step": 55210 }, { "epoch": 73.62666666666667, "grad_norm": 0.6484375, "learning_rate": 9.967179331913474e-05, "loss": 0.3657, "step": 55220 }, { "epoch": 73.64, "grad_norm": 0.7890625, "learning_rate": 9.967167347887116e-05, "loss": 0.3742, "step": 55230 }, { "epoch": 73.65333333333334, "grad_norm": 0.7109375, "learning_rate": 9.967155361680461e-05, "loss": 0.3852, "step": 55240 }, { "epoch": 73.66666666666667, "grad_norm": 0.625, "learning_rate": 9.967143373293515e-05, "loss": 0.3747, "step": 55250 }, { "epoch": 73.68, "grad_norm": 0.67578125, "learning_rate": 9.967131382726283e-05, "loss": 0.366, "step": 55260 }, { "epoch": 73.69333333333333, "grad_norm": 0.6484375, "learning_rate": 9.96711938997877e-05, "loss": 0.3748, "step": 55270 }, { "epoch": 73.70666666666666, "grad_norm": 0.8125, "learning_rate": 9.967107395050982e-05, "loss": 0.3654, "step": 55280 }, { "epoch": 73.72, "grad_norm": 0.71875, "learning_rate": 9.967095397942922e-05, "loss": 0.3885, "step": 55290 }, { "epoch": 73.73333333333333, "grad_norm": 0.66015625, "learning_rate": 9.967083398654599e-05, "loss": 0.3828, "step": 55300 }, { "epoch": 73.74666666666667, "grad_norm": 0.703125, "learning_rate": 9.967071397186013e-05, "loss": 0.3855, "step": 55310 }, { "epoch": 73.76, "grad_norm": 0.87109375, "learning_rate": 9.967059393537176e-05, "loss": 0.3988, "step": 55320 }, { "epoch": 73.77333333333333, "grad_norm": 0.7265625, "learning_rate": 9.967047387708089e-05, "loss": 0.384, "step": 55330 }, { "epoch": 73.78666666666666, "grad_norm": 0.671875, "learning_rate": 9.967035379698757e-05, "loss": 0.3848, "step": 55340 }, { "epoch": 73.8, "grad_norm": 0.6953125, "learning_rate": 9.967023369509187e-05, "loss": 0.3837, "step": 55350 }, { "epoch": 73.81333333333333, "grad_norm": 0.8203125, "learning_rate": 9.967011357139383e-05, "loss": 0.3582, "step": 55360 }, { "epoch": 73.82666666666667, "grad_norm": 0.69921875, "learning_rate": 9.966999342589349e-05, "loss": 0.3665, "step": 55370 }, { "epoch": 73.84, "grad_norm": 0.71484375, "learning_rate": 9.966987325859094e-05, "loss": 0.3791, "step": 55380 }, { "epoch": 73.85333333333334, "grad_norm": 0.71875, "learning_rate": 9.966975306948622e-05, "loss": 0.3739, "step": 55390 }, { "epoch": 73.86666666666666, "grad_norm": 0.68359375, "learning_rate": 9.966963285857937e-05, "loss": 0.3781, "step": 55400 }, { "epoch": 73.88, "grad_norm": 0.6796875, "learning_rate": 9.966951262587043e-05, "loss": 0.36, "step": 55410 }, { "epoch": 73.89333333333333, "grad_norm": 0.71875, "learning_rate": 9.96693923713595e-05, "loss": 0.3718, "step": 55420 }, { "epoch": 73.90666666666667, "grad_norm": 0.6796875, "learning_rate": 9.966927209504658e-05, "loss": 0.3775, "step": 55430 }, { "epoch": 73.92, "grad_norm": 0.73046875, "learning_rate": 9.966915179693177e-05, "loss": 0.3789, "step": 55440 }, { "epoch": 73.93333333333334, "grad_norm": 0.7109375, "learning_rate": 9.966903147701508e-05, "loss": 0.3746, "step": 55450 }, { "epoch": 73.94666666666667, "grad_norm": 0.65625, "learning_rate": 9.96689111352966e-05, "loss": 0.3745, "step": 55460 }, { "epoch": 73.96, "grad_norm": 0.63671875, "learning_rate": 9.966879077177636e-05, "loss": 0.3731, "step": 55470 }, { "epoch": 73.97333333333333, "grad_norm": 0.85546875, "learning_rate": 9.966867038645439e-05, "loss": 0.3953, "step": 55480 }, { "epoch": 73.98666666666666, "grad_norm": 0.7734375, "learning_rate": 9.966854997933082e-05, "loss": 0.3662, "step": 55490 }, { "epoch": 74.0, "grad_norm": 0.6953125, "learning_rate": 9.966842955040562e-05, "loss": 0.3664, "step": 55500 }, { "epoch": 74.0, "eval_loss": 0.42181628942489624, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.7847, "eval_samples_per_second": 1.484, "eval_steps_per_second": 0.093, "step": 55500 }, { "epoch": 74.01333333333334, "grad_norm": 0.80078125, "learning_rate": 9.966830909967889e-05, "loss": 0.3823, "step": 55510 }, { "epoch": 74.02666666666667, "grad_norm": 0.67578125, "learning_rate": 9.966818862715066e-05, "loss": 0.3974, "step": 55520 }, { "epoch": 74.04, "grad_norm": 0.6796875, "learning_rate": 9.966806813282101e-05, "loss": 0.4095, "step": 55530 }, { "epoch": 74.05333333333333, "grad_norm": 0.7109375, "learning_rate": 9.966794761668996e-05, "loss": 0.3943, "step": 55540 }, { "epoch": 74.06666666666666, "grad_norm": 0.80859375, "learning_rate": 9.966782707875758e-05, "loss": 0.383, "step": 55550 }, { "epoch": 74.08, "grad_norm": 0.6796875, "learning_rate": 9.966770651902393e-05, "loss": 0.3865, "step": 55560 }, { "epoch": 74.09333333333333, "grad_norm": 0.86328125, "learning_rate": 9.966758593748903e-05, "loss": 0.3883, "step": 55570 }, { "epoch": 74.10666666666667, "grad_norm": 0.6875, "learning_rate": 9.966746533415298e-05, "loss": 0.377, "step": 55580 }, { "epoch": 74.12, "grad_norm": 0.73828125, "learning_rate": 9.966734470901581e-05, "loss": 0.379, "step": 55590 }, { "epoch": 74.13333333333334, "grad_norm": 0.69921875, "learning_rate": 9.966722406207757e-05, "loss": 0.371, "step": 55600 }, { "epoch": 74.14666666666666, "grad_norm": 0.71875, "learning_rate": 9.966710339333832e-05, "loss": 0.3903, "step": 55610 }, { "epoch": 74.16, "grad_norm": 0.7265625, "learning_rate": 9.96669827027981e-05, "loss": 0.3842, "step": 55620 }, { "epoch": 74.17333333333333, "grad_norm": 0.69140625, "learning_rate": 9.966686199045698e-05, "loss": 0.38, "step": 55630 }, { "epoch": 74.18666666666667, "grad_norm": 0.7109375, "learning_rate": 9.9666741256315e-05, "loss": 0.3768, "step": 55640 }, { "epoch": 74.2, "grad_norm": 0.65625, "learning_rate": 9.966662050037223e-05, "loss": 0.3687, "step": 55650 }, { "epoch": 74.21333333333334, "grad_norm": 0.71484375, "learning_rate": 9.966649972262869e-05, "loss": 0.37, "step": 55660 }, { "epoch": 74.22666666666667, "grad_norm": 0.73828125, "learning_rate": 9.966637892308446e-05, "loss": 0.3805, "step": 55670 }, { "epoch": 74.24, "grad_norm": 0.7421875, "learning_rate": 9.96662581017396e-05, "loss": 0.3673, "step": 55680 }, { "epoch": 74.25333333333333, "grad_norm": 0.73828125, "learning_rate": 9.966613725859414e-05, "loss": 0.3688, "step": 55690 }, { "epoch": 74.26666666666667, "grad_norm": 0.71484375, "learning_rate": 9.966601639364815e-05, "loss": 0.3724, "step": 55700 }, { "epoch": 74.28, "grad_norm": 0.73828125, "learning_rate": 9.966589550690167e-05, "loss": 0.4003, "step": 55710 }, { "epoch": 74.29333333333334, "grad_norm": 0.70703125, "learning_rate": 9.966577459835475e-05, "loss": 0.3583, "step": 55720 }, { "epoch": 74.30666666666667, "grad_norm": 0.640625, "learning_rate": 9.966565366800746e-05, "loss": 0.382, "step": 55730 }, { "epoch": 74.32, "grad_norm": 0.61328125, "learning_rate": 9.966553271585986e-05, "loss": 0.385, "step": 55740 }, { "epoch": 74.33333333333333, "grad_norm": 0.76953125, "learning_rate": 9.966541174191197e-05, "loss": 0.3851, "step": 55750 }, { "epoch": 74.34666666666666, "grad_norm": 0.75390625, "learning_rate": 9.966529074616387e-05, "loss": 0.3761, "step": 55760 }, { "epoch": 74.36, "grad_norm": 0.7265625, "learning_rate": 9.966516972861559e-05, "loss": 0.3766, "step": 55770 }, { "epoch": 74.37333333333333, "grad_norm": 0.59375, "learning_rate": 9.966504868926722e-05, "loss": 0.3792, "step": 55780 }, { "epoch": 74.38666666666667, "grad_norm": 0.75, "learning_rate": 9.966492762811878e-05, "loss": 0.3689, "step": 55790 }, { "epoch": 74.4, "grad_norm": 0.71484375, "learning_rate": 9.966480654517033e-05, "loss": 0.3778, "step": 55800 }, { "epoch": 74.41333333333333, "grad_norm": 0.63671875, "learning_rate": 9.966468544042194e-05, "loss": 0.3828, "step": 55810 }, { "epoch": 74.42666666666666, "grad_norm": 0.625, "learning_rate": 9.966456431387364e-05, "loss": 0.3835, "step": 55820 }, { "epoch": 74.44, "grad_norm": 0.70703125, "learning_rate": 9.966444316552549e-05, "loss": 0.3969, "step": 55830 }, { "epoch": 74.45333333333333, "grad_norm": 0.72265625, "learning_rate": 9.966432199537755e-05, "loss": 0.3833, "step": 55840 }, { "epoch": 74.46666666666667, "grad_norm": 0.69140625, "learning_rate": 9.966420080342987e-05, "loss": 0.3924, "step": 55850 }, { "epoch": 74.48, "grad_norm": 0.6953125, "learning_rate": 9.966407958968251e-05, "loss": 0.3747, "step": 55860 }, { "epoch": 74.49333333333334, "grad_norm": 0.7109375, "learning_rate": 9.966395835413551e-05, "loss": 0.3857, "step": 55870 }, { "epoch": 74.50666666666666, "grad_norm": 0.72265625, "learning_rate": 9.966383709678894e-05, "loss": 0.3853, "step": 55880 }, { "epoch": 74.52, "grad_norm": 0.5625, "learning_rate": 9.966371581764283e-05, "loss": 0.3769, "step": 55890 }, { "epoch": 74.53333333333333, "grad_norm": 0.67578125, "learning_rate": 9.966359451669725e-05, "loss": 0.3778, "step": 55900 }, { "epoch": 74.54666666666667, "grad_norm": 0.75390625, "learning_rate": 9.966347319395224e-05, "loss": 0.3787, "step": 55910 }, { "epoch": 74.56, "grad_norm": 0.6328125, "learning_rate": 9.966335184940787e-05, "loss": 0.3738, "step": 55920 }, { "epoch": 74.57333333333334, "grad_norm": 0.7109375, "learning_rate": 9.966323048306419e-05, "loss": 0.3784, "step": 55930 }, { "epoch": 74.58666666666667, "grad_norm": 0.640625, "learning_rate": 9.966310909492125e-05, "loss": 0.3677, "step": 55940 }, { "epoch": 74.6, "grad_norm": 0.640625, "learning_rate": 9.96629876849791e-05, "loss": 0.3696, "step": 55950 }, { "epoch": 74.61333333333333, "grad_norm": 0.58203125, "learning_rate": 9.96628662532378e-05, "loss": 0.3601, "step": 55960 }, { "epoch": 74.62666666666667, "grad_norm": 0.6796875, "learning_rate": 9.966274479969739e-05, "loss": 0.3649, "step": 55970 }, { "epoch": 74.64, "grad_norm": 0.71875, "learning_rate": 9.966262332435794e-05, "loss": 0.3745, "step": 55980 }, { "epoch": 74.65333333333334, "grad_norm": 0.66015625, "learning_rate": 9.966250182721948e-05, "loss": 0.3844, "step": 55990 }, { "epoch": 74.66666666666667, "grad_norm": 0.66796875, "learning_rate": 9.96623803082821e-05, "loss": 0.3743, "step": 56000 }, { "epoch": 74.68, "grad_norm": 0.7109375, "learning_rate": 9.966225876754583e-05, "loss": 0.3643, "step": 56010 }, { "epoch": 74.69333333333333, "grad_norm": 0.6796875, "learning_rate": 9.96621372050107e-05, "loss": 0.3744, "step": 56020 }, { "epoch": 74.70666666666666, "grad_norm": 0.78125, "learning_rate": 9.966201562067681e-05, "loss": 0.3661, "step": 56030 }, { "epoch": 74.72, "grad_norm": 0.7734375, "learning_rate": 9.966189401454419e-05, "loss": 0.3884, "step": 56040 }, { "epoch": 74.73333333333333, "grad_norm": 0.74609375, "learning_rate": 9.96617723866129e-05, "loss": 0.3828, "step": 56050 }, { "epoch": 74.74666666666667, "grad_norm": 0.8125, "learning_rate": 9.966165073688298e-05, "loss": 0.3848, "step": 56060 }, { "epoch": 74.76, "grad_norm": 0.80859375, "learning_rate": 9.966152906535448e-05, "loss": 0.3992, "step": 56070 }, { "epoch": 74.77333333333333, "grad_norm": 0.78515625, "learning_rate": 9.966140737202749e-05, "loss": 0.383, "step": 56080 }, { "epoch": 74.78666666666666, "grad_norm": 0.65234375, "learning_rate": 9.966128565690203e-05, "loss": 0.3854, "step": 56090 }, { "epoch": 74.8, "grad_norm": 0.66015625, "learning_rate": 9.966116391997817e-05, "loss": 0.3842, "step": 56100 }, { "epoch": 74.81333333333333, "grad_norm": 0.80859375, "learning_rate": 9.966104216125595e-05, "loss": 0.3575, "step": 56110 }, { "epoch": 74.82666666666667, "grad_norm": 0.7109375, "learning_rate": 9.966092038073543e-05, "loss": 0.3662, "step": 56120 }, { "epoch": 74.84, "grad_norm": 0.75, "learning_rate": 9.966079857841666e-05, "loss": 0.3782, "step": 56130 }, { "epoch": 74.85333333333334, "grad_norm": 0.69140625, "learning_rate": 9.966067675429969e-05, "loss": 0.3735, "step": 56140 }, { "epoch": 74.86666666666666, "grad_norm": 0.72265625, "learning_rate": 9.96605549083846e-05, "loss": 0.3783, "step": 56150 }, { "epoch": 74.88, "grad_norm": 0.7578125, "learning_rate": 9.966043304067141e-05, "loss": 0.3598, "step": 56160 }, { "epoch": 74.89333333333333, "grad_norm": 0.8125, "learning_rate": 9.96603111511602e-05, "loss": 0.3715, "step": 56170 }, { "epoch": 74.90666666666667, "grad_norm": 0.6875, "learning_rate": 9.966018923985098e-05, "loss": 0.3767, "step": 56180 }, { "epoch": 74.92, "grad_norm": 0.72265625, "learning_rate": 9.966006730674386e-05, "loss": 0.3791, "step": 56190 }, { "epoch": 74.93333333333334, "grad_norm": 0.63671875, "learning_rate": 9.965994535183886e-05, "loss": 0.3732, "step": 56200 }, { "epoch": 74.94666666666667, "grad_norm": 0.7265625, "learning_rate": 9.965982337513605e-05, "loss": 0.373, "step": 56210 }, { "epoch": 74.96, "grad_norm": 0.671875, "learning_rate": 9.965970137663546e-05, "loss": 0.3713, "step": 56220 }, { "epoch": 74.97333333333333, "grad_norm": 0.90625, "learning_rate": 9.965957935633716e-05, "loss": 0.3952, "step": 56230 }, { "epoch": 74.98666666666666, "grad_norm": 0.73828125, "learning_rate": 9.96594573142412e-05, "loss": 0.3667, "step": 56240 }, { "epoch": 75.0, "grad_norm": 0.6953125, "learning_rate": 9.965933525034765e-05, "loss": 0.365, "step": 56250 }, { "epoch": 75.0, "eval_loss": 0.4215398132801056, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.7648, "eval_samples_per_second": 1.486, "eval_steps_per_second": 0.093, "step": 56250 }, { "epoch": 75.01333333333334, "grad_norm": 0.82421875, "learning_rate": 9.965921316465654e-05, "loss": 0.3829, "step": 56260 }, { "epoch": 75.02666666666667, "grad_norm": 0.62890625, "learning_rate": 9.965909105716793e-05, "loss": 0.3972, "step": 56270 }, { "epoch": 75.04, "grad_norm": 0.6640625, "learning_rate": 9.965896892788187e-05, "loss": 0.4094, "step": 56280 }, { "epoch": 75.05333333333333, "grad_norm": 0.71484375, "learning_rate": 9.965884677679843e-05, "loss": 0.394, "step": 56290 }, { "epoch": 75.06666666666666, "grad_norm": 0.828125, "learning_rate": 9.965872460391765e-05, "loss": 0.3827, "step": 56300 }, { "epoch": 75.08, "grad_norm": 0.7265625, "learning_rate": 9.965860240923958e-05, "loss": 0.3855, "step": 56310 }, { "epoch": 75.09333333333333, "grad_norm": 0.80859375, "learning_rate": 9.96584801927643e-05, "loss": 0.3881, "step": 56320 }, { "epoch": 75.10666666666667, "grad_norm": 0.640625, "learning_rate": 9.965835795449183e-05, "loss": 0.377, "step": 56330 }, { "epoch": 75.12, "grad_norm": 0.68359375, "learning_rate": 9.965823569442223e-05, "loss": 0.3782, "step": 56340 }, { "epoch": 75.13333333333334, "grad_norm": 0.7578125, "learning_rate": 9.965811341255558e-05, "loss": 0.3709, "step": 56350 }, { "epoch": 75.14666666666666, "grad_norm": 0.65234375, "learning_rate": 9.965799110889191e-05, "loss": 0.39, "step": 56360 }, { "epoch": 75.16, "grad_norm": 0.66796875, "learning_rate": 9.965786878343126e-05, "loss": 0.3838, "step": 56370 }, { "epoch": 75.17333333333333, "grad_norm": 0.79296875, "learning_rate": 9.965774643617373e-05, "loss": 0.3798, "step": 56380 }, { "epoch": 75.18666666666667, "grad_norm": 0.68359375, "learning_rate": 9.965762406711934e-05, "loss": 0.3765, "step": 56390 }, { "epoch": 75.2, "grad_norm": 0.66796875, "learning_rate": 9.965750167626813e-05, "loss": 0.3691, "step": 56400 }, { "epoch": 75.21333333333334, "grad_norm": 0.81640625, "learning_rate": 9.96573792636202e-05, "loss": 0.3692, "step": 56410 }, { "epoch": 75.22666666666667, "grad_norm": 0.87890625, "learning_rate": 9.965725682917556e-05, "loss": 0.3809, "step": 56420 }, { "epoch": 75.24, "grad_norm": 0.78125, "learning_rate": 9.965713437293429e-05, "loss": 0.3664, "step": 56430 }, { "epoch": 75.25333333333333, "grad_norm": 0.734375, "learning_rate": 9.965701189489643e-05, "loss": 0.3694, "step": 56440 }, { "epoch": 75.26666666666667, "grad_norm": 0.6875, "learning_rate": 9.965688939506204e-05, "loss": 0.372, "step": 56450 }, { "epoch": 75.28, "grad_norm": 0.7421875, "learning_rate": 9.965676687343117e-05, "loss": 0.4001, "step": 56460 }, { "epoch": 75.29333333333334, "grad_norm": 0.7734375, "learning_rate": 9.965664433000388e-05, "loss": 0.3585, "step": 56470 }, { "epoch": 75.30666666666667, "grad_norm": 0.69140625, "learning_rate": 9.965652176478021e-05, "loss": 0.3817, "step": 56480 }, { "epoch": 75.32, "grad_norm": 0.63671875, "learning_rate": 9.965639917776023e-05, "loss": 0.3838, "step": 56490 }, { "epoch": 75.33333333333333, "grad_norm": 0.78125, "learning_rate": 9.965627656894398e-05, "loss": 0.3854, "step": 56500 }, { "epoch": 75.34666666666666, "grad_norm": 0.7734375, "learning_rate": 9.965615393833155e-05, "loss": 0.3758, "step": 56510 }, { "epoch": 75.36, "grad_norm": 0.7265625, "learning_rate": 9.965603128592293e-05, "loss": 0.3759, "step": 56520 }, { "epoch": 75.37333333333333, "grad_norm": 0.66015625, "learning_rate": 9.965590861171823e-05, "loss": 0.3782, "step": 56530 }, { "epoch": 75.38666666666667, "grad_norm": 0.7421875, "learning_rate": 9.965578591571747e-05, "loss": 0.368, "step": 56540 }, { "epoch": 75.4, "grad_norm": 0.69921875, "learning_rate": 9.965566319792073e-05, "loss": 0.3768, "step": 56550 }, { "epoch": 75.41333333333333, "grad_norm": 0.74609375, "learning_rate": 9.965554045832804e-05, "loss": 0.3824, "step": 56560 }, { "epoch": 75.42666666666666, "grad_norm": 0.7421875, "learning_rate": 9.965541769693946e-05, "loss": 0.3845, "step": 56570 }, { "epoch": 75.44, "grad_norm": 0.73828125, "learning_rate": 9.965529491375507e-05, "loss": 0.3961, "step": 56580 }, { "epoch": 75.45333333333333, "grad_norm": 0.73828125, "learning_rate": 9.965517210877488e-05, "loss": 0.3841, "step": 56590 }, { "epoch": 75.46666666666667, "grad_norm": 0.69921875, "learning_rate": 9.965504928199898e-05, "loss": 0.3918, "step": 56600 }, { "epoch": 75.48, "grad_norm": 0.69921875, "learning_rate": 9.965492643342741e-05, "loss": 0.3741, "step": 56610 }, { "epoch": 75.49333333333334, "grad_norm": 0.65234375, "learning_rate": 9.965480356306023e-05, "loss": 0.3859, "step": 56620 }, { "epoch": 75.50666666666666, "grad_norm": 0.6875, "learning_rate": 9.965468067089747e-05, "loss": 0.3841, "step": 56630 }, { "epoch": 75.52, "grad_norm": 0.6953125, "learning_rate": 9.965455775693922e-05, "loss": 0.3755, "step": 56640 }, { "epoch": 75.53333333333333, "grad_norm": 0.6953125, "learning_rate": 9.965443482118549e-05, "loss": 0.3777, "step": 56650 }, { "epoch": 75.54666666666667, "grad_norm": 0.84375, "learning_rate": 9.965431186363639e-05, "loss": 0.3787, "step": 56660 }, { "epoch": 75.56, "grad_norm": 0.60546875, "learning_rate": 9.965418888429192e-05, "loss": 0.3738, "step": 56670 }, { "epoch": 75.57333333333334, "grad_norm": 0.73828125, "learning_rate": 9.965406588315216e-05, "loss": 0.3781, "step": 56680 }, { "epoch": 75.58666666666667, "grad_norm": 0.72265625, "learning_rate": 9.965394286021718e-05, "loss": 0.3673, "step": 56690 }, { "epoch": 75.6, "grad_norm": 0.7265625, "learning_rate": 9.9653819815487e-05, "loss": 0.3688, "step": 56700 }, { "epoch": 75.61333333333333, "grad_norm": 0.66015625, "learning_rate": 9.96536967489617e-05, "loss": 0.3603, "step": 56710 }, { "epoch": 75.62666666666667, "grad_norm": 0.59765625, "learning_rate": 9.965357366064132e-05, "loss": 0.3639, "step": 56720 }, { "epoch": 75.64, "grad_norm": 0.7109375, "learning_rate": 9.96534505505259e-05, "loss": 0.3743, "step": 56730 }, { "epoch": 75.65333333333334, "grad_norm": 0.65234375, "learning_rate": 9.965332741861552e-05, "loss": 0.3848, "step": 56740 }, { "epoch": 75.66666666666667, "grad_norm": 0.6328125, "learning_rate": 9.965320426491025e-05, "loss": 0.3747, "step": 56750 }, { "epoch": 75.68, "grad_norm": 0.75, "learning_rate": 9.965308108941009e-05, "loss": 0.3639, "step": 56760 }, { "epoch": 75.69333333333333, "grad_norm": 0.63671875, "learning_rate": 9.965295789211516e-05, "loss": 0.3739, "step": 56770 }, { "epoch": 75.70666666666666, "grad_norm": 0.7734375, "learning_rate": 9.965283467302544e-05, "loss": 0.3662, "step": 56780 }, { "epoch": 75.72, "grad_norm": 0.73046875, "learning_rate": 9.965271143214104e-05, "loss": 0.3873, "step": 56790 }, { "epoch": 75.73333333333333, "grad_norm": 0.7265625, "learning_rate": 9.965258816946199e-05, "loss": 0.3813, "step": 56800 }, { "epoch": 75.74666666666667, "grad_norm": 0.7109375, "learning_rate": 9.965246488498836e-05, "loss": 0.3854, "step": 56810 }, { "epoch": 75.76, "grad_norm": 0.73046875, "learning_rate": 9.965234157872018e-05, "loss": 0.3988, "step": 56820 }, { "epoch": 75.77333333333333, "grad_norm": 0.859375, "learning_rate": 9.965221825065754e-05, "loss": 0.3822, "step": 56830 }, { "epoch": 75.78666666666666, "grad_norm": 0.66796875, "learning_rate": 9.965209490080045e-05, "loss": 0.385, "step": 56840 }, { "epoch": 75.8, "grad_norm": 0.79296875, "learning_rate": 9.9651971529149e-05, "loss": 0.3836, "step": 56850 }, { "epoch": 75.81333333333333, "grad_norm": 0.80859375, "learning_rate": 9.965184813570323e-05, "loss": 0.3577, "step": 56860 }, { "epoch": 75.82666666666667, "grad_norm": 0.73046875, "learning_rate": 9.965172472046319e-05, "loss": 0.3657, "step": 56870 }, { "epoch": 75.84, "grad_norm": 0.69921875, "learning_rate": 9.965160128342894e-05, "loss": 0.3774, "step": 56880 }, { "epoch": 75.85333333333334, "grad_norm": 0.76171875, "learning_rate": 9.965147782460054e-05, "loss": 0.3731, "step": 56890 }, { "epoch": 75.86666666666666, "grad_norm": 0.70703125, "learning_rate": 9.965135434397803e-05, "loss": 0.3793, "step": 56900 }, { "epoch": 75.88, "grad_norm": 0.6796875, "learning_rate": 9.965123084156147e-05, "loss": 0.3586, "step": 56910 }, { "epoch": 75.89333333333333, "grad_norm": 0.66015625, "learning_rate": 9.965110731735093e-05, "loss": 0.3728, "step": 56920 }, { "epoch": 75.90666666666667, "grad_norm": 0.6796875, "learning_rate": 9.965098377134645e-05, "loss": 0.3757, "step": 56930 }, { "epoch": 75.92, "grad_norm": 0.75390625, "learning_rate": 9.965086020354806e-05, "loss": 0.378, "step": 56940 }, { "epoch": 75.93333333333334, "grad_norm": 0.609375, "learning_rate": 9.965073661395585e-05, "loss": 0.3737, "step": 56950 }, { "epoch": 75.94666666666667, "grad_norm": 0.6484375, "learning_rate": 9.965061300256988e-05, "loss": 0.3733, "step": 56960 }, { "epoch": 75.96, "grad_norm": 0.6875, "learning_rate": 9.965048936939017e-05, "loss": 0.372, "step": 56970 }, { "epoch": 75.97333333333333, "grad_norm": 0.8515625, "learning_rate": 9.96503657144168e-05, "loss": 0.3964, "step": 56980 }, { "epoch": 75.98666666666666, "grad_norm": 0.7265625, "learning_rate": 9.96502420376498e-05, "loss": 0.3668, "step": 56990 }, { "epoch": 76.0, "grad_norm": 0.66015625, "learning_rate": 9.965011833908926e-05, "loss": 0.3649, "step": 57000 }, { "epoch": 76.0, "eval_loss": 0.42118537425994873, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4573, "eval_samples_per_second": 1.53, "eval_steps_per_second": 0.096, "step": 57000 }, { "epoch": 76.01333333333334, "grad_norm": 0.7578125, "learning_rate": 9.964999461873521e-05, "loss": 0.382, "step": 57010 }, { "epoch": 76.02666666666667, "grad_norm": 0.69140625, "learning_rate": 9.96498708765877e-05, "loss": 0.3967, "step": 57020 }, { "epoch": 76.04, "grad_norm": 0.62890625, "learning_rate": 9.964974711264681e-05, "loss": 0.41, "step": 57030 }, { "epoch": 76.05333333333333, "grad_norm": 0.6953125, "learning_rate": 9.964962332691257e-05, "loss": 0.3939, "step": 57040 }, { "epoch": 76.06666666666666, "grad_norm": 0.76171875, "learning_rate": 9.964949951938504e-05, "loss": 0.3823, "step": 57050 }, { "epoch": 76.08, "grad_norm": 0.69140625, "learning_rate": 9.964937569006427e-05, "loss": 0.3857, "step": 57060 }, { "epoch": 76.09333333333333, "grad_norm": 0.6875, "learning_rate": 9.964925183895034e-05, "loss": 0.3874, "step": 57070 }, { "epoch": 76.10666666666667, "grad_norm": 0.63671875, "learning_rate": 9.964912796604326e-05, "loss": 0.3753, "step": 57080 }, { "epoch": 76.12, "grad_norm": 0.73046875, "learning_rate": 9.964900407134312e-05, "loss": 0.3789, "step": 57090 }, { "epoch": 76.13333333333334, "grad_norm": 0.69921875, "learning_rate": 9.964888015484997e-05, "loss": 0.37, "step": 57100 }, { "epoch": 76.14666666666666, "grad_norm": 0.734375, "learning_rate": 9.964875621656385e-05, "loss": 0.3891, "step": 57110 }, { "epoch": 76.16, "grad_norm": 0.640625, "learning_rate": 9.964863225648482e-05, "loss": 0.3843, "step": 57120 }, { "epoch": 76.17333333333333, "grad_norm": 0.75390625, "learning_rate": 9.964850827461294e-05, "loss": 0.3793, "step": 57130 }, { "epoch": 76.18666666666667, "grad_norm": 0.6171875, "learning_rate": 9.964838427094825e-05, "loss": 0.3769, "step": 57140 }, { "epoch": 76.2, "grad_norm": 0.671875, "learning_rate": 9.964826024549083e-05, "loss": 0.3684, "step": 57150 }, { "epoch": 76.21333333333334, "grad_norm": 0.74609375, "learning_rate": 9.964813619824072e-05, "loss": 0.3695, "step": 57160 }, { "epoch": 76.22666666666667, "grad_norm": 0.79296875, "learning_rate": 9.964801212919796e-05, "loss": 0.3806, "step": 57170 }, { "epoch": 76.24, "grad_norm": 0.8046875, "learning_rate": 9.964788803836264e-05, "loss": 0.3663, "step": 57180 }, { "epoch": 76.25333333333333, "grad_norm": 0.69921875, "learning_rate": 9.964776392573478e-05, "loss": 0.368, "step": 57190 }, { "epoch": 76.26666666666667, "grad_norm": 0.71875, "learning_rate": 9.964763979131447e-05, "loss": 0.371, "step": 57200 }, { "epoch": 76.28, "grad_norm": 0.80078125, "learning_rate": 9.96475156351017e-05, "loss": 0.4004, "step": 57210 }, { "epoch": 76.29333333333334, "grad_norm": 0.66015625, "learning_rate": 9.96473914570966e-05, "loss": 0.358, "step": 57220 }, { "epoch": 76.30666666666667, "grad_norm": 0.6171875, "learning_rate": 9.964726725729918e-05, "loss": 0.381, "step": 57230 }, { "epoch": 76.32, "grad_norm": 0.59375, "learning_rate": 9.964714303570951e-05, "loss": 0.3844, "step": 57240 }, { "epoch": 76.33333333333333, "grad_norm": 0.7265625, "learning_rate": 9.964701879232764e-05, "loss": 0.3843, "step": 57250 }, { "epoch": 76.34666666666666, "grad_norm": 0.83203125, "learning_rate": 9.964689452715362e-05, "loss": 0.3745, "step": 57260 }, { "epoch": 76.36, "grad_norm": 0.7265625, "learning_rate": 9.964677024018751e-05, "loss": 0.3759, "step": 57270 }, { "epoch": 76.37333333333333, "grad_norm": 0.62890625, "learning_rate": 9.964664593142937e-05, "loss": 0.3788, "step": 57280 }, { "epoch": 76.38666666666667, "grad_norm": 0.7578125, "learning_rate": 9.964652160087926e-05, "loss": 0.3677, "step": 57290 }, { "epoch": 76.4, "grad_norm": 0.6953125, "learning_rate": 9.96463972485372e-05, "loss": 0.3769, "step": 57300 }, { "epoch": 76.41333333333333, "grad_norm": 0.70703125, "learning_rate": 9.964627287440326e-05, "loss": 0.3822, "step": 57310 }, { "epoch": 76.42666666666666, "grad_norm": 0.68359375, "learning_rate": 9.964614847847753e-05, "loss": 0.3841, "step": 57320 }, { "epoch": 76.44, "grad_norm": 0.75, "learning_rate": 9.964602406076002e-05, "loss": 0.396, "step": 57330 }, { "epoch": 76.45333333333333, "grad_norm": 0.6875, "learning_rate": 9.964589962125081e-05, "loss": 0.3839, "step": 57340 }, { "epoch": 76.46666666666667, "grad_norm": 0.73046875, "learning_rate": 9.964577515994995e-05, "loss": 0.3908, "step": 57350 }, { "epoch": 76.48, "grad_norm": 0.73046875, "learning_rate": 9.96456506768575e-05, "loss": 0.374, "step": 57360 }, { "epoch": 76.49333333333334, "grad_norm": 0.64453125, "learning_rate": 9.964552617197348e-05, "loss": 0.385, "step": 57370 }, { "epoch": 76.50666666666666, "grad_norm": 0.77734375, "learning_rate": 9.964540164529799e-05, "loss": 0.3855, "step": 57380 }, { "epoch": 76.52, "grad_norm": 0.65625, "learning_rate": 9.964527709683105e-05, "loss": 0.3762, "step": 57390 }, { "epoch": 76.53333333333333, "grad_norm": 0.734375, "learning_rate": 9.964515252657272e-05, "loss": 0.378, "step": 57400 }, { "epoch": 76.54666666666667, "grad_norm": 0.80078125, "learning_rate": 9.964502793452309e-05, "loss": 0.3789, "step": 57410 }, { "epoch": 76.56, "grad_norm": 0.62109375, "learning_rate": 9.964490332068217e-05, "loss": 0.3728, "step": 57420 }, { "epoch": 76.57333333333334, "grad_norm": 0.74609375, "learning_rate": 9.964477868505004e-05, "loss": 0.3767, "step": 57430 }, { "epoch": 76.58666666666667, "grad_norm": 0.68359375, "learning_rate": 9.964465402762676e-05, "loss": 0.3676, "step": 57440 }, { "epoch": 76.6, "grad_norm": 0.67578125, "learning_rate": 9.964452934841236e-05, "loss": 0.3687, "step": 57450 }, { "epoch": 76.61333333333333, "grad_norm": 0.59375, "learning_rate": 9.964440464740691e-05, "loss": 0.3604, "step": 57460 }, { "epoch": 76.62666666666667, "grad_norm": 0.6484375, "learning_rate": 9.964427992461047e-05, "loss": 0.3646, "step": 57470 }, { "epoch": 76.64, "grad_norm": 0.74609375, "learning_rate": 9.964415518002308e-05, "loss": 0.3734, "step": 57480 }, { "epoch": 76.65333333333334, "grad_norm": 0.69921875, "learning_rate": 9.96440304136448e-05, "loss": 0.3844, "step": 57490 }, { "epoch": 76.66666666666667, "grad_norm": 0.67578125, "learning_rate": 9.964390562547569e-05, "loss": 0.3742, "step": 57500 }, { "epoch": 76.68, "grad_norm": 0.77734375, "learning_rate": 9.96437808155158e-05, "loss": 0.3641, "step": 57510 }, { "epoch": 76.69333333333333, "grad_norm": 0.67578125, "learning_rate": 9.964365598376519e-05, "loss": 0.3743, "step": 57520 }, { "epoch": 76.70666666666666, "grad_norm": 0.72265625, "learning_rate": 9.96435311302239e-05, "loss": 0.3653, "step": 57530 }, { "epoch": 76.72, "grad_norm": 0.8359375, "learning_rate": 9.9643406254892e-05, "loss": 0.3868, "step": 57540 }, { "epoch": 76.73333333333333, "grad_norm": 0.80859375, "learning_rate": 9.964328135776954e-05, "loss": 0.3825, "step": 57550 }, { "epoch": 76.74666666666667, "grad_norm": 0.66015625, "learning_rate": 9.964315643885659e-05, "loss": 0.3848, "step": 57560 }, { "epoch": 76.76, "grad_norm": 0.74609375, "learning_rate": 9.964303149815317e-05, "loss": 0.3982, "step": 57570 }, { "epoch": 76.77333333333333, "grad_norm": 0.7265625, "learning_rate": 9.964290653565937e-05, "loss": 0.3832, "step": 57580 }, { "epoch": 76.78666666666666, "grad_norm": 0.66796875, "learning_rate": 9.964278155137523e-05, "loss": 0.385, "step": 57590 }, { "epoch": 76.8, "grad_norm": 0.71875, "learning_rate": 9.964265654530081e-05, "loss": 0.3829, "step": 57600 }, { "epoch": 76.81333333333333, "grad_norm": 0.88671875, "learning_rate": 9.964253151743615e-05, "loss": 0.3567, "step": 57610 }, { "epoch": 76.82666666666667, "grad_norm": 0.671875, "learning_rate": 9.96424064677813e-05, "loss": 0.3658, "step": 57620 }, { "epoch": 76.84, "grad_norm": 0.796875, "learning_rate": 9.964228139633635e-05, "loss": 0.3773, "step": 57630 }, { "epoch": 76.85333333333334, "grad_norm": 0.71484375, "learning_rate": 9.964215630310131e-05, "loss": 0.3731, "step": 57640 }, { "epoch": 76.86666666666666, "grad_norm": 0.72265625, "learning_rate": 9.964203118807628e-05, "loss": 0.3775, "step": 57650 }, { "epoch": 76.88, "grad_norm": 0.734375, "learning_rate": 9.96419060512613e-05, "loss": 0.3588, "step": 57660 }, { "epoch": 76.89333333333333, "grad_norm": 0.69921875, "learning_rate": 9.964178089265641e-05, "loss": 0.3707, "step": 57670 }, { "epoch": 76.90666666666667, "grad_norm": 0.7578125, "learning_rate": 9.964165571226169e-05, "loss": 0.3761, "step": 57680 }, { "epoch": 76.92, "grad_norm": 0.70703125, "learning_rate": 9.964153051007717e-05, "loss": 0.3778, "step": 57690 }, { "epoch": 76.93333333333334, "grad_norm": 0.67578125, "learning_rate": 9.96414052861029e-05, "loss": 0.3737, "step": 57700 }, { "epoch": 76.94666666666667, "grad_norm": 0.68359375, "learning_rate": 9.964128004033894e-05, "loss": 0.3726, "step": 57710 }, { "epoch": 76.96, "grad_norm": 0.6875, "learning_rate": 9.964115477278538e-05, "loss": 0.3718, "step": 57720 }, { "epoch": 76.97333333333333, "grad_norm": 0.890625, "learning_rate": 9.964102948344225e-05, "loss": 0.395, "step": 57730 }, { "epoch": 76.98666666666666, "grad_norm": 0.703125, "learning_rate": 9.964090417230958e-05, "loss": 0.3667, "step": 57740 }, { "epoch": 77.0, "grad_norm": 0.71875, "learning_rate": 9.964077883938748e-05, "loss": 0.3656, "step": 57750 }, { "epoch": 77.0, "eval_loss": 0.42019030451774597, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3233, "eval_samples_per_second": 1.55, "eval_steps_per_second": 0.097, "step": 57750 }, { "epoch": 77.01333333333334, "grad_norm": 0.77734375, "learning_rate": 9.964065348467595e-05, "loss": 0.3814, "step": 57760 }, { "epoch": 77.02666666666667, "grad_norm": 0.69921875, "learning_rate": 9.964052810817509e-05, "loss": 0.3962, "step": 57770 }, { "epoch": 77.04, "grad_norm": 0.640625, "learning_rate": 9.96404027098849e-05, "loss": 0.4091, "step": 57780 }, { "epoch": 77.05333333333333, "grad_norm": 0.671875, "learning_rate": 9.96402772898055e-05, "loss": 0.3935, "step": 57790 }, { "epoch": 77.06666666666666, "grad_norm": 0.734375, "learning_rate": 9.96401518479369e-05, "loss": 0.381, "step": 57800 }, { "epoch": 77.08, "grad_norm": 0.6875, "learning_rate": 9.964002638427916e-05, "loss": 0.3847, "step": 57810 }, { "epoch": 77.09333333333333, "grad_norm": 0.7109375, "learning_rate": 9.963990089883237e-05, "loss": 0.3875, "step": 57820 }, { "epoch": 77.10666666666667, "grad_norm": 0.68359375, "learning_rate": 9.963977539159655e-05, "loss": 0.376, "step": 57830 }, { "epoch": 77.12, "grad_norm": 0.7265625, "learning_rate": 9.963964986257175e-05, "loss": 0.3782, "step": 57840 }, { "epoch": 77.13333333333334, "grad_norm": 0.74609375, "learning_rate": 9.963952431175804e-05, "loss": 0.3701, "step": 57850 }, { "epoch": 77.14666666666666, "grad_norm": 0.71875, "learning_rate": 9.96393987391555e-05, "loss": 0.3897, "step": 57860 }, { "epoch": 77.16, "grad_norm": 0.6796875, "learning_rate": 9.963927314476413e-05, "loss": 0.3843, "step": 57870 }, { "epoch": 77.17333333333333, "grad_norm": 0.77734375, "learning_rate": 9.963914752858405e-05, "loss": 0.3782, "step": 57880 }, { "epoch": 77.18666666666667, "grad_norm": 0.7578125, "learning_rate": 9.963902189061524e-05, "loss": 0.3764, "step": 57890 }, { "epoch": 77.2, "grad_norm": 0.765625, "learning_rate": 9.963889623085782e-05, "loss": 0.368, "step": 57900 }, { "epoch": 77.21333333333334, "grad_norm": 0.7890625, "learning_rate": 9.963877054931181e-05, "loss": 0.3693, "step": 57910 }, { "epoch": 77.22666666666667, "grad_norm": 0.71484375, "learning_rate": 9.963864484597729e-05, "loss": 0.3797, "step": 57920 }, { "epoch": 77.24, "grad_norm": 0.6953125, "learning_rate": 9.963851912085429e-05, "loss": 0.3661, "step": 57930 }, { "epoch": 77.25333333333333, "grad_norm": 0.734375, "learning_rate": 9.963839337394287e-05, "loss": 0.3677, "step": 57940 }, { "epoch": 77.26666666666667, "grad_norm": 0.66796875, "learning_rate": 9.963826760524311e-05, "loss": 0.3714, "step": 57950 }, { "epoch": 77.28, "grad_norm": 0.70703125, "learning_rate": 9.963814181475503e-05, "loss": 0.3996, "step": 57960 }, { "epoch": 77.29333333333334, "grad_norm": 0.67578125, "learning_rate": 9.96380160024787e-05, "loss": 0.3574, "step": 57970 }, { "epoch": 77.30666666666667, "grad_norm": 0.6875, "learning_rate": 9.963789016841418e-05, "loss": 0.3812, "step": 57980 }, { "epoch": 77.32, "grad_norm": 0.61328125, "learning_rate": 9.963776431256153e-05, "loss": 0.3834, "step": 57990 }, { "epoch": 77.33333333333333, "grad_norm": 0.69921875, "learning_rate": 9.96376384349208e-05, "loss": 0.384, "step": 58000 }, { "epoch": 77.34666666666666, "grad_norm": 0.71875, "learning_rate": 9.963751253549203e-05, "loss": 0.3739, "step": 58010 }, { "epoch": 77.36, "grad_norm": 0.70703125, "learning_rate": 9.963738661427528e-05, "loss": 0.376, "step": 58020 }, { "epoch": 77.37333333333333, "grad_norm": 0.66015625, "learning_rate": 9.963726067127064e-05, "loss": 0.379, "step": 58030 }, { "epoch": 77.38666666666667, "grad_norm": 0.8359375, "learning_rate": 9.96371347064781e-05, "loss": 0.3672, "step": 58040 }, { "epoch": 77.4, "grad_norm": 0.76171875, "learning_rate": 9.963700871989778e-05, "loss": 0.3765, "step": 58050 }, { "epoch": 77.41333333333333, "grad_norm": 0.6640625, "learning_rate": 9.963688271152972e-05, "loss": 0.3821, "step": 58060 }, { "epoch": 77.42666666666666, "grad_norm": 0.6875, "learning_rate": 9.963675668137394e-05, "loss": 0.3837, "step": 58070 }, { "epoch": 77.44, "grad_norm": 0.703125, "learning_rate": 9.963663062943055e-05, "loss": 0.3955, "step": 58080 }, { "epoch": 77.45333333333333, "grad_norm": 0.73828125, "learning_rate": 9.963650455569953e-05, "loss": 0.3826, "step": 58090 }, { "epoch": 77.46666666666667, "grad_norm": 0.70703125, "learning_rate": 9.9636378460181e-05, "loss": 0.3913, "step": 58100 }, { "epoch": 77.48, "grad_norm": 0.71875, "learning_rate": 9.963625234287501e-05, "loss": 0.3745, "step": 58110 }, { "epoch": 77.49333333333334, "grad_norm": 0.7109375, "learning_rate": 9.963612620378159e-05, "loss": 0.3846, "step": 58120 }, { "epoch": 77.50666666666666, "grad_norm": 0.83203125, "learning_rate": 9.96360000429008e-05, "loss": 0.3838, "step": 58130 }, { "epoch": 77.52, "grad_norm": 0.72265625, "learning_rate": 9.963587386023271e-05, "loss": 0.3754, "step": 58140 }, { "epoch": 77.53333333333333, "grad_norm": 0.71875, "learning_rate": 9.963574765577737e-05, "loss": 0.3768, "step": 58150 }, { "epoch": 77.54666666666667, "grad_norm": 0.875, "learning_rate": 9.963562142953481e-05, "loss": 0.3781, "step": 58160 }, { "epoch": 77.56, "grad_norm": 0.64453125, "learning_rate": 9.963549518150514e-05, "loss": 0.3729, "step": 58170 }, { "epoch": 77.57333333333334, "grad_norm": 0.7734375, "learning_rate": 9.963536891168837e-05, "loss": 0.3773, "step": 58180 }, { "epoch": 77.58666666666667, "grad_norm": 0.6171875, "learning_rate": 9.963524262008456e-05, "loss": 0.3663, "step": 58190 }, { "epoch": 77.6, "grad_norm": 0.6796875, "learning_rate": 9.963511630669377e-05, "loss": 0.368, "step": 58200 }, { "epoch": 77.61333333333333, "grad_norm": 0.61328125, "learning_rate": 9.963498997151607e-05, "loss": 0.3594, "step": 58210 }, { "epoch": 77.62666666666667, "grad_norm": 0.58203125, "learning_rate": 9.963486361455151e-05, "loss": 0.3634, "step": 58220 }, { "epoch": 77.64, "grad_norm": 0.70703125, "learning_rate": 9.963473723580015e-05, "loss": 0.3738, "step": 58230 }, { "epoch": 77.65333333333334, "grad_norm": 0.69921875, "learning_rate": 9.963461083526201e-05, "loss": 0.3843, "step": 58240 }, { "epoch": 77.66666666666667, "grad_norm": 0.67578125, "learning_rate": 9.963448441293717e-05, "loss": 0.3729, "step": 58250 }, { "epoch": 77.68, "grad_norm": 0.69921875, "learning_rate": 9.963435796882571e-05, "loss": 0.3634, "step": 58260 }, { "epoch": 77.69333333333333, "grad_norm": 0.66796875, "learning_rate": 9.963423150292766e-05, "loss": 0.3739, "step": 58270 }, { "epoch": 77.70666666666666, "grad_norm": 0.81640625, "learning_rate": 9.963410501524306e-05, "loss": 0.3649, "step": 58280 }, { "epoch": 77.72, "grad_norm": 0.828125, "learning_rate": 9.9633978505772e-05, "loss": 0.3864, "step": 58290 }, { "epoch": 77.73333333333333, "grad_norm": 0.7109375, "learning_rate": 9.963385197451451e-05, "loss": 0.3821, "step": 58300 }, { "epoch": 77.74666666666667, "grad_norm": 0.73828125, "learning_rate": 9.963372542147064e-05, "loss": 0.3854, "step": 58310 }, { "epoch": 77.76, "grad_norm": 0.7265625, "learning_rate": 9.963359884664049e-05, "loss": 0.3981, "step": 58320 }, { "epoch": 77.77333333333333, "grad_norm": 0.81640625, "learning_rate": 9.963347225002407e-05, "loss": 0.3824, "step": 58330 }, { "epoch": 77.78666666666666, "grad_norm": 0.6875, "learning_rate": 9.963334563162145e-05, "loss": 0.3848, "step": 58340 }, { "epoch": 77.8, "grad_norm": 0.70703125, "learning_rate": 9.96332189914327e-05, "loss": 0.3831, "step": 58350 }, { "epoch": 77.81333333333333, "grad_norm": 0.7734375, "learning_rate": 9.963309232945784e-05, "loss": 0.3562, "step": 58360 }, { "epoch": 77.82666666666667, "grad_norm": 0.74609375, "learning_rate": 9.963296564569696e-05, "loss": 0.3646, "step": 58370 }, { "epoch": 77.84, "grad_norm": 0.734375, "learning_rate": 9.963283894015011e-05, "loss": 0.3774, "step": 58380 }, { "epoch": 77.85333333333334, "grad_norm": 0.70703125, "learning_rate": 9.963271221281734e-05, "loss": 0.3731, "step": 58390 }, { "epoch": 77.86666666666666, "grad_norm": 0.70703125, "learning_rate": 9.963258546369869e-05, "loss": 0.3776, "step": 58400 }, { "epoch": 77.88, "grad_norm": 0.65625, "learning_rate": 9.963245869279423e-05, "loss": 0.3587, "step": 58410 }, { "epoch": 77.89333333333333, "grad_norm": 0.7734375, "learning_rate": 9.963233190010402e-05, "loss": 0.3707, "step": 58420 }, { "epoch": 77.90666666666667, "grad_norm": 0.671875, "learning_rate": 9.963220508562811e-05, "loss": 0.3757, "step": 58430 }, { "epoch": 77.92, "grad_norm": 0.796875, "learning_rate": 9.963207824936658e-05, "loss": 0.3782, "step": 58440 }, { "epoch": 77.93333333333334, "grad_norm": 0.6640625, "learning_rate": 9.963195139131944e-05, "loss": 0.3734, "step": 58450 }, { "epoch": 77.94666666666667, "grad_norm": 0.6953125, "learning_rate": 9.963182451148678e-05, "loss": 0.3727, "step": 58460 }, { "epoch": 77.96, "grad_norm": 0.59765625, "learning_rate": 9.963169760986863e-05, "loss": 0.3711, "step": 58470 }, { "epoch": 77.97333333333333, "grad_norm": 0.9296875, "learning_rate": 9.963157068646507e-05, "loss": 0.3948, "step": 58480 }, { "epoch": 77.98666666666666, "grad_norm": 0.75390625, "learning_rate": 9.963144374127614e-05, "loss": 0.365, "step": 58490 }, { "epoch": 78.0, "grad_norm": 0.703125, "learning_rate": 9.963131677430191e-05, "loss": 0.3639, "step": 58500 }, { "epoch": 78.0, "eval_loss": 0.4209608733654022, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.571, "eval_samples_per_second": 1.514, "eval_steps_per_second": 0.095, "step": 58500 }, { "epoch": 78.01333333333334, "grad_norm": 0.7734375, "learning_rate": 9.963118978554242e-05, "loss": 0.3821, "step": 58510 }, { "epoch": 78.02666666666667, "grad_norm": 0.69921875, "learning_rate": 9.963106277499775e-05, "loss": 0.3956, "step": 58520 }, { "epoch": 78.04, "grad_norm": 0.671875, "learning_rate": 9.963093574266791e-05, "loss": 0.4087, "step": 58530 }, { "epoch": 78.05333333333333, "grad_norm": 0.6640625, "learning_rate": 9.963080868855302e-05, "loss": 0.3937, "step": 58540 }, { "epoch": 78.06666666666666, "grad_norm": 0.796875, "learning_rate": 9.963068161265306e-05, "loss": 0.382, "step": 58550 }, { "epoch": 78.08, "grad_norm": 0.67578125, "learning_rate": 9.963055451496814e-05, "loss": 0.3853, "step": 58560 }, { "epoch": 78.09333333333333, "grad_norm": 0.75, "learning_rate": 9.963042739549831e-05, "loss": 0.3873, "step": 58570 }, { "epoch": 78.10666666666667, "grad_norm": 0.625, "learning_rate": 9.963030025424362e-05, "loss": 0.3755, "step": 58580 }, { "epoch": 78.12, "grad_norm": 0.71484375, "learning_rate": 9.963017309120412e-05, "loss": 0.3782, "step": 58590 }, { "epoch": 78.13333333333334, "grad_norm": 0.6796875, "learning_rate": 9.963004590637987e-05, "loss": 0.3701, "step": 58600 }, { "epoch": 78.14666666666666, "grad_norm": 0.71484375, "learning_rate": 9.962991869977093e-05, "loss": 0.3888, "step": 58610 }, { "epoch": 78.16, "grad_norm": 0.64453125, "learning_rate": 9.962979147137735e-05, "loss": 0.3835, "step": 58620 }, { "epoch": 78.17333333333333, "grad_norm": 0.7421875, "learning_rate": 9.962966422119917e-05, "loss": 0.3779, "step": 58630 }, { "epoch": 78.18666666666667, "grad_norm": 0.73046875, "learning_rate": 9.962953694923646e-05, "loss": 0.3757, "step": 58640 }, { "epoch": 78.2, "grad_norm": 0.6875, "learning_rate": 9.96294096554893e-05, "loss": 0.3679, "step": 58650 }, { "epoch": 78.21333333333334, "grad_norm": 0.75, "learning_rate": 9.962928233995772e-05, "loss": 0.3694, "step": 58660 }, { "epoch": 78.22666666666667, "grad_norm": 0.8046875, "learning_rate": 9.962915500264179e-05, "loss": 0.38, "step": 58670 }, { "epoch": 78.24, "grad_norm": 0.7109375, "learning_rate": 9.962902764354153e-05, "loss": 0.3665, "step": 58680 }, { "epoch": 78.25333333333333, "grad_norm": 0.71875, "learning_rate": 9.962890026265703e-05, "loss": 0.3685, "step": 58690 }, { "epoch": 78.26666666666667, "grad_norm": 0.6640625, "learning_rate": 9.962877285998834e-05, "loss": 0.3704, "step": 58700 }, { "epoch": 78.28, "grad_norm": 0.71875, "learning_rate": 9.962864543553552e-05, "loss": 0.3993, "step": 58710 }, { "epoch": 78.29333333333334, "grad_norm": 0.671875, "learning_rate": 9.962851798929862e-05, "loss": 0.3569, "step": 58720 }, { "epoch": 78.30666666666667, "grad_norm": 0.6796875, "learning_rate": 9.96283905212777e-05, "loss": 0.3808, "step": 58730 }, { "epoch": 78.32, "grad_norm": 0.63671875, "learning_rate": 9.962826303147278e-05, "loss": 0.3843, "step": 58740 }, { "epoch": 78.33333333333333, "grad_norm": 0.7265625, "learning_rate": 9.962813551988399e-05, "loss": 0.3843, "step": 58750 }, { "epoch": 78.34666666666666, "grad_norm": 0.94921875, "learning_rate": 9.962800798651132e-05, "loss": 0.3753, "step": 58760 }, { "epoch": 78.36, "grad_norm": 0.73828125, "learning_rate": 9.962788043135484e-05, "loss": 0.3756, "step": 58770 }, { "epoch": 78.37333333333333, "grad_norm": 0.6328125, "learning_rate": 9.962775285441465e-05, "loss": 0.3777, "step": 58780 }, { "epoch": 78.38666666666667, "grad_norm": 0.7578125, "learning_rate": 9.962762525569074e-05, "loss": 0.367, "step": 58790 }, { "epoch": 78.4, "grad_norm": 0.70703125, "learning_rate": 9.962749763518322e-05, "loss": 0.3765, "step": 58800 }, { "epoch": 78.41333333333333, "grad_norm": 0.671875, "learning_rate": 9.96273699928921e-05, "loss": 0.3818, "step": 58810 }, { "epoch": 78.42666666666666, "grad_norm": 0.66015625, "learning_rate": 9.962724232881748e-05, "loss": 0.383, "step": 58820 }, { "epoch": 78.44, "grad_norm": 0.7578125, "learning_rate": 9.962711464295939e-05, "loss": 0.3956, "step": 58830 }, { "epoch": 78.45333333333333, "grad_norm": 0.71484375, "learning_rate": 9.962698693531789e-05, "loss": 0.3829, "step": 58840 }, { "epoch": 78.46666666666667, "grad_norm": 0.7265625, "learning_rate": 9.962685920589304e-05, "loss": 0.3913, "step": 58850 }, { "epoch": 78.48, "grad_norm": 0.72265625, "learning_rate": 9.962673145468489e-05, "loss": 0.3737, "step": 58860 }, { "epoch": 78.49333333333334, "grad_norm": 0.7421875, "learning_rate": 9.96266036816935e-05, "loss": 0.385, "step": 58870 }, { "epoch": 78.50666666666666, "grad_norm": 0.734375, "learning_rate": 9.962647588691894e-05, "loss": 0.3843, "step": 58880 }, { "epoch": 78.52, "grad_norm": 0.61328125, "learning_rate": 9.962634807036123e-05, "loss": 0.3748, "step": 58890 }, { "epoch": 78.53333333333333, "grad_norm": 0.6796875, "learning_rate": 9.962622023202046e-05, "loss": 0.3767, "step": 58900 }, { "epoch": 78.54666666666667, "grad_norm": 0.73046875, "learning_rate": 9.962609237189667e-05, "loss": 0.378, "step": 58910 }, { "epoch": 78.56, "grad_norm": 0.7109375, "learning_rate": 9.962596448998993e-05, "loss": 0.3726, "step": 58920 }, { "epoch": 78.57333333333334, "grad_norm": 0.7578125, "learning_rate": 9.962583658630027e-05, "loss": 0.3776, "step": 58930 }, { "epoch": 78.58666666666667, "grad_norm": 0.65625, "learning_rate": 9.962570866082778e-05, "loss": 0.3663, "step": 58940 }, { "epoch": 78.6, "grad_norm": 0.66015625, "learning_rate": 9.962558071357248e-05, "loss": 0.3675, "step": 58950 }, { "epoch": 78.61333333333333, "grad_norm": 0.62109375, "learning_rate": 9.962545274453446e-05, "loss": 0.3602, "step": 58960 }, { "epoch": 78.62666666666667, "grad_norm": 0.6953125, "learning_rate": 9.962532475371376e-05, "loss": 0.364, "step": 58970 }, { "epoch": 78.64, "grad_norm": 0.8125, "learning_rate": 9.962519674111043e-05, "loss": 0.3736, "step": 58980 }, { "epoch": 78.65333333333334, "grad_norm": 0.64453125, "learning_rate": 9.962506870672455e-05, "loss": 0.3837, "step": 58990 }, { "epoch": 78.66666666666667, "grad_norm": 0.6171875, "learning_rate": 9.962494065055614e-05, "loss": 0.3737, "step": 59000 }, { "epoch": 78.68, "grad_norm": 0.73046875, "learning_rate": 9.962481257260529e-05, "loss": 0.3641, "step": 59010 }, { "epoch": 78.69333333333333, "grad_norm": 0.75390625, "learning_rate": 9.962468447287204e-05, "loss": 0.3734, "step": 59020 }, { "epoch": 78.70666666666666, "grad_norm": 0.78515625, "learning_rate": 9.962455635135643e-05, "loss": 0.364, "step": 59030 }, { "epoch": 78.72, "grad_norm": 0.6953125, "learning_rate": 9.962442820805856e-05, "loss": 0.3859, "step": 59040 }, { "epoch": 78.73333333333333, "grad_norm": 0.671875, "learning_rate": 9.962430004297845e-05, "loss": 0.3816, "step": 59050 }, { "epoch": 78.74666666666667, "grad_norm": 0.8203125, "learning_rate": 9.962417185611616e-05, "loss": 0.3844, "step": 59060 }, { "epoch": 78.76, "grad_norm": 0.75, "learning_rate": 9.962404364747178e-05, "loss": 0.3977, "step": 59070 }, { "epoch": 78.77333333333333, "grad_norm": 0.8046875, "learning_rate": 9.962391541704531e-05, "loss": 0.3821, "step": 59080 }, { "epoch": 78.78666666666666, "grad_norm": 0.66796875, "learning_rate": 9.962378716483684e-05, "loss": 0.3846, "step": 59090 }, { "epoch": 78.8, "grad_norm": 0.75390625, "learning_rate": 9.962365889084644e-05, "loss": 0.3824, "step": 59100 }, { "epoch": 78.81333333333333, "grad_norm": 0.76953125, "learning_rate": 9.962353059507415e-05, "loss": 0.3563, "step": 59110 }, { "epoch": 78.82666666666667, "grad_norm": 0.66796875, "learning_rate": 9.962340227752e-05, "loss": 0.3644, "step": 59120 }, { "epoch": 78.84, "grad_norm": 0.8125, "learning_rate": 9.962327393818409e-05, "loss": 0.3768, "step": 59130 }, { "epoch": 78.85333333333334, "grad_norm": 0.640625, "learning_rate": 9.962314557706645e-05, "loss": 0.3721, "step": 59140 }, { "epoch": 78.86666666666666, "grad_norm": 0.72265625, "learning_rate": 9.962301719416713e-05, "loss": 0.3776, "step": 59150 }, { "epoch": 78.88, "grad_norm": 0.828125, "learning_rate": 9.962288878948623e-05, "loss": 0.3581, "step": 59160 }, { "epoch": 78.89333333333333, "grad_norm": 0.71484375, "learning_rate": 9.962276036302375e-05, "loss": 0.3705, "step": 59170 }, { "epoch": 78.90666666666667, "grad_norm": 0.68359375, "learning_rate": 9.96226319147798e-05, "loss": 0.3763, "step": 59180 }, { "epoch": 78.92, "grad_norm": 0.69921875, "learning_rate": 9.96225034447544e-05, "loss": 0.3782, "step": 59190 }, { "epoch": 78.93333333333334, "grad_norm": 0.65234375, "learning_rate": 9.96223749529476e-05, "loss": 0.3726, "step": 59200 }, { "epoch": 78.94666666666667, "grad_norm": 0.70703125, "learning_rate": 9.96222464393595e-05, "loss": 0.3727, "step": 59210 }, { "epoch": 78.96, "grad_norm": 0.6171875, "learning_rate": 9.96221179039901e-05, "loss": 0.3719, "step": 59220 }, { "epoch": 78.97333333333333, "grad_norm": 0.87890625, "learning_rate": 9.962198934683948e-05, "loss": 0.3947, "step": 59230 }, { "epoch": 78.98666666666666, "grad_norm": 0.74609375, "learning_rate": 9.962186076790774e-05, "loss": 0.365, "step": 59240 }, { "epoch": 79.0, "grad_norm": 0.73046875, "learning_rate": 9.962173216719486e-05, "loss": 0.3652, "step": 59250 }, { "epoch": 79.0, "eval_loss": 0.4210502505302429, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8501, "eval_samples_per_second": 1.475, "eval_steps_per_second": 0.092, "step": 59250 }, { "epoch": 79.01333333333334, "grad_norm": 0.7734375, "learning_rate": 9.962160354470095e-05, "loss": 0.3807, "step": 59260 }, { "epoch": 79.02666666666667, "grad_norm": 0.70703125, "learning_rate": 9.962147490042606e-05, "loss": 0.3961, "step": 59270 }, { "epoch": 79.04, "grad_norm": 0.63671875, "learning_rate": 9.962134623437022e-05, "loss": 0.4082, "step": 59280 }, { "epoch": 79.05333333333333, "grad_norm": 0.66796875, "learning_rate": 9.962121754653352e-05, "loss": 0.3929, "step": 59290 }, { "epoch": 79.06666666666666, "grad_norm": 0.81640625, "learning_rate": 9.962108883691599e-05, "loss": 0.3812, "step": 59300 }, { "epoch": 79.08, "grad_norm": 0.68359375, "learning_rate": 9.96209601055177e-05, "loss": 0.3843, "step": 59310 }, { "epoch": 79.09333333333333, "grad_norm": 0.78515625, "learning_rate": 9.962083135233871e-05, "loss": 0.3878, "step": 59320 }, { "epoch": 79.10666666666667, "grad_norm": 0.703125, "learning_rate": 9.962070257737906e-05, "loss": 0.3744, "step": 59330 }, { "epoch": 79.12, "grad_norm": 0.75, "learning_rate": 9.96205737806388e-05, "loss": 0.3779, "step": 59340 }, { "epoch": 79.13333333333334, "grad_norm": 0.75390625, "learning_rate": 9.962044496211803e-05, "loss": 0.3697, "step": 59350 }, { "epoch": 79.14666666666666, "grad_norm": 0.65625, "learning_rate": 9.962031612181676e-05, "loss": 0.3883, "step": 59360 }, { "epoch": 79.16, "grad_norm": 0.66015625, "learning_rate": 9.96201872597351e-05, "loss": 0.3829, "step": 59370 }, { "epoch": 79.17333333333333, "grad_norm": 0.76953125, "learning_rate": 9.962005837587304e-05, "loss": 0.3782, "step": 59380 }, { "epoch": 79.18666666666667, "grad_norm": 0.765625, "learning_rate": 9.961992947023068e-05, "loss": 0.3754, "step": 59390 }, { "epoch": 79.2, "grad_norm": 0.68359375, "learning_rate": 9.961980054280807e-05, "loss": 0.3671, "step": 59400 }, { "epoch": 79.21333333333334, "grad_norm": 0.7578125, "learning_rate": 9.961967159360524e-05, "loss": 0.3685, "step": 59410 }, { "epoch": 79.22666666666667, "grad_norm": 0.7421875, "learning_rate": 9.96195426226223e-05, "loss": 0.3788, "step": 59420 }, { "epoch": 79.24, "grad_norm": 0.7421875, "learning_rate": 9.961941362985924e-05, "loss": 0.3653, "step": 59430 }, { "epoch": 79.25333333333333, "grad_norm": 0.69921875, "learning_rate": 9.961928461531617e-05, "loss": 0.3668, "step": 59440 }, { "epoch": 79.26666666666667, "grad_norm": 0.73046875, "learning_rate": 9.961915557899315e-05, "loss": 0.3701, "step": 59450 }, { "epoch": 79.28, "grad_norm": 0.69921875, "learning_rate": 9.961902652089019e-05, "loss": 0.3982, "step": 59460 }, { "epoch": 79.29333333333334, "grad_norm": 0.671875, "learning_rate": 9.961889744100738e-05, "loss": 0.3572, "step": 59470 }, { "epoch": 79.30666666666667, "grad_norm": 0.65234375, "learning_rate": 9.961876833934476e-05, "loss": 0.3802, "step": 59480 }, { "epoch": 79.32, "grad_norm": 0.609375, "learning_rate": 9.96186392159024e-05, "loss": 0.3833, "step": 59490 }, { "epoch": 79.33333333333333, "grad_norm": 0.76953125, "learning_rate": 9.961851007068036e-05, "loss": 0.383, "step": 59500 }, { "epoch": 79.34666666666666, "grad_norm": 0.7890625, "learning_rate": 9.961838090367868e-05, "loss": 0.3751, "step": 59510 }, { "epoch": 79.36, "grad_norm": 0.7265625, "learning_rate": 9.961825171489743e-05, "loss": 0.3751, "step": 59520 }, { "epoch": 79.37333333333333, "grad_norm": 0.6953125, "learning_rate": 9.961812250433667e-05, "loss": 0.3769, "step": 59530 }, { "epoch": 79.38666666666667, "grad_norm": 0.859375, "learning_rate": 9.961799327199644e-05, "loss": 0.3668, "step": 59540 }, { "epoch": 79.4, "grad_norm": 0.734375, "learning_rate": 9.96178640178768e-05, "loss": 0.3751, "step": 59550 }, { "epoch": 79.41333333333333, "grad_norm": 0.67578125, "learning_rate": 9.961773474197781e-05, "loss": 0.381, "step": 59560 }, { "epoch": 79.42666666666666, "grad_norm": 0.7265625, "learning_rate": 9.961760544429953e-05, "loss": 0.3829, "step": 59570 }, { "epoch": 79.44, "grad_norm": 0.7421875, "learning_rate": 9.961747612484202e-05, "loss": 0.3955, "step": 59580 }, { "epoch": 79.45333333333333, "grad_norm": 0.734375, "learning_rate": 9.961734678360534e-05, "loss": 0.3823, "step": 59590 }, { "epoch": 79.46666666666667, "grad_norm": 0.70703125, "learning_rate": 9.961721742058954e-05, "loss": 0.3904, "step": 59600 }, { "epoch": 79.48, "grad_norm": 0.72265625, "learning_rate": 9.961708803579466e-05, "loss": 0.3729, "step": 59610 }, { "epoch": 79.49333333333334, "grad_norm": 0.671875, "learning_rate": 9.961695862922078e-05, "loss": 0.3843, "step": 59620 }, { "epoch": 79.50666666666666, "grad_norm": 0.7265625, "learning_rate": 9.961682920086794e-05, "loss": 0.3843, "step": 59630 }, { "epoch": 79.52, "grad_norm": 0.6484375, "learning_rate": 9.961669975073623e-05, "loss": 0.3746, "step": 59640 }, { "epoch": 79.53333333333333, "grad_norm": 0.75, "learning_rate": 9.961657027882567e-05, "loss": 0.3776, "step": 59650 }, { "epoch": 79.54666666666667, "grad_norm": 0.81640625, "learning_rate": 9.961644078513634e-05, "loss": 0.3766, "step": 59660 }, { "epoch": 79.56, "grad_norm": 0.6953125, "learning_rate": 9.961631126966827e-05, "loss": 0.3715, "step": 59670 }, { "epoch": 79.57333333333334, "grad_norm": 0.76953125, "learning_rate": 9.961618173242154e-05, "loss": 0.3763, "step": 59680 }, { "epoch": 79.58666666666667, "grad_norm": 0.7265625, "learning_rate": 9.961605217339621e-05, "loss": 0.3661, "step": 59690 }, { "epoch": 79.6, "grad_norm": 0.6875, "learning_rate": 9.961592259259232e-05, "loss": 0.3671, "step": 59700 }, { "epoch": 79.61333333333333, "grad_norm": 0.64453125, "learning_rate": 9.961579299000992e-05, "loss": 0.3592, "step": 59710 }, { "epoch": 79.62666666666667, "grad_norm": 0.640625, "learning_rate": 9.96156633656491e-05, "loss": 0.3642, "step": 59720 }, { "epoch": 79.64, "grad_norm": 0.83203125, "learning_rate": 9.961553371950989e-05, "loss": 0.3729, "step": 59730 }, { "epoch": 79.65333333333334, "grad_norm": 0.94140625, "learning_rate": 9.961540405159237e-05, "loss": 0.3834, "step": 59740 }, { "epoch": 79.66666666666667, "grad_norm": 1.3203125, "learning_rate": 9.961527436189657e-05, "loss": 0.3748, "step": 59750 }, { "epoch": 79.68, "grad_norm": 0.99609375, "learning_rate": 9.961514465042257e-05, "loss": 0.3631, "step": 59760 }, { "epoch": 79.69333333333333, "grad_norm": 0.73046875, "learning_rate": 9.96150149171704e-05, "loss": 0.3734, "step": 59770 }, { "epoch": 79.70666666666666, "grad_norm": 0.85546875, "learning_rate": 9.961488516214013e-05, "loss": 0.3639, "step": 59780 }, { "epoch": 79.72, "grad_norm": 0.88671875, "learning_rate": 9.961475538533183e-05, "loss": 0.386, "step": 59790 }, { "epoch": 79.73333333333333, "grad_norm": 0.6796875, "learning_rate": 9.961462558674555e-05, "loss": 0.3806, "step": 59800 }, { "epoch": 79.74666666666667, "grad_norm": 0.71484375, "learning_rate": 9.961449576638133e-05, "loss": 0.3838, "step": 59810 }, { "epoch": 79.76, "grad_norm": 0.7890625, "learning_rate": 9.961436592423925e-05, "loss": 0.3964, "step": 59820 }, { "epoch": 79.77333333333333, "grad_norm": 0.88671875, "learning_rate": 9.961423606031936e-05, "loss": 0.3818, "step": 59830 }, { "epoch": 79.78666666666666, "grad_norm": 0.64453125, "learning_rate": 9.961410617462172e-05, "loss": 0.3843, "step": 59840 }, { "epoch": 79.8, "grad_norm": 0.734375, "learning_rate": 9.961397626714637e-05, "loss": 0.3827, "step": 59850 }, { "epoch": 79.81333333333333, "grad_norm": 0.81640625, "learning_rate": 9.961384633789337e-05, "loss": 0.3566, "step": 59860 }, { "epoch": 79.82666666666667, "grad_norm": 0.6640625, "learning_rate": 9.96137163868628e-05, "loss": 0.3639, "step": 59870 }, { "epoch": 79.84, "grad_norm": 0.77734375, "learning_rate": 9.961358641405472e-05, "loss": 0.3767, "step": 59880 }, { "epoch": 79.85333333333334, "grad_norm": 0.76953125, "learning_rate": 9.961345641946914e-05, "loss": 0.3714, "step": 59890 }, { "epoch": 79.86666666666666, "grad_norm": 0.7109375, "learning_rate": 9.961332640310617e-05, "loss": 0.3764, "step": 59900 }, { "epoch": 79.88, "grad_norm": 0.7109375, "learning_rate": 9.961319636496582e-05, "loss": 0.3585, "step": 59910 }, { "epoch": 79.89333333333333, "grad_norm": 0.6875, "learning_rate": 9.961306630504819e-05, "loss": 0.3703, "step": 59920 }, { "epoch": 79.90666666666667, "grad_norm": 0.6953125, "learning_rate": 9.96129362233533e-05, "loss": 0.3756, "step": 59930 }, { "epoch": 79.92, "grad_norm": 0.73828125, "learning_rate": 9.961280611988124e-05, "loss": 0.3766, "step": 59940 }, { "epoch": 79.93333333333334, "grad_norm": 0.7421875, "learning_rate": 9.961267599463204e-05, "loss": 0.3732, "step": 59950 }, { "epoch": 79.94666666666667, "grad_norm": 0.71484375, "learning_rate": 9.961254584760578e-05, "loss": 0.3728, "step": 59960 }, { "epoch": 79.96, "grad_norm": 0.65625, "learning_rate": 9.96124156788025e-05, "loss": 0.3705, "step": 59970 }, { "epoch": 79.97333333333333, "grad_norm": 0.9140625, "learning_rate": 9.961228548822228e-05, "loss": 0.3942, "step": 59980 }, { "epoch": 79.98666666666666, "grad_norm": 0.75, "learning_rate": 9.961215527586514e-05, "loss": 0.3649, "step": 59990 }, { "epoch": 80.0, "grad_norm": 0.7265625, "learning_rate": 9.961202504173117e-05, "loss": 0.3639, "step": 60000 }, { "epoch": 80.0, "eval_loss": 0.4206019937992096, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9349, "eval_samples_per_second": 1.463, "eval_steps_per_second": 0.091, "step": 60000 }, { "epoch": 80.01333333333334, "grad_norm": 0.796875, "learning_rate": 9.961189478582042e-05, "loss": 0.3804, "step": 60010 }, { "epoch": 80.02666666666667, "grad_norm": 0.6796875, "learning_rate": 9.961176450813293e-05, "loss": 0.395, "step": 60020 }, { "epoch": 80.04, "grad_norm": 0.703125, "learning_rate": 9.961163420866877e-05, "loss": 0.4086, "step": 60030 }, { "epoch": 80.05333333333333, "grad_norm": 0.76171875, "learning_rate": 9.961150388742802e-05, "loss": 0.3931, "step": 60040 }, { "epoch": 80.06666666666666, "grad_norm": 0.77734375, "learning_rate": 9.961137354441067e-05, "loss": 0.3811, "step": 60050 }, { "epoch": 80.08, "grad_norm": 0.6875, "learning_rate": 9.961124317961686e-05, "loss": 0.3839, "step": 60060 }, { "epoch": 80.09333333333333, "grad_norm": 0.74609375, "learning_rate": 9.96111127930466e-05, "loss": 0.3871, "step": 60070 }, { "epoch": 80.10666666666667, "grad_norm": 0.6640625, "learning_rate": 9.961098238469995e-05, "loss": 0.3741, "step": 60080 }, { "epoch": 80.12, "grad_norm": 0.765625, "learning_rate": 9.961085195457697e-05, "loss": 0.3773, "step": 60090 }, { "epoch": 80.13333333333334, "grad_norm": 0.74609375, "learning_rate": 9.961072150267772e-05, "loss": 0.3691, "step": 60100 }, { "epoch": 80.14666666666666, "grad_norm": 0.7421875, "learning_rate": 9.961059102900226e-05, "loss": 0.3885, "step": 60110 }, { "epoch": 80.16, "grad_norm": 0.64453125, "learning_rate": 9.961046053355066e-05, "loss": 0.3837, "step": 60120 }, { "epoch": 80.17333333333333, "grad_norm": 0.78125, "learning_rate": 9.961033001632293e-05, "loss": 0.3781, "step": 60130 }, { "epoch": 80.18666666666667, "grad_norm": 0.70703125, "learning_rate": 9.961019947731917e-05, "loss": 0.3753, "step": 60140 }, { "epoch": 80.2, "grad_norm": 0.6953125, "learning_rate": 9.961006891653943e-05, "loss": 0.3675, "step": 60150 }, { "epoch": 80.21333333333334, "grad_norm": 0.7265625, "learning_rate": 9.960993833398377e-05, "loss": 0.3684, "step": 60160 }, { "epoch": 80.22666666666667, "grad_norm": 0.75, "learning_rate": 9.960980772965225e-05, "loss": 0.3801, "step": 60170 }, { "epoch": 80.24, "grad_norm": 0.74609375, "learning_rate": 9.960967710354489e-05, "loss": 0.3655, "step": 60180 }, { "epoch": 80.25333333333333, "grad_norm": 0.68359375, "learning_rate": 9.960954645566181e-05, "loss": 0.3674, "step": 60190 }, { "epoch": 80.26666666666667, "grad_norm": 0.7421875, "learning_rate": 9.960941578600301e-05, "loss": 0.3703, "step": 60200 }, { "epoch": 80.28, "grad_norm": 0.70703125, "learning_rate": 9.960928509456857e-05, "loss": 0.3992, "step": 60210 }, { "epoch": 80.29333333333334, "grad_norm": 0.69921875, "learning_rate": 9.960915438135856e-05, "loss": 0.3559, "step": 60220 }, { "epoch": 80.30666666666667, "grad_norm": 0.66015625, "learning_rate": 9.960902364637301e-05, "loss": 0.3802, "step": 60230 }, { "epoch": 80.32, "grad_norm": 0.6328125, "learning_rate": 9.960889288961202e-05, "loss": 0.3835, "step": 60240 }, { "epoch": 80.33333333333333, "grad_norm": 0.7421875, "learning_rate": 9.96087621110756e-05, "loss": 0.3835, "step": 60250 }, { "epoch": 80.34666666666666, "grad_norm": 0.78515625, "learning_rate": 9.960863131076382e-05, "loss": 0.3735, "step": 60260 }, { "epoch": 80.36, "grad_norm": 0.76171875, "learning_rate": 9.960850048867676e-05, "loss": 0.3742, "step": 60270 }, { "epoch": 80.37333333333333, "grad_norm": 0.66796875, "learning_rate": 9.960836964481446e-05, "loss": 0.3774, "step": 60280 }, { "epoch": 80.38666666666667, "grad_norm": 0.83984375, "learning_rate": 9.960823877917697e-05, "loss": 0.3665, "step": 60290 }, { "epoch": 80.4, "grad_norm": 0.734375, "learning_rate": 9.960810789176436e-05, "loss": 0.375, "step": 60300 }, { "epoch": 80.41333333333333, "grad_norm": 0.69921875, "learning_rate": 9.960797698257669e-05, "loss": 0.3809, "step": 60310 }, { "epoch": 80.42666666666666, "grad_norm": 0.71484375, "learning_rate": 9.9607846051614e-05, "loss": 0.3825, "step": 60320 }, { "epoch": 80.44, "grad_norm": 0.70703125, "learning_rate": 9.960771509887638e-05, "loss": 0.3952, "step": 60330 }, { "epoch": 80.45333333333333, "grad_norm": 0.70703125, "learning_rate": 9.960758412436385e-05, "loss": 0.3823, "step": 60340 }, { "epoch": 80.46666666666667, "grad_norm": 0.71484375, "learning_rate": 9.96074531280765e-05, "loss": 0.3912, "step": 60350 }, { "epoch": 80.48, "grad_norm": 0.69140625, "learning_rate": 9.960732211001436e-05, "loss": 0.373, "step": 60360 }, { "epoch": 80.49333333333334, "grad_norm": 0.7109375, "learning_rate": 9.96071910701775e-05, "loss": 0.3836, "step": 60370 }, { "epoch": 80.50666666666666, "grad_norm": 0.70703125, "learning_rate": 9.960706000856598e-05, "loss": 0.3836, "step": 60380 }, { "epoch": 80.52, "grad_norm": 0.65625, "learning_rate": 9.960692892517984e-05, "loss": 0.3742, "step": 60390 }, { "epoch": 80.53333333333333, "grad_norm": 0.66015625, "learning_rate": 9.960679782001918e-05, "loss": 0.376, "step": 60400 }, { "epoch": 80.54666666666667, "grad_norm": 0.8125, "learning_rate": 9.960666669308401e-05, "loss": 0.3776, "step": 60410 }, { "epoch": 80.56, "grad_norm": 0.6953125, "learning_rate": 9.960653554437441e-05, "loss": 0.3707, "step": 60420 }, { "epoch": 80.57333333333334, "grad_norm": 0.7890625, "learning_rate": 9.960640437389043e-05, "loss": 0.3767, "step": 60430 }, { "epoch": 80.58666666666667, "grad_norm": 0.69140625, "learning_rate": 9.960627318163216e-05, "loss": 0.3662, "step": 60440 }, { "epoch": 80.6, "grad_norm": 0.6875, "learning_rate": 9.96061419675996e-05, "loss": 0.3671, "step": 60450 }, { "epoch": 80.61333333333333, "grad_norm": 0.6328125, "learning_rate": 9.960601073179285e-05, "loss": 0.3594, "step": 60460 }, { "epoch": 80.62666666666667, "grad_norm": 0.62890625, "learning_rate": 9.960587947421196e-05, "loss": 0.3633, "step": 60470 }, { "epoch": 80.64, "grad_norm": 0.75390625, "learning_rate": 9.960574819485697e-05, "loss": 0.3726, "step": 60480 }, { "epoch": 80.65333333333334, "grad_norm": 0.6953125, "learning_rate": 9.960561689372796e-05, "loss": 0.3828, "step": 60490 }, { "epoch": 80.66666666666667, "grad_norm": 0.66015625, "learning_rate": 9.960548557082497e-05, "loss": 0.3731, "step": 60500 }, { "epoch": 80.68, "grad_norm": 0.69140625, "learning_rate": 9.960535422614807e-05, "loss": 0.3632, "step": 60510 }, { "epoch": 80.69333333333333, "grad_norm": 0.640625, "learning_rate": 9.960522285969731e-05, "loss": 0.373, "step": 60520 }, { "epoch": 80.70666666666666, "grad_norm": 0.81640625, "learning_rate": 9.960509147147275e-05, "loss": 0.364, "step": 60530 }, { "epoch": 80.72, "grad_norm": 0.73046875, "learning_rate": 9.960496006147446e-05, "loss": 0.3864, "step": 60540 }, { "epoch": 80.73333333333333, "grad_norm": 0.7578125, "learning_rate": 9.960482862970247e-05, "loss": 0.3806, "step": 60550 }, { "epoch": 80.74666666666667, "grad_norm": 0.6796875, "learning_rate": 9.960469717615686e-05, "loss": 0.3834, "step": 60560 }, { "epoch": 80.76, "grad_norm": 0.78125, "learning_rate": 9.96045657008377e-05, "loss": 0.3972, "step": 60570 }, { "epoch": 80.77333333333333, "grad_norm": 0.7734375, "learning_rate": 9.9604434203745e-05, "loss": 0.3812, "step": 60580 }, { "epoch": 80.78666666666666, "grad_norm": 0.640625, "learning_rate": 9.960430268487886e-05, "loss": 0.3839, "step": 60590 }, { "epoch": 80.8, "grad_norm": 0.83203125, "learning_rate": 9.960417114423933e-05, "loss": 0.3821, "step": 60600 }, { "epoch": 80.81333333333333, "grad_norm": 0.7734375, "learning_rate": 9.960403958182645e-05, "loss": 0.3558, "step": 60610 }, { "epoch": 80.82666666666667, "grad_norm": 0.6953125, "learning_rate": 9.96039079976403e-05, "loss": 0.3641, "step": 60620 }, { "epoch": 80.84, "grad_norm": 0.7265625, "learning_rate": 9.960377639168093e-05, "loss": 0.3763, "step": 60630 }, { "epoch": 80.85333333333334, "grad_norm": 0.71875, "learning_rate": 9.960364476394838e-05, "loss": 0.3718, "step": 60640 }, { "epoch": 80.86666666666666, "grad_norm": 0.69140625, "learning_rate": 9.960351311444274e-05, "loss": 0.3764, "step": 60650 }, { "epoch": 80.88, "grad_norm": 0.67578125, "learning_rate": 9.960338144316406e-05, "loss": 0.3586, "step": 60660 }, { "epoch": 80.89333333333333, "grad_norm": 0.66015625, "learning_rate": 9.960324975011237e-05, "loss": 0.3701, "step": 60670 }, { "epoch": 80.90666666666667, "grad_norm": 0.6640625, "learning_rate": 9.960311803528776e-05, "loss": 0.3756, "step": 60680 }, { "epoch": 80.92, "grad_norm": 0.66015625, "learning_rate": 9.960298629869028e-05, "loss": 0.3767, "step": 60690 }, { "epoch": 80.93333333333334, "grad_norm": 0.69140625, "learning_rate": 9.960285454031996e-05, "loss": 0.3719, "step": 60700 }, { "epoch": 80.94666666666667, "grad_norm": 0.7265625, "learning_rate": 9.960272276017689e-05, "loss": 0.3716, "step": 60710 }, { "epoch": 80.96, "grad_norm": 0.6640625, "learning_rate": 9.960259095826113e-05, "loss": 0.3702, "step": 60720 }, { "epoch": 80.97333333333333, "grad_norm": 0.88671875, "learning_rate": 9.960245913457271e-05, "loss": 0.3934, "step": 60730 }, { "epoch": 80.98666666666666, "grad_norm": 0.71875, "learning_rate": 9.96023272891117e-05, "loss": 0.3642, "step": 60740 }, { "epoch": 81.0, "grad_norm": 0.69921875, "learning_rate": 9.960219542187818e-05, "loss": 0.3642, "step": 60750 }, { "epoch": 81.0, "eval_loss": 0.42095863819122314, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9883, "eval_samples_per_second": 1.456, "eval_steps_per_second": 0.091, "step": 60750 }, { "epoch": 81.01333333333334, "grad_norm": 0.78515625, "learning_rate": 9.960206353287219e-05, "loss": 0.3817, "step": 60760 }, { "epoch": 81.02666666666667, "grad_norm": 0.703125, "learning_rate": 9.960193162209377e-05, "loss": 0.3944, "step": 60770 }, { "epoch": 81.04, "grad_norm": 0.609375, "learning_rate": 9.9601799689543e-05, "loss": 0.4075, "step": 60780 }, { "epoch": 81.05333333333333, "grad_norm": 0.73046875, "learning_rate": 9.960166773521995e-05, "loss": 0.3919, "step": 60790 }, { "epoch": 81.06666666666666, "grad_norm": 0.84375, "learning_rate": 9.960153575912466e-05, "loss": 0.3808, "step": 60800 }, { "epoch": 81.08, "grad_norm": 0.7578125, "learning_rate": 9.960140376125717e-05, "loss": 0.3844, "step": 60810 }, { "epoch": 81.09333333333333, "grad_norm": 0.82421875, "learning_rate": 9.960127174161757e-05, "loss": 0.3855, "step": 60820 }, { "epoch": 81.10666666666667, "grad_norm": 0.6484375, "learning_rate": 9.960113970020591e-05, "loss": 0.375, "step": 60830 }, { "epoch": 81.12, "grad_norm": 0.7734375, "learning_rate": 9.960100763702222e-05, "loss": 0.3765, "step": 60840 }, { "epoch": 81.13333333333334, "grad_norm": 0.73828125, "learning_rate": 9.960087555206661e-05, "loss": 0.3698, "step": 60850 }, { "epoch": 81.14666666666666, "grad_norm": 0.76171875, "learning_rate": 9.96007434453391e-05, "loss": 0.3878, "step": 60860 }, { "epoch": 81.16, "grad_norm": 0.70703125, "learning_rate": 9.960061131683974e-05, "loss": 0.3827, "step": 60870 }, { "epoch": 81.17333333333333, "grad_norm": 0.82421875, "learning_rate": 9.960047916656863e-05, "loss": 0.3769, "step": 60880 }, { "epoch": 81.18666666666667, "grad_norm": 0.72265625, "learning_rate": 9.960034699452579e-05, "loss": 0.3739, "step": 60890 }, { "epoch": 81.2, "grad_norm": 0.73828125, "learning_rate": 9.960021480071128e-05, "loss": 0.3673, "step": 60900 }, { "epoch": 81.21333333333334, "grad_norm": 0.734375, "learning_rate": 9.960008258512519e-05, "loss": 0.3681, "step": 60910 }, { "epoch": 81.22666666666667, "grad_norm": 0.74609375, "learning_rate": 9.959995034776754e-05, "loss": 0.3787, "step": 60920 }, { "epoch": 81.24, "grad_norm": 0.734375, "learning_rate": 9.959981808863842e-05, "loss": 0.3651, "step": 60930 }, { "epoch": 81.25333333333333, "grad_norm": 0.7265625, "learning_rate": 9.959968580773786e-05, "loss": 0.3671, "step": 60940 }, { "epoch": 81.26666666666667, "grad_norm": 0.72265625, "learning_rate": 9.959955350506595e-05, "loss": 0.3695, "step": 60950 }, { "epoch": 81.28, "grad_norm": 0.81640625, "learning_rate": 9.95994211806227e-05, "loss": 0.3987, "step": 60960 }, { "epoch": 81.29333333333334, "grad_norm": 0.73828125, "learning_rate": 9.959928883440823e-05, "loss": 0.3567, "step": 60970 }, { "epoch": 81.30666666666667, "grad_norm": 0.64453125, "learning_rate": 9.959915646642255e-05, "loss": 0.3802, "step": 60980 }, { "epoch": 81.32, "grad_norm": 0.64453125, "learning_rate": 9.959902407666574e-05, "loss": 0.3827, "step": 60990 }, { "epoch": 81.33333333333333, "grad_norm": 0.7578125, "learning_rate": 9.959889166513785e-05, "loss": 0.3823, "step": 61000 }, { "epoch": 81.34666666666666, "grad_norm": 0.85546875, "learning_rate": 9.959875923183893e-05, "loss": 0.3731, "step": 61010 }, { "epoch": 81.36, "grad_norm": 0.66796875, "learning_rate": 9.959862677676905e-05, "loss": 0.3741, "step": 61020 }, { "epoch": 81.37333333333333, "grad_norm": 0.63671875, "learning_rate": 9.959849429992829e-05, "loss": 0.3774, "step": 61030 }, { "epoch": 81.38666666666667, "grad_norm": 0.8046875, "learning_rate": 9.959836180131665e-05, "loss": 0.3658, "step": 61040 }, { "epoch": 81.4, "grad_norm": 0.765625, "learning_rate": 9.959822928093425e-05, "loss": 0.3758, "step": 61050 }, { "epoch": 81.41333333333333, "grad_norm": 0.69140625, "learning_rate": 9.95980967387811e-05, "loss": 0.3809, "step": 61060 }, { "epoch": 81.42666666666666, "grad_norm": 0.7265625, "learning_rate": 9.959796417485729e-05, "loss": 0.3825, "step": 61070 }, { "epoch": 81.44, "grad_norm": 0.6953125, "learning_rate": 9.959783158916288e-05, "loss": 0.3946, "step": 61080 }, { "epoch": 81.45333333333333, "grad_norm": 0.70703125, "learning_rate": 9.95976989816979e-05, "loss": 0.3828, "step": 61090 }, { "epoch": 81.46666666666667, "grad_norm": 0.63671875, "learning_rate": 9.959756635246242e-05, "loss": 0.3896, "step": 61100 }, { "epoch": 81.48, "grad_norm": 0.70703125, "learning_rate": 9.95974337014565e-05, "loss": 0.3727, "step": 61110 }, { "epoch": 81.49333333333334, "grad_norm": 0.69140625, "learning_rate": 9.959730102868022e-05, "loss": 0.3832, "step": 61120 }, { "epoch": 81.50666666666666, "grad_norm": 0.7265625, "learning_rate": 9.95971683341336e-05, "loss": 0.3828, "step": 61130 }, { "epoch": 81.52, "grad_norm": 0.59765625, "learning_rate": 9.959703561781671e-05, "loss": 0.3749, "step": 61140 }, { "epoch": 81.53333333333333, "grad_norm": 0.70703125, "learning_rate": 9.959690287972963e-05, "loss": 0.3762, "step": 61150 }, { "epoch": 81.54666666666667, "grad_norm": 0.828125, "learning_rate": 9.95967701198724e-05, "loss": 0.377, "step": 61160 }, { "epoch": 81.56, "grad_norm": 0.6640625, "learning_rate": 9.959663733824509e-05, "loss": 0.3721, "step": 61170 }, { "epoch": 81.57333333333334, "grad_norm": 0.75, "learning_rate": 9.959650453484772e-05, "loss": 0.376, "step": 61180 }, { "epoch": 81.58666666666667, "grad_norm": 0.625, "learning_rate": 9.959637170968041e-05, "loss": 0.3654, "step": 61190 }, { "epoch": 81.6, "grad_norm": 0.70703125, "learning_rate": 9.959623886274317e-05, "loss": 0.368, "step": 61200 }, { "epoch": 81.61333333333333, "grad_norm": 0.68359375, "learning_rate": 9.959610599403608e-05, "loss": 0.3596, "step": 61210 }, { "epoch": 81.62666666666667, "grad_norm": 0.6171875, "learning_rate": 9.95959731035592e-05, "loss": 0.364, "step": 61220 }, { "epoch": 81.64, "grad_norm": 0.7265625, "learning_rate": 9.959584019131256e-05, "loss": 0.3725, "step": 61230 }, { "epoch": 81.65333333333334, "grad_norm": 0.73046875, "learning_rate": 9.959570725729625e-05, "loss": 0.3836, "step": 61240 }, { "epoch": 81.66666666666667, "grad_norm": 0.66796875, "learning_rate": 9.959557430151032e-05, "loss": 0.374, "step": 61250 }, { "epoch": 81.68, "grad_norm": 0.7734375, "learning_rate": 9.959544132395482e-05, "loss": 0.3628, "step": 61260 }, { "epoch": 81.69333333333333, "grad_norm": 0.6796875, "learning_rate": 9.959530832462982e-05, "loss": 0.3729, "step": 61270 }, { "epoch": 81.70666666666666, "grad_norm": 0.7578125, "learning_rate": 9.959517530353537e-05, "loss": 0.3641, "step": 61280 }, { "epoch": 81.72, "grad_norm": 0.7421875, "learning_rate": 9.959504226067154e-05, "loss": 0.3858, "step": 61290 }, { "epoch": 81.73333333333333, "grad_norm": 0.76953125, "learning_rate": 9.959490919603837e-05, "loss": 0.3806, "step": 61300 }, { "epoch": 81.74666666666667, "grad_norm": 0.7421875, "learning_rate": 9.959477610963592e-05, "loss": 0.3837, "step": 61310 }, { "epoch": 81.76, "grad_norm": 0.78515625, "learning_rate": 9.959464300146428e-05, "loss": 0.3969, "step": 61320 }, { "epoch": 81.77333333333333, "grad_norm": 0.7578125, "learning_rate": 9.959450987152347e-05, "loss": 0.3809, "step": 61330 }, { "epoch": 81.78666666666666, "grad_norm": 0.71875, "learning_rate": 9.959437671981357e-05, "loss": 0.3839, "step": 61340 }, { "epoch": 81.8, "grad_norm": 0.71875, "learning_rate": 9.959424354633462e-05, "loss": 0.3824, "step": 61350 }, { "epoch": 81.81333333333333, "grad_norm": 0.77734375, "learning_rate": 9.95941103510867e-05, "loss": 0.3552, "step": 61360 }, { "epoch": 81.82666666666667, "grad_norm": 0.73046875, "learning_rate": 9.959397713406986e-05, "loss": 0.3618, "step": 61370 }, { "epoch": 81.84, "grad_norm": 0.7421875, "learning_rate": 9.959384389528414e-05, "loss": 0.3757, "step": 61380 }, { "epoch": 81.85333333333334, "grad_norm": 0.6953125, "learning_rate": 9.959371063472964e-05, "loss": 0.3719, "step": 61390 }, { "epoch": 81.86666666666666, "grad_norm": 0.76171875, "learning_rate": 9.959357735240637e-05, "loss": 0.3775, "step": 61400 }, { "epoch": 81.88, "grad_norm": 0.66015625, "learning_rate": 9.959344404831443e-05, "loss": 0.3575, "step": 61410 }, { "epoch": 81.89333333333333, "grad_norm": 0.6484375, "learning_rate": 9.959331072245386e-05, "loss": 0.3694, "step": 61420 }, { "epoch": 81.90666666666667, "grad_norm": 0.703125, "learning_rate": 9.959317737482471e-05, "loss": 0.3748, "step": 61430 }, { "epoch": 81.92, "grad_norm": 0.76171875, "learning_rate": 9.959304400542706e-05, "loss": 0.3765, "step": 61440 }, { "epoch": 81.93333333333334, "grad_norm": 0.6640625, "learning_rate": 9.959291061426096e-05, "loss": 0.3715, "step": 61450 }, { "epoch": 81.94666666666667, "grad_norm": 0.79296875, "learning_rate": 9.959277720132645e-05, "loss": 0.3717, "step": 61460 }, { "epoch": 81.96, "grad_norm": 0.625, "learning_rate": 9.959264376662362e-05, "loss": 0.3708, "step": 61470 }, { "epoch": 81.97333333333333, "grad_norm": 0.8828125, "learning_rate": 9.95925103101525e-05, "loss": 0.3939, "step": 61480 }, { "epoch": 81.98666666666666, "grad_norm": 0.6875, "learning_rate": 9.959237683191316e-05, "loss": 0.3642, "step": 61490 }, { "epoch": 82.0, "grad_norm": 0.6796875, "learning_rate": 9.959224333190567e-05, "loss": 0.3644, "step": 61500 }, { "epoch": 82.0, "eval_loss": 0.420960932970047, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9687, "eval_samples_per_second": 1.459, "eval_steps_per_second": 0.091, "step": 61500 }, { "epoch": 82.01333333333334, "grad_norm": 0.76953125, "learning_rate": 9.959210981013007e-05, "loss": 0.3804, "step": 61510 }, { "epoch": 82.02666666666667, "grad_norm": 0.69921875, "learning_rate": 9.959197626658643e-05, "loss": 0.394, "step": 61520 }, { "epoch": 82.04, "grad_norm": 0.65234375, "learning_rate": 9.959184270127481e-05, "loss": 0.4082, "step": 61530 }, { "epoch": 82.05333333333333, "grad_norm": 0.7578125, "learning_rate": 9.959170911419525e-05, "loss": 0.3923, "step": 61540 }, { "epoch": 82.06666666666666, "grad_norm": 0.79296875, "learning_rate": 9.959157550534783e-05, "loss": 0.381, "step": 61550 }, { "epoch": 82.08, "grad_norm": 0.6953125, "learning_rate": 9.959144187473262e-05, "loss": 0.3844, "step": 61560 }, { "epoch": 82.09333333333333, "grad_norm": 0.84375, "learning_rate": 9.959130822234964e-05, "loss": 0.387, "step": 61570 }, { "epoch": 82.10666666666667, "grad_norm": 0.671875, "learning_rate": 9.959117454819896e-05, "loss": 0.3745, "step": 61580 }, { "epoch": 82.12, "grad_norm": 0.7578125, "learning_rate": 9.959104085228065e-05, "loss": 0.3764, "step": 61590 }, { "epoch": 82.13333333333334, "grad_norm": 0.74609375, "learning_rate": 9.959090713459478e-05, "loss": 0.3677, "step": 61600 }, { "epoch": 82.14666666666666, "grad_norm": 0.72265625, "learning_rate": 9.95907733951414e-05, "loss": 0.3875, "step": 61610 }, { "epoch": 82.16, "grad_norm": 0.671875, "learning_rate": 9.959063963392055e-05, "loss": 0.3824, "step": 61620 }, { "epoch": 82.17333333333333, "grad_norm": 0.7109375, "learning_rate": 9.959050585093231e-05, "loss": 0.3779, "step": 61630 }, { "epoch": 82.18666666666667, "grad_norm": 0.70703125, "learning_rate": 9.959037204617672e-05, "loss": 0.375, "step": 61640 }, { "epoch": 82.2, "grad_norm": 0.69140625, "learning_rate": 9.959023821965386e-05, "loss": 0.3655, "step": 61650 }, { "epoch": 82.21333333333334, "grad_norm": 0.8125, "learning_rate": 9.959010437136377e-05, "loss": 0.3681, "step": 61660 }, { "epoch": 82.22666666666667, "grad_norm": 0.77734375, "learning_rate": 9.958997050130651e-05, "loss": 0.3792, "step": 61670 }, { "epoch": 82.24, "grad_norm": 0.71484375, "learning_rate": 9.958983660948217e-05, "loss": 0.3652, "step": 61680 }, { "epoch": 82.25333333333333, "grad_norm": 0.79296875, "learning_rate": 9.958970269589076e-05, "loss": 0.3669, "step": 61690 }, { "epoch": 82.26666666666667, "grad_norm": 0.76171875, "learning_rate": 9.958956876053238e-05, "loss": 0.3697, "step": 61700 }, { "epoch": 82.28, "grad_norm": 0.84765625, "learning_rate": 9.958943480340708e-05, "loss": 0.3978, "step": 61710 }, { "epoch": 82.29333333333334, "grad_norm": 0.74609375, "learning_rate": 9.958930082451489e-05, "loss": 0.3561, "step": 61720 }, { "epoch": 82.30666666666667, "grad_norm": 0.74609375, "learning_rate": 9.958916682385589e-05, "loss": 0.3797, "step": 61730 }, { "epoch": 82.32, "grad_norm": 0.6484375, "learning_rate": 9.958903280143015e-05, "loss": 0.3833, "step": 61740 }, { "epoch": 82.33333333333333, "grad_norm": 0.73828125, "learning_rate": 9.958889875723771e-05, "loss": 0.3829, "step": 61750 }, { "epoch": 82.34666666666666, "grad_norm": 0.7734375, "learning_rate": 9.958876469127865e-05, "loss": 0.3734, "step": 61760 }, { "epoch": 82.36, "grad_norm": 0.73046875, "learning_rate": 9.9588630603553e-05, "loss": 0.3736, "step": 61770 }, { "epoch": 82.37333333333333, "grad_norm": 0.640625, "learning_rate": 9.958849649406084e-05, "loss": 0.3759, "step": 61780 }, { "epoch": 82.38666666666667, "grad_norm": 0.8125, "learning_rate": 9.958836236280222e-05, "loss": 0.3667, "step": 61790 }, { "epoch": 82.4, "grad_norm": 0.73828125, "learning_rate": 9.95882282097772e-05, "loss": 0.3753, "step": 61800 }, { "epoch": 82.41333333333333, "grad_norm": 0.6328125, "learning_rate": 9.958809403498586e-05, "loss": 0.3803, "step": 61810 }, { "epoch": 82.42666666666666, "grad_norm": 0.71484375, "learning_rate": 9.958795983842821e-05, "loss": 0.3825, "step": 61820 }, { "epoch": 82.44, "grad_norm": 0.76171875, "learning_rate": 9.958782562010435e-05, "loss": 0.3942, "step": 61830 }, { "epoch": 82.45333333333333, "grad_norm": 0.7578125, "learning_rate": 9.958769138001434e-05, "loss": 0.3814, "step": 61840 }, { "epoch": 82.46666666666667, "grad_norm": 0.75390625, "learning_rate": 9.958755711815821e-05, "loss": 0.3905, "step": 61850 }, { "epoch": 82.48, "grad_norm": 0.70703125, "learning_rate": 9.958742283453604e-05, "loss": 0.3712, "step": 61860 }, { "epoch": 82.49333333333334, "grad_norm": 0.765625, "learning_rate": 9.958728852914789e-05, "loss": 0.3836, "step": 61870 }, { "epoch": 82.50666666666666, "grad_norm": 0.69921875, "learning_rate": 9.95871542019938e-05, "loss": 0.3833, "step": 61880 }, { "epoch": 82.52, "grad_norm": 0.73046875, "learning_rate": 9.958701985307386e-05, "loss": 0.3741, "step": 61890 }, { "epoch": 82.53333333333333, "grad_norm": 0.78515625, "learning_rate": 9.95868854823881e-05, "loss": 0.3763, "step": 61900 }, { "epoch": 82.54666666666667, "grad_norm": 0.8203125, "learning_rate": 9.958675108993659e-05, "loss": 0.3766, "step": 61910 }, { "epoch": 82.56, "grad_norm": 0.6171875, "learning_rate": 9.95866166757194e-05, "loss": 0.3719, "step": 61920 }, { "epoch": 82.57333333333334, "grad_norm": 0.82421875, "learning_rate": 9.958648223973657e-05, "loss": 0.3755, "step": 61930 }, { "epoch": 82.58666666666667, "grad_norm": 0.6640625, "learning_rate": 9.958634778198816e-05, "loss": 0.3657, "step": 61940 }, { "epoch": 82.6, "grad_norm": 0.65625, "learning_rate": 9.958621330247424e-05, "loss": 0.3667, "step": 61950 }, { "epoch": 82.61333333333333, "grad_norm": 0.65625, "learning_rate": 9.958607880119486e-05, "loss": 0.3593, "step": 61960 }, { "epoch": 82.62666666666667, "grad_norm": 0.64453125, "learning_rate": 9.95859442781501e-05, "loss": 0.3632, "step": 61970 }, { "epoch": 82.64, "grad_norm": 0.75390625, "learning_rate": 9.958580973333999e-05, "loss": 0.3728, "step": 61980 }, { "epoch": 82.65333333333334, "grad_norm": 0.71484375, "learning_rate": 9.958567516676461e-05, "loss": 0.3826, "step": 61990 }, { "epoch": 82.66666666666667, "grad_norm": 0.6796875, "learning_rate": 9.958554057842401e-05, "loss": 0.3729, "step": 62000 }, { "epoch": 82.68, "grad_norm": 0.73828125, "learning_rate": 9.958540596831825e-05, "loss": 0.3624, "step": 62010 }, { "epoch": 82.69333333333333, "grad_norm": 0.60546875, "learning_rate": 9.958527133644737e-05, "loss": 0.373, "step": 62020 }, { "epoch": 82.70666666666666, "grad_norm": 0.7890625, "learning_rate": 9.958513668281147e-05, "loss": 0.3642, "step": 62030 }, { "epoch": 82.72, "grad_norm": 0.828125, "learning_rate": 9.958500200741058e-05, "loss": 0.3854, "step": 62040 }, { "epoch": 82.73333333333333, "grad_norm": 0.6953125, "learning_rate": 9.958486731024478e-05, "loss": 0.38, "step": 62050 }, { "epoch": 82.74666666666667, "grad_norm": 0.66015625, "learning_rate": 9.958473259131411e-05, "loss": 0.3837, "step": 62060 }, { "epoch": 82.76, "grad_norm": 0.70703125, "learning_rate": 9.958459785061862e-05, "loss": 0.3975, "step": 62070 }, { "epoch": 82.77333333333333, "grad_norm": 0.8125, "learning_rate": 9.958446308815841e-05, "loss": 0.3803, "step": 62080 }, { "epoch": 82.78666666666666, "grad_norm": 0.66015625, "learning_rate": 9.958432830393349e-05, "loss": 0.3838, "step": 62090 }, { "epoch": 82.8, "grad_norm": 0.70703125, "learning_rate": 9.958419349794395e-05, "loss": 0.3815, "step": 62100 }, { "epoch": 82.81333333333333, "grad_norm": 0.796875, "learning_rate": 9.958405867018984e-05, "loss": 0.3554, "step": 62110 }, { "epoch": 82.82666666666667, "grad_norm": 0.69921875, "learning_rate": 9.958392382067123e-05, "loss": 0.364, "step": 62120 }, { "epoch": 82.84, "grad_norm": 0.72265625, "learning_rate": 9.958378894938816e-05, "loss": 0.3752, "step": 62130 }, { "epoch": 82.85333333333334, "grad_norm": 0.71484375, "learning_rate": 9.95836540563407e-05, "loss": 0.3703, "step": 62140 }, { "epoch": 82.86666666666666, "grad_norm": 0.7421875, "learning_rate": 9.95835191415289e-05, "loss": 0.3761, "step": 62150 }, { "epoch": 82.88, "grad_norm": 0.73046875, "learning_rate": 9.958338420495286e-05, "loss": 0.3573, "step": 62160 }, { "epoch": 82.89333333333333, "grad_norm": 0.69921875, "learning_rate": 9.958324924661258e-05, "loss": 0.3695, "step": 62170 }, { "epoch": 82.90666666666667, "grad_norm": 0.7890625, "learning_rate": 9.958311426650815e-05, "loss": 0.3752, "step": 62180 }, { "epoch": 82.92, "grad_norm": 0.71875, "learning_rate": 9.958297926463962e-05, "loss": 0.3757, "step": 62190 }, { "epoch": 82.93333333333334, "grad_norm": 0.7265625, "learning_rate": 9.958284424100706e-05, "loss": 0.3719, "step": 62200 }, { "epoch": 82.94666666666667, "grad_norm": 0.76953125, "learning_rate": 9.958270919561052e-05, "loss": 0.3716, "step": 62210 }, { "epoch": 82.96, "grad_norm": 0.6796875, "learning_rate": 9.958257412845007e-05, "loss": 0.3705, "step": 62220 }, { "epoch": 82.97333333333333, "grad_norm": 0.96484375, "learning_rate": 9.958243903952576e-05, "loss": 0.3935, "step": 62230 }, { "epoch": 82.98666666666666, "grad_norm": 0.703125, "learning_rate": 9.958230392883766e-05, "loss": 0.3639, "step": 62240 }, { "epoch": 83.0, "grad_norm": 0.6796875, "learning_rate": 9.958216879638581e-05, "loss": 0.3636, "step": 62250 }, { "epoch": 83.0, "eval_loss": 0.4201880097389221, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6214, "eval_samples_per_second": 1.506, "eval_steps_per_second": 0.094, "step": 62250 }, { "epoch": 83.01333333333334, "grad_norm": 0.73046875, "learning_rate": 9.958203364217029e-05, "loss": 0.3801, "step": 62260 }, { "epoch": 83.02666666666667, "grad_norm": 0.7421875, "learning_rate": 9.958189846619114e-05, "loss": 0.3942, "step": 62270 }, { "epoch": 83.04, "grad_norm": 0.66796875, "learning_rate": 9.958176326844844e-05, "loss": 0.4075, "step": 62280 }, { "epoch": 83.05333333333333, "grad_norm": 0.66015625, "learning_rate": 9.958162804894222e-05, "loss": 0.3924, "step": 62290 }, { "epoch": 83.06666666666666, "grad_norm": 0.7421875, "learning_rate": 9.958149280767257e-05, "loss": 0.3804, "step": 62300 }, { "epoch": 83.08, "grad_norm": 0.72265625, "learning_rate": 9.958135754463953e-05, "loss": 0.3834, "step": 62310 }, { "epoch": 83.09333333333333, "grad_norm": 0.7734375, "learning_rate": 9.958122225984319e-05, "loss": 0.3862, "step": 62320 }, { "epoch": 83.10666666666667, "grad_norm": 0.69140625, "learning_rate": 9.958108695328357e-05, "loss": 0.3746, "step": 62330 }, { "epoch": 83.12, "grad_norm": 0.7265625, "learning_rate": 9.958095162496072e-05, "loss": 0.3769, "step": 62340 }, { "epoch": 83.13333333333334, "grad_norm": 0.7421875, "learning_rate": 9.958081627487477e-05, "loss": 0.369, "step": 62350 }, { "epoch": 83.14666666666666, "grad_norm": 0.7421875, "learning_rate": 9.95806809030257e-05, "loss": 0.3883, "step": 62360 }, { "epoch": 83.16, "grad_norm": 0.69140625, "learning_rate": 9.958054550941362e-05, "loss": 0.3827, "step": 62370 }, { "epoch": 83.17333333333333, "grad_norm": 0.765625, "learning_rate": 9.958041009403855e-05, "loss": 0.3769, "step": 62380 }, { "epoch": 83.18666666666667, "grad_norm": 0.66015625, "learning_rate": 9.958027465690061e-05, "loss": 0.3741, "step": 62390 }, { "epoch": 83.2, "grad_norm": 0.7421875, "learning_rate": 9.95801391979998e-05, "loss": 0.3668, "step": 62400 }, { "epoch": 83.21333333333334, "grad_norm": 0.6796875, "learning_rate": 9.95800037173362e-05, "loss": 0.3673, "step": 62410 }, { "epoch": 83.22666666666667, "grad_norm": 0.71875, "learning_rate": 9.957986821490988e-05, "loss": 0.3785, "step": 62420 }, { "epoch": 83.24, "grad_norm": 0.75390625, "learning_rate": 9.957973269072087e-05, "loss": 0.3645, "step": 62430 }, { "epoch": 83.25333333333333, "grad_norm": 0.72265625, "learning_rate": 9.957959714476928e-05, "loss": 0.3671, "step": 62440 }, { "epoch": 83.26666666666667, "grad_norm": 0.71875, "learning_rate": 9.95794615770551e-05, "loss": 0.3691, "step": 62450 }, { "epoch": 83.28, "grad_norm": 0.8359375, "learning_rate": 9.957932598757846e-05, "loss": 0.3976, "step": 62460 }, { "epoch": 83.29333333333334, "grad_norm": 0.77734375, "learning_rate": 9.957919037633938e-05, "loss": 0.355, "step": 62470 }, { "epoch": 83.30666666666667, "grad_norm": 0.60546875, "learning_rate": 9.957905474333793e-05, "loss": 0.3799, "step": 62480 }, { "epoch": 83.32, "grad_norm": 0.6484375, "learning_rate": 9.957891908857417e-05, "loss": 0.382, "step": 62490 }, { "epoch": 83.33333333333333, "grad_norm": 0.78515625, "learning_rate": 9.957878341204815e-05, "loss": 0.3826, "step": 62500 }, { "epoch": 83.34666666666666, "grad_norm": 0.796875, "learning_rate": 9.957864771375993e-05, "loss": 0.373, "step": 62510 }, { "epoch": 83.36, "grad_norm": 0.69921875, "learning_rate": 9.95785119937096e-05, "loss": 0.3728, "step": 62520 }, { "epoch": 83.37333333333333, "grad_norm": 0.625, "learning_rate": 9.957837625189717e-05, "loss": 0.3773, "step": 62530 }, { "epoch": 83.38666666666667, "grad_norm": 0.75390625, "learning_rate": 9.957824048832274e-05, "loss": 0.3645, "step": 62540 }, { "epoch": 83.4, "grad_norm": 0.74609375, "learning_rate": 9.957810470298634e-05, "loss": 0.375, "step": 62550 }, { "epoch": 83.41333333333333, "grad_norm": 0.66796875, "learning_rate": 9.957796889588807e-05, "loss": 0.3785, "step": 62560 }, { "epoch": 83.42666666666666, "grad_norm": 0.640625, "learning_rate": 9.957783306702793e-05, "loss": 0.3819, "step": 62570 }, { "epoch": 83.44, "grad_norm": 0.7109375, "learning_rate": 9.957769721640604e-05, "loss": 0.3939, "step": 62580 }, { "epoch": 83.45333333333333, "grad_norm": 0.75, "learning_rate": 9.957756134402242e-05, "loss": 0.3813, "step": 62590 }, { "epoch": 83.46666666666667, "grad_norm": 0.74609375, "learning_rate": 9.957742544987714e-05, "loss": 0.3895, "step": 62600 }, { "epoch": 83.48, "grad_norm": 0.6953125, "learning_rate": 9.957728953397027e-05, "loss": 0.3721, "step": 62610 }, { "epoch": 83.49333333333334, "grad_norm": 0.75, "learning_rate": 9.957715359630187e-05, "loss": 0.3834, "step": 62620 }, { "epoch": 83.50666666666666, "grad_norm": 0.7890625, "learning_rate": 9.957701763687197e-05, "loss": 0.3827, "step": 62630 }, { "epoch": 83.52, "grad_norm": 0.65234375, "learning_rate": 9.957688165568067e-05, "loss": 0.374, "step": 62640 }, { "epoch": 83.53333333333333, "grad_norm": 0.703125, "learning_rate": 9.957674565272801e-05, "loss": 0.3749, "step": 62650 }, { "epoch": 83.54666666666667, "grad_norm": 0.79296875, "learning_rate": 9.957660962801406e-05, "loss": 0.376, "step": 62660 }, { "epoch": 83.56, "grad_norm": 0.66796875, "learning_rate": 9.957647358153884e-05, "loss": 0.3709, "step": 62670 }, { "epoch": 83.57333333333334, "grad_norm": 0.79296875, "learning_rate": 9.957633751330246e-05, "loss": 0.3755, "step": 62680 }, { "epoch": 83.58666666666667, "grad_norm": 0.7578125, "learning_rate": 9.957620142330495e-05, "loss": 0.3657, "step": 62690 }, { "epoch": 83.6, "grad_norm": 0.74609375, "learning_rate": 9.95760653115464e-05, "loss": 0.3673, "step": 62700 }, { "epoch": 83.61333333333333, "grad_norm": 0.640625, "learning_rate": 9.957592917802683e-05, "loss": 0.3589, "step": 62710 }, { "epoch": 83.62666666666667, "grad_norm": 0.66015625, "learning_rate": 9.957579302274633e-05, "loss": 0.3624, "step": 62720 }, { "epoch": 83.64, "grad_norm": 0.796875, "learning_rate": 9.957565684570494e-05, "loss": 0.3725, "step": 62730 }, { "epoch": 83.65333333333334, "grad_norm": 0.72265625, "learning_rate": 9.957552064690271e-05, "loss": 0.3823, "step": 62740 }, { "epoch": 83.66666666666667, "grad_norm": 0.7109375, "learning_rate": 9.957538442633975e-05, "loss": 0.3727, "step": 62750 }, { "epoch": 83.68, "grad_norm": 0.76953125, "learning_rate": 9.957524818401608e-05, "loss": 0.3617, "step": 62760 }, { "epoch": 83.69333333333333, "grad_norm": 0.63671875, "learning_rate": 9.957511191993177e-05, "loss": 0.3727, "step": 62770 }, { "epoch": 83.70666666666666, "grad_norm": 0.765625, "learning_rate": 9.957497563408689e-05, "loss": 0.3642, "step": 62780 }, { "epoch": 83.72, "grad_norm": 0.84765625, "learning_rate": 9.957483932648146e-05, "loss": 0.3853, "step": 62790 }, { "epoch": 83.73333333333333, "grad_norm": 0.74609375, "learning_rate": 9.957470299711558e-05, "loss": 0.3804, "step": 62800 }, { "epoch": 83.74666666666667, "grad_norm": 0.69921875, "learning_rate": 9.957456664598929e-05, "loss": 0.3836, "step": 62810 }, { "epoch": 83.76, "grad_norm": 0.8203125, "learning_rate": 9.957443027310268e-05, "loss": 0.3968, "step": 62820 }, { "epoch": 83.77333333333333, "grad_norm": 0.76953125, "learning_rate": 9.957429387845577e-05, "loss": 0.381, "step": 62830 }, { "epoch": 83.78666666666666, "grad_norm": 0.64453125, "learning_rate": 9.957415746204863e-05, "loss": 0.383, "step": 62840 }, { "epoch": 83.8, "grad_norm": 0.765625, "learning_rate": 9.957402102388133e-05, "loss": 0.3818, "step": 62850 }, { "epoch": 83.81333333333333, "grad_norm": 0.84765625, "learning_rate": 9.957388456395395e-05, "loss": 0.3547, "step": 62860 }, { "epoch": 83.82666666666667, "grad_norm": 0.69921875, "learning_rate": 9.95737480822665e-05, "loss": 0.3628, "step": 62870 }, { "epoch": 83.84, "grad_norm": 0.83984375, "learning_rate": 9.957361157881909e-05, "loss": 0.3758, "step": 62880 }, { "epoch": 83.85333333333334, "grad_norm": 0.69140625, "learning_rate": 9.957347505361174e-05, "loss": 0.3701, "step": 62890 }, { "epoch": 83.86666666666666, "grad_norm": 0.76171875, "learning_rate": 9.957333850664453e-05, "loss": 0.3762, "step": 62900 }, { "epoch": 83.88, "grad_norm": 0.765625, "learning_rate": 9.957320193791751e-05, "loss": 0.3565, "step": 62910 }, { "epoch": 83.89333333333333, "grad_norm": 0.68359375, "learning_rate": 9.957306534743074e-05, "loss": 0.3697, "step": 62920 }, { "epoch": 83.90666666666667, "grad_norm": 0.7578125, "learning_rate": 9.957292873518431e-05, "loss": 0.3742, "step": 62930 }, { "epoch": 83.92, "grad_norm": 0.7265625, "learning_rate": 9.957279210117824e-05, "loss": 0.3757, "step": 62940 }, { "epoch": 83.93333333333334, "grad_norm": 0.63671875, "learning_rate": 9.957265544541261e-05, "loss": 0.3711, "step": 62950 }, { "epoch": 83.94666666666667, "grad_norm": 0.72265625, "learning_rate": 9.957251876788748e-05, "loss": 0.3717, "step": 62960 }, { "epoch": 83.96, "grad_norm": 0.66796875, "learning_rate": 9.957238206860291e-05, "loss": 0.3707, "step": 62970 }, { "epoch": 83.97333333333333, "grad_norm": 0.89453125, "learning_rate": 9.957224534755893e-05, "loss": 0.3936, "step": 62980 }, { "epoch": 83.98666666666666, "grad_norm": 0.7578125, "learning_rate": 9.957210860475566e-05, "loss": 0.3639, "step": 62990 }, { "epoch": 84.0, "grad_norm": 0.703125, "learning_rate": 9.957197184019312e-05, "loss": 0.3633, "step": 63000 }, { "epoch": 84.0, "eval_loss": 0.4226149320602417, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5016, "eval_samples_per_second": 1.524, "eval_steps_per_second": 0.095, "step": 63000 }, { "epoch": 84.01333333333334, "grad_norm": 0.74609375, "learning_rate": 9.957183505387136e-05, "loss": 0.3803, "step": 63010 }, { "epoch": 84.02666666666667, "grad_norm": 0.66796875, "learning_rate": 9.957169824579045e-05, "loss": 0.3947, "step": 63020 }, { "epoch": 84.04, "grad_norm": 0.71875, "learning_rate": 9.957156141595047e-05, "loss": 0.4074, "step": 63030 }, { "epoch": 84.05333333333333, "grad_norm": 0.7265625, "learning_rate": 9.957142456435146e-05, "loss": 0.3922, "step": 63040 }, { "epoch": 84.06666666666666, "grad_norm": 0.86328125, "learning_rate": 9.95712876909935e-05, "loss": 0.3798, "step": 63050 }, { "epoch": 84.08, "grad_norm": 0.6875, "learning_rate": 9.957115079587664e-05, "loss": 0.3837, "step": 63060 }, { "epoch": 84.09333333333333, "grad_norm": 0.7578125, "learning_rate": 9.957101387900092e-05, "loss": 0.3853, "step": 63070 }, { "epoch": 84.10666666666667, "grad_norm": 0.6328125, "learning_rate": 9.957087694036642e-05, "loss": 0.3731, "step": 63080 }, { "epoch": 84.12, "grad_norm": 0.7109375, "learning_rate": 9.957073997997321e-05, "loss": 0.3763, "step": 63090 }, { "epoch": 84.13333333333334, "grad_norm": 0.6953125, "learning_rate": 9.957060299782132e-05, "loss": 0.369, "step": 63100 }, { "epoch": 84.14666666666666, "grad_norm": 0.68359375, "learning_rate": 9.957046599391083e-05, "loss": 0.3864, "step": 63110 }, { "epoch": 84.16, "grad_norm": 0.62890625, "learning_rate": 9.95703289682418e-05, "loss": 0.3818, "step": 63120 }, { "epoch": 84.17333333333333, "grad_norm": 0.71484375, "learning_rate": 9.95701919208143e-05, "loss": 0.3771, "step": 63130 }, { "epoch": 84.18666666666667, "grad_norm": 0.6640625, "learning_rate": 9.957005485162836e-05, "loss": 0.3739, "step": 63140 }, { "epoch": 84.2, "grad_norm": 0.72265625, "learning_rate": 9.956991776068407e-05, "loss": 0.3661, "step": 63150 }, { "epoch": 84.21333333333334, "grad_norm": 0.73828125, "learning_rate": 9.956978064798146e-05, "loss": 0.3669, "step": 63160 }, { "epoch": 84.22666666666667, "grad_norm": 0.7265625, "learning_rate": 9.956964351352062e-05, "loss": 0.3781, "step": 63170 }, { "epoch": 84.24, "grad_norm": 0.75, "learning_rate": 9.95695063573016e-05, "loss": 0.3648, "step": 63180 }, { "epoch": 84.25333333333333, "grad_norm": 0.7265625, "learning_rate": 9.956936917932445e-05, "loss": 0.3659, "step": 63190 }, { "epoch": 84.26666666666667, "grad_norm": 0.70703125, "learning_rate": 9.956923197958925e-05, "loss": 0.3684, "step": 63200 }, { "epoch": 84.28, "grad_norm": 0.765625, "learning_rate": 9.956909475809603e-05, "loss": 0.3976, "step": 63210 }, { "epoch": 84.29333333333334, "grad_norm": 0.70703125, "learning_rate": 9.95689575148449e-05, "loss": 0.3552, "step": 63220 }, { "epoch": 84.30666666666667, "grad_norm": 0.69921875, "learning_rate": 9.956882024983587e-05, "loss": 0.3795, "step": 63230 }, { "epoch": 84.32, "grad_norm": 0.60546875, "learning_rate": 9.956868296306901e-05, "loss": 0.3821, "step": 63240 }, { "epoch": 84.33333333333333, "grad_norm": 0.71484375, "learning_rate": 9.956854565454441e-05, "loss": 0.3819, "step": 63250 }, { "epoch": 84.34666666666666, "grad_norm": 0.73046875, "learning_rate": 9.956840832426209e-05, "loss": 0.3735, "step": 63260 }, { "epoch": 84.36, "grad_norm": 0.73046875, "learning_rate": 9.956827097222214e-05, "loss": 0.374, "step": 63270 }, { "epoch": 84.37333333333333, "grad_norm": 0.64453125, "learning_rate": 9.956813359842462e-05, "loss": 0.3767, "step": 63280 }, { "epoch": 84.38666666666667, "grad_norm": 0.78125, "learning_rate": 9.956799620286958e-05, "loss": 0.3646, "step": 63290 }, { "epoch": 84.4, "grad_norm": 0.75, "learning_rate": 9.956785878555706e-05, "loss": 0.3739, "step": 63300 }, { "epoch": 84.41333333333333, "grad_norm": 0.66796875, "learning_rate": 9.956772134648716e-05, "loss": 0.3802, "step": 63310 }, { "epoch": 84.42666666666666, "grad_norm": 0.76171875, "learning_rate": 9.956758388565992e-05, "loss": 0.3812, "step": 63320 }, { "epoch": 84.44, "grad_norm": 0.6875, "learning_rate": 9.95674464030754e-05, "loss": 0.3943, "step": 63330 }, { "epoch": 84.45333333333333, "grad_norm": 0.74609375, "learning_rate": 9.956730889873366e-05, "loss": 0.3812, "step": 63340 }, { "epoch": 84.46666666666667, "grad_norm": 0.734375, "learning_rate": 9.956717137263477e-05, "loss": 0.389, "step": 63350 }, { "epoch": 84.48, "grad_norm": 0.71484375, "learning_rate": 9.956703382477878e-05, "loss": 0.3718, "step": 63360 }, { "epoch": 84.49333333333334, "grad_norm": 0.68359375, "learning_rate": 9.956689625516575e-05, "loss": 0.3837, "step": 63370 }, { "epoch": 84.50666666666666, "grad_norm": 0.76953125, "learning_rate": 9.956675866379574e-05, "loss": 0.3827, "step": 63380 }, { "epoch": 84.52, "grad_norm": 0.59375, "learning_rate": 9.956662105066883e-05, "loss": 0.3734, "step": 63390 }, { "epoch": 84.53333333333333, "grad_norm": 0.72265625, "learning_rate": 9.956648341578505e-05, "loss": 0.3751, "step": 63400 }, { "epoch": 84.54666666666667, "grad_norm": 0.8828125, "learning_rate": 9.956634575914449e-05, "loss": 0.3764, "step": 63410 }, { "epoch": 84.56, "grad_norm": 0.6640625, "learning_rate": 9.956620808074719e-05, "loss": 0.3704, "step": 63420 }, { "epoch": 84.57333333333334, "grad_norm": 0.70703125, "learning_rate": 9.95660703805932e-05, "loss": 0.3744, "step": 63430 }, { "epoch": 84.58666666666667, "grad_norm": 0.67578125, "learning_rate": 9.956593265868261e-05, "loss": 0.3636, "step": 63440 }, { "epoch": 84.6, "grad_norm": 0.734375, "learning_rate": 9.956579491501547e-05, "loss": 0.366, "step": 63450 }, { "epoch": 84.61333333333333, "grad_norm": 0.68359375, "learning_rate": 9.956565714959184e-05, "loss": 0.3579, "step": 63460 }, { "epoch": 84.62666666666667, "grad_norm": 0.734375, "learning_rate": 9.956551936241177e-05, "loss": 0.3625, "step": 63470 }, { "epoch": 84.64, "grad_norm": 0.7421875, "learning_rate": 9.956538155347534e-05, "loss": 0.3717, "step": 63480 }, { "epoch": 84.65333333333334, "grad_norm": 0.6875, "learning_rate": 9.956524372278257e-05, "loss": 0.3829, "step": 63490 }, { "epoch": 84.66666666666667, "grad_norm": 0.66015625, "learning_rate": 9.956510587033359e-05, "loss": 0.3712, "step": 63500 }, { "epoch": 84.68, "grad_norm": 0.70703125, "learning_rate": 9.95649679961284e-05, "loss": 0.3613, "step": 63510 }, { "epoch": 84.69333333333333, "grad_norm": 0.68359375, "learning_rate": 9.956483010016707e-05, "loss": 0.3718, "step": 63520 }, { "epoch": 84.70666666666666, "grad_norm": 0.79296875, "learning_rate": 9.956469218244969e-05, "loss": 0.3631, "step": 63530 }, { "epoch": 84.72, "grad_norm": 0.76953125, "learning_rate": 9.956455424297629e-05, "loss": 0.3847, "step": 63540 }, { "epoch": 84.73333333333333, "grad_norm": 0.83203125, "learning_rate": 9.956441628174695e-05, "loss": 0.3801, "step": 63550 }, { "epoch": 84.74666666666667, "grad_norm": 1.6640625, "learning_rate": 9.956427829876172e-05, "loss": 0.3831, "step": 63560 }, { "epoch": 84.76, "grad_norm": 0.7734375, "learning_rate": 9.956414029402065e-05, "loss": 0.3966, "step": 63570 }, { "epoch": 84.77333333333333, "grad_norm": 0.79296875, "learning_rate": 9.956400226752383e-05, "loss": 0.3807, "step": 63580 }, { "epoch": 84.78666666666666, "grad_norm": 0.65625, "learning_rate": 9.956386421927128e-05, "loss": 0.3825, "step": 63590 }, { "epoch": 84.8, "grad_norm": 0.859375, "learning_rate": 9.956372614926311e-05, "loss": 0.3812, "step": 63600 }, { "epoch": 84.81333333333333, "grad_norm": 0.8984375, "learning_rate": 9.956358805749935e-05, "loss": 0.3545, "step": 63610 }, { "epoch": 84.82666666666667, "grad_norm": 0.703125, "learning_rate": 9.956344994398007e-05, "loss": 0.3617, "step": 63620 }, { "epoch": 84.84, "grad_norm": 0.71484375, "learning_rate": 9.956331180870533e-05, "loss": 0.3752, "step": 63630 }, { "epoch": 84.85333333333334, "grad_norm": 0.7265625, "learning_rate": 9.956317365167517e-05, "loss": 0.3703, "step": 63640 }, { "epoch": 84.86666666666666, "grad_norm": 0.77734375, "learning_rate": 9.956303547288968e-05, "loss": 0.3757, "step": 63650 }, { "epoch": 84.88, "grad_norm": 0.671875, "learning_rate": 9.956289727234892e-05, "loss": 0.3572, "step": 63660 }, { "epoch": 84.89333333333333, "grad_norm": 0.67578125, "learning_rate": 9.956275905005292e-05, "loss": 0.3688, "step": 63670 }, { "epoch": 84.90666666666667, "grad_norm": 0.73828125, "learning_rate": 9.956262080600176e-05, "loss": 0.374, "step": 63680 }, { "epoch": 84.92, "grad_norm": 0.76953125, "learning_rate": 9.956248254019551e-05, "loss": 0.3759, "step": 63690 }, { "epoch": 84.93333333333334, "grad_norm": 0.69140625, "learning_rate": 9.956234425263422e-05, "loss": 0.3704, "step": 63700 }, { "epoch": 84.94666666666667, "grad_norm": 0.7265625, "learning_rate": 9.956220594331795e-05, "loss": 0.3707, "step": 63710 }, { "epoch": 84.96, "grad_norm": 0.65625, "learning_rate": 9.956206761224675e-05, "loss": 0.3701, "step": 63720 }, { "epoch": 84.97333333333333, "grad_norm": 0.87109375, "learning_rate": 9.956192925942072e-05, "loss": 0.3933, "step": 63730 }, { "epoch": 84.98666666666666, "grad_norm": 0.671875, "learning_rate": 9.956179088483988e-05, "loss": 0.3635, "step": 63740 }, { "epoch": 85.0, "grad_norm": 0.72265625, "learning_rate": 9.956165248850431e-05, "loss": 0.3636, "step": 63750 }, { "epoch": 85.0, "eval_loss": 0.42126166820526123, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4637, "eval_samples_per_second": 1.529, "eval_steps_per_second": 0.096, "step": 63750 }, { "epoch": 85.01333333333334, "grad_norm": 0.76953125, "learning_rate": 9.956151407041406e-05, "loss": 0.3792, "step": 63760 }, { "epoch": 85.02666666666667, "grad_norm": 0.6953125, "learning_rate": 9.95613756305692e-05, "loss": 0.3935, "step": 63770 }, { "epoch": 85.04, "grad_norm": 0.62109375, "learning_rate": 9.956123716896978e-05, "loss": 0.4066, "step": 63780 }, { "epoch": 85.05333333333333, "grad_norm": 0.6953125, "learning_rate": 9.956109868561589e-05, "loss": 0.3916, "step": 63790 }, { "epoch": 85.06666666666666, "grad_norm": 0.7578125, "learning_rate": 9.956096018050755e-05, "loss": 0.3792, "step": 63800 }, { "epoch": 85.08, "grad_norm": 0.6796875, "learning_rate": 9.956082165364484e-05, "loss": 0.3829, "step": 63810 }, { "epoch": 85.09333333333333, "grad_norm": 0.71484375, "learning_rate": 9.956068310502781e-05, "loss": 0.3839, "step": 63820 }, { "epoch": 85.10666666666667, "grad_norm": 0.6875, "learning_rate": 9.956054453465656e-05, "loss": 0.3738, "step": 63830 }, { "epoch": 85.12, "grad_norm": 0.7421875, "learning_rate": 9.956040594253111e-05, "loss": 0.376, "step": 63840 }, { "epoch": 85.13333333333334, "grad_norm": 0.70703125, "learning_rate": 9.956026732865153e-05, "loss": 0.3679, "step": 63850 }, { "epoch": 85.14666666666666, "grad_norm": 0.703125, "learning_rate": 9.956012869301787e-05, "loss": 0.3877, "step": 63860 }, { "epoch": 85.16, "grad_norm": 0.66796875, "learning_rate": 9.955999003563022e-05, "loss": 0.3818, "step": 63870 }, { "epoch": 85.17333333333333, "grad_norm": 0.81640625, "learning_rate": 9.955985135648863e-05, "loss": 0.3766, "step": 63880 }, { "epoch": 85.18666666666667, "grad_norm": 0.69140625, "learning_rate": 9.955971265559315e-05, "loss": 0.3742, "step": 63890 }, { "epoch": 85.2, "grad_norm": 0.75390625, "learning_rate": 9.955957393294385e-05, "loss": 0.3661, "step": 63900 }, { "epoch": 85.21333333333334, "grad_norm": 0.8203125, "learning_rate": 9.955943518854079e-05, "loss": 0.3672, "step": 63910 }, { "epoch": 85.22666666666667, "grad_norm": 0.734375, "learning_rate": 9.955929642238402e-05, "loss": 0.3777, "step": 63920 }, { "epoch": 85.24, "grad_norm": 0.77734375, "learning_rate": 9.95591576344736e-05, "loss": 0.3636, "step": 63930 }, { "epoch": 85.25333333333333, "grad_norm": 0.82421875, "learning_rate": 9.955901882480963e-05, "loss": 0.3654, "step": 63940 }, { "epoch": 85.26666666666667, "grad_norm": 0.7265625, "learning_rate": 9.955887999339213e-05, "loss": 0.3685, "step": 63950 }, { "epoch": 85.28, "grad_norm": 0.7578125, "learning_rate": 9.955874114022117e-05, "loss": 0.3971, "step": 63960 }, { "epoch": 85.29333333333334, "grad_norm": 0.73828125, "learning_rate": 9.955860226529681e-05, "loss": 0.3548, "step": 63970 }, { "epoch": 85.30666666666667, "grad_norm": 0.66015625, "learning_rate": 9.955846336861912e-05, "loss": 0.3792, "step": 63980 }, { "epoch": 85.32, "grad_norm": 0.6875, "learning_rate": 9.955832445018815e-05, "loss": 0.3822, "step": 63990 }, { "epoch": 85.33333333333333, "grad_norm": 0.78125, "learning_rate": 9.955818551000398e-05, "loss": 0.3814, "step": 64000 }, { "epoch": 85.34666666666666, "grad_norm": 0.76171875, "learning_rate": 9.955804654806664e-05, "loss": 0.3728, "step": 64010 }, { "epoch": 85.36, "grad_norm": 0.80859375, "learning_rate": 9.955790756437621e-05, "loss": 0.3733, "step": 64020 }, { "epoch": 85.37333333333333, "grad_norm": 0.66015625, "learning_rate": 9.955776855893277e-05, "loss": 0.376, "step": 64030 }, { "epoch": 85.38666666666667, "grad_norm": 0.8359375, "learning_rate": 9.955762953173635e-05, "loss": 0.3652, "step": 64040 }, { "epoch": 85.4, "grad_norm": 0.6953125, "learning_rate": 9.955749048278702e-05, "loss": 0.3735, "step": 64050 }, { "epoch": 85.41333333333333, "grad_norm": 0.71875, "learning_rate": 9.955735141208484e-05, "loss": 0.3794, "step": 64060 }, { "epoch": 85.42666666666666, "grad_norm": 0.7265625, "learning_rate": 9.955721231962988e-05, "loss": 0.3812, "step": 64070 }, { "epoch": 85.44, "grad_norm": 0.703125, "learning_rate": 9.955707320542217e-05, "loss": 0.3937, "step": 64080 }, { "epoch": 85.45333333333333, "grad_norm": 0.72265625, "learning_rate": 9.955693406946183e-05, "loss": 0.3808, "step": 64090 }, { "epoch": 85.46666666666667, "grad_norm": 0.765625, "learning_rate": 9.955679491174887e-05, "loss": 0.3887, "step": 64100 }, { "epoch": 85.48, "grad_norm": 0.78125, "learning_rate": 9.955665573228338e-05, "loss": 0.3713, "step": 64110 }, { "epoch": 85.49333333333334, "grad_norm": 0.69921875, "learning_rate": 9.955651653106539e-05, "loss": 0.3835, "step": 64120 }, { "epoch": 85.50666666666666, "grad_norm": 0.80078125, "learning_rate": 9.9556377308095e-05, "loss": 0.3828, "step": 64130 }, { "epoch": 85.52, "grad_norm": 0.69140625, "learning_rate": 9.955623806337225e-05, "loss": 0.374, "step": 64140 }, { "epoch": 85.53333333333333, "grad_norm": 0.75390625, "learning_rate": 9.955609879689718e-05, "loss": 0.3745, "step": 64150 }, { "epoch": 85.54666666666667, "grad_norm": 0.7890625, "learning_rate": 9.95559595086699e-05, "loss": 0.3759, "step": 64160 }, { "epoch": 85.56, "grad_norm": 0.65234375, "learning_rate": 9.955582019869042e-05, "loss": 0.3705, "step": 64170 }, { "epoch": 85.57333333333334, "grad_norm": 0.74609375, "learning_rate": 9.955568086695885e-05, "loss": 0.3752, "step": 64180 }, { "epoch": 85.58666666666667, "grad_norm": 0.7109375, "learning_rate": 9.955554151347522e-05, "loss": 0.3651, "step": 64190 }, { "epoch": 85.6, "grad_norm": 0.73046875, "learning_rate": 9.955540213823958e-05, "loss": 0.3659, "step": 64200 }, { "epoch": 85.61333333333333, "grad_norm": 0.625, "learning_rate": 9.955526274125202e-05, "loss": 0.3572, "step": 64210 }, { "epoch": 85.62666666666667, "grad_norm": 0.6484375, "learning_rate": 9.95551233225126e-05, "loss": 0.3623, "step": 64220 }, { "epoch": 85.64, "grad_norm": 0.76953125, "learning_rate": 9.955498388202136e-05, "loss": 0.3716, "step": 64230 }, { "epoch": 85.65333333333334, "grad_norm": 0.7109375, "learning_rate": 9.955484441977838e-05, "loss": 0.3811, "step": 64240 }, { "epoch": 85.66666666666667, "grad_norm": 0.66796875, "learning_rate": 9.955470493578371e-05, "loss": 0.3722, "step": 64250 }, { "epoch": 85.68, "grad_norm": 0.734375, "learning_rate": 9.955456543003743e-05, "loss": 0.3617, "step": 64260 }, { "epoch": 85.69333333333333, "grad_norm": 0.67578125, "learning_rate": 9.955442590253956e-05, "loss": 0.3722, "step": 64270 }, { "epoch": 85.70666666666666, "grad_norm": 0.86328125, "learning_rate": 9.95542863532902e-05, "loss": 0.3625, "step": 64280 }, { "epoch": 85.72, "grad_norm": 0.7421875, "learning_rate": 9.955414678228941e-05, "loss": 0.384, "step": 64290 }, { "epoch": 85.73333333333333, "grad_norm": 0.7421875, "learning_rate": 9.955400718953723e-05, "loss": 0.3794, "step": 64300 }, { "epoch": 85.74666666666667, "grad_norm": 0.72265625, "learning_rate": 9.955386757503373e-05, "loss": 0.3817, "step": 64310 }, { "epoch": 85.76, "grad_norm": 0.83203125, "learning_rate": 9.955372793877897e-05, "loss": 0.3963, "step": 64320 }, { "epoch": 85.77333333333333, "grad_norm": 0.7421875, "learning_rate": 9.955358828077304e-05, "loss": 0.3802, "step": 64330 }, { "epoch": 85.78666666666666, "grad_norm": 0.7421875, "learning_rate": 9.955344860101594e-05, "loss": 0.3824, "step": 64340 }, { "epoch": 85.8, "grad_norm": 0.7265625, "learning_rate": 9.95533088995078e-05, "loss": 0.3807, "step": 64350 }, { "epoch": 85.81333333333333, "grad_norm": 0.9453125, "learning_rate": 9.955316917624861e-05, "loss": 0.3551, "step": 64360 }, { "epoch": 85.82666666666667, "grad_norm": 0.77734375, "learning_rate": 9.95530294312385e-05, "loss": 0.3628, "step": 64370 }, { "epoch": 85.84, "grad_norm": 0.765625, "learning_rate": 9.955288966447749e-05, "loss": 0.3752, "step": 64380 }, { "epoch": 85.85333333333334, "grad_norm": 0.6875, "learning_rate": 9.955274987596566e-05, "loss": 0.37, "step": 64390 }, { "epoch": 85.86666666666666, "grad_norm": 0.75, "learning_rate": 9.955261006570306e-05, "loss": 0.3755, "step": 64400 }, { "epoch": 85.88, "grad_norm": 0.734375, "learning_rate": 9.955247023368974e-05, "loss": 0.3568, "step": 64410 }, { "epoch": 85.89333333333333, "grad_norm": 0.73046875, "learning_rate": 9.95523303799258e-05, "loss": 0.3691, "step": 64420 }, { "epoch": 85.90666666666667, "grad_norm": 0.71484375, "learning_rate": 9.955219050441126e-05, "loss": 0.3739, "step": 64430 }, { "epoch": 85.92, "grad_norm": 0.7578125, "learning_rate": 9.955205060714621e-05, "loss": 0.3754, "step": 64440 }, { "epoch": 85.93333333333334, "grad_norm": 0.71484375, "learning_rate": 9.955191068813068e-05, "loss": 0.371, "step": 64450 }, { "epoch": 85.94666666666667, "grad_norm": 0.76953125, "learning_rate": 9.955177074736477e-05, "loss": 0.3711, "step": 64460 }, { "epoch": 85.96, "grad_norm": 0.7109375, "learning_rate": 9.955163078484853e-05, "loss": 0.3703, "step": 64470 }, { "epoch": 85.97333333333333, "grad_norm": 0.98828125, "learning_rate": 9.9551490800582e-05, "loss": 0.3928, "step": 64480 }, { "epoch": 85.98666666666666, "grad_norm": 0.83203125, "learning_rate": 9.955135079456527e-05, "loss": 0.3634, "step": 64490 }, { "epoch": 86.0, "grad_norm": 0.7578125, "learning_rate": 9.955121076679838e-05, "loss": 0.3634, "step": 64500 }, { "epoch": 86.0, "eval_loss": 0.42075151205062866, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.0852, "eval_samples_per_second": 1.586, "eval_steps_per_second": 0.099, "step": 64500 }, { "epoch": 86.01333333333334, "grad_norm": 0.75, "learning_rate": 9.955107071728139e-05, "loss": 0.3795, "step": 64510 }, { "epoch": 86.02666666666667, "grad_norm": 0.70703125, "learning_rate": 9.955093064601439e-05, "loss": 0.3931, "step": 64520 }, { "epoch": 86.04, "grad_norm": 0.75390625, "learning_rate": 9.955079055299741e-05, "loss": 0.4067, "step": 64530 }, { "epoch": 86.05333333333333, "grad_norm": 0.7265625, "learning_rate": 9.955065043823052e-05, "loss": 0.3915, "step": 64540 }, { "epoch": 86.06666666666666, "grad_norm": 0.8046875, "learning_rate": 9.955051030171379e-05, "loss": 0.3798, "step": 64550 }, { "epoch": 86.08, "grad_norm": 0.71484375, "learning_rate": 9.955037014344729e-05, "loss": 0.383, "step": 64560 }, { "epoch": 86.09333333333333, "grad_norm": 0.75390625, "learning_rate": 9.955022996343104e-05, "loss": 0.3852, "step": 64570 }, { "epoch": 86.10666666666667, "grad_norm": 0.62890625, "learning_rate": 9.955008976166515e-05, "loss": 0.3736, "step": 64580 }, { "epoch": 86.12, "grad_norm": 0.8046875, "learning_rate": 9.954994953814965e-05, "loss": 0.3758, "step": 64590 }, { "epoch": 86.13333333333334, "grad_norm": 0.71875, "learning_rate": 9.954980929288462e-05, "loss": 0.3677, "step": 64600 }, { "epoch": 86.14666666666666, "grad_norm": 0.75, "learning_rate": 9.954966902587011e-05, "loss": 0.3872, "step": 64610 }, { "epoch": 86.16, "grad_norm": 0.67578125, "learning_rate": 9.954952873710619e-05, "loss": 0.382, "step": 64620 }, { "epoch": 86.17333333333333, "grad_norm": 0.72265625, "learning_rate": 9.954938842659291e-05, "loss": 0.3768, "step": 64630 }, { "epoch": 86.18666666666667, "grad_norm": 0.68359375, "learning_rate": 9.954924809433035e-05, "loss": 0.3725, "step": 64640 }, { "epoch": 86.2, "grad_norm": 0.72265625, "learning_rate": 9.954910774031856e-05, "loss": 0.3658, "step": 64650 }, { "epoch": 86.21333333333334, "grad_norm": 0.69921875, "learning_rate": 9.954896736455759e-05, "loss": 0.3664, "step": 64660 }, { "epoch": 86.22666666666667, "grad_norm": 0.8125, "learning_rate": 9.954882696704752e-05, "loss": 0.3777, "step": 64670 }, { "epoch": 86.24, "grad_norm": 0.75390625, "learning_rate": 9.95486865477884e-05, "loss": 0.364, "step": 64680 }, { "epoch": 86.25333333333333, "grad_norm": 0.73046875, "learning_rate": 9.954854610678031e-05, "loss": 0.3647, "step": 64690 }, { "epoch": 86.26666666666667, "grad_norm": 0.671875, "learning_rate": 9.95484056440233e-05, "loss": 0.3685, "step": 64700 }, { "epoch": 86.28, "grad_norm": 0.76953125, "learning_rate": 9.954826515951742e-05, "loss": 0.3971, "step": 64710 }, { "epoch": 86.29333333333334, "grad_norm": 0.69140625, "learning_rate": 9.954812465326274e-05, "loss": 0.3546, "step": 64720 }, { "epoch": 86.30666666666667, "grad_norm": 0.67578125, "learning_rate": 9.954798412525933e-05, "loss": 0.3781, "step": 64730 }, { "epoch": 86.32, "grad_norm": 0.5859375, "learning_rate": 9.954784357550723e-05, "loss": 0.382, "step": 64740 }, { "epoch": 86.33333333333333, "grad_norm": 0.7734375, "learning_rate": 9.954770300400656e-05, "loss": 0.3822, "step": 64750 }, { "epoch": 86.34666666666666, "grad_norm": 0.7578125, "learning_rate": 9.954756241075729e-05, "loss": 0.3718, "step": 64760 }, { "epoch": 86.36, "grad_norm": 0.72265625, "learning_rate": 9.954742179575955e-05, "loss": 0.3731, "step": 64770 }, { "epoch": 86.37333333333333, "grad_norm": 0.64453125, "learning_rate": 9.954728115901339e-05, "loss": 0.3767, "step": 64780 }, { "epoch": 86.38666666666667, "grad_norm": 0.796875, "learning_rate": 9.954714050051885e-05, "loss": 0.3644, "step": 64790 }, { "epoch": 86.4, "grad_norm": 0.73046875, "learning_rate": 9.954699982027602e-05, "loss": 0.3738, "step": 64800 }, { "epoch": 86.41333333333333, "grad_norm": 0.69140625, "learning_rate": 9.954685911828493e-05, "loss": 0.3795, "step": 64810 }, { "epoch": 86.42666666666666, "grad_norm": 0.66015625, "learning_rate": 9.954671839454567e-05, "loss": 0.3817, "step": 64820 }, { "epoch": 86.44, "grad_norm": 0.73046875, "learning_rate": 9.95465776490583e-05, "loss": 0.3935, "step": 64830 }, { "epoch": 86.45333333333333, "grad_norm": 0.7265625, "learning_rate": 9.954643688182286e-05, "loss": 0.3809, "step": 64840 }, { "epoch": 86.46666666666667, "grad_norm": 0.69140625, "learning_rate": 9.954629609283943e-05, "loss": 0.3885, "step": 64850 }, { "epoch": 86.48, "grad_norm": 0.76171875, "learning_rate": 9.954615528210807e-05, "loss": 0.3714, "step": 64860 }, { "epoch": 86.49333333333334, "grad_norm": 0.7890625, "learning_rate": 9.954601444962883e-05, "loss": 0.3832, "step": 64870 }, { "epoch": 86.50666666666666, "grad_norm": 0.70703125, "learning_rate": 9.954587359540177e-05, "loss": 0.3815, "step": 64880 }, { "epoch": 86.52, "grad_norm": 0.65625, "learning_rate": 9.954573271942697e-05, "loss": 0.3723, "step": 64890 }, { "epoch": 86.53333333333333, "grad_norm": 0.7109375, "learning_rate": 9.95455918217045e-05, "loss": 0.3751, "step": 64900 }, { "epoch": 86.54666666666667, "grad_norm": 0.79296875, "learning_rate": 9.95454509022344e-05, "loss": 0.3758, "step": 64910 }, { "epoch": 86.56, "grad_norm": 0.62890625, "learning_rate": 9.954530996101672e-05, "loss": 0.3705, "step": 64920 }, { "epoch": 86.57333333333334, "grad_norm": 0.69921875, "learning_rate": 9.954516899805155e-05, "loss": 0.3741, "step": 64930 }, { "epoch": 86.58666666666667, "grad_norm": 0.69140625, "learning_rate": 9.954502801333893e-05, "loss": 0.3641, "step": 64940 }, { "epoch": 86.6, "grad_norm": 0.68359375, "learning_rate": 9.954488700687897e-05, "loss": 0.3657, "step": 64950 }, { "epoch": 86.61333333333333, "grad_norm": 0.6875, "learning_rate": 9.954474597867165e-05, "loss": 0.3582, "step": 64960 }, { "epoch": 86.62666666666667, "grad_norm": 0.61328125, "learning_rate": 9.954460492871711e-05, "loss": 0.3625, "step": 64970 }, { "epoch": 86.64, "grad_norm": 0.8203125, "learning_rate": 9.954446385701536e-05, "loss": 0.3706, "step": 64980 }, { "epoch": 86.65333333333334, "grad_norm": 0.7734375, "learning_rate": 9.954432276356649e-05, "loss": 0.3813, "step": 64990 }, { "epoch": 86.66666666666667, "grad_norm": 0.625, "learning_rate": 9.954418164837053e-05, "loss": 0.3719, "step": 65000 }, { "epoch": 86.68, "grad_norm": 0.70703125, "learning_rate": 9.95440405114276e-05, "loss": 0.3621, "step": 65010 }, { "epoch": 86.69333333333333, "grad_norm": 0.65234375, "learning_rate": 9.95438993527377e-05, "loss": 0.3713, "step": 65020 }, { "epoch": 86.70666666666666, "grad_norm": 0.85546875, "learning_rate": 9.954375817230093e-05, "loss": 0.3621, "step": 65030 }, { "epoch": 86.72, "grad_norm": 0.76953125, "learning_rate": 9.954361697011733e-05, "loss": 0.3843, "step": 65040 }, { "epoch": 86.73333333333333, "grad_norm": 0.734375, "learning_rate": 9.954347574618698e-05, "loss": 0.379, "step": 65050 }, { "epoch": 86.74666666666667, "grad_norm": 0.6640625, "learning_rate": 9.954333450050994e-05, "loss": 0.3823, "step": 65060 }, { "epoch": 86.76, "grad_norm": 0.78515625, "learning_rate": 9.954319323308625e-05, "loss": 0.3957, "step": 65070 }, { "epoch": 86.77333333333333, "grad_norm": 0.79296875, "learning_rate": 9.9543051943916e-05, "loss": 0.3805, "step": 65080 }, { "epoch": 86.78666666666666, "grad_norm": 0.72265625, "learning_rate": 9.954291063299925e-05, "loss": 0.3826, "step": 65090 }, { "epoch": 86.8, "grad_norm": 0.7421875, "learning_rate": 9.954276930033603e-05, "loss": 0.3799, "step": 65100 }, { "epoch": 86.81333333333333, "grad_norm": 0.83984375, "learning_rate": 9.954262794592643e-05, "loss": 0.3544, "step": 65110 }, { "epoch": 86.82666666666667, "grad_norm": 0.69921875, "learning_rate": 9.954248656977052e-05, "loss": 0.3622, "step": 65120 }, { "epoch": 86.84, "grad_norm": 0.828125, "learning_rate": 9.954234517186835e-05, "loss": 0.3748, "step": 65130 }, { "epoch": 86.85333333333334, "grad_norm": 0.74609375, "learning_rate": 9.954220375221996e-05, "loss": 0.3701, "step": 65140 }, { "epoch": 86.86666666666666, "grad_norm": 0.7890625, "learning_rate": 9.954206231082546e-05, "loss": 0.3749, "step": 65150 }, { "epoch": 86.88, "grad_norm": 0.70703125, "learning_rate": 9.954192084768485e-05, "loss": 0.3555, "step": 65160 }, { "epoch": 86.89333333333333, "grad_norm": 0.671875, "learning_rate": 9.954177936279824e-05, "loss": 0.3695, "step": 65170 }, { "epoch": 86.90666666666667, "grad_norm": 0.74609375, "learning_rate": 9.95416378561657e-05, "loss": 0.3744, "step": 65180 }, { "epoch": 86.92, "grad_norm": 0.73828125, "learning_rate": 9.954149632778725e-05, "loss": 0.3757, "step": 65190 }, { "epoch": 86.93333333333334, "grad_norm": 0.6953125, "learning_rate": 9.954135477766299e-05, "loss": 0.3711, "step": 65200 }, { "epoch": 86.94666666666667, "grad_norm": 0.765625, "learning_rate": 9.954121320579295e-05, "loss": 0.3704, "step": 65210 }, { "epoch": 86.96, "grad_norm": 0.6328125, "learning_rate": 9.954107161217721e-05, "loss": 0.369, "step": 65220 }, { "epoch": 86.97333333333333, "grad_norm": 0.91015625, "learning_rate": 9.954092999681583e-05, "loss": 0.3925, "step": 65230 }, { "epoch": 86.98666666666666, "grad_norm": 0.73046875, "learning_rate": 9.954078835970888e-05, "loss": 0.3629, "step": 65240 }, { "epoch": 87.0, "grad_norm": 0.73828125, "learning_rate": 9.95406467008564e-05, "loss": 0.3626, "step": 65250 }, { "epoch": 87.0, "eval_loss": 0.4204745590686798, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.7017, "eval_samples_per_second": 1.495, "eval_steps_per_second": 0.093, "step": 65250 }, { "epoch": 87.01333333333334, "grad_norm": 0.80859375, "learning_rate": 9.954050502025847e-05, "loss": 0.3795, "step": 65260 }, { "epoch": 87.02666666666667, "grad_norm": 0.68359375, "learning_rate": 9.954036331791517e-05, "loss": 0.3933, "step": 65270 }, { "epoch": 87.04, "grad_norm": 0.6953125, "learning_rate": 9.954022159382651e-05, "loss": 0.4063, "step": 65280 }, { "epoch": 87.05333333333333, "grad_norm": 0.72265625, "learning_rate": 9.95400798479926e-05, "loss": 0.3906, "step": 65290 }, { "epoch": 87.06666666666666, "grad_norm": 0.8125, "learning_rate": 9.953993808041348e-05, "loss": 0.3798, "step": 65300 }, { "epoch": 87.08, "grad_norm": 0.78515625, "learning_rate": 9.95397962910892e-05, "loss": 0.3837, "step": 65310 }, { "epoch": 87.09333333333333, "grad_norm": 0.71875, "learning_rate": 9.953965448001987e-05, "loss": 0.3856, "step": 65320 }, { "epoch": 87.10666666666667, "grad_norm": 0.625, "learning_rate": 9.95395126472055e-05, "loss": 0.374, "step": 65330 }, { "epoch": 87.12, "grad_norm": 0.73828125, "learning_rate": 9.953937079264619e-05, "loss": 0.3754, "step": 65340 }, { "epoch": 87.13333333333334, "grad_norm": 0.76171875, "learning_rate": 9.953922891634197e-05, "loss": 0.3673, "step": 65350 }, { "epoch": 87.14666666666666, "grad_norm": 0.73828125, "learning_rate": 9.953908701829293e-05, "loss": 0.3861, "step": 65360 }, { "epoch": 87.16, "grad_norm": 0.6953125, "learning_rate": 9.953894509849912e-05, "loss": 0.3809, "step": 65370 }, { "epoch": 87.17333333333333, "grad_norm": 0.8125, "learning_rate": 9.95388031569606e-05, "loss": 0.3755, "step": 65380 }, { "epoch": 87.18666666666667, "grad_norm": 0.69921875, "learning_rate": 9.953866119367743e-05, "loss": 0.3736, "step": 65390 }, { "epoch": 87.2, "grad_norm": 0.67578125, "learning_rate": 9.953851920864969e-05, "loss": 0.3654, "step": 65400 }, { "epoch": 87.21333333333334, "grad_norm": 0.71875, "learning_rate": 9.953837720187742e-05, "loss": 0.3658, "step": 65410 }, { "epoch": 87.22666666666667, "grad_norm": 0.79296875, "learning_rate": 9.953823517336069e-05, "loss": 0.3773, "step": 65420 }, { "epoch": 87.24, "grad_norm": 0.78125, "learning_rate": 9.953809312309957e-05, "loss": 0.3631, "step": 65430 }, { "epoch": 87.25333333333333, "grad_norm": 0.66796875, "learning_rate": 9.953795105109411e-05, "loss": 0.3655, "step": 65440 }, { "epoch": 87.26666666666667, "grad_norm": 0.75390625, "learning_rate": 9.95378089573444e-05, "loss": 0.3684, "step": 65450 }, { "epoch": 87.28, "grad_norm": 0.83984375, "learning_rate": 9.953766684185046e-05, "loss": 0.3964, "step": 65460 }, { "epoch": 87.29333333333334, "grad_norm": 0.67578125, "learning_rate": 9.953752470461239e-05, "loss": 0.3546, "step": 65470 }, { "epoch": 87.30666666666667, "grad_norm": 0.69921875, "learning_rate": 9.953738254563023e-05, "loss": 0.3779, "step": 65480 }, { "epoch": 87.32, "grad_norm": 0.62109375, "learning_rate": 9.953724036490404e-05, "loss": 0.382, "step": 65490 }, { "epoch": 87.33333333333333, "grad_norm": 0.76171875, "learning_rate": 9.95370981624339e-05, "loss": 0.3811, "step": 65500 }, { "epoch": 87.34666666666666, "grad_norm": 0.86328125, "learning_rate": 9.953695593821986e-05, "loss": 0.3716, "step": 65510 }, { "epoch": 87.36, "grad_norm": 0.71484375, "learning_rate": 9.9536813692262e-05, "loss": 0.3721, "step": 65520 }, { "epoch": 87.37333333333333, "grad_norm": 0.66015625, "learning_rate": 9.953667142456036e-05, "loss": 0.3753, "step": 65530 }, { "epoch": 87.38666666666667, "grad_norm": 0.82421875, "learning_rate": 9.9536529135115e-05, "loss": 0.3637, "step": 65540 }, { "epoch": 87.4, "grad_norm": 0.7109375, "learning_rate": 9.9536386823926e-05, "loss": 0.3738, "step": 65550 }, { "epoch": 87.41333333333333, "grad_norm": 0.69921875, "learning_rate": 9.953624449099341e-05, "loss": 0.3787, "step": 65560 }, { "epoch": 87.42666666666666, "grad_norm": 0.671875, "learning_rate": 9.953610213631732e-05, "loss": 0.3806, "step": 65570 }, { "epoch": 87.44, "grad_norm": 0.74609375, "learning_rate": 9.953595975989775e-05, "loss": 0.3925, "step": 65580 }, { "epoch": 87.45333333333333, "grad_norm": 0.78125, "learning_rate": 9.95358173617348e-05, "loss": 0.3807, "step": 65590 }, { "epoch": 87.46666666666667, "grad_norm": 0.71484375, "learning_rate": 9.953567494182849e-05, "loss": 0.3881, "step": 65600 }, { "epoch": 87.48, "grad_norm": 0.75, "learning_rate": 9.953553250017894e-05, "loss": 0.3709, "step": 65610 }, { "epoch": 87.49333333333334, "grad_norm": 0.73046875, "learning_rate": 9.953539003678615e-05, "loss": 0.3834, "step": 65620 }, { "epoch": 87.50666666666666, "grad_norm": 0.78125, "learning_rate": 9.953524755165024e-05, "loss": 0.3828, "step": 65630 }, { "epoch": 87.52, "grad_norm": 0.6953125, "learning_rate": 9.953510504477124e-05, "loss": 0.3724, "step": 65640 }, { "epoch": 87.53333333333333, "grad_norm": 0.80859375, "learning_rate": 9.953496251614921e-05, "loss": 0.3748, "step": 65650 }, { "epoch": 87.54666666666667, "grad_norm": 0.8515625, "learning_rate": 9.953481996578422e-05, "loss": 0.3748, "step": 65660 }, { "epoch": 87.56, "grad_norm": 0.6484375, "learning_rate": 9.953467739367635e-05, "loss": 0.3701, "step": 65670 }, { "epoch": 87.57333333333334, "grad_norm": 0.79296875, "learning_rate": 9.953453479982563e-05, "loss": 0.3741, "step": 65680 }, { "epoch": 87.58666666666667, "grad_norm": 0.6328125, "learning_rate": 9.953439218423215e-05, "loss": 0.3643, "step": 65690 }, { "epoch": 87.6, "grad_norm": 0.67578125, "learning_rate": 9.953424954689595e-05, "loss": 0.3658, "step": 65700 }, { "epoch": 87.61333333333333, "grad_norm": 0.625, "learning_rate": 9.953410688781712e-05, "loss": 0.3584, "step": 65710 }, { "epoch": 87.62666666666667, "grad_norm": 0.58984375, "learning_rate": 9.953396420699568e-05, "loss": 0.3619, "step": 65720 }, { "epoch": 87.64, "grad_norm": 0.76953125, "learning_rate": 9.953382150443175e-05, "loss": 0.3709, "step": 65730 }, { "epoch": 87.65333333333334, "grad_norm": 0.77734375, "learning_rate": 9.953367878012534e-05, "loss": 0.381, "step": 65740 }, { "epoch": 87.66666666666667, "grad_norm": 0.68359375, "learning_rate": 9.953353603407655e-05, "loss": 0.3713, "step": 65750 }, { "epoch": 87.68, "grad_norm": 0.75390625, "learning_rate": 9.953339326628542e-05, "loss": 0.3602, "step": 65760 }, { "epoch": 87.69333333333333, "grad_norm": 0.61328125, "learning_rate": 9.953325047675202e-05, "loss": 0.371, "step": 65770 }, { "epoch": 87.70666666666666, "grad_norm": 0.8828125, "learning_rate": 9.953310766547641e-05, "loss": 0.3621, "step": 65780 }, { "epoch": 87.72, "grad_norm": 0.84765625, "learning_rate": 9.953296483245865e-05, "loss": 0.3848, "step": 65790 }, { "epoch": 87.73333333333333, "grad_norm": 0.80078125, "learning_rate": 9.953282197769882e-05, "loss": 0.3797, "step": 65800 }, { "epoch": 87.74666666666667, "grad_norm": 0.6796875, "learning_rate": 9.953267910119697e-05, "loss": 0.3817, "step": 65810 }, { "epoch": 87.76, "grad_norm": 0.76171875, "learning_rate": 9.953253620295315e-05, "loss": 0.3955, "step": 65820 }, { "epoch": 87.77333333333333, "grad_norm": 0.71875, "learning_rate": 9.953239328296745e-05, "loss": 0.3792, "step": 65830 }, { "epoch": 87.78666666666666, "grad_norm": 0.6640625, "learning_rate": 9.953225034123992e-05, "loss": 0.3816, "step": 65840 }, { "epoch": 87.8, "grad_norm": 0.77734375, "learning_rate": 9.953210737777061e-05, "loss": 0.3801, "step": 65850 }, { "epoch": 87.81333333333333, "grad_norm": 0.83203125, "learning_rate": 9.95319643925596e-05, "loss": 0.3539, "step": 65860 }, { "epoch": 87.82666666666667, "grad_norm": 0.68359375, "learning_rate": 9.953182138560694e-05, "loss": 0.3617, "step": 65870 }, { "epoch": 87.84, "grad_norm": 0.73046875, "learning_rate": 9.953167835691272e-05, "loss": 0.3741, "step": 65880 }, { "epoch": 87.85333333333334, "grad_norm": 0.71484375, "learning_rate": 9.953153530647698e-05, "loss": 0.3693, "step": 65890 }, { "epoch": 87.86666666666666, "grad_norm": 0.7578125, "learning_rate": 9.953139223429977e-05, "loss": 0.3744, "step": 65900 }, { "epoch": 87.88, "grad_norm": 0.66796875, "learning_rate": 9.953124914038117e-05, "loss": 0.3563, "step": 65910 }, { "epoch": 87.89333333333333, "grad_norm": 0.71875, "learning_rate": 9.953110602472125e-05, "loss": 0.3681, "step": 65920 }, { "epoch": 87.90666666666667, "grad_norm": 0.74609375, "learning_rate": 9.953096288732007e-05, "loss": 0.3731, "step": 65930 }, { "epoch": 87.92, "grad_norm": 0.78125, "learning_rate": 9.953081972817766e-05, "loss": 0.3752, "step": 65940 }, { "epoch": 87.93333333333334, "grad_norm": 0.6953125, "learning_rate": 9.953067654729413e-05, "loss": 0.3707, "step": 65950 }, { "epoch": 87.94666666666667, "grad_norm": 0.6953125, "learning_rate": 9.953053334466951e-05, "loss": 0.3704, "step": 65960 }, { "epoch": 87.96, "grad_norm": 0.67578125, "learning_rate": 9.953039012030389e-05, "loss": 0.3692, "step": 65970 }, { "epoch": 87.97333333333333, "grad_norm": 0.90234375, "learning_rate": 9.953024687419732e-05, "loss": 0.3926, "step": 65980 }, { "epoch": 87.98666666666666, "grad_norm": 0.7265625, "learning_rate": 9.953010360634985e-05, "loss": 0.3627, "step": 65990 }, { "epoch": 88.0, "grad_norm": 0.6875, "learning_rate": 9.952996031676157e-05, "loss": 0.3624, "step": 66000 }, { "epoch": 88.0, "eval_loss": 0.4212527573108673, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3954, "eval_samples_per_second": 1.539, "eval_steps_per_second": 0.096, "step": 66000 }, { "epoch": 88.01333333333334, "grad_norm": 0.77734375, "learning_rate": 9.952981700543251e-05, "loss": 0.3796, "step": 66010 }, { "epoch": 88.02666666666667, "grad_norm": 0.71875, "learning_rate": 9.952967367236274e-05, "loss": 0.3941, "step": 66020 }, { "epoch": 88.04, "grad_norm": 0.7265625, "learning_rate": 9.952953031755234e-05, "loss": 0.407, "step": 66030 }, { "epoch": 88.05333333333333, "grad_norm": 0.7578125, "learning_rate": 9.952938694100138e-05, "loss": 0.3909, "step": 66040 }, { "epoch": 88.06666666666666, "grad_norm": 0.83203125, "learning_rate": 9.95292435427099e-05, "loss": 0.3795, "step": 66050 }, { "epoch": 88.08, "grad_norm": 0.69921875, "learning_rate": 9.952910012267797e-05, "loss": 0.3829, "step": 66060 }, { "epoch": 88.09333333333333, "grad_norm": 0.72265625, "learning_rate": 9.952895668090566e-05, "loss": 0.3846, "step": 66070 }, { "epoch": 88.10666666666667, "grad_norm": 0.7265625, "learning_rate": 9.952881321739303e-05, "loss": 0.3725, "step": 66080 }, { "epoch": 88.12, "grad_norm": 0.71875, "learning_rate": 9.952866973214012e-05, "loss": 0.3756, "step": 66090 }, { "epoch": 88.13333333333334, "grad_norm": 0.6875, "learning_rate": 9.952852622514703e-05, "loss": 0.3677, "step": 66100 }, { "epoch": 88.14666666666666, "grad_norm": 0.734375, "learning_rate": 9.95283826964138e-05, "loss": 0.3866, "step": 66110 }, { "epoch": 88.16, "grad_norm": 0.69140625, "learning_rate": 9.952823914594052e-05, "loss": 0.3817, "step": 66120 }, { "epoch": 88.17333333333333, "grad_norm": 0.77734375, "learning_rate": 9.95280955737272e-05, "loss": 0.3761, "step": 66130 }, { "epoch": 88.18666666666667, "grad_norm": 0.71875, "learning_rate": 9.952795197977395e-05, "loss": 0.373, "step": 66140 }, { "epoch": 88.2, "grad_norm": 0.7265625, "learning_rate": 9.952780836408082e-05, "loss": 0.3655, "step": 66150 }, { "epoch": 88.21333333333334, "grad_norm": 0.80078125, "learning_rate": 9.952766472664787e-05, "loss": 0.3666, "step": 66160 }, { "epoch": 88.22666666666667, "grad_norm": 0.7421875, "learning_rate": 9.952752106747518e-05, "loss": 0.3777, "step": 66170 }, { "epoch": 88.24, "grad_norm": 0.77734375, "learning_rate": 9.952737738656277e-05, "loss": 0.3629, "step": 66180 }, { "epoch": 88.25333333333333, "grad_norm": 0.74609375, "learning_rate": 9.952723368391075e-05, "loss": 0.3647, "step": 66190 }, { "epoch": 88.26666666666667, "grad_norm": 0.6875, "learning_rate": 9.952708995951915e-05, "loss": 0.3677, "step": 66200 }, { "epoch": 88.28, "grad_norm": 0.71484375, "learning_rate": 9.952694621338805e-05, "loss": 0.396, "step": 66210 }, { "epoch": 88.29333333333334, "grad_norm": 0.7109375, "learning_rate": 9.952680244551751e-05, "loss": 0.3547, "step": 66220 }, { "epoch": 88.30666666666667, "grad_norm": 0.6875, "learning_rate": 9.95266586559076e-05, "loss": 0.3782, "step": 66230 }, { "epoch": 88.32, "grad_norm": 0.640625, "learning_rate": 9.952651484455837e-05, "loss": 0.3809, "step": 66240 }, { "epoch": 88.33333333333333, "grad_norm": 0.76171875, "learning_rate": 9.952637101146989e-05, "loss": 0.3808, "step": 66250 }, { "epoch": 88.34666666666666, "grad_norm": 0.94140625, "learning_rate": 9.952622715664223e-05, "loss": 0.3715, "step": 66260 }, { "epoch": 88.36, "grad_norm": 0.84375, "learning_rate": 9.952608328007544e-05, "loss": 0.3727, "step": 66270 }, { "epoch": 88.37333333333333, "grad_norm": 0.671875, "learning_rate": 9.952593938176959e-05, "loss": 0.3762, "step": 66280 }, { "epoch": 88.38666666666667, "grad_norm": 0.84375, "learning_rate": 9.952579546172474e-05, "loss": 0.3639, "step": 66290 }, { "epoch": 88.4, "grad_norm": 0.6796875, "learning_rate": 9.952565151994095e-05, "loss": 0.3741, "step": 66300 }, { "epoch": 88.41333333333333, "grad_norm": 0.6953125, "learning_rate": 9.95255075564183e-05, "loss": 0.3785, "step": 66310 }, { "epoch": 88.42666666666666, "grad_norm": 0.6484375, "learning_rate": 9.952536357115683e-05, "loss": 0.3813, "step": 66320 }, { "epoch": 88.44, "grad_norm": 0.828125, "learning_rate": 9.952521956415662e-05, "loss": 0.3933, "step": 66330 }, { "epoch": 88.45333333333333, "grad_norm": 0.78125, "learning_rate": 9.952507553541772e-05, "loss": 0.3804, "step": 66340 }, { "epoch": 88.46666666666667, "grad_norm": 0.68359375, "learning_rate": 9.95249314849402e-05, "loss": 0.3879, "step": 66350 }, { "epoch": 88.48, "grad_norm": 0.6953125, "learning_rate": 9.952478741272413e-05, "loss": 0.3709, "step": 66360 }, { "epoch": 88.49333333333334, "grad_norm": 0.7109375, "learning_rate": 9.952464331876958e-05, "loss": 0.3828, "step": 66370 }, { "epoch": 88.50666666666666, "grad_norm": 0.6953125, "learning_rate": 9.952449920307659e-05, "loss": 0.3812, "step": 66380 }, { "epoch": 88.52, "grad_norm": 0.66015625, "learning_rate": 9.952435506564524e-05, "loss": 0.3719, "step": 66390 }, { "epoch": 88.53333333333333, "grad_norm": 0.72265625, "learning_rate": 9.952421090647557e-05, "loss": 0.3746, "step": 66400 }, { "epoch": 88.54666666666667, "grad_norm": 0.84375, "learning_rate": 9.952406672556766e-05, "loss": 0.3753, "step": 66410 }, { "epoch": 88.56, "grad_norm": 0.6796875, "learning_rate": 9.95239225229216e-05, "loss": 0.3692, "step": 66420 }, { "epoch": 88.57333333333334, "grad_norm": 0.78515625, "learning_rate": 9.952377829853741e-05, "loss": 0.3745, "step": 66430 }, { "epoch": 88.58666666666667, "grad_norm": 0.6796875, "learning_rate": 9.952363405241516e-05, "loss": 0.3643, "step": 66440 }, { "epoch": 88.6, "grad_norm": 0.6640625, "learning_rate": 9.952348978455494e-05, "loss": 0.3656, "step": 66450 }, { "epoch": 88.61333333333333, "grad_norm": 0.65625, "learning_rate": 9.95233454949568e-05, "loss": 0.357, "step": 66460 }, { "epoch": 88.62666666666667, "grad_norm": 0.65234375, "learning_rate": 9.952320118362079e-05, "loss": 0.3617, "step": 66470 }, { "epoch": 88.64, "grad_norm": 0.78125, "learning_rate": 9.952305685054699e-05, "loss": 0.37, "step": 66480 }, { "epoch": 88.65333333333334, "grad_norm": 0.7265625, "learning_rate": 9.952291249573544e-05, "loss": 0.3808, "step": 66490 }, { "epoch": 88.66666666666667, "grad_norm": 0.71484375, "learning_rate": 9.952276811918624e-05, "loss": 0.3717, "step": 66500 }, { "epoch": 88.68, "grad_norm": 0.73828125, "learning_rate": 9.952262372089943e-05, "loss": 0.3601, "step": 66510 }, { "epoch": 88.69333333333333, "grad_norm": 0.68359375, "learning_rate": 9.952247930087509e-05, "loss": 0.3712, "step": 66520 }, { "epoch": 88.70666666666666, "grad_norm": 0.78125, "learning_rate": 9.952233485911324e-05, "loss": 0.3614, "step": 66530 }, { "epoch": 88.72, "grad_norm": 0.74609375, "learning_rate": 9.952219039561399e-05, "loss": 0.3832, "step": 66540 }, { "epoch": 88.73333333333333, "grad_norm": 0.7109375, "learning_rate": 9.952204591037739e-05, "loss": 0.3793, "step": 66550 }, { "epoch": 88.74666666666667, "grad_norm": 0.6953125, "learning_rate": 9.95219014034035e-05, "loss": 0.3827, "step": 66560 }, { "epoch": 88.76, "grad_norm": 0.7265625, "learning_rate": 9.952175687469238e-05, "loss": 0.394, "step": 66570 }, { "epoch": 88.77333333333333, "grad_norm": 0.796875, "learning_rate": 9.952161232424411e-05, "loss": 0.3798, "step": 66580 }, { "epoch": 88.78666666666666, "grad_norm": 0.6640625, "learning_rate": 9.952146775205872e-05, "loss": 0.3813, "step": 66590 }, { "epoch": 88.8, "grad_norm": 0.79296875, "learning_rate": 9.952132315813632e-05, "loss": 0.379, "step": 66600 }, { "epoch": 88.81333333333333, "grad_norm": 0.8046875, "learning_rate": 9.952117854247692e-05, "loss": 0.354, "step": 66610 }, { "epoch": 88.82666666666667, "grad_norm": 0.71875, "learning_rate": 9.952103390508063e-05, "loss": 0.3609, "step": 66620 }, { "epoch": 88.84, "grad_norm": 0.7265625, "learning_rate": 9.952088924594749e-05, "loss": 0.3745, "step": 66630 }, { "epoch": 88.85333333333334, "grad_norm": 0.71484375, "learning_rate": 9.952074456507756e-05, "loss": 0.3697, "step": 66640 }, { "epoch": 88.86666666666666, "grad_norm": 0.75, "learning_rate": 9.952059986247093e-05, "loss": 0.3746, "step": 66650 }, { "epoch": 88.88, "grad_norm": 0.66796875, "learning_rate": 9.952045513812764e-05, "loss": 0.3551, "step": 66660 }, { "epoch": 88.89333333333333, "grad_norm": 0.625, "learning_rate": 9.952031039204774e-05, "loss": 0.3683, "step": 66670 }, { "epoch": 88.90666666666667, "grad_norm": 0.7421875, "learning_rate": 9.952016562423133e-05, "loss": 0.3726, "step": 66680 }, { "epoch": 88.92, "grad_norm": 0.765625, "learning_rate": 9.952002083467846e-05, "loss": 0.3752, "step": 66690 }, { "epoch": 88.93333333333334, "grad_norm": 0.64453125, "learning_rate": 9.951987602338919e-05, "loss": 0.3702, "step": 66700 }, { "epoch": 88.94666666666667, "grad_norm": 0.70703125, "learning_rate": 9.951973119036358e-05, "loss": 0.3698, "step": 66710 }, { "epoch": 88.96, "grad_norm": 0.7109375, "learning_rate": 9.951958633560167e-05, "loss": 0.3684, "step": 66720 }, { "epoch": 88.97333333333333, "grad_norm": 0.984375, "learning_rate": 9.951944145910359e-05, "loss": 0.3926, "step": 66730 }, { "epoch": 88.98666666666666, "grad_norm": 0.79296875, "learning_rate": 9.951929656086933e-05, "loss": 0.362, "step": 66740 }, { "epoch": 89.0, "grad_norm": 0.7890625, "learning_rate": 9.951915164089902e-05, "loss": 0.3619, "step": 66750 }, { "epoch": 89.0, "eval_loss": 0.4201418459415436, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4011, "eval_samples_per_second": 1.538, "eval_steps_per_second": 0.096, "step": 66750 }, { "epoch": 89.01333333333334, "grad_norm": 0.8359375, "learning_rate": 9.951900669919267e-05, "loss": 0.3793, "step": 66760 }, { "epoch": 89.02666666666667, "grad_norm": 0.7265625, "learning_rate": 9.951886173575038e-05, "loss": 0.3921, "step": 66770 }, { "epoch": 89.04, "grad_norm": 0.69140625, "learning_rate": 9.951871675057219e-05, "loss": 0.4059, "step": 66780 }, { "epoch": 89.05333333333333, "grad_norm": 0.71875, "learning_rate": 9.951857174365817e-05, "loss": 0.3907, "step": 66790 }, { "epoch": 89.06666666666666, "grad_norm": 0.84765625, "learning_rate": 9.951842671500839e-05, "loss": 0.3791, "step": 66800 }, { "epoch": 89.08, "grad_norm": 0.734375, "learning_rate": 9.95182816646229e-05, "loss": 0.382, "step": 66810 }, { "epoch": 89.09333333333333, "grad_norm": 0.734375, "learning_rate": 9.951813659250177e-05, "loss": 0.3846, "step": 66820 }, { "epoch": 89.10666666666667, "grad_norm": 0.68359375, "learning_rate": 9.95179914986451e-05, "loss": 0.3729, "step": 66830 }, { "epoch": 89.12, "grad_norm": 0.7265625, "learning_rate": 9.951784638305288e-05, "loss": 0.3744, "step": 66840 }, { "epoch": 89.13333333333334, "grad_norm": 0.74609375, "learning_rate": 9.951770124572524e-05, "loss": 0.3673, "step": 66850 }, { "epoch": 89.14666666666666, "grad_norm": 0.71875, "learning_rate": 9.951755608666221e-05, "loss": 0.386, "step": 66860 }, { "epoch": 89.16, "grad_norm": 0.6796875, "learning_rate": 9.951741090586386e-05, "loss": 0.3811, "step": 66870 }, { "epoch": 89.17333333333333, "grad_norm": 0.80859375, "learning_rate": 9.951726570333026e-05, "loss": 0.3765, "step": 66880 }, { "epoch": 89.18666666666667, "grad_norm": 0.6953125, "learning_rate": 9.951712047906145e-05, "loss": 0.3724, "step": 66890 }, { "epoch": 89.2, "grad_norm": 0.76953125, "learning_rate": 9.951697523305755e-05, "loss": 0.365, "step": 66900 }, { "epoch": 89.21333333333334, "grad_norm": 0.80078125, "learning_rate": 9.951682996531855e-05, "loss": 0.3658, "step": 66910 }, { "epoch": 89.22666666666667, "grad_norm": 0.78515625, "learning_rate": 9.951668467584456e-05, "loss": 0.3773, "step": 66920 }, { "epoch": 89.24, "grad_norm": 0.7578125, "learning_rate": 9.951653936463565e-05, "loss": 0.3628, "step": 66930 }, { "epoch": 89.25333333333333, "grad_norm": 0.72265625, "learning_rate": 9.951639403169186e-05, "loss": 0.3648, "step": 66940 }, { "epoch": 89.26666666666667, "grad_norm": 0.73046875, "learning_rate": 9.951624867701325e-05, "loss": 0.368, "step": 66950 }, { "epoch": 89.28, "grad_norm": 0.72265625, "learning_rate": 9.95161033005999e-05, "loss": 0.3967, "step": 66960 }, { "epoch": 89.29333333333334, "grad_norm": 0.73828125, "learning_rate": 9.951595790245187e-05, "loss": 0.3549, "step": 66970 }, { "epoch": 89.30666666666667, "grad_norm": 0.7265625, "learning_rate": 9.951581248256923e-05, "loss": 0.3781, "step": 66980 }, { "epoch": 89.32, "grad_norm": 0.6171875, "learning_rate": 9.951566704095203e-05, "loss": 0.381, "step": 66990 }, { "epoch": 89.33333333333333, "grad_norm": 0.71875, "learning_rate": 9.951552157760036e-05, "loss": 0.3801, "step": 67000 }, { "epoch": 89.34666666666666, "grad_norm": 0.765625, "learning_rate": 9.951537609251424e-05, "loss": 0.3717, "step": 67010 }, { "epoch": 89.36, "grad_norm": 0.7421875, "learning_rate": 9.951523058569377e-05, "loss": 0.3726, "step": 67020 }, { "epoch": 89.37333333333333, "grad_norm": 0.65625, "learning_rate": 9.9515085057139e-05, "loss": 0.3755, "step": 67030 }, { "epoch": 89.38666666666667, "grad_norm": 0.78125, "learning_rate": 9.951493950684999e-05, "loss": 0.3629, "step": 67040 }, { "epoch": 89.4, "grad_norm": 0.74609375, "learning_rate": 9.951479393482683e-05, "loss": 0.3733, "step": 67050 }, { "epoch": 89.41333333333333, "grad_norm": 0.65234375, "learning_rate": 9.951464834106953e-05, "loss": 0.3785, "step": 67060 }, { "epoch": 89.42666666666666, "grad_norm": 0.6796875, "learning_rate": 9.951450272557822e-05, "loss": 0.381, "step": 67070 }, { "epoch": 89.44, "grad_norm": 0.7578125, "learning_rate": 9.951435708835292e-05, "loss": 0.3925, "step": 67080 }, { "epoch": 89.45333333333333, "grad_norm": 0.81640625, "learning_rate": 9.95142114293937e-05, "loss": 0.3804, "step": 67090 }, { "epoch": 89.46666666666667, "grad_norm": 0.70703125, "learning_rate": 9.951406574870063e-05, "loss": 0.3875, "step": 67100 }, { "epoch": 89.48, "grad_norm": 0.765625, "learning_rate": 9.951392004627378e-05, "loss": 0.3705, "step": 67110 }, { "epoch": 89.49333333333334, "grad_norm": 0.734375, "learning_rate": 9.95137743221132e-05, "loss": 0.3815, "step": 67120 }, { "epoch": 89.50666666666666, "grad_norm": 0.72265625, "learning_rate": 9.951362857621898e-05, "loss": 0.3822, "step": 67130 }, { "epoch": 89.52, "grad_norm": 0.62109375, "learning_rate": 9.951348280859114e-05, "loss": 0.3721, "step": 67140 }, { "epoch": 89.53333333333333, "grad_norm": 0.73828125, "learning_rate": 9.951333701922979e-05, "loss": 0.3728, "step": 67150 }, { "epoch": 89.54666666666667, "grad_norm": 0.8125, "learning_rate": 9.951319120813496e-05, "loss": 0.3744, "step": 67160 }, { "epoch": 89.56, "grad_norm": 0.71484375, "learning_rate": 9.951304537530675e-05, "loss": 0.3687, "step": 67170 }, { "epoch": 89.57333333333334, "grad_norm": 0.78515625, "learning_rate": 9.951289952074517e-05, "loss": 0.3745, "step": 67180 }, { "epoch": 89.58666666666667, "grad_norm": 0.69921875, "learning_rate": 9.951275364445035e-05, "loss": 0.3638, "step": 67190 }, { "epoch": 89.6, "grad_norm": 0.69921875, "learning_rate": 9.951260774642228e-05, "loss": 0.3648, "step": 67200 }, { "epoch": 89.61333333333333, "grad_norm": 0.671875, "learning_rate": 9.951246182666109e-05, "loss": 0.3567, "step": 67210 }, { "epoch": 89.62666666666667, "grad_norm": 0.6484375, "learning_rate": 9.951231588516681e-05, "loss": 0.3618, "step": 67220 }, { "epoch": 89.64, "grad_norm": 0.73046875, "learning_rate": 9.951216992193951e-05, "loss": 0.3694, "step": 67230 }, { "epoch": 89.65333333333334, "grad_norm": 0.82421875, "learning_rate": 9.951202393697926e-05, "loss": 0.3815, "step": 67240 }, { "epoch": 89.66666666666667, "grad_norm": 0.671875, "learning_rate": 9.951187793028612e-05, "loss": 0.3714, "step": 67250 }, { "epoch": 89.68, "grad_norm": 0.83984375, "learning_rate": 9.951173190186015e-05, "loss": 0.3611, "step": 67260 }, { "epoch": 89.69333333333333, "grad_norm": 0.66796875, "learning_rate": 9.951158585170141e-05, "loss": 0.3707, "step": 67270 }, { "epoch": 89.70666666666666, "grad_norm": 0.8046875, "learning_rate": 9.951143977980998e-05, "loss": 0.3619, "step": 67280 }, { "epoch": 89.72, "grad_norm": 0.7421875, "learning_rate": 9.951129368618594e-05, "loss": 0.3829, "step": 67290 }, { "epoch": 89.73333333333333, "grad_norm": 0.73828125, "learning_rate": 9.951114757082931e-05, "loss": 0.3782, "step": 67300 }, { "epoch": 89.74666666666667, "grad_norm": 0.6796875, "learning_rate": 9.951100143374017e-05, "loss": 0.3814, "step": 67310 }, { "epoch": 89.76, "grad_norm": 0.78515625, "learning_rate": 9.95108552749186e-05, "loss": 0.395, "step": 67320 }, { "epoch": 89.77333333333333, "grad_norm": 0.91015625, "learning_rate": 9.951070909436463e-05, "loss": 0.3785, "step": 67330 }, { "epoch": 89.78666666666666, "grad_norm": 0.72265625, "learning_rate": 9.951056289207837e-05, "loss": 0.3816, "step": 67340 }, { "epoch": 89.8, "grad_norm": 0.77734375, "learning_rate": 9.951041666805985e-05, "loss": 0.3796, "step": 67350 }, { "epoch": 89.81333333333333, "grad_norm": 0.78515625, "learning_rate": 9.951027042230915e-05, "loss": 0.3538, "step": 67360 }, { "epoch": 89.82666666666667, "grad_norm": 0.68359375, "learning_rate": 9.951012415482633e-05, "loss": 0.3606, "step": 67370 }, { "epoch": 89.84, "grad_norm": 0.81640625, "learning_rate": 9.950997786561145e-05, "loss": 0.3733, "step": 67380 }, { "epoch": 89.85333333333334, "grad_norm": 0.734375, "learning_rate": 9.950983155466458e-05, "loss": 0.3685, "step": 67390 }, { "epoch": 89.86666666666666, "grad_norm": 0.8046875, "learning_rate": 9.950968522198579e-05, "loss": 0.3748, "step": 67400 }, { "epoch": 89.88, "grad_norm": 0.71484375, "learning_rate": 9.950953886757513e-05, "loss": 0.3551, "step": 67410 }, { "epoch": 89.89333333333333, "grad_norm": 0.71484375, "learning_rate": 9.950939249143265e-05, "loss": 0.3678, "step": 67420 }, { "epoch": 89.90666666666667, "grad_norm": 0.75, "learning_rate": 9.950924609355847e-05, "loss": 0.3726, "step": 67430 }, { "epoch": 89.92, "grad_norm": 0.80078125, "learning_rate": 9.950909967395259e-05, "loss": 0.3747, "step": 67440 }, { "epoch": 89.93333333333334, "grad_norm": 0.765625, "learning_rate": 9.950895323261513e-05, "loss": 0.3702, "step": 67450 }, { "epoch": 89.94666666666667, "grad_norm": 0.79296875, "learning_rate": 9.95088067695461e-05, "loss": 0.3693, "step": 67460 }, { "epoch": 89.96, "grad_norm": 0.65625, "learning_rate": 9.950866028474562e-05, "loss": 0.3675, "step": 67470 }, { "epoch": 89.97333333333333, "grad_norm": 0.9296875, "learning_rate": 9.950851377821371e-05, "loss": 0.3913, "step": 67480 }, { "epoch": 89.98666666666666, "grad_norm": 0.81640625, "learning_rate": 9.950836724995044e-05, "loss": 0.3617, "step": 67490 }, { "epoch": 90.0, "grad_norm": 0.72265625, "learning_rate": 9.95082206999559e-05, "loss": 0.362, "step": 67500 }, { "epoch": 90.0, "eval_loss": 0.42008763551712036, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.422, "eval_samples_per_second": 1.535, "eval_steps_per_second": 0.096, "step": 67500 }, { "epoch": 90.01333333333334, "grad_norm": 0.76171875, "learning_rate": 9.950807412823015e-05, "loss": 0.379, "step": 67510 }, { "epoch": 90.02666666666667, "grad_norm": 0.73046875, "learning_rate": 9.950792753477322e-05, "loss": 0.3926, "step": 67520 }, { "epoch": 90.04, "grad_norm": 0.7265625, "learning_rate": 9.950778091958522e-05, "loss": 0.4062, "step": 67530 }, { "epoch": 90.05333333333333, "grad_norm": 0.78515625, "learning_rate": 9.950763428266618e-05, "loss": 0.3906, "step": 67540 }, { "epoch": 90.06666666666666, "grad_norm": 0.7734375, "learning_rate": 9.950748762401617e-05, "loss": 0.3798, "step": 67550 }, { "epoch": 90.08, "grad_norm": 0.75, "learning_rate": 9.950734094363527e-05, "loss": 0.3826, "step": 67560 }, { "epoch": 90.09333333333333, "grad_norm": 0.79296875, "learning_rate": 9.950719424152354e-05, "loss": 0.3837, "step": 67570 }, { "epoch": 90.10666666666667, "grad_norm": 0.67578125, "learning_rate": 9.950704751768103e-05, "loss": 0.3722, "step": 67580 }, { "epoch": 90.12, "grad_norm": 0.75, "learning_rate": 9.950690077210783e-05, "loss": 0.3738, "step": 67590 }, { "epoch": 90.13333333333334, "grad_norm": 0.76171875, "learning_rate": 9.950675400480397e-05, "loss": 0.3666, "step": 67600 }, { "epoch": 90.14666666666666, "grad_norm": 0.72265625, "learning_rate": 9.950660721576955e-05, "loss": 0.3853, "step": 67610 }, { "epoch": 90.16, "grad_norm": 0.67578125, "learning_rate": 9.95064604050046e-05, "loss": 0.381, "step": 67620 }, { "epoch": 90.17333333333333, "grad_norm": 0.74609375, "learning_rate": 9.95063135725092e-05, "loss": 0.3749, "step": 67630 }, { "epoch": 90.18666666666667, "grad_norm": 0.7109375, "learning_rate": 9.950616671828343e-05, "loss": 0.373, "step": 67640 }, { "epoch": 90.2, "grad_norm": 0.72265625, "learning_rate": 9.950601984232733e-05, "loss": 0.3645, "step": 67650 }, { "epoch": 90.21333333333334, "grad_norm": 0.80859375, "learning_rate": 9.950587294464099e-05, "loss": 0.3658, "step": 67660 }, { "epoch": 90.22666666666667, "grad_norm": 0.75, "learning_rate": 9.950572602522445e-05, "loss": 0.3764, "step": 67670 }, { "epoch": 90.24, "grad_norm": 0.7109375, "learning_rate": 9.950557908407779e-05, "loss": 0.362, "step": 67680 }, { "epoch": 90.25333333333333, "grad_norm": 0.69140625, "learning_rate": 9.950543212120106e-05, "loss": 0.3643, "step": 67690 }, { "epoch": 90.26666666666667, "grad_norm": 0.7109375, "learning_rate": 9.950528513659434e-05, "loss": 0.3677, "step": 67700 }, { "epoch": 90.28, "grad_norm": 0.75390625, "learning_rate": 9.950513813025768e-05, "loss": 0.3958, "step": 67710 }, { "epoch": 90.29333333333334, "grad_norm": 0.7265625, "learning_rate": 9.950499110219116e-05, "loss": 0.3543, "step": 67720 }, { "epoch": 90.30666666666667, "grad_norm": 0.703125, "learning_rate": 9.950484405239485e-05, "loss": 0.378, "step": 67730 }, { "epoch": 90.32, "grad_norm": 0.60546875, "learning_rate": 9.950469698086877e-05, "loss": 0.381, "step": 67740 }, { "epoch": 90.33333333333333, "grad_norm": 0.71484375, "learning_rate": 9.950454988761304e-05, "loss": 0.3801, "step": 67750 }, { "epoch": 90.34666666666666, "grad_norm": 0.8125, "learning_rate": 9.95044027726277e-05, "loss": 0.3707, "step": 67760 }, { "epoch": 90.36, "grad_norm": 0.71875, "learning_rate": 9.950425563591279e-05, "loss": 0.3719, "step": 67770 }, { "epoch": 90.37333333333333, "grad_norm": 0.69140625, "learning_rate": 9.950410847746842e-05, "loss": 0.3751, "step": 67780 }, { "epoch": 90.38666666666667, "grad_norm": 0.80859375, "learning_rate": 9.950396129729464e-05, "loss": 0.3643, "step": 67790 }, { "epoch": 90.4, "grad_norm": 0.80078125, "learning_rate": 9.95038140953915e-05, "loss": 0.3731, "step": 67800 }, { "epoch": 90.41333333333333, "grad_norm": 0.6328125, "learning_rate": 9.950366687175907e-05, "loss": 0.3783, "step": 67810 }, { "epoch": 90.42666666666666, "grad_norm": 0.703125, "learning_rate": 9.950351962639742e-05, "loss": 0.3803, "step": 67820 }, { "epoch": 90.44, "grad_norm": 0.73046875, "learning_rate": 9.950337235930662e-05, "loss": 0.3927, "step": 67830 }, { "epoch": 90.45333333333333, "grad_norm": 0.7421875, "learning_rate": 9.950322507048673e-05, "loss": 0.3792, "step": 67840 }, { "epoch": 90.46666666666667, "grad_norm": 0.70703125, "learning_rate": 9.950307775993778e-05, "loss": 0.3875, "step": 67850 }, { "epoch": 90.48, "grad_norm": 0.7734375, "learning_rate": 9.95029304276599e-05, "loss": 0.3706, "step": 67860 }, { "epoch": 90.49333333333334, "grad_norm": 0.73828125, "learning_rate": 9.950278307365312e-05, "loss": 0.3828, "step": 67870 }, { "epoch": 90.50666666666666, "grad_norm": 0.7578125, "learning_rate": 9.95026356979175e-05, "loss": 0.3805, "step": 67880 }, { "epoch": 90.52, "grad_norm": 0.64453125, "learning_rate": 9.95024883004531e-05, "loss": 0.3721, "step": 67890 }, { "epoch": 90.53333333333333, "grad_norm": 0.7109375, "learning_rate": 9.950234088126001e-05, "loss": 0.3726, "step": 67900 }, { "epoch": 90.54666666666667, "grad_norm": 0.87890625, "learning_rate": 9.950219344033828e-05, "loss": 0.3746, "step": 67910 }, { "epoch": 90.56, "grad_norm": 0.67578125, "learning_rate": 9.950204597768798e-05, "loss": 0.37, "step": 67920 }, { "epoch": 90.57333333333334, "grad_norm": 0.80078125, "learning_rate": 9.950189849330915e-05, "loss": 0.3742, "step": 67930 }, { "epoch": 90.58666666666667, "grad_norm": 0.6796875, "learning_rate": 9.950175098720188e-05, "loss": 0.3637, "step": 67940 }, { "epoch": 90.6, "grad_norm": 0.6875, "learning_rate": 9.950160345936623e-05, "loss": 0.3655, "step": 67950 }, { "epoch": 90.61333333333333, "grad_norm": 0.66015625, "learning_rate": 9.950145590980227e-05, "loss": 0.3572, "step": 67960 }, { "epoch": 90.62666666666667, "grad_norm": 0.65234375, "learning_rate": 9.950130833851006e-05, "loss": 0.3618, "step": 67970 }, { "epoch": 90.64, "grad_norm": 0.83203125, "learning_rate": 9.950116074548965e-05, "loss": 0.3699, "step": 67980 }, { "epoch": 90.65333333333334, "grad_norm": 0.7421875, "learning_rate": 9.950101313074115e-05, "loss": 0.38, "step": 67990 }, { "epoch": 90.66666666666667, "grad_norm": 0.69921875, "learning_rate": 9.950086549426455e-05, "loss": 0.3716, "step": 68000 }, { "epoch": 90.68, "grad_norm": 0.7421875, "learning_rate": 9.950071783605998e-05, "loss": 0.3599, "step": 68010 }, { "epoch": 90.69333333333333, "grad_norm": 0.76171875, "learning_rate": 9.950057015612748e-05, "loss": 0.3705, "step": 68020 }, { "epoch": 90.70666666666666, "grad_norm": 0.84375, "learning_rate": 9.950042245446711e-05, "loss": 0.3614, "step": 68030 }, { "epoch": 90.72, "grad_norm": 0.76953125, "learning_rate": 9.950027473107896e-05, "loss": 0.3829, "step": 68040 }, { "epoch": 90.73333333333333, "grad_norm": 0.7265625, "learning_rate": 9.950012698596307e-05, "loss": 0.3778, "step": 68050 }, { "epoch": 90.74666666666667, "grad_norm": 0.6640625, "learning_rate": 9.94999792191195e-05, "loss": 0.3813, "step": 68060 }, { "epoch": 90.76, "grad_norm": 0.8203125, "learning_rate": 9.949983143054833e-05, "loss": 0.3948, "step": 68070 }, { "epoch": 90.77333333333333, "grad_norm": 0.76953125, "learning_rate": 9.949968362024965e-05, "loss": 0.3784, "step": 68080 }, { "epoch": 90.78666666666666, "grad_norm": 0.70703125, "learning_rate": 9.949953578822346e-05, "loss": 0.3813, "step": 68090 }, { "epoch": 90.8, "grad_norm": 0.76171875, "learning_rate": 9.949938793446987e-05, "loss": 0.3795, "step": 68100 }, { "epoch": 90.81333333333333, "grad_norm": 0.83984375, "learning_rate": 9.949924005898894e-05, "loss": 0.3527, "step": 68110 }, { "epoch": 90.82666666666667, "grad_norm": 0.65234375, "learning_rate": 9.949909216178073e-05, "loss": 0.361, "step": 68120 }, { "epoch": 90.84, "grad_norm": 0.78125, "learning_rate": 9.949894424284532e-05, "loss": 0.373, "step": 68130 }, { "epoch": 90.85333333333334, "grad_norm": 0.75390625, "learning_rate": 9.949879630218275e-05, "loss": 0.37, "step": 68140 }, { "epoch": 90.86666666666666, "grad_norm": 0.765625, "learning_rate": 9.949864833979308e-05, "loss": 0.3739, "step": 68150 }, { "epoch": 90.88, "grad_norm": 0.7578125, "learning_rate": 9.949850035567642e-05, "loss": 0.3549, "step": 68160 }, { "epoch": 90.89333333333333, "grad_norm": 0.640625, "learning_rate": 9.949835234983278e-05, "loss": 0.3681, "step": 68170 }, { "epoch": 90.90666666666667, "grad_norm": 0.71484375, "learning_rate": 9.949820432226226e-05, "loss": 0.3728, "step": 68180 }, { "epoch": 90.92, "grad_norm": 0.73046875, "learning_rate": 9.949805627296494e-05, "loss": 0.3738, "step": 68190 }, { "epoch": 90.93333333333334, "grad_norm": 0.671875, "learning_rate": 9.949790820194083e-05, "loss": 0.3696, "step": 68200 }, { "epoch": 90.94666666666667, "grad_norm": 0.73046875, "learning_rate": 9.949776010919004e-05, "loss": 0.3693, "step": 68210 }, { "epoch": 90.96, "grad_norm": 0.67578125, "learning_rate": 9.949761199471261e-05, "loss": 0.3676, "step": 68220 }, { "epoch": 90.97333333333333, "grad_norm": 0.984375, "learning_rate": 9.949746385850862e-05, "loss": 0.3905, "step": 68230 }, { "epoch": 90.98666666666666, "grad_norm": 0.78125, "learning_rate": 9.949731570057815e-05, "loss": 0.3618, "step": 68240 }, { "epoch": 91.0, "grad_norm": 0.7421875, "learning_rate": 9.949716752092122e-05, "loss": 0.3619, "step": 68250 }, { "epoch": 91.0, "eval_loss": 0.41967329382896423, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.1262, "eval_samples_per_second": 1.438, "eval_steps_per_second": 0.09, "step": 68250 }, { "epoch": 91.01333333333334, "grad_norm": 0.73046875, "learning_rate": 9.949701931953793e-05, "loss": 0.3779, "step": 68260 }, { "epoch": 91.02666666666667, "grad_norm": 0.69921875, "learning_rate": 9.949687109642833e-05, "loss": 0.3929, "step": 68270 }, { "epoch": 91.04, "grad_norm": 0.671875, "learning_rate": 9.94967228515925e-05, "loss": 0.4055, "step": 68280 }, { "epoch": 91.05333333333333, "grad_norm": 0.74609375, "learning_rate": 9.94965745850305e-05, "loss": 0.3903, "step": 68290 }, { "epoch": 91.06666666666666, "grad_norm": 0.81640625, "learning_rate": 9.949642629674238e-05, "loss": 0.3788, "step": 68300 }, { "epoch": 91.08, "grad_norm": 0.7734375, "learning_rate": 9.949627798672822e-05, "loss": 0.3811, "step": 68310 }, { "epoch": 91.09333333333333, "grad_norm": 0.7421875, "learning_rate": 9.949612965498809e-05, "loss": 0.3845, "step": 68320 }, { "epoch": 91.10666666666667, "grad_norm": 0.64453125, "learning_rate": 9.949598130152205e-05, "loss": 0.3713, "step": 68330 }, { "epoch": 91.12, "grad_norm": 0.70703125, "learning_rate": 9.949583292633013e-05, "loss": 0.3739, "step": 68340 }, { "epoch": 91.13333333333334, "grad_norm": 0.74609375, "learning_rate": 9.949568452941246e-05, "loss": 0.3662, "step": 68350 }, { "epoch": 91.14666666666666, "grad_norm": 0.75390625, "learning_rate": 9.949553611076905e-05, "loss": 0.3853, "step": 68360 }, { "epoch": 91.16, "grad_norm": 0.6953125, "learning_rate": 9.949538767040001e-05, "loss": 0.3806, "step": 68370 }, { "epoch": 91.17333333333333, "grad_norm": 0.74609375, "learning_rate": 9.949523920830537e-05, "loss": 0.3751, "step": 68380 }, { "epoch": 91.18666666666667, "grad_norm": 0.73828125, "learning_rate": 9.94950907244852e-05, "loss": 0.3722, "step": 68390 }, { "epoch": 91.2, "grad_norm": 0.73828125, "learning_rate": 9.949494221893958e-05, "loss": 0.3652, "step": 68400 }, { "epoch": 91.21333333333334, "grad_norm": 0.765625, "learning_rate": 9.949479369166856e-05, "loss": 0.3658, "step": 68410 }, { "epoch": 91.22666666666667, "grad_norm": 0.7421875, "learning_rate": 9.949464514267221e-05, "loss": 0.3768, "step": 68420 }, { "epoch": 91.24, "grad_norm": 0.796875, "learning_rate": 9.949449657195063e-05, "loss": 0.3611, "step": 68430 }, { "epoch": 91.25333333333333, "grad_norm": 0.77734375, "learning_rate": 9.949434797950382e-05, "loss": 0.3636, "step": 68440 }, { "epoch": 91.26666666666667, "grad_norm": 0.6953125, "learning_rate": 9.949419936533188e-05, "loss": 0.3667, "step": 68450 }, { "epoch": 91.28, "grad_norm": 0.796875, "learning_rate": 9.94940507294349e-05, "loss": 0.3958, "step": 68460 }, { "epoch": 91.29333333333334, "grad_norm": 0.70703125, "learning_rate": 9.94939020718129e-05, "loss": 0.3535, "step": 68470 }, { "epoch": 91.30666666666667, "grad_norm": 0.69140625, "learning_rate": 9.949375339246596e-05, "loss": 0.3771, "step": 68480 }, { "epoch": 91.32, "grad_norm": 0.66015625, "learning_rate": 9.949360469139416e-05, "loss": 0.3799, "step": 68490 }, { "epoch": 91.33333333333333, "grad_norm": 0.765625, "learning_rate": 9.949345596859755e-05, "loss": 0.3803, "step": 68500 }, { "epoch": 91.34666666666666, "grad_norm": 0.84765625, "learning_rate": 9.94933072240762e-05, "loss": 0.3703, "step": 68510 }, { "epoch": 91.36, "grad_norm": 0.796875, "learning_rate": 9.949315845783018e-05, "loss": 0.3723, "step": 68520 }, { "epoch": 91.37333333333333, "grad_norm": 0.62890625, "learning_rate": 9.949300966985955e-05, "loss": 0.3749, "step": 68530 }, { "epoch": 91.38666666666667, "grad_norm": 0.81640625, "learning_rate": 9.949286086016436e-05, "loss": 0.3627, "step": 68540 }, { "epoch": 91.4, "grad_norm": 0.74609375, "learning_rate": 9.949271202874471e-05, "loss": 0.3723, "step": 68550 }, { "epoch": 91.41333333333333, "grad_norm": 0.67578125, "learning_rate": 9.949256317560065e-05, "loss": 0.3784, "step": 68560 }, { "epoch": 91.42666666666666, "grad_norm": 0.734375, "learning_rate": 9.949241430073222e-05, "loss": 0.38, "step": 68570 }, { "epoch": 91.44, "grad_norm": 0.77734375, "learning_rate": 9.949226540413953e-05, "loss": 0.3925, "step": 68580 }, { "epoch": 91.45333333333333, "grad_norm": 0.7890625, "learning_rate": 9.949211648582262e-05, "loss": 0.379, "step": 68590 }, { "epoch": 91.46666666666667, "grad_norm": 0.7265625, "learning_rate": 9.949196754578154e-05, "loss": 0.3869, "step": 68600 }, { "epoch": 91.48, "grad_norm": 0.67578125, "learning_rate": 9.949181858401638e-05, "loss": 0.37, "step": 68610 }, { "epoch": 91.49333333333334, "grad_norm": 0.73046875, "learning_rate": 9.94916696005272e-05, "loss": 0.3812, "step": 68620 }, { "epoch": 91.50666666666666, "grad_norm": 0.7421875, "learning_rate": 9.949152059531408e-05, "loss": 0.3815, "step": 68630 }, { "epoch": 91.52, "grad_norm": 0.6484375, "learning_rate": 9.949137156837705e-05, "loss": 0.3716, "step": 68640 }, { "epoch": 91.53333333333333, "grad_norm": 0.68359375, "learning_rate": 9.949122251971621e-05, "loss": 0.3733, "step": 68650 }, { "epoch": 91.54666666666667, "grad_norm": 0.8125, "learning_rate": 9.949107344933159e-05, "loss": 0.3743, "step": 68660 }, { "epoch": 91.56, "grad_norm": 0.69921875, "learning_rate": 9.949092435722329e-05, "loss": 0.369, "step": 68670 }, { "epoch": 91.57333333333334, "grad_norm": 0.79296875, "learning_rate": 9.949077524339137e-05, "loss": 0.374, "step": 68680 }, { "epoch": 91.58666666666667, "grad_norm": 0.6875, "learning_rate": 9.949062610783588e-05, "loss": 0.3632, "step": 68690 }, { "epoch": 91.6, "grad_norm": 0.703125, "learning_rate": 9.949047695055689e-05, "loss": 0.3649, "step": 68700 }, { "epoch": 91.61333333333333, "grad_norm": 0.70703125, "learning_rate": 9.949032777155446e-05, "loss": 0.3566, "step": 68710 }, { "epoch": 91.62666666666667, "grad_norm": 0.65234375, "learning_rate": 9.949017857082867e-05, "loss": 0.361, "step": 68720 }, { "epoch": 91.64, "grad_norm": 0.83203125, "learning_rate": 9.949002934837957e-05, "loss": 0.37, "step": 68730 }, { "epoch": 91.65333333333334, "grad_norm": 0.75, "learning_rate": 9.948988010420725e-05, "loss": 0.3812, "step": 68740 }, { "epoch": 91.66666666666667, "grad_norm": 0.6875, "learning_rate": 9.948973083831174e-05, "loss": 0.3695, "step": 68750 }, { "epoch": 91.68, "grad_norm": 0.796875, "learning_rate": 9.948958155069315e-05, "loss": 0.36, "step": 68760 }, { "epoch": 91.69333333333333, "grad_norm": 0.64453125, "learning_rate": 9.948943224135151e-05, "loss": 0.3708, "step": 68770 }, { "epoch": 91.70666666666666, "grad_norm": 0.78515625, "learning_rate": 9.94892829102869e-05, "loss": 0.3611, "step": 68780 }, { "epoch": 91.72, "grad_norm": 0.734375, "learning_rate": 9.948913355749937e-05, "loss": 0.3833, "step": 68790 }, { "epoch": 91.73333333333333, "grad_norm": 0.7890625, "learning_rate": 9.948898418298899e-05, "loss": 0.3785, "step": 68800 }, { "epoch": 91.74666666666667, "grad_norm": 0.71875, "learning_rate": 9.948883478675585e-05, "loss": 0.3811, "step": 68810 }, { "epoch": 91.76, "grad_norm": 0.75, "learning_rate": 9.948868536880001e-05, "loss": 0.3936, "step": 68820 }, { "epoch": 91.77333333333333, "grad_norm": 0.84375, "learning_rate": 9.948853592912151e-05, "loss": 0.3785, "step": 68830 }, { "epoch": 91.78666666666666, "grad_norm": 0.7265625, "learning_rate": 9.948838646772044e-05, "loss": 0.3817, "step": 68840 }, { "epoch": 91.8, "grad_norm": 0.734375, "learning_rate": 9.948823698459683e-05, "loss": 0.3791, "step": 68850 }, { "epoch": 91.81333333333333, "grad_norm": 0.83984375, "learning_rate": 9.948808747975079e-05, "loss": 0.3538, "step": 68860 }, { "epoch": 91.82666666666667, "grad_norm": 0.69921875, "learning_rate": 9.948793795318236e-05, "loss": 0.3616, "step": 68870 }, { "epoch": 91.84, "grad_norm": 0.7890625, "learning_rate": 9.948778840489162e-05, "loss": 0.3741, "step": 68880 }, { "epoch": 91.85333333333334, "grad_norm": 0.77734375, "learning_rate": 9.948763883487861e-05, "loss": 0.3686, "step": 68890 }, { "epoch": 91.86666666666666, "grad_norm": 0.7578125, "learning_rate": 9.948748924314343e-05, "loss": 0.3745, "step": 68900 }, { "epoch": 91.88, "grad_norm": 0.79296875, "learning_rate": 9.948733962968613e-05, "loss": 0.3547, "step": 68910 }, { "epoch": 91.89333333333333, "grad_norm": 0.71484375, "learning_rate": 9.948718999450677e-05, "loss": 0.3672, "step": 68920 }, { "epoch": 91.90666666666667, "grad_norm": 0.73046875, "learning_rate": 9.948704033760541e-05, "loss": 0.3722, "step": 68930 }, { "epoch": 91.92, "grad_norm": 0.80078125, "learning_rate": 9.948689065898213e-05, "loss": 0.3739, "step": 68940 }, { "epoch": 91.93333333333334, "grad_norm": 0.71484375, "learning_rate": 9.948674095863702e-05, "loss": 0.3703, "step": 68950 }, { "epoch": 91.94666666666667, "grad_norm": 0.73046875, "learning_rate": 9.94865912365701e-05, "loss": 0.3697, "step": 68960 }, { "epoch": 91.96, "grad_norm": 0.6875, "learning_rate": 9.948644149278144e-05, "loss": 0.3679, "step": 68970 }, { "epoch": 91.97333333333333, "grad_norm": 1.0625, "learning_rate": 9.948629172727111e-05, "loss": 0.3909, "step": 68980 }, { "epoch": 91.98666666666666, "grad_norm": 0.78125, "learning_rate": 9.94861419400392e-05, "loss": 0.361, "step": 68990 }, { "epoch": 92.0, "grad_norm": 0.765625, "learning_rate": 9.948599213108578e-05, "loss": 0.3612, "step": 69000 }, { "epoch": 92.0, "eval_loss": 0.420430451631546, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8196, "eval_samples_per_second": 1.479, "eval_steps_per_second": 0.092, "step": 69000 }, { "epoch": 92.01333333333334, "grad_norm": 0.7734375, "learning_rate": 9.948584230041087e-05, "loss": 0.378, "step": 69010 }, { "epoch": 92.02666666666667, "grad_norm": 0.69921875, "learning_rate": 9.948569244801458e-05, "loss": 0.393, "step": 69020 }, { "epoch": 92.04, "grad_norm": 0.7265625, "learning_rate": 9.948554257389694e-05, "loss": 0.4058, "step": 69030 }, { "epoch": 92.05333333333333, "grad_norm": 0.72265625, "learning_rate": 9.948539267805805e-05, "loss": 0.3893, "step": 69040 }, { "epoch": 92.06666666666666, "grad_norm": 0.89453125, "learning_rate": 9.948524276049796e-05, "loss": 0.3784, "step": 69050 }, { "epoch": 92.08, "grad_norm": 0.7109375, "learning_rate": 9.948509282121672e-05, "loss": 0.3829, "step": 69060 }, { "epoch": 92.09333333333333, "grad_norm": 0.79296875, "learning_rate": 9.948494286021442e-05, "loss": 0.3837, "step": 69070 }, { "epoch": 92.10666666666667, "grad_norm": 0.6796875, "learning_rate": 9.948479287749112e-05, "loss": 0.3727, "step": 69080 }, { "epoch": 92.12, "grad_norm": 0.7734375, "learning_rate": 9.948464287304688e-05, "loss": 0.3733, "step": 69090 }, { "epoch": 92.13333333333334, "grad_norm": 0.71484375, "learning_rate": 9.948449284688177e-05, "loss": 0.3663, "step": 69100 }, { "epoch": 92.14666666666666, "grad_norm": 0.70703125, "learning_rate": 9.948434279899584e-05, "loss": 0.3854, "step": 69110 }, { "epoch": 92.16, "grad_norm": 0.76171875, "learning_rate": 9.948419272938918e-05, "loss": 0.3799, "step": 69120 }, { "epoch": 92.17333333333333, "grad_norm": 0.7890625, "learning_rate": 9.948404263806186e-05, "loss": 0.3752, "step": 69130 }, { "epoch": 92.18666666666667, "grad_norm": 0.72265625, "learning_rate": 9.948389252501391e-05, "loss": 0.3721, "step": 69140 }, { "epoch": 92.2, "grad_norm": 0.71484375, "learning_rate": 9.948374239024543e-05, "loss": 0.3641, "step": 69150 }, { "epoch": 92.21333333333334, "grad_norm": 0.7734375, "learning_rate": 9.948359223375647e-05, "loss": 0.365, "step": 69160 }, { "epoch": 92.22666666666667, "grad_norm": 0.71875, "learning_rate": 9.948344205554711e-05, "loss": 0.3759, "step": 69170 }, { "epoch": 92.24, "grad_norm": 0.7109375, "learning_rate": 9.94832918556174e-05, "loss": 0.3617, "step": 69180 }, { "epoch": 92.25333333333333, "grad_norm": 0.8046875, "learning_rate": 9.948314163396741e-05, "loss": 0.3631, "step": 69190 }, { "epoch": 92.26666666666667, "grad_norm": 0.765625, "learning_rate": 9.94829913905972e-05, "loss": 0.3665, "step": 69200 }, { "epoch": 92.28, "grad_norm": 0.8046875, "learning_rate": 9.948284112550686e-05, "loss": 0.3952, "step": 69210 }, { "epoch": 92.29333333333334, "grad_norm": 0.77734375, "learning_rate": 9.948269083869641e-05, "loss": 0.3534, "step": 69220 }, { "epoch": 92.30666666666667, "grad_norm": 0.640625, "learning_rate": 9.948254053016596e-05, "loss": 0.377, "step": 69230 }, { "epoch": 92.32, "grad_norm": 0.65625, "learning_rate": 9.948239019991557e-05, "loss": 0.3813, "step": 69240 }, { "epoch": 92.33333333333333, "grad_norm": 0.75390625, "learning_rate": 9.948223984794529e-05, "loss": 0.3797, "step": 69250 }, { "epoch": 92.34666666666666, "grad_norm": 0.79296875, "learning_rate": 9.94820894742552e-05, "loss": 0.3704, "step": 69260 }, { "epoch": 92.36, "grad_norm": 0.71875, "learning_rate": 9.948193907884536e-05, "loss": 0.3715, "step": 69270 }, { "epoch": 92.37333333333333, "grad_norm": 0.62109375, "learning_rate": 9.948178866171583e-05, "loss": 0.3744, "step": 69280 }, { "epoch": 92.38666666666667, "grad_norm": 0.82421875, "learning_rate": 9.948163822286669e-05, "loss": 0.3637, "step": 69290 }, { "epoch": 92.4, "grad_norm": 0.71484375, "learning_rate": 9.948148776229798e-05, "loss": 0.3726, "step": 69300 }, { "epoch": 92.41333333333333, "grad_norm": 0.70703125, "learning_rate": 9.94813372800098e-05, "loss": 0.378, "step": 69310 }, { "epoch": 92.42666666666666, "grad_norm": 0.71875, "learning_rate": 9.94811867760022e-05, "loss": 0.3794, "step": 69320 }, { "epoch": 92.44, "grad_norm": 0.72265625, "learning_rate": 9.948103625027523e-05, "loss": 0.3925, "step": 69330 }, { "epoch": 92.45333333333333, "grad_norm": 0.75390625, "learning_rate": 9.948088570282898e-05, "loss": 0.3796, "step": 69340 }, { "epoch": 92.46666666666667, "grad_norm": 0.765625, "learning_rate": 9.94807351336635e-05, "loss": 0.3877, "step": 69350 }, { "epoch": 92.48, "grad_norm": 0.71875, "learning_rate": 9.948058454277888e-05, "loss": 0.3698, "step": 69360 }, { "epoch": 92.49333333333334, "grad_norm": 0.8359375, "learning_rate": 9.948043393017515e-05, "loss": 0.3817, "step": 69370 }, { "epoch": 92.50666666666666, "grad_norm": 0.734375, "learning_rate": 9.948028329585241e-05, "loss": 0.3818, "step": 69380 }, { "epoch": 92.52, "grad_norm": 0.65234375, "learning_rate": 9.94801326398107e-05, "loss": 0.3722, "step": 69390 }, { "epoch": 92.53333333333333, "grad_norm": 0.703125, "learning_rate": 9.947998196205013e-05, "loss": 0.3731, "step": 69400 }, { "epoch": 92.54666666666667, "grad_norm": 0.8671875, "learning_rate": 9.94798312625707e-05, "loss": 0.3743, "step": 69410 }, { "epoch": 92.56, "grad_norm": 0.6328125, "learning_rate": 9.947968054137254e-05, "loss": 0.3683, "step": 69420 }, { "epoch": 92.57333333333334, "grad_norm": 0.77734375, "learning_rate": 9.947952979845565e-05, "loss": 0.3724, "step": 69430 }, { "epoch": 92.58666666666667, "grad_norm": 0.66015625, "learning_rate": 9.947937903382016e-05, "loss": 0.3632, "step": 69440 }, { "epoch": 92.6, "grad_norm": 0.67578125, "learning_rate": 9.94792282474661e-05, "loss": 0.3644, "step": 69450 }, { "epoch": 92.61333333333333, "grad_norm": 0.65625, "learning_rate": 9.947907743939355e-05, "loss": 0.356, "step": 69460 }, { "epoch": 92.62666666666667, "grad_norm": 0.65625, "learning_rate": 9.947892660960256e-05, "loss": 0.3616, "step": 69470 }, { "epoch": 92.64, "grad_norm": 0.8359375, "learning_rate": 9.94787757580932e-05, "loss": 0.3701, "step": 69480 }, { "epoch": 92.65333333333334, "grad_norm": 0.79296875, "learning_rate": 9.947862488486558e-05, "loss": 0.3803, "step": 69490 }, { "epoch": 92.66666666666667, "grad_norm": 0.67578125, "learning_rate": 9.947847398991971e-05, "loss": 0.3701, "step": 69500 }, { "epoch": 92.68, "grad_norm": 0.78125, "learning_rate": 9.947832307325567e-05, "loss": 0.3604, "step": 69510 }, { "epoch": 92.69333333333333, "grad_norm": 0.66796875, "learning_rate": 9.947817213487353e-05, "loss": 0.3708, "step": 69520 }, { "epoch": 92.70666666666666, "grad_norm": 0.84765625, "learning_rate": 9.947802117477339e-05, "loss": 0.3609, "step": 69530 }, { "epoch": 92.72, "grad_norm": 0.8515625, "learning_rate": 9.947787019295525e-05, "loss": 0.3833, "step": 69540 }, { "epoch": 92.73333333333333, "grad_norm": 0.78125, "learning_rate": 9.947771918941922e-05, "loss": 0.378, "step": 69550 }, { "epoch": 92.74666666666667, "grad_norm": 0.81640625, "learning_rate": 9.947756816416537e-05, "loss": 0.3811, "step": 69560 }, { "epoch": 92.76, "grad_norm": 0.78125, "learning_rate": 9.947741711719374e-05, "loss": 0.3945, "step": 69570 }, { "epoch": 92.77333333333333, "grad_norm": 0.796875, "learning_rate": 9.947726604850443e-05, "loss": 0.378, "step": 69580 }, { "epoch": 92.78666666666666, "grad_norm": 0.671875, "learning_rate": 9.947711495809747e-05, "loss": 0.3816, "step": 69590 }, { "epoch": 92.8, "grad_norm": 0.7265625, "learning_rate": 9.947696384597293e-05, "loss": 0.3786, "step": 69600 }, { "epoch": 92.81333333333333, "grad_norm": 0.87890625, "learning_rate": 9.94768127121309e-05, "loss": 0.3529, "step": 69610 }, { "epoch": 92.82666666666667, "grad_norm": 0.65625, "learning_rate": 9.947666155657145e-05, "loss": 0.3607, "step": 69620 }, { "epoch": 92.84, "grad_norm": 0.78125, "learning_rate": 9.947651037929462e-05, "loss": 0.3736, "step": 69630 }, { "epoch": 92.85333333333334, "grad_norm": 0.765625, "learning_rate": 9.94763591803005e-05, "loss": 0.3691, "step": 69640 }, { "epoch": 92.86666666666666, "grad_norm": 0.75, "learning_rate": 9.947620795958912e-05, "loss": 0.3744, "step": 69650 }, { "epoch": 92.88, "grad_norm": 0.68359375, "learning_rate": 9.947605671716058e-05, "loss": 0.3547, "step": 69660 }, { "epoch": 92.89333333333333, "grad_norm": 0.6796875, "learning_rate": 9.947590545301495e-05, "loss": 0.3673, "step": 69670 }, { "epoch": 92.90666666666667, "grad_norm": 0.75, "learning_rate": 9.947575416715228e-05, "loss": 0.3722, "step": 69680 }, { "epoch": 92.92, "grad_norm": 0.69921875, "learning_rate": 9.947560285957264e-05, "loss": 0.3736, "step": 69690 }, { "epoch": 92.93333333333334, "grad_norm": 0.65625, "learning_rate": 9.947545153027609e-05, "loss": 0.37, "step": 69700 }, { "epoch": 92.94666666666667, "grad_norm": 0.69140625, "learning_rate": 9.94753001792627e-05, "loss": 0.3696, "step": 69710 }, { "epoch": 92.96, "grad_norm": 0.63671875, "learning_rate": 9.947514880653254e-05, "loss": 0.3677, "step": 69720 }, { "epoch": 92.97333333333333, "grad_norm": 0.953125, "learning_rate": 9.94749974120857e-05, "loss": 0.3905, "step": 69730 }, { "epoch": 92.98666666666666, "grad_norm": 0.8046875, "learning_rate": 9.947484599592219e-05, "loss": 0.3607, "step": 69740 }, { "epoch": 93.0, "grad_norm": 0.73046875, "learning_rate": 9.947469455804212e-05, "loss": 0.3615, "step": 69750 }, { "epoch": 93.0, "eval_loss": 0.42162075638771057, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8693, "eval_samples_per_second": 1.472, "eval_steps_per_second": 0.092, "step": 69750 }, { "epoch": 93.01333333333334, "grad_norm": 0.765625, "learning_rate": 9.947454309844555e-05, "loss": 0.3769, "step": 69760 }, { "epoch": 93.02666666666667, "grad_norm": 0.7734375, "learning_rate": 9.947439161713255e-05, "loss": 0.3922, "step": 69770 }, { "epoch": 93.04, "grad_norm": 0.703125, "learning_rate": 9.947424011410315e-05, "loss": 0.4055, "step": 69780 }, { "epoch": 93.05333333333333, "grad_norm": 0.76953125, "learning_rate": 9.947408858935748e-05, "loss": 0.3892, "step": 69790 }, { "epoch": 93.06666666666666, "grad_norm": 0.79296875, "learning_rate": 9.947393704289555e-05, "loss": 0.3776, "step": 69800 }, { "epoch": 93.08, "grad_norm": 0.7265625, "learning_rate": 9.947378547471746e-05, "loss": 0.3811, "step": 69810 }, { "epoch": 93.09333333333333, "grad_norm": 0.84375, "learning_rate": 9.947363388482325e-05, "loss": 0.3834, "step": 69820 }, { "epoch": 93.10666666666667, "grad_norm": 0.63671875, "learning_rate": 9.9473482273213e-05, "loss": 0.3718, "step": 69830 }, { "epoch": 93.12, "grad_norm": 0.71875, "learning_rate": 9.947333063988678e-05, "loss": 0.3743, "step": 69840 }, { "epoch": 93.13333333333334, "grad_norm": 0.74609375, "learning_rate": 9.947317898484467e-05, "loss": 0.3664, "step": 69850 }, { "epoch": 93.14666666666666, "grad_norm": 0.75390625, "learning_rate": 9.94730273080867e-05, "loss": 0.3849, "step": 69860 }, { "epoch": 93.16, "grad_norm": 0.71484375, "learning_rate": 9.947287560961297e-05, "loss": 0.381, "step": 69870 }, { "epoch": 93.17333333333333, "grad_norm": 0.8515625, "learning_rate": 9.947272388942353e-05, "loss": 0.3754, "step": 69880 }, { "epoch": 93.18666666666667, "grad_norm": 0.80859375, "learning_rate": 9.947257214751845e-05, "loss": 0.3721, "step": 69890 }, { "epoch": 93.2, "grad_norm": 0.734375, "learning_rate": 9.947242038389779e-05, "loss": 0.364, "step": 69900 }, { "epoch": 93.21333333333334, "grad_norm": 0.76953125, "learning_rate": 9.947226859856163e-05, "loss": 0.3649, "step": 69910 }, { "epoch": 93.22666666666667, "grad_norm": 0.75390625, "learning_rate": 9.947211679151004e-05, "loss": 0.3753, "step": 69920 }, { "epoch": 93.24, "grad_norm": 0.74609375, "learning_rate": 9.947196496274308e-05, "loss": 0.3625, "step": 69930 }, { "epoch": 93.25333333333333, "grad_norm": 0.75, "learning_rate": 9.947181311226079e-05, "loss": 0.3631, "step": 69940 }, { "epoch": 93.26666666666667, "grad_norm": 0.70703125, "learning_rate": 9.947166124006326e-05, "loss": 0.3666, "step": 69950 }, { "epoch": 93.28, "grad_norm": 0.8515625, "learning_rate": 9.947150934615057e-05, "loss": 0.3949, "step": 69960 }, { "epoch": 93.29333333333334, "grad_norm": 0.72265625, "learning_rate": 9.947135743052277e-05, "loss": 0.3529, "step": 69970 }, { "epoch": 93.30666666666667, "grad_norm": 0.72265625, "learning_rate": 9.947120549317994e-05, "loss": 0.3769, "step": 69980 }, { "epoch": 93.32, "grad_norm": 0.6484375, "learning_rate": 9.947105353412212e-05, "loss": 0.381, "step": 69990 }, { "epoch": 93.33333333333333, "grad_norm": 0.7421875, "learning_rate": 9.94709015533494e-05, "loss": 0.3799, "step": 70000 }, { "epoch": 93.34666666666666, "grad_norm": 0.7734375, "learning_rate": 9.947074955086184e-05, "loss": 0.3713, "step": 70010 }, { "epoch": 93.36, "grad_norm": 0.77734375, "learning_rate": 9.947059752665951e-05, "loss": 0.3708, "step": 70020 }, { "epoch": 93.37333333333333, "grad_norm": 0.68359375, "learning_rate": 9.947044548074247e-05, "loss": 0.3742, "step": 70030 }, { "epoch": 93.38666666666667, "grad_norm": 0.8046875, "learning_rate": 9.947029341311079e-05, "loss": 0.3624, "step": 70040 }, { "epoch": 93.4, "grad_norm": 0.80078125, "learning_rate": 9.947014132376455e-05, "loss": 0.372, "step": 70050 }, { "epoch": 93.41333333333333, "grad_norm": 0.7890625, "learning_rate": 9.946998921270378e-05, "loss": 0.3775, "step": 70060 }, { "epoch": 93.42666666666666, "grad_norm": 0.68359375, "learning_rate": 9.946983707992859e-05, "loss": 0.3788, "step": 70070 }, { "epoch": 93.44, "grad_norm": 0.7109375, "learning_rate": 9.946968492543902e-05, "loss": 0.3914, "step": 70080 }, { "epoch": 93.45333333333333, "grad_norm": 0.78125, "learning_rate": 9.946953274923514e-05, "loss": 0.3784, "step": 70090 }, { "epoch": 93.46666666666667, "grad_norm": 0.734375, "learning_rate": 9.946938055131703e-05, "loss": 0.3862, "step": 70100 }, { "epoch": 93.48, "grad_norm": 0.76953125, "learning_rate": 9.946922833168476e-05, "loss": 0.3707, "step": 70110 }, { "epoch": 93.49333333333334, "grad_norm": 0.7421875, "learning_rate": 9.946907609033835e-05, "loss": 0.3811, "step": 70120 }, { "epoch": 93.50666666666666, "grad_norm": 0.75390625, "learning_rate": 9.946892382727793e-05, "loss": 0.3809, "step": 70130 }, { "epoch": 93.52, "grad_norm": 0.67578125, "learning_rate": 9.946877154250353e-05, "loss": 0.372, "step": 70140 }, { "epoch": 93.53333333333333, "grad_norm": 0.703125, "learning_rate": 9.946861923601521e-05, "loss": 0.3725, "step": 70150 }, { "epoch": 93.54666666666667, "grad_norm": 0.8359375, "learning_rate": 9.946846690781308e-05, "loss": 0.3744, "step": 70160 }, { "epoch": 93.56, "grad_norm": 0.68359375, "learning_rate": 9.946831455789716e-05, "loss": 0.3686, "step": 70170 }, { "epoch": 93.57333333333334, "grad_norm": 0.8671875, "learning_rate": 9.946816218626754e-05, "loss": 0.373, "step": 70180 }, { "epoch": 93.58666666666667, "grad_norm": 0.6484375, "learning_rate": 9.946800979292427e-05, "loss": 0.3625, "step": 70190 }, { "epoch": 93.6, "grad_norm": 0.734375, "learning_rate": 9.946785737786746e-05, "loss": 0.3643, "step": 70200 }, { "epoch": 93.61333333333333, "grad_norm": 0.6640625, "learning_rate": 9.946770494109712e-05, "loss": 0.357, "step": 70210 }, { "epoch": 93.62666666666667, "grad_norm": 0.671875, "learning_rate": 9.946755248261334e-05, "loss": 0.3613, "step": 70220 }, { "epoch": 93.64, "grad_norm": 0.765625, "learning_rate": 9.946740000241621e-05, "loss": 0.3699, "step": 70230 }, { "epoch": 93.65333333333334, "grad_norm": 0.75390625, "learning_rate": 9.946724750050578e-05, "loss": 0.38, "step": 70240 }, { "epoch": 93.66666666666667, "grad_norm": 0.69140625, "learning_rate": 9.946709497688209e-05, "loss": 0.3699, "step": 70250 }, { "epoch": 93.68, "grad_norm": 0.8359375, "learning_rate": 9.946694243154525e-05, "loss": 0.3601, "step": 70260 }, { "epoch": 93.69333333333333, "grad_norm": 0.66796875, "learning_rate": 9.94667898644953e-05, "loss": 0.37, "step": 70270 }, { "epoch": 93.70666666666666, "grad_norm": 0.83984375, "learning_rate": 9.946663727573232e-05, "loss": 0.3608, "step": 70280 }, { "epoch": 93.72, "grad_norm": 0.765625, "learning_rate": 9.946648466525636e-05, "loss": 0.382, "step": 70290 }, { "epoch": 93.73333333333333, "grad_norm": 0.74609375, "learning_rate": 9.946633203306752e-05, "loss": 0.3783, "step": 70300 }, { "epoch": 93.74666666666667, "grad_norm": 0.75390625, "learning_rate": 9.946617937916583e-05, "loss": 0.3807, "step": 70310 }, { "epoch": 93.76, "grad_norm": 0.73046875, "learning_rate": 9.946602670355138e-05, "loss": 0.3941, "step": 70320 }, { "epoch": 93.77333333333333, "grad_norm": 0.81640625, "learning_rate": 9.946587400622423e-05, "loss": 0.3793, "step": 70330 }, { "epoch": 93.78666666666666, "grad_norm": 0.66796875, "learning_rate": 9.946572128718444e-05, "loss": 0.3803, "step": 70340 }, { "epoch": 93.8, "grad_norm": 0.7578125, "learning_rate": 9.946556854643209e-05, "loss": 0.378, "step": 70350 }, { "epoch": 93.81333333333333, "grad_norm": 0.88671875, "learning_rate": 9.946541578396724e-05, "loss": 0.3531, "step": 70360 }, { "epoch": 93.82666666666667, "grad_norm": 0.76953125, "learning_rate": 9.946526299978995e-05, "loss": 0.361, "step": 70370 }, { "epoch": 93.84, "grad_norm": 0.7890625, "learning_rate": 9.946511019390031e-05, "loss": 0.3728, "step": 70380 }, { "epoch": 93.85333333333334, "grad_norm": 0.74609375, "learning_rate": 9.946495736629836e-05, "loss": 0.3682, "step": 70390 }, { "epoch": 93.86666666666666, "grad_norm": 0.74609375, "learning_rate": 9.94648045169842e-05, "loss": 0.3736, "step": 70400 }, { "epoch": 93.88, "grad_norm": 0.72265625, "learning_rate": 9.946465164595784e-05, "loss": 0.3547, "step": 70410 }, { "epoch": 93.89333333333333, "grad_norm": 0.83984375, "learning_rate": 9.946449875321941e-05, "loss": 0.3674, "step": 70420 }, { "epoch": 93.90666666666667, "grad_norm": 0.7734375, "learning_rate": 9.946434583876894e-05, "loss": 0.372, "step": 70430 }, { "epoch": 93.92, "grad_norm": 0.8125, "learning_rate": 9.946419290260651e-05, "loss": 0.3736, "step": 70440 }, { "epoch": 93.93333333333334, "grad_norm": 0.70703125, "learning_rate": 9.94640399447322e-05, "loss": 0.3687, "step": 70450 }, { "epoch": 93.94666666666667, "grad_norm": 0.73046875, "learning_rate": 9.946388696514603e-05, "loss": 0.3699, "step": 70460 }, { "epoch": 93.96, "grad_norm": 0.76171875, "learning_rate": 9.946373396384813e-05, "loss": 0.3682, "step": 70470 }, { "epoch": 93.97333333333333, "grad_norm": 0.94921875, "learning_rate": 9.946358094083852e-05, "loss": 0.39, "step": 70480 }, { "epoch": 93.98666666666666, "grad_norm": 0.73046875, "learning_rate": 9.94634278961173e-05, "loss": 0.3612, "step": 70490 }, { "epoch": 94.0, "grad_norm": 0.734375, "learning_rate": 9.94632748296845e-05, "loss": 0.3612, "step": 70500 }, { "epoch": 94.0, "eval_loss": 0.42108699679374695, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.142, "eval_samples_per_second": 1.318, "eval_steps_per_second": 0.082, "step": 70500 }, { "epoch": 94.01333333333334, "grad_norm": 0.79296875, "learning_rate": 9.946312174154022e-05, "loss": 0.3774, "step": 70510 }, { "epoch": 94.02666666666667, "grad_norm": 0.7265625, "learning_rate": 9.946296863168452e-05, "loss": 0.3918, "step": 70520 }, { "epoch": 94.04, "grad_norm": 0.76171875, "learning_rate": 9.946281550011744e-05, "loss": 0.4048, "step": 70530 }, { "epoch": 94.05333333333333, "grad_norm": 0.765625, "learning_rate": 9.94626623468391e-05, "loss": 0.3887, "step": 70540 }, { "epoch": 94.06666666666666, "grad_norm": 0.8359375, "learning_rate": 9.946250917184952e-05, "loss": 0.377, "step": 70550 }, { "epoch": 94.08, "grad_norm": 0.73828125, "learning_rate": 9.946235597514876e-05, "loss": 0.3815, "step": 70560 }, { "epoch": 94.09333333333333, "grad_norm": 0.80078125, "learning_rate": 9.946220275673694e-05, "loss": 0.3833, "step": 70570 }, { "epoch": 94.10666666666667, "grad_norm": 0.66796875, "learning_rate": 9.946204951661411e-05, "loss": 0.3727, "step": 70580 }, { "epoch": 94.12, "grad_norm": 0.75390625, "learning_rate": 9.94618962547803e-05, "loss": 0.374, "step": 70590 }, { "epoch": 94.13333333333334, "grad_norm": 0.7265625, "learning_rate": 9.946174297123562e-05, "loss": 0.3655, "step": 70600 }, { "epoch": 94.14666666666666, "grad_norm": 0.74609375, "learning_rate": 9.946158966598011e-05, "loss": 0.3855, "step": 70610 }, { "epoch": 94.16, "grad_norm": 0.72265625, "learning_rate": 9.946143633901385e-05, "loss": 0.379, "step": 70620 }, { "epoch": 94.17333333333333, "grad_norm": 0.74609375, "learning_rate": 9.94612829903369e-05, "loss": 0.3752, "step": 70630 }, { "epoch": 94.18666666666667, "grad_norm": 0.69140625, "learning_rate": 9.946112961994934e-05, "loss": 0.372, "step": 70640 }, { "epoch": 94.2, "grad_norm": 0.74609375, "learning_rate": 9.946097622785122e-05, "loss": 0.3632, "step": 70650 }, { "epoch": 94.21333333333334, "grad_norm": 0.77734375, "learning_rate": 9.946082281404264e-05, "loss": 0.3651, "step": 70660 }, { "epoch": 94.22666666666667, "grad_norm": 0.859375, "learning_rate": 9.946066937852362e-05, "loss": 0.3757, "step": 70670 }, { "epoch": 94.24, "grad_norm": 0.73046875, "learning_rate": 9.946051592129427e-05, "loss": 0.362, "step": 70680 }, { "epoch": 94.25333333333333, "grad_norm": 0.7421875, "learning_rate": 9.946036244235461e-05, "loss": 0.3635, "step": 70690 }, { "epoch": 94.26666666666667, "grad_norm": 0.68359375, "learning_rate": 9.946020894170476e-05, "loss": 0.3666, "step": 70700 }, { "epoch": 94.28, "grad_norm": 0.796875, "learning_rate": 9.946005541934476e-05, "loss": 0.3944, "step": 70710 }, { "epoch": 94.29333333333334, "grad_norm": 0.6875, "learning_rate": 9.945990187527468e-05, "loss": 0.3525, "step": 70720 }, { "epoch": 94.30666666666667, "grad_norm": 0.76171875, "learning_rate": 9.945974830949458e-05, "loss": 0.3766, "step": 70730 }, { "epoch": 94.32, "grad_norm": 0.6796875, "learning_rate": 9.945959472200455e-05, "loss": 0.3803, "step": 70740 }, { "epoch": 94.33333333333333, "grad_norm": 0.8203125, "learning_rate": 9.945944111280463e-05, "loss": 0.3797, "step": 70750 }, { "epoch": 94.34666666666666, "grad_norm": 0.78515625, "learning_rate": 9.945928748189491e-05, "loss": 0.3705, "step": 70760 }, { "epoch": 94.36, "grad_norm": 0.71875, "learning_rate": 9.945913382927546e-05, "loss": 0.3707, "step": 70770 }, { "epoch": 94.37333333333333, "grad_norm": 0.66796875, "learning_rate": 9.94589801549463e-05, "loss": 0.3743, "step": 70780 }, { "epoch": 94.38666666666667, "grad_norm": 0.78515625, "learning_rate": 9.945882645890756e-05, "loss": 0.3632, "step": 70790 }, { "epoch": 94.4, "grad_norm": 0.78125, "learning_rate": 9.945867274115927e-05, "loss": 0.3722, "step": 70800 }, { "epoch": 94.41333333333333, "grad_norm": 0.75, "learning_rate": 9.945851900170151e-05, "loss": 0.3771, "step": 70810 }, { "epoch": 94.42666666666666, "grad_norm": 0.6796875, "learning_rate": 9.945836524053436e-05, "loss": 0.3799, "step": 70820 }, { "epoch": 94.44, "grad_norm": 0.7734375, "learning_rate": 9.945821145765786e-05, "loss": 0.3912, "step": 70830 }, { "epoch": 94.45333333333333, "grad_norm": 0.74609375, "learning_rate": 9.945805765307208e-05, "loss": 0.3786, "step": 70840 }, { "epoch": 94.46666666666667, "grad_norm": 0.73828125, "learning_rate": 9.945790382677711e-05, "loss": 0.3867, "step": 70850 }, { "epoch": 94.48, "grad_norm": 0.75390625, "learning_rate": 9.945774997877301e-05, "loss": 0.3689, "step": 70860 }, { "epoch": 94.49333333333334, "grad_norm": 0.765625, "learning_rate": 9.945759610905984e-05, "loss": 0.3804, "step": 70870 }, { "epoch": 94.50666666666666, "grad_norm": 0.75390625, "learning_rate": 9.945744221763766e-05, "loss": 0.3811, "step": 70880 }, { "epoch": 94.52, "grad_norm": 0.6171875, "learning_rate": 9.945728830450656e-05, "loss": 0.3719, "step": 70890 }, { "epoch": 94.53333333333333, "grad_norm": 0.71484375, "learning_rate": 9.945713436966659e-05, "loss": 0.3733, "step": 70900 }, { "epoch": 94.54666666666667, "grad_norm": 0.828125, "learning_rate": 9.945698041311781e-05, "loss": 0.374, "step": 70910 }, { "epoch": 94.56, "grad_norm": 0.734375, "learning_rate": 9.945682643486033e-05, "loss": 0.3683, "step": 70920 }, { "epoch": 94.57333333333334, "grad_norm": 0.78515625, "learning_rate": 9.945667243489418e-05, "loss": 0.3725, "step": 70930 }, { "epoch": 94.58666666666667, "grad_norm": 0.67578125, "learning_rate": 9.945651841321942e-05, "loss": 0.3625, "step": 70940 }, { "epoch": 94.6, "grad_norm": 0.75390625, "learning_rate": 9.945636436983615e-05, "loss": 0.3646, "step": 70950 }, { "epoch": 94.61333333333333, "grad_norm": 0.7265625, "learning_rate": 9.945621030474441e-05, "loss": 0.3565, "step": 70960 }, { "epoch": 94.62666666666667, "grad_norm": 0.625, "learning_rate": 9.945605621794429e-05, "loss": 0.3606, "step": 70970 }, { "epoch": 94.64, "grad_norm": 0.796875, "learning_rate": 9.945590210943583e-05, "loss": 0.3688, "step": 70980 }, { "epoch": 94.65333333333334, "grad_norm": 0.765625, "learning_rate": 9.945574797921913e-05, "loss": 0.3795, "step": 70990 }, { "epoch": 94.66666666666667, "grad_norm": 0.72265625, "learning_rate": 9.945559382729424e-05, "loss": 0.3691, "step": 71000 }, { "epoch": 94.68, "grad_norm": 0.71875, "learning_rate": 9.945543965366122e-05, "loss": 0.3591, "step": 71010 }, { "epoch": 94.69333333333333, "grad_norm": 0.66015625, "learning_rate": 9.945528545832015e-05, "loss": 0.37, "step": 71020 }, { "epoch": 94.70666666666666, "grad_norm": 0.7734375, "learning_rate": 9.94551312412711e-05, "loss": 0.3602, "step": 71030 }, { "epoch": 94.72, "grad_norm": 0.78515625, "learning_rate": 9.945497700251412e-05, "loss": 0.3826, "step": 71040 }, { "epoch": 94.73333333333333, "grad_norm": 0.80859375, "learning_rate": 9.94548227420493e-05, "loss": 0.3781, "step": 71050 }, { "epoch": 94.74666666666667, "grad_norm": 0.75390625, "learning_rate": 9.94546684598767e-05, "loss": 0.3796, "step": 71060 }, { "epoch": 94.76, "grad_norm": 0.75390625, "learning_rate": 9.945451415599638e-05, "loss": 0.3937, "step": 71070 }, { "epoch": 94.77333333333333, "grad_norm": 0.77734375, "learning_rate": 9.94543598304084e-05, "loss": 0.3788, "step": 71080 }, { "epoch": 94.78666666666666, "grad_norm": 0.66796875, "learning_rate": 9.945420548311287e-05, "loss": 0.3807, "step": 71090 }, { "epoch": 94.8, "grad_norm": 0.8125, "learning_rate": 9.945405111410981e-05, "loss": 0.3788, "step": 71100 }, { "epoch": 94.81333333333333, "grad_norm": 0.8984375, "learning_rate": 9.945389672339931e-05, "loss": 0.353, "step": 71110 }, { "epoch": 94.82666666666667, "grad_norm": 0.7265625, "learning_rate": 9.945374231098144e-05, "loss": 0.3597, "step": 71120 }, { "epoch": 94.84, "grad_norm": 0.78515625, "learning_rate": 9.945358787685626e-05, "loss": 0.3736, "step": 71130 }, { "epoch": 94.85333333333334, "grad_norm": 0.703125, "learning_rate": 9.945343342102384e-05, "loss": 0.3681, "step": 71140 }, { "epoch": 94.86666666666666, "grad_norm": 0.73828125, "learning_rate": 9.945327894348424e-05, "loss": 0.3732, "step": 71150 }, { "epoch": 94.88, "grad_norm": 0.7109375, "learning_rate": 9.945312444423755e-05, "loss": 0.3554, "step": 71160 }, { "epoch": 94.89333333333333, "grad_norm": 0.69921875, "learning_rate": 9.945296992328382e-05, "loss": 0.3672, "step": 71170 }, { "epoch": 94.90666666666667, "grad_norm": 0.7890625, "learning_rate": 9.94528153806231e-05, "loss": 0.3713, "step": 71180 }, { "epoch": 94.92, "grad_norm": 0.74609375, "learning_rate": 9.945266081625551e-05, "loss": 0.374, "step": 71190 }, { "epoch": 94.93333333333334, "grad_norm": 0.67578125, "learning_rate": 9.945250623018105e-05, "loss": 0.3689, "step": 71200 }, { "epoch": 94.94666666666667, "grad_norm": 0.75, "learning_rate": 9.945235162239985e-05, "loss": 0.3686, "step": 71210 }, { "epoch": 94.96, "grad_norm": 0.6796875, "learning_rate": 9.945219699291196e-05, "loss": 0.3677, "step": 71220 }, { "epoch": 94.97333333333333, "grad_norm": 0.90625, "learning_rate": 9.945204234171742e-05, "loss": 0.3906, "step": 71230 }, { "epoch": 94.98666666666666, "grad_norm": 0.82421875, "learning_rate": 9.945188766881632e-05, "loss": 0.3613, "step": 71240 }, { "epoch": 95.0, "grad_norm": 0.71484375, "learning_rate": 9.945173297420875e-05, "loss": 0.3608, "step": 71250 }, { "epoch": 95.0, "eval_loss": 0.41942158341407776, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.0335, "eval_samples_per_second": 1.45, "eval_steps_per_second": 0.091, "step": 71250 }, { "epoch": 95.01333333333334, "grad_norm": 0.78125, "learning_rate": 9.945157825789473e-05, "loss": 0.3774, "step": 71260 }, { "epoch": 95.02666666666667, "grad_norm": 0.703125, "learning_rate": 9.945142351987436e-05, "loss": 0.3921, "step": 71270 }, { "epoch": 95.04, "grad_norm": 0.703125, "learning_rate": 9.94512687601477e-05, "loss": 0.4047, "step": 71280 }, { "epoch": 95.05333333333333, "grad_norm": 0.75, "learning_rate": 9.945111397871482e-05, "loss": 0.389, "step": 71290 }, { "epoch": 95.06666666666666, "grad_norm": 0.82421875, "learning_rate": 9.945095917557579e-05, "loss": 0.3773, "step": 71300 }, { "epoch": 95.08, "grad_norm": 0.7734375, "learning_rate": 9.945080435073065e-05, "loss": 0.3804, "step": 71310 }, { "epoch": 95.09333333333333, "grad_norm": 0.7734375, "learning_rate": 9.945064950417952e-05, "loss": 0.3843, "step": 71320 }, { "epoch": 95.10666666666667, "grad_norm": 0.67578125, "learning_rate": 9.945049463592242e-05, "loss": 0.372, "step": 71330 }, { "epoch": 95.12, "grad_norm": 0.75, "learning_rate": 9.945033974595945e-05, "loss": 0.3744, "step": 71340 }, { "epoch": 95.13333333333334, "grad_norm": 0.73046875, "learning_rate": 9.945018483429066e-05, "loss": 0.366, "step": 71350 }, { "epoch": 95.14666666666666, "grad_norm": 0.75390625, "learning_rate": 9.945002990091613e-05, "loss": 0.3855, "step": 71360 }, { "epoch": 95.16, "grad_norm": 0.734375, "learning_rate": 9.94498749458359e-05, "loss": 0.3796, "step": 71370 }, { "epoch": 95.17333333333333, "grad_norm": 0.75390625, "learning_rate": 9.944971996905008e-05, "loss": 0.3747, "step": 71380 }, { "epoch": 95.18666666666667, "grad_norm": 0.74609375, "learning_rate": 9.944956497055872e-05, "loss": 0.3717, "step": 71390 }, { "epoch": 95.2, "grad_norm": 0.75, "learning_rate": 9.944940995036187e-05, "loss": 0.3635, "step": 71400 }, { "epoch": 95.21333333333334, "grad_norm": 0.78515625, "learning_rate": 9.944925490845963e-05, "loss": 0.3641, "step": 71410 }, { "epoch": 95.22666666666667, "grad_norm": 0.78515625, "learning_rate": 9.944909984485205e-05, "loss": 0.375, "step": 71420 }, { "epoch": 95.24, "grad_norm": 0.8671875, "learning_rate": 9.944894475953918e-05, "loss": 0.3613, "step": 71430 }, { "epoch": 95.25333333333333, "grad_norm": 0.87109375, "learning_rate": 9.944878965252113e-05, "loss": 0.3629, "step": 71440 }, { "epoch": 95.26666666666667, "grad_norm": 0.8125, "learning_rate": 9.944863452379794e-05, "loss": 0.3665, "step": 71450 }, { "epoch": 95.28, "grad_norm": 0.7890625, "learning_rate": 9.944847937336968e-05, "loss": 0.3934, "step": 71460 }, { "epoch": 95.29333333333334, "grad_norm": 0.73046875, "learning_rate": 9.944832420123643e-05, "loss": 0.3523, "step": 71470 }, { "epoch": 95.30666666666667, "grad_norm": 0.69921875, "learning_rate": 9.944816900739825e-05, "loss": 0.3772, "step": 71480 }, { "epoch": 95.32, "grad_norm": 0.67578125, "learning_rate": 9.94480137918552e-05, "loss": 0.3799, "step": 71490 }, { "epoch": 95.33333333333333, "grad_norm": 0.75, "learning_rate": 9.944785855460737e-05, "loss": 0.3787, "step": 71500 }, { "epoch": 95.34666666666666, "grad_norm": 0.76171875, "learning_rate": 9.94477032956548e-05, "loss": 0.3692, "step": 71510 }, { "epoch": 95.36, "grad_norm": 0.73828125, "learning_rate": 9.944754801499757e-05, "loss": 0.3711, "step": 71520 }, { "epoch": 95.37333333333333, "grad_norm": 0.67578125, "learning_rate": 9.944739271263577e-05, "loss": 0.3731, "step": 71530 }, { "epoch": 95.38666666666667, "grad_norm": 0.88671875, "learning_rate": 9.944723738856943e-05, "loss": 0.3623, "step": 71540 }, { "epoch": 95.4, "grad_norm": 0.78125, "learning_rate": 9.944708204279865e-05, "loss": 0.3725, "step": 71550 }, { "epoch": 95.41333333333333, "grad_norm": 0.69921875, "learning_rate": 9.944692667532347e-05, "loss": 0.3777, "step": 71560 }, { "epoch": 95.42666666666666, "grad_norm": 0.73046875, "learning_rate": 9.9446771286144e-05, "loss": 0.3795, "step": 71570 }, { "epoch": 95.44, "grad_norm": 0.7265625, "learning_rate": 9.944661587526025e-05, "loss": 0.3916, "step": 71580 }, { "epoch": 95.45333333333333, "grad_norm": 0.75390625, "learning_rate": 9.944646044267234e-05, "loss": 0.3784, "step": 71590 }, { "epoch": 95.46666666666667, "grad_norm": 0.80078125, "learning_rate": 9.944630498838032e-05, "loss": 0.3858, "step": 71600 }, { "epoch": 95.48, "grad_norm": 0.7265625, "learning_rate": 9.944614951238424e-05, "loss": 0.3697, "step": 71610 }, { "epoch": 95.49333333333334, "grad_norm": 0.7265625, "learning_rate": 9.944599401468421e-05, "loss": 0.3805, "step": 71620 }, { "epoch": 95.50666666666666, "grad_norm": 0.73828125, "learning_rate": 9.944583849528027e-05, "loss": 0.3797, "step": 71630 }, { "epoch": 95.52, "grad_norm": 0.7578125, "learning_rate": 9.944568295417247e-05, "loss": 0.3714, "step": 71640 }, { "epoch": 95.53333333333333, "grad_norm": 0.75390625, "learning_rate": 9.944552739136091e-05, "loss": 0.3724, "step": 71650 }, { "epoch": 95.54666666666667, "grad_norm": 0.859375, "learning_rate": 9.944537180684565e-05, "loss": 0.3736, "step": 71660 }, { "epoch": 95.56, "grad_norm": 0.6953125, "learning_rate": 9.944521620062674e-05, "loss": 0.3676, "step": 71670 }, { "epoch": 95.57333333333334, "grad_norm": 0.78515625, "learning_rate": 9.944506057270429e-05, "loss": 0.3737, "step": 71680 }, { "epoch": 95.58666666666667, "grad_norm": 0.71875, "learning_rate": 9.944490492307834e-05, "loss": 0.3622, "step": 71690 }, { "epoch": 95.6, "grad_norm": 0.75390625, "learning_rate": 9.944474925174895e-05, "loss": 0.3646, "step": 71700 }, { "epoch": 95.61333333333333, "grad_norm": 0.6953125, "learning_rate": 9.944459355871621e-05, "loss": 0.3553, "step": 71710 }, { "epoch": 95.62666666666667, "grad_norm": 0.6171875, "learning_rate": 9.944443784398017e-05, "loss": 0.3608, "step": 71720 }, { "epoch": 95.64, "grad_norm": 0.77734375, "learning_rate": 9.944428210754089e-05, "loss": 0.3685, "step": 71730 }, { "epoch": 95.65333333333334, "grad_norm": 0.73046875, "learning_rate": 9.944412634939848e-05, "loss": 0.3792, "step": 71740 }, { "epoch": 95.66666666666667, "grad_norm": 0.65625, "learning_rate": 9.944397056955298e-05, "loss": 0.3696, "step": 71750 }, { "epoch": 95.68, "grad_norm": 0.7890625, "learning_rate": 9.944381476800445e-05, "loss": 0.3592, "step": 71760 }, { "epoch": 95.69333333333333, "grad_norm": 0.67578125, "learning_rate": 9.944365894475299e-05, "loss": 0.3697, "step": 71770 }, { "epoch": 95.70666666666666, "grad_norm": 0.8828125, "learning_rate": 9.944350309979861e-05, "loss": 0.36, "step": 71780 }, { "epoch": 95.72, "grad_norm": 0.78125, "learning_rate": 9.944334723314145e-05, "loss": 0.3823, "step": 71790 }, { "epoch": 95.73333333333333, "grad_norm": 0.77734375, "learning_rate": 9.944319134478153e-05, "loss": 0.3769, "step": 71800 }, { "epoch": 95.74666666666667, "grad_norm": 0.7421875, "learning_rate": 9.944303543471895e-05, "loss": 0.3794, "step": 71810 }, { "epoch": 95.76, "grad_norm": 0.78125, "learning_rate": 9.944287950295374e-05, "loss": 0.3932, "step": 71820 }, { "epoch": 95.77333333333333, "grad_norm": 0.78125, "learning_rate": 9.9442723549486e-05, "loss": 0.3779, "step": 71830 }, { "epoch": 95.78666666666666, "grad_norm": 0.66015625, "learning_rate": 9.944256757431581e-05, "loss": 0.3798, "step": 71840 }, { "epoch": 95.8, "grad_norm": 0.73046875, "learning_rate": 9.944241157744319e-05, "loss": 0.3778, "step": 71850 }, { "epoch": 95.81333333333333, "grad_norm": 0.81640625, "learning_rate": 9.944225555886823e-05, "loss": 0.3526, "step": 71860 }, { "epoch": 95.82666666666667, "grad_norm": 0.78125, "learning_rate": 9.944209951859103e-05, "loss": 0.36, "step": 71870 }, { "epoch": 95.84, "grad_norm": 0.74609375, "learning_rate": 9.944194345661162e-05, "loss": 0.3715, "step": 71880 }, { "epoch": 95.85333333333334, "grad_norm": 0.79296875, "learning_rate": 9.944178737293008e-05, "loss": 0.3683, "step": 71890 }, { "epoch": 95.86666666666666, "grad_norm": 0.76953125, "learning_rate": 9.944163126754647e-05, "loss": 0.3736, "step": 71900 }, { "epoch": 95.88, "grad_norm": 0.65625, "learning_rate": 9.944147514046087e-05, "loss": 0.3545, "step": 71910 }, { "epoch": 95.89333333333333, "grad_norm": 0.66796875, "learning_rate": 9.944131899167337e-05, "loss": 0.3671, "step": 71920 }, { "epoch": 95.90666666666667, "grad_norm": 0.72265625, "learning_rate": 9.944116282118398e-05, "loss": 0.3715, "step": 71930 }, { "epoch": 95.92, "grad_norm": 0.7109375, "learning_rate": 9.944100662899283e-05, "loss": 0.3723, "step": 71940 }, { "epoch": 95.93333333333334, "grad_norm": 0.63671875, "learning_rate": 9.944085041509996e-05, "loss": 0.3684, "step": 71950 }, { "epoch": 95.94666666666667, "grad_norm": 0.6953125, "learning_rate": 9.944069417950543e-05, "loss": 0.3695, "step": 71960 }, { "epoch": 95.96, "grad_norm": 0.63671875, "learning_rate": 9.944053792220934e-05, "loss": 0.3678, "step": 71970 }, { "epoch": 95.97333333333333, "grad_norm": 0.9765625, "learning_rate": 9.944038164321173e-05, "loss": 0.3903, "step": 71980 }, { "epoch": 95.98666666666666, "grad_norm": 0.76953125, "learning_rate": 9.944022534251266e-05, "loss": 0.3606, "step": 71990 }, { "epoch": 96.0, "grad_norm": 0.69921875, "learning_rate": 9.944006902011223e-05, "loss": 0.3609, "step": 72000 }, { "epoch": 96.0, "eval_loss": 0.4199633300304413, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.1815, "eval_samples_per_second": 1.313, "eval_steps_per_second": 0.082, "step": 72000 }, { "epoch": 96.01333333333334, "grad_norm": 0.85546875, "learning_rate": 9.943991267601049e-05, "loss": 0.3763, "step": 72010 }, { "epoch": 96.02666666666667, "grad_norm": 0.69140625, "learning_rate": 9.94397563102075e-05, "loss": 0.3919, "step": 72020 }, { "epoch": 96.04, "grad_norm": 0.66796875, "learning_rate": 9.943959992270335e-05, "loss": 0.4047, "step": 72030 }, { "epoch": 96.05333333333333, "grad_norm": 0.7265625, "learning_rate": 9.943944351349811e-05, "loss": 0.3887, "step": 72040 }, { "epoch": 96.06666666666666, "grad_norm": 0.8828125, "learning_rate": 9.943928708259182e-05, "loss": 0.3773, "step": 72050 }, { "epoch": 96.08, "grad_norm": 0.796875, "learning_rate": 9.94391306299846e-05, "loss": 0.3798, "step": 72060 }, { "epoch": 96.09333333333333, "grad_norm": 0.84765625, "learning_rate": 9.943897415567646e-05, "loss": 0.3822, "step": 72070 }, { "epoch": 96.10666666666667, "grad_norm": 0.671875, "learning_rate": 9.943881765966749e-05, "loss": 0.3712, "step": 72080 }, { "epoch": 96.12, "grad_norm": 0.71484375, "learning_rate": 9.943866114195778e-05, "loss": 0.373, "step": 72090 }, { "epoch": 96.13333333333334, "grad_norm": 0.76171875, "learning_rate": 9.943850460254737e-05, "loss": 0.3653, "step": 72100 }, { "epoch": 96.14666666666666, "grad_norm": 0.7734375, "learning_rate": 9.943834804143635e-05, "loss": 0.3846, "step": 72110 }, { "epoch": 96.16, "grad_norm": 0.703125, "learning_rate": 9.943819145862476e-05, "loss": 0.379, "step": 72120 }, { "epoch": 96.17333333333333, "grad_norm": 0.72265625, "learning_rate": 9.943803485411271e-05, "loss": 0.3749, "step": 72130 }, { "epoch": 96.18666666666667, "grad_norm": 0.6875, "learning_rate": 9.943787822790024e-05, "loss": 0.3714, "step": 72140 }, { "epoch": 96.2, "grad_norm": 0.78515625, "learning_rate": 9.943772157998742e-05, "loss": 0.3634, "step": 72150 }, { "epoch": 96.21333333333334, "grad_norm": 0.77734375, "learning_rate": 9.943756491037433e-05, "loss": 0.3643, "step": 72160 }, { "epoch": 96.22666666666667, "grad_norm": 0.78515625, "learning_rate": 9.943740821906103e-05, "loss": 0.3752, "step": 72170 }, { "epoch": 96.24, "grad_norm": 0.765625, "learning_rate": 9.943725150604759e-05, "loss": 0.3614, "step": 72180 }, { "epoch": 96.25333333333333, "grad_norm": 0.79296875, "learning_rate": 9.94370947713341e-05, "loss": 0.3632, "step": 72190 }, { "epoch": 96.26666666666667, "grad_norm": 0.734375, "learning_rate": 9.943693801492058e-05, "loss": 0.3659, "step": 72200 }, { "epoch": 96.28, "grad_norm": 0.81640625, "learning_rate": 9.943678123680714e-05, "loss": 0.3935, "step": 72210 }, { "epoch": 96.29333333333334, "grad_norm": 0.75, "learning_rate": 9.943662443699384e-05, "loss": 0.3524, "step": 72220 }, { "epoch": 96.30666666666667, "grad_norm": 0.765625, "learning_rate": 9.943646761548075e-05, "loss": 0.3764, "step": 72230 }, { "epoch": 96.32, "grad_norm": 0.65234375, "learning_rate": 9.943631077226792e-05, "loss": 0.38, "step": 72240 }, { "epoch": 96.33333333333333, "grad_norm": 0.7421875, "learning_rate": 9.943615390735545e-05, "loss": 0.3781, "step": 72250 }, { "epoch": 96.34666666666666, "grad_norm": 0.76953125, "learning_rate": 9.943599702074338e-05, "loss": 0.3695, "step": 72260 }, { "epoch": 96.36, "grad_norm": 0.796875, "learning_rate": 9.943584011243178e-05, "loss": 0.3699, "step": 72270 }, { "epoch": 96.37333333333333, "grad_norm": 0.66015625, "learning_rate": 9.943568318242076e-05, "loss": 0.3738, "step": 72280 }, { "epoch": 96.38666666666667, "grad_norm": 0.85546875, "learning_rate": 9.943552623071035e-05, "loss": 0.362, "step": 72290 }, { "epoch": 96.4, "grad_norm": 0.75390625, "learning_rate": 9.943536925730061e-05, "loss": 0.3714, "step": 72300 }, { "epoch": 96.41333333333333, "grad_norm": 0.703125, "learning_rate": 9.943521226219164e-05, "loss": 0.3766, "step": 72310 }, { "epoch": 96.42666666666666, "grad_norm": 0.703125, "learning_rate": 9.94350552453835e-05, "loss": 0.379, "step": 72320 }, { "epoch": 96.44, "grad_norm": 0.71484375, "learning_rate": 9.943489820687625e-05, "loss": 0.391, "step": 72330 }, { "epoch": 96.45333333333333, "grad_norm": 0.7890625, "learning_rate": 9.943474114666997e-05, "loss": 0.3781, "step": 72340 }, { "epoch": 96.46666666666667, "grad_norm": 0.765625, "learning_rate": 9.943458406476472e-05, "loss": 0.3858, "step": 72350 }, { "epoch": 96.48, "grad_norm": 0.80078125, "learning_rate": 9.943442696116057e-05, "loss": 0.3696, "step": 72360 }, { "epoch": 96.49333333333334, "grad_norm": 0.75390625, "learning_rate": 9.943426983585758e-05, "loss": 0.3806, "step": 72370 }, { "epoch": 96.50666666666666, "grad_norm": 0.765625, "learning_rate": 9.943411268885583e-05, "loss": 0.3798, "step": 72380 }, { "epoch": 96.52, "grad_norm": 0.6328125, "learning_rate": 9.94339555201554e-05, "loss": 0.37, "step": 72390 }, { "epoch": 96.53333333333333, "grad_norm": 0.765625, "learning_rate": 9.943379832975634e-05, "loss": 0.3722, "step": 72400 }, { "epoch": 96.54666666666667, "grad_norm": 0.8046875, "learning_rate": 9.943364111765873e-05, "loss": 0.3733, "step": 72410 }, { "epoch": 96.56, "grad_norm": 0.6953125, "learning_rate": 9.943348388386263e-05, "loss": 0.3673, "step": 72420 }, { "epoch": 96.57333333333334, "grad_norm": 0.83203125, "learning_rate": 9.943332662836813e-05, "loss": 0.372, "step": 72430 }, { "epoch": 96.58666666666667, "grad_norm": 0.65625, "learning_rate": 9.943316935117526e-05, "loss": 0.3619, "step": 72440 }, { "epoch": 96.6, "grad_norm": 0.734375, "learning_rate": 9.943301205228412e-05, "loss": 0.3635, "step": 72450 }, { "epoch": 96.61333333333333, "grad_norm": 0.6953125, "learning_rate": 9.94328547316948e-05, "loss": 0.3559, "step": 72460 }, { "epoch": 96.62666666666667, "grad_norm": 0.6875, "learning_rate": 9.943269738940731e-05, "loss": 0.3602, "step": 72470 }, { "epoch": 96.64, "grad_norm": 0.73828125, "learning_rate": 9.943254002542175e-05, "loss": 0.3682, "step": 72480 }, { "epoch": 96.65333333333334, "grad_norm": 0.77734375, "learning_rate": 9.943238263973819e-05, "loss": 0.3788, "step": 72490 }, { "epoch": 96.66666666666667, "grad_norm": 0.6484375, "learning_rate": 9.94322252323567e-05, "loss": 0.3693, "step": 72500 }, { "epoch": 96.68, "grad_norm": 0.78125, "learning_rate": 9.943206780327735e-05, "loss": 0.3586, "step": 72510 }, { "epoch": 96.69333333333333, "grad_norm": 0.64453125, "learning_rate": 9.943191035250021e-05, "loss": 0.3703, "step": 72520 }, { "epoch": 96.70666666666666, "grad_norm": 0.80859375, "learning_rate": 9.943175288002534e-05, "loss": 0.3598, "step": 72530 }, { "epoch": 96.72, "grad_norm": 0.70703125, "learning_rate": 9.94315953858528e-05, "loss": 0.3823, "step": 72540 }, { "epoch": 96.73333333333333, "grad_norm": 0.75, "learning_rate": 9.943143786998271e-05, "loss": 0.3774, "step": 72550 }, { "epoch": 96.74666666666667, "grad_norm": 0.75, "learning_rate": 9.943128033241507e-05, "loss": 0.379, "step": 72560 }, { "epoch": 96.76, "grad_norm": 0.75, "learning_rate": 9.943112277314998e-05, "loss": 0.3926, "step": 72570 }, { "epoch": 96.77333333333333, "grad_norm": 0.84375, "learning_rate": 9.943096519218753e-05, "loss": 0.377, "step": 72580 }, { "epoch": 96.78666666666666, "grad_norm": 0.6953125, "learning_rate": 9.943080758952776e-05, "loss": 0.3801, "step": 72590 }, { "epoch": 96.8, "grad_norm": 0.76171875, "learning_rate": 9.943064996517076e-05, "loss": 0.3787, "step": 72600 }, { "epoch": 96.81333333333333, "grad_norm": 0.8359375, "learning_rate": 9.943049231911657e-05, "loss": 0.3517, "step": 72610 }, { "epoch": 96.82666666666667, "grad_norm": 0.6875, "learning_rate": 9.943033465136528e-05, "loss": 0.3594, "step": 72620 }, { "epoch": 96.84, "grad_norm": 0.7578125, "learning_rate": 9.943017696191698e-05, "loss": 0.3719, "step": 72630 }, { "epoch": 96.85333333333334, "grad_norm": 0.76171875, "learning_rate": 9.943001925077169e-05, "loss": 0.3673, "step": 72640 }, { "epoch": 96.86666666666666, "grad_norm": 0.765625, "learning_rate": 9.942986151792952e-05, "loss": 0.3731, "step": 72650 }, { "epoch": 96.88, "grad_norm": 0.73828125, "learning_rate": 9.942970376339051e-05, "loss": 0.3537, "step": 72660 }, { "epoch": 96.89333333333333, "grad_norm": 0.71875, "learning_rate": 9.942954598715477e-05, "loss": 0.3669, "step": 72670 }, { "epoch": 96.90666666666667, "grad_norm": 0.734375, "learning_rate": 9.942938818922232e-05, "loss": 0.372, "step": 72680 }, { "epoch": 96.92, "grad_norm": 0.76953125, "learning_rate": 9.942923036959326e-05, "loss": 0.3738, "step": 72690 }, { "epoch": 96.93333333333334, "grad_norm": 0.6796875, "learning_rate": 9.942907252826765e-05, "loss": 0.3689, "step": 72700 }, { "epoch": 96.94666666666667, "grad_norm": 0.76953125, "learning_rate": 9.942891466524556e-05, "loss": 0.3687, "step": 72710 }, { "epoch": 96.96, "grad_norm": 0.69921875, "learning_rate": 9.942875678052705e-05, "loss": 0.3666, "step": 72720 }, { "epoch": 96.97333333333333, "grad_norm": 0.92578125, "learning_rate": 9.942859887411222e-05, "loss": 0.3893, "step": 72730 }, { "epoch": 96.98666666666666, "grad_norm": 0.71875, "learning_rate": 9.94284409460011e-05, "loss": 0.36, "step": 72740 }, { "epoch": 97.0, "grad_norm": 0.75390625, "learning_rate": 9.942828299619379e-05, "loss": 0.36, "step": 72750 }, { "epoch": 97.0, "eval_loss": 0.4206903576850891, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.5471, "eval_samples_per_second": 1.386, "eval_steps_per_second": 0.087, "step": 72750 }, { "epoch": 97.01333333333334, "grad_norm": 0.8203125, "learning_rate": 9.942812502469035e-05, "loss": 0.3771, "step": 72760 }, { "epoch": 97.02666666666667, "grad_norm": 0.73046875, "learning_rate": 9.942796703149084e-05, "loss": 0.3923, "step": 72770 }, { "epoch": 97.04, "grad_norm": 0.70703125, "learning_rate": 9.942780901659532e-05, "loss": 0.4045, "step": 72780 }, { "epoch": 97.05333333333333, "grad_norm": 0.73046875, "learning_rate": 9.942765098000389e-05, "loss": 0.3887, "step": 72790 }, { "epoch": 97.06666666666666, "grad_norm": 0.796875, "learning_rate": 9.942749292171661e-05, "loss": 0.3768, "step": 72800 }, { "epoch": 97.08, "grad_norm": 0.7578125, "learning_rate": 9.942733484173355e-05, "loss": 0.3805, "step": 72810 }, { "epoch": 97.09333333333333, "grad_norm": 0.71875, "learning_rate": 9.942717674005476e-05, "loss": 0.3823, "step": 72820 }, { "epoch": 97.10666666666667, "grad_norm": 0.671875, "learning_rate": 9.942701861668031e-05, "loss": 0.371, "step": 72830 }, { "epoch": 97.12, "grad_norm": 0.7578125, "learning_rate": 9.942686047161031e-05, "loss": 0.3729, "step": 72840 }, { "epoch": 97.13333333333334, "grad_norm": 0.7109375, "learning_rate": 9.942670230484479e-05, "loss": 0.3644, "step": 72850 }, { "epoch": 97.14666666666666, "grad_norm": 0.7265625, "learning_rate": 9.942654411638383e-05, "loss": 0.3836, "step": 72860 }, { "epoch": 97.16, "grad_norm": 0.69140625, "learning_rate": 9.94263859062275e-05, "loss": 0.3799, "step": 72870 }, { "epoch": 97.17333333333333, "grad_norm": 0.83203125, "learning_rate": 9.942622767437587e-05, "loss": 0.3742, "step": 72880 }, { "epoch": 97.18666666666667, "grad_norm": 0.72265625, "learning_rate": 9.942606942082901e-05, "loss": 0.3713, "step": 72890 }, { "epoch": 97.2, "grad_norm": 0.74609375, "learning_rate": 9.942591114558699e-05, "loss": 0.3631, "step": 72900 }, { "epoch": 97.21333333333334, "grad_norm": 0.75, "learning_rate": 9.942575284864988e-05, "loss": 0.3641, "step": 72910 }, { "epoch": 97.22666666666667, "grad_norm": 0.76953125, "learning_rate": 9.942559453001774e-05, "loss": 0.3752, "step": 72920 }, { "epoch": 97.24, "grad_norm": 0.73828125, "learning_rate": 9.942543618969064e-05, "loss": 0.3613, "step": 72930 }, { "epoch": 97.25333333333333, "grad_norm": 0.7578125, "learning_rate": 9.942527782766869e-05, "loss": 0.3626, "step": 72940 }, { "epoch": 97.26666666666667, "grad_norm": 0.71875, "learning_rate": 9.94251194439519e-05, "loss": 0.3653, "step": 72950 }, { "epoch": 97.28, "grad_norm": 0.78125, "learning_rate": 9.942496103854038e-05, "loss": 0.3937, "step": 72960 }, { "epoch": 97.29333333333334, "grad_norm": 0.7734375, "learning_rate": 9.942480261143417e-05, "loss": 0.3524, "step": 72970 }, { "epoch": 97.30666666666667, "grad_norm": 0.7421875, "learning_rate": 9.942464416263337e-05, "loss": 0.3768, "step": 72980 }, { "epoch": 97.32, "grad_norm": 0.64453125, "learning_rate": 9.942448569213801e-05, "loss": 0.3784, "step": 72990 }, { "epoch": 97.33333333333333, "grad_norm": 0.74609375, "learning_rate": 9.942432719994821e-05, "loss": 0.3786, "step": 73000 }, { "epoch": 97.34666666666666, "grad_norm": 0.796875, "learning_rate": 9.942416868606401e-05, "loss": 0.3696, "step": 73010 }, { "epoch": 97.36, "grad_norm": 0.7578125, "learning_rate": 9.942401015048548e-05, "loss": 0.3701, "step": 73020 }, { "epoch": 97.37333333333333, "grad_norm": 0.68359375, "learning_rate": 9.942385159321268e-05, "loss": 0.3736, "step": 73030 }, { "epoch": 97.38666666666667, "grad_norm": 0.8671875, "learning_rate": 9.94236930142457e-05, "loss": 0.3619, "step": 73040 }, { "epoch": 97.4, "grad_norm": 0.73046875, "learning_rate": 9.94235344135846e-05, "loss": 0.3711, "step": 73050 }, { "epoch": 97.41333333333333, "grad_norm": 0.70703125, "learning_rate": 9.942337579122947e-05, "loss": 0.3761, "step": 73060 }, { "epoch": 97.42666666666666, "grad_norm": 0.73046875, "learning_rate": 9.942321714718034e-05, "loss": 0.378, "step": 73070 }, { "epoch": 97.44, "grad_norm": 0.78515625, "learning_rate": 9.942305848143732e-05, "loss": 0.3913, "step": 73080 }, { "epoch": 97.45333333333333, "grad_norm": 0.76953125, "learning_rate": 9.942289979400043e-05, "loss": 0.3786, "step": 73090 }, { "epoch": 97.46666666666667, "grad_norm": 0.7265625, "learning_rate": 9.942274108486979e-05, "loss": 0.386, "step": 73100 }, { "epoch": 97.48, "grad_norm": 0.70703125, "learning_rate": 9.942258235404545e-05, "loss": 0.3687, "step": 73110 }, { "epoch": 97.49333333333334, "grad_norm": 0.671875, "learning_rate": 9.942242360152748e-05, "loss": 0.3812, "step": 73120 }, { "epoch": 97.50666666666666, "grad_norm": 0.77734375, "learning_rate": 9.942226482731594e-05, "loss": 0.3794, "step": 73130 }, { "epoch": 97.52, "grad_norm": 0.6796875, "learning_rate": 9.942210603141092e-05, "loss": 0.3713, "step": 73140 }, { "epoch": 97.53333333333333, "grad_norm": 0.7734375, "learning_rate": 9.942194721381248e-05, "loss": 0.372, "step": 73150 }, { "epoch": 97.54666666666667, "grad_norm": 0.82421875, "learning_rate": 9.942178837452068e-05, "loss": 0.3736, "step": 73160 }, { "epoch": 97.56, "grad_norm": 0.67578125, "learning_rate": 9.94216295135356e-05, "loss": 0.3676, "step": 73170 }, { "epoch": 97.57333333333334, "grad_norm": 0.734375, "learning_rate": 9.942147063085732e-05, "loss": 0.3719, "step": 73180 }, { "epoch": 97.58666666666667, "grad_norm": 0.69140625, "learning_rate": 9.942131172648587e-05, "loss": 0.3631, "step": 73190 }, { "epoch": 97.6, "grad_norm": 0.72265625, "learning_rate": 9.942115280042137e-05, "loss": 0.3635, "step": 73200 }, { "epoch": 97.61333333333333, "grad_norm": 0.6640625, "learning_rate": 9.942099385266386e-05, "loss": 0.3558, "step": 73210 }, { "epoch": 97.62666666666667, "grad_norm": 0.6640625, "learning_rate": 9.942083488321342e-05, "loss": 0.3609, "step": 73220 }, { "epoch": 97.64, "grad_norm": 0.80859375, "learning_rate": 9.942067589207012e-05, "loss": 0.3685, "step": 73230 }, { "epoch": 97.65333333333334, "grad_norm": 0.76953125, "learning_rate": 9.942051687923401e-05, "loss": 0.3787, "step": 73240 }, { "epoch": 97.66666666666667, "grad_norm": 0.6875, "learning_rate": 9.942035784470518e-05, "loss": 0.369, "step": 73250 }, { "epoch": 97.68, "grad_norm": 0.75, "learning_rate": 9.942019878848371e-05, "loss": 0.3586, "step": 73260 }, { "epoch": 97.69333333333333, "grad_norm": 0.68359375, "learning_rate": 9.942003971056965e-05, "loss": 0.3687, "step": 73270 }, { "epoch": 97.70666666666666, "grad_norm": 0.87109375, "learning_rate": 9.941988061096307e-05, "loss": 0.3597, "step": 73280 }, { "epoch": 97.72, "grad_norm": 0.73828125, "learning_rate": 9.941972148966405e-05, "loss": 0.381, "step": 73290 }, { "epoch": 97.73333333333333, "grad_norm": 0.83203125, "learning_rate": 9.941956234667265e-05, "loss": 0.3773, "step": 73300 }, { "epoch": 97.74666666666667, "grad_norm": 0.7265625, "learning_rate": 9.941940318198895e-05, "loss": 0.3795, "step": 73310 }, { "epoch": 97.76, "grad_norm": 0.78515625, "learning_rate": 9.941924399561303e-05, "loss": 0.3933, "step": 73320 }, { "epoch": 97.77333333333333, "grad_norm": 0.81640625, "learning_rate": 9.941908478754491e-05, "loss": 0.3775, "step": 73330 }, { "epoch": 97.78666666666666, "grad_norm": 0.74609375, "learning_rate": 9.941892555778471e-05, "loss": 0.3812, "step": 73340 }, { "epoch": 97.8, "grad_norm": 0.734375, "learning_rate": 9.941876630633249e-05, "loss": 0.3772, "step": 73350 }, { "epoch": 97.81333333333333, "grad_norm": 0.921875, "learning_rate": 9.941860703318833e-05, "loss": 0.3511, "step": 73360 }, { "epoch": 97.82666666666667, "grad_norm": 0.71484375, "learning_rate": 9.941844773835226e-05, "loss": 0.3599, "step": 73370 }, { "epoch": 97.84, "grad_norm": 0.82421875, "learning_rate": 9.941828842182438e-05, "loss": 0.3719, "step": 73380 }, { "epoch": 97.85333333333334, "grad_norm": 0.78515625, "learning_rate": 9.941812908360476e-05, "loss": 0.3671, "step": 73390 }, { "epoch": 97.86666666666666, "grad_norm": 0.80078125, "learning_rate": 9.941796972369346e-05, "loss": 0.3725, "step": 73400 }, { "epoch": 97.88, "grad_norm": 0.703125, "learning_rate": 9.941781034209055e-05, "loss": 0.3538, "step": 73410 }, { "epoch": 97.89333333333333, "grad_norm": 0.71875, "learning_rate": 9.94176509387961e-05, "loss": 0.3667, "step": 73420 }, { "epoch": 97.90666666666667, "grad_norm": 0.75, "learning_rate": 9.941749151381019e-05, "loss": 0.3712, "step": 73430 }, { "epoch": 97.92, "grad_norm": 0.76171875, "learning_rate": 9.941733206713289e-05, "loss": 0.3732, "step": 73440 }, { "epoch": 97.93333333333334, "grad_norm": 0.67578125, "learning_rate": 9.941717259876426e-05, "loss": 0.3685, "step": 73450 }, { "epoch": 97.94666666666667, "grad_norm": 0.734375, "learning_rate": 9.941701310870438e-05, "loss": 0.3686, "step": 73460 }, { "epoch": 97.96, "grad_norm": 0.70703125, "learning_rate": 9.94168535969533e-05, "loss": 0.3667, "step": 73470 }, { "epoch": 97.97333333333333, "grad_norm": 0.953125, "learning_rate": 9.941669406351112e-05, "loss": 0.3893, "step": 73480 }, { "epoch": 97.98666666666666, "grad_norm": 0.77734375, "learning_rate": 9.941653450837789e-05, "loss": 0.3591, "step": 73490 }, { "epoch": 98.0, "grad_norm": 0.703125, "learning_rate": 9.941637493155367e-05, "loss": 0.3602, "step": 73500 }, { "epoch": 98.0, "eval_loss": 0.41841921210289, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9427, "eval_samples_per_second": 1.462, "eval_steps_per_second": 0.091, "step": 73500 }, { "epoch": 98.01333333333334, "grad_norm": 0.71875, "learning_rate": 9.941621533303855e-05, "loss": 0.3759, "step": 73510 }, { "epoch": 98.02666666666667, "grad_norm": 0.71875, "learning_rate": 9.94160557128326e-05, "loss": 0.3919, "step": 73520 }, { "epoch": 98.04, "grad_norm": 0.6796875, "learning_rate": 9.941589607093589e-05, "loss": 0.4041, "step": 73530 }, { "epoch": 98.05333333333333, "grad_norm": 0.765625, "learning_rate": 9.941573640734848e-05, "loss": 0.3883, "step": 73540 }, { "epoch": 98.06666666666666, "grad_norm": 0.82421875, "learning_rate": 9.941557672207045e-05, "loss": 0.3763, "step": 73550 }, { "epoch": 98.08, "grad_norm": 0.74609375, "learning_rate": 9.941541701510185e-05, "loss": 0.3809, "step": 73560 }, { "epoch": 98.09333333333333, "grad_norm": 0.73046875, "learning_rate": 9.941525728644277e-05, "loss": 0.3819, "step": 73570 }, { "epoch": 98.10666666666667, "grad_norm": 0.6953125, "learning_rate": 9.941509753609328e-05, "loss": 0.3704, "step": 73580 }, { "epoch": 98.12, "grad_norm": 0.7890625, "learning_rate": 9.941493776405344e-05, "loss": 0.373, "step": 73590 }, { "epoch": 98.13333333333334, "grad_norm": 0.7421875, "learning_rate": 9.941477797032333e-05, "loss": 0.3652, "step": 73600 }, { "epoch": 98.14666666666666, "grad_norm": 0.79296875, "learning_rate": 9.9414618154903e-05, "loss": 0.3834, "step": 73610 }, { "epoch": 98.16, "grad_norm": 0.6796875, "learning_rate": 9.941445831779255e-05, "loss": 0.3788, "step": 73620 }, { "epoch": 98.17333333333333, "grad_norm": 0.81640625, "learning_rate": 9.941429845899204e-05, "loss": 0.3738, "step": 73630 }, { "epoch": 98.18666666666667, "grad_norm": 0.80078125, "learning_rate": 9.941413857850152e-05, "loss": 0.3713, "step": 73640 }, { "epoch": 98.2, "grad_norm": 0.734375, "learning_rate": 9.94139786763211e-05, "loss": 0.3631, "step": 73650 }, { "epoch": 98.21333333333334, "grad_norm": 0.75390625, "learning_rate": 9.94138187524508e-05, "loss": 0.3633, "step": 73660 }, { "epoch": 98.22666666666667, "grad_norm": 0.80078125, "learning_rate": 9.941365880689073e-05, "loss": 0.3748, "step": 73670 }, { "epoch": 98.24, "grad_norm": 0.796875, "learning_rate": 9.941349883964093e-05, "loss": 0.3619, "step": 73680 }, { "epoch": 98.25333333333333, "grad_norm": 0.7734375, "learning_rate": 9.94133388507015e-05, "loss": 0.3627, "step": 73690 }, { "epoch": 98.26666666666667, "grad_norm": 0.7421875, "learning_rate": 9.94131788400725e-05, "loss": 0.3658, "step": 73700 }, { "epoch": 98.28, "grad_norm": 0.74609375, "learning_rate": 9.9413018807754e-05, "loss": 0.3928, "step": 73710 }, { "epoch": 98.29333333333334, "grad_norm": 0.70703125, "learning_rate": 9.941285875374605e-05, "loss": 0.352, "step": 73720 }, { "epoch": 98.30666666666667, "grad_norm": 0.78125, "learning_rate": 9.941269867804874e-05, "loss": 0.3749, "step": 73730 }, { "epoch": 98.32, "grad_norm": 0.67578125, "learning_rate": 9.941253858066215e-05, "loss": 0.3796, "step": 73740 }, { "epoch": 98.33333333333333, "grad_norm": 0.7890625, "learning_rate": 9.941237846158633e-05, "loss": 0.3785, "step": 73750 }, { "epoch": 98.34666666666666, "grad_norm": 0.7890625, "learning_rate": 9.941221832082137e-05, "loss": 0.369, "step": 73760 }, { "epoch": 98.36, "grad_norm": 0.83984375, "learning_rate": 9.941205815836731e-05, "loss": 0.3702, "step": 73770 }, { "epoch": 98.37333333333333, "grad_norm": 0.6875, "learning_rate": 9.941189797422425e-05, "loss": 0.3729, "step": 73780 }, { "epoch": 98.38666666666667, "grad_norm": 0.84375, "learning_rate": 9.941173776839225e-05, "loss": 0.3614, "step": 73790 }, { "epoch": 98.4, "grad_norm": 0.73046875, "learning_rate": 9.941157754087138e-05, "loss": 0.3713, "step": 73800 }, { "epoch": 98.41333333333333, "grad_norm": 0.76953125, "learning_rate": 9.941141729166173e-05, "loss": 0.3768, "step": 73810 }, { "epoch": 98.42666666666666, "grad_norm": 0.70703125, "learning_rate": 9.941125702076332e-05, "loss": 0.3789, "step": 73820 }, { "epoch": 98.44, "grad_norm": 0.76171875, "learning_rate": 9.941109672817625e-05, "loss": 0.3907, "step": 73830 }, { "epoch": 98.45333333333333, "grad_norm": 0.76171875, "learning_rate": 9.94109364139006e-05, "loss": 0.3774, "step": 73840 }, { "epoch": 98.46666666666667, "grad_norm": 0.76171875, "learning_rate": 9.941077607793644e-05, "loss": 0.3855, "step": 73850 }, { "epoch": 98.48, "grad_norm": 0.875, "learning_rate": 9.941061572028383e-05, "loss": 0.3692, "step": 73860 }, { "epoch": 98.49333333333334, "grad_norm": 0.8125, "learning_rate": 9.941045534094282e-05, "loss": 0.3808, "step": 73870 }, { "epoch": 98.50666666666666, "grad_norm": 0.7734375, "learning_rate": 9.941029493991353e-05, "loss": 0.3794, "step": 73880 }, { "epoch": 98.52, "grad_norm": 0.6796875, "learning_rate": 9.941013451719599e-05, "loss": 0.3708, "step": 73890 }, { "epoch": 98.53333333333333, "grad_norm": 0.7890625, "learning_rate": 9.940997407279028e-05, "loss": 0.3721, "step": 73900 }, { "epoch": 98.54666666666667, "grad_norm": 0.78125, "learning_rate": 9.940981360669648e-05, "loss": 0.3721, "step": 73910 }, { "epoch": 98.56, "grad_norm": 0.71875, "learning_rate": 9.940965311891466e-05, "loss": 0.3667, "step": 73920 }, { "epoch": 98.57333333333334, "grad_norm": 0.79296875, "learning_rate": 9.940949260944488e-05, "loss": 0.3716, "step": 73930 }, { "epoch": 98.58666666666667, "grad_norm": 0.70703125, "learning_rate": 9.94093320782872e-05, "loss": 0.3622, "step": 73940 }, { "epoch": 98.6, "grad_norm": 0.67578125, "learning_rate": 9.940917152544171e-05, "loss": 0.3637, "step": 73950 }, { "epoch": 98.61333333333333, "grad_norm": 0.6328125, "learning_rate": 9.940901095090848e-05, "loss": 0.3548, "step": 73960 }, { "epoch": 98.62666666666667, "grad_norm": 0.68359375, "learning_rate": 9.940885035468759e-05, "loss": 0.3595, "step": 73970 }, { "epoch": 98.64, "grad_norm": 0.7890625, "learning_rate": 9.940868973677909e-05, "loss": 0.3673, "step": 73980 }, { "epoch": 98.65333333333334, "grad_norm": 0.7421875, "learning_rate": 9.940852909718305e-05, "loss": 0.3785, "step": 73990 }, { "epoch": 98.66666666666667, "grad_norm": 0.65625, "learning_rate": 9.940836843589955e-05, "loss": 0.3697, "step": 74000 }, { "epoch": 98.68, "grad_norm": 0.75390625, "learning_rate": 9.940820775292868e-05, "loss": 0.3587, "step": 74010 }, { "epoch": 98.69333333333333, "grad_norm": 0.65234375, "learning_rate": 9.940804704827047e-05, "loss": 0.3686, "step": 74020 }, { "epoch": 98.70666666666666, "grad_norm": 0.8828125, "learning_rate": 9.9407886321925e-05, "loss": 0.3603, "step": 74030 }, { "epoch": 98.72, "grad_norm": 0.82421875, "learning_rate": 9.940772557389237e-05, "loss": 0.3809, "step": 74040 }, { "epoch": 98.73333333333333, "grad_norm": 0.7734375, "learning_rate": 9.940756480417262e-05, "loss": 0.3764, "step": 74050 }, { "epoch": 98.74666666666667, "grad_norm": 0.875, "learning_rate": 9.940740401276582e-05, "loss": 0.3793, "step": 74060 }, { "epoch": 98.76, "grad_norm": 0.83203125, "learning_rate": 9.940724319967208e-05, "loss": 0.3928, "step": 74070 }, { "epoch": 98.77333333333333, "grad_norm": 0.80859375, "learning_rate": 9.940708236489143e-05, "loss": 0.3773, "step": 74080 }, { "epoch": 98.78666666666666, "grad_norm": 0.69921875, "learning_rate": 9.940692150842395e-05, "loss": 0.3786, "step": 74090 }, { "epoch": 98.8, "grad_norm": 0.734375, "learning_rate": 9.94067606302697e-05, "loss": 0.378, "step": 74100 }, { "epoch": 98.81333333333333, "grad_norm": 0.84765625, "learning_rate": 9.940659973042879e-05, "loss": 0.3518, "step": 74110 }, { "epoch": 98.82666666666667, "grad_norm": 0.65625, "learning_rate": 9.940643880890125e-05, "loss": 0.3591, "step": 74120 }, { "epoch": 98.84, "grad_norm": 0.7421875, "learning_rate": 9.940627786568717e-05, "loss": 0.3722, "step": 74130 }, { "epoch": 98.85333333333334, "grad_norm": 0.734375, "learning_rate": 9.940611690078661e-05, "loss": 0.3674, "step": 74140 }, { "epoch": 98.86666666666666, "grad_norm": 0.76171875, "learning_rate": 9.940595591419966e-05, "loss": 0.3727, "step": 74150 }, { "epoch": 98.88, "grad_norm": 0.7265625, "learning_rate": 9.940579490592636e-05, "loss": 0.3538, "step": 74160 }, { "epoch": 98.89333333333333, "grad_norm": 0.65625, "learning_rate": 9.940563387596681e-05, "loss": 0.3662, "step": 74170 }, { "epoch": 98.90666666666667, "grad_norm": 0.78515625, "learning_rate": 9.940547282432107e-05, "loss": 0.3703, "step": 74180 }, { "epoch": 98.92, "grad_norm": 0.77734375, "learning_rate": 9.94053117509892e-05, "loss": 0.3726, "step": 74190 }, { "epoch": 98.93333333333334, "grad_norm": 0.71484375, "learning_rate": 9.940515065597129e-05, "loss": 0.369, "step": 74200 }, { "epoch": 98.94666666666667, "grad_norm": 0.7734375, "learning_rate": 9.94049895392674e-05, "loss": 0.3683, "step": 74210 }, { "epoch": 98.96, "grad_norm": 0.71484375, "learning_rate": 9.94048284008776e-05, "loss": 0.3666, "step": 74220 }, { "epoch": 98.97333333333333, "grad_norm": 0.984375, "learning_rate": 9.940466724080196e-05, "loss": 0.3896, "step": 74230 }, { "epoch": 98.98666666666666, "grad_norm": 0.71875, "learning_rate": 9.940450605904055e-05, "loss": 0.3593, "step": 74240 }, { "epoch": 99.0, "grad_norm": 0.75390625, "learning_rate": 9.940434485559345e-05, "loss": 0.3603, "step": 74250 }, { "epoch": 99.0, "eval_loss": 0.42011725902557373, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6217, "eval_samples_per_second": 1.506, "eval_steps_per_second": 0.094, "step": 74250 }, { "epoch": 99.01333333333334, "grad_norm": 0.90234375, "learning_rate": 9.940418363046072e-05, "loss": 0.3771, "step": 74260 }, { "epoch": 99.02666666666667, "grad_norm": 0.7265625, "learning_rate": 9.940402238364244e-05, "loss": 0.3918, "step": 74270 }, { "epoch": 99.04, "grad_norm": 0.6875, "learning_rate": 9.940386111513868e-05, "loss": 0.4034, "step": 74280 }, { "epoch": 99.05333333333333, "grad_norm": 0.76953125, "learning_rate": 9.94036998249495e-05, "loss": 0.3886, "step": 74290 }, { "epoch": 99.06666666666666, "grad_norm": 0.8515625, "learning_rate": 9.940353851307498e-05, "loss": 0.3771, "step": 74300 }, { "epoch": 99.08, "grad_norm": 0.76171875, "learning_rate": 9.940337717951518e-05, "loss": 0.3802, "step": 74310 }, { "epoch": 99.09333333333333, "grad_norm": 0.7109375, "learning_rate": 9.94032158242702e-05, "loss": 0.3826, "step": 74320 }, { "epoch": 99.10666666666667, "grad_norm": 0.69140625, "learning_rate": 9.940305444734007e-05, "loss": 0.3703, "step": 74330 }, { "epoch": 99.12, "grad_norm": 0.7578125, "learning_rate": 9.94028930487249e-05, "loss": 0.3732, "step": 74340 }, { "epoch": 99.13333333333334, "grad_norm": 0.7734375, "learning_rate": 9.940273162842472e-05, "loss": 0.3649, "step": 74350 }, { "epoch": 99.14666666666666, "grad_norm": 0.80078125, "learning_rate": 9.940257018643963e-05, "loss": 0.3836, "step": 74360 }, { "epoch": 99.16, "grad_norm": 0.6796875, "learning_rate": 9.940240872276971e-05, "loss": 0.3792, "step": 74370 }, { "epoch": 99.17333333333333, "grad_norm": 0.82421875, "learning_rate": 9.9402247237415e-05, "loss": 0.3732, "step": 74380 }, { "epoch": 99.18666666666667, "grad_norm": 0.7890625, "learning_rate": 9.940208573037558e-05, "loss": 0.3714, "step": 74390 }, { "epoch": 99.2, "grad_norm": 0.75390625, "learning_rate": 9.940192420165153e-05, "loss": 0.364, "step": 74400 }, { "epoch": 99.21333333333334, "grad_norm": 0.7734375, "learning_rate": 9.940176265124292e-05, "loss": 0.3635, "step": 74410 }, { "epoch": 99.22666666666667, "grad_norm": 0.73828125, "learning_rate": 9.940160107914982e-05, "loss": 0.3746, "step": 74420 }, { "epoch": 99.24, "grad_norm": 0.76171875, "learning_rate": 9.940143948537231e-05, "loss": 0.361, "step": 74430 }, { "epoch": 99.25333333333333, "grad_norm": 0.76953125, "learning_rate": 9.940127786991044e-05, "loss": 0.3625, "step": 74440 }, { "epoch": 99.26666666666667, "grad_norm": 0.71484375, "learning_rate": 9.940111623276429e-05, "loss": 0.3653, "step": 74450 }, { "epoch": 99.28, "grad_norm": 0.796875, "learning_rate": 9.940095457393393e-05, "loss": 0.3937, "step": 74460 }, { "epoch": 99.29333333333334, "grad_norm": 0.78125, "learning_rate": 9.940079289341944e-05, "loss": 0.3521, "step": 74470 }, { "epoch": 99.30666666666667, "grad_norm": 0.7109375, "learning_rate": 9.940063119122088e-05, "loss": 0.3758, "step": 74480 }, { "epoch": 99.32, "grad_norm": 0.703125, "learning_rate": 9.940046946733831e-05, "loss": 0.3797, "step": 74490 }, { "epoch": 99.33333333333333, "grad_norm": 0.796875, "learning_rate": 9.940030772177183e-05, "loss": 0.3793, "step": 74500 }, { "epoch": 99.34666666666666, "grad_norm": 0.8125, "learning_rate": 9.940014595452149e-05, "loss": 0.3697, "step": 74510 }, { "epoch": 99.36, "grad_norm": 0.765625, "learning_rate": 9.939998416558738e-05, "loss": 0.3695, "step": 74520 }, { "epoch": 99.37333333333333, "grad_norm": 0.62890625, "learning_rate": 9.939982235496954e-05, "loss": 0.374, "step": 74530 }, { "epoch": 99.38666666666667, "grad_norm": 0.84765625, "learning_rate": 9.939966052266807e-05, "loss": 0.3603, "step": 74540 }, { "epoch": 99.4, "grad_norm": 0.703125, "learning_rate": 9.939949866868304e-05, "loss": 0.3718, "step": 74550 }, { "epoch": 99.41333333333333, "grad_norm": 0.68359375, "learning_rate": 9.93993367930145e-05, "loss": 0.3764, "step": 74560 }, { "epoch": 99.42666666666666, "grad_norm": 0.76953125, "learning_rate": 9.939917489566254e-05, "loss": 0.3785, "step": 74570 }, { "epoch": 99.44, "grad_norm": 0.78515625, "learning_rate": 9.939901297662722e-05, "loss": 0.391, "step": 74580 }, { "epoch": 99.45333333333333, "grad_norm": 0.7421875, "learning_rate": 9.939885103590861e-05, "loss": 0.3775, "step": 74590 }, { "epoch": 99.46666666666667, "grad_norm": 0.72265625, "learning_rate": 9.93986890735068e-05, "loss": 0.3856, "step": 74600 }, { "epoch": 99.48, "grad_norm": 0.79296875, "learning_rate": 9.939852708942183e-05, "loss": 0.3682, "step": 74610 }, { "epoch": 99.49333333333334, "grad_norm": 0.8046875, "learning_rate": 9.93983650836538e-05, "loss": 0.3799, "step": 74620 }, { "epoch": 99.50666666666666, "grad_norm": 0.7734375, "learning_rate": 9.939820305620278e-05, "loss": 0.3789, "step": 74630 }, { "epoch": 99.52, "grad_norm": 0.7109375, "learning_rate": 9.93980410070688e-05, "loss": 0.3701, "step": 74640 }, { "epoch": 99.53333333333333, "grad_norm": 0.78125, "learning_rate": 9.939787893625198e-05, "loss": 0.3717, "step": 74650 }, { "epoch": 99.54666666666667, "grad_norm": 0.828125, "learning_rate": 9.939771684375239e-05, "loss": 0.3723, "step": 74660 }, { "epoch": 99.56, "grad_norm": 0.6640625, "learning_rate": 9.939755472957007e-05, "loss": 0.367, "step": 74670 }, { "epoch": 99.57333333333334, "grad_norm": 0.78515625, "learning_rate": 9.939739259370509e-05, "loss": 0.3719, "step": 74680 }, { "epoch": 99.58666666666667, "grad_norm": 0.671875, "learning_rate": 9.939723043615754e-05, "loss": 0.3615, "step": 74690 }, { "epoch": 99.6, "grad_norm": 0.76953125, "learning_rate": 9.939706825692749e-05, "loss": 0.3628, "step": 74700 }, { "epoch": 99.61333333333333, "grad_norm": 0.6796875, "learning_rate": 9.939690605601503e-05, "loss": 0.3552, "step": 74710 }, { "epoch": 99.62666666666667, "grad_norm": 0.64453125, "learning_rate": 9.939674383342019e-05, "loss": 0.3608, "step": 74720 }, { "epoch": 99.64, "grad_norm": 0.7578125, "learning_rate": 9.939658158914306e-05, "loss": 0.3682, "step": 74730 }, { "epoch": 99.65333333333334, "grad_norm": 0.78125, "learning_rate": 9.939641932318371e-05, "loss": 0.3781, "step": 74740 }, { "epoch": 99.66666666666667, "grad_norm": 0.66796875, "learning_rate": 9.939625703554223e-05, "loss": 0.3692, "step": 74750 }, { "epoch": 99.68, "grad_norm": 0.79296875, "learning_rate": 9.939609472621867e-05, "loss": 0.358, "step": 74760 }, { "epoch": 99.69333333333333, "grad_norm": 0.75390625, "learning_rate": 9.93959323952131e-05, "loss": 0.3695, "step": 74770 }, { "epoch": 99.70666666666666, "grad_norm": 0.79296875, "learning_rate": 9.93957700425256e-05, "loss": 0.3596, "step": 74780 }, { "epoch": 99.72, "grad_norm": 0.8203125, "learning_rate": 9.939560766815624e-05, "loss": 0.3811, "step": 74790 }, { "epoch": 99.73333333333333, "grad_norm": 0.7890625, "learning_rate": 9.939544527210508e-05, "loss": 0.3758, "step": 74800 }, { "epoch": 99.74666666666667, "grad_norm": 0.77734375, "learning_rate": 9.93952828543722e-05, "loss": 0.3793, "step": 74810 }, { "epoch": 99.76, "grad_norm": 0.8359375, "learning_rate": 9.939512041495769e-05, "loss": 0.3933, "step": 74820 }, { "epoch": 99.77333333333333, "grad_norm": 0.8125, "learning_rate": 9.93949579538616e-05, "loss": 0.377, "step": 74830 }, { "epoch": 99.78666666666666, "grad_norm": 0.74609375, "learning_rate": 9.939479547108399e-05, "loss": 0.3803, "step": 74840 }, { "epoch": 99.8, "grad_norm": 0.8515625, "learning_rate": 9.939463296662497e-05, "loss": 0.3785, "step": 74850 }, { "epoch": 99.81333333333333, "grad_norm": 0.9140625, "learning_rate": 9.939447044048456e-05, "loss": 0.3511, "step": 74860 }, { "epoch": 99.82666666666667, "grad_norm": 0.765625, "learning_rate": 9.939430789266288e-05, "loss": 0.3591, "step": 74870 }, { "epoch": 99.84, "grad_norm": 0.80859375, "learning_rate": 9.939414532315996e-05, "loss": 0.3715, "step": 74880 }, { "epoch": 99.85333333333334, "grad_norm": 0.76953125, "learning_rate": 9.93939827319759e-05, "loss": 0.3672, "step": 74890 }, { "epoch": 99.86666666666666, "grad_norm": 0.72265625, "learning_rate": 9.939382011911078e-05, "loss": 0.373, "step": 74900 }, { "epoch": 99.88, "grad_norm": 0.80859375, "learning_rate": 9.939365748456464e-05, "loss": 0.3535, "step": 74910 }, { "epoch": 99.89333333333333, "grad_norm": 0.796875, "learning_rate": 9.939349482833757e-05, "loss": 0.3661, "step": 74920 }, { "epoch": 99.90666666666667, "grad_norm": 0.8203125, "learning_rate": 9.939333215042963e-05, "loss": 0.3711, "step": 74930 }, { "epoch": 99.92, "grad_norm": 0.73046875, "learning_rate": 9.939316945084091e-05, "loss": 0.3718, "step": 74940 }, { "epoch": 99.93333333333334, "grad_norm": 0.765625, "learning_rate": 9.939300672957146e-05, "loss": 0.3683, "step": 74950 }, { "epoch": 99.94666666666667, "grad_norm": 0.73046875, "learning_rate": 9.939284398662137e-05, "loss": 0.3674, "step": 74960 }, { "epoch": 99.96, "grad_norm": 0.68359375, "learning_rate": 9.93926812219907e-05, "loss": 0.3666, "step": 74970 }, { "epoch": 99.97333333333333, "grad_norm": 0.95703125, "learning_rate": 9.939251843567952e-05, "loss": 0.3883, "step": 74980 }, { "epoch": 99.98666666666666, "grad_norm": 0.7890625, "learning_rate": 9.939235562768789e-05, "loss": 0.3598, "step": 74990 }, { "epoch": 100.0, "grad_norm": 0.79296875, "learning_rate": 9.939219279801593e-05, "loss": 0.3597, "step": 75000 }, { "epoch": 100.0, "eval_loss": 0.4193273186683655, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5118, "eval_samples_per_second": 1.522, "eval_steps_per_second": 0.095, "step": 75000 }, { "epoch": 100.01333333333334, "grad_norm": 0.76953125, "learning_rate": 9.939202994666365e-05, "loss": 0.3763, "step": 75010 }, { "epoch": 100.02666666666667, "grad_norm": 0.69140625, "learning_rate": 9.939186707363117e-05, "loss": 0.3919, "step": 75020 }, { "epoch": 100.04, "grad_norm": 0.68359375, "learning_rate": 9.939170417891854e-05, "loss": 0.4034, "step": 75030 }, { "epoch": 100.05333333333333, "grad_norm": 0.7578125, "learning_rate": 9.939154126252583e-05, "loss": 0.3876, "step": 75040 }, { "epoch": 100.06666666666666, "grad_norm": 0.84375, "learning_rate": 9.939137832445312e-05, "loss": 0.3768, "step": 75050 }, { "epoch": 100.08, "grad_norm": 0.76171875, "learning_rate": 9.939121536470046e-05, "loss": 0.3799, "step": 75060 }, { "epoch": 100.09333333333333, "grad_norm": 0.78125, "learning_rate": 9.939105238326795e-05, "loss": 0.382, "step": 75070 }, { "epoch": 100.10666666666667, "grad_norm": 0.7734375, "learning_rate": 9.939088938015564e-05, "loss": 0.3701, "step": 75080 }, { "epoch": 100.12, "grad_norm": 0.80859375, "learning_rate": 9.939072635536361e-05, "loss": 0.3717, "step": 75090 }, { "epoch": 100.13333333333334, "grad_norm": 0.6640625, "learning_rate": 9.939056330889196e-05, "loss": 0.3643, "step": 75100 }, { "epoch": 100.14666666666666, "grad_norm": 0.71875, "learning_rate": 9.93904002407407e-05, "loss": 0.3832, "step": 75110 }, { "epoch": 100.16, "grad_norm": 0.6484375, "learning_rate": 9.939023715090996e-05, "loss": 0.3789, "step": 75120 }, { "epoch": 100.17333333333333, "grad_norm": 0.83203125, "learning_rate": 9.939007403939977e-05, "loss": 0.3739, "step": 75130 }, { "epoch": 100.18666666666667, "grad_norm": 0.7109375, "learning_rate": 9.938991090621024e-05, "loss": 0.3705, "step": 75140 }, { "epoch": 100.2, "grad_norm": 0.70703125, "learning_rate": 9.93897477513414e-05, "loss": 0.3622, "step": 75150 }, { "epoch": 100.21333333333334, "grad_norm": 0.80078125, "learning_rate": 9.938958457479335e-05, "loss": 0.3633, "step": 75160 }, { "epoch": 100.22666666666667, "grad_norm": 0.73046875, "learning_rate": 9.938942137656615e-05, "loss": 0.3752, "step": 75170 }, { "epoch": 100.24, "grad_norm": 0.734375, "learning_rate": 9.938925815665987e-05, "loss": 0.3604, "step": 75180 }, { "epoch": 100.25333333333333, "grad_norm": 0.69140625, "learning_rate": 9.93890949150746e-05, "loss": 0.3619, "step": 75190 }, { "epoch": 100.26666666666667, "grad_norm": 0.73046875, "learning_rate": 9.938893165181039e-05, "loss": 0.3643, "step": 75200 }, { "epoch": 100.28, "grad_norm": 0.8515625, "learning_rate": 9.938876836686733e-05, "loss": 0.3935, "step": 75210 }, { "epoch": 100.29333333333334, "grad_norm": 0.76171875, "learning_rate": 9.938860506024547e-05, "loss": 0.3519, "step": 75220 }, { "epoch": 100.30666666666667, "grad_norm": 0.7109375, "learning_rate": 9.938844173194489e-05, "loss": 0.3759, "step": 75230 }, { "epoch": 100.32, "grad_norm": 0.671875, "learning_rate": 9.938827838196568e-05, "loss": 0.3792, "step": 75240 }, { "epoch": 100.33333333333333, "grad_norm": 0.78515625, "learning_rate": 9.93881150103079e-05, "loss": 0.3779, "step": 75250 }, { "epoch": 100.34666666666666, "grad_norm": 0.875, "learning_rate": 9.93879516169716e-05, "loss": 0.3683, "step": 75260 }, { "epoch": 100.36, "grad_norm": 0.76953125, "learning_rate": 9.938778820195687e-05, "loss": 0.3699, "step": 75270 }, { "epoch": 100.37333333333333, "grad_norm": 0.6328125, "learning_rate": 9.93876247652638e-05, "loss": 0.3728, "step": 75280 }, { "epoch": 100.38666666666667, "grad_norm": 0.86328125, "learning_rate": 9.938746130689243e-05, "loss": 0.3614, "step": 75290 }, { "epoch": 100.4, "grad_norm": 0.765625, "learning_rate": 9.938729782684285e-05, "loss": 0.3702, "step": 75300 }, { "epoch": 100.41333333333333, "grad_norm": 0.75, "learning_rate": 9.938713432511513e-05, "loss": 0.3759, "step": 75310 }, { "epoch": 100.42666666666666, "grad_norm": 0.76171875, "learning_rate": 9.938697080170934e-05, "loss": 0.3788, "step": 75320 }, { "epoch": 100.44, "grad_norm": 0.828125, "learning_rate": 9.938680725662555e-05, "loss": 0.3904, "step": 75330 }, { "epoch": 100.45333333333333, "grad_norm": 0.7890625, "learning_rate": 9.938664368986382e-05, "loss": 0.3782, "step": 75340 }, { "epoch": 100.46666666666667, "grad_norm": 0.7421875, "learning_rate": 9.938648010142423e-05, "loss": 0.3853, "step": 75350 }, { "epoch": 100.48, "grad_norm": 0.765625, "learning_rate": 9.938631649130689e-05, "loss": 0.3683, "step": 75360 }, { "epoch": 100.49333333333334, "grad_norm": 0.7578125, "learning_rate": 9.938615285951182e-05, "loss": 0.38, "step": 75370 }, { "epoch": 100.50666666666666, "grad_norm": 0.74609375, "learning_rate": 9.938598920603911e-05, "loss": 0.3799, "step": 75380 }, { "epoch": 100.52, "grad_norm": 0.6328125, "learning_rate": 9.938582553088882e-05, "loss": 0.3702, "step": 75390 }, { "epoch": 100.53333333333333, "grad_norm": 0.75390625, "learning_rate": 9.938566183406105e-05, "loss": 0.3708, "step": 75400 }, { "epoch": 100.54666666666667, "grad_norm": 0.84375, "learning_rate": 9.938549811555585e-05, "loss": 0.3721, "step": 75410 }, { "epoch": 100.56, "grad_norm": 0.7265625, "learning_rate": 9.93853343753733e-05, "loss": 0.3669, "step": 75420 }, { "epoch": 100.57333333333334, "grad_norm": 0.8203125, "learning_rate": 9.938517061351347e-05, "loss": 0.3717, "step": 75430 }, { "epoch": 100.58666666666667, "grad_norm": 0.7421875, "learning_rate": 9.938500682997643e-05, "loss": 0.3612, "step": 75440 }, { "epoch": 100.6, "grad_norm": 0.73828125, "learning_rate": 9.938484302476224e-05, "loss": 0.3629, "step": 75450 }, { "epoch": 100.61333333333333, "grad_norm": 0.6796875, "learning_rate": 9.9384679197871e-05, "loss": 0.3552, "step": 75460 }, { "epoch": 100.62666666666667, "grad_norm": 0.69140625, "learning_rate": 9.938451534930275e-05, "loss": 0.3593, "step": 75470 }, { "epoch": 100.64, "grad_norm": 0.8125, "learning_rate": 9.93843514790576e-05, "loss": 0.3673, "step": 75480 }, { "epoch": 100.65333333333334, "grad_norm": 0.765625, "learning_rate": 9.938418758713559e-05, "loss": 0.3785, "step": 75490 }, { "epoch": 100.66666666666667, "grad_norm": 0.78515625, "learning_rate": 9.938402367353681e-05, "loss": 0.3686, "step": 75500 }, { "epoch": 100.68, "grad_norm": 0.79296875, "learning_rate": 9.938385973826132e-05, "loss": 0.3578, "step": 75510 }, { "epoch": 100.69333333333333, "grad_norm": 0.640625, "learning_rate": 9.938369578130919e-05, "loss": 0.3689, "step": 75520 }, { "epoch": 100.70666666666666, "grad_norm": 0.80859375, "learning_rate": 9.93835318026805e-05, "loss": 0.359, "step": 75530 }, { "epoch": 100.72, "grad_norm": 0.828125, "learning_rate": 9.938336780237533e-05, "loss": 0.381, "step": 75540 }, { "epoch": 100.73333333333333, "grad_norm": 0.81640625, "learning_rate": 9.938320378039373e-05, "loss": 0.3766, "step": 75550 }, { "epoch": 100.74666666666667, "grad_norm": 0.80859375, "learning_rate": 9.93830397367358e-05, "loss": 0.379, "step": 75560 }, { "epoch": 100.76, "grad_norm": 0.77734375, "learning_rate": 9.938287567140159e-05, "loss": 0.3925, "step": 75570 }, { "epoch": 100.77333333333333, "grad_norm": 0.83984375, "learning_rate": 9.938271158439116e-05, "loss": 0.3773, "step": 75580 }, { "epoch": 100.78666666666666, "grad_norm": 0.71484375, "learning_rate": 9.938254747570461e-05, "loss": 0.3804, "step": 75590 }, { "epoch": 100.8, "grad_norm": 0.77734375, "learning_rate": 9.938238334534202e-05, "loss": 0.3777, "step": 75600 }, { "epoch": 100.81333333333333, "grad_norm": 0.81640625, "learning_rate": 9.938221919330343e-05, "loss": 0.3499, "step": 75610 }, { "epoch": 100.82666666666667, "grad_norm": 0.69140625, "learning_rate": 9.938205501958893e-05, "loss": 0.3589, "step": 75620 }, { "epoch": 100.84, "grad_norm": 0.7734375, "learning_rate": 9.938189082419859e-05, "loss": 0.3712, "step": 75630 }, { "epoch": 100.85333333333334, "grad_norm": 0.71484375, "learning_rate": 9.938172660713247e-05, "loss": 0.3669, "step": 75640 }, { "epoch": 100.86666666666666, "grad_norm": 0.95703125, "learning_rate": 9.938156236839067e-05, "loss": 0.3721, "step": 75650 }, { "epoch": 100.88, "grad_norm": 0.703125, "learning_rate": 9.938139810797324e-05, "loss": 0.3538, "step": 75660 }, { "epoch": 100.89333333333333, "grad_norm": 0.69921875, "learning_rate": 9.938123382588025e-05, "loss": 0.3661, "step": 75670 }, { "epoch": 100.90666666666667, "grad_norm": 0.79296875, "learning_rate": 9.938106952211178e-05, "loss": 0.371, "step": 75680 }, { "epoch": 100.92, "grad_norm": 0.77734375, "learning_rate": 9.93809051966679e-05, "loss": 0.3715, "step": 75690 }, { "epoch": 100.93333333333334, "grad_norm": 0.6953125, "learning_rate": 9.938074084954869e-05, "loss": 0.3686, "step": 75700 }, { "epoch": 100.94666666666667, "grad_norm": 0.81640625, "learning_rate": 9.93805764807542e-05, "loss": 0.3686, "step": 75710 }, { "epoch": 100.96, "grad_norm": 0.625, "learning_rate": 9.938041209028454e-05, "loss": 0.3667, "step": 75720 }, { "epoch": 100.97333333333333, "grad_norm": 0.87890625, "learning_rate": 9.938024767813974e-05, "loss": 0.3887, "step": 75730 }, { "epoch": 100.98666666666666, "grad_norm": 0.76953125, "learning_rate": 9.938008324431991e-05, "loss": 0.3595, "step": 75740 }, { "epoch": 101.0, "grad_norm": 0.7265625, "learning_rate": 9.93799187888251e-05, "loss": 0.3599, "step": 75750 }, { "epoch": 101.0, "eval_loss": 0.4206857681274414, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4303, "eval_samples_per_second": 1.534, "eval_steps_per_second": 0.096, "step": 75750 }, { "epoch": 101.01333333333334, "grad_norm": 0.81640625, "learning_rate": 9.937975431165539e-05, "loss": 0.3755, "step": 75760 }, { "epoch": 101.02666666666667, "grad_norm": 0.703125, "learning_rate": 9.937958981281084e-05, "loss": 0.3906, "step": 75770 }, { "epoch": 101.04, "grad_norm": 0.703125, "learning_rate": 9.937942529229152e-05, "loss": 0.4041, "step": 75780 }, { "epoch": 101.05333333333333, "grad_norm": 0.76953125, "learning_rate": 9.937926075009752e-05, "loss": 0.3886, "step": 75790 }, { "epoch": 101.06666666666666, "grad_norm": 0.78125, "learning_rate": 9.937909618622892e-05, "loss": 0.3767, "step": 75800 }, { "epoch": 101.08, "grad_norm": 0.7578125, "learning_rate": 9.937893160068576e-05, "loss": 0.3803, "step": 75810 }, { "epoch": 101.09333333333333, "grad_norm": 0.8203125, "learning_rate": 9.937876699346814e-05, "loss": 0.382, "step": 75820 }, { "epoch": 101.10666666666667, "grad_norm": 0.703125, "learning_rate": 9.937860236457613e-05, "loss": 0.3704, "step": 75830 }, { "epoch": 101.12, "grad_norm": 0.828125, "learning_rate": 9.937843771400977e-05, "loss": 0.3716, "step": 75840 }, { "epoch": 101.13333333333334, "grad_norm": 0.76953125, "learning_rate": 9.937827304176916e-05, "loss": 0.3639, "step": 75850 }, { "epoch": 101.14666666666666, "grad_norm": 0.80078125, "learning_rate": 9.937810834785438e-05, "loss": 0.384, "step": 75860 }, { "epoch": 101.16, "grad_norm": 0.68359375, "learning_rate": 9.937794363226549e-05, "loss": 0.3784, "step": 75870 }, { "epoch": 101.17333333333333, "grad_norm": 0.734375, "learning_rate": 9.937777889500257e-05, "loss": 0.3726, "step": 75880 }, { "epoch": 101.18666666666667, "grad_norm": 0.73046875, "learning_rate": 9.937761413606567e-05, "loss": 0.3703, "step": 75890 }, { "epoch": 101.2, "grad_norm": 0.734375, "learning_rate": 9.937744935545489e-05, "loss": 0.3628, "step": 75900 }, { "epoch": 101.21333333333334, "grad_norm": 0.76953125, "learning_rate": 9.937728455317029e-05, "loss": 0.3634, "step": 75910 }, { "epoch": 101.22666666666667, "grad_norm": 0.83984375, "learning_rate": 9.937711972921193e-05, "loss": 0.3743, "step": 75920 }, { "epoch": 101.24, "grad_norm": 0.79296875, "learning_rate": 9.93769548835799e-05, "loss": 0.3608, "step": 75930 }, { "epoch": 101.25333333333333, "grad_norm": 0.734375, "learning_rate": 9.937679001627427e-05, "loss": 0.3621, "step": 75940 }, { "epoch": 101.26666666666667, "grad_norm": 0.7421875, "learning_rate": 9.937662512729511e-05, "loss": 0.3646, "step": 75950 }, { "epoch": 101.28, "grad_norm": 0.7734375, "learning_rate": 9.937646021664248e-05, "loss": 0.3928, "step": 75960 }, { "epoch": 101.29333333333334, "grad_norm": 0.79296875, "learning_rate": 9.93762952843165e-05, "loss": 0.3516, "step": 75970 }, { "epoch": 101.30666666666667, "grad_norm": 0.6953125, "learning_rate": 9.937613033031717e-05, "loss": 0.3751, "step": 75980 }, { "epoch": 101.32, "grad_norm": 0.72265625, "learning_rate": 9.937596535464461e-05, "loss": 0.3788, "step": 75990 }, { "epoch": 101.33333333333333, "grad_norm": 0.80859375, "learning_rate": 9.937580035729889e-05, "loss": 0.378, "step": 76000 }, { "epoch": 101.34666666666666, "grad_norm": 0.81640625, "learning_rate": 9.937563533828008e-05, "loss": 0.3684, "step": 76010 }, { "epoch": 101.36, "grad_norm": 0.734375, "learning_rate": 9.937547029758823e-05, "loss": 0.37, "step": 76020 }, { "epoch": 101.37333333333333, "grad_norm": 0.66015625, "learning_rate": 9.937530523522343e-05, "loss": 0.3721, "step": 76030 }, { "epoch": 101.38666666666667, "grad_norm": 0.83203125, "learning_rate": 9.937514015118574e-05, "loss": 0.3605, "step": 76040 }, { "epoch": 101.4, "grad_norm": 0.7890625, "learning_rate": 9.937497504547526e-05, "loss": 0.3702, "step": 76050 }, { "epoch": 101.41333333333333, "grad_norm": 0.69140625, "learning_rate": 9.937480991809205e-05, "loss": 0.3755, "step": 76060 }, { "epoch": 101.42666666666666, "grad_norm": 0.71875, "learning_rate": 9.937464476903618e-05, "loss": 0.3773, "step": 76070 }, { "epoch": 101.44, "grad_norm": 0.72265625, "learning_rate": 9.937447959830771e-05, "loss": 0.3905, "step": 76080 }, { "epoch": 101.45333333333333, "grad_norm": 0.73046875, "learning_rate": 9.937431440590673e-05, "loss": 0.3762, "step": 76090 }, { "epoch": 101.46666666666667, "grad_norm": 0.69921875, "learning_rate": 9.93741491918333e-05, "loss": 0.3846, "step": 76100 }, { "epoch": 101.48, "grad_norm": 0.70703125, "learning_rate": 9.93739839560875e-05, "loss": 0.3677, "step": 76110 }, { "epoch": 101.49333333333334, "grad_norm": 0.70703125, "learning_rate": 9.937381869866942e-05, "loss": 0.3792, "step": 76120 }, { "epoch": 101.50666666666666, "grad_norm": 0.734375, "learning_rate": 9.937365341957909e-05, "loss": 0.3788, "step": 76130 }, { "epoch": 101.52, "grad_norm": 0.66015625, "learning_rate": 9.937348811881662e-05, "loss": 0.37, "step": 76140 }, { "epoch": 101.53333333333333, "grad_norm": 0.8046875, "learning_rate": 9.937332279638206e-05, "loss": 0.3716, "step": 76150 }, { "epoch": 101.54666666666667, "grad_norm": 0.87890625, "learning_rate": 9.93731574522755e-05, "loss": 0.3728, "step": 76160 }, { "epoch": 101.56, "grad_norm": 0.6875, "learning_rate": 9.9372992086497e-05, "loss": 0.3675, "step": 76170 }, { "epoch": 101.57333333333334, "grad_norm": 0.8828125, "learning_rate": 9.937282669904664e-05, "loss": 0.3715, "step": 76180 }, { "epoch": 101.58666666666667, "grad_norm": 0.703125, "learning_rate": 9.937266128992448e-05, "loss": 0.3623, "step": 76190 }, { "epoch": 101.6, "grad_norm": 0.70703125, "learning_rate": 9.937249585913061e-05, "loss": 0.3632, "step": 76200 }, { "epoch": 101.61333333333333, "grad_norm": 0.7265625, "learning_rate": 9.937233040666509e-05, "loss": 0.3553, "step": 76210 }, { "epoch": 101.62666666666667, "grad_norm": 0.62890625, "learning_rate": 9.937216493252801e-05, "loss": 0.3594, "step": 76220 }, { "epoch": 101.64, "grad_norm": 0.734375, "learning_rate": 9.937199943671943e-05, "loss": 0.3669, "step": 76230 }, { "epoch": 101.65333333333334, "grad_norm": 0.7421875, "learning_rate": 9.937183391923939e-05, "loss": 0.3784, "step": 76240 }, { "epoch": 101.66666666666667, "grad_norm": 0.671875, "learning_rate": 9.937166838008802e-05, "loss": 0.3683, "step": 76250 }, { "epoch": 101.68, "grad_norm": 0.7578125, "learning_rate": 9.937150281926537e-05, "loss": 0.3581, "step": 76260 }, { "epoch": 101.69333333333333, "grad_norm": 0.8046875, "learning_rate": 9.93713372367715e-05, "loss": 0.368, "step": 76270 }, { "epoch": 101.70666666666666, "grad_norm": 0.87890625, "learning_rate": 9.937117163260649e-05, "loss": 0.3584, "step": 76280 }, { "epoch": 101.72, "grad_norm": 0.8984375, "learning_rate": 9.937100600677043e-05, "loss": 0.3804, "step": 76290 }, { "epoch": 101.73333333333333, "grad_norm": 0.75, "learning_rate": 9.937084035926338e-05, "loss": 0.3762, "step": 76300 }, { "epoch": 101.74666666666667, "grad_norm": 0.71484375, "learning_rate": 9.937067469008541e-05, "loss": 0.3785, "step": 76310 }, { "epoch": 101.76, "grad_norm": 0.765625, "learning_rate": 9.937050899923659e-05, "loss": 0.3923, "step": 76320 }, { "epoch": 101.77333333333333, "grad_norm": 0.8203125, "learning_rate": 9.9370343286717e-05, "loss": 0.3763, "step": 76330 }, { "epoch": 101.78666666666666, "grad_norm": 0.69140625, "learning_rate": 9.937017755252668e-05, "loss": 0.3801, "step": 76340 }, { "epoch": 101.8, "grad_norm": 0.79296875, "learning_rate": 9.937001179666577e-05, "loss": 0.3765, "step": 76350 }, { "epoch": 101.81333333333333, "grad_norm": 0.82421875, "learning_rate": 9.936984601913428e-05, "loss": 0.3504, "step": 76360 }, { "epoch": 101.82666666666667, "grad_norm": 0.7109375, "learning_rate": 9.936968021993233e-05, "loss": 0.3586, "step": 76370 }, { "epoch": 101.84, "grad_norm": 0.71875, "learning_rate": 9.936951439905995e-05, "loss": 0.372, "step": 76380 }, { "epoch": 101.85333333333334, "grad_norm": 0.6875, "learning_rate": 9.936934855651724e-05, "loss": 0.3661, "step": 76390 }, { "epoch": 101.86666666666666, "grad_norm": 0.7109375, "learning_rate": 9.936918269230427e-05, "loss": 0.3718, "step": 76400 }, { "epoch": 101.88, "grad_norm": 0.796875, "learning_rate": 9.936901680642111e-05, "loss": 0.3531, "step": 76410 }, { "epoch": 101.89333333333333, "grad_norm": 0.6796875, "learning_rate": 9.936885089886783e-05, "loss": 0.3652, "step": 76420 }, { "epoch": 101.90666666666667, "grad_norm": 0.73828125, "learning_rate": 9.936868496964451e-05, "loss": 0.3701, "step": 76430 }, { "epoch": 101.92, "grad_norm": 0.71875, "learning_rate": 9.936851901875121e-05, "loss": 0.3717, "step": 76440 }, { "epoch": 101.93333333333334, "grad_norm": 0.7421875, "learning_rate": 9.936835304618802e-05, "loss": 0.3676, "step": 76450 }, { "epoch": 101.94666666666667, "grad_norm": 0.7421875, "learning_rate": 9.936818705195498e-05, "loss": 0.3686, "step": 76460 }, { "epoch": 101.96, "grad_norm": 0.6953125, "learning_rate": 9.93680210360522e-05, "loss": 0.3662, "step": 76470 }, { "epoch": 101.97333333333333, "grad_norm": 0.921875, "learning_rate": 9.936785499847974e-05, "loss": 0.3886, "step": 76480 }, { "epoch": 101.98666666666666, "grad_norm": 0.76171875, "learning_rate": 9.936768893923768e-05, "loss": 0.3588, "step": 76490 }, { "epoch": 102.0, "grad_norm": 0.7421875, "learning_rate": 9.936752285832607e-05, "loss": 0.3592, "step": 76500 }, { "epoch": 102.0, "eval_loss": 0.4210575819015503, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4405, "eval_samples_per_second": 1.532, "eval_steps_per_second": 0.096, "step": 76500 }, { "epoch": 102.01333333333334, "grad_norm": 0.83984375, "learning_rate": 9.9367356755745e-05, "loss": 0.3748, "step": 76510 }, { "epoch": 102.02666666666667, "grad_norm": 0.7109375, "learning_rate": 9.936719063149453e-05, "loss": 0.3898, "step": 76520 }, { "epoch": 102.04, "grad_norm": 0.734375, "learning_rate": 9.936702448557475e-05, "loss": 0.4027, "step": 76530 }, { "epoch": 102.05333333333333, "grad_norm": 0.72265625, "learning_rate": 9.936685831798575e-05, "loss": 0.3875, "step": 76540 }, { "epoch": 102.06666666666666, "grad_norm": 0.75390625, "learning_rate": 9.936669212872755e-05, "loss": 0.3756, "step": 76550 }, { "epoch": 102.08, "grad_norm": 0.72265625, "learning_rate": 9.936652591780027e-05, "loss": 0.3798, "step": 76560 }, { "epoch": 102.09333333333333, "grad_norm": 0.76171875, "learning_rate": 9.936635968520395e-05, "loss": 0.3815, "step": 76570 }, { "epoch": 102.10666666666667, "grad_norm": 0.70703125, "learning_rate": 9.936619343093869e-05, "loss": 0.3706, "step": 76580 }, { "epoch": 102.12, "grad_norm": 0.75390625, "learning_rate": 9.936602715500453e-05, "loss": 0.3715, "step": 76590 }, { "epoch": 102.13333333333334, "grad_norm": 0.78125, "learning_rate": 9.93658608574016e-05, "loss": 0.3645, "step": 76600 }, { "epoch": 102.14666666666666, "grad_norm": 0.75390625, "learning_rate": 9.936569453812991e-05, "loss": 0.384, "step": 76610 }, { "epoch": 102.16, "grad_norm": 0.65234375, "learning_rate": 9.936552819718957e-05, "loss": 0.3783, "step": 76620 }, { "epoch": 102.17333333333333, "grad_norm": 0.828125, "learning_rate": 9.936536183458064e-05, "loss": 0.3734, "step": 76630 }, { "epoch": 102.18666666666667, "grad_norm": 0.68359375, "learning_rate": 9.93651954503032e-05, "loss": 0.3697, "step": 76640 }, { "epoch": 102.2, "grad_norm": 0.8125, "learning_rate": 9.936502904435731e-05, "loss": 0.3624, "step": 76650 }, { "epoch": 102.21333333333334, "grad_norm": 0.75, "learning_rate": 9.936486261674306e-05, "loss": 0.3627, "step": 76660 }, { "epoch": 102.22666666666667, "grad_norm": 0.71875, "learning_rate": 9.936469616746052e-05, "loss": 0.3742, "step": 76670 }, { "epoch": 102.24, "grad_norm": 0.77734375, "learning_rate": 9.936452969650974e-05, "loss": 0.3606, "step": 76680 }, { "epoch": 102.25333333333333, "grad_norm": 0.73828125, "learning_rate": 9.936436320389082e-05, "loss": 0.3615, "step": 76690 }, { "epoch": 102.26666666666667, "grad_norm": 0.6796875, "learning_rate": 9.936419668960383e-05, "loss": 0.3651, "step": 76700 }, { "epoch": 102.28, "grad_norm": 0.82421875, "learning_rate": 9.936403015364883e-05, "loss": 0.3935, "step": 76710 }, { "epoch": 102.29333333333334, "grad_norm": 0.7265625, "learning_rate": 9.936386359602591e-05, "loss": 0.3519, "step": 76720 }, { "epoch": 102.30666666666667, "grad_norm": 0.7109375, "learning_rate": 9.936369701673512e-05, "loss": 0.3752, "step": 76730 }, { "epoch": 102.32, "grad_norm": 0.640625, "learning_rate": 9.936353041577656e-05, "loss": 0.3787, "step": 76740 }, { "epoch": 102.33333333333333, "grad_norm": 0.796875, "learning_rate": 9.936336379315027e-05, "loss": 0.3777, "step": 76750 }, { "epoch": 102.34666666666666, "grad_norm": 0.8359375, "learning_rate": 9.936319714885637e-05, "loss": 0.3682, "step": 76760 }, { "epoch": 102.36, "grad_norm": 0.78125, "learning_rate": 9.93630304828949e-05, "loss": 0.369, "step": 76770 }, { "epoch": 102.37333333333333, "grad_norm": 0.67578125, "learning_rate": 9.936286379526592e-05, "loss": 0.3728, "step": 76780 }, { "epoch": 102.38666666666667, "grad_norm": 0.78125, "learning_rate": 9.936269708596954e-05, "loss": 0.3609, "step": 76790 }, { "epoch": 102.4, "grad_norm": 0.7421875, "learning_rate": 9.936253035500582e-05, "loss": 0.3706, "step": 76800 }, { "epoch": 102.41333333333333, "grad_norm": 0.70703125, "learning_rate": 9.936236360237481e-05, "loss": 0.3766, "step": 76810 }, { "epoch": 102.42666666666666, "grad_norm": 0.74609375, "learning_rate": 9.936219682807661e-05, "loss": 0.378, "step": 76820 }, { "epoch": 102.44, "grad_norm": 0.7890625, "learning_rate": 9.936203003211128e-05, "loss": 0.3902, "step": 76830 }, { "epoch": 102.45333333333333, "grad_norm": 0.8046875, "learning_rate": 9.936186321447891e-05, "loss": 0.3773, "step": 76840 }, { "epoch": 102.46666666666667, "grad_norm": 0.78515625, "learning_rate": 9.936169637517955e-05, "loss": 0.385, "step": 76850 }, { "epoch": 102.48, "grad_norm": 0.71484375, "learning_rate": 9.936152951421329e-05, "loss": 0.3674, "step": 76860 }, { "epoch": 102.49333333333334, "grad_norm": 0.859375, "learning_rate": 9.93613626315802e-05, "loss": 0.3796, "step": 76870 }, { "epoch": 102.50666666666666, "grad_norm": 0.75, "learning_rate": 9.936119572728036e-05, "loss": 0.3792, "step": 76880 }, { "epoch": 102.52, "grad_norm": 0.6796875, "learning_rate": 9.936102880131383e-05, "loss": 0.3699, "step": 76890 }, { "epoch": 102.53333333333333, "grad_norm": 0.71875, "learning_rate": 9.936086185368068e-05, "loss": 0.371, "step": 76900 }, { "epoch": 102.54666666666667, "grad_norm": 0.875, "learning_rate": 9.9360694884381e-05, "loss": 0.3723, "step": 76910 }, { "epoch": 102.56, "grad_norm": 0.65625, "learning_rate": 9.936052789341484e-05, "loss": 0.3668, "step": 76920 }, { "epoch": 102.57333333333334, "grad_norm": 0.859375, "learning_rate": 9.93603608807823e-05, "loss": 0.3715, "step": 76930 }, { "epoch": 102.58666666666667, "grad_norm": 0.69140625, "learning_rate": 9.936019384648343e-05, "loss": 0.3608, "step": 76940 }, { "epoch": 102.6, "grad_norm": 0.765625, "learning_rate": 9.936002679051833e-05, "loss": 0.362, "step": 76950 }, { "epoch": 102.61333333333333, "grad_norm": 0.67578125, "learning_rate": 9.935985971288704e-05, "loss": 0.3551, "step": 76960 }, { "epoch": 102.62666666666667, "grad_norm": 0.6953125, "learning_rate": 9.935969261358967e-05, "loss": 0.3586, "step": 76970 }, { "epoch": 102.64, "grad_norm": 0.8046875, "learning_rate": 9.935952549262626e-05, "loss": 0.3673, "step": 76980 }, { "epoch": 102.65333333333334, "grad_norm": 0.76171875, "learning_rate": 9.935935834999692e-05, "loss": 0.378, "step": 76990 }, { "epoch": 102.66666666666667, "grad_norm": 0.70703125, "learning_rate": 9.935919118570168e-05, "loss": 0.3688, "step": 77000 }, { "epoch": 102.68, "grad_norm": 0.79296875, "learning_rate": 9.935902399974064e-05, "loss": 0.3577, "step": 77010 }, { "epoch": 102.69333333333333, "grad_norm": 0.66796875, "learning_rate": 9.935885679211385e-05, "loss": 0.3688, "step": 77020 }, { "epoch": 102.70666666666666, "grad_norm": 0.97265625, "learning_rate": 9.935868956282143e-05, "loss": 0.3594, "step": 77030 }, { "epoch": 102.72, "grad_norm": 0.75390625, "learning_rate": 9.935852231186342e-05, "loss": 0.3812, "step": 77040 }, { "epoch": 102.73333333333333, "grad_norm": 0.78515625, "learning_rate": 9.935835503923988e-05, "loss": 0.3755, "step": 77050 }, { "epoch": 102.74666666666667, "grad_norm": 0.7578125, "learning_rate": 9.935818774495091e-05, "loss": 0.3785, "step": 77060 }, { "epoch": 102.76, "grad_norm": 0.79296875, "learning_rate": 9.935802042899658e-05, "loss": 0.3925, "step": 77070 }, { "epoch": 102.77333333333333, "grad_norm": 0.828125, "learning_rate": 9.935785309137695e-05, "loss": 0.3766, "step": 77080 }, { "epoch": 102.78666666666666, "grad_norm": 0.80859375, "learning_rate": 9.935768573209213e-05, "loss": 0.3788, "step": 77090 }, { "epoch": 102.8, "grad_norm": 0.8828125, "learning_rate": 9.935751835114214e-05, "loss": 0.3777, "step": 77100 }, { "epoch": 102.81333333333333, "grad_norm": 0.8828125, "learning_rate": 9.935735094852707e-05, "loss": 0.3505, "step": 77110 }, { "epoch": 102.82666666666667, "grad_norm": 0.72265625, "learning_rate": 9.9357183524247e-05, "loss": 0.3574, "step": 77120 }, { "epoch": 102.84, "grad_norm": 0.76953125, "learning_rate": 9.935701607830204e-05, "loss": 0.3704, "step": 77130 }, { "epoch": 102.85333333333334, "grad_norm": 0.796875, "learning_rate": 9.935684861069222e-05, "loss": 0.3661, "step": 77140 }, { "epoch": 102.86666666666666, "grad_norm": 0.8046875, "learning_rate": 9.93566811214176e-05, "loss": 0.3719, "step": 77150 }, { "epoch": 102.88, "grad_norm": 0.79296875, "learning_rate": 9.935651361047829e-05, "loss": 0.3527, "step": 77160 }, { "epoch": 102.89333333333333, "grad_norm": 0.74609375, "learning_rate": 9.935634607787434e-05, "loss": 0.3657, "step": 77170 }, { "epoch": 102.90666666666667, "grad_norm": 0.7578125, "learning_rate": 9.935617852360584e-05, "loss": 0.3694, "step": 77180 }, { "epoch": 102.92, "grad_norm": 0.79296875, "learning_rate": 9.935601094767286e-05, "loss": 0.3721, "step": 77190 }, { "epoch": 102.93333333333334, "grad_norm": 0.70703125, "learning_rate": 9.935584335007547e-05, "loss": 0.368, "step": 77200 }, { "epoch": 102.94666666666667, "grad_norm": 0.77734375, "learning_rate": 9.935567573081375e-05, "loss": 0.3685, "step": 77210 }, { "epoch": 102.96, "grad_norm": 0.7421875, "learning_rate": 9.935550808988776e-05, "loss": 0.3658, "step": 77220 }, { "epoch": 102.97333333333333, "grad_norm": 0.91015625, "learning_rate": 9.935534042729757e-05, "loss": 0.3887, "step": 77230 }, { "epoch": 102.98666666666666, "grad_norm": 0.78515625, "learning_rate": 9.935517274304329e-05, "loss": 0.3585, "step": 77240 }, { "epoch": 103.0, "grad_norm": 0.76171875, "learning_rate": 9.935500503712495e-05, "loss": 0.3587, "step": 77250 }, { "epoch": 103.0, "eval_loss": 0.41940993070602417, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5195, "eval_samples_per_second": 1.521, "eval_steps_per_second": 0.095, "step": 77250 }, { "epoch": 103.01333333333334, "grad_norm": 0.89453125, "learning_rate": 9.935483730954265e-05, "loss": 0.3754, "step": 77260 }, { "epoch": 103.02666666666667, "grad_norm": 0.7109375, "learning_rate": 9.935466956029645e-05, "loss": 0.3895, "step": 77270 }, { "epoch": 103.04, "grad_norm": 0.6796875, "learning_rate": 9.935450178938643e-05, "loss": 0.4028, "step": 77280 }, { "epoch": 103.05333333333333, "grad_norm": 0.78515625, "learning_rate": 9.935433399681267e-05, "loss": 0.3878, "step": 77290 }, { "epoch": 103.06666666666666, "grad_norm": 0.83984375, "learning_rate": 9.935416618257523e-05, "loss": 0.376, "step": 77300 }, { "epoch": 103.08, "grad_norm": 0.8125, "learning_rate": 9.935399834667418e-05, "loss": 0.3792, "step": 77310 }, { "epoch": 103.09333333333333, "grad_norm": 0.8203125, "learning_rate": 9.935383048910962e-05, "loss": 0.3811, "step": 77320 }, { "epoch": 103.10666666666667, "grad_norm": 0.7109375, "learning_rate": 9.935366260988159e-05, "loss": 0.3704, "step": 77330 }, { "epoch": 103.12, "grad_norm": 0.75390625, "learning_rate": 9.93534947089902e-05, "loss": 0.3719, "step": 77340 }, { "epoch": 103.13333333333334, "grad_norm": 0.76953125, "learning_rate": 9.93533267864355e-05, "loss": 0.3638, "step": 77350 }, { "epoch": 103.14666666666666, "grad_norm": 0.75, "learning_rate": 9.935315884221756e-05, "loss": 0.3833, "step": 77360 }, { "epoch": 103.16, "grad_norm": 0.7265625, "learning_rate": 9.935299087633649e-05, "loss": 0.3788, "step": 77370 }, { "epoch": 103.17333333333333, "grad_norm": 0.84375, "learning_rate": 9.935282288879231e-05, "loss": 0.3732, "step": 77380 }, { "epoch": 103.18666666666667, "grad_norm": 0.71875, "learning_rate": 9.935265487958511e-05, "loss": 0.3694, "step": 77390 }, { "epoch": 103.2, "grad_norm": 0.73046875, "learning_rate": 9.9352486848715e-05, "loss": 0.3614, "step": 77400 }, { "epoch": 103.21333333333334, "grad_norm": 0.89453125, "learning_rate": 9.9352318796182e-05, "loss": 0.3624, "step": 77410 }, { "epoch": 103.22666666666667, "grad_norm": 0.87890625, "learning_rate": 9.935215072198625e-05, "loss": 0.3734, "step": 77420 }, { "epoch": 103.24, "grad_norm": 0.8359375, "learning_rate": 9.935198262612776e-05, "loss": 0.3599, "step": 77430 }, { "epoch": 103.25333333333333, "grad_norm": 0.75, "learning_rate": 9.935181450860662e-05, "loss": 0.3617, "step": 77440 }, { "epoch": 103.26666666666667, "grad_norm": 0.74609375, "learning_rate": 9.935164636942293e-05, "loss": 0.3645, "step": 77450 }, { "epoch": 103.28, "grad_norm": 0.77734375, "learning_rate": 9.935147820857675e-05, "loss": 0.3925, "step": 77460 }, { "epoch": 103.29333333333334, "grad_norm": 0.765625, "learning_rate": 9.935131002606814e-05, "loss": 0.3518, "step": 77470 }, { "epoch": 103.30666666666667, "grad_norm": 0.734375, "learning_rate": 9.935114182189718e-05, "loss": 0.3755, "step": 77480 }, { "epoch": 103.32, "grad_norm": 0.68359375, "learning_rate": 9.935097359606395e-05, "loss": 0.3779, "step": 77490 }, { "epoch": 103.33333333333333, "grad_norm": 0.82421875, "learning_rate": 9.935080534856852e-05, "loss": 0.3776, "step": 77500 }, { "epoch": 103.34666666666666, "grad_norm": 0.8671875, "learning_rate": 9.935063707941097e-05, "loss": 0.369, "step": 77510 }, { "epoch": 103.36, "grad_norm": 0.75, "learning_rate": 9.935046878859136e-05, "loss": 0.3689, "step": 77520 }, { "epoch": 103.37333333333333, "grad_norm": 0.6953125, "learning_rate": 9.935030047610978e-05, "loss": 0.3731, "step": 77530 }, { "epoch": 103.38666666666667, "grad_norm": 0.86328125, "learning_rate": 9.935013214196632e-05, "loss": 0.3598, "step": 77540 }, { "epoch": 103.4, "grad_norm": 0.76953125, "learning_rate": 9.934996378616099e-05, "loss": 0.3697, "step": 77550 }, { "epoch": 103.41333333333333, "grad_norm": 0.72265625, "learning_rate": 9.934979540869392e-05, "loss": 0.3764, "step": 77560 }, { "epoch": 103.42666666666666, "grad_norm": 0.7265625, "learning_rate": 9.934962700956519e-05, "loss": 0.3774, "step": 77570 }, { "epoch": 103.44, "grad_norm": 0.70703125, "learning_rate": 9.934945858877482e-05, "loss": 0.3904, "step": 77580 }, { "epoch": 103.45333333333333, "grad_norm": 0.73046875, "learning_rate": 9.934929014632294e-05, "loss": 0.3771, "step": 77590 }, { "epoch": 103.46666666666667, "grad_norm": 0.7734375, "learning_rate": 9.934912168220958e-05, "loss": 0.3836, "step": 77600 }, { "epoch": 103.48, "grad_norm": 0.75, "learning_rate": 9.934895319643484e-05, "loss": 0.3679, "step": 77610 }, { "epoch": 103.49333333333334, "grad_norm": 0.75, "learning_rate": 9.934878468899881e-05, "loss": 0.3791, "step": 77620 }, { "epoch": 103.50666666666666, "grad_norm": 0.78125, "learning_rate": 9.934861615990151e-05, "loss": 0.3786, "step": 77630 }, { "epoch": 103.52, "grad_norm": 0.671875, "learning_rate": 9.934844760914308e-05, "loss": 0.3697, "step": 77640 }, { "epoch": 103.53333333333333, "grad_norm": 0.7421875, "learning_rate": 9.934827903672355e-05, "loss": 0.3703, "step": 77650 }, { "epoch": 103.54666666666667, "grad_norm": 0.8203125, "learning_rate": 9.934811044264298e-05, "loss": 0.3714, "step": 77660 }, { "epoch": 103.56, "grad_norm": 0.6640625, "learning_rate": 9.93479418269015e-05, "loss": 0.3665, "step": 77670 }, { "epoch": 103.57333333333334, "grad_norm": 0.79296875, "learning_rate": 9.934777318949914e-05, "loss": 0.3714, "step": 77680 }, { "epoch": 103.58666666666667, "grad_norm": 0.70703125, "learning_rate": 9.934760453043599e-05, "loss": 0.3617, "step": 77690 }, { "epoch": 103.6, "grad_norm": 0.83203125, "learning_rate": 9.934743584971211e-05, "loss": 0.363, "step": 77700 }, { "epoch": 103.61333333333333, "grad_norm": 0.64453125, "learning_rate": 9.934726714732758e-05, "loss": 0.3551, "step": 77710 }, { "epoch": 103.62666666666667, "grad_norm": 0.62890625, "learning_rate": 9.934709842328249e-05, "loss": 0.3586, "step": 77720 }, { "epoch": 103.64, "grad_norm": 0.8046875, "learning_rate": 9.93469296775769e-05, "loss": 0.3677, "step": 77730 }, { "epoch": 103.65333333333334, "grad_norm": 0.73046875, "learning_rate": 9.934676091021089e-05, "loss": 0.3773, "step": 77740 }, { "epoch": 103.66666666666667, "grad_norm": 0.71484375, "learning_rate": 9.934659212118453e-05, "loss": 0.3674, "step": 77750 }, { "epoch": 103.68, "grad_norm": 0.8359375, "learning_rate": 9.93464233104979e-05, "loss": 0.3572, "step": 77760 }, { "epoch": 103.69333333333333, "grad_norm": 0.6953125, "learning_rate": 9.934625447815106e-05, "loss": 0.3688, "step": 77770 }, { "epoch": 103.70666666666666, "grad_norm": 0.87890625, "learning_rate": 9.93460856241441e-05, "loss": 0.3586, "step": 77780 }, { "epoch": 103.72, "grad_norm": 0.76953125, "learning_rate": 9.934591674847708e-05, "loss": 0.3798, "step": 77790 }, { "epoch": 103.73333333333333, "grad_norm": 0.75, "learning_rate": 9.934574785115007e-05, "loss": 0.376, "step": 77800 }, { "epoch": 103.74666666666667, "grad_norm": 0.6875, "learning_rate": 9.934557893216317e-05, "loss": 0.379, "step": 77810 }, { "epoch": 103.76, "grad_norm": 0.78125, "learning_rate": 9.934540999151645e-05, "loss": 0.3915, "step": 77820 }, { "epoch": 103.77333333333333, "grad_norm": 0.8046875, "learning_rate": 9.934524102920994e-05, "loss": 0.3758, "step": 77830 }, { "epoch": 103.78666666666666, "grad_norm": 0.6953125, "learning_rate": 9.934507204524379e-05, "loss": 0.3785, "step": 77840 }, { "epoch": 103.8, "grad_norm": 0.75390625, "learning_rate": 9.934490303961801e-05, "loss": 0.3769, "step": 77850 }, { "epoch": 103.81333333333333, "grad_norm": 0.78125, "learning_rate": 9.934473401233269e-05, "loss": 0.3503, "step": 77860 }, { "epoch": 103.82666666666667, "grad_norm": 0.73046875, "learning_rate": 9.934456496338792e-05, "loss": 0.3585, "step": 77870 }, { "epoch": 103.84, "grad_norm": 0.78125, "learning_rate": 9.934439589278377e-05, "loss": 0.371, "step": 77880 }, { "epoch": 103.85333333333334, "grad_norm": 0.8203125, "learning_rate": 9.934422680052029e-05, "loss": 0.3662, "step": 77890 }, { "epoch": 103.86666666666666, "grad_norm": 0.7890625, "learning_rate": 9.934405768659758e-05, "loss": 0.3715, "step": 77900 }, { "epoch": 103.88, "grad_norm": 0.7265625, "learning_rate": 9.934388855101571e-05, "loss": 0.3536, "step": 77910 }, { "epoch": 103.89333333333333, "grad_norm": 0.75, "learning_rate": 9.934371939377476e-05, "loss": 0.3661, "step": 77920 }, { "epoch": 103.90666666666667, "grad_norm": 0.7578125, "learning_rate": 9.934355021487479e-05, "loss": 0.3698, "step": 77930 }, { "epoch": 103.92, "grad_norm": 0.73046875, "learning_rate": 9.934338101431588e-05, "loss": 0.371, "step": 77940 }, { "epoch": 103.93333333333334, "grad_norm": 0.65625, "learning_rate": 9.93432117920981e-05, "loss": 0.3673, "step": 77950 }, { "epoch": 103.94666666666667, "grad_norm": 0.7265625, "learning_rate": 9.934304254822154e-05, "loss": 0.3665, "step": 77960 }, { "epoch": 103.96, "grad_norm": 0.6640625, "learning_rate": 9.934287328268626e-05, "loss": 0.3659, "step": 77970 }, { "epoch": 103.97333333333333, "grad_norm": 1.03125, "learning_rate": 9.934270399549233e-05, "loss": 0.3883, "step": 77980 }, { "epoch": 103.98666666666666, "grad_norm": 0.7578125, "learning_rate": 9.934253468663982e-05, "loss": 0.3587, "step": 77990 }, { "epoch": 104.0, "grad_norm": 0.78125, "learning_rate": 9.934236535612883e-05, "loss": 0.359, "step": 78000 }, { "epoch": 104.0, "eval_loss": 0.4184219241142273, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5973, "eval_samples_per_second": 1.51, "eval_steps_per_second": 0.094, "step": 78000 }, { "epoch": 104.01333333333334, "grad_norm": 0.8203125, "learning_rate": 9.934219600395943e-05, "loss": 0.3755, "step": 78010 }, { "epoch": 104.02666666666667, "grad_norm": 0.73828125, "learning_rate": 9.934202663013165e-05, "loss": 0.3895, "step": 78020 }, { "epoch": 104.04, "grad_norm": 0.765625, "learning_rate": 9.934185723464564e-05, "loss": 0.4039, "step": 78030 }, { "epoch": 104.05333333333333, "grad_norm": 0.7578125, "learning_rate": 9.934168781750141e-05, "loss": 0.3867, "step": 78040 }, { "epoch": 104.06666666666666, "grad_norm": 0.80078125, "learning_rate": 9.934151837869907e-05, "loss": 0.3754, "step": 78050 }, { "epoch": 104.08, "grad_norm": 0.71484375, "learning_rate": 9.934134891823866e-05, "loss": 0.3792, "step": 78060 }, { "epoch": 104.09333333333333, "grad_norm": 0.8671875, "learning_rate": 9.93411794361203e-05, "loss": 0.3813, "step": 78070 }, { "epoch": 104.10666666666667, "grad_norm": 0.70703125, "learning_rate": 9.934100993234403e-05, "loss": 0.3698, "step": 78080 }, { "epoch": 104.12, "grad_norm": 0.74609375, "learning_rate": 9.934084040690994e-05, "loss": 0.3709, "step": 78090 }, { "epoch": 104.13333333333334, "grad_norm": 0.7578125, "learning_rate": 9.934067085981809e-05, "loss": 0.3637, "step": 78100 }, { "epoch": 104.14666666666666, "grad_norm": 0.79296875, "learning_rate": 9.934050129106857e-05, "loss": 0.3836, "step": 78110 }, { "epoch": 104.16, "grad_norm": 0.6953125, "learning_rate": 9.934033170066145e-05, "loss": 0.3784, "step": 78120 }, { "epoch": 104.17333333333333, "grad_norm": 0.8125, "learning_rate": 9.93401620885968e-05, "loss": 0.3731, "step": 78130 }, { "epoch": 104.18666666666667, "grad_norm": 0.7109375, "learning_rate": 9.933999245487469e-05, "loss": 0.3701, "step": 78140 }, { "epoch": 104.2, "grad_norm": 0.79296875, "learning_rate": 9.933982279949521e-05, "loss": 0.3609, "step": 78150 }, { "epoch": 104.21333333333334, "grad_norm": 0.78125, "learning_rate": 9.933965312245844e-05, "loss": 0.3627, "step": 78160 }, { "epoch": 104.22666666666667, "grad_norm": 0.78125, "learning_rate": 9.933948342376442e-05, "loss": 0.3739, "step": 78170 }, { "epoch": 104.24, "grad_norm": 0.73828125, "learning_rate": 9.933931370341325e-05, "loss": 0.3595, "step": 78180 }, { "epoch": 104.25333333333333, "grad_norm": 0.82421875, "learning_rate": 9.9339143961405e-05, "loss": 0.3619, "step": 78190 }, { "epoch": 104.26666666666667, "grad_norm": 0.76171875, "learning_rate": 9.933897419773975e-05, "loss": 0.365, "step": 78200 }, { "epoch": 104.28, "grad_norm": 0.8203125, "learning_rate": 9.933880441241755e-05, "loss": 0.3922, "step": 78210 }, { "epoch": 104.29333333333334, "grad_norm": 0.71484375, "learning_rate": 9.93386346054385e-05, "loss": 0.3512, "step": 78220 }, { "epoch": 104.30666666666667, "grad_norm": 0.7109375, "learning_rate": 9.933846477680269e-05, "loss": 0.3736, "step": 78230 }, { "epoch": 104.32, "grad_norm": 0.6796875, "learning_rate": 9.933829492651015e-05, "loss": 0.3788, "step": 78240 }, { "epoch": 104.33333333333333, "grad_norm": 0.78515625, "learning_rate": 9.933812505456098e-05, "loss": 0.3772, "step": 78250 }, { "epoch": 104.34666666666666, "grad_norm": 0.8515625, "learning_rate": 9.933795516095525e-05, "loss": 0.3681, "step": 78260 }, { "epoch": 104.36, "grad_norm": 0.81640625, "learning_rate": 9.933778524569306e-05, "loss": 0.3693, "step": 78270 }, { "epoch": 104.37333333333333, "grad_norm": 0.6953125, "learning_rate": 9.933761530877443e-05, "loss": 0.3719, "step": 78280 }, { "epoch": 104.38666666666667, "grad_norm": 0.81640625, "learning_rate": 9.933744535019948e-05, "loss": 0.3595, "step": 78290 }, { "epoch": 104.4, "grad_norm": 0.70703125, "learning_rate": 9.933727536996826e-05, "loss": 0.37, "step": 78300 }, { "epoch": 104.41333333333333, "grad_norm": 0.78515625, "learning_rate": 9.933710536808085e-05, "loss": 0.3756, "step": 78310 }, { "epoch": 104.42666666666666, "grad_norm": 0.71484375, "learning_rate": 9.933693534453734e-05, "loss": 0.3776, "step": 78320 }, { "epoch": 104.44, "grad_norm": 0.8046875, "learning_rate": 9.93367652993378e-05, "loss": 0.3895, "step": 78330 }, { "epoch": 104.45333333333333, "grad_norm": 0.8125, "learning_rate": 9.93365952324823e-05, "loss": 0.3771, "step": 78340 }, { "epoch": 104.46666666666667, "grad_norm": 0.78515625, "learning_rate": 9.93364251439709e-05, "loss": 0.3837, "step": 78350 }, { "epoch": 104.48, "grad_norm": 0.734375, "learning_rate": 9.933625503380369e-05, "loss": 0.3678, "step": 78360 }, { "epoch": 104.49333333333334, "grad_norm": 0.6953125, "learning_rate": 9.933608490198074e-05, "loss": 0.3787, "step": 78370 }, { "epoch": 104.50666666666666, "grad_norm": 0.75390625, "learning_rate": 9.933591474850212e-05, "loss": 0.3787, "step": 78380 }, { "epoch": 104.52, "grad_norm": 0.6796875, "learning_rate": 9.933574457336792e-05, "loss": 0.3692, "step": 78390 }, { "epoch": 104.53333333333333, "grad_norm": 0.77734375, "learning_rate": 9.933557437657821e-05, "loss": 0.3708, "step": 78400 }, { "epoch": 104.54666666666667, "grad_norm": 0.8046875, "learning_rate": 9.933540415813306e-05, "loss": 0.3714, "step": 78410 }, { "epoch": 104.56, "grad_norm": 0.6484375, "learning_rate": 9.933523391803255e-05, "loss": 0.366, "step": 78420 }, { "epoch": 104.57333333333334, "grad_norm": 0.80859375, "learning_rate": 9.933506365627674e-05, "loss": 0.3704, "step": 78430 }, { "epoch": 104.58666666666667, "grad_norm": 0.73828125, "learning_rate": 9.933489337286572e-05, "loss": 0.3605, "step": 78440 }, { "epoch": 104.6, "grad_norm": 0.71484375, "learning_rate": 9.933472306779956e-05, "loss": 0.3628, "step": 78450 }, { "epoch": 104.61333333333333, "grad_norm": 0.73046875, "learning_rate": 9.933455274107833e-05, "loss": 0.3543, "step": 78460 }, { "epoch": 104.62666666666667, "grad_norm": 0.6953125, "learning_rate": 9.933438239270212e-05, "loss": 0.3586, "step": 78470 }, { "epoch": 104.64, "grad_norm": 0.84765625, "learning_rate": 9.933421202267098e-05, "loss": 0.3677, "step": 78480 }, { "epoch": 104.65333333333334, "grad_norm": 0.734375, "learning_rate": 9.9334041630985e-05, "loss": 0.3775, "step": 78490 }, { "epoch": 104.66666666666667, "grad_norm": 0.66796875, "learning_rate": 9.933387121764427e-05, "loss": 0.3678, "step": 78500 }, { "epoch": 104.68, "grad_norm": 0.796875, "learning_rate": 9.933370078264884e-05, "loss": 0.357, "step": 78510 }, { "epoch": 104.69333333333333, "grad_norm": 0.640625, "learning_rate": 9.933353032599879e-05, "loss": 0.3677, "step": 78520 }, { "epoch": 104.70666666666666, "grad_norm": 0.875, "learning_rate": 9.93333598476942e-05, "loss": 0.3589, "step": 78530 }, { "epoch": 104.72, "grad_norm": 0.78515625, "learning_rate": 9.933318934773514e-05, "loss": 0.3806, "step": 78540 }, { "epoch": 104.73333333333333, "grad_norm": 0.8125, "learning_rate": 9.93330188261217e-05, "loss": 0.376, "step": 78550 }, { "epoch": 104.74666666666667, "grad_norm": 0.78515625, "learning_rate": 9.933284828285392e-05, "loss": 0.3781, "step": 78560 }, { "epoch": 104.76, "grad_norm": 0.85546875, "learning_rate": 9.933267771793191e-05, "loss": 0.3919, "step": 78570 }, { "epoch": 104.77333333333333, "grad_norm": 0.78515625, "learning_rate": 9.933250713135574e-05, "loss": 0.3759, "step": 78580 }, { "epoch": 104.78666666666666, "grad_norm": 0.65234375, "learning_rate": 9.933233652312546e-05, "loss": 0.3781, "step": 78590 }, { "epoch": 104.8, "grad_norm": 0.71875, "learning_rate": 9.933216589324118e-05, "loss": 0.3762, "step": 78600 }, { "epoch": 104.81333333333333, "grad_norm": 0.8984375, "learning_rate": 9.933199524170295e-05, "loss": 0.3502, "step": 78610 }, { "epoch": 104.82666666666667, "grad_norm": 0.77734375, "learning_rate": 9.933182456851084e-05, "loss": 0.3581, "step": 78620 }, { "epoch": 104.84, "grad_norm": 0.78125, "learning_rate": 9.933165387366496e-05, "loss": 0.3707, "step": 78630 }, { "epoch": 104.85333333333334, "grad_norm": 0.73046875, "learning_rate": 9.933148315716535e-05, "loss": 0.3666, "step": 78640 }, { "epoch": 104.86666666666666, "grad_norm": 0.84765625, "learning_rate": 9.93313124190121e-05, "loss": 0.372, "step": 78650 }, { "epoch": 104.88, "grad_norm": 0.7890625, "learning_rate": 9.933114165920527e-05, "loss": 0.3531, "step": 78660 }, { "epoch": 104.89333333333333, "grad_norm": 0.6875, "learning_rate": 9.933097087774497e-05, "loss": 0.3646, "step": 78670 }, { "epoch": 104.90666666666667, "grad_norm": 0.79296875, "learning_rate": 9.933080007463122e-05, "loss": 0.3699, "step": 78680 }, { "epoch": 104.92, "grad_norm": 0.76953125, "learning_rate": 9.933062924986416e-05, "loss": 0.3715, "step": 78690 }, { "epoch": 104.93333333333334, "grad_norm": 0.72265625, "learning_rate": 9.933045840344381e-05, "loss": 0.3667, "step": 78700 }, { "epoch": 104.94666666666667, "grad_norm": 0.828125, "learning_rate": 9.933028753537026e-05, "loss": 0.3669, "step": 78710 }, { "epoch": 104.96, "grad_norm": 0.70703125, "learning_rate": 9.93301166456436e-05, "loss": 0.3649, "step": 78720 }, { "epoch": 104.97333333333333, "grad_norm": 0.921875, "learning_rate": 9.93299457342639e-05, "loss": 0.3886, "step": 78730 }, { "epoch": 104.98666666666666, "grad_norm": 0.84765625, "learning_rate": 9.932977480123124e-05, "loss": 0.3579, "step": 78740 }, { "epoch": 105.0, "grad_norm": 0.70703125, "learning_rate": 9.932960384654568e-05, "loss": 0.359, "step": 78750 }, { "epoch": 105.0, "eval_loss": 0.4196151793003082, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6909, "eval_samples_per_second": 1.497, "eval_steps_per_second": 0.094, "step": 78750 }, { "epoch": 105.01333333333334, "grad_norm": 0.75, "learning_rate": 9.93294328702073e-05, "loss": 0.3755, "step": 78760 }, { "epoch": 105.02666666666667, "grad_norm": 0.71875, "learning_rate": 9.932926187221616e-05, "loss": 0.3892, "step": 78770 }, { "epoch": 105.04, "grad_norm": 0.76953125, "learning_rate": 9.932909085257238e-05, "loss": 0.4031, "step": 78780 }, { "epoch": 105.05333333333333, "grad_norm": 0.765625, "learning_rate": 9.932891981127598e-05, "loss": 0.3868, "step": 78790 }, { "epoch": 105.06666666666666, "grad_norm": 0.80078125, "learning_rate": 9.932874874832709e-05, "loss": 0.375, "step": 78800 }, { "epoch": 105.08, "grad_norm": 0.73828125, "learning_rate": 9.932857766372574e-05, "loss": 0.3788, "step": 78810 }, { "epoch": 105.09333333333333, "grad_norm": 0.84375, "learning_rate": 9.932840655747202e-05, "loss": 0.3812, "step": 78820 }, { "epoch": 105.10666666666667, "grad_norm": 0.6953125, "learning_rate": 9.932823542956601e-05, "loss": 0.3699, "step": 78830 }, { "epoch": 105.12, "grad_norm": 0.90234375, "learning_rate": 9.93280642800078e-05, "loss": 0.3713, "step": 78840 }, { "epoch": 105.13333333333334, "grad_norm": 0.7734375, "learning_rate": 9.932789310879743e-05, "loss": 0.3647, "step": 78850 }, { "epoch": 105.14666666666666, "grad_norm": 0.72265625, "learning_rate": 9.9327721915935e-05, "loss": 0.3827, "step": 78860 }, { "epoch": 105.16, "grad_norm": 0.74609375, "learning_rate": 9.932755070142057e-05, "loss": 0.3783, "step": 78870 }, { "epoch": 105.17333333333333, "grad_norm": 0.875, "learning_rate": 9.932737946525421e-05, "loss": 0.3724, "step": 78880 }, { "epoch": 105.18666666666667, "grad_norm": 0.7578125, "learning_rate": 9.932720820743603e-05, "loss": 0.3698, "step": 78890 }, { "epoch": 105.2, "grad_norm": 0.76171875, "learning_rate": 9.932703692796608e-05, "loss": 0.3618, "step": 78900 }, { "epoch": 105.21333333333334, "grad_norm": 0.78125, "learning_rate": 9.932686562684443e-05, "loss": 0.3621, "step": 78910 }, { "epoch": 105.22666666666667, "grad_norm": 0.82421875, "learning_rate": 9.932669430407116e-05, "loss": 0.3728, "step": 78920 }, { "epoch": 105.24, "grad_norm": 0.8125, "learning_rate": 9.932652295964638e-05, "loss": 0.3598, "step": 78930 }, { "epoch": 105.25333333333333, "grad_norm": 0.796875, "learning_rate": 9.932635159357009e-05, "loss": 0.3609, "step": 78940 }, { "epoch": 105.26666666666667, "grad_norm": 0.69921875, "learning_rate": 9.932618020584244e-05, "loss": 0.3646, "step": 78950 }, { "epoch": 105.28, "grad_norm": 0.80859375, "learning_rate": 9.932600879646345e-05, "loss": 0.3928, "step": 78960 }, { "epoch": 105.29333333333334, "grad_norm": 0.73828125, "learning_rate": 9.932583736543323e-05, "loss": 0.3503, "step": 78970 }, { "epoch": 105.30666666666667, "grad_norm": 0.72265625, "learning_rate": 9.932566591275186e-05, "loss": 0.374, "step": 78980 }, { "epoch": 105.32, "grad_norm": 0.73046875, "learning_rate": 9.932549443841938e-05, "loss": 0.3782, "step": 78990 }, { "epoch": 105.33333333333333, "grad_norm": 0.8828125, "learning_rate": 9.932532294243591e-05, "loss": 0.377, "step": 79000 }, { "epoch": 105.34666666666666, "grad_norm": 0.8046875, "learning_rate": 9.932515142480148e-05, "loss": 0.3679, "step": 79010 }, { "epoch": 105.36, "grad_norm": 0.76171875, "learning_rate": 9.932497988551619e-05, "loss": 0.3685, "step": 79020 }, { "epoch": 105.37333333333333, "grad_norm": 0.68359375, "learning_rate": 9.932480832458011e-05, "loss": 0.3714, "step": 79030 }, { "epoch": 105.38666666666667, "grad_norm": 0.9296875, "learning_rate": 9.932463674199333e-05, "loss": 0.3601, "step": 79040 }, { "epoch": 105.4, "grad_norm": 0.77734375, "learning_rate": 9.93244651377559e-05, "loss": 0.3695, "step": 79050 }, { "epoch": 105.41333333333333, "grad_norm": 0.72265625, "learning_rate": 9.93242935118679e-05, "loss": 0.3764, "step": 79060 }, { "epoch": 105.42666666666666, "grad_norm": 0.765625, "learning_rate": 9.932412186432942e-05, "loss": 0.3769, "step": 79070 }, { "epoch": 105.44, "grad_norm": 0.7734375, "learning_rate": 9.932395019514053e-05, "loss": 0.3885, "step": 79080 }, { "epoch": 105.45333333333333, "grad_norm": 0.78125, "learning_rate": 9.93237785043013e-05, "loss": 0.377, "step": 79090 }, { "epoch": 105.46666666666667, "grad_norm": 0.7421875, "learning_rate": 9.932360679181182e-05, "loss": 0.385, "step": 79100 }, { "epoch": 105.48, "grad_norm": 0.7265625, "learning_rate": 9.932343505767214e-05, "loss": 0.3675, "step": 79110 }, { "epoch": 105.49333333333334, "grad_norm": 0.734375, "learning_rate": 9.932326330188236e-05, "loss": 0.3788, "step": 79120 }, { "epoch": 105.50666666666666, "grad_norm": 0.796875, "learning_rate": 9.932309152444254e-05, "loss": 0.3784, "step": 79130 }, { "epoch": 105.52, "grad_norm": 0.69140625, "learning_rate": 9.932291972535274e-05, "loss": 0.3684, "step": 79140 }, { "epoch": 105.53333333333333, "grad_norm": 0.76171875, "learning_rate": 9.932274790461309e-05, "loss": 0.3705, "step": 79150 }, { "epoch": 105.54666666666667, "grad_norm": 0.83203125, "learning_rate": 9.932257606222362e-05, "loss": 0.3714, "step": 79160 }, { "epoch": 105.56, "grad_norm": 0.71484375, "learning_rate": 9.93224041981844e-05, "loss": 0.3656, "step": 79170 }, { "epoch": 105.57333333333334, "grad_norm": 0.765625, "learning_rate": 9.932223231249553e-05, "loss": 0.3707, "step": 79180 }, { "epoch": 105.58666666666667, "grad_norm": 0.73046875, "learning_rate": 9.93220604051571e-05, "loss": 0.3607, "step": 79190 }, { "epoch": 105.6, "grad_norm": 0.7109375, "learning_rate": 9.932188847616914e-05, "loss": 0.3625, "step": 79200 }, { "epoch": 105.61333333333333, "grad_norm": 0.77734375, "learning_rate": 9.932171652553174e-05, "loss": 0.3543, "step": 79210 }, { "epoch": 105.62666666666667, "grad_norm": 0.703125, "learning_rate": 9.9321544553245e-05, "loss": 0.3592, "step": 79220 }, { "epoch": 105.64, "grad_norm": 0.79296875, "learning_rate": 9.932137255930898e-05, "loss": 0.3675, "step": 79230 }, { "epoch": 105.65333333333334, "grad_norm": 0.734375, "learning_rate": 9.932120054372375e-05, "loss": 0.3766, "step": 79240 }, { "epoch": 105.66666666666667, "grad_norm": 0.76171875, "learning_rate": 9.932102850648938e-05, "loss": 0.3679, "step": 79250 }, { "epoch": 105.68, "grad_norm": 0.85546875, "learning_rate": 9.932085644760597e-05, "loss": 0.3572, "step": 79260 }, { "epoch": 105.69333333333333, "grad_norm": 0.6796875, "learning_rate": 9.932068436707358e-05, "loss": 0.3679, "step": 79270 }, { "epoch": 105.70666666666666, "grad_norm": 0.87109375, "learning_rate": 9.932051226489228e-05, "loss": 0.3578, "step": 79280 }, { "epoch": 105.72, "grad_norm": 0.78515625, "learning_rate": 9.932034014106216e-05, "loss": 0.3804, "step": 79290 }, { "epoch": 105.73333333333333, "grad_norm": 0.72265625, "learning_rate": 9.932016799558328e-05, "loss": 0.3758, "step": 79300 }, { "epoch": 105.74666666666667, "grad_norm": 0.703125, "learning_rate": 9.931999582845572e-05, "loss": 0.3783, "step": 79310 }, { "epoch": 105.76, "grad_norm": 0.7734375, "learning_rate": 9.931982363967957e-05, "loss": 0.3903, "step": 79320 }, { "epoch": 105.77333333333333, "grad_norm": 0.79296875, "learning_rate": 9.93196514292549e-05, "loss": 0.376, "step": 79330 }, { "epoch": 105.78666666666666, "grad_norm": 0.69921875, "learning_rate": 9.931947919718176e-05, "loss": 0.3789, "step": 79340 }, { "epoch": 105.8, "grad_norm": 0.7578125, "learning_rate": 9.931930694346026e-05, "loss": 0.3772, "step": 79350 }, { "epoch": 105.81333333333333, "grad_norm": 0.83984375, "learning_rate": 9.931913466809047e-05, "loss": 0.3504, "step": 79360 }, { "epoch": 105.82666666666667, "grad_norm": 0.74609375, "learning_rate": 9.931896237107243e-05, "loss": 0.3584, "step": 79370 }, { "epoch": 105.84, "grad_norm": 0.80078125, "learning_rate": 9.931879005240625e-05, "loss": 0.3706, "step": 79380 }, { "epoch": 105.85333333333334, "grad_norm": 0.71875, "learning_rate": 9.931861771209201e-05, "loss": 0.3654, "step": 79390 }, { "epoch": 105.86666666666666, "grad_norm": 0.73828125, "learning_rate": 9.931844535012978e-05, "loss": 0.3717, "step": 79400 }, { "epoch": 105.88, "grad_norm": 0.7109375, "learning_rate": 9.931827296651961e-05, "loss": 0.3524, "step": 79410 }, { "epoch": 105.89333333333333, "grad_norm": 0.70703125, "learning_rate": 9.93181005612616e-05, "loss": 0.3643, "step": 79420 }, { "epoch": 105.90666666666667, "grad_norm": 0.78125, "learning_rate": 9.931792813435583e-05, "loss": 0.3698, "step": 79430 }, { "epoch": 105.92, "grad_norm": 0.7421875, "learning_rate": 9.931775568580237e-05, "loss": 0.3707, "step": 79440 }, { "epoch": 105.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.931758321560127e-05, "loss": 0.3668, "step": 79450 }, { "epoch": 105.94666666666667, "grad_norm": 0.73828125, "learning_rate": 9.931741072375264e-05, "loss": 0.366, "step": 79460 }, { "epoch": 105.96, "grad_norm": 0.70703125, "learning_rate": 9.931723821025656e-05, "loss": 0.3643, "step": 79470 }, { "epoch": 105.97333333333333, "grad_norm": 1.0, "learning_rate": 9.931706567511308e-05, "loss": 0.3871, "step": 79480 }, { "epoch": 105.98666666666666, "grad_norm": 0.8203125, "learning_rate": 9.931689311832227e-05, "loss": 0.3582, "step": 79490 }, { "epoch": 106.0, "grad_norm": 0.80078125, "learning_rate": 9.931672053988424e-05, "loss": 0.3589, "step": 79500 }, { "epoch": 106.0, "eval_loss": 0.41893327236175537, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8873, "eval_samples_per_second": 1.47, "eval_steps_per_second": 0.092, "step": 79500 }, { "epoch": 106.01333333333334, "grad_norm": 0.8828125, "learning_rate": 9.931654793979903e-05, "loss": 0.3756, "step": 79510 }, { "epoch": 106.02666666666667, "grad_norm": 0.71484375, "learning_rate": 9.931637531806674e-05, "loss": 0.39, "step": 79520 }, { "epoch": 106.04, "grad_norm": 0.68359375, "learning_rate": 9.931620267468744e-05, "loss": 0.4026, "step": 79530 }, { "epoch": 106.05333333333333, "grad_norm": 0.78515625, "learning_rate": 9.931603000966121e-05, "loss": 0.3873, "step": 79540 }, { "epoch": 106.06666666666666, "grad_norm": 0.84765625, "learning_rate": 9.931585732298811e-05, "loss": 0.3751, "step": 79550 }, { "epoch": 106.08, "grad_norm": 0.7578125, "learning_rate": 9.931568461466823e-05, "loss": 0.3781, "step": 79560 }, { "epoch": 106.09333333333333, "grad_norm": 0.78515625, "learning_rate": 9.931551188470163e-05, "loss": 0.3804, "step": 79570 }, { "epoch": 106.10666666666667, "grad_norm": 0.77734375, "learning_rate": 9.931533913308841e-05, "loss": 0.3696, "step": 79580 }, { "epoch": 106.12, "grad_norm": 0.83984375, "learning_rate": 9.931516635982863e-05, "loss": 0.3707, "step": 79590 }, { "epoch": 106.13333333333334, "grad_norm": 0.73828125, "learning_rate": 9.931499356492237e-05, "loss": 0.3632, "step": 79600 }, { "epoch": 106.14666666666666, "grad_norm": 0.78125, "learning_rate": 9.93148207483697e-05, "loss": 0.383, "step": 79610 }, { "epoch": 106.16, "grad_norm": 0.71875, "learning_rate": 9.931464791017071e-05, "loss": 0.3787, "step": 79620 }, { "epoch": 106.17333333333333, "grad_norm": 0.84765625, "learning_rate": 9.931447505032546e-05, "loss": 0.3723, "step": 79630 }, { "epoch": 106.18666666666667, "grad_norm": 0.76953125, "learning_rate": 9.931430216883403e-05, "loss": 0.3701, "step": 79640 }, { "epoch": 106.2, "grad_norm": 0.71875, "learning_rate": 9.93141292656965e-05, "loss": 0.3617, "step": 79650 }, { "epoch": 106.21333333333334, "grad_norm": 0.80859375, "learning_rate": 9.931395634091294e-05, "loss": 0.3621, "step": 79660 }, { "epoch": 106.22666666666667, "grad_norm": 0.83984375, "learning_rate": 9.931378339448343e-05, "loss": 0.3729, "step": 79670 }, { "epoch": 106.24, "grad_norm": 0.78515625, "learning_rate": 9.931361042640806e-05, "loss": 0.3595, "step": 79680 }, { "epoch": 106.25333333333333, "grad_norm": 0.76171875, "learning_rate": 9.931343743668688e-05, "loss": 0.3615, "step": 79690 }, { "epoch": 106.26666666666667, "grad_norm": 0.7265625, "learning_rate": 9.931326442531997e-05, "loss": 0.3645, "step": 79700 }, { "epoch": 106.28, "grad_norm": 0.7578125, "learning_rate": 9.931309139230742e-05, "loss": 0.3921, "step": 79710 }, { "epoch": 106.29333333333334, "grad_norm": 0.7890625, "learning_rate": 9.93129183376493e-05, "loss": 0.3511, "step": 79720 }, { "epoch": 106.30666666666667, "grad_norm": 0.78515625, "learning_rate": 9.93127452613457e-05, "loss": 0.3739, "step": 79730 }, { "epoch": 106.32, "grad_norm": 0.66015625, "learning_rate": 9.931257216339667e-05, "loss": 0.3776, "step": 79740 }, { "epoch": 106.33333333333333, "grad_norm": 0.79296875, "learning_rate": 9.93123990438023e-05, "loss": 0.377, "step": 79750 }, { "epoch": 106.34666666666666, "grad_norm": 0.8125, "learning_rate": 9.931222590256266e-05, "loss": 0.3677, "step": 79760 }, { "epoch": 106.36, "grad_norm": 0.76171875, "learning_rate": 9.931205273967783e-05, "loss": 0.3683, "step": 79770 }, { "epoch": 106.37333333333333, "grad_norm": 0.6640625, "learning_rate": 9.93118795551479e-05, "loss": 0.3719, "step": 79780 }, { "epoch": 106.38666666666667, "grad_norm": 0.83203125, "learning_rate": 9.931170634897291e-05, "loss": 0.36, "step": 79790 }, { "epoch": 106.4, "grad_norm": 0.77734375, "learning_rate": 9.931153312115296e-05, "loss": 0.3695, "step": 79800 }, { "epoch": 106.41333333333333, "grad_norm": 0.8046875, "learning_rate": 9.931135987168814e-05, "loss": 0.3753, "step": 79810 }, { "epoch": 106.42666666666666, "grad_norm": 0.70703125, "learning_rate": 9.931118660057849e-05, "loss": 0.3776, "step": 79820 }, { "epoch": 106.44, "grad_norm": 0.74609375, "learning_rate": 9.93110133078241e-05, "loss": 0.389, "step": 79830 }, { "epoch": 106.45333333333333, "grad_norm": 0.81640625, "learning_rate": 9.931083999342507e-05, "loss": 0.3763, "step": 79840 }, { "epoch": 106.46666666666667, "grad_norm": 0.76171875, "learning_rate": 9.931066665738146e-05, "loss": 0.3843, "step": 79850 }, { "epoch": 106.48, "grad_norm": 0.84765625, "learning_rate": 9.931049329969334e-05, "loss": 0.3672, "step": 79860 }, { "epoch": 106.49333333333334, "grad_norm": 0.76171875, "learning_rate": 9.931031992036079e-05, "loss": 0.3795, "step": 79870 }, { "epoch": 106.50666666666666, "grad_norm": 0.79296875, "learning_rate": 9.931014651938389e-05, "loss": 0.3779, "step": 79880 }, { "epoch": 106.52, "grad_norm": 0.71484375, "learning_rate": 9.930997309676271e-05, "loss": 0.3695, "step": 79890 }, { "epoch": 106.53333333333333, "grad_norm": 0.734375, "learning_rate": 9.930979965249732e-05, "loss": 0.3702, "step": 79900 }, { "epoch": 106.54666666666667, "grad_norm": 0.86328125, "learning_rate": 9.93096261865878e-05, "loss": 0.3717, "step": 79910 }, { "epoch": 106.56, "grad_norm": 0.66796875, "learning_rate": 9.930945269903425e-05, "loss": 0.3655, "step": 79920 }, { "epoch": 106.57333333333334, "grad_norm": 0.7890625, "learning_rate": 9.930927918983672e-05, "loss": 0.3698, "step": 79930 }, { "epoch": 106.58666666666667, "grad_norm": 0.68359375, "learning_rate": 9.930910565899529e-05, "loss": 0.3609, "step": 79940 }, { "epoch": 106.6, "grad_norm": 0.75390625, "learning_rate": 9.930893210651004e-05, "loss": 0.3628, "step": 79950 }, { "epoch": 106.61333333333333, "grad_norm": 0.65625, "learning_rate": 9.930875853238104e-05, "loss": 0.3537, "step": 79960 }, { "epoch": 106.62666666666667, "grad_norm": 0.68359375, "learning_rate": 9.930858493660838e-05, "loss": 0.359, "step": 79970 }, { "epoch": 106.64, "grad_norm": 0.7890625, "learning_rate": 9.930841131919212e-05, "loss": 0.3666, "step": 79980 }, { "epoch": 106.65333333333334, "grad_norm": 0.78515625, "learning_rate": 9.930823768013235e-05, "loss": 0.3774, "step": 79990 }, { "epoch": 106.66666666666667, "grad_norm": 0.6953125, "learning_rate": 9.930806401942914e-05, "loss": 0.3678, "step": 80000 }, { "epoch": 106.68, "grad_norm": 0.78515625, "learning_rate": 9.930789033708256e-05, "loss": 0.3573, "step": 80010 }, { "epoch": 106.69333333333333, "grad_norm": 0.69140625, "learning_rate": 9.930771663309269e-05, "loss": 0.3687, "step": 80020 }, { "epoch": 106.70666666666666, "grad_norm": 0.90625, "learning_rate": 9.930754290745962e-05, "loss": 0.3579, "step": 80030 }, { "epoch": 106.72, "grad_norm": 0.8984375, "learning_rate": 9.930736916018341e-05, "loss": 0.3795, "step": 80040 }, { "epoch": 106.73333333333333, "grad_norm": 0.72265625, "learning_rate": 9.930719539126414e-05, "loss": 0.3755, "step": 80050 }, { "epoch": 106.74666666666667, "grad_norm": 0.765625, "learning_rate": 9.930702160070189e-05, "loss": 0.3783, "step": 80060 }, { "epoch": 106.76, "grad_norm": 0.83203125, "learning_rate": 9.930684778849673e-05, "loss": 0.3915, "step": 80070 }, { "epoch": 106.77333333333333, "grad_norm": 0.8359375, "learning_rate": 9.930667395464875e-05, "loss": 0.3754, "step": 80080 }, { "epoch": 106.78666666666666, "grad_norm": 0.72265625, "learning_rate": 9.930650009915801e-05, "loss": 0.379, "step": 80090 }, { "epoch": 106.8, "grad_norm": 0.9453125, "learning_rate": 9.930632622202459e-05, "loss": 0.3772, "step": 80100 }, { "epoch": 106.81333333333333, "grad_norm": 0.890625, "learning_rate": 9.930615232324857e-05, "loss": 0.3502, "step": 80110 }, { "epoch": 106.82666666666667, "grad_norm": 0.76171875, "learning_rate": 9.930597840283003e-05, "loss": 0.3574, "step": 80120 }, { "epoch": 106.84, "grad_norm": 0.77734375, "learning_rate": 9.930580446076903e-05, "loss": 0.3703, "step": 80130 }, { "epoch": 106.85333333333334, "grad_norm": 0.77734375, "learning_rate": 9.930563049706567e-05, "loss": 0.3657, "step": 80140 }, { "epoch": 106.86666666666666, "grad_norm": 0.7578125, "learning_rate": 9.930545651172001e-05, "loss": 0.371, "step": 80150 }, { "epoch": 106.88, "grad_norm": 0.765625, "learning_rate": 9.930528250473214e-05, "loss": 0.3526, "step": 80160 }, { "epoch": 106.89333333333333, "grad_norm": 0.72265625, "learning_rate": 9.930510847610212e-05, "loss": 0.3655, "step": 80170 }, { "epoch": 106.90666666666667, "grad_norm": 0.7890625, "learning_rate": 9.930493442583004e-05, "loss": 0.3687, "step": 80180 }, { "epoch": 106.92, "grad_norm": 0.75, "learning_rate": 9.930476035391596e-05, "loss": 0.3701, "step": 80190 }, { "epoch": 106.93333333333334, "grad_norm": 0.66796875, "learning_rate": 9.930458626035997e-05, "loss": 0.3674, "step": 80200 }, { "epoch": 106.94666666666667, "grad_norm": 0.84765625, "learning_rate": 9.930441214516215e-05, "loss": 0.3662, "step": 80210 }, { "epoch": 106.96, "grad_norm": 0.6640625, "learning_rate": 9.930423800832256e-05, "loss": 0.3656, "step": 80220 }, { "epoch": 106.97333333333333, "grad_norm": 1.0625, "learning_rate": 9.930406384984128e-05, "loss": 0.3876, "step": 80230 }, { "epoch": 106.98666666666666, "grad_norm": 0.87109375, "learning_rate": 9.93038896697184e-05, "loss": 0.3581, "step": 80240 }, { "epoch": 107.0, "grad_norm": 0.7890625, "learning_rate": 9.9303715467954e-05, "loss": 0.3588, "step": 80250 }, { "epoch": 107.0, "eval_loss": 0.42029160261154175, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3664, "eval_samples_per_second": 1.543, "eval_steps_per_second": 0.096, "step": 80250 }, { "epoch": 107.01333333333334, "grad_norm": 0.86328125, "learning_rate": 9.930354124454813e-05, "loss": 0.3747, "step": 80260 }, { "epoch": 107.02666666666667, "grad_norm": 0.78515625, "learning_rate": 9.930336699950089e-05, "loss": 0.3904, "step": 80270 }, { "epoch": 107.04, "grad_norm": 0.6875, "learning_rate": 9.930319273281234e-05, "loss": 0.4023, "step": 80280 }, { "epoch": 107.05333333333333, "grad_norm": 0.72265625, "learning_rate": 9.930301844448256e-05, "loss": 0.3864, "step": 80290 }, { "epoch": 107.06666666666666, "grad_norm": 0.875, "learning_rate": 9.930284413451166e-05, "loss": 0.3746, "step": 80300 }, { "epoch": 107.08, "grad_norm": 0.78125, "learning_rate": 9.930266980289966e-05, "loss": 0.3784, "step": 80310 }, { "epoch": 107.09333333333333, "grad_norm": 0.7734375, "learning_rate": 9.930249544964667e-05, "loss": 0.381, "step": 80320 }, { "epoch": 107.10666666666667, "grad_norm": 0.71484375, "learning_rate": 9.930232107475276e-05, "loss": 0.3698, "step": 80330 }, { "epoch": 107.12, "grad_norm": 0.8515625, "learning_rate": 9.9302146678218e-05, "loss": 0.3708, "step": 80340 }, { "epoch": 107.13333333333334, "grad_norm": 0.75, "learning_rate": 9.93019722600425e-05, "loss": 0.3627, "step": 80350 }, { "epoch": 107.14666666666666, "grad_norm": 0.77734375, "learning_rate": 9.930179782022628e-05, "loss": 0.3824, "step": 80360 }, { "epoch": 107.16, "grad_norm": 0.66015625, "learning_rate": 9.930162335876947e-05, "loss": 0.3774, "step": 80370 }, { "epoch": 107.17333333333333, "grad_norm": 0.81640625, "learning_rate": 9.930144887567211e-05, "loss": 0.3729, "step": 80380 }, { "epoch": 107.18666666666667, "grad_norm": 0.75, "learning_rate": 9.930127437093429e-05, "loss": 0.3693, "step": 80390 }, { "epoch": 107.2, "grad_norm": 0.71875, "learning_rate": 9.930109984455609e-05, "loss": 0.3614, "step": 80400 }, { "epoch": 107.21333333333334, "grad_norm": 0.87109375, "learning_rate": 9.930092529653758e-05, "loss": 0.3615, "step": 80410 }, { "epoch": 107.22666666666667, "grad_norm": 0.796875, "learning_rate": 9.930075072687886e-05, "loss": 0.373, "step": 80420 }, { "epoch": 107.24, "grad_norm": 0.80078125, "learning_rate": 9.930057613557996e-05, "loss": 0.3589, "step": 80430 }, { "epoch": 107.25333333333333, "grad_norm": 0.80859375, "learning_rate": 9.9300401522641e-05, "loss": 0.3609, "step": 80440 }, { "epoch": 107.26666666666667, "grad_norm": 0.6875, "learning_rate": 9.930022688806202e-05, "loss": 0.3641, "step": 80450 }, { "epoch": 107.28, "grad_norm": 0.7890625, "learning_rate": 9.930005223184313e-05, "loss": 0.3917, "step": 80460 }, { "epoch": 107.29333333333334, "grad_norm": 0.76171875, "learning_rate": 9.92998775539844e-05, "loss": 0.35, "step": 80470 }, { "epoch": 107.30666666666667, "grad_norm": 0.7265625, "learning_rate": 9.929970285448589e-05, "loss": 0.3739, "step": 80480 }, { "epoch": 107.32, "grad_norm": 0.6640625, "learning_rate": 9.929952813334768e-05, "loss": 0.378, "step": 80490 }, { "epoch": 107.33333333333333, "grad_norm": 0.8359375, "learning_rate": 9.929935339056986e-05, "loss": 0.377, "step": 80500 }, { "epoch": 107.34666666666666, "grad_norm": 0.78125, "learning_rate": 9.92991786261525e-05, "loss": 0.368, "step": 80510 }, { "epoch": 107.36, "grad_norm": 0.890625, "learning_rate": 9.929900384009568e-05, "loss": 0.3686, "step": 80520 }, { "epoch": 107.37333333333333, "grad_norm": 0.703125, "learning_rate": 9.929882903239946e-05, "loss": 0.3722, "step": 80530 }, { "epoch": 107.38666666666667, "grad_norm": 0.875, "learning_rate": 9.929865420306395e-05, "loss": 0.3586, "step": 80540 }, { "epoch": 107.4, "grad_norm": 0.90625, "learning_rate": 9.92984793520892e-05, "loss": 0.3695, "step": 80550 }, { "epoch": 107.41333333333333, "grad_norm": 0.75, "learning_rate": 9.92983044794753e-05, "loss": 0.3754, "step": 80560 }, { "epoch": 107.42666666666666, "grad_norm": 0.76953125, "learning_rate": 9.929812958522231e-05, "loss": 0.3766, "step": 80570 }, { "epoch": 107.44, "grad_norm": 0.78125, "learning_rate": 9.929795466933032e-05, "loss": 0.3881, "step": 80580 }, { "epoch": 107.45333333333333, "grad_norm": 0.7734375, "learning_rate": 9.929777973179939e-05, "loss": 0.3768, "step": 80590 }, { "epoch": 107.46666666666667, "grad_norm": 0.74609375, "learning_rate": 9.929760477262962e-05, "loss": 0.3837, "step": 80600 }, { "epoch": 107.48, "grad_norm": 0.73046875, "learning_rate": 9.929742979182108e-05, "loss": 0.3668, "step": 80610 }, { "epoch": 107.49333333333334, "grad_norm": 0.72265625, "learning_rate": 9.929725478937385e-05, "loss": 0.3784, "step": 80620 }, { "epoch": 107.50666666666666, "grad_norm": 0.7578125, "learning_rate": 9.9297079765288e-05, "loss": 0.3774, "step": 80630 }, { "epoch": 107.52, "grad_norm": 0.625, "learning_rate": 9.92969047195636e-05, "loss": 0.3688, "step": 80640 }, { "epoch": 107.53333333333333, "grad_norm": 0.734375, "learning_rate": 9.929672965220074e-05, "loss": 0.3693, "step": 80650 }, { "epoch": 107.54666666666667, "grad_norm": 0.859375, "learning_rate": 9.929655456319949e-05, "loss": 0.371, "step": 80660 }, { "epoch": 107.56, "grad_norm": 0.69921875, "learning_rate": 9.929637945255991e-05, "loss": 0.3656, "step": 80670 }, { "epoch": 107.57333333333334, "grad_norm": 0.78125, "learning_rate": 9.929620432028212e-05, "loss": 0.3702, "step": 80680 }, { "epoch": 107.58666666666667, "grad_norm": 0.703125, "learning_rate": 9.929602916636617e-05, "loss": 0.3602, "step": 80690 }, { "epoch": 107.6, "grad_norm": 0.80078125, "learning_rate": 9.929585399081214e-05, "loss": 0.3618, "step": 80700 }, { "epoch": 107.61333333333333, "grad_norm": 0.74609375, "learning_rate": 9.92956787936201e-05, "loss": 0.3544, "step": 80710 }, { "epoch": 107.62666666666667, "grad_norm": 0.74609375, "learning_rate": 9.929550357479012e-05, "loss": 0.3585, "step": 80720 }, { "epoch": 107.64, "grad_norm": 0.8125, "learning_rate": 9.929532833432231e-05, "loss": 0.3669, "step": 80730 }, { "epoch": 107.65333333333334, "grad_norm": 0.796875, "learning_rate": 9.92951530722167e-05, "loss": 0.3766, "step": 80740 }, { "epoch": 107.66666666666667, "grad_norm": 0.671875, "learning_rate": 9.929497778847343e-05, "loss": 0.3686, "step": 80750 }, { "epoch": 107.68, "grad_norm": 0.7578125, "learning_rate": 9.929480248309252e-05, "loss": 0.3571, "step": 80760 }, { "epoch": 107.69333333333333, "grad_norm": 0.734375, "learning_rate": 9.929462715607408e-05, "loss": 0.3673, "step": 80770 }, { "epoch": 107.70666666666666, "grad_norm": 0.83984375, "learning_rate": 9.929445180741815e-05, "loss": 0.3575, "step": 80780 }, { "epoch": 107.72, "grad_norm": 0.82421875, "learning_rate": 9.929427643712486e-05, "loss": 0.3799, "step": 80790 }, { "epoch": 107.73333333333333, "grad_norm": 0.74609375, "learning_rate": 9.929410104519423e-05, "loss": 0.3749, "step": 80800 }, { "epoch": 107.74666666666667, "grad_norm": 0.69140625, "learning_rate": 9.929392563162639e-05, "loss": 0.3781, "step": 80810 }, { "epoch": 107.76, "grad_norm": 0.84765625, "learning_rate": 9.929375019642138e-05, "loss": 0.391, "step": 80820 }, { "epoch": 107.77333333333333, "grad_norm": 0.8671875, "learning_rate": 9.929357473957928e-05, "loss": 0.3754, "step": 80830 }, { "epoch": 107.78666666666666, "grad_norm": 0.67578125, "learning_rate": 9.92933992611002e-05, "loss": 0.3785, "step": 80840 }, { "epoch": 107.8, "grad_norm": 0.8203125, "learning_rate": 9.929322376098417e-05, "loss": 0.3758, "step": 80850 }, { "epoch": 107.81333333333333, "grad_norm": 0.7890625, "learning_rate": 9.929304823923131e-05, "loss": 0.3498, "step": 80860 }, { "epoch": 107.82666666666667, "grad_norm": 0.71875, "learning_rate": 9.929287269584167e-05, "loss": 0.3575, "step": 80870 }, { "epoch": 107.84, "grad_norm": 0.7578125, "learning_rate": 9.929269713081533e-05, "loss": 0.3704, "step": 80880 }, { "epoch": 107.85333333333334, "grad_norm": 0.83203125, "learning_rate": 9.929252154415236e-05, "loss": 0.3654, "step": 80890 }, { "epoch": 107.86666666666666, "grad_norm": 0.79296875, "learning_rate": 9.929234593585286e-05, "loss": 0.3709, "step": 80900 }, { "epoch": 107.88, "grad_norm": 0.7421875, "learning_rate": 9.929217030591691e-05, "loss": 0.352, "step": 80910 }, { "epoch": 107.89333333333333, "grad_norm": 0.71875, "learning_rate": 9.929199465434456e-05, "loss": 0.365, "step": 80920 }, { "epoch": 107.90666666666667, "grad_norm": 0.81640625, "learning_rate": 9.92918189811359e-05, "loss": 0.3691, "step": 80930 }, { "epoch": 107.92, "grad_norm": 0.78515625, "learning_rate": 9.9291643286291e-05, "loss": 0.3705, "step": 80940 }, { "epoch": 107.93333333333334, "grad_norm": 0.703125, "learning_rate": 9.929146756980996e-05, "loss": 0.3672, "step": 80950 }, { "epoch": 107.94666666666667, "grad_norm": 0.8984375, "learning_rate": 9.929129183169284e-05, "loss": 0.3655, "step": 80960 }, { "epoch": 107.96, "grad_norm": 0.70703125, "learning_rate": 9.929111607193971e-05, "loss": 0.3655, "step": 80970 }, { "epoch": 107.97333333333333, "grad_norm": 0.9140625, "learning_rate": 9.929094029055066e-05, "loss": 0.388, "step": 80980 }, { "epoch": 107.98666666666666, "grad_norm": 0.85546875, "learning_rate": 9.929076448752574e-05, "loss": 0.3582, "step": 80990 }, { "epoch": 108.0, "grad_norm": 0.7578125, "learning_rate": 9.929058866286508e-05, "loss": 0.3585, "step": 81000 }, { "epoch": 108.0, "eval_loss": 0.4183158874511719, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8844, "eval_samples_per_second": 1.47, "eval_steps_per_second": 0.092, "step": 81000 }, { "epoch": 108.01333333333334, "grad_norm": 0.828125, "learning_rate": 9.929041281656871e-05, "loss": 0.375, "step": 81010 }, { "epoch": 108.02666666666667, "grad_norm": 0.71484375, "learning_rate": 9.929023694863673e-05, "loss": 0.3893, "step": 81020 }, { "epoch": 108.04, "grad_norm": 0.65625, "learning_rate": 9.929006105906921e-05, "loss": 0.402, "step": 81030 }, { "epoch": 108.05333333333333, "grad_norm": 0.78125, "learning_rate": 9.928988514786624e-05, "loss": 0.3867, "step": 81040 }, { "epoch": 108.06666666666666, "grad_norm": 0.83984375, "learning_rate": 9.928970921502787e-05, "loss": 0.3744, "step": 81050 }, { "epoch": 108.08, "grad_norm": 0.76171875, "learning_rate": 9.928953326055421e-05, "loss": 0.3778, "step": 81060 }, { "epoch": 108.09333333333333, "grad_norm": 0.7890625, "learning_rate": 9.92893572844453e-05, "loss": 0.3808, "step": 81070 }, { "epoch": 108.10666666666667, "grad_norm": 0.7265625, "learning_rate": 9.928918128670124e-05, "loss": 0.3697, "step": 81080 }, { "epoch": 108.12, "grad_norm": 0.7578125, "learning_rate": 9.928900526732212e-05, "loss": 0.3711, "step": 81090 }, { "epoch": 108.13333333333334, "grad_norm": 0.7578125, "learning_rate": 9.9288829226308e-05, "loss": 0.3631, "step": 81100 }, { "epoch": 108.14666666666666, "grad_norm": 0.765625, "learning_rate": 9.928865316365896e-05, "loss": 0.3824, "step": 81110 }, { "epoch": 108.16, "grad_norm": 0.7421875, "learning_rate": 9.928847707937506e-05, "loss": 0.3773, "step": 81120 }, { "epoch": 108.17333333333333, "grad_norm": 0.75390625, "learning_rate": 9.92883009734564e-05, "loss": 0.3715, "step": 81130 }, { "epoch": 108.18666666666667, "grad_norm": 0.703125, "learning_rate": 9.928812484590307e-05, "loss": 0.3694, "step": 81140 }, { "epoch": 108.2, "grad_norm": 0.69140625, "learning_rate": 9.92879486967151e-05, "loss": 0.3605, "step": 81150 }, { "epoch": 108.21333333333334, "grad_norm": 0.87109375, "learning_rate": 9.928777252589261e-05, "loss": 0.3612, "step": 81160 }, { "epoch": 108.22666666666667, "grad_norm": 0.8125, "learning_rate": 9.928759633343568e-05, "loss": 0.3733, "step": 81170 }, { "epoch": 108.24, "grad_norm": 0.890625, "learning_rate": 9.928742011934433e-05, "loss": 0.3598, "step": 81180 }, { "epoch": 108.25333333333333, "grad_norm": 0.8203125, "learning_rate": 9.928724388361872e-05, "loss": 0.3603, "step": 81190 }, { "epoch": 108.26666666666667, "grad_norm": 0.75390625, "learning_rate": 9.928706762625885e-05, "loss": 0.3629, "step": 81200 }, { "epoch": 108.28, "grad_norm": 0.8203125, "learning_rate": 9.928689134726485e-05, "loss": 0.3914, "step": 81210 }, { "epoch": 108.29333333333334, "grad_norm": 0.70703125, "learning_rate": 9.928671504663678e-05, "loss": 0.3509, "step": 81220 }, { "epoch": 108.30666666666667, "grad_norm": 0.73828125, "learning_rate": 9.928653872437472e-05, "loss": 0.3741, "step": 81230 }, { "epoch": 108.32, "grad_norm": 0.671875, "learning_rate": 9.928636238047874e-05, "loss": 0.3774, "step": 81240 }, { "epoch": 108.33333333333333, "grad_norm": 0.75, "learning_rate": 9.928618601494893e-05, "loss": 0.3756, "step": 81250 }, { "epoch": 108.34666666666666, "grad_norm": 0.80859375, "learning_rate": 9.928600962778534e-05, "loss": 0.3668, "step": 81260 }, { "epoch": 108.36, "grad_norm": 0.8203125, "learning_rate": 9.928583321898808e-05, "loss": 0.3681, "step": 81270 }, { "epoch": 108.37333333333333, "grad_norm": 0.71875, "learning_rate": 9.928565678855721e-05, "loss": 0.3714, "step": 81280 }, { "epoch": 108.38666666666667, "grad_norm": 0.8046875, "learning_rate": 9.928548033649283e-05, "loss": 0.3591, "step": 81290 }, { "epoch": 108.4, "grad_norm": 0.8515625, "learning_rate": 9.928530386279497e-05, "loss": 0.369, "step": 81300 }, { "epoch": 108.41333333333333, "grad_norm": 0.72265625, "learning_rate": 9.928512736746375e-05, "loss": 0.375, "step": 81310 }, { "epoch": 108.42666666666666, "grad_norm": 0.70703125, "learning_rate": 9.928495085049924e-05, "loss": 0.3763, "step": 81320 }, { "epoch": 108.44, "grad_norm": 0.7890625, "learning_rate": 9.928477431190151e-05, "loss": 0.3894, "step": 81330 }, { "epoch": 108.45333333333333, "grad_norm": 0.79296875, "learning_rate": 9.928459775167064e-05, "loss": 0.3767, "step": 81340 }, { "epoch": 108.46666666666667, "grad_norm": 0.703125, "learning_rate": 9.928442116980669e-05, "loss": 0.3837, "step": 81350 }, { "epoch": 108.48, "grad_norm": 0.70703125, "learning_rate": 9.928424456630978e-05, "loss": 0.3666, "step": 81360 }, { "epoch": 108.49333333333334, "grad_norm": 0.76953125, "learning_rate": 9.928406794117995e-05, "loss": 0.3784, "step": 81370 }, { "epoch": 108.50666666666666, "grad_norm": 0.8203125, "learning_rate": 9.928389129441729e-05, "loss": 0.3782, "step": 81380 }, { "epoch": 108.52, "grad_norm": 0.640625, "learning_rate": 9.928371462602187e-05, "loss": 0.3686, "step": 81390 }, { "epoch": 108.53333333333333, "grad_norm": 0.73828125, "learning_rate": 9.928353793599378e-05, "loss": 0.3698, "step": 81400 }, { "epoch": 108.54666666666667, "grad_norm": 0.8515625, "learning_rate": 9.92833612243331e-05, "loss": 0.3712, "step": 81410 }, { "epoch": 108.56, "grad_norm": 0.734375, "learning_rate": 9.928318449103988e-05, "loss": 0.3652, "step": 81420 }, { "epoch": 108.57333333333334, "grad_norm": 0.828125, "learning_rate": 9.928300773611423e-05, "loss": 0.3704, "step": 81430 }, { "epoch": 108.58666666666667, "grad_norm": 0.6953125, "learning_rate": 9.928283095955621e-05, "loss": 0.3605, "step": 81440 }, { "epoch": 108.6, "grad_norm": 0.7734375, "learning_rate": 9.928265416136591e-05, "loss": 0.3615, "step": 81450 }, { "epoch": 108.61333333333333, "grad_norm": 0.73046875, "learning_rate": 9.928247734154338e-05, "loss": 0.3547, "step": 81460 }, { "epoch": 108.62666666666667, "grad_norm": 0.66796875, "learning_rate": 9.928230050008874e-05, "loss": 0.3582, "step": 81470 }, { "epoch": 108.64, "grad_norm": 0.79296875, "learning_rate": 9.928212363700205e-05, "loss": 0.3662, "step": 81480 }, { "epoch": 108.65333333333334, "grad_norm": 0.78125, "learning_rate": 9.928194675228336e-05, "loss": 0.3773, "step": 81490 }, { "epoch": 108.66666666666667, "grad_norm": 0.75390625, "learning_rate": 9.928176984593278e-05, "loss": 0.3668, "step": 81500 }, { "epoch": 108.68, "grad_norm": 0.83203125, "learning_rate": 9.928159291795039e-05, "loss": 0.3562, "step": 81510 }, { "epoch": 108.69333333333333, "grad_norm": 0.734375, "learning_rate": 9.928141596833623e-05, "loss": 0.3669, "step": 81520 }, { "epoch": 108.70666666666666, "grad_norm": 0.8515625, "learning_rate": 9.928123899709042e-05, "loss": 0.3581, "step": 81530 }, { "epoch": 108.72, "grad_norm": 0.8125, "learning_rate": 9.928106200421302e-05, "loss": 0.3791, "step": 81540 }, { "epoch": 108.73333333333333, "grad_norm": 0.7890625, "learning_rate": 9.92808849897041e-05, "loss": 0.3744, "step": 81550 }, { "epoch": 108.74666666666667, "grad_norm": 0.765625, "learning_rate": 9.928070795356376e-05, "loss": 0.3785, "step": 81560 }, { "epoch": 108.76, "grad_norm": 0.8828125, "learning_rate": 9.928053089579206e-05, "loss": 0.392, "step": 81570 }, { "epoch": 108.77333333333333, "grad_norm": 0.8359375, "learning_rate": 9.928035381638907e-05, "loss": 0.3756, "step": 81580 }, { "epoch": 108.78666666666666, "grad_norm": 0.72265625, "learning_rate": 9.928017671535489e-05, "loss": 0.3778, "step": 81590 }, { "epoch": 108.8, "grad_norm": 0.8515625, "learning_rate": 9.927999959268958e-05, "loss": 0.3764, "step": 81600 }, { "epoch": 108.81333333333333, "grad_norm": 0.875, "learning_rate": 9.927982244839324e-05, "loss": 0.3497, "step": 81610 }, { "epoch": 108.82666666666667, "grad_norm": 0.74609375, "learning_rate": 9.927964528246591e-05, "loss": 0.3572, "step": 81620 }, { "epoch": 108.84, "grad_norm": 0.796875, "learning_rate": 9.927946809490771e-05, "loss": 0.3699, "step": 81630 }, { "epoch": 108.85333333333334, "grad_norm": 0.79296875, "learning_rate": 9.92792908857187e-05, "loss": 0.3651, "step": 81640 }, { "epoch": 108.86666666666666, "grad_norm": 0.74609375, "learning_rate": 9.927911365489895e-05, "loss": 0.3717, "step": 81650 }, { "epoch": 108.88, "grad_norm": 0.6875, "learning_rate": 9.927893640244854e-05, "loss": 0.3519, "step": 81660 }, { "epoch": 108.89333333333333, "grad_norm": 0.7265625, "learning_rate": 9.927875912836756e-05, "loss": 0.3648, "step": 81670 }, { "epoch": 108.90666666666667, "grad_norm": 0.7265625, "learning_rate": 9.927858183265606e-05, "loss": 0.3697, "step": 81680 }, { "epoch": 108.92, "grad_norm": 0.78515625, "learning_rate": 9.927840451531416e-05, "loss": 0.3704, "step": 81690 }, { "epoch": 108.93333333333334, "grad_norm": 0.65234375, "learning_rate": 9.92782271763419e-05, "loss": 0.3667, "step": 81700 }, { "epoch": 108.94666666666667, "grad_norm": 0.7421875, "learning_rate": 9.927804981573938e-05, "loss": 0.3668, "step": 81710 }, { "epoch": 108.96, "grad_norm": 0.703125, "learning_rate": 9.927787243350666e-05, "loss": 0.3645, "step": 81720 }, { "epoch": 108.97333333333333, "grad_norm": 0.94140625, "learning_rate": 9.927769502964384e-05, "loss": 0.3877, "step": 81730 }, { "epoch": 108.98666666666666, "grad_norm": 0.8203125, "learning_rate": 9.927751760415098e-05, "loss": 0.358, "step": 81740 }, { "epoch": 109.0, "grad_norm": 0.6953125, "learning_rate": 9.927734015702817e-05, "loss": 0.358, "step": 81750 }, { "epoch": 109.0, "eval_loss": 0.41798850893974304, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4042, "eval_samples_per_second": 1.538, "eval_steps_per_second": 0.096, "step": 81750 }, { "epoch": 109.01333333333334, "grad_norm": 0.81640625, "learning_rate": 9.92771626882755e-05, "loss": 0.3741, "step": 81760 }, { "epoch": 109.02666666666667, "grad_norm": 0.70703125, "learning_rate": 9.9276985197893e-05, "loss": 0.3889, "step": 81770 }, { "epoch": 109.04, "grad_norm": 0.73828125, "learning_rate": 9.927680768588079e-05, "loss": 0.4025, "step": 81780 }, { "epoch": 109.05333333333333, "grad_norm": 0.76171875, "learning_rate": 9.927663015223893e-05, "loss": 0.3868, "step": 81790 }, { "epoch": 109.06666666666666, "grad_norm": 0.86328125, "learning_rate": 9.927645259696752e-05, "loss": 0.3752, "step": 81800 }, { "epoch": 109.08, "grad_norm": 0.74609375, "learning_rate": 9.92762750200666e-05, "loss": 0.3775, "step": 81810 }, { "epoch": 109.09333333333333, "grad_norm": 0.8125, "learning_rate": 9.927609742153628e-05, "loss": 0.3801, "step": 81820 }, { "epoch": 109.10666666666667, "grad_norm": 0.7734375, "learning_rate": 9.927591980137664e-05, "loss": 0.3686, "step": 81830 }, { "epoch": 109.12, "grad_norm": 0.84375, "learning_rate": 9.927574215958772e-05, "loss": 0.3712, "step": 81840 }, { "epoch": 109.13333333333334, "grad_norm": 0.78515625, "learning_rate": 9.927556449616964e-05, "loss": 0.363, "step": 81850 }, { "epoch": 109.14666666666666, "grad_norm": 0.8125, "learning_rate": 9.927538681112247e-05, "loss": 0.3816, "step": 81860 }, { "epoch": 109.16, "grad_norm": 0.79296875, "learning_rate": 9.927520910444627e-05, "loss": 0.3766, "step": 81870 }, { "epoch": 109.17333333333333, "grad_norm": 0.875, "learning_rate": 9.927503137614113e-05, "loss": 0.3714, "step": 81880 }, { "epoch": 109.18666666666667, "grad_norm": 0.7578125, "learning_rate": 9.927485362620713e-05, "loss": 0.3698, "step": 81890 }, { "epoch": 109.2, "grad_norm": 0.75, "learning_rate": 9.927467585464434e-05, "loss": 0.3605, "step": 81900 }, { "epoch": 109.21333333333334, "grad_norm": 0.7734375, "learning_rate": 9.927449806145284e-05, "loss": 0.3615, "step": 81910 }, { "epoch": 109.22666666666667, "grad_norm": 0.890625, "learning_rate": 9.92743202466327e-05, "loss": 0.3718, "step": 81920 }, { "epoch": 109.24, "grad_norm": 0.75390625, "learning_rate": 9.927414241018403e-05, "loss": 0.3585, "step": 81930 }, { "epoch": 109.25333333333333, "grad_norm": 0.78125, "learning_rate": 9.927396455210687e-05, "loss": 0.3603, "step": 81940 }, { "epoch": 109.26666666666667, "grad_norm": 0.71875, "learning_rate": 9.92737866724013e-05, "loss": 0.3634, "step": 81950 }, { "epoch": 109.28, "grad_norm": 0.78125, "learning_rate": 9.927360877106743e-05, "loss": 0.3906, "step": 81960 }, { "epoch": 109.29333333333334, "grad_norm": 0.7421875, "learning_rate": 9.927343084810533e-05, "loss": 0.3507, "step": 81970 }, { "epoch": 109.30666666666667, "grad_norm": 0.6875, "learning_rate": 9.927325290351506e-05, "loss": 0.3735, "step": 81980 }, { "epoch": 109.32, "grad_norm": 0.67578125, "learning_rate": 9.92730749372967e-05, "loss": 0.3781, "step": 81990 }, { "epoch": 109.33333333333333, "grad_norm": 0.875, "learning_rate": 9.927289694945035e-05, "loss": 0.3765, "step": 82000 }, { "epoch": 109.34666666666666, "grad_norm": 0.80859375, "learning_rate": 9.927271893997605e-05, "loss": 0.3675, "step": 82010 }, { "epoch": 109.36, "grad_norm": 0.69140625, "learning_rate": 9.92725409088739e-05, "loss": 0.3678, "step": 82020 }, { "epoch": 109.37333333333333, "grad_norm": 0.703125, "learning_rate": 9.927236285614401e-05, "loss": 0.3707, "step": 82030 }, { "epoch": 109.38666666666667, "grad_norm": 0.87890625, "learning_rate": 9.927218478178641e-05, "loss": 0.3588, "step": 82040 }, { "epoch": 109.4, "grad_norm": 0.8125, "learning_rate": 9.927200668580119e-05, "loss": 0.37, "step": 82050 }, { "epoch": 109.41333333333333, "grad_norm": 0.7578125, "learning_rate": 9.927182856818844e-05, "loss": 0.3749, "step": 82060 }, { "epoch": 109.42666666666666, "grad_norm": 0.7578125, "learning_rate": 9.927165042894821e-05, "loss": 0.3765, "step": 82070 }, { "epoch": 109.44, "grad_norm": 0.7578125, "learning_rate": 9.927147226808062e-05, "loss": 0.3895, "step": 82080 }, { "epoch": 109.45333333333333, "grad_norm": 0.77734375, "learning_rate": 9.927129408558574e-05, "loss": 0.3758, "step": 82090 }, { "epoch": 109.46666666666667, "grad_norm": 0.75390625, "learning_rate": 9.927111588146362e-05, "loss": 0.3838, "step": 82100 }, { "epoch": 109.48, "grad_norm": 0.71484375, "learning_rate": 9.927093765571436e-05, "loss": 0.3659, "step": 82110 }, { "epoch": 109.49333333333334, "grad_norm": 0.79296875, "learning_rate": 9.927075940833803e-05, "loss": 0.3783, "step": 82120 }, { "epoch": 109.50666666666666, "grad_norm": 0.76171875, "learning_rate": 9.927058113933471e-05, "loss": 0.3771, "step": 82130 }, { "epoch": 109.52, "grad_norm": 0.671875, "learning_rate": 9.927040284870449e-05, "loss": 0.3682, "step": 82140 }, { "epoch": 109.53333333333333, "grad_norm": 0.765625, "learning_rate": 9.927022453644741e-05, "loss": 0.3694, "step": 82150 }, { "epoch": 109.54666666666667, "grad_norm": 0.89453125, "learning_rate": 9.927004620256359e-05, "loss": 0.3709, "step": 82160 }, { "epoch": 109.56, "grad_norm": 0.7421875, "learning_rate": 9.92698678470531e-05, "loss": 0.3656, "step": 82170 }, { "epoch": 109.57333333333334, "grad_norm": 0.86328125, "learning_rate": 9.926968946991602e-05, "loss": 0.3692, "step": 82180 }, { "epoch": 109.58666666666667, "grad_norm": 0.77734375, "learning_rate": 9.926951107115241e-05, "loss": 0.3609, "step": 82190 }, { "epoch": 109.6, "grad_norm": 0.73046875, "learning_rate": 9.926933265076235e-05, "loss": 0.3617, "step": 82200 }, { "epoch": 109.61333333333333, "grad_norm": 0.6796875, "learning_rate": 9.926915420874594e-05, "loss": 0.3535, "step": 82210 }, { "epoch": 109.62666666666667, "grad_norm": 0.63671875, "learning_rate": 9.926897574510323e-05, "loss": 0.3574, "step": 82220 }, { "epoch": 109.64, "grad_norm": 0.80078125, "learning_rate": 9.926879725983434e-05, "loss": 0.3666, "step": 82230 }, { "epoch": 109.65333333333334, "grad_norm": 0.76953125, "learning_rate": 9.92686187529393e-05, "loss": 0.3755, "step": 82240 }, { "epoch": 109.66666666666667, "grad_norm": 0.6796875, "learning_rate": 9.926844022441821e-05, "loss": 0.3667, "step": 82250 }, { "epoch": 109.68, "grad_norm": 0.7890625, "learning_rate": 9.926826167427117e-05, "loss": 0.3561, "step": 82260 }, { "epoch": 109.69333333333333, "grad_norm": 0.67578125, "learning_rate": 9.926808310249822e-05, "loss": 0.3671, "step": 82270 }, { "epoch": 109.70666666666666, "grad_norm": 0.85546875, "learning_rate": 9.926790450909947e-05, "loss": 0.3578, "step": 82280 }, { "epoch": 109.72, "grad_norm": 0.78125, "learning_rate": 9.926772589407496e-05, "loss": 0.3785, "step": 82290 }, { "epoch": 109.73333333333333, "grad_norm": 0.75, "learning_rate": 9.926754725742481e-05, "loss": 0.3748, "step": 82300 }, { "epoch": 109.74666666666667, "grad_norm": 0.78125, "learning_rate": 9.926736859914907e-05, "loss": 0.378, "step": 82310 }, { "epoch": 109.76, "grad_norm": 0.796875, "learning_rate": 9.926718991924783e-05, "loss": 0.3911, "step": 82320 }, { "epoch": 109.77333333333333, "grad_norm": 0.921875, "learning_rate": 9.926701121772118e-05, "loss": 0.3756, "step": 82330 }, { "epoch": 109.78666666666666, "grad_norm": 0.7109375, "learning_rate": 9.926683249456918e-05, "loss": 0.3775, "step": 82340 }, { "epoch": 109.8, "grad_norm": 0.82421875, "learning_rate": 9.926665374979191e-05, "loss": 0.3756, "step": 82350 }, { "epoch": 109.81333333333333, "grad_norm": 0.8828125, "learning_rate": 9.926647498338947e-05, "loss": 0.3502, "step": 82360 }, { "epoch": 109.82666666666667, "grad_norm": 0.76953125, "learning_rate": 9.92662961953619e-05, "loss": 0.3573, "step": 82370 }, { "epoch": 109.84, "grad_norm": 0.78515625, "learning_rate": 9.926611738570933e-05, "loss": 0.3696, "step": 82380 }, { "epoch": 109.85333333333334, "grad_norm": 0.75, "learning_rate": 9.926593855443177e-05, "loss": 0.3653, "step": 82390 }, { "epoch": 109.86666666666666, "grad_norm": 0.80078125, "learning_rate": 9.926575970152937e-05, "loss": 0.3716, "step": 82400 }, { "epoch": 109.88, "grad_norm": 0.70703125, "learning_rate": 9.926558082700214e-05, "loss": 0.3518, "step": 82410 }, { "epoch": 109.89333333333333, "grad_norm": 0.72265625, "learning_rate": 9.926540193085022e-05, "loss": 0.3641, "step": 82420 }, { "epoch": 109.90666666666667, "grad_norm": 0.7578125, "learning_rate": 9.926522301307366e-05, "loss": 0.3688, "step": 82430 }, { "epoch": 109.92, "grad_norm": 0.80859375, "learning_rate": 9.926504407367255e-05, "loss": 0.3703, "step": 82440 }, { "epoch": 109.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.926486511264693e-05, "loss": 0.3668, "step": 82450 }, { "epoch": 109.94666666666667, "grad_norm": 0.75, "learning_rate": 9.926468612999692e-05, "loss": 0.3657, "step": 82460 }, { "epoch": 109.96, "grad_norm": 0.69140625, "learning_rate": 9.926450712572259e-05, "loss": 0.3647, "step": 82470 }, { "epoch": 109.97333333333333, "grad_norm": 0.98046875, "learning_rate": 9.926432809982402e-05, "loss": 0.3877, "step": 82480 }, { "epoch": 109.98666666666666, "grad_norm": 0.75390625, "learning_rate": 9.926414905230128e-05, "loss": 0.3566, "step": 82490 }, { "epoch": 110.0, "grad_norm": 0.8515625, "learning_rate": 9.926396998315445e-05, "loss": 0.3585, "step": 82500 }, { "epoch": 110.0, "eval_loss": 0.4180951714515686, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8167, "eval_samples_per_second": 1.479, "eval_steps_per_second": 0.092, "step": 82500 }, { "epoch": 110.01333333333334, "grad_norm": 0.8125, "learning_rate": 9.926379089238362e-05, "loss": 0.3745, "step": 82510 }, { "epoch": 110.02666666666667, "grad_norm": 0.75, "learning_rate": 9.926361177998887e-05, "loss": 0.3887, "step": 82520 }, { "epoch": 110.04, "grad_norm": 0.69921875, "learning_rate": 9.926343264597024e-05, "loss": 0.4014, "step": 82530 }, { "epoch": 110.05333333333333, "grad_norm": 0.79296875, "learning_rate": 9.926325349032785e-05, "loss": 0.3865, "step": 82540 }, { "epoch": 110.06666666666666, "grad_norm": 0.8203125, "learning_rate": 9.926307431306177e-05, "loss": 0.3743, "step": 82550 }, { "epoch": 110.08, "grad_norm": 0.7890625, "learning_rate": 9.926289511417206e-05, "loss": 0.3779, "step": 82560 }, { "epoch": 110.09333333333333, "grad_norm": 0.75, "learning_rate": 9.926271589365883e-05, "loss": 0.3802, "step": 82570 }, { "epoch": 110.10666666666667, "grad_norm": 0.75390625, "learning_rate": 9.926253665152214e-05, "loss": 0.3691, "step": 82580 }, { "epoch": 110.12, "grad_norm": 0.80859375, "learning_rate": 9.926235738776206e-05, "loss": 0.3701, "step": 82590 }, { "epoch": 110.13333333333334, "grad_norm": 0.7265625, "learning_rate": 9.926217810237868e-05, "loss": 0.3629, "step": 82600 }, { "epoch": 110.14666666666666, "grad_norm": 0.75, "learning_rate": 9.926199879537208e-05, "loss": 0.3821, "step": 82610 }, { "epoch": 110.16, "grad_norm": 0.71484375, "learning_rate": 9.926181946674233e-05, "loss": 0.3771, "step": 82620 }, { "epoch": 110.17333333333333, "grad_norm": 0.80859375, "learning_rate": 9.926164011648953e-05, "loss": 0.372, "step": 82630 }, { "epoch": 110.18666666666667, "grad_norm": 0.76953125, "learning_rate": 9.926146074461374e-05, "loss": 0.3688, "step": 82640 }, { "epoch": 110.2, "grad_norm": 0.78515625, "learning_rate": 9.926128135111504e-05, "loss": 0.3601, "step": 82650 }, { "epoch": 110.21333333333334, "grad_norm": 0.85546875, "learning_rate": 9.926110193599351e-05, "loss": 0.362, "step": 82660 }, { "epoch": 110.22666666666667, "grad_norm": 0.78125, "learning_rate": 9.926092249924923e-05, "loss": 0.3723, "step": 82670 }, { "epoch": 110.24, "grad_norm": 0.8671875, "learning_rate": 9.926074304088226e-05, "loss": 0.3585, "step": 82680 }, { "epoch": 110.25333333333333, "grad_norm": 0.7421875, "learning_rate": 9.926056356089273e-05, "loss": 0.3596, "step": 82690 }, { "epoch": 110.26666666666667, "grad_norm": 0.7421875, "learning_rate": 9.926038405928067e-05, "loss": 0.3632, "step": 82700 }, { "epoch": 110.28, "grad_norm": 0.85546875, "learning_rate": 9.926020453604618e-05, "loss": 0.3906, "step": 82710 }, { "epoch": 110.29333333333334, "grad_norm": 0.71484375, "learning_rate": 9.926002499118933e-05, "loss": 0.3502, "step": 82720 }, { "epoch": 110.30666666666667, "grad_norm": 0.8125, "learning_rate": 9.925984542471021e-05, "loss": 0.3744, "step": 82730 }, { "epoch": 110.32, "grad_norm": 0.703125, "learning_rate": 9.925966583660888e-05, "loss": 0.3766, "step": 82740 }, { "epoch": 110.33333333333333, "grad_norm": 0.7890625, "learning_rate": 9.925948622688543e-05, "loss": 0.3769, "step": 82750 }, { "epoch": 110.34666666666666, "grad_norm": 0.90625, "learning_rate": 9.925930659553995e-05, "loss": 0.3668, "step": 82760 }, { "epoch": 110.36, "grad_norm": 0.8125, "learning_rate": 9.92591269425725e-05, "loss": 0.3675, "step": 82770 }, { "epoch": 110.37333333333333, "grad_norm": 0.71875, "learning_rate": 9.925894726798317e-05, "loss": 0.371, "step": 82780 }, { "epoch": 110.38666666666667, "grad_norm": 0.8671875, "learning_rate": 9.925876757177204e-05, "loss": 0.3595, "step": 82790 }, { "epoch": 110.4, "grad_norm": 0.8046875, "learning_rate": 9.925858785393918e-05, "loss": 0.3694, "step": 82800 }, { "epoch": 110.41333333333333, "grad_norm": 0.73046875, "learning_rate": 9.925840811448466e-05, "loss": 0.3751, "step": 82810 }, { "epoch": 110.42666666666666, "grad_norm": 0.6796875, "learning_rate": 9.925822835340859e-05, "loss": 0.3764, "step": 82820 }, { "epoch": 110.44, "grad_norm": 0.73828125, "learning_rate": 9.925804857071103e-05, "loss": 0.3887, "step": 82830 }, { "epoch": 110.45333333333333, "grad_norm": 0.77734375, "learning_rate": 9.925786876639205e-05, "loss": 0.3755, "step": 82840 }, { "epoch": 110.46666666666667, "grad_norm": 0.80859375, "learning_rate": 9.925768894045175e-05, "loss": 0.3831, "step": 82850 }, { "epoch": 110.48, "grad_norm": 0.796875, "learning_rate": 9.92575090928902e-05, "loss": 0.3672, "step": 82860 }, { "epoch": 110.49333333333334, "grad_norm": 0.78125, "learning_rate": 9.925732922370747e-05, "loss": 0.378, "step": 82870 }, { "epoch": 110.50666666666666, "grad_norm": 0.77734375, "learning_rate": 9.925714933290364e-05, "loss": 0.3779, "step": 82880 }, { "epoch": 110.52, "grad_norm": 0.6640625, "learning_rate": 9.92569694204788e-05, "loss": 0.3681, "step": 82890 }, { "epoch": 110.53333333333333, "grad_norm": 0.79296875, "learning_rate": 9.925678948643303e-05, "loss": 0.3699, "step": 82900 }, { "epoch": 110.54666666666667, "grad_norm": 0.8515625, "learning_rate": 9.925660953076641e-05, "loss": 0.3707, "step": 82910 }, { "epoch": 110.56, "grad_norm": 0.7109375, "learning_rate": 9.9256429553479e-05, "loss": 0.3647, "step": 82920 }, { "epoch": 110.57333333333334, "grad_norm": 0.89453125, "learning_rate": 9.92562495545709e-05, "loss": 0.3701, "step": 82930 }, { "epoch": 110.58666666666667, "grad_norm": 0.71484375, "learning_rate": 9.925606953404217e-05, "loss": 0.3597, "step": 82940 }, { "epoch": 110.6, "grad_norm": 0.75390625, "learning_rate": 9.925588949189289e-05, "loss": 0.3613, "step": 82950 }, { "epoch": 110.61333333333333, "grad_norm": 0.65625, "learning_rate": 9.925570942812315e-05, "loss": 0.3528, "step": 82960 }, { "epoch": 110.62666666666667, "grad_norm": 0.68359375, "learning_rate": 9.925552934273303e-05, "loss": 0.3578, "step": 82970 }, { "epoch": 110.64, "grad_norm": 0.7421875, "learning_rate": 9.925534923572261e-05, "loss": 0.3664, "step": 82980 }, { "epoch": 110.65333333333334, "grad_norm": 0.74609375, "learning_rate": 9.925516910709199e-05, "loss": 0.3761, "step": 82990 }, { "epoch": 110.66666666666667, "grad_norm": 0.71484375, "learning_rate": 9.925498895684119e-05, "loss": 0.3674, "step": 83000 }, { "epoch": 110.68, "grad_norm": 0.83984375, "learning_rate": 9.925480878497033e-05, "loss": 0.355, "step": 83010 }, { "epoch": 110.69333333333333, "grad_norm": 0.76953125, "learning_rate": 9.92546285914795e-05, "loss": 0.3677, "step": 83020 }, { "epoch": 110.70666666666666, "grad_norm": 0.84375, "learning_rate": 9.925444837636873e-05, "loss": 0.358, "step": 83030 }, { "epoch": 110.72, "grad_norm": 0.77734375, "learning_rate": 9.925426813963816e-05, "loss": 0.3798, "step": 83040 }, { "epoch": 110.73333333333333, "grad_norm": 0.78515625, "learning_rate": 9.925408788128783e-05, "loss": 0.3755, "step": 83050 }, { "epoch": 110.74666666666667, "grad_norm": 0.8515625, "learning_rate": 9.925390760131782e-05, "loss": 0.3775, "step": 83060 }, { "epoch": 110.76, "grad_norm": 0.80078125, "learning_rate": 9.925372729972822e-05, "loss": 0.391, "step": 83070 }, { "epoch": 110.77333333333333, "grad_norm": 0.87109375, "learning_rate": 9.925354697651912e-05, "loss": 0.3747, "step": 83080 }, { "epoch": 110.78666666666666, "grad_norm": 0.7265625, "learning_rate": 9.925336663169058e-05, "loss": 0.3781, "step": 83090 }, { "epoch": 110.8, "grad_norm": 0.78515625, "learning_rate": 9.925318626524267e-05, "loss": 0.3748, "step": 83100 }, { "epoch": 110.81333333333333, "grad_norm": 0.96875, "learning_rate": 9.92530058771755e-05, "loss": 0.3487, "step": 83110 }, { "epoch": 110.82666666666667, "grad_norm": 0.7265625, "learning_rate": 9.925282546748913e-05, "loss": 0.3563, "step": 83120 }, { "epoch": 110.84, "grad_norm": 0.84375, "learning_rate": 9.925264503618365e-05, "loss": 0.3696, "step": 83130 }, { "epoch": 110.85333333333334, "grad_norm": 0.80859375, "learning_rate": 9.925246458325912e-05, "loss": 0.3656, "step": 83140 }, { "epoch": 110.86666666666666, "grad_norm": 0.78125, "learning_rate": 9.925228410871564e-05, "loss": 0.371, "step": 83150 }, { "epoch": 110.88, "grad_norm": 0.7421875, "learning_rate": 9.925210361255329e-05, "loss": 0.3528, "step": 83160 }, { "epoch": 110.89333333333333, "grad_norm": 0.73046875, "learning_rate": 9.925192309477212e-05, "loss": 0.3644, "step": 83170 }, { "epoch": 110.90666666666667, "grad_norm": 0.80859375, "learning_rate": 9.925174255537224e-05, "loss": 0.3692, "step": 83180 }, { "epoch": 110.92, "grad_norm": 0.76953125, "learning_rate": 9.92515619943537e-05, "loss": 0.3705, "step": 83190 }, { "epoch": 110.93333333333334, "grad_norm": 0.7265625, "learning_rate": 9.925138141171661e-05, "loss": 0.3661, "step": 83200 }, { "epoch": 110.94666666666667, "grad_norm": 0.77734375, "learning_rate": 9.925120080746105e-05, "loss": 0.366, "step": 83210 }, { "epoch": 110.96, "grad_norm": 0.70703125, "learning_rate": 9.925102018158708e-05, "loss": 0.365, "step": 83220 }, { "epoch": 110.97333333333333, "grad_norm": 1.0, "learning_rate": 9.925083953409478e-05, "loss": 0.3871, "step": 83230 }, { "epoch": 110.98666666666666, "grad_norm": 0.8046875, "learning_rate": 9.925065886498423e-05, "loss": 0.3577, "step": 83240 }, { "epoch": 111.0, "grad_norm": 0.7890625, "learning_rate": 9.925047817425552e-05, "loss": 0.3588, "step": 83250 }, { "epoch": 111.0, "eval_loss": 0.41802388429641724, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.87, "eval_samples_per_second": 1.472, "eval_steps_per_second": 0.092, "step": 83250 }, { "epoch": 111.01333333333334, "grad_norm": 0.87109375, "learning_rate": 9.925029746190873e-05, "loss": 0.3745, "step": 83260 }, { "epoch": 111.02666666666667, "grad_norm": 0.78515625, "learning_rate": 9.925011672794391e-05, "loss": 0.3885, "step": 83270 }, { "epoch": 111.04, "grad_norm": 0.7265625, "learning_rate": 9.924993597236119e-05, "loss": 0.402, "step": 83280 }, { "epoch": 111.05333333333333, "grad_norm": 0.8203125, "learning_rate": 9.92497551951606e-05, "loss": 0.3866, "step": 83290 }, { "epoch": 111.06666666666666, "grad_norm": 0.89453125, "learning_rate": 9.924957439634224e-05, "loss": 0.3748, "step": 83300 }, { "epoch": 111.08, "grad_norm": 0.78125, "learning_rate": 9.92493935759062e-05, "loss": 0.378, "step": 83310 }, { "epoch": 111.09333333333333, "grad_norm": 0.7578125, "learning_rate": 9.924921273385254e-05, "loss": 0.3807, "step": 83320 }, { "epoch": 111.10666666666667, "grad_norm": 0.71484375, "learning_rate": 9.924903187018136e-05, "loss": 0.369, "step": 83330 }, { "epoch": 111.12, "grad_norm": 0.79296875, "learning_rate": 9.924885098489272e-05, "loss": 0.3701, "step": 83340 }, { "epoch": 111.13333333333334, "grad_norm": 0.796875, "learning_rate": 9.924867007798672e-05, "loss": 0.3628, "step": 83350 }, { "epoch": 111.14666666666666, "grad_norm": 0.7109375, "learning_rate": 9.92484891494634e-05, "loss": 0.3814, "step": 83360 }, { "epoch": 111.16, "grad_norm": 0.68359375, "learning_rate": 9.92483081993229e-05, "loss": 0.3766, "step": 83370 }, { "epoch": 111.17333333333333, "grad_norm": 0.82421875, "learning_rate": 9.924812722756524e-05, "loss": 0.3715, "step": 83380 }, { "epoch": 111.18666666666667, "grad_norm": 0.65234375, "learning_rate": 9.924794623419054e-05, "loss": 0.3683, "step": 83390 }, { "epoch": 111.2, "grad_norm": 0.75, "learning_rate": 9.924776521919886e-05, "loss": 0.3609, "step": 83400 }, { "epoch": 111.21333333333334, "grad_norm": 0.76953125, "learning_rate": 9.924758418259028e-05, "loss": 0.362, "step": 83410 }, { "epoch": 111.22666666666667, "grad_norm": 0.75390625, "learning_rate": 9.92474031243649e-05, "loss": 0.3718, "step": 83420 }, { "epoch": 111.24, "grad_norm": 0.8125, "learning_rate": 9.924722204452276e-05, "loss": 0.3587, "step": 83430 }, { "epoch": 111.25333333333333, "grad_norm": 0.84765625, "learning_rate": 9.924704094306397e-05, "loss": 0.3599, "step": 83440 }, { "epoch": 111.26666666666667, "grad_norm": 0.7421875, "learning_rate": 9.92468598199886e-05, "loss": 0.3625, "step": 83450 }, { "epoch": 111.28, "grad_norm": 0.77734375, "learning_rate": 9.924667867529674e-05, "loss": 0.3908, "step": 83460 }, { "epoch": 111.29333333333334, "grad_norm": 0.7890625, "learning_rate": 9.924649750898847e-05, "loss": 0.3492, "step": 83470 }, { "epoch": 111.30666666666667, "grad_norm": 0.74609375, "learning_rate": 9.924631632106384e-05, "loss": 0.3729, "step": 83480 }, { "epoch": 111.32, "grad_norm": 0.7109375, "learning_rate": 9.924613511152295e-05, "loss": 0.3765, "step": 83490 }, { "epoch": 111.33333333333333, "grad_norm": 0.828125, "learning_rate": 9.924595388036589e-05, "loss": 0.3764, "step": 83500 }, { "epoch": 111.34666666666666, "grad_norm": 0.87109375, "learning_rate": 9.924577262759273e-05, "loss": 0.3666, "step": 83510 }, { "epoch": 111.36, "grad_norm": 0.81640625, "learning_rate": 9.924559135320355e-05, "loss": 0.3678, "step": 83520 }, { "epoch": 111.37333333333333, "grad_norm": 0.73828125, "learning_rate": 9.92454100571984e-05, "loss": 0.3716, "step": 83530 }, { "epoch": 111.38666666666667, "grad_norm": 0.84765625, "learning_rate": 9.924522873957743e-05, "loss": 0.3595, "step": 83540 }, { "epoch": 111.4, "grad_norm": 0.73828125, "learning_rate": 9.924504740034065e-05, "loss": 0.3683, "step": 83550 }, { "epoch": 111.41333333333333, "grad_norm": 0.76953125, "learning_rate": 9.924486603948817e-05, "loss": 0.3752, "step": 83560 }, { "epoch": 111.42666666666666, "grad_norm": 0.72265625, "learning_rate": 9.924468465702008e-05, "loss": 0.3763, "step": 83570 }, { "epoch": 111.44, "grad_norm": 0.8046875, "learning_rate": 9.924450325293644e-05, "loss": 0.3888, "step": 83580 }, { "epoch": 111.45333333333333, "grad_norm": 0.80078125, "learning_rate": 9.924432182723733e-05, "loss": 0.3761, "step": 83590 }, { "epoch": 111.46666666666667, "grad_norm": 0.73046875, "learning_rate": 9.924414037992283e-05, "loss": 0.3826, "step": 83600 }, { "epoch": 111.48, "grad_norm": 0.7421875, "learning_rate": 9.924395891099303e-05, "loss": 0.3664, "step": 83610 }, { "epoch": 111.49333333333334, "grad_norm": 0.734375, "learning_rate": 9.924377742044802e-05, "loss": 0.3779, "step": 83620 }, { "epoch": 111.50666666666666, "grad_norm": 0.8203125, "learning_rate": 9.924359590828784e-05, "loss": 0.3775, "step": 83630 }, { "epoch": 111.52, "grad_norm": 0.6640625, "learning_rate": 9.92434143745126e-05, "loss": 0.3687, "step": 83640 }, { "epoch": 111.53333333333333, "grad_norm": 0.734375, "learning_rate": 9.92432328191224e-05, "loss": 0.3691, "step": 83650 }, { "epoch": 111.54666666666667, "grad_norm": 0.859375, "learning_rate": 9.924305124211728e-05, "loss": 0.3702, "step": 83660 }, { "epoch": 111.56, "grad_norm": 0.70703125, "learning_rate": 9.924286964349732e-05, "loss": 0.3649, "step": 83670 }, { "epoch": 111.57333333333334, "grad_norm": 0.78515625, "learning_rate": 9.924268802326263e-05, "loss": 0.3698, "step": 83680 }, { "epoch": 111.58666666666667, "grad_norm": 0.6796875, "learning_rate": 9.924250638141326e-05, "loss": 0.3598, "step": 83690 }, { "epoch": 111.6, "grad_norm": 0.7109375, "learning_rate": 9.92423247179493e-05, "loss": 0.3614, "step": 83700 }, { "epoch": 111.61333333333333, "grad_norm": 0.671875, "learning_rate": 9.924214303287084e-05, "loss": 0.3531, "step": 83710 }, { "epoch": 111.62666666666667, "grad_norm": 0.66015625, "learning_rate": 9.924196132617794e-05, "loss": 0.3572, "step": 83720 }, { "epoch": 111.64, "grad_norm": 0.8359375, "learning_rate": 9.924177959787071e-05, "loss": 0.3656, "step": 83730 }, { "epoch": 111.65333333333334, "grad_norm": 0.75, "learning_rate": 9.92415978479492e-05, "loss": 0.3758, "step": 83740 }, { "epoch": 111.66666666666667, "grad_norm": 0.7578125, "learning_rate": 9.924141607641351e-05, "loss": 0.3669, "step": 83750 }, { "epoch": 111.68, "grad_norm": 0.74609375, "learning_rate": 9.92412342832637e-05, "loss": 0.3562, "step": 83760 }, { "epoch": 111.69333333333333, "grad_norm": 0.70703125, "learning_rate": 9.924105246849986e-05, "loss": 0.368, "step": 83770 }, { "epoch": 111.70666666666666, "grad_norm": 0.85546875, "learning_rate": 9.924087063212208e-05, "loss": 0.3572, "step": 83780 }, { "epoch": 111.72, "grad_norm": 0.8203125, "learning_rate": 9.924068877413041e-05, "loss": 0.379, "step": 83790 }, { "epoch": 111.73333333333333, "grad_norm": 0.796875, "learning_rate": 9.924050689452498e-05, "loss": 0.3743, "step": 83800 }, { "epoch": 111.74666666666667, "grad_norm": 0.734375, "learning_rate": 9.924032499330582e-05, "loss": 0.3776, "step": 83810 }, { "epoch": 111.76, "grad_norm": 0.8125, "learning_rate": 9.924014307047305e-05, "loss": 0.3912, "step": 83820 }, { "epoch": 111.77333333333333, "grad_norm": 0.87109375, "learning_rate": 9.923996112602671e-05, "loss": 0.3753, "step": 83830 }, { "epoch": 111.78666666666666, "grad_norm": 0.66015625, "learning_rate": 9.92397791599669e-05, "loss": 0.3781, "step": 83840 }, { "epoch": 111.8, "grad_norm": 0.75390625, "learning_rate": 9.92395971722937e-05, "loss": 0.375, "step": 83850 }, { "epoch": 111.81333333333333, "grad_norm": 0.8984375, "learning_rate": 9.923941516300719e-05, "loss": 0.3487, "step": 83860 }, { "epoch": 111.82666666666667, "grad_norm": 0.73828125, "learning_rate": 9.923923313210745e-05, "loss": 0.3567, "step": 83870 }, { "epoch": 111.84, "grad_norm": 0.7890625, "learning_rate": 9.923905107959456e-05, "loss": 0.3695, "step": 83880 }, { "epoch": 111.85333333333334, "grad_norm": 0.734375, "learning_rate": 9.923886900546862e-05, "loss": 0.3646, "step": 83890 }, { "epoch": 111.86666666666666, "grad_norm": 0.83984375, "learning_rate": 9.923868690972966e-05, "loss": 0.3706, "step": 83900 }, { "epoch": 111.88, "grad_norm": 0.73828125, "learning_rate": 9.92385047923778e-05, "loss": 0.3513, "step": 83910 }, { "epoch": 111.89333333333333, "grad_norm": 0.76953125, "learning_rate": 9.92383226534131e-05, "loss": 0.3644, "step": 83920 }, { "epoch": 111.90666666666667, "grad_norm": 0.7734375, "learning_rate": 9.923814049283567e-05, "loss": 0.3684, "step": 83930 }, { "epoch": 111.92, "grad_norm": 0.73828125, "learning_rate": 9.923795831064554e-05, "loss": 0.3697, "step": 83940 }, { "epoch": 111.93333333333334, "grad_norm": 0.7734375, "learning_rate": 9.923777610684284e-05, "loss": 0.3656, "step": 83950 }, { "epoch": 111.94666666666667, "grad_norm": 0.8203125, "learning_rate": 9.923759388142762e-05, "loss": 0.3662, "step": 83960 }, { "epoch": 111.96, "grad_norm": 0.62890625, "learning_rate": 9.923741163439999e-05, "loss": 0.3639, "step": 83970 }, { "epoch": 111.97333333333333, "grad_norm": 1.03125, "learning_rate": 9.923722936575997e-05, "loss": 0.3867, "step": 83980 }, { "epoch": 111.98666666666666, "grad_norm": 0.86328125, "learning_rate": 9.92370470755077e-05, "loss": 0.3569, "step": 83990 }, { "epoch": 112.0, "grad_norm": 0.796875, "learning_rate": 9.923686476364324e-05, "loss": 0.3583, "step": 84000 }, { "epoch": 112.0, "eval_loss": 0.4198482632637024, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.0045, "eval_samples_per_second": 1.454, "eval_steps_per_second": 0.091, "step": 84000 }, { "epoch": 112.01333333333334, "grad_norm": 0.8515625, "learning_rate": 9.923668243016667e-05, "loss": 0.3744, "step": 84010 }, { "epoch": 112.02666666666667, "grad_norm": 0.703125, "learning_rate": 9.923650007507805e-05, "loss": 0.3881, "step": 84020 }, { "epoch": 112.04, "grad_norm": 0.734375, "learning_rate": 9.923631769837752e-05, "loss": 0.4009, "step": 84030 }, { "epoch": 112.05333333333333, "grad_norm": 0.79296875, "learning_rate": 9.923613530006508e-05, "loss": 0.3864, "step": 84040 }, { "epoch": 112.06666666666666, "grad_norm": 0.86328125, "learning_rate": 9.923595288014086e-05, "loss": 0.3747, "step": 84050 }, { "epoch": 112.08, "grad_norm": 0.76171875, "learning_rate": 9.923577043860493e-05, "loss": 0.3777, "step": 84060 }, { "epoch": 112.09333333333333, "grad_norm": 0.80859375, "learning_rate": 9.923558797545737e-05, "loss": 0.38, "step": 84070 }, { "epoch": 112.10666666666667, "grad_norm": 0.671875, "learning_rate": 9.923540549069825e-05, "loss": 0.3683, "step": 84080 }, { "epoch": 112.12, "grad_norm": 0.76953125, "learning_rate": 9.923522298432767e-05, "loss": 0.3711, "step": 84090 }, { "epoch": 112.13333333333334, "grad_norm": 0.77734375, "learning_rate": 9.923504045634569e-05, "loss": 0.3627, "step": 84100 }, { "epoch": 112.14666666666666, "grad_norm": 0.77734375, "learning_rate": 9.923485790675241e-05, "loss": 0.3815, "step": 84110 }, { "epoch": 112.16, "grad_norm": 0.67578125, "learning_rate": 9.92346753355479e-05, "loss": 0.3767, "step": 84120 }, { "epoch": 112.17333333333333, "grad_norm": 0.8359375, "learning_rate": 9.923449274273223e-05, "loss": 0.3713, "step": 84130 }, { "epoch": 112.18666666666667, "grad_norm": 0.72265625, "learning_rate": 9.92343101283055e-05, "loss": 0.3687, "step": 84140 }, { "epoch": 112.2, "grad_norm": 0.7265625, "learning_rate": 9.923412749226777e-05, "loss": 0.361, "step": 84150 }, { "epoch": 112.21333333333334, "grad_norm": 0.78515625, "learning_rate": 9.923394483461914e-05, "loss": 0.3611, "step": 84160 }, { "epoch": 112.22666666666667, "grad_norm": 0.82421875, "learning_rate": 9.923376215535966e-05, "loss": 0.3719, "step": 84170 }, { "epoch": 112.24, "grad_norm": 0.79296875, "learning_rate": 9.923357945448945e-05, "loss": 0.3589, "step": 84180 }, { "epoch": 112.25333333333333, "grad_norm": 0.7578125, "learning_rate": 9.923339673200858e-05, "loss": 0.3593, "step": 84190 }, { "epoch": 112.26666666666667, "grad_norm": 0.78515625, "learning_rate": 9.92332139879171e-05, "loss": 0.3624, "step": 84200 }, { "epoch": 112.28, "grad_norm": 0.78515625, "learning_rate": 9.923303122221512e-05, "loss": 0.391, "step": 84210 }, { "epoch": 112.29333333333334, "grad_norm": 0.7109375, "learning_rate": 9.923284843490271e-05, "loss": 0.3491, "step": 84220 }, { "epoch": 112.30666666666667, "grad_norm": 0.765625, "learning_rate": 9.923266562597995e-05, "loss": 0.3728, "step": 84230 }, { "epoch": 112.32, "grad_norm": 0.6796875, "learning_rate": 9.923248279544692e-05, "loss": 0.3761, "step": 84240 }, { "epoch": 112.33333333333333, "grad_norm": 0.88671875, "learning_rate": 9.923229994330372e-05, "loss": 0.3761, "step": 84250 }, { "epoch": 112.34666666666666, "grad_norm": 0.86328125, "learning_rate": 9.923211706955038e-05, "loss": 0.3663, "step": 84260 }, { "epoch": 112.36, "grad_norm": 0.79296875, "learning_rate": 9.923193417418703e-05, "loss": 0.3679, "step": 84270 }, { "epoch": 112.37333333333333, "grad_norm": 0.69140625, "learning_rate": 9.923175125721375e-05, "loss": 0.371, "step": 84280 }, { "epoch": 112.38666666666667, "grad_norm": 0.83984375, "learning_rate": 9.923156831863059e-05, "loss": 0.3583, "step": 84290 }, { "epoch": 112.4, "grad_norm": 0.78125, "learning_rate": 9.923138535843764e-05, "loss": 0.368, "step": 84300 }, { "epoch": 112.41333333333333, "grad_norm": 0.7265625, "learning_rate": 9.923120237663497e-05, "loss": 0.3739, "step": 84310 }, { "epoch": 112.42666666666666, "grad_norm": 0.73828125, "learning_rate": 9.92310193732227e-05, "loss": 0.3754, "step": 84320 }, { "epoch": 112.44, "grad_norm": 0.78515625, "learning_rate": 9.923083634820087e-05, "loss": 0.3882, "step": 84330 }, { "epoch": 112.45333333333333, "grad_norm": 0.7578125, "learning_rate": 9.923065330156958e-05, "loss": 0.3756, "step": 84340 }, { "epoch": 112.46666666666667, "grad_norm": 0.76171875, "learning_rate": 9.92304702333289e-05, "loss": 0.3827, "step": 84350 }, { "epoch": 112.48, "grad_norm": 0.82421875, "learning_rate": 9.923028714347891e-05, "loss": 0.3661, "step": 84360 }, { "epoch": 112.49333333333334, "grad_norm": 0.80859375, "learning_rate": 9.923010403201972e-05, "loss": 0.3777, "step": 84370 }, { "epoch": 112.50666666666666, "grad_norm": 0.859375, "learning_rate": 9.922992089895136e-05, "loss": 0.3768, "step": 84380 }, { "epoch": 112.52, "grad_norm": 0.6796875, "learning_rate": 9.922973774427395e-05, "loss": 0.3682, "step": 84390 }, { "epoch": 112.53333333333333, "grad_norm": 0.796875, "learning_rate": 9.922955456798754e-05, "loss": 0.3688, "step": 84400 }, { "epoch": 112.54666666666667, "grad_norm": 0.83984375, "learning_rate": 9.922937137009225e-05, "loss": 0.3698, "step": 84410 }, { "epoch": 112.56, "grad_norm": 0.734375, "learning_rate": 9.922918815058812e-05, "loss": 0.3653, "step": 84420 }, { "epoch": 112.57333333333334, "grad_norm": 0.828125, "learning_rate": 9.922900490947526e-05, "loss": 0.3699, "step": 84430 }, { "epoch": 112.58666666666667, "grad_norm": 0.73828125, "learning_rate": 9.922882164675375e-05, "loss": 0.3599, "step": 84440 }, { "epoch": 112.6, "grad_norm": 0.73828125, "learning_rate": 9.922863836242364e-05, "loss": 0.3613, "step": 84450 }, { "epoch": 112.61333333333333, "grad_norm": 0.66796875, "learning_rate": 9.922845505648504e-05, "loss": 0.3536, "step": 84460 }, { "epoch": 112.62666666666667, "grad_norm": 0.671875, "learning_rate": 9.922827172893801e-05, "loss": 0.3578, "step": 84470 }, { "epoch": 112.64, "grad_norm": 0.875, "learning_rate": 9.922808837978265e-05, "loss": 0.365, "step": 84480 }, { "epoch": 112.65333333333334, "grad_norm": 0.765625, "learning_rate": 9.922790500901902e-05, "loss": 0.3761, "step": 84490 }, { "epoch": 112.66666666666667, "grad_norm": 0.6875, "learning_rate": 9.922772161664722e-05, "loss": 0.3664, "step": 84500 }, { "epoch": 112.68, "grad_norm": 0.7578125, "learning_rate": 9.922753820266732e-05, "loss": 0.3557, "step": 84510 }, { "epoch": 112.69333333333333, "grad_norm": 0.66015625, "learning_rate": 9.92273547670794e-05, "loss": 0.367, "step": 84520 }, { "epoch": 112.70666666666666, "grad_norm": 0.84375, "learning_rate": 9.922717130988355e-05, "loss": 0.3571, "step": 84530 }, { "epoch": 112.72, "grad_norm": 0.86328125, "learning_rate": 9.922698783107985e-05, "loss": 0.3785, "step": 84540 }, { "epoch": 112.73333333333333, "grad_norm": 0.88671875, "learning_rate": 9.922680433066836e-05, "loss": 0.3748, "step": 84550 }, { "epoch": 112.74666666666667, "grad_norm": 0.7578125, "learning_rate": 9.922662080864917e-05, "loss": 0.3771, "step": 84560 }, { "epoch": 112.76, "grad_norm": 0.82421875, "learning_rate": 9.922643726502237e-05, "loss": 0.3899, "step": 84570 }, { "epoch": 112.77333333333333, "grad_norm": 0.859375, "learning_rate": 9.922625369978804e-05, "loss": 0.3744, "step": 84580 }, { "epoch": 112.78666666666666, "grad_norm": 0.71484375, "learning_rate": 9.922607011294625e-05, "loss": 0.3766, "step": 84590 }, { "epoch": 112.8, "grad_norm": 0.7890625, "learning_rate": 9.922588650449709e-05, "loss": 0.3741, "step": 84600 }, { "epoch": 112.81333333333333, "grad_norm": 0.8828125, "learning_rate": 9.922570287444064e-05, "loss": 0.3497, "step": 84610 }, { "epoch": 112.82666666666667, "grad_norm": 0.78125, "learning_rate": 9.922551922277698e-05, "loss": 0.3562, "step": 84620 }, { "epoch": 112.84, "grad_norm": 0.765625, "learning_rate": 9.922533554950619e-05, "loss": 0.3686, "step": 84630 }, { "epoch": 112.85333333333334, "grad_norm": 0.70703125, "learning_rate": 9.922515185462835e-05, "loss": 0.3643, "step": 84640 }, { "epoch": 112.86666666666666, "grad_norm": 0.80859375, "learning_rate": 9.922496813814353e-05, "loss": 0.3711, "step": 84650 }, { "epoch": 112.88, "grad_norm": 0.70703125, "learning_rate": 9.922478440005183e-05, "loss": 0.3508, "step": 84660 }, { "epoch": 112.89333333333333, "grad_norm": 0.703125, "learning_rate": 9.922460064035332e-05, "loss": 0.3638, "step": 84670 }, { "epoch": 112.90666666666667, "grad_norm": 0.75, "learning_rate": 9.922441685904808e-05, "loss": 0.3678, "step": 84680 }, { "epoch": 112.92, "grad_norm": 0.7578125, "learning_rate": 9.922423305613618e-05, "loss": 0.3688, "step": 84690 }, { "epoch": 112.93333333333334, "grad_norm": 0.76171875, "learning_rate": 9.922404923161772e-05, "loss": 0.3659, "step": 84700 }, { "epoch": 112.94666666666667, "grad_norm": 0.765625, "learning_rate": 9.92238653854928e-05, "loss": 0.3651, "step": 84710 }, { "epoch": 112.96, "grad_norm": 0.66796875, "learning_rate": 9.922368151776145e-05, "loss": 0.3642, "step": 84720 }, { "epoch": 112.97333333333333, "grad_norm": 1.015625, "learning_rate": 9.922349762842377e-05, "loss": 0.3866, "step": 84730 }, { "epoch": 112.98666666666666, "grad_norm": 0.765625, "learning_rate": 9.922331371747986e-05, "loss": 0.3566, "step": 84740 }, { "epoch": 113.0, "grad_norm": 0.78515625, "learning_rate": 9.922312978492977e-05, "loss": 0.3573, "step": 84750 }, { "epoch": 113.0, "eval_loss": 0.41841837763786316, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8694, "eval_samples_per_second": 1.472, "eval_steps_per_second": 0.092, "step": 84750 }, { "epoch": 113.01333333333334, "grad_norm": 0.890625, "learning_rate": 9.922294583077361e-05, "loss": 0.373, "step": 84760 }, { "epoch": 113.02666666666667, "grad_norm": 0.6875, "learning_rate": 9.922276185501144e-05, "loss": 0.3885, "step": 84770 }, { "epoch": 113.04, "grad_norm": 0.73828125, "learning_rate": 9.922257785764337e-05, "loss": 0.401, "step": 84780 }, { "epoch": 113.05333333333333, "grad_norm": 0.71875, "learning_rate": 9.922239383866945e-05, "loss": 0.3855, "step": 84790 }, { "epoch": 113.06666666666666, "grad_norm": 0.828125, "learning_rate": 9.922220979808976e-05, "loss": 0.373, "step": 84800 }, { "epoch": 113.08, "grad_norm": 0.8046875, "learning_rate": 9.92220257359044e-05, "loss": 0.378, "step": 84810 }, { "epoch": 113.09333333333333, "grad_norm": 0.80859375, "learning_rate": 9.922184165211345e-05, "loss": 0.3792, "step": 84820 }, { "epoch": 113.10666666666667, "grad_norm": 0.7578125, "learning_rate": 9.922165754671698e-05, "loss": 0.3681, "step": 84830 }, { "epoch": 113.12, "grad_norm": 0.73828125, "learning_rate": 9.922147341971506e-05, "loss": 0.3704, "step": 84840 }, { "epoch": 113.13333333333334, "grad_norm": 0.7578125, "learning_rate": 9.922128927110779e-05, "loss": 0.3618, "step": 84850 }, { "epoch": 113.14666666666666, "grad_norm": 0.87890625, "learning_rate": 9.922110510089524e-05, "loss": 0.3815, "step": 84860 }, { "epoch": 113.16, "grad_norm": 0.73828125, "learning_rate": 9.922092090907751e-05, "loss": 0.3771, "step": 84870 }, { "epoch": 113.17333333333333, "grad_norm": 0.7890625, "learning_rate": 9.922073669565466e-05, "loss": 0.3704, "step": 84880 }, { "epoch": 113.18666666666667, "grad_norm": 0.7109375, "learning_rate": 9.922055246062678e-05, "loss": 0.3677, "step": 84890 }, { "epoch": 113.2, "grad_norm": 0.828125, "learning_rate": 9.922036820399394e-05, "loss": 0.3598, "step": 84900 }, { "epoch": 113.21333333333334, "grad_norm": 0.8515625, "learning_rate": 9.922018392575623e-05, "loss": 0.3607, "step": 84910 }, { "epoch": 113.22666666666667, "grad_norm": 0.86328125, "learning_rate": 9.921999962591376e-05, "loss": 0.3724, "step": 84920 }, { "epoch": 113.24, "grad_norm": 0.8046875, "learning_rate": 9.921981530446654e-05, "loss": 0.3579, "step": 84930 }, { "epoch": 113.25333333333333, "grad_norm": 0.76953125, "learning_rate": 9.921963096141471e-05, "loss": 0.3596, "step": 84940 }, { "epoch": 113.26666666666667, "grad_norm": 0.7109375, "learning_rate": 9.921944659675835e-05, "loss": 0.3625, "step": 84950 }, { "epoch": 113.28, "grad_norm": 0.87109375, "learning_rate": 9.921926221049751e-05, "loss": 0.3911, "step": 84960 }, { "epoch": 113.29333333333334, "grad_norm": 0.73828125, "learning_rate": 9.921907780263227e-05, "loss": 0.3493, "step": 84970 }, { "epoch": 113.30666666666667, "grad_norm": 0.78515625, "learning_rate": 9.921889337316274e-05, "loss": 0.3729, "step": 84980 }, { "epoch": 113.32, "grad_norm": 0.69921875, "learning_rate": 9.9218708922089e-05, "loss": 0.3764, "step": 84990 }, { "epoch": 113.33333333333333, "grad_norm": 0.875, "learning_rate": 9.92185244494111e-05, "loss": 0.3763, "step": 85000 }, { "epoch": 113.34666666666666, "grad_norm": 0.81640625, "learning_rate": 9.921833995512915e-05, "loss": 0.3664, "step": 85010 }, { "epoch": 113.36, "grad_norm": 0.83984375, "learning_rate": 9.921815543924321e-05, "loss": 0.3677, "step": 85020 }, { "epoch": 113.37333333333333, "grad_norm": 0.703125, "learning_rate": 9.921797090175337e-05, "loss": 0.3714, "step": 85030 }, { "epoch": 113.38666666666667, "grad_norm": 0.828125, "learning_rate": 9.921778634265972e-05, "loss": 0.3583, "step": 85040 }, { "epoch": 113.4, "grad_norm": 0.8203125, "learning_rate": 9.921760176196233e-05, "loss": 0.369, "step": 85050 }, { "epoch": 113.41333333333333, "grad_norm": 0.74609375, "learning_rate": 9.921741715966129e-05, "loss": 0.3739, "step": 85060 }, { "epoch": 113.42666666666666, "grad_norm": 0.765625, "learning_rate": 9.921723253575666e-05, "loss": 0.3758, "step": 85070 }, { "epoch": 113.44, "grad_norm": 0.7578125, "learning_rate": 9.921704789024855e-05, "loss": 0.3882, "step": 85080 }, { "epoch": 113.45333333333333, "grad_norm": 0.79296875, "learning_rate": 9.921686322313702e-05, "loss": 0.3758, "step": 85090 }, { "epoch": 113.46666666666667, "grad_norm": 0.7890625, "learning_rate": 9.921667853442216e-05, "loss": 0.3823, "step": 85100 }, { "epoch": 113.48, "grad_norm": 0.765625, "learning_rate": 9.921649382410405e-05, "loss": 0.3659, "step": 85110 }, { "epoch": 113.49333333333334, "grad_norm": 0.76953125, "learning_rate": 9.921630909218278e-05, "loss": 0.3768, "step": 85120 }, { "epoch": 113.50666666666666, "grad_norm": 0.765625, "learning_rate": 9.921612433865841e-05, "loss": 0.3771, "step": 85130 }, { "epoch": 113.52, "grad_norm": 0.671875, "learning_rate": 9.921593956353104e-05, "loss": 0.3676, "step": 85140 }, { "epoch": 113.53333333333333, "grad_norm": 0.7890625, "learning_rate": 9.921575476680073e-05, "loss": 0.3695, "step": 85150 }, { "epoch": 113.54666666666667, "grad_norm": 0.8828125, "learning_rate": 9.921556994846758e-05, "loss": 0.3702, "step": 85160 }, { "epoch": 113.56, "grad_norm": 0.7109375, "learning_rate": 9.921538510853167e-05, "loss": 0.3646, "step": 85170 }, { "epoch": 113.57333333333334, "grad_norm": 0.7421875, "learning_rate": 9.921520024699306e-05, "loss": 0.369, "step": 85180 }, { "epoch": 113.58666666666667, "grad_norm": 0.703125, "learning_rate": 9.921501536385186e-05, "loss": 0.3595, "step": 85190 }, { "epoch": 113.6, "grad_norm": 0.7109375, "learning_rate": 9.921483045910815e-05, "loss": 0.3605, "step": 85200 }, { "epoch": 113.61333333333333, "grad_norm": 0.7265625, "learning_rate": 9.921464553276201e-05, "loss": 0.3525, "step": 85210 }, { "epoch": 113.62666666666667, "grad_norm": 0.66015625, "learning_rate": 9.92144605848135e-05, "loss": 0.3572, "step": 85220 }, { "epoch": 113.64, "grad_norm": 0.83984375, "learning_rate": 9.92142756152627e-05, "loss": 0.3649, "step": 85230 }, { "epoch": 113.65333333333334, "grad_norm": 0.78125, "learning_rate": 9.921409062410971e-05, "loss": 0.3752, "step": 85240 }, { "epoch": 113.66666666666667, "grad_norm": 0.703125, "learning_rate": 9.921390561135461e-05, "loss": 0.3662, "step": 85250 }, { "epoch": 113.68, "grad_norm": 0.8046875, "learning_rate": 9.921372057699747e-05, "loss": 0.3558, "step": 85260 }, { "epoch": 113.69333333333333, "grad_norm": 0.671875, "learning_rate": 9.921353552103838e-05, "loss": 0.3666, "step": 85270 }, { "epoch": 113.70666666666666, "grad_norm": 0.8671875, "learning_rate": 9.921335044347742e-05, "loss": 0.3564, "step": 85280 }, { "epoch": 113.72, "grad_norm": 0.88671875, "learning_rate": 9.921316534431466e-05, "loss": 0.379, "step": 85290 }, { "epoch": 113.73333333333333, "grad_norm": 0.796875, "learning_rate": 9.921298022355021e-05, "loss": 0.3742, "step": 85300 }, { "epoch": 113.74666666666667, "grad_norm": 0.70703125, "learning_rate": 9.921279508118413e-05, "loss": 0.3766, "step": 85310 }, { "epoch": 113.76, "grad_norm": 0.83984375, "learning_rate": 9.921260991721649e-05, "loss": 0.3907, "step": 85320 }, { "epoch": 113.77333333333333, "grad_norm": 0.80859375, "learning_rate": 9.92124247316474e-05, "loss": 0.374, "step": 85330 }, { "epoch": 113.78666666666666, "grad_norm": 0.6953125, "learning_rate": 9.921223952447691e-05, "loss": 0.3773, "step": 85340 }, { "epoch": 113.8, "grad_norm": 0.74609375, "learning_rate": 9.921205429570512e-05, "loss": 0.3755, "step": 85350 }, { "epoch": 113.81333333333333, "grad_norm": 0.86328125, "learning_rate": 9.921186904533213e-05, "loss": 0.3492, "step": 85360 }, { "epoch": 113.82666666666667, "grad_norm": 0.73046875, "learning_rate": 9.921168377335799e-05, "loss": 0.3562, "step": 85370 }, { "epoch": 113.84, "grad_norm": 0.8359375, "learning_rate": 9.921149847978278e-05, "loss": 0.3688, "step": 85380 }, { "epoch": 113.85333333333334, "grad_norm": 0.82421875, "learning_rate": 9.921131316460662e-05, "loss": 0.3645, "step": 85390 }, { "epoch": 113.86666666666666, "grad_norm": 0.765625, "learning_rate": 9.921112782782953e-05, "loss": 0.3703, "step": 85400 }, { "epoch": 113.88, "grad_norm": 0.7109375, "learning_rate": 9.921094246945164e-05, "loss": 0.3513, "step": 85410 }, { "epoch": 113.89333333333333, "grad_norm": 0.7265625, "learning_rate": 9.921075708947302e-05, "loss": 0.3634, "step": 85420 }, { "epoch": 113.90666666666667, "grad_norm": 0.8125, "learning_rate": 9.921057168789374e-05, "loss": 0.3683, "step": 85430 }, { "epoch": 113.92, "grad_norm": 0.8203125, "learning_rate": 9.92103862647139e-05, "loss": 0.3699, "step": 85440 }, { "epoch": 113.93333333333334, "grad_norm": 0.69140625, "learning_rate": 9.921020081993358e-05, "loss": 0.3661, "step": 85450 }, { "epoch": 113.94666666666667, "grad_norm": 0.72265625, "learning_rate": 9.921001535355283e-05, "loss": 0.3648, "step": 85460 }, { "epoch": 113.96, "grad_norm": 0.671875, "learning_rate": 9.920982986557177e-05, "loss": 0.3631, "step": 85470 }, { "epoch": 113.97333333333333, "grad_norm": 0.97265625, "learning_rate": 9.920964435599044e-05, "loss": 0.386, "step": 85480 }, { "epoch": 113.98666666666666, "grad_norm": 0.7890625, "learning_rate": 9.920945882480899e-05, "loss": 0.3566, "step": 85490 }, { "epoch": 114.0, "grad_norm": 0.77734375, "learning_rate": 9.920927327202742e-05, "loss": 0.3575, "step": 85500 }, { "epoch": 114.0, "eval_loss": 0.4183605909347534, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.0138, "eval_samples_per_second": 1.453, "eval_steps_per_second": 0.091, "step": 85500 }, { "epoch": 114.01333333333334, "grad_norm": 0.85546875, "learning_rate": 9.920908769764588e-05, "loss": 0.3736, "step": 85510 }, { "epoch": 114.02666666666667, "grad_norm": 0.69921875, "learning_rate": 9.920890210166441e-05, "loss": 0.3885, "step": 85520 }, { "epoch": 114.04, "grad_norm": 0.71875, "learning_rate": 9.920871648408307e-05, "loss": 0.4014, "step": 85530 }, { "epoch": 114.05333333333333, "grad_norm": 0.69921875, "learning_rate": 9.920853084490201e-05, "loss": 0.3857, "step": 85540 }, { "epoch": 114.06666666666666, "grad_norm": 0.89453125, "learning_rate": 9.920834518412128e-05, "loss": 0.3737, "step": 85550 }, { "epoch": 114.08, "grad_norm": 0.70703125, "learning_rate": 9.920815950174093e-05, "loss": 0.377, "step": 85560 }, { "epoch": 114.09333333333333, "grad_norm": 0.765625, "learning_rate": 9.92079737977611e-05, "loss": 0.3792, "step": 85570 }, { "epoch": 114.10666666666667, "grad_norm": 0.73046875, "learning_rate": 9.920778807218181e-05, "loss": 0.3674, "step": 85580 }, { "epoch": 114.12, "grad_norm": 0.828125, "learning_rate": 9.920760232500319e-05, "loss": 0.369, "step": 85590 }, { "epoch": 114.13333333333334, "grad_norm": 0.77734375, "learning_rate": 9.920741655622529e-05, "loss": 0.362, "step": 85600 }, { "epoch": 114.14666666666666, "grad_norm": 0.78515625, "learning_rate": 9.920723076584823e-05, "loss": 0.3816, "step": 85610 }, { "epoch": 114.16, "grad_norm": 0.6953125, "learning_rate": 9.920704495387205e-05, "loss": 0.3759, "step": 85620 }, { "epoch": 114.17333333333333, "grad_norm": 0.890625, "learning_rate": 9.920685912029683e-05, "loss": 0.3704, "step": 85630 }, { "epoch": 114.18666666666667, "grad_norm": 0.76953125, "learning_rate": 9.92066732651227e-05, "loss": 0.368, "step": 85640 }, { "epoch": 114.2, "grad_norm": 0.75390625, "learning_rate": 9.92064873883497e-05, "loss": 0.3595, "step": 85650 }, { "epoch": 114.21333333333334, "grad_norm": 0.796875, "learning_rate": 9.920630148997792e-05, "loss": 0.3614, "step": 85660 }, { "epoch": 114.22666666666667, "grad_norm": 0.8046875, "learning_rate": 9.920611557000745e-05, "loss": 0.3726, "step": 85670 }, { "epoch": 114.24, "grad_norm": 0.75, "learning_rate": 9.920592962843835e-05, "loss": 0.3583, "step": 85680 }, { "epoch": 114.25333333333333, "grad_norm": 0.75390625, "learning_rate": 9.920574366527073e-05, "loss": 0.359, "step": 85690 }, { "epoch": 114.26666666666667, "grad_norm": 0.671875, "learning_rate": 9.920555768050466e-05, "loss": 0.3625, "step": 85700 }, { "epoch": 114.28, "grad_norm": 0.8203125, "learning_rate": 9.920537167414022e-05, "loss": 0.3904, "step": 85710 }, { "epoch": 114.29333333333334, "grad_norm": 0.78515625, "learning_rate": 9.920518564617749e-05, "loss": 0.3494, "step": 85720 }, { "epoch": 114.30666666666667, "grad_norm": 0.8203125, "learning_rate": 9.920499959661656e-05, "loss": 0.3731, "step": 85730 }, { "epoch": 114.32, "grad_norm": 0.70703125, "learning_rate": 9.920481352545748e-05, "loss": 0.377, "step": 85740 }, { "epoch": 114.33333333333333, "grad_norm": 0.78515625, "learning_rate": 9.920462743270038e-05, "loss": 0.376, "step": 85750 }, { "epoch": 114.34666666666666, "grad_norm": 0.78515625, "learning_rate": 9.920444131834532e-05, "loss": 0.3657, "step": 85760 }, { "epoch": 114.36, "grad_norm": 0.82421875, "learning_rate": 9.920425518239238e-05, "loss": 0.3679, "step": 85770 }, { "epoch": 114.37333333333333, "grad_norm": 0.71484375, "learning_rate": 9.920406902484162e-05, "loss": 0.3705, "step": 85780 }, { "epoch": 114.38666666666667, "grad_norm": 0.87890625, "learning_rate": 9.920388284569318e-05, "loss": 0.3579, "step": 85790 }, { "epoch": 114.4, "grad_norm": 0.76953125, "learning_rate": 9.920369664494708e-05, "loss": 0.3673, "step": 85800 }, { "epoch": 114.41333333333333, "grad_norm": 0.7734375, "learning_rate": 9.920351042260344e-05, "loss": 0.3735, "step": 85810 }, { "epoch": 114.42666666666666, "grad_norm": 0.76953125, "learning_rate": 9.920332417866233e-05, "loss": 0.3756, "step": 85820 }, { "epoch": 114.44, "grad_norm": 0.765625, "learning_rate": 9.920313791312382e-05, "loss": 0.3878, "step": 85830 }, { "epoch": 114.45333333333333, "grad_norm": 0.78515625, "learning_rate": 9.9202951625988e-05, "loss": 0.3747, "step": 85840 }, { "epoch": 114.46666666666667, "grad_norm": 0.78515625, "learning_rate": 9.920276531725498e-05, "loss": 0.3829, "step": 85850 }, { "epoch": 114.48, "grad_norm": 0.73828125, "learning_rate": 9.92025789869248e-05, "loss": 0.3653, "step": 85860 }, { "epoch": 114.49333333333334, "grad_norm": 0.796875, "learning_rate": 9.920239263499756e-05, "loss": 0.3767, "step": 85870 }, { "epoch": 114.50666666666666, "grad_norm": 0.796875, "learning_rate": 9.920220626147334e-05, "loss": 0.3765, "step": 85880 }, { "epoch": 114.52, "grad_norm": 0.71484375, "learning_rate": 9.920201986635222e-05, "loss": 0.3671, "step": 85890 }, { "epoch": 114.53333333333333, "grad_norm": 0.77734375, "learning_rate": 9.920183344963427e-05, "loss": 0.3689, "step": 85900 }, { "epoch": 114.54666666666667, "grad_norm": 0.87890625, "learning_rate": 9.92016470113196e-05, "loss": 0.3701, "step": 85910 }, { "epoch": 114.56, "grad_norm": 0.67578125, "learning_rate": 9.920146055140829e-05, "loss": 0.3649, "step": 85920 }, { "epoch": 114.57333333333334, "grad_norm": 0.890625, "learning_rate": 9.920127406990039e-05, "loss": 0.3693, "step": 85930 }, { "epoch": 114.58666666666667, "grad_norm": 0.6640625, "learning_rate": 9.9201087566796e-05, "loss": 0.3594, "step": 85940 }, { "epoch": 114.6, "grad_norm": 0.73046875, "learning_rate": 9.920090104209521e-05, "loss": 0.3613, "step": 85950 }, { "epoch": 114.61333333333333, "grad_norm": 0.64453125, "learning_rate": 9.92007144957981e-05, "loss": 0.3527, "step": 85960 }, { "epoch": 114.62666666666667, "grad_norm": 0.66796875, "learning_rate": 9.920052792790473e-05, "loss": 0.3578, "step": 85970 }, { "epoch": 114.64, "grad_norm": 0.7578125, "learning_rate": 9.920034133841521e-05, "loss": 0.3654, "step": 85980 }, { "epoch": 114.65333333333334, "grad_norm": 0.78515625, "learning_rate": 9.920015472732962e-05, "loss": 0.3751, "step": 85990 }, { "epoch": 114.66666666666667, "grad_norm": 0.70703125, "learning_rate": 9.919996809464802e-05, "loss": 0.3665, "step": 86000 }, { "epoch": 114.68, "grad_norm": 0.8984375, "learning_rate": 9.91997814403705e-05, "loss": 0.3564, "step": 86010 }, { "epoch": 114.69333333333333, "grad_norm": 0.7421875, "learning_rate": 9.919959476449714e-05, "loss": 0.3667, "step": 86020 }, { "epoch": 114.70666666666666, "grad_norm": 0.890625, "learning_rate": 9.919940806702805e-05, "loss": 0.3565, "step": 86030 }, { "epoch": 114.72, "grad_norm": 0.8125, "learning_rate": 9.919922134796328e-05, "loss": 0.3791, "step": 86040 }, { "epoch": 114.73333333333333, "grad_norm": 0.83203125, "learning_rate": 9.919903460730291e-05, "loss": 0.3739, "step": 86050 }, { "epoch": 114.74666666666667, "grad_norm": 0.69921875, "learning_rate": 9.919884784504705e-05, "loss": 0.3764, "step": 86060 }, { "epoch": 114.76, "grad_norm": 0.80859375, "learning_rate": 9.919866106119577e-05, "loss": 0.3902, "step": 86070 }, { "epoch": 114.77333333333333, "grad_norm": 0.83203125, "learning_rate": 9.919847425574913e-05, "loss": 0.3743, "step": 86080 }, { "epoch": 114.78666666666666, "grad_norm": 0.7109375, "learning_rate": 9.919828742870725e-05, "loss": 0.3778, "step": 86090 }, { "epoch": 114.8, "grad_norm": 0.7890625, "learning_rate": 9.919810058007017e-05, "loss": 0.3742, "step": 86100 }, { "epoch": 114.81333333333333, "grad_norm": 0.96484375, "learning_rate": 9.919791370983801e-05, "loss": 0.3486, "step": 86110 }, { "epoch": 114.82666666666667, "grad_norm": 0.78515625, "learning_rate": 9.919772681801083e-05, "loss": 0.3555, "step": 86120 }, { "epoch": 114.84, "grad_norm": 0.80859375, "learning_rate": 9.919753990458872e-05, "loss": 0.3688, "step": 86130 }, { "epoch": 114.85333333333334, "grad_norm": 0.80078125, "learning_rate": 9.919735296957175e-05, "loss": 0.3646, "step": 86140 }, { "epoch": 114.86666666666666, "grad_norm": 0.7890625, "learning_rate": 9.919716601296003e-05, "loss": 0.3697, "step": 86150 }, { "epoch": 114.88, "grad_norm": 0.73046875, "learning_rate": 9.919697903475361e-05, "loss": 0.3515, "step": 86160 }, { "epoch": 114.89333333333333, "grad_norm": 0.765625, "learning_rate": 9.919679203495259e-05, "loss": 0.3634, "step": 86170 }, { "epoch": 114.90666666666667, "grad_norm": 0.7734375, "learning_rate": 9.919660501355705e-05, "loss": 0.368, "step": 86180 }, { "epoch": 114.92, "grad_norm": 0.8359375, "learning_rate": 9.919641797056707e-05, "loss": 0.3697, "step": 86190 }, { "epoch": 114.93333333333334, "grad_norm": 0.703125, "learning_rate": 9.919623090598273e-05, "loss": 0.3655, "step": 86200 }, { "epoch": 114.94666666666667, "grad_norm": 0.80078125, "learning_rate": 9.919604381980411e-05, "loss": 0.3659, "step": 86210 }, { "epoch": 114.96, "grad_norm": 0.66796875, "learning_rate": 9.919585671203131e-05, "loss": 0.3644, "step": 86220 }, { "epoch": 114.97333333333333, "grad_norm": 0.9921875, "learning_rate": 9.91956695826644e-05, "loss": 0.3864, "step": 86230 }, { "epoch": 114.98666666666666, "grad_norm": 0.8046875, "learning_rate": 9.919548243170345e-05, "loss": 0.3558, "step": 86240 }, { "epoch": 115.0, "grad_norm": 0.7734375, "learning_rate": 9.919529525914855e-05, "loss": 0.3571, "step": 86250 }, { "epoch": 115.0, "eval_loss": 0.4188918173313141, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.9906, "eval_samples_per_second": 1.334, "eval_steps_per_second": 0.083, "step": 86250 }, { "epoch": 115.01333333333334, "grad_norm": 0.8515625, "learning_rate": 9.91951080649998e-05, "loss": 0.3738, "step": 86260 }, { "epoch": 115.02666666666667, "grad_norm": 0.7109375, "learning_rate": 9.919492084925725e-05, "loss": 0.3877, "step": 86270 }, { "epoch": 115.04, "grad_norm": 0.7578125, "learning_rate": 9.919473361192102e-05, "loss": 0.4008, "step": 86280 }, { "epoch": 115.05333333333333, "grad_norm": 0.7890625, "learning_rate": 9.919454635299114e-05, "loss": 0.3852, "step": 86290 }, { "epoch": 115.06666666666666, "grad_norm": 0.8984375, "learning_rate": 9.919435907246776e-05, "loss": 0.3737, "step": 86300 }, { "epoch": 115.08, "grad_norm": 0.79296875, "learning_rate": 9.919417177035091e-05, "loss": 0.378, "step": 86310 }, { "epoch": 115.09333333333333, "grad_norm": 0.83203125, "learning_rate": 9.919398444664069e-05, "loss": 0.3793, "step": 86320 }, { "epoch": 115.10666666666667, "grad_norm": 0.65234375, "learning_rate": 9.919379710133718e-05, "loss": 0.3682, "step": 86330 }, { "epoch": 115.12, "grad_norm": 0.78125, "learning_rate": 9.919360973444045e-05, "loss": 0.3693, "step": 86340 }, { "epoch": 115.13333333333334, "grad_norm": 0.70703125, "learning_rate": 9.919342234595061e-05, "loss": 0.3617, "step": 86350 }, { "epoch": 115.14666666666666, "grad_norm": 0.71875, "learning_rate": 9.919323493586773e-05, "loss": 0.3807, "step": 86360 }, { "epoch": 115.16, "grad_norm": 0.73046875, "learning_rate": 9.919304750419189e-05, "loss": 0.3773, "step": 86370 }, { "epoch": 115.17333333333333, "grad_norm": 0.86328125, "learning_rate": 9.919286005092316e-05, "loss": 0.3713, "step": 86380 }, { "epoch": 115.18666666666667, "grad_norm": 0.796875, "learning_rate": 9.919267257606164e-05, "loss": 0.3678, "step": 86390 }, { "epoch": 115.2, "grad_norm": 0.78125, "learning_rate": 9.919248507960742e-05, "loss": 0.3605, "step": 86400 }, { "epoch": 115.21333333333334, "grad_norm": 0.91015625, "learning_rate": 9.919229756156054e-05, "loss": 0.3614, "step": 86410 }, { "epoch": 115.22666666666667, "grad_norm": 0.8359375, "learning_rate": 9.919211002192112e-05, "loss": 0.3718, "step": 86420 }, { "epoch": 115.24, "grad_norm": 0.75390625, "learning_rate": 9.919192246068925e-05, "loss": 0.3585, "step": 86430 }, { "epoch": 115.25333333333333, "grad_norm": 0.74609375, "learning_rate": 9.919173487786499e-05, "loss": 0.3595, "step": 86440 }, { "epoch": 115.26666666666667, "grad_norm": 0.76171875, "learning_rate": 9.919154727344842e-05, "loss": 0.3629, "step": 86450 }, { "epoch": 115.28, "grad_norm": 0.79296875, "learning_rate": 9.919135964743964e-05, "loss": 0.3912, "step": 86460 }, { "epoch": 115.29333333333334, "grad_norm": 0.7578125, "learning_rate": 9.919117199983872e-05, "loss": 0.349, "step": 86470 }, { "epoch": 115.30666666666667, "grad_norm": 0.7890625, "learning_rate": 9.919098433064574e-05, "loss": 0.3725, "step": 86480 }, { "epoch": 115.32, "grad_norm": 0.69921875, "learning_rate": 9.919079663986079e-05, "loss": 0.3756, "step": 86490 }, { "epoch": 115.33333333333333, "grad_norm": 0.8046875, "learning_rate": 9.919060892748395e-05, "loss": 0.3755, "step": 86500 }, { "epoch": 115.34666666666666, "grad_norm": 0.76171875, "learning_rate": 9.919042119351529e-05, "loss": 0.3663, "step": 86510 }, { "epoch": 115.36, "grad_norm": 0.73828125, "learning_rate": 9.919023343795492e-05, "loss": 0.3679, "step": 86520 }, { "epoch": 115.37333333333333, "grad_norm": 0.6953125, "learning_rate": 9.91900456608029e-05, "loss": 0.37, "step": 86530 }, { "epoch": 115.38666666666667, "grad_norm": 0.91796875, "learning_rate": 9.918985786205932e-05, "loss": 0.3582, "step": 86540 }, { "epoch": 115.4, "grad_norm": 0.8671875, "learning_rate": 9.918967004172427e-05, "loss": 0.3676, "step": 86550 }, { "epoch": 115.41333333333333, "grad_norm": 0.765625, "learning_rate": 9.918948219979782e-05, "loss": 0.3742, "step": 86560 }, { "epoch": 115.42666666666666, "grad_norm": 0.76953125, "learning_rate": 9.918929433628006e-05, "loss": 0.3752, "step": 86570 }, { "epoch": 115.44, "grad_norm": 0.77734375, "learning_rate": 9.918910645117107e-05, "loss": 0.3886, "step": 86580 }, { "epoch": 115.45333333333333, "grad_norm": 0.7890625, "learning_rate": 9.918891854447093e-05, "loss": 0.3757, "step": 86590 }, { "epoch": 115.46666666666667, "grad_norm": 0.703125, "learning_rate": 9.918873061617971e-05, "loss": 0.3827, "step": 86600 }, { "epoch": 115.48, "grad_norm": 0.75390625, "learning_rate": 9.918854266629752e-05, "loss": 0.366, "step": 86610 }, { "epoch": 115.49333333333334, "grad_norm": 0.796875, "learning_rate": 9.918835469482444e-05, "loss": 0.3761, "step": 86620 }, { "epoch": 115.50666666666666, "grad_norm": 0.8203125, "learning_rate": 9.918816670176052e-05, "loss": 0.3763, "step": 86630 }, { "epoch": 115.52, "grad_norm": 0.69140625, "learning_rate": 9.918797868710588e-05, "loss": 0.3678, "step": 86640 }, { "epoch": 115.53333333333333, "grad_norm": 0.88671875, "learning_rate": 9.918779065086056e-05, "loss": 0.3691, "step": 86650 }, { "epoch": 115.54666666666667, "grad_norm": 0.90625, "learning_rate": 9.918760259302471e-05, "loss": 0.3699, "step": 86660 }, { "epoch": 115.56, "grad_norm": 0.703125, "learning_rate": 9.918741451359834e-05, "loss": 0.3637, "step": 86670 }, { "epoch": 115.57333333333334, "grad_norm": 0.8515625, "learning_rate": 9.918722641258158e-05, "loss": 0.368, "step": 86680 }, { "epoch": 115.58666666666667, "grad_norm": 0.73046875, "learning_rate": 9.91870382899745e-05, "loss": 0.3603, "step": 86690 }, { "epoch": 115.6, "grad_norm": 0.8046875, "learning_rate": 9.918685014577718e-05, "loss": 0.3612, "step": 86700 }, { "epoch": 115.61333333333333, "grad_norm": 0.76171875, "learning_rate": 9.918666197998969e-05, "loss": 0.3528, "step": 86710 }, { "epoch": 115.62666666666667, "grad_norm": 0.65234375, "learning_rate": 9.918647379261213e-05, "loss": 0.3572, "step": 86720 }, { "epoch": 115.64, "grad_norm": 0.8203125, "learning_rate": 9.918628558364458e-05, "loss": 0.366, "step": 86730 }, { "epoch": 115.65333333333334, "grad_norm": 0.83203125, "learning_rate": 9.918609735308711e-05, "loss": 0.3757, "step": 86740 }, { "epoch": 115.66666666666667, "grad_norm": 0.7265625, "learning_rate": 9.918590910093981e-05, "loss": 0.3654, "step": 86750 }, { "epoch": 115.68, "grad_norm": 0.82421875, "learning_rate": 9.918572082720278e-05, "loss": 0.3554, "step": 86760 }, { "epoch": 115.69333333333333, "grad_norm": 0.69140625, "learning_rate": 9.918553253187608e-05, "loss": 0.3662, "step": 86770 }, { "epoch": 115.70666666666666, "grad_norm": 0.86328125, "learning_rate": 9.918534421495982e-05, "loss": 0.3556, "step": 86780 }, { "epoch": 115.72, "grad_norm": 0.7421875, "learning_rate": 9.918515587645404e-05, "loss": 0.3773, "step": 86790 }, { "epoch": 115.73333333333333, "grad_norm": 0.796875, "learning_rate": 9.918496751635885e-05, "loss": 0.3736, "step": 86800 }, { "epoch": 115.74666666666667, "grad_norm": 0.72265625, "learning_rate": 9.918477913467433e-05, "loss": 0.377, "step": 86810 }, { "epoch": 115.76, "grad_norm": 0.86328125, "learning_rate": 9.918459073140057e-05, "loss": 0.3901, "step": 86820 }, { "epoch": 115.77333333333333, "grad_norm": 0.79296875, "learning_rate": 9.918440230653763e-05, "loss": 0.3745, "step": 86830 }, { "epoch": 115.78666666666666, "grad_norm": 0.72265625, "learning_rate": 9.918421386008561e-05, "loss": 0.3772, "step": 86840 }, { "epoch": 115.8, "grad_norm": 0.78515625, "learning_rate": 9.918402539204459e-05, "loss": 0.3746, "step": 86850 }, { "epoch": 115.81333333333333, "grad_norm": 0.890625, "learning_rate": 9.918383690241467e-05, "loss": 0.3486, "step": 86860 }, { "epoch": 115.82666666666667, "grad_norm": 0.76953125, "learning_rate": 9.91836483911959e-05, "loss": 0.3556, "step": 86870 }, { "epoch": 115.84, "grad_norm": 0.82421875, "learning_rate": 9.918345985838838e-05, "loss": 0.3691, "step": 86880 }, { "epoch": 115.85333333333334, "grad_norm": 0.77734375, "learning_rate": 9.918327130399216e-05, "loss": 0.364, "step": 86890 }, { "epoch": 115.86666666666666, "grad_norm": 0.796875, "learning_rate": 9.918308272800739e-05, "loss": 0.3697, "step": 86900 }, { "epoch": 115.88, "grad_norm": 0.703125, "learning_rate": 9.918289413043411e-05, "loss": 0.3504, "step": 86910 }, { "epoch": 115.89333333333333, "grad_norm": 0.69140625, "learning_rate": 9.91827055112724e-05, "loss": 0.3631, "step": 86920 }, { "epoch": 115.90666666666667, "grad_norm": 0.71875, "learning_rate": 9.918251687052236e-05, "loss": 0.3678, "step": 86930 }, { "epoch": 115.92, "grad_norm": 0.78125, "learning_rate": 9.918232820818406e-05, "loss": 0.3685, "step": 86940 }, { "epoch": 115.93333333333334, "grad_norm": 0.703125, "learning_rate": 9.918213952425759e-05, "loss": 0.3657, "step": 86950 }, { "epoch": 115.94666666666667, "grad_norm": 0.76953125, "learning_rate": 9.918195081874302e-05, "loss": 0.3654, "step": 86960 }, { "epoch": 115.96, "grad_norm": 0.70703125, "learning_rate": 9.918176209164046e-05, "loss": 0.3631, "step": 86970 }, { "epoch": 115.97333333333333, "grad_norm": 1.109375, "learning_rate": 9.918157334294995e-05, "loss": 0.3862, "step": 86980 }, { "epoch": 115.98666666666666, "grad_norm": 0.80859375, "learning_rate": 9.918138457267163e-05, "loss": 0.3552, "step": 86990 }, { "epoch": 116.0, "grad_norm": 0.76171875, "learning_rate": 9.918119578080553e-05, "loss": 0.3562, "step": 87000 }, { "epoch": 116.0, "eval_loss": 0.41937941312789917, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8003, "eval_samples_per_second": 1.481, "eval_steps_per_second": 0.093, "step": 87000 }, { "epoch": 116.01333333333334, "grad_norm": 0.87109375, "learning_rate": 9.918100696735176e-05, "loss": 0.3736, "step": 87010 }, { "epoch": 116.02666666666667, "grad_norm": 0.71484375, "learning_rate": 9.918081813231039e-05, "loss": 0.388, "step": 87020 }, { "epoch": 116.04, "grad_norm": 0.69140625, "learning_rate": 9.918062927568153e-05, "loss": 0.4008, "step": 87030 }, { "epoch": 116.05333333333333, "grad_norm": 0.74609375, "learning_rate": 9.918044039746521e-05, "loss": 0.3848, "step": 87040 }, { "epoch": 116.06666666666666, "grad_norm": 0.84375, "learning_rate": 9.918025149766157e-05, "loss": 0.3729, "step": 87050 }, { "epoch": 116.08, "grad_norm": 0.69921875, "learning_rate": 9.918006257627066e-05, "loss": 0.377, "step": 87060 }, { "epoch": 116.09333333333333, "grad_norm": 0.8125, "learning_rate": 9.917987363329257e-05, "loss": 0.38, "step": 87070 }, { "epoch": 116.10666666666667, "grad_norm": 0.73046875, "learning_rate": 9.91796846687274e-05, "loss": 0.3681, "step": 87080 }, { "epoch": 116.12, "grad_norm": 0.78125, "learning_rate": 9.91794956825752e-05, "loss": 0.3694, "step": 87090 }, { "epoch": 116.13333333333334, "grad_norm": 0.76171875, "learning_rate": 9.917930667483609e-05, "loss": 0.3615, "step": 87100 }, { "epoch": 116.14666666666666, "grad_norm": 0.8125, "learning_rate": 9.917911764551011e-05, "loss": 0.381, "step": 87110 }, { "epoch": 116.16, "grad_norm": 0.7109375, "learning_rate": 9.917892859459739e-05, "loss": 0.3759, "step": 87120 }, { "epoch": 116.17333333333333, "grad_norm": 0.828125, "learning_rate": 9.917873952209797e-05, "loss": 0.3711, "step": 87130 }, { "epoch": 116.18666666666667, "grad_norm": 0.71875, "learning_rate": 9.917855042801196e-05, "loss": 0.3673, "step": 87140 }, { "epoch": 116.2, "grad_norm": 0.75390625, "learning_rate": 9.917836131233941e-05, "loss": 0.3599, "step": 87150 }, { "epoch": 116.21333333333334, "grad_norm": 0.765625, "learning_rate": 9.917817217508047e-05, "loss": 0.3597, "step": 87160 }, { "epoch": 116.22666666666667, "grad_norm": 0.76953125, "learning_rate": 9.917798301623516e-05, "loss": 0.3711, "step": 87170 }, { "epoch": 116.24, "grad_norm": 0.796875, "learning_rate": 9.917779383580359e-05, "loss": 0.3571, "step": 87180 }, { "epoch": 116.25333333333333, "grad_norm": 0.7734375, "learning_rate": 9.917760463378583e-05, "loss": 0.359, "step": 87190 }, { "epoch": 116.26666666666667, "grad_norm": 0.78125, "learning_rate": 9.917741541018198e-05, "loss": 0.3622, "step": 87200 }, { "epoch": 116.28, "grad_norm": 0.76171875, "learning_rate": 9.91772261649921e-05, "loss": 0.3898, "step": 87210 }, { "epoch": 116.29333333333334, "grad_norm": 0.765625, "learning_rate": 9.91770368982163e-05, "loss": 0.349, "step": 87220 }, { "epoch": 116.30666666666667, "grad_norm": 0.796875, "learning_rate": 9.917684760985465e-05, "loss": 0.3724, "step": 87230 }, { "epoch": 116.32, "grad_norm": 0.6875, "learning_rate": 9.917665829990722e-05, "loss": 0.3761, "step": 87240 }, { "epoch": 116.33333333333333, "grad_norm": 0.83203125, "learning_rate": 9.917646896837412e-05, "loss": 0.3753, "step": 87250 }, { "epoch": 116.34666666666666, "grad_norm": 0.81640625, "learning_rate": 9.91762796152554e-05, "loss": 0.3661, "step": 87260 }, { "epoch": 116.36, "grad_norm": 0.8359375, "learning_rate": 9.917609024055118e-05, "loss": 0.3663, "step": 87270 }, { "epoch": 116.37333333333333, "grad_norm": 0.69921875, "learning_rate": 9.917590084426152e-05, "loss": 0.3703, "step": 87280 }, { "epoch": 116.38666666666667, "grad_norm": 0.796875, "learning_rate": 9.917571142638651e-05, "loss": 0.3579, "step": 87290 }, { "epoch": 116.4, "grad_norm": 0.7734375, "learning_rate": 9.917552198692623e-05, "loss": 0.3682, "step": 87300 }, { "epoch": 116.41333333333333, "grad_norm": 0.765625, "learning_rate": 9.917533252588076e-05, "loss": 0.3735, "step": 87310 }, { "epoch": 116.42666666666666, "grad_norm": 0.76953125, "learning_rate": 9.917514304325019e-05, "loss": 0.3752, "step": 87320 }, { "epoch": 116.44, "grad_norm": 0.78515625, "learning_rate": 9.91749535390346e-05, "loss": 0.3882, "step": 87330 }, { "epoch": 116.45333333333333, "grad_norm": 0.80078125, "learning_rate": 9.917476401323408e-05, "loss": 0.3752, "step": 87340 }, { "epoch": 116.46666666666667, "grad_norm": 0.72265625, "learning_rate": 9.91745744658487e-05, "loss": 0.3813, "step": 87350 }, { "epoch": 116.48, "grad_norm": 0.80859375, "learning_rate": 9.917438489687855e-05, "loss": 0.3661, "step": 87360 }, { "epoch": 116.49333333333334, "grad_norm": 0.75390625, "learning_rate": 9.917419530632372e-05, "loss": 0.3773, "step": 87370 }, { "epoch": 116.50666666666666, "grad_norm": 0.8203125, "learning_rate": 9.91740056941843e-05, "loss": 0.3762, "step": 87380 }, { "epoch": 116.52, "grad_norm": 0.68359375, "learning_rate": 9.917381606046033e-05, "loss": 0.368, "step": 87390 }, { "epoch": 116.53333333333333, "grad_norm": 0.796875, "learning_rate": 9.917362640515195e-05, "loss": 0.3686, "step": 87400 }, { "epoch": 116.54666666666667, "grad_norm": 0.82421875, "learning_rate": 9.91734367282592e-05, "loss": 0.3696, "step": 87410 }, { "epoch": 116.56, "grad_norm": 0.703125, "learning_rate": 9.917324702978218e-05, "loss": 0.3646, "step": 87420 }, { "epoch": 116.57333333333334, "grad_norm": 0.765625, "learning_rate": 9.917305730972097e-05, "loss": 0.3678, "step": 87430 }, { "epoch": 116.58666666666667, "grad_norm": 0.74609375, "learning_rate": 9.917286756807567e-05, "loss": 0.3596, "step": 87440 }, { "epoch": 116.6, "grad_norm": 0.78125, "learning_rate": 9.917267780484635e-05, "loss": 0.361, "step": 87450 }, { "epoch": 116.61333333333333, "grad_norm": 0.78515625, "learning_rate": 9.917248802003308e-05, "loss": 0.3529, "step": 87460 }, { "epoch": 116.62666666666667, "grad_norm": 0.6484375, "learning_rate": 9.917229821363596e-05, "loss": 0.3573, "step": 87470 }, { "epoch": 116.64, "grad_norm": 0.8046875, "learning_rate": 9.917210838565508e-05, "loss": 0.365, "step": 87480 }, { "epoch": 116.65333333333334, "grad_norm": 0.74609375, "learning_rate": 9.917191853609051e-05, "loss": 0.3751, "step": 87490 }, { "epoch": 116.66666666666667, "grad_norm": 0.7578125, "learning_rate": 9.917172866494233e-05, "loss": 0.3663, "step": 87500 }, { "epoch": 116.68, "grad_norm": 0.796875, "learning_rate": 9.917153877221063e-05, "loss": 0.3547, "step": 87510 }, { "epoch": 116.69333333333333, "grad_norm": 0.7734375, "learning_rate": 9.91713488578955e-05, "loss": 0.3661, "step": 87520 }, { "epoch": 116.70666666666666, "grad_norm": 0.85546875, "learning_rate": 9.9171158921997e-05, "loss": 0.357, "step": 87530 }, { "epoch": 116.72, "grad_norm": 0.83984375, "learning_rate": 9.917096896451526e-05, "loss": 0.3776, "step": 87540 }, { "epoch": 116.73333333333333, "grad_norm": 0.8046875, "learning_rate": 9.917077898545031e-05, "loss": 0.3738, "step": 87550 }, { "epoch": 116.74666666666667, "grad_norm": 0.71484375, "learning_rate": 9.917058898480224e-05, "loss": 0.3758, "step": 87560 }, { "epoch": 116.76, "grad_norm": 0.859375, "learning_rate": 9.917039896257119e-05, "loss": 0.3899, "step": 87570 }, { "epoch": 116.77333333333333, "grad_norm": 0.828125, "learning_rate": 9.917020891875717e-05, "loss": 0.3734, "step": 87580 }, { "epoch": 116.78666666666666, "grad_norm": 0.71875, "learning_rate": 9.917001885336031e-05, "loss": 0.3765, "step": 87590 }, { "epoch": 116.8, "grad_norm": 0.8046875, "learning_rate": 9.916982876638068e-05, "loss": 0.3745, "step": 87600 }, { "epoch": 116.81333333333333, "grad_norm": 0.84765625, "learning_rate": 9.916963865781836e-05, "loss": 0.3486, "step": 87610 }, { "epoch": 116.82666666666667, "grad_norm": 0.80078125, "learning_rate": 9.916944852767344e-05, "loss": 0.3561, "step": 87620 }, { "epoch": 116.84, "grad_norm": 0.8203125, "learning_rate": 9.916925837594602e-05, "loss": 0.3683, "step": 87630 }, { "epoch": 116.85333333333334, "grad_norm": 0.73828125, "learning_rate": 9.916906820263614e-05, "loss": 0.3639, "step": 87640 }, { "epoch": 116.86666666666666, "grad_norm": 0.82421875, "learning_rate": 9.91688780077439e-05, "loss": 0.3694, "step": 87650 }, { "epoch": 116.88, "grad_norm": 0.7421875, "learning_rate": 9.916868779126941e-05, "loss": 0.3499, "step": 87660 }, { "epoch": 116.89333333333333, "grad_norm": 0.75390625, "learning_rate": 9.916849755321274e-05, "loss": 0.3635, "step": 87670 }, { "epoch": 116.90666666666667, "grad_norm": 0.74609375, "learning_rate": 9.916830729357394e-05, "loss": 0.3677, "step": 87680 }, { "epoch": 116.92, "grad_norm": 0.7890625, "learning_rate": 9.916811701235313e-05, "loss": 0.3683, "step": 87690 }, { "epoch": 116.93333333333334, "grad_norm": 0.68359375, "learning_rate": 9.916792670955041e-05, "loss": 0.3649, "step": 87700 }, { "epoch": 116.94666666666667, "grad_norm": 0.78515625, "learning_rate": 9.916773638516581e-05, "loss": 0.3658, "step": 87710 }, { "epoch": 116.96, "grad_norm": 0.66015625, "learning_rate": 9.916754603919946e-05, "loss": 0.3636, "step": 87720 }, { "epoch": 116.97333333333333, "grad_norm": 1.015625, "learning_rate": 9.916735567165141e-05, "loss": 0.3857, "step": 87730 }, { "epoch": 116.98666666666666, "grad_norm": 0.8125, "learning_rate": 9.916716528252177e-05, "loss": 0.356, "step": 87740 }, { "epoch": 117.0, "grad_norm": 0.78515625, "learning_rate": 9.916697487181062e-05, "loss": 0.3574, "step": 87750 }, { "epoch": 117.0, "eval_loss": 0.41848811507225037, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5929, "eval_samples_per_second": 1.51, "eval_steps_per_second": 0.094, "step": 87750 }, { "epoch": 117.01333333333334, "grad_norm": 0.80078125, "learning_rate": 9.916678443951801e-05, "loss": 0.3738, "step": 87760 }, { "epoch": 117.02666666666667, "grad_norm": 0.70703125, "learning_rate": 9.916659398564407e-05, "loss": 0.388, "step": 87770 }, { "epoch": 117.04, "grad_norm": 0.7109375, "learning_rate": 9.916640351018886e-05, "loss": 0.4015, "step": 87780 }, { "epoch": 117.05333333333333, "grad_norm": 0.7734375, "learning_rate": 9.916621301315248e-05, "loss": 0.3847, "step": 87790 }, { "epoch": 117.06666666666666, "grad_norm": 0.875, "learning_rate": 9.916602249453497e-05, "loss": 0.3735, "step": 87800 }, { "epoch": 117.08, "grad_norm": 0.78515625, "learning_rate": 9.916583195433647e-05, "loss": 0.3771, "step": 87810 }, { "epoch": 117.09333333333333, "grad_norm": 0.82421875, "learning_rate": 9.916564139255703e-05, "loss": 0.3788, "step": 87820 }, { "epoch": 117.10666666666667, "grad_norm": 0.828125, "learning_rate": 9.916545080919675e-05, "loss": 0.368, "step": 87830 }, { "epoch": 117.12, "grad_norm": 0.87109375, "learning_rate": 9.916526020425569e-05, "loss": 0.3692, "step": 87840 }, { "epoch": 117.13333333333334, "grad_norm": 0.83203125, "learning_rate": 9.916506957773395e-05, "loss": 0.361, "step": 87850 }, { "epoch": 117.14666666666666, "grad_norm": 0.7421875, "learning_rate": 9.916487892963162e-05, "loss": 0.3803, "step": 87860 }, { "epoch": 117.16, "grad_norm": 0.7109375, "learning_rate": 9.916468825994878e-05, "loss": 0.3762, "step": 87870 }, { "epoch": 117.17333333333333, "grad_norm": 0.875, "learning_rate": 9.91644975686855e-05, "loss": 0.3704, "step": 87880 }, { "epoch": 117.18666666666667, "grad_norm": 0.75, "learning_rate": 9.916430685584188e-05, "loss": 0.3678, "step": 87890 }, { "epoch": 117.2, "grad_norm": 0.80859375, "learning_rate": 9.916411612141798e-05, "loss": 0.3595, "step": 87900 }, { "epoch": 117.21333333333334, "grad_norm": 0.8671875, "learning_rate": 9.916392536541392e-05, "loss": 0.3607, "step": 87910 }, { "epoch": 117.22666666666667, "grad_norm": 0.78515625, "learning_rate": 9.916373458782977e-05, "loss": 0.3713, "step": 87920 }, { "epoch": 117.24, "grad_norm": 0.8046875, "learning_rate": 9.916354378866559e-05, "loss": 0.3582, "step": 87930 }, { "epoch": 117.25333333333333, "grad_norm": 0.83203125, "learning_rate": 9.916335296792149e-05, "loss": 0.3588, "step": 87940 }, { "epoch": 117.26666666666667, "grad_norm": 0.75, "learning_rate": 9.916316212559755e-05, "loss": 0.3613, "step": 87950 }, { "epoch": 117.28, "grad_norm": 0.74609375, "learning_rate": 9.916297126169384e-05, "loss": 0.3896, "step": 87960 }, { "epoch": 117.29333333333334, "grad_norm": 0.73828125, "learning_rate": 9.916278037621047e-05, "loss": 0.3485, "step": 87970 }, { "epoch": 117.30666666666667, "grad_norm": 0.734375, "learning_rate": 9.916258946914751e-05, "loss": 0.3725, "step": 87980 }, { "epoch": 117.32, "grad_norm": 0.71484375, "learning_rate": 9.916239854050502e-05, "loss": 0.3773, "step": 87990 }, { "epoch": 117.33333333333333, "grad_norm": 0.8515625, "learning_rate": 9.916220759028312e-05, "loss": 0.3751, "step": 88000 }, { "epoch": 117.34666666666666, "grad_norm": 0.7890625, "learning_rate": 9.916201661848188e-05, "loss": 0.3656, "step": 88010 }, { "epoch": 117.36, "grad_norm": 0.8125, "learning_rate": 9.916182562510136e-05, "loss": 0.3675, "step": 88020 }, { "epoch": 117.37333333333333, "grad_norm": 0.7265625, "learning_rate": 9.91616346101417e-05, "loss": 0.3699, "step": 88030 }, { "epoch": 117.38666666666667, "grad_norm": 0.90234375, "learning_rate": 9.916144357360293e-05, "loss": 0.3577, "step": 88040 }, { "epoch": 117.4, "grad_norm": 0.8359375, "learning_rate": 9.916125251548516e-05, "loss": 0.3685, "step": 88050 }, { "epoch": 117.41333333333333, "grad_norm": 0.73046875, "learning_rate": 9.916106143578846e-05, "loss": 0.3726, "step": 88060 }, { "epoch": 117.42666666666666, "grad_norm": 0.73828125, "learning_rate": 9.916087033451292e-05, "loss": 0.3751, "step": 88070 }, { "epoch": 117.44, "grad_norm": 0.84765625, "learning_rate": 9.916067921165863e-05, "loss": 0.3877, "step": 88080 }, { "epoch": 117.45333333333333, "grad_norm": 0.8046875, "learning_rate": 9.916048806722569e-05, "loss": 0.374, "step": 88090 }, { "epoch": 117.46666666666667, "grad_norm": 0.7890625, "learning_rate": 9.916029690121414e-05, "loss": 0.3826, "step": 88100 }, { "epoch": 117.48, "grad_norm": 0.78125, "learning_rate": 9.916010571362409e-05, "loss": 0.3661, "step": 88110 }, { "epoch": 117.49333333333334, "grad_norm": 0.7734375, "learning_rate": 9.915991450445563e-05, "loss": 0.3769, "step": 88120 }, { "epoch": 117.50666666666666, "grad_norm": 0.76953125, "learning_rate": 9.915972327370883e-05, "loss": 0.3768, "step": 88130 }, { "epoch": 117.52, "grad_norm": 0.73828125, "learning_rate": 9.915953202138377e-05, "loss": 0.3679, "step": 88140 }, { "epoch": 117.53333333333333, "grad_norm": 0.76171875, "learning_rate": 9.915934074748057e-05, "loss": 0.3684, "step": 88150 }, { "epoch": 117.54666666666667, "grad_norm": 0.8515625, "learning_rate": 9.915914945199927e-05, "loss": 0.3702, "step": 88160 }, { "epoch": 117.56, "grad_norm": 0.76171875, "learning_rate": 9.915895813493996e-05, "loss": 0.3646, "step": 88170 }, { "epoch": 117.57333333333334, "grad_norm": 0.8203125, "learning_rate": 9.915876679630275e-05, "loss": 0.369, "step": 88180 }, { "epoch": 117.58666666666667, "grad_norm": 0.74609375, "learning_rate": 9.915857543608771e-05, "loss": 0.3586, "step": 88190 }, { "epoch": 117.6, "grad_norm": 0.7265625, "learning_rate": 9.915838405429492e-05, "loss": 0.3612, "step": 88200 }, { "epoch": 117.61333333333333, "grad_norm": 0.71484375, "learning_rate": 9.915819265092446e-05, "loss": 0.3531, "step": 88210 }, { "epoch": 117.62666666666667, "grad_norm": 0.6484375, "learning_rate": 9.915800122597642e-05, "loss": 0.3578, "step": 88220 }, { "epoch": 117.64, "grad_norm": 0.78515625, "learning_rate": 9.91578097794509e-05, "loss": 0.3645, "step": 88230 }, { "epoch": 117.65333333333334, "grad_norm": 0.7421875, "learning_rate": 9.915761831134795e-05, "loss": 0.376, "step": 88240 }, { "epoch": 117.66666666666667, "grad_norm": 0.71875, "learning_rate": 9.91574268216677e-05, "loss": 0.366, "step": 88250 }, { "epoch": 117.68, "grad_norm": 0.91796875, "learning_rate": 9.91572353104102e-05, "loss": 0.3546, "step": 88260 }, { "epoch": 117.69333333333333, "grad_norm": 0.71875, "learning_rate": 9.915704377757552e-05, "loss": 0.3655, "step": 88270 }, { "epoch": 117.70666666666666, "grad_norm": 0.84765625, "learning_rate": 9.915685222316378e-05, "loss": 0.3557, "step": 88280 }, { "epoch": 117.72, "grad_norm": 0.85546875, "learning_rate": 9.915666064717505e-05, "loss": 0.3775, "step": 88290 }, { "epoch": 117.73333333333333, "grad_norm": 0.78125, "learning_rate": 9.915646904960941e-05, "loss": 0.3739, "step": 88300 }, { "epoch": 117.74666666666667, "grad_norm": 0.71484375, "learning_rate": 9.915627743046694e-05, "loss": 0.3762, "step": 88310 }, { "epoch": 117.76, "grad_norm": 0.7890625, "learning_rate": 9.915608578974775e-05, "loss": 0.3891, "step": 88320 }, { "epoch": 117.77333333333333, "grad_norm": 0.93359375, "learning_rate": 9.91558941274519e-05, "loss": 0.3738, "step": 88330 }, { "epoch": 117.78666666666666, "grad_norm": 0.7734375, "learning_rate": 9.915570244357948e-05, "loss": 0.376, "step": 88340 }, { "epoch": 117.8, "grad_norm": 0.80859375, "learning_rate": 9.915551073813056e-05, "loss": 0.3743, "step": 88350 }, { "epoch": 117.81333333333333, "grad_norm": 0.93359375, "learning_rate": 9.915531901110526e-05, "loss": 0.3489, "step": 88360 }, { "epoch": 117.82666666666667, "grad_norm": 0.73046875, "learning_rate": 9.915512726250363e-05, "loss": 0.3557, "step": 88370 }, { "epoch": 117.84, "grad_norm": 0.8359375, "learning_rate": 9.915493549232577e-05, "loss": 0.3686, "step": 88380 }, { "epoch": 117.85333333333334, "grad_norm": 0.74609375, "learning_rate": 9.915474370057177e-05, "loss": 0.3636, "step": 88390 }, { "epoch": 117.86666666666666, "grad_norm": 0.82421875, "learning_rate": 9.915455188724168e-05, "loss": 0.3688, "step": 88400 }, { "epoch": 117.88, "grad_norm": 0.75, "learning_rate": 9.915436005233562e-05, "loss": 0.3508, "step": 88410 }, { "epoch": 117.89333333333333, "grad_norm": 0.75, "learning_rate": 9.915416819585368e-05, "loss": 0.3639, "step": 88420 }, { "epoch": 117.90666666666667, "grad_norm": 0.75, "learning_rate": 9.915397631779591e-05, "loss": 0.3677, "step": 88430 }, { "epoch": 117.92, "grad_norm": 0.76171875, "learning_rate": 9.915378441816241e-05, "loss": 0.3699, "step": 88440 }, { "epoch": 117.93333333333334, "grad_norm": 0.70703125, "learning_rate": 9.915359249695328e-05, "loss": 0.3647, "step": 88450 }, { "epoch": 117.94666666666667, "grad_norm": 0.7890625, "learning_rate": 9.915340055416859e-05, "loss": 0.365, "step": 88460 }, { "epoch": 117.96, "grad_norm": 0.70703125, "learning_rate": 9.915320858980841e-05, "loss": 0.3632, "step": 88470 }, { "epoch": 117.97333333333333, "grad_norm": 0.97265625, "learning_rate": 9.915301660387286e-05, "loss": 0.3853, "step": 88480 }, { "epoch": 117.98666666666666, "grad_norm": 0.75, "learning_rate": 9.915282459636198e-05, "loss": 0.356, "step": 88490 }, { "epoch": 118.0, "grad_norm": 0.765625, "learning_rate": 9.915263256727589e-05, "loss": 0.356, "step": 88500 }, { "epoch": 118.0, "eval_loss": 0.4188680052757263, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.373, "eval_samples_per_second": 1.407, "eval_steps_per_second": 0.088, "step": 88500 }, { "epoch": 118.01333333333334, "grad_norm": 0.828125, "learning_rate": 9.915244051661466e-05, "loss": 0.3729, "step": 88510 }, { "epoch": 118.02666666666667, "grad_norm": 0.73046875, "learning_rate": 9.915224844437838e-05, "loss": 0.3879, "step": 88520 }, { "epoch": 118.04, "grad_norm": 0.73046875, "learning_rate": 9.915205635056712e-05, "loss": 0.4008, "step": 88530 }, { "epoch": 118.05333333333333, "grad_norm": 0.73046875, "learning_rate": 9.915186423518098e-05, "loss": 0.3841, "step": 88540 }, { "epoch": 118.06666666666666, "grad_norm": 0.859375, "learning_rate": 9.915167209822005e-05, "loss": 0.3728, "step": 88550 }, { "epoch": 118.08, "grad_norm": 0.8125, "learning_rate": 9.915147993968439e-05, "loss": 0.3766, "step": 88560 }, { "epoch": 118.09333333333333, "grad_norm": 0.80078125, "learning_rate": 9.915128775957409e-05, "loss": 0.3784, "step": 88570 }, { "epoch": 118.10666666666667, "grad_norm": 0.75, "learning_rate": 9.915109555788927e-05, "loss": 0.3674, "step": 88580 }, { "epoch": 118.12, "grad_norm": 0.79296875, "learning_rate": 9.915090333462996e-05, "loss": 0.3686, "step": 88590 }, { "epoch": 118.13333333333334, "grad_norm": 0.75, "learning_rate": 9.915071108979628e-05, "loss": 0.3617, "step": 88600 }, { "epoch": 118.14666666666666, "grad_norm": 0.75390625, "learning_rate": 9.91505188233883e-05, "loss": 0.3816, "step": 88610 }, { "epoch": 118.16, "grad_norm": 0.71484375, "learning_rate": 9.915032653540611e-05, "loss": 0.3759, "step": 88620 }, { "epoch": 118.17333333333333, "grad_norm": 0.86328125, "learning_rate": 9.91501342258498e-05, "loss": 0.3697, "step": 88630 }, { "epoch": 118.18666666666667, "grad_norm": 0.76171875, "learning_rate": 9.914994189471944e-05, "loss": 0.3675, "step": 88640 }, { "epoch": 118.2, "grad_norm": 0.76171875, "learning_rate": 9.914974954201513e-05, "loss": 0.3597, "step": 88650 }, { "epoch": 118.21333333333334, "grad_norm": 0.77734375, "learning_rate": 9.914955716773695e-05, "loss": 0.3607, "step": 88660 }, { "epoch": 118.22666666666667, "grad_norm": 0.81640625, "learning_rate": 9.914936477188497e-05, "loss": 0.3712, "step": 88670 }, { "epoch": 118.24, "grad_norm": 0.78125, "learning_rate": 9.914917235445931e-05, "loss": 0.3575, "step": 88680 }, { "epoch": 118.25333333333333, "grad_norm": 0.80078125, "learning_rate": 9.914897991546001e-05, "loss": 0.359, "step": 88690 }, { "epoch": 118.26666666666667, "grad_norm": 0.734375, "learning_rate": 9.914878745488718e-05, "loss": 0.3613, "step": 88700 }, { "epoch": 118.28, "grad_norm": 0.84765625, "learning_rate": 9.91485949727409e-05, "loss": 0.3894, "step": 88710 }, { "epoch": 118.29333333333334, "grad_norm": 0.796875, "learning_rate": 9.914840246902124e-05, "loss": 0.3485, "step": 88720 }, { "epoch": 118.30666666666667, "grad_norm": 0.8125, "learning_rate": 9.914820994372832e-05, "loss": 0.3722, "step": 88730 }, { "epoch": 118.32, "grad_norm": 0.67578125, "learning_rate": 9.91480173968622e-05, "loss": 0.3765, "step": 88740 }, { "epoch": 118.33333333333333, "grad_norm": 0.84765625, "learning_rate": 9.914782482842295e-05, "loss": 0.3752, "step": 88750 }, { "epoch": 118.34666666666666, "grad_norm": 0.80078125, "learning_rate": 9.914763223841068e-05, "loss": 0.3654, "step": 88760 }, { "epoch": 118.36, "grad_norm": 0.80859375, "learning_rate": 9.914743962682548e-05, "loss": 0.366, "step": 88770 }, { "epoch": 118.37333333333333, "grad_norm": 0.6875, "learning_rate": 9.914724699366741e-05, "loss": 0.3693, "step": 88780 }, { "epoch": 118.38666666666667, "grad_norm": 0.859375, "learning_rate": 9.914705433893657e-05, "loss": 0.3571, "step": 88790 }, { "epoch": 118.4, "grad_norm": 0.828125, "learning_rate": 9.914686166263303e-05, "loss": 0.3671, "step": 88800 }, { "epoch": 118.41333333333333, "grad_norm": 0.71484375, "learning_rate": 9.91466689647569e-05, "loss": 0.3736, "step": 88810 }, { "epoch": 118.42666666666666, "grad_norm": 0.78125, "learning_rate": 9.914647624530823e-05, "loss": 0.3752, "step": 88820 }, { "epoch": 118.44, "grad_norm": 0.875, "learning_rate": 9.914628350428715e-05, "loss": 0.387, "step": 88830 }, { "epoch": 118.45333333333333, "grad_norm": 0.83984375, "learning_rate": 9.91460907416937e-05, "loss": 0.3745, "step": 88840 }, { "epoch": 118.46666666666667, "grad_norm": 0.78515625, "learning_rate": 9.914589795752798e-05, "loss": 0.3818, "step": 88850 }, { "epoch": 118.48, "grad_norm": 0.7734375, "learning_rate": 9.91457051517901e-05, "loss": 0.3647, "step": 88860 }, { "epoch": 118.49333333333334, "grad_norm": 0.78125, "learning_rate": 9.91455123244801e-05, "loss": 0.3769, "step": 88870 }, { "epoch": 118.50666666666666, "grad_norm": 0.76953125, "learning_rate": 9.914531947559809e-05, "loss": 0.3759, "step": 88880 }, { "epoch": 118.52, "grad_norm": 0.74609375, "learning_rate": 9.914512660514416e-05, "loss": 0.3673, "step": 88890 }, { "epoch": 118.53333333333333, "grad_norm": 0.78125, "learning_rate": 9.914493371311838e-05, "loss": 0.3681, "step": 88900 }, { "epoch": 118.54666666666667, "grad_norm": 0.83984375, "learning_rate": 9.914474079952085e-05, "loss": 0.3677, "step": 88910 }, { "epoch": 118.56, "grad_norm": 0.73046875, "learning_rate": 9.914454786435163e-05, "loss": 0.3642, "step": 88920 }, { "epoch": 118.57333333333334, "grad_norm": 0.8046875, "learning_rate": 9.914435490761083e-05, "loss": 0.3696, "step": 88930 }, { "epoch": 118.58666666666667, "grad_norm": 0.77734375, "learning_rate": 9.914416192929851e-05, "loss": 0.3585, "step": 88940 }, { "epoch": 118.6, "grad_norm": 0.78125, "learning_rate": 9.914396892941479e-05, "loss": 0.3613, "step": 88950 }, { "epoch": 118.61333333333333, "grad_norm": 0.68359375, "learning_rate": 9.914377590795973e-05, "loss": 0.3529, "step": 88960 }, { "epoch": 118.62666666666667, "grad_norm": 0.68359375, "learning_rate": 9.914358286493342e-05, "loss": 0.3571, "step": 88970 }, { "epoch": 118.64, "grad_norm": 0.84375, "learning_rate": 9.914338980033595e-05, "loss": 0.3653, "step": 88980 }, { "epoch": 118.65333333333334, "grad_norm": 0.76171875, "learning_rate": 9.914319671416739e-05, "loss": 0.3748, "step": 88990 }, { "epoch": 118.66666666666667, "grad_norm": 0.69921875, "learning_rate": 9.914300360642783e-05, "loss": 0.3658, "step": 89000 }, { "epoch": 118.68, "grad_norm": 0.796875, "learning_rate": 9.914281047711737e-05, "loss": 0.3538, "step": 89010 }, { "epoch": 118.69333333333333, "grad_norm": 0.671875, "learning_rate": 9.914261732623608e-05, "loss": 0.3661, "step": 89020 }, { "epoch": 118.70666666666666, "grad_norm": 0.9375, "learning_rate": 9.914242415378403e-05, "loss": 0.3559, "step": 89030 }, { "epoch": 118.72, "grad_norm": 0.81640625, "learning_rate": 9.914223095976133e-05, "loss": 0.3773, "step": 89040 }, { "epoch": 118.73333333333333, "grad_norm": 0.85546875, "learning_rate": 9.914203774416808e-05, "loss": 0.3735, "step": 89050 }, { "epoch": 118.74666666666667, "grad_norm": 0.765625, "learning_rate": 9.914184450700432e-05, "loss": 0.3761, "step": 89060 }, { "epoch": 118.76, "grad_norm": 0.81640625, "learning_rate": 9.914165124827017e-05, "loss": 0.389, "step": 89070 }, { "epoch": 118.77333333333333, "grad_norm": 0.87109375, "learning_rate": 9.914145796796569e-05, "loss": 0.3737, "step": 89080 }, { "epoch": 118.78666666666666, "grad_norm": 0.72265625, "learning_rate": 9.914126466609098e-05, "loss": 0.3754, "step": 89090 }, { "epoch": 118.8, "grad_norm": 0.7890625, "learning_rate": 9.914107134264612e-05, "loss": 0.3741, "step": 89100 }, { "epoch": 118.81333333333333, "grad_norm": 0.90234375, "learning_rate": 9.914087799763121e-05, "loss": 0.3479, "step": 89110 }, { "epoch": 118.82666666666667, "grad_norm": 0.76171875, "learning_rate": 9.914068463104632e-05, "loss": 0.3556, "step": 89120 }, { "epoch": 118.84, "grad_norm": 0.84375, "learning_rate": 9.914049124289151e-05, "loss": 0.368, "step": 89130 }, { "epoch": 118.85333333333334, "grad_norm": 0.7421875, "learning_rate": 9.91402978331669e-05, "loss": 0.3636, "step": 89140 }, { "epoch": 118.86666666666666, "grad_norm": 0.81640625, "learning_rate": 9.914010440187258e-05, "loss": 0.37, "step": 89150 }, { "epoch": 118.88, "grad_norm": 0.77734375, "learning_rate": 9.913991094900862e-05, "loss": 0.35, "step": 89160 }, { "epoch": 118.89333333333333, "grad_norm": 0.7890625, "learning_rate": 9.913971747457509e-05, "loss": 0.3624, "step": 89170 }, { "epoch": 118.90666666666667, "grad_norm": 0.80078125, "learning_rate": 9.913952397857211e-05, "loss": 0.3676, "step": 89180 }, { "epoch": 118.92, "grad_norm": 0.8125, "learning_rate": 9.913933046099974e-05, "loss": 0.3681, "step": 89190 }, { "epoch": 118.93333333333334, "grad_norm": 0.66015625, "learning_rate": 9.913913692185806e-05, "loss": 0.3646, "step": 89200 }, { "epoch": 118.94666666666667, "grad_norm": 0.78125, "learning_rate": 9.913894336114717e-05, "loss": 0.364, "step": 89210 }, { "epoch": 118.96, "grad_norm": 0.70703125, "learning_rate": 9.913874977886715e-05, "loss": 0.3639, "step": 89220 }, { "epoch": 118.97333333333333, "grad_norm": 1.015625, "learning_rate": 9.91385561750181e-05, "loss": 0.3854, "step": 89230 }, { "epoch": 118.98666666666666, "grad_norm": 0.83203125, "learning_rate": 9.913836254960007e-05, "loss": 0.3558, "step": 89240 }, { "epoch": 119.0, "grad_norm": 0.76953125, "learning_rate": 9.913816890261318e-05, "loss": 0.3568, "step": 89250 }, { "epoch": 119.0, "eval_loss": 0.41867244243621826, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4925, "eval_samples_per_second": 1.392, "eval_steps_per_second": 0.087, "step": 89250 }, { "epoch": 119.01333333333334, "grad_norm": 0.8828125, "learning_rate": 9.91379752340575e-05, "loss": 0.3718, "step": 89260 }, { "epoch": 119.02666666666667, "grad_norm": 0.72265625, "learning_rate": 9.91377815439331e-05, "loss": 0.3879, "step": 89270 }, { "epoch": 119.04, "grad_norm": 0.7109375, "learning_rate": 9.91375878322401e-05, "loss": 0.4011, "step": 89280 }, { "epoch": 119.05333333333333, "grad_norm": 0.73046875, "learning_rate": 9.913739409897856e-05, "loss": 0.3845, "step": 89290 }, { "epoch": 119.06666666666666, "grad_norm": 0.87109375, "learning_rate": 9.913720034414855e-05, "loss": 0.3724, "step": 89300 }, { "epoch": 119.08, "grad_norm": 0.79296875, "learning_rate": 9.91370065677502e-05, "loss": 0.3758, "step": 89310 }, { "epoch": 119.09333333333333, "grad_norm": 0.8359375, "learning_rate": 9.913681276978356e-05, "loss": 0.3781, "step": 89320 }, { "epoch": 119.10666666666667, "grad_norm": 0.734375, "learning_rate": 9.913661895024873e-05, "loss": 0.368, "step": 89330 }, { "epoch": 119.12, "grad_norm": 0.84375, "learning_rate": 9.913642510914578e-05, "loss": 0.3688, "step": 89340 }, { "epoch": 119.13333333333334, "grad_norm": 0.7890625, "learning_rate": 9.913623124647482e-05, "loss": 0.3617, "step": 89350 }, { "epoch": 119.14666666666666, "grad_norm": 0.7734375, "learning_rate": 9.913603736223591e-05, "loss": 0.3805, "step": 89360 }, { "epoch": 119.16, "grad_norm": 0.66015625, "learning_rate": 9.913584345642916e-05, "loss": 0.3754, "step": 89370 }, { "epoch": 119.17333333333333, "grad_norm": 0.75390625, "learning_rate": 9.913564952905462e-05, "loss": 0.371, "step": 89380 }, { "epoch": 119.18666666666667, "grad_norm": 0.74609375, "learning_rate": 9.913545558011242e-05, "loss": 0.3673, "step": 89390 }, { "epoch": 119.2, "grad_norm": 0.7734375, "learning_rate": 9.913526160960261e-05, "loss": 0.3596, "step": 89400 }, { "epoch": 119.21333333333334, "grad_norm": 0.78125, "learning_rate": 9.913506761752529e-05, "loss": 0.3593, "step": 89410 }, { "epoch": 119.22666666666667, "grad_norm": 0.796875, "learning_rate": 9.913487360388054e-05, "loss": 0.3709, "step": 89420 }, { "epoch": 119.24, "grad_norm": 0.78515625, "learning_rate": 9.913467956866844e-05, "loss": 0.357, "step": 89430 }, { "epoch": 119.25333333333333, "grad_norm": 0.85546875, "learning_rate": 9.913448551188909e-05, "loss": 0.3585, "step": 89440 }, { "epoch": 119.26666666666667, "grad_norm": 0.73046875, "learning_rate": 9.913429143354256e-05, "loss": 0.362, "step": 89450 }, { "epoch": 119.28, "grad_norm": 0.80078125, "learning_rate": 9.913409733362895e-05, "loss": 0.3894, "step": 89460 }, { "epoch": 119.29333333333334, "grad_norm": 0.7890625, "learning_rate": 9.913390321214834e-05, "loss": 0.3484, "step": 89470 }, { "epoch": 119.30666666666667, "grad_norm": 0.78515625, "learning_rate": 9.91337090691008e-05, "loss": 0.373, "step": 89480 }, { "epoch": 119.32, "grad_norm": 0.75390625, "learning_rate": 9.913351490448644e-05, "loss": 0.3767, "step": 89490 }, { "epoch": 119.33333333333333, "grad_norm": 0.85546875, "learning_rate": 9.913332071830532e-05, "loss": 0.3751, "step": 89500 }, { "epoch": 119.34666666666666, "grad_norm": 0.8046875, "learning_rate": 9.913312651055755e-05, "loss": 0.3649, "step": 89510 }, { "epoch": 119.36, "grad_norm": 0.81640625, "learning_rate": 9.913293228124321e-05, "loss": 0.3671, "step": 89520 }, { "epoch": 119.37333333333333, "grad_norm": 0.75390625, "learning_rate": 9.913273803036235e-05, "loss": 0.3701, "step": 89530 }, { "epoch": 119.38666666666667, "grad_norm": 0.93359375, "learning_rate": 9.913254375791512e-05, "loss": 0.3578, "step": 89540 }, { "epoch": 119.4, "grad_norm": 0.88671875, "learning_rate": 9.913234946390155e-05, "loss": 0.3675, "step": 89550 }, { "epoch": 119.41333333333333, "grad_norm": 0.71484375, "learning_rate": 9.913215514832175e-05, "loss": 0.3731, "step": 89560 }, { "epoch": 119.42666666666666, "grad_norm": 0.7890625, "learning_rate": 9.913196081117579e-05, "loss": 0.3746, "step": 89570 }, { "epoch": 119.44, "grad_norm": 0.76953125, "learning_rate": 9.913176645246378e-05, "loss": 0.387, "step": 89580 }, { "epoch": 119.45333333333333, "grad_norm": 0.8125, "learning_rate": 9.91315720721858e-05, "loss": 0.374, "step": 89590 }, { "epoch": 119.46666666666667, "grad_norm": 0.78515625, "learning_rate": 9.913137767034191e-05, "loss": 0.3818, "step": 89600 }, { "epoch": 119.48, "grad_norm": 0.8046875, "learning_rate": 9.91311832469322e-05, "loss": 0.365, "step": 89610 }, { "epoch": 119.49333333333334, "grad_norm": 0.734375, "learning_rate": 9.913098880195679e-05, "loss": 0.3759, "step": 89620 }, { "epoch": 119.50666666666666, "grad_norm": 0.76171875, "learning_rate": 9.913079433541572e-05, "loss": 0.3755, "step": 89630 }, { "epoch": 119.52, "grad_norm": 0.69140625, "learning_rate": 9.913059984730911e-05, "loss": 0.3671, "step": 89640 }, { "epoch": 119.53333333333333, "grad_norm": 0.7265625, "learning_rate": 9.913040533763704e-05, "loss": 0.3674, "step": 89650 }, { "epoch": 119.54666666666667, "grad_norm": 0.8984375, "learning_rate": 9.913021080639957e-05, "loss": 0.3684, "step": 89660 }, { "epoch": 119.56, "grad_norm": 0.69140625, "learning_rate": 9.913001625359681e-05, "loss": 0.3632, "step": 89670 }, { "epoch": 119.57333333333334, "grad_norm": 0.84765625, "learning_rate": 9.912982167922884e-05, "loss": 0.3682, "step": 89680 }, { "epoch": 119.58666666666667, "grad_norm": 0.71484375, "learning_rate": 9.912962708329575e-05, "loss": 0.3588, "step": 89690 }, { "epoch": 119.6, "grad_norm": 0.7421875, "learning_rate": 9.912943246579762e-05, "loss": 0.3598, "step": 89700 }, { "epoch": 119.61333333333333, "grad_norm": 0.69921875, "learning_rate": 9.912923782673454e-05, "loss": 0.3518, "step": 89710 }, { "epoch": 119.62666666666667, "grad_norm": 0.71875, "learning_rate": 9.912904316610657e-05, "loss": 0.3567, "step": 89720 }, { "epoch": 119.64, "grad_norm": 0.78515625, "learning_rate": 9.912884848391383e-05, "loss": 0.364, "step": 89730 }, { "epoch": 119.65333333333334, "grad_norm": 0.8125, "learning_rate": 9.912865378015639e-05, "loss": 0.3743, "step": 89740 }, { "epoch": 119.66666666666667, "grad_norm": 0.73046875, "learning_rate": 9.912845905483434e-05, "loss": 0.3657, "step": 89750 }, { "epoch": 119.68, "grad_norm": 0.82421875, "learning_rate": 9.912826430794775e-05, "loss": 0.3556, "step": 89760 }, { "epoch": 119.69333333333333, "grad_norm": 0.73046875, "learning_rate": 9.912806953949672e-05, "loss": 0.3664, "step": 89770 }, { "epoch": 119.70666666666666, "grad_norm": 0.84765625, "learning_rate": 9.912787474948135e-05, "loss": 0.3552, "step": 89780 }, { "epoch": 119.72, "grad_norm": 0.76171875, "learning_rate": 9.912767993790169e-05, "loss": 0.3772, "step": 89790 }, { "epoch": 119.73333333333333, "grad_norm": 0.8125, "learning_rate": 9.912748510475787e-05, "loss": 0.3731, "step": 89800 }, { "epoch": 119.74666666666667, "grad_norm": 0.80078125, "learning_rate": 9.912729025004992e-05, "loss": 0.3761, "step": 89810 }, { "epoch": 119.76, "grad_norm": 0.8203125, "learning_rate": 9.912709537377798e-05, "loss": 0.3895, "step": 89820 }, { "epoch": 119.77333333333333, "grad_norm": 0.84375, "learning_rate": 9.912690047594209e-05, "loss": 0.3739, "step": 89830 }, { "epoch": 119.78666666666666, "grad_norm": 0.70703125, "learning_rate": 9.912670555654238e-05, "loss": 0.3757, "step": 89840 }, { "epoch": 119.8, "grad_norm": 0.82421875, "learning_rate": 9.91265106155789e-05, "loss": 0.3744, "step": 89850 }, { "epoch": 119.81333333333333, "grad_norm": 0.8984375, "learning_rate": 9.912631565305172e-05, "loss": 0.3478, "step": 89860 }, { "epoch": 119.82666666666667, "grad_norm": 0.8828125, "learning_rate": 9.912612066896099e-05, "loss": 0.3558, "step": 89870 }, { "epoch": 119.84, "grad_norm": 0.875, "learning_rate": 9.912592566330674e-05, "loss": 0.3677, "step": 89880 }, { "epoch": 119.85333333333334, "grad_norm": 0.85546875, "learning_rate": 9.91257306360891e-05, "loss": 0.3632, "step": 89890 }, { "epoch": 119.86666666666666, "grad_norm": 0.84375, "learning_rate": 9.91255355873081e-05, "loss": 0.3679, "step": 89900 }, { "epoch": 119.88, "grad_norm": 0.76171875, "learning_rate": 9.912534051696387e-05, "loss": 0.3502, "step": 89910 }, { "epoch": 119.89333333333333, "grad_norm": 0.76953125, "learning_rate": 9.912514542505649e-05, "loss": 0.3625, "step": 89920 }, { "epoch": 119.90666666666667, "grad_norm": 0.78515625, "learning_rate": 9.912495031158602e-05, "loss": 0.3675, "step": 89930 }, { "epoch": 119.92, "grad_norm": 0.82421875, "learning_rate": 9.912475517655258e-05, "loss": 0.3689, "step": 89940 }, { "epoch": 119.93333333333334, "grad_norm": 0.7109375, "learning_rate": 9.912456001995623e-05, "loss": 0.3646, "step": 89950 }, { "epoch": 119.94666666666667, "grad_norm": 0.8046875, "learning_rate": 9.912436484179705e-05, "loss": 0.365, "step": 89960 }, { "epoch": 119.96, "grad_norm": 0.70703125, "learning_rate": 9.912416964207516e-05, "loss": 0.3638, "step": 89970 }, { "epoch": 119.97333333333333, "grad_norm": 1.0625, "learning_rate": 9.912397442079062e-05, "loss": 0.3855, "step": 89980 }, { "epoch": 119.98666666666666, "grad_norm": 0.79296875, "learning_rate": 9.912377917794351e-05, "loss": 0.3559, "step": 89990 }, { "epoch": 120.0, "grad_norm": 0.765625, "learning_rate": 9.912358391353393e-05, "loss": 0.3561, "step": 90000 }, { "epoch": 120.0, "eval_loss": 0.4174535870552063, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.0438, "eval_samples_per_second": 1.328, "eval_steps_per_second": 0.083, "step": 90000 }, { "epoch": 120.01333333333334, "grad_norm": 0.84765625, "learning_rate": 9.912338862756197e-05, "loss": 0.3734, "step": 90010 }, { "epoch": 120.02666666666667, "grad_norm": 0.76953125, "learning_rate": 9.91231933200277e-05, "loss": 0.388, "step": 90020 }, { "epoch": 120.04, "grad_norm": 0.83984375, "learning_rate": 9.912299799093122e-05, "loss": 0.4013, "step": 90030 }, { "epoch": 120.05333333333333, "grad_norm": 0.7890625, "learning_rate": 9.912280264027261e-05, "loss": 0.384, "step": 90040 }, { "epoch": 120.06666666666666, "grad_norm": 0.953125, "learning_rate": 9.912260726805196e-05, "loss": 0.3731, "step": 90050 }, { "epoch": 120.08, "grad_norm": 0.77734375, "learning_rate": 9.912241187426934e-05, "loss": 0.3759, "step": 90060 }, { "epoch": 120.09333333333333, "grad_norm": 0.80859375, "learning_rate": 9.912221645892486e-05, "loss": 0.3786, "step": 90070 }, { "epoch": 120.10666666666667, "grad_norm": 0.7109375, "learning_rate": 9.912202102201858e-05, "loss": 0.3674, "step": 90080 }, { "epoch": 120.12, "grad_norm": 0.7734375, "learning_rate": 9.912182556355059e-05, "loss": 0.3691, "step": 90090 }, { "epoch": 120.13333333333334, "grad_norm": 0.79296875, "learning_rate": 9.9121630083521e-05, "loss": 0.3612, "step": 90100 }, { "epoch": 120.14666666666666, "grad_norm": 0.8203125, "learning_rate": 9.912143458192988e-05, "loss": 0.3804, "step": 90110 }, { "epoch": 120.16, "grad_norm": 0.71484375, "learning_rate": 9.91212390587773e-05, "loss": 0.3753, "step": 90120 }, { "epoch": 120.17333333333333, "grad_norm": 0.8125, "learning_rate": 9.912104351406338e-05, "loss": 0.3704, "step": 90130 }, { "epoch": 120.18666666666667, "grad_norm": 0.79296875, "learning_rate": 9.912084794778817e-05, "loss": 0.367, "step": 90140 }, { "epoch": 120.2, "grad_norm": 0.74609375, "learning_rate": 9.912065235995181e-05, "loss": 0.3595, "step": 90150 }, { "epoch": 120.21333333333334, "grad_norm": 0.78125, "learning_rate": 9.91204567505543e-05, "loss": 0.359, "step": 90160 }, { "epoch": 120.22666666666667, "grad_norm": 0.80078125, "learning_rate": 9.912026111959581e-05, "loss": 0.3712, "step": 90170 }, { "epoch": 120.24, "grad_norm": 0.78515625, "learning_rate": 9.912006546707637e-05, "loss": 0.3577, "step": 90180 }, { "epoch": 120.25333333333333, "grad_norm": 0.796875, "learning_rate": 9.91198697929961e-05, "loss": 0.3581, "step": 90190 }, { "epoch": 120.26666666666667, "grad_norm": 0.74609375, "learning_rate": 9.911967409735508e-05, "loss": 0.3615, "step": 90200 }, { "epoch": 120.28, "grad_norm": 0.77734375, "learning_rate": 9.911947838015336e-05, "loss": 0.39, "step": 90210 }, { "epoch": 120.29333333333334, "grad_norm": 0.74609375, "learning_rate": 9.911928264139107e-05, "loss": 0.3485, "step": 90220 }, { "epoch": 120.30666666666667, "grad_norm": 0.74609375, "learning_rate": 9.91190868810683e-05, "loss": 0.3723, "step": 90230 }, { "epoch": 120.32, "grad_norm": 0.71875, "learning_rate": 9.911889109918509e-05, "loss": 0.3762, "step": 90240 }, { "epoch": 120.33333333333333, "grad_norm": 0.8671875, "learning_rate": 9.911869529574156e-05, "loss": 0.3744, "step": 90250 }, { "epoch": 120.34666666666666, "grad_norm": 0.80859375, "learning_rate": 9.91184994707378e-05, "loss": 0.3653, "step": 90260 }, { "epoch": 120.36, "grad_norm": 0.8203125, "learning_rate": 9.911830362417387e-05, "loss": 0.3675, "step": 90270 }, { "epoch": 120.37333333333333, "grad_norm": 0.69140625, "learning_rate": 9.911810775604986e-05, "loss": 0.3691, "step": 90280 }, { "epoch": 120.38666666666667, "grad_norm": 0.8828125, "learning_rate": 9.911791186636588e-05, "loss": 0.3578, "step": 90290 }, { "epoch": 120.4, "grad_norm": 0.80859375, "learning_rate": 9.9117715955122e-05, "loss": 0.3671, "step": 90300 }, { "epoch": 120.41333333333333, "grad_norm": 0.7421875, "learning_rate": 9.911752002231832e-05, "loss": 0.3738, "step": 90310 }, { "epoch": 120.42666666666666, "grad_norm": 0.734375, "learning_rate": 9.91173240679549e-05, "loss": 0.3755, "step": 90320 }, { "epoch": 120.44, "grad_norm": 0.74609375, "learning_rate": 9.911712809203185e-05, "loss": 0.3869, "step": 90330 }, { "epoch": 120.45333333333333, "grad_norm": 0.81640625, "learning_rate": 9.911693209454923e-05, "loss": 0.3743, "step": 90340 }, { "epoch": 120.46666666666667, "grad_norm": 0.76953125, "learning_rate": 9.911673607550715e-05, "loss": 0.3811, "step": 90350 }, { "epoch": 120.48, "grad_norm": 0.76953125, "learning_rate": 9.911654003490569e-05, "loss": 0.3642, "step": 90360 }, { "epoch": 120.49333333333334, "grad_norm": 0.77734375, "learning_rate": 9.911634397274495e-05, "loss": 0.3757, "step": 90370 }, { "epoch": 120.50666666666666, "grad_norm": 0.76953125, "learning_rate": 9.911614788902496e-05, "loss": 0.3763, "step": 90380 }, { "epoch": 120.52, "grad_norm": 0.6640625, "learning_rate": 9.911595178374588e-05, "loss": 0.3657, "step": 90390 }, { "epoch": 120.53333333333333, "grad_norm": 0.7421875, "learning_rate": 9.911575565690776e-05, "loss": 0.3677, "step": 90400 }, { "epoch": 120.54666666666667, "grad_norm": 0.90625, "learning_rate": 9.911555950851068e-05, "loss": 0.3684, "step": 90410 }, { "epoch": 120.56, "grad_norm": 0.71875, "learning_rate": 9.911536333855473e-05, "loss": 0.3637, "step": 90420 }, { "epoch": 120.57333333333334, "grad_norm": 0.81640625, "learning_rate": 9.911516714704001e-05, "loss": 0.3679, "step": 90430 }, { "epoch": 120.58666666666667, "grad_norm": 0.7578125, "learning_rate": 9.91149709339666e-05, "loss": 0.359, "step": 90440 }, { "epoch": 120.6, "grad_norm": 0.71875, "learning_rate": 9.911477469933456e-05, "loss": 0.3604, "step": 90450 }, { "epoch": 120.61333333333333, "grad_norm": 0.70703125, "learning_rate": 9.911457844314402e-05, "loss": 0.3519, "step": 90460 }, { "epoch": 120.62666666666667, "grad_norm": 0.67578125, "learning_rate": 9.911438216539505e-05, "loss": 0.3568, "step": 90470 }, { "epoch": 120.64, "grad_norm": 0.81640625, "learning_rate": 9.911418586608771e-05, "loss": 0.3637, "step": 90480 }, { "epoch": 120.65333333333334, "grad_norm": 0.69140625, "learning_rate": 9.911398954522213e-05, "loss": 0.3744, "step": 90490 }, { "epoch": 120.66666666666667, "grad_norm": 0.6796875, "learning_rate": 9.911379320279836e-05, "loss": 0.3649, "step": 90500 }, { "epoch": 120.68, "grad_norm": 0.8515625, "learning_rate": 9.911359683881651e-05, "loss": 0.3548, "step": 90510 }, { "epoch": 120.69333333333333, "grad_norm": 0.72265625, "learning_rate": 9.911340045327664e-05, "loss": 0.3658, "step": 90520 }, { "epoch": 120.70666666666666, "grad_norm": 0.8671875, "learning_rate": 9.911320404617888e-05, "loss": 0.3559, "step": 90530 }, { "epoch": 120.72, "grad_norm": 0.9296875, "learning_rate": 9.911300761752326e-05, "loss": 0.3775, "step": 90540 }, { "epoch": 120.73333333333333, "grad_norm": 0.8828125, "learning_rate": 9.91128111673099e-05, "loss": 0.3722, "step": 90550 }, { "epoch": 120.74666666666667, "grad_norm": 0.87109375, "learning_rate": 9.911261469553889e-05, "loss": 0.376, "step": 90560 }, { "epoch": 120.76, "grad_norm": 0.82421875, "learning_rate": 9.911241820221031e-05, "loss": 0.3884, "step": 90570 }, { "epoch": 120.77333333333333, "grad_norm": 0.80859375, "learning_rate": 9.911222168732424e-05, "loss": 0.3729, "step": 90580 }, { "epoch": 120.78666666666666, "grad_norm": 0.7421875, "learning_rate": 9.911202515088076e-05, "loss": 0.3753, "step": 90590 }, { "epoch": 120.8, "grad_norm": 0.83984375, "learning_rate": 9.911182859287997e-05, "loss": 0.3743, "step": 90600 }, { "epoch": 120.81333333333333, "grad_norm": 0.859375, "learning_rate": 9.911163201332195e-05, "loss": 0.3478, "step": 90610 }, { "epoch": 120.82666666666667, "grad_norm": 0.7421875, "learning_rate": 9.91114354122068e-05, "loss": 0.3546, "step": 90620 }, { "epoch": 120.84, "grad_norm": 0.875, "learning_rate": 9.91112387895346e-05, "loss": 0.3681, "step": 90630 }, { "epoch": 120.85333333333334, "grad_norm": 0.76171875, "learning_rate": 9.91110421453054e-05, "loss": 0.3627, "step": 90640 }, { "epoch": 120.86666666666666, "grad_norm": 0.85546875, "learning_rate": 9.911084547951934e-05, "loss": 0.3687, "step": 90650 }, { "epoch": 120.88, "grad_norm": 0.75390625, "learning_rate": 9.911064879217648e-05, "loss": 0.3501, "step": 90660 }, { "epoch": 120.89333333333333, "grad_norm": 0.7890625, "learning_rate": 9.911045208327692e-05, "loss": 0.3632, "step": 90670 }, { "epoch": 120.90666666666667, "grad_norm": 0.75, "learning_rate": 9.911025535282072e-05, "loss": 0.3662, "step": 90680 }, { "epoch": 120.92, "grad_norm": 0.7734375, "learning_rate": 9.9110058600808e-05, "loss": 0.3678, "step": 90690 }, { "epoch": 120.93333333333334, "grad_norm": 0.734375, "learning_rate": 9.910986182723881e-05, "loss": 0.3637, "step": 90700 }, { "epoch": 120.94666666666667, "grad_norm": 0.80859375, "learning_rate": 9.910966503211326e-05, "loss": 0.3641, "step": 90710 }, { "epoch": 120.96, "grad_norm": 0.7421875, "learning_rate": 9.910946821543144e-05, "loss": 0.3624, "step": 90720 }, { "epoch": 120.97333333333333, "grad_norm": 0.9609375, "learning_rate": 9.910927137719342e-05, "loss": 0.3848, "step": 90730 }, { "epoch": 120.98666666666666, "grad_norm": 0.79296875, "learning_rate": 9.91090745173993e-05, "loss": 0.355, "step": 90740 }, { "epoch": 121.0, "grad_norm": 0.796875, "learning_rate": 9.910887763604916e-05, "loss": 0.3561, "step": 90750 }, { "epoch": 121.0, "eval_loss": 0.4197317659854889, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7506, "eval_samples_per_second": 1.362, "eval_steps_per_second": 0.085, "step": 90750 }, { "epoch": 121.01333333333334, "grad_norm": 0.87890625, "learning_rate": 9.91086807331431e-05, "loss": 0.3728, "step": 90760 }, { "epoch": 121.02666666666667, "grad_norm": 0.72265625, "learning_rate": 9.910848380868119e-05, "loss": 0.3867, "step": 90770 }, { "epoch": 121.04, "grad_norm": 0.71484375, "learning_rate": 9.91082868626635e-05, "loss": 0.4011, "step": 90780 }, { "epoch": 121.05333333333333, "grad_norm": 0.8359375, "learning_rate": 9.910808989509015e-05, "loss": 0.3843, "step": 90790 }, { "epoch": 121.06666666666666, "grad_norm": 0.84375, "learning_rate": 9.91078929059612e-05, "loss": 0.3723, "step": 90800 }, { "epoch": 121.08, "grad_norm": 0.734375, "learning_rate": 9.910769589527677e-05, "loss": 0.3768, "step": 90810 }, { "epoch": 121.09333333333333, "grad_norm": 0.80078125, "learning_rate": 9.910749886303692e-05, "loss": 0.3782, "step": 90820 }, { "epoch": 121.10666666666667, "grad_norm": 0.7265625, "learning_rate": 9.910730180924175e-05, "loss": 0.3678, "step": 90830 }, { "epoch": 121.12, "grad_norm": 0.8046875, "learning_rate": 9.910710473389133e-05, "loss": 0.3687, "step": 90840 }, { "epoch": 121.13333333333334, "grad_norm": 0.77734375, "learning_rate": 9.910690763698576e-05, "loss": 0.3612, "step": 90850 }, { "epoch": 121.14666666666666, "grad_norm": 0.80078125, "learning_rate": 9.910671051852512e-05, "loss": 0.3803, "step": 90860 }, { "epoch": 121.16, "grad_norm": 0.76953125, "learning_rate": 9.910651337850949e-05, "loss": 0.3748, "step": 90870 }, { "epoch": 121.17333333333333, "grad_norm": 0.86328125, "learning_rate": 9.910631621693898e-05, "loss": 0.3693, "step": 90880 }, { "epoch": 121.18666666666667, "grad_norm": 0.73828125, "learning_rate": 9.910611903381365e-05, "loss": 0.3666, "step": 90890 }, { "epoch": 121.2, "grad_norm": 0.80859375, "learning_rate": 9.910592182913361e-05, "loss": 0.3585, "step": 90900 }, { "epoch": 121.21333333333334, "grad_norm": 0.77734375, "learning_rate": 9.910572460289892e-05, "loss": 0.3593, "step": 90910 }, { "epoch": 121.22666666666667, "grad_norm": 0.7734375, "learning_rate": 9.910552735510969e-05, "loss": 0.3716, "step": 90920 }, { "epoch": 121.24, "grad_norm": 0.8515625, "learning_rate": 9.9105330085766e-05, "loss": 0.3571, "step": 90930 }, { "epoch": 121.25333333333333, "grad_norm": 0.8515625, "learning_rate": 9.910513279486792e-05, "loss": 0.3581, "step": 90940 }, { "epoch": 121.26666666666667, "grad_norm": 0.70703125, "learning_rate": 9.910493548241558e-05, "loss": 0.3613, "step": 90950 }, { "epoch": 121.28, "grad_norm": 0.859375, "learning_rate": 9.910473814840902e-05, "loss": 0.3894, "step": 90960 }, { "epoch": 121.29333333333334, "grad_norm": 0.75390625, "learning_rate": 9.910454079284835e-05, "loss": 0.3483, "step": 90970 }, { "epoch": 121.30666666666667, "grad_norm": 0.75390625, "learning_rate": 9.910434341573364e-05, "loss": 0.3718, "step": 90980 }, { "epoch": 121.32, "grad_norm": 0.71875, "learning_rate": 9.910414601706501e-05, "loss": 0.3751, "step": 90990 }, { "epoch": 121.33333333333333, "grad_norm": 0.81640625, "learning_rate": 9.91039485968425e-05, "loss": 0.3748, "step": 91000 }, { "epoch": 121.34666666666666, "grad_norm": 0.84765625, "learning_rate": 9.910375115506622e-05, "loss": 0.3655, "step": 91010 }, { "epoch": 121.36, "grad_norm": 0.78515625, "learning_rate": 9.910355369173629e-05, "loss": 0.3659, "step": 91020 }, { "epoch": 121.37333333333333, "grad_norm": 0.71484375, "learning_rate": 9.910335620685274e-05, "loss": 0.3697, "step": 91030 }, { "epoch": 121.38666666666667, "grad_norm": 0.828125, "learning_rate": 9.910315870041567e-05, "loss": 0.3569, "step": 91040 }, { "epoch": 121.4, "grad_norm": 0.88671875, "learning_rate": 9.910296117242521e-05, "loss": 0.3673, "step": 91050 }, { "epoch": 121.41333333333333, "grad_norm": 0.74609375, "learning_rate": 9.910276362288139e-05, "loss": 0.3731, "step": 91060 }, { "epoch": 121.42666666666666, "grad_norm": 0.7890625, "learning_rate": 9.910256605178433e-05, "loss": 0.3743, "step": 91070 }, { "epoch": 121.44, "grad_norm": 0.7734375, "learning_rate": 9.91023684591341e-05, "loss": 0.3865, "step": 91080 }, { "epoch": 121.45333333333333, "grad_norm": 0.76953125, "learning_rate": 9.910217084493081e-05, "loss": 0.3733, "step": 91090 }, { "epoch": 121.46666666666667, "grad_norm": 0.81640625, "learning_rate": 9.910197320917452e-05, "loss": 0.3814, "step": 91100 }, { "epoch": 121.48, "grad_norm": 0.73828125, "learning_rate": 9.910177555186532e-05, "loss": 0.364, "step": 91110 }, { "epoch": 121.49333333333334, "grad_norm": 0.90625, "learning_rate": 9.910157787300333e-05, "loss": 0.376, "step": 91120 }, { "epoch": 121.50666666666666, "grad_norm": 0.78125, "learning_rate": 9.910138017258859e-05, "loss": 0.3757, "step": 91130 }, { "epoch": 121.52, "grad_norm": 0.6875, "learning_rate": 9.91011824506212e-05, "loss": 0.3667, "step": 91140 }, { "epoch": 121.53333333333333, "grad_norm": 0.73046875, "learning_rate": 9.91009847071013e-05, "loss": 0.3677, "step": 91150 }, { "epoch": 121.54666666666667, "grad_norm": 0.83203125, "learning_rate": 9.910078694202888e-05, "loss": 0.3688, "step": 91160 }, { "epoch": 121.56, "grad_norm": 0.76171875, "learning_rate": 9.910058915540412e-05, "loss": 0.3624, "step": 91170 }, { "epoch": 121.57333333333334, "grad_norm": 0.87109375, "learning_rate": 9.910039134722704e-05, "loss": 0.3682, "step": 91180 }, { "epoch": 121.58666666666667, "grad_norm": 0.75, "learning_rate": 9.910019351749776e-05, "loss": 0.3589, "step": 91190 }, { "epoch": 121.6, "grad_norm": 0.79296875, "learning_rate": 9.909999566621637e-05, "loss": 0.3592, "step": 91200 }, { "epoch": 121.61333333333333, "grad_norm": 0.63671875, "learning_rate": 9.909979779338292e-05, "loss": 0.3519, "step": 91210 }, { "epoch": 121.62666666666667, "grad_norm": 0.69921875, "learning_rate": 9.909959989899755e-05, "loss": 0.3566, "step": 91220 }, { "epoch": 121.64, "grad_norm": 0.80859375, "learning_rate": 9.909940198306032e-05, "loss": 0.3637, "step": 91230 }, { "epoch": 121.65333333333334, "grad_norm": 0.7578125, "learning_rate": 9.909920404557129e-05, "loss": 0.3747, "step": 91240 }, { "epoch": 121.66666666666667, "grad_norm": 0.71875, "learning_rate": 9.909900608653059e-05, "loss": 0.3651, "step": 91250 }, { "epoch": 121.68, "grad_norm": 0.83203125, "learning_rate": 9.909880810593829e-05, "loss": 0.3539, "step": 91260 }, { "epoch": 121.69333333333333, "grad_norm": 0.71875, "learning_rate": 9.909861010379449e-05, "loss": 0.3651, "step": 91270 }, { "epoch": 121.70666666666666, "grad_norm": 0.83984375, "learning_rate": 9.909841208009924e-05, "loss": 0.3553, "step": 91280 }, { "epoch": 121.72, "grad_norm": 0.84765625, "learning_rate": 9.909821403485266e-05, "loss": 0.3768, "step": 91290 }, { "epoch": 121.73333333333333, "grad_norm": 0.80859375, "learning_rate": 9.909801596805483e-05, "loss": 0.3725, "step": 91300 }, { "epoch": 121.74666666666667, "grad_norm": 0.83984375, "learning_rate": 9.909781787970585e-05, "loss": 0.3759, "step": 91310 }, { "epoch": 121.76, "grad_norm": 0.7890625, "learning_rate": 9.909761976980577e-05, "loss": 0.3889, "step": 91320 }, { "epoch": 121.77333333333333, "grad_norm": 0.83203125, "learning_rate": 9.909742163835471e-05, "loss": 0.3733, "step": 91330 }, { "epoch": 121.78666666666666, "grad_norm": 0.71484375, "learning_rate": 9.909722348535276e-05, "loss": 0.3756, "step": 91340 }, { "epoch": 121.8, "grad_norm": 0.78125, "learning_rate": 9.909702531079997e-05, "loss": 0.3734, "step": 91350 }, { "epoch": 121.81333333333333, "grad_norm": 0.91015625, "learning_rate": 9.909682711469645e-05, "loss": 0.3481, "step": 91360 }, { "epoch": 121.82666666666667, "grad_norm": 0.74609375, "learning_rate": 9.90966288970423e-05, "loss": 0.355, "step": 91370 }, { "epoch": 121.84, "grad_norm": 0.8125, "learning_rate": 9.909643065783759e-05, "loss": 0.3678, "step": 91380 }, { "epoch": 121.85333333333334, "grad_norm": 0.83203125, "learning_rate": 9.90962323970824e-05, "loss": 0.363, "step": 91390 }, { "epoch": 121.86666666666666, "grad_norm": 0.796875, "learning_rate": 9.909603411477684e-05, "loss": 0.3689, "step": 91400 }, { "epoch": 121.88, "grad_norm": 0.76953125, "learning_rate": 9.909583581092099e-05, "loss": 0.3502, "step": 91410 }, { "epoch": 121.89333333333333, "grad_norm": 0.765625, "learning_rate": 9.909563748551491e-05, "loss": 0.3629, "step": 91420 }, { "epoch": 121.90666666666667, "grad_norm": 0.79296875, "learning_rate": 9.909543913855873e-05, "loss": 0.3664, "step": 91430 }, { "epoch": 121.92, "grad_norm": 0.75390625, "learning_rate": 9.909524077005251e-05, "loss": 0.3677, "step": 91440 }, { "epoch": 121.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.909504237999633e-05, "loss": 0.3645, "step": 91450 }, { "epoch": 121.94666666666667, "grad_norm": 0.734375, "learning_rate": 9.909484396839033e-05, "loss": 0.3648, "step": 91460 }, { "epoch": 121.96, "grad_norm": 0.72265625, "learning_rate": 9.909464553523452e-05, "loss": 0.3621, "step": 91470 }, { "epoch": 121.97333333333333, "grad_norm": 1.0234375, "learning_rate": 9.909444708052903e-05, "loss": 0.3845, "step": 91480 }, { "epoch": 121.98666666666666, "grad_norm": 0.80859375, "learning_rate": 9.909424860427395e-05, "loss": 0.3544, "step": 91490 }, { "epoch": 122.0, "grad_norm": 0.76953125, "learning_rate": 9.909405010646936e-05, "loss": 0.3563, "step": 91500 }, { "epoch": 122.0, "eval_loss": 0.41779181361198425, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.3502, "eval_samples_per_second": 1.41, "eval_steps_per_second": 0.088, "step": 91500 }, { "epoch": 122.01333333333334, "grad_norm": 0.84375, "learning_rate": 9.909385158711535e-05, "loss": 0.3716, "step": 91510 }, { "epoch": 122.02666666666667, "grad_norm": 0.76171875, "learning_rate": 9.909365304621199e-05, "loss": 0.3872, "step": 91520 }, { "epoch": 122.04, "grad_norm": 0.703125, "learning_rate": 9.909345448375939e-05, "loss": 0.4001, "step": 91530 }, { "epoch": 122.05333333333333, "grad_norm": 0.7890625, "learning_rate": 9.909325589975762e-05, "loss": 0.3843, "step": 91540 }, { "epoch": 122.06666666666666, "grad_norm": 0.84375, "learning_rate": 9.909305729420677e-05, "loss": 0.3728, "step": 91550 }, { "epoch": 122.08, "grad_norm": 0.77734375, "learning_rate": 9.909285866710695e-05, "loss": 0.376, "step": 91560 }, { "epoch": 122.09333333333333, "grad_norm": 0.82421875, "learning_rate": 9.909266001845821e-05, "loss": 0.378, "step": 91570 }, { "epoch": 122.10666666666667, "grad_norm": 0.703125, "learning_rate": 9.909246134826067e-05, "loss": 0.3662, "step": 91580 }, { "epoch": 122.12, "grad_norm": 0.8359375, "learning_rate": 9.90922626565144e-05, "loss": 0.3677, "step": 91590 }, { "epoch": 122.13333333333334, "grad_norm": 0.87890625, "learning_rate": 9.909206394321949e-05, "loss": 0.3614, "step": 91600 }, { "epoch": 122.14666666666666, "grad_norm": 0.796875, "learning_rate": 9.909186520837603e-05, "loss": 0.3801, "step": 91610 }, { "epoch": 122.16, "grad_norm": 0.7734375, "learning_rate": 9.90916664519841e-05, "loss": 0.3757, "step": 91620 }, { "epoch": 122.17333333333333, "grad_norm": 0.81640625, "learning_rate": 9.90914676740438e-05, "loss": 0.3704, "step": 91630 }, { "epoch": 122.18666666666667, "grad_norm": 0.7734375, "learning_rate": 9.909126887455519e-05, "loss": 0.3671, "step": 91640 }, { "epoch": 122.2, "grad_norm": 0.8359375, "learning_rate": 9.90910700535184e-05, "loss": 0.3591, "step": 91650 }, { "epoch": 122.21333333333334, "grad_norm": 0.85546875, "learning_rate": 9.909087121093347e-05, "loss": 0.3599, "step": 91660 }, { "epoch": 122.22666666666667, "grad_norm": 0.78125, "learning_rate": 9.909067234680054e-05, "loss": 0.3702, "step": 91670 }, { "epoch": 122.24, "grad_norm": 0.80859375, "learning_rate": 9.909047346111965e-05, "loss": 0.3568, "step": 91680 }, { "epoch": 122.25333333333333, "grad_norm": 0.76171875, "learning_rate": 9.909027455389091e-05, "loss": 0.3582, "step": 91690 }, { "epoch": 122.26666666666667, "grad_norm": 0.78125, "learning_rate": 9.909007562511441e-05, "loss": 0.3621, "step": 91700 }, { "epoch": 122.28, "grad_norm": 0.81640625, "learning_rate": 9.908987667479022e-05, "loss": 0.389, "step": 91710 }, { "epoch": 122.29333333333334, "grad_norm": 0.79296875, "learning_rate": 9.908967770291844e-05, "loss": 0.3477, "step": 91720 }, { "epoch": 122.30666666666667, "grad_norm": 0.796875, "learning_rate": 9.908947870949916e-05, "loss": 0.3717, "step": 91730 }, { "epoch": 122.32, "grad_norm": 0.69140625, "learning_rate": 9.908927969453245e-05, "loss": 0.3762, "step": 91740 }, { "epoch": 122.33333333333333, "grad_norm": 0.80078125, "learning_rate": 9.908908065801843e-05, "loss": 0.3732, "step": 91750 }, { "epoch": 122.34666666666666, "grad_norm": 0.8515625, "learning_rate": 9.908888159995715e-05, "loss": 0.3643, "step": 91760 }, { "epoch": 122.36, "grad_norm": 0.8515625, "learning_rate": 9.908868252034873e-05, "loss": 0.366, "step": 91770 }, { "epoch": 122.37333333333333, "grad_norm": 0.71484375, "learning_rate": 9.908848341919324e-05, "loss": 0.3692, "step": 91780 }, { "epoch": 122.38666666666667, "grad_norm": 0.953125, "learning_rate": 9.908828429649075e-05, "loss": 0.3568, "step": 91790 }, { "epoch": 122.4, "grad_norm": 0.83203125, "learning_rate": 9.908808515224139e-05, "loss": 0.3672, "step": 91800 }, { "epoch": 122.41333333333333, "grad_norm": 0.80078125, "learning_rate": 9.90878859864452e-05, "loss": 0.3733, "step": 91810 }, { "epoch": 122.42666666666666, "grad_norm": 0.78125, "learning_rate": 9.908768679910231e-05, "loss": 0.3742, "step": 91820 }, { "epoch": 122.44, "grad_norm": 0.78515625, "learning_rate": 9.908748759021278e-05, "loss": 0.3857, "step": 91830 }, { "epoch": 122.45333333333333, "grad_norm": 0.80859375, "learning_rate": 9.908728835977673e-05, "loss": 0.3742, "step": 91840 }, { "epoch": 122.46666666666667, "grad_norm": 0.69921875, "learning_rate": 9.908708910779419e-05, "loss": 0.3818, "step": 91850 }, { "epoch": 122.48, "grad_norm": 0.80859375, "learning_rate": 9.90868898342653e-05, "loss": 0.3652, "step": 91860 }, { "epoch": 122.49333333333334, "grad_norm": 0.81640625, "learning_rate": 9.908669053919013e-05, "loss": 0.376, "step": 91870 }, { "epoch": 122.50666666666666, "grad_norm": 0.765625, "learning_rate": 9.908649122256876e-05, "loss": 0.3742, "step": 91880 }, { "epoch": 122.52, "grad_norm": 0.66796875, "learning_rate": 9.908629188440129e-05, "loss": 0.3659, "step": 91890 }, { "epoch": 122.53333333333333, "grad_norm": 0.8046875, "learning_rate": 9.908609252468779e-05, "loss": 0.3673, "step": 91900 }, { "epoch": 122.54666666666667, "grad_norm": 0.875, "learning_rate": 9.908589314342836e-05, "loss": 0.3694, "step": 91910 }, { "epoch": 122.56, "grad_norm": 0.81640625, "learning_rate": 9.90856937406231e-05, "loss": 0.3639, "step": 91920 }, { "epoch": 122.57333333333334, "grad_norm": 0.83984375, "learning_rate": 9.908549431627208e-05, "loss": 0.3674, "step": 91930 }, { "epoch": 122.58666666666667, "grad_norm": 0.70703125, "learning_rate": 9.90852948703754e-05, "loss": 0.3582, "step": 91940 }, { "epoch": 122.6, "grad_norm": 0.75, "learning_rate": 9.908509540293312e-05, "loss": 0.3594, "step": 91950 }, { "epoch": 122.61333333333333, "grad_norm": 0.69140625, "learning_rate": 9.908489591394534e-05, "loss": 0.3528, "step": 91960 }, { "epoch": 122.62666666666667, "grad_norm": 0.734375, "learning_rate": 9.908469640341217e-05, "loss": 0.3553, "step": 91970 }, { "epoch": 122.64, "grad_norm": 0.92578125, "learning_rate": 9.908449687133367e-05, "loss": 0.3645, "step": 91980 }, { "epoch": 122.65333333333334, "grad_norm": 0.7578125, "learning_rate": 9.908429731770996e-05, "loss": 0.3746, "step": 91990 }, { "epoch": 122.66666666666667, "grad_norm": 0.69921875, "learning_rate": 9.908409774254109e-05, "loss": 0.3658, "step": 92000 }, { "epoch": 122.68, "grad_norm": 0.86328125, "learning_rate": 9.908389814582717e-05, "loss": 0.354, "step": 92010 }, { "epoch": 122.69333333333333, "grad_norm": 0.77734375, "learning_rate": 9.90836985275683e-05, "loss": 0.3647, "step": 92020 }, { "epoch": 122.70666666666666, "grad_norm": 0.88671875, "learning_rate": 9.908349888776451e-05, "loss": 0.3554, "step": 92030 }, { "epoch": 122.72, "grad_norm": 0.828125, "learning_rate": 9.908329922641596e-05, "loss": 0.3766, "step": 92040 }, { "epoch": 122.73333333333333, "grad_norm": 0.80078125, "learning_rate": 9.908309954352269e-05, "loss": 0.3725, "step": 92050 }, { "epoch": 122.74666666666667, "grad_norm": 0.81640625, "learning_rate": 9.908289983908481e-05, "loss": 0.3755, "step": 92060 }, { "epoch": 122.76, "grad_norm": 0.76171875, "learning_rate": 9.90827001131024e-05, "loss": 0.388, "step": 92070 }, { "epoch": 122.77333333333333, "grad_norm": 0.87109375, "learning_rate": 9.908250036557554e-05, "loss": 0.3736, "step": 92080 }, { "epoch": 122.78666666666666, "grad_norm": 0.71484375, "learning_rate": 9.908230059650434e-05, "loss": 0.3756, "step": 92090 }, { "epoch": 122.8, "grad_norm": 0.7734375, "learning_rate": 9.908210080588886e-05, "loss": 0.3741, "step": 92100 }, { "epoch": 122.81333333333333, "grad_norm": 0.91796875, "learning_rate": 9.90819009937292e-05, "loss": 0.3477, "step": 92110 }, { "epoch": 122.82666666666667, "grad_norm": 0.8203125, "learning_rate": 9.908170116002546e-05, "loss": 0.3544, "step": 92120 }, { "epoch": 122.84, "grad_norm": 0.875, "learning_rate": 9.908150130477771e-05, "loss": 0.368, "step": 92130 }, { "epoch": 122.85333333333334, "grad_norm": 0.78125, "learning_rate": 9.908130142798604e-05, "loss": 0.3624, "step": 92140 }, { "epoch": 122.86666666666666, "grad_norm": 0.81640625, "learning_rate": 9.908110152965055e-05, "loss": 0.3686, "step": 92150 }, { "epoch": 122.88, "grad_norm": 0.78515625, "learning_rate": 9.908090160977132e-05, "loss": 0.3498, "step": 92160 }, { "epoch": 122.89333333333333, "grad_norm": 0.71484375, "learning_rate": 9.908070166834843e-05, "loss": 0.3624, "step": 92170 }, { "epoch": 122.90666666666667, "grad_norm": 0.7734375, "learning_rate": 9.908050170538198e-05, "loss": 0.3669, "step": 92180 }, { "epoch": 122.92, "grad_norm": 0.765625, "learning_rate": 9.908030172087205e-05, "loss": 0.3678, "step": 92190 }, { "epoch": 122.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.908010171481873e-05, "loss": 0.3647, "step": 92200 }, { "epoch": 122.94666666666667, "grad_norm": 0.7421875, "learning_rate": 9.907990168722211e-05, "loss": 0.364, "step": 92210 }, { "epoch": 122.96, "grad_norm": 0.66796875, "learning_rate": 9.907970163808227e-05, "loss": 0.3624, "step": 92220 }, { "epoch": 122.97333333333333, "grad_norm": 1.1484375, "learning_rate": 9.907950156739931e-05, "loss": 0.3851, "step": 92230 }, { "epoch": 122.98666666666666, "grad_norm": 0.81640625, "learning_rate": 9.907930147517332e-05, "loss": 0.3556, "step": 92240 }, { "epoch": 123.0, "grad_norm": 0.7578125, "learning_rate": 9.907910136140437e-05, "loss": 0.3554, "step": 92250 }, { "epoch": 123.0, "eval_loss": 0.4179881513118744, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.6282, "eval_samples_per_second": 1.376, "eval_steps_per_second": 0.086, "step": 92250 }, { "epoch": 123.01333333333334, "grad_norm": 0.8671875, "learning_rate": 9.907890122609256e-05, "loss": 0.371, "step": 92260 }, { "epoch": 123.02666666666667, "grad_norm": 0.74609375, "learning_rate": 9.907870106923798e-05, "loss": 0.3875, "step": 92270 }, { "epoch": 123.04, "grad_norm": 0.7421875, "learning_rate": 9.907850089084072e-05, "loss": 0.4007, "step": 92280 }, { "epoch": 123.05333333333333, "grad_norm": 0.7890625, "learning_rate": 9.907830069090085e-05, "loss": 0.3839, "step": 92290 }, { "epoch": 123.06666666666666, "grad_norm": 0.890625, "learning_rate": 9.907810046941846e-05, "loss": 0.372, "step": 92300 }, { "epoch": 123.08, "grad_norm": 0.78515625, "learning_rate": 9.907790022639366e-05, "loss": 0.3756, "step": 92310 }, { "epoch": 123.09333333333333, "grad_norm": 0.7421875, "learning_rate": 9.907769996182652e-05, "loss": 0.3778, "step": 92320 }, { "epoch": 123.10666666666667, "grad_norm": 0.6796875, "learning_rate": 9.907749967571713e-05, "loss": 0.3664, "step": 92330 }, { "epoch": 123.12, "grad_norm": 0.828125, "learning_rate": 9.907729936806559e-05, "loss": 0.3683, "step": 92340 }, { "epoch": 123.13333333333334, "grad_norm": 0.796875, "learning_rate": 9.907709903887197e-05, "loss": 0.3606, "step": 92350 }, { "epoch": 123.14666666666666, "grad_norm": 0.80859375, "learning_rate": 9.907689868813637e-05, "loss": 0.3802, "step": 92360 }, { "epoch": 123.16, "grad_norm": 0.7265625, "learning_rate": 9.907669831585888e-05, "loss": 0.3748, "step": 92370 }, { "epoch": 123.17333333333333, "grad_norm": 0.84765625, "learning_rate": 9.907649792203956e-05, "loss": 0.3698, "step": 92380 }, { "epoch": 123.18666666666667, "grad_norm": 0.73828125, "learning_rate": 9.907629750667855e-05, "loss": 0.3674, "step": 92390 }, { "epoch": 123.2, "grad_norm": 0.76171875, "learning_rate": 9.90760970697759e-05, "loss": 0.3586, "step": 92400 }, { "epoch": 123.21333333333334, "grad_norm": 0.84765625, "learning_rate": 9.90758966113317e-05, "loss": 0.359, "step": 92410 }, { "epoch": 123.22666666666667, "grad_norm": 0.796875, "learning_rate": 9.907569613134604e-05, "loss": 0.3709, "step": 92420 }, { "epoch": 123.24, "grad_norm": 0.84765625, "learning_rate": 9.907549562981902e-05, "loss": 0.3567, "step": 92430 }, { "epoch": 123.25333333333333, "grad_norm": 0.78515625, "learning_rate": 9.907529510675072e-05, "loss": 0.3577, "step": 92440 }, { "epoch": 123.26666666666667, "grad_norm": 0.72265625, "learning_rate": 9.907509456214123e-05, "loss": 0.3611, "step": 92450 }, { "epoch": 123.28, "grad_norm": 0.7890625, "learning_rate": 9.907489399599063e-05, "loss": 0.3889, "step": 92460 }, { "epoch": 123.29333333333334, "grad_norm": 0.828125, "learning_rate": 9.907469340829902e-05, "loss": 0.3476, "step": 92470 }, { "epoch": 123.30666666666667, "grad_norm": 0.72265625, "learning_rate": 9.907449279906648e-05, "loss": 0.3705, "step": 92480 }, { "epoch": 123.32, "grad_norm": 0.70703125, "learning_rate": 9.907429216829309e-05, "loss": 0.3753, "step": 92490 }, { "epoch": 123.33333333333333, "grad_norm": 0.80078125, "learning_rate": 9.907409151597898e-05, "loss": 0.374, "step": 92500 }, { "epoch": 123.34666666666666, "grad_norm": 0.75390625, "learning_rate": 9.907389084212417e-05, "loss": 0.3649, "step": 92510 }, { "epoch": 123.36, "grad_norm": 0.8359375, "learning_rate": 9.90736901467288e-05, "loss": 0.3659, "step": 92520 }, { "epoch": 123.37333333333333, "grad_norm": 0.6875, "learning_rate": 9.907348942979295e-05, "loss": 0.3691, "step": 92530 }, { "epoch": 123.38666666666667, "grad_norm": 0.84765625, "learning_rate": 9.90732886913167e-05, "loss": 0.3563, "step": 92540 }, { "epoch": 123.4, "grad_norm": 0.8359375, "learning_rate": 9.907308793130012e-05, "loss": 0.3666, "step": 92550 }, { "epoch": 123.41333333333333, "grad_norm": 0.69140625, "learning_rate": 9.907288714974335e-05, "loss": 0.3723, "step": 92560 }, { "epoch": 123.42666666666666, "grad_norm": 0.74609375, "learning_rate": 9.907268634664642e-05, "loss": 0.3733, "step": 92570 }, { "epoch": 123.44, "grad_norm": 0.81640625, "learning_rate": 9.907248552200945e-05, "loss": 0.3867, "step": 92580 }, { "epoch": 123.45333333333333, "grad_norm": 0.99609375, "learning_rate": 9.907228467583251e-05, "loss": 0.3739, "step": 92590 }, { "epoch": 123.46666666666667, "grad_norm": 0.78125, "learning_rate": 9.907208380811571e-05, "loss": 0.3809, "step": 92600 }, { "epoch": 123.48, "grad_norm": 0.8125, "learning_rate": 9.907188291885913e-05, "loss": 0.3643, "step": 92610 }, { "epoch": 123.49333333333334, "grad_norm": 0.75390625, "learning_rate": 9.907168200806285e-05, "loss": 0.376, "step": 92620 }, { "epoch": 123.50666666666666, "grad_norm": 0.8203125, "learning_rate": 9.907148107572697e-05, "loss": 0.3749, "step": 92630 }, { "epoch": 123.52, "grad_norm": 0.66015625, "learning_rate": 9.907128012185158e-05, "loss": 0.3661, "step": 92640 }, { "epoch": 123.53333333333333, "grad_norm": 0.7734375, "learning_rate": 9.907107914643675e-05, "loss": 0.3677, "step": 92650 }, { "epoch": 123.54666666666667, "grad_norm": 0.94140625, "learning_rate": 9.907087814948259e-05, "loss": 0.3687, "step": 92660 }, { "epoch": 123.56, "grad_norm": 0.72265625, "learning_rate": 9.907067713098916e-05, "loss": 0.3637, "step": 92670 }, { "epoch": 123.57333333333334, "grad_norm": 0.83203125, "learning_rate": 9.907047609095656e-05, "loss": 0.3678, "step": 92680 }, { "epoch": 123.58666666666667, "grad_norm": 0.7890625, "learning_rate": 9.907027502938491e-05, "loss": 0.3584, "step": 92690 }, { "epoch": 123.6, "grad_norm": 0.76953125, "learning_rate": 9.907007394627426e-05, "loss": 0.3593, "step": 92700 }, { "epoch": 123.61333333333333, "grad_norm": 0.7109375, "learning_rate": 9.90698728416247e-05, "loss": 0.352, "step": 92710 }, { "epoch": 123.62666666666667, "grad_norm": 0.69140625, "learning_rate": 9.906967171543633e-05, "loss": 0.3563, "step": 92720 }, { "epoch": 123.64, "grad_norm": 0.82421875, "learning_rate": 9.906947056770925e-05, "loss": 0.3634, "step": 92730 }, { "epoch": 123.65333333333334, "grad_norm": 0.73828125, "learning_rate": 9.906926939844355e-05, "loss": 0.374, "step": 92740 }, { "epoch": 123.66666666666667, "grad_norm": 0.75, "learning_rate": 9.906906820763925e-05, "loss": 0.365, "step": 92750 }, { "epoch": 123.68, "grad_norm": 0.8203125, "learning_rate": 9.906886699529654e-05, "loss": 0.3542, "step": 92760 }, { "epoch": 123.69333333333333, "grad_norm": 0.765625, "learning_rate": 9.906866576141545e-05, "loss": 0.3655, "step": 92770 }, { "epoch": 123.70666666666666, "grad_norm": 0.953125, "learning_rate": 9.906846450599607e-05, "loss": 0.3561, "step": 92780 }, { "epoch": 123.72, "grad_norm": 0.91796875, "learning_rate": 9.90682632290385e-05, "loss": 0.3774, "step": 92790 }, { "epoch": 123.73333333333333, "grad_norm": 0.78515625, "learning_rate": 9.906806193054281e-05, "loss": 0.3722, "step": 92800 }, { "epoch": 123.74666666666667, "grad_norm": 0.81640625, "learning_rate": 9.906786061050912e-05, "loss": 0.3757, "step": 92810 }, { "epoch": 123.76, "grad_norm": 0.8203125, "learning_rate": 9.90676592689375e-05, "loss": 0.3897, "step": 92820 }, { "epoch": 123.77333333333333, "grad_norm": 0.88671875, "learning_rate": 9.906745790582805e-05, "loss": 0.3726, "step": 92830 }, { "epoch": 123.78666666666666, "grad_norm": 0.8125, "learning_rate": 9.906725652118084e-05, "loss": 0.3748, "step": 92840 }, { "epoch": 123.8, "grad_norm": 0.8046875, "learning_rate": 9.906705511499595e-05, "loss": 0.3735, "step": 92850 }, { "epoch": 123.81333333333333, "grad_norm": 0.87890625, "learning_rate": 9.90668536872735e-05, "loss": 0.3478, "step": 92860 }, { "epoch": 123.82666666666667, "grad_norm": 0.71484375, "learning_rate": 9.906665223801357e-05, "loss": 0.355, "step": 92870 }, { "epoch": 123.84, "grad_norm": 0.84375, "learning_rate": 9.906645076721623e-05, "loss": 0.3674, "step": 92880 }, { "epoch": 123.85333333333334, "grad_norm": 0.80859375, "learning_rate": 9.906624927488157e-05, "loss": 0.3624, "step": 92890 }, { "epoch": 123.86666666666666, "grad_norm": 0.81640625, "learning_rate": 9.906604776100972e-05, "loss": 0.3689, "step": 92900 }, { "epoch": 123.88, "grad_norm": 0.80078125, "learning_rate": 9.906584622560072e-05, "loss": 0.3503, "step": 92910 }, { "epoch": 123.89333333333333, "grad_norm": 0.71875, "learning_rate": 9.906564466865467e-05, "loss": 0.3619, "step": 92920 }, { "epoch": 123.90666666666667, "grad_norm": 0.796875, "learning_rate": 9.906544309017168e-05, "loss": 0.3674, "step": 92930 }, { "epoch": 123.92, "grad_norm": 0.7734375, "learning_rate": 9.906524149015181e-05, "loss": 0.3674, "step": 92940 }, { "epoch": 123.93333333333334, "grad_norm": 0.7265625, "learning_rate": 9.906503986859516e-05, "loss": 0.364, "step": 92950 }, { "epoch": 123.94666666666667, "grad_norm": 0.83203125, "learning_rate": 9.906483822550184e-05, "loss": 0.3646, "step": 92960 }, { "epoch": 123.96, "grad_norm": 0.69921875, "learning_rate": 9.90646365608719e-05, "loss": 0.3628, "step": 92970 }, { "epoch": 123.97333333333333, "grad_norm": 1.1328125, "learning_rate": 9.906443487470545e-05, "loss": 0.3856, "step": 92980 }, { "epoch": 123.98666666666666, "grad_norm": 0.8125, "learning_rate": 9.906423316700258e-05, "loss": 0.3551, "step": 92990 }, { "epoch": 124.0, "grad_norm": 0.71875, "learning_rate": 9.906403143776335e-05, "loss": 0.3562, "step": 93000 }, { "epoch": 124.0, "eval_loss": 0.4178822338581085, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.6654, "eval_samples_per_second": 1.372, "eval_steps_per_second": 0.086, "step": 93000 }, { "epoch": 124.01333333333334, "grad_norm": 0.828125, "learning_rate": 9.906382968698789e-05, "loss": 0.3716, "step": 93010 }, { "epoch": 124.02666666666667, "grad_norm": 0.71875, "learning_rate": 9.906362791467628e-05, "loss": 0.3864, "step": 93020 }, { "epoch": 124.04, "grad_norm": 0.71875, "learning_rate": 9.90634261208286e-05, "loss": 0.4005, "step": 93030 }, { "epoch": 124.05333333333333, "grad_norm": 0.77734375, "learning_rate": 9.906322430544493e-05, "loss": 0.384, "step": 93040 }, { "epoch": 124.06666666666666, "grad_norm": 0.86328125, "learning_rate": 9.906302246852537e-05, "loss": 0.3724, "step": 93050 }, { "epoch": 124.08, "grad_norm": 0.78125, "learning_rate": 9.906282061006999e-05, "loss": 0.3746, "step": 93060 }, { "epoch": 124.09333333333333, "grad_norm": 0.875, "learning_rate": 9.906261873007891e-05, "loss": 0.3782, "step": 93070 }, { "epoch": 124.10666666666667, "grad_norm": 0.75, "learning_rate": 9.906241682855219e-05, "loss": 0.3673, "step": 93080 }, { "epoch": 124.12, "grad_norm": 0.83203125, "learning_rate": 9.906221490548995e-05, "loss": 0.3681, "step": 93090 }, { "epoch": 124.13333333333334, "grad_norm": 0.78125, "learning_rate": 9.906201296089224e-05, "loss": 0.3601, "step": 93100 }, { "epoch": 124.14666666666666, "grad_norm": 0.82421875, "learning_rate": 9.906181099475919e-05, "loss": 0.3799, "step": 93110 }, { "epoch": 124.16, "grad_norm": 0.69140625, "learning_rate": 9.906160900709084e-05, "loss": 0.3747, "step": 93120 }, { "epoch": 124.17333333333333, "grad_norm": 0.88671875, "learning_rate": 9.906140699788733e-05, "loss": 0.3688, "step": 93130 }, { "epoch": 124.18666666666667, "grad_norm": 0.78125, "learning_rate": 9.906120496714873e-05, "loss": 0.367, "step": 93140 }, { "epoch": 124.2, "grad_norm": 0.73046875, "learning_rate": 9.906100291487511e-05, "loss": 0.3587, "step": 93150 }, { "epoch": 124.21333333333334, "grad_norm": 0.7734375, "learning_rate": 9.906080084106656e-05, "loss": 0.3596, "step": 93160 }, { "epoch": 124.22666666666667, "grad_norm": 0.76953125, "learning_rate": 9.906059874572318e-05, "loss": 0.3714, "step": 93170 }, { "epoch": 124.24, "grad_norm": 0.765625, "learning_rate": 9.906039662884507e-05, "loss": 0.3566, "step": 93180 }, { "epoch": 124.25333333333333, "grad_norm": 0.796875, "learning_rate": 9.906019449043231e-05, "loss": 0.3567, "step": 93190 }, { "epoch": 124.26666666666667, "grad_norm": 0.765625, "learning_rate": 9.9059992330485e-05, "loss": 0.3613, "step": 93200 }, { "epoch": 124.28, "grad_norm": 0.765625, "learning_rate": 9.90597901490032e-05, "loss": 0.3887, "step": 93210 }, { "epoch": 124.29333333333334, "grad_norm": 0.76953125, "learning_rate": 9.9059587945987e-05, "loss": 0.3479, "step": 93220 }, { "epoch": 124.30666666666667, "grad_norm": 0.78515625, "learning_rate": 9.905938572143651e-05, "loss": 0.3712, "step": 93230 }, { "epoch": 124.32, "grad_norm": 0.6875, "learning_rate": 9.905918347535183e-05, "loss": 0.3751, "step": 93240 }, { "epoch": 124.33333333333333, "grad_norm": 0.80859375, "learning_rate": 9.905898120773301e-05, "loss": 0.3739, "step": 93250 }, { "epoch": 124.34666666666666, "grad_norm": 0.76171875, "learning_rate": 9.905877891858017e-05, "loss": 0.3648, "step": 93260 }, { "epoch": 124.36, "grad_norm": 0.8125, "learning_rate": 9.905857660789339e-05, "loss": 0.3658, "step": 93270 }, { "epoch": 124.37333333333333, "grad_norm": 0.703125, "learning_rate": 9.905837427567275e-05, "loss": 0.369, "step": 93280 }, { "epoch": 124.38666666666667, "grad_norm": 0.86328125, "learning_rate": 9.905817192191835e-05, "loss": 0.3569, "step": 93290 }, { "epoch": 124.4, "grad_norm": 0.765625, "learning_rate": 9.905796954663027e-05, "loss": 0.366, "step": 93300 }, { "epoch": 124.41333333333333, "grad_norm": 0.7578125, "learning_rate": 9.905776714980861e-05, "loss": 0.3735, "step": 93310 }, { "epoch": 124.42666666666666, "grad_norm": 0.78125, "learning_rate": 9.905756473145345e-05, "loss": 0.3754, "step": 93320 }, { "epoch": 124.44, "grad_norm": 0.76953125, "learning_rate": 9.905736229156488e-05, "loss": 0.3857, "step": 93330 }, { "epoch": 124.45333333333333, "grad_norm": 0.78515625, "learning_rate": 9.905715983014299e-05, "loss": 0.3734, "step": 93340 }, { "epoch": 124.46666666666667, "grad_norm": 0.83984375, "learning_rate": 9.905695734718786e-05, "loss": 0.3806, "step": 93350 }, { "epoch": 124.48, "grad_norm": 0.78125, "learning_rate": 9.905675484269961e-05, "loss": 0.3644, "step": 93360 }, { "epoch": 124.49333333333334, "grad_norm": 0.79296875, "learning_rate": 9.905655231667827e-05, "loss": 0.3748, "step": 93370 }, { "epoch": 124.50666666666666, "grad_norm": 0.81640625, "learning_rate": 9.905634976912399e-05, "loss": 0.3751, "step": 93380 }, { "epoch": 124.52, "grad_norm": 0.69140625, "learning_rate": 9.905614720003684e-05, "loss": 0.3665, "step": 93390 }, { "epoch": 124.53333333333333, "grad_norm": 0.8046875, "learning_rate": 9.90559446094169e-05, "loss": 0.3676, "step": 93400 }, { "epoch": 124.54666666666667, "grad_norm": 0.85546875, "learning_rate": 9.905574199726424e-05, "loss": 0.3673, "step": 93410 }, { "epoch": 124.56, "grad_norm": 0.72265625, "learning_rate": 9.905553936357899e-05, "loss": 0.363, "step": 93420 }, { "epoch": 124.57333333333334, "grad_norm": 0.84765625, "learning_rate": 9.905533670836122e-05, "loss": 0.3674, "step": 93430 }, { "epoch": 124.58666666666667, "grad_norm": 0.69921875, "learning_rate": 9.905513403161102e-05, "loss": 0.3575, "step": 93440 }, { "epoch": 124.6, "grad_norm": 0.78515625, "learning_rate": 9.905493133332847e-05, "loss": 0.3591, "step": 93450 }, { "epoch": 124.61333333333333, "grad_norm": 0.69140625, "learning_rate": 9.905472861351367e-05, "loss": 0.3519, "step": 93460 }, { "epoch": 124.62666666666667, "grad_norm": 0.68359375, "learning_rate": 9.90545258721667e-05, "loss": 0.3564, "step": 93470 }, { "epoch": 124.64, "grad_norm": 0.8203125, "learning_rate": 9.905432310928767e-05, "loss": 0.3635, "step": 93480 }, { "epoch": 124.65333333333334, "grad_norm": 0.8046875, "learning_rate": 9.905412032487664e-05, "loss": 0.375, "step": 93490 }, { "epoch": 124.66666666666667, "grad_norm": 0.72265625, "learning_rate": 9.905391751893373e-05, "loss": 0.3649, "step": 93500 }, { "epoch": 124.68, "grad_norm": 0.77734375, "learning_rate": 9.905371469145898e-05, "loss": 0.3535, "step": 93510 }, { "epoch": 124.69333333333333, "grad_norm": 0.6953125, "learning_rate": 9.905351184245255e-05, "loss": 0.3643, "step": 93520 }, { "epoch": 124.70666666666666, "grad_norm": 0.83984375, "learning_rate": 9.905330897191447e-05, "loss": 0.3556, "step": 93530 }, { "epoch": 124.72, "grad_norm": 0.8125, "learning_rate": 9.905310607984483e-05, "loss": 0.376, "step": 93540 }, { "epoch": 124.73333333333333, "grad_norm": 0.80078125, "learning_rate": 9.905290316624376e-05, "loss": 0.3723, "step": 93550 }, { "epoch": 124.74666666666667, "grad_norm": 0.8359375, "learning_rate": 9.905270023111133e-05, "loss": 0.3757, "step": 93560 }, { "epoch": 124.76, "grad_norm": 0.83203125, "learning_rate": 9.905249727444763e-05, "loss": 0.3886, "step": 93570 }, { "epoch": 124.77333333333333, "grad_norm": 0.859375, "learning_rate": 9.905229429625273e-05, "loss": 0.3721, "step": 93580 }, { "epoch": 124.78666666666666, "grad_norm": 0.73828125, "learning_rate": 9.905209129652675e-05, "loss": 0.3758, "step": 93590 }, { "epoch": 124.8, "grad_norm": 0.8359375, "learning_rate": 9.905188827526974e-05, "loss": 0.3724, "step": 93600 }, { "epoch": 124.81333333333333, "grad_norm": 0.83984375, "learning_rate": 9.905168523248182e-05, "loss": 0.3471, "step": 93610 }, { "epoch": 124.82666666666667, "grad_norm": 0.75390625, "learning_rate": 9.905148216816309e-05, "loss": 0.3551, "step": 93620 }, { "epoch": 124.84, "grad_norm": 0.8828125, "learning_rate": 9.905127908231361e-05, "loss": 0.3678, "step": 93630 }, { "epoch": 124.85333333333334, "grad_norm": 0.71484375, "learning_rate": 9.905107597493348e-05, "loss": 0.3622, "step": 93640 }, { "epoch": 124.86666666666666, "grad_norm": 0.8359375, "learning_rate": 9.905087284602279e-05, "loss": 0.3685, "step": 93650 }, { "epoch": 124.88, "grad_norm": 0.72265625, "learning_rate": 9.905066969558162e-05, "loss": 0.3492, "step": 93660 }, { "epoch": 124.89333333333333, "grad_norm": 0.75, "learning_rate": 9.905046652361008e-05, "loss": 0.3624, "step": 93670 }, { "epoch": 124.90666666666667, "grad_norm": 0.8046875, "learning_rate": 9.905026333010824e-05, "loss": 0.3668, "step": 93680 }, { "epoch": 124.92, "grad_norm": 0.81640625, "learning_rate": 9.905006011507619e-05, "loss": 0.3675, "step": 93690 }, { "epoch": 124.93333333333334, "grad_norm": 0.75390625, "learning_rate": 9.904985687851403e-05, "loss": 0.364, "step": 93700 }, { "epoch": 124.94666666666667, "grad_norm": 0.82421875, "learning_rate": 9.904965362042184e-05, "loss": 0.3633, "step": 93710 }, { "epoch": 124.96, "grad_norm": 0.7265625, "learning_rate": 9.904945034079973e-05, "loss": 0.362, "step": 93720 }, { "epoch": 124.97333333333333, "grad_norm": 1.03125, "learning_rate": 9.904924703964776e-05, "loss": 0.3843, "step": 93730 }, { "epoch": 124.98666666666666, "grad_norm": 0.8671875, "learning_rate": 9.904904371696603e-05, "loss": 0.3554, "step": 93740 }, { "epoch": 125.0, "grad_norm": 0.80859375, "learning_rate": 9.904884037275464e-05, "loss": 0.3557, "step": 93750 }, { "epoch": 125.0, "eval_loss": 0.4174111783504486, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4419, "eval_samples_per_second": 1.398, "eval_steps_per_second": 0.087, "step": 93750 }, { "epoch": 125.01333333333334, "grad_norm": 0.8125, "learning_rate": 9.904863700701366e-05, "loss": 0.373, "step": 93760 }, { "epoch": 125.02666666666667, "grad_norm": 0.76953125, "learning_rate": 9.90484336197432e-05, "loss": 0.3863, "step": 93770 }, { "epoch": 125.04, "grad_norm": 0.73828125, "learning_rate": 9.904823021094334e-05, "loss": 0.3996, "step": 93780 }, { "epoch": 125.05333333333333, "grad_norm": 0.76171875, "learning_rate": 9.904802678061416e-05, "loss": 0.3836, "step": 93790 }, { "epoch": 125.06666666666666, "grad_norm": 0.83984375, "learning_rate": 9.904782332875575e-05, "loss": 0.3724, "step": 93800 }, { "epoch": 125.08, "grad_norm": 0.8125, "learning_rate": 9.904761985536821e-05, "loss": 0.3756, "step": 93810 }, { "epoch": 125.09333333333333, "grad_norm": 0.8125, "learning_rate": 9.904741636045165e-05, "loss": 0.3784, "step": 93820 }, { "epoch": 125.10666666666667, "grad_norm": 0.73828125, "learning_rate": 9.904721284400611e-05, "loss": 0.367, "step": 93830 }, { "epoch": 125.12, "grad_norm": 0.86328125, "learning_rate": 9.904700930603171e-05, "loss": 0.3685, "step": 93840 }, { "epoch": 125.13333333333334, "grad_norm": 0.7578125, "learning_rate": 9.904680574652854e-05, "loss": 0.3595, "step": 93850 }, { "epoch": 125.14666666666666, "grad_norm": 0.7890625, "learning_rate": 9.904660216549668e-05, "loss": 0.3797, "step": 93860 }, { "epoch": 125.16, "grad_norm": 0.6796875, "learning_rate": 9.904639856293622e-05, "loss": 0.3745, "step": 93870 }, { "epoch": 125.17333333333333, "grad_norm": 0.84375, "learning_rate": 9.904619493884726e-05, "loss": 0.3693, "step": 93880 }, { "epoch": 125.18666666666667, "grad_norm": 0.7109375, "learning_rate": 9.904599129322987e-05, "loss": 0.3665, "step": 93890 }, { "epoch": 125.2, "grad_norm": 0.76171875, "learning_rate": 9.904578762608417e-05, "loss": 0.3595, "step": 93900 }, { "epoch": 125.21333333333334, "grad_norm": 0.83203125, "learning_rate": 9.904558393741021e-05, "loss": 0.3595, "step": 93910 }, { "epoch": 125.22666666666667, "grad_norm": 0.796875, "learning_rate": 9.90453802272081e-05, "loss": 0.37, "step": 93920 }, { "epoch": 125.24, "grad_norm": 0.9296875, "learning_rate": 9.904517649547795e-05, "loss": 0.356, "step": 93930 }, { "epoch": 125.25333333333333, "grad_norm": 0.75390625, "learning_rate": 9.904497274221982e-05, "loss": 0.3572, "step": 93940 }, { "epoch": 125.26666666666667, "grad_norm": 0.78125, "learning_rate": 9.90447689674338e-05, "loss": 0.3609, "step": 93950 }, { "epoch": 125.28, "grad_norm": 0.84765625, "learning_rate": 9.904456517112e-05, "loss": 0.3894, "step": 93960 }, { "epoch": 125.29333333333334, "grad_norm": 0.82421875, "learning_rate": 9.904436135327849e-05, "loss": 0.3479, "step": 93970 }, { "epoch": 125.30666666666667, "grad_norm": 0.73046875, "learning_rate": 9.904415751390935e-05, "loss": 0.3707, "step": 93980 }, { "epoch": 125.32, "grad_norm": 0.68359375, "learning_rate": 9.904395365301271e-05, "loss": 0.3756, "step": 93990 }, { "epoch": 125.33333333333333, "grad_norm": 0.8046875, "learning_rate": 9.904374977058863e-05, "loss": 0.3739, "step": 94000 }, { "epoch": 125.34666666666666, "grad_norm": 0.8671875, "learning_rate": 9.90435458666372e-05, "loss": 0.3642, "step": 94010 }, { "epoch": 125.36, "grad_norm": 0.81640625, "learning_rate": 9.90433419411585e-05, "loss": 0.3655, "step": 94020 }, { "epoch": 125.37333333333333, "grad_norm": 0.6796875, "learning_rate": 9.904313799415265e-05, "loss": 0.3688, "step": 94030 }, { "epoch": 125.38666666666667, "grad_norm": 0.86328125, "learning_rate": 9.904293402561972e-05, "loss": 0.3574, "step": 94040 }, { "epoch": 125.4, "grad_norm": 0.8125, "learning_rate": 9.904273003555981e-05, "loss": 0.3666, "step": 94050 }, { "epoch": 125.41333333333333, "grad_norm": 0.69921875, "learning_rate": 9.9042526023973e-05, "loss": 0.372, "step": 94060 }, { "epoch": 125.42666666666666, "grad_norm": 0.7421875, "learning_rate": 9.904232199085938e-05, "loss": 0.3741, "step": 94070 }, { "epoch": 125.44, "grad_norm": 0.859375, "learning_rate": 9.904211793621905e-05, "loss": 0.386, "step": 94080 }, { "epoch": 125.45333333333333, "grad_norm": 0.77734375, "learning_rate": 9.904191386005209e-05, "loss": 0.3729, "step": 94090 }, { "epoch": 125.46666666666667, "grad_norm": 0.73828125, "learning_rate": 9.904170976235858e-05, "loss": 0.3807, "step": 94100 }, { "epoch": 125.48, "grad_norm": 0.73828125, "learning_rate": 9.904150564313862e-05, "loss": 0.364, "step": 94110 }, { "epoch": 125.49333333333334, "grad_norm": 0.80859375, "learning_rate": 9.904130150239231e-05, "loss": 0.3754, "step": 94120 }, { "epoch": 125.50666666666666, "grad_norm": 0.9140625, "learning_rate": 9.904109734011972e-05, "loss": 0.3757, "step": 94130 }, { "epoch": 125.52, "grad_norm": 0.7109375, "learning_rate": 9.904089315632094e-05, "loss": 0.3653, "step": 94140 }, { "epoch": 125.53333333333333, "grad_norm": 0.85546875, "learning_rate": 9.904068895099609e-05, "loss": 0.3673, "step": 94150 }, { "epoch": 125.54666666666667, "grad_norm": 0.95703125, "learning_rate": 9.904048472414524e-05, "loss": 0.3689, "step": 94160 }, { "epoch": 125.56, "grad_norm": 0.68359375, "learning_rate": 9.904028047576845e-05, "loss": 0.3619, "step": 94170 }, { "epoch": 125.57333333333334, "grad_norm": 0.9296875, "learning_rate": 9.904007620586586e-05, "loss": 0.3669, "step": 94180 }, { "epoch": 125.58666666666667, "grad_norm": 0.76953125, "learning_rate": 9.903987191443754e-05, "loss": 0.3579, "step": 94190 }, { "epoch": 125.6, "grad_norm": 0.80859375, "learning_rate": 9.903966760148357e-05, "loss": 0.3597, "step": 94200 }, { "epoch": 125.61333333333333, "grad_norm": 0.6953125, "learning_rate": 9.903946326700403e-05, "loss": 0.352, "step": 94210 }, { "epoch": 125.62666666666667, "grad_norm": 0.65625, "learning_rate": 9.903925891099906e-05, "loss": 0.356, "step": 94220 }, { "epoch": 125.64, "grad_norm": 0.796875, "learning_rate": 9.90390545334687e-05, "loss": 0.3642, "step": 94230 }, { "epoch": 125.65333333333334, "grad_norm": 0.75, "learning_rate": 9.903885013441306e-05, "loss": 0.373, "step": 94240 }, { "epoch": 125.66666666666667, "grad_norm": 0.72265625, "learning_rate": 9.903864571383221e-05, "loss": 0.3648, "step": 94250 }, { "epoch": 125.68, "grad_norm": 0.796875, "learning_rate": 9.903844127172628e-05, "loss": 0.3543, "step": 94260 }, { "epoch": 125.69333333333333, "grad_norm": 0.7109375, "learning_rate": 9.903823680809532e-05, "loss": 0.3654, "step": 94270 }, { "epoch": 125.70666666666666, "grad_norm": 0.85546875, "learning_rate": 9.903803232293943e-05, "loss": 0.3548, "step": 94280 }, { "epoch": 125.72, "grad_norm": 0.87109375, "learning_rate": 9.90378278162587e-05, "loss": 0.3763, "step": 94290 }, { "epoch": 125.73333333333333, "grad_norm": 0.80859375, "learning_rate": 9.903762328805324e-05, "loss": 0.3722, "step": 94300 }, { "epoch": 125.74666666666667, "grad_norm": 0.828125, "learning_rate": 9.903741873832313e-05, "loss": 0.3745, "step": 94310 }, { "epoch": 125.76, "grad_norm": 0.828125, "learning_rate": 9.903721416706843e-05, "loss": 0.3881, "step": 94320 }, { "epoch": 125.77333333333333, "grad_norm": 0.83203125, "learning_rate": 9.903700957428927e-05, "loss": 0.3723, "step": 94330 }, { "epoch": 125.78666666666666, "grad_norm": 0.7578125, "learning_rate": 9.903680495998573e-05, "loss": 0.3763, "step": 94340 }, { "epoch": 125.8, "grad_norm": 0.8359375, "learning_rate": 9.903660032415788e-05, "loss": 0.3727, "step": 94350 }, { "epoch": 125.81333333333333, "grad_norm": 0.87109375, "learning_rate": 9.903639566680583e-05, "loss": 0.3472, "step": 94360 }, { "epoch": 125.82666666666667, "grad_norm": 0.79296875, "learning_rate": 9.903619098792966e-05, "loss": 0.3539, "step": 94370 }, { "epoch": 125.84, "grad_norm": 0.91015625, "learning_rate": 9.903598628752946e-05, "loss": 0.3671, "step": 94380 }, { "epoch": 125.85333333333334, "grad_norm": 0.796875, "learning_rate": 9.903578156560531e-05, "loss": 0.3628, "step": 94390 }, { "epoch": 125.86666666666666, "grad_norm": 0.78515625, "learning_rate": 9.903557682215734e-05, "loss": 0.368, "step": 94400 }, { "epoch": 125.88, "grad_norm": 0.77734375, "learning_rate": 9.90353720571856e-05, "loss": 0.3493, "step": 94410 }, { "epoch": 125.89333333333333, "grad_norm": 0.72265625, "learning_rate": 9.903516727069018e-05, "loss": 0.3628, "step": 94420 }, { "epoch": 125.90666666666667, "grad_norm": 0.8203125, "learning_rate": 9.90349624626712e-05, "loss": 0.3664, "step": 94430 }, { "epoch": 125.92, "grad_norm": 0.81640625, "learning_rate": 9.903475763312873e-05, "loss": 0.3674, "step": 94440 }, { "epoch": 125.93333333333334, "grad_norm": 0.69921875, "learning_rate": 9.903455278206287e-05, "loss": 0.3642, "step": 94450 }, { "epoch": 125.94666666666667, "grad_norm": 0.76171875, "learning_rate": 9.903434790947368e-05, "loss": 0.363, "step": 94460 }, { "epoch": 125.96, "grad_norm": 0.734375, "learning_rate": 9.903414301536127e-05, "loss": 0.3624, "step": 94470 }, { "epoch": 125.97333333333333, "grad_norm": 0.97265625, "learning_rate": 9.903393809972575e-05, "loss": 0.3843, "step": 94480 }, { "epoch": 125.98666666666666, "grad_norm": 0.859375, "learning_rate": 9.903373316256718e-05, "loss": 0.3543, "step": 94490 }, { "epoch": 126.0, "grad_norm": 0.80859375, "learning_rate": 9.903352820388567e-05, "loss": 0.356, "step": 94500 }, { "epoch": 126.0, "eval_loss": 0.41838347911834717, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4173, "eval_samples_per_second": 1.401, "eval_steps_per_second": 0.088, "step": 94500 }, { "epoch": 126.01333333333334, "grad_norm": 0.84375, "learning_rate": 9.90333232236813e-05, "loss": 0.371, "step": 94510 }, { "epoch": 126.02666666666667, "grad_norm": 0.765625, "learning_rate": 9.903311822195416e-05, "loss": 0.387, "step": 94520 }, { "epoch": 126.04, "grad_norm": 0.765625, "learning_rate": 9.903291319870434e-05, "loss": 0.4002, "step": 94530 }, { "epoch": 126.05333333333333, "grad_norm": 0.80859375, "learning_rate": 9.903270815393193e-05, "loss": 0.3836, "step": 94540 }, { "epoch": 126.06666666666666, "grad_norm": 0.828125, "learning_rate": 9.903250308763703e-05, "loss": 0.3723, "step": 94550 }, { "epoch": 126.08, "grad_norm": 0.828125, "learning_rate": 9.90322979998197e-05, "loss": 0.3759, "step": 94560 }, { "epoch": 126.09333333333333, "grad_norm": 0.8515625, "learning_rate": 9.903209289048008e-05, "loss": 0.3776, "step": 94570 }, { "epoch": 126.10666666666667, "grad_norm": 0.73828125, "learning_rate": 9.903188775961821e-05, "loss": 0.3665, "step": 94580 }, { "epoch": 126.12, "grad_norm": 0.80078125, "learning_rate": 9.903168260723421e-05, "loss": 0.3679, "step": 94590 }, { "epoch": 126.13333333333334, "grad_norm": 0.78125, "learning_rate": 9.903147743332816e-05, "loss": 0.361, "step": 94600 }, { "epoch": 126.14666666666666, "grad_norm": 0.70703125, "learning_rate": 9.903127223790016e-05, "loss": 0.3794, "step": 94610 }, { "epoch": 126.16, "grad_norm": 0.73828125, "learning_rate": 9.903106702095028e-05, "loss": 0.3745, "step": 94620 }, { "epoch": 126.17333333333333, "grad_norm": 0.875, "learning_rate": 9.903086178247862e-05, "loss": 0.3695, "step": 94630 }, { "epoch": 126.18666666666667, "grad_norm": 0.75, "learning_rate": 9.90306565224853e-05, "loss": 0.3661, "step": 94640 }, { "epoch": 126.2, "grad_norm": 0.71875, "learning_rate": 9.903045124097035e-05, "loss": 0.3586, "step": 94650 }, { "epoch": 126.21333333333334, "grad_norm": 0.86328125, "learning_rate": 9.903024593793391e-05, "loss": 0.3588, "step": 94660 }, { "epoch": 126.22666666666667, "grad_norm": 0.83203125, "learning_rate": 9.903004061337604e-05, "loss": 0.3699, "step": 94670 }, { "epoch": 126.24, "grad_norm": 0.8828125, "learning_rate": 9.902983526729686e-05, "loss": 0.3566, "step": 94680 }, { "epoch": 126.25333333333333, "grad_norm": 0.8125, "learning_rate": 9.902962989969643e-05, "loss": 0.3578, "step": 94690 }, { "epoch": 126.26666666666667, "grad_norm": 0.78515625, "learning_rate": 9.902942451057485e-05, "loss": 0.3603, "step": 94700 }, { "epoch": 126.28, "grad_norm": 0.83984375, "learning_rate": 9.902921909993221e-05, "loss": 0.3882, "step": 94710 }, { "epoch": 126.29333333333334, "grad_norm": 0.8046875, "learning_rate": 9.90290136677686e-05, "loss": 0.3479, "step": 94720 }, { "epoch": 126.30666666666667, "grad_norm": 0.74609375, "learning_rate": 9.902880821408413e-05, "loss": 0.3714, "step": 94730 }, { "epoch": 126.32, "grad_norm": 0.671875, "learning_rate": 9.902860273887886e-05, "loss": 0.3749, "step": 94740 }, { "epoch": 126.33333333333333, "grad_norm": 0.80078125, "learning_rate": 9.902839724215291e-05, "loss": 0.3734, "step": 94750 }, { "epoch": 126.34666666666666, "grad_norm": 0.84375, "learning_rate": 9.902819172390634e-05, "loss": 0.3643, "step": 94760 }, { "epoch": 126.36, "grad_norm": 0.7578125, "learning_rate": 9.902798618413926e-05, "loss": 0.3659, "step": 94770 }, { "epoch": 126.37333333333333, "grad_norm": 0.7734375, "learning_rate": 9.902778062285175e-05, "loss": 0.3685, "step": 94780 }, { "epoch": 126.38666666666667, "grad_norm": 0.96484375, "learning_rate": 9.90275750400439e-05, "loss": 0.3564, "step": 94790 }, { "epoch": 126.4, "grad_norm": 0.828125, "learning_rate": 9.902736943571581e-05, "loss": 0.366, "step": 94800 }, { "epoch": 126.41333333333333, "grad_norm": 0.734375, "learning_rate": 9.902716380986757e-05, "loss": 0.372, "step": 94810 }, { "epoch": 126.42666666666666, "grad_norm": 0.78515625, "learning_rate": 9.902695816249925e-05, "loss": 0.3737, "step": 94820 }, { "epoch": 126.44, "grad_norm": 0.78515625, "learning_rate": 9.902675249361097e-05, "loss": 0.3864, "step": 94830 }, { "epoch": 126.45333333333333, "grad_norm": 0.86328125, "learning_rate": 9.90265468032028e-05, "loss": 0.373, "step": 94840 }, { "epoch": 126.46666666666667, "grad_norm": 0.80078125, "learning_rate": 9.902634109127484e-05, "loss": 0.3806, "step": 94850 }, { "epoch": 126.48, "grad_norm": 0.8046875, "learning_rate": 9.902613535782717e-05, "loss": 0.3643, "step": 94860 }, { "epoch": 126.49333333333334, "grad_norm": 0.734375, "learning_rate": 9.902592960285991e-05, "loss": 0.3752, "step": 94870 }, { "epoch": 126.50666666666666, "grad_norm": 0.765625, "learning_rate": 9.90257238263731e-05, "loss": 0.3746, "step": 94880 }, { "epoch": 126.52, "grad_norm": 0.703125, "learning_rate": 9.902551802836686e-05, "loss": 0.3661, "step": 94890 }, { "epoch": 126.53333333333333, "grad_norm": 0.82421875, "learning_rate": 9.902531220884128e-05, "loss": 0.3677, "step": 94900 }, { "epoch": 126.54666666666667, "grad_norm": 0.90625, "learning_rate": 9.902510636779646e-05, "loss": 0.3676, "step": 94910 }, { "epoch": 126.56, "grad_norm": 0.75390625, "learning_rate": 9.902490050523245e-05, "loss": 0.363, "step": 94920 }, { "epoch": 126.57333333333334, "grad_norm": 0.80078125, "learning_rate": 9.90246946211494e-05, "loss": 0.3681, "step": 94930 }, { "epoch": 126.58666666666667, "grad_norm": 0.84375, "learning_rate": 9.902448871554735e-05, "loss": 0.3584, "step": 94940 }, { "epoch": 126.6, "grad_norm": 0.79296875, "learning_rate": 9.902428278842642e-05, "loss": 0.3588, "step": 94950 }, { "epoch": 126.61333333333333, "grad_norm": 0.76953125, "learning_rate": 9.902407683978667e-05, "loss": 0.3525, "step": 94960 }, { "epoch": 126.62666666666667, "grad_norm": 0.7265625, "learning_rate": 9.902387086962823e-05, "loss": 0.356, "step": 94970 }, { "epoch": 126.64, "grad_norm": 0.80859375, "learning_rate": 9.902366487795117e-05, "loss": 0.3637, "step": 94980 }, { "epoch": 126.65333333333334, "grad_norm": 0.734375, "learning_rate": 9.902345886475556e-05, "loss": 0.3745, "step": 94990 }, { "epoch": 126.66666666666667, "grad_norm": 0.87890625, "learning_rate": 9.902325283004155e-05, "loss": 0.3651, "step": 95000 }, { "epoch": 126.68, "grad_norm": 0.796875, "learning_rate": 9.902304677380915e-05, "loss": 0.3537, "step": 95010 }, { "epoch": 126.69333333333333, "grad_norm": 0.86328125, "learning_rate": 9.902284069605853e-05, "loss": 0.3646, "step": 95020 }, { "epoch": 126.70666666666666, "grad_norm": 0.8515625, "learning_rate": 9.902263459678972e-05, "loss": 0.3549, "step": 95030 }, { "epoch": 126.72, "grad_norm": 0.890625, "learning_rate": 9.902242847600285e-05, "loss": 0.3773, "step": 95040 }, { "epoch": 126.73333333333333, "grad_norm": 0.734375, "learning_rate": 9.902222233369798e-05, "loss": 0.3721, "step": 95050 }, { "epoch": 126.74666666666667, "grad_norm": 0.78515625, "learning_rate": 9.902201616987521e-05, "loss": 0.3757, "step": 95060 }, { "epoch": 126.76, "grad_norm": 0.83984375, "learning_rate": 9.902180998453464e-05, "loss": 0.3879, "step": 95070 }, { "epoch": 126.77333333333333, "grad_norm": 0.91015625, "learning_rate": 9.902160377767635e-05, "loss": 0.3734, "step": 95080 }, { "epoch": 126.78666666666666, "grad_norm": 0.75, "learning_rate": 9.902139754930044e-05, "loss": 0.3749, "step": 95090 }, { "epoch": 126.8, "grad_norm": 0.796875, "learning_rate": 9.9021191299407e-05, "loss": 0.373, "step": 95100 }, { "epoch": 126.81333333333333, "grad_norm": 0.921875, "learning_rate": 9.902098502799612e-05, "loss": 0.3463, "step": 95110 }, { "epoch": 126.82666666666667, "grad_norm": 0.74609375, "learning_rate": 9.902077873506788e-05, "loss": 0.3538, "step": 95120 }, { "epoch": 126.84, "grad_norm": 0.86328125, "learning_rate": 9.902057242062239e-05, "loss": 0.3664, "step": 95130 }, { "epoch": 126.85333333333334, "grad_norm": 0.7421875, "learning_rate": 9.902036608465971e-05, "loss": 0.3618, "step": 95140 }, { "epoch": 126.86666666666666, "grad_norm": 0.83203125, "learning_rate": 9.902015972717995e-05, "loss": 0.3685, "step": 95150 }, { "epoch": 126.88, "grad_norm": 0.8203125, "learning_rate": 9.901995334818322e-05, "loss": 0.3484, "step": 95160 }, { "epoch": 126.89333333333333, "grad_norm": 0.7421875, "learning_rate": 9.901974694766956e-05, "loss": 0.3618, "step": 95170 }, { "epoch": 126.90666666666667, "grad_norm": 0.796875, "learning_rate": 9.901954052563911e-05, "loss": 0.3653, "step": 95180 }, { "epoch": 126.92, "grad_norm": 0.828125, "learning_rate": 9.901933408209194e-05, "loss": 0.3667, "step": 95190 }, { "epoch": 126.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.901912761702815e-05, "loss": 0.3625, "step": 95200 }, { "epoch": 126.94666666666667, "grad_norm": 0.84375, "learning_rate": 9.901892113044782e-05, "loss": 0.3629, "step": 95210 }, { "epoch": 126.96, "grad_norm": 0.8046875, "learning_rate": 9.901871462235103e-05, "loss": 0.3616, "step": 95220 }, { "epoch": 126.97333333333333, "grad_norm": 0.96875, "learning_rate": 9.901850809273789e-05, "loss": 0.3842, "step": 95230 }, { "epoch": 126.98666666666666, "grad_norm": 0.87109375, "learning_rate": 9.901830154160849e-05, "loss": 0.3541, "step": 95240 }, { "epoch": 127.0, "grad_norm": 0.796875, "learning_rate": 9.90180949689629e-05, "loss": 0.3555, "step": 95250 }, { "epoch": 127.0, "eval_loss": 0.4181024432182312, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.5652, "eval_samples_per_second": 1.383, "eval_steps_per_second": 0.086, "step": 95250 }, { "epoch": 127.01333333333334, "grad_norm": 0.92578125, "learning_rate": 9.901788837480124e-05, "loss": 0.3711, "step": 95260 }, { "epoch": 127.02666666666667, "grad_norm": 0.72265625, "learning_rate": 9.901768175912358e-05, "loss": 0.3859, "step": 95270 }, { "epoch": 127.04, "grad_norm": 0.71875, "learning_rate": 9.901747512193003e-05, "loss": 0.4002, "step": 95280 }, { "epoch": 127.05333333333333, "grad_norm": 0.85546875, "learning_rate": 9.901726846322065e-05, "loss": 0.3832, "step": 95290 }, { "epoch": 127.06666666666666, "grad_norm": 0.859375, "learning_rate": 9.901706178299554e-05, "loss": 0.3721, "step": 95300 }, { "epoch": 127.08, "grad_norm": 0.75, "learning_rate": 9.901685508125483e-05, "loss": 0.3757, "step": 95310 }, { "epoch": 127.09333333333333, "grad_norm": 0.79296875, "learning_rate": 9.901664835799857e-05, "loss": 0.3785, "step": 95320 }, { "epoch": 127.10666666666667, "grad_norm": 0.6875, "learning_rate": 9.901644161322685e-05, "loss": 0.3665, "step": 95330 }, { "epoch": 127.12, "grad_norm": 0.7890625, "learning_rate": 9.901623484693978e-05, "loss": 0.3673, "step": 95340 }, { "epoch": 127.13333333333334, "grad_norm": 0.72265625, "learning_rate": 9.901602805913744e-05, "loss": 0.3604, "step": 95350 }, { "epoch": 127.14666666666666, "grad_norm": 0.76171875, "learning_rate": 9.901582124981991e-05, "loss": 0.3787, "step": 95360 }, { "epoch": 127.16, "grad_norm": 0.73828125, "learning_rate": 9.901561441898733e-05, "loss": 0.3745, "step": 95370 }, { "epoch": 127.17333333333333, "grad_norm": 0.83203125, "learning_rate": 9.901540756663971e-05, "loss": 0.3699, "step": 95380 }, { "epoch": 127.18666666666667, "grad_norm": 0.78125, "learning_rate": 9.901520069277722e-05, "loss": 0.3657, "step": 95390 }, { "epoch": 127.2, "grad_norm": 0.80859375, "learning_rate": 9.901499379739991e-05, "loss": 0.3574, "step": 95400 }, { "epoch": 127.21333333333334, "grad_norm": 0.83984375, "learning_rate": 9.901478688050787e-05, "loss": 0.3587, "step": 95410 }, { "epoch": 127.22666666666667, "grad_norm": 0.80859375, "learning_rate": 9.901457994210119e-05, "loss": 0.3696, "step": 95420 }, { "epoch": 127.24, "grad_norm": 0.8046875, "learning_rate": 9.901437298217998e-05, "loss": 0.3567, "step": 95430 }, { "epoch": 127.25333333333333, "grad_norm": 0.83984375, "learning_rate": 9.901416600074432e-05, "loss": 0.3581, "step": 95440 }, { "epoch": 127.26666666666667, "grad_norm": 0.69921875, "learning_rate": 9.90139589977943e-05, "loss": 0.3604, "step": 95450 }, { "epoch": 127.28, "grad_norm": 0.80859375, "learning_rate": 9.901375197333001e-05, "loss": 0.3885, "step": 95460 }, { "epoch": 127.29333333333334, "grad_norm": 0.80078125, "learning_rate": 9.901354492735153e-05, "loss": 0.347, "step": 95470 }, { "epoch": 127.30666666666667, "grad_norm": 0.72265625, "learning_rate": 9.901333785985898e-05, "loss": 0.3713, "step": 95480 }, { "epoch": 127.32, "grad_norm": 0.76171875, "learning_rate": 9.901313077085243e-05, "loss": 0.3747, "step": 95490 }, { "epoch": 127.33333333333333, "grad_norm": 0.91796875, "learning_rate": 9.901292366033197e-05, "loss": 0.3734, "step": 95500 }, { "epoch": 127.34666666666666, "grad_norm": 0.89453125, "learning_rate": 9.90127165282977e-05, "loss": 0.365, "step": 95510 }, { "epoch": 127.36, "grad_norm": 0.78515625, "learning_rate": 9.90125093747497e-05, "loss": 0.3656, "step": 95520 }, { "epoch": 127.37333333333333, "grad_norm": 0.7109375, "learning_rate": 9.901230219968808e-05, "loss": 0.3689, "step": 95530 }, { "epoch": 127.38666666666667, "grad_norm": 0.90625, "learning_rate": 9.90120950031129e-05, "loss": 0.3562, "step": 95540 }, { "epoch": 127.4, "grad_norm": 0.8984375, "learning_rate": 9.901188778502429e-05, "loss": 0.3669, "step": 95550 }, { "epoch": 127.41333333333333, "grad_norm": 0.7578125, "learning_rate": 9.901168054542232e-05, "loss": 0.372, "step": 95560 }, { "epoch": 127.42666666666666, "grad_norm": 0.76953125, "learning_rate": 9.901147328430707e-05, "loss": 0.3731, "step": 95570 }, { "epoch": 127.44, "grad_norm": 0.83203125, "learning_rate": 9.901126600167864e-05, "loss": 0.3859, "step": 95580 }, { "epoch": 127.45333333333333, "grad_norm": 0.8046875, "learning_rate": 9.901105869753712e-05, "loss": 0.3737, "step": 95590 }, { "epoch": 127.46666666666667, "grad_norm": 0.73828125, "learning_rate": 9.901085137188262e-05, "loss": 0.3803, "step": 95600 }, { "epoch": 127.48, "grad_norm": 0.78125, "learning_rate": 9.90106440247152e-05, "loss": 0.363, "step": 95610 }, { "epoch": 127.49333333333334, "grad_norm": 0.78515625, "learning_rate": 9.9010436656035e-05, "loss": 0.3764, "step": 95620 }, { "epoch": 127.50666666666666, "grad_norm": 0.80078125, "learning_rate": 9.901022926584204e-05, "loss": 0.3747, "step": 95630 }, { "epoch": 127.52, "grad_norm": 0.7578125, "learning_rate": 9.901002185413646e-05, "loss": 0.3665, "step": 95640 }, { "epoch": 127.53333333333333, "grad_norm": 0.81640625, "learning_rate": 9.900981442091835e-05, "loss": 0.3665, "step": 95650 }, { "epoch": 127.54666666666667, "grad_norm": 0.87109375, "learning_rate": 9.900960696618777e-05, "loss": 0.3674, "step": 95660 }, { "epoch": 127.56, "grad_norm": 0.73046875, "learning_rate": 9.900939948994484e-05, "loss": 0.3622, "step": 95670 }, { "epoch": 127.57333333333334, "grad_norm": 0.82421875, "learning_rate": 9.900919199218966e-05, "loss": 0.3673, "step": 95680 }, { "epoch": 127.58666666666667, "grad_norm": 0.703125, "learning_rate": 9.900898447292229e-05, "loss": 0.3573, "step": 95690 }, { "epoch": 127.6, "grad_norm": 0.73046875, "learning_rate": 9.900877693214282e-05, "loss": 0.359, "step": 95700 }, { "epoch": 127.61333333333333, "grad_norm": 0.69140625, "learning_rate": 9.900856936985137e-05, "loss": 0.3511, "step": 95710 }, { "epoch": 127.62666666666667, "grad_norm": 0.69140625, "learning_rate": 9.900836178604802e-05, "loss": 0.3549, "step": 95720 }, { "epoch": 127.64, "grad_norm": 0.82421875, "learning_rate": 9.900815418073285e-05, "loss": 0.3633, "step": 95730 }, { "epoch": 127.65333333333334, "grad_norm": 0.7578125, "learning_rate": 9.900794655390597e-05, "loss": 0.3735, "step": 95740 }, { "epoch": 127.66666666666667, "grad_norm": 0.6953125, "learning_rate": 9.900773890556745e-05, "loss": 0.3645, "step": 95750 }, { "epoch": 127.68, "grad_norm": 0.8203125, "learning_rate": 9.90075312357174e-05, "loss": 0.3537, "step": 95760 }, { "epoch": 127.69333333333333, "grad_norm": 0.76171875, "learning_rate": 9.90073235443559e-05, "loss": 0.3652, "step": 95770 }, { "epoch": 127.70666666666666, "grad_norm": 0.8828125, "learning_rate": 9.900711583148303e-05, "loss": 0.3542, "step": 95780 }, { "epoch": 127.72, "grad_norm": 0.91015625, "learning_rate": 9.900690809709892e-05, "loss": 0.3758, "step": 95790 }, { "epoch": 127.73333333333333, "grad_norm": 0.8125, "learning_rate": 9.900670034120362e-05, "loss": 0.372, "step": 95800 }, { "epoch": 127.74666666666667, "grad_norm": 0.7890625, "learning_rate": 9.900649256379724e-05, "loss": 0.3743, "step": 95810 }, { "epoch": 127.76, "grad_norm": 0.8125, "learning_rate": 9.900628476487987e-05, "loss": 0.3876, "step": 95820 }, { "epoch": 127.77333333333333, "grad_norm": 0.921875, "learning_rate": 9.90060769444516e-05, "loss": 0.3721, "step": 95830 }, { "epoch": 127.78666666666666, "grad_norm": 0.69921875, "learning_rate": 9.900586910251251e-05, "loss": 0.3751, "step": 95840 }, { "epoch": 127.8, "grad_norm": 0.84375, "learning_rate": 9.900566123906272e-05, "loss": 0.372, "step": 95850 }, { "epoch": 127.81333333333333, "grad_norm": 0.89453125, "learning_rate": 9.90054533541023e-05, "loss": 0.3463, "step": 95860 }, { "epoch": 127.82666666666667, "grad_norm": 0.75390625, "learning_rate": 9.900524544763134e-05, "loss": 0.3535, "step": 95870 }, { "epoch": 127.84, "grad_norm": 0.83984375, "learning_rate": 9.900503751964994e-05, "loss": 0.3661, "step": 95880 }, { "epoch": 127.85333333333334, "grad_norm": 0.7734375, "learning_rate": 9.900482957015818e-05, "loss": 0.3625, "step": 95890 }, { "epoch": 127.86666666666666, "grad_norm": 0.8046875, "learning_rate": 9.900462159915617e-05, "loss": 0.3682, "step": 95900 }, { "epoch": 127.88, "grad_norm": 0.7109375, "learning_rate": 9.900441360664397e-05, "loss": 0.3493, "step": 95910 }, { "epoch": 127.89333333333333, "grad_norm": 0.7734375, "learning_rate": 9.900420559262172e-05, "loss": 0.3615, "step": 95920 }, { "epoch": 127.90666666666667, "grad_norm": 0.85546875, "learning_rate": 9.900399755708945e-05, "loss": 0.3659, "step": 95930 }, { "epoch": 127.92, "grad_norm": 0.79296875, "learning_rate": 9.900378950004732e-05, "loss": 0.3671, "step": 95940 }, { "epoch": 127.93333333333334, "grad_norm": 0.6953125, "learning_rate": 9.900358142149535e-05, "loss": 0.3634, "step": 95950 }, { "epoch": 127.94666666666667, "grad_norm": 0.78125, "learning_rate": 9.900337332143368e-05, "loss": 0.3633, "step": 95960 }, { "epoch": 127.96, "grad_norm": 0.7421875, "learning_rate": 9.900316519986239e-05, "loss": 0.3618, "step": 95970 }, { "epoch": 127.97333333333333, "grad_norm": 1.0, "learning_rate": 9.900295705678157e-05, "loss": 0.384, "step": 95980 }, { "epoch": 127.98666666666666, "grad_norm": 0.77734375, "learning_rate": 9.900274889219133e-05, "loss": 0.3546, "step": 95990 }, { "epoch": 128.0, "grad_norm": 0.73828125, "learning_rate": 9.90025407060917e-05, "loss": 0.3559, "step": 96000 }, { "epoch": 128.0, "eval_loss": 0.4193152189254761, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4108, "eval_samples_per_second": 1.402, "eval_steps_per_second": 0.088, "step": 96000 }, { "epoch": 128.01333333333332, "grad_norm": 0.84765625, "learning_rate": 9.900233249848285e-05, "loss": 0.372, "step": 96010 }, { "epoch": 128.02666666666667, "grad_norm": 0.7578125, "learning_rate": 9.900212426936482e-05, "loss": 0.3865, "step": 96020 }, { "epoch": 128.04, "grad_norm": 0.78515625, "learning_rate": 9.90019160187377e-05, "loss": 0.399, "step": 96030 }, { "epoch": 128.05333333333334, "grad_norm": 0.79296875, "learning_rate": 9.900170774660162e-05, "loss": 0.3832, "step": 96040 }, { "epoch": 128.06666666666666, "grad_norm": 0.90234375, "learning_rate": 9.900149945295665e-05, "loss": 0.3722, "step": 96050 }, { "epoch": 128.08, "grad_norm": 0.75390625, "learning_rate": 9.900129113780287e-05, "loss": 0.375, "step": 96060 }, { "epoch": 128.09333333333333, "grad_norm": 0.828125, "learning_rate": 9.900108280114037e-05, "loss": 0.3775, "step": 96070 }, { "epoch": 128.10666666666665, "grad_norm": 0.70703125, "learning_rate": 9.900087444296928e-05, "loss": 0.3673, "step": 96080 }, { "epoch": 128.12, "grad_norm": 0.87109375, "learning_rate": 9.900066606328965e-05, "loss": 0.3672, "step": 96090 }, { "epoch": 128.13333333333333, "grad_norm": 0.7890625, "learning_rate": 9.900045766210158e-05, "loss": 0.3599, "step": 96100 }, { "epoch": 128.14666666666668, "grad_norm": 0.72265625, "learning_rate": 9.900024923940519e-05, "loss": 0.3792, "step": 96110 }, { "epoch": 128.16, "grad_norm": 0.765625, "learning_rate": 9.900004079520053e-05, "loss": 0.3743, "step": 96120 }, { "epoch": 128.17333333333335, "grad_norm": 0.875, "learning_rate": 9.899983232948771e-05, "loss": 0.3682, "step": 96130 }, { "epoch": 128.18666666666667, "grad_norm": 0.75390625, "learning_rate": 9.899962384226682e-05, "loss": 0.366, "step": 96140 }, { "epoch": 128.2, "grad_norm": 0.71875, "learning_rate": 9.899941533353797e-05, "loss": 0.3582, "step": 96150 }, { "epoch": 128.21333333333334, "grad_norm": 0.80078125, "learning_rate": 9.899920680330123e-05, "loss": 0.3581, "step": 96160 }, { "epoch": 128.22666666666666, "grad_norm": 0.7578125, "learning_rate": 9.899899825155668e-05, "loss": 0.3699, "step": 96170 }, { "epoch": 128.24, "grad_norm": 0.78125, "learning_rate": 9.899878967830445e-05, "loss": 0.3566, "step": 96180 }, { "epoch": 128.25333333333333, "grad_norm": 0.765625, "learning_rate": 9.899858108354461e-05, "loss": 0.3577, "step": 96190 }, { "epoch": 128.26666666666668, "grad_norm": 0.75390625, "learning_rate": 9.899837246727724e-05, "loss": 0.3608, "step": 96200 }, { "epoch": 128.28, "grad_norm": 0.8359375, "learning_rate": 9.899816382950243e-05, "loss": 0.3877, "step": 96210 }, { "epoch": 128.29333333333332, "grad_norm": 0.7890625, "learning_rate": 9.89979551702203e-05, "loss": 0.3473, "step": 96220 }, { "epoch": 128.30666666666667, "grad_norm": 0.734375, "learning_rate": 9.899774648943093e-05, "loss": 0.3692, "step": 96230 }, { "epoch": 128.32, "grad_norm": 0.71484375, "learning_rate": 9.89975377871344e-05, "loss": 0.3747, "step": 96240 }, { "epoch": 128.33333333333334, "grad_norm": 0.80859375, "learning_rate": 9.899732906333081e-05, "loss": 0.3738, "step": 96250 }, { "epoch": 128.34666666666666, "grad_norm": 0.86328125, "learning_rate": 9.899712031802026e-05, "loss": 0.3644, "step": 96260 }, { "epoch": 128.36, "grad_norm": 0.80078125, "learning_rate": 9.899691155120283e-05, "loss": 0.3647, "step": 96270 }, { "epoch": 128.37333333333333, "grad_norm": 0.6953125, "learning_rate": 9.89967027628786e-05, "loss": 0.3679, "step": 96280 }, { "epoch": 128.38666666666666, "grad_norm": 0.890625, "learning_rate": 9.899649395304768e-05, "loss": 0.3557, "step": 96290 }, { "epoch": 128.4, "grad_norm": 0.8203125, "learning_rate": 9.899628512171018e-05, "loss": 0.3654, "step": 96300 }, { "epoch": 128.41333333333333, "grad_norm": 0.76171875, "learning_rate": 9.899607626886614e-05, "loss": 0.3725, "step": 96310 }, { "epoch": 128.42666666666668, "grad_norm": 0.75390625, "learning_rate": 9.89958673945157e-05, "loss": 0.3734, "step": 96320 }, { "epoch": 128.44, "grad_norm": 0.76953125, "learning_rate": 9.899565849865893e-05, "loss": 0.3857, "step": 96330 }, { "epoch": 128.45333333333335, "grad_norm": 0.76953125, "learning_rate": 9.899544958129592e-05, "loss": 0.3732, "step": 96340 }, { "epoch": 128.46666666666667, "grad_norm": 0.765625, "learning_rate": 9.899524064242676e-05, "loss": 0.3804, "step": 96350 }, { "epoch": 128.48, "grad_norm": 0.82421875, "learning_rate": 9.899503168205155e-05, "loss": 0.3636, "step": 96360 }, { "epoch": 128.49333333333334, "grad_norm": 0.8125, "learning_rate": 9.899482270017038e-05, "loss": 0.3753, "step": 96370 }, { "epoch": 128.50666666666666, "grad_norm": 0.76953125, "learning_rate": 9.899461369678334e-05, "loss": 0.3746, "step": 96380 }, { "epoch": 128.52, "grad_norm": 0.7265625, "learning_rate": 9.899440467189054e-05, "loss": 0.3659, "step": 96390 }, { "epoch": 128.53333333333333, "grad_norm": 0.83984375, "learning_rate": 9.899419562549204e-05, "loss": 0.3666, "step": 96400 }, { "epoch": 128.54666666666665, "grad_norm": 0.90625, "learning_rate": 9.899398655758793e-05, "loss": 0.3674, "step": 96410 }, { "epoch": 128.56, "grad_norm": 0.7421875, "learning_rate": 9.899377746817834e-05, "loss": 0.3617, "step": 96420 }, { "epoch": 128.57333333333332, "grad_norm": 0.921875, "learning_rate": 9.899356835726334e-05, "loss": 0.3668, "step": 96430 }, { "epoch": 128.58666666666667, "grad_norm": 0.84375, "learning_rate": 9.8993359224843e-05, "loss": 0.3571, "step": 96440 }, { "epoch": 128.6, "grad_norm": 0.7578125, "learning_rate": 9.899315007091746e-05, "loss": 0.3581, "step": 96450 }, { "epoch": 128.61333333333334, "grad_norm": 0.72265625, "learning_rate": 9.899294089548678e-05, "loss": 0.3509, "step": 96460 }, { "epoch": 128.62666666666667, "grad_norm": 0.69921875, "learning_rate": 9.899273169855105e-05, "loss": 0.3558, "step": 96470 }, { "epoch": 128.64, "grad_norm": 0.9140625, "learning_rate": 9.899252248011037e-05, "loss": 0.363, "step": 96480 }, { "epoch": 128.65333333333334, "grad_norm": 0.80078125, "learning_rate": 9.899231324016483e-05, "loss": 0.3731, "step": 96490 }, { "epoch": 128.66666666666666, "grad_norm": 0.671875, "learning_rate": 9.899210397871452e-05, "loss": 0.3646, "step": 96500 }, { "epoch": 128.68, "grad_norm": 0.875, "learning_rate": 9.899189469575955e-05, "loss": 0.3529, "step": 96510 }, { "epoch": 128.69333333333333, "grad_norm": 0.74609375, "learning_rate": 9.899168539129998e-05, "loss": 0.3647, "step": 96520 }, { "epoch": 128.70666666666668, "grad_norm": 0.87109375, "learning_rate": 9.899147606533592e-05, "loss": 0.3544, "step": 96530 }, { "epoch": 128.72, "grad_norm": 0.828125, "learning_rate": 9.899126671786747e-05, "loss": 0.3762, "step": 96540 }, { "epoch": 128.73333333333332, "grad_norm": 0.75, "learning_rate": 9.89910573488947e-05, "loss": 0.3713, "step": 96550 }, { "epoch": 128.74666666666667, "grad_norm": 0.83203125, "learning_rate": 9.899084795841771e-05, "loss": 0.3743, "step": 96560 }, { "epoch": 128.76, "grad_norm": 0.875, "learning_rate": 9.899063854643662e-05, "loss": 0.3881, "step": 96570 }, { "epoch": 128.77333333333334, "grad_norm": 0.8515625, "learning_rate": 9.899042911295147e-05, "loss": 0.3719, "step": 96580 }, { "epoch": 128.78666666666666, "grad_norm": 0.7421875, "learning_rate": 9.89902196579624e-05, "loss": 0.3745, "step": 96590 }, { "epoch": 128.8, "grad_norm": 0.80078125, "learning_rate": 9.899001018146948e-05, "loss": 0.3726, "step": 96600 }, { "epoch": 128.81333333333333, "grad_norm": 0.90625, "learning_rate": 9.89898006834728e-05, "loss": 0.3469, "step": 96610 }, { "epoch": 128.82666666666665, "grad_norm": 0.78125, "learning_rate": 9.898959116397244e-05, "loss": 0.3543, "step": 96620 }, { "epoch": 128.84, "grad_norm": 0.8515625, "learning_rate": 9.898938162296851e-05, "loss": 0.3667, "step": 96630 }, { "epoch": 128.85333333333332, "grad_norm": 0.74609375, "learning_rate": 9.89891720604611e-05, "loss": 0.3623, "step": 96640 }, { "epoch": 128.86666666666667, "grad_norm": 0.84765625, "learning_rate": 9.898896247645031e-05, "loss": 0.3675, "step": 96650 }, { "epoch": 128.88, "grad_norm": 0.6875, "learning_rate": 9.898875287093623e-05, "loss": 0.3487, "step": 96660 }, { "epoch": 128.89333333333335, "grad_norm": 0.6796875, "learning_rate": 9.898854324391895e-05, "loss": 0.3615, "step": 96670 }, { "epoch": 128.90666666666667, "grad_norm": 0.8203125, "learning_rate": 9.898833359539855e-05, "loss": 0.3657, "step": 96680 }, { "epoch": 128.92, "grad_norm": 0.80859375, "learning_rate": 9.898812392537511e-05, "loss": 0.367, "step": 96690 }, { "epoch": 128.93333333333334, "grad_norm": 0.70703125, "learning_rate": 9.898791423384876e-05, "loss": 0.3635, "step": 96700 }, { "epoch": 128.94666666666666, "grad_norm": 0.80859375, "learning_rate": 9.898770452081956e-05, "loss": 0.3637, "step": 96710 }, { "epoch": 128.96, "grad_norm": 0.73828125, "learning_rate": 9.898749478628763e-05, "loss": 0.3616, "step": 96720 }, { "epoch": 128.97333333333333, "grad_norm": 1.0859375, "learning_rate": 9.898728503025305e-05, "loss": 0.3841, "step": 96730 }, { "epoch": 128.98666666666668, "grad_norm": 0.7890625, "learning_rate": 9.89870752527159e-05, "loss": 0.3548, "step": 96740 }, { "epoch": 129.0, "grad_norm": 0.8046875, "learning_rate": 9.898686545367628e-05, "loss": 0.3561, "step": 96750 }, { "epoch": 129.0, "eval_loss": 0.4196036159992218, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.1011, "eval_samples_per_second": 1.322, "eval_steps_per_second": 0.083, "step": 96750 }, { "epoch": 129.01333333333332, "grad_norm": 0.859375, "learning_rate": 9.89866556331343e-05, "loss": 0.3709, "step": 96760 }, { "epoch": 129.02666666666667, "grad_norm": 0.8046875, "learning_rate": 9.898644579109003e-05, "loss": 0.3863, "step": 96770 }, { "epoch": 129.04, "grad_norm": 0.75390625, "learning_rate": 9.898623592754355e-05, "loss": 0.3998, "step": 96780 }, { "epoch": 129.05333333333334, "grad_norm": 0.79296875, "learning_rate": 9.898602604249499e-05, "loss": 0.3829, "step": 96790 }, { "epoch": 129.06666666666666, "grad_norm": 0.875, "learning_rate": 9.89858161359444e-05, "loss": 0.3718, "step": 96800 }, { "epoch": 129.08, "grad_norm": 0.8515625, "learning_rate": 9.898560620789191e-05, "loss": 0.3745, "step": 96810 }, { "epoch": 129.09333333333333, "grad_norm": 0.77734375, "learning_rate": 9.89853962583376e-05, "loss": 0.3763, "step": 96820 }, { "epoch": 129.10666666666665, "grad_norm": 0.765625, "learning_rate": 9.898518628728156e-05, "loss": 0.3663, "step": 96830 }, { "epoch": 129.12, "grad_norm": 0.80859375, "learning_rate": 9.898497629472387e-05, "loss": 0.3678, "step": 96840 }, { "epoch": 129.13333333333333, "grad_norm": 0.77734375, "learning_rate": 9.898476628066463e-05, "loss": 0.3598, "step": 96850 }, { "epoch": 129.14666666666668, "grad_norm": 0.80859375, "learning_rate": 9.898455624510395e-05, "loss": 0.3789, "step": 96860 }, { "epoch": 129.16, "grad_norm": 0.7734375, "learning_rate": 9.898434618804188e-05, "loss": 0.3734, "step": 96870 }, { "epoch": 129.17333333333335, "grad_norm": 0.8203125, "learning_rate": 9.898413610947857e-05, "loss": 0.3681, "step": 96880 }, { "epoch": 129.18666666666667, "grad_norm": 0.76171875, "learning_rate": 9.898392600941408e-05, "loss": 0.365, "step": 96890 }, { "epoch": 129.2, "grad_norm": 0.83203125, "learning_rate": 9.89837158878485e-05, "loss": 0.358, "step": 96900 }, { "epoch": 129.21333333333334, "grad_norm": 0.84375, "learning_rate": 9.898350574478191e-05, "loss": 0.3585, "step": 96910 }, { "epoch": 129.22666666666666, "grad_norm": 0.81640625, "learning_rate": 9.898329558021444e-05, "loss": 0.3697, "step": 96920 }, { "epoch": 129.24, "grad_norm": 0.7890625, "learning_rate": 9.898308539414615e-05, "loss": 0.3556, "step": 96930 }, { "epoch": 129.25333333333333, "grad_norm": 0.921875, "learning_rate": 9.898287518657714e-05, "loss": 0.3567, "step": 96940 }, { "epoch": 129.26666666666668, "grad_norm": 0.75, "learning_rate": 9.898266495750751e-05, "loss": 0.3602, "step": 96950 }, { "epoch": 129.28, "grad_norm": 0.76171875, "learning_rate": 9.898245470693734e-05, "loss": 0.3874, "step": 96960 }, { "epoch": 129.29333333333332, "grad_norm": 0.72265625, "learning_rate": 9.898224443486674e-05, "loss": 0.347, "step": 96970 }, { "epoch": 129.30666666666667, "grad_norm": 0.73828125, "learning_rate": 9.898203414129578e-05, "loss": 0.3702, "step": 96980 }, { "epoch": 129.32, "grad_norm": 0.7265625, "learning_rate": 9.898182382622458e-05, "loss": 0.3752, "step": 96990 }, { "epoch": 129.33333333333334, "grad_norm": 0.80859375, "learning_rate": 9.898161348965322e-05, "loss": 0.3737, "step": 97000 }, { "epoch": 129.34666666666666, "grad_norm": 0.875, "learning_rate": 9.898140313158178e-05, "loss": 0.364, "step": 97010 }, { "epoch": 129.36, "grad_norm": 0.8046875, "learning_rate": 9.898119275201035e-05, "loss": 0.3648, "step": 97020 }, { "epoch": 129.37333333333333, "grad_norm": 0.76953125, "learning_rate": 9.898098235093904e-05, "loss": 0.368, "step": 97030 }, { "epoch": 129.38666666666666, "grad_norm": 0.859375, "learning_rate": 9.898077192836794e-05, "loss": 0.356, "step": 97040 }, { "epoch": 129.4, "grad_norm": 0.8515625, "learning_rate": 9.898056148429716e-05, "loss": 0.3656, "step": 97050 }, { "epoch": 129.41333333333333, "grad_norm": 0.74609375, "learning_rate": 9.898035101872673e-05, "loss": 0.3721, "step": 97060 }, { "epoch": 129.42666666666668, "grad_norm": 0.7578125, "learning_rate": 9.89801405316568e-05, "loss": 0.373, "step": 97070 }, { "epoch": 129.44, "grad_norm": 0.82421875, "learning_rate": 9.897993002308746e-05, "loss": 0.3854, "step": 97080 }, { "epoch": 129.45333333333335, "grad_norm": 0.765625, "learning_rate": 9.897971949301878e-05, "loss": 0.3733, "step": 97090 }, { "epoch": 129.46666666666667, "grad_norm": 0.82421875, "learning_rate": 9.897950894145085e-05, "loss": 0.3805, "step": 97100 }, { "epoch": 129.48, "grad_norm": 0.73828125, "learning_rate": 9.89792983683838e-05, "loss": 0.3634, "step": 97110 }, { "epoch": 129.49333333333334, "grad_norm": 0.85546875, "learning_rate": 9.897908777381766e-05, "loss": 0.3758, "step": 97120 }, { "epoch": 129.50666666666666, "grad_norm": 0.7890625, "learning_rate": 9.897887715775259e-05, "loss": 0.3746, "step": 97130 }, { "epoch": 129.52, "grad_norm": 0.6875, "learning_rate": 9.897866652018861e-05, "loss": 0.3654, "step": 97140 }, { "epoch": 129.53333333333333, "grad_norm": 0.8125, "learning_rate": 9.897845586112588e-05, "loss": 0.3662, "step": 97150 }, { "epoch": 129.54666666666665, "grad_norm": 0.84375, "learning_rate": 9.897824518056446e-05, "loss": 0.3679, "step": 97160 }, { "epoch": 129.56, "grad_norm": 0.7109375, "learning_rate": 9.897803447850446e-05, "loss": 0.3623, "step": 97170 }, { "epoch": 129.57333333333332, "grad_norm": 0.84765625, "learning_rate": 9.897782375494594e-05, "loss": 0.3678, "step": 97180 }, { "epoch": 129.58666666666667, "grad_norm": 0.859375, "learning_rate": 9.897761300988902e-05, "loss": 0.3577, "step": 97190 }, { "epoch": 129.6, "grad_norm": 0.6875, "learning_rate": 9.89774022433338e-05, "loss": 0.3595, "step": 97200 }, { "epoch": 129.61333333333334, "grad_norm": 0.76953125, "learning_rate": 9.897719145528034e-05, "loss": 0.3511, "step": 97210 }, { "epoch": 129.62666666666667, "grad_norm": 0.72265625, "learning_rate": 9.897698064572876e-05, "loss": 0.3557, "step": 97220 }, { "epoch": 129.64, "grad_norm": 0.87109375, "learning_rate": 9.897676981467912e-05, "loss": 0.3634, "step": 97230 }, { "epoch": 129.65333333333334, "grad_norm": 0.7734375, "learning_rate": 9.897655896213155e-05, "loss": 0.3732, "step": 97240 }, { "epoch": 129.66666666666666, "grad_norm": 0.7109375, "learning_rate": 9.897634808808613e-05, "loss": 0.3639, "step": 97250 }, { "epoch": 129.68, "grad_norm": 0.7578125, "learning_rate": 9.897613719254297e-05, "loss": 0.3526, "step": 97260 }, { "epoch": 129.69333333333333, "grad_norm": 0.72265625, "learning_rate": 9.897592627550212e-05, "loss": 0.3644, "step": 97270 }, { "epoch": 129.70666666666668, "grad_norm": 0.93359375, "learning_rate": 9.897571533696369e-05, "loss": 0.3542, "step": 97280 }, { "epoch": 129.72, "grad_norm": 0.8203125, "learning_rate": 9.897550437692779e-05, "loss": 0.376, "step": 97290 }, { "epoch": 129.73333333333332, "grad_norm": 0.765625, "learning_rate": 9.897529339539448e-05, "loss": 0.372, "step": 97300 }, { "epoch": 129.74666666666667, "grad_norm": 0.76171875, "learning_rate": 9.897508239236391e-05, "loss": 0.3738, "step": 97310 }, { "epoch": 129.76, "grad_norm": 0.8359375, "learning_rate": 9.897487136783611e-05, "loss": 0.3876, "step": 97320 }, { "epoch": 129.77333333333334, "grad_norm": 0.84765625, "learning_rate": 9.89746603218112e-05, "loss": 0.3719, "step": 97330 }, { "epoch": 129.78666666666666, "grad_norm": 0.73828125, "learning_rate": 9.897444925428928e-05, "loss": 0.3746, "step": 97340 }, { "epoch": 129.8, "grad_norm": 0.86328125, "learning_rate": 9.897423816527043e-05, "loss": 0.3719, "step": 97350 }, { "epoch": 129.81333333333333, "grad_norm": 0.90234375, "learning_rate": 9.897402705475475e-05, "loss": 0.3468, "step": 97360 }, { "epoch": 129.82666666666665, "grad_norm": 0.765625, "learning_rate": 9.897381592274232e-05, "loss": 0.3535, "step": 97370 }, { "epoch": 129.84, "grad_norm": 0.81640625, "learning_rate": 9.897360476923326e-05, "loss": 0.3664, "step": 97380 }, { "epoch": 129.85333333333332, "grad_norm": 0.76953125, "learning_rate": 9.897339359422762e-05, "loss": 0.3623, "step": 97390 }, { "epoch": 129.86666666666667, "grad_norm": 0.828125, "learning_rate": 9.897318239772553e-05, "loss": 0.3665, "step": 97400 }, { "epoch": 129.88, "grad_norm": 0.75390625, "learning_rate": 9.897297117972705e-05, "loss": 0.3485, "step": 97410 }, { "epoch": 129.89333333333335, "grad_norm": 0.73828125, "learning_rate": 9.897275994023232e-05, "loss": 0.3607, "step": 97420 }, { "epoch": 129.90666666666667, "grad_norm": 0.79296875, "learning_rate": 9.89725486792414e-05, "loss": 0.3656, "step": 97430 }, { "epoch": 129.92, "grad_norm": 0.87890625, "learning_rate": 9.897233739675439e-05, "loss": 0.3665, "step": 97440 }, { "epoch": 129.93333333333334, "grad_norm": 0.734375, "learning_rate": 9.897212609277138e-05, "loss": 0.3631, "step": 97450 }, { "epoch": 129.94666666666666, "grad_norm": 0.83203125, "learning_rate": 9.897191476729244e-05, "loss": 0.3628, "step": 97460 }, { "epoch": 129.96, "grad_norm": 0.76171875, "learning_rate": 9.897170342031772e-05, "loss": 0.3613, "step": 97470 }, { "epoch": 129.97333333333333, "grad_norm": 1.03125, "learning_rate": 9.897149205184726e-05, "loss": 0.3846, "step": 97480 }, { "epoch": 129.98666666666668, "grad_norm": 0.77734375, "learning_rate": 9.897128066188117e-05, "loss": 0.3541, "step": 97490 }, { "epoch": 130.0, "grad_norm": 0.78515625, "learning_rate": 9.897106925041955e-05, "loss": 0.3554, "step": 97500 }, { "epoch": 130.0, "eval_loss": 0.41819095611572266, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.8332, "eval_samples_per_second": 1.352, "eval_steps_per_second": 0.085, "step": 97500 }, { "epoch": 130.01333333333332, "grad_norm": 0.84765625, "learning_rate": 9.89708578174625e-05, "loss": 0.3718, "step": 97510 }, { "epoch": 130.02666666666667, "grad_norm": 0.77734375, "learning_rate": 9.897064636301008e-05, "loss": 0.3859, "step": 97520 }, { "epoch": 130.04, "grad_norm": 0.75, "learning_rate": 9.897043488706242e-05, "loss": 0.3995, "step": 97530 }, { "epoch": 130.05333333333334, "grad_norm": 0.7578125, "learning_rate": 9.897022338961957e-05, "loss": 0.383, "step": 97540 }, { "epoch": 130.06666666666666, "grad_norm": 0.90625, "learning_rate": 9.897001187068167e-05, "loss": 0.3707, "step": 97550 }, { "epoch": 130.08, "grad_norm": 0.8125, "learning_rate": 9.896980033024879e-05, "loss": 0.3741, "step": 97560 }, { "epoch": 130.09333333333333, "grad_norm": 0.9453125, "learning_rate": 9.896958876832102e-05, "loss": 0.3766, "step": 97570 }, { "epoch": 130.10666666666665, "grad_norm": 0.75, "learning_rate": 9.896937718489846e-05, "loss": 0.3661, "step": 97580 }, { "epoch": 130.12, "grad_norm": 0.7734375, "learning_rate": 9.89691655799812e-05, "loss": 0.3671, "step": 97590 }, { "epoch": 130.13333333333333, "grad_norm": 0.80078125, "learning_rate": 9.896895395356933e-05, "loss": 0.3591, "step": 97600 }, { "epoch": 130.14666666666668, "grad_norm": 0.90625, "learning_rate": 9.896874230566296e-05, "loss": 0.379, "step": 97610 }, { "epoch": 130.16, "grad_norm": 0.6875, "learning_rate": 9.896853063626215e-05, "loss": 0.3747, "step": 97620 }, { "epoch": 130.17333333333335, "grad_norm": 0.83984375, "learning_rate": 9.896831894536702e-05, "loss": 0.3685, "step": 97630 }, { "epoch": 130.18666666666667, "grad_norm": 0.75, "learning_rate": 9.896810723297764e-05, "loss": 0.3656, "step": 97640 }, { "epoch": 130.2, "grad_norm": 0.84765625, "learning_rate": 9.896789549909414e-05, "loss": 0.3575, "step": 97650 }, { "epoch": 130.21333333333334, "grad_norm": 0.83203125, "learning_rate": 9.896768374371658e-05, "loss": 0.358, "step": 97660 }, { "epoch": 130.22666666666666, "grad_norm": 0.8828125, "learning_rate": 9.896747196684506e-05, "loss": 0.3704, "step": 97670 }, { "epoch": 130.24, "grad_norm": 0.80859375, "learning_rate": 9.896726016847969e-05, "loss": 0.3552, "step": 97680 }, { "epoch": 130.25333333333333, "grad_norm": 0.7890625, "learning_rate": 9.896704834862053e-05, "loss": 0.3567, "step": 97690 }, { "epoch": 130.26666666666668, "grad_norm": 0.81640625, "learning_rate": 9.89668365072677e-05, "loss": 0.3601, "step": 97700 }, { "epoch": 130.28, "grad_norm": 0.87890625, "learning_rate": 9.896662464442128e-05, "loss": 0.3885, "step": 97710 }, { "epoch": 130.29333333333332, "grad_norm": 0.79296875, "learning_rate": 9.896641276008138e-05, "loss": 0.347, "step": 97720 }, { "epoch": 130.30666666666667, "grad_norm": 0.80078125, "learning_rate": 9.896620085424808e-05, "loss": 0.3709, "step": 97730 }, { "epoch": 130.32, "grad_norm": 0.76953125, "learning_rate": 9.896598892692148e-05, "loss": 0.3745, "step": 97740 }, { "epoch": 130.33333333333334, "grad_norm": 0.8125, "learning_rate": 9.896577697810165e-05, "loss": 0.3732, "step": 97750 }, { "epoch": 130.34666666666666, "grad_norm": 0.85546875, "learning_rate": 9.896556500778871e-05, "loss": 0.3642, "step": 97760 }, { "epoch": 130.36, "grad_norm": 0.859375, "learning_rate": 9.896535301598275e-05, "loss": 0.3657, "step": 97770 }, { "epoch": 130.37333333333333, "grad_norm": 0.72265625, "learning_rate": 9.896514100268385e-05, "loss": 0.3684, "step": 97780 }, { "epoch": 130.38666666666666, "grad_norm": 0.91015625, "learning_rate": 9.896492896789211e-05, "loss": 0.3558, "step": 97790 }, { "epoch": 130.4, "grad_norm": 0.8203125, "learning_rate": 9.896471691160763e-05, "loss": 0.3657, "step": 97800 }, { "epoch": 130.41333333333333, "grad_norm": 0.84765625, "learning_rate": 9.896450483383047e-05, "loss": 0.3724, "step": 97810 }, { "epoch": 130.42666666666668, "grad_norm": 0.73828125, "learning_rate": 9.896429273456078e-05, "loss": 0.3731, "step": 97820 }, { "epoch": 130.44, "grad_norm": 0.875, "learning_rate": 9.89640806137986e-05, "loss": 0.3854, "step": 97830 }, { "epoch": 130.45333333333335, "grad_norm": 0.81640625, "learning_rate": 9.896386847154405e-05, "loss": 0.3734, "step": 97840 }, { "epoch": 130.46666666666667, "grad_norm": 0.82421875, "learning_rate": 9.896365630779722e-05, "loss": 0.38, "step": 97850 }, { "epoch": 130.48, "grad_norm": 0.76171875, "learning_rate": 9.89634441225582e-05, "loss": 0.364, "step": 97860 }, { "epoch": 130.49333333333334, "grad_norm": 0.77734375, "learning_rate": 9.896323191582709e-05, "loss": 0.3755, "step": 97870 }, { "epoch": 130.50666666666666, "grad_norm": 0.8203125, "learning_rate": 9.896301968760397e-05, "loss": 0.3737, "step": 97880 }, { "epoch": 130.52, "grad_norm": 0.77734375, "learning_rate": 9.896280743788895e-05, "loss": 0.3657, "step": 97890 }, { "epoch": 130.53333333333333, "grad_norm": 0.7890625, "learning_rate": 9.896259516668211e-05, "loss": 0.3667, "step": 97900 }, { "epoch": 130.54666666666665, "grad_norm": 0.859375, "learning_rate": 9.896238287398354e-05, "loss": 0.3675, "step": 97910 }, { "epoch": 130.56, "grad_norm": 0.71875, "learning_rate": 9.896217055979336e-05, "loss": 0.362, "step": 97920 }, { "epoch": 130.57333333333332, "grad_norm": 0.80859375, "learning_rate": 9.896195822411162e-05, "loss": 0.3665, "step": 97930 }, { "epoch": 130.58666666666667, "grad_norm": 0.76953125, "learning_rate": 9.896174586693845e-05, "loss": 0.3571, "step": 97940 }, { "epoch": 130.6, "grad_norm": 0.79296875, "learning_rate": 9.896153348827393e-05, "loss": 0.3587, "step": 97950 }, { "epoch": 130.61333333333334, "grad_norm": 0.671875, "learning_rate": 9.896132108811815e-05, "loss": 0.3504, "step": 97960 }, { "epoch": 130.62666666666667, "grad_norm": 0.671875, "learning_rate": 9.89611086664712e-05, "loss": 0.3554, "step": 97970 }, { "epoch": 130.64, "grad_norm": 0.890625, "learning_rate": 9.896089622333318e-05, "loss": 0.3628, "step": 97980 }, { "epoch": 130.65333333333334, "grad_norm": 0.81640625, "learning_rate": 9.896068375870419e-05, "loss": 0.3731, "step": 97990 }, { "epoch": 130.66666666666666, "grad_norm": 0.75390625, "learning_rate": 9.896047127258431e-05, "loss": 0.3643, "step": 98000 }, { "epoch": 130.68, "grad_norm": 0.82421875, "learning_rate": 9.896025876497363e-05, "loss": 0.3534, "step": 98010 }, { "epoch": 130.69333333333333, "grad_norm": 0.69921875, "learning_rate": 9.896004623587227e-05, "loss": 0.3634, "step": 98020 }, { "epoch": 130.70666666666668, "grad_norm": 0.85546875, "learning_rate": 9.89598336852803e-05, "loss": 0.3539, "step": 98030 }, { "epoch": 130.72, "grad_norm": 0.79296875, "learning_rate": 9.895962111319783e-05, "loss": 0.3757, "step": 98040 }, { "epoch": 130.73333333333332, "grad_norm": 0.85546875, "learning_rate": 9.895940851962493e-05, "loss": 0.371, "step": 98050 }, { "epoch": 130.74666666666667, "grad_norm": 0.79296875, "learning_rate": 9.895919590456171e-05, "loss": 0.374, "step": 98060 }, { "epoch": 130.76, "grad_norm": 0.8203125, "learning_rate": 9.895898326800826e-05, "loss": 0.3866, "step": 98070 }, { "epoch": 130.77333333333334, "grad_norm": 0.82421875, "learning_rate": 9.895877060996467e-05, "loss": 0.3721, "step": 98080 }, { "epoch": 130.78666666666666, "grad_norm": 0.7421875, "learning_rate": 9.895855793043103e-05, "loss": 0.3744, "step": 98090 }, { "epoch": 130.8, "grad_norm": 0.82421875, "learning_rate": 9.895834522940746e-05, "loss": 0.3731, "step": 98100 }, { "epoch": 130.81333333333333, "grad_norm": 0.90234375, "learning_rate": 9.8958132506894e-05, "loss": 0.3467, "step": 98110 }, { "epoch": 130.82666666666665, "grad_norm": 0.80078125, "learning_rate": 9.895791976289079e-05, "loss": 0.3537, "step": 98120 }, { "epoch": 130.84, "grad_norm": 0.7734375, "learning_rate": 9.895770699739793e-05, "loss": 0.3667, "step": 98130 }, { "epoch": 130.85333333333332, "grad_norm": 0.75, "learning_rate": 9.895749421041547e-05, "loss": 0.3616, "step": 98140 }, { "epoch": 130.86666666666667, "grad_norm": 0.828125, "learning_rate": 9.895728140194353e-05, "loss": 0.3677, "step": 98150 }, { "epoch": 130.88, "grad_norm": 0.73828125, "learning_rate": 9.89570685719822e-05, "loss": 0.3492, "step": 98160 }, { "epoch": 130.89333333333335, "grad_norm": 0.734375, "learning_rate": 9.895685572053158e-05, "loss": 0.3613, "step": 98170 }, { "epoch": 130.90666666666667, "grad_norm": 0.8515625, "learning_rate": 9.895664284759175e-05, "loss": 0.3653, "step": 98180 }, { "epoch": 130.92, "grad_norm": 0.75390625, "learning_rate": 9.895642995316281e-05, "loss": 0.3667, "step": 98190 }, { "epoch": 130.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.895621703724484e-05, "loss": 0.3622, "step": 98200 }, { "epoch": 130.94666666666666, "grad_norm": 0.79296875, "learning_rate": 9.895600409983796e-05, "loss": 0.3632, "step": 98210 }, { "epoch": 130.96, "grad_norm": 0.75, "learning_rate": 9.895579114094226e-05, "loss": 0.3614, "step": 98220 }, { "epoch": 130.97333333333333, "grad_norm": 1.0859375, "learning_rate": 9.89555781605578e-05, "loss": 0.3842, "step": 98230 }, { "epoch": 130.98666666666668, "grad_norm": 0.78515625, "learning_rate": 9.895536515868472e-05, "loss": 0.3537, "step": 98240 }, { "epoch": 131.0, "grad_norm": 0.80859375, "learning_rate": 9.895515213532309e-05, "loss": 0.3546, "step": 98250 }, { "epoch": 131.0, "eval_loss": 0.4194316267967224, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4809, "eval_samples_per_second": 1.394, "eval_steps_per_second": 0.087, "step": 98250 }, { "epoch": 131.01333333333332, "grad_norm": 0.93359375, "learning_rate": 9.895493909047299e-05, "loss": 0.3701, "step": 98260 }, { "epoch": 131.02666666666667, "grad_norm": 0.78125, "learning_rate": 9.895472602413453e-05, "loss": 0.3865, "step": 98270 }, { "epoch": 131.04, "grad_norm": 0.72265625, "learning_rate": 9.89545129363078e-05, "loss": 0.3998, "step": 98280 }, { "epoch": 131.05333333333334, "grad_norm": 0.796875, "learning_rate": 9.89542998269929e-05, "loss": 0.383, "step": 98290 }, { "epoch": 131.06666666666666, "grad_norm": 0.89453125, "learning_rate": 9.895408669618992e-05, "loss": 0.3714, "step": 98300 }, { "epoch": 131.08, "grad_norm": 0.7578125, "learning_rate": 9.895387354389895e-05, "loss": 0.3753, "step": 98310 }, { "epoch": 131.09333333333333, "grad_norm": 0.796875, "learning_rate": 9.895366037012008e-05, "loss": 0.377, "step": 98320 }, { "epoch": 131.10666666666665, "grad_norm": 0.703125, "learning_rate": 9.895344717485342e-05, "loss": 0.3657, "step": 98330 }, { "epoch": 131.12, "grad_norm": 0.74609375, "learning_rate": 9.895323395809903e-05, "loss": 0.3672, "step": 98340 }, { "epoch": 131.13333333333333, "grad_norm": 0.84765625, "learning_rate": 9.895302071985705e-05, "loss": 0.3599, "step": 98350 }, { "epoch": 131.14666666666668, "grad_norm": 0.80078125, "learning_rate": 9.895280746012754e-05, "loss": 0.3787, "step": 98360 }, { "epoch": 131.16, "grad_norm": 0.70703125, "learning_rate": 9.89525941789106e-05, "loss": 0.3741, "step": 98370 }, { "epoch": 131.17333333333335, "grad_norm": 0.890625, "learning_rate": 9.895238087620633e-05, "loss": 0.3682, "step": 98380 }, { "epoch": 131.18666666666667, "grad_norm": 0.7734375, "learning_rate": 9.895216755201482e-05, "loss": 0.3659, "step": 98390 }, { "epoch": 131.2, "grad_norm": 0.81640625, "learning_rate": 9.895195420633617e-05, "loss": 0.3581, "step": 98400 }, { "epoch": 131.21333333333334, "grad_norm": 0.8359375, "learning_rate": 9.895174083917047e-05, "loss": 0.3586, "step": 98410 }, { "epoch": 131.22666666666666, "grad_norm": 0.7734375, "learning_rate": 9.89515274505178e-05, "loss": 0.3699, "step": 98420 }, { "epoch": 131.24, "grad_norm": 0.80078125, "learning_rate": 9.895131404037828e-05, "loss": 0.3556, "step": 98430 }, { "epoch": 131.25333333333333, "grad_norm": 0.81640625, "learning_rate": 9.895110060875197e-05, "loss": 0.357, "step": 98440 }, { "epoch": 131.26666666666668, "grad_norm": 0.7578125, "learning_rate": 9.895088715563898e-05, "loss": 0.3607, "step": 98450 }, { "epoch": 131.28, "grad_norm": 0.87890625, "learning_rate": 9.895067368103943e-05, "loss": 0.3874, "step": 98460 }, { "epoch": 131.29333333333332, "grad_norm": 0.80078125, "learning_rate": 9.895046018495337e-05, "loss": 0.3466, "step": 98470 }, { "epoch": 131.30666666666667, "grad_norm": 0.765625, "learning_rate": 9.895024666738093e-05, "loss": 0.3701, "step": 98480 }, { "epoch": 131.32, "grad_norm": 0.6796875, "learning_rate": 9.895003312832217e-05, "loss": 0.3743, "step": 98490 }, { "epoch": 131.33333333333334, "grad_norm": 0.88671875, "learning_rate": 9.894981956777721e-05, "loss": 0.3732, "step": 98500 }, { "epoch": 131.34666666666666, "grad_norm": 0.85546875, "learning_rate": 9.894960598574614e-05, "loss": 0.3641, "step": 98510 }, { "epoch": 131.36, "grad_norm": 0.86328125, "learning_rate": 9.894939238222905e-05, "loss": 0.3652, "step": 98520 }, { "epoch": 131.37333333333333, "grad_norm": 0.72265625, "learning_rate": 9.894917875722601e-05, "loss": 0.3681, "step": 98530 }, { "epoch": 131.38666666666666, "grad_norm": 0.91015625, "learning_rate": 9.894896511073715e-05, "loss": 0.3552, "step": 98540 }, { "epoch": 131.4, "grad_norm": 0.796875, "learning_rate": 9.894875144276255e-05, "loss": 0.3656, "step": 98550 }, { "epoch": 131.41333333333333, "grad_norm": 0.71875, "learning_rate": 9.894853775330231e-05, "loss": 0.3714, "step": 98560 }, { "epoch": 131.42666666666668, "grad_norm": 0.78125, "learning_rate": 9.894832404235651e-05, "loss": 0.3735, "step": 98570 }, { "epoch": 131.44, "grad_norm": 0.80859375, "learning_rate": 9.894811030992526e-05, "loss": 0.3859, "step": 98580 }, { "epoch": 131.45333333333335, "grad_norm": 0.8828125, "learning_rate": 9.894789655600862e-05, "loss": 0.3722, "step": 98590 }, { "epoch": 131.46666666666667, "grad_norm": 0.79296875, "learning_rate": 9.894768278060674e-05, "loss": 0.3795, "step": 98600 }, { "epoch": 131.48, "grad_norm": 0.78125, "learning_rate": 9.894746898371967e-05, "loss": 0.3633, "step": 98610 }, { "epoch": 131.49333333333334, "grad_norm": 0.75, "learning_rate": 9.894725516534751e-05, "loss": 0.3748, "step": 98620 }, { "epoch": 131.50666666666666, "grad_norm": 0.80859375, "learning_rate": 9.894704132549038e-05, "loss": 0.3747, "step": 98630 }, { "epoch": 131.52, "grad_norm": 0.734375, "learning_rate": 9.894682746414833e-05, "loss": 0.3645, "step": 98640 }, { "epoch": 131.53333333333333, "grad_norm": 0.75390625, "learning_rate": 9.894661358132149e-05, "loss": 0.3673, "step": 98650 }, { "epoch": 131.54666666666665, "grad_norm": 0.8515625, "learning_rate": 9.894639967700994e-05, "loss": 0.368, "step": 98660 }, { "epoch": 131.56, "grad_norm": 0.765625, "learning_rate": 9.894618575121377e-05, "loss": 0.362, "step": 98670 }, { "epoch": 131.57333333333332, "grad_norm": 0.84375, "learning_rate": 9.89459718039331e-05, "loss": 0.3664, "step": 98680 }, { "epoch": 131.58666666666667, "grad_norm": 0.7890625, "learning_rate": 9.894575783516799e-05, "loss": 0.3576, "step": 98690 }, { "epoch": 131.6, "grad_norm": 0.7421875, "learning_rate": 9.894554384491854e-05, "loss": 0.3585, "step": 98700 }, { "epoch": 131.61333333333334, "grad_norm": 0.74609375, "learning_rate": 9.894532983318485e-05, "loss": 0.3505, "step": 98710 }, { "epoch": 131.62666666666667, "grad_norm": 0.71484375, "learning_rate": 9.894511579996704e-05, "loss": 0.3544, "step": 98720 }, { "epoch": 131.64, "grad_norm": 0.8515625, "learning_rate": 9.894490174526516e-05, "loss": 0.3622, "step": 98730 }, { "epoch": 131.65333333333334, "grad_norm": 0.8671875, "learning_rate": 9.894468766907933e-05, "loss": 0.3728, "step": 98740 }, { "epoch": 131.66666666666666, "grad_norm": 0.72265625, "learning_rate": 9.894447357140963e-05, "loss": 0.3644, "step": 98750 }, { "epoch": 131.68, "grad_norm": 0.73046875, "learning_rate": 9.894425945225615e-05, "loss": 0.3528, "step": 98760 }, { "epoch": 131.69333333333333, "grad_norm": 0.7734375, "learning_rate": 9.894404531161903e-05, "loss": 0.3642, "step": 98770 }, { "epoch": 131.70666666666668, "grad_norm": 0.94140625, "learning_rate": 9.894383114949831e-05, "loss": 0.3541, "step": 98780 }, { "epoch": 131.72, "grad_norm": 0.875, "learning_rate": 9.894361696589411e-05, "loss": 0.3752, "step": 98790 }, { "epoch": 131.73333333333332, "grad_norm": 0.7890625, "learning_rate": 9.894340276080651e-05, "loss": 0.3709, "step": 98800 }, { "epoch": 131.74666666666667, "grad_norm": 0.74609375, "learning_rate": 9.89431885342356e-05, "loss": 0.3741, "step": 98810 }, { "epoch": 131.76, "grad_norm": 0.7890625, "learning_rate": 9.89429742861815e-05, "loss": 0.3865, "step": 98820 }, { "epoch": 131.77333333333334, "grad_norm": 0.859375, "learning_rate": 9.89427600166443e-05, "loss": 0.372, "step": 98830 }, { "epoch": 131.78666666666666, "grad_norm": 0.703125, "learning_rate": 9.894254572562408e-05, "loss": 0.3745, "step": 98840 }, { "epoch": 131.8, "grad_norm": 0.79296875, "learning_rate": 9.894233141312092e-05, "loss": 0.373, "step": 98850 }, { "epoch": 131.81333333333333, "grad_norm": 0.9140625, "learning_rate": 9.894211707913495e-05, "loss": 0.3463, "step": 98860 }, { "epoch": 131.82666666666665, "grad_norm": 0.8203125, "learning_rate": 9.894190272366622e-05, "loss": 0.3537, "step": 98870 }, { "epoch": 131.84, "grad_norm": 0.78125, "learning_rate": 9.894168834671487e-05, "loss": 0.3661, "step": 98880 }, { "epoch": 131.85333333333332, "grad_norm": 0.875, "learning_rate": 9.894147394828097e-05, "loss": 0.3613, "step": 98890 }, { "epoch": 131.86666666666667, "grad_norm": 0.828125, "learning_rate": 9.894125952836462e-05, "loss": 0.3678, "step": 98900 }, { "epoch": 131.88, "grad_norm": 0.7265625, "learning_rate": 9.894104508696591e-05, "loss": 0.3485, "step": 98910 }, { "epoch": 131.89333333333335, "grad_norm": 0.75, "learning_rate": 9.894083062408493e-05, "loss": 0.3613, "step": 98920 }, { "epoch": 131.90666666666667, "grad_norm": 0.76953125, "learning_rate": 9.894061613972179e-05, "loss": 0.3653, "step": 98930 }, { "epoch": 131.92, "grad_norm": 0.83203125, "learning_rate": 9.894040163387657e-05, "loss": 0.3669, "step": 98940 }, { "epoch": 131.93333333333334, "grad_norm": 0.70703125, "learning_rate": 9.894018710654938e-05, "loss": 0.3627, "step": 98950 }, { "epoch": 131.94666666666666, "grad_norm": 0.875, "learning_rate": 9.893997255774028e-05, "loss": 0.3629, "step": 98960 }, { "epoch": 131.96, "grad_norm": 0.76953125, "learning_rate": 9.893975798744941e-05, "loss": 0.3617, "step": 98970 }, { "epoch": 131.97333333333333, "grad_norm": 1.1171875, "learning_rate": 9.893954339567684e-05, "loss": 0.3842, "step": 98980 }, { "epoch": 131.98666666666668, "grad_norm": 0.84765625, "learning_rate": 9.893932878242264e-05, "loss": 0.3536, "step": 98990 }, { "epoch": 132.0, "grad_norm": 0.734375, "learning_rate": 9.893911414768694e-05, "loss": 0.3552, "step": 99000 }, { "epoch": 132.0, "eval_loss": 0.41769939661026, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4695, "eval_samples_per_second": 1.395, "eval_steps_per_second": 0.087, "step": 99000 }, { "epoch": 132.01333333333332, "grad_norm": 0.8828125, "learning_rate": 9.893889949146984e-05, "loss": 0.3703, "step": 99010 }, { "epoch": 132.02666666666667, "grad_norm": 0.734375, "learning_rate": 9.893868481377141e-05, "loss": 0.3849, "step": 99020 }, { "epoch": 132.04, "grad_norm": 0.77734375, "learning_rate": 9.893847011459175e-05, "loss": 0.3994, "step": 99030 }, { "epoch": 132.05333333333334, "grad_norm": 0.79296875, "learning_rate": 9.893825539393096e-05, "loss": 0.3834, "step": 99040 }, { "epoch": 132.06666666666666, "grad_norm": 0.95703125, "learning_rate": 9.893804065178914e-05, "loss": 0.3707, "step": 99050 }, { "epoch": 132.08, "grad_norm": 0.85546875, "learning_rate": 9.893782588816636e-05, "loss": 0.3748, "step": 99060 }, { "epoch": 132.09333333333333, "grad_norm": 0.80078125, "learning_rate": 9.893761110306272e-05, "loss": 0.3782, "step": 99070 }, { "epoch": 132.10666666666665, "grad_norm": 0.7265625, "learning_rate": 9.893739629647833e-05, "loss": 0.3666, "step": 99080 }, { "epoch": 132.12, "grad_norm": 0.7890625, "learning_rate": 9.893718146841329e-05, "loss": 0.3668, "step": 99090 }, { "epoch": 132.13333333333333, "grad_norm": 0.82421875, "learning_rate": 9.893696661886767e-05, "loss": 0.359, "step": 99100 }, { "epoch": 132.14666666666668, "grad_norm": 0.75390625, "learning_rate": 9.893675174784158e-05, "loss": 0.3786, "step": 99110 }, { "epoch": 132.16, "grad_norm": 0.78125, "learning_rate": 9.893653685533513e-05, "loss": 0.3747, "step": 99120 }, { "epoch": 132.17333333333335, "grad_norm": 0.87890625, "learning_rate": 9.893632194134837e-05, "loss": 0.3685, "step": 99130 }, { "epoch": 132.18666666666667, "grad_norm": 0.80078125, "learning_rate": 9.893610700588143e-05, "loss": 0.3651, "step": 99140 }, { "epoch": 132.2, "grad_norm": 0.78125, "learning_rate": 9.893589204893438e-05, "loss": 0.3582, "step": 99150 }, { "epoch": 132.21333333333334, "grad_norm": 0.8359375, "learning_rate": 9.893567707050735e-05, "loss": 0.3587, "step": 99160 }, { "epoch": 132.22666666666666, "grad_norm": 0.7890625, "learning_rate": 9.893546207060041e-05, "loss": 0.3692, "step": 99170 }, { "epoch": 132.24, "grad_norm": 0.8984375, "learning_rate": 9.893524704921365e-05, "loss": 0.3541, "step": 99180 }, { "epoch": 132.25333333333333, "grad_norm": 0.828125, "learning_rate": 9.893503200634716e-05, "loss": 0.3565, "step": 99190 }, { "epoch": 132.26666666666668, "grad_norm": 0.78515625, "learning_rate": 9.893481694200107e-05, "loss": 0.3601, "step": 99200 }, { "epoch": 132.28, "grad_norm": 0.8515625, "learning_rate": 9.893460185617542e-05, "loss": 0.3884, "step": 99210 }, { "epoch": 132.29333333333332, "grad_norm": 0.73046875, "learning_rate": 9.893438674887034e-05, "loss": 0.3468, "step": 99220 }, { "epoch": 132.30666666666667, "grad_norm": 0.78515625, "learning_rate": 9.893417162008594e-05, "loss": 0.3699, "step": 99230 }, { "epoch": 132.32, "grad_norm": 0.6875, "learning_rate": 9.893395646982229e-05, "loss": 0.3737, "step": 99240 }, { "epoch": 132.33333333333334, "grad_norm": 0.76171875, "learning_rate": 9.893374129807948e-05, "loss": 0.372, "step": 99250 }, { "epoch": 132.34666666666666, "grad_norm": 0.890625, "learning_rate": 9.89335261048576e-05, "loss": 0.364, "step": 99260 }, { "epoch": 132.36, "grad_norm": 0.859375, "learning_rate": 9.893331089015677e-05, "loss": 0.3642, "step": 99270 }, { "epoch": 132.37333333333333, "grad_norm": 0.71484375, "learning_rate": 9.893309565397709e-05, "loss": 0.3682, "step": 99280 }, { "epoch": 132.38666666666666, "grad_norm": 0.8828125, "learning_rate": 9.89328803963186e-05, "loss": 0.3552, "step": 99290 }, { "epoch": 132.4, "grad_norm": 0.78125, "learning_rate": 9.893266511718144e-05, "loss": 0.3655, "step": 99300 }, { "epoch": 132.41333333333333, "grad_norm": 0.76171875, "learning_rate": 9.89324498165657e-05, "loss": 0.371, "step": 99310 }, { "epoch": 132.42666666666668, "grad_norm": 0.8046875, "learning_rate": 9.893223449447148e-05, "loss": 0.3726, "step": 99320 }, { "epoch": 132.44, "grad_norm": 0.78515625, "learning_rate": 9.893201915089885e-05, "loss": 0.3853, "step": 99330 }, { "epoch": 132.45333333333335, "grad_norm": 0.80859375, "learning_rate": 9.893180378584792e-05, "loss": 0.3722, "step": 99340 }, { "epoch": 132.46666666666667, "grad_norm": 0.73828125, "learning_rate": 9.893158839931878e-05, "loss": 0.3793, "step": 99350 }, { "epoch": 132.48, "grad_norm": 0.734375, "learning_rate": 9.893137299131153e-05, "loss": 0.3626, "step": 99360 }, { "epoch": 132.49333333333334, "grad_norm": 0.77734375, "learning_rate": 9.893115756182628e-05, "loss": 0.3746, "step": 99370 }, { "epoch": 132.50666666666666, "grad_norm": 0.765625, "learning_rate": 9.893094211086308e-05, "loss": 0.3743, "step": 99380 }, { "epoch": 132.52, "grad_norm": 0.68359375, "learning_rate": 9.893072663842206e-05, "loss": 0.365, "step": 99390 }, { "epoch": 132.53333333333333, "grad_norm": 0.7578125, "learning_rate": 9.89305111445033e-05, "loss": 0.3666, "step": 99400 }, { "epoch": 132.54666666666665, "grad_norm": 0.91796875, "learning_rate": 9.89302956291069e-05, "loss": 0.3671, "step": 99410 }, { "epoch": 132.56, "grad_norm": 0.69140625, "learning_rate": 9.893008009223297e-05, "loss": 0.3614, "step": 99420 }, { "epoch": 132.57333333333332, "grad_norm": 0.8359375, "learning_rate": 9.892986453388158e-05, "loss": 0.3667, "step": 99430 }, { "epoch": 132.58666666666667, "grad_norm": 0.75, "learning_rate": 9.892964895405284e-05, "loss": 0.357, "step": 99440 }, { "epoch": 132.6, "grad_norm": 0.74609375, "learning_rate": 9.892943335274682e-05, "loss": 0.3582, "step": 99450 }, { "epoch": 132.61333333333334, "grad_norm": 0.6640625, "learning_rate": 9.892921772996364e-05, "loss": 0.351, "step": 99460 }, { "epoch": 132.62666666666667, "grad_norm": 0.67578125, "learning_rate": 9.89290020857034e-05, "loss": 0.3557, "step": 99470 }, { "epoch": 132.64, "grad_norm": 0.796875, "learning_rate": 9.892878641996617e-05, "loss": 0.3622, "step": 99480 }, { "epoch": 132.65333333333334, "grad_norm": 0.78125, "learning_rate": 9.892857073275207e-05, "loss": 0.3722, "step": 99490 }, { "epoch": 132.66666666666666, "grad_norm": 0.7578125, "learning_rate": 9.892835502406117e-05, "loss": 0.3639, "step": 99500 }, { "epoch": 132.68, "grad_norm": 0.921875, "learning_rate": 9.892813929389357e-05, "loss": 0.3524, "step": 99510 }, { "epoch": 132.69333333333333, "grad_norm": 0.73046875, "learning_rate": 9.892792354224939e-05, "loss": 0.3637, "step": 99520 }, { "epoch": 132.70666666666668, "grad_norm": 1.0078125, "learning_rate": 9.89277077691287e-05, "loss": 0.3541, "step": 99530 }, { "epoch": 132.72, "grad_norm": 0.88671875, "learning_rate": 9.89274919745316e-05, "loss": 0.3757, "step": 99540 }, { "epoch": 132.73333333333332, "grad_norm": 0.84765625, "learning_rate": 9.892727615845819e-05, "loss": 0.3707, "step": 99550 }, { "epoch": 132.74666666666667, "grad_norm": 0.81640625, "learning_rate": 9.892706032090854e-05, "loss": 0.3732, "step": 99560 }, { "epoch": 132.76, "grad_norm": 0.87890625, "learning_rate": 9.892684446188278e-05, "loss": 0.3875, "step": 99570 }, { "epoch": 132.77333333333334, "grad_norm": 0.89453125, "learning_rate": 9.892662858138099e-05, "loss": 0.3715, "step": 99580 }, { "epoch": 132.78666666666666, "grad_norm": 0.73046875, "learning_rate": 9.892641267940326e-05, "loss": 0.3747, "step": 99590 }, { "epoch": 132.8, "grad_norm": 0.8203125, "learning_rate": 9.89261967559497e-05, "loss": 0.3721, "step": 99600 }, { "epoch": 132.81333333333333, "grad_norm": 0.91796875, "learning_rate": 9.892598081102038e-05, "loss": 0.3463, "step": 99610 }, { "epoch": 132.82666666666665, "grad_norm": 0.73046875, "learning_rate": 9.892576484461541e-05, "loss": 0.353, "step": 99620 }, { "epoch": 132.84, "grad_norm": 0.796875, "learning_rate": 9.892554885673489e-05, "loss": 0.3663, "step": 99630 }, { "epoch": 132.85333333333332, "grad_norm": 0.765625, "learning_rate": 9.892533284737891e-05, "loss": 0.3618, "step": 99640 }, { "epoch": 132.86666666666667, "grad_norm": 0.88671875, "learning_rate": 9.892511681654754e-05, "loss": 0.368, "step": 99650 }, { "epoch": 132.88, "grad_norm": 0.73828125, "learning_rate": 9.892490076424092e-05, "loss": 0.3484, "step": 99660 }, { "epoch": 132.89333333333335, "grad_norm": 0.71484375, "learning_rate": 9.892468469045912e-05, "loss": 0.3617, "step": 99670 }, { "epoch": 132.90666666666667, "grad_norm": 0.80859375, "learning_rate": 9.892446859520224e-05, "loss": 0.3653, "step": 99680 }, { "epoch": 132.92, "grad_norm": 0.83984375, "learning_rate": 9.892425247847037e-05, "loss": 0.3664, "step": 99690 }, { "epoch": 132.93333333333334, "grad_norm": 0.78125, "learning_rate": 9.89240363402636e-05, "loss": 0.3628, "step": 99700 }, { "epoch": 132.94666666666666, "grad_norm": 0.76953125, "learning_rate": 9.892382018058203e-05, "loss": 0.3626, "step": 99710 }, { "epoch": 132.96, "grad_norm": 0.72265625, "learning_rate": 9.892360399942578e-05, "loss": 0.3607, "step": 99720 }, { "epoch": 132.97333333333333, "grad_norm": 1.0546875, "learning_rate": 9.89233877967949e-05, "loss": 0.3828, "step": 99730 }, { "epoch": 132.98666666666668, "grad_norm": 0.796875, "learning_rate": 9.892317157268952e-05, "loss": 0.3539, "step": 99740 }, { "epoch": 133.0, "grad_norm": 0.7734375, "learning_rate": 9.892295532710971e-05, "loss": 0.355, "step": 99750 }, { "epoch": 133.0, "eval_loss": 0.417176216840744, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.9926, "eval_samples_per_second": 1.334, "eval_steps_per_second": 0.083, "step": 99750 }, { "epoch": 133.01333333333332, "grad_norm": 0.87109375, "learning_rate": 9.892273906005559e-05, "loss": 0.3705, "step": 99760 }, { "epoch": 133.02666666666667, "grad_norm": 0.77734375, "learning_rate": 9.892252277152722e-05, "loss": 0.3861, "step": 99770 }, { "epoch": 133.04, "grad_norm": 0.71875, "learning_rate": 9.892230646152474e-05, "loss": 0.399, "step": 99780 }, { "epoch": 133.05333333333334, "grad_norm": 0.83984375, "learning_rate": 9.89220901300482e-05, "loss": 0.3822, "step": 99790 }, { "epoch": 133.06666666666666, "grad_norm": 0.87890625, "learning_rate": 9.892187377709772e-05, "loss": 0.3719, "step": 99800 }, { "epoch": 133.08, "grad_norm": 0.796875, "learning_rate": 9.89216574026734e-05, "loss": 0.3735, "step": 99810 }, { "epoch": 133.09333333333333, "grad_norm": 0.83984375, "learning_rate": 9.892144100677534e-05, "loss": 0.3775, "step": 99820 }, { "epoch": 133.10666666666665, "grad_norm": 0.75390625, "learning_rate": 9.89212245894036e-05, "loss": 0.3664, "step": 99830 }, { "epoch": 133.12, "grad_norm": 0.81640625, "learning_rate": 9.892100815055831e-05, "loss": 0.3665, "step": 99840 }, { "epoch": 133.13333333333333, "grad_norm": 0.73828125, "learning_rate": 9.892079169023954e-05, "loss": 0.3599, "step": 99850 }, { "epoch": 133.14666666666668, "grad_norm": 0.80859375, "learning_rate": 9.89205752084474e-05, "loss": 0.3786, "step": 99860 }, { "epoch": 133.16, "grad_norm": 0.73046875, "learning_rate": 9.892035870518197e-05, "loss": 0.3731, "step": 99870 }, { "epoch": 133.17333333333335, "grad_norm": 0.7578125, "learning_rate": 9.892014218044337e-05, "loss": 0.3676, "step": 99880 }, { "epoch": 133.18666666666667, "grad_norm": 0.75390625, "learning_rate": 9.891992563423169e-05, "loss": 0.3649, "step": 99890 }, { "epoch": 133.2, "grad_norm": 0.7421875, "learning_rate": 9.8919709066547e-05, "loss": 0.3572, "step": 99900 }, { "epoch": 133.21333333333334, "grad_norm": 0.8203125, "learning_rate": 9.891949247738941e-05, "loss": 0.3579, "step": 99910 }, { "epoch": 133.22666666666666, "grad_norm": 0.88671875, "learning_rate": 9.891927586675904e-05, "loss": 0.3697, "step": 99920 }, { "epoch": 133.24, "grad_norm": 0.82421875, "learning_rate": 9.891905923465594e-05, "loss": 0.3552, "step": 99930 }, { "epoch": 133.25333333333333, "grad_norm": 0.76171875, "learning_rate": 9.891884258108023e-05, "loss": 0.3564, "step": 99940 }, { "epoch": 133.26666666666668, "grad_norm": 0.75390625, "learning_rate": 9.8918625906032e-05, "loss": 0.3591, "step": 99950 }, { "epoch": 133.28, "grad_norm": 0.86328125, "learning_rate": 9.891840920951136e-05, "loss": 0.3873, "step": 99960 }, { "epoch": 133.29333333333332, "grad_norm": 0.859375, "learning_rate": 9.891819249151837e-05, "loss": 0.3464, "step": 99970 }, { "epoch": 133.30666666666667, "grad_norm": 0.80859375, "learning_rate": 9.891797575205317e-05, "loss": 0.3696, "step": 99980 }, { "epoch": 133.32, "grad_norm": 0.71875, "learning_rate": 9.891775899111582e-05, "loss": 0.374, "step": 99990 }, { "epoch": 133.33333333333334, "grad_norm": 0.8125, "learning_rate": 9.891754220870644e-05, "loss": 0.3724, "step": 100000 }, { "epoch": 133.34666666666666, "grad_norm": 0.83203125, "learning_rate": 9.89173254048251e-05, "loss": 0.3633, "step": 100010 }, { "epoch": 133.36, "grad_norm": 0.75390625, "learning_rate": 9.891710857947191e-05, "loss": 0.3637, "step": 100020 }, { "epoch": 133.37333333333333, "grad_norm": 0.72265625, "learning_rate": 9.891689173264695e-05, "loss": 0.3677, "step": 100030 }, { "epoch": 133.38666666666666, "grad_norm": 0.96875, "learning_rate": 9.891667486435034e-05, "loss": 0.3549, "step": 100040 }, { "epoch": 133.4, "grad_norm": 0.796875, "learning_rate": 9.891645797458218e-05, "loss": 0.3658, "step": 100050 }, { "epoch": 133.41333333333333, "grad_norm": 0.765625, "learning_rate": 9.891624106334253e-05, "loss": 0.3716, "step": 100060 }, { "epoch": 133.42666666666668, "grad_norm": 0.734375, "learning_rate": 9.89160241306315e-05, "loss": 0.373, "step": 100070 }, { "epoch": 133.44, "grad_norm": 0.7578125, "learning_rate": 9.89158071764492e-05, "loss": 0.3854, "step": 100080 }, { "epoch": 133.45333333333335, "grad_norm": 0.859375, "learning_rate": 9.891559020079572e-05, "loss": 0.3725, "step": 100090 }, { "epoch": 133.46666666666667, "grad_norm": 0.8203125, "learning_rate": 9.891537320367113e-05, "loss": 0.3792, "step": 100100 }, { "epoch": 133.48, "grad_norm": 0.82421875, "learning_rate": 9.891515618507556e-05, "loss": 0.3635, "step": 100110 }, { "epoch": 133.49333333333334, "grad_norm": 0.7421875, "learning_rate": 9.891493914500908e-05, "loss": 0.3736, "step": 100120 }, { "epoch": 133.50666666666666, "grad_norm": 0.86328125, "learning_rate": 9.891472208347181e-05, "loss": 0.3745, "step": 100130 }, { "epoch": 133.52, "grad_norm": 0.67578125, "learning_rate": 9.891450500046382e-05, "loss": 0.3654, "step": 100140 }, { "epoch": 133.53333333333333, "grad_norm": 0.84765625, "learning_rate": 9.891428789598522e-05, "loss": 0.367, "step": 100150 }, { "epoch": 133.54666666666665, "grad_norm": 0.91796875, "learning_rate": 9.89140707700361e-05, "loss": 0.3679, "step": 100160 }, { "epoch": 133.56, "grad_norm": 0.7109375, "learning_rate": 9.891385362261654e-05, "loss": 0.362, "step": 100170 }, { "epoch": 133.57333333333332, "grad_norm": 0.8125, "learning_rate": 9.891363645372667e-05, "loss": 0.3664, "step": 100180 }, { "epoch": 133.58666666666667, "grad_norm": 0.69140625, "learning_rate": 9.891341926336657e-05, "loss": 0.3567, "step": 100190 }, { "epoch": 133.6, "grad_norm": 0.78125, "learning_rate": 9.891320205153632e-05, "loss": 0.3582, "step": 100200 }, { "epoch": 133.61333333333334, "grad_norm": 0.65625, "learning_rate": 9.891298481823603e-05, "loss": 0.3506, "step": 100210 }, { "epoch": 133.62666666666667, "grad_norm": 0.6953125, "learning_rate": 9.89127675634658e-05, "loss": 0.3546, "step": 100220 }, { "epoch": 133.64, "grad_norm": 0.81640625, "learning_rate": 9.89125502872257e-05, "loss": 0.3626, "step": 100230 }, { "epoch": 133.65333333333334, "grad_norm": 0.765625, "learning_rate": 9.891233298951588e-05, "loss": 0.372, "step": 100240 }, { "epoch": 133.66666666666666, "grad_norm": 0.72265625, "learning_rate": 9.891211567033636e-05, "loss": 0.3638, "step": 100250 }, { "epoch": 133.68, "grad_norm": 0.83203125, "learning_rate": 9.89118983296873e-05, "loss": 0.3528, "step": 100260 }, { "epoch": 133.69333333333333, "grad_norm": 0.73828125, "learning_rate": 9.891168096756875e-05, "loss": 0.3633, "step": 100270 }, { "epoch": 133.70666666666668, "grad_norm": 0.83203125, "learning_rate": 9.891146358398084e-05, "loss": 0.3536, "step": 100280 }, { "epoch": 133.72, "grad_norm": 0.83203125, "learning_rate": 9.891124617892366e-05, "loss": 0.375, "step": 100290 }, { "epoch": 133.73333333333332, "grad_norm": 0.79296875, "learning_rate": 9.891102875239729e-05, "loss": 0.3718, "step": 100300 }, { "epoch": 133.74666666666667, "grad_norm": 0.75390625, "learning_rate": 9.891081130440182e-05, "loss": 0.3733, "step": 100310 }, { "epoch": 133.76, "grad_norm": 0.93359375, "learning_rate": 9.891059383493736e-05, "loss": 0.3878, "step": 100320 }, { "epoch": 133.77333333333334, "grad_norm": 0.82421875, "learning_rate": 9.8910376344004e-05, "loss": 0.371, "step": 100330 }, { "epoch": 133.78666666666666, "grad_norm": 0.69921875, "learning_rate": 9.891015883160186e-05, "loss": 0.3738, "step": 100340 }, { "epoch": 133.8, "grad_norm": 0.94921875, "learning_rate": 9.890994129773099e-05, "loss": 0.3714, "step": 100350 }, { "epoch": 133.81333333333333, "grad_norm": 0.88671875, "learning_rate": 9.890972374239151e-05, "loss": 0.3461, "step": 100360 }, { "epoch": 133.82666666666665, "grad_norm": 0.77734375, "learning_rate": 9.890950616558353e-05, "loss": 0.3536, "step": 100370 }, { "epoch": 133.84, "grad_norm": 0.9140625, "learning_rate": 9.890928856730712e-05, "loss": 0.3666, "step": 100380 }, { "epoch": 133.85333333333332, "grad_norm": 0.7734375, "learning_rate": 9.890907094756238e-05, "loss": 0.3614, "step": 100390 }, { "epoch": 133.86666666666667, "grad_norm": 0.78125, "learning_rate": 9.890885330634943e-05, "loss": 0.3669, "step": 100400 }, { "epoch": 133.88, "grad_norm": 0.81640625, "learning_rate": 9.890863564366833e-05, "loss": 0.3488, "step": 100410 }, { "epoch": 133.89333333333335, "grad_norm": 0.75390625, "learning_rate": 9.890841795951919e-05, "loss": 0.3611, "step": 100420 }, { "epoch": 133.90666666666667, "grad_norm": 0.78515625, "learning_rate": 9.89082002539021e-05, "loss": 0.3655, "step": 100430 }, { "epoch": 133.92, "grad_norm": 0.75390625, "learning_rate": 9.890798252681718e-05, "loss": 0.366, "step": 100440 }, { "epoch": 133.93333333333334, "grad_norm": 0.7265625, "learning_rate": 9.890776477826451e-05, "loss": 0.3627, "step": 100450 }, { "epoch": 133.94666666666666, "grad_norm": 0.76953125, "learning_rate": 9.890754700824418e-05, "loss": 0.3637, "step": 100460 }, { "epoch": 133.96, "grad_norm": 0.74609375, "learning_rate": 9.89073292167563e-05, "loss": 0.3611, "step": 100470 }, { "epoch": 133.97333333333333, "grad_norm": 1.0390625, "learning_rate": 9.890711140380095e-05, "loss": 0.3839, "step": 100480 }, { "epoch": 133.98666666666668, "grad_norm": 0.83984375, "learning_rate": 9.890689356937822e-05, "loss": 0.3544, "step": 100490 }, { "epoch": 134.0, "grad_norm": 0.78515625, "learning_rate": 9.890667571348822e-05, "loss": 0.3544, "step": 100500 }, { "epoch": 134.0, "eval_loss": 0.417993426322937, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.619, "eval_samples_per_second": 1.377, "eval_steps_per_second": 0.086, "step": 100500 }, { "epoch": 134.01333333333332, "grad_norm": 0.890625, "learning_rate": 9.890645783613105e-05, "loss": 0.3705, "step": 100510 }, { "epoch": 134.02666666666667, "grad_norm": 0.7265625, "learning_rate": 9.890623993730679e-05, "loss": 0.386, "step": 100520 }, { "epoch": 134.04, "grad_norm": 0.75, "learning_rate": 9.890602201701555e-05, "loss": 0.3986, "step": 100530 }, { "epoch": 134.05333333333334, "grad_norm": 0.8046875, "learning_rate": 9.890580407525743e-05, "loss": 0.3826, "step": 100540 }, { "epoch": 134.06666666666666, "grad_norm": 0.91796875, "learning_rate": 9.890558611203249e-05, "loss": 0.3706, "step": 100550 }, { "epoch": 134.08, "grad_norm": 0.890625, "learning_rate": 9.890536812734086e-05, "loss": 0.3737, "step": 100560 }, { "epoch": 134.09333333333333, "grad_norm": 0.90625, "learning_rate": 9.890515012118263e-05, "loss": 0.3768, "step": 100570 }, { "epoch": 134.10666666666665, "grad_norm": 0.7109375, "learning_rate": 9.89049320935579e-05, "loss": 0.3655, "step": 100580 }, { "epoch": 134.12, "grad_norm": 0.875, "learning_rate": 9.890471404446676e-05, "loss": 0.3675, "step": 100590 }, { "epoch": 134.13333333333333, "grad_norm": 0.8125, "learning_rate": 9.890449597390927e-05, "loss": 0.3594, "step": 100600 }, { "epoch": 134.14666666666668, "grad_norm": 0.7890625, "learning_rate": 9.890427788188559e-05, "loss": 0.3788, "step": 100610 }, { "epoch": 134.16, "grad_norm": 0.734375, "learning_rate": 9.890405976839577e-05, "loss": 0.374, "step": 100620 }, { "epoch": 134.17333333333335, "grad_norm": 0.859375, "learning_rate": 9.890384163343993e-05, "loss": 0.3682, "step": 100630 }, { "epoch": 134.18666666666667, "grad_norm": 0.81640625, "learning_rate": 9.890362347701815e-05, "loss": 0.3654, "step": 100640 }, { "epoch": 134.2, "grad_norm": 0.77734375, "learning_rate": 9.890340529913053e-05, "loss": 0.3569, "step": 100650 }, { "epoch": 134.21333333333334, "grad_norm": 0.84375, "learning_rate": 9.890318709977718e-05, "loss": 0.3586, "step": 100660 }, { "epoch": 134.22666666666666, "grad_norm": 0.94921875, "learning_rate": 9.890296887895818e-05, "loss": 0.3693, "step": 100670 }, { "epoch": 134.24, "grad_norm": 0.78515625, "learning_rate": 9.890275063667362e-05, "loss": 0.3544, "step": 100680 }, { "epoch": 134.25333333333333, "grad_norm": 0.76953125, "learning_rate": 9.890253237292361e-05, "loss": 0.3561, "step": 100690 }, { "epoch": 134.26666666666668, "grad_norm": 0.765625, "learning_rate": 9.890231408770824e-05, "loss": 0.3596, "step": 100700 }, { "epoch": 134.28, "grad_norm": 0.890625, "learning_rate": 9.890209578102762e-05, "loss": 0.3884, "step": 100710 }, { "epoch": 134.29333333333332, "grad_norm": 0.80078125, "learning_rate": 9.890187745288182e-05, "loss": 0.3472, "step": 100720 }, { "epoch": 134.30666666666667, "grad_norm": 0.8046875, "learning_rate": 9.890165910327096e-05, "loss": 0.3704, "step": 100730 }, { "epoch": 134.32, "grad_norm": 0.7109375, "learning_rate": 9.890144073219512e-05, "loss": 0.3737, "step": 100740 }, { "epoch": 134.33333333333334, "grad_norm": 0.80078125, "learning_rate": 9.89012223396544e-05, "loss": 0.3726, "step": 100750 }, { "epoch": 134.34666666666666, "grad_norm": 0.81640625, "learning_rate": 9.890100392564889e-05, "loss": 0.3634, "step": 100760 }, { "epoch": 134.36, "grad_norm": 0.87890625, "learning_rate": 9.89007854901787e-05, "loss": 0.3641, "step": 100770 }, { "epoch": 134.37333333333333, "grad_norm": 0.75390625, "learning_rate": 9.890056703324389e-05, "loss": 0.3675, "step": 100780 }, { "epoch": 134.38666666666666, "grad_norm": 0.90234375, "learning_rate": 9.890034855484462e-05, "loss": 0.3549, "step": 100790 }, { "epoch": 134.4, "grad_norm": 0.8203125, "learning_rate": 9.890013005498094e-05, "loss": 0.3651, "step": 100800 }, { "epoch": 134.41333333333333, "grad_norm": 0.7890625, "learning_rate": 9.889991153365295e-05, "loss": 0.3714, "step": 100810 }, { "epoch": 134.42666666666668, "grad_norm": 0.7265625, "learning_rate": 9.889969299086074e-05, "loss": 0.3731, "step": 100820 }, { "epoch": 134.44, "grad_norm": 0.765625, "learning_rate": 9.889947442660444e-05, "loss": 0.3851, "step": 100830 }, { "epoch": 134.45333333333335, "grad_norm": 0.80859375, "learning_rate": 9.889925584088411e-05, "loss": 0.372, "step": 100840 }, { "epoch": 134.46666666666667, "grad_norm": 0.85546875, "learning_rate": 9.889903723369986e-05, "loss": 0.3787, "step": 100850 }, { "epoch": 134.48, "grad_norm": 0.8359375, "learning_rate": 9.889881860505179e-05, "loss": 0.3628, "step": 100860 }, { "epoch": 134.49333333333334, "grad_norm": 0.80078125, "learning_rate": 9.889859995493999e-05, "loss": 0.3746, "step": 100870 }, { "epoch": 134.50666666666666, "grad_norm": 0.86328125, "learning_rate": 9.889838128336456e-05, "loss": 0.3738, "step": 100880 }, { "epoch": 134.52, "grad_norm": 0.6640625, "learning_rate": 9.889816259032558e-05, "loss": 0.3652, "step": 100890 }, { "epoch": 134.53333333333333, "grad_norm": 0.7734375, "learning_rate": 9.889794387582318e-05, "loss": 0.3658, "step": 100900 }, { "epoch": 134.54666666666665, "grad_norm": 0.9296875, "learning_rate": 9.889772513985742e-05, "loss": 0.3671, "step": 100910 }, { "epoch": 134.56, "grad_norm": 0.7890625, "learning_rate": 9.88975063824284e-05, "loss": 0.3619, "step": 100920 }, { "epoch": 134.57333333333332, "grad_norm": 0.88671875, "learning_rate": 9.889728760353625e-05, "loss": 0.3662, "step": 100930 }, { "epoch": 134.58666666666667, "grad_norm": 0.796875, "learning_rate": 9.889706880318103e-05, "loss": 0.3575, "step": 100940 }, { "epoch": 134.6, "grad_norm": 0.80859375, "learning_rate": 9.889684998136286e-05, "loss": 0.3575, "step": 100950 }, { "epoch": 134.61333333333334, "grad_norm": 0.73046875, "learning_rate": 9.889663113808183e-05, "loss": 0.3497, "step": 100960 }, { "epoch": 134.62666666666667, "grad_norm": 0.69140625, "learning_rate": 9.889641227333801e-05, "loss": 0.3552, "step": 100970 }, { "epoch": 134.64, "grad_norm": 1.03125, "learning_rate": 9.889619338713154e-05, "loss": 0.363, "step": 100980 }, { "epoch": 134.65333333333334, "grad_norm": 0.81640625, "learning_rate": 9.889597447946248e-05, "loss": 0.373, "step": 100990 }, { "epoch": 134.66666666666666, "grad_norm": 0.80078125, "learning_rate": 9.889575555033094e-05, "loss": 0.364, "step": 101000 }, { "epoch": 134.68, "grad_norm": 0.83203125, "learning_rate": 9.889553659973701e-05, "loss": 0.353, "step": 101010 }, { "epoch": 134.69333333333333, "grad_norm": 0.7109375, "learning_rate": 9.889531762768081e-05, "loss": 0.3637, "step": 101020 }, { "epoch": 134.70666666666668, "grad_norm": 0.9375, "learning_rate": 9.88950986341624e-05, "loss": 0.3537, "step": 101030 }, { "epoch": 134.72, "grad_norm": 0.83203125, "learning_rate": 9.889487961918191e-05, "loss": 0.3754, "step": 101040 }, { "epoch": 134.73333333333332, "grad_norm": 0.7890625, "learning_rate": 9.889466058273941e-05, "loss": 0.3712, "step": 101050 }, { "epoch": 134.74666666666667, "grad_norm": 0.79296875, "learning_rate": 9.8894441524835e-05, "loss": 0.374, "step": 101060 }, { "epoch": 134.76, "grad_norm": 0.8046875, "learning_rate": 9.88942224454688e-05, "loss": 0.387, "step": 101070 }, { "epoch": 134.77333333333334, "grad_norm": 0.80859375, "learning_rate": 9.889400334464087e-05, "loss": 0.3717, "step": 101080 }, { "epoch": 134.78666666666666, "grad_norm": 0.7265625, "learning_rate": 9.889378422235134e-05, "loss": 0.3735, "step": 101090 }, { "epoch": 134.8, "grad_norm": 0.85546875, "learning_rate": 9.889356507860028e-05, "loss": 0.3723, "step": 101100 }, { "epoch": 134.81333333333333, "grad_norm": 0.9140625, "learning_rate": 9.889334591338781e-05, "loss": 0.3459, "step": 101110 }, { "epoch": 134.82666666666665, "grad_norm": 0.74609375, "learning_rate": 9.8893126726714e-05, "loss": 0.3533, "step": 101120 }, { "epoch": 134.84, "grad_norm": 0.8828125, "learning_rate": 9.889290751857896e-05, "loss": 0.3662, "step": 101130 }, { "epoch": 134.85333333333332, "grad_norm": 0.765625, "learning_rate": 9.889268828898279e-05, "loss": 0.3609, "step": 101140 }, { "epoch": 134.86666666666667, "grad_norm": 0.77734375, "learning_rate": 9.889246903792559e-05, "loss": 0.3672, "step": 101150 }, { "epoch": 134.88, "grad_norm": 0.734375, "learning_rate": 9.889224976540745e-05, "loss": 0.3476, "step": 101160 }, { "epoch": 134.89333333333335, "grad_norm": 0.7265625, "learning_rate": 9.889203047142846e-05, "loss": 0.3607, "step": 101170 }, { "epoch": 134.90666666666667, "grad_norm": 0.80078125, "learning_rate": 9.889181115598872e-05, "loss": 0.3651, "step": 101180 }, { "epoch": 134.92, "grad_norm": 0.8125, "learning_rate": 9.889159181908831e-05, "loss": 0.365, "step": 101190 }, { "epoch": 134.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.889137246072737e-05, "loss": 0.3634, "step": 101200 }, { "epoch": 134.94666666666666, "grad_norm": 0.85546875, "learning_rate": 9.889115308090596e-05, "loss": 0.3622, "step": 101210 }, { "epoch": 134.96, "grad_norm": 0.80078125, "learning_rate": 9.889093367962416e-05, "loss": 0.3613, "step": 101220 }, { "epoch": 134.97333333333333, "grad_norm": 1.0, "learning_rate": 9.889071425688212e-05, "loss": 0.3832, "step": 101230 }, { "epoch": 134.98666666666668, "grad_norm": 0.80078125, "learning_rate": 9.889049481267991e-05, "loss": 0.3532, "step": 101240 }, { "epoch": 135.0, "grad_norm": 0.83203125, "learning_rate": 9.889027534701763e-05, "loss": 0.355, "step": 101250 }, { "epoch": 135.0, "eval_loss": 0.4191471040248871, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.8545, "eval_samples_per_second": 1.35, "eval_steps_per_second": 0.084, "step": 101250 }, { "epoch": 135.01333333333332, "grad_norm": 0.9140625, "learning_rate": 9.889005585989535e-05, "loss": 0.3707, "step": 101260 }, { "epoch": 135.02666666666667, "grad_norm": 0.7890625, "learning_rate": 9.888983635131319e-05, "loss": 0.3846, "step": 101270 }, { "epoch": 135.04, "grad_norm": 0.73046875, "learning_rate": 9.888961682127126e-05, "loss": 0.3981, "step": 101280 }, { "epoch": 135.05333333333334, "grad_norm": 0.84765625, "learning_rate": 9.888939726976962e-05, "loss": 0.3822, "step": 101290 }, { "epoch": 135.06666666666666, "grad_norm": 0.90234375, "learning_rate": 9.888917769680841e-05, "loss": 0.3717, "step": 101300 }, { "epoch": 135.08, "grad_norm": 0.84765625, "learning_rate": 9.88889581023877e-05, "loss": 0.3749, "step": 101310 }, { "epoch": 135.09333333333333, "grad_norm": 0.89453125, "learning_rate": 9.888873848650757e-05, "loss": 0.3764, "step": 101320 }, { "epoch": 135.10666666666665, "grad_norm": 0.73828125, "learning_rate": 9.888851884916814e-05, "loss": 0.3658, "step": 101330 }, { "epoch": 135.12, "grad_norm": 0.76953125, "learning_rate": 9.888829919036952e-05, "loss": 0.3662, "step": 101340 }, { "epoch": 135.13333333333333, "grad_norm": 0.8125, "learning_rate": 9.888807951011177e-05, "loss": 0.3589, "step": 101350 }, { "epoch": 135.14666666666668, "grad_norm": 0.79296875, "learning_rate": 9.888785980839502e-05, "loss": 0.3775, "step": 101360 }, { "epoch": 135.16, "grad_norm": 0.7734375, "learning_rate": 9.888764008521933e-05, "loss": 0.3747, "step": 101370 }, { "epoch": 135.17333333333335, "grad_norm": 0.91796875, "learning_rate": 9.888742034058485e-05, "loss": 0.3681, "step": 101380 }, { "epoch": 135.18666666666667, "grad_norm": 0.73828125, "learning_rate": 9.888720057449162e-05, "loss": 0.3659, "step": 101390 }, { "epoch": 135.2, "grad_norm": 0.8203125, "learning_rate": 9.888698078693977e-05, "loss": 0.3572, "step": 101400 }, { "epoch": 135.21333333333334, "grad_norm": 0.91015625, "learning_rate": 9.888676097792937e-05, "loss": 0.3577, "step": 101410 }, { "epoch": 135.22666666666666, "grad_norm": 0.8125, "learning_rate": 9.888654114746056e-05, "loss": 0.3691, "step": 101420 }, { "epoch": 135.24, "grad_norm": 0.83203125, "learning_rate": 9.888632129553339e-05, "loss": 0.355, "step": 101430 }, { "epoch": 135.25333333333333, "grad_norm": 0.80078125, "learning_rate": 9.8886101422148e-05, "loss": 0.356, "step": 101440 }, { "epoch": 135.26666666666668, "grad_norm": 0.765625, "learning_rate": 9.888588152730445e-05, "loss": 0.3606, "step": 101450 }, { "epoch": 135.28, "grad_norm": 0.8125, "learning_rate": 9.888566161100284e-05, "loss": 0.3868, "step": 101460 }, { "epoch": 135.29333333333332, "grad_norm": 0.81640625, "learning_rate": 9.888544167324328e-05, "loss": 0.3467, "step": 101470 }, { "epoch": 135.30666666666667, "grad_norm": 0.7734375, "learning_rate": 9.888522171402588e-05, "loss": 0.3689, "step": 101480 }, { "epoch": 135.32, "grad_norm": 0.7421875, "learning_rate": 9.888500173335069e-05, "loss": 0.3741, "step": 101490 }, { "epoch": 135.33333333333334, "grad_norm": 0.859375, "learning_rate": 9.888478173121787e-05, "loss": 0.3724, "step": 101500 }, { "epoch": 135.34666666666666, "grad_norm": 0.89453125, "learning_rate": 9.888456170762746e-05, "loss": 0.3638, "step": 101510 }, { "epoch": 135.36, "grad_norm": 0.85546875, "learning_rate": 9.888434166257959e-05, "loss": 0.3653, "step": 101520 }, { "epoch": 135.37333333333333, "grad_norm": 0.765625, "learning_rate": 9.888412159607434e-05, "loss": 0.3674, "step": 101530 }, { "epoch": 135.38666666666666, "grad_norm": 0.96875, "learning_rate": 9.888390150811181e-05, "loss": 0.3539, "step": 101540 }, { "epoch": 135.4, "grad_norm": 0.8125, "learning_rate": 9.888368139869209e-05, "loss": 0.3652, "step": 101550 }, { "epoch": 135.41333333333333, "grad_norm": 0.7578125, "learning_rate": 9.888346126781532e-05, "loss": 0.3711, "step": 101560 }, { "epoch": 135.42666666666668, "grad_norm": 0.76953125, "learning_rate": 9.888324111548153e-05, "loss": 0.3729, "step": 101570 }, { "epoch": 135.44, "grad_norm": 0.78125, "learning_rate": 9.888302094169087e-05, "loss": 0.3842, "step": 101580 }, { "epoch": 135.45333333333335, "grad_norm": 0.77734375, "learning_rate": 9.888280074644339e-05, "loss": 0.3723, "step": 101590 }, { "epoch": 135.46666666666667, "grad_norm": 0.734375, "learning_rate": 9.888258052973922e-05, "loss": 0.3788, "step": 101600 }, { "epoch": 135.48, "grad_norm": 0.7734375, "learning_rate": 9.888236029157847e-05, "loss": 0.3625, "step": 101610 }, { "epoch": 135.49333333333334, "grad_norm": 0.73046875, "learning_rate": 9.888214003196118e-05, "loss": 0.3741, "step": 101620 }, { "epoch": 135.50666666666666, "grad_norm": 0.85546875, "learning_rate": 9.888191975088752e-05, "loss": 0.3732, "step": 101630 }, { "epoch": 135.52, "grad_norm": 0.703125, "learning_rate": 9.888169944835753e-05, "loss": 0.3648, "step": 101640 }, { "epoch": 135.53333333333333, "grad_norm": 0.765625, "learning_rate": 9.888147912437133e-05, "loss": 0.3668, "step": 101650 }, { "epoch": 135.54666666666665, "grad_norm": 0.91015625, "learning_rate": 9.8881258778929e-05, "loss": 0.3668, "step": 101660 }, { "epoch": 135.56, "grad_norm": 0.73046875, "learning_rate": 9.888103841203065e-05, "loss": 0.3615, "step": 101670 }, { "epoch": 135.57333333333332, "grad_norm": 0.7890625, "learning_rate": 9.888081802367639e-05, "loss": 0.3659, "step": 101680 }, { "epoch": 135.58666666666667, "grad_norm": 0.80078125, "learning_rate": 9.88805976138663e-05, "loss": 0.3571, "step": 101690 }, { "epoch": 135.6, "grad_norm": 0.7734375, "learning_rate": 9.888037718260048e-05, "loss": 0.3576, "step": 101700 }, { "epoch": 135.61333333333334, "grad_norm": 0.6875, "learning_rate": 9.888015672987902e-05, "loss": 0.3499, "step": 101710 }, { "epoch": 135.62666666666667, "grad_norm": 0.69921875, "learning_rate": 9.887993625570202e-05, "loss": 0.3554, "step": 101720 }, { "epoch": 135.64, "grad_norm": 0.87109375, "learning_rate": 9.887971576006958e-05, "loss": 0.3627, "step": 101730 }, { "epoch": 135.65333333333334, "grad_norm": 0.796875, "learning_rate": 9.887949524298181e-05, "loss": 0.3727, "step": 101740 }, { "epoch": 135.66666666666666, "grad_norm": 0.734375, "learning_rate": 9.887927470443879e-05, "loss": 0.3645, "step": 101750 }, { "epoch": 135.68, "grad_norm": 0.875, "learning_rate": 9.887905414444061e-05, "loss": 0.3528, "step": 101760 }, { "epoch": 135.69333333333333, "grad_norm": 0.71484375, "learning_rate": 9.887883356298738e-05, "loss": 0.364, "step": 101770 }, { "epoch": 135.70666666666668, "grad_norm": 0.90625, "learning_rate": 9.887861296007919e-05, "loss": 0.3537, "step": 101780 }, { "epoch": 135.72, "grad_norm": 0.875, "learning_rate": 9.887839233571615e-05, "loss": 0.3749, "step": 101790 }, { "epoch": 135.73333333333332, "grad_norm": 0.7890625, "learning_rate": 9.887817168989833e-05, "loss": 0.3712, "step": 101800 }, { "epoch": 135.74666666666667, "grad_norm": 0.79296875, "learning_rate": 9.887795102262585e-05, "loss": 0.3743, "step": 101810 }, { "epoch": 135.76, "grad_norm": 0.84765625, "learning_rate": 9.88777303338988e-05, "loss": 0.387, "step": 101820 }, { "epoch": 135.77333333333334, "grad_norm": 0.83203125, "learning_rate": 9.887750962371729e-05, "loss": 0.3708, "step": 101830 }, { "epoch": 135.78666666666666, "grad_norm": 0.76953125, "learning_rate": 9.88772888920814e-05, "loss": 0.3739, "step": 101840 }, { "epoch": 135.8, "grad_norm": 0.83203125, "learning_rate": 9.887706813899123e-05, "loss": 0.3718, "step": 101850 }, { "epoch": 135.81333333333333, "grad_norm": 0.89453125, "learning_rate": 9.887684736444687e-05, "loss": 0.3445, "step": 101860 }, { "epoch": 135.82666666666665, "grad_norm": 0.76171875, "learning_rate": 9.887662656844844e-05, "loss": 0.3529, "step": 101870 }, { "epoch": 135.84, "grad_norm": 0.828125, "learning_rate": 9.887640575099601e-05, "loss": 0.3656, "step": 101880 }, { "epoch": 135.85333333333332, "grad_norm": 0.76171875, "learning_rate": 9.88761849120897e-05, "loss": 0.361, "step": 101890 }, { "epoch": 135.86666666666667, "grad_norm": 0.77734375, "learning_rate": 9.887596405172959e-05, "loss": 0.367, "step": 101900 }, { "epoch": 135.88, "grad_norm": 0.81640625, "learning_rate": 9.887574316991578e-05, "loss": 0.348, "step": 101910 }, { "epoch": 135.89333333333335, "grad_norm": 0.8125, "learning_rate": 9.887552226664838e-05, "loss": 0.3612, "step": 101920 }, { "epoch": 135.90666666666667, "grad_norm": 0.7734375, "learning_rate": 9.887530134192746e-05, "loss": 0.3643, "step": 101930 }, { "epoch": 135.92, "grad_norm": 0.7890625, "learning_rate": 9.887508039575316e-05, "loss": 0.3658, "step": 101940 }, { "epoch": 135.93333333333334, "grad_norm": 0.7734375, "learning_rate": 9.887485942812554e-05, "loss": 0.3633, "step": 101950 }, { "epoch": 135.94666666666666, "grad_norm": 0.79296875, "learning_rate": 9.887463843904469e-05, "loss": 0.3624, "step": 101960 }, { "epoch": 135.96, "grad_norm": 0.734375, "learning_rate": 9.887441742851073e-05, "loss": 0.3609, "step": 101970 }, { "epoch": 135.97333333333333, "grad_norm": 1.0625, "learning_rate": 9.887419639652376e-05, "loss": 0.3836, "step": 101980 }, { "epoch": 135.98666666666668, "grad_norm": 0.80859375, "learning_rate": 9.887397534308387e-05, "loss": 0.3535, "step": 101990 }, { "epoch": 136.0, "grad_norm": 0.828125, "learning_rate": 9.887375426819116e-05, "loss": 0.3551, "step": 102000 }, { "epoch": 136.0, "eval_loss": 0.41847601532936096, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4043, "eval_samples_per_second": 1.403, "eval_steps_per_second": 0.088, "step": 102000 }, { "epoch": 136.01333333333332, "grad_norm": 0.91796875, "learning_rate": 9.887353317184572e-05, "loss": 0.3708, "step": 102010 }, { "epoch": 136.02666666666667, "grad_norm": 0.7265625, "learning_rate": 9.887331205404764e-05, "loss": 0.3836, "step": 102020 }, { "epoch": 136.04, "grad_norm": 0.7734375, "learning_rate": 9.887309091479704e-05, "loss": 0.3988, "step": 102030 }, { "epoch": 136.05333333333334, "grad_norm": 0.7890625, "learning_rate": 9.8872869754094e-05, "loss": 0.3826, "step": 102040 }, { "epoch": 136.06666666666666, "grad_norm": 0.86328125, "learning_rate": 9.887264857193863e-05, "loss": 0.3705, "step": 102050 }, { "epoch": 136.08, "grad_norm": 0.78125, "learning_rate": 9.8872427368331e-05, "loss": 0.3737, "step": 102060 }, { "epoch": 136.09333333333333, "grad_norm": 0.8203125, "learning_rate": 9.887220614327123e-05, "loss": 0.377, "step": 102070 }, { "epoch": 136.10666666666665, "grad_norm": 0.7890625, "learning_rate": 9.887198489675941e-05, "loss": 0.3652, "step": 102080 }, { "epoch": 136.12, "grad_norm": 0.83203125, "learning_rate": 9.887176362879565e-05, "loss": 0.366, "step": 102090 }, { "epoch": 136.13333333333333, "grad_norm": 0.82421875, "learning_rate": 9.887154233938003e-05, "loss": 0.3587, "step": 102100 }, { "epoch": 136.14666666666668, "grad_norm": 0.8125, "learning_rate": 9.887132102851266e-05, "loss": 0.3778, "step": 102110 }, { "epoch": 136.16, "grad_norm": 0.73046875, "learning_rate": 9.887109969619364e-05, "loss": 0.3743, "step": 102120 }, { "epoch": 136.17333333333335, "grad_norm": 0.83203125, "learning_rate": 9.887087834242304e-05, "loss": 0.3684, "step": 102130 }, { "epoch": 136.18666666666667, "grad_norm": 0.75390625, "learning_rate": 9.887065696720098e-05, "loss": 0.3643, "step": 102140 }, { "epoch": 136.2, "grad_norm": 0.765625, "learning_rate": 9.887043557052756e-05, "loss": 0.3569, "step": 102150 }, { "epoch": 136.21333333333334, "grad_norm": 0.83203125, "learning_rate": 9.887021415240285e-05, "loss": 0.3573, "step": 102160 }, { "epoch": 136.22666666666666, "grad_norm": 0.80078125, "learning_rate": 9.8869992712827e-05, "loss": 0.3686, "step": 102170 }, { "epoch": 136.24, "grad_norm": 0.8828125, "learning_rate": 9.886977125180003e-05, "loss": 0.3544, "step": 102180 }, { "epoch": 136.25333333333333, "grad_norm": 0.78515625, "learning_rate": 9.886954976932213e-05, "loss": 0.356, "step": 102190 }, { "epoch": 136.26666666666668, "grad_norm": 0.76171875, "learning_rate": 9.886932826539331e-05, "loss": 0.3595, "step": 102200 }, { "epoch": 136.28, "grad_norm": 0.83203125, "learning_rate": 9.886910674001372e-05, "loss": 0.3867, "step": 102210 }, { "epoch": 136.29333333333332, "grad_norm": 0.87109375, "learning_rate": 9.886888519318344e-05, "loss": 0.3467, "step": 102220 }, { "epoch": 136.30666666666667, "grad_norm": 0.796875, "learning_rate": 9.886866362490259e-05, "loss": 0.3698, "step": 102230 }, { "epoch": 136.32, "grad_norm": 0.6875, "learning_rate": 9.886844203517123e-05, "loss": 0.374, "step": 102240 }, { "epoch": 136.33333333333334, "grad_norm": 0.83203125, "learning_rate": 9.886822042398946e-05, "loss": 0.3722, "step": 102250 }, { "epoch": 136.34666666666666, "grad_norm": 0.92578125, "learning_rate": 9.886799879135741e-05, "loss": 0.3632, "step": 102260 }, { "epoch": 136.36, "grad_norm": 0.8828125, "learning_rate": 9.886777713727516e-05, "loss": 0.364, "step": 102270 }, { "epoch": 136.37333333333333, "grad_norm": 0.74609375, "learning_rate": 9.88675554617428e-05, "loss": 0.3676, "step": 102280 }, { "epoch": 136.38666666666666, "grad_norm": 0.90234375, "learning_rate": 9.886733376476045e-05, "loss": 0.3542, "step": 102290 }, { "epoch": 136.4, "grad_norm": 0.79296875, "learning_rate": 9.886711204632818e-05, "loss": 0.3645, "step": 102300 }, { "epoch": 136.41333333333333, "grad_norm": 0.80078125, "learning_rate": 9.886689030644609e-05, "loss": 0.3703, "step": 102310 }, { "epoch": 136.42666666666668, "grad_norm": 0.765625, "learning_rate": 9.88666685451143e-05, "loss": 0.3725, "step": 102320 }, { "epoch": 136.44, "grad_norm": 0.8515625, "learning_rate": 9.886644676233288e-05, "loss": 0.3851, "step": 102330 }, { "epoch": 136.45333333333335, "grad_norm": 0.88671875, "learning_rate": 9.886622495810195e-05, "loss": 0.372, "step": 102340 }, { "epoch": 136.46666666666667, "grad_norm": 0.76953125, "learning_rate": 9.886600313242161e-05, "loss": 0.3801, "step": 102350 }, { "epoch": 136.48, "grad_norm": 0.91796875, "learning_rate": 9.886578128529191e-05, "loss": 0.3627, "step": 102360 }, { "epoch": 136.49333333333334, "grad_norm": 0.7421875, "learning_rate": 9.886555941671301e-05, "loss": 0.3746, "step": 102370 }, { "epoch": 136.50666666666666, "grad_norm": 0.859375, "learning_rate": 9.886533752668497e-05, "loss": 0.3737, "step": 102380 }, { "epoch": 136.52, "grad_norm": 0.76171875, "learning_rate": 9.88651156152079e-05, "loss": 0.3644, "step": 102390 }, { "epoch": 136.53333333333333, "grad_norm": 0.83203125, "learning_rate": 9.88648936822819e-05, "loss": 0.3657, "step": 102400 }, { "epoch": 136.54666666666665, "grad_norm": 0.875, "learning_rate": 9.886467172790706e-05, "loss": 0.3666, "step": 102410 }, { "epoch": 136.56, "grad_norm": 0.72265625, "learning_rate": 9.886444975208347e-05, "loss": 0.3617, "step": 102420 }, { "epoch": 136.57333333333332, "grad_norm": 0.77734375, "learning_rate": 9.886422775481126e-05, "loss": 0.3664, "step": 102430 }, { "epoch": 136.58666666666667, "grad_norm": 0.78125, "learning_rate": 9.886400573609048e-05, "loss": 0.3564, "step": 102440 }, { "epoch": 136.6, "grad_norm": 0.7890625, "learning_rate": 9.886378369592126e-05, "loss": 0.359, "step": 102450 }, { "epoch": 136.61333333333334, "grad_norm": 0.7109375, "learning_rate": 9.886356163430369e-05, "loss": 0.3502, "step": 102460 }, { "epoch": 136.62666666666667, "grad_norm": 0.69921875, "learning_rate": 9.886333955123788e-05, "loss": 0.3547, "step": 102470 }, { "epoch": 136.64, "grad_norm": 0.84375, "learning_rate": 9.88631174467239e-05, "loss": 0.3623, "step": 102480 }, { "epoch": 136.65333333333334, "grad_norm": 0.80078125, "learning_rate": 9.886289532076185e-05, "loss": 0.3725, "step": 102490 }, { "epoch": 136.66666666666666, "grad_norm": 0.73046875, "learning_rate": 9.886267317335186e-05, "loss": 0.3628, "step": 102500 }, { "epoch": 136.68, "grad_norm": 0.87109375, "learning_rate": 9.886245100449401e-05, "loss": 0.3526, "step": 102510 }, { "epoch": 136.69333333333333, "grad_norm": 0.68359375, "learning_rate": 9.886222881418838e-05, "loss": 0.3638, "step": 102520 }, { "epoch": 136.70666666666668, "grad_norm": 0.9375, "learning_rate": 9.886200660243507e-05, "loss": 0.3535, "step": 102530 }, { "epoch": 136.72, "grad_norm": 0.875, "learning_rate": 9.886178436923422e-05, "loss": 0.3753, "step": 102540 }, { "epoch": 136.73333333333332, "grad_norm": 0.78515625, "learning_rate": 9.886156211458588e-05, "loss": 0.3713, "step": 102550 }, { "epoch": 136.74666666666667, "grad_norm": 0.76171875, "learning_rate": 9.886133983849018e-05, "loss": 0.374, "step": 102560 }, { "epoch": 136.76, "grad_norm": 0.8984375, "learning_rate": 9.886111754094718e-05, "loss": 0.3871, "step": 102570 }, { "epoch": 136.77333333333334, "grad_norm": 0.86328125, "learning_rate": 9.8860895221957e-05, "loss": 0.371, "step": 102580 }, { "epoch": 136.78666666666666, "grad_norm": 0.7109375, "learning_rate": 9.886067288151976e-05, "loss": 0.3739, "step": 102590 }, { "epoch": 136.8, "grad_norm": 0.8046875, "learning_rate": 9.886045051963553e-05, "loss": 0.3712, "step": 102600 }, { "epoch": 136.81333333333333, "grad_norm": 0.96875, "learning_rate": 9.88602281363044e-05, "loss": 0.3463, "step": 102610 }, { "epoch": 136.82666666666665, "grad_norm": 0.7890625, "learning_rate": 9.886000573152649e-05, "loss": 0.3529, "step": 102620 }, { "epoch": 136.84, "grad_norm": 0.88671875, "learning_rate": 9.885978330530188e-05, "loss": 0.3659, "step": 102630 }, { "epoch": 136.85333333333332, "grad_norm": 0.7890625, "learning_rate": 9.885956085763068e-05, "loss": 0.3622, "step": 102640 }, { "epoch": 136.86666666666667, "grad_norm": 0.796875, "learning_rate": 9.885933838851298e-05, "loss": 0.3677, "step": 102650 }, { "epoch": 136.88, "grad_norm": 0.77734375, "learning_rate": 9.885911589794887e-05, "loss": 0.3478, "step": 102660 }, { "epoch": 136.89333333333335, "grad_norm": 0.71875, "learning_rate": 9.885889338593848e-05, "loss": 0.3593, "step": 102670 }, { "epoch": 136.90666666666667, "grad_norm": 0.875, "learning_rate": 9.885867085248188e-05, "loss": 0.3648, "step": 102680 }, { "epoch": 136.92, "grad_norm": 0.9296875, "learning_rate": 9.885844829757917e-05, "loss": 0.3659, "step": 102690 }, { "epoch": 136.93333333333334, "grad_norm": 0.796875, "learning_rate": 9.885822572123045e-05, "loss": 0.3617, "step": 102700 }, { "epoch": 136.94666666666666, "grad_norm": 0.88671875, "learning_rate": 9.885800312343583e-05, "loss": 0.3636, "step": 102710 }, { "epoch": 136.96, "grad_norm": 0.76171875, "learning_rate": 9.885778050419538e-05, "loss": 0.3607, "step": 102720 }, { "epoch": 136.97333333333333, "grad_norm": 1.015625, "learning_rate": 9.885755786350923e-05, "loss": 0.3841, "step": 102730 }, { "epoch": 136.98666666666668, "grad_norm": 0.8125, "learning_rate": 9.885733520137746e-05, "loss": 0.3534, "step": 102740 }, { "epoch": 137.0, "grad_norm": 0.8359375, "learning_rate": 9.885711251780015e-05, "loss": 0.3543, "step": 102750 }, { "epoch": 137.0, "eval_loss": 0.4197612702846527, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.6964, "eval_samples_per_second": 1.368, "eval_steps_per_second": 0.085, "step": 102750 }, { "epoch": 137.01333333333332, "grad_norm": 0.8515625, "learning_rate": 9.885688981277743e-05, "loss": 0.3703, "step": 102760 }, { "epoch": 137.02666666666667, "grad_norm": 0.71875, "learning_rate": 9.88566670863094e-05, "loss": 0.3853, "step": 102770 }, { "epoch": 137.04, "grad_norm": 0.73828125, "learning_rate": 9.885644433839613e-05, "loss": 0.3984, "step": 102780 }, { "epoch": 137.05333333333334, "grad_norm": 0.78515625, "learning_rate": 9.885622156903774e-05, "loss": 0.3821, "step": 102790 }, { "epoch": 137.06666666666666, "grad_norm": 0.90625, "learning_rate": 9.88559987782343e-05, "loss": 0.3712, "step": 102800 }, { "epoch": 137.08, "grad_norm": 0.8359375, "learning_rate": 9.885577596598594e-05, "loss": 0.374, "step": 102810 }, { "epoch": 137.09333333333333, "grad_norm": 0.90234375, "learning_rate": 9.885555313229274e-05, "loss": 0.376, "step": 102820 }, { "epoch": 137.10666666666665, "grad_norm": 0.71875, "learning_rate": 9.885533027715482e-05, "loss": 0.3655, "step": 102830 }, { "epoch": 137.12, "grad_norm": 0.796875, "learning_rate": 9.885510740057223e-05, "loss": 0.3674, "step": 102840 }, { "epoch": 137.13333333333333, "grad_norm": 0.86328125, "learning_rate": 9.885488450254513e-05, "loss": 0.3591, "step": 102850 }, { "epoch": 137.14666666666668, "grad_norm": 0.8125, "learning_rate": 9.885466158307355e-05, "loss": 0.3778, "step": 102860 }, { "epoch": 137.16, "grad_norm": 0.75390625, "learning_rate": 9.885443864215764e-05, "loss": 0.3735, "step": 102870 }, { "epoch": 137.17333333333335, "grad_norm": 0.9140625, "learning_rate": 9.88542156797975e-05, "loss": 0.3676, "step": 102880 }, { "epoch": 137.18666666666667, "grad_norm": 0.859375, "learning_rate": 9.885399269599318e-05, "loss": 0.3655, "step": 102890 }, { "epoch": 137.2, "grad_norm": 0.8203125, "learning_rate": 9.885376969074483e-05, "loss": 0.3566, "step": 102900 }, { "epoch": 137.21333333333334, "grad_norm": 0.890625, "learning_rate": 9.885354666405251e-05, "loss": 0.3584, "step": 102910 }, { "epoch": 137.22666666666666, "grad_norm": 0.828125, "learning_rate": 9.885332361591633e-05, "loss": 0.3683, "step": 102920 }, { "epoch": 137.24, "grad_norm": 0.78515625, "learning_rate": 9.88531005463364e-05, "loss": 0.3543, "step": 102930 }, { "epoch": 137.25333333333333, "grad_norm": 0.73046875, "learning_rate": 9.88528774553128e-05, "loss": 0.3551, "step": 102940 }, { "epoch": 137.26666666666668, "grad_norm": 0.8046875, "learning_rate": 9.885265434284565e-05, "loss": 0.3593, "step": 102950 }, { "epoch": 137.28, "grad_norm": 0.84375, "learning_rate": 9.885243120893504e-05, "loss": 0.3869, "step": 102960 }, { "epoch": 137.29333333333332, "grad_norm": 0.7578125, "learning_rate": 9.885220805358104e-05, "loss": 0.3472, "step": 102970 }, { "epoch": 137.30666666666667, "grad_norm": 0.70703125, "learning_rate": 9.885198487678377e-05, "loss": 0.37, "step": 102980 }, { "epoch": 137.32, "grad_norm": 0.68359375, "learning_rate": 9.885176167854335e-05, "loss": 0.3733, "step": 102990 }, { "epoch": 137.33333333333334, "grad_norm": 0.84375, "learning_rate": 9.885153845885985e-05, "loss": 0.3723, "step": 103000 }, { "epoch": 137.34666666666666, "grad_norm": 0.9375, "learning_rate": 9.885131521773338e-05, "loss": 0.3635, "step": 103010 }, { "epoch": 137.36, "grad_norm": 0.82421875, "learning_rate": 9.885109195516402e-05, "loss": 0.3649, "step": 103020 }, { "epoch": 137.37333333333333, "grad_norm": 0.74609375, "learning_rate": 9.885086867115187e-05, "loss": 0.3671, "step": 103030 }, { "epoch": 137.38666666666666, "grad_norm": 0.90625, "learning_rate": 9.885064536569706e-05, "loss": 0.3542, "step": 103040 }, { "epoch": 137.4, "grad_norm": 0.890625, "learning_rate": 9.885042203879966e-05, "loss": 0.3653, "step": 103050 }, { "epoch": 137.41333333333333, "grad_norm": 0.8984375, "learning_rate": 9.885019869045977e-05, "loss": 0.372, "step": 103060 }, { "epoch": 137.42666666666668, "grad_norm": 0.765625, "learning_rate": 9.884997532067751e-05, "loss": 0.3718, "step": 103070 }, { "epoch": 137.44, "grad_norm": 0.8515625, "learning_rate": 9.884975192945294e-05, "loss": 0.385, "step": 103080 }, { "epoch": 137.45333333333335, "grad_norm": 0.765625, "learning_rate": 9.884952851678618e-05, "loss": 0.3718, "step": 103090 }, { "epoch": 137.46666666666667, "grad_norm": 0.75390625, "learning_rate": 9.884930508267733e-05, "loss": 0.3796, "step": 103100 }, { "epoch": 137.48, "grad_norm": 0.7890625, "learning_rate": 9.88490816271265e-05, "loss": 0.3624, "step": 103110 }, { "epoch": 137.49333333333334, "grad_norm": 0.7890625, "learning_rate": 9.884885815013376e-05, "loss": 0.3747, "step": 103120 }, { "epoch": 137.50666666666666, "grad_norm": 0.796875, "learning_rate": 9.884863465169921e-05, "loss": 0.3733, "step": 103130 }, { "epoch": 137.52, "grad_norm": 0.7109375, "learning_rate": 9.884841113182298e-05, "loss": 0.3645, "step": 103140 }, { "epoch": 137.53333333333333, "grad_norm": 0.78515625, "learning_rate": 9.884818759050514e-05, "loss": 0.3654, "step": 103150 }, { "epoch": 137.54666666666665, "grad_norm": 0.8828125, "learning_rate": 9.884796402774579e-05, "loss": 0.367, "step": 103160 }, { "epoch": 137.56, "grad_norm": 0.78515625, "learning_rate": 9.884774044354503e-05, "loss": 0.3607, "step": 103170 }, { "epoch": 137.57333333333332, "grad_norm": 0.83984375, "learning_rate": 9.884751683790297e-05, "loss": 0.3664, "step": 103180 }, { "epoch": 137.58666666666667, "grad_norm": 0.77734375, "learning_rate": 9.884729321081969e-05, "loss": 0.3564, "step": 103190 }, { "epoch": 137.6, "grad_norm": 0.7890625, "learning_rate": 9.88470695622953e-05, "loss": 0.3581, "step": 103200 }, { "epoch": 137.61333333333334, "grad_norm": 0.796875, "learning_rate": 9.88468458923299e-05, "loss": 0.3499, "step": 103210 }, { "epoch": 137.62666666666667, "grad_norm": 0.75, "learning_rate": 9.88466222009236e-05, "loss": 0.3551, "step": 103220 }, { "epoch": 137.64, "grad_norm": 0.83984375, "learning_rate": 9.884639848807646e-05, "loss": 0.3621, "step": 103230 }, { "epoch": 137.65333333333334, "grad_norm": 0.703125, "learning_rate": 9.884617475378861e-05, "loss": 0.3718, "step": 103240 }, { "epoch": 137.66666666666666, "grad_norm": 0.76953125, "learning_rate": 9.884595099806013e-05, "loss": 0.3634, "step": 103250 }, { "epoch": 137.68, "grad_norm": 0.84375, "learning_rate": 9.884572722089114e-05, "loss": 0.3521, "step": 103260 }, { "epoch": 137.69333333333333, "grad_norm": 0.7265625, "learning_rate": 9.884550342228172e-05, "loss": 0.3632, "step": 103270 }, { "epoch": 137.70666666666668, "grad_norm": 0.84375, "learning_rate": 9.884527960223197e-05, "loss": 0.3531, "step": 103280 }, { "epoch": 137.72, "grad_norm": 0.87109375, "learning_rate": 9.884505576074199e-05, "loss": 0.3746, "step": 103290 }, { "epoch": 137.73333333333332, "grad_norm": 0.7578125, "learning_rate": 9.884483189781189e-05, "loss": 0.3709, "step": 103300 }, { "epoch": 137.74666666666667, "grad_norm": 0.79296875, "learning_rate": 9.884460801344175e-05, "loss": 0.3733, "step": 103310 }, { "epoch": 137.76, "grad_norm": 0.859375, "learning_rate": 9.884438410763168e-05, "loss": 0.3864, "step": 103320 }, { "epoch": 137.77333333333334, "grad_norm": 0.83984375, "learning_rate": 9.884416018038177e-05, "loss": 0.3699, "step": 103330 }, { "epoch": 137.78666666666666, "grad_norm": 0.734375, "learning_rate": 9.884393623169212e-05, "loss": 0.3735, "step": 103340 }, { "epoch": 137.8, "grad_norm": 0.8828125, "learning_rate": 9.884371226156284e-05, "loss": 0.371, "step": 103350 }, { "epoch": 137.81333333333333, "grad_norm": 0.93359375, "learning_rate": 9.884348826999402e-05, "loss": 0.3454, "step": 103360 }, { "epoch": 137.82666666666665, "grad_norm": 0.78515625, "learning_rate": 9.884326425698576e-05, "loss": 0.353, "step": 103370 }, { "epoch": 137.84, "grad_norm": 0.82421875, "learning_rate": 9.884304022253815e-05, "loss": 0.366, "step": 103380 }, { "epoch": 137.85333333333332, "grad_norm": 0.8125, "learning_rate": 9.88428161666513e-05, "loss": 0.3606, "step": 103390 }, { "epoch": 137.86666666666667, "grad_norm": 0.80859375, "learning_rate": 9.88425920893253e-05, "loss": 0.3667, "step": 103400 }, { "epoch": 137.88, "grad_norm": 0.75, "learning_rate": 9.884236799056026e-05, "loss": 0.3476, "step": 103410 }, { "epoch": 137.89333333333335, "grad_norm": 0.796875, "learning_rate": 9.884214387035625e-05, "loss": 0.3602, "step": 103420 }, { "epoch": 137.90666666666667, "grad_norm": 0.79296875, "learning_rate": 9.88419197287134e-05, "loss": 0.3647, "step": 103430 }, { "epoch": 137.92, "grad_norm": 0.8125, "learning_rate": 9.88416955656318e-05, "loss": 0.365, "step": 103440 }, { "epoch": 137.93333333333334, "grad_norm": 0.734375, "learning_rate": 9.884147138111152e-05, "loss": 0.3618, "step": 103450 }, { "epoch": 137.94666666666666, "grad_norm": 0.8125, "learning_rate": 9.884124717515271e-05, "loss": 0.3608, "step": 103460 }, { "epoch": 137.96, "grad_norm": 0.73046875, "learning_rate": 9.884102294775544e-05, "loss": 0.3601, "step": 103470 }, { "epoch": 137.97333333333333, "grad_norm": 1.078125, "learning_rate": 9.884079869891981e-05, "loss": 0.3826, "step": 103480 }, { "epoch": 137.98666666666668, "grad_norm": 0.82421875, "learning_rate": 9.884057442864592e-05, "loss": 0.3531, "step": 103490 }, { "epoch": 138.0, "grad_norm": 0.73828125, "learning_rate": 9.884035013693386e-05, "loss": 0.3539, "step": 103500 }, { "epoch": 138.0, "eval_loss": 0.41795533895492554, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.5504, "eval_samples_per_second": 1.385, "eval_steps_per_second": 0.087, "step": 103500 }, { "epoch": 138.01333333333332, "grad_norm": 0.85546875, "learning_rate": 9.884012582378372e-05, "loss": 0.3707, "step": 103510 }, { "epoch": 138.02666666666667, "grad_norm": 0.75, "learning_rate": 9.883990148919564e-05, "loss": 0.3858, "step": 103520 }, { "epoch": 138.04, "grad_norm": 0.73828125, "learning_rate": 9.883967713316968e-05, "loss": 0.3982, "step": 103530 }, { "epoch": 138.05333333333334, "grad_norm": 0.796875, "learning_rate": 9.883945275570597e-05, "loss": 0.3824, "step": 103540 }, { "epoch": 138.06666666666666, "grad_norm": 0.83984375, "learning_rate": 9.883922835680457e-05, "loss": 0.3703, "step": 103550 }, { "epoch": 138.08, "grad_norm": 0.796875, "learning_rate": 9.88390039364656e-05, "loss": 0.3738, "step": 103560 }, { "epoch": 138.09333333333333, "grad_norm": 0.86328125, "learning_rate": 9.883877949468916e-05, "loss": 0.3764, "step": 103570 }, { "epoch": 138.10666666666665, "grad_norm": 0.7109375, "learning_rate": 9.883855503147533e-05, "loss": 0.3656, "step": 103580 }, { "epoch": 138.12, "grad_norm": 0.86328125, "learning_rate": 9.883833054682424e-05, "loss": 0.3667, "step": 103590 }, { "epoch": 138.13333333333333, "grad_norm": 0.8046875, "learning_rate": 9.883810604073597e-05, "loss": 0.3589, "step": 103600 }, { "epoch": 138.14666666666668, "grad_norm": 0.83984375, "learning_rate": 9.883788151321061e-05, "loss": 0.3775, "step": 103610 }, { "epoch": 138.16, "grad_norm": 0.7421875, "learning_rate": 9.883765696424828e-05, "loss": 0.3729, "step": 103620 }, { "epoch": 138.17333333333335, "grad_norm": 0.82421875, "learning_rate": 9.883743239384907e-05, "loss": 0.3679, "step": 103630 }, { "epoch": 138.18666666666667, "grad_norm": 0.76171875, "learning_rate": 9.883720780201307e-05, "loss": 0.3647, "step": 103640 }, { "epoch": 138.2, "grad_norm": 0.78515625, "learning_rate": 9.883698318874038e-05, "loss": 0.3567, "step": 103650 }, { "epoch": 138.21333333333334, "grad_norm": 0.8515625, "learning_rate": 9.883675855403111e-05, "loss": 0.3574, "step": 103660 }, { "epoch": 138.22666666666666, "grad_norm": 0.828125, "learning_rate": 9.883653389788536e-05, "loss": 0.3688, "step": 103670 }, { "epoch": 138.24, "grad_norm": 0.8203125, "learning_rate": 9.88363092203032e-05, "loss": 0.3548, "step": 103680 }, { "epoch": 138.25333333333333, "grad_norm": 0.796875, "learning_rate": 9.883608452128476e-05, "loss": 0.3558, "step": 103690 }, { "epoch": 138.26666666666668, "grad_norm": 0.73046875, "learning_rate": 9.883585980083014e-05, "loss": 0.3595, "step": 103700 }, { "epoch": 138.28, "grad_norm": 0.88671875, "learning_rate": 9.883563505893941e-05, "loss": 0.3867, "step": 103710 }, { "epoch": 138.29333333333332, "grad_norm": 0.875, "learning_rate": 9.88354102956127e-05, "loss": 0.3455, "step": 103720 }, { "epoch": 138.30666666666667, "grad_norm": 0.82421875, "learning_rate": 9.883518551085007e-05, "loss": 0.3692, "step": 103730 }, { "epoch": 138.32, "grad_norm": 0.76171875, "learning_rate": 9.883496070465166e-05, "loss": 0.374, "step": 103740 }, { "epoch": 138.33333333333334, "grad_norm": 0.87890625, "learning_rate": 9.883473587701755e-05, "loss": 0.3724, "step": 103750 }, { "epoch": 138.34666666666666, "grad_norm": 0.828125, "learning_rate": 9.883451102794785e-05, "loss": 0.3634, "step": 103760 }, { "epoch": 138.36, "grad_norm": 0.80859375, "learning_rate": 9.883428615744263e-05, "loss": 0.3645, "step": 103770 }, { "epoch": 138.37333333333333, "grad_norm": 0.7578125, "learning_rate": 9.883406126550201e-05, "loss": 0.3677, "step": 103780 }, { "epoch": 138.38666666666666, "grad_norm": 0.90234375, "learning_rate": 9.883383635212608e-05, "loss": 0.3546, "step": 103790 }, { "epoch": 138.4, "grad_norm": 0.91015625, "learning_rate": 9.883361141731495e-05, "loss": 0.3651, "step": 103800 }, { "epoch": 138.41333333333333, "grad_norm": 0.7890625, "learning_rate": 9.883338646106872e-05, "loss": 0.3717, "step": 103810 }, { "epoch": 138.42666666666668, "grad_norm": 0.83203125, "learning_rate": 9.883316148338749e-05, "loss": 0.3729, "step": 103820 }, { "epoch": 138.44, "grad_norm": 0.83203125, "learning_rate": 9.883293648427135e-05, "loss": 0.3839, "step": 103830 }, { "epoch": 138.45333333333335, "grad_norm": 0.828125, "learning_rate": 9.883271146372037e-05, "loss": 0.3722, "step": 103840 }, { "epoch": 138.46666666666667, "grad_norm": 0.81640625, "learning_rate": 9.883248642173471e-05, "loss": 0.3798, "step": 103850 }, { "epoch": 138.48, "grad_norm": 0.796875, "learning_rate": 9.883226135831443e-05, "loss": 0.3623, "step": 103860 }, { "epoch": 138.49333333333334, "grad_norm": 0.7421875, "learning_rate": 9.883203627345962e-05, "loss": 0.3733, "step": 103870 }, { "epoch": 138.50666666666666, "grad_norm": 0.83984375, "learning_rate": 9.883181116717041e-05, "loss": 0.3735, "step": 103880 }, { "epoch": 138.52, "grad_norm": 0.68359375, "learning_rate": 9.883158603944687e-05, "loss": 0.3651, "step": 103890 }, { "epoch": 138.53333333333333, "grad_norm": 0.80078125, "learning_rate": 9.883136089028913e-05, "loss": 0.3652, "step": 103900 }, { "epoch": 138.54666666666665, "grad_norm": 0.91796875, "learning_rate": 9.883113571969727e-05, "loss": 0.3665, "step": 103910 }, { "epoch": 138.56, "grad_norm": 0.73046875, "learning_rate": 9.883091052767137e-05, "loss": 0.3608, "step": 103920 }, { "epoch": 138.57333333333332, "grad_norm": 0.83984375, "learning_rate": 9.883068531421156e-05, "loss": 0.3657, "step": 103930 }, { "epoch": 138.58666666666667, "grad_norm": 0.71875, "learning_rate": 9.883046007931793e-05, "loss": 0.3563, "step": 103940 }, { "epoch": 138.6, "grad_norm": 0.73046875, "learning_rate": 9.883023482299059e-05, "loss": 0.3578, "step": 103950 }, { "epoch": 138.61333333333334, "grad_norm": 0.7265625, "learning_rate": 9.883000954522961e-05, "loss": 0.3496, "step": 103960 }, { "epoch": 138.62666666666667, "grad_norm": 0.703125, "learning_rate": 9.882978424603511e-05, "loss": 0.3551, "step": 103970 }, { "epoch": 138.64, "grad_norm": 0.859375, "learning_rate": 9.882955892540718e-05, "loss": 0.3614, "step": 103980 }, { "epoch": 138.65333333333334, "grad_norm": 0.76171875, "learning_rate": 9.882933358334592e-05, "loss": 0.3717, "step": 103990 }, { "epoch": 138.66666666666666, "grad_norm": 0.72265625, "learning_rate": 9.882910821985143e-05, "loss": 0.3627, "step": 104000 }, { "epoch": 138.68, "grad_norm": 0.84765625, "learning_rate": 9.882888283492381e-05, "loss": 0.3517, "step": 104010 }, { "epoch": 138.69333333333333, "grad_norm": 0.6953125, "learning_rate": 9.882865742856315e-05, "loss": 0.3627, "step": 104020 }, { "epoch": 138.70666666666668, "grad_norm": 0.88671875, "learning_rate": 9.882843200076957e-05, "loss": 0.3529, "step": 104030 }, { "epoch": 138.72, "grad_norm": 0.8046875, "learning_rate": 9.882820655154317e-05, "loss": 0.3749, "step": 104040 }, { "epoch": 138.73333333333332, "grad_norm": 0.79296875, "learning_rate": 9.882798108088402e-05, "loss": 0.3707, "step": 104050 }, { "epoch": 138.74666666666667, "grad_norm": 0.8125, "learning_rate": 9.882775558879224e-05, "loss": 0.3732, "step": 104060 }, { "epoch": 138.76, "grad_norm": 0.8515625, "learning_rate": 9.882753007526792e-05, "loss": 0.3861, "step": 104070 }, { "epoch": 138.77333333333334, "grad_norm": 0.8828125, "learning_rate": 9.882730454031116e-05, "loss": 0.3702, "step": 104080 }, { "epoch": 138.78666666666666, "grad_norm": 0.71484375, "learning_rate": 9.882707898392207e-05, "loss": 0.3735, "step": 104090 }, { "epoch": 138.8, "grad_norm": 0.81640625, "learning_rate": 9.882685340610074e-05, "loss": 0.372, "step": 104100 }, { "epoch": 138.81333333333333, "grad_norm": 0.9140625, "learning_rate": 9.882662780684726e-05, "loss": 0.3455, "step": 104110 }, { "epoch": 138.82666666666665, "grad_norm": 0.734375, "learning_rate": 9.882640218616175e-05, "loss": 0.3529, "step": 104120 }, { "epoch": 138.84, "grad_norm": 0.94921875, "learning_rate": 9.88261765440443e-05, "loss": 0.3659, "step": 104130 }, { "epoch": 138.85333333333332, "grad_norm": 0.81640625, "learning_rate": 9.882595088049498e-05, "loss": 0.3609, "step": 104140 }, { "epoch": 138.86666666666667, "grad_norm": 0.8203125, "learning_rate": 9.882572519551394e-05, "loss": 0.3673, "step": 104150 }, { "epoch": 138.88, "grad_norm": 0.82421875, "learning_rate": 9.882549948910125e-05, "loss": 0.3476, "step": 104160 }, { "epoch": 138.89333333333335, "grad_norm": 0.75, "learning_rate": 9.882527376125701e-05, "loss": 0.3601, "step": 104170 }, { "epoch": 138.90666666666667, "grad_norm": 0.81640625, "learning_rate": 9.882504801198133e-05, "loss": 0.3641, "step": 104180 }, { "epoch": 138.92, "grad_norm": 0.77734375, "learning_rate": 9.88248222412743e-05, "loss": 0.3662, "step": 104190 }, { "epoch": 138.93333333333334, "grad_norm": 0.7578125, "learning_rate": 9.882459644913601e-05, "loss": 0.3621, "step": 104200 }, { "epoch": 138.94666666666666, "grad_norm": 0.828125, "learning_rate": 9.88243706355666e-05, "loss": 0.362, "step": 104210 }, { "epoch": 138.96, "grad_norm": 0.734375, "learning_rate": 9.882414480056611e-05, "loss": 0.3602, "step": 104220 }, { "epoch": 138.97333333333333, "grad_norm": 1.09375, "learning_rate": 9.882391894413468e-05, "loss": 0.3828, "step": 104230 }, { "epoch": 138.98666666666668, "grad_norm": 0.890625, "learning_rate": 9.88236930662724e-05, "loss": 0.3528, "step": 104240 }, { "epoch": 139.0, "grad_norm": 0.80078125, "learning_rate": 9.882346716697936e-05, "loss": 0.3539, "step": 104250 }, { "epoch": 139.0, "eval_loss": 0.4168549180030823, "eval_model_preparation_time": 0.0042, "eval_runtime": 13.2042, "eval_samples_per_second": 1.212, "eval_steps_per_second": 0.076, "step": 104250 }, { "epoch": 139.01333333333332, "grad_norm": 0.84375, "learning_rate": 9.882324124625568e-05, "loss": 0.3701, "step": 104260 }, { "epoch": 139.02666666666667, "grad_norm": 0.80078125, "learning_rate": 9.882301530410142e-05, "loss": 0.3854, "step": 104270 }, { "epoch": 139.04, "grad_norm": 0.78125, "learning_rate": 9.882278934051672e-05, "loss": 0.3972, "step": 104280 }, { "epoch": 139.05333333333334, "grad_norm": 0.7734375, "learning_rate": 9.882256335550166e-05, "loss": 0.3818, "step": 104290 }, { "epoch": 139.06666666666666, "grad_norm": 0.859375, "learning_rate": 9.882233734905636e-05, "loss": 0.3698, "step": 104300 }, { "epoch": 139.08, "grad_norm": 0.9140625, "learning_rate": 9.88221113211809e-05, "loss": 0.3734, "step": 104310 }, { "epoch": 139.09333333333333, "grad_norm": 0.80859375, "learning_rate": 9.882188527187535e-05, "loss": 0.3767, "step": 104320 }, { "epoch": 139.10666666666665, "grad_norm": 0.72265625, "learning_rate": 9.882165920113986e-05, "loss": 0.3649, "step": 104330 }, { "epoch": 139.12, "grad_norm": 0.81640625, "learning_rate": 9.882143310897451e-05, "loss": 0.3659, "step": 104340 }, { "epoch": 139.13333333333333, "grad_norm": 0.8046875, "learning_rate": 9.88212069953794e-05, "loss": 0.3585, "step": 104350 }, { "epoch": 139.14666666666668, "grad_norm": 0.7890625, "learning_rate": 9.882098086035463e-05, "loss": 0.3775, "step": 104360 }, { "epoch": 139.16, "grad_norm": 0.74609375, "learning_rate": 9.882075470390029e-05, "loss": 0.3732, "step": 104370 }, { "epoch": 139.17333333333335, "grad_norm": 0.90625, "learning_rate": 9.88205285260165e-05, "loss": 0.3672, "step": 104380 }, { "epoch": 139.18666666666667, "grad_norm": 0.70703125, "learning_rate": 9.882030232670334e-05, "loss": 0.3652, "step": 104390 }, { "epoch": 139.2, "grad_norm": 0.80859375, "learning_rate": 9.882007610596091e-05, "loss": 0.3569, "step": 104400 }, { "epoch": 139.21333333333334, "grad_norm": 0.87890625, "learning_rate": 9.881984986378932e-05, "loss": 0.3576, "step": 104410 }, { "epoch": 139.22666666666666, "grad_norm": 0.8515625, "learning_rate": 9.881962360018866e-05, "loss": 0.3682, "step": 104420 }, { "epoch": 139.24, "grad_norm": 0.8828125, "learning_rate": 9.881939731515903e-05, "loss": 0.3544, "step": 104430 }, { "epoch": 139.25333333333333, "grad_norm": 0.84765625, "learning_rate": 9.881917100870053e-05, "loss": 0.356, "step": 104440 }, { "epoch": 139.26666666666668, "grad_norm": 0.7890625, "learning_rate": 9.881894468081327e-05, "loss": 0.3593, "step": 104450 }, { "epoch": 139.28, "grad_norm": 0.78125, "learning_rate": 9.881871833149734e-05, "loss": 0.3869, "step": 104460 }, { "epoch": 139.29333333333332, "grad_norm": 0.7578125, "learning_rate": 9.881849196075283e-05, "loss": 0.346, "step": 104470 }, { "epoch": 139.30666666666667, "grad_norm": 0.79296875, "learning_rate": 9.881826556857986e-05, "loss": 0.3691, "step": 104480 }, { "epoch": 139.32, "grad_norm": 0.83984375, "learning_rate": 9.881803915497854e-05, "loss": 0.3741, "step": 104490 }, { "epoch": 139.33333333333334, "grad_norm": 0.91015625, "learning_rate": 9.881781271994892e-05, "loss": 0.3712, "step": 104500 }, { "epoch": 139.34666666666666, "grad_norm": 0.8671875, "learning_rate": 9.881758626349114e-05, "loss": 0.3626, "step": 104510 }, { "epoch": 139.36, "grad_norm": 0.81640625, "learning_rate": 9.881735978560528e-05, "loss": 0.3632, "step": 104520 }, { "epoch": 139.37333333333333, "grad_norm": 0.765625, "learning_rate": 9.881713328629145e-05, "loss": 0.3676, "step": 104530 }, { "epoch": 139.38666666666666, "grad_norm": 0.91015625, "learning_rate": 9.881690676554976e-05, "loss": 0.3546, "step": 104540 }, { "epoch": 139.4, "grad_norm": 0.78515625, "learning_rate": 9.881668022338026e-05, "loss": 0.3646, "step": 104550 }, { "epoch": 139.41333333333333, "grad_norm": 0.74609375, "learning_rate": 9.881645365978312e-05, "loss": 0.3704, "step": 104560 }, { "epoch": 139.42666666666668, "grad_norm": 0.765625, "learning_rate": 9.88162270747584e-05, "loss": 0.3724, "step": 104570 }, { "epoch": 139.44, "grad_norm": 0.84765625, "learning_rate": 9.881600046830619e-05, "loss": 0.3841, "step": 104580 }, { "epoch": 139.45333333333335, "grad_norm": 0.828125, "learning_rate": 9.88157738404266e-05, "loss": 0.3726, "step": 104590 }, { "epoch": 139.46666666666667, "grad_norm": 0.8984375, "learning_rate": 9.881554719111975e-05, "loss": 0.3792, "step": 104600 }, { "epoch": 139.48, "grad_norm": 0.7890625, "learning_rate": 9.881532052038571e-05, "loss": 0.362, "step": 104610 }, { "epoch": 139.49333333333334, "grad_norm": 0.8046875, "learning_rate": 9.88150938282246e-05, "loss": 0.3735, "step": 104620 }, { "epoch": 139.50666666666666, "grad_norm": 0.8125, "learning_rate": 9.881486711463652e-05, "loss": 0.3734, "step": 104630 }, { "epoch": 139.52, "grad_norm": 0.7421875, "learning_rate": 9.881464037962154e-05, "loss": 0.3639, "step": 104640 }, { "epoch": 139.53333333333333, "grad_norm": 0.76171875, "learning_rate": 9.88144136231798e-05, "loss": 0.3656, "step": 104650 }, { "epoch": 139.54666666666665, "grad_norm": 0.90234375, "learning_rate": 9.881418684531136e-05, "loss": 0.3662, "step": 104660 }, { "epoch": 139.56, "grad_norm": 0.76953125, "learning_rate": 9.881396004601635e-05, "loss": 0.3605, "step": 104670 }, { "epoch": 139.57333333333332, "grad_norm": 0.890625, "learning_rate": 9.881373322529486e-05, "loss": 0.3659, "step": 104680 }, { "epoch": 139.58666666666667, "grad_norm": 0.70703125, "learning_rate": 9.8813506383147e-05, "loss": 0.3563, "step": 104690 }, { "epoch": 139.6, "grad_norm": 0.7734375, "learning_rate": 9.881327951957284e-05, "loss": 0.3586, "step": 104700 }, { "epoch": 139.61333333333334, "grad_norm": 0.765625, "learning_rate": 9.88130526345725e-05, "loss": 0.3503, "step": 104710 }, { "epoch": 139.62666666666667, "grad_norm": 0.6953125, "learning_rate": 9.881282572814608e-05, "loss": 0.3544, "step": 104720 }, { "epoch": 139.64, "grad_norm": 0.80078125, "learning_rate": 9.88125988002937e-05, "loss": 0.3613, "step": 104730 }, { "epoch": 139.65333333333334, "grad_norm": 0.80859375, "learning_rate": 9.88123718510154e-05, "loss": 0.3712, "step": 104740 }, { "epoch": 139.66666666666666, "grad_norm": 0.734375, "learning_rate": 9.881214488031134e-05, "loss": 0.3635, "step": 104750 }, { "epoch": 139.68, "grad_norm": 0.84765625, "learning_rate": 9.881191788818159e-05, "loss": 0.352, "step": 104760 }, { "epoch": 139.69333333333333, "grad_norm": 0.66015625, "learning_rate": 9.881169087462625e-05, "loss": 0.364, "step": 104770 }, { "epoch": 139.70666666666668, "grad_norm": 0.90625, "learning_rate": 9.881146383964543e-05, "loss": 0.3528, "step": 104780 }, { "epoch": 139.72, "grad_norm": 0.8828125, "learning_rate": 9.881123678323922e-05, "loss": 0.3745, "step": 104790 }, { "epoch": 139.73333333333332, "grad_norm": 0.796875, "learning_rate": 9.881100970540773e-05, "loss": 0.3711, "step": 104800 }, { "epoch": 139.74666666666667, "grad_norm": 0.8671875, "learning_rate": 9.881078260615104e-05, "loss": 0.3735, "step": 104810 }, { "epoch": 139.76, "grad_norm": 0.875, "learning_rate": 9.881055548546928e-05, "loss": 0.3863, "step": 104820 }, { "epoch": 139.77333333333334, "grad_norm": 0.86328125, "learning_rate": 9.881032834336253e-05, "loss": 0.3703, "step": 104830 }, { "epoch": 139.78666666666666, "grad_norm": 0.73828125, "learning_rate": 9.88101011798309e-05, "loss": 0.3741, "step": 104840 }, { "epoch": 139.8, "grad_norm": 0.84765625, "learning_rate": 9.880987399487447e-05, "loss": 0.3713, "step": 104850 }, { "epoch": 139.81333333333333, "grad_norm": 0.9453125, "learning_rate": 9.880964678849336e-05, "loss": 0.3452, "step": 104860 }, { "epoch": 139.82666666666665, "grad_norm": 0.79296875, "learning_rate": 9.880941956068766e-05, "loss": 0.3525, "step": 104870 }, { "epoch": 139.84, "grad_norm": 0.78125, "learning_rate": 9.880919231145747e-05, "loss": 0.365, "step": 104880 }, { "epoch": 139.85333333333332, "grad_norm": 0.765625, "learning_rate": 9.88089650408029e-05, "loss": 0.3602, "step": 104890 }, { "epoch": 139.86666666666667, "grad_norm": 0.8125, "learning_rate": 9.880873774872403e-05, "loss": 0.3661, "step": 104900 }, { "epoch": 139.88, "grad_norm": 0.83203125, "learning_rate": 9.8808510435221e-05, "loss": 0.3472, "step": 104910 }, { "epoch": 139.89333333333335, "grad_norm": 0.72265625, "learning_rate": 9.880828310029384e-05, "loss": 0.3605, "step": 104920 }, { "epoch": 139.90666666666667, "grad_norm": 0.765625, "learning_rate": 9.880805574394271e-05, "loss": 0.3648, "step": 104930 }, { "epoch": 139.92, "grad_norm": 0.77734375, "learning_rate": 9.88078283661677e-05, "loss": 0.3656, "step": 104940 }, { "epoch": 139.93333333333334, "grad_norm": 0.78125, "learning_rate": 9.880760096696889e-05, "loss": 0.362, "step": 104950 }, { "epoch": 139.94666666666666, "grad_norm": 0.79296875, "learning_rate": 9.880737354634639e-05, "loss": 0.3618, "step": 104960 }, { "epoch": 139.96, "grad_norm": 0.765625, "learning_rate": 9.880714610430031e-05, "loss": 0.3604, "step": 104970 }, { "epoch": 139.97333333333333, "grad_norm": 0.953125, "learning_rate": 9.880691864083074e-05, "loss": 0.3827, "step": 104980 }, { "epoch": 139.98666666666668, "grad_norm": 0.83984375, "learning_rate": 9.880669115593777e-05, "loss": 0.3529, "step": 104990 }, { "epoch": 140.0, "grad_norm": 0.82421875, "learning_rate": 9.88064636496215e-05, "loss": 0.353, "step": 105000 }, { "epoch": 140.0, "eval_loss": 0.4188171923160553, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.8171, "eval_samples_per_second": 1.354, "eval_steps_per_second": 0.085, "step": 105000 }, { "epoch": 140.01333333333332, "grad_norm": 0.80859375, "learning_rate": 9.880623612188206e-05, "loss": 0.369, "step": 105010 }, { "epoch": 140.02666666666667, "grad_norm": 0.75, "learning_rate": 9.880600857271952e-05, "loss": 0.3849, "step": 105020 }, { "epoch": 140.04, "grad_norm": 0.765625, "learning_rate": 9.880578100213399e-05, "loss": 0.3971, "step": 105030 }, { "epoch": 140.05333333333334, "grad_norm": 0.8046875, "learning_rate": 9.880555341012557e-05, "loss": 0.3808, "step": 105040 }, { "epoch": 140.06666666666666, "grad_norm": 0.83984375, "learning_rate": 9.880532579669436e-05, "loss": 0.37, "step": 105050 }, { "epoch": 140.08, "grad_norm": 0.78515625, "learning_rate": 9.880509816184046e-05, "loss": 0.3735, "step": 105060 }, { "epoch": 140.09333333333333, "grad_norm": 0.83984375, "learning_rate": 9.880487050556398e-05, "loss": 0.3766, "step": 105070 }, { "epoch": 140.10666666666665, "grad_norm": 0.7109375, "learning_rate": 9.880464282786499e-05, "loss": 0.3647, "step": 105080 }, { "epoch": 140.12, "grad_norm": 0.75, "learning_rate": 9.880441512874361e-05, "loss": 0.3664, "step": 105090 }, { "epoch": 140.13333333333333, "grad_norm": 0.78125, "learning_rate": 9.880418740819995e-05, "loss": 0.3579, "step": 105100 }, { "epoch": 140.14666666666668, "grad_norm": 0.765625, "learning_rate": 9.880395966623409e-05, "loss": 0.3782, "step": 105110 }, { "epoch": 140.16, "grad_norm": 0.734375, "learning_rate": 9.880373190284615e-05, "loss": 0.3736, "step": 105120 }, { "epoch": 140.17333333333335, "grad_norm": 1.0078125, "learning_rate": 9.880350411803621e-05, "loss": 0.3675, "step": 105130 }, { "epoch": 140.18666666666667, "grad_norm": 0.72265625, "learning_rate": 9.880327631180437e-05, "loss": 0.3647, "step": 105140 }, { "epoch": 140.2, "grad_norm": 0.76171875, "learning_rate": 9.880304848415074e-05, "loss": 0.3563, "step": 105150 }, { "epoch": 140.21333333333334, "grad_norm": 0.80859375, "learning_rate": 9.880282063507544e-05, "loss": 0.3572, "step": 105160 }, { "epoch": 140.22666666666666, "grad_norm": 0.828125, "learning_rate": 9.880259276457853e-05, "loss": 0.3685, "step": 105170 }, { "epoch": 140.24, "grad_norm": 0.84375, "learning_rate": 9.880236487266014e-05, "loss": 0.3541, "step": 105180 }, { "epoch": 140.25333333333333, "grad_norm": 0.78125, "learning_rate": 9.880213695932034e-05, "loss": 0.3559, "step": 105190 }, { "epoch": 140.26666666666668, "grad_norm": 0.8203125, "learning_rate": 9.880190902455928e-05, "loss": 0.3585, "step": 105200 }, { "epoch": 140.28, "grad_norm": 0.8125, "learning_rate": 9.880168106837701e-05, "loss": 0.3862, "step": 105210 }, { "epoch": 140.29333333333332, "grad_norm": 0.7890625, "learning_rate": 9.880145309077365e-05, "loss": 0.3456, "step": 105220 }, { "epoch": 140.30666666666667, "grad_norm": 0.77734375, "learning_rate": 9.88012250917493e-05, "loss": 0.3689, "step": 105230 }, { "epoch": 140.32, "grad_norm": 0.6875, "learning_rate": 9.880099707130406e-05, "loss": 0.3733, "step": 105240 }, { "epoch": 140.33333333333334, "grad_norm": 0.87890625, "learning_rate": 9.880076902943802e-05, "loss": 0.3717, "step": 105250 }, { "epoch": 140.34666666666666, "grad_norm": 0.7890625, "learning_rate": 9.88005409661513e-05, "loss": 0.3625, "step": 105260 }, { "epoch": 140.36, "grad_norm": 0.828125, "learning_rate": 9.880031288144398e-05, "loss": 0.3632, "step": 105270 }, { "epoch": 140.37333333333333, "grad_norm": 0.71484375, "learning_rate": 9.880008477531616e-05, "loss": 0.3668, "step": 105280 }, { "epoch": 140.38666666666666, "grad_norm": 0.87109375, "learning_rate": 9.879985664776798e-05, "loss": 0.354, "step": 105290 }, { "epoch": 140.4, "grad_norm": 0.7890625, "learning_rate": 9.879962849879949e-05, "loss": 0.3642, "step": 105300 }, { "epoch": 140.41333333333333, "grad_norm": 0.75390625, "learning_rate": 9.879940032841082e-05, "loss": 0.3706, "step": 105310 }, { "epoch": 140.42666666666668, "grad_norm": 0.74609375, "learning_rate": 9.879917213660206e-05, "loss": 0.3717, "step": 105320 }, { "epoch": 140.44, "grad_norm": 0.84375, "learning_rate": 9.87989439233733e-05, "loss": 0.3848, "step": 105330 }, { "epoch": 140.45333333333335, "grad_norm": 0.859375, "learning_rate": 9.879871568872466e-05, "loss": 0.3714, "step": 105340 }, { "epoch": 140.46666666666667, "grad_norm": 0.7890625, "learning_rate": 9.879848743265623e-05, "loss": 0.379, "step": 105350 }, { "epoch": 140.48, "grad_norm": 0.85546875, "learning_rate": 9.87982591551681e-05, "loss": 0.3614, "step": 105360 }, { "epoch": 140.49333333333334, "grad_norm": 0.80859375, "learning_rate": 9.879803085626038e-05, "loss": 0.3743, "step": 105370 }, { "epoch": 140.50666666666666, "grad_norm": 0.79296875, "learning_rate": 9.879780253593319e-05, "loss": 0.3727, "step": 105380 }, { "epoch": 140.52, "grad_norm": 0.73828125, "learning_rate": 9.879757419418659e-05, "loss": 0.3638, "step": 105390 }, { "epoch": 140.53333333333333, "grad_norm": 0.75390625, "learning_rate": 9.879734583102072e-05, "loss": 0.3652, "step": 105400 }, { "epoch": 140.54666666666665, "grad_norm": 0.87109375, "learning_rate": 9.879711744643564e-05, "loss": 0.366, "step": 105410 }, { "epoch": 140.56, "grad_norm": 0.7265625, "learning_rate": 9.879688904043149e-05, "loss": 0.3606, "step": 105420 }, { "epoch": 140.57333333333332, "grad_norm": 0.8515625, "learning_rate": 9.879666061300836e-05, "loss": 0.365, "step": 105430 }, { "epoch": 140.58666666666667, "grad_norm": 0.79296875, "learning_rate": 9.879643216416632e-05, "loss": 0.3555, "step": 105440 }, { "epoch": 140.6, "grad_norm": 0.72265625, "learning_rate": 9.879620369390551e-05, "loss": 0.3576, "step": 105450 }, { "epoch": 140.61333333333334, "grad_norm": 0.76953125, "learning_rate": 9.879597520222601e-05, "loss": 0.3495, "step": 105460 }, { "epoch": 140.62666666666667, "grad_norm": 0.7734375, "learning_rate": 9.879574668912792e-05, "loss": 0.3556, "step": 105470 }, { "epoch": 140.64, "grad_norm": 0.84765625, "learning_rate": 9.879551815461135e-05, "loss": 0.3614, "step": 105480 }, { "epoch": 140.65333333333334, "grad_norm": 0.78125, "learning_rate": 9.879528959867637e-05, "loss": 0.3717, "step": 105490 }, { "epoch": 140.66666666666666, "grad_norm": 0.72265625, "learning_rate": 9.879506102132312e-05, "loss": 0.363, "step": 105500 }, { "epoch": 140.68, "grad_norm": 0.81640625, "learning_rate": 9.87948324225517e-05, "loss": 0.3519, "step": 105510 }, { "epoch": 140.69333333333333, "grad_norm": 0.71484375, "learning_rate": 9.879460380236218e-05, "loss": 0.3639, "step": 105520 }, { "epoch": 140.70666666666668, "grad_norm": 0.88671875, "learning_rate": 9.879437516075467e-05, "loss": 0.3531, "step": 105530 }, { "epoch": 140.72, "grad_norm": 0.98046875, "learning_rate": 9.879414649772929e-05, "loss": 0.3739, "step": 105540 }, { "epoch": 140.73333333333332, "grad_norm": 0.921875, "learning_rate": 9.879391781328612e-05, "loss": 0.3702, "step": 105550 }, { "epoch": 140.74666666666667, "grad_norm": 0.8203125, "learning_rate": 9.879368910742526e-05, "loss": 0.3739, "step": 105560 }, { "epoch": 140.76, "grad_norm": 0.91796875, "learning_rate": 9.879346038014683e-05, "loss": 0.3868, "step": 105570 }, { "epoch": 140.77333333333334, "grad_norm": 0.89453125, "learning_rate": 9.87932316314509e-05, "loss": 0.3711, "step": 105580 }, { "epoch": 140.78666666666666, "grad_norm": 0.78125, "learning_rate": 9.879300286133762e-05, "loss": 0.3733, "step": 105590 }, { "epoch": 140.8, "grad_norm": 0.81640625, "learning_rate": 9.879277406980703e-05, "loss": 0.3701, "step": 105600 }, { "epoch": 140.81333333333333, "grad_norm": 0.875, "learning_rate": 9.879254525685926e-05, "loss": 0.3451, "step": 105610 }, { "epoch": 140.82666666666665, "grad_norm": 0.85546875, "learning_rate": 9.879231642249442e-05, "loss": 0.3528, "step": 105620 }, { "epoch": 140.84, "grad_norm": 0.83203125, "learning_rate": 9.879208756671259e-05, "loss": 0.3653, "step": 105630 }, { "epoch": 140.85333333333332, "grad_norm": 0.76953125, "learning_rate": 9.879185868951389e-05, "loss": 0.3612, "step": 105640 }, { "epoch": 140.86666666666667, "grad_norm": 0.8359375, "learning_rate": 9.87916297908984e-05, "loss": 0.3667, "step": 105650 }, { "epoch": 140.88, "grad_norm": 0.77734375, "learning_rate": 9.879140087086623e-05, "loss": 0.3469, "step": 105660 }, { "epoch": 140.89333333333335, "grad_norm": 0.703125, "learning_rate": 9.879117192941748e-05, "loss": 0.36, "step": 105670 }, { "epoch": 140.90666666666667, "grad_norm": 0.79296875, "learning_rate": 9.879094296655228e-05, "loss": 0.3638, "step": 105680 }, { "epoch": 140.92, "grad_norm": 0.8515625, "learning_rate": 9.879071398227067e-05, "loss": 0.365, "step": 105690 }, { "epoch": 140.93333333333334, "grad_norm": 0.69921875, "learning_rate": 9.879048497657278e-05, "loss": 0.3611, "step": 105700 }, { "epoch": 140.94666666666666, "grad_norm": 0.796875, "learning_rate": 9.879025594945874e-05, "loss": 0.3609, "step": 105710 }, { "epoch": 140.96, "grad_norm": 0.7734375, "learning_rate": 9.87900269009286e-05, "loss": 0.3602, "step": 105720 }, { "epoch": 140.97333333333333, "grad_norm": 1.0703125, "learning_rate": 9.87897978309825e-05, "loss": 0.3833, "step": 105730 }, { "epoch": 140.98666666666668, "grad_norm": 0.87109375, "learning_rate": 9.878956873962051e-05, "loss": 0.3529, "step": 105740 }, { "epoch": 141.0, "grad_norm": 0.78515625, "learning_rate": 9.878933962684275e-05, "loss": 0.3536, "step": 105750 }, { "epoch": 141.0, "eval_loss": 0.41997119784355164, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.6967, "eval_samples_per_second": 1.26, "eval_steps_per_second": 0.079, "step": 105750 }, { "epoch": 141.01333333333332, "grad_norm": 0.953125, "learning_rate": 9.878911049264934e-05, "loss": 0.3694, "step": 105760 }, { "epoch": 141.02666666666667, "grad_norm": 0.7890625, "learning_rate": 9.878888133704033e-05, "loss": 0.3855, "step": 105770 }, { "epoch": 141.04, "grad_norm": 0.78515625, "learning_rate": 9.878865216001585e-05, "loss": 0.3974, "step": 105780 }, { "epoch": 141.05333333333334, "grad_norm": 0.8671875, "learning_rate": 9.8788422961576e-05, "loss": 0.3815, "step": 105790 }, { "epoch": 141.06666666666666, "grad_norm": 0.91015625, "learning_rate": 9.878819374172088e-05, "loss": 0.3697, "step": 105800 }, { "epoch": 141.08, "grad_norm": 0.859375, "learning_rate": 9.87879645004506e-05, "loss": 0.3742, "step": 105810 }, { "epoch": 141.09333333333333, "grad_norm": 0.8203125, "learning_rate": 9.878773523776523e-05, "loss": 0.3767, "step": 105820 }, { "epoch": 141.10666666666665, "grad_norm": 0.703125, "learning_rate": 9.878750595366491e-05, "loss": 0.3653, "step": 105830 }, { "epoch": 141.12, "grad_norm": 0.84765625, "learning_rate": 9.87872766481497e-05, "loss": 0.3661, "step": 105840 }, { "epoch": 141.13333333333333, "grad_norm": 0.8515625, "learning_rate": 9.878704732121975e-05, "loss": 0.359, "step": 105850 }, { "epoch": 141.14666666666668, "grad_norm": 0.80078125, "learning_rate": 9.878681797287512e-05, "loss": 0.377, "step": 105860 }, { "epoch": 141.16, "grad_norm": 0.76171875, "learning_rate": 9.878658860311591e-05, "loss": 0.3728, "step": 105870 }, { "epoch": 141.17333333333335, "grad_norm": 0.8359375, "learning_rate": 9.878635921194224e-05, "loss": 0.3679, "step": 105880 }, { "epoch": 141.18666666666667, "grad_norm": 0.8046875, "learning_rate": 9.87861297993542e-05, "loss": 0.3636, "step": 105890 }, { "epoch": 141.2, "grad_norm": 0.8046875, "learning_rate": 9.878590036535192e-05, "loss": 0.3559, "step": 105900 }, { "epoch": 141.21333333333334, "grad_norm": 0.84375, "learning_rate": 9.878567090993545e-05, "loss": 0.3572, "step": 105910 }, { "epoch": 141.22666666666666, "grad_norm": 0.875, "learning_rate": 9.878544143310492e-05, "loss": 0.3676, "step": 105920 }, { "epoch": 141.24, "grad_norm": 0.84375, "learning_rate": 9.878521193486043e-05, "loss": 0.3539, "step": 105930 }, { "epoch": 141.25333333333333, "grad_norm": 0.8046875, "learning_rate": 9.87849824152021e-05, "loss": 0.3546, "step": 105940 }, { "epoch": 141.26666666666668, "grad_norm": 0.7734375, "learning_rate": 9.878475287412996e-05, "loss": 0.3592, "step": 105950 }, { "epoch": 141.28, "grad_norm": 0.82421875, "learning_rate": 9.878452331164419e-05, "loss": 0.3859, "step": 105960 }, { "epoch": 141.29333333333332, "grad_norm": 0.80078125, "learning_rate": 9.878429372774485e-05, "loss": 0.3456, "step": 105970 }, { "epoch": 141.30666666666667, "grad_norm": 0.7890625, "learning_rate": 9.878406412243206e-05, "loss": 0.3697, "step": 105980 }, { "epoch": 141.32, "grad_norm": 0.73046875, "learning_rate": 9.878383449570591e-05, "loss": 0.3729, "step": 105990 }, { "epoch": 141.33333333333334, "grad_norm": 0.84375, "learning_rate": 9.878360484756652e-05, "loss": 0.3717, "step": 106000 }, { "epoch": 141.34666666666666, "grad_norm": 0.8515625, "learning_rate": 9.878337517801395e-05, "loss": 0.362, "step": 106010 }, { "epoch": 141.36, "grad_norm": 0.8203125, "learning_rate": 9.878314548704832e-05, "loss": 0.3636, "step": 106020 }, { "epoch": 141.37333333333333, "grad_norm": 0.73828125, "learning_rate": 9.878291577466976e-05, "loss": 0.3665, "step": 106030 }, { "epoch": 141.38666666666666, "grad_norm": 0.8984375, "learning_rate": 9.878268604087833e-05, "loss": 0.3539, "step": 106040 }, { "epoch": 141.4, "grad_norm": 0.83203125, "learning_rate": 9.878245628567414e-05, "loss": 0.3651, "step": 106050 }, { "epoch": 141.41333333333333, "grad_norm": 0.7890625, "learning_rate": 9.878222650905731e-05, "loss": 0.371, "step": 106060 }, { "epoch": 141.42666666666668, "grad_norm": 0.77734375, "learning_rate": 9.878199671102792e-05, "loss": 0.3716, "step": 106070 }, { "epoch": 141.44, "grad_norm": 0.84375, "learning_rate": 9.878176689158608e-05, "loss": 0.3846, "step": 106080 }, { "epoch": 141.45333333333335, "grad_norm": 0.8515625, "learning_rate": 9.87815370507319e-05, "loss": 0.3709, "step": 106090 }, { "epoch": 141.46666666666667, "grad_norm": 0.8515625, "learning_rate": 9.878130718846545e-05, "loss": 0.3789, "step": 106100 }, { "epoch": 141.48, "grad_norm": 0.76953125, "learning_rate": 9.878107730478687e-05, "loss": 0.362, "step": 106110 }, { "epoch": 141.49333333333334, "grad_norm": 0.80078125, "learning_rate": 9.878084739969624e-05, "loss": 0.3742, "step": 106120 }, { "epoch": 141.50666666666666, "grad_norm": 0.8515625, "learning_rate": 9.878061747319366e-05, "loss": 0.3728, "step": 106130 }, { "epoch": 141.52, "grad_norm": 0.71484375, "learning_rate": 9.878038752527924e-05, "loss": 0.3646, "step": 106140 }, { "epoch": 141.53333333333333, "grad_norm": 0.8203125, "learning_rate": 9.878015755595307e-05, "loss": 0.3655, "step": 106150 }, { "epoch": 141.54666666666665, "grad_norm": 0.94140625, "learning_rate": 9.877992756521525e-05, "loss": 0.3657, "step": 106160 }, { "epoch": 141.56, "grad_norm": 0.796875, "learning_rate": 9.877969755306591e-05, "loss": 0.3601, "step": 106170 }, { "epoch": 141.57333333333332, "grad_norm": 0.83984375, "learning_rate": 9.877946751950511e-05, "loss": 0.3647, "step": 106180 }, { "epoch": 141.58666666666667, "grad_norm": 0.73828125, "learning_rate": 9.877923746453297e-05, "loss": 0.3554, "step": 106190 }, { "epoch": 141.6, "grad_norm": 0.77734375, "learning_rate": 9.877900738814959e-05, "loss": 0.3581, "step": 106200 }, { "epoch": 141.61333333333334, "grad_norm": 0.7421875, "learning_rate": 9.877877729035507e-05, "loss": 0.3494, "step": 106210 }, { "epoch": 141.62666666666667, "grad_norm": 0.75390625, "learning_rate": 9.877854717114953e-05, "loss": 0.3537, "step": 106220 }, { "epoch": 141.64, "grad_norm": 0.8515625, "learning_rate": 9.877831703053305e-05, "loss": 0.3613, "step": 106230 }, { "epoch": 141.65333333333334, "grad_norm": 0.84375, "learning_rate": 9.877808686850571e-05, "loss": 0.3719, "step": 106240 }, { "epoch": 141.66666666666666, "grad_norm": 0.73046875, "learning_rate": 9.877785668506765e-05, "loss": 0.3625, "step": 106250 }, { "epoch": 141.68, "grad_norm": 0.84375, "learning_rate": 9.877762648021896e-05, "loss": 0.3521, "step": 106260 }, { "epoch": 141.69333333333333, "grad_norm": 0.75, "learning_rate": 9.877739625395975e-05, "loss": 0.3629, "step": 106270 }, { "epoch": 141.70666666666668, "grad_norm": 0.89453125, "learning_rate": 9.877716600629007e-05, "loss": 0.3532, "step": 106280 }, { "epoch": 141.72, "grad_norm": 0.8671875, "learning_rate": 9.877693573721009e-05, "loss": 0.3736, "step": 106290 }, { "epoch": 141.73333333333332, "grad_norm": 0.828125, "learning_rate": 9.877670544671987e-05, "loss": 0.3699, "step": 106300 }, { "epoch": 141.74666666666667, "grad_norm": 0.7734375, "learning_rate": 9.877647513481954e-05, "loss": 0.3732, "step": 106310 }, { "epoch": 141.76, "grad_norm": 0.8828125, "learning_rate": 9.877624480150916e-05, "loss": 0.387, "step": 106320 }, { "epoch": 141.77333333333334, "grad_norm": 0.87890625, "learning_rate": 9.877601444678886e-05, "loss": 0.3702, "step": 106330 }, { "epoch": 141.78666666666666, "grad_norm": 0.79296875, "learning_rate": 9.877578407065874e-05, "loss": 0.3738, "step": 106340 }, { "epoch": 141.8, "grad_norm": 0.84375, "learning_rate": 9.87755536731189e-05, "loss": 0.3707, "step": 106350 }, { "epoch": 141.81333333333333, "grad_norm": 0.9296875, "learning_rate": 9.877532325416943e-05, "loss": 0.3453, "step": 106360 }, { "epoch": 141.82666666666665, "grad_norm": 0.76171875, "learning_rate": 9.877509281381043e-05, "loss": 0.3523, "step": 106370 }, { "epoch": 141.84, "grad_norm": 0.8828125, "learning_rate": 9.877486235204202e-05, "loss": 0.3647, "step": 106380 }, { "epoch": 141.85333333333332, "grad_norm": 0.7890625, "learning_rate": 9.877463186886429e-05, "loss": 0.3607, "step": 106390 }, { "epoch": 141.86666666666667, "grad_norm": 0.8515625, "learning_rate": 9.877440136427733e-05, "loss": 0.3667, "step": 106400 }, { "epoch": 141.88, "grad_norm": 0.8203125, "learning_rate": 9.877417083828128e-05, "loss": 0.3476, "step": 106410 }, { "epoch": 141.89333333333335, "grad_norm": 0.71875, "learning_rate": 9.87739402908762e-05, "loss": 0.3597, "step": 106420 }, { "epoch": 141.90666666666667, "grad_norm": 0.83203125, "learning_rate": 9.87737097220622e-05, "loss": 0.3639, "step": 106430 }, { "epoch": 141.92, "grad_norm": 0.83984375, "learning_rate": 9.877347913183939e-05, "loss": 0.3645, "step": 106440 }, { "epoch": 141.93333333333334, "grad_norm": 0.76171875, "learning_rate": 9.877324852020787e-05, "loss": 0.3622, "step": 106450 }, { "epoch": 141.94666666666666, "grad_norm": 0.859375, "learning_rate": 9.877301788716774e-05, "loss": 0.3614, "step": 106460 }, { "epoch": 141.96, "grad_norm": 0.73828125, "learning_rate": 9.87727872327191e-05, "loss": 0.36, "step": 106470 }, { "epoch": 141.97333333333333, "grad_norm": 1.015625, "learning_rate": 9.877255655686205e-05, "loss": 0.3825, "step": 106480 }, { "epoch": 141.98666666666668, "grad_norm": 0.80078125, "learning_rate": 9.87723258595967e-05, "loss": 0.3532, "step": 106490 }, { "epoch": 142.0, "grad_norm": 0.81640625, "learning_rate": 9.877209514092314e-05, "loss": 0.3535, "step": 106500 }, { "epoch": 142.0, "eval_loss": 0.418472558259964, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.5783, "eval_samples_per_second": 1.272, "eval_steps_per_second": 0.08, "step": 106500 }, { "epoch": 142.01333333333332, "grad_norm": 0.9296875, "learning_rate": 9.877186440084147e-05, "loss": 0.3701, "step": 106510 }, { "epoch": 142.02666666666667, "grad_norm": 0.75, "learning_rate": 9.87716336393518e-05, "loss": 0.3848, "step": 106520 }, { "epoch": 142.04, "grad_norm": 0.76953125, "learning_rate": 9.877140285645422e-05, "loss": 0.3985, "step": 106530 }, { "epoch": 142.05333333333334, "grad_norm": 0.78515625, "learning_rate": 9.877117205214885e-05, "loss": 0.3813, "step": 106540 }, { "epoch": 142.06666666666666, "grad_norm": 0.8515625, "learning_rate": 9.877094122643577e-05, "loss": 0.3703, "step": 106550 }, { "epoch": 142.08, "grad_norm": 0.765625, "learning_rate": 9.877071037931511e-05, "loss": 0.3727, "step": 106560 }, { "epoch": 142.09333333333333, "grad_norm": 0.78125, "learning_rate": 9.877047951078694e-05, "loss": 0.3758, "step": 106570 }, { "epoch": 142.10666666666665, "grad_norm": 0.75, "learning_rate": 9.877024862085138e-05, "loss": 0.3662, "step": 106580 }, { "epoch": 142.12, "grad_norm": 0.8203125, "learning_rate": 9.87700177095085e-05, "loss": 0.3656, "step": 106590 }, { "epoch": 142.13333333333333, "grad_norm": 0.88671875, "learning_rate": 9.876978677675848e-05, "loss": 0.3583, "step": 106600 }, { "epoch": 142.14666666666668, "grad_norm": 0.83203125, "learning_rate": 9.876955582260133e-05, "loss": 0.3773, "step": 106610 }, { "epoch": 142.16, "grad_norm": 0.77734375, "learning_rate": 9.87693248470372e-05, "loss": 0.3727, "step": 106620 }, { "epoch": 142.17333333333335, "grad_norm": 0.890625, "learning_rate": 9.876909385006619e-05, "loss": 0.3679, "step": 106630 }, { "epoch": 142.18666666666667, "grad_norm": 0.78515625, "learning_rate": 9.876886283168838e-05, "loss": 0.3649, "step": 106640 }, { "epoch": 142.2, "grad_norm": 0.828125, "learning_rate": 9.876863179190388e-05, "loss": 0.3559, "step": 106650 }, { "epoch": 142.21333333333334, "grad_norm": 0.8359375, "learning_rate": 9.87684007307128e-05, "loss": 0.3563, "step": 106660 }, { "epoch": 142.22666666666666, "grad_norm": 0.875, "learning_rate": 9.876816964811524e-05, "loss": 0.3685, "step": 106670 }, { "epoch": 142.24, "grad_norm": 0.8125, "learning_rate": 9.876793854411131e-05, "loss": 0.3532, "step": 106680 }, { "epoch": 142.25333333333333, "grad_norm": 0.8515625, "learning_rate": 9.876770741870108e-05, "loss": 0.3562, "step": 106690 }, { "epoch": 142.26666666666668, "grad_norm": 0.75, "learning_rate": 9.876747627188467e-05, "loss": 0.3587, "step": 106700 }, { "epoch": 142.28, "grad_norm": 0.7890625, "learning_rate": 9.87672451036622e-05, "loss": 0.3859, "step": 106710 }, { "epoch": 142.29333333333332, "grad_norm": 0.81640625, "learning_rate": 9.876701391403376e-05, "loss": 0.3451, "step": 106720 }, { "epoch": 142.30666666666667, "grad_norm": 0.859375, "learning_rate": 9.876678270299943e-05, "loss": 0.369, "step": 106730 }, { "epoch": 142.32, "grad_norm": 0.70703125, "learning_rate": 9.876655147055933e-05, "loss": 0.3733, "step": 106740 }, { "epoch": 142.33333333333334, "grad_norm": 0.85546875, "learning_rate": 9.876632021671355e-05, "loss": 0.3719, "step": 106750 }, { "epoch": 142.34666666666666, "grad_norm": 0.9296875, "learning_rate": 9.876608894146222e-05, "loss": 0.3625, "step": 106760 }, { "epoch": 142.36, "grad_norm": 0.8671875, "learning_rate": 9.87658576448054e-05, "loss": 0.3632, "step": 106770 }, { "epoch": 142.37333333333333, "grad_norm": 0.76171875, "learning_rate": 9.876562632674323e-05, "loss": 0.366, "step": 106780 }, { "epoch": 142.38666666666666, "grad_norm": 0.9296875, "learning_rate": 9.876539498727579e-05, "loss": 0.3531, "step": 106790 }, { "epoch": 142.4, "grad_norm": 0.8515625, "learning_rate": 9.876516362640318e-05, "loss": 0.364, "step": 106800 }, { "epoch": 142.41333333333333, "grad_norm": 0.765625, "learning_rate": 9.876493224412551e-05, "loss": 0.3708, "step": 106810 }, { "epoch": 142.42666666666668, "grad_norm": 0.76171875, "learning_rate": 9.87647008404429e-05, "loss": 0.3722, "step": 106820 }, { "epoch": 142.44, "grad_norm": 0.80078125, "learning_rate": 9.876446941535541e-05, "loss": 0.384, "step": 106830 }, { "epoch": 142.45333333333335, "grad_norm": 0.82421875, "learning_rate": 9.876423796886317e-05, "loss": 0.3713, "step": 106840 }, { "epoch": 142.46666666666667, "grad_norm": 0.796875, "learning_rate": 9.876400650096626e-05, "loss": 0.3781, "step": 106850 }, { "epoch": 142.48, "grad_norm": 0.80859375, "learning_rate": 9.876377501166482e-05, "loss": 0.3622, "step": 106860 }, { "epoch": 142.49333333333334, "grad_norm": 0.81640625, "learning_rate": 9.876354350095891e-05, "loss": 0.3737, "step": 106870 }, { "epoch": 142.50666666666666, "grad_norm": 0.78125, "learning_rate": 9.876331196884865e-05, "loss": 0.3727, "step": 106880 }, { "epoch": 142.52, "grad_norm": 0.64453125, "learning_rate": 9.876308041533416e-05, "loss": 0.3639, "step": 106890 }, { "epoch": 142.53333333333333, "grad_norm": 0.76171875, "learning_rate": 9.876284884041549e-05, "loss": 0.3641, "step": 106900 }, { "epoch": 142.54666666666665, "grad_norm": 0.83984375, "learning_rate": 9.876261724409279e-05, "loss": 0.3657, "step": 106910 }, { "epoch": 142.56, "grad_norm": 0.73828125, "learning_rate": 9.876238562636615e-05, "loss": 0.3599, "step": 106920 }, { "epoch": 142.57333333333332, "grad_norm": 0.91015625, "learning_rate": 9.876215398723567e-05, "loss": 0.365, "step": 106930 }, { "epoch": 142.58666666666667, "grad_norm": 0.7421875, "learning_rate": 9.876192232670144e-05, "loss": 0.3561, "step": 106940 }, { "epoch": 142.6, "grad_norm": 0.73046875, "learning_rate": 9.876169064476357e-05, "loss": 0.3577, "step": 106950 }, { "epoch": 142.61333333333334, "grad_norm": 0.65625, "learning_rate": 9.876145894142216e-05, "loss": 0.35, "step": 106960 }, { "epoch": 142.62666666666667, "grad_norm": 0.74609375, "learning_rate": 9.876122721667733e-05, "loss": 0.3535, "step": 106970 }, { "epoch": 142.64, "grad_norm": 0.765625, "learning_rate": 9.876099547052915e-05, "loss": 0.3615, "step": 106980 }, { "epoch": 142.65333333333334, "grad_norm": 0.765625, "learning_rate": 9.876076370297775e-05, "loss": 0.3717, "step": 106990 }, { "epoch": 142.66666666666666, "grad_norm": 0.6796875, "learning_rate": 9.876053191402321e-05, "loss": 0.3626, "step": 107000 }, { "epoch": 142.68, "grad_norm": 0.8203125, "learning_rate": 9.876030010366564e-05, "loss": 0.3515, "step": 107010 }, { "epoch": 142.69333333333333, "grad_norm": 0.73046875, "learning_rate": 9.876006827190516e-05, "loss": 0.363, "step": 107020 }, { "epoch": 142.70666666666668, "grad_norm": 0.91015625, "learning_rate": 9.875983641874182e-05, "loss": 0.3524, "step": 107030 }, { "epoch": 142.72, "grad_norm": 0.84375, "learning_rate": 9.875960454417578e-05, "loss": 0.3742, "step": 107040 }, { "epoch": 142.73333333333332, "grad_norm": 0.875, "learning_rate": 9.875937264820713e-05, "loss": 0.37, "step": 107050 }, { "epoch": 142.74666666666667, "grad_norm": 0.8359375, "learning_rate": 9.875914073083594e-05, "loss": 0.3722, "step": 107060 }, { "epoch": 142.76, "grad_norm": 0.83984375, "learning_rate": 9.875890879206233e-05, "loss": 0.3868, "step": 107070 }, { "epoch": 142.77333333333334, "grad_norm": 0.85546875, "learning_rate": 9.875867683188643e-05, "loss": 0.3702, "step": 107080 }, { "epoch": 142.78666666666666, "grad_norm": 0.87890625, "learning_rate": 9.875844485030829e-05, "loss": 0.373, "step": 107090 }, { "epoch": 142.8, "grad_norm": 0.85546875, "learning_rate": 9.875821284732804e-05, "loss": 0.3707, "step": 107100 }, { "epoch": 142.81333333333333, "grad_norm": 0.89453125, "learning_rate": 9.875798082294579e-05, "loss": 0.345, "step": 107110 }, { "epoch": 142.82666666666665, "grad_norm": 0.7578125, "learning_rate": 9.875774877716162e-05, "loss": 0.3523, "step": 107120 }, { "epoch": 142.84, "grad_norm": 0.8515625, "learning_rate": 9.875751670997565e-05, "loss": 0.3649, "step": 107130 }, { "epoch": 142.85333333333332, "grad_norm": 0.7890625, "learning_rate": 9.875728462138796e-05, "loss": 0.3597, "step": 107140 }, { "epoch": 142.86666666666667, "grad_norm": 0.81640625, "learning_rate": 9.875705251139868e-05, "loss": 0.3671, "step": 107150 }, { "epoch": 142.88, "grad_norm": 0.76171875, "learning_rate": 9.875682038000789e-05, "loss": 0.3472, "step": 107160 }, { "epoch": 142.89333333333335, "grad_norm": 0.75, "learning_rate": 9.875658822721569e-05, "loss": 0.3601, "step": 107170 }, { "epoch": 142.90666666666667, "grad_norm": 0.88671875, "learning_rate": 9.875635605302223e-05, "loss": 0.3644, "step": 107180 }, { "epoch": 142.92, "grad_norm": 0.84375, "learning_rate": 9.875612385742754e-05, "loss": 0.3648, "step": 107190 }, { "epoch": 142.93333333333334, "grad_norm": 0.78515625, "learning_rate": 9.875589164043176e-05, "loss": 0.3618, "step": 107200 }, { "epoch": 142.94666666666666, "grad_norm": 0.84765625, "learning_rate": 9.8755659402035e-05, "loss": 0.3618, "step": 107210 }, { "epoch": 142.96, "grad_norm": 0.75, "learning_rate": 9.875542714223735e-05, "loss": 0.3602, "step": 107220 }, { "epoch": 142.97333333333333, "grad_norm": 1.109375, "learning_rate": 9.87551948610389e-05, "loss": 0.3833, "step": 107230 }, { "epoch": 142.98666666666668, "grad_norm": 0.7734375, "learning_rate": 9.875496255843977e-05, "loss": 0.3529, "step": 107240 }, { "epoch": 143.0, "grad_norm": 0.80078125, "learning_rate": 9.875473023444005e-05, "loss": 0.353, "step": 107250 }, { "epoch": 143.0, "eval_loss": 0.4167938828468323, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.8076, "eval_samples_per_second": 1.355, "eval_steps_per_second": 0.085, "step": 107250 }, { "epoch": 143.01333333333332, "grad_norm": 0.8671875, "learning_rate": 9.875449788903985e-05, "loss": 0.3689, "step": 107260 }, { "epoch": 143.02666666666667, "grad_norm": 0.71484375, "learning_rate": 9.875426552223927e-05, "loss": 0.3843, "step": 107270 }, { "epoch": 143.04, "grad_norm": 0.75, "learning_rate": 9.875403313403841e-05, "loss": 0.3973, "step": 107280 }, { "epoch": 143.05333333333334, "grad_norm": 0.80078125, "learning_rate": 9.875380072443738e-05, "loss": 0.3812, "step": 107290 }, { "epoch": 143.06666666666666, "grad_norm": 0.8828125, "learning_rate": 9.875356829343628e-05, "loss": 0.3694, "step": 107300 }, { "epoch": 143.08, "grad_norm": 0.7890625, "learning_rate": 9.87533358410352e-05, "loss": 0.3734, "step": 107310 }, { "epoch": 143.09333333333333, "grad_norm": 0.84375, "learning_rate": 9.875310336723425e-05, "loss": 0.3753, "step": 107320 }, { "epoch": 143.10666666666665, "grad_norm": 0.7734375, "learning_rate": 9.875287087203354e-05, "loss": 0.3644, "step": 107330 }, { "epoch": 143.12, "grad_norm": 0.80859375, "learning_rate": 9.875263835543316e-05, "loss": 0.366, "step": 107340 }, { "epoch": 143.13333333333333, "grad_norm": 0.7421875, "learning_rate": 9.87524058174332e-05, "loss": 0.3581, "step": 107350 }, { "epoch": 143.14666666666668, "grad_norm": 0.80859375, "learning_rate": 9.875217325803378e-05, "loss": 0.3775, "step": 107360 }, { "epoch": 143.16, "grad_norm": 0.74609375, "learning_rate": 9.875194067723502e-05, "loss": 0.3728, "step": 107370 }, { "epoch": 143.17333333333335, "grad_norm": 0.921875, "learning_rate": 9.8751708075037e-05, "loss": 0.3672, "step": 107380 }, { "epoch": 143.18666666666667, "grad_norm": 0.7734375, "learning_rate": 9.87514754514398e-05, "loss": 0.3645, "step": 107390 }, { "epoch": 143.2, "grad_norm": 0.78515625, "learning_rate": 9.875124280644356e-05, "loss": 0.3553, "step": 107400 }, { "epoch": 143.21333333333334, "grad_norm": 0.859375, "learning_rate": 9.875101014004838e-05, "loss": 0.3562, "step": 107410 }, { "epoch": 143.22666666666666, "grad_norm": 0.8359375, "learning_rate": 9.875077745225434e-05, "loss": 0.3682, "step": 107420 }, { "epoch": 143.24, "grad_norm": 0.86328125, "learning_rate": 9.875054474306156e-05, "loss": 0.3537, "step": 107430 }, { "epoch": 143.25333333333333, "grad_norm": 0.796875, "learning_rate": 9.875031201247013e-05, "loss": 0.3548, "step": 107440 }, { "epoch": 143.26666666666668, "grad_norm": 0.765625, "learning_rate": 9.875007926048014e-05, "loss": 0.3582, "step": 107450 }, { "epoch": 143.28, "grad_norm": 0.7890625, "learning_rate": 9.874984648709174e-05, "loss": 0.3862, "step": 107460 }, { "epoch": 143.29333333333332, "grad_norm": 0.8125, "learning_rate": 9.874961369230498e-05, "loss": 0.3455, "step": 107470 }, { "epoch": 143.30666666666667, "grad_norm": 0.73828125, "learning_rate": 9.874938087611999e-05, "loss": 0.3685, "step": 107480 }, { "epoch": 143.32, "grad_norm": 0.73046875, "learning_rate": 9.874914803853686e-05, "loss": 0.3736, "step": 107490 }, { "epoch": 143.33333333333334, "grad_norm": 0.82421875, "learning_rate": 9.874891517955571e-05, "loss": 0.3712, "step": 107500 }, { "epoch": 143.34666666666666, "grad_norm": 0.82421875, "learning_rate": 9.874868229917661e-05, "loss": 0.3627, "step": 107510 }, { "epoch": 143.36, "grad_norm": 0.8359375, "learning_rate": 9.874844939739972e-05, "loss": 0.363, "step": 107520 }, { "epoch": 143.37333333333333, "grad_norm": 0.7421875, "learning_rate": 9.874821647422506e-05, "loss": 0.3675, "step": 107530 }, { "epoch": 143.38666666666666, "grad_norm": 0.95703125, "learning_rate": 9.87479835296528e-05, "loss": 0.3539, "step": 107540 }, { "epoch": 143.4, "grad_norm": 0.83203125, "learning_rate": 9.874775056368302e-05, "loss": 0.3645, "step": 107550 }, { "epoch": 143.41333333333333, "grad_norm": 0.78125, "learning_rate": 9.874751757631581e-05, "loss": 0.3701, "step": 107560 }, { "epoch": 143.42666666666668, "grad_norm": 0.76171875, "learning_rate": 9.87472845675513e-05, "loss": 0.3716, "step": 107570 }, { "epoch": 143.44, "grad_norm": 0.875, "learning_rate": 9.874705153738956e-05, "loss": 0.3846, "step": 107580 }, { "epoch": 143.45333333333335, "grad_norm": 0.828125, "learning_rate": 9.874681848583071e-05, "loss": 0.3715, "step": 107590 }, { "epoch": 143.46666666666667, "grad_norm": 0.828125, "learning_rate": 9.874658541287485e-05, "loss": 0.3781, "step": 107600 }, { "epoch": 143.48, "grad_norm": 0.86328125, "learning_rate": 9.87463523185221e-05, "loss": 0.3626, "step": 107610 }, { "epoch": 143.49333333333334, "grad_norm": 0.828125, "learning_rate": 9.874611920277252e-05, "loss": 0.3733, "step": 107620 }, { "epoch": 143.50666666666666, "grad_norm": 0.84765625, "learning_rate": 9.874588606562626e-05, "loss": 0.3734, "step": 107630 }, { "epoch": 143.52, "grad_norm": 0.78125, "learning_rate": 9.874565290708338e-05, "loss": 0.3639, "step": 107640 }, { "epoch": 143.53333333333333, "grad_norm": 0.734375, "learning_rate": 9.874541972714402e-05, "loss": 0.3653, "step": 107650 }, { "epoch": 143.54666666666665, "grad_norm": 0.90234375, "learning_rate": 9.874518652580826e-05, "loss": 0.3661, "step": 107660 }, { "epoch": 143.56, "grad_norm": 0.8359375, "learning_rate": 9.87449533030762e-05, "loss": 0.3612, "step": 107670 }, { "epoch": 143.57333333333332, "grad_norm": 0.81640625, "learning_rate": 9.874472005894795e-05, "loss": 0.3654, "step": 107680 }, { "epoch": 143.58666666666667, "grad_norm": 0.7421875, "learning_rate": 9.87444867934236e-05, "loss": 0.3561, "step": 107690 }, { "epoch": 143.6, "grad_norm": 0.75, "learning_rate": 9.87442535065033e-05, "loss": 0.3581, "step": 107700 }, { "epoch": 143.61333333333334, "grad_norm": 0.7421875, "learning_rate": 9.874402019818708e-05, "loss": 0.3496, "step": 107710 }, { "epoch": 143.62666666666667, "grad_norm": 0.6953125, "learning_rate": 9.87437868684751e-05, "loss": 0.3533, "step": 107720 }, { "epoch": 143.64, "grad_norm": 0.8671875, "learning_rate": 9.874355351736743e-05, "loss": 0.3612, "step": 107730 }, { "epoch": 143.65333333333334, "grad_norm": 0.8203125, "learning_rate": 9.874332014486418e-05, "loss": 0.3718, "step": 107740 }, { "epoch": 143.66666666666666, "grad_norm": 0.765625, "learning_rate": 9.874308675096546e-05, "loss": 0.3627, "step": 107750 }, { "epoch": 143.68, "grad_norm": 0.91015625, "learning_rate": 9.874285333567137e-05, "loss": 0.351, "step": 107760 }, { "epoch": 143.69333333333333, "grad_norm": 0.796875, "learning_rate": 9.874261989898201e-05, "loss": 0.3622, "step": 107770 }, { "epoch": 143.70666666666668, "grad_norm": 0.9296875, "learning_rate": 9.874238644089748e-05, "loss": 0.3522, "step": 107780 }, { "epoch": 143.72, "grad_norm": 0.86328125, "learning_rate": 9.87421529614179e-05, "loss": 0.3739, "step": 107790 }, { "epoch": 143.73333333333332, "grad_norm": 0.83203125, "learning_rate": 9.874191946054336e-05, "loss": 0.3694, "step": 107800 }, { "epoch": 143.74666666666667, "grad_norm": 0.77734375, "learning_rate": 9.874168593827394e-05, "loss": 0.3728, "step": 107810 }, { "epoch": 143.76, "grad_norm": 0.87890625, "learning_rate": 9.874145239460977e-05, "loss": 0.3863, "step": 107820 }, { "epoch": 143.77333333333334, "grad_norm": 0.90234375, "learning_rate": 9.874121882955095e-05, "loss": 0.3702, "step": 107830 }, { "epoch": 143.78666666666666, "grad_norm": 0.7890625, "learning_rate": 9.874098524309759e-05, "loss": 0.3731, "step": 107840 }, { "epoch": 143.8, "grad_norm": 0.8671875, "learning_rate": 9.874075163524976e-05, "loss": 0.3704, "step": 107850 }, { "epoch": 143.81333333333333, "grad_norm": 0.93359375, "learning_rate": 9.874051800600759e-05, "loss": 0.3449, "step": 107860 }, { "epoch": 143.82666666666665, "grad_norm": 0.76171875, "learning_rate": 9.874028435537117e-05, "loss": 0.3524, "step": 107870 }, { "epoch": 143.84, "grad_norm": 0.91796875, "learning_rate": 9.874005068334063e-05, "loss": 0.3648, "step": 107880 }, { "epoch": 143.85333333333332, "grad_norm": 0.87890625, "learning_rate": 9.873981698991603e-05, "loss": 0.3602, "step": 107890 }, { "epoch": 143.86666666666667, "grad_norm": 0.890625, "learning_rate": 9.87395832750975e-05, "loss": 0.3662, "step": 107900 }, { "epoch": 143.88, "grad_norm": 0.76953125, "learning_rate": 9.873934953888515e-05, "loss": 0.3474, "step": 107910 }, { "epoch": 143.89333333333335, "grad_norm": 0.74609375, "learning_rate": 9.873911578127905e-05, "loss": 0.3599, "step": 107920 }, { "epoch": 143.90666666666667, "grad_norm": 0.83203125, "learning_rate": 9.873888200227932e-05, "loss": 0.3638, "step": 107930 }, { "epoch": 143.92, "grad_norm": 0.83203125, "learning_rate": 9.873864820188608e-05, "loss": 0.3651, "step": 107940 }, { "epoch": 143.93333333333334, "grad_norm": 0.71875, "learning_rate": 9.873841438009941e-05, "loss": 0.3618, "step": 107950 }, { "epoch": 143.94666666666666, "grad_norm": 0.81640625, "learning_rate": 9.873818053691941e-05, "loss": 0.362, "step": 107960 }, { "epoch": 143.96, "grad_norm": 0.76171875, "learning_rate": 9.87379466723462e-05, "loss": 0.3594, "step": 107970 }, { "epoch": 143.97333333333333, "grad_norm": 1.03125, "learning_rate": 9.873771278637987e-05, "loss": 0.3828, "step": 107980 }, { "epoch": 143.98666666666668, "grad_norm": 0.84765625, "learning_rate": 9.873747887902054e-05, "loss": 0.3514, "step": 107990 }, { "epoch": 144.0, "grad_norm": 0.77734375, "learning_rate": 9.873724495026828e-05, "loss": 0.3537, "step": 108000 }, { "epoch": 144.0, "eval_loss": 0.4193432629108429, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.8151, "eval_samples_per_second": 1.354, "eval_steps_per_second": 0.085, "step": 108000 }, { "epoch": 144.01333333333332, "grad_norm": 0.9140625, "learning_rate": 9.873701100012323e-05, "loss": 0.3681, "step": 108010 }, { "epoch": 144.02666666666667, "grad_norm": 0.76953125, "learning_rate": 9.873677702858547e-05, "loss": 0.3846, "step": 108020 }, { "epoch": 144.04, "grad_norm": 0.75390625, "learning_rate": 9.873654303565511e-05, "loss": 0.398, "step": 108030 }, { "epoch": 144.05333333333334, "grad_norm": 0.83984375, "learning_rate": 9.873630902133224e-05, "loss": 0.3816, "step": 108040 }, { "epoch": 144.06666666666666, "grad_norm": 0.84765625, "learning_rate": 9.873607498561698e-05, "loss": 0.37, "step": 108050 }, { "epoch": 144.08, "grad_norm": 0.78125, "learning_rate": 9.873584092850943e-05, "loss": 0.3734, "step": 108060 }, { "epoch": 144.09333333333333, "grad_norm": 0.94921875, "learning_rate": 9.873560685000969e-05, "loss": 0.3762, "step": 108070 }, { "epoch": 144.10666666666665, "grad_norm": 0.71484375, "learning_rate": 9.873537275011786e-05, "loss": 0.3645, "step": 108080 }, { "epoch": 144.12, "grad_norm": 0.8515625, "learning_rate": 9.873513862883403e-05, "loss": 0.3663, "step": 108090 }, { "epoch": 144.13333333333333, "grad_norm": 0.796875, "learning_rate": 9.873490448615834e-05, "loss": 0.3582, "step": 108100 }, { "epoch": 144.14666666666668, "grad_norm": 0.83203125, "learning_rate": 9.873467032209086e-05, "loss": 0.3773, "step": 108110 }, { "epoch": 144.16, "grad_norm": 0.69921875, "learning_rate": 9.87344361366317e-05, "loss": 0.3734, "step": 108120 }, { "epoch": 144.17333333333335, "grad_norm": 0.87890625, "learning_rate": 9.873420192978098e-05, "loss": 0.3672, "step": 108130 }, { "epoch": 144.18666666666667, "grad_norm": 0.7421875, "learning_rate": 9.873396770153877e-05, "loss": 0.3644, "step": 108140 }, { "epoch": 144.2, "grad_norm": 0.79296875, "learning_rate": 9.87337334519052e-05, "loss": 0.3564, "step": 108150 }, { "epoch": 144.21333333333334, "grad_norm": 0.97265625, "learning_rate": 9.873349918088035e-05, "loss": 0.3559, "step": 108160 }, { "epoch": 144.22666666666666, "grad_norm": 0.81640625, "learning_rate": 9.873326488846434e-05, "loss": 0.3677, "step": 108170 }, { "epoch": 144.24, "grad_norm": 0.796875, "learning_rate": 9.87330305746573e-05, "loss": 0.3544, "step": 108180 }, { "epoch": 144.25333333333333, "grad_norm": 0.796875, "learning_rate": 9.873279623945928e-05, "loss": 0.355, "step": 108190 }, { "epoch": 144.26666666666668, "grad_norm": 0.7890625, "learning_rate": 9.87325618828704e-05, "loss": 0.3588, "step": 108200 }, { "epoch": 144.28, "grad_norm": 0.82421875, "learning_rate": 9.873232750489076e-05, "loss": 0.3854, "step": 108210 }, { "epoch": 144.29333333333332, "grad_norm": 0.78125, "learning_rate": 9.87320931055205e-05, "loss": 0.3455, "step": 108220 }, { "epoch": 144.30666666666667, "grad_norm": 0.8046875, "learning_rate": 9.873185868475968e-05, "loss": 0.3684, "step": 108230 }, { "epoch": 144.32, "grad_norm": 0.75390625, "learning_rate": 9.873162424260841e-05, "loss": 0.3729, "step": 108240 }, { "epoch": 144.33333333333334, "grad_norm": 0.859375, "learning_rate": 9.873138977906681e-05, "loss": 0.3718, "step": 108250 }, { "epoch": 144.34666666666666, "grad_norm": 0.85546875, "learning_rate": 9.873115529413497e-05, "loss": 0.3623, "step": 108260 }, { "epoch": 144.36, "grad_norm": 0.8671875, "learning_rate": 9.873092078781299e-05, "loss": 0.3636, "step": 108270 }, { "epoch": 144.37333333333333, "grad_norm": 0.734375, "learning_rate": 9.873068626010098e-05, "loss": 0.3663, "step": 108280 }, { "epoch": 144.38666666666666, "grad_norm": 0.890625, "learning_rate": 9.873045171099905e-05, "loss": 0.3533, "step": 108290 }, { "epoch": 144.4, "grad_norm": 0.80859375, "learning_rate": 9.873021714050729e-05, "loss": 0.3638, "step": 108300 }, { "epoch": 144.41333333333333, "grad_norm": 0.84375, "learning_rate": 9.87299825486258e-05, "loss": 0.3703, "step": 108310 }, { "epoch": 144.42666666666668, "grad_norm": 0.8828125, "learning_rate": 9.87297479353547e-05, "loss": 0.3714, "step": 108320 }, { "epoch": 144.44, "grad_norm": 0.81640625, "learning_rate": 9.872951330069407e-05, "loss": 0.3835, "step": 108330 }, { "epoch": 144.45333333333335, "grad_norm": 0.8125, "learning_rate": 9.872927864464406e-05, "loss": 0.3721, "step": 108340 }, { "epoch": 144.46666666666667, "grad_norm": 0.79296875, "learning_rate": 9.872904396720471e-05, "loss": 0.3782, "step": 108350 }, { "epoch": 144.48, "grad_norm": 0.80078125, "learning_rate": 9.872880926837616e-05, "loss": 0.362, "step": 108360 }, { "epoch": 144.49333333333334, "grad_norm": 0.8359375, "learning_rate": 9.872857454815849e-05, "loss": 0.373, "step": 108370 }, { "epoch": 144.50666666666666, "grad_norm": 0.80859375, "learning_rate": 9.872833980655183e-05, "loss": 0.3724, "step": 108380 }, { "epoch": 144.52, "grad_norm": 0.7421875, "learning_rate": 9.872810504355627e-05, "loss": 0.3641, "step": 108390 }, { "epoch": 144.53333333333333, "grad_norm": 0.8125, "learning_rate": 9.872787025917191e-05, "loss": 0.3645, "step": 108400 }, { "epoch": 144.54666666666665, "grad_norm": 0.9765625, "learning_rate": 9.872763545339888e-05, "loss": 0.3657, "step": 108410 }, { "epoch": 144.56, "grad_norm": 0.71875, "learning_rate": 9.872740062623724e-05, "loss": 0.3606, "step": 108420 }, { "epoch": 144.57333333333332, "grad_norm": 0.83203125, "learning_rate": 9.872716577768713e-05, "loss": 0.3647, "step": 108430 }, { "epoch": 144.58666666666667, "grad_norm": 0.7890625, "learning_rate": 9.872693090774862e-05, "loss": 0.3567, "step": 108440 }, { "epoch": 144.6, "grad_norm": 0.75, "learning_rate": 9.872669601642184e-05, "loss": 0.3571, "step": 108450 }, { "epoch": 144.61333333333334, "grad_norm": 0.70703125, "learning_rate": 9.872646110370687e-05, "loss": 0.3493, "step": 108460 }, { "epoch": 144.62666666666667, "grad_norm": 0.7578125, "learning_rate": 9.872622616960384e-05, "loss": 0.3539, "step": 108470 }, { "epoch": 144.64, "grad_norm": 0.96875, "learning_rate": 9.872599121411284e-05, "loss": 0.3611, "step": 108480 }, { "epoch": 144.65333333333334, "grad_norm": 0.875, "learning_rate": 9.872575623723397e-05, "loss": 0.3715, "step": 108490 }, { "epoch": 144.66666666666666, "grad_norm": 0.7109375, "learning_rate": 9.872552123896733e-05, "loss": 0.3629, "step": 108500 }, { "epoch": 144.68, "grad_norm": 0.8359375, "learning_rate": 9.872528621931304e-05, "loss": 0.3509, "step": 108510 }, { "epoch": 144.69333333333333, "grad_norm": 0.7109375, "learning_rate": 9.872505117827118e-05, "loss": 0.3627, "step": 108520 }, { "epoch": 144.70666666666668, "grad_norm": 0.92578125, "learning_rate": 9.872481611584186e-05, "loss": 0.3522, "step": 108530 }, { "epoch": 144.72, "grad_norm": 0.828125, "learning_rate": 9.87245810320252e-05, "loss": 0.3739, "step": 108540 }, { "epoch": 144.73333333333332, "grad_norm": 0.87890625, "learning_rate": 9.872434592682129e-05, "loss": 0.3692, "step": 108550 }, { "epoch": 144.74666666666667, "grad_norm": 0.7421875, "learning_rate": 9.872411080023024e-05, "loss": 0.3725, "step": 108560 }, { "epoch": 144.76, "grad_norm": 0.94140625, "learning_rate": 9.872387565225212e-05, "loss": 0.3865, "step": 108570 }, { "epoch": 144.77333333333334, "grad_norm": 0.84765625, "learning_rate": 9.872364048288709e-05, "loss": 0.3705, "step": 108580 }, { "epoch": 144.78666666666666, "grad_norm": 0.75390625, "learning_rate": 9.87234052921352e-05, "loss": 0.3732, "step": 108590 }, { "epoch": 144.8, "grad_norm": 0.8359375, "learning_rate": 9.87231700799966e-05, "loss": 0.3701, "step": 108600 }, { "epoch": 144.81333333333333, "grad_norm": 0.93359375, "learning_rate": 9.872293484647137e-05, "loss": 0.3441, "step": 108610 }, { "epoch": 144.82666666666665, "grad_norm": 0.76171875, "learning_rate": 9.87226995915596e-05, "loss": 0.3515, "step": 108620 }, { "epoch": 144.84, "grad_norm": 0.8515625, "learning_rate": 9.872246431526142e-05, "loss": 0.3652, "step": 108630 }, { "epoch": 144.85333333333332, "grad_norm": 0.8125, "learning_rate": 9.872222901757691e-05, "loss": 0.3604, "step": 108640 }, { "epoch": 144.86666666666667, "grad_norm": 0.80078125, "learning_rate": 9.872199369850619e-05, "loss": 0.3662, "step": 108650 }, { "epoch": 144.88, "grad_norm": 0.796875, "learning_rate": 9.872175835804935e-05, "loss": 0.3473, "step": 108660 }, { "epoch": 144.89333333333335, "grad_norm": 0.76953125, "learning_rate": 9.872152299620652e-05, "loss": 0.3595, "step": 108670 }, { "epoch": 144.90666666666667, "grad_norm": 0.87109375, "learning_rate": 9.872128761297776e-05, "loss": 0.3639, "step": 108680 }, { "epoch": 144.92, "grad_norm": 0.8359375, "learning_rate": 9.872105220836321e-05, "loss": 0.3646, "step": 108690 }, { "epoch": 144.93333333333334, "grad_norm": 0.71484375, "learning_rate": 9.872081678236295e-05, "loss": 0.3608, "step": 108700 }, { "epoch": 144.94666666666666, "grad_norm": 0.86328125, "learning_rate": 9.872058133497711e-05, "loss": 0.3605, "step": 108710 }, { "epoch": 144.96, "grad_norm": 0.79296875, "learning_rate": 9.872034586620576e-05, "loss": 0.3588, "step": 108720 }, { "epoch": 144.97333333333333, "grad_norm": 1.078125, "learning_rate": 9.872011037604903e-05, "loss": 0.3822, "step": 108730 }, { "epoch": 144.98666666666668, "grad_norm": 0.79296875, "learning_rate": 9.871987486450701e-05, "loss": 0.3522, "step": 108740 }, { "epoch": 145.0, "grad_norm": 0.8515625, "learning_rate": 9.871963933157981e-05, "loss": 0.3533, "step": 108750 }, { "epoch": 145.0, "eval_loss": 0.41783407330513, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7811, "eval_samples_per_second": 1.358, "eval_steps_per_second": 0.085, "step": 108750 }, { "epoch": 145.01333333333332, "grad_norm": 0.90625, "learning_rate": 9.871940377726752e-05, "loss": 0.3693, "step": 108760 }, { "epoch": 145.02666666666667, "grad_norm": 0.7265625, "learning_rate": 9.871916820157027e-05, "loss": 0.3842, "step": 108770 }, { "epoch": 145.04, "grad_norm": 0.81640625, "learning_rate": 9.871893260448814e-05, "loss": 0.3974, "step": 108780 }, { "epoch": 145.05333333333334, "grad_norm": 0.8359375, "learning_rate": 9.871869698602124e-05, "loss": 0.3818, "step": 108790 }, { "epoch": 145.06666666666666, "grad_norm": 0.8515625, "learning_rate": 9.871846134616968e-05, "loss": 0.3697, "step": 108800 }, { "epoch": 145.08, "grad_norm": 0.80078125, "learning_rate": 9.871822568493354e-05, "loss": 0.3722, "step": 108810 }, { "epoch": 145.09333333333333, "grad_norm": 0.80859375, "learning_rate": 9.871799000231297e-05, "loss": 0.3751, "step": 108820 }, { "epoch": 145.10666666666665, "grad_norm": 0.75, "learning_rate": 9.871775429830802e-05, "loss": 0.3652, "step": 108830 }, { "epoch": 145.12, "grad_norm": 0.859375, "learning_rate": 9.871751857291882e-05, "loss": 0.3661, "step": 108840 }, { "epoch": 145.13333333333333, "grad_norm": 0.78515625, "learning_rate": 9.871728282614548e-05, "loss": 0.3577, "step": 108850 }, { "epoch": 145.14666666666668, "grad_norm": 0.84375, "learning_rate": 9.87170470579881e-05, "loss": 0.3775, "step": 108860 }, { "epoch": 145.16, "grad_norm": 0.796875, "learning_rate": 9.871681126844676e-05, "loss": 0.3723, "step": 108870 }, { "epoch": 145.17333333333335, "grad_norm": 0.88671875, "learning_rate": 9.87165754575216e-05, "loss": 0.3666, "step": 108880 }, { "epoch": 145.18666666666667, "grad_norm": 0.8125, "learning_rate": 9.87163396252127e-05, "loss": 0.3641, "step": 108890 }, { "epoch": 145.2, "grad_norm": 0.7578125, "learning_rate": 9.871610377152017e-05, "loss": 0.3554, "step": 108900 }, { "epoch": 145.21333333333334, "grad_norm": 0.7890625, "learning_rate": 9.871586789644409e-05, "loss": 0.3568, "step": 108910 }, { "epoch": 145.22666666666666, "grad_norm": 0.91015625, "learning_rate": 9.871563199998462e-05, "loss": 0.3675, "step": 108920 }, { "epoch": 145.24, "grad_norm": 0.8515625, "learning_rate": 9.87153960821418e-05, "loss": 0.3538, "step": 108930 }, { "epoch": 145.25333333333333, "grad_norm": 0.78515625, "learning_rate": 9.871516014291578e-05, "loss": 0.355, "step": 108940 }, { "epoch": 145.26666666666668, "grad_norm": 0.90234375, "learning_rate": 9.871492418230664e-05, "loss": 0.3587, "step": 108950 }, { "epoch": 145.28, "grad_norm": 0.8359375, "learning_rate": 9.87146882003145e-05, "loss": 0.386, "step": 108960 }, { "epoch": 145.29333333333332, "grad_norm": 0.765625, "learning_rate": 9.871445219693944e-05, "loss": 0.3451, "step": 108970 }, { "epoch": 145.30666666666667, "grad_norm": 0.8046875, "learning_rate": 9.87142161721816e-05, "loss": 0.368, "step": 108980 }, { "epoch": 145.32, "grad_norm": 0.68359375, "learning_rate": 9.871398012604104e-05, "loss": 0.3732, "step": 108990 }, { "epoch": 145.33333333333334, "grad_norm": 0.8359375, "learning_rate": 9.871374405851788e-05, "loss": 0.3723, "step": 109000 }, { "epoch": 145.34666666666666, "grad_norm": 0.84375, "learning_rate": 9.871350796961226e-05, "loss": 0.3622, "step": 109010 }, { "epoch": 145.36, "grad_norm": 0.82421875, "learning_rate": 9.871327185932423e-05, "loss": 0.3629, "step": 109020 }, { "epoch": 145.37333333333333, "grad_norm": 0.734375, "learning_rate": 9.87130357276539e-05, "loss": 0.3658, "step": 109030 }, { "epoch": 145.38666666666666, "grad_norm": 0.90625, "learning_rate": 9.87127995746014e-05, "loss": 0.3536, "step": 109040 }, { "epoch": 145.4, "grad_norm": 0.8203125, "learning_rate": 9.871256340016684e-05, "loss": 0.3636, "step": 109050 }, { "epoch": 145.41333333333333, "grad_norm": 0.6953125, "learning_rate": 9.871232720435028e-05, "loss": 0.3703, "step": 109060 }, { "epoch": 145.42666666666668, "grad_norm": 0.83203125, "learning_rate": 9.871209098715187e-05, "loss": 0.3715, "step": 109070 }, { "epoch": 145.44, "grad_norm": 0.84375, "learning_rate": 9.871185474857168e-05, "loss": 0.3834, "step": 109080 }, { "epoch": 145.45333333333335, "grad_norm": 0.859375, "learning_rate": 9.871161848860984e-05, "loss": 0.3718, "step": 109090 }, { "epoch": 145.46666666666667, "grad_norm": 0.78515625, "learning_rate": 9.871138220726643e-05, "loss": 0.3781, "step": 109100 }, { "epoch": 145.48, "grad_norm": 0.8046875, "learning_rate": 9.871114590454158e-05, "loss": 0.3609, "step": 109110 }, { "epoch": 145.49333333333334, "grad_norm": 0.8046875, "learning_rate": 9.871090958043537e-05, "loss": 0.373, "step": 109120 }, { "epoch": 145.50666666666666, "grad_norm": 0.88671875, "learning_rate": 9.871067323494791e-05, "loss": 0.3726, "step": 109130 }, { "epoch": 145.52, "grad_norm": 0.73828125, "learning_rate": 9.87104368680793e-05, "loss": 0.3638, "step": 109140 }, { "epoch": 145.53333333333333, "grad_norm": 0.78125, "learning_rate": 9.871020047982966e-05, "loss": 0.3649, "step": 109150 }, { "epoch": 145.54666666666665, "grad_norm": 0.93359375, "learning_rate": 9.870996407019909e-05, "loss": 0.3655, "step": 109160 }, { "epoch": 145.56, "grad_norm": 0.74609375, "learning_rate": 9.870972763918768e-05, "loss": 0.3604, "step": 109170 }, { "epoch": 145.57333333333332, "grad_norm": 0.8671875, "learning_rate": 9.870949118679553e-05, "loss": 0.3647, "step": 109180 }, { "epoch": 145.58666666666667, "grad_norm": 0.73046875, "learning_rate": 9.870925471302277e-05, "loss": 0.3559, "step": 109190 }, { "epoch": 145.6, "grad_norm": 0.796875, "learning_rate": 9.870901821786948e-05, "loss": 0.3579, "step": 109200 }, { "epoch": 145.61333333333334, "grad_norm": 0.76953125, "learning_rate": 9.870878170133577e-05, "loss": 0.3495, "step": 109210 }, { "epoch": 145.62666666666667, "grad_norm": 0.66015625, "learning_rate": 9.870854516342176e-05, "loss": 0.3541, "step": 109220 }, { "epoch": 145.64, "grad_norm": 0.9375, "learning_rate": 9.870830860412753e-05, "loss": 0.3606, "step": 109230 }, { "epoch": 145.65333333333334, "grad_norm": 0.8359375, "learning_rate": 9.87080720234532e-05, "loss": 0.3698, "step": 109240 }, { "epoch": 145.66666666666666, "grad_norm": 0.80859375, "learning_rate": 9.870783542139886e-05, "loss": 0.3627, "step": 109250 }, { "epoch": 145.68, "grad_norm": 0.8046875, "learning_rate": 9.870759879796462e-05, "loss": 0.3508, "step": 109260 }, { "epoch": 145.69333333333333, "grad_norm": 0.71875, "learning_rate": 9.87073621531506e-05, "loss": 0.3616, "step": 109270 }, { "epoch": 145.70666666666668, "grad_norm": 0.9296875, "learning_rate": 9.870712548695689e-05, "loss": 0.3516, "step": 109280 }, { "epoch": 145.72, "grad_norm": 0.82421875, "learning_rate": 9.870688879938357e-05, "loss": 0.3749, "step": 109290 }, { "epoch": 145.73333333333332, "grad_norm": 0.8203125, "learning_rate": 9.870665209043078e-05, "loss": 0.3693, "step": 109300 }, { "epoch": 145.74666666666667, "grad_norm": 0.76953125, "learning_rate": 9.870641536009861e-05, "loss": 0.3727, "step": 109310 }, { "epoch": 145.76, "grad_norm": 0.81640625, "learning_rate": 9.870617860838718e-05, "loss": 0.3858, "step": 109320 }, { "epoch": 145.77333333333334, "grad_norm": 0.87109375, "learning_rate": 9.870594183529656e-05, "loss": 0.3704, "step": 109330 }, { "epoch": 145.78666666666666, "grad_norm": 0.703125, "learning_rate": 9.870570504082688e-05, "loss": 0.3728, "step": 109340 }, { "epoch": 145.8, "grad_norm": 0.88671875, "learning_rate": 9.870546822497824e-05, "loss": 0.3701, "step": 109350 }, { "epoch": 145.81333333333333, "grad_norm": 0.89453125, "learning_rate": 9.870523138775074e-05, "loss": 0.345, "step": 109360 }, { "epoch": 145.82666666666665, "grad_norm": 0.75390625, "learning_rate": 9.870499452914449e-05, "loss": 0.3514, "step": 109370 }, { "epoch": 145.84, "grad_norm": 0.91015625, "learning_rate": 9.870475764915957e-05, "loss": 0.3642, "step": 109380 }, { "epoch": 145.85333333333332, "grad_norm": 0.77734375, "learning_rate": 9.87045207477961e-05, "loss": 0.3604, "step": 109390 }, { "epoch": 145.86666666666667, "grad_norm": 0.8515625, "learning_rate": 9.870428382505421e-05, "loss": 0.3657, "step": 109400 }, { "epoch": 145.88, "grad_norm": 0.80859375, "learning_rate": 9.870404688093397e-05, "loss": 0.3465, "step": 109410 }, { "epoch": 145.89333333333335, "grad_norm": 0.75, "learning_rate": 9.870380991543549e-05, "loss": 0.3594, "step": 109420 }, { "epoch": 145.90666666666667, "grad_norm": 0.828125, "learning_rate": 9.870357292855889e-05, "loss": 0.364, "step": 109430 }, { "epoch": 145.92, "grad_norm": 0.7421875, "learning_rate": 9.870333592030425e-05, "loss": 0.3643, "step": 109440 }, { "epoch": 145.93333333333334, "grad_norm": 0.765625, "learning_rate": 9.87030988906717e-05, "loss": 0.3611, "step": 109450 }, { "epoch": 145.94666666666666, "grad_norm": 0.81640625, "learning_rate": 9.870286183966131e-05, "loss": 0.3615, "step": 109460 }, { "epoch": 145.96, "grad_norm": 0.7421875, "learning_rate": 9.870262476727323e-05, "loss": 0.3598, "step": 109470 }, { "epoch": 145.97333333333333, "grad_norm": 1.0703125, "learning_rate": 9.870238767350752e-05, "loss": 0.3817, "step": 109480 }, { "epoch": 145.98666666666668, "grad_norm": 0.86328125, "learning_rate": 9.870215055836431e-05, "loss": 0.3515, "step": 109490 }, { "epoch": 146.0, "grad_norm": 0.84375, "learning_rate": 9.870191342184371e-05, "loss": 0.3538, "step": 109500 }, { "epoch": 146.0, "eval_loss": 0.4177955090999603, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.402, "eval_samples_per_second": 1.29, "eval_steps_per_second": 0.081, "step": 109500 }, { "epoch": 146.01333333333332, "grad_norm": 0.94140625, "learning_rate": 9.870167626394579e-05, "loss": 0.3688, "step": 109510 }, { "epoch": 146.02666666666667, "grad_norm": 0.7265625, "learning_rate": 9.870143908467068e-05, "loss": 0.3837, "step": 109520 }, { "epoch": 146.04, "grad_norm": 0.77734375, "learning_rate": 9.870120188401848e-05, "loss": 0.3972, "step": 109530 }, { "epoch": 146.05333333333334, "grad_norm": 0.875, "learning_rate": 9.87009646619893e-05, "loss": 0.3808, "step": 109540 }, { "epoch": 146.06666666666666, "grad_norm": 0.9453125, "learning_rate": 9.870072741858324e-05, "loss": 0.3703, "step": 109550 }, { "epoch": 146.08, "grad_norm": 0.8984375, "learning_rate": 9.87004901538004e-05, "loss": 0.3725, "step": 109560 }, { "epoch": 146.09333333333333, "grad_norm": 0.79296875, "learning_rate": 9.870025286764088e-05, "loss": 0.3749, "step": 109570 }, { "epoch": 146.10666666666665, "grad_norm": 0.78125, "learning_rate": 9.870001556010479e-05, "loss": 0.3645, "step": 109580 }, { "epoch": 146.12, "grad_norm": 0.84765625, "learning_rate": 9.869977823119223e-05, "loss": 0.3655, "step": 109590 }, { "epoch": 146.13333333333333, "grad_norm": 0.82421875, "learning_rate": 9.869954088090332e-05, "loss": 0.3578, "step": 109600 }, { "epoch": 146.14666666666668, "grad_norm": 0.82421875, "learning_rate": 9.869930350923815e-05, "loss": 0.3768, "step": 109610 }, { "epoch": 146.16, "grad_norm": 0.80859375, "learning_rate": 9.869906611619681e-05, "loss": 0.3725, "step": 109620 }, { "epoch": 146.17333333333335, "grad_norm": 0.81640625, "learning_rate": 9.869882870177945e-05, "loss": 0.3677, "step": 109630 }, { "epoch": 146.18666666666667, "grad_norm": 0.828125, "learning_rate": 9.869859126598613e-05, "loss": 0.3638, "step": 109640 }, { "epoch": 146.2, "grad_norm": 0.74609375, "learning_rate": 9.869835380881696e-05, "loss": 0.3553, "step": 109650 }, { "epoch": 146.21333333333334, "grad_norm": 0.78125, "learning_rate": 9.869811633027206e-05, "loss": 0.3568, "step": 109660 }, { "epoch": 146.22666666666666, "grad_norm": 0.82421875, "learning_rate": 9.869787883035153e-05, "loss": 0.3674, "step": 109670 }, { "epoch": 146.24, "grad_norm": 0.90625, "learning_rate": 9.869764130905548e-05, "loss": 0.3542, "step": 109680 }, { "epoch": 146.25333333333333, "grad_norm": 0.765625, "learning_rate": 9.8697403766384e-05, "loss": 0.3545, "step": 109690 }, { "epoch": 146.26666666666668, "grad_norm": 0.7734375, "learning_rate": 9.86971662023372e-05, "loss": 0.3576, "step": 109700 }, { "epoch": 146.28, "grad_norm": 0.78515625, "learning_rate": 9.869692861691518e-05, "loss": 0.3864, "step": 109710 }, { "epoch": 146.29333333333332, "grad_norm": 0.796875, "learning_rate": 9.869669101011804e-05, "loss": 0.345, "step": 109720 }, { "epoch": 146.30666666666667, "grad_norm": 0.95703125, "learning_rate": 9.869645338194591e-05, "loss": 0.3681, "step": 109730 }, { "epoch": 146.32, "grad_norm": 0.7890625, "learning_rate": 9.869621573239888e-05, "loss": 0.373, "step": 109740 }, { "epoch": 146.33333333333334, "grad_norm": 0.796875, "learning_rate": 9.869597806147704e-05, "loss": 0.3705, "step": 109750 }, { "epoch": 146.34666666666666, "grad_norm": 0.8671875, "learning_rate": 9.869574036918052e-05, "loss": 0.362, "step": 109760 }, { "epoch": 146.36, "grad_norm": 0.859375, "learning_rate": 9.86955026555094e-05, "loss": 0.3633, "step": 109770 }, { "epoch": 146.37333333333333, "grad_norm": 0.7578125, "learning_rate": 9.86952649204638e-05, "loss": 0.3664, "step": 109780 }, { "epoch": 146.38666666666666, "grad_norm": 0.9296875, "learning_rate": 9.869502716404382e-05, "loss": 0.3536, "step": 109790 }, { "epoch": 146.4, "grad_norm": 0.76171875, "learning_rate": 9.869478938624956e-05, "loss": 0.3632, "step": 109800 }, { "epoch": 146.41333333333333, "grad_norm": 0.796875, "learning_rate": 9.869455158708112e-05, "loss": 0.3701, "step": 109810 }, { "epoch": 146.42666666666668, "grad_norm": 0.77734375, "learning_rate": 9.869431376653863e-05, "loss": 0.3716, "step": 109820 }, { "epoch": 146.44, "grad_norm": 0.80859375, "learning_rate": 9.869407592462217e-05, "loss": 0.3832, "step": 109830 }, { "epoch": 146.45333333333335, "grad_norm": 0.79296875, "learning_rate": 9.869383806133185e-05, "loss": 0.3706, "step": 109840 }, { "epoch": 146.46666666666667, "grad_norm": 0.859375, "learning_rate": 9.869360017666778e-05, "loss": 0.3778, "step": 109850 }, { "epoch": 146.48, "grad_norm": 0.828125, "learning_rate": 9.869336227063005e-05, "loss": 0.3613, "step": 109860 }, { "epoch": 146.49333333333334, "grad_norm": 0.73828125, "learning_rate": 9.869312434321878e-05, "loss": 0.372, "step": 109870 }, { "epoch": 146.50666666666666, "grad_norm": 0.78515625, "learning_rate": 9.869288639443407e-05, "loss": 0.3721, "step": 109880 }, { "epoch": 146.52, "grad_norm": 0.796875, "learning_rate": 9.869264842427602e-05, "loss": 0.3641, "step": 109890 }, { "epoch": 146.53333333333333, "grad_norm": 0.80078125, "learning_rate": 9.869241043274475e-05, "loss": 0.3642, "step": 109900 }, { "epoch": 146.54666666666665, "grad_norm": 0.89453125, "learning_rate": 9.869217241984035e-05, "loss": 0.365, "step": 109910 }, { "epoch": 146.56, "grad_norm": 0.79296875, "learning_rate": 9.86919343855629e-05, "loss": 0.3598, "step": 109920 }, { "epoch": 146.57333333333332, "grad_norm": 0.828125, "learning_rate": 9.869169632991255e-05, "loss": 0.3657, "step": 109930 }, { "epoch": 146.58666666666667, "grad_norm": 0.77734375, "learning_rate": 9.869145825288939e-05, "loss": 0.3558, "step": 109940 }, { "epoch": 146.6, "grad_norm": 0.75390625, "learning_rate": 9.869122015449352e-05, "loss": 0.3568, "step": 109950 }, { "epoch": 146.61333333333334, "grad_norm": 0.78515625, "learning_rate": 9.869098203472504e-05, "loss": 0.3491, "step": 109960 }, { "epoch": 146.62666666666667, "grad_norm": 0.765625, "learning_rate": 9.869074389358407e-05, "loss": 0.3533, "step": 109970 }, { "epoch": 146.64, "grad_norm": 0.90625, "learning_rate": 9.86905057310707e-05, "loss": 0.3604, "step": 109980 }, { "epoch": 146.65333333333334, "grad_norm": 0.85546875, "learning_rate": 9.869026754718503e-05, "loss": 0.3713, "step": 109990 }, { "epoch": 146.66666666666666, "grad_norm": 0.71875, "learning_rate": 9.869002934192717e-05, "loss": 0.3625, "step": 110000 }, { "epoch": 146.68, "grad_norm": 0.8359375, "learning_rate": 9.868979111529723e-05, "loss": 0.3519, "step": 110010 }, { "epoch": 146.69333333333333, "grad_norm": 0.8046875, "learning_rate": 9.868955286729534e-05, "loss": 0.3624, "step": 110020 }, { "epoch": 146.70666666666668, "grad_norm": 0.921875, "learning_rate": 9.868931459792154e-05, "loss": 0.3518, "step": 110030 }, { "epoch": 146.72, "grad_norm": 0.84765625, "learning_rate": 9.868907630717598e-05, "loss": 0.3731, "step": 110040 }, { "epoch": 146.73333333333332, "grad_norm": 0.80859375, "learning_rate": 9.868883799505878e-05, "loss": 0.3693, "step": 110050 }, { "epoch": 146.74666666666667, "grad_norm": 0.90625, "learning_rate": 9.868859966157e-05, "loss": 0.3726, "step": 110060 }, { "epoch": 146.76, "grad_norm": 0.88671875, "learning_rate": 9.868836130670976e-05, "loss": 0.3858, "step": 110070 }, { "epoch": 146.77333333333334, "grad_norm": 0.87890625, "learning_rate": 9.868812293047818e-05, "loss": 0.3697, "step": 110080 }, { "epoch": 146.78666666666666, "grad_norm": 0.73046875, "learning_rate": 9.868788453287534e-05, "loss": 0.3722, "step": 110090 }, { "epoch": 146.8, "grad_norm": 0.80859375, "learning_rate": 9.868764611390138e-05, "loss": 0.3703, "step": 110100 }, { "epoch": 146.81333333333333, "grad_norm": 0.91015625, "learning_rate": 9.868740767355637e-05, "loss": 0.3444, "step": 110110 }, { "epoch": 146.82666666666665, "grad_norm": 0.80078125, "learning_rate": 9.868716921184042e-05, "loss": 0.3518, "step": 110120 }, { "epoch": 146.84, "grad_norm": 0.828125, "learning_rate": 9.868693072875365e-05, "loss": 0.3651, "step": 110130 }, { "epoch": 146.85333333333332, "grad_norm": 0.828125, "learning_rate": 9.868669222429618e-05, "loss": 0.3603, "step": 110140 }, { "epoch": 146.86666666666667, "grad_norm": 0.84765625, "learning_rate": 9.868645369846806e-05, "loss": 0.3662, "step": 110150 }, { "epoch": 146.88, "grad_norm": 0.796875, "learning_rate": 9.868621515126945e-05, "loss": 0.3467, "step": 110160 }, { "epoch": 146.89333333333335, "grad_norm": 0.7890625, "learning_rate": 9.868597658270042e-05, "loss": 0.3592, "step": 110170 }, { "epoch": 146.90666666666667, "grad_norm": 0.7890625, "learning_rate": 9.868573799276108e-05, "loss": 0.3637, "step": 110180 }, { "epoch": 146.92, "grad_norm": 0.796875, "learning_rate": 9.868549938145155e-05, "loss": 0.3643, "step": 110190 }, { "epoch": 146.93333333333334, "grad_norm": 0.703125, "learning_rate": 9.868526074877193e-05, "loss": 0.3614, "step": 110200 }, { "epoch": 146.94666666666666, "grad_norm": 0.83984375, "learning_rate": 9.868502209472233e-05, "loss": 0.3607, "step": 110210 }, { "epoch": 146.96, "grad_norm": 0.734375, "learning_rate": 9.868478341930282e-05, "loss": 0.3603, "step": 110220 }, { "epoch": 146.97333333333333, "grad_norm": 1.046875, "learning_rate": 9.868454472251353e-05, "loss": 0.3813, "step": 110230 }, { "epoch": 146.98666666666668, "grad_norm": 0.76953125, "learning_rate": 9.868430600435459e-05, "loss": 0.3515, "step": 110240 }, { "epoch": 147.0, "grad_norm": 0.8046875, "learning_rate": 9.868406726482607e-05, "loss": 0.3538, "step": 110250 }, { "epoch": 147.0, "eval_loss": 0.41744905710220337, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.6105, "eval_samples_per_second": 1.378, "eval_steps_per_second": 0.086, "step": 110250 }, { "epoch": 147.01333333333332, "grad_norm": 0.8984375, "learning_rate": 9.868382850392808e-05, "loss": 0.3686, "step": 110260 }, { "epoch": 147.02666666666667, "grad_norm": 0.75, "learning_rate": 9.868358972166074e-05, "loss": 0.385, "step": 110270 }, { "epoch": 147.04, "grad_norm": 0.73828125, "learning_rate": 9.868335091802413e-05, "loss": 0.3978, "step": 110280 }, { "epoch": 147.05333333333334, "grad_norm": 0.8828125, "learning_rate": 9.868311209301837e-05, "loss": 0.381, "step": 110290 }, { "epoch": 147.06666666666666, "grad_norm": 0.91796875, "learning_rate": 9.868287324664358e-05, "loss": 0.3694, "step": 110300 }, { "epoch": 147.08, "grad_norm": 0.82421875, "learning_rate": 9.868263437889984e-05, "loss": 0.3726, "step": 110310 }, { "epoch": 147.09333333333333, "grad_norm": 0.8125, "learning_rate": 9.868239548978726e-05, "loss": 0.3751, "step": 110320 }, { "epoch": 147.10666666666665, "grad_norm": 0.78125, "learning_rate": 9.868215657930593e-05, "loss": 0.3643, "step": 110330 }, { "epoch": 147.12, "grad_norm": 0.80859375, "learning_rate": 9.8681917647456e-05, "loss": 0.3658, "step": 110340 }, { "epoch": 147.13333333333333, "grad_norm": 0.796875, "learning_rate": 9.868167869423754e-05, "loss": 0.3575, "step": 110350 }, { "epoch": 147.14666666666668, "grad_norm": 0.83984375, "learning_rate": 9.868143971965066e-05, "loss": 0.3768, "step": 110360 }, { "epoch": 147.16, "grad_norm": 0.83203125, "learning_rate": 9.868120072369546e-05, "loss": 0.3724, "step": 110370 }, { "epoch": 147.17333333333335, "grad_norm": 0.84375, "learning_rate": 9.868096170637207e-05, "loss": 0.3674, "step": 110380 }, { "epoch": 147.18666666666667, "grad_norm": 0.81640625, "learning_rate": 9.868072266768058e-05, "loss": 0.3628, "step": 110390 }, { "epoch": 147.2, "grad_norm": 0.7578125, "learning_rate": 9.868048360762108e-05, "loss": 0.3556, "step": 110400 }, { "epoch": 147.21333333333334, "grad_norm": 0.828125, "learning_rate": 9.868024452619368e-05, "loss": 0.3563, "step": 110410 }, { "epoch": 147.22666666666666, "grad_norm": 0.82421875, "learning_rate": 9.868000542339852e-05, "loss": 0.3682, "step": 110420 }, { "epoch": 147.24, "grad_norm": 0.8203125, "learning_rate": 9.867976629923565e-05, "loss": 0.3531, "step": 110430 }, { "epoch": 147.25333333333333, "grad_norm": 0.79296875, "learning_rate": 9.867952715370522e-05, "loss": 0.3552, "step": 110440 }, { "epoch": 147.26666666666668, "grad_norm": 0.76953125, "learning_rate": 9.867928798680732e-05, "loss": 0.3578, "step": 110450 }, { "epoch": 147.28, "grad_norm": 0.9375, "learning_rate": 9.867904879854204e-05, "loss": 0.3848, "step": 110460 }, { "epoch": 147.29333333333332, "grad_norm": 0.734375, "learning_rate": 9.86788095889095e-05, "loss": 0.3452, "step": 110470 }, { "epoch": 147.30666666666667, "grad_norm": 0.76171875, "learning_rate": 9.867857035790979e-05, "loss": 0.3681, "step": 110480 }, { "epoch": 147.32, "grad_norm": 0.765625, "learning_rate": 9.867833110554305e-05, "loss": 0.3723, "step": 110490 }, { "epoch": 147.33333333333334, "grad_norm": 0.82421875, "learning_rate": 9.867809183180935e-05, "loss": 0.3701, "step": 110500 }, { "epoch": 147.34666666666666, "grad_norm": 0.859375, "learning_rate": 9.867785253670881e-05, "loss": 0.3617, "step": 110510 }, { "epoch": 147.36, "grad_norm": 0.81640625, "learning_rate": 9.867761322024154e-05, "loss": 0.3633, "step": 110520 }, { "epoch": 147.37333333333333, "grad_norm": 0.7421875, "learning_rate": 9.867737388240762e-05, "loss": 0.3658, "step": 110530 }, { "epoch": 147.38666666666666, "grad_norm": 0.98828125, "learning_rate": 9.86771345232072e-05, "loss": 0.3531, "step": 110540 }, { "epoch": 147.4, "grad_norm": 0.87890625, "learning_rate": 9.867689514264032e-05, "loss": 0.3642, "step": 110550 }, { "epoch": 147.41333333333333, "grad_norm": 0.87109375, "learning_rate": 9.867665574070715e-05, "loss": 0.3694, "step": 110560 }, { "epoch": 147.42666666666668, "grad_norm": 0.86328125, "learning_rate": 9.867641631740775e-05, "loss": 0.3716, "step": 110570 }, { "epoch": 147.44, "grad_norm": 0.8203125, "learning_rate": 9.867617687274227e-05, "loss": 0.3828, "step": 110580 }, { "epoch": 147.45333333333335, "grad_norm": 0.8125, "learning_rate": 9.867593740671077e-05, "loss": 0.3711, "step": 110590 }, { "epoch": 147.46666666666667, "grad_norm": 0.75390625, "learning_rate": 9.867569791931337e-05, "loss": 0.3775, "step": 110600 }, { "epoch": 147.48, "grad_norm": 0.8046875, "learning_rate": 9.867545841055019e-05, "loss": 0.3619, "step": 110610 }, { "epoch": 147.49333333333334, "grad_norm": 0.87109375, "learning_rate": 9.86752188804213e-05, "loss": 0.3722, "step": 110620 }, { "epoch": 147.50666666666666, "grad_norm": 0.80859375, "learning_rate": 9.867497932892684e-05, "loss": 0.3734, "step": 110630 }, { "epoch": 147.52, "grad_norm": 0.75390625, "learning_rate": 9.867473975606692e-05, "loss": 0.3634, "step": 110640 }, { "epoch": 147.53333333333333, "grad_norm": 0.83203125, "learning_rate": 9.867450016184161e-05, "loss": 0.3638, "step": 110650 }, { "epoch": 147.54666666666665, "grad_norm": 0.8984375, "learning_rate": 9.867426054625103e-05, "loss": 0.3646, "step": 110660 }, { "epoch": 147.56, "grad_norm": 0.734375, "learning_rate": 9.867402090929532e-05, "loss": 0.3591, "step": 110670 }, { "epoch": 147.57333333333332, "grad_norm": 0.86328125, "learning_rate": 9.867378125097453e-05, "loss": 0.3641, "step": 110680 }, { "epoch": 147.58666666666667, "grad_norm": 0.7578125, "learning_rate": 9.867354157128879e-05, "loss": 0.3562, "step": 110690 }, { "epoch": 147.6, "grad_norm": 0.8671875, "learning_rate": 9.86733018702382e-05, "loss": 0.3563, "step": 110700 }, { "epoch": 147.61333333333334, "grad_norm": 0.74609375, "learning_rate": 9.867306214782288e-05, "loss": 0.3497, "step": 110710 }, { "epoch": 147.62666666666667, "grad_norm": 0.76171875, "learning_rate": 9.867282240404293e-05, "loss": 0.3538, "step": 110720 }, { "epoch": 147.64, "grad_norm": 0.875, "learning_rate": 9.867258263889845e-05, "loss": 0.3602, "step": 110730 }, { "epoch": 147.65333333333334, "grad_norm": 0.81640625, "learning_rate": 9.867234285238954e-05, "loss": 0.3718, "step": 110740 }, { "epoch": 147.66666666666666, "grad_norm": 0.7578125, "learning_rate": 9.867210304451631e-05, "loss": 0.3622, "step": 110750 }, { "epoch": 147.68, "grad_norm": 0.859375, "learning_rate": 9.867186321527886e-05, "loss": 0.3508, "step": 110760 }, { "epoch": 147.69333333333333, "grad_norm": 0.7421875, "learning_rate": 9.867162336467732e-05, "loss": 0.3627, "step": 110770 }, { "epoch": 147.70666666666668, "grad_norm": 0.890625, "learning_rate": 9.867138349271175e-05, "loss": 0.3522, "step": 110780 }, { "epoch": 147.72, "grad_norm": 0.87109375, "learning_rate": 9.86711435993823e-05, "loss": 0.3742, "step": 110790 }, { "epoch": 147.73333333333332, "grad_norm": 0.75390625, "learning_rate": 9.867090368468905e-05, "loss": 0.3698, "step": 110800 }, { "epoch": 147.74666666666667, "grad_norm": 0.734375, "learning_rate": 9.867066374863212e-05, "loss": 0.3716, "step": 110810 }, { "epoch": 147.76, "grad_norm": 0.8359375, "learning_rate": 9.867042379121161e-05, "loss": 0.3855, "step": 110820 }, { "epoch": 147.77333333333334, "grad_norm": 0.8984375, "learning_rate": 9.86701838124276e-05, "loss": 0.3697, "step": 110830 }, { "epoch": 147.78666666666666, "grad_norm": 0.7734375, "learning_rate": 9.866994381228026e-05, "loss": 0.3725, "step": 110840 }, { "epoch": 147.8, "grad_norm": 0.8515625, "learning_rate": 9.866970379076961e-05, "loss": 0.3706, "step": 110850 }, { "epoch": 147.81333333333333, "grad_norm": 0.9609375, "learning_rate": 9.866946374789582e-05, "loss": 0.344, "step": 110860 }, { "epoch": 147.82666666666665, "grad_norm": 0.78515625, "learning_rate": 9.866922368365898e-05, "loss": 0.3522, "step": 110870 }, { "epoch": 147.84, "grad_norm": 0.95703125, "learning_rate": 9.866898359805919e-05, "loss": 0.3646, "step": 110880 }, { "epoch": 147.85333333333332, "grad_norm": 0.92578125, "learning_rate": 9.866874349109654e-05, "loss": 0.3595, "step": 110890 }, { "epoch": 147.86666666666667, "grad_norm": 0.890625, "learning_rate": 9.866850336277115e-05, "loss": 0.3652, "step": 110900 }, { "epoch": 147.88, "grad_norm": 0.734375, "learning_rate": 9.866826321308315e-05, "loss": 0.3462, "step": 110910 }, { "epoch": 147.89333333333335, "grad_norm": 0.765625, "learning_rate": 9.86680230420326e-05, "loss": 0.3594, "step": 110920 }, { "epoch": 147.90666666666667, "grad_norm": 0.84375, "learning_rate": 9.866778284961964e-05, "loss": 0.3628, "step": 110930 }, { "epoch": 147.92, "grad_norm": 0.81640625, "learning_rate": 9.866754263584436e-05, "loss": 0.3643, "step": 110940 }, { "epoch": 147.93333333333334, "grad_norm": 0.76171875, "learning_rate": 9.866730240070686e-05, "loss": 0.3604, "step": 110950 }, { "epoch": 147.94666666666666, "grad_norm": 0.87109375, "learning_rate": 9.866706214420727e-05, "loss": 0.36, "step": 110960 }, { "epoch": 147.96, "grad_norm": 0.78125, "learning_rate": 9.866682186634566e-05, "loss": 0.3602, "step": 110970 }, { "epoch": 147.97333333333333, "grad_norm": 1.1015625, "learning_rate": 9.866658156712216e-05, "loss": 0.3822, "step": 110980 }, { "epoch": 147.98666666666668, "grad_norm": 0.92578125, "learning_rate": 9.866634124653687e-05, "loss": 0.351, "step": 110990 }, { "epoch": 148.0, "grad_norm": 0.81640625, "learning_rate": 9.86661009045899e-05, "loss": 0.3535, "step": 111000 }, { "epoch": 148.0, "eval_loss": 0.4168463945388794, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7686, "eval_samples_per_second": 1.36, "eval_steps_per_second": 0.085, "step": 111000 }, { "epoch": 148.01333333333332, "grad_norm": 0.953125, "learning_rate": 9.866586054128135e-05, "loss": 0.3686, "step": 111010 }, { "epoch": 148.02666666666667, "grad_norm": 0.7421875, "learning_rate": 9.866562015661132e-05, "loss": 0.3842, "step": 111020 }, { "epoch": 148.04, "grad_norm": 0.74609375, "learning_rate": 9.866537975057992e-05, "loss": 0.3972, "step": 111030 }, { "epoch": 148.05333333333334, "grad_norm": 0.8203125, "learning_rate": 9.866513932318726e-05, "loss": 0.3804, "step": 111040 }, { "epoch": 148.06666666666666, "grad_norm": 0.87109375, "learning_rate": 9.866489887443344e-05, "loss": 0.3695, "step": 111050 }, { "epoch": 148.08, "grad_norm": 0.80859375, "learning_rate": 9.866465840431858e-05, "loss": 0.373, "step": 111060 }, { "epoch": 148.09333333333333, "grad_norm": 0.8125, "learning_rate": 9.866441791284276e-05, "loss": 0.375, "step": 111070 }, { "epoch": 148.10666666666665, "grad_norm": 0.70703125, "learning_rate": 9.86641774000061e-05, "loss": 0.3645, "step": 111080 }, { "epoch": 148.12, "grad_norm": 0.828125, "learning_rate": 9.866393686580873e-05, "loss": 0.365, "step": 111090 }, { "epoch": 148.13333333333333, "grad_norm": 0.78125, "learning_rate": 9.866369631025071e-05, "loss": 0.3581, "step": 111100 }, { "epoch": 148.14666666666668, "grad_norm": 0.83984375, "learning_rate": 9.866345573333216e-05, "loss": 0.3766, "step": 111110 }, { "epoch": 148.16, "grad_norm": 0.74609375, "learning_rate": 9.86632151350532e-05, "loss": 0.3721, "step": 111120 }, { "epoch": 148.17333333333335, "grad_norm": 0.83203125, "learning_rate": 9.866297451541393e-05, "loss": 0.3667, "step": 111130 }, { "epoch": 148.18666666666667, "grad_norm": 0.78125, "learning_rate": 9.866273387441444e-05, "loss": 0.3632, "step": 111140 }, { "epoch": 148.2, "grad_norm": 0.8125, "learning_rate": 9.866249321205487e-05, "loss": 0.3555, "step": 111150 }, { "epoch": 148.21333333333334, "grad_norm": 0.859375, "learning_rate": 9.866225252833529e-05, "loss": 0.3558, "step": 111160 }, { "epoch": 148.22666666666666, "grad_norm": 0.8046875, "learning_rate": 9.866201182325583e-05, "loss": 0.3676, "step": 111170 }, { "epoch": 148.24, "grad_norm": 0.86328125, "learning_rate": 9.866177109681658e-05, "loss": 0.3539, "step": 111180 }, { "epoch": 148.25333333333333, "grad_norm": 0.82421875, "learning_rate": 9.866153034901766e-05, "loss": 0.3545, "step": 111190 }, { "epoch": 148.26666666666668, "grad_norm": 0.78125, "learning_rate": 9.866128957985914e-05, "loss": 0.3581, "step": 111200 }, { "epoch": 148.28, "grad_norm": 0.93359375, "learning_rate": 9.866104878934117e-05, "loss": 0.3859, "step": 111210 }, { "epoch": 148.29333333333332, "grad_norm": 0.78125, "learning_rate": 9.866080797746385e-05, "loss": 0.3449, "step": 111220 }, { "epoch": 148.30666666666667, "grad_norm": 0.796875, "learning_rate": 9.866056714422726e-05, "loss": 0.3684, "step": 111230 }, { "epoch": 148.32, "grad_norm": 0.74609375, "learning_rate": 9.866032628963151e-05, "loss": 0.3732, "step": 111240 }, { "epoch": 148.33333333333334, "grad_norm": 0.88671875, "learning_rate": 9.866008541367672e-05, "loss": 0.3703, "step": 111250 }, { "epoch": 148.34666666666666, "grad_norm": 0.87109375, "learning_rate": 9.865984451636301e-05, "loss": 0.3615, "step": 111260 }, { "epoch": 148.36, "grad_norm": 0.8984375, "learning_rate": 9.865960359769047e-05, "loss": 0.3627, "step": 111270 }, { "epoch": 148.37333333333333, "grad_norm": 0.70703125, "learning_rate": 9.865936265765918e-05, "loss": 0.3668, "step": 111280 }, { "epoch": 148.38666666666666, "grad_norm": 0.96484375, "learning_rate": 9.865912169626928e-05, "loss": 0.3531, "step": 111290 }, { "epoch": 148.4, "grad_norm": 0.87890625, "learning_rate": 9.865888071352085e-05, "loss": 0.3642, "step": 111300 }, { "epoch": 148.41333333333333, "grad_norm": 0.73046875, "learning_rate": 9.865863970941402e-05, "loss": 0.3689, "step": 111310 }, { "epoch": 148.42666666666668, "grad_norm": 0.796875, "learning_rate": 9.865839868394888e-05, "loss": 0.3697, "step": 111320 }, { "epoch": 148.44, "grad_norm": 0.7890625, "learning_rate": 9.865815763712556e-05, "loss": 0.3831, "step": 111330 }, { "epoch": 148.45333333333335, "grad_norm": 0.7734375, "learning_rate": 9.865791656894413e-05, "loss": 0.3704, "step": 111340 }, { "epoch": 148.46666666666667, "grad_norm": 0.80078125, "learning_rate": 9.865767547940472e-05, "loss": 0.377, "step": 111350 }, { "epoch": 148.48, "grad_norm": 1.0390625, "learning_rate": 9.865743436850743e-05, "loss": 0.3614, "step": 111360 }, { "epoch": 148.49333333333334, "grad_norm": 0.78515625, "learning_rate": 9.865719323625236e-05, "loss": 0.3722, "step": 111370 }, { "epoch": 148.50666666666666, "grad_norm": 0.81640625, "learning_rate": 9.865695208263961e-05, "loss": 0.3726, "step": 111380 }, { "epoch": 148.52, "grad_norm": 0.6953125, "learning_rate": 9.865671090766932e-05, "loss": 0.3627, "step": 111390 }, { "epoch": 148.53333333333333, "grad_norm": 0.8046875, "learning_rate": 9.865646971134157e-05, "loss": 0.3642, "step": 111400 }, { "epoch": 148.54666666666665, "grad_norm": 0.84375, "learning_rate": 9.865622849365645e-05, "loss": 0.366, "step": 111410 }, { "epoch": 148.56, "grad_norm": 0.7109375, "learning_rate": 9.865598725461409e-05, "loss": 0.3593, "step": 111420 }, { "epoch": 148.57333333333332, "grad_norm": 0.8984375, "learning_rate": 9.86557459942146e-05, "loss": 0.3637, "step": 111430 }, { "epoch": 148.58666666666667, "grad_norm": 0.796875, "learning_rate": 9.865550471245806e-05, "loss": 0.3547, "step": 111440 }, { "epoch": 148.6, "grad_norm": 0.76953125, "learning_rate": 9.865526340934461e-05, "loss": 0.3565, "step": 111450 }, { "epoch": 148.61333333333334, "grad_norm": 0.75, "learning_rate": 9.865502208487433e-05, "loss": 0.3495, "step": 111460 }, { "epoch": 148.62666666666667, "grad_norm": 0.76171875, "learning_rate": 9.865478073904734e-05, "loss": 0.3532, "step": 111470 }, { "epoch": 148.64, "grad_norm": 0.87109375, "learning_rate": 9.865453937186374e-05, "loss": 0.361, "step": 111480 }, { "epoch": 148.65333333333334, "grad_norm": 0.76171875, "learning_rate": 9.865429798332361e-05, "loss": 0.3706, "step": 111490 }, { "epoch": 148.66666666666666, "grad_norm": 0.75, "learning_rate": 9.86540565734271e-05, "loss": 0.362, "step": 111500 }, { "epoch": 148.68, "grad_norm": 0.94921875, "learning_rate": 9.86538151421743e-05, "loss": 0.3514, "step": 111510 }, { "epoch": 148.69333333333333, "grad_norm": 0.72265625, "learning_rate": 9.865357368956531e-05, "loss": 0.3622, "step": 111520 }, { "epoch": 148.70666666666668, "grad_norm": 0.9140625, "learning_rate": 9.865333221560025e-05, "loss": 0.3518, "step": 111530 }, { "epoch": 148.72, "grad_norm": 0.8359375, "learning_rate": 9.86530907202792e-05, "loss": 0.3737, "step": 111540 }, { "epoch": 148.73333333333332, "grad_norm": 0.80078125, "learning_rate": 9.86528492036023e-05, "loss": 0.3693, "step": 111550 }, { "epoch": 148.74666666666667, "grad_norm": 0.7890625, "learning_rate": 9.865260766556961e-05, "loss": 0.3725, "step": 111560 }, { "epoch": 148.76, "grad_norm": 0.89453125, "learning_rate": 9.865236610618128e-05, "loss": 0.385, "step": 111570 }, { "epoch": 148.77333333333334, "grad_norm": 0.87109375, "learning_rate": 9.86521245254374e-05, "loss": 0.3692, "step": 111580 }, { "epoch": 148.78666666666666, "grad_norm": 0.7421875, "learning_rate": 9.865188292333807e-05, "loss": 0.3724, "step": 111590 }, { "epoch": 148.8, "grad_norm": 0.828125, "learning_rate": 9.86516412998834e-05, "loss": 0.37, "step": 111600 }, { "epoch": 148.81333333333333, "grad_norm": 0.9296875, "learning_rate": 9.865139965507351e-05, "loss": 0.3443, "step": 111610 }, { "epoch": 148.82666666666665, "grad_norm": 0.765625, "learning_rate": 9.865115798890848e-05, "loss": 0.3511, "step": 111620 }, { "epoch": 148.84, "grad_norm": 0.890625, "learning_rate": 9.865091630138843e-05, "loss": 0.3641, "step": 111630 }, { "epoch": 148.85333333333332, "grad_norm": 0.7734375, "learning_rate": 9.865067459251348e-05, "loss": 0.3597, "step": 111640 }, { "epoch": 148.86666666666667, "grad_norm": 0.8828125, "learning_rate": 9.865043286228371e-05, "loss": 0.3658, "step": 111650 }, { "epoch": 148.88, "grad_norm": 0.76171875, "learning_rate": 9.865019111069925e-05, "loss": 0.3466, "step": 111660 }, { "epoch": 148.89333333333335, "grad_norm": 0.765625, "learning_rate": 9.864994933776017e-05, "loss": 0.3594, "step": 111670 }, { "epoch": 148.90666666666667, "grad_norm": 0.83203125, "learning_rate": 9.864970754346663e-05, "loss": 0.3629, "step": 111680 }, { "epoch": 148.92, "grad_norm": 0.76953125, "learning_rate": 9.864946572781868e-05, "loss": 0.3636, "step": 111690 }, { "epoch": 148.93333333333334, "grad_norm": 0.7265625, "learning_rate": 9.864922389081647e-05, "loss": 0.3612, "step": 111700 }, { "epoch": 148.94666666666666, "grad_norm": 0.8125, "learning_rate": 9.864898203246009e-05, "loss": 0.361, "step": 111710 }, { "epoch": 148.96, "grad_norm": 0.7421875, "learning_rate": 9.864874015274963e-05, "loss": 0.3584, "step": 111720 }, { "epoch": 148.97333333333333, "grad_norm": 1.1484375, "learning_rate": 9.864849825168523e-05, "loss": 0.3822, "step": 111730 }, { "epoch": 148.98666666666668, "grad_norm": 0.86328125, "learning_rate": 9.864825632926697e-05, "loss": 0.3512, "step": 111740 }, { "epoch": 149.0, "grad_norm": 0.82421875, "learning_rate": 9.864801438549496e-05, "loss": 0.3526, "step": 111750 }, { "epoch": 149.0, "eval_loss": 0.41613003611564636, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7409, "eval_samples_per_second": 1.363, "eval_steps_per_second": 0.085, "step": 111750 }, { "epoch": 149.01333333333332, "grad_norm": 0.8515625, "learning_rate": 9.86477724203693e-05, "loss": 0.3693, "step": 111760 }, { "epoch": 149.02666666666667, "grad_norm": 0.7890625, "learning_rate": 9.864753043389012e-05, "loss": 0.3837, "step": 111770 }, { "epoch": 149.04, "grad_norm": 0.7734375, "learning_rate": 9.86472884260575e-05, "loss": 0.3974, "step": 111780 }, { "epoch": 149.05333333333334, "grad_norm": 0.84765625, "learning_rate": 9.864704639687157e-05, "loss": 0.3808, "step": 111790 }, { "epoch": 149.06666666666666, "grad_norm": 0.87890625, "learning_rate": 9.864680434633242e-05, "loss": 0.3698, "step": 111800 }, { "epoch": 149.08, "grad_norm": 0.84765625, "learning_rate": 9.864656227444016e-05, "loss": 0.3718, "step": 111810 }, { "epoch": 149.09333333333333, "grad_norm": 0.80078125, "learning_rate": 9.86463201811949e-05, "loss": 0.3744, "step": 111820 }, { "epoch": 149.10666666666665, "grad_norm": 0.703125, "learning_rate": 9.864607806659674e-05, "loss": 0.364, "step": 111830 }, { "epoch": 149.12, "grad_norm": 0.8828125, "learning_rate": 9.86458359306458e-05, "loss": 0.3647, "step": 111840 }, { "epoch": 149.13333333333333, "grad_norm": 0.75390625, "learning_rate": 9.864559377334217e-05, "loss": 0.3568, "step": 111850 }, { "epoch": 149.14666666666668, "grad_norm": 0.8125, "learning_rate": 9.864535159468596e-05, "loss": 0.3767, "step": 111860 }, { "epoch": 149.16, "grad_norm": 0.7578125, "learning_rate": 9.864510939467726e-05, "loss": 0.3715, "step": 111870 }, { "epoch": 149.17333333333335, "grad_norm": 0.90625, "learning_rate": 9.864486717331623e-05, "loss": 0.3671, "step": 111880 }, { "epoch": 149.18666666666667, "grad_norm": 0.76953125, "learning_rate": 9.864462493060291e-05, "loss": 0.3638, "step": 111890 }, { "epoch": 149.2, "grad_norm": 0.8125, "learning_rate": 9.864438266653745e-05, "loss": 0.3555, "step": 111900 }, { "epoch": 149.21333333333334, "grad_norm": 0.87890625, "learning_rate": 9.864414038111995e-05, "loss": 0.3558, "step": 111910 }, { "epoch": 149.22666666666666, "grad_norm": 0.875, "learning_rate": 9.86438980743505e-05, "loss": 0.3664, "step": 111920 }, { "epoch": 149.24, "grad_norm": 0.890625, "learning_rate": 9.864365574622922e-05, "loss": 0.3538, "step": 111930 }, { "epoch": 149.25333333333333, "grad_norm": 0.78515625, "learning_rate": 9.864341339675622e-05, "loss": 0.3544, "step": 111940 }, { "epoch": 149.26666666666668, "grad_norm": 0.79296875, "learning_rate": 9.864317102593159e-05, "loss": 0.3579, "step": 111950 }, { "epoch": 149.28, "grad_norm": 0.828125, "learning_rate": 9.864292863375546e-05, "loss": 0.3854, "step": 111960 }, { "epoch": 149.29333333333332, "grad_norm": 0.8515625, "learning_rate": 9.864268622022791e-05, "loss": 0.3446, "step": 111970 }, { "epoch": 149.30666666666667, "grad_norm": 0.85546875, "learning_rate": 9.864244378534905e-05, "loss": 0.3689, "step": 111980 }, { "epoch": 149.32, "grad_norm": 0.79296875, "learning_rate": 9.864220132911901e-05, "loss": 0.3731, "step": 111990 }, { "epoch": 149.33333333333334, "grad_norm": 0.84375, "learning_rate": 9.864195885153789e-05, "loss": 0.3708, "step": 112000 }, { "epoch": 149.34666666666666, "grad_norm": 0.8359375, "learning_rate": 9.864171635260577e-05, "loss": 0.3624, "step": 112010 }, { "epoch": 149.36, "grad_norm": 0.85546875, "learning_rate": 9.864147383232276e-05, "loss": 0.3625, "step": 112020 }, { "epoch": 149.37333333333333, "grad_norm": 0.7734375, "learning_rate": 9.8641231290689e-05, "loss": 0.3662, "step": 112030 }, { "epoch": 149.38666666666666, "grad_norm": 0.93359375, "learning_rate": 9.864098872770457e-05, "loss": 0.3525, "step": 112040 }, { "epoch": 149.4, "grad_norm": 0.8515625, "learning_rate": 9.86407461433696e-05, "loss": 0.3634, "step": 112050 }, { "epoch": 149.41333333333333, "grad_norm": 0.80859375, "learning_rate": 9.864050353768417e-05, "loss": 0.3702, "step": 112060 }, { "epoch": 149.42666666666668, "grad_norm": 0.7265625, "learning_rate": 9.86402609106484e-05, "loss": 0.3714, "step": 112070 }, { "epoch": 149.44, "grad_norm": 0.89453125, "learning_rate": 9.864001826226238e-05, "loss": 0.3828, "step": 112080 }, { "epoch": 149.45333333333335, "grad_norm": 0.87109375, "learning_rate": 9.863977559252624e-05, "loss": 0.3705, "step": 112090 }, { "epoch": 149.46666666666667, "grad_norm": 0.828125, "learning_rate": 9.863953290144007e-05, "loss": 0.3775, "step": 112100 }, { "epoch": 149.48, "grad_norm": 0.828125, "learning_rate": 9.863929018900399e-05, "loss": 0.3615, "step": 112110 }, { "epoch": 149.49333333333334, "grad_norm": 0.85546875, "learning_rate": 9.863904745521809e-05, "loss": 0.373, "step": 112120 }, { "epoch": 149.50666666666666, "grad_norm": 0.87109375, "learning_rate": 9.863880470008249e-05, "loss": 0.3727, "step": 112130 }, { "epoch": 149.52, "grad_norm": 0.71484375, "learning_rate": 9.86385619235973e-05, "loss": 0.3633, "step": 112140 }, { "epoch": 149.53333333333333, "grad_norm": 0.83203125, "learning_rate": 9.86383191257626e-05, "loss": 0.3644, "step": 112150 }, { "epoch": 149.54666666666665, "grad_norm": 0.90625, "learning_rate": 9.863807630657853e-05, "loss": 0.3648, "step": 112160 }, { "epoch": 149.56, "grad_norm": 0.80859375, "learning_rate": 9.863783346604519e-05, "loss": 0.3595, "step": 112170 }, { "epoch": 149.57333333333332, "grad_norm": 0.83984375, "learning_rate": 9.863759060416266e-05, "loss": 0.3648, "step": 112180 }, { "epoch": 149.58666666666667, "grad_norm": 0.76953125, "learning_rate": 9.863734772093107e-05, "loss": 0.3548, "step": 112190 }, { "epoch": 149.6, "grad_norm": 0.78515625, "learning_rate": 9.863710481635053e-05, "loss": 0.3569, "step": 112200 }, { "epoch": 149.61333333333334, "grad_norm": 0.69140625, "learning_rate": 9.863686189042113e-05, "loss": 0.3491, "step": 112210 }, { "epoch": 149.62666666666667, "grad_norm": 0.69921875, "learning_rate": 9.863661894314298e-05, "loss": 0.3529, "step": 112220 }, { "epoch": 149.64, "grad_norm": 0.8359375, "learning_rate": 9.86363759745162e-05, "loss": 0.3601, "step": 112230 }, { "epoch": 149.65333333333334, "grad_norm": 0.81640625, "learning_rate": 9.863613298454088e-05, "loss": 0.3703, "step": 112240 }, { "epoch": 149.66666666666666, "grad_norm": 0.80859375, "learning_rate": 9.863588997321716e-05, "loss": 0.3628, "step": 112250 }, { "epoch": 149.68, "grad_norm": 0.828125, "learning_rate": 9.86356469405451e-05, "loss": 0.3504, "step": 112260 }, { "epoch": 149.69333333333333, "grad_norm": 0.7265625, "learning_rate": 9.863540388652483e-05, "loss": 0.3615, "step": 112270 }, { "epoch": 149.70666666666668, "grad_norm": 0.875, "learning_rate": 9.863516081115644e-05, "loss": 0.352, "step": 112280 }, { "epoch": 149.72, "grad_norm": 0.84765625, "learning_rate": 9.863491771444008e-05, "loss": 0.3733, "step": 112290 }, { "epoch": 149.73333333333332, "grad_norm": 0.88671875, "learning_rate": 9.863467459637581e-05, "loss": 0.3689, "step": 112300 }, { "epoch": 149.74666666666667, "grad_norm": 0.7890625, "learning_rate": 9.863443145696376e-05, "loss": 0.3721, "step": 112310 }, { "epoch": 149.76, "grad_norm": 0.87890625, "learning_rate": 9.863418829620403e-05, "loss": 0.3848, "step": 112320 }, { "epoch": 149.77333333333334, "grad_norm": 0.9375, "learning_rate": 9.863394511409674e-05, "loss": 0.3698, "step": 112330 }, { "epoch": 149.78666666666666, "grad_norm": 0.7578125, "learning_rate": 9.863370191064198e-05, "loss": 0.373, "step": 112340 }, { "epoch": 149.8, "grad_norm": 0.8671875, "learning_rate": 9.863345868583987e-05, "loss": 0.3701, "step": 112350 }, { "epoch": 149.81333333333333, "grad_norm": 0.93359375, "learning_rate": 9.863321543969049e-05, "loss": 0.3436, "step": 112360 }, { "epoch": 149.82666666666665, "grad_norm": 0.78125, "learning_rate": 9.863297217219396e-05, "loss": 0.351, "step": 112370 }, { "epoch": 149.84, "grad_norm": 0.91796875, "learning_rate": 9.86327288833504e-05, "loss": 0.3647, "step": 112380 }, { "epoch": 149.85333333333332, "grad_norm": 0.76171875, "learning_rate": 9.863248557315993e-05, "loss": 0.3597, "step": 112390 }, { "epoch": 149.86666666666667, "grad_norm": 0.875, "learning_rate": 9.863224224162262e-05, "loss": 0.3661, "step": 112400 }, { "epoch": 149.88, "grad_norm": 0.78515625, "learning_rate": 9.86319988887386e-05, "loss": 0.3466, "step": 112410 }, { "epoch": 149.89333333333335, "grad_norm": 0.7734375, "learning_rate": 9.863175551450797e-05, "loss": 0.3585, "step": 112420 }, { "epoch": 149.90666666666667, "grad_norm": 0.7734375, "learning_rate": 9.863151211893081e-05, "loss": 0.3633, "step": 112430 }, { "epoch": 149.92, "grad_norm": 0.78515625, "learning_rate": 9.863126870200727e-05, "loss": 0.3645, "step": 112440 }, { "epoch": 149.93333333333334, "grad_norm": 0.7421875, "learning_rate": 9.863102526373744e-05, "loss": 0.3608, "step": 112450 }, { "epoch": 149.94666666666666, "grad_norm": 0.796875, "learning_rate": 9.863078180412144e-05, "loss": 0.3606, "step": 112460 }, { "epoch": 149.96, "grad_norm": 0.71875, "learning_rate": 9.863053832315935e-05, "loss": 0.3595, "step": 112470 }, { "epoch": 149.97333333333333, "grad_norm": 1.1328125, "learning_rate": 9.86302948208513e-05, "loss": 0.3811, "step": 112480 }, { "epoch": 149.98666666666668, "grad_norm": 0.8828125, "learning_rate": 9.863005129719737e-05, "loss": 0.3518, "step": 112490 }, { "epoch": 150.0, "grad_norm": 0.7890625, "learning_rate": 9.86298077521977e-05, "loss": 0.3523, "step": 112500 }, { "epoch": 150.0, "eval_loss": 0.4168143570423126, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.3427, "eval_samples_per_second": 1.411, "eval_steps_per_second": 0.088, "step": 112500 }, { "epoch": 150.01333333333332, "grad_norm": 0.85546875, "learning_rate": 9.862956418585238e-05, "loss": 0.3688, "step": 112510 }, { "epoch": 150.02666666666667, "grad_norm": 0.80859375, "learning_rate": 9.86293205981615e-05, "loss": 0.3839, "step": 112520 }, { "epoch": 150.04, "grad_norm": 0.7265625, "learning_rate": 9.86290769891252e-05, "loss": 0.3969, "step": 112530 }, { "epoch": 150.05333333333334, "grad_norm": 0.77734375, "learning_rate": 9.862883335874358e-05, "loss": 0.3807, "step": 112540 }, { "epoch": 150.06666666666666, "grad_norm": 0.921875, "learning_rate": 9.862858970701674e-05, "loss": 0.3692, "step": 112550 }, { "epoch": 150.08, "grad_norm": 0.91015625, "learning_rate": 9.862834603394478e-05, "loss": 0.3725, "step": 112560 }, { "epoch": 150.09333333333333, "grad_norm": 0.8125, "learning_rate": 9.86281023395278e-05, "loss": 0.3755, "step": 112570 }, { "epoch": 150.10666666666665, "grad_norm": 0.74609375, "learning_rate": 9.862785862376593e-05, "loss": 0.363, "step": 112580 }, { "epoch": 150.12, "grad_norm": 0.828125, "learning_rate": 9.862761488665927e-05, "loss": 0.3647, "step": 112590 }, { "epoch": 150.13333333333333, "grad_norm": 0.75, "learning_rate": 9.862737112820791e-05, "loss": 0.3568, "step": 112600 }, { "epoch": 150.14666666666668, "grad_norm": 0.87890625, "learning_rate": 9.862712734841198e-05, "loss": 0.3764, "step": 112610 }, { "epoch": 150.16, "grad_norm": 0.81640625, "learning_rate": 9.862688354727159e-05, "loss": 0.3722, "step": 112620 }, { "epoch": 150.17333333333335, "grad_norm": 0.8984375, "learning_rate": 9.862663972478682e-05, "loss": 0.3659, "step": 112630 }, { "epoch": 150.18666666666667, "grad_norm": 0.765625, "learning_rate": 9.862639588095779e-05, "loss": 0.3631, "step": 112640 }, { "epoch": 150.2, "grad_norm": 0.75390625, "learning_rate": 9.862615201578462e-05, "loss": 0.3547, "step": 112650 }, { "epoch": 150.21333333333334, "grad_norm": 0.89453125, "learning_rate": 9.86259081292674e-05, "loss": 0.3562, "step": 112660 }, { "epoch": 150.22666666666666, "grad_norm": 0.81640625, "learning_rate": 9.862566422140624e-05, "loss": 0.3666, "step": 112670 }, { "epoch": 150.24, "grad_norm": 0.84765625, "learning_rate": 9.862542029220125e-05, "loss": 0.3526, "step": 112680 }, { "epoch": 150.25333333333333, "grad_norm": 0.86328125, "learning_rate": 9.862517634165254e-05, "loss": 0.3532, "step": 112690 }, { "epoch": 150.26666666666668, "grad_norm": 0.8125, "learning_rate": 9.862493236976022e-05, "loss": 0.3573, "step": 112700 }, { "epoch": 150.28, "grad_norm": 0.89453125, "learning_rate": 9.862468837652439e-05, "loss": 0.3856, "step": 112710 }, { "epoch": 150.29333333333332, "grad_norm": 0.796875, "learning_rate": 9.862444436194516e-05, "loss": 0.3439, "step": 112720 }, { "epoch": 150.30666666666667, "grad_norm": 0.79296875, "learning_rate": 9.862420032602263e-05, "loss": 0.3674, "step": 112730 }, { "epoch": 150.32, "grad_norm": 0.73046875, "learning_rate": 9.86239562687569e-05, "loss": 0.3719, "step": 112740 }, { "epoch": 150.33333333333334, "grad_norm": 0.82421875, "learning_rate": 9.86237121901481e-05, "loss": 0.3708, "step": 112750 }, { "epoch": 150.34666666666666, "grad_norm": 0.8359375, "learning_rate": 9.862346809019633e-05, "loss": 0.362, "step": 112760 }, { "epoch": 150.36, "grad_norm": 0.78125, "learning_rate": 9.862322396890169e-05, "loss": 0.3621, "step": 112770 }, { "epoch": 150.37333333333333, "grad_norm": 0.73046875, "learning_rate": 9.862297982626429e-05, "loss": 0.366, "step": 112780 }, { "epoch": 150.38666666666666, "grad_norm": 0.9765625, "learning_rate": 9.862273566228426e-05, "loss": 0.353, "step": 112790 }, { "epoch": 150.4, "grad_norm": 0.79296875, "learning_rate": 9.862249147696166e-05, "loss": 0.3629, "step": 112800 }, { "epoch": 150.41333333333333, "grad_norm": 0.81640625, "learning_rate": 9.862224727029662e-05, "loss": 0.3696, "step": 112810 }, { "epoch": 150.42666666666668, "grad_norm": 0.81640625, "learning_rate": 9.862200304228929e-05, "loss": 0.3708, "step": 112820 }, { "epoch": 150.44, "grad_norm": 0.8515625, "learning_rate": 9.862175879293969e-05, "loss": 0.3832, "step": 112830 }, { "epoch": 150.45333333333335, "grad_norm": 0.84375, "learning_rate": 9.8621514522248e-05, "loss": 0.3701, "step": 112840 }, { "epoch": 150.46666666666667, "grad_norm": 0.8671875, "learning_rate": 9.86212702302143e-05, "loss": 0.3778, "step": 112850 }, { "epoch": 150.48, "grad_norm": 0.8125, "learning_rate": 9.862102591683868e-05, "loss": 0.361, "step": 112860 }, { "epoch": 150.49333333333334, "grad_norm": 0.796875, "learning_rate": 9.862078158212128e-05, "loss": 0.3728, "step": 112870 }, { "epoch": 150.50666666666666, "grad_norm": 0.875, "learning_rate": 9.86205372260622e-05, "loss": 0.3726, "step": 112880 }, { "epoch": 150.52, "grad_norm": 0.71484375, "learning_rate": 9.862029284866153e-05, "loss": 0.3631, "step": 112890 }, { "epoch": 150.53333333333333, "grad_norm": 0.8359375, "learning_rate": 9.862004844991938e-05, "loss": 0.3639, "step": 112900 }, { "epoch": 150.54666666666665, "grad_norm": 0.83203125, "learning_rate": 9.861980402983589e-05, "loss": 0.3644, "step": 112910 }, { "epoch": 150.56, "grad_norm": 0.7734375, "learning_rate": 9.861955958841112e-05, "loss": 0.359, "step": 112920 }, { "epoch": 150.57333333333332, "grad_norm": 0.7890625, "learning_rate": 9.861931512564521e-05, "loss": 0.3647, "step": 112930 }, { "epoch": 150.58666666666667, "grad_norm": 0.7265625, "learning_rate": 9.861907064153825e-05, "loss": 0.3553, "step": 112940 }, { "epoch": 150.6, "grad_norm": 0.8125, "learning_rate": 9.861882613609036e-05, "loss": 0.3564, "step": 112950 }, { "epoch": 150.61333333333334, "grad_norm": 0.75390625, "learning_rate": 9.861858160930164e-05, "loss": 0.3488, "step": 112960 }, { "epoch": 150.62666666666667, "grad_norm": 0.70703125, "learning_rate": 9.86183370611722e-05, "loss": 0.3535, "step": 112970 }, { "epoch": 150.64, "grad_norm": 0.875, "learning_rate": 9.861809249170215e-05, "loss": 0.3603, "step": 112980 }, { "epoch": 150.65333333333334, "grad_norm": 0.796875, "learning_rate": 9.861784790089158e-05, "loss": 0.371, "step": 112990 }, { "epoch": 150.66666666666666, "grad_norm": 0.73046875, "learning_rate": 9.861760328874063e-05, "loss": 0.3621, "step": 113000 }, { "epoch": 150.68, "grad_norm": 0.9140625, "learning_rate": 9.861735865524937e-05, "loss": 0.3505, "step": 113010 }, { "epoch": 150.69333333333333, "grad_norm": 0.74609375, "learning_rate": 9.861711400041793e-05, "loss": 0.3622, "step": 113020 }, { "epoch": 150.70666666666668, "grad_norm": 0.89453125, "learning_rate": 9.861686932424642e-05, "loss": 0.3515, "step": 113030 }, { "epoch": 150.72, "grad_norm": 0.8828125, "learning_rate": 9.861662462673493e-05, "loss": 0.3739, "step": 113040 }, { "epoch": 150.73333333333332, "grad_norm": 0.81640625, "learning_rate": 9.86163799078836e-05, "loss": 0.3687, "step": 113050 }, { "epoch": 150.74666666666667, "grad_norm": 0.71875, "learning_rate": 9.861613516769249e-05, "loss": 0.372, "step": 113060 }, { "epoch": 150.76, "grad_norm": 0.89453125, "learning_rate": 9.861589040616174e-05, "loss": 0.3852, "step": 113070 }, { "epoch": 150.77333333333334, "grad_norm": 0.8828125, "learning_rate": 9.861564562329146e-05, "loss": 0.3693, "step": 113080 }, { "epoch": 150.78666666666666, "grad_norm": 0.75390625, "learning_rate": 9.861540081908173e-05, "loss": 0.3718, "step": 113090 }, { "epoch": 150.8, "grad_norm": 0.80078125, "learning_rate": 9.861515599353271e-05, "loss": 0.3704, "step": 113100 }, { "epoch": 150.81333333333333, "grad_norm": 0.93359375, "learning_rate": 9.861491114664442e-05, "loss": 0.3437, "step": 113110 }, { "epoch": 150.82666666666665, "grad_norm": 0.71875, "learning_rate": 9.861466627841707e-05, "loss": 0.3513, "step": 113120 }, { "epoch": 150.84, "grad_norm": 0.85546875, "learning_rate": 9.861442138885068e-05, "loss": 0.3636, "step": 113130 }, { "epoch": 150.85333333333332, "grad_norm": 0.8359375, "learning_rate": 9.861417647794542e-05, "loss": 0.359, "step": 113140 }, { "epoch": 150.86666666666667, "grad_norm": 0.80859375, "learning_rate": 9.861393154570136e-05, "loss": 0.3656, "step": 113150 }, { "epoch": 150.88, "grad_norm": 0.828125, "learning_rate": 9.861368659211862e-05, "loss": 0.3464, "step": 113160 }, { "epoch": 150.89333333333335, "grad_norm": 0.83203125, "learning_rate": 9.861344161719732e-05, "loss": 0.3594, "step": 113170 }, { "epoch": 150.90666666666667, "grad_norm": 0.82421875, "learning_rate": 9.861319662093755e-05, "loss": 0.363, "step": 113180 }, { "epoch": 150.92, "grad_norm": 0.77734375, "learning_rate": 9.861295160333942e-05, "loss": 0.3636, "step": 113190 }, { "epoch": 150.93333333333334, "grad_norm": 0.72265625, "learning_rate": 9.861270656440305e-05, "loss": 0.3604, "step": 113200 }, { "epoch": 150.94666666666666, "grad_norm": 0.82421875, "learning_rate": 9.861246150412852e-05, "loss": 0.3612, "step": 113210 }, { "epoch": 150.96, "grad_norm": 0.796875, "learning_rate": 9.861221642251596e-05, "loss": 0.3585, "step": 113220 }, { "epoch": 150.97333333333333, "grad_norm": 1.0625, "learning_rate": 9.861197131956548e-05, "loss": 0.3817, "step": 113230 }, { "epoch": 150.98666666666668, "grad_norm": 0.81640625, "learning_rate": 9.861172619527717e-05, "loss": 0.3515, "step": 113240 }, { "epoch": 151.0, "grad_norm": 0.8515625, "learning_rate": 9.861148104965114e-05, "loss": 0.3524, "step": 113250 }, { "epoch": 151.0, "eval_loss": 0.4179970920085907, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7806, "eval_samples_per_second": 1.358, "eval_steps_per_second": 0.085, "step": 113250 }, { "epoch": 151.01333333333332, "grad_norm": 0.98046875, "learning_rate": 9.861123588268752e-05, "loss": 0.3691, "step": 113260 }, { "epoch": 151.02666666666667, "grad_norm": 0.80078125, "learning_rate": 9.861099069438642e-05, "loss": 0.383, "step": 113270 }, { "epoch": 151.04, "grad_norm": 0.79296875, "learning_rate": 9.861074548474791e-05, "loss": 0.396, "step": 113280 }, { "epoch": 151.05333333333334, "grad_norm": 0.83984375, "learning_rate": 9.861050025377212e-05, "loss": 0.3805, "step": 113290 }, { "epoch": 151.06666666666666, "grad_norm": 0.97265625, "learning_rate": 9.861025500145915e-05, "loss": 0.3698, "step": 113300 }, { "epoch": 151.08, "grad_norm": 0.765625, "learning_rate": 9.861000972780913e-05, "loss": 0.3719, "step": 113310 }, { "epoch": 151.09333333333333, "grad_norm": 0.87890625, "learning_rate": 9.860976443282215e-05, "loss": 0.3743, "step": 113320 }, { "epoch": 151.10666666666665, "grad_norm": 0.734375, "learning_rate": 9.86095191164983e-05, "loss": 0.3636, "step": 113330 }, { "epoch": 151.12, "grad_norm": 0.83203125, "learning_rate": 9.860927377883773e-05, "loss": 0.3639, "step": 113340 }, { "epoch": 151.13333333333333, "grad_norm": 0.76953125, "learning_rate": 9.860902841984051e-05, "loss": 0.3567, "step": 113350 }, { "epoch": 151.14666666666668, "grad_norm": 0.85546875, "learning_rate": 9.860878303950676e-05, "loss": 0.3754, "step": 113360 }, { "epoch": 151.16, "grad_norm": 0.76953125, "learning_rate": 9.86085376378366e-05, "loss": 0.3715, "step": 113370 }, { "epoch": 151.17333333333335, "grad_norm": 0.85546875, "learning_rate": 9.860829221483012e-05, "loss": 0.3666, "step": 113380 }, { "epoch": 151.18666666666667, "grad_norm": 0.7578125, "learning_rate": 9.860804677048745e-05, "loss": 0.3633, "step": 113390 }, { "epoch": 151.2, "grad_norm": 0.79296875, "learning_rate": 9.860780130480867e-05, "loss": 0.3553, "step": 113400 }, { "epoch": 151.21333333333334, "grad_norm": 0.90234375, "learning_rate": 9.86075558177939e-05, "loss": 0.3559, "step": 113410 }, { "epoch": 151.22666666666666, "grad_norm": 0.9296875, "learning_rate": 9.860731030944326e-05, "loss": 0.3668, "step": 113420 }, { "epoch": 151.24, "grad_norm": 0.9296875, "learning_rate": 9.860706477975684e-05, "loss": 0.3531, "step": 113430 }, { "epoch": 151.25333333333333, "grad_norm": 0.828125, "learning_rate": 9.860681922873473e-05, "loss": 0.3548, "step": 113440 }, { "epoch": 151.26666666666668, "grad_norm": 0.8125, "learning_rate": 9.860657365637709e-05, "loss": 0.3583, "step": 113450 }, { "epoch": 151.28, "grad_norm": 0.88671875, "learning_rate": 9.860632806268399e-05, "loss": 0.3845, "step": 113460 }, { "epoch": 151.29333333333332, "grad_norm": 0.83203125, "learning_rate": 9.860608244765555e-05, "loss": 0.3445, "step": 113470 }, { "epoch": 151.30666666666667, "grad_norm": 0.796875, "learning_rate": 9.860583681129189e-05, "loss": 0.3689, "step": 113480 }, { "epoch": 151.32, "grad_norm": 0.73046875, "learning_rate": 9.860559115359309e-05, "loss": 0.3722, "step": 113490 }, { "epoch": 151.33333333333334, "grad_norm": 0.91015625, "learning_rate": 9.860534547455926e-05, "loss": 0.3699, "step": 113500 }, { "epoch": 151.34666666666666, "grad_norm": 0.88671875, "learning_rate": 9.860509977419053e-05, "loss": 0.3617, "step": 113510 }, { "epoch": 151.36, "grad_norm": 0.8203125, "learning_rate": 9.860485405248701e-05, "loss": 0.3624, "step": 113520 }, { "epoch": 151.37333333333333, "grad_norm": 0.7421875, "learning_rate": 9.860460830944877e-05, "loss": 0.3649, "step": 113530 }, { "epoch": 151.38666666666666, "grad_norm": 0.98828125, "learning_rate": 9.860436254507594e-05, "loss": 0.3532, "step": 113540 }, { "epoch": 151.4, "grad_norm": 0.8125, "learning_rate": 9.860411675936866e-05, "loss": 0.3631, "step": 113550 }, { "epoch": 151.41333333333333, "grad_norm": 0.73828125, "learning_rate": 9.860387095232699e-05, "loss": 0.3692, "step": 113560 }, { "epoch": 151.42666666666668, "grad_norm": 0.83984375, "learning_rate": 9.860362512395105e-05, "loss": 0.3705, "step": 113570 }, { "epoch": 151.44, "grad_norm": 0.828125, "learning_rate": 9.860337927424097e-05, "loss": 0.3829, "step": 113580 }, { "epoch": 151.45333333333335, "grad_norm": 0.77734375, "learning_rate": 9.860313340319682e-05, "loss": 0.3698, "step": 113590 }, { "epoch": 151.46666666666667, "grad_norm": 0.7890625, "learning_rate": 9.860288751081876e-05, "loss": 0.3777, "step": 113600 }, { "epoch": 151.48, "grad_norm": 0.8203125, "learning_rate": 9.860264159710684e-05, "loss": 0.361, "step": 113610 }, { "epoch": 151.49333333333334, "grad_norm": 0.78125, "learning_rate": 9.860239566206121e-05, "loss": 0.3721, "step": 113620 }, { "epoch": 151.50666666666666, "grad_norm": 0.85546875, "learning_rate": 9.860214970568196e-05, "loss": 0.3716, "step": 113630 }, { "epoch": 151.52, "grad_norm": 0.7578125, "learning_rate": 9.860190372796921e-05, "loss": 0.363, "step": 113640 }, { "epoch": 151.53333333333333, "grad_norm": 0.79296875, "learning_rate": 9.860165772892304e-05, "loss": 0.3639, "step": 113650 }, { "epoch": 151.54666666666665, "grad_norm": 0.83984375, "learning_rate": 9.860141170854359e-05, "loss": 0.3649, "step": 113660 }, { "epoch": 151.56, "grad_norm": 0.75390625, "learning_rate": 9.860116566683095e-05, "loss": 0.3596, "step": 113670 }, { "epoch": 151.57333333333332, "grad_norm": 0.9140625, "learning_rate": 9.860091960378524e-05, "loss": 0.3642, "step": 113680 }, { "epoch": 151.58666666666667, "grad_norm": 0.71875, "learning_rate": 9.860067351940656e-05, "loss": 0.3556, "step": 113690 }, { "epoch": 151.6, "grad_norm": 0.78125, "learning_rate": 9.860042741369502e-05, "loss": 0.3571, "step": 113700 }, { "epoch": 151.61333333333334, "grad_norm": 0.765625, "learning_rate": 9.860018128665071e-05, "loss": 0.3487, "step": 113710 }, { "epoch": 151.62666666666667, "grad_norm": 0.765625, "learning_rate": 9.859993513827379e-05, "loss": 0.3528, "step": 113720 }, { "epoch": 151.64, "grad_norm": 0.89453125, "learning_rate": 9.859968896856431e-05, "loss": 0.3599, "step": 113730 }, { "epoch": 151.65333333333334, "grad_norm": 0.83984375, "learning_rate": 9.85994427775224e-05, "loss": 0.371, "step": 113740 }, { "epoch": 151.66666666666666, "grad_norm": 0.7578125, "learning_rate": 9.859919656514817e-05, "loss": 0.3617, "step": 113750 }, { "epoch": 151.68, "grad_norm": 0.83984375, "learning_rate": 9.859895033144175e-05, "loss": 0.3505, "step": 113760 }, { "epoch": 151.69333333333333, "grad_norm": 0.77734375, "learning_rate": 9.859870407640321e-05, "loss": 0.3629, "step": 113770 }, { "epoch": 151.70666666666668, "grad_norm": 0.97265625, "learning_rate": 9.859845780003267e-05, "loss": 0.3521, "step": 113780 }, { "epoch": 151.72, "grad_norm": 0.8671875, "learning_rate": 9.859821150233025e-05, "loss": 0.3728, "step": 113790 }, { "epoch": 151.73333333333332, "grad_norm": 0.8203125, "learning_rate": 9.859796518329604e-05, "loss": 0.3689, "step": 113800 }, { "epoch": 151.74666666666667, "grad_norm": 0.83984375, "learning_rate": 9.859771884293016e-05, "loss": 0.372, "step": 113810 }, { "epoch": 151.76, "grad_norm": 0.83984375, "learning_rate": 9.859747248123273e-05, "loss": 0.3844, "step": 113820 }, { "epoch": 151.77333333333334, "grad_norm": 0.92578125, "learning_rate": 9.859722609820383e-05, "loss": 0.3693, "step": 113830 }, { "epoch": 151.78666666666666, "grad_norm": 0.765625, "learning_rate": 9.85969796938436e-05, "loss": 0.3717, "step": 113840 }, { "epoch": 151.8, "grad_norm": 0.84765625, "learning_rate": 9.859673326815212e-05, "loss": 0.3708, "step": 113850 }, { "epoch": 151.81333333333333, "grad_norm": 0.9296875, "learning_rate": 9.859648682112951e-05, "loss": 0.344, "step": 113860 }, { "epoch": 151.82666666666665, "grad_norm": 0.81640625, "learning_rate": 9.859624035277587e-05, "loss": 0.3509, "step": 113870 }, { "epoch": 151.84, "grad_norm": 0.86328125, "learning_rate": 9.859599386309133e-05, "loss": 0.3642, "step": 113880 }, { "epoch": 151.85333333333332, "grad_norm": 0.78515625, "learning_rate": 9.859574735207598e-05, "loss": 0.3591, "step": 113890 }, { "epoch": 151.86666666666667, "grad_norm": 0.81640625, "learning_rate": 9.859550081972991e-05, "loss": 0.3651, "step": 113900 }, { "epoch": 151.88, "grad_norm": 0.77734375, "learning_rate": 9.859525426605327e-05, "loss": 0.3461, "step": 113910 }, { "epoch": 151.89333333333335, "grad_norm": 0.78515625, "learning_rate": 9.859500769104615e-05, "loss": 0.3594, "step": 113920 }, { "epoch": 151.90666666666667, "grad_norm": 0.87109375, "learning_rate": 9.859476109470864e-05, "loss": 0.3631, "step": 113930 }, { "epoch": 151.92, "grad_norm": 0.83203125, "learning_rate": 9.859451447704088e-05, "loss": 0.3638, "step": 113940 }, { "epoch": 151.93333333333334, "grad_norm": 0.73828125, "learning_rate": 9.859426783804296e-05, "loss": 0.3607, "step": 113950 }, { "epoch": 151.94666666666666, "grad_norm": 0.84375, "learning_rate": 9.859402117771499e-05, "loss": 0.3598, "step": 113960 }, { "epoch": 151.96, "grad_norm": 0.6953125, "learning_rate": 9.859377449605709e-05, "loss": 0.3593, "step": 113970 }, { "epoch": 151.97333333333333, "grad_norm": 1.09375, "learning_rate": 9.859352779306934e-05, "loss": 0.3811, "step": 113980 }, { "epoch": 151.98666666666668, "grad_norm": 0.79296875, "learning_rate": 9.859328106875187e-05, "loss": 0.351, "step": 113990 }, { "epoch": 152.0, "grad_norm": 0.765625, "learning_rate": 9.859303432310479e-05, "loss": 0.3525, "step": 114000 }, { "epoch": 152.0, "eval_loss": 0.4184803068637848, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.6686, "eval_samples_per_second": 1.371, "eval_steps_per_second": 0.086, "step": 114000 }, { "epoch": 152.01333333333332, "grad_norm": 0.984375, "learning_rate": 9.85927875561282e-05, "loss": 0.3679, "step": 114010 }, { "epoch": 152.02666666666667, "grad_norm": 0.7734375, "learning_rate": 9.859254076782221e-05, "loss": 0.3844, "step": 114020 }, { "epoch": 152.04, "grad_norm": 0.73828125, "learning_rate": 9.859229395818694e-05, "loss": 0.3966, "step": 114030 }, { "epoch": 152.05333333333334, "grad_norm": 0.84375, "learning_rate": 9.859204712722247e-05, "loss": 0.3796, "step": 114040 }, { "epoch": 152.06666666666666, "grad_norm": 0.90234375, "learning_rate": 9.859180027492893e-05, "loss": 0.3689, "step": 114050 }, { "epoch": 152.08, "grad_norm": 0.79296875, "learning_rate": 9.859155340130643e-05, "loss": 0.3721, "step": 114060 }, { "epoch": 152.09333333333333, "grad_norm": 0.875, "learning_rate": 9.859130650635509e-05, "loss": 0.3742, "step": 114070 }, { "epoch": 152.10666666666665, "grad_norm": 0.765625, "learning_rate": 9.859105959007497e-05, "loss": 0.3633, "step": 114080 }, { "epoch": 152.12, "grad_norm": 0.84765625, "learning_rate": 9.859081265246624e-05, "loss": 0.3642, "step": 114090 }, { "epoch": 152.13333333333333, "grad_norm": 0.8359375, "learning_rate": 9.859056569352894e-05, "loss": 0.3567, "step": 114100 }, { "epoch": 152.14666666666668, "grad_norm": 0.796875, "learning_rate": 9.859031871326325e-05, "loss": 0.3764, "step": 114110 }, { "epoch": 152.16, "grad_norm": 0.796875, "learning_rate": 9.859007171166923e-05, "loss": 0.3717, "step": 114120 }, { "epoch": 152.17333333333335, "grad_norm": 0.89453125, "learning_rate": 9.858982468874701e-05, "loss": 0.3662, "step": 114130 }, { "epoch": 152.18666666666667, "grad_norm": 0.75, "learning_rate": 9.858957764449668e-05, "loss": 0.3629, "step": 114140 }, { "epoch": 152.2, "grad_norm": 0.765625, "learning_rate": 9.858933057891837e-05, "loss": 0.3551, "step": 114150 }, { "epoch": 152.21333333333334, "grad_norm": 0.88671875, "learning_rate": 9.858908349201217e-05, "loss": 0.3553, "step": 114160 }, { "epoch": 152.22666666666666, "grad_norm": 0.86328125, "learning_rate": 9.85888363837782e-05, "loss": 0.3673, "step": 114170 }, { "epoch": 152.24, "grad_norm": 0.79296875, "learning_rate": 9.858858925421657e-05, "loss": 0.3537, "step": 114180 }, { "epoch": 152.25333333333333, "grad_norm": 0.8125, "learning_rate": 9.858834210332737e-05, "loss": 0.354, "step": 114190 }, { "epoch": 152.26666666666668, "grad_norm": 0.78125, "learning_rate": 9.858809493111074e-05, "loss": 0.3571, "step": 114200 }, { "epoch": 152.28, "grad_norm": 0.7578125, "learning_rate": 9.858784773756676e-05, "loss": 0.385, "step": 114210 }, { "epoch": 152.29333333333332, "grad_norm": 0.796875, "learning_rate": 9.858760052269556e-05, "loss": 0.3445, "step": 114220 }, { "epoch": 152.30666666666667, "grad_norm": 0.77734375, "learning_rate": 9.858735328649722e-05, "loss": 0.3668, "step": 114230 }, { "epoch": 152.32, "grad_norm": 0.74609375, "learning_rate": 9.858710602897188e-05, "loss": 0.3716, "step": 114240 }, { "epoch": 152.33333333333334, "grad_norm": 0.87890625, "learning_rate": 9.858685875011963e-05, "loss": 0.3701, "step": 114250 }, { "epoch": 152.34666666666666, "grad_norm": 0.88671875, "learning_rate": 9.858661144994059e-05, "loss": 0.3613, "step": 114260 }, { "epoch": 152.36, "grad_norm": 0.83203125, "learning_rate": 9.858636412843485e-05, "loss": 0.3625, "step": 114270 }, { "epoch": 152.37333333333333, "grad_norm": 0.78125, "learning_rate": 9.858611678560255e-05, "loss": 0.3655, "step": 114280 }, { "epoch": 152.38666666666666, "grad_norm": 0.890625, "learning_rate": 9.858586942144377e-05, "loss": 0.3525, "step": 114290 }, { "epoch": 152.4, "grad_norm": 0.78515625, "learning_rate": 9.858562203595861e-05, "loss": 0.3627, "step": 114300 }, { "epoch": 152.41333333333333, "grad_norm": 0.7421875, "learning_rate": 9.858537462914721e-05, "loss": 0.3686, "step": 114310 }, { "epoch": 152.42666666666668, "grad_norm": 0.78125, "learning_rate": 9.858512720100967e-05, "loss": 0.3709, "step": 114320 }, { "epoch": 152.44, "grad_norm": 0.8125, "learning_rate": 9.858487975154608e-05, "loss": 0.3825, "step": 114330 }, { "epoch": 152.45333333333335, "grad_norm": 0.91015625, "learning_rate": 9.858463228075658e-05, "loss": 0.3702, "step": 114340 }, { "epoch": 152.46666666666667, "grad_norm": 0.80859375, "learning_rate": 9.858438478864125e-05, "loss": 0.3773, "step": 114350 }, { "epoch": 152.48, "grad_norm": 0.79296875, "learning_rate": 9.858413727520022e-05, "loss": 0.3607, "step": 114360 }, { "epoch": 152.49333333333334, "grad_norm": 0.77734375, "learning_rate": 9.858388974043358e-05, "loss": 0.372, "step": 114370 }, { "epoch": 152.50666666666666, "grad_norm": 0.77734375, "learning_rate": 9.858364218434144e-05, "loss": 0.3722, "step": 114380 }, { "epoch": 152.52, "grad_norm": 0.6796875, "learning_rate": 9.858339460692392e-05, "loss": 0.3636, "step": 114390 }, { "epoch": 152.53333333333333, "grad_norm": 0.796875, "learning_rate": 9.858314700818112e-05, "loss": 0.3637, "step": 114400 }, { "epoch": 152.54666666666665, "grad_norm": 0.90234375, "learning_rate": 9.858289938811316e-05, "loss": 0.3653, "step": 114410 }, { "epoch": 152.56, "grad_norm": 0.71484375, "learning_rate": 9.858265174672014e-05, "loss": 0.359, "step": 114420 }, { "epoch": 152.57333333333332, "grad_norm": 0.84765625, "learning_rate": 9.858240408400217e-05, "loss": 0.3639, "step": 114430 }, { "epoch": 152.58666666666667, "grad_norm": 0.74609375, "learning_rate": 9.858215639995936e-05, "loss": 0.3556, "step": 114440 }, { "epoch": 152.6, "grad_norm": 0.83984375, "learning_rate": 9.85819086945918e-05, "loss": 0.356, "step": 114450 }, { "epoch": 152.61333333333334, "grad_norm": 0.7265625, "learning_rate": 9.858166096789963e-05, "loss": 0.3487, "step": 114460 }, { "epoch": 152.62666666666667, "grad_norm": 0.69140625, "learning_rate": 9.858141321988295e-05, "loss": 0.353, "step": 114470 }, { "epoch": 152.64, "grad_norm": 0.93359375, "learning_rate": 9.858116545054185e-05, "loss": 0.3596, "step": 114480 }, { "epoch": 152.65333333333334, "grad_norm": 0.87109375, "learning_rate": 9.858091765987647e-05, "loss": 0.3707, "step": 114490 }, { "epoch": 152.66666666666666, "grad_norm": 0.734375, "learning_rate": 9.85806698478869e-05, "loss": 0.3626, "step": 114500 }, { "epoch": 152.68, "grad_norm": 0.87890625, "learning_rate": 9.858042201457325e-05, "loss": 0.3504, "step": 114510 }, { "epoch": 152.69333333333333, "grad_norm": 0.78515625, "learning_rate": 9.858017415993561e-05, "loss": 0.3615, "step": 114520 }, { "epoch": 152.70666666666668, "grad_norm": 0.96875, "learning_rate": 9.857992628397412e-05, "loss": 0.3509, "step": 114530 }, { "epoch": 152.72, "grad_norm": 0.88671875, "learning_rate": 9.857967838668888e-05, "loss": 0.3735, "step": 114540 }, { "epoch": 152.73333333333332, "grad_norm": 0.79296875, "learning_rate": 9.857943046808e-05, "loss": 0.3695, "step": 114550 }, { "epoch": 152.74666666666667, "grad_norm": 0.79296875, "learning_rate": 9.857918252814756e-05, "loss": 0.3721, "step": 114560 }, { "epoch": 152.76, "grad_norm": 0.890625, "learning_rate": 9.85789345668917e-05, "loss": 0.385, "step": 114570 }, { "epoch": 152.77333333333334, "grad_norm": 0.85546875, "learning_rate": 9.857868658431255e-05, "loss": 0.3694, "step": 114580 }, { "epoch": 152.78666666666666, "grad_norm": 0.76171875, "learning_rate": 9.857843858041017e-05, "loss": 0.3722, "step": 114590 }, { "epoch": 152.8, "grad_norm": 0.8671875, "learning_rate": 9.857819055518469e-05, "loss": 0.37, "step": 114600 }, { "epoch": 152.81333333333333, "grad_norm": 0.91796875, "learning_rate": 9.857794250863622e-05, "loss": 0.3443, "step": 114610 }, { "epoch": 152.82666666666665, "grad_norm": 0.81640625, "learning_rate": 9.857769444076485e-05, "loss": 0.3518, "step": 114620 }, { "epoch": 152.84, "grad_norm": 0.91796875, "learning_rate": 9.857744635157072e-05, "loss": 0.3643, "step": 114630 }, { "epoch": 152.85333333333332, "grad_norm": 0.86328125, "learning_rate": 9.857719824105393e-05, "loss": 0.3588, "step": 114640 }, { "epoch": 152.86666666666667, "grad_norm": 0.83203125, "learning_rate": 9.857695010921457e-05, "loss": 0.3656, "step": 114650 }, { "epoch": 152.88, "grad_norm": 0.7421875, "learning_rate": 9.857670195605277e-05, "loss": 0.3462, "step": 114660 }, { "epoch": 152.89333333333335, "grad_norm": 0.7578125, "learning_rate": 9.857645378156865e-05, "loss": 0.3592, "step": 114670 }, { "epoch": 152.90666666666667, "grad_norm": 0.8203125, "learning_rate": 9.857620558576228e-05, "loss": 0.3626, "step": 114680 }, { "epoch": 152.92, "grad_norm": 0.8203125, "learning_rate": 9.857595736863379e-05, "loss": 0.3644, "step": 114690 }, { "epoch": 152.93333333333334, "grad_norm": 0.73828125, "learning_rate": 9.85757091301833e-05, "loss": 0.3616, "step": 114700 }, { "epoch": 152.94666666666666, "grad_norm": 0.87109375, "learning_rate": 9.85754608704109e-05, "loss": 0.3605, "step": 114710 }, { "epoch": 152.96, "grad_norm": 0.7265625, "learning_rate": 9.85752125893167e-05, "loss": 0.3584, "step": 114720 }, { "epoch": 152.97333333333333, "grad_norm": 1.1171875, "learning_rate": 9.857496428690083e-05, "loss": 0.3809, "step": 114730 }, { "epoch": 152.98666666666668, "grad_norm": 0.75, "learning_rate": 9.857471596316337e-05, "loss": 0.3511, "step": 114740 }, { "epoch": 153.0, "grad_norm": 0.75, "learning_rate": 9.857446761810444e-05, "loss": 0.352, "step": 114750 }, { "epoch": 153.0, "eval_loss": 0.417272686958313, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.517, "eval_samples_per_second": 1.389, "eval_steps_per_second": 0.087, "step": 114750 }, { "epoch": 153.01333333333332, "grad_norm": 0.890625, "learning_rate": 9.857421925172417e-05, "loss": 0.3682, "step": 114760 }, { "epoch": 153.02666666666667, "grad_norm": 0.7265625, "learning_rate": 9.857397086402265e-05, "loss": 0.383, "step": 114770 }, { "epoch": 153.04, "grad_norm": 0.78515625, "learning_rate": 9.857372245499998e-05, "loss": 0.3965, "step": 114780 }, { "epoch": 153.05333333333334, "grad_norm": 0.8671875, "learning_rate": 9.857347402465627e-05, "loss": 0.3802, "step": 114790 }, { "epoch": 153.06666666666666, "grad_norm": 0.90234375, "learning_rate": 9.857322557299166e-05, "loss": 0.369, "step": 114800 }, { "epoch": 153.08, "grad_norm": 0.96484375, "learning_rate": 9.857297710000623e-05, "loss": 0.3721, "step": 114810 }, { "epoch": 153.09333333333333, "grad_norm": 0.84375, "learning_rate": 9.85727286057001e-05, "loss": 0.3744, "step": 114820 }, { "epoch": 153.10666666666665, "grad_norm": 0.7890625, "learning_rate": 9.857248009007336e-05, "loss": 0.3635, "step": 114830 }, { "epoch": 153.12, "grad_norm": 0.8984375, "learning_rate": 9.857223155312615e-05, "loss": 0.3641, "step": 114840 }, { "epoch": 153.13333333333333, "grad_norm": 0.76171875, "learning_rate": 9.857198299485856e-05, "loss": 0.3569, "step": 114850 }, { "epoch": 153.14666666666668, "grad_norm": 0.8359375, "learning_rate": 9.85717344152707e-05, "loss": 0.3765, "step": 114860 }, { "epoch": 153.16, "grad_norm": 0.75, "learning_rate": 9.857148581436269e-05, "loss": 0.3722, "step": 114870 }, { "epoch": 153.17333333333335, "grad_norm": 0.8046875, "learning_rate": 9.857123719213463e-05, "loss": 0.3662, "step": 114880 }, { "epoch": 153.18666666666667, "grad_norm": 0.78125, "learning_rate": 9.857098854858662e-05, "loss": 0.3635, "step": 114890 }, { "epoch": 153.2, "grad_norm": 0.87109375, "learning_rate": 9.857073988371879e-05, "loss": 0.3553, "step": 114900 }, { "epoch": 153.21333333333334, "grad_norm": 0.83203125, "learning_rate": 9.857049119753123e-05, "loss": 0.3548, "step": 114910 }, { "epoch": 153.22666666666666, "grad_norm": 0.8125, "learning_rate": 9.857024249002407e-05, "loss": 0.366, "step": 114920 }, { "epoch": 153.24, "grad_norm": 0.8203125, "learning_rate": 9.85699937611974e-05, "loss": 0.3532, "step": 114930 }, { "epoch": 153.25333333333333, "grad_norm": 0.8046875, "learning_rate": 9.856974501105133e-05, "loss": 0.3536, "step": 114940 }, { "epoch": 153.26666666666668, "grad_norm": 0.86328125, "learning_rate": 9.856949623958597e-05, "loss": 0.3576, "step": 114950 }, { "epoch": 153.28, "grad_norm": 0.84765625, "learning_rate": 9.856924744680145e-05, "loss": 0.3843, "step": 114960 }, { "epoch": 153.29333333333332, "grad_norm": 0.8828125, "learning_rate": 9.856899863269787e-05, "loss": 0.344, "step": 114970 }, { "epoch": 153.30666666666667, "grad_norm": 0.88671875, "learning_rate": 9.856874979727532e-05, "loss": 0.3678, "step": 114980 }, { "epoch": 153.32, "grad_norm": 0.6640625, "learning_rate": 9.856850094053391e-05, "loss": 0.3717, "step": 114990 }, { "epoch": 153.33333333333334, "grad_norm": 0.88671875, "learning_rate": 9.856825206247378e-05, "loss": 0.3697, "step": 115000 }, { "epoch": 153.34666666666666, "grad_norm": 0.90625, "learning_rate": 9.856800316309503e-05, "loss": 0.3618, "step": 115010 }, { "epoch": 153.36, "grad_norm": 0.859375, "learning_rate": 9.856775424239774e-05, "loss": 0.3628, "step": 115020 }, { "epoch": 153.37333333333333, "grad_norm": 0.71484375, "learning_rate": 9.856750530038204e-05, "loss": 0.3657, "step": 115030 }, { "epoch": 153.38666666666666, "grad_norm": 0.890625, "learning_rate": 9.856725633704804e-05, "loss": 0.3519, "step": 115040 }, { "epoch": 153.4, "grad_norm": 0.80859375, "learning_rate": 9.856700735239585e-05, "loss": 0.3632, "step": 115050 }, { "epoch": 153.41333333333333, "grad_norm": 0.78515625, "learning_rate": 9.856675834642559e-05, "loss": 0.3686, "step": 115060 }, { "epoch": 153.42666666666668, "grad_norm": 0.76171875, "learning_rate": 9.856650931913734e-05, "loss": 0.3714, "step": 115070 }, { "epoch": 153.44, "grad_norm": 0.83203125, "learning_rate": 9.856626027053125e-05, "loss": 0.3836, "step": 115080 }, { "epoch": 153.45333333333335, "grad_norm": 0.82421875, "learning_rate": 9.856601120060737e-05, "loss": 0.3698, "step": 115090 }, { "epoch": 153.46666666666667, "grad_norm": 0.76953125, "learning_rate": 9.856576210936585e-05, "loss": 0.3774, "step": 115100 }, { "epoch": 153.48, "grad_norm": 0.79296875, "learning_rate": 9.856551299680681e-05, "loss": 0.361, "step": 115110 }, { "epoch": 153.49333333333334, "grad_norm": 0.8125, "learning_rate": 9.856526386293034e-05, "loss": 0.3721, "step": 115120 }, { "epoch": 153.50666666666666, "grad_norm": 0.8515625, "learning_rate": 9.856501470773655e-05, "loss": 0.3722, "step": 115130 }, { "epoch": 153.52, "grad_norm": 0.6875, "learning_rate": 9.856476553122554e-05, "loss": 0.363, "step": 115140 }, { "epoch": 153.53333333333333, "grad_norm": 0.87109375, "learning_rate": 9.856451633339745e-05, "loss": 0.3639, "step": 115150 }, { "epoch": 153.54666666666665, "grad_norm": 0.94921875, "learning_rate": 9.856426711425235e-05, "loss": 0.3648, "step": 115160 }, { "epoch": 153.56, "grad_norm": 0.74609375, "learning_rate": 9.856401787379039e-05, "loss": 0.3598, "step": 115170 }, { "epoch": 153.57333333333332, "grad_norm": 0.83203125, "learning_rate": 9.856376861201164e-05, "loss": 0.3642, "step": 115180 }, { "epoch": 153.58666666666667, "grad_norm": 0.80078125, "learning_rate": 9.856351932891625e-05, "loss": 0.3549, "step": 115190 }, { "epoch": 153.6, "grad_norm": 0.77734375, "learning_rate": 9.85632700245043e-05, "loss": 0.3567, "step": 115200 }, { "epoch": 153.61333333333334, "grad_norm": 0.73828125, "learning_rate": 9.85630206987759e-05, "loss": 0.3495, "step": 115210 }, { "epoch": 153.62666666666667, "grad_norm": 0.68359375, "learning_rate": 9.856277135173118e-05, "loss": 0.3528, "step": 115220 }, { "epoch": 153.64, "grad_norm": 0.82421875, "learning_rate": 9.856252198337022e-05, "loss": 0.3597, "step": 115230 }, { "epoch": 153.65333333333334, "grad_norm": 0.8359375, "learning_rate": 9.856227259369315e-05, "loss": 0.3696, "step": 115240 }, { "epoch": 153.66666666666666, "grad_norm": 0.75390625, "learning_rate": 9.856202318270009e-05, "loss": 0.362, "step": 115250 }, { "epoch": 153.68, "grad_norm": 0.859375, "learning_rate": 9.856177375039112e-05, "loss": 0.3512, "step": 115260 }, { "epoch": 153.69333333333333, "grad_norm": 0.76171875, "learning_rate": 9.856152429676637e-05, "loss": 0.3612, "step": 115270 }, { "epoch": 153.70666666666668, "grad_norm": 0.9140625, "learning_rate": 9.856127482182593e-05, "loss": 0.3511, "step": 115280 }, { "epoch": 153.72, "grad_norm": 0.890625, "learning_rate": 9.856102532556995e-05, "loss": 0.3728, "step": 115290 }, { "epoch": 153.73333333333332, "grad_norm": 0.81640625, "learning_rate": 9.85607758079985e-05, "loss": 0.3689, "step": 115300 }, { "epoch": 153.74666666666667, "grad_norm": 0.78515625, "learning_rate": 9.85605262691117e-05, "loss": 0.3718, "step": 115310 }, { "epoch": 153.76, "grad_norm": 0.82421875, "learning_rate": 9.856027670890966e-05, "loss": 0.3848, "step": 115320 }, { "epoch": 153.77333333333334, "grad_norm": 1.0078125, "learning_rate": 9.856002712739249e-05, "loss": 0.3687, "step": 115330 }, { "epoch": 153.78666666666666, "grad_norm": 0.765625, "learning_rate": 9.85597775245603e-05, "loss": 0.372, "step": 115340 }, { "epoch": 153.8, "grad_norm": 0.875, "learning_rate": 9.85595279004132e-05, "loss": 0.3694, "step": 115350 }, { "epoch": 153.81333333333333, "grad_norm": 0.96484375, "learning_rate": 9.855927825495131e-05, "loss": 0.3439, "step": 115360 }, { "epoch": 153.82666666666665, "grad_norm": 0.73046875, "learning_rate": 9.855902858817472e-05, "loss": 0.3508, "step": 115370 }, { "epoch": 153.84, "grad_norm": 0.875, "learning_rate": 9.855877890008356e-05, "loss": 0.3627, "step": 115380 }, { "epoch": 153.85333333333332, "grad_norm": 0.84375, "learning_rate": 9.855852919067792e-05, "loss": 0.3588, "step": 115390 }, { "epoch": 153.86666666666667, "grad_norm": 0.8125, "learning_rate": 9.855827945995793e-05, "loss": 0.3651, "step": 115400 }, { "epoch": 153.88, "grad_norm": 0.78125, "learning_rate": 9.855802970792368e-05, "loss": 0.3457, "step": 115410 }, { "epoch": 153.89333333333335, "grad_norm": 0.76171875, "learning_rate": 9.855777993457528e-05, "loss": 0.3579, "step": 115420 }, { "epoch": 153.90666666666667, "grad_norm": 0.8984375, "learning_rate": 9.855753013991284e-05, "loss": 0.3628, "step": 115430 }, { "epoch": 153.92, "grad_norm": 0.82421875, "learning_rate": 9.855728032393649e-05, "loss": 0.364, "step": 115440 }, { "epoch": 153.93333333333334, "grad_norm": 0.74609375, "learning_rate": 9.855703048664634e-05, "loss": 0.3606, "step": 115450 }, { "epoch": 153.94666666666666, "grad_norm": 0.8359375, "learning_rate": 9.855678062804248e-05, "loss": 0.3601, "step": 115460 }, { "epoch": 153.96, "grad_norm": 0.73828125, "learning_rate": 9.855653074812501e-05, "loss": 0.3588, "step": 115470 }, { "epoch": 153.97333333333333, "grad_norm": 1.1328125, "learning_rate": 9.855628084689406e-05, "loss": 0.3816, "step": 115480 }, { "epoch": 153.98666666666668, "grad_norm": 0.8671875, "learning_rate": 9.855603092434975e-05, "loss": 0.3517, "step": 115490 }, { "epoch": 154.0, "grad_norm": 0.92578125, "learning_rate": 9.855578098049216e-05, "loss": 0.3528, "step": 115500 }, { "epoch": 154.0, "eval_loss": 0.4173135757446289, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.5637, "eval_samples_per_second": 1.384, "eval_steps_per_second": 0.086, "step": 115500 }, { "epoch": 154.01333333333332, "grad_norm": 0.9765625, "learning_rate": 9.855553101532142e-05, "loss": 0.3686, "step": 115510 }, { "epoch": 154.02666666666667, "grad_norm": 0.73046875, "learning_rate": 9.855528102883765e-05, "loss": 0.3834, "step": 115520 }, { "epoch": 154.04, "grad_norm": 0.78515625, "learning_rate": 9.855503102104091e-05, "loss": 0.3973, "step": 115530 }, { "epoch": 154.05333333333334, "grad_norm": 0.87109375, "learning_rate": 9.855478099193137e-05, "loss": 0.38, "step": 115540 }, { "epoch": 154.06666666666666, "grad_norm": 0.89453125, "learning_rate": 9.85545309415091e-05, "loss": 0.3686, "step": 115550 }, { "epoch": 154.08, "grad_norm": 0.80078125, "learning_rate": 9.855428086977423e-05, "loss": 0.3722, "step": 115560 }, { "epoch": 154.09333333333333, "grad_norm": 0.90625, "learning_rate": 9.855403077672688e-05, "loss": 0.3746, "step": 115570 }, { "epoch": 154.10666666666665, "grad_norm": 0.71875, "learning_rate": 9.855378066236711e-05, "loss": 0.3638, "step": 115580 }, { "epoch": 154.12, "grad_norm": 0.81640625, "learning_rate": 9.855353052669509e-05, "loss": 0.3643, "step": 115590 }, { "epoch": 154.13333333333333, "grad_norm": 0.85546875, "learning_rate": 9.855328036971089e-05, "loss": 0.3569, "step": 115600 }, { "epoch": 154.14666666666668, "grad_norm": 0.7890625, "learning_rate": 9.855303019141462e-05, "loss": 0.3758, "step": 115610 }, { "epoch": 154.16, "grad_norm": 0.7109375, "learning_rate": 9.855277999180643e-05, "loss": 0.3721, "step": 115620 }, { "epoch": 154.17333333333335, "grad_norm": 0.83984375, "learning_rate": 9.855252977088638e-05, "loss": 0.3665, "step": 115630 }, { "epoch": 154.18666666666667, "grad_norm": 0.82421875, "learning_rate": 9.85522795286546e-05, "loss": 0.3626, "step": 115640 }, { "epoch": 154.2, "grad_norm": 0.8046875, "learning_rate": 9.855202926511122e-05, "loss": 0.3546, "step": 115650 }, { "epoch": 154.21333333333334, "grad_norm": 0.859375, "learning_rate": 9.855177898025633e-05, "loss": 0.3557, "step": 115660 }, { "epoch": 154.22666666666666, "grad_norm": 0.84375, "learning_rate": 9.855152867409003e-05, "loss": 0.367, "step": 115670 }, { "epoch": 154.24, "grad_norm": 0.87109375, "learning_rate": 9.855127834661244e-05, "loss": 0.3528, "step": 115680 }, { "epoch": 154.25333333333333, "grad_norm": 0.80859375, "learning_rate": 9.855102799782368e-05, "loss": 0.3531, "step": 115690 }, { "epoch": 154.26666666666668, "grad_norm": 0.84765625, "learning_rate": 9.855077762772385e-05, "loss": 0.3578, "step": 115700 }, { "epoch": 154.28, "grad_norm": 0.90625, "learning_rate": 9.855052723631306e-05, "loss": 0.385, "step": 115710 }, { "epoch": 154.29333333333332, "grad_norm": 0.8125, "learning_rate": 9.855027682359142e-05, "loss": 0.3438, "step": 115720 }, { "epoch": 154.30666666666667, "grad_norm": 0.90625, "learning_rate": 9.855002638955903e-05, "loss": 0.368, "step": 115730 }, { "epoch": 154.32, "grad_norm": 0.67578125, "learning_rate": 9.854977593421603e-05, "loss": 0.3725, "step": 115740 }, { "epoch": 154.33333333333334, "grad_norm": 0.90625, "learning_rate": 9.854952545756249e-05, "loss": 0.3705, "step": 115750 }, { "epoch": 154.34666666666666, "grad_norm": 0.90625, "learning_rate": 9.854927495959855e-05, "loss": 0.3608, "step": 115760 }, { "epoch": 154.36, "grad_norm": 0.82421875, "learning_rate": 9.854902444032432e-05, "loss": 0.3626, "step": 115770 }, { "epoch": 154.37333333333333, "grad_norm": 0.76953125, "learning_rate": 9.854877389973988e-05, "loss": 0.3657, "step": 115780 }, { "epoch": 154.38666666666666, "grad_norm": 0.8828125, "learning_rate": 9.854852333784538e-05, "loss": 0.3526, "step": 115790 }, { "epoch": 154.4, "grad_norm": 0.84765625, "learning_rate": 9.854827275464091e-05, "loss": 0.3623, "step": 115800 }, { "epoch": 154.41333333333333, "grad_norm": 0.7890625, "learning_rate": 9.854802215012657e-05, "loss": 0.3695, "step": 115810 }, { "epoch": 154.42666666666668, "grad_norm": 0.8046875, "learning_rate": 9.854777152430248e-05, "loss": 0.371, "step": 115820 }, { "epoch": 154.44, "grad_norm": 0.84765625, "learning_rate": 9.854752087716877e-05, "loss": 0.3832, "step": 115830 }, { "epoch": 154.45333333333335, "grad_norm": 0.8359375, "learning_rate": 9.854727020872552e-05, "loss": 0.37, "step": 115840 }, { "epoch": 154.46666666666667, "grad_norm": 0.80859375, "learning_rate": 9.854701951897284e-05, "loss": 0.3764, "step": 115850 }, { "epoch": 154.48, "grad_norm": 0.84765625, "learning_rate": 9.854676880791085e-05, "loss": 0.3607, "step": 115860 }, { "epoch": 154.49333333333334, "grad_norm": 0.765625, "learning_rate": 9.854651807553968e-05, "loss": 0.3717, "step": 115870 }, { "epoch": 154.50666666666666, "grad_norm": 0.8515625, "learning_rate": 9.854626732185939e-05, "loss": 0.3717, "step": 115880 }, { "epoch": 154.52, "grad_norm": 0.72265625, "learning_rate": 9.854601654687014e-05, "loss": 0.3621, "step": 115890 }, { "epoch": 154.53333333333333, "grad_norm": 0.875, "learning_rate": 9.854576575057201e-05, "loss": 0.3629, "step": 115900 }, { "epoch": 154.54666666666665, "grad_norm": 0.95703125, "learning_rate": 9.854551493296515e-05, "loss": 0.3643, "step": 115910 }, { "epoch": 154.56, "grad_norm": 0.76953125, "learning_rate": 9.854526409404961e-05, "loss": 0.3589, "step": 115920 }, { "epoch": 154.57333333333332, "grad_norm": 0.93359375, "learning_rate": 9.854501323382555e-05, "loss": 0.3638, "step": 115930 }, { "epoch": 154.58666666666667, "grad_norm": 0.75390625, "learning_rate": 9.854476235229304e-05, "loss": 0.3547, "step": 115940 }, { "epoch": 154.6, "grad_norm": 0.73828125, "learning_rate": 9.854451144945223e-05, "loss": 0.3565, "step": 115950 }, { "epoch": 154.61333333333334, "grad_norm": 0.72265625, "learning_rate": 9.85442605253032e-05, "loss": 0.3481, "step": 115960 }, { "epoch": 154.62666666666667, "grad_norm": 0.69921875, "learning_rate": 9.854400957984608e-05, "loss": 0.3533, "step": 115970 }, { "epoch": 154.64, "grad_norm": 0.859375, "learning_rate": 9.854375861308097e-05, "loss": 0.3593, "step": 115980 }, { "epoch": 154.65333333333334, "grad_norm": 0.84765625, "learning_rate": 9.854350762500798e-05, "loss": 0.3709, "step": 115990 }, { "epoch": 154.66666666666666, "grad_norm": 0.7578125, "learning_rate": 9.854325661562722e-05, "loss": 0.3626, "step": 116000 }, { "epoch": 154.68, "grad_norm": 0.875, "learning_rate": 9.854300558493881e-05, "loss": 0.3508, "step": 116010 }, { "epoch": 154.69333333333333, "grad_norm": 0.7265625, "learning_rate": 9.854275453294283e-05, "loss": 0.3624, "step": 116020 }, { "epoch": 154.70666666666668, "grad_norm": 0.96875, "learning_rate": 9.854250345963945e-05, "loss": 0.3513, "step": 116030 }, { "epoch": 154.72, "grad_norm": 0.890625, "learning_rate": 9.854225236502872e-05, "loss": 0.3731, "step": 116040 }, { "epoch": 154.73333333333332, "grad_norm": 0.75390625, "learning_rate": 9.854200124911077e-05, "loss": 0.3692, "step": 116050 }, { "epoch": 154.74666666666667, "grad_norm": 0.76171875, "learning_rate": 9.854175011188572e-05, "loss": 0.3718, "step": 116060 }, { "epoch": 154.76, "grad_norm": 0.8984375, "learning_rate": 9.854149895335367e-05, "loss": 0.3855, "step": 116070 }, { "epoch": 154.77333333333334, "grad_norm": 0.953125, "learning_rate": 9.854124777351475e-05, "loss": 0.369, "step": 116080 }, { "epoch": 154.78666666666666, "grad_norm": 0.8125, "learning_rate": 9.854099657236902e-05, "loss": 0.3719, "step": 116090 }, { "epoch": 154.8, "grad_norm": 0.8046875, "learning_rate": 9.854074534991665e-05, "loss": 0.3693, "step": 116100 }, { "epoch": 154.81333333333333, "grad_norm": 0.953125, "learning_rate": 9.854049410615772e-05, "loss": 0.3432, "step": 116110 }, { "epoch": 154.82666666666665, "grad_norm": 0.765625, "learning_rate": 9.854024284109233e-05, "loss": 0.3507, "step": 116120 }, { "epoch": 154.84, "grad_norm": 0.828125, "learning_rate": 9.853999155472063e-05, "loss": 0.3639, "step": 116130 }, { "epoch": 154.85333333333332, "grad_norm": 0.86328125, "learning_rate": 9.853974024704269e-05, "loss": 0.3591, "step": 116140 }, { "epoch": 154.86666666666667, "grad_norm": 0.84375, "learning_rate": 9.853948891805864e-05, "loss": 0.3655, "step": 116150 }, { "epoch": 154.88, "grad_norm": 0.83984375, "learning_rate": 9.85392375677686e-05, "loss": 0.347, "step": 116160 }, { "epoch": 154.89333333333335, "grad_norm": 0.76171875, "learning_rate": 9.853898619617263e-05, "loss": 0.3587, "step": 116170 }, { "epoch": 154.90666666666667, "grad_norm": 0.796875, "learning_rate": 9.853873480327092e-05, "loss": 0.3622, "step": 116180 }, { "epoch": 154.92, "grad_norm": 0.81640625, "learning_rate": 9.85384833890635e-05, "loss": 0.3634, "step": 116190 }, { "epoch": 154.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.853823195355055e-05, "loss": 0.3604, "step": 116200 }, { "epoch": 154.94666666666666, "grad_norm": 0.78515625, "learning_rate": 9.853798049673211e-05, "loss": 0.3603, "step": 116210 }, { "epoch": 154.96, "grad_norm": 0.71875, "learning_rate": 9.853772901860836e-05, "loss": 0.3576, "step": 116220 }, { "epoch": 154.97333333333333, "grad_norm": 1.2265625, "learning_rate": 9.853747751917937e-05, "loss": 0.3813, "step": 116230 }, { "epoch": 154.98666666666668, "grad_norm": 0.83203125, "learning_rate": 9.853722599844524e-05, "loss": 0.3513, "step": 116240 }, { "epoch": 155.0, "grad_norm": 0.77734375, "learning_rate": 9.853697445640613e-05, "loss": 0.353, "step": 116250 }, { "epoch": 155.0, "eval_loss": 0.4172009229660034, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.8452, "eval_samples_per_second": 1.351, "eval_steps_per_second": 0.084, "step": 116250 }, { "epoch": 155.01333333333332, "grad_norm": 0.953125, "learning_rate": 9.85367228930621e-05, "loss": 0.3681, "step": 116260 }, { "epoch": 155.02666666666667, "grad_norm": 0.77734375, "learning_rate": 9.853647130841328e-05, "loss": 0.3836, "step": 116270 }, { "epoch": 155.04, "grad_norm": 0.8203125, "learning_rate": 9.853621970245979e-05, "loss": 0.3963, "step": 116280 }, { "epoch": 155.05333333333334, "grad_norm": 0.875, "learning_rate": 9.853596807520173e-05, "loss": 0.3807, "step": 116290 }, { "epoch": 155.06666666666666, "grad_norm": 1.015625, "learning_rate": 9.85357164266392e-05, "loss": 0.3692, "step": 116300 }, { "epoch": 155.08, "grad_norm": 0.76953125, "learning_rate": 9.853546475677234e-05, "loss": 0.3723, "step": 116310 }, { "epoch": 155.09333333333333, "grad_norm": 0.82421875, "learning_rate": 9.853521306560123e-05, "loss": 0.3735, "step": 116320 }, { "epoch": 155.10666666666665, "grad_norm": 0.7421875, "learning_rate": 9.853496135312599e-05, "loss": 0.3636, "step": 116330 }, { "epoch": 155.12, "grad_norm": 0.9296875, "learning_rate": 9.853470961934674e-05, "loss": 0.3641, "step": 116340 }, { "epoch": 155.13333333333333, "grad_norm": 0.83984375, "learning_rate": 9.853445786426357e-05, "loss": 0.3564, "step": 116350 }, { "epoch": 155.14666666666668, "grad_norm": 0.83203125, "learning_rate": 9.853420608787662e-05, "loss": 0.3762, "step": 116360 }, { "epoch": 155.16, "grad_norm": 0.69921875, "learning_rate": 9.853395429018598e-05, "loss": 0.3712, "step": 116370 }, { "epoch": 155.17333333333335, "grad_norm": 0.8984375, "learning_rate": 9.853370247119177e-05, "loss": 0.3661, "step": 116380 }, { "epoch": 155.18666666666667, "grad_norm": 0.8046875, "learning_rate": 9.853345063089409e-05, "loss": 0.3626, "step": 116390 }, { "epoch": 155.2, "grad_norm": 0.8984375, "learning_rate": 9.853319876929306e-05, "loss": 0.3549, "step": 116400 }, { "epoch": 155.21333333333334, "grad_norm": 0.8671875, "learning_rate": 9.85329468863888e-05, "loss": 0.3561, "step": 116410 }, { "epoch": 155.22666666666666, "grad_norm": 0.82421875, "learning_rate": 9.853269498218138e-05, "loss": 0.3669, "step": 116420 }, { "epoch": 155.24, "grad_norm": 0.91015625, "learning_rate": 9.853244305667095e-05, "loss": 0.3531, "step": 116430 }, { "epoch": 155.25333333333333, "grad_norm": 0.84375, "learning_rate": 9.85321911098576e-05, "loss": 0.354, "step": 116440 }, { "epoch": 155.26666666666668, "grad_norm": 0.8046875, "learning_rate": 9.853193914174147e-05, "loss": 0.3575, "step": 116450 }, { "epoch": 155.28, "grad_norm": 0.828125, "learning_rate": 9.853168715232264e-05, "loss": 0.3856, "step": 116460 }, { "epoch": 155.29333333333332, "grad_norm": 0.79296875, "learning_rate": 9.853143514160124e-05, "loss": 0.3441, "step": 116470 }, { "epoch": 155.30666666666667, "grad_norm": 0.73046875, "learning_rate": 9.853118310957736e-05, "loss": 0.3664, "step": 116480 }, { "epoch": 155.32, "grad_norm": 0.7421875, "learning_rate": 9.85309310562511e-05, "loss": 0.3724, "step": 116490 }, { "epoch": 155.33333333333334, "grad_norm": 0.953125, "learning_rate": 9.853067898162263e-05, "loss": 0.3696, "step": 116500 }, { "epoch": 155.34666666666666, "grad_norm": 0.9140625, "learning_rate": 9.8530426885692e-05, "loss": 0.3614, "step": 116510 }, { "epoch": 155.36, "grad_norm": 0.86328125, "learning_rate": 9.853017476845936e-05, "loss": 0.3626, "step": 116520 }, { "epoch": 155.37333333333333, "grad_norm": 0.75390625, "learning_rate": 9.85299226299248e-05, "loss": 0.3646, "step": 116530 }, { "epoch": 155.38666666666666, "grad_norm": 0.95703125, "learning_rate": 9.852967047008843e-05, "loss": 0.3526, "step": 116540 }, { "epoch": 155.4, "grad_norm": 0.78125, "learning_rate": 9.852941828895037e-05, "loss": 0.3627, "step": 116550 }, { "epoch": 155.41333333333333, "grad_norm": 0.79296875, "learning_rate": 9.852916608651072e-05, "loss": 0.3685, "step": 116560 }, { "epoch": 155.42666666666668, "grad_norm": 0.8125, "learning_rate": 9.852891386276959e-05, "loss": 0.3707, "step": 116570 }, { "epoch": 155.44, "grad_norm": 0.8828125, "learning_rate": 9.852866161772712e-05, "loss": 0.3826, "step": 116580 }, { "epoch": 155.45333333333335, "grad_norm": 0.828125, "learning_rate": 9.852840935138339e-05, "loss": 0.3697, "step": 116590 }, { "epoch": 155.46666666666667, "grad_norm": 0.8046875, "learning_rate": 9.85281570637385e-05, "loss": 0.3767, "step": 116600 }, { "epoch": 155.48, "grad_norm": 0.8125, "learning_rate": 9.852790475479261e-05, "loss": 0.3603, "step": 116610 }, { "epoch": 155.49333333333334, "grad_norm": 0.859375, "learning_rate": 9.852765242454579e-05, "loss": 0.3723, "step": 116620 }, { "epoch": 155.50666666666666, "grad_norm": 0.87109375, "learning_rate": 9.852740007299814e-05, "loss": 0.3699, "step": 116630 }, { "epoch": 155.52, "grad_norm": 0.7265625, "learning_rate": 9.852714770014981e-05, "loss": 0.3636, "step": 116640 }, { "epoch": 155.53333333333333, "grad_norm": 0.83203125, "learning_rate": 9.85268953060009e-05, "loss": 0.3638, "step": 116650 }, { "epoch": 155.54666666666665, "grad_norm": 0.91015625, "learning_rate": 9.852664289055152e-05, "loss": 0.3641, "step": 116660 }, { "epoch": 155.56, "grad_norm": 0.7578125, "learning_rate": 9.852639045380175e-05, "loss": 0.3587, "step": 116670 }, { "epoch": 155.57333333333332, "grad_norm": 0.87109375, "learning_rate": 9.852613799575175e-05, "loss": 0.3641, "step": 116680 }, { "epoch": 155.58666666666667, "grad_norm": 0.8203125, "learning_rate": 9.852588551640159e-05, "loss": 0.355, "step": 116690 }, { "epoch": 155.6, "grad_norm": 0.78125, "learning_rate": 9.85256330157514e-05, "loss": 0.3569, "step": 116700 }, { "epoch": 155.61333333333334, "grad_norm": 0.81640625, "learning_rate": 9.852538049380128e-05, "loss": 0.3486, "step": 116710 }, { "epoch": 155.62666666666667, "grad_norm": 0.71484375, "learning_rate": 9.852512795055137e-05, "loss": 0.3524, "step": 116720 }, { "epoch": 155.64, "grad_norm": 0.875, "learning_rate": 9.852487538600174e-05, "loss": 0.3593, "step": 116730 }, { "epoch": 155.65333333333334, "grad_norm": 0.73046875, "learning_rate": 9.852462280015254e-05, "loss": 0.3705, "step": 116740 }, { "epoch": 155.66666666666666, "grad_norm": 0.74609375, "learning_rate": 9.852437019300385e-05, "loss": 0.3618, "step": 116750 }, { "epoch": 155.68, "grad_norm": 0.828125, "learning_rate": 9.852411756455577e-05, "loss": 0.35, "step": 116760 }, { "epoch": 155.69333333333333, "grad_norm": 0.73828125, "learning_rate": 9.852386491480847e-05, "loss": 0.3613, "step": 116770 }, { "epoch": 155.70666666666668, "grad_norm": 0.9453125, "learning_rate": 9.852361224376201e-05, "loss": 0.351, "step": 116780 }, { "epoch": 155.72, "grad_norm": 0.87109375, "learning_rate": 9.85233595514165e-05, "loss": 0.3727, "step": 116790 }, { "epoch": 155.73333333333332, "grad_norm": 0.81640625, "learning_rate": 9.852310683777209e-05, "loss": 0.3688, "step": 116800 }, { "epoch": 155.74666666666667, "grad_norm": 0.89453125, "learning_rate": 9.852285410282886e-05, "loss": 0.3704, "step": 116810 }, { "epoch": 155.76, "grad_norm": 0.84375, "learning_rate": 9.852260134658692e-05, "loss": 0.3851, "step": 116820 }, { "epoch": 155.77333333333334, "grad_norm": 0.98046875, "learning_rate": 9.852234856904639e-05, "loss": 0.3683, "step": 116830 }, { "epoch": 155.78666666666666, "grad_norm": 0.80078125, "learning_rate": 9.852209577020737e-05, "loss": 0.3711, "step": 116840 }, { "epoch": 155.8, "grad_norm": 0.86328125, "learning_rate": 9.852184295007e-05, "loss": 0.3694, "step": 116850 }, { "epoch": 155.81333333333333, "grad_norm": 0.9921875, "learning_rate": 9.852159010863438e-05, "loss": 0.344, "step": 116860 }, { "epoch": 155.82666666666665, "grad_norm": 0.75390625, "learning_rate": 9.852133724590059e-05, "loss": 0.3503, "step": 116870 }, { "epoch": 155.84, "grad_norm": 0.8671875, "learning_rate": 9.852108436186877e-05, "loss": 0.3635, "step": 116880 }, { "epoch": 155.85333333333332, "grad_norm": 0.80078125, "learning_rate": 9.852083145653902e-05, "loss": 0.3591, "step": 116890 }, { "epoch": 155.86666666666667, "grad_norm": 0.90625, "learning_rate": 9.852057852991146e-05, "loss": 0.3644, "step": 116900 }, { "epoch": 155.88, "grad_norm": 0.7890625, "learning_rate": 9.85203255819862e-05, "loss": 0.3456, "step": 116910 }, { "epoch": 155.89333333333335, "grad_norm": 0.78125, "learning_rate": 9.852007261276335e-05, "loss": 0.3584, "step": 116920 }, { "epoch": 155.90666666666667, "grad_norm": 0.89453125, "learning_rate": 9.8519819622243e-05, "loss": 0.3632, "step": 116930 }, { "epoch": 155.92, "grad_norm": 0.87890625, "learning_rate": 9.85195666104253e-05, "loss": 0.3634, "step": 116940 }, { "epoch": 155.93333333333334, "grad_norm": 0.734375, "learning_rate": 9.851931357731033e-05, "loss": 0.3604, "step": 116950 }, { "epoch": 155.94666666666666, "grad_norm": 0.859375, "learning_rate": 9.851906052289821e-05, "loss": 0.3598, "step": 116960 }, { "epoch": 155.96, "grad_norm": 0.76171875, "learning_rate": 9.851880744718906e-05, "loss": 0.3592, "step": 116970 }, { "epoch": 155.97333333333333, "grad_norm": 0.9921875, "learning_rate": 9.851855435018298e-05, "loss": 0.3811, "step": 116980 }, { "epoch": 155.98666666666668, "grad_norm": 0.859375, "learning_rate": 9.851830123188009e-05, "loss": 0.3508, "step": 116990 }, { "epoch": 156.0, "grad_norm": 0.84765625, "learning_rate": 9.851804809228049e-05, "loss": 0.3527, "step": 117000 }, { "epoch": 156.0, "eval_loss": 0.41858842968940735, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.525, "eval_samples_per_second": 1.388, "eval_steps_per_second": 0.087, "step": 117000 }, { "epoch": 156.01333333333332, "grad_norm": 0.91796875, "learning_rate": 9.851779493138431e-05, "loss": 0.368, "step": 117010 }, { "epoch": 156.02666666666667, "grad_norm": 0.71484375, "learning_rate": 9.851754174919163e-05, "loss": 0.3824, "step": 117020 }, { "epoch": 156.04, "grad_norm": 0.796875, "learning_rate": 9.85172885457026e-05, "loss": 0.3955, "step": 117030 }, { "epoch": 156.05333333333334, "grad_norm": 0.87109375, "learning_rate": 9.85170353209173e-05, "loss": 0.3794, "step": 117040 }, { "epoch": 156.06666666666666, "grad_norm": 0.91796875, "learning_rate": 9.851678207483584e-05, "loss": 0.368, "step": 117050 }, { "epoch": 156.08, "grad_norm": 0.796875, "learning_rate": 9.851652880745837e-05, "loss": 0.3712, "step": 117060 }, { "epoch": 156.09333333333333, "grad_norm": 0.9296875, "learning_rate": 9.851627551878495e-05, "loss": 0.3744, "step": 117070 }, { "epoch": 156.10666666666665, "grad_norm": 0.80859375, "learning_rate": 9.851602220881572e-05, "loss": 0.3636, "step": 117080 }, { "epoch": 156.12, "grad_norm": 0.8828125, "learning_rate": 9.851576887755078e-05, "loss": 0.3644, "step": 117090 }, { "epoch": 156.13333333333333, "grad_norm": 0.875, "learning_rate": 9.851551552499027e-05, "loss": 0.3567, "step": 117100 }, { "epoch": 156.14666666666668, "grad_norm": 0.890625, "learning_rate": 9.851526215113427e-05, "loss": 0.3758, "step": 117110 }, { "epoch": 156.16, "grad_norm": 0.77734375, "learning_rate": 9.851500875598289e-05, "loss": 0.3715, "step": 117120 }, { "epoch": 156.17333333333335, "grad_norm": 0.875, "learning_rate": 9.851475533953625e-05, "loss": 0.3659, "step": 117130 }, { "epoch": 156.18666666666667, "grad_norm": 0.80859375, "learning_rate": 9.851450190179447e-05, "loss": 0.3631, "step": 117140 }, { "epoch": 156.2, "grad_norm": 0.7734375, "learning_rate": 9.851424844275766e-05, "loss": 0.3542, "step": 117150 }, { "epoch": 156.21333333333334, "grad_norm": 0.88671875, "learning_rate": 9.851399496242592e-05, "loss": 0.355, "step": 117160 }, { "epoch": 156.22666666666666, "grad_norm": 1.0, "learning_rate": 9.851374146079937e-05, "loss": 0.3664, "step": 117170 }, { "epoch": 156.24, "grad_norm": 0.93359375, "learning_rate": 9.851348793787811e-05, "loss": 0.3528, "step": 117180 }, { "epoch": 156.25333333333333, "grad_norm": 0.83203125, "learning_rate": 9.851323439366227e-05, "loss": 0.3537, "step": 117190 }, { "epoch": 156.26666666666668, "grad_norm": 0.7734375, "learning_rate": 9.851298082815194e-05, "loss": 0.3571, "step": 117200 }, { "epoch": 156.28, "grad_norm": 0.875, "learning_rate": 9.851272724134724e-05, "loss": 0.385, "step": 117210 }, { "epoch": 156.29333333333332, "grad_norm": 0.8671875, "learning_rate": 9.85124736332483e-05, "loss": 0.3441, "step": 117220 }, { "epoch": 156.30666666666667, "grad_norm": 0.828125, "learning_rate": 9.851222000385519e-05, "loss": 0.3678, "step": 117230 }, { "epoch": 156.32, "grad_norm": 0.76953125, "learning_rate": 9.851196635316805e-05, "loss": 0.3717, "step": 117240 }, { "epoch": 156.33333333333334, "grad_norm": 0.84765625, "learning_rate": 9.851171268118699e-05, "loss": 0.3697, "step": 117250 }, { "epoch": 156.34666666666666, "grad_norm": 0.83984375, "learning_rate": 9.851145898791212e-05, "loss": 0.3609, "step": 117260 }, { "epoch": 156.36, "grad_norm": 0.79296875, "learning_rate": 9.851120527334356e-05, "loss": 0.3621, "step": 117270 }, { "epoch": 156.37333333333333, "grad_norm": 0.76953125, "learning_rate": 9.85109515374814e-05, "loss": 0.3647, "step": 117280 }, { "epoch": 156.38666666666666, "grad_norm": 0.9296875, "learning_rate": 9.851069778032575e-05, "loss": 0.3524, "step": 117290 }, { "epoch": 156.4, "grad_norm": 0.85546875, "learning_rate": 9.851044400187677e-05, "loss": 0.3627, "step": 117300 }, { "epoch": 156.41333333333333, "grad_norm": 0.7734375, "learning_rate": 9.85101902021345e-05, "loss": 0.3691, "step": 117310 }, { "epoch": 156.42666666666668, "grad_norm": 0.73828125, "learning_rate": 9.850993638109911e-05, "loss": 0.3708, "step": 117320 }, { "epoch": 156.44, "grad_norm": 0.80859375, "learning_rate": 9.850968253877066e-05, "loss": 0.3822, "step": 117330 }, { "epoch": 156.45333333333335, "grad_norm": 0.7890625, "learning_rate": 9.850942867514932e-05, "loss": 0.3697, "step": 117340 }, { "epoch": 156.46666666666667, "grad_norm": 0.81640625, "learning_rate": 9.850917479023516e-05, "loss": 0.3757, "step": 117350 }, { "epoch": 156.48, "grad_norm": 0.8515625, "learning_rate": 9.850892088402829e-05, "loss": 0.3606, "step": 117360 }, { "epoch": 156.49333333333334, "grad_norm": 0.7578125, "learning_rate": 9.850866695652885e-05, "loss": 0.3711, "step": 117370 }, { "epoch": 156.50666666666666, "grad_norm": 0.80859375, "learning_rate": 9.850841300773692e-05, "loss": 0.3716, "step": 117380 }, { "epoch": 156.52, "grad_norm": 0.75, "learning_rate": 9.850815903765263e-05, "loss": 0.3633, "step": 117390 }, { "epoch": 156.53333333333333, "grad_norm": 0.89453125, "learning_rate": 9.850790504627609e-05, "loss": 0.3637, "step": 117400 }, { "epoch": 156.54666666666665, "grad_norm": 0.91015625, "learning_rate": 9.850765103360742e-05, "loss": 0.364, "step": 117410 }, { "epoch": 156.56, "grad_norm": 0.75390625, "learning_rate": 9.850739699964671e-05, "loss": 0.3583, "step": 117420 }, { "epoch": 156.57333333333332, "grad_norm": 0.91796875, "learning_rate": 9.850714294439408e-05, "loss": 0.3645, "step": 117430 }, { "epoch": 156.58666666666667, "grad_norm": 0.83203125, "learning_rate": 9.850688886784964e-05, "loss": 0.3541, "step": 117440 }, { "epoch": 156.6, "grad_norm": 0.83203125, "learning_rate": 9.850663477001352e-05, "loss": 0.3558, "step": 117450 }, { "epoch": 156.61333333333334, "grad_norm": 0.73828125, "learning_rate": 9.850638065088582e-05, "loss": 0.3475, "step": 117460 }, { "epoch": 156.62666666666667, "grad_norm": 0.67578125, "learning_rate": 9.850612651046665e-05, "loss": 0.3531, "step": 117470 }, { "epoch": 156.64, "grad_norm": 0.88671875, "learning_rate": 9.85058723487561e-05, "loss": 0.3599, "step": 117480 }, { "epoch": 156.65333333333334, "grad_norm": 0.796875, "learning_rate": 9.850561816575431e-05, "loss": 0.3703, "step": 117490 }, { "epoch": 156.66666666666666, "grad_norm": 0.6875, "learning_rate": 9.850536396146139e-05, "loss": 0.3611, "step": 117500 }, { "epoch": 156.68, "grad_norm": 0.83984375, "learning_rate": 9.850510973587743e-05, "loss": 0.3495, "step": 117510 }, { "epoch": 156.69333333333333, "grad_norm": 0.8359375, "learning_rate": 9.850485548900257e-05, "loss": 0.3622, "step": 117520 }, { "epoch": 156.70666666666668, "grad_norm": 0.9453125, "learning_rate": 9.850460122083691e-05, "loss": 0.3513, "step": 117530 }, { "epoch": 156.72, "grad_norm": 0.8671875, "learning_rate": 9.850434693138056e-05, "loss": 0.373, "step": 117540 }, { "epoch": 156.73333333333332, "grad_norm": 0.84375, "learning_rate": 9.850409262063362e-05, "loss": 0.3681, "step": 117550 }, { "epoch": 156.74666666666667, "grad_norm": 0.84375, "learning_rate": 9.850383828859621e-05, "loss": 0.371, "step": 117560 }, { "epoch": 156.76, "grad_norm": 0.8203125, "learning_rate": 9.850358393526847e-05, "loss": 0.3849, "step": 117570 }, { "epoch": 156.77333333333334, "grad_norm": 0.86328125, "learning_rate": 9.850332956065045e-05, "loss": 0.3687, "step": 117580 }, { "epoch": 156.78666666666666, "grad_norm": 0.75, "learning_rate": 9.850307516474233e-05, "loss": 0.371, "step": 117590 }, { "epoch": 156.8, "grad_norm": 0.875, "learning_rate": 9.850282074754416e-05, "loss": 0.3686, "step": 117600 }, { "epoch": 156.81333333333333, "grad_norm": 0.9765625, "learning_rate": 9.85025663090561e-05, "loss": 0.3442, "step": 117610 }, { "epoch": 156.82666666666665, "grad_norm": 0.84375, "learning_rate": 9.850231184927825e-05, "loss": 0.3509, "step": 117620 }, { "epoch": 156.84, "grad_norm": 0.89453125, "learning_rate": 9.85020573682107e-05, "loss": 0.3631, "step": 117630 }, { "epoch": 156.85333333333332, "grad_norm": 0.796875, "learning_rate": 9.850180286585358e-05, "loss": 0.3589, "step": 117640 }, { "epoch": 156.86666666666667, "grad_norm": 0.8515625, "learning_rate": 9.850154834220699e-05, "loss": 0.3648, "step": 117650 }, { "epoch": 156.88, "grad_norm": 0.76953125, "learning_rate": 9.850129379727107e-05, "loss": 0.3449, "step": 117660 }, { "epoch": 156.89333333333335, "grad_norm": 0.8515625, "learning_rate": 9.85010392310459e-05, "loss": 0.3586, "step": 117670 }, { "epoch": 156.90666666666667, "grad_norm": 0.875, "learning_rate": 9.850078464353161e-05, "loss": 0.3627, "step": 117680 }, { "epoch": 156.92, "grad_norm": 0.80859375, "learning_rate": 9.850053003472829e-05, "loss": 0.3643, "step": 117690 }, { "epoch": 156.93333333333334, "grad_norm": 0.734375, "learning_rate": 9.850027540463608e-05, "loss": 0.3601, "step": 117700 }, { "epoch": 156.94666666666666, "grad_norm": 0.83203125, "learning_rate": 9.850002075325507e-05, "loss": 0.3606, "step": 117710 }, { "epoch": 156.96, "grad_norm": 0.78515625, "learning_rate": 9.849976608058538e-05, "loss": 0.3579, "step": 117720 }, { "epoch": 156.97333333333333, "grad_norm": 1.0703125, "learning_rate": 9.849951138662713e-05, "loss": 0.3811, "step": 117730 }, { "epoch": 156.98666666666668, "grad_norm": 0.8671875, "learning_rate": 9.849925667138042e-05, "loss": 0.3513, "step": 117740 }, { "epoch": 157.0, "grad_norm": 0.83203125, "learning_rate": 9.849900193484536e-05, "loss": 0.3534, "step": 117750 }, { "epoch": 157.0, "eval_loss": 0.41704753041267395, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.8684, "eval_samples_per_second": 1.348, "eval_steps_per_second": 0.084, "step": 117750 }, { "epoch": 157.01333333333332, "grad_norm": 0.84765625, "learning_rate": 9.849874717702208e-05, "loss": 0.369, "step": 117760 }, { "epoch": 157.02666666666667, "grad_norm": 0.8125, "learning_rate": 9.849849239791067e-05, "loss": 0.3823, "step": 117770 }, { "epoch": 157.04, "grad_norm": 0.73046875, "learning_rate": 9.849823759751125e-05, "loss": 0.3959, "step": 117780 }, { "epoch": 157.05333333333334, "grad_norm": 0.85546875, "learning_rate": 9.849798277582394e-05, "loss": 0.3797, "step": 117790 }, { "epoch": 157.06666666666666, "grad_norm": 0.8515625, "learning_rate": 9.849772793284883e-05, "loss": 0.3686, "step": 117800 }, { "epoch": 157.08, "grad_norm": 0.83203125, "learning_rate": 9.849747306858606e-05, "loss": 0.3718, "step": 117810 }, { "epoch": 157.09333333333333, "grad_norm": 0.921875, "learning_rate": 9.849721818303573e-05, "loss": 0.3741, "step": 117820 }, { "epoch": 157.10666666666665, "grad_norm": 0.734375, "learning_rate": 9.849696327619796e-05, "loss": 0.3623, "step": 117830 }, { "epoch": 157.12, "grad_norm": 0.875, "learning_rate": 9.849670834807282e-05, "loss": 0.364, "step": 117840 }, { "epoch": 157.13333333333333, "grad_norm": 0.87890625, "learning_rate": 9.849645339866047e-05, "loss": 0.3562, "step": 117850 }, { "epoch": 157.14666666666668, "grad_norm": 0.8359375, "learning_rate": 9.8496198427961e-05, "loss": 0.375, "step": 117860 }, { "epoch": 157.16, "grad_norm": 0.73046875, "learning_rate": 9.849594343597455e-05, "loss": 0.3718, "step": 117870 }, { "epoch": 157.17333333333335, "grad_norm": 0.84375, "learning_rate": 9.84956884227012e-05, "loss": 0.3648, "step": 117880 }, { "epoch": 157.18666666666667, "grad_norm": 0.80078125, "learning_rate": 9.849543338814107e-05, "loss": 0.3628, "step": 117890 }, { "epoch": 157.2, "grad_norm": 0.83984375, "learning_rate": 9.849517833229427e-05, "loss": 0.3546, "step": 117900 }, { "epoch": 157.21333333333334, "grad_norm": 0.8359375, "learning_rate": 9.849492325516092e-05, "loss": 0.3554, "step": 117910 }, { "epoch": 157.22666666666666, "grad_norm": 0.85546875, "learning_rate": 9.849466815674111e-05, "loss": 0.3669, "step": 117920 }, { "epoch": 157.24, "grad_norm": 0.83984375, "learning_rate": 9.849441303703499e-05, "loss": 0.352, "step": 117930 }, { "epoch": 157.25333333333333, "grad_norm": 0.8125, "learning_rate": 9.849415789604264e-05, "loss": 0.3541, "step": 117940 }, { "epoch": 157.26666666666668, "grad_norm": 0.8671875, "learning_rate": 9.84939027337642e-05, "loss": 0.357, "step": 117950 }, { "epoch": 157.28, "grad_norm": 0.890625, "learning_rate": 9.849364755019976e-05, "loss": 0.3842, "step": 117960 }, { "epoch": 157.29333333333332, "grad_norm": 0.86328125, "learning_rate": 9.849339234534943e-05, "loss": 0.3436, "step": 117970 }, { "epoch": 157.30666666666667, "grad_norm": 0.7734375, "learning_rate": 9.849313711921333e-05, "loss": 0.3665, "step": 117980 }, { "epoch": 157.32, "grad_norm": 0.79296875, "learning_rate": 9.849288187179158e-05, "loss": 0.3717, "step": 117990 }, { "epoch": 157.33333333333334, "grad_norm": 0.88671875, "learning_rate": 9.849262660308427e-05, "loss": 0.37, "step": 118000 }, { "epoch": 157.34666666666666, "grad_norm": 0.8515625, "learning_rate": 9.849237131309155e-05, "loss": 0.3606, "step": 118010 }, { "epoch": 157.36, "grad_norm": 0.82421875, "learning_rate": 9.849211600181348e-05, "loss": 0.3623, "step": 118020 }, { "epoch": 157.37333333333333, "grad_norm": 0.734375, "learning_rate": 9.849186066925023e-05, "loss": 0.3652, "step": 118030 }, { "epoch": 157.38666666666666, "grad_norm": 0.890625, "learning_rate": 9.849160531540185e-05, "loss": 0.3511, "step": 118040 }, { "epoch": 157.4, "grad_norm": 0.8359375, "learning_rate": 9.84913499402685e-05, "loss": 0.3632, "step": 118050 }, { "epoch": 157.41333333333333, "grad_norm": 0.84375, "learning_rate": 9.849109454385028e-05, "loss": 0.3685, "step": 118060 }, { "epoch": 157.42666666666668, "grad_norm": 0.80859375, "learning_rate": 9.84908391261473e-05, "loss": 0.3704, "step": 118070 }, { "epoch": 157.44, "grad_norm": 0.82421875, "learning_rate": 9.849058368715965e-05, "loss": 0.382, "step": 118080 }, { "epoch": 157.45333333333335, "grad_norm": 0.83203125, "learning_rate": 9.849032822688748e-05, "loss": 0.3699, "step": 118090 }, { "epoch": 157.46666666666667, "grad_norm": 0.82421875, "learning_rate": 9.849007274533089e-05, "loss": 0.3763, "step": 118100 }, { "epoch": 157.48, "grad_norm": 0.81640625, "learning_rate": 9.848981724248997e-05, "loss": 0.3608, "step": 118110 }, { "epoch": 157.49333333333334, "grad_norm": 0.81640625, "learning_rate": 9.848956171836485e-05, "loss": 0.3717, "step": 118120 }, { "epoch": 157.50666666666666, "grad_norm": 0.87109375, "learning_rate": 9.848930617295564e-05, "loss": 0.3718, "step": 118130 }, { "epoch": 157.52, "grad_norm": 0.7421875, "learning_rate": 9.848905060626248e-05, "loss": 0.3622, "step": 118140 }, { "epoch": 157.53333333333333, "grad_norm": 0.7890625, "learning_rate": 9.848879501828543e-05, "loss": 0.3631, "step": 118150 }, { "epoch": 157.54666666666665, "grad_norm": 0.8671875, "learning_rate": 9.848853940902463e-05, "loss": 0.3637, "step": 118160 }, { "epoch": 157.56, "grad_norm": 0.7421875, "learning_rate": 9.848828377848019e-05, "loss": 0.3586, "step": 118170 }, { "epoch": 157.57333333333332, "grad_norm": 0.89453125, "learning_rate": 9.848802812665224e-05, "loss": 0.3641, "step": 118180 }, { "epoch": 157.58666666666667, "grad_norm": 0.8203125, "learning_rate": 9.848777245354085e-05, "loss": 0.3543, "step": 118190 }, { "epoch": 157.6, "grad_norm": 0.77734375, "learning_rate": 9.848751675914617e-05, "loss": 0.3566, "step": 118200 }, { "epoch": 157.61333333333334, "grad_norm": 0.7421875, "learning_rate": 9.848726104346829e-05, "loss": 0.3487, "step": 118210 }, { "epoch": 157.62666666666667, "grad_norm": 0.67578125, "learning_rate": 9.848700530650734e-05, "loss": 0.3534, "step": 118220 }, { "epoch": 157.64, "grad_norm": 0.83984375, "learning_rate": 9.848674954826343e-05, "loss": 0.3597, "step": 118230 }, { "epoch": 157.65333333333334, "grad_norm": 0.828125, "learning_rate": 9.848649376873664e-05, "loss": 0.3702, "step": 118240 }, { "epoch": 157.66666666666666, "grad_norm": 0.84765625, "learning_rate": 9.848623796792713e-05, "loss": 0.3614, "step": 118250 }, { "epoch": 157.68, "grad_norm": 0.8671875, "learning_rate": 9.848598214583497e-05, "loss": 0.3498, "step": 118260 }, { "epoch": 157.69333333333333, "grad_norm": 0.74609375, "learning_rate": 9.848572630246032e-05, "loss": 0.361, "step": 118270 }, { "epoch": 157.70666666666668, "grad_norm": 0.921875, "learning_rate": 9.848547043780325e-05, "loss": 0.3518, "step": 118280 }, { "epoch": 157.72, "grad_norm": 0.8984375, "learning_rate": 9.848521455186388e-05, "loss": 0.3725, "step": 118290 }, { "epoch": 157.73333333333332, "grad_norm": 0.7890625, "learning_rate": 9.848495864464233e-05, "loss": 0.3681, "step": 118300 }, { "epoch": 157.74666666666667, "grad_norm": 0.82421875, "learning_rate": 9.848470271613872e-05, "loss": 0.3711, "step": 118310 }, { "epoch": 157.76, "grad_norm": 0.84375, "learning_rate": 9.848444676635316e-05, "loss": 0.3841, "step": 118320 }, { "epoch": 157.77333333333334, "grad_norm": 0.875, "learning_rate": 9.848419079528574e-05, "loss": 0.3686, "step": 118330 }, { "epoch": 157.78666666666666, "grad_norm": 0.7890625, "learning_rate": 9.848393480293661e-05, "loss": 0.3721, "step": 118340 }, { "epoch": 157.8, "grad_norm": 0.875, "learning_rate": 9.848367878930585e-05, "loss": 0.3689, "step": 118350 }, { "epoch": 157.81333333333333, "grad_norm": 0.9765625, "learning_rate": 9.848342275439357e-05, "loss": 0.3434, "step": 118360 }, { "epoch": 157.82666666666665, "grad_norm": 0.796875, "learning_rate": 9.84831666981999e-05, "loss": 0.3507, "step": 118370 }, { "epoch": 157.84, "grad_norm": 0.9140625, "learning_rate": 9.848291062072497e-05, "loss": 0.3638, "step": 118380 }, { "epoch": 157.85333333333332, "grad_norm": 0.83984375, "learning_rate": 9.848265452196885e-05, "loss": 0.3591, "step": 118390 }, { "epoch": 157.86666666666667, "grad_norm": 0.8515625, "learning_rate": 9.848239840193168e-05, "loss": 0.364, "step": 118400 }, { "epoch": 157.88, "grad_norm": 0.76953125, "learning_rate": 9.848214226061356e-05, "loss": 0.3454, "step": 118410 }, { "epoch": 157.89333333333335, "grad_norm": 0.77734375, "learning_rate": 9.84818860980146e-05, "loss": 0.3589, "step": 118420 }, { "epoch": 157.90666666666667, "grad_norm": 0.84375, "learning_rate": 9.848162991413494e-05, "loss": 0.3622, "step": 118430 }, { "epoch": 157.92, "grad_norm": 0.84375, "learning_rate": 9.848137370897468e-05, "loss": 0.3631, "step": 118440 }, { "epoch": 157.93333333333334, "grad_norm": 0.734375, "learning_rate": 9.848111748253391e-05, "loss": 0.3598, "step": 118450 }, { "epoch": 157.94666666666666, "grad_norm": 0.765625, "learning_rate": 9.848086123481275e-05, "loss": 0.3599, "step": 118460 }, { "epoch": 157.96, "grad_norm": 0.73828125, "learning_rate": 9.848060496581133e-05, "loss": 0.3585, "step": 118470 }, { "epoch": 157.97333333333333, "grad_norm": 1.171875, "learning_rate": 9.848034867552974e-05, "loss": 0.3804, "step": 118480 }, { "epoch": 157.98666666666668, "grad_norm": 0.84375, "learning_rate": 9.848009236396811e-05, "loss": 0.3512, "step": 118490 }, { "epoch": 158.0, "grad_norm": 0.84765625, "learning_rate": 9.847983603112656e-05, "loss": 0.3521, "step": 118500 }, { "epoch": 158.0, "eval_loss": 0.41666746139526367, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.0841, "eval_samples_per_second": 1.324, "eval_steps_per_second": 0.083, "step": 118500 }, { "epoch": 158.01333333333332, "grad_norm": 0.91796875, "learning_rate": 9.847957967700519e-05, "loss": 0.3677, "step": 118510 }, { "epoch": 158.02666666666667, "grad_norm": 0.74609375, "learning_rate": 9.847932330160409e-05, "loss": 0.3833, "step": 118520 }, { "epoch": 158.04, "grad_norm": 0.82421875, "learning_rate": 9.847906690492342e-05, "loss": 0.3958, "step": 118530 }, { "epoch": 158.05333333333334, "grad_norm": 0.78515625, "learning_rate": 9.847881048696326e-05, "loss": 0.3797, "step": 118540 }, { "epoch": 158.06666666666666, "grad_norm": 0.8515625, "learning_rate": 9.847855404772373e-05, "loss": 0.3686, "step": 118550 }, { "epoch": 158.08, "grad_norm": 0.765625, "learning_rate": 9.847829758720495e-05, "loss": 0.3716, "step": 118560 }, { "epoch": 158.09333333333333, "grad_norm": 0.78125, "learning_rate": 9.847804110540702e-05, "loss": 0.3742, "step": 118570 }, { "epoch": 158.10666666666665, "grad_norm": 0.7578125, "learning_rate": 9.847778460233005e-05, "loss": 0.3633, "step": 118580 }, { "epoch": 158.12, "grad_norm": 0.8359375, "learning_rate": 9.847752807797417e-05, "loss": 0.3636, "step": 118590 }, { "epoch": 158.13333333333333, "grad_norm": 0.8125, "learning_rate": 9.847727153233947e-05, "loss": 0.3561, "step": 118600 }, { "epoch": 158.14666666666668, "grad_norm": 0.828125, "learning_rate": 9.847701496542609e-05, "loss": 0.3758, "step": 118610 }, { "epoch": 158.16, "grad_norm": 0.75, "learning_rate": 9.847675837723411e-05, "loss": 0.3713, "step": 118620 }, { "epoch": 158.17333333333335, "grad_norm": 0.9609375, "learning_rate": 9.847650176776369e-05, "loss": 0.3659, "step": 118630 }, { "epoch": 158.18666666666667, "grad_norm": 0.98828125, "learning_rate": 9.847624513701489e-05, "loss": 0.3627, "step": 118640 }, { "epoch": 158.2, "grad_norm": 0.81640625, "learning_rate": 9.847598848498784e-05, "loss": 0.3547, "step": 118650 }, { "epoch": 158.21333333333334, "grad_norm": 0.8984375, "learning_rate": 9.847573181168269e-05, "loss": 0.3546, "step": 118660 }, { "epoch": 158.22666666666666, "grad_norm": 0.796875, "learning_rate": 9.847547511709951e-05, "loss": 0.3662, "step": 118670 }, { "epoch": 158.24, "grad_norm": 0.84765625, "learning_rate": 9.847521840123841e-05, "loss": 0.3526, "step": 118680 }, { "epoch": 158.25333333333333, "grad_norm": 0.84375, "learning_rate": 9.847496166409953e-05, "loss": 0.3531, "step": 118690 }, { "epoch": 158.26666666666668, "grad_norm": 0.83203125, "learning_rate": 9.847470490568296e-05, "loss": 0.3564, "step": 118700 }, { "epoch": 158.28, "grad_norm": 0.8203125, "learning_rate": 9.847444812598882e-05, "loss": 0.385, "step": 118710 }, { "epoch": 158.29333333333332, "grad_norm": 0.76953125, "learning_rate": 9.847419132501725e-05, "loss": 0.3439, "step": 118720 }, { "epoch": 158.30666666666667, "grad_norm": 0.8125, "learning_rate": 9.847393450276832e-05, "loss": 0.3668, "step": 118730 }, { "epoch": 158.32, "grad_norm": 0.6796875, "learning_rate": 9.847367765924216e-05, "loss": 0.372, "step": 118740 }, { "epoch": 158.33333333333334, "grad_norm": 0.84765625, "learning_rate": 9.847342079443889e-05, "loss": 0.3695, "step": 118750 }, { "epoch": 158.34666666666666, "grad_norm": 0.8203125, "learning_rate": 9.84731639083586e-05, "loss": 0.3606, "step": 118760 }, { "epoch": 158.36, "grad_norm": 0.7734375, "learning_rate": 9.847290700100143e-05, "loss": 0.3617, "step": 118770 }, { "epoch": 158.37333333333333, "grad_norm": 0.75390625, "learning_rate": 9.847265007236748e-05, "loss": 0.3655, "step": 118780 }, { "epoch": 158.38666666666666, "grad_norm": 0.91796875, "learning_rate": 9.847239312245686e-05, "loss": 0.3517, "step": 118790 }, { "epoch": 158.4, "grad_norm": 0.87109375, "learning_rate": 9.847213615126972e-05, "loss": 0.3627, "step": 118800 }, { "epoch": 158.41333333333333, "grad_norm": 0.8671875, "learning_rate": 9.847187915880608e-05, "loss": 0.3686, "step": 118810 }, { "epoch": 158.42666666666668, "grad_norm": 0.80859375, "learning_rate": 9.847162214506615e-05, "loss": 0.3698, "step": 118820 }, { "epoch": 158.44, "grad_norm": 0.84765625, "learning_rate": 9.847136511005002e-05, "loss": 0.3819, "step": 118830 }, { "epoch": 158.45333333333335, "grad_norm": 0.80859375, "learning_rate": 9.847110805375777e-05, "loss": 0.3701, "step": 118840 }, { "epoch": 158.46666666666667, "grad_norm": 0.86328125, "learning_rate": 9.847085097618952e-05, "loss": 0.376, "step": 118850 }, { "epoch": 158.48, "grad_norm": 0.79296875, "learning_rate": 9.847059387734541e-05, "loss": 0.3602, "step": 118860 }, { "epoch": 158.49333333333334, "grad_norm": 0.76953125, "learning_rate": 9.847033675722552e-05, "loss": 0.3719, "step": 118870 }, { "epoch": 158.50666666666666, "grad_norm": 0.89453125, "learning_rate": 9.847007961583e-05, "loss": 0.3717, "step": 118880 }, { "epoch": 158.52, "grad_norm": 0.73828125, "learning_rate": 9.846982245315893e-05, "loss": 0.3628, "step": 118890 }, { "epoch": 158.53333333333333, "grad_norm": 0.8828125, "learning_rate": 9.846956526921246e-05, "loss": 0.363, "step": 118900 }, { "epoch": 158.54666666666665, "grad_norm": 0.87890625, "learning_rate": 9.846930806399064e-05, "loss": 0.3633, "step": 118910 }, { "epoch": 158.56, "grad_norm": 0.7734375, "learning_rate": 9.846905083749365e-05, "loss": 0.3592, "step": 118920 }, { "epoch": 158.57333333333332, "grad_norm": 0.87109375, "learning_rate": 9.846879358972156e-05, "loss": 0.3642, "step": 118930 }, { "epoch": 158.58666666666667, "grad_norm": 0.79296875, "learning_rate": 9.84685363206745e-05, "loss": 0.3546, "step": 118940 }, { "epoch": 158.6, "grad_norm": 0.796875, "learning_rate": 9.846827903035257e-05, "loss": 0.3563, "step": 118950 }, { "epoch": 158.61333333333334, "grad_norm": 0.71484375, "learning_rate": 9.846802171875591e-05, "loss": 0.348, "step": 118960 }, { "epoch": 158.62666666666667, "grad_norm": 0.69140625, "learning_rate": 9.84677643858846e-05, "loss": 0.3533, "step": 118970 }, { "epoch": 158.64, "grad_norm": 0.87890625, "learning_rate": 9.84675070317388e-05, "loss": 0.3585, "step": 118980 }, { "epoch": 158.65333333333334, "grad_norm": 0.83984375, "learning_rate": 9.846724965631854e-05, "loss": 0.3698, "step": 118990 }, { "epoch": 158.66666666666666, "grad_norm": 0.77734375, "learning_rate": 9.846699225962404e-05, "loss": 0.3611, "step": 119000 }, { "epoch": 158.68, "grad_norm": 0.8359375, "learning_rate": 9.846673484165531e-05, "loss": 0.3496, "step": 119010 }, { "epoch": 158.69333333333333, "grad_norm": 0.76953125, "learning_rate": 9.846647740241255e-05, "loss": 0.3612, "step": 119020 }, { "epoch": 158.70666666666668, "grad_norm": 0.953125, "learning_rate": 9.846621994189582e-05, "loss": 0.351, "step": 119030 }, { "epoch": 158.72, "grad_norm": 0.87109375, "learning_rate": 9.846596246010524e-05, "loss": 0.3721, "step": 119040 }, { "epoch": 158.73333333333332, "grad_norm": 0.8984375, "learning_rate": 9.846570495704093e-05, "loss": 0.3679, "step": 119050 }, { "epoch": 158.74666666666667, "grad_norm": 0.75390625, "learning_rate": 9.8465447432703e-05, "loss": 0.3709, "step": 119060 }, { "epoch": 158.76, "grad_norm": 0.96875, "learning_rate": 9.846518988709158e-05, "loss": 0.3844, "step": 119070 }, { "epoch": 158.77333333333334, "grad_norm": 0.91796875, "learning_rate": 9.846493232020677e-05, "loss": 0.368, "step": 119080 }, { "epoch": 158.78666666666666, "grad_norm": 0.76953125, "learning_rate": 9.846467473204867e-05, "loss": 0.3717, "step": 119090 }, { "epoch": 158.8, "grad_norm": 0.87109375, "learning_rate": 9.846441712261741e-05, "loss": 0.3695, "step": 119100 }, { "epoch": 158.81333333333333, "grad_norm": 0.984375, "learning_rate": 9.84641594919131e-05, "loss": 0.3433, "step": 119110 }, { "epoch": 158.82666666666665, "grad_norm": 0.7890625, "learning_rate": 9.846390183993584e-05, "loss": 0.3512, "step": 119120 }, { "epoch": 158.84, "grad_norm": 0.86328125, "learning_rate": 9.846364416668577e-05, "loss": 0.3635, "step": 119130 }, { "epoch": 158.85333333333332, "grad_norm": 0.8125, "learning_rate": 9.846338647216298e-05, "loss": 0.3588, "step": 119140 }, { "epoch": 158.86666666666667, "grad_norm": 0.75390625, "learning_rate": 9.846312875636758e-05, "loss": 0.3645, "step": 119150 }, { "epoch": 158.88, "grad_norm": 0.83203125, "learning_rate": 9.84628710192997e-05, "loss": 0.3454, "step": 119160 }, { "epoch": 158.89333333333335, "grad_norm": 0.76171875, "learning_rate": 9.846261326095946e-05, "loss": 0.3583, "step": 119170 }, { "epoch": 158.90666666666667, "grad_norm": 0.8203125, "learning_rate": 9.846235548134695e-05, "loss": 0.3623, "step": 119180 }, { "epoch": 158.92, "grad_norm": 0.80078125, "learning_rate": 9.846209768046229e-05, "loss": 0.3636, "step": 119190 }, { "epoch": 158.93333333333334, "grad_norm": 0.8125, "learning_rate": 9.846183985830559e-05, "loss": 0.3602, "step": 119200 }, { "epoch": 158.94666666666666, "grad_norm": 0.8671875, "learning_rate": 9.846158201487699e-05, "loss": 0.3596, "step": 119210 }, { "epoch": 158.96, "grad_norm": 0.74609375, "learning_rate": 9.846132415017657e-05, "loss": 0.3595, "step": 119220 }, { "epoch": 158.97333333333333, "grad_norm": 1.0546875, "learning_rate": 9.846106626420446e-05, "loss": 0.3806, "step": 119230 }, { "epoch": 158.98666666666668, "grad_norm": 0.80859375, "learning_rate": 9.846080835696077e-05, "loss": 0.3511, "step": 119240 }, { "epoch": 159.0, "grad_norm": 0.84375, "learning_rate": 9.84605504284456e-05, "loss": 0.3518, "step": 119250 }, { "epoch": 159.0, "eval_loss": 0.41657721996307373, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.994, "eval_samples_per_second": 1.334, "eval_steps_per_second": 0.083, "step": 119250 }, { "epoch": 159.01333333333332, "grad_norm": 0.81640625, "learning_rate": 9.846029247865909e-05, "loss": 0.3681, "step": 119260 }, { "epoch": 159.02666666666667, "grad_norm": 0.8046875, "learning_rate": 9.846003450760133e-05, "loss": 0.3836, "step": 119270 }, { "epoch": 159.04, "grad_norm": 0.8125, "learning_rate": 9.845977651527245e-05, "loss": 0.3964, "step": 119280 }, { "epoch": 159.05333333333334, "grad_norm": 0.89453125, "learning_rate": 9.845951850167255e-05, "loss": 0.3807, "step": 119290 }, { "epoch": 159.06666666666666, "grad_norm": 0.921875, "learning_rate": 9.845926046680175e-05, "loss": 0.3682, "step": 119300 }, { "epoch": 159.08, "grad_norm": 0.8984375, "learning_rate": 9.845900241066015e-05, "loss": 0.3718, "step": 119310 }, { "epoch": 159.09333333333333, "grad_norm": 0.875, "learning_rate": 9.845874433324788e-05, "loss": 0.3736, "step": 119320 }, { "epoch": 159.10666666666665, "grad_norm": 0.74609375, "learning_rate": 9.845848623456506e-05, "loss": 0.3633, "step": 119330 }, { "epoch": 159.12, "grad_norm": 0.8125, "learning_rate": 9.845822811461178e-05, "loss": 0.3647, "step": 119340 }, { "epoch": 159.13333333333333, "grad_norm": 0.875, "learning_rate": 9.845796997338816e-05, "loss": 0.3565, "step": 119350 }, { "epoch": 159.14666666666668, "grad_norm": 0.86328125, "learning_rate": 9.845771181089434e-05, "loss": 0.3757, "step": 119360 }, { "epoch": 159.16, "grad_norm": 0.74609375, "learning_rate": 9.845745362713039e-05, "loss": 0.3718, "step": 119370 }, { "epoch": 159.17333333333335, "grad_norm": 0.91796875, "learning_rate": 9.845719542209646e-05, "loss": 0.3654, "step": 119380 }, { "epoch": 159.18666666666667, "grad_norm": 0.78515625, "learning_rate": 9.845693719579265e-05, "loss": 0.3627, "step": 119390 }, { "epoch": 159.2, "grad_norm": 0.76953125, "learning_rate": 9.845667894821906e-05, "loss": 0.3546, "step": 119400 }, { "epoch": 159.21333333333334, "grad_norm": 0.8671875, "learning_rate": 9.845642067937582e-05, "loss": 0.3553, "step": 119410 }, { "epoch": 159.22666666666666, "grad_norm": 0.8828125, "learning_rate": 9.845616238926303e-05, "loss": 0.3656, "step": 119420 }, { "epoch": 159.24, "grad_norm": 0.890625, "learning_rate": 9.845590407788081e-05, "loss": 0.3525, "step": 119430 }, { "epoch": 159.25333333333333, "grad_norm": 0.84375, "learning_rate": 9.845564574522928e-05, "loss": 0.3526, "step": 119440 }, { "epoch": 159.26666666666668, "grad_norm": 0.74609375, "learning_rate": 9.845538739130856e-05, "loss": 0.3569, "step": 119450 }, { "epoch": 159.28, "grad_norm": 0.83984375, "learning_rate": 9.845512901611873e-05, "loss": 0.384, "step": 119460 }, { "epoch": 159.29333333333332, "grad_norm": 0.74609375, "learning_rate": 9.845487061965995e-05, "loss": 0.3428, "step": 119470 }, { "epoch": 159.30666666666667, "grad_norm": 0.8046875, "learning_rate": 9.845461220193229e-05, "loss": 0.3674, "step": 119480 }, { "epoch": 159.32, "grad_norm": 0.70703125, "learning_rate": 9.845435376293589e-05, "loss": 0.3712, "step": 119490 }, { "epoch": 159.33333333333334, "grad_norm": 0.86328125, "learning_rate": 9.845409530267084e-05, "loss": 0.3693, "step": 119500 }, { "epoch": 159.34666666666666, "grad_norm": 0.82421875, "learning_rate": 9.845383682113729e-05, "loss": 0.3603, "step": 119510 }, { "epoch": 159.36, "grad_norm": 0.7734375, "learning_rate": 9.845357831833533e-05, "loss": 0.3611, "step": 119520 }, { "epoch": 159.37333333333333, "grad_norm": 0.73828125, "learning_rate": 9.845331979426506e-05, "loss": 0.365, "step": 119530 }, { "epoch": 159.38666666666666, "grad_norm": 0.9296875, "learning_rate": 9.845306124892661e-05, "loss": 0.3518, "step": 119540 }, { "epoch": 159.4, "grad_norm": 0.78515625, "learning_rate": 9.84528026823201e-05, "loss": 0.3631, "step": 119550 }, { "epoch": 159.41333333333333, "grad_norm": 0.7265625, "learning_rate": 9.845254409444564e-05, "loss": 0.3683, "step": 119560 }, { "epoch": 159.42666666666668, "grad_norm": 0.8125, "learning_rate": 9.845228548530334e-05, "loss": 0.37, "step": 119570 }, { "epoch": 159.44, "grad_norm": 0.84765625, "learning_rate": 9.845202685489331e-05, "loss": 0.3826, "step": 119580 }, { "epoch": 159.45333333333335, "grad_norm": 0.859375, "learning_rate": 9.845176820321566e-05, "loss": 0.369, "step": 119590 }, { "epoch": 159.46666666666667, "grad_norm": 0.8515625, "learning_rate": 9.845150953027053e-05, "loss": 0.3768, "step": 119600 }, { "epoch": 159.48, "grad_norm": 0.76953125, "learning_rate": 9.845125083605799e-05, "loss": 0.3605, "step": 119610 }, { "epoch": 159.49333333333334, "grad_norm": 0.87109375, "learning_rate": 9.84509921205782e-05, "loss": 0.3721, "step": 119620 }, { "epoch": 159.50666666666666, "grad_norm": 0.90234375, "learning_rate": 9.845073338383124e-05, "loss": 0.3715, "step": 119630 }, { "epoch": 159.52, "grad_norm": 0.7265625, "learning_rate": 9.845047462581723e-05, "loss": 0.3629, "step": 119640 }, { "epoch": 159.53333333333333, "grad_norm": 0.78125, "learning_rate": 9.845021584653629e-05, "loss": 0.3632, "step": 119650 }, { "epoch": 159.54666666666665, "grad_norm": 0.8984375, "learning_rate": 9.844995704598853e-05, "loss": 0.364, "step": 119660 }, { "epoch": 159.56, "grad_norm": 0.87109375, "learning_rate": 9.844969822417407e-05, "loss": 0.3583, "step": 119670 }, { "epoch": 159.57333333333332, "grad_norm": 0.8828125, "learning_rate": 9.844943938109301e-05, "loss": 0.3638, "step": 119680 }, { "epoch": 159.58666666666667, "grad_norm": 0.8046875, "learning_rate": 9.844918051674549e-05, "loss": 0.354, "step": 119690 }, { "epoch": 159.6, "grad_norm": 0.82421875, "learning_rate": 9.844892163113159e-05, "loss": 0.3554, "step": 119700 }, { "epoch": 159.61333333333334, "grad_norm": 0.71875, "learning_rate": 9.844866272425146e-05, "loss": 0.3482, "step": 119710 }, { "epoch": 159.62666666666667, "grad_norm": 0.73828125, "learning_rate": 9.844840379610516e-05, "loss": 0.3531, "step": 119720 }, { "epoch": 159.64, "grad_norm": 0.83203125, "learning_rate": 9.844814484669287e-05, "loss": 0.359, "step": 119730 }, { "epoch": 159.65333333333334, "grad_norm": 0.8671875, "learning_rate": 9.844788587601466e-05, "loss": 0.3701, "step": 119740 }, { "epoch": 159.66666666666666, "grad_norm": 0.796875, "learning_rate": 9.844762688407064e-05, "loss": 0.3616, "step": 119750 }, { "epoch": 159.68, "grad_norm": 0.8828125, "learning_rate": 9.844736787086096e-05, "loss": 0.3503, "step": 119760 }, { "epoch": 159.69333333333333, "grad_norm": 0.78125, "learning_rate": 9.844710883638569e-05, "loss": 0.3616, "step": 119770 }, { "epoch": 159.70666666666668, "grad_norm": 0.99609375, "learning_rate": 9.844684978064498e-05, "loss": 0.3508, "step": 119780 }, { "epoch": 159.72, "grad_norm": 0.87109375, "learning_rate": 9.844659070363893e-05, "loss": 0.3732, "step": 119790 }, { "epoch": 159.73333333333332, "grad_norm": 0.86328125, "learning_rate": 9.844633160536765e-05, "loss": 0.3677, "step": 119800 }, { "epoch": 159.74666666666667, "grad_norm": 0.79296875, "learning_rate": 9.844607248583125e-05, "loss": 0.3709, "step": 119810 }, { "epoch": 159.76, "grad_norm": 0.75390625, "learning_rate": 9.844581334502985e-05, "loss": 0.385, "step": 119820 }, { "epoch": 159.77333333333334, "grad_norm": 0.83984375, "learning_rate": 9.844555418296357e-05, "loss": 0.3685, "step": 119830 }, { "epoch": 159.78666666666666, "grad_norm": 0.734375, "learning_rate": 9.844529499963252e-05, "loss": 0.3707, "step": 119840 }, { "epoch": 159.8, "grad_norm": 0.83984375, "learning_rate": 9.844503579503681e-05, "loss": 0.3688, "step": 119850 }, { "epoch": 159.81333333333333, "grad_norm": 0.91015625, "learning_rate": 9.844477656917655e-05, "loss": 0.3427, "step": 119860 }, { "epoch": 159.82666666666665, "grad_norm": 0.859375, "learning_rate": 9.844451732205186e-05, "loss": 0.3506, "step": 119870 }, { "epoch": 159.84, "grad_norm": 0.88671875, "learning_rate": 9.844425805366286e-05, "loss": 0.3634, "step": 119880 }, { "epoch": 159.85333333333332, "grad_norm": 0.83203125, "learning_rate": 9.844399876400965e-05, "loss": 0.3586, "step": 119890 }, { "epoch": 159.86666666666667, "grad_norm": 0.83984375, "learning_rate": 9.844373945309236e-05, "loss": 0.3633, "step": 119900 }, { "epoch": 159.88, "grad_norm": 0.73046875, "learning_rate": 9.844348012091109e-05, "loss": 0.3455, "step": 119910 }, { "epoch": 159.89333333333335, "grad_norm": 0.76953125, "learning_rate": 9.844322076746596e-05, "loss": 0.3586, "step": 119920 }, { "epoch": 159.90666666666667, "grad_norm": 0.828125, "learning_rate": 9.844296139275709e-05, "loss": 0.3625, "step": 119930 }, { "epoch": 159.92, "grad_norm": 0.7890625, "learning_rate": 9.844270199678456e-05, "loss": 0.363, "step": 119940 }, { "epoch": 159.93333333333334, "grad_norm": 0.80078125, "learning_rate": 9.844244257954853e-05, "loss": 0.3601, "step": 119950 }, { "epoch": 159.94666666666666, "grad_norm": 0.859375, "learning_rate": 9.844218314104908e-05, "loss": 0.3606, "step": 119960 }, { "epoch": 159.96, "grad_norm": 0.82421875, "learning_rate": 9.844192368128635e-05, "loss": 0.3583, "step": 119970 }, { "epoch": 159.97333333333333, "grad_norm": 1.1015625, "learning_rate": 9.844166420026044e-05, "loss": 0.3805, "step": 119980 }, { "epoch": 159.98666666666668, "grad_norm": 0.796875, "learning_rate": 9.844140469797147e-05, "loss": 0.3504, "step": 119990 }, { "epoch": 160.0, "grad_norm": 0.8046875, "learning_rate": 9.844114517441954e-05, "loss": 0.3519, "step": 120000 }, { "epoch": 160.0, "eval_loss": 0.41784510016441345, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.2021, "eval_samples_per_second": 1.311, "eval_steps_per_second": 0.082, "step": 120000 }, { "epoch": 160.01333333333332, "grad_norm": 0.8984375, "learning_rate": 9.844088562960477e-05, "loss": 0.3681, "step": 120010 }, { "epoch": 160.02666666666667, "grad_norm": 0.83203125, "learning_rate": 9.844062606352729e-05, "loss": 0.3835, "step": 120020 }, { "epoch": 160.04, "grad_norm": 0.796875, "learning_rate": 9.844036647618718e-05, "loss": 0.3964, "step": 120030 }, { "epoch": 160.05333333333334, "grad_norm": 0.87890625, "learning_rate": 9.844010686758459e-05, "loss": 0.3793, "step": 120040 }, { "epoch": 160.06666666666666, "grad_norm": 0.88671875, "learning_rate": 9.843984723771962e-05, "loss": 0.3679, "step": 120050 }, { "epoch": 160.08, "grad_norm": 0.7109375, "learning_rate": 9.843958758659238e-05, "loss": 0.3704, "step": 120060 }, { "epoch": 160.09333333333333, "grad_norm": 0.8359375, "learning_rate": 9.843932791420298e-05, "loss": 0.374, "step": 120070 }, { "epoch": 160.10666666666665, "grad_norm": 0.7265625, "learning_rate": 9.843906822055156e-05, "loss": 0.3624, "step": 120080 }, { "epoch": 160.12, "grad_norm": 0.89453125, "learning_rate": 9.84388085056382e-05, "loss": 0.3634, "step": 120090 }, { "epoch": 160.13333333333333, "grad_norm": 0.84765625, "learning_rate": 9.843854876946303e-05, "loss": 0.356, "step": 120100 }, { "epoch": 160.14666666666668, "grad_norm": 0.76953125, "learning_rate": 9.843828901202617e-05, "loss": 0.3752, "step": 120110 }, { "epoch": 160.16, "grad_norm": 0.8046875, "learning_rate": 9.843802923332771e-05, "loss": 0.3712, "step": 120120 }, { "epoch": 160.17333333333335, "grad_norm": 0.87109375, "learning_rate": 9.84377694333678e-05, "loss": 0.3647, "step": 120130 }, { "epoch": 160.18666666666667, "grad_norm": 0.78515625, "learning_rate": 9.843750961214652e-05, "loss": 0.3629, "step": 120140 }, { "epoch": 160.2, "grad_norm": 0.84375, "learning_rate": 9.8437249769664e-05, "loss": 0.3539, "step": 120150 }, { "epoch": 160.21333333333334, "grad_norm": 0.859375, "learning_rate": 9.843698990592037e-05, "loss": 0.3547, "step": 120160 }, { "epoch": 160.22666666666666, "grad_norm": 0.83203125, "learning_rate": 9.843673002091571e-05, "loss": 0.3658, "step": 120170 }, { "epoch": 160.24, "grad_norm": 0.8203125, "learning_rate": 9.843647011465016e-05, "loss": 0.3525, "step": 120180 }, { "epoch": 160.25333333333333, "grad_norm": 0.8515625, "learning_rate": 9.843621018712381e-05, "loss": 0.3528, "step": 120190 }, { "epoch": 160.26666666666668, "grad_norm": 0.76953125, "learning_rate": 9.84359502383368e-05, "loss": 0.357, "step": 120200 }, { "epoch": 160.28, "grad_norm": 0.875, "learning_rate": 9.843569026828925e-05, "loss": 0.3838, "step": 120210 }, { "epoch": 160.29333333333332, "grad_norm": 0.83984375, "learning_rate": 9.843543027698123e-05, "loss": 0.3433, "step": 120220 }, { "epoch": 160.30666666666667, "grad_norm": 0.8046875, "learning_rate": 9.84351702644129e-05, "loss": 0.3662, "step": 120230 }, { "epoch": 160.32, "grad_norm": 0.7265625, "learning_rate": 9.843491023058436e-05, "loss": 0.3721, "step": 120240 }, { "epoch": 160.33333333333334, "grad_norm": 0.8828125, "learning_rate": 9.843465017549569e-05, "loss": 0.3698, "step": 120250 }, { "epoch": 160.34666666666666, "grad_norm": 0.86328125, "learning_rate": 9.843439009914705e-05, "loss": 0.3604, "step": 120260 }, { "epoch": 160.36, "grad_norm": 0.94921875, "learning_rate": 9.843413000153856e-05, "loss": 0.3615, "step": 120270 }, { "epoch": 160.37333333333333, "grad_norm": 0.6953125, "learning_rate": 9.843386988267029e-05, "loss": 0.3653, "step": 120280 }, { "epoch": 160.38666666666666, "grad_norm": 0.9296875, "learning_rate": 9.843360974254237e-05, "loss": 0.3516, "step": 120290 }, { "epoch": 160.4, "grad_norm": 0.76953125, "learning_rate": 9.843334958115494e-05, "loss": 0.3624, "step": 120300 }, { "epoch": 160.41333333333333, "grad_norm": 0.84375, "learning_rate": 9.843308939850808e-05, "loss": 0.3685, "step": 120310 }, { "epoch": 160.42666666666668, "grad_norm": 0.7578125, "learning_rate": 9.843282919460193e-05, "loss": 0.3695, "step": 120320 }, { "epoch": 160.44, "grad_norm": 0.80859375, "learning_rate": 9.84325689694366e-05, "loss": 0.3827, "step": 120330 }, { "epoch": 160.45333333333335, "grad_norm": 0.8125, "learning_rate": 9.843230872301218e-05, "loss": 0.3684, "step": 120340 }, { "epoch": 160.46666666666667, "grad_norm": 0.81640625, "learning_rate": 9.84320484553288e-05, "loss": 0.3762, "step": 120350 }, { "epoch": 160.48, "grad_norm": 0.8125, "learning_rate": 9.84317881663866e-05, "loss": 0.3605, "step": 120360 }, { "epoch": 160.49333333333334, "grad_norm": 0.82421875, "learning_rate": 9.843152785618566e-05, "loss": 0.3719, "step": 120370 }, { "epoch": 160.50666666666666, "grad_norm": 0.80078125, "learning_rate": 9.843126752472609e-05, "loss": 0.3715, "step": 120380 }, { "epoch": 160.52, "grad_norm": 0.73828125, "learning_rate": 9.843100717200803e-05, "loss": 0.3624, "step": 120390 }, { "epoch": 160.53333333333333, "grad_norm": 0.78125, "learning_rate": 9.843074679803158e-05, "loss": 0.3623, "step": 120400 }, { "epoch": 160.54666666666665, "grad_norm": 1.0078125, "learning_rate": 9.843048640279686e-05, "loss": 0.3637, "step": 120410 }, { "epoch": 160.56, "grad_norm": 0.85546875, "learning_rate": 9.843022598630397e-05, "loss": 0.3587, "step": 120420 }, { "epoch": 160.57333333333332, "grad_norm": 0.86328125, "learning_rate": 9.842996554855306e-05, "loss": 0.3637, "step": 120430 }, { "epoch": 160.58666666666667, "grad_norm": 0.76953125, "learning_rate": 9.842970508954421e-05, "loss": 0.3543, "step": 120440 }, { "epoch": 160.6, "grad_norm": 0.74609375, "learning_rate": 9.842944460927754e-05, "loss": 0.3563, "step": 120450 }, { "epoch": 160.61333333333334, "grad_norm": 0.72265625, "learning_rate": 9.842918410775317e-05, "loss": 0.3479, "step": 120460 }, { "epoch": 160.62666666666667, "grad_norm": 0.7421875, "learning_rate": 9.842892358497121e-05, "loss": 0.3519, "step": 120470 }, { "epoch": 160.64, "grad_norm": 0.87890625, "learning_rate": 9.842866304093178e-05, "loss": 0.3584, "step": 120480 }, { "epoch": 160.65333333333334, "grad_norm": 0.77734375, "learning_rate": 9.8428402475635e-05, "loss": 0.3704, "step": 120490 }, { "epoch": 160.66666666666666, "grad_norm": 0.74609375, "learning_rate": 9.842814188908096e-05, "loss": 0.3617, "step": 120500 }, { "epoch": 160.68, "grad_norm": 0.82421875, "learning_rate": 9.84278812812698e-05, "loss": 0.3494, "step": 120510 }, { "epoch": 160.69333333333333, "grad_norm": 0.7265625, "learning_rate": 9.842762065220164e-05, "loss": 0.3613, "step": 120520 }, { "epoch": 160.70666666666668, "grad_norm": 0.92578125, "learning_rate": 9.842736000187656e-05, "loss": 0.3505, "step": 120530 }, { "epoch": 160.72, "grad_norm": 0.88671875, "learning_rate": 9.84270993302947e-05, "loss": 0.372, "step": 120540 }, { "epoch": 160.73333333333332, "grad_norm": 0.84765625, "learning_rate": 9.842683863745616e-05, "loss": 0.3684, "step": 120550 }, { "epoch": 160.74666666666667, "grad_norm": 0.8125, "learning_rate": 9.842657792336109e-05, "loss": 0.3713, "step": 120560 }, { "epoch": 160.76, "grad_norm": 0.8828125, "learning_rate": 9.842631718800955e-05, "loss": 0.3842, "step": 120570 }, { "epoch": 160.77333333333334, "grad_norm": 0.92578125, "learning_rate": 9.842605643140169e-05, "loss": 0.3675, "step": 120580 }, { "epoch": 160.78666666666666, "grad_norm": 0.8125, "learning_rate": 9.842579565353762e-05, "loss": 0.3712, "step": 120590 }, { "epoch": 160.8, "grad_norm": 0.7734375, "learning_rate": 9.842553485441745e-05, "loss": 0.3687, "step": 120600 }, { "epoch": 160.81333333333333, "grad_norm": 0.8984375, "learning_rate": 9.842527403404129e-05, "loss": 0.3437, "step": 120610 }, { "epoch": 160.82666666666665, "grad_norm": 0.90234375, "learning_rate": 9.842501319240926e-05, "loss": 0.3498, "step": 120620 }, { "epoch": 160.84, "grad_norm": 0.94921875, "learning_rate": 9.842475232952148e-05, "loss": 0.3633, "step": 120630 }, { "epoch": 160.85333333333332, "grad_norm": 0.81640625, "learning_rate": 9.842449144537806e-05, "loss": 0.3582, "step": 120640 }, { "epoch": 160.86666666666667, "grad_norm": 0.83984375, "learning_rate": 9.842423053997911e-05, "loss": 0.3646, "step": 120650 }, { "epoch": 160.88, "grad_norm": 0.8359375, "learning_rate": 9.842396961332475e-05, "loss": 0.3452, "step": 120660 }, { "epoch": 160.89333333333335, "grad_norm": 0.74609375, "learning_rate": 9.842370866541508e-05, "loss": 0.3591, "step": 120670 }, { "epoch": 160.90666666666667, "grad_norm": 0.80859375, "learning_rate": 9.842344769625023e-05, "loss": 0.3628, "step": 120680 }, { "epoch": 160.92, "grad_norm": 0.78125, "learning_rate": 9.842318670583032e-05, "loss": 0.3628, "step": 120690 }, { "epoch": 160.93333333333334, "grad_norm": 0.70703125, "learning_rate": 9.842292569415546e-05, "loss": 0.3599, "step": 120700 }, { "epoch": 160.94666666666666, "grad_norm": 0.8359375, "learning_rate": 9.842266466122574e-05, "loss": 0.3597, "step": 120710 }, { "epoch": 160.96, "grad_norm": 0.8046875, "learning_rate": 9.842240360704132e-05, "loss": 0.358, "step": 120720 }, { "epoch": 160.97333333333333, "grad_norm": 1.1484375, "learning_rate": 9.842214253160227e-05, "loss": 0.3802, "step": 120730 }, { "epoch": 160.98666666666668, "grad_norm": 0.88671875, "learning_rate": 9.842188143490873e-05, "loss": 0.3508, "step": 120740 }, { "epoch": 161.0, "grad_norm": 0.875, "learning_rate": 9.842162031696081e-05, "loss": 0.3518, "step": 120750 }, { "epoch": 161.0, "eval_loss": 0.41752541065216064, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7104, "eval_samples_per_second": 1.366, "eval_steps_per_second": 0.085, "step": 120750 }, { "epoch": 161.01333333333332, "grad_norm": 0.86328125, "learning_rate": 9.842135917775863e-05, "loss": 0.3667, "step": 120760 }, { "epoch": 161.02666666666667, "grad_norm": 0.75, "learning_rate": 9.84210980173023e-05, "loss": 0.3829, "step": 120770 }, { "epoch": 161.04, "grad_norm": 0.76953125, "learning_rate": 9.842083683559191e-05, "loss": 0.3958, "step": 120780 }, { "epoch": 161.05333333333334, "grad_norm": 0.84765625, "learning_rate": 9.842057563262762e-05, "loss": 0.3789, "step": 120790 }, { "epoch": 161.06666666666666, "grad_norm": 0.8828125, "learning_rate": 9.842031440840951e-05, "loss": 0.3675, "step": 120800 }, { "epoch": 161.08, "grad_norm": 0.8984375, "learning_rate": 9.842005316293773e-05, "loss": 0.3714, "step": 120810 }, { "epoch": 161.09333333333333, "grad_norm": 0.8984375, "learning_rate": 9.841979189621234e-05, "loss": 0.3732, "step": 120820 }, { "epoch": 161.10666666666665, "grad_norm": 0.71875, "learning_rate": 9.84195306082335e-05, "loss": 0.3635, "step": 120830 }, { "epoch": 161.12, "grad_norm": 0.8515625, "learning_rate": 9.84192692990013e-05, "loss": 0.364, "step": 120840 }, { "epoch": 161.13333333333333, "grad_norm": 0.83203125, "learning_rate": 9.841900796851588e-05, "loss": 0.3554, "step": 120850 }, { "epoch": 161.14666666666668, "grad_norm": 0.80859375, "learning_rate": 9.841874661677733e-05, "loss": 0.3754, "step": 120860 }, { "epoch": 161.16, "grad_norm": 0.73046875, "learning_rate": 9.841848524378579e-05, "loss": 0.371, "step": 120870 }, { "epoch": 161.17333333333335, "grad_norm": 0.9140625, "learning_rate": 9.841822384954134e-05, "loss": 0.3651, "step": 120880 }, { "epoch": 161.18666666666667, "grad_norm": 0.8359375, "learning_rate": 9.841796243404413e-05, "loss": 0.3628, "step": 120890 }, { "epoch": 161.2, "grad_norm": 0.81640625, "learning_rate": 9.841770099729423e-05, "loss": 0.3546, "step": 120900 }, { "epoch": 161.21333333333334, "grad_norm": 0.83984375, "learning_rate": 9.841743953929182e-05, "loss": 0.3556, "step": 120910 }, { "epoch": 161.22666666666666, "grad_norm": 0.88671875, "learning_rate": 9.841717806003696e-05, "loss": 0.366, "step": 120920 }, { "epoch": 161.24, "grad_norm": 0.828125, "learning_rate": 9.84169165595298e-05, "loss": 0.3524, "step": 120930 }, { "epoch": 161.25333333333333, "grad_norm": 0.81640625, "learning_rate": 9.841665503777042e-05, "loss": 0.3528, "step": 120940 }, { "epoch": 161.26666666666668, "grad_norm": 0.7890625, "learning_rate": 9.841639349475895e-05, "loss": 0.357, "step": 120950 }, { "epoch": 161.28, "grad_norm": 0.89453125, "learning_rate": 9.841613193049553e-05, "loss": 0.3848, "step": 120960 }, { "epoch": 161.29333333333332, "grad_norm": 0.8671875, "learning_rate": 9.841587034498023e-05, "loss": 0.3439, "step": 120970 }, { "epoch": 161.30666666666667, "grad_norm": 0.87890625, "learning_rate": 9.841560873821321e-05, "loss": 0.3668, "step": 120980 }, { "epoch": 161.32, "grad_norm": 0.765625, "learning_rate": 9.841534711019454e-05, "loss": 0.3703, "step": 120990 }, { "epoch": 161.33333333333334, "grad_norm": 0.9375, "learning_rate": 9.841508546092436e-05, "loss": 0.3696, "step": 121000 }, { "epoch": 161.34666666666666, "grad_norm": 0.9453125, "learning_rate": 9.841482379040279e-05, "loss": 0.3608, "step": 121010 }, { "epoch": 161.36, "grad_norm": 0.80078125, "learning_rate": 9.841456209862994e-05, "loss": 0.3608, "step": 121020 }, { "epoch": 161.37333333333333, "grad_norm": 0.81640625, "learning_rate": 9.841430038560591e-05, "loss": 0.3648, "step": 121030 }, { "epoch": 161.38666666666666, "grad_norm": 0.92578125, "learning_rate": 9.841403865133083e-05, "loss": 0.3523, "step": 121040 }, { "epoch": 161.4, "grad_norm": 0.8828125, "learning_rate": 9.841377689580482e-05, "loss": 0.3627, "step": 121050 }, { "epoch": 161.41333333333333, "grad_norm": 0.81640625, "learning_rate": 9.841351511902797e-05, "loss": 0.3683, "step": 121060 }, { "epoch": 161.42666666666668, "grad_norm": 0.796875, "learning_rate": 9.841325332100041e-05, "loss": 0.3699, "step": 121070 }, { "epoch": 161.44, "grad_norm": 0.81640625, "learning_rate": 9.841299150172227e-05, "loss": 0.3822, "step": 121080 }, { "epoch": 161.45333333333335, "grad_norm": 0.89453125, "learning_rate": 9.841272966119365e-05, "loss": 0.3696, "step": 121090 }, { "epoch": 161.46666666666667, "grad_norm": 0.78515625, "learning_rate": 9.841246779941466e-05, "loss": 0.3761, "step": 121100 }, { "epoch": 161.48, "grad_norm": 0.76953125, "learning_rate": 9.841220591638543e-05, "loss": 0.3603, "step": 121110 }, { "epoch": 161.49333333333334, "grad_norm": 0.86328125, "learning_rate": 9.841194401210608e-05, "loss": 0.3713, "step": 121120 }, { "epoch": 161.50666666666666, "grad_norm": 0.8046875, "learning_rate": 9.841168208657668e-05, "loss": 0.3714, "step": 121130 }, { "epoch": 161.52, "grad_norm": 0.7890625, "learning_rate": 9.841142013979739e-05, "loss": 0.3615, "step": 121140 }, { "epoch": 161.53333333333333, "grad_norm": 0.828125, "learning_rate": 9.84111581717683e-05, "loss": 0.3629, "step": 121150 }, { "epoch": 161.54666666666665, "grad_norm": 0.89453125, "learning_rate": 9.841089618248955e-05, "loss": 0.364, "step": 121160 }, { "epoch": 161.56, "grad_norm": 0.74609375, "learning_rate": 9.841063417196123e-05, "loss": 0.3584, "step": 121170 }, { "epoch": 161.57333333333332, "grad_norm": 0.82421875, "learning_rate": 9.841037214018347e-05, "loss": 0.3637, "step": 121180 }, { "epoch": 161.58666666666667, "grad_norm": 0.75390625, "learning_rate": 9.841011008715637e-05, "loss": 0.3545, "step": 121190 }, { "epoch": 161.6, "grad_norm": 0.8125, "learning_rate": 9.840984801288006e-05, "loss": 0.356, "step": 121200 }, { "epoch": 161.61333333333334, "grad_norm": 0.74609375, "learning_rate": 9.840958591735467e-05, "loss": 0.3482, "step": 121210 }, { "epoch": 161.62666666666667, "grad_norm": 0.6875, "learning_rate": 9.840932380058027e-05, "loss": 0.3516, "step": 121220 }, { "epoch": 161.64, "grad_norm": 0.86328125, "learning_rate": 9.840906166255703e-05, "loss": 0.3586, "step": 121230 }, { "epoch": 161.65333333333334, "grad_norm": 0.78125, "learning_rate": 9.840879950328501e-05, "loss": 0.3688, "step": 121240 }, { "epoch": 161.66666666666666, "grad_norm": 0.7421875, "learning_rate": 9.840853732276436e-05, "loss": 0.3617, "step": 121250 }, { "epoch": 161.68, "grad_norm": 0.7890625, "learning_rate": 9.84082751209952e-05, "loss": 0.3487, "step": 121260 }, { "epoch": 161.69333333333333, "grad_norm": 0.76171875, "learning_rate": 9.84080128979776e-05, "loss": 0.3615, "step": 121270 }, { "epoch": 161.70666666666668, "grad_norm": 0.92578125, "learning_rate": 9.840775065371174e-05, "loss": 0.35, "step": 121280 }, { "epoch": 161.72, "grad_norm": 0.91796875, "learning_rate": 9.840748838819769e-05, "loss": 0.3726, "step": 121290 }, { "epoch": 161.73333333333332, "grad_norm": 0.8515625, "learning_rate": 9.840722610143556e-05, "loss": 0.3671, "step": 121300 }, { "epoch": 161.74666666666667, "grad_norm": 0.75390625, "learning_rate": 9.84069637934255e-05, "loss": 0.3705, "step": 121310 }, { "epoch": 161.76, "grad_norm": 0.78515625, "learning_rate": 9.84067014641676e-05, "loss": 0.384, "step": 121320 }, { "epoch": 161.77333333333334, "grad_norm": 0.83203125, "learning_rate": 9.840643911366198e-05, "loss": 0.368, "step": 121330 }, { "epoch": 161.78666666666666, "grad_norm": 0.7734375, "learning_rate": 9.840617674190875e-05, "loss": 0.3716, "step": 121340 }, { "epoch": 161.8, "grad_norm": 0.859375, "learning_rate": 9.840591434890805e-05, "loss": 0.3683, "step": 121350 }, { "epoch": 161.81333333333333, "grad_norm": 0.921875, "learning_rate": 9.840565193465997e-05, "loss": 0.342, "step": 121360 }, { "epoch": 161.82666666666665, "grad_norm": 0.83984375, "learning_rate": 9.840538949916463e-05, "loss": 0.3501, "step": 121370 }, { "epoch": 161.84, "grad_norm": 0.859375, "learning_rate": 9.840512704242215e-05, "loss": 0.3624, "step": 121380 }, { "epoch": 161.85333333333332, "grad_norm": 0.8671875, "learning_rate": 9.840486456443265e-05, "loss": 0.3585, "step": 121390 }, { "epoch": 161.86666666666667, "grad_norm": 0.85546875, "learning_rate": 9.840460206519623e-05, "loss": 0.3651, "step": 121400 }, { "epoch": 161.88, "grad_norm": 0.80078125, "learning_rate": 9.840433954471301e-05, "loss": 0.3461, "step": 121410 }, { "epoch": 161.89333333333335, "grad_norm": 0.75390625, "learning_rate": 9.84040770029831e-05, "loss": 0.3585, "step": 121420 }, { "epoch": 161.90666666666667, "grad_norm": 0.828125, "learning_rate": 9.840381444000665e-05, "loss": 0.362, "step": 121430 }, { "epoch": 161.92, "grad_norm": 0.84765625, "learning_rate": 9.840355185578374e-05, "loss": 0.3631, "step": 121440 }, { "epoch": 161.93333333333334, "grad_norm": 0.8203125, "learning_rate": 9.840328925031448e-05, "loss": 0.3595, "step": 121450 }, { "epoch": 161.94666666666666, "grad_norm": 0.77734375, "learning_rate": 9.840302662359901e-05, "loss": 0.3591, "step": 121460 }, { "epoch": 161.96, "grad_norm": 0.765625, "learning_rate": 9.840276397563743e-05, "loss": 0.358, "step": 121470 }, { "epoch": 161.97333333333333, "grad_norm": 1.109375, "learning_rate": 9.840250130642988e-05, "loss": 0.3797, "step": 121480 }, { "epoch": 161.98666666666668, "grad_norm": 0.7578125, "learning_rate": 9.840223861597644e-05, "loss": 0.3509, "step": 121490 }, { "epoch": 162.0, "grad_norm": 0.80078125, "learning_rate": 9.840197590427724e-05, "loss": 0.352, "step": 121500 }, { "epoch": 162.0, "eval_loss": 0.4177776277065277, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.8107, "eval_samples_per_second": 1.355, "eval_steps_per_second": 0.085, "step": 121500 }, { "epoch": 162.01333333333332, "grad_norm": 0.97265625, "learning_rate": 9.84017131713324e-05, "loss": 0.3667, "step": 121510 }, { "epoch": 162.02666666666667, "grad_norm": 0.83984375, "learning_rate": 9.840145041714203e-05, "loss": 0.3825, "step": 121520 }, { "epoch": 162.04, "grad_norm": 0.74609375, "learning_rate": 9.840118764170625e-05, "loss": 0.3956, "step": 121530 }, { "epoch": 162.05333333333334, "grad_norm": 0.82421875, "learning_rate": 9.840092484502517e-05, "loss": 0.3791, "step": 121540 }, { "epoch": 162.06666666666666, "grad_norm": 1.0, "learning_rate": 9.84006620270989e-05, "loss": 0.3682, "step": 121550 }, { "epoch": 162.08, "grad_norm": 0.84765625, "learning_rate": 9.840039918792757e-05, "loss": 0.3706, "step": 121560 }, { "epoch": 162.09333333333333, "grad_norm": 0.86328125, "learning_rate": 9.840013632751128e-05, "loss": 0.3729, "step": 121570 }, { "epoch": 162.10666666666665, "grad_norm": 0.73828125, "learning_rate": 9.839987344585017e-05, "loss": 0.3625, "step": 121580 }, { "epoch": 162.12, "grad_norm": 0.8203125, "learning_rate": 9.839961054294433e-05, "loss": 0.3645, "step": 121590 }, { "epoch": 162.13333333333333, "grad_norm": 0.8046875, "learning_rate": 9.839934761879388e-05, "loss": 0.3567, "step": 121600 }, { "epoch": 162.14666666666668, "grad_norm": 0.8203125, "learning_rate": 9.839908467339894e-05, "loss": 0.375, "step": 121610 }, { "epoch": 162.16, "grad_norm": 0.78515625, "learning_rate": 9.839882170675963e-05, "loss": 0.371, "step": 121620 }, { "epoch": 162.17333333333335, "grad_norm": 0.9140625, "learning_rate": 9.839855871887607e-05, "loss": 0.3661, "step": 121630 }, { "epoch": 162.18666666666667, "grad_norm": 0.78515625, "learning_rate": 9.839829570974834e-05, "loss": 0.3617, "step": 121640 }, { "epoch": 162.2, "grad_norm": 0.82421875, "learning_rate": 9.839803267937661e-05, "loss": 0.3545, "step": 121650 }, { "epoch": 162.21333333333334, "grad_norm": 0.8671875, "learning_rate": 9.839776962776095e-05, "loss": 0.3549, "step": 121660 }, { "epoch": 162.22666666666666, "grad_norm": 0.96875, "learning_rate": 9.83975065549015e-05, "loss": 0.3654, "step": 121670 }, { "epoch": 162.24, "grad_norm": 0.91015625, "learning_rate": 9.839724346079837e-05, "loss": 0.3524, "step": 121680 }, { "epoch": 162.25333333333333, "grad_norm": 0.890625, "learning_rate": 9.839698034545167e-05, "loss": 0.3536, "step": 121690 }, { "epoch": 162.26666666666668, "grad_norm": 0.79296875, "learning_rate": 9.839671720886151e-05, "loss": 0.3565, "step": 121700 }, { "epoch": 162.28, "grad_norm": 0.84765625, "learning_rate": 9.839645405102802e-05, "loss": 0.3837, "step": 121710 }, { "epoch": 162.29333333333332, "grad_norm": 0.8125, "learning_rate": 9.839619087195131e-05, "loss": 0.3437, "step": 121720 }, { "epoch": 162.30666666666667, "grad_norm": 0.80859375, "learning_rate": 9.839592767163151e-05, "loss": 0.3667, "step": 121730 }, { "epoch": 162.32, "grad_norm": 0.7578125, "learning_rate": 9.83956644500687e-05, "loss": 0.3716, "step": 121740 }, { "epoch": 162.33333333333334, "grad_norm": 0.859375, "learning_rate": 9.839540120726303e-05, "loss": 0.3691, "step": 121750 }, { "epoch": 162.34666666666666, "grad_norm": 0.8984375, "learning_rate": 9.83951379432146e-05, "loss": 0.3605, "step": 121760 }, { "epoch": 162.36, "grad_norm": 0.87109375, "learning_rate": 9.839487465792352e-05, "loss": 0.3612, "step": 121770 }, { "epoch": 162.37333333333333, "grad_norm": 0.78515625, "learning_rate": 9.839461135138992e-05, "loss": 0.3644, "step": 121780 }, { "epoch": 162.38666666666666, "grad_norm": 0.96875, "learning_rate": 9.839434802361391e-05, "loss": 0.3514, "step": 121790 }, { "epoch": 162.4, "grad_norm": 0.82421875, "learning_rate": 9.839408467459559e-05, "loss": 0.3629, "step": 121800 }, { "epoch": 162.41333333333333, "grad_norm": 0.86328125, "learning_rate": 9.839382130433509e-05, "loss": 0.3678, "step": 121810 }, { "epoch": 162.42666666666668, "grad_norm": 0.79296875, "learning_rate": 9.839355791283256e-05, "loss": 0.3695, "step": 121820 }, { "epoch": 162.44, "grad_norm": 0.84375, "learning_rate": 9.839329450008806e-05, "loss": 0.3817, "step": 121830 }, { "epoch": 162.45333333333335, "grad_norm": 0.7734375, "learning_rate": 9.839303106610171e-05, "loss": 0.3689, "step": 121840 }, { "epoch": 162.46666666666667, "grad_norm": 0.86328125, "learning_rate": 9.839276761087366e-05, "loss": 0.3766, "step": 121850 }, { "epoch": 162.48, "grad_norm": 0.85546875, "learning_rate": 9.839250413440401e-05, "loss": 0.3589, "step": 121860 }, { "epoch": 162.49333333333334, "grad_norm": 0.89453125, "learning_rate": 9.839224063669287e-05, "loss": 0.3708, "step": 121870 }, { "epoch": 162.50666666666666, "grad_norm": 0.8359375, "learning_rate": 9.839197711774036e-05, "loss": 0.3707, "step": 121880 }, { "epoch": 162.52, "grad_norm": 0.78125, "learning_rate": 9.83917135775466e-05, "loss": 0.3614, "step": 121890 }, { "epoch": 162.53333333333333, "grad_norm": 0.88671875, "learning_rate": 9.839145001611167e-05, "loss": 0.3638, "step": 121900 }, { "epoch": 162.54666666666665, "grad_norm": 0.90234375, "learning_rate": 9.839118643343576e-05, "loss": 0.3637, "step": 121910 }, { "epoch": 162.56, "grad_norm": 0.796875, "learning_rate": 9.839092282951892e-05, "loss": 0.3581, "step": 121920 }, { "epoch": 162.57333333333332, "grad_norm": 0.9921875, "learning_rate": 9.839065920436128e-05, "loss": 0.363, "step": 121930 }, { "epoch": 162.58666666666667, "grad_norm": 0.73828125, "learning_rate": 9.839039555796298e-05, "loss": 0.354, "step": 121940 }, { "epoch": 162.6, "grad_norm": 0.86328125, "learning_rate": 9.839013189032411e-05, "loss": 0.3554, "step": 121950 }, { "epoch": 162.61333333333334, "grad_norm": 0.74609375, "learning_rate": 9.83898682014448e-05, "loss": 0.3481, "step": 121960 }, { "epoch": 162.62666666666667, "grad_norm": 0.76171875, "learning_rate": 9.838960449132516e-05, "loss": 0.3523, "step": 121970 }, { "epoch": 162.64, "grad_norm": 0.87109375, "learning_rate": 9.838934075996531e-05, "loss": 0.3581, "step": 121980 }, { "epoch": 162.65333333333334, "grad_norm": 0.8125, "learning_rate": 9.838907700736535e-05, "loss": 0.3695, "step": 121990 }, { "epoch": 162.66666666666666, "grad_norm": 0.7734375, "learning_rate": 9.838881323352542e-05, "loss": 0.3614, "step": 122000 }, { "epoch": 162.68, "grad_norm": 0.88671875, "learning_rate": 9.838854943844562e-05, "loss": 0.3499, "step": 122010 }, { "epoch": 162.69333333333333, "grad_norm": 0.76953125, "learning_rate": 9.838828562212607e-05, "loss": 0.3613, "step": 122020 }, { "epoch": 162.70666666666668, "grad_norm": 0.953125, "learning_rate": 9.838802178456689e-05, "loss": 0.3507, "step": 122030 }, { "epoch": 162.72, "grad_norm": 0.8984375, "learning_rate": 9.838775792576817e-05, "loss": 0.3719, "step": 122040 }, { "epoch": 162.73333333333332, "grad_norm": 0.8203125, "learning_rate": 9.838749404573007e-05, "loss": 0.3679, "step": 122050 }, { "epoch": 162.74666666666667, "grad_norm": 0.84765625, "learning_rate": 9.838723014445268e-05, "loss": 0.3713, "step": 122060 }, { "epoch": 162.76, "grad_norm": 0.84375, "learning_rate": 9.838696622193612e-05, "loss": 0.3842, "step": 122070 }, { "epoch": 162.77333333333334, "grad_norm": 0.8203125, "learning_rate": 9.83867022781805e-05, "loss": 0.3678, "step": 122080 }, { "epoch": 162.78666666666666, "grad_norm": 0.7265625, "learning_rate": 9.838643831318593e-05, "loss": 0.3705, "step": 122090 }, { "epoch": 162.8, "grad_norm": 0.91796875, "learning_rate": 9.838617432695255e-05, "loss": 0.3684, "step": 122100 }, { "epoch": 162.81333333333333, "grad_norm": 0.90234375, "learning_rate": 9.838591031948045e-05, "loss": 0.3428, "step": 122110 }, { "epoch": 162.82666666666665, "grad_norm": 0.84765625, "learning_rate": 9.838564629076979e-05, "loss": 0.3493, "step": 122120 }, { "epoch": 162.84, "grad_norm": 0.96875, "learning_rate": 9.838538224082061e-05, "loss": 0.3627, "step": 122130 }, { "epoch": 162.85333333333332, "grad_norm": 0.796875, "learning_rate": 9.83851181696331e-05, "loss": 0.3576, "step": 122140 }, { "epoch": 162.86666666666667, "grad_norm": 0.8359375, "learning_rate": 9.838485407720734e-05, "loss": 0.3644, "step": 122150 }, { "epoch": 162.88, "grad_norm": 0.83203125, "learning_rate": 9.838458996354344e-05, "loss": 0.3452, "step": 122160 }, { "epoch": 162.89333333333335, "grad_norm": 0.77734375, "learning_rate": 9.838432582864153e-05, "loss": 0.3578, "step": 122170 }, { "epoch": 162.90666666666667, "grad_norm": 0.8828125, "learning_rate": 9.838406167250174e-05, "loss": 0.3616, "step": 122180 }, { "epoch": 162.92, "grad_norm": 0.88671875, "learning_rate": 9.838379749512415e-05, "loss": 0.3631, "step": 122190 }, { "epoch": 162.93333333333334, "grad_norm": 0.72265625, "learning_rate": 9.83835332965089e-05, "loss": 0.3587, "step": 122200 }, { "epoch": 162.94666666666666, "grad_norm": 0.86328125, "learning_rate": 9.838326907665612e-05, "loss": 0.3587, "step": 122210 }, { "epoch": 162.96, "grad_norm": 0.7890625, "learning_rate": 9.838300483556589e-05, "loss": 0.3586, "step": 122220 }, { "epoch": 162.97333333333333, "grad_norm": 1.1640625, "learning_rate": 9.838274057323833e-05, "loss": 0.3799, "step": 122230 }, { "epoch": 162.98666666666668, "grad_norm": 0.81640625, "learning_rate": 9.838247628967359e-05, "loss": 0.3503, "step": 122240 }, { "epoch": 163.0, "grad_norm": 0.78515625, "learning_rate": 9.838221198487176e-05, "loss": 0.3513, "step": 122250 }, { "epoch": 163.0, "eval_loss": 0.41858044266700745, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.8994, "eval_samples_per_second": 1.345, "eval_steps_per_second": 0.084, "step": 122250 }, { "epoch": 163.01333333333332, "grad_norm": 0.94921875, "learning_rate": 9.838194765883296e-05, "loss": 0.368, "step": 122260 }, { "epoch": 163.02666666666667, "grad_norm": 0.7578125, "learning_rate": 9.838168331155731e-05, "loss": 0.3827, "step": 122270 }, { "epoch": 163.04, "grad_norm": 0.796875, "learning_rate": 9.838141894304493e-05, "loss": 0.395, "step": 122280 }, { "epoch": 163.05333333333334, "grad_norm": 0.83984375, "learning_rate": 9.838115455329592e-05, "loss": 0.3793, "step": 122290 }, { "epoch": 163.06666666666666, "grad_norm": 0.875, "learning_rate": 9.83808901423104e-05, "loss": 0.368, "step": 122300 }, { "epoch": 163.08, "grad_norm": 0.859375, "learning_rate": 9.838062571008851e-05, "loss": 0.3707, "step": 122310 }, { "epoch": 163.09333333333333, "grad_norm": 0.890625, "learning_rate": 9.838036125663033e-05, "loss": 0.3739, "step": 122320 }, { "epoch": 163.10666666666665, "grad_norm": 0.765625, "learning_rate": 9.8380096781936e-05, "loss": 0.3623, "step": 122330 }, { "epoch": 163.12, "grad_norm": 0.83984375, "learning_rate": 9.837983228600562e-05, "loss": 0.363, "step": 122340 }, { "epoch": 163.13333333333333, "grad_norm": 0.81640625, "learning_rate": 9.837956776883934e-05, "loss": 0.3566, "step": 122350 }, { "epoch": 163.14666666666668, "grad_norm": 0.80859375, "learning_rate": 9.837930323043723e-05, "loss": 0.3743, "step": 122360 }, { "epoch": 163.16, "grad_norm": 0.83984375, "learning_rate": 9.837903867079945e-05, "loss": 0.3706, "step": 122370 }, { "epoch": 163.17333333333335, "grad_norm": 0.8671875, "learning_rate": 9.837877408992607e-05, "loss": 0.3652, "step": 122380 }, { "epoch": 163.18666666666667, "grad_norm": 0.78515625, "learning_rate": 9.837850948781724e-05, "loss": 0.3621, "step": 122390 }, { "epoch": 163.2, "grad_norm": 0.765625, "learning_rate": 9.837824486447307e-05, "loss": 0.3539, "step": 122400 }, { "epoch": 163.21333333333334, "grad_norm": 0.84765625, "learning_rate": 9.837798021989367e-05, "loss": 0.3546, "step": 122410 }, { "epoch": 163.22666666666666, "grad_norm": 0.8125, "learning_rate": 9.837771555407916e-05, "loss": 0.3659, "step": 122420 }, { "epoch": 163.24, "grad_norm": 0.7734375, "learning_rate": 9.837745086702965e-05, "loss": 0.3521, "step": 122430 }, { "epoch": 163.25333333333333, "grad_norm": 0.78515625, "learning_rate": 9.837718615874528e-05, "loss": 0.3525, "step": 122440 }, { "epoch": 163.26666666666668, "grad_norm": 0.796875, "learning_rate": 9.837692142922613e-05, "loss": 0.3567, "step": 122450 }, { "epoch": 163.28, "grad_norm": 0.75390625, "learning_rate": 9.837665667847234e-05, "loss": 0.3834, "step": 122460 }, { "epoch": 163.29333333333332, "grad_norm": 0.80859375, "learning_rate": 9.837639190648401e-05, "loss": 0.3431, "step": 122470 }, { "epoch": 163.30666666666667, "grad_norm": 0.84375, "learning_rate": 9.837612711326128e-05, "loss": 0.3674, "step": 122480 }, { "epoch": 163.32, "grad_norm": 0.72265625, "learning_rate": 9.837586229880424e-05, "loss": 0.37, "step": 122490 }, { "epoch": 163.33333333333334, "grad_norm": 0.82421875, "learning_rate": 9.837559746311302e-05, "loss": 0.3691, "step": 122500 }, { "epoch": 163.34666666666666, "grad_norm": 0.8359375, "learning_rate": 9.837533260618774e-05, "loss": 0.3599, "step": 122510 }, { "epoch": 163.36, "grad_norm": 0.91015625, "learning_rate": 9.837506772802851e-05, "loss": 0.3609, "step": 122520 }, { "epoch": 163.37333333333333, "grad_norm": 0.75, "learning_rate": 9.837480282863544e-05, "loss": 0.3644, "step": 122530 }, { "epoch": 163.38666666666666, "grad_norm": 0.95703125, "learning_rate": 9.837453790800867e-05, "loss": 0.3516, "step": 122540 }, { "epoch": 163.4, "grad_norm": 0.8125, "learning_rate": 9.837427296614829e-05, "loss": 0.3619, "step": 122550 }, { "epoch": 163.41333333333333, "grad_norm": 0.765625, "learning_rate": 9.837400800305443e-05, "loss": 0.3685, "step": 122560 }, { "epoch": 163.42666666666668, "grad_norm": 0.78125, "learning_rate": 9.83737430187272e-05, "loss": 0.3698, "step": 122570 }, { "epoch": 163.44, "grad_norm": 0.8046875, "learning_rate": 9.83734780131667e-05, "loss": 0.3813, "step": 122580 }, { "epoch": 163.45333333333335, "grad_norm": 0.8125, "learning_rate": 9.83732129863731e-05, "loss": 0.3695, "step": 122590 }, { "epoch": 163.46666666666667, "grad_norm": 0.83203125, "learning_rate": 9.837294793834646e-05, "loss": 0.3768, "step": 122600 }, { "epoch": 163.48, "grad_norm": 0.84765625, "learning_rate": 9.837268286908692e-05, "loss": 0.3594, "step": 122610 }, { "epoch": 163.49333333333334, "grad_norm": 0.81640625, "learning_rate": 9.83724177785946e-05, "loss": 0.3715, "step": 122620 }, { "epoch": 163.50666666666666, "grad_norm": 0.8828125, "learning_rate": 9.83721526668696e-05, "loss": 0.3705, "step": 122630 }, { "epoch": 163.52, "grad_norm": 0.703125, "learning_rate": 9.837188753391206e-05, "loss": 0.3618, "step": 122640 }, { "epoch": 163.53333333333333, "grad_norm": 0.8203125, "learning_rate": 9.837162237972207e-05, "loss": 0.3618, "step": 122650 }, { "epoch": 163.54666666666665, "grad_norm": 1.015625, "learning_rate": 9.837135720429977e-05, "loss": 0.3636, "step": 122660 }, { "epoch": 163.56, "grad_norm": 0.7421875, "learning_rate": 9.837109200764526e-05, "loss": 0.3579, "step": 122670 }, { "epoch": 163.57333333333332, "grad_norm": 0.87109375, "learning_rate": 9.837082678975867e-05, "loss": 0.3632, "step": 122680 }, { "epoch": 163.58666666666667, "grad_norm": 0.76171875, "learning_rate": 9.837056155064009e-05, "loss": 0.354, "step": 122690 }, { "epoch": 163.6, "grad_norm": 0.78515625, "learning_rate": 9.837029629028967e-05, "loss": 0.3554, "step": 122700 }, { "epoch": 163.61333333333334, "grad_norm": 0.73046875, "learning_rate": 9.837003100870752e-05, "loss": 0.348, "step": 122710 }, { "epoch": 163.62666666666667, "grad_norm": 0.73828125, "learning_rate": 9.836976570589373e-05, "loss": 0.3527, "step": 122720 }, { "epoch": 163.64, "grad_norm": 0.87890625, "learning_rate": 9.836950038184844e-05, "loss": 0.3582, "step": 122730 }, { "epoch": 163.65333333333334, "grad_norm": 0.8359375, "learning_rate": 9.836923503657177e-05, "loss": 0.3697, "step": 122740 }, { "epoch": 163.66666666666666, "grad_norm": 0.7578125, "learning_rate": 9.836896967006381e-05, "loss": 0.3607, "step": 122750 }, { "epoch": 163.68, "grad_norm": 0.8359375, "learning_rate": 9.836870428232472e-05, "loss": 0.3491, "step": 122760 }, { "epoch": 163.69333333333333, "grad_norm": 0.7578125, "learning_rate": 9.836843887335457e-05, "loss": 0.3604, "step": 122770 }, { "epoch": 163.70666666666668, "grad_norm": 0.98046875, "learning_rate": 9.83681734431535e-05, "loss": 0.3507, "step": 122780 }, { "epoch": 163.72, "grad_norm": 0.8984375, "learning_rate": 9.836790799172165e-05, "loss": 0.3723, "step": 122790 }, { "epoch": 163.73333333333332, "grad_norm": 0.8359375, "learning_rate": 9.836764251905906e-05, "loss": 0.3683, "step": 122800 }, { "epoch": 163.74666666666667, "grad_norm": 0.8515625, "learning_rate": 9.836737702516593e-05, "loss": 0.3704, "step": 122810 }, { "epoch": 163.76, "grad_norm": 0.8828125, "learning_rate": 9.836711151004234e-05, "loss": 0.3842, "step": 122820 }, { "epoch": 163.77333333333334, "grad_norm": 0.87890625, "learning_rate": 9.83668459736884e-05, "loss": 0.3678, "step": 122830 }, { "epoch": 163.78666666666666, "grad_norm": 0.78125, "learning_rate": 9.836658041610424e-05, "loss": 0.3706, "step": 122840 }, { "epoch": 163.8, "grad_norm": 0.85546875, "learning_rate": 9.836631483728997e-05, "loss": 0.368, "step": 122850 }, { "epoch": 163.81333333333333, "grad_norm": 0.90234375, "learning_rate": 9.836604923724572e-05, "loss": 0.3427, "step": 122860 }, { "epoch": 163.82666666666665, "grad_norm": 0.79296875, "learning_rate": 9.83657836159716e-05, "loss": 0.3493, "step": 122870 }, { "epoch": 163.84, "grad_norm": 0.88671875, "learning_rate": 9.836551797346772e-05, "loss": 0.3627, "step": 122880 }, { "epoch": 163.85333333333332, "grad_norm": 0.8359375, "learning_rate": 9.836525230973418e-05, "loss": 0.3585, "step": 122890 }, { "epoch": 163.86666666666667, "grad_norm": 0.921875, "learning_rate": 9.836498662477112e-05, "loss": 0.3646, "step": 122900 }, { "epoch": 163.88, "grad_norm": 0.8125, "learning_rate": 9.836472091857867e-05, "loss": 0.3451, "step": 122910 }, { "epoch": 163.89333333333335, "grad_norm": 0.75, "learning_rate": 9.836445519115691e-05, "loss": 0.358, "step": 122920 }, { "epoch": 163.90666666666667, "grad_norm": 0.9453125, "learning_rate": 9.836418944250599e-05, "loss": 0.3616, "step": 122930 }, { "epoch": 163.92, "grad_norm": 0.828125, "learning_rate": 9.8363923672626e-05, "loss": 0.3629, "step": 122940 }, { "epoch": 163.93333333333334, "grad_norm": 0.75, "learning_rate": 9.836365788151708e-05, "loss": 0.3601, "step": 122950 }, { "epoch": 163.94666666666666, "grad_norm": 0.8984375, "learning_rate": 9.836339206917932e-05, "loss": 0.3594, "step": 122960 }, { "epoch": 163.96, "grad_norm": 0.765625, "learning_rate": 9.836312623561288e-05, "loss": 0.3579, "step": 122970 }, { "epoch": 163.97333333333333, "grad_norm": 1.140625, "learning_rate": 9.836286038081782e-05, "loss": 0.3803, "step": 122980 }, { "epoch": 163.98666666666668, "grad_norm": 0.82421875, "learning_rate": 9.83625945047943e-05, "loss": 0.3502, "step": 122990 }, { "epoch": 164.0, "grad_norm": 0.87890625, "learning_rate": 9.836232860754243e-05, "loss": 0.3517, "step": 123000 }, { "epoch": 164.0, "eval_loss": 0.4172757565975189, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.3997, "eval_samples_per_second": 1.29, "eval_steps_per_second": 0.081, "step": 123000 }, { "epoch": 164.01333333333332, "grad_norm": 0.91796875, "learning_rate": 9.836206268906229e-05, "loss": 0.3669, "step": 123010 }, { "epoch": 164.02666666666667, "grad_norm": 0.78515625, "learning_rate": 9.836179674935405e-05, "loss": 0.3825, "step": 123020 }, { "epoch": 164.04, "grad_norm": 0.8359375, "learning_rate": 9.83615307884178e-05, "loss": 0.3961, "step": 123030 }, { "epoch": 164.05333333333334, "grad_norm": 0.86328125, "learning_rate": 9.836126480625366e-05, "loss": 0.3789, "step": 123040 }, { "epoch": 164.06666666666666, "grad_norm": 0.8515625, "learning_rate": 9.836099880286173e-05, "loss": 0.3691, "step": 123050 }, { "epoch": 164.08, "grad_norm": 0.81640625, "learning_rate": 9.836073277824217e-05, "loss": 0.3711, "step": 123060 }, { "epoch": 164.09333333333333, "grad_norm": 0.9140625, "learning_rate": 9.836046673239506e-05, "loss": 0.3735, "step": 123070 }, { "epoch": 164.10666666666665, "grad_norm": 0.734375, "learning_rate": 9.83602006653205e-05, "loss": 0.3624, "step": 123080 }, { "epoch": 164.12, "grad_norm": 0.87109375, "learning_rate": 9.835993457701866e-05, "loss": 0.3626, "step": 123090 }, { "epoch": 164.13333333333333, "grad_norm": 0.71484375, "learning_rate": 9.835966846748963e-05, "loss": 0.3563, "step": 123100 }, { "epoch": 164.14666666666668, "grad_norm": 0.92578125, "learning_rate": 9.835940233673351e-05, "loss": 0.3747, "step": 123110 }, { "epoch": 164.16, "grad_norm": 0.7421875, "learning_rate": 9.835913618475046e-05, "loss": 0.3707, "step": 123120 }, { "epoch": 164.17333333333335, "grad_norm": 0.86328125, "learning_rate": 9.835887001154053e-05, "loss": 0.365, "step": 123130 }, { "epoch": 164.18666666666667, "grad_norm": 0.79296875, "learning_rate": 9.835860381710391e-05, "loss": 0.3618, "step": 123140 }, { "epoch": 164.2, "grad_norm": 0.91796875, "learning_rate": 9.835833760144068e-05, "loss": 0.3535, "step": 123150 }, { "epoch": 164.21333333333334, "grad_norm": 0.8828125, "learning_rate": 9.835807136455096e-05, "loss": 0.3544, "step": 123160 }, { "epoch": 164.22666666666666, "grad_norm": 0.90625, "learning_rate": 9.835780510643487e-05, "loss": 0.3659, "step": 123170 }, { "epoch": 164.24, "grad_norm": 0.84375, "learning_rate": 9.835753882709252e-05, "loss": 0.3527, "step": 123180 }, { "epoch": 164.25333333333333, "grad_norm": 0.796875, "learning_rate": 9.835727252652402e-05, "loss": 0.3524, "step": 123190 }, { "epoch": 164.26666666666668, "grad_norm": 0.8125, "learning_rate": 9.835700620472951e-05, "loss": 0.3556, "step": 123200 }, { "epoch": 164.28, "grad_norm": 0.875, "learning_rate": 9.83567398617091e-05, "loss": 0.3841, "step": 123210 }, { "epoch": 164.29333333333332, "grad_norm": 0.765625, "learning_rate": 9.835647349746288e-05, "loss": 0.343, "step": 123220 }, { "epoch": 164.30666666666667, "grad_norm": 0.7578125, "learning_rate": 9.8356207111991e-05, "loss": 0.3666, "step": 123230 }, { "epoch": 164.32, "grad_norm": 0.703125, "learning_rate": 9.835594070529359e-05, "loss": 0.3707, "step": 123240 }, { "epoch": 164.33333333333334, "grad_norm": 0.9296875, "learning_rate": 9.835567427737072e-05, "loss": 0.3686, "step": 123250 }, { "epoch": 164.34666666666666, "grad_norm": 0.89453125, "learning_rate": 9.835540782822252e-05, "loss": 0.3596, "step": 123260 }, { "epoch": 164.36, "grad_norm": 0.80859375, "learning_rate": 9.835514135784913e-05, "loss": 0.3618, "step": 123270 }, { "epoch": 164.37333333333333, "grad_norm": 0.73046875, "learning_rate": 9.835487486625065e-05, "loss": 0.364, "step": 123280 }, { "epoch": 164.38666666666666, "grad_norm": 0.93359375, "learning_rate": 9.835460835342722e-05, "loss": 0.3516, "step": 123290 }, { "epoch": 164.4, "grad_norm": 0.84375, "learning_rate": 9.835434181937893e-05, "loss": 0.3616, "step": 123300 }, { "epoch": 164.41333333333333, "grad_norm": 0.75, "learning_rate": 9.835407526410589e-05, "loss": 0.3675, "step": 123310 }, { "epoch": 164.42666666666668, "grad_norm": 0.78125, "learning_rate": 9.835380868760824e-05, "loss": 0.3686, "step": 123320 }, { "epoch": 164.44, "grad_norm": 0.8671875, "learning_rate": 9.835354208988608e-05, "loss": 0.3818, "step": 123330 }, { "epoch": 164.45333333333335, "grad_norm": 0.828125, "learning_rate": 9.835327547093956e-05, "loss": 0.3696, "step": 123340 }, { "epoch": 164.46666666666667, "grad_norm": 0.76171875, "learning_rate": 9.835300883076874e-05, "loss": 0.3762, "step": 123350 }, { "epoch": 164.48, "grad_norm": 0.83984375, "learning_rate": 9.835274216937379e-05, "loss": 0.3593, "step": 123360 }, { "epoch": 164.49333333333334, "grad_norm": 0.828125, "learning_rate": 9.835247548675481e-05, "loss": 0.371, "step": 123370 }, { "epoch": 164.50666666666666, "grad_norm": 0.859375, "learning_rate": 9.835220878291191e-05, "loss": 0.3708, "step": 123380 }, { "epoch": 164.52, "grad_norm": 0.7421875, "learning_rate": 9.83519420578452e-05, "loss": 0.3623, "step": 123390 }, { "epoch": 164.53333333333333, "grad_norm": 0.83984375, "learning_rate": 9.835167531155483e-05, "loss": 0.3631, "step": 123400 }, { "epoch": 164.54666666666665, "grad_norm": 0.85546875, "learning_rate": 9.835140854404088e-05, "loss": 0.3634, "step": 123410 }, { "epoch": 164.56, "grad_norm": 0.79296875, "learning_rate": 9.835114175530348e-05, "loss": 0.3587, "step": 123420 }, { "epoch": 164.57333333333332, "grad_norm": 0.86328125, "learning_rate": 9.835087494534274e-05, "loss": 0.3634, "step": 123430 }, { "epoch": 164.58666666666667, "grad_norm": 0.78515625, "learning_rate": 9.835060811415882e-05, "loss": 0.3538, "step": 123440 }, { "epoch": 164.6, "grad_norm": 0.73828125, "learning_rate": 9.835034126175177e-05, "loss": 0.3555, "step": 123450 }, { "epoch": 164.61333333333334, "grad_norm": 0.77734375, "learning_rate": 9.835007438812177e-05, "loss": 0.348, "step": 123460 }, { "epoch": 164.62666666666667, "grad_norm": 0.7265625, "learning_rate": 9.834980749326887e-05, "loss": 0.3517, "step": 123470 }, { "epoch": 164.64, "grad_norm": 0.91015625, "learning_rate": 9.834954057719325e-05, "loss": 0.3578, "step": 123480 }, { "epoch": 164.65333333333334, "grad_norm": 0.82421875, "learning_rate": 9.834927363989501e-05, "loss": 0.3693, "step": 123490 }, { "epoch": 164.66666666666666, "grad_norm": 0.77734375, "learning_rate": 9.834900668137425e-05, "loss": 0.3611, "step": 123500 }, { "epoch": 164.68, "grad_norm": 0.87890625, "learning_rate": 9.83487397016311e-05, "loss": 0.35, "step": 123510 }, { "epoch": 164.69333333333333, "grad_norm": 0.8046875, "learning_rate": 9.834847270066567e-05, "loss": 0.3607, "step": 123520 }, { "epoch": 164.70666666666668, "grad_norm": 0.921875, "learning_rate": 9.834820567847806e-05, "loss": 0.3508, "step": 123530 }, { "epoch": 164.72, "grad_norm": 0.8984375, "learning_rate": 9.834793863506843e-05, "loss": 0.3707, "step": 123540 }, { "epoch": 164.73333333333332, "grad_norm": 0.88671875, "learning_rate": 9.834767157043689e-05, "loss": 0.3675, "step": 123550 }, { "epoch": 164.74666666666667, "grad_norm": 0.8359375, "learning_rate": 9.834740448458352e-05, "loss": 0.371, "step": 123560 }, { "epoch": 164.76, "grad_norm": 0.84375, "learning_rate": 9.834713737750847e-05, "loss": 0.3834, "step": 123570 }, { "epoch": 164.77333333333334, "grad_norm": 0.9453125, "learning_rate": 9.834687024921184e-05, "loss": 0.3676, "step": 123580 }, { "epoch": 164.78666666666666, "grad_norm": 0.77734375, "learning_rate": 9.834660309969376e-05, "loss": 0.3707, "step": 123590 }, { "epoch": 164.8, "grad_norm": 0.9296875, "learning_rate": 9.834633592895434e-05, "loss": 0.3686, "step": 123600 }, { "epoch": 164.81333333333333, "grad_norm": 0.89453125, "learning_rate": 9.83460687369937e-05, "loss": 0.3431, "step": 123610 }, { "epoch": 164.82666666666665, "grad_norm": 0.8359375, "learning_rate": 9.834580152381196e-05, "loss": 0.3495, "step": 123620 }, { "epoch": 164.84, "grad_norm": 0.94140625, "learning_rate": 9.834553428940922e-05, "loss": 0.3626, "step": 123630 }, { "epoch": 164.85333333333332, "grad_norm": 0.80859375, "learning_rate": 9.834526703378562e-05, "loss": 0.3582, "step": 123640 }, { "epoch": 164.86666666666667, "grad_norm": 0.91015625, "learning_rate": 9.834499975694127e-05, "loss": 0.3644, "step": 123650 }, { "epoch": 164.88, "grad_norm": 0.83203125, "learning_rate": 9.834473245887627e-05, "loss": 0.3444, "step": 123660 }, { "epoch": 164.89333333333335, "grad_norm": 0.76171875, "learning_rate": 9.834446513959076e-05, "loss": 0.3573, "step": 123670 }, { "epoch": 164.90666666666667, "grad_norm": 0.86328125, "learning_rate": 9.834419779908487e-05, "loss": 0.3617, "step": 123680 }, { "epoch": 164.92, "grad_norm": 0.76171875, "learning_rate": 9.834393043735867e-05, "loss": 0.3626, "step": 123690 }, { "epoch": 164.93333333333334, "grad_norm": 0.67578125, "learning_rate": 9.834366305441232e-05, "loss": 0.3594, "step": 123700 }, { "epoch": 164.94666666666666, "grad_norm": 0.78125, "learning_rate": 9.834339565024593e-05, "loss": 0.359, "step": 123710 }, { "epoch": 164.96, "grad_norm": 0.78125, "learning_rate": 9.83431282248596e-05, "loss": 0.3578, "step": 123720 }, { "epoch": 164.97333333333333, "grad_norm": 1.1875, "learning_rate": 9.834286077825346e-05, "loss": 0.3792, "step": 123730 }, { "epoch": 164.98666666666668, "grad_norm": 0.78515625, "learning_rate": 9.834259331042762e-05, "loss": 0.3503, "step": 123740 }, { "epoch": 165.0, "grad_norm": 0.88671875, "learning_rate": 9.834232582138219e-05, "loss": 0.3517, "step": 123750 }, { "epoch": 165.0, "eval_loss": 0.4164874255657196, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.1195, "eval_samples_per_second": 1.32, "eval_steps_per_second": 0.083, "step": 123750 }, { "epoch": 165.01333333333332, "grad_norm": 0.921875, "learning_rate": 9.834205831111732e-05, "loss": 0.3669, "step": 123760 }, { "epoch": 165.02666666666667, "grad_norm": 0.76171875, "learning_rate": 9.834179077963309e-05, "loss": 0.3832, "step": 123770 }, { "epoch": 165.04, "grad_norm": 0.73828125, "learning_rate": 9.834152322692965e-05, "loss": 0.3951, "step": 123780 }, { "epoch": 165.05333333333334, "grad_norm": 0.859375, "learning_rate": 9.834125565300709e-05, "loss": 0.379, "step": 123790 }, { "epoch": 165.06666666666666, "grad_norm": 0.94140625, "learning_rate": 9.834098805786553e-05, "loss": 0.3677, "step": 123800 }, { "epoch": 165.08, "grad_norm": 0.84765625, "learning_rate": 9.83407204415051e-05, "loss": 0.3706, "step": 123810 }, { "epoch": 165.09333333333333, "grad_norm": 0.85546875, "learning_rate": 9.834045280392594e-05, "loss": 0.3727, "step": 123820 }, { "epoch": 165.10666666666665, "grad_norm": 0.78125, "learning_rate": 9.834018514512812e-05, "loss": 0.3627, "step": 123830 }, { "epoch": 165.12, "grad_norm": 0.8359375, "learning_rate": 9.833991746511177e-05, "loss": 0.3637, "step": 123840 }, { "epoch": 165.13333333333333, "grad_norm": 0.7890625, "learning_rate": 9.833964976387704e-05, "loss": 0.355, "step": 123850 }, { "epoch": 165.14666666666668, "grad_norm": 0.8984375, "learning_rate": 9.833938204142402e-05, "loss": 0.3751, "step": 123860 }, { "epoch": 165.16, "grad_norm": 0.84375, "learning_rate": 9.833911429775282e-05, "loss": 0.3707, "step": 123870 }, { "epoch": 165.17333333333335, "grad_norm": 0.88671875, "learning_rate": 9.833884653286356e-05, "loss": 0.3652, "step": 123880 }, { "epoch": 165.18666666666667, "grad_norm": 0.80078125, "learning_rate": 9.833857874675638e-05, "loss": 0.3621, "step": 123890 }, { "epoch": 165.2, "grad_norm": 0.75, "learning_rate": 9.833831093943138e-05, "loss": 0.3531, "step": 123900 }, { "epoch": 165.21333333333334, "grad_norm": 0.875, "learning_rate": 9.833804311088867e-05, "loss": 0.3541, "step": 123910 }, { "epoch": 165.22666666666666, "grad_norm": 0.87890625, "learning_rate": 9.833777526112841e-05, "loss": 0.366, "step": 123920 }, { "epoch": 165.24, "grad_norm": 0.81640625, "learning_rate": 9.833750739015066e-05, "loss": 0.3521, "step": 123930 }, { "epoch": 165.25333333333333, "grad_norm": 0.84375, "learning_rate": 9.833723949795557e-05, "loss": 0.3523, "step": 123940 }, { "epoch": 165.26666666666668, "grad_norm": 0.83203125, "learning_rate": 9.833697158454326e-05, "loss": 0.356, "step": 123950 }, { "epoch": 165.28, "grad_norm": 0.80859375, "learning_rate": 9.833670364991384e-05, "loss": 0.3842, "step": 123960 }, { "epoch": 165.29333333333332, "grad_norm": 0.90234375, "learning_rate": 9.833643569406741e-05, "loss": 0.3423, "step": 123970 }, { "epoch": 165.30666666666667, "grad_norm": 0.8359375, "learning_rate": 9.833616771700412e-05, "loss": 0.3666, "step": 123980 }, { "epoch": 165.32, "grad_norm": 0.72265625, "learning_rate": 9.833589971872407e-05, "loss": 0.3703, "step": 123990 }, { "epoch": 165.33333333333334, "grad_norm": 0.8828125, "learning_rate": 9.833563169922738e-05, "loss": 0.3695, "step": 124000 }, { "epoch": 165.34666666666666, "grad_norm": 0.890625, "learning_rate": 9.833536365851416e-05, "loss": 0.3598, "step": 124010 }, { "epoch": 165.36, "grad_norm": 0.79296875, "learning_rate": 9.833509559658454e-05, "loss": 0.3605, "step": 124020 }, { "epoch": 165.37333333333333, "grad_norm": 0.70703125, "learning_rate": 9.833482751343863e-05, "loss": 0.3643, "step": 124030 }, { "epoch": 165.38666666666666, "grad_norm": 0.9609375, "learning_rate": 9.833455940907654e-05, "loss": 0.3511, "step": 124040 }, { "epoch": 165.4, "grad_norm": 0.7890625, "learning_rate": 9.833429128349843e-05, "loss": 0.3617, "step": 124050 }, { "epoch": 165.41333333333333, "grad_norm": 0.78515625, "learning_rate": 9.833402313670436e-05, "loss": 0.3677, "step": 124060 }, { "epoch": 165.42666666666668, "grad_norm": 0.796875, "learning_rate": 9.833375496869448e-05, "loss": 0.3693, "step": 124070 }, { "epoch": 165.44, "grad_norm": 0.8203125, "learning_rate": 9.83334867794689e-05, "loss": 0.3818, "step": 124080 }, { "epoch": 165.45333333333335, "grad_norm": 0.79296875, "learning_rate": 9.833321856902773e-05, "loss": 0.3681, "step": 124090 }, { "epoch": 165.46666666666667, "grad_norm": 0.82421875, "learning_rate": 9.833295033737111e-05, "loss": 0.3758, "step": 124100 }, { "epoch": 165.48, "grad_norm": 0.76171875, "learning_rate": 9.833268208449914e-05, "loss": 0.36, "step": 124110 }, { "epoch": 165.49333333333334, "grad_norm": 0.8671875, "learning_rate": 9.833241381041194e-05, "loss": 0.3706, "step": 124120 }, { "epoch": 165.50666666666666, "grad_norm": 0.86328125, "learning_rate": 9.833214551510963e-05, "loss": 0.3714, "step": 124130 }, { "epoch": 165.52, "grad_norm": 0.67578125, "learning_rate": 9.833187719859233e-05, "loss": 0.3623, "step": 124140 }, { "epoch": 165.53333333333333, "grad_norm": 0.875, "learning_rate": 9.833160886086017e-05, "loss": 0.3618, "step": 124150 }, { "epoch": 165.54666666666665, "grad_norm": 0.84765625, "learning_rate": 9.833134050191324e-05, "loss": 0.3636, "step": 124160 }, { "epoch": 165.56, "grad_norm": 0.80078125, "learning_rate": 9.833107212175166e-05, "loss": 0.3586, "step": 124170 }, { "epoch": 165.57333333333332, "grad_norm": 0.8984375, "learning_rate": 9.833080372037557e-05, "loss": 0.3626, "step": 124180 }, { "epoch": 165.58666666666667, "grad_norm": 0.7265625, "learning_rate": 9.833053529778508e-05, "loss": 0.3538, "step": 124190 }, { "epoch": 165.6, "grad_norm": 0.7734375, "learning_rate": 9.833026685398031e-05, "loss": 0.3557, "step": 124200 }, { "epoch": 165.61333333333334, "grad_norm": 0.71875, "learning_rate": 9.832999838896135e-05, "loss": 0.3475, "step": 124210 }, { "epoch": 165.62666666666667, "grad_norm": 0.71484375, "learning_rate": 9.832972990272835e-05, "loss": 0.3517, "step": 124220 }, { "epoch": 165.64, "grad_norm": 0.85546875, "learning_rate": 9.832946139528142e-05, "loss": 0.3587, "step": 124230 }, { "epoch": 165.65333333333334, "grad_norm": 0.859375, "learning_rate": 9.832919286662068e-05, "loss": 0.3699, "step": 124240 }, { "epoch": 165.66666666666666, "grad_norm": 0.8671875, "learning_rate": 9.832892431674624e-05, "loss": 0.361, "step": 124250 }, { "epoch": 165.68, "grad_norm": 0.9140625, "learning_rate": 9.832865574565821e-05, "loss": 0.3494, "step": 124260 }, { "epoch": 165.69333333333333, "grad_norm": 0.73828125, "learning_rate": 9.832838715335673e-05, "loss": 0.3602, "step": 124270 }, { "epoch": 165.70666666666668, "grad_norm": 0.98046875, "learning_rate": 9.832811853984192e-05, "loss": 0.3506, "step": 124280 }, { "epoch": 165.72, "grad_norm": 0.921875, "learning_rate": 9.832784990511388e-05, "loss": 0.3718, "step": 124290 }, { "epoch": 165.73333333333332, "grad_norm": 0.79296875, "learning_rate": 9.832758124917272e-05, "loss": 0.3676, "step": 124300 }, { "epoch": 165.74666666666667, "grad_norm": 0.78515625, "learning_rate": 9.832731257201857e-05, "loss": 0.3704, "step": 124310 }, { "epoch": 165.76, "grad_norm": 0.8515625, "learning_rate": 9.832704387365157e-05, "loss": 0.3837, "step": 124320 }, { "epoch": 165.77333333333334, "grad_norm": 0.953125, "learning_rate": 9.832677515407181e-05, "loss": 0.3689, "step": 124330 }, { "epoch": 165.78666666666666, "grad_norm": 0.78125, "learning_rate": 9.83265064132794e-05, "loss": 0.371, "step": 124340 }, { "epoch": 165.8, "grad_norm": 0.83984375, "learning_rate": 9.832623765127448e-05, "loss": 0.368, "step": 124350 }, { "epoch": 165.81333333333333, "grad_norm": 0.85546875, "learning_rate": 9.832596886805716e-05, "loss": 0.3423, "step": 124360 }, { "epoch": 165.82666666666665, "grad_norm": 0.78515625, "learning_rate": 9.832570006362756e-05, "loss": 0.3492, "step": 124370 }, { "epoch": 165.84, "grad_norm": 0.94921875, "learning_rate": 9.83254312379858e-05, "loss": 0.3631, "step": 124380 }, { "epoch": 165.85333333333332, "grad_norm": 0.78515625, "learning_rate": 9.832516239113199e-05, "loss": 0.3578, "step": 124390 }, { "epoch": 165.86666666666667, "grad_norm": 0.84765625, "learning_rate": 9.832489352306626e-05, "loss": 0.3642, "step": 124400 }, { "epoch": 165.88, "grad_norm": 0.76171875, "learning_rate": 9.83246246337887e-05, "loss": 0.3444, "step": 124410 }, { "epoch": 165.89333333333335, "grad_norm": 0.8671875, "learning_rate": 9.832435572329948e-05, "loss": 0.3582, "step": 124420 }, { "epoch": 165.90666666666667, "grad_norm": 0.85546875, "learning_rate": 9.832408679159866e-05, "loss": 0.3624, "step": 124430 }, { "epoch": 165.92, "grad_norm": 0.8046875, "learning_rate": 9.832381783868641e-05, "loss": 0.3626, "step": 124440 }, { "epoch": 165.93333333333334, "grad_norm": 0.76953125, "learning_rate": 9.832354886456281e-05, "loss": 0.3599, "step": 124450 }, { "epoch": 165.94666666666666, "grad_norm": 0.91015625, "learning_rate": 9.832327986922799e-05, "loss": 0.3591, "step": 124460 }, { "epoch": 165.96, "grad_norm": 0.8046875, "learning_rate": 9.832301085268208e-05, "loss": 0.3574, "step": 124470 }, { "epoch": 165.97333333333333, "grad_norm": 1.0859375, "learning_rate": 9.832274181492517e-05, "loss": 0.3804, "step": 124480 }, { "epoch": 165.98666666666668, "grad_norm": 0.859375, "learning_rate": 9.832247275595741e-05, "loss": 0.35, "step": 124490 }, { "epoch": 166.0, "grad_norm": 0.80078125, "learning_rate": 9.832220367577889e-05, "loss": 0.3513, "step": 124500 }, { "epoch": 166.0, "eval_loss": 0.417404443025589, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.4697, "eval_samples_per_second": 1.283, "eval_steps_per_second": 0.08, "step": 124500 }, { "epoch": 166.01333333333332, "grad_norm": 1.0078125, "learning_rate": 9.832193457438974e-05, "loss": 0.3672, "step": 124510 }, { "epoch": 166.02666666666667, "grad_norm": 0.8203125, "learning_rate": 9.832166545179009e-05, "loss": 0.3825, "step": 124520 }, { "epoch": 166.04, "grad_norm": 0.78515625, "learning_rate": 9.832139630798005e-05, "loss": 0.396, "step": 124530 }, { "epoch": 166.05333333333334, "grad_norm": 0.83203125, "learning_rate": 9.832112714295973e-05, "loss": 0.3791, "step": 124540 }, { "epoch": 166.06666666666666, "grad_norm": 0.9609375, "learning_rate": 9.832085795672926e-05, "loss": 0.3674, "step": 124550 }, { "epoch": 166.08, "grad_norm": 0.8359375, "learning_rate": 9.832058874928875e-05, "loss": 0.3701, "step": 124560 }, { "epoch": 166.09333333333333, "grad_norm": 0.83203125, "learning_rate": 9.832031952063832e-05, "loss": 0.3722, "step": 124570 }, { "epoch": 166.10666666666665, "grad_norm": 0.8046875, "learning_rate": 9.832005027077808e-05, "loss": 0.3624, "step": 124580 }, { "epoch": 166.12, "grad_norm": 0.86328125, "learning_rate": 9.831978099970816e-05, "loss": 0.3628, "step": 124590 }, { "epoch": 166.13333333333333, "grad_norm": 0.7734375, "learning_rate": 9.831951170742869e-05, "loss": 0.3558, "step": 124600 }, { "epoch": 166.14666666666668, "grad_norm": 0.8046875, "learning_rate": 9.831924239393975e-05, "loss": 0.3757, "step": 124610 }, { "epoch": 166.16, "grad_norm": 0.75, "learning_rate": 9.831897305924149e-05, "loss": 0.3706, "step": 124620 }, { "epoch": 166.17333333333335, "grad_norm": 0.91796875, "learning_rate": 9.831870370333402e-05, "loss": 0.3652, "step": 124630 }, { "epoch": 166.18666666666667, "grad_norm": 0.7890625, "learning_rate": 9.831843432621745e-05, "loss": 0.3619, "step": 124640 }, { "epoch": 166.2, "grad_norm": 0.84765625, "learning_rate": 9.831816492789193e-05, "loss": 0.3538, "step": 124650 }, { "epoch": 166.21333333333334, "grad_norm": 0.875, "learning_rate": 9.831789550835755e-05, "loss": 0.3549, "step": 124660 }, { "epoch": 166.22666666666666, "grad_norm": 0.84765625, "learning_rate": 9.83176260676144e-05, "loss": 0.3654, "step": 124670 }, { "epoch": 166.24, "grad_norm": 0.8203125, "learning_rate": 9.831735660566267e-05, "loss": 0.3517, "step": 124680 }, { "epoch": 166.25333333333333, "grad_norm": 0.8515625, "learning_rate": 9.831708712250242e-05, "loss": 0.3525, "step": 124690 }, { "epoch": 166.26666666666668, "grad_norm": 0.84375, "learning_rate": 9.83168176181338e-05, "loss": 0.3564, "step": 124700 }, { "epoch": 166.28, "grad_norm": 0.8671875, "learning_rate": 9.831654809255691e-05, "loss": 0.3833, "step": 124710 }, { "epoch": 166.29333333333332, "grad_norm": 0.88671875, "learning_rate": 9.831627854577186e-05, "loss": 0.3425, "step": 124720 }, { "epoch": 166.30666666666667, "grad_norm": 0.74609375, "learning_rate": 9.831600897777879e-05, "loss": 0.3664, "step": 124730 }, { "epoch": 166.32, "grad_norm": 0.7421875, "learning_rate": 9.831573938857781e-05, "loss": 0.3702, "step": 124740 }, { "epoch": 166.33333333333334, "grad_norm": 0.87109375, "learning_rate": 9.831546977816904e-05, "loss": 0.3684, "step": 124750 }, { "epoch": 166.34666666666666, "grad_norm": 0.8984375, "learning_rate": 9.83152001465526e-05, "loss": 0.3596, "step": 124760 }, { "epoch": 166.36, "grad_norm": 0.8671875, "learning_rate": 9.831493049372863e-05, "loss": 0.3611, "step": 124770 }, { "epoch": 166.37333333333333, "grad_norm": 0.72265625, "learning_rate": 9.831466081969717e-05, "loss": 0.3641, "step": 124780 }, { "epoch": 166.38666666666666, "grad_norm": 1.0078125, "learning_rate": 9.831439112445844e-05, "loss": 0.3516, "step": 124790 }, { "epoch": 166.4, "grad_norm": 0.796875, "learning_rate": 9.831412140801249e-05, "loss": 0.3612, "step": 124800 }, { "epoch": 166.41333333333333, "grad_norm": 0.78515625, "learning_rate": 9.831385167035946e-05, "loss": 0.3673, "step": 124810 }, { "epoch": 166.42666666666668, "grad_norm": 0.765625, "learning_rate": 9.831358191149946e-05, "loss": 0.3695, "step": 124820 }, { "epoch": 166.44, "grad_norm": 0.796875, "learning_rate": 9.831331213143263e-05, "loss": 0.3812, "step": 124830 }, { "epoch": 166.45333333333335, "grad_norm": 0.80078125, "learning_rate": 9.831304233015908e-05, "loss": 0.3686, "step": 124840 }, { "epoch": 166.46666666666667, "grad_norm": 0.8203125, "learning_rate": 9.83127725076789e-05, "loss": 0.3754, "step": 124850 }, { "epoch": 166.48, "grad_norm": 0.828125, "learning_rate": 9.831250266399225e-05, "loss": 0.3598, "step": 124860 }, { "epoch": 166.49333333333334, "grad_norm": 0.8359375, "learning_rate": 9.831223279909923e-05, "loss": 0.3704, "step": 124870 }, { "epoch": 166.50666666666666, "grad_norm": 0.796875, "learning_rate": 9.831196291299995e-05, "loss": 0.3709, "step": 124880 }, { "epoch": 166.52, "grad_norm": 0.7265625, "learning_rate": 9.831169300569452e-05, "loss": 0.3616, "step": 124890 }, { "epoch": 166.53333333333333, "grad_norm": 0.875, "learning_rate": 9.831142307718311e-05, "loss": 0.3614, "step": 124900 }, { "epoch": 166.54666666666665, "grad_norm": 0.9296875, "learning_rate": 9.831115312746579e-05, "loss": 0.3628, "step": 124910 }, { "epoch": 166.56, "grad_norm": 0.8203125, "learning_rate": 9.831088315654267e-05, "loss": 0.3578, "step": 124920 }, { "epoch": 166.57333333333332, "grad_norm": 0.890625, "learning_rate": 9.831061316441392e-05, "loss": 0.3629, "step": 124930 }, { "epoch": 166.58666666666667, "grad_norm": 0.74609375, "learning_rate": 9.831034315107961e-05, "loss": 0.354, "step": 124940 }, { "epoch": 166.6, "grad_norm": 0.859375, "learning_rate": 9.83100731165399e-05, "loss": 0.3555, "step": 124950 }, { "epoch": 166.61333333333334, "grad_norm": 0.76171875, "learning_rate": 9.830980306079488e-05, "loss": 0.3475, "step": 124960 }, { "epoch": 166.62666666666667, "grad_norm": 0.76171875, "learning_rate": 9.830953298384465e-05, "loss": 0.3514, "step": 124970 }, { "epoch": 166.64, "grad_norm": 0.9140625, "learning_rate": 9.830926288568938e-05, "loss": 0.3577, "step": 124980 }, { "epoch": 166.65333333333334, "grad_norm": 0.859375, "learning_rate": 9.830899276632914e-05, "loss": 0.3695, "step": 124990 }, { "epoch": 166.66666666666666, "grad_norm": 0.7265625, "learning_rate": 9.83087226257641e-05, "loss": 0.3605, "step": 125000 }, { "epoch": 166.68, "grad_norm": 0.91015625, "learning_rate": 9.830845246399431e-05, "loss": 0.3491, "step": 125010 }, { "epoch": 166.69333333333333, "grad_norm": 0.7734375, "learning_rate": 9.830818228101996e-05, "loss": 0.3604, "step": 125020 }, { "epoch": 166.70666666666668, "grad_norm": 0.8984375, "learning_rate": 9.830791207684113e-05, "loss": 0.3503, "step": 125030 }, { "epoch": 166.72, "grad_norm": 0.9765625, "learning_rate": 9.830764185145793e-05, "loss": 0.3723, "step": 125040 }, { "epoch": 166.73333333333332, "grad_norm": 0.80859375, "learning_rate": 9.830737160487051e-05, "loss": 0.3677, "step": 125050 }, { "epoch": 166.74666666666667, "grad_norm": 0.796875, "learning_rate": 9.830710133707897e-05, "loss": 0.3705, "step": 125060 }, { "epoch": 166.76, "grad_norm": 0.87109375, "learning_rate": 9.830683104808341e-05, "loss": 0.3839, "step": 125070 }, { "epoch": 166.77333333333334, "grad_norm": 0.86328125, "learning_rate": 9.830656073788399e-05, "loss": 0.3668, "step": 125080 }, { "epoch": 166.78666666666666, "grad_norm": 0.80859375, "learning_rate": 9.830629040648081e-05, "loss": 0.3707, "step": 125090 }, { "epoch": 166.8, "grad_norm": 0.84375, "learning_rate": 9.830602005387397e-05, "loss": 0.3682, "step": 125100 }, { "epoch": 166.81333333333333, "grad_norm": 0.9765625, "learning_rate": 9.830574968006362e-05, "loss": 0.3425, "step": 125110 }, { "epoch": 166.82666666666665, "grad_norm": 0.86328125, "learning_rate": 9.830547928504985e-05, "loss": 0.3491, "step": 125120 }, { "epoch": 166.84, "grad_norm": 0.90234375, "learning_rate": 9.830520886883281e-05, "loss": 0.3626, "step": 125130 }, { "epoch": 166.85333333333332, "grad_norm": 0.8359375, "learning_rate": 9.830493843141259e-05, "loss": 0.3577, "step": 125140 }, { "epoch": 166.86666666666667, "grad_norm": 0.91796875, "learning_rate": 9.830466797278932e-05, "loss": 0.3636, "step": 125150 }, { "epoch": 166.88, "grad_norm": 0.8515625, "learning_rate": 9.830439749296312e-05, "loss": 0.3444, "step": 125160 }, { "epoch": 166.89333333333335, "grad_norm": 0.75, "learning_rate": 9.830412699193411e-05, "loss": 0.3574, "step": 125170 }, { "epoch": 166.90666666666667, "grad_norm": 0.80859375, "learning_rate": 9.830385646970241e-05, "loss": 0.3607, "step": 125180 }, { "epoch": 166.92, "grad_norm": 0.82421875, "learning_rate": 9.830358592626811e-05, "loss": 0.3624, "step": 125190 }, { "epoch": 166.93333333333334, "grad_norm": 0.734375, "learning_rate": 9.830331536163139e-05, "loss": 0.3598, "step": 125200 }, { "epoch": 166.94666666666666, "grad_norm": 0.87109375, "learning_rate": 9.830304477579231e-05, "loss": 0.3589, "step": 125210 }, { "epoch": 166.96, "grad_norm": 0.77734375, "learning_rate": 9.830277416875102e-05, "loss": 0.3574, "step": 125220 }, { "epoch": 166.97333333333333, "grad_norm": 1.171875, "learning_rate": 9.830250354050763e-05, "loss": 0.3798, "step": 125230 }, { "epoch": 166.98666666666668, "grad_norm": 0.85546875, "learning_rate": 9.830223289106225e-05, "loss": 0.3498, "step": 125240 }, { "epoch": 167.0, "grad_norm": 0.83203125, "learning_rate": 9.8301962220415e-05, "loss": 0.3516, "step": 125250 }, { "epoch": 167.0, "eval_loss": 0.4171205461025238, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.2666, "eval_samples_per_second": 1.304, "eval_steps_per_second": 0.082, "step": 125250 }, { "epoch": 167.01333333333332, "grad_norm": 0.95703125, "learning_rate": 9.830169152856602e-05, "loss": 0.3667, "step": 125260 }, { "epoch": 167.02666666666667, "grad_norm": 0.796875, "learning_rate": 9.830142081551543e-05, "loss": 0.3811, "step": 125270 }, { "epoch": 167.04, "grad_norm": 0.79296875, "learning_rate": 9.830115008126331e-05, "loss": 0.3957, "step": 125280 }, { "epoch": 167.05333333333334, "grad_norm": 0.82421875, "learning_rate": 9.830087932580982e-05, "loss": 0.379, "step": 125290 }, { "epoch": 167.06666666666666, "grad_norm": 0.96875, "learning_rate": 9.830060854915506e-05, "loss": 0.3677, "step": 125300 }, { "epoch": 167.08, "grad_norm": 0.7890625, "learning_rate": 9.830033775129913e-05, "loss": 0.37, "step": 125310 }, { "epoch": 167.09333333333333, "grad_norm": 0.91015625, "learning_rate": 9.830006693224218e-05, "loss": 0.3738, "step": 125320 }, { "epoch": 167.10666666666665, "grad_norm": 0.96484375, "learning_rate": 9.829979609198431e-05, "loss": 0.3623, "step": 125330 }, { "epoch": 167.12, "grad_norm": 0.93359375, "learning_rate": 9.829952523052569e-05, "loss": 0.3624, "step": 125340 }, { "epoch": 167.13333333333333, "grad_norm": 0.7734375, "learning_rate": 9.829925434786635e-05, "loss": 0.3548, "step": 125350 }, { "epoch": 167.14666666666668, "grad_norm": 0.87890625, "learning_rate": 9.829898344400646e-05, "loss": 0.3747, "step": 125360 }, { "epoch": 167.16, "grad_norm": 0.8046875, "learning_rate": 9.829871251894615e-05, "loss": 0.3708, "step": 125370 }, { "epoch": 167.17333333333335, "grad_norm": 0.88671875, "learning_rate": 9.829844157268551e-05, "loss": 0.3649, "step": 125380 }, { "epoch": 167.18666666666667, "grad_norm": 0.765625, "learning_rate": 9.829817060522468e-05, "loss": 0.3625, "step": 125390 }, { "epoch": 167.2, "grad_norm": 0.84375, "learning_rate": 9.829789961656378e-05, "loss": 0.3539, "step": 125400 }, { "epoch": 167.21333333333334, "grad_norm": 0.89453125, "learning_rate": 9.82976286067029e-05, "loss": 0.3538, "step": 125410 }, { "epoch": 167.22666666666666, "grad_norm": 0.88671875, "learning_rate": 9.829735757564218e-05, "loss": 0.3658, "step": 125420 }, { "epoch": 167.24, "grad_norm": 0.80859375, "learning_rate": 9.829708652338175e-05, "loss": 0.3523, "step": 125430 }, { "epoch": 167.25333333333333, "grad_norm": 0.83984375, "learning_rate": 9.829681544992171e-05, "loss": 0.3526, "step": 125440 }, { "epoch": 167.26666666666668, "grad_norm": 0.83203125, "learning_rate": 9.829654435526218e-05, "loss": 0.3556, "step": 125450 }, { "epoch": 167.28, "grad_norm": 0.90234375, "learning_rate": 9.82962732394033e-05, "loss": 0.3838, "step": 125460 }, { "epoch": 167.29333333333332, "grad_norm": 0.828125, "learning_rate": 9.829600210234515e-05, "loss": 0.3436, "step": 125470 }, { "epoch": 167.30666666666667, "grad_norm": 0.8203125, "learning_rate": 9.82957309440879e-05, "loss": 0.3663, "step": 125480 }, { "epoch": 167.32, "grad_norm": 0.74609375, "learning_rate": 9.829545976463162e-05, "loss": 0.3704, "step": 125490 }, { "epoch": 167.33333333333334, "grad_norm": 0.94140625, "learning_rate": 9.829518856397647e-05, "loss": 0.3683, "step": 125500 }, { "epoch": 167.34666666666666, "grad_norm": 0.90625, "learning_rate": 9.829491734212253e-05, "loss": 0.3603, "step": 125510 }, { "epoch": 167.36, "grad_norm": 0.828125, "learning_rate": 9.829464609906995e-05, "loss": 0.3611, "step": 125520 }, { "epoch": 167.37333333333333, "grad_norm": 0.78125, "learning_rate": 9.829437483481883e-05, "loss": 0.3639, "step": 125530 }, { "epoch": 167.38666666666666, "grad_norm": 0.94921875, "learning_rate": 9.829410354936929e-05, "loss": 0.3508, "step": 125540 }, { "epoch": 167.4, "grad_norm": 0.84765625, "learning_rate": 9.829383224272148e-05, "loss": 0.3615, "step": 125550 }, { "epoch": 167.41333333333333, "grad_norm": 0.8359375, "learning_rate": 9.829356091487548e-05, "loss": 0.3679, "step": 125560 }, { "epoch": 167.42666666666668, "grad_norm": 0.82421875, "learning_rate": 9.829328956583141e-05, "loss": 0.3689, "step": 125570 }, { "epoch": 167.44, "grad_norm": 0.88671875, "learning_rate": 9.829301819558942e-05, "loss": 0.3817, "step": 125580 }, { "epoch": 167.45333333333335, "grad_norm": 0.86328125, "learning_rate": 9.829274680414962e-05, "loss": 0.3692, "step": 125590 }, { "epoch": 167.46666666666667, "grad_norm": 0.796875, "learning_rate": 9.829247539151211e-05, "loss": 0.3753, "step": 125600 }, { "epoch": 167.48, "grad_norm": 0.82421875, "learning_rate": 9.829220395767703e-05, "loss": 0.3598, "step": 125610 }, { "epoch": 167.49333333333334, "grad_norm": 0.828125, "learning_rate": 9.829193250264448e-05, "loss": 0.3706, "step": 125620 }, { "epoch": 167.50666666666666, "grad_norm": 0.875, "learning_rate": 9.829166102641459e-05, "loss": 0.3702, "step": 125630 }, { "epoch": 167.52, "grad_norm": 0.765625, "learning_rate": 9.829138952898749e-05, "loss": 0.3618, "step": 125640 }, { "epoch": 167.53333333333333, "grad_norm": 0.875, "learning_rate": 9.829111801036327e-05, "loss": 0.3623, "step": 125650 }, { "epoch": 167.54666666666665, "grad_norm": 0.9296875, "learning_rate": 9.829084647054208e-05, "loss": 0.3635, "step": 125660 }, { "epoch": 167.56, "grad_norm": 0.8125, "learning_rate": 9.829057490952401e-05, "loss": 0.3576, "step": 125670 }, { "epoch": 167.57333333333332, "grad_norm": 0.87109375, "learning_rate": 9.82903033273092e-05, "loss": 0.3623, "step": 125680 }, { "epoch": 167.58666666666667, "grad_norm": 0.76953125, "learning_rate": 9.829003172389777e-05, "loss": 0.354, "step": 125690 }, { "epoch": 167.6, "grad_norm": 0.765625, "learning_rate": 9.828976009928983e-05, "loss": 0.354, "step": 125700 }, { "epoch": 167.61333333333334, "grad_norm": 0.82421875, "learning_rate": 9.828948845348551e-05, "loss": 0.3478, "step": 125710 }, { "epoch": 167.62666666666667, "grad_norm": 0.7109375, "learning_rate": 9.82892167864849e-05, "loss": 0.3514, "step": 125720 }, { "epoch": 167.64, "grad_norm": 0.91796875, "learning_rate": 9.828894509828817e-05, "loss": 0.359, "step": 125730 }, { "epoch": 167.65333333333334, "grad_norm": 0.80859375, "learning_rate": 9.828867338889539e-05, "loss": 0.3692, "step": 125740 }, { "epoch": 167.66666666666666, "grad_norm": 0.80078125, "learning_rate": 9.82884016583067e-05, "loss": 0.3606, "step": 125750 }, { "epoch": 167.68, "grad_norm": 0.86328125, "learning_rate": 9.828812990652223e-05, "loss": 0.3496, "step": 125760 }, { "epoch": 167.69333333333333, "grad_norm": 0.73828125, "learning_rate": 9.828785813354209e-05, "loss": 0.3612, "step": 125770 }, { "epoch": 167.70666666666668, "grad_norm": 0.96484375, "learning_rate": 9.828758633936637e-05, "loss": 0.3498, "step": 125780 }, { "epoch": 167.72, "grad_norm": 0.96484375, "learning_rate": 9.828731452399524e-05, "loss": 0.3726, "step": 125790 }, { "epoch": 167.73333333333332, "grad_norm": 0.8046875, "learning_rate": 9.828704268742879e-05, "loss": 0.3668, "step": 125800 }, { "epoch": 167.74666666666667, "grad_norm": 0.80078125, "learning_rate": 9.828677082966715e-05, "loss": 0.3698, "step": 125810 }, { "epoch": 167.76, "grad_norm": 0.90625, "learning_rate": 9.828649895071042e-05, "loss": 0.3837, "step": 125820 }, { "epoch": 167.77333333333334, "grad_norm": 0.953125, "learning_rate": 9.828622705055876e-05, "loss": 0.368, "step": 125830 }, { "epoch": 167.78666666666666, "grad_norm": 0.71875, "learning_rate": 9.828595512921224e-05, "loss": 0.3704, "step": 125840 }, { "epoch": 167.8, "grad_norm": 0.79296875, "learning_rate": 9.828568318667101e-05, "loss": 0.3677, "step": 125850 }, { "epoch": 167.81333333333333, "grad_norm": 1.046875, "learning_rate": 9.828541122293519e-05, "loss": 0.3426, "step": 125860 }, { "epoch": 167.82666666666665, "grad_norm": 0.81640625, "learning_rate": 9.828513923800487e-05, "loss": 0.3497, "step": 125870 }, { "epoch": 167.84, "grad_norm": 0.90625, "learning_rate": 9.828486723188022e-05, "loss": 0.3623, "step": 125880 }, { "epoch": 167.85333333333332, "grad_norm": 0.7890625, "learning_rate": 9.82845952045613e-05, "loss": 0.358, "step": 125890 }, { "epoch": 167.86666666666667, "grad_norm": 0.8359375, "learning_rate": 9.828432315604828e-05, "loss": 0.3643, "step": 125900 }, { "epoch": 167.88, "grad_norm": 0.859375, "learning_rate": 9.828405108634125e-05, "loss": 0.3452, "step": 125910 }, { "epoch": 167.89333333333335, "grad_norm": 0.78125, "learning_rate": 9.828377899544035e-05, "loss": 0.3575, "step": 125920 }, { "epoch": 167.90666666666667, "grad_norm": 0.79296875, "learning_rate": 9.828350688334566e-05, "loss": 0.361, "step": 125930 }, { "epoch": 167.92, "grad_norm": 0.86328125, "learning_rate": 9.828323475005736e-05, "loss": 0.3624, "step": 125940 }, { "epoch": 167.93333333333334, "grad_norm": 0.7578125, "learning_rate": 9.828296259557552e-05, "loss": 0.3589, "step": 125950 }, { "epoch": 167.94666666666666, "grad_norm": 0.87109375, "learning_rate": 9.828269041990028e-05, "loss": 0.36, "step": 125960 }, { "epoch": 167.96, "grad_norm": 0.7890625, "learning_rate": 9.828241822303175e-05, "loss": 0.3576, "step": 125970 }, { "epoch": 167.97333333333333, "grad_norm": 1.1171875, "learning_rate": 9.828214600497006e-05, "loss": 0.3794, "step": 125980 }, { "epoch": 167.98666666666668, "grad_norm": 0.81640625, "learning_rate": 9.828187376571532e-05, "loss": 0.3495, "step": 125990 }, { "epoch": 168.0, "grad_norm": 0.86328125, "learning_rate": 9.828160150526766e-05, "loss": 0.3508, "step": 126000 }, { "epoch": 168.0, "eval_loss": 0.41756293177604675, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.6944, "eval_samples_per_second": 1.368, "eval_steps_per_second": 0.086, "step": 126000 }, { "epoch": 168.01333333333332, "grad_norm": 0.921875, "learning_rate": 9.828132922362718e-05, "loss": 0.3673, "step": 126010 }, { "epoch": 168.02666666666667, "grad_norm": 0.76953125, "learning_rate": 9.828105692079404e-05, "loss": 0.3816, "step": 126020 }, { "epoch": 168.04, "grad_norm": 0.76171875, "learning_rate": 9.828078459676831e-05, "loss": 0.3953, "step": 126030 }, { "epoch": 168.05333333333334, "grad_norm": 0.8359375, "learning_rate": 9.828051225155014e-05, "loss": 0.3787, "step": 126040 }, { "epoch": 168.06666666666666, "grad_norm": 0.90234375, "learning_rate": 9.828023988513964e-05, "loss": 0.3676, "step": 126050 }, { "epoch": 168.08, "grad_norm": 0.79296875, "learning_rate": 9.827996749753693e-05, "loss": 0.3708, "step": 126060 }, { "epoch": 168.09333333333333, "grad_norm": 0.9140625, "learning_rate": 9.827969508874212e-05, "loss": 0.3727, "step": 126070 }, { "epoch": 168.10666666666665, "grad_norm": 0.7578125, "learning_rate": 9.827942265875536e-05, "loss": 0.3621, "step": 126080 }, { "epoch": 168.12, "grad_norm": 0.87890625, "learning_rate": 9.827915020757674e-05, "loss": 0.3627, "step": 126090 }, { "epoch": 168.13333333333333, "grad_norm": 0.84375, "learning_rate": 9.82788777352064e-05, "loss": 0.3564, "step": 126100 }, { "epoch": 168.14666666666668, "grad_norm": 0.90625, "learning_rate": 9.827860524164444e-05, "loss": 0.3745, "step": 126110 }, { "epoch": 168.16, "grad_norm": 0.80859375, "learning_rate": 9.827833272689098e-05, "loss": 0.3709, "step": 126120 }, { "epoch": 168.17333333333335, "grad_norm": 0.87890625, "learning_rate": 9.827806019094616e-05, "loss": 0.3654, "step": 126130 }, { "epoch": 168.18666666666667, "grad_norm": 0.828125, "learning_rate": 9.82777876338101e-05, "loss": 0.3613, "step": 126140 }, { "epoch": 168.2, "grad_norm": 0.85546875, "learning_rate": 9.827751505548288e-05, "loss": 0.3533, "step": 126150 }, { "epoch": 168.21333333333334, "grad_norm": 0.91796875, "learning_rate": 9.827724245596467e-05, "loss": 0.3546, "step": 126160 }, { "epoch": 168.22666666666666, "grad_norm": 0.94140625, "learning_rate": 9.827696983525557e-05, "loss": 0.3654, "step": 126170 }, { "epoch": 168.24, "grad_norm": 0.87109375, "learning_rate": 9.827669719335567e-05, "loss": 0.352, "step": 126180 }, { "epoch": 168.25333333333333, "grad_norm": 0.84375, "learning_rate": 9.827642453026513e-05, "loss": 0.3526, "step": 126190 }, { "epoch": 168.26666666666668, "grad_norm": 0.82421875, "learning_rate": 9.827615184598405e-05, "loss": 0.3556, "step": 126200 }, { "epoch": 168.28, "grad_norm": 0.8828125, "learning_rate": 9.827587914051258e-05, "loss": 0.3822, "step": 126210 }, { "epoch": 168.29333333333332, "grad_norm": 0.80859375, "learning_rate": 9.827560641385078e-05, "loss": 0.3431, "step": 126220 }, { "epoch": 168.30666666666667, "grad_norm": 0.80859375, "learning_rate": 9.827533366599882e-05, "loss": 0.3661, "step": 126230 }, { "epoch": 168.32, "grad_norm": 0.7265625, "learning_rate": 9.827506089695682e-05, "loss": 0.3701, "step": 126240 }, { "epoch": 168.33333333333334, "grad_norm": 0.9375, "learning_rate": 9.827478810672486e-05, "loss": 0.3691, "step": 126250 }, { "epoch": 168.34666666666666, "grad_norm": 0.875, "learning_rate": 9.827451529530309e-05, "loss": 0.3604, "step": 126260 }, { "epoch": 168.36, "grad_norm": 0.87109375, "learning_rate": 9.827424246269164e-05, "loss": 0.3605, "step": 126270 }, { "epoch": 168.37333333333333, "grad_norm": 0.76171875, "learning_rate": 9.82739696088906e-05, "loss": 0.3647, "step": 126280 }, { "epoch": 168.38666666666666, "grad_norm": 0.90625, "learning_rate": 9.82736967339001e-05, "loss": 0.3515, "step": 126290 }, { "epoch": 168.4, "grad_norm": 0.78515625, "learning_rate": 9.827342383772028e-05, "loss": 0.3615, "step": 126300 }, { "epoch": 168.41333333333333, "grad_norm": 0.81640625, "learning_rate": 9.827315092035123e-05, "loss": 0.3676, "step": 126310 }, { "epoch": 168.42666666666668, "grad_norm": 0.796875, "learning_rate": 9.827287798179309e-05, "loss": 0.3697, "step": 126320 }, { "epoch": 168.44, "grad_norm": 0.84765625, "learning_rate": 9.827260502204596e-05, "loss": 0.382, "step": 126330 }, { "epoch": 168.45333333333335, "grad_norm": 0.796875, "learning_rate": 9.827233204110999e-05, "loss": 0.3691, "step": 126340 }, { "epoch": 168.46666666666667, "grad_norm": 0.765625, "learning_rate": 9.827205903898526e-05, "loss": 0.3753, "step": 126350 }, { "epoch": 168.48, "grad_norm": 0.85546875, "learning_rate": 9.827178601567192e-05, "loss": 0.3598, "step": 126360 }, { "epoch": 168.49333333333334, "grad_norm": 0.81640625, "learning_rate": 9.82715129711701e-05, "loss": 0.3703, "step": 126370 }, { "epoch": 168.50666666666666, "grad_norm": 0.875, "learning_rate": 9.827123990547989e-05, "loss": 0.3702, "step": 126380 }, { "epoch": 168.52, "grad_norm": 0.76953125, "learning_rate": 9.827096681860142e-05, "loss": 0.3609, "step": 126390 }, { "epoch": 168.53333333333333, "grad_norm": 0.87890625, "learning_rate": 9.827069371053481e-05, "loss": 0.3622, "step": 126400 }, { "epoch": 168.54666666666665, "grad_norm": 0.94921875, "learning_rate": 9.82704205812802e-05, "loss": 0.3636, "step": 126410 }, { "epoch": 168.56, "grad_norm": 0.76171875, "learning_rate": 9.827014743083767e-05, "loss": 0.3582, "step": 126420 }, { "epoch": 168.57333333333332, "grad_norm": 0.890625, "learning_rate": 9.826987425920736e-05, "loss": 0.3631, "step": 126430 }, { "epoch": 168.58666666666667, "grad_norm": 0.7734375, "learning_rate": 9.82696010663894e-05, "loss": 0.3539, "step": 126440 }, { "epoch": 168.6, "grad_norm": 0.8125, "learning_rate": 9.82693278523839e-05, "loss": 0.3546, "step": 126450 }, { "epoch": 168.61333333333334, "grad_norm": 0.76953125, "learning_rate": 9.826905461719098e-05, "loss": 0.3475, "step": 126460 }, { "epoch": 168.62666666666667, "grad_norm": 0.7578125, "learning_rate": 9.826878136081076e-05, "loss": 0.3526, "step": 126470 }, { "epoch": 168.64, "grad_norm": 0.87109375, "learning_rate": 9.826850808324335e-05, "loss": 0.3589, "step": 126480 }, { "epoch": 168.65333333333334, "grad_norm": 0.81640625, "learning_rate": 9.82682347844889e-05, "loss": 0.3679, "step": 126490 }, { "epoch": 168.66666666666666, "grad_norm": 0.8515625, "learning_rate": 9.82679614645475e-05, "loss": 0.3601, "step": 126500 }, { "epoch": 168.68, "grad_norm": 0.90234375, "learning_rate": 9.826768812341929e-05, "loss": 0.3485, "step": 126510 }, { "epoch": 168.69333333333333, "grad_norm": 0.80078125, "learning_rate": 9.826741476110437e-05, "loss": 0.3603, "step": 126520 }, { "epoch": 168.70666666666668, "grad_norm": 0.9453125, "learning_rate": 9.826714137760286e-05, "loss": 0.3506, "step": 126530 }, { "epoch": 168.72, "grad_norm": 0.8671875, "learning_rate": 9.826686797291491e-05, "loss": 0.3709, "step": 126540 }, { "epoch": 168.73333333333332, "grad_norm": 0.8359375, "learning_rate": 9.826659454704063e-05, "loss": 0.3673, "step": 126550 }, { "epoch": 168.74666666666667, "grad_norm": 0.88671875, "learning_rate": 9.826632109998011e-05, "loss": 0.37, "step": 126560 }, { "epoch": 168.76, "grad_norm": 0.9140625, "learning_rate": 9.82660476317335e-05, "loss": 0.3837, "step": 126570 }, { "epoch": 168.77333333333334, "grad_norm": 0.91015625, "learning_rate": 9.82657741423009e-05, "loss": 0.3677, "step": 126580 }, { "epoch": 168.78666666666666, "grad_norm": 0.81640625, "learning_rate": 9.826550063168245e-05, "loss": 0.3706, "step": 126590 }, { "epoch": 168.8, "grad_norm": 0.91015625, "learning_rate": 9.826522709987826e-05, "loss": 0.3675, "step": 126600 }, { "epoch": 168.81333333333333, "grad_norm": 0.95703125, "learning_rate": 9.826495354688846e-05, "loss": 0.3422, "step": 126610 }, { "epoch": 168.82666666666665, "grad_norm": 0.80859375, "learning_rate": 9.826467997271315e-05, "loss": 0.3487, "step": 126620 }, { "epoch": 168.84, "grad_norm": 0.89453125, "learning_rate": 9.826440637735246e-05, "loss": 0.3621, "step": 126630 }, { "epoch": 168.85333333333332, "grad_norm": 0.875, "learning_rate": 9.82641327608065e-05, "loss": 0.3577, "step": 126640 }, { "epoch": 168.86666666666667, "grad_norm": 0.83203125, "learning_rate": 9.826385912307543e-05, "loss": 0.3632, "step": 126650 }, { "epoch": 168.88, "grad_norm": 0.8046875, "learning_rate": 9.826358546415932e-05, "loss": 0.3448, "step": 126660 }, { "epoch": 168.89333333333335, "grad_norm": 0.78515625, "learning_rate": 9.826331178405832e-05, "loss": 0.3575, "step": 126670 }, { "epoch": 168.90666666666667, "grad_norm": 0.82421875, "learning_rate": 9.826303808277254e-05, "loss": 0.3612, "step": 126680 }, { "epoch": 168.92, "grad_norm": 0.86328125, "learning_rate": 9.82627643603021e-05, "loss": 0.3624, "step": 126690 }, { "epoch": 168.93333333333334, "grad_norm": 0.765625, "learning_rate": 9.826249061664712e-05, "loss": 0.3589, "step": 126700 }, { "epoch": 168.94666666666666, "grad_norm": 0.8359375, "learning_rate": 9.826221685180773e-05, "loss": 0.3591, "step": 126710 }, { "epoch": 168.96, "grad_norm": 0.796875, "learning_rate": 9.826194306578405e-05, "loss": 0.357, "step": 126720 }, { "epoch": 168.97333333333333, "grad_norm": 1.2109375, "learning_rate": 9.826166925857617e-05, "loss": 0.3792, "step": 126730 }, { "epoch": 168.98666666666668, "grad_norm": 0.828125, "learning_rate": 9.826139543018424e-05, "loss": 0.3507, "step": 126740 }, { "epoch": 169.0, "grad_norm": 0.875, "learning_rate": 9.826112158060839e-05, "loss": 0.3517, "step": 126750 }, { "epoch": 169.0, "eval_loss": 0.4184493124485016, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.0238, "eval_samples_per_second": 1.331, "eval_steps_per_second": 0.083, "step": 126750 }, { "epoch": 169.01333333333332, "grad_norm": 0.85546875, "learning_rate": 9.826084770984869e-05, "loss": 0.3671, "step": 126760 }, { "epoch": 169.02666666666667, "grad_norm": 0.7890625, "learning_rate": 9.826057381790533e-05, "loss": 0.3813, "step": 126770 }, { "epoch": 169.04, "grad_norm": 0.83203125, "learning_rate": 9.826029990477836e-05, "loss": 0.3947, "step": 126780 }, { "epoch": 169.05333333333334, "grad_norm": 0.828125, "learning_rate": 9.826002597046795e-05, "loss": 0.3793, "step": 126790 }, { "epoch": 169.06666666666666, "grad_norm": 1.0234375, "learning_rate": 9.82597520149742e-05, "loss": 0.3674, "step": 126800 }, { "epoch": 169.08, "grad_norm": 0.81640625, "learning_rate": 9.825947803829724e-05, "loss": 0.3708, "step": 126810 }, { "epoch": 169.09333333333333, "grad_norm": 0.859375, "learning_rate": 9.825920404043718e-05, "loss": 0.3729, "step": 126820 }, { "epoch": 169.10666666666665, "grad_norm": 0.83984375, "learning_rate": 9.825893002139415e-05, "loss": 0.3624, "step": 126830 }, { "epoch": 169.12, "grad_norm": 0.828125, "learning_rate": 9.825865598116826e-05, "loss": 0.364, "step": 126840 }, { "epoch": 169.13333333333333, "grad_norm": 0.80859375, "learning_rate": 9.825838191975965e-05, "loss": 0.3548, "step": 126850 }, { "epoch": 169.14666666666668, "grad_norm": 0.83984375, "learning_rate": 9.82581078371684e-05, "loss": 0.3754, "step": 126860 }, { "epoch": 169.16, "grad_norm": 0.7890625, "learning_rate": 9.825783373339466e-05, "loss": 0.3701, "step": 126870 }, { "epoch": 169.17333333333335, "grad_norm": 0.91015625, "learning_rate": 9.825755960843856e-05, "loss": 0.3649, "step": 126880 }, { "epoch": 169.18666666666667, "grad_norm": 0.83203125, "learning_rate": 9.825728546230019e-05, "loss": 0.3615, "step": 126890 }, { "epoch": 169.2, "grad_norm": 0.7890625, "learning_rate": 9.82570112949797e-05, "loss": 0.3534, "step": 126900 }, { "epoch": 169.21333333333334, "grad_norm": 0.7890625, "learning_rate": 9.82567371064772e-05, "loss": 0.3536, "step": 126910 }, { "epoch": 169.22666666666666, "grad_norm": 0.90625, "learning_rate": 9.82564628967928e-05, "loss": 0.3654, "step": 126920 }, { "epoch": 169.24, "grad_norm": 0.86328125, "learning_rate": 9.825618866592663e-05, "loss": 0.3518, "step": 126930 }, { "epoch": 169.25333333333333, "grad_norm": 0.859375, "learning_rate": 9.825591441387882e-05, "loss": 0.3516, "step": 126940 }, { "epoch": 169.26666666666668, "grad_norm": 0.875, "learning_rate": 9.825564014064946e-05, "loss": 0.3553, "step": 126950 }, { "epoch": 169.28, "grad_norm": 0.84375, "learning_rate": 9.82553658462387e-05, "loss": 0.383, "step": 126960 }, { "epoch": 169.29333333333332, "grad_norm": 0.8125, "learning_rate": 9.825509153064664e-05, "loss": 0.3424, "step": 126970 }, { "epoch": 169.30666666666667, "grad_norm": 0.796875, "learning_rate": 9.825481719387341e-05, "loss": 0.3661, "step": 126980 }, { "epoch": 169.32, "grad_norm": 0.7890625, "learning_rate": 9.825454283591914e-05, "loss": 0.3703, "step": 126990 }, { "epoch": 169.33333333333334, "grad_norm": 0.82421875, "learning_rate": 9.825426845678394e-05, "loss": 0.3683, "step": 127000 }, { "epoch": 169.34666666666666, "grad_norm": 0.8828125, "learning_rate": 9.825399405646794e-05, "loss": 0.3599, "step": 127010 }, { "epoch": 169.36, "grad_norm": 0.89453125, "learning_rate": 9.825371963497122e-05, "loss": 0.3608, "step": 127020 }, { "epoch": 169.37333333333333, "grad_norm": 0.78515625, "learning_rate": 9.825344519229395e-05, "loss": 0.3641, "step": 127030 }, { "epoch": 169.38666666666666, "grad_norm": 0.94140625, "learning_rate": 9.825317072843624e-05, "loss": 0.3507, "step": 127040 }, { "epoch": 169.4, "grad_norm": 0.83203125, "learning_rate": 9.82528962433982e-05, "loss": 0.3617, "step": 127050 }, { "epoch": 169.41333333333333, "grad_norm": 0.80859375, "learning_rate": 9.825262173717995e-05, "loss": 0.3675, "step": 127060 }, { "epoch": 169.42666666666668, "grad_norm": 0.875, "learning_rate": 9.825234720978162e-05, "loss": 0.3702, "step": 127070 }, { "epoch": 169.44, "grad_norm": 0.88671875, "learning_rate": 9.825207266120331e-05, "loss": 0.3816, "step": 127080 }, { "epoch": 169.45333333333335, "grad_norm": 0.86328125, "learning_rate": 9.825179809144516e-05, "loss": 0.3687, "step": 127090 }, { "epoch": 169.46666666666667, "grad_norm": 0.78515625, "learning_rate": 9.82515235005073e-05, "loss": 0.3748, "step": 127100 }, { "epoch": 169.48, "grad_norm": 0.83203125, "learning_rate": 9.825124888838982e-05, "loss": 0.3597, "step": 127110 }, { "epoch": 169.49333333333334, "grad_norm": 0.83203125, "learning_rate": 9.825097425509286e-05, "loss": 0.3706, "step": 127120 }, { "epoch": 169.50666666666666, "grad_norm": 0.8515625, "learning_rate": 9.825069960061654e-05, "loss": 0.3705, "step": 127130 }, { "epoch": 169.52, "grad_norm": 0.78125, "learning_rate": 9.825042492496097e-05, "loss": 0.3619, "step": 127140 }, { "epoch": 169.53333333333333, "grad_norm": 0.79296875, "learning_rate": 9.825015022812629e-05, "loss": 0.3626, "step": 127150 }, { "epoch": 169.54666666666665, "grad_norm": 0.93359375, "learning_rate": 9.82498755101126e-05, "loss": 0.3632, "step": 127160 }, { "epoch": 169.56, "grad_norm": 0.8046875, "learning_rate": 9.824960077092002e-05, "loss": 0.3577, "step": 127170 }, { "epoch": 169.57333333333332, "grad_norm": 0.88671875, "learning_rate": 9.82493260105487e-05, "loss": 0.3623, "step": 127180 }, { "epoch": 169.58666666666667, "grad_norm": 0.7890625, "learning_rate": 9.824905122899875e-05, "loss": 0.3531, "step": 127190 }, { "epoch": 169.6, "grad_norm": 0.83984375, "learning_rate": 9.824877642627025e-05, "loss": 0.355, "step": 127200 }, { "epoch": 169.61333333333334, "grad_norm": 0.734375, "learning_rate": 9.824850160236336e-05, "loss": 0.3472, "step": 127210 }, { "epoch": 169.62666666666667, "grad_norm": 0.7265625, "learning_rate": 9.824822675727821e-05, "loss": 0.3515, "step": 127220 }, { "epoch": 169.64, "grad_norm": 0.828125, "learning_rate": 9.824795189101489e-05, "loss": 0.3584, "step": 127230 }, { "epoch": 169.65333333333334, "grad_norm": 0.8359375, "learning_rate": 9.824767700357353e-05, "loss": 0.3692, "step": 127240 }, { "epoch": 169.66666666666666, "grad_norm": 0.734375, "learning_rate": 9.824740209495427e-05, "loss": 0.3608, "step": 127250 }, { "epoch": 169.68, "grad_norm": 0.83203125, "learning_rate": 9.82471271651572e-05, "loss": 0.3486, "step": 127260 }, { "epoch": 169.69333333333333, "grad_norm": 0.71484375, "learning_rate": 9.824685221418246e-05, "loss": 0.3597, "step": 127270 }, { "epoch": 169.70666666666668, "grad_norm": 0.96484375, "learning_rate": 9.824657724203017e-05, "loss": 0.3499, "step": 127280 }, { "epoch": 169.72, "grad_norm": 0.89453125, "learning_rate": 9.824630224870044e-05, "loss": 0.3707, "step": 127290 }, { "epoch": 169.73333333333332, "grad_norm": 0.8046875, "learning_rate": 9.824602723419341e-05, "loss": 0.367, "step": 127300 }, { "epoch": 169.74666666666667, "grad_norm": 0.81640625, "learning_rate": 9.824575219850917e-05, "loss": 0.3706, "step": 127310 }, { "epoch": 169.76, "grad_norm": 0.83984375, "learning_rate": 9.824547714164787e-05, "loss": 0.3836, "step": 127320 }, { "epoch": 169.77333333333334, "grad_norm": 0.8828125, "learning_rate": 9.824520206360962e-05, "loss": 0.3674, "step": 127330 }, { "epoch": 169.78666666666666, "grad_norm": 0.77734375, "learning_rate": 9.824492696439453e-05, "loss": 0.3701, "step": 127340 }, { "epoch": 169.8, "grad_norm": 0.8984375, "learning_rate": 9.824465184400276e-05, "loss": 0.3674, "step": 127350 }, { "epoch": 169.81333333333333, "grad_norm": 0.98046875, "learning_rate": 9.824437670243439e-05, "loss": 0.3428, "step": 127360 }, { "epoch": 169.82666666666665, "grad_norm": 0.8984375, "learning_rate": 9.824410153968954e-05, "loss": 0.3495, "step": 127370 }, { "epoch": 169.84, "grad_norm": 0.9453125, "learning_rate": 9.824382635576835e-05, "loss": 0.362, "step": 127380 }, { "epoch": 169.85333333333332, "grad_norm": 0.82421875, "learning_rate": 9.824355115067093e-05, "loss": 0.3583, "step": 127390 }, { "epoch": 169.86666666666667, "grad_norm": 0.92578125, "learning_rate": 9.824327592439741e-05, "loss": 0.3642, "step": 127400 }, { "epoch": 169.88, "grad_norm": 0.82421875, "learning_rate": 9.824300067694792e-05, "loss": 0.3443, "step": 127410 }, { "epoch": 169.89333333333335, "grad_norm": 0.74609375, "learning_rate": 9.824272540832255e-05, "loss": 0.358, "step": 127420 }, { "epoch": 169.90666666666667, "grad_norm": 0.80859375, "learning_rate": 9.824245011852143e-05, "loss": 0.3617, "step": 127430 }, { "epoch": 169.92, "grad_norm": 0.859375, "learning_rate": 9.824217480754471e-05, "loss": 0.3615, "step": 127440 }, { "epoch": 169.93333333333334, "grad_norm": 0.90625, "learning_rate": 9.824189947539248e-05, "loss": 0.3589, "step": 127450 }, { "epoch": 169.94666666666666, "grad_norm": 0.84765625, "learning_rate": 9.824162412206487e-05, "loss": 0.3585, "step": 127460 }, { "epoch": 169.96, "grad_norm": 0.79296875, "learning_rate": 9.8241348747562e-05, "loss": 0.3576, "step": 127470 }, { "epoch": 169.97333333333333, "grad_norm": 1.109375, "learning_rate": 9.8241073351884e-05, "loss": 0.3801, "step": 127480 }, { "epoch": 169.98666666666668, "grad_norm": 0.84375, "learning_rate": 9.824079793503096e-05, "loss": 0.3492, "step": 127490 }, { "epoch": 170.0, "grad_norm": 0.8828125, "learning_rate": 9.824052249700306e-05, "loss": 0.3516, "step": 127500 }, { "epoch": 170.0, "eval_loss": 0.41783401370048523, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.6768, "eval_samples_per_second": 1.37, "eval_steps_per_second": 0.086, "step": 127500 }, { "epoch": 170.01333333333332, "grad_norm": 0.9296875, "learning_rate": 9.824024703780035e-05, "loss": 0.3663, "step": 127510 }, { "epoch": 170.02666666666667, "grad_norm": 0.7890625, "learning_rate": 9.823997155742302e-05, "loss": 0.382, "step": 127520 }, { "epoch": 170.04, "grad_norm": 0.75, "learning_rate": 9.823969605587114e-05, "loss": 0.3952, "step": 127530 }, { "epoch": 170.05333333333334, "grad_norm": 0.84765625, "learning_rate": 9.823942053314484e-05, "loss": 0.3785, "step": 127540 }, { "epoch": 170.06666666666666, "grad_norm": 0.921875, "learning_rate": 9.823914498924425e-05, "loss": 0.367, "step": 127550 }, { "epoch": 170.08, "grad_norm": 0.82421875, "learning_rate": 9.823886942416949e-05, "loss": 0.3702, "step": 127560 }, { "epoch": 170.09333333333333, "grad_norm": 0.8125, "learning_rate": 9.82385938379207e-05, "loss": 0.373, "step": 127570 }, { "epoch": 170.10666666666665, "grad_norm": 0.765625, "learning_rate": 9.823831823049796e-05, "loss": 0.3618, "step": 127580 }, { "epoch": 170.12, "grad_norm": 0.875, "learning_rate": 9.823804260190142e-05, "loss": 0.363, "step": 127590 }, { "epoch": 170.13333333333333, "grad_norm": 0.83984375, "learning_rate": 9.823776695213119e-05, "loss": 0.3552, "step": 127600 }, { "epoch": 170.14666666666668, "grad_norm": 0.88671875, "learning_rate": 9.823749128118739e-05, "loss": 0.3745, "step": 127610 }, { "epoch": 170.16, "grad_norm": 0.78515625, "learning_rate": 9.823721558907016e-05, "loss": 0.3702, "step": 127620 }, { "epoch": 170.17333333333335, "grad_norm": 0.8671875, "learning_rate": 9.82369398757796e-05, "loss": 0.3646, "step": 127630 }, { "epoch": 170.18666666666667, "grad_norm": 0.8125, "learning_rate": 9.823666414131582e-05, "loss": 0.3611, "step": 127640 }, { "epoch": 170.2, "grad_norm": 0.8828125, "learning_rate": 9.823638838567896e-05, "loss": 0.3535, "step": 127650 }, { "epoch": 170.21333333333334, "grad_norm": 0.87109375, "learning_rate": 9.823611260886917e-05, "loss": 0.3546, "step": 127660 }, { "epoch": 170.22666666666666, "grad_norm": 0.88671875, "learning_rate": 9.823583681088653e-05, "loss": 0.3653, "step": 127670 }, { "epoch": 170.24, "grad_norm": 0.859375, "learning_rate": 9.823556099173116e-05, "loss": 0.3516, "step": 127680 }, { "epoch": 170.25333333333333, "grad_norm": 0.890625, "learning_rate": 9.823528515140319e-05, "loss": 0.3524, "step": 127690 }, { "epoch": 170.26666666666668, "grad_norm": 0.76171875, "learning_rate": 9.823500928990275e-05, "loss": 0.3557, "step": 127700 }, { "epoch": 170.28, "grad_norm": 0.80859375, "learning_rate": 9.823473340722995e-05, "loss": 0.3827, "step": 127710 }, { "epoch": 170.29333333333332, "grad_norm": 0.890625, "learning_rate": 9.823445750338493e-05, "loss": 0.3424, "step": 127720 }, { "epoch": 170.30666666666667, "grad_norm": 0.828125, "learning_rate": 9.823418157836779e-05, "loss": 0.3651, "step": 127730 }, { "epoch": 170.32, "grad_norm": 0.69921875, "learning_rate": 9.823390563217866e-05, "loss": 0.37, "step": 127740 }, { "epoch": 170.33333333333334, "grad_norm": 0.875, "learning_rate": 9.823362966481765e-05, "loss": 0.3681, "step": 127750 }, { "epoch": 170.34666666666666, "grad_norm": 0.99609375, "learning_rate": 9.823335367628491e-05, "loss": 0.3589, "step": 127760 }, { "epoch": 170.36, "grad_norm": 0.84375, "learning_rate": 9.823307766658052e-05, "loss": 0.3608, "step": 127770 }, { "epoch": 170.37333333333333, "grad_norm": 0.7421875, "learning_rate": 9.823280163570463e-05, "loss": 0.3639, "step": 127780 }, { "epoch": 170.38666666666666, "grad_norm": 1.0234375, "learning_rate": 9.823252558365734e-05, "loss": 0.3516, "step": 127790 }, { "epoch": 170.4, "grad_norm": 0.83984375, "learning_rate": 9.823224951043882e-05, "loss": 0.3617, "step": 127800 }, { "epoch": 170.41333333333333, "grad_norm": 0.84375, "learning_rate": 9.823197341604913e-05, "loss": 0.3672, "step": 127810 }, { "epoch": 170.42666666666668, "grad_norm": 0.8046875, "learning_rate": 9.823169730048843e-05, "loss": 0.3687, "step": 127820 }, { "epoch": 170.44, "grad_norm": 0.84765625, "learning_rate": 9.823142116375681e-05, "loss": 0.381, "step": 127830 }, { "epoch": 170.45333333333335, "grad_norm": 0.7890625, "learning_rate": 9.823114500585441e-05, "loss": 0.369, "step": 127840 }, { "epoch": 170.46666666666667, "grad_norm": 0.76171875, "learning_rate": 9.823086882678137e-05, "loss": 0.3751, "step": 127850 }, { "epoch": 170.48, "grad_norm": 0.76953125, "learning_rate": 9.823059262653778e-05, "loss": 0.359, "step": 127860 }, { "epoch": 170.49333333333334, "grad_norm": 0.83203125, "learning_rate": 9.82303164051238e-05, "loss": 0.3701, "step": 127870 }, { "epoch": 170.50666666666666, "grad_norm": 0.91796875, "learning_rate": 9.82300401625395e-05, "loss": 0.3706, "step": 127880 }, { "epoch": 170.52, "grad_norm": 0.671875, "learning_rate": 9.822976389878502e-05, "loss": 0.361, "step": 127890 }, { "epoch": 170.53333333333333, "grad_norm": 0.83203125, "learning_rate": 9.822948761386049e-05, "loss": 0.3622, "step": 127900 }, { "epoch": 170.54666666666665, "grad_norm": 0.9921875, "learning_rate": 9.822921130776603e-05, "loss": 0.3629, "step": 127910 }, { "epoch": 170.56, "grad_norm": 0.82421875, "learning_rate": 9.822893498050176e-05, "loss": 0.3578, "step": 127920 }, { "epoch": 170.57333333333332, "grad_norm": 0.82421875, "learning_rate": 9.82286586320678e-05, "loss": 0.3625, "step": 127930 }, { "epoch": 170.58666666666667, "grad_norm": 0.74609375, "learning_rate": 9.822838226246429e-05, "loss": 0.3527, "step": 127940 }, { "epoch": 170.6, "grad_norm": 0.796875, "learning_rate": 9.822810587169132e-05, "loss": 0.3548, "step": 127950 }, { "epoch": 170.61333333333334, "grad_norm": 0.70703125, "learning_rate": 9.822782945974902e-05, "loss": 0.3479, "step": 127960 }, { "epoch": 170.62666666666667, "grad_norm": 0.8046875, "learning_rate": 9.822755302663753e-05, "loss": 0.3518, "step": 127970 }, { "epoch": 170.64, "grad_norm": 0.8515625, "learning_rate": 9.822727657235696e-05, "loss": 0.358, "step": 127980 }, { "epoch": 170.65333333333334, "grad_norm": 0.87109375, "learning_rate": 9.82270000969074e-05, "loss": 0.3682, "step": 127990 }, { "epoch": 170.66666666666666, "grad_norm": 0.75390625, "learning_rate": 9.822672360028903e-05, "loss": 0.3606, "step": 128000 }, { "epoch": 170.68, "grad_norm": 0.87890625, "learning_rate": 9.822644708250192e-05, "loss": 0.3482, "step": 128010 }, { "epoch": 170.69333333333333, "grad_norm": 0.75390625, "learning_rate": 9.822617054354624e-05, "loss": 0.3598, "step": 128020 }, { "epoch": 170.70666666666668, "grad_norm": 0.9765625, "learning_rate": 9.822589398342206e-05, "loss": 0.3489, "step": 128030 }, { "epoch": 170.72, "grad_norm": 0.86328125, "learning_rate": 9.822561740212953e-05, "loss": 0.3706, "step": 128040 }, { "epoch": 170.73333333333332, "grad_norm": 0.921875, "learning_rate": 9.822534079966877e-05, "loss": 0.3662, "step": 128050 }, { "epoch": 170.74666666666667, "grad_norm": 0.796875, "learning_rate": 9.82250641760399e-05, "loss": 0.3704, "step": 128060 }, { "epoch": 170.76, "grad_norm": 0.828125, "learning_rate": 9.822478753124305e-05, "loss": 0.3828, "step": 128070 }, { "epoch": 170.77333333333334, "grad_norm": 0.86328125, "learning_rate": 9.822451086527832e-05, "loss": 0.3676, "step": 128080 }, { "epoch": 170.78666666666666, "grad_norm": 0.7734375, "learning_rate": 9.822423417814584e-05, "loss": 0.3703, "step": 128090 }, { "epoch": 170.8, "grad_norm": 0.86328125, "learning_rate": 9.822395746984574e-05, "loss": 0.3685, "step": 128100 }, { "epoch": 170.81333333333333, "grad_norm": 1.0234375, "learning_rate": 9.822368074037813e-05, "loss": 0.342, "step": 128110 }, { "epoch": 170.82666666666665, "grad_norm": 0.80078125, "learning_rate": 9.822340398974315e-05, "loss": 0.3487, "step": 128120 }, { "epoch": 170.84, "grad_norm": 0.99609375, "learning_rate": 9.82231272179409e-05, "loss": 0.362, "step": 128130 }, { "epoch": 170.85333333333332, "grad_norm": 0.828125, "learning_rate": 9.822285042497151e-05, "loss": 0.3577, "step": 128140 }, { "epoch": 170.86666666666667, "grad_norm": 0.83203125, "learning_rate": 9.822257361083511e-05, "loss": 0.3633, "step": 128150 }, { "epoch": 170.88, "grad_norm": 0.8046875, "learning_rate": 9.822229677553181e-05, "loss": 0.3432, "step": 128160 }, { "epoch": 170.89333333333335, "grad_norm": 0.8125, "learning_rate": 9.822201991906173e-05, "loss": 0.3577, "step": 128170 }, { "epoch": 170.90666666666667, "grad_norm": 0.94921875, "learning_rate": 9.8221743041425e-05, "loss": 0.3607, "step": 128180 }, { "epoch": 170.92, "grad_norm": 0.8515625, "learning_rate": 9.822146614262173e-05, "loss": 0.3618, "step": 128190 }, { "epoch": 170.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.822118922265205e-05, "loss": 0.3591, "step": 128200 }, { "epoch": 170.94666666666666, "grad_norm": 0.9609375, "learning_rate": 9.822091228151608e-05, "loss": 0.3587, "step": 128210 }, { "epoch": 170.96, "grad_norm": 0.81640625, "learning_rate": 9.822063531921396e-05, "loss": 0.3572, "step": 128220 }, { "epoch": 170.97333333333333, "grad_norm": 1.140625, "learning_rate": 9.822035833574579e-05, "loss": 0.3797, "step": 128230 }, { "epoch": 170.98666666666668, "grad_norm": 0.80859375, "learning_rate": 9.822008133111168e-05, "loss": 0.3487, "step": 128240 }, { "epoch": 171.0, "grad_norm": 0.84765625, "learning_rate": 9.821980430531177e-05, "loss": 0.3516, "step": 128250 }, { "epoch": 171.0, "eval_loss": 0.4162467420101166, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7166, "eval_samples_per_second": 1.366, "eval_steps_per_second": 0.085, "step": 128250 }, { "epoch": 171.01333333333332, "grad_norm": 0.88671875, "learning_rate": 9.821952725834618e-05, "loss": 0.366, "step": 128260 }, { "epoch": 171.02666666666667, "grad_norm": 0.75390625, "learning_rate": 9.821925019021505e-05, "loss": 0.3817, "step": 128270 }, { "epoch": 171.04, "grad_norm": 0.8046875, "learning_rate": 9.821897310091846e-05, "loss": 0.395, "step": 128280 }, { "epoch": 171.05333333333334, "grad_norm": 0.88671875, "learning_rate": 9.821869599045657e-05, "loss": 0.3784, "step": 128290 }, { "epoch": 171.06666666666666, "grad_norm": 0.98828125, "learning_rate": 9.821841885882947e-05, "loss": 0.3678, "step": 128300 }, { "epoch": 171.08, "grad_norm": 0.8359375, "learning_rate": 9.82181417060373e-05, "loss": 0.3703, "step": 128310 }, { "epoch": 171.09333333333333, "grad_norm": 0.82421875, "learning_rate": 9.82178645320802e-05, "loss": 0.3728, "step": 128320 }, { "epoch": 171.10666666666665, "grad_norm": 0.8203125, "learning_rate": 9.821758733695824e-05, "loss": 0.3615, "step": 128330 }, { "epoch": 171.12, "grad_norm": 0.88671875, "learning_rate": 9.821731012067159e-05, "loss": 0.3623, "step": 128340 }, { "epoch": 171.13333333333333, "grad_norm": 0.78125, "learning_rate": 9.821703288322036e-05, "loss": 0.3549, "step": 128350 }, { "epoch": 171.14666666666668, "grad_norm": 0.87890625, "learning_rate": 9.821675562460464e-05, "loss": 0.3746, "step": 128360 }, { "epoch": 171.16, "grad_norm": 0.7734375, "learning_rate": 9.821647834482459e-05, "loss": 0.37, "step": 128370 }, { "epoch": 171.17333333333335, "grad_norm": 0.8671875, "learning_rate": 9.821620104388032e-05, "loss": 0.3641, "step": 128380 }, { "epoch": 171.18666666666667, "grad_norm": 0.7734375, "learning_rate": 9.821592372177195e-05, "loss": 0.362, "step": 128390 }, { "epoch": 171.2, "grad_norm": 0.86328125, "learning_rate": 9.82156463784996e-05, "loss": 0.3535, "step": 128400 }, { "epoch": 171.21333333333334, "grad_norm": 0.88671875, "learning_rate": 9.82153690140634e-05, "loss": 0.3545, "step": 128410 }, { "epoch": 171.22666666666666, "grad_norm": 0.8828125, "learning_rate": 9.821509162846345e-05, "loss": 0.3649, "step": 128420 }, { "epoch": 171.24, "grad_norm": 0.84375, "learning_rate": 9.821481422169992e-05, "loss": 0.3518, "step": 128430 }, { "epoch": 171.25333333333333, "grad_norm": 0.86328125, "learning_rate": 9.821453679377286e-05, "loss": 0.352, "step": 128440 }, { "epoch": 171.26666666666668, "grad_norm": 0.80859375, "learning_rate": 9.821425934468245e-05, "loss": 0.3555, "step": 128450 }, { "epoch": 171.28, "grad_norm": 0.890625, "learning_rate": 9.82139818744288e-05, "loss": 0.3828, "step": 128460 }, { "epoch": 171.29333333333332, "grad_norm": 0.78125, "learning_rate": 9.8213704383012e-05, "loss": 0.3427, "step": 128470 }, { "epoch": 171.30666666666667, "grad_norm": 0.875, "learning_rate": 9.821342687043222e-05, "loss": 0.365, "step": 128480 }, { "epoch": 171.32, "grad_norm": 0.75390625, "learning_rate": 9.821314933668956e-05, "loss": 0.3703, "step": 128490 }, { "epoch": 171.33333333333334, "grad_norm": 0.87109375, "learning_rate": 9.821287178178413e-05, "loss": 0.3678, "step": 128500 }, { "epoch": 171.34666666666666, "grad_norm": 0.8984375, "learning_rate": 9.821259420571607e-05, "loss": 0.3593, "step": 128510 }, { "epoch": 171.36, "grad_norm": 0.953125, "learning_rate": 9.821231660848548e-05, "loss": 0.361, "step": 128520 }, { "epoch": 171.37333333333333, "grad_norm": 0.71484375, "learning_rate": 9.82120389900925e-05, "loss": 0.3642, "step": 128530 }, { "epoch": 171.38666666666666, "grad_norm": 0.92578125, "learning_rate": 9.821176135053726e-05, "loss": 0.3507, "step": 128540 }, { "epoch": 171.4, "grad_norm": 0.82421875, "learning_rate": 9.821148368981984e-05, "loss": 0.3623, "step": 128550 }, { "epoch": 171.41333333333333, "grad_norm": 0.828125, "learning_rate": 9.821120600794043e-05, "loss": 0.3675, "step": 128560 }, { "epoch": 171.42666666666668, "grad_norm": 0.81640625, "learning_rate": 9.821092830489908e-05, "loss": 0.369, "step": 128570 }, { "epoch": 171.44, "grad_norm": 0.84765625, "learning_rate": 9.821065058069596e-05, "loss": 0.3824, "step": 128580 }, { "epoch": 171.45333333333335, "grad_norm": 0.88671875, "learning_rate": 9.82103728353312e-05, "loss": 0.3678, "step": 128590 }, { "epoch": 171.46666666666667, "grad_norm": 0.80859375, "learning_rate": 9.821009506880485e-05, "loss": 0.3756, "step": 128600 }, { "epoch": 171.48, "grad_norm": 0.8203125, "learning_rate": 9.820981728111711e-05, "loss": 0.3584, "step": 128610 }, { "epoch": 171.49333333333334, "grad_norm": 0.83984375, "learning_rate": 9.820953947226808e-05, "loss": 0.3705, "step": 128620 }, { "epoch": 171.50666666666666, "grad_norm": 0.875, "learning_rate": 9.820926164225785e-05, "loss": 0.3704, "step": 128630 }, { "epoch": 171.52, "grad_norm": 0.71484375, "learning_rate": 9.820898379108658e-05, "loss": 0.3609, "step": 128640 }, { "epoch": 171.53333333333333, "grad_norm": 0.828125, "learning_rate": 9.820870591875438e-05, "loss": 0.3622, "step": 128650 }, { "epoch": 171.54666666666665, "grad_norm": 0.98828125, "learning_rate": 9.820842802526137e-05, "loss": 0.3626, "step": 128660 }, { "epoch": 171.56, "grad_norm": 0.74609375, "learning_rate": 9.820815011060767e-05, "loss": 0.3581, "step": 128670 }, { "epoch": 171.57333333333332, "grad_norm": 0.8671875, "learning_rate": 9.82078721747934e-05, "loss": 0.3623, "step": 128680 }, { "epoch": 171.58666666666667, "grad_norm": 0.83984375, "learning_rate": 9.820759421781868e-05, "loss": 0.3537, "step": 128690 }, { "epoch": 171.6, "grad_norm": 0.8515625, "learning_rate": 9.820731623968367e-05, "loss": 0.355, "step": 128700 }, { "epoch": 171.61333333333334, "grad_norm": 0.7421875, "learning_rate": 9.820703824038843e-05, "loss": 0.3474, "step": 128710 }, { "epoch": 171.62666666666667, "grad_norm": 0.73828125, "learning_rate": 9.820676021993311e-05, "loss": 0.3518, "step": 128720 }, { "epoch": 171.64, "grad_norm": 0.9296875, "learning_rate": 9.820648217831785e-05, "loss": 0.3585, "step": 128730 }, { "epoch": 171.65333333333334, "grad_norm": 0.80078125, "learning_rate": 9.820620411554276e-05, "loss": 0.3683, "step": 128740 }, { "epoch": 171.66666666666666, "grad_norm": 0.71875, "learning_rate": 9.820592603160795e-05, "loss": 0.3598, "step": 128750 }, { "epoch": 171.68, "grad_norm": 0.8125, "learning_rate": 9.820564792651356e-05, "loss": 0.3486, "step": 128760 }, { "epoch": 171.69333333333333, "grad_norm": 0.734375, "learning_rate": 9.82053698002597e-05, "loss": 0.3604, "step": 128770 }, { "epoch": 171.70666666666668, "grad_norm": 0.96484375, "learning_rate": 9.820509165284648e-05, "loss": 0.3496, "step": 128780 }, { "epoch": 171.72, "grad_norm": 0.92578125, "learning_rate": 9.820481348427404e-05, "loss": 0.3705, "step": 128790 }, { "epoch": 171.73333333333332, "grad_norm": 0.7890625, "learning_rate": 9.820453529454251e-05, "loss": 0.3668, "step": 128800 }, { "epoch": 171.74666666666667, "grad_norm": 0.84765625, "learning_rate": 9.8204257083652e-05, "loss": 0.3701, "step": 128810 }, { "epoch": 171.76, "grad_norm": 0.875, "learning_rate": 9.820397885160262e-05, "loss": 0.3835, "step": 128820 }, { "epoch": 171.77333333333334, "grad_norm": 0.92578125, "learning_rate": 9.820370059839452e-05, "loss": 0.3669, "step": 128830 }, { "epoch": 171.78666666666666, "grad_norm": 0.79296875, "learning_rate": 9.820342232402781e-05, "loss": 0.3711, "step": 128840 }, { "epoch": 171.8, "grad_norm": 0.859375, "learning_rate": 9.820314402850259e-05, "loss": 0.368, "step": 128850 }, { "epoch": 171.81333333333333, "grad_norm": 1.0, "learning_rate": 9.820286571181902e-05, "loss": 0.3426, "step": 128860 }, { "epoch": 171.82666666666665, "grad_norm": 0.77734375, "learning_rate": 9.82025873739772e-05, "loss": 0.3496, "step": 128870 }, { "epoch": 171.84, "grad_norm": 0.93359375, "learning_rate": 9.820230901497724e-05, "loss": 0.3613, "step": 128880 }, { "epoch": 171.85333333333332, "grad_norm": 0.8671875, "learning_rate": 9.82020306348193e-05, "loss": 0.358, "step": 128890 }, { "epoch": 171.86666666666667, "grad_norm": 0.88671875, "learning_rate": 9.820175223350348e-05, "loss": 0.3635, "step": 128900 }, { "epoch": 171.88, "grad_norm": 0.765625, "learning_rate": 9.820147381102988e-05, "loss": 0.3443, "step": 128910 }, { "epoch": 171.89333333333335, "grad_norm": 0.7890625, "learning_rate": 9.820119536739867e-05, "loss": 0.3574, "step": 128920 }, { "epoch": 171.90666666666667, "grad_norm": 0.796875, "learning_rate": 9.820091690260994e-05, "loss": 0.3607, "step": 128930 }, { "epoch": 171.92, "grad_norm": 0.83984375, "learning_rate": 9.820063841666381e-05, "loss": 0.3618, "step": 128940 }, { "epoch": 171.93333333333334, "grad_norm": 0.76171875, "learning_rate": 9.820035990956042e-05, "loss": 0.3589, "step": 128950 }, { "epoch": 171.94666666666666, "grad_norm": 0.84375, "learning_rate": 9.820008138129988e-05, "loss": 0.358, "step": 128960 }, { "epoch": 171.96, "grad_norm": 0.734375, "learning_rate": 9.819980283188233e-05, "loss": 0.3558, "step": 128970 }, { "epoch": 171.97333333333333, "grad_norm": 1.1640625, "learning_rate": 9.819952426130787e-05, "loss": 0.3798, "step": 128980 }, { "epoch": 171.98666666666668, "grad_norm": 0.92578125, "learning_rate": 9.819924566957663e-05, "loss": 0.3493, "step": 128990 }, { "epoch": 172.0, "grad_norm": 0.80078125, "learning_rate": 9.819896705668871e-05, "loss": 0.3508, "step": 129000 }, { "epoch": 172.0, "eval_loss": 0.4174911379814148, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.0455, "eval_samples_per_second": 1.328, "eval_steps_per_second": 0.083, "step": 129000 }, { "epoch": 172.01333333333332, "grad_norm": 0.91015625, "learning_rate": 9.819868842264429e-05, "loss": 0.3667, "step": 129010 }, { "epoch": 172.02666666666667, "grad_norm": 0.80859375, "learning_rate": 9.819840976744343e-05, "loss": 0.3812, "step": 129020 }, { "epoch": 172.04, "grad_norm": 0.77734375, "learning_rate": 9.819813109108631e-05, "loss": 0.3948, "step": 129030 }, { "epoch": 172.05333333333334, "grad_norm": 0.82421875, "learning_rate": 9.8197852393573e-05, "loss": 0.3788, "step": 129040 }, { "epoch": 172.06666666666666, "grad_norm": 0.9765625, "learning_rate": 9.819757367490365e-05, "loss": 0.3676, "step": 129050 }, { "epoch": 172.08, "grad_norm": 0.83203125, "learning_rate": 9.819729493507836e-05, "loss": 0.3706, "step": 129060 }, { "epoch": 172.09333333333333, "grad_norm": 0.89453125, "learning_rate": 9.81970161740973e-05, "loss": 0.3721, "step": 129070 }, { "epoch": 172.10666666666665, "grad_norm": 0.796875, "learning_rate": 9.819673739196054e-05, "loss": 0.3619, "step": 129080 }, { "epoch": 172.12, "grad_norm": 0.8671875, "learning_rate": 9.819645858866824e-05, "loss": 0.3626, "step": 129090 }, { "epoch": 172.13333333333333, "grad_norm": 0.8046875, "learning_rate": 9.81961797642205e-05, "loss": 0.3551, "step": 129100 }, { "epoch": 172.14666666666668, "grad_norm": 0.89453125, "learning_rate": 9.819590091861744e-05, "loss": 0.3743, "step": 129110 }, { "epoch": 172.16, "grad_norm": 0.7890625, "learning_rate": 9.819562205185919e-05, "loss": 0.3708, "step": 129120 }, { "epoch": 172.17333333333335, "grad_norm": 0.8515625, "learning_rate": 9.81953431639459e-05, "loss": 0.3644, "step": 129130 }, { "epoch": 172.18666666666667, "grad_norm": 0.8203125, "learning_rate": 9.819506425487763e-05, "loss": 0.3609, "step": 129140 }, { "epoch": 172.2, "grad_norm": 0.8046875, "learning_rate": 9.819478532465457e-05, "loss": 0.3534, "step": 129150 }, { "epoch": 172.21333333333334, "grad_norm": 0.89453125, "learning_rate": 9.819450637327678e-05, "loss": 0.3537, "step": 129160 }, { "epoch": 172.22666666666666, "grad_norm": 0.9140625, "learning_rate": 9.819422740074444e-05, "loss": 0.3651, "step": 129170 }, { "epoch": 172.24, "grad_norm": 0.87890625, "learning_rate": 9.819394840705763e-05, "loss": 0.3512, "step": 129180 }, { "epoch": 172.25333333333333, "grad_norm": 0.77734375, "learning_rate": 9.819366939221649e-05, "loss": 0.3519, "step": 129190 }, { "epoch": 172.26666666666668, "grad_norm": 0.8203125, "learning_rate": 9.819339035622114e-05, "loss": 0.3554, "step": 129200 }, { "epoch": 172.28, "grad_norm": 0.84375, "learning_rate": 9.819311129907171e-05, "loss": 0.3827, "step": 129210 }, { "epoch": 172.29333333333332, "grad_norm": 0.87890625, "learning_rate": 9.819283222076832e-05, "loss": 0.3427, "step": 129220 }, { "epoch": 172.30666666666667, "grad_norm": 0.828125, "learning_rate": 9.819255312131107e-05, "loss": 0.3653, "step": 129230 }, { "epoch": 172.32, "grad_norm": 0.7265625, "learning_rate": 9.819227400070011e-05, "loss": 0.3708, "step": 129240 }, { "epoch": 172.33333333333334, "grad_norm": 0.890625, "learning_rate": 9.819199485893556e-05, "loss": 0.3684, "step": 129250 }, { "epoch": 172.34666666666666, "grad_norm": 0.8984375, "learning_rate": 9.819171569601753e-05, "loss": 0.36, "step": 129260 }, { "epoch": 172.36, "grad_norm": 0.7890625, "learning_rate": 9.819143651194615e-05, "loss": 0.3598, "step": 129270 }, { "epoch": 172.37333333333333, "grad_norm": 0.75390625, "learning_rate": 9.819115730672153e-05, "loss": 0.3634, "step": 129280 }, { "epoch": 172.38666666666666, "grad_norm": 0.91015625, "learning_rate": 9.819087808034382e-05, "loss": 0.3505, "step": 129290 }, { "epoch": 172.4, "grad_norm": 0.828125, "learning_rate": 9.819059883281311e-05, "loss": 0.3607, "step": 129300 }, { "epoch": 172.41333333333333, "grad_norm": 0.8359375, "learning_rate": 9.819031956412955e-05, "loss": 0.3673, "step": 129310 }, { "epoch": 172.42666666666668, "grad_norm": 0.83984375, "learning_rate": 9.819004027429324e-05, "loss": 0.3689, "step": 129320 }, { "epoch": 172.44, "grad_norm": 0.8515625, "learning_rate": 9.818976096330432e-05, "loss": 0.3813, "step": 129330 }, { "epoch": 172.45333333333335, "grad_norm": 0.875, "learning_rate": 9.818948163116291e-05, "loss": 0.3688, "step": 129340 }, { "epoch": 172.46666666666667, "grad_norm": 0.76953125, "learning_rate": 9.818920227786911e-05, "loss": 0.3753, "step": 129350 }, { "epoch": 172.48, "grad_norm": 0.92578125, "learning_rate": 9.818892290342309e-05, "loss": 0.3585, "step": 129360 }, { "epoch": 172.49333333333334, "grad_norm": 0.8359375, "learning_rate": 9.818864350782492e-05, "loss": 0.3701, "step": 129370 }, { "epoch": 172.50666666666666, "grad_norm": 0.8125, "learning_rate": 9.818836409107477e-05, "loss": 0.3699, "step": 129380 }, { "epoch": 172.52, "grad_norm": 0.71484375, "learning_rate": 9.818808465317273e-05, "loss": 0.3607, "step": 129390 }, { "epoch": 172.53333333333333, "grad_norm": 0.83203125, "learning_rate": 9.818780519411891e-05, "loss": 0.3622, "step": 129400 }, { "epoch": 172.54666666666665, "grad_norm": 0.9765625, "learning_rate": 9.818752571391347e-05, "loss": 0.3631, "step": 129410 }, { "epoch": 172.56, "grad_norm": 0.76953125, "learning_rate": 9.818724621255653e-05, "loss": 0.3572, "step": 129420 }, { "epoch": 172.57333333333332, "grad_norm": 0.98828125, "learning_rate": 9.818696669004818e-05, "loss": 0.3616, "step": 129430 }, { "epoch": 172.58666666666667, "grad_norm": 0.78125, "learning_rate": 9.818668714638859e-05, "loss": 0.3538, "step": 129440 }, { "epoch": 172.6, "grad_norm": 0.80859375, "learning_rate": 9.818640758157783e-05, "loss": 0.3542, "step": 129450 }, { "epoch": 172.61333333333334, "grad_norm": 0.74609375, "learning_rate": 9.818612799561606e-05, "loss": 0.3473, "step": 129460 }, { "epoch": 172.62666666666667, "grad_norm": 0.7265625, "learning_rate": 9.81858483885034e-05, "loss": 0.3518, "step": 129470 }, { "epoch": 172.64, "grad_norm": 0.96484375, "learning_rate": 9.818556876023994e-05, "loss": 0.3578, "step": 129480 }, { "epoch": 172.65333333333334, "grad_norm": 0.83984375, "learning_rate": 9.818528911082582e-05, "loss": 0.3683, "step": 129490 }, { "epoch": 172.66666666666666, "grad_norm": 0.81640625, "learning_rate": 9.81850094402612e-05, "loss": 0.3604, "step": 129500 }, { "epoch": 172.68, "grad_norm": 0.9140625, "learning_rate": 9.818472974854616e-05, "loss": 0.3487, "step": 129510 }, { "epoch": 172.69333333333333, "grad_norm": 0.76953125, "learning_rate": 9.818445003568083e-05, "loss": 0.3602, "step": 129520 }, { "epoch": 172.70666666666668, "grad_norm": 1.0234375, "learning_rate": 9.818417030166533e-05, "loss": 0.3496, "step": 129530 }, { "epoch": 172.72, "grad_norm": 0.8671875, "learning_rate": 9.818389054649982e-05, "loss": 0.3716, "step": 129540 }, { "epoch": 172.73333333333332, "grad_norm": 0.8984375, "learning_rate": 9.818361077018437e-05, "loss": 0.367, "step": 129550 }, { "epoch": 172.74666666666667, "grad_norm": 0.8125, "learning_rate": 9.818333097271913e-05, "loss": 0.3697, "step": 129560 }, { "epoch": 172.76, "grad_norm": 0.8671875, "learning_rate": 9.81830511541042e-05, "loss": 0.3829, "step": 129570 }, { "epoch": 172.77333333333334, "grad_norm": 0.87109375, "learning_rate": 9.818277131433975e-05, "loss": 0.3679, "step": 129580 }, { "epoch": 172.78666666666666, "grad_norm": 0.8046875, "learning_rate": 9.818249145342586e-05, "loss": 0.3704, "step": 129590 }, { "epoch": 172.8, "grad_norm": 0.859375, "learning_rate": 9.818221157136267e-05, "loss": 0.3685, "step": 129600 }, { "epoch": 172.81333333333333, "grad_norm": 0.92578125, "learning_rate": 9.81819316681503e-05, "loss": 0.3426, "step": 129610 }, { "epoch": 172.82666666666665, "grad_norm": 0.8515625, "learning_rate": 9.818165174378888e-05, "loss": 0.3496, "step": 129620 }, { "epoch": 172.84, "grad_norm": 1.03125, "learning_rate": 9.818137179827851e-05, "loss": 0.3616, "step": 129630 }, { "epoch": 172.85333333333332, "grad_norm": 0.78515625, "learning_rate": 9.818109183161935e-05, "loss": 0.3569, "step": 129640 }, { "epoch": 172.86666666666667, "grad_norm": 0.83984375, "learning_rate": 9.818081184381147e-05, "loss": 0.3632, "step": 129650 }, { "epoch": 172.88, "grad_norm": 0.80859375, "learning_rate": 9.818053183485504e-05, "loss": 0.344, "step": 129660 }, { "epoch": 172.89333333333335, "grad_norm": 0.85546875, "learning_rate": 9.818025180475017e-05, "loss": 0.3574, "step": 129670 }, { "epoch": 172.90666666666667, "grad_norm": 0.8515625, "learning_rate": 9.817997175349698e-05, "loss": 0.3617, "step": 129680 }, { "epoch": 172.92, "grad_norm": 0.828125, "learning_rate": 9.81796916810956e-05, "loss": 0.3625, "step": 129690 }, { "epoch": 172.93333333333334, "grad_norm": 0.71875, "learning_rate": 9.817941158754613e-05, "loss": 0.3592, "step": 129700 }, { "epoch": 172.94666666666666, "grad_norm": 0.859375, "learning_rate": 9.817913147284872e-05, "loss": 0.3577, "step": 129710 }, { "epoch": 172.96, "grad_norm": 0.796875, "learning_rate": 9.817885133700349e-05, "loss": 0.3564, "step": 129720 }, { "epoch": 172.97333333333333, "grad_norm": 1.1328125, "learning_rate": 9.817857118001054e-05, "loss": 0.3798, "step": 129730 }, { "epoch": 172.98666666666668, "grad_norm": 0.859375, "learning_rate": 9.817829100187002e-05, "loss": 0.3494, "step": 129740 }, { "epoch": 173.0, "grad_norm": 0.90234375, "learning_rate": 9.817801080258202e-05, "loss": 0.3506, "step": 129750 }, { "epoch": 173.0, "eval_loss": 0.4169639050960541, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7611, "eval_samples_per_second": 1.36, "eval_steps_per_second": 0.085, "step": 129750 }, { "epoch": 173.01333333333332, "grad_norm": 0.8984375, "learning_rate": 9.817773058214669e-05, "loss": 0.3658, "step": 129760 }, { "epoch": 173.02666666666667, "grad_norm": 0.78515625, "learning_rate": 9.817745034056416e-05, "loss": 0.3813, "step": 129770 }, { "epoch": 173.04, "grad_norm": 0.82421875, "learning_rate": 9.817717007783454e-05, "loss": 0.3949, "step": 129780 }, { "epoch": 173.05333333333334, "grad_norm": 0.85546875, "learning_rate": 9.817688979395793e-05, "loss": 0.3793, "step": 129790 }, { "epoch": 173.06666666666666, "grad_norm": 0.90625, "learning_rate": 9.81766094889345e-05, "loss": 0.3675, "step": 129800 }, { "epoch": 173.08, "grad_norm": 0.8125, "learning_rate": 9.817632916276435e-05, "loss": 0.3703, "step": 129810 }, { "epoch": 173.09333333333333, "grad_norm": 0.890625, "learning_rate": 9.817604881544759e-05, "loss": 0.3724, "step": 129820 }, { "epoch": 173.10666666666665, "grad_norm": 0.81640625, "learning_rate": 9.817576844698435e-05, "loss": 0.3619, "step": 129830 }, { "epoch": 173.12, "grad_norm": 0.90625, "learning_rate": 9.817548805737478e-05, "loss": 0.3623, "step": 129840 }, { "epoch": 173.13333333333333, "grad_norm": 0.828125, "learning_rate": 9.817520764661896e-05, "loss": 0.3551, "step": 129850 }, { "epoch": 173.14666666666668, "grad_norm": 0.80859375, "learning_rate": 9.817492721471703e-05, "loss": 0.3748, "step": 129860 }, { "epoch": 173.16, "grad_norm": 0.8359375, "learning_rate": 9.817464676166914e-05, "loss": 0.3711, "step": 129870 }, { "epoch": 173.17333333333335, "grad_norm": 0.90625, "learning_rate": 9.817436628747538e-05, "loss": 0.3644, "step": 129880 }, { "epoch": 173.18666666666667, "grad_norm": 0.81640625, "learning_rate": 9.817408579213587e-05, "loss": 0.3622, "step": 129890 }, { "epoch": 173.2, "grad_norm": 0.78125, "learning_rate": 9.817380527565076e-05, "loss": 0.3532, "step": 129900 }, { "epoch": 173.21333333333334, "grad_norm": 0.86328125, "learning_rate": 9.817352473802018e-05, "loss": 0.3535, "step": 129910 }, { "epoch": 173.22666666666666, "grad_norm": 0.828125, "learning_rate": 9.81732441792442e-05, "loss": 0.3649, "step": 129920 }, { "epoch": 173.24, "grad_norm": 0.91015625, "learning_rate": 9.817296359932298e-05, "loss": 0.3513, "step": 129930 }, { "epoch": 173.25333333333333, "grad_norm": 0.86328125, "learning_rate": 9.817268299825666e-05, "loss": 0.3519, "step": 129940 }, { "epoch": 173.26666666666668, "grad_norm": 0.77734375, "learning_rate": 9.817240237604532e-05, "loss": 0.3555, "step": 129950 }, { "epoch": 173.28, "grad_norm": 0.890625, "learning_rate": 9.817212173268911e-05, "loss": 0.3821, "step": 129960 }, { "epoch": 173.29333333333332, "grad_norm": 0.7890625, "learning_rate": 9.817184106818816e-05, "loss": 0.3418, "step": 129970 }, { "epoch": 173.30666666666667, "grad_norm": 0.88671875, "learning_rate": 9.817156038254258e-05, "loss": 0.3653, "step": 129980 }, { "epoch": 173.32, "grad_norm": 0.72265625, "learning_rate": 9.817127967575248e-05, "loss": 0.3699, "step": 129990 }, { "epoch": 173.33333333333334, "grad_norm": 0.8671875, "learning_rate": 9.817099894781801e-05, "loss": 0.368, "step": 130000 }, { "epoch": 173.34666666666666, "grad_norm": 0.9296875, "learning_rate": 9.817071819873928e-05, "loss": 0.3595, "step": 130010 }, { "epoch": 173.36, "grad_norm": 0.8046875, "learning_rate": 9.817043742851641e-05, "loss": 0.3597, "step": 130020 }, { "epoch": 173.37333333333333, "grad_norm": 0.7734375, "learning_rate": 9.817015663714954e-05, "loss": 0.3638, "step": 130030 }, { "epoch": 173.38666666666666, "grad_norm": 0.96484375, "learning_rate": 9.816987582463878e-05, "loss": 0.3511, "step": 130040 }, { "epoch": 173.4, "grad_norm": 0.828125, "learning_rate": 9.816959499098426e-05, "loss": 0.3618, "step": 130050 }, { "epoch": 173.41333333333333, "grad_norm": 0.89453125, "learning_rate": 9.816931413618609e-05, "loss": 0.3682, "step": 130060 }, { "epoch": 173.42666666666668, "grad_norm": 0.91796875, "learning_rate": 9.816903326024439e-05, "loss": 0.3687, "step": 130070 }, { "epoch": 173.44, "grad_norm": 0.83203125, "learning_rate": 9.81687523631593e-05, "loss": 0.3805, "step": 130080 }, { "epoch": 173.45333333333335, "grad_norm": 0.83984375, "learning_rate": 9.816847144493094e-05, "loss": 0.3684, "step": 130090 }, { "epoch": 173.46666666666667, "grad_norm": 0.82421875, "learning_rate": 9.816819050555943e-05, "loss": 0.3752, "step": 130100 }, { "epoch": 173.48, "grad_norm": 0.8046875, "learning_rate": 9.81679095450449e-05, "loss": 0.3599, "step": 130110 }, { "epoch": 173.49333333333334, "grad_norm": 0.77734375, "learning_rate": 9.816762856338745e-05, "loss": 0.3704, "step": 130120 }, { "epoch": 173.50666666666666, "grad_norm": 0.92578125, "learning_rate": 9.816734756058725e-05, "loss": 0.371, "step": 130130 }, { "epoch": 173.52, "grad_norm": 0.7578125, "learning_rate": 9.816706653664438e-05, "loss": 0.3615, "step": 130140 }, { "epoch": 173.53333333333333, "grad_norm": 0.85546875, "learning_rate": 9.816678549155897e-05, "loss": 0.3614, "step": 130150 }, { "epoch": 173.54666666666665, "grad_norm": 0.953125, "learning_rate": 9.816650442533116e-05, "loss": 0.3627, "step": 130160 }, { "epoch": 173.56, "grad_norm": 0.76171875, "learning_rate": 9.816622333796106e-05, "loss": 0.3572, "step": 130170 }, { "epoch": 173.57333333333332, "grad_norm": 0.86328125, "learning_rate": 9.816594222944881e-05, "loss": 0.3624, "step": 130180 }, { "epoch": 173.58666666666667, "grad_norm": 0.82421875, "learning_rate": 9.81656610997945e-05, "loss": 0.3529, "step": 130190 }, { "epoch": 173.6, "grad_norm": 0.8203125, "learning_rate": 9.816537994899828e-05, "loss": 0.3552, "step": 130200 }, { "epoch": 173.61333333333334, "grad_norm": 0.77734375, "learning_rate": 9.816509877706028e-05, "loss": 0.3473, "step": 130210 }, { "epoch": 173.62666666666667, "grad_norm": 0.73828125, "learning_rate": 9.816481758398062e-05, "loss": 0.3507, "step": 130220 }, { "epoch": 173.64, "grad_norm": 0.96875, "learning_rate": 9.81645363697594e-05, "loss": 0.3585, "step": 130230 }, { "epoch": 173.65333333333334, "grad_norm": 0.78125, "learning_rate": 9.816425513439675e-05, "loss": 0.3681, "step": 130240 }, { "epoch": 173.66666666666666, "grad_norm": 0.75, "learning_rate": 9.81639738778928e-05, "loss": 0.3598, "step": 130250 }, { "epoch": 173.68, "grad_norm": 0.8359375, "learning_rate": 9.816369260024769e-05, "loss": 0.3491, "step": 130260 }, { "epoch": 173.69333333333333, "grad_norm": 0.734375, "learning_rate": 9.816341130146153e-05, "loss": 0.3602, "step": 130270 }, { "epoch": 173.70666666666668, "grad_norm": 0.89453125, "learning_rate": 9.816312998153444e-05, "loss": 0.3502, "step": 130280 }, { "epoch": 173.72, "grad_norm": 0.8671875, "learning_rate": 9.816284864046655e-05, "loss": 0.371, "step": 130290 }, { "epoch": 173.73333333333332, "grad_norm": 0.8046875, "learning_rate": 9.816256727825795e-05, "loss": 0.366, "step": 130300 }, { "epoch": 173.74666666666667, "grad_norm": 0.77734375, "learning_rate": 9.816228589490881e-05, "loss": 0.3698, "step": 130310 }, { "epoch": 173.76, "grad_norm": 0.80078125, "learning_rate": 9.816200449041924e-05, "loss": 0.3825, "step": 130320 }, { "epoch": 173.77333333333334, "grad_norm": 0.91015625, "learning_rate": 9.816172306478937e-05, "loss": 0.3668, "step": 130330 }, { "epoch": 173.78666666666666, "grad_norm": 0.84765625, "learning_rate": 9.81614416180193e-05, "loss": 0.3705, "step": 130340 }, { "epoch": 173.8, "grad_norm": 0.85546875, "learning_rate": 9.816116015010917e-05, "loss": 0.3679, "step": 130350 }, { "epoch": 173.81333333333333, "grad_norm": 0.921875, "learning_rate": 9.81608786610591e-05, "loss": 0.3416, "step": 130360 }, { "epoch": 173.82666666666665, "grad_norm": 0.875, "learning_rate": 9.816059715086921e-05, "loss": 0.3493, "step": 130370 }, { "epoch": 173.84, "grad_norm": 0.89453125, "learning_rate": 9.816031561953963e-05, "loss": 0.3621, "step": 130380 }, { "epoch": 173.85333333333332, "grad_norm": 0.87890625, "learning_rate": 9.816003406707049e-05, "loss": 0.3569, "step": 130390 }, { "epoch": 173.86666666666667, "grad_norm": 0.87109375, "learning_rate": 9.815975249346189e-05, "loss": 0.3636, "step": 130400 }, { "epoch": 173.88, "grad_norm": 0.7890625, "learning_rate": 9.815947089871398e-05, "loss": 0.3452, "step": 130410 }, { "epoch": 173.89333333333335, "grad_norm": 0.81640625, "learning_rate": 9.815918928282686e-05, "loss": 0.357, "step": 130420 }, { "epoch": 173.90666666666667, "grad_norm": 0.7734375, "learning_rate": 9.815890764580067e-05, "loss": 0.3604, "step": 130430 }, { "epoch": 173.92, "grad_norm": 0.74609375, "learning_rate": 9.815862598763552e-05, "loss": 0.3612, "step": 130440 }, { "epoch": 173.93333333333334, "grad_norm": 0.7734375, "learning_rate": 9.815834430833157e-05, "loss": 0.3587, "step": 130450 }, { "epoch": 173.94666666666666, "grad_norm": 0.84375, "learning_rate": 9.815806260788889e-05, "loss": 0.3586, "step": 130460 }, { "epoch": 173.96, "grad_norm": 0.75390625, "learning_rate": 9.815778088630763e-05, "loss": 0.3566, "step": 130470 }, { "epoch": 173.97333333333333, "grad_norm": 1.078125, "learning_rate": 9.815749914358794e-05, "loss": 0.3793, "step": 130480 }, { "epoch": 173.98666666666668, "grad_norm": 0.84375, "learning_rate": 9.815721737972989e-05, "loss": 0.3492, "step": 130490 }, { "epoch": 174.0, "grad_norm": 0.84375, "learning_rate": 9.815693559473364e-05, "loss": 0.3511, "step": 130500 }, { "epoch": 174.0, "eval_loss": 0.41803330183029175, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4852, "eval_samples_per_second": 1.393, "eval_steps_per_second": 0.087, "step": 130500 }, { "epoch": 174.01333333333332, "grad_norm": 0.97265625, "learning_rate": 9.815665378859931e-05, "loss": 0.3663, "step": 130510 }, { "epoch": 174.02666666666667, "grad_norm": 0.74609375, "learning_rate": 9.815637196132701e-05, "loss": 0.3814, "step": 130520 }, { "epoch": 174.04, "grad_norm": 0.78125, "learning_rate": 9.815609011291687e-05, "loss": 0.394, "step": 130530 }, { "epoch": 174.05333333333334, "grad_norm": 0.82421875, "learning_rate": 9.815580824336903e-05, "loss": 0.3785, "step": 130540 }, { "epoch": 174.06666666666666, "grad_norm": 0.890625, "learning_rate": 9.815552635268359e-05, "loss": 0.3673, "step": 130550 }, { "epoch": 174.08, "grad_norm": 0.796875, "learning_rate": 9.815524444086068e-05, "loss": 0.3695, "step": 130560 }, { "epoch": 174.09333333333333, "grad_norm": 0.81640625, "learning_rate": 9.815496250790043e-05, "loss": 0.3724, "step": 130570 }, { "epoch": 174.10666666666665, "grad_norm": 0.7734375, "learning_rate": 9.815468055380296e-05, "loss": 0.362, "step": 130580 }, { "epoch": 174.12, "grad_norm": 0.84375, "learning_rate": 9.81543985785684e-05, "loss": 0.3626, "step": 130590 }, { "epoch": 174.13333333333333, "grad_norm": 0.82421875, "learning_rate": 9.815411658219687e-05, "loss": 0.3546, "step": 130600 }, { "epoch": 174.14666666666668, "grad_norm": 0.76953125, "learning_rate": 9.815383456468847e-05, "loss": 0.3743, "step": 130610 }, { "epoch": 174.16, "grad_norm": 0.734375, "learning_rate": 9.815355252604337e-05, "loss": 0.3704, "step": 130620 }, { "epoch": 174.17333333333335, "grad_norm": 0.8515625, "learning_rate": 9.815327046626166e-05, "loss": 0.3647, "step": 130630 }, { "epoch": 174.18666666666667, "grad_norm": 0.82421875, "learning_rate": 9.815298838534346e-05, "loss": 0.3612, "step": 130640 }, { "epoch": 174.2, "grad_norm": 0.734375, "learning_rate": 9.815270628328893e-05, "loss": 0.3522, "step": 130650 }, { "epoch": 174.21333333333334, "grad_norm": 0.8203125, "learning_rate": 9.815242416009816e-05, "loss": 0.3537, "step": 130660 }, { "epoch": 174.22666666666666, "grad_norm": 0.84765625, "learning_rate": 9.81521420157713e-05, "loss": 0.3646, "step": 130670 }, { "epoch": 174.24, "grad_norm": 0.8828125, "learning_rate": 9.815185985030844e-05, "loss": 0.3508, "step": 130680 }, { "epoch": 174.25333333333333, "grad_norm": 0.84765625, "learning_rate": 9.815157766370973e-05, "loss": 0.3525, "step": 130690 }, { "epoch": 174.26666666666668, "grad_norm": 0.828125, "learning_rate": 9.815129545597528e-05, "loss": 0.3553, "step": 130700 }, { "epoch": 174.28, "grad_norm": 0.86328125, "learning_rate": 9.815101322710523e-05, "loss": 0.3826, "step": 130710 }, { "epoch": 174.29333333333332, "grad_norm": 0.8515625, "learning_rate": 9.815073097709968e-05, "loss": 0.3425, "step": 130720 }, { "epoch": 174.30666666666667, "grad_norm": 0.8203125, "learning_rate": 9.815044870595878e-05, "loss": 0.3656, "step": 130730 }, { "epoch": 174.32, "grad_norm": 0.74609375, "learning_rate": 9.815016641368264e-05, "loss": 0.3702, "step": 130740 }, { "epoch": 174.33333333333334, "grad_norm": 0.8671875, "learning_rate": 9.81498841002714e-05, "loss": 0.368, "step": 130750 }, { "epoch": 174.34666666666666, "grad_norm": 1.0, "learning_rate": 9.814960176572514e-05, "loss": 0.3591, "step": 130760 }, { "epoch": 174.36, "grad_norm": 0.83203125, "learning_rate": 9.814931941004404e-05, "loss": 0.36, "step": 130770 }, { "epoch": 174.37333333333333, "grad_norm": 0.78125, "learning_rate": 9.814903703322818e-05, "loss": 0.3638, "step": 130780 }, { "epoch": 174.38666666666666, "grad_norm": 0.92578125, "learning_rate": 9.814875463527771e-05, "loss": 0.35, "step": 130790 }, { "epoch": 174.4, "grad_norm": 0.83984375, "learning_rate": 9.814847221619274e-05, "loss": 0.3613, "step": 130800 }, { "epoch": 174.41333333333333, "grad_norm": 0.796875, "learning_rate": 9.81481897759734e-05, "loss": 0.367, "step": 130810 }, { "epoch": 174.42666666666668, "grad_norm": 0.921875, "learning_rate": 9.814790731461982e-05, "loss": 0.3683, "step": 130820 }, { "epoch": 174.44, "grad_norm": 0.8203125, "learning_rate": 9.814762483213211e-05, "loss": 0.3806, "step": 130830 }, { "epoch": 174.45333333333335, "grad_norm": 0.88671875, "learning_rate": 9.814734232851042e-05, "loss": 0.3686, "step": 130840 }, { "epoch": 174.46666666666667, "grad_norm": 0.8671875, "learning_rate": 9.814705980375482e-05, "loss": 0.3745, "step": 130850 }, { "epoch": 174.48, "grad_norm": 0.73828125, "learning_rate": 9.81467772578655e-05, "loss": 0.3584, "step": 130860 }, { "epoch": 174.49333333333334, "grad_norm": 0.82421875, "learning_rate": 9.814649469084253e-05, "loss": 0.3701, "step": 130870 }, { "epoch": 174.50666666666666, "grad_norm": 0.82421875, "learning_rate": 9.814621210268609e-05, "loss": 0.3704, "step": 130880 }, { "epoch": 174.52, "grad_norm": 0.765625, "learning_rate": 9.814592949339625e-05, "loss": 0.3603, "step": 130890 }, { "epoch": 174.53333333333333, "grad_norm": 0.890625, "learning_rate": 9.814564686297316e-05, "loss": 0.3617, "step": 130900 }, { "epoch": 174.54666666666665, "grad_norm": 0.92578125, "learning_rate": 9.814536421141693e-05, "loss": 0.3626, "step": 130910 }, { "epoch": 174.56, "grad_norm": 0.8203125, "learning_rate": 9.81450815387277e-05, "loss": 0.357, "step": 130920 }, { "epoch": 174.57333333333332, "grad_norm": 0.92578125, "learning_rate": 9.814479884490559e-05, "loss": 0.3615, "step": 130930 }, { "epoch": 174.58666666666667, "grad_norm": 0.82421875, "learning_rate": 9.814451612995072e-05, "loss": 0.3532, "step": 130940 }, { "epoch": 174.6, "grad_norm": 0.86328125, "learning_rate": 9.814423339386322e-05, "loss": 0.3545, "step": 130950 }, { "epoch": 174.61333333333334, "grad_norm": 0.76171875, "learning_rate": 9.814395063664321e-05, "loss": 0.3473, "step": 130960 }, { "epoch": 174.62666666666667, "grad_norm": 0.7578125, "learning_rate": 9.81436678582908e-05, "loss": 0.3512, "step": 130970 }, { "epoch": 174.64, "grad_norm": 0.96875, "learning_rate": 9.814338505880616e-05, "loss": 0.3578, "step": 130980 }, { "epoch": 174.65333333333334, "grad_norm": 0.875, "learning_rate": 9.814310223818936e-05, "loss": 0.3674, "step": 130990 }, { "epoch": 174.66666666666666, "grad_norm": 0.7265625, "learning_rate": 9.814281939644055e-05, "loss": 0.359, "step": 131000 }, { "epoch": 174.68, "grad_norm": 0.82421875, "learning_rate": 9.814253653355985e-05, "loss": 0.3485, "step": 131010 }, { "epoch": 174.69333333333333, "grad_norm": 0.73828125, "learning_rate": 9.81422536495474e-05, "loss": 0.3597, "step": 131020 }, { "epoch": 174.70666666666668, "grad_norm": 0.9765625, "learning_rate": 9.814197074440327e-05, "loss": 0.3494, "step": 131030 }, { "epoch": 174.72, "grad_norm": 0.8046875, "learning_rate": 9.814168781812766e-05, "loss": 0.3713, "step": 131040 }, { "epoch": 174.73333333333332, "grad_norm": 0.90234375, "learning_rate": 9.814140487072064e-05, "loss": 0.3662, "step": 131050 }, { "epoch": 174.74666666666667, "grad_norm": 0.86328125, "learning_rate": 9.814112190218237e-05, "loss": 0.369, "step": 131060 }, { "epoch": 174.76, "grad_norm": 0.90625, "learning_rate": 9.814083891251294e-05, "loss": 0.3829, "step": 131070 }, { "epoch": 174.77333333333334, "grad_norm": 0.8671875, "learning_rate": 9.814055590171249e-05, "loss": 0.3674, "step": 131080 }, { "epoch": 174.78666666666666, "grad_norm": 0.7421875, "learning_rate": 9.814027286978114e-05, "loss": 0.3704, "step": 131090 }, { "epoch": 174.8, "grad_norm": 0.89453125, "learning_rate": 9.813998981671903e-05, "loss": 0.3677, "step": 131100 }, { "epoch": 174.81333333333333, "grad_norm": 0.921875, "learning_rate": 9.813970674252625e-05, "loss": 0.3414, "step": 131110 }, { "epoch": 174.82666666666665, "grad_norm": 0.83203125, "learning_rate": 9.813942364720299e-05, "loss": 0.3488, "step": 131120 }, { "epoch": 174.84, "grad_norm": 0.8984375, "learning_rate": 9.81391405307493e-05, "loss": 0.3626, "step": 131130 }, { "epoch": 174.85333333333332, "grad_norm": 0.82421875, "learning_rate": 9.813885739316534e-05, "loss": 0.3574, "step": 131140 }, { "epoch": 174.86666666666667, "grad_norm": 0.86328125, "learning_rate": 9.813857423445124e-05, "loss": 0.3632, "step": 131150 }, { "epoch": 174.88, "grad_norm": 0.81640625, "learning_rate": 9.813829105460711e-05, "loss": 0.3442, "step": 131160 }, { "epoch": 174.89333333333335, "grad_norm": 0.73828125, "learning_rate": 9.813800785363307e-05, "loss": 0.3563, "step": 131170 }, { "epoch": 174.90666666666667, "grad_norm": 0.82421875, "learning_rate": 9.813772463152925e-05, "loss": 0.3611, "step": 131180 }, { "epoch": 174.92, "grad_norm": 0.734375, "learning_rate": 9.81374413882958e-05, "loss": 0.3618, "step": 131190 }, { "epoch": 174.93333333333334, "grad_norm": 0.76953125, "learning_rate": 9.81371581239328e-05, "loss": 0.3581, "step": 131200 }, { "epoch": 174.94666666666666, "grad_norm": 0.84375, "learning_rate": 9.813687483844039e-05, "loss": 0.3582, "step": 131210 }, { "epoch": 174.96, "grad_norm": 0.7890625, "learning_rate": 9.813659153181871e-05, "loss": 0.3565, "step": 131220 }, { "epoch": 174.97333333333333, "grad_norm": 1.171875, "learning_rate": 9.813630820406787e-05, "loss": 0.3788, "step": 131230 }, { "epoch": 174.98666666666668, "grad_norm": 0.87109375, "learning_rate": 9.813602485518801e-05, "loss": 0.3494, "step": 131240 }, { "epoch": 175.0, "grad_norm": 0.82421875, "learning_rate": 9.813574148517924e-05, "loss": 0.3516, "step": 131250 }, { "epoch": 175.0, "eval_loss": 0.4169139564037323, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4902, "eval_samples_per_second": 1.392, "eval_steps_per_second": 0.087, "step": 131250 }, { "epoch": 175.01333333333332, "grad_norm": 0.828125, "learning_rate": 9.813545809404168e-05, "loss": 0.3666, "step": 131260 }, { "epoch": 175.02666666666667, "grad_norm": 0.81640625, "learning_rate": 9.813517468177548e-05, "loss": 0.3814, "step": 131270 }, { "epoch": 175.04, "grad_norm": 0.83203125, "learning_rate": 9.813489124838074e-05, "loss": 0.3946, "step": 131280 }, { "epoch": 175.05333333333334, "grad_norm": 0.890625, "learning_rate": 9.813460779385757e-05, "loss": 0.3786, "step": 131290 }, { "epoch": 175.06666666666666, "grad_norm": 0.875, "learning_rate": 9.813432431820613e-05, "loss": 0.3659, "step": 131300 }, { "epoch": 175.08, "grad_norm": 1.015625, "learning_rate": 9.813404082142653e-05, "loss": 0.3708, "step": 131310 }, { "epoch": 175.09333333333333, "grad_norm": 0.9453125, "learning_rate": 9.81337573035189e-05, "loss": 0.3724, "step": 131320 }, { "epoch": 175.10666666666665, "grad_norm": 0.76953125, "learning_rate": 9.813347376448335e-05, "loss": 0.3613, "step": 131330 }, { "epoch": 175.12, "grad_norm": 0.8828125, "learning_rate": 9.813319020432002e-05, "loss": 0.3616, "step": 131340 }, { "epoch": 175.13333333333333, "grad_norm": 0.85546875, "learning_rate": 9.813290662302901e-05, "loss": 0.3543, "step": 131350 }, { "epoch": 175.14666666666668, "grad_norm": 0.859375, "learning_rate": 9.813262302061049e-05, "loss": 0.3736, "step": 131360 }, { "epoch": 175.16, "grad_norm": 0.78515625, "learning_rate": 9.813233939706453e-05, "loss": 0.3701, "step": 131370 }, { "epoch": 175.17333333333335, "grad_norm": 0.8671875, "learning_rate": 9.81320557523913e-05, "loss": 0.3643, "step": 131380 }, { "epoch": 175.18666666666667, "grad_norm": 0.76171875, "learning_rate": 9.81317720865909e-05, "loss": 0.3611, "step": 131390 }, { "epoch": 175.2, "grad_norm": 0.8203125, "learning_rate": 9.813148839966346e-05, "loss": 0.3528, "step": 131400 }, { "epoch": 175.21333333333334, "grad_norm": 0.89453125, "learning_rate": 9.81312046916091e-05, "loss": 0.3535, "step": 131410 }, { "epoch": 175.22666666666666, "grad_norm": 0.80078125, "learning_rate": 9.813092096242794e-05, "loss": 0.3646, "step": 131420 }, { "epoch": 175.24, "grad_norm": 0.875, "learning_rate": 9.813063721212013e-05, "loss": 0.3507, "step": 131430 }, { "epoch": 175.25333333333333, "grad_norm": 0.8359375, "learning_rate": 9.813035344068577e-05, "loss": 0.3523, "step": 131440 }, { "epoch": 175.26666666666668, "grad_norm": 0.79296875, "learning_rate": 9.813006964812499e-05, "loss": 0.3551, "step": 131450 }, { "epoch": 175.28, "grad_norm": 0.86328125, "learning_rate": 9.812978583443792e-05, "loss": 0.3829, "step": 131460 }, { "epoch": 175.29333333333332, "grad_norm": 0.8515625, "learning_rate": 9.812950199962468e-05, "loss": 0.342, "step": 131470 }, { "epoch": 175.30666666666667, "grad_norm": 0.80078125, "learning_rate": 9.81292181436854e-05, "loss": 0.3655, "step": 131480 }, { "epoch": 175.32, "grad_norm": 0.74609375, "learning_rate": 9.81289342666202e-05, "loss": 0.37, "step": 131490 }, { "epoch": 175.33333333333334, "grad_norm": 0.9453125, "learning_rate": 9.812865036842922e-05, "loss": 0.368, "step": 131500 }, { "epoch": 175.34666666666666, "grad_norm": 0.90625, "learning_rate": 9.812836644911254e-05, "loss": 0.3602, "step": 131510 }, { "epoch": 175.36, "grad_norm": 0.8984375, "learning_rate": 9.812808250867034e-05, "loss": 0.3595, "step": 131520 }, { "epoch": 175.37333333333333, "grad_norm": 0.8046875, "learning_rate": 9.812779854710271e-05, "loss": 0.3645, "step": 131530 }, { "epoch": 175.38666666666666, "grad_norm": 0.95703125, "learning_rate": 9.812751456440979e-05, "loss": 0.3498, "step": 131540 }, { "epoch": 175.4, "grad_norm": 0.84375, "learning_rate": 9.812723056059169e-05, "loss": 0.3604, "step": 131550 }, { "epoch": 175.41333333333333, "grad_norm": 0.76171875, "learning_rate": 9.812694653564854e-05, "loss": 0.3672, "step": 131560 }, { "epoch": 175.42666666666668, "grad_norm": 0.76171875, "learning_rate": 9.812666248958048e-05, "loss": 0.3682, "step": 131570 }, { "epoch": 175.44, "grad_norm": 0.828125, "learning_rate": 9.812637842238761e-05, "loss": 0.3816, "step": 131580 }, { "epoch": 175.45333333333335, "grad_norm": 0.81640625, "learning_rate": 9.812609433407007e-05, "loss": 0.3677, "step": 131590 }, { "epoch": 175.46666666666667, "grad_norm": 0.8046875, "learning_rate": 9.812581022462799e-05, "loss": 0.3746, "step": 131600 }, { "epoch": 175.48, "grad_norm": 0.86328125, "learning_rate": 9.812552609406149e-05, "loss": 0.3586, "step": 131610 }, { "epoch": 175.49333333333334, "grad_norm": 0.86328125, "learning_rate": 9.812524194237069e-05, "loss": 0.3697, "step": 131620 }, { "epoch": 175.50666666666666, "grad_norm": 0.8828125, "learning_rate": 9.81249577695557e-05, "loss": 0.3697, "step": 131630 }, { "epoch": 175.52, "grad_norm": 0.765625, "learning_rate": 9.812467357561668e-05, "loss": 0.3612, "step": 131640 }, { "epoch": 175.53333333333333, "grad_norm": 0.87890625, "learning_rate": 9.812438936055372e-05, "loss": 0.3619, "step": 131650 }, { "epoch": 175.54666666666665, "grad_norm": 0.984375, "learning_rate": 9.812410512436699e-05, "loss": 0.3626, "step": 131660 }, { "epoch": 175.56, "grad_norm": 0.7890625, "learning_rate": 9.812382086705655e-05, "loss": 0.3571, "step": 131670 }, { "epoch": 175.57333333333332, "grad_norm": 0.91796875, "learning_rate": 9.812353658862257e-05, "loss": 0.3622, "step": 131680 }, { "epoch": 175.58666666666667, "grad_norm": 0.76953125, "learning_rate": 9.812325228906518e-05, "loss": 0.3526, "step": 131690 }, { "epoch": 175.6, "grad_norm": 0.85546875, "learning_rate": 9.812296796838448e-05, "loss": 0.3543, "step": 131700 }, { "epoch": 175.61333333333334, "grad_norm": 0.79296875, "learning_rate": 9.812268362658059e-05, "loss": 0.3466, "step": 131710 }, { "epoch": 175.62666666666667, "grad_norm": 0.74609375, "learning_rate": 9.812239926365367e-05, "loss": 0.3502, "step": 131720 }, { "epoch": 175.64, "grad_norm": 0.91015625, "learning_rate": 9.812211487960382e-05, "loss": 0.3576, "step": 131730 }, { "epoch": 175.65333333333334, "grad_norm": 0.85546875, "learning_rate": 9.812183047443116e-05, "loss": 0.3672, "step": 131740 }, { "epoch": 175.66666666666666, "grad_norm": 0.75390625, "learning_rate": 9.812154604813583e-05, "loss": 0.3597, "step": 131750 }, { "epoch": 175.68, "grad_norm": 0.9296875, "learning_rate": 9.812126160071794e-05, "loss": 0.3489, "step": 131760 }, { "epoch": 175.69333333333333, "grad_norm": 0.7421875, "learning_rate": 9.812097713217762e-05, "loss": 0.3599, "step": 131770 }, { "epoch": 175.70666666666668, "grad_norm": 0.9375, "learning_rate": 9.812069264251503e-05, "loss": 0.349, "step": 131780 }, { "epoch": 175.72, "grad_norm": 0.87109375, "learning_rate": 9.812040813173022e-05, "loss": 0.3711, "step": 131790 }, { "epoch": 175.73333333333332, "grad_norm": 0.828125, "learning_rate": 9.812012359982339e-05, "loss": 0.3666, "step": 131800 }, { "epoch": 175.74666666666667, "grad_norm": 0.84765625, "learning_rate": 9.811983904679462e-05, "loss": 0.3688, "step": 131810 }, { "epoch": 175.76, "grad_norm": 0.84765625, "learning_rate": 9.811955447264405e-05, "loss": 0.3832, "step": 131820 }, { "epoch": 175.77333333333334, "grad_norm": 0.8984375, "learning_rate": 9.811926987737181e-05, "loss": 0.3664, "step": 131830 }, { "epoch": 175.78666666666666, "grad_norm": 0.7890625, "learning_rate": 9.8118985260978e-05, "loss": 0.3699, "step": 131840 }, { "epoch": 175.8, "grad_norm": 0.9453125, "learning_rate": 9.811870062346278e-05, "loss": 0.3677, "step": 131850 }, { "epoch": 175.81333333333333, "grad_norm": 1.0234375, "learning_rate": 9.811841596482625e-05, "loss": 0.3419, "step": 131860 }, { "epoch": 175.82666666666665, "grad_norm": 0.796875, "learning_rate": 9.811813128506855e-05, "loss": 0.3476, "step": 131870 }, { "epoch": 175.84, "grad_norm": 0.90234375, "learning_rate": 9.811784658418979e-05, "loss": 0.3617, "step": 131880 }, { "epoch": 175.85333333333332, "grad_norm": 0.78125, "learning_rate": 9.81175618621901e-05, "loss": 0.357, "step": 131890 }, { "epoch": 175.86666666666667, "grad_norm": 0.8359375, "learning_rate": 9.81172771190696e-05, "loss": 0.3632, "step": 131900 }, { "epoch": 175.88, "grad_norm": 0.828125, "learning_rate": 9.811699235482844e-05, "loss": 0.3447, "step": 131910 }, { "epoch": 175.89333333333335, "grad_norm": 0.75, "learning_rate": 9.811670756946672e-05, "loss": 0.3571, "step": 131920 }, { "epoch": 175.90666666666667, "grad_norm": 0.82421875, "learning_rate": 9.811642276298457e-05, "loss": 0.3601, "step": 131930 }, { "epoch": 175.92, "grad_norm": 0.796875, "learning_rate": 9.811613793538212e-05, "loss": 0.3601, "step": 131940 }, { "epoch": 175.93333333333334, "grad_norm": 0.83203125, "learning_rate": 9.811585308665949e-05, "loss": 0.3588, "step": 131950 }, { "epoch": 175.94666666666666, "grad_norm": 0.89453125, "learning_rate": 9.811556821681682e-05, "loss": 0.3584, "step": 131960 }, { "epoch": 175.96, "grad_norm": 0.765625, "learning_rate": 9.81152833258542e-05, "loss": 0.3573, "step": 131970 }, { "epoch": 175.97333333333333, "grad_norm": 1.125, "learning_rate": 9.81149984137718e-05, "loss": 0.3792, "step": 131980 }, { "epoch": 175.98666666666668, "grad_norm": 0.85546875, "learning_rate": 9.811471348056971e-05, "loss": 0.3499, "step": 131990 }, { "epoch": 176.0, "grad_norm": 0.78125, "learning_rate": 9.811442852624807e-05, "loss": 0.3504, "step": 132000 }, { "epoch": 176.0, "eval_loss": 0.4164341390132904, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7576, "eval_samples_per_second": 1.361, "eval_steps_per_second": 0.085, "step": 132000 }, { "epoch": 176.01333333333332, "grad_norm": 0.84375, "learning_rate": 9.811414355080699e-05, "loss": 0.3664, "step": 132010 }, { "epoch": 176.02666666666667, "grad_norm": 0.8203125, "learning_rate": 9.811385855424663e-05, "loss": 0.3818, "step": 132020 }, { "epoch": 176.04, "grad_norm": 0.796875, "learning_rate": 9.811357353656709e-05, "loss": 0.3946, "step": 132030 }, { "epoch": 176.05333333333334, "grad_norm": 0.8359375, "learning_rate": 9.811328849776848e-05, "loss": 0.3779, "step": 132040 }, { "epoch": 176.06666666666666, "grad_norm": 0.859375, "learning_rate": 9.811300343785096e-05, "loss": 0.3673, "step": 132050 }, { "epoch": 176.08, "grad_norm": 0.80859375, "learning_rate": 9.811271835681464e-05, "loss": 0.3701, "step": 132060 }, { "epoch": 176.09333333333333, "grad_norm": 0.91796875, "learning_rate": 9.811243325465962e-05, "loss": 0.3727, "step": 132070 }, { "epoch": 176.10666666666665, "grad_norm": 0.72265625, "learning_rate": 9.811214813138608e-05, "loss": 0.3615, "step": 132080 }, { "epoch": 176.12, "grad_norm": 0.80078125, "learning_rate": 9.811186298699409e-05, "loss": 0.3616, "step": 132090 }, { "epoch": 176.13333333333333, "grad_norm": 0.81640625, "learning_rate": 9.81115778214838e-05, "loss": 0.3542, "step": 132100 }, { "epoch": 176.14666666666668, "grad_norm": 0.80859375, "learning_rate": 9.811129263485535e-05, "loss": 0.3743, "step": 132110 }, { "epoch": 176.16, "grad_norm": 0.828125, "learning_rate": 9.811100742710884e-05, "loss": 0.3702, "step": 132120 }, { "epoch": 176.17333333333335, "grad_norm": 0.90234375, "learning_rate": 9.81107221982444e-05, "loss": 0.364, "step": 132130 }, { "epoch": 176.18666666666667, "grad_norm": 0.8203125, "learning_rate": 9.811043694826217e-05, "loss": 0.3611, "step": 132140 }, { "epoch": 176.2, "grad_norm": 0.79296875, "learning_rate": 9.811015167716225e-05, "loss": 0.3528, "step": 132150 }, { "epoch": 176.21333333333334, "grad_norm": 0.87890625, "learning_rate": 9.810986638494479e-05, "loss": 0.3532, "step": 132160 }, { "epoch": 176.22666666666666, "grad_norm": 0.94140625, "learning_rate": 9.81095810716099e-05, "loss": 0.3649, "step": 132170 }, { "epoch": 176.24, "grad_norm": 0.921875, "learning_rate": 9.810929573715772e-05, "loss": 0.3506, "step": 132180 }, { "epoch": 176.25333333333333, "grad_norm": 0.89453125, "learning_rate": 9.810901038158835e-05, "loss": 0.3521, "step": 132190 }, { "epoch": 176.26666666666668, "grad_norm": 0.8515625, "learning_rate": 9.810872500490194e-05, "loss": 0.3551, "step": 132200 }, { "epoch": 176.28, "grad_norm": 0.8671875, "learning_rate": 9.810843960709861e-05, "loss": 0.3829, "step": 132210 }, { "epoch": 176.29333333333332, "grad_norm": 0.85546875, "learning_rate": 9.810815418817849e-05, "loss": 0.3419, "step": 132220 }, { "epoch": 176.30666666666667, "grad_norm": 0.796875, "learning_rate": 9.810786874814169e-05, "loss": 0.3653, "step": 132230 }, { "epoch": 176.32, "grad_norm": 0.7890625, "learning_rate": 9.810758328698833e-05, "loss": 0.37, "step": 132240 }, { "epoch": 176.33333333333334, "grad_norm": 0.8828125, "learning_rate": 9.810729780471855e-05, "loss": 0.3681, "step": 132250 }, { "epoch": 176.34666666666666, "grad_norm": 0.83984375, "learning_rate": 9.810701230133248e-05, "loss": 0.3587, "step": 132260 }, { "epoch": 176.36, "grad_norm": 0.80859375, "learning_rate": 9.810672677683023e-05, "loss": 0.3607, "step": 132270 }, { "epoch": 176.37333333333333, "grad_norm": 0.7265625, "learning_rate": 9.810644123121194e-05, "loss": 0.3633, "step": 132280 }, { "epoch": 176.38666666666666, "grad_norm": 0.953125, "learning_rate": 9.810615566447774e-05, "loss": 0.3502, "step": 132290 }, { "epoch": 176.4, "grad_norm": 0.87109375, "learning_rate": 9.810587007662773e-05, "loss": 0.361, "step": 132300 }, { "epoch": 176.41333333333333, "grad_norm": 0.796875, "learning_rate": 9.810558446766205e-05, "loss": 0.3669, "step": 132310 }, { "epoch": 176.42666666666668, "grad_norm": 0.7890625, "learning_rate": 9.810529883758082e-05, "loss": 0.3692, "step": 132320 }, { "epoch": 176.44, "grad_norm": 0.83984375, "learning_rate": 9.810501318638418e-05, "loss": 0.3811, "step": 132330 }, { "epoch": 176.45333333333335, "grad_norm": 0.83984375, "learning_rate": 9.810472751407224e-05, "loss": 0.3681, "step": 132340 }, { "epoch": 176.46666666666667, "grad_norm": 0.83203125, "learning_rate": 9.810444182064513e-05, "loss": 0.3749, "step": 132350 }, { "epoch": 176.48, "grad_norm": 0.8203125, "learning_rate": 9.810415610610297e-05, "loss": 0.3587, "step": 132360 }, { "epoch": 176.49333333333334, "grad_norm": 0.8515625, "learning_rate": 9.81038703704459e-05, "loss": 0.3706, "step": 132370 }, { "epoch": 176.50666666666666, "grad_norm": 0.87109375, "learning_rate": 9.810358461367403e-05, "loss": 0.3693, "step": 132380 }, { "epoch": 176.52, "grad_norm": 0.734375, "learning_rate": 9.810329883578752e-05, "loss": 0.3608, "step": 132390 }, { "epoch": 176.53333333333333, "grad_norm": 0.87890625, "learning_rate": 9.810301303678645e-05, "loss": 0.3616, "step": 132400 }, { "epoch": 176.54666666666665, "grad_norm": 0.9375, "learning_rate": 9.810272721667096e-05, "loss": 0.3625, "step": 132410 }, { "epoch": 176.56, "grad_norm": 0.78515625, "learning_rate": 9.810244137544118e-05, "loss": 0.3574, "step": 132420 }, { "epoch": 176.57333333333332, "grad_norm": 0.8671875, "learning_rate": 9.810215551309722e-05, "loss": 0.3618, "step": 132430 }, { "epoch": 176.58666666666667, "grad_norm": 0.859375, "learning_rate": 9.810186962963924e-05, "loss": 0.3521, "step": 132440 }, { "epoch": 176.6, "grad_norm": 0.84375, "learning_rate": 9.810158372506735e-05, "loss": 0.3548, "step": 132450 }, { "epoch": 176.61333333333334, "grad_norm": 0.84765625, "learning_rate": 9.810129779938166e-05, "loss": 0.3471, "step": 132460 }, { "epoch": 176.62666666666667, "grad_norm": 0.76953125, "learning_rate": 9.810101185258229e-05, "loss": 0.3514, "step": 132470 }, { "epoch": 176.64, "grad_norm": 0.98046875, "learning_rate": 9.810072588466942e-05, "loss": 0.3578, "step": 132480 }, { "epoch": 176.65333333333334, "grad_norm": 0.8515625, "learning_rate": 9.81004398956431e-05, "loss": 0.3688, "step": 132490 }, { "epoch": 176.66666666666666, "grad_norm": 0.80859375, "learning_rate": 9.810015388550351e-05, "loss": 0.36, "step": 132500 }, { "epoch": 176.68, "grad_norm": 0.87109375, "learning_rate": 9.809986785425075e-05, "loss": 0.3491, "step": 132510 }, { "epoch": 176.69333333333333, "grad_norm": 0.74609375, "learning_rate": 9.809958180188496e-05, "loss": 0.3599, "step": 132520 }, { "epoch": 176.70666666666668, "grad_norm": 1.03125, "learning_rate": 9.809929572840626e-05, "loss": 0.3493, "step": 132530 }, { "epoch": 176.72, "grad_norm": 0.88671875, "learning_rate": 9.80990096338148e-05, "loss": 0.3707, "step": 132540 }, { "epoch": 176.73333333333332, "grad_norm": 0.77734375, "learning_rate": 9.809872351811065e-05, "loss": 0.3655, "step": 132550 }, { "epoch": 176.74666666666667, "grad_norm": 0.90625, "learning_rate": 9.809843738129397e-05, "loss": 0.3694, "step": 132560 }, { "epoch": 176.76, "grad_norm": 0.91015625, "learning_rate": 9.809815122336488e-05, "loss": 0.3828, "step": 132570 }, { "epoch": 176.77333333333334, "grad_norm": 0.921875, "learning_rate": 9.809786504432352e-05, "loss": 0.3667, "step": 132580 }, { "epoch": 176.78666666666666, "grad_norm": 0.7578125, "learning_rate": 9.809757884416999e-05, "loss": 0.37, "step": 132590 }, { "epoch": 176.8, "grad_norm": 0.9140625, "learning_rate": 9.809729262290443e-05, "loss": 0.3667, "step": 132600 }, { "epoch": 176.81333333333333, "grad_norm": 1.0, "learning_rate": 9.809700638052697e-05, "loss": 0.3423, "step": 132610 }, { "epoch": 176.82666666666665, "grad_norm": 0.84375, "learning_rate": 9.809672011703773e-05, "loss": 0.3485, "step": 132620 }, { "epoch": 176.84, "grad_norm": 0.84375, "learning_rate": 9.809643383243683e-05, "loss": 0.3613, "step": 132630 }, { "epoch": 176.85333333333332, "grad_norm": 0.79296875, "learning_rate": 9.80961475267244e-05, "loss": 0.3569, "step": 132640 }, { "epoch": 176.86666666666667, "grad_norm": 0.87890625, "learning_rate": 9.809586119990058e-05, "loss": 0.363, "step": 132650 }, { "epoch": 176.88, "grad_norm": 0.95703125, "learning_rate": 9.809557485196548e-05, "loss": 0.3436, "step": 132660 }, { "epoch": 176.89333333333335, "grad_norm": 0.87890625, "learning_rate": 9.809528848291922e-05, "loss": 0.3574, "step": 132670 }, { "epoch": 176.90666666666667, "grad_norm": 0.90234375, "learning_rate": 9.809500209276195e-05, "loss": 0.3604, "step": 132680 }, { "epoch": 176.92, "grad_norm": 0.8828125, "learning_rate": 9.809471568149375e-05, "loss": 0.3611, "step": 132690 }, { "epoch": 176.93333333333334, "grad_norm": 0.765625, "learning_rate": 9.809442924911481e-05, "loss": 0.3587, "step": 132700 }, { "epoch": 176.94666666666666, "grad_norm": 0.87890625, "learning_rate": 9.809414279562519e-05, "loss": 0.3578, "step": 132710 }, { "epoch": 176.96, "grad_norm": 0.8046875, "learning_rate": 9.809385632102506e-05, "loss": 0.3554, "step": 132720 }, { "epoch": 176.97333333333333, "grad_norm": 1.078125, "learning_rate": 9.809356982531455e-05, "loss": 0.3795, "step": 132730 }, { "epoch": 176.98666666666668, "grad_norm": 0.89453125, "learning_rate": 9.809328330849374e-05, "loss": 0.3492, "step": 132740 }, { "epoch": 177.0, "grad_norm": 0.83203125, "learning_rate": 9.80929967705628e-05, "loss": 0.3501, "step": 132750 }, { "epoch": 177.0, "eval_loss": 0.4164457321166992, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.5117, "eval_samples_per_second": 1.39, "eval_steps_per_second": 0.087, "step": 132750 }, { "epoch": 177.01333333333332, "grad_norm": 0.921875, "learning_rate": 9.809271021152183e-05, "loss": 0.3662, "step": 132760 }, { "epoch": 177.02666666666667, "grad_norm": 0.80078125, "learning_rate": 9.809242363137097e-05, "loss": 0.3807, "step": 132770 }, { "epoch": 177.04, "grad_norm": 0.80859375, "learning_rate": 9.809213703011036e-05, "loss": 0.3938, "step": 132780 }, { "epoch": 177.05333333333334, "grad_norm": 0.875, "learning_rate": 9.809185040774008e-05, "loss": 0.3786, "step": 132790 }, { "epoch": 177.06666666666666, "grad_norm": 0.953125, "learning_rate": 9.80915637642603e-05, "loss": 0.3668, "step": 132800 }, { "epoch": 177.08, "grad_norm": 0.82421875, "learning_rate": 9.809127709967112e-05, "loss": 0.3706, "step": 132810 }, { "epoch": 177.09333333333333, "grad_norm": 0.82421875, "learning_rate": 9.809099041397267e-05, "loss": 0.3716, "step": 132820 }, { "epoch": 177.10666666666665, "grad_norm": 0.8046875, "learning_rate": 9.80907037071651e-05, "loss": 0.3618, "step": 132830 }, { "epoch": 177.12, "grad_norm": 0.83203125, "learning_rate": 9.80904169792485e-05, "loss": 0.362, "step": 132840 }, { "epoch": 177.13333333333333, "grad_norm": 0.8203125, "learning_rate": 9.809013023022303e-05, "loss": 0.3546, "step": 132850 }, { "epoch": 177.14666666666668, "grad_norm": 0.79296875, "learning_rate": 9.808984346008878e-05, "loss": 0.3733, "step": 132860 }, { "epoch": 177.16, "grad_norm": 0.7734375, "learning_rate": 9.80895566688459e-05, "loss": 0.3692, "step": 132870 }, { "epoch": 177.17333333333335, "grad_norm": 0.94140625, "learning_rate": 9.80892698564945e-05, "loss": 0.3639, "step": 132880 }, { "epoch": 177.18666666666667, "grad_norm": 0.83984375, "learning_rate": 9.808898302303473e-05, "loss": 0.3606, "step": 132890 }, { "epoch": 177.2, "grad_norm": 0.8125, "learning_rate": 9.808869616846669e-05, "loss": 0.3528, "step": 132900 }, { "epoch": 177.21333333333334, "grad_norm": 0.86328125, "learning_rate": 9.808840929279052e-05, "loss": 0.3534, "step": 132910 }, { "epoch": 177.22666666666666, "grad_norm": 0.8046875, "learning_rate": 9.808812239600636e-05, "loss": 0.3646, "step": 132920 }, { "epoch": 177.24, "grad_norm": 0.81640625, "learning_rate": 9.808783547811432e-05, "loss": 0.3509, "step": 132930 }, { "epoch": 177.25333333333333, "grad_norm": 0.8046875, "learning_rate": 9.80875485391145e-05, "loss": 0.3511, "step": 132940 }, { "epoch": 177.26666666666668, "grad_norm": 0.84765625, "learning_rate": 9.808726157900707e-05, "loss": 0.3559, "step": 132950 }, { "epoch": 177.28, "grad_norm": 0.8828125, "learning_rate": 9.808697459779214e-05, "loss": 0.3826, "step": 132960 }, { "epoch": 177.29333333333332, "grad_norm": 0.86328125, "learning_rate": 9.808668759546982e-05, "loss": 0.3412, "step": 132970 }, { "epoch": 177.30666666666667, "grad_norm": 0.8515625, "learning_rate": 9.808640057204026e-05, "loss": 0.3657, "step": 132980 }, { "epoch": 177.32, "grad_norm": 0.7578125, "learning_rate": 9.808611352750357e-05, "loss": 0.3694, "step": 132990 }, { "epoch": 177.33333333333334, "grad_norm": 0.9609375, "learning_rate": 9.808582646185989e-05, "loss": 0.368, "step": 133000 }, { "epoch": 177.34666666666666, "grad_norm": 0.8125, "learning_rate": 9.808553937510931e-05, "loss": 0.3585, "step": 133010 }, { "epoch": 177.36, "grad_norm": 0.87109375, "learning_rate": 9.808525226725202e-05, "loss": 0.3604, "step": 133020 }, { "epoch": 177.37333333333333, "grad_norm": 0.75390625, "learning_rate": 9.808496513828809e-05, "loss": 0.3637, "step": 133030 }, { "epoch": 177.38666666666666, "grad_norm": 0.984375, "learning_rate": 9.808467798821767e-05, "loss": 0.3506, "step": 133040 }, { "epoch": 177.4, "grad_norm": 0.80859375, "learning_rate": 9.808439081704087e-05, "loss": 0.3615, "step": 133050 }, { "epoch": 177.41333333333333, "grad_norm": 0.8671875, "learning_rate": 9.808410362475784e-05, "loss": 0.3666, "step": 133060 }, { "epoch": 177.42666666666668, "grad_norm": 0.8046875, "learning_rate": 9.808381641136869e-05, "loss": 0.3685, "step": 133070 }, { "epoch": 177.44, "grad_norm": 0.8125, "learning_rate": 9.808352917687356e-05, "loss": 0.3805, "step": 133080 }, { "epoch": 177.45333333333335, "grad_norm": 0.80859375, "learning_rate": 9.808324192127254e-05, "loss": 0.3683, "step": 133090 }, { "epoch": 177.46666666666667, "grad_norm": 0.80859375, "learning_rate": 9.80829546445658e-05, "loss": 0.3746, "step": 133100 }, { "epoch": 177.48, "grad_norm": 0.74609375, "learning_rate": 9.808266734675346e-05, "loss": 0.3574, "step": 133110 }, { "epoch": 177.49333333333334, "grad_norm": 0.83203125, "learning_rate": 9.80823800278356e-05, "loss": 0.3695, "step": 133120 }, { "epoch": 177.50666666666666, "grad_norm": 0.84375, "learning_rate": 9.808209268781241e-05, "loss": 0.3693, "step": 133130 }, { "epoch": 177.52, "grad_norm": 0.7734375, "learning_rate": 9.808180532668399e-05, "loss": 0.3609, "step": 133140 }, { "epoch": 177.53333333333333, "grad_norm": 0.84765625, "learning_rate": 9.808151794445044e-05, "loss": 0.361, "step": 133150 }, { "epoch": 177.54666666666665, "grad_norm": 0.94140625, "learning_rate": 9.808123054111192e-05, "loss": 0.3624, "step": 133160 }, { "epoch": 177.56, "grad_norm": 0.7421875, "learning_rate": 9.808094311666854e-05, "loss": 0.3566, "step": 133170 }, { "epoch": 177.57333333333332, "grad_norm": 0.8515625, "learning_rate": 9.808065567112042e-05, "loss": 0.3629, "step": 133180 }, { "epoch": 177.58666666666667, "grad_norm": 0.75390625, "learning_rate": 9.808036820446771e-05, "loss": 0.352, "step": 133190 }, { "epoch": 177.6, "grad_norm": 0.80859375, "learning_rate": 9.808008071671053e-05, "loss": 0.3551, "step": 133200 }, { "epoch": 177.61333333333334, "grad_norm": 0.7734375, "learning_rate": 9.8079793207849e-05, "loss": 0.3463, "step": 133210 }, { "epoch": 177.62666666666667, "grad_norm": 0.7734375, "learning_rate": 9.807950567788323e-05, "loss": 0.3511, "step": 133220 }, { "epoch": 177.64, "grad_norm": 0.8046875, "learning_rate": 9.807921812681337e-05, "loss": 0.3577, "step": 133230 }, { "epoch": 177.65333333333334, "grad_norm": 0.8828125, "learning_rate": 9.807893055463953e-05, "loss": 0.3676, "step": 133240 }, { "epoch": 177.66666666666666, "grad_norm": 0.7578125, "learning_rate": 9.807864296136185e-05, "loss": 0.3592, "step": 133250 }, { "epoch": 177.68, "grad_norm": 0.87890625, "learning_rate": 9.807835534698046e-05, "loss": 0.3476, "step": 133260 }, { "epoch": 177.69333333333333, "grad_norm": 0.8515625, "learning_rate": 9.807806771149546e-05, "loss": 0.3594, "step": 133270 }, { "epoch": 177.70666666666668, "grad_norm": 0.921875, "learning_rate": 9.807778005490701e-05, "loss": 0.3485, "step": 133280 }, { "epoch": 177.72, "grad_norm": 0.9296875, "learning_rate": 9.80774923772152e-05, "loss": 0.3708, "step": 133290 }, { "epoch": 177.73333333333332, "grad_norm": 0.83984375, "learning_rate": 9.80772046784202e-05, "loss": 0.3666, "step": 133300 }, { "epoch": 177.74666666666667, "grad_norm": 0.8203125, "learning_rate": 9.807691695852211e-05, "loss": 0.3686, "step": 133310 }, { "epoch": 177.76, "grad_norm": 0.8828125, "learning_rate": 9.807662921752104e-05, "loss": 0.3828, "step": 133320 }, { "epoch": 177.77333333333334, "grad_norm": 0.87890625, "learning_rate": 9.807634145541714e-05, "loss": 0.3669, "step": 133330 }, { "epoch": 177.78666666666666, "grad_norm": 0.8203125, "learning_rate": 9.807605367221052e-05, "loss": 0.3688, "step": 133340 }, { "epoch": 177.8, "grad_norm": 0.8828125, "learning_rate": 9.807576586790132e-05, "loss": 0.3674, "step": 133350 }, { "epoch": 177.81333333333333, "grad_norm": 0.94921875, "learning_rate": 9.807547804248969e-05, "loss": 0.3418, "step": 133360 }, { "epoch": 177.82666666666665, "grad_norm": 0.8359375, "learning_rate": 9.807519019597571e-05, "loss": 0.3483, "step": 133370 }, { "epoch": 177.84, "grad_norm": 0.9375, "learning_rate": 9.807490232835952e-05, "loss": 0.3619, "step": 133380 }, { "epoch": 177.85333333333332, "grad_norm": 0.76953125, "learning_rate": 9.807461443964127e-05, "loss": 0.3567, "step": 133390 }, { "epoch": 177.86666666666667, "grad_norm": 0.875, "learning_rate": 9.807432652982104e-05, "loss": 0.3618, "step": 133400 }, { "epoch": 177.88, "grad_norm": 0.84375, "learning_rate": 9.8074038598899e-05, "loss": 0.3446, "step": 133410 }, { "epoch": 177.89333333333335, "grad_norm": 0.8125, "learning_rate": 9.807375064687529e-05, "loss": 0.3573, "step": 133420 }, { "epoch": 177.90666666666667, "grad_norm": 0.81640625, "learning_rate": 9.807346267374997e-05, "loss": 0.3602, "step": 133430 }, { "epoch": 177.92, "grad_norm": 0.875, "learning_rate": 9.807317467952321e-05, "loss": 0.3609, "step": 133440 }, { "epoch": 177.93333333333334, "grad_norm": 0.8046875, "learning_rate": 9.807288666419516e-05, "loss": 0.3587, "step": 133450 }, { "epoch": 177.94666666666666, "grad_norm": 0.8203125, "learning_rate": 9.80725986277659e-05, "loss": 0.3584, "step": 133460 }, { "epoch": 177.96, "grad_norm": 0.828125, "learning_rate": 9.807231057023556e-05, "loss": 0.356, "step": 133470 }, { "epoch": 177.97333333333333, "grad_norm": 1.046875, "learning_rate": 9.807202249160429e-05, "loss": 0.3793, "step": 133480 }, { "epoch": 177.98666666666668, "grad_norm": 0.80078125, "learning_rate": 9.80717343918722e-05, "loss": 0.3486, "step": 133490 }, { "epoch": 178.0, "grad_norm": 0.875, "learning_rate": 9.807144627103944e-05, "loss": 0.3508, "step": 133500 }, { "epoch": 178.0, "eval_loss": 0.41756927967071533, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.861, "eval_samples_per_second": 1.349, "eval_steps_per_second": 0.084, "step": 133500 }, { "epoch": 178.01333333333332, "grad_norm": 0.9140625, "learning_rate": 9.80711581291061e-05, "loss": 0.3664, "step": 133510 }, { "epoch": 178.02666666666667, "grad_norm": 0.8515625, "learning_rate": 9.807086996607233e-05, "loss": 0.3812, "step": 133520 }, { "epoch": 178.04, "grad_norm": 0.76953125, "learning_rate": 9.807058178193826e-05, "loss": 0.3943, "step": 133530 }, { "epoch": 178.05333333333334, "grad_norm": 0.87890625, "learning_rate": 9.8070293576704e-05, "loss": 0.3778, "step": 133540 }, { "epoch": 178.06666666666666, "grad_norm": 0.94140625, "learning_rate": 9.80700053503697e-05, "loss": 0.3665, "step": 133550 }, { "epoch": 178.08, "grad_norm": 0.81640625, "learning_rate": 9.806971710293546e-05, "loss": 0.3693, "step": 133560 }, { "epoch": 178.09333333333333, "grad_norm": 0.88671875, "learning_rate": 9.806942883440142e-05, "loss": 0.3727, "step": 133570 }, { "epoch": 178.10666666666665, "grad_norm": 0.7890625, "learning_rate": 9.80691405447677e-05, "loss": 0.3612, "step": 133580 }, { "epoch": 178.12, "grad_norm": 0.87109375, "learning_rate": 9.806885223403444e-05, "loss": 0.3624, "step": 133590 }, { "epoch": 178.13333333333333, "grad_norm": 0.83203125, "learning_rate": 9.806856390220176e-05, "loss": 0.3543, "step": 133600 }, { "epoch": 178.14666666666668, "grad_norm": 0.81640625, "learning_rate": 9.806827554926979e-05, "loss": 0.3732, "step": 133610 }, { "epoch": 178.16, "grad_norm": 0.7578125, "learning_rate": 9.806798717523863e-05, "loss": 0.3691, "step": 133620 }, { "epoch": 178.17333333333335, "grad_norm": 0.8984375, "learning_rate": 9.806769878010844e-05, "loss": 0.3638, "step": 133630 }, { "epoch": 178.18666666666667, "grad_norm": 0.90234375, "learning_rate": 9.806741036387933e-05, "loss": 0.3613, "step": 133640 }, { "epoch": 178.2, "grad_norm": 0.78125, "learning_rate": 9.806712192655144e-05, "loss": 0.3526, "step": 133650 }, { "epoch": 178.21333333333334, "grad_norm": 0.890625, "learning_rate": 9.806683346812487e-05, "loss": 0.3537, "step": 133660 }, { "epoch": 178.22666666666666, "grad_norm": 0.87890625, "learning_rate": 9.806654498859979e-05, "loss": 0.3645, "step": 133670 }, { "epoch": 178.24, "grad_norm": 0.86328125, "learning_rate": 9.806625648797628e-05, "loss": 0.3504, "step": 133680 }, { "epoch": 178.25333333333333, "grad_norm": 0.87890625, "learning_rate": 9.806596796625449e-05, "loss": 0.3513, "step": 133690 }, { "epoch": 178.26666666666668, "grad_norm": 0.81640625, "learning_rate": 9.806567942343455e-05, "loss": 0.3545, "step": 133700 }, { "epoch": 178.28, "grad_norm": 0.98046875, "learning_rate": 9.806539085951658e-05, "loss": 0.3825, "step": 133710 }, { "epoch": 178.29333333333332, "grad_norm": 0.87109375, "learning_rate": 9.806510227450071e-05, "loss": 0.3417, "step": 133720 }, { "epoch": 178.30666666666667, "grad_norm": 0.81640625, "learning_rate": 9.806481366838705e-05, "loss": 0.3651, "step": 133730 }, { "epoch": 178.32, "grad_norm": 0.72265625, "learning_rate": 9.806452504117575e-05, "loss": 0.3694, "step": 133740 }, { "epoch": 178.33333333333334, "grad_norm": 0.890625, "learning_rate": 9.806423639286694e-05, "loss": 0.3681, "step": 133750 }, { "epoch": 178.34666666666666, "grad_norm": 0.9296875, "learning_rate": 9.806394772346073e-05, "loss": 0.359, "step": 133760 }, { "epoch": 178.36, "grad_norm": 0.85546875, "learning_rate": 9.806365903295723e-05, "loss": 0.3596, "step": 133770 }, { "epoch": 178.37333333333333, "grad_norm": 0.7578125, "learning_rate": 9.80633703213566e-05, "loss": 0.363, "step": 133780 }, { "epoch": 178.38666666666666, "grad_norm": 0.89453125, "learning_rate": 9.806308158865895e-05, "loss": 0.3503, "step": 133790 }, { "epoch": 178.4, "grad_norm": 0.80859375, "learning_rate": 9.806279283486442e-05, "loss": 0.3601, "step": 133800 }, { "epoch": 178.41333333333333, "grad_norm": 0.82421875, "learning_rate": 9.806250405997312e-05, "loss": 0.3663, "step": 133810 }, { "epoch": 178.42666666666668, "grad_norm": 0.83984375, "learning_rate": 9.80622152639852e-05, "loss": 0.3686, "step": 133820 }, { "epoch": 178.44, "grad_norm": 0.8046875, "learning_rate": 9.806192644690076e-05, "loss": 0.3813, "step": 133830 }, { "epoch": 178.45333333333335, "grad_norm": 0.921875, "learning_rate": 9.806163760871994e-05, "loss": 0.3679, "step": 133840 }, { "epoch": 178.46666666666667, "grad_norm": 0.78515625, "learning_rate": 9.806134874944287e-05, "loss": 0.3749, "step": 133850 }, { "epoch": 178.48, "grad_norm": 0.82421875, "learning_rate": 9.806105986906966e-05, "loss": 0.3585, "step": 133860 }, { "epoch": 178.49333333333334, "grad_norm": 0.84765625, "learning_rate": 9.806077096760045e-05, "loss": 0.3703, "step": 133870 }, { "epoch": 178.50666666666666, "grad_norm": 0.98046875, "learning_rate": 9.806048204503536e-05, "loss": 0.3692, "step": 133880 }, { "epoch": 178.52, "grad_norm": 0.76953125, "learning_rate": 9.806019310137454e-05, "loss": 0.3608, "step": 133890 }, { "epoch": 178.53333333333333, "grad_norm": 0.94921875, "learning_rate": 9.805990413661809e-05, "loss": 0.3608, "step": 133900 }, { "epoch": 178.54666666666665, "grad_norm": 0.92578125, "learning_rate": 9.805961515076613e-05, "loss": 0.362, "step": 133910 }, { "epoch": 178.56, "grad_norm": 0.765625, "learning_rate": 9.805932614381882e-05, "loss": 0.3567, "step": 133920 }, { "epoch": 178.57333333333332, "grad_norm": 1.0703125, "learning_rate": 9.805903711577628e-05, "loss": 0.3607, "step": 133930 }, { "epoch": 178.58666666666667, "grad_norm": 0.78125, "learning_rate": 9.805874806663861e-05, "loss": 0.3534, "step": 133940 }, { "epoch": 178.6, "grad_norm": 0.91015625, "learning_rate": 9.805845899640595e-05, "loss": 0.3553, "step": 133950 }, { "epoch": 178.61333333333334, "grad_norm": 0.87890625, "learning_rate": 9.805816990507844e-05, "loss": 0.3469, "step": 133960 }, { "epoch": 178.62666666666667, "grad_norm": 0.75, "learning_rate": 9.805788079265619e-05, "loss": 0.3517, "step": 133970 }, { "epoch": 178.64, "grad_norm": 0.91796875, "learning_rate": 9.805759165913934e-05, "loss": 0.3576, "step": 133980 }, { "epoch": 178.65333333333334, "grad_norm": 0.83203125, "learning_rate": 9.8057302504528e-05, "loss": 0.3688, "step": 133990 }, { "epoch": 178.66666666666666, "grad_norm": 0.77734375, "learning_rate": 9.805701332882233e-05, "loss": 0.3599, "step": 134000 }, { "epoch": 178.68, "grad_norm": 0.88671875, "learning_rate": 9.805672413202241e-05, "loss": 0.3483, "step": 134010 }, { "epoch": 178.69333333333333, "grad_norm": 0.8203125, "learning_rate": 9.80564349141284e-05, "loss": 0.3592, "step": 134020 }, { "epoch": 178.70666666666668, "grad_norm": 1.03125, "learning_rate": 9.805614567514043e-05, "loss": 0.3491, "step": 134030 }, { "epoch": 178.72, "grad_norm": 0.9296875, "learning_rate": 9.80558564150586e-05, "loss": 0.3704, "step": 134040 }, { "epoch": 178.73333333333332, "grad_norm": 0.8203125, "learning_rate": 9.805556713388306e-05, "loss": 0.3665, "step": 134050 }, { "epoch": 178.74666666666667, "grad_norm": 0.79296875, "learning_rate": 9.805527783161393e-05, "loss": 0.3693, "step": 134060 }, { "epoch": 178.76, "grad_norm": 0.8984375, "learning_rate": 9.805498850825133e-05, "loss": 0.3821, "step": 134070 }, { "epoch": 178.77333333333334, "grad_norm": 0.890625, "learning_rate": 9.805469916379539e-05, "loss": 0.3669, "step": 134080 }, { "epoch": 178.78666666666666, "grad_norm": 0.80859375, "learning_rate": 9.805440979824625e-05, "loss": 0.3707, "step": 134090 }, { "epoch": 178.8, "grad_norm": 0.95703125, "learning_rate": 9.805412041160403e-05, "loss": 0.3671, "step": 134100 }, { "epoch": 178.81333333333333, "grad_norm": 1.0078125, "learning_rate": 9.805383100386884e-05, "loss": 0.3418, "step": 134110 }, { "epoch": 178.82666666666665, "grad_norm": 0.83203125, "learning_rate": 9.805354157504084e-05, "loss": 0.3487, "step": 134120 }, { "epoch": 178.84, "grad_norm": 0.921875, "learning_rate": 9.805325212512013e-05, "loss": 0.361, "step": 134130 }, { "epoch": 178.85333333333332, "grad_norm": 0.8359375, "learning_rate": 9.805296265410685e-05, "loss": 0.3573, "step": 134140 }, { "epoch": 178.86666666666667, "grad_norm": 0.8984375, "learning_rate": 9.80526731620011e-05, "loss": 0.3631, "step": 134150 }, { "epoch": 178.88, "grad_norm": 0.859375, "learning_rate": 9.805238364880306e-05, "loss": 0.3434, "step": 134160 }, { "epoch": 178.89333333333335, "grad_norm": 0.87109375, "learning_rate": 9.805209411451282e-05, "loss": 0.3561, "step": 134170 }, { "epoch": 178.90666666666667, "grad_norm": 0.84765625, "learning_rate": 9.80518045591305e-05, "loss": 0.3605, "step": 134180 }, { "epoch": 178.92, "grad_norm": 0.8359375, "learning_rate": 9.805151498265625e-05, "loss": 0.3619, "step": 134190 }, { "epoch": 178.93333333333334, "grad_norm": 0.76953125, "learning_rate": 9.805122538509019e-05, "loss": 0.3582, "step": 134200 }, { "epoch": 178.94666666666666, "grad_norm": 0.921875, "learning_rate": 9.805093576643245e-05, "loss": 0.3579, "step": 134210 }, { "epoch": 178.96, "grad_norm": 0.734375, "learning_rate": 9.805064612668313e-05, "loss": 0.3561, "step": 134220 }, { "epoch": 178.97333333333333, "grad_norm": 1.2421875, "learning_rate": 9.80503564658424e-05, "loss": 0.3788, "step": 134230 }, { "epoch": 178.98666666666668, "grad_norm": 0.83984375, "learning_rate": 9.805006678391036e-05, "loss": 0.3487, "step": 134240 }, { "epoch": 179.0, "grad_norm": 0.9140625, "learning_rate": 9.804977708088716e-05, "loss": 0.3517, "step": 134250 }, { "epoch": 179.0, "eval_loss": 0.41620156168937683, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7649, "eval_samples_per_second": 1.36, "eval_steps_per_second": 0.085, "step": 134250 }, { "epoch": 179.01333333333332, "grad_norm": 0.9140625, "learning_rate": 9.804948735677288e-05, "loss": 0.3661, "step": 134260 }, { "epoch": 179.02666666666667, "grad_norm": 0.84375, "learning_rate": 9.80491976115677e-05, "loss": 0.3806, "step": 134270 }, { "epoch": 179.04, "grad_norm": 0.81640625, "learning_rate": 9.804890784527172e-05, "loss": 0.3937, "step": 134280 }, { "epoch": 179.05333333333334, "grad_norm": 0.88671875, "learning_rate": 9.804861805788508e-05, "loss": 0.3782, "step": 134290 }, { "epoch": 179.06666666666666, "grad_norm": 0.90234375, "learning_rate": 9.804832824940789e-05, "loss": 0.3674, "step": 134300 }, { "epoch": 179.08, "grad_norm": 0.87890625, "learning_rate": 9.804803841984027e-05, "loss": 0.3703, "step": 134310 }, { "epoch": 179.09333333333333, "grad_norm": 0.8515625, "learning_rate": 9.80477485691824e-05, "loss": 0.3726, "step": 134320 }, { "epoch": 179.10666666666665, "grad_norm": 0.73828125, "learning_rate": 9.804745869743434e-05, "loss": 0.3622, "step": 134330 }, { "epoch": 179.12, "grad_norm": 0.8671875, "learning_rate": 9.804716880459627e-05, "loss": 0.3611, "step": 134340 }, { "epoch": 179.13333333333333, "grad_norm": 0.8125, "learning_rate": 9.804687889066828e-05, "loss": 0.3541, "step": 134350 }, { "epoch": 179.14666666666668, "grad_norm": 0.796875, "learning_rate": 9.804658895565053e-05, "loss": 0.374, "step": 134360 }, { "epoch": 179.16, "grad_norm": 0.7734375, "learning_rate": 9.804629899954312e-05, "loss": 0.3695, "step": 134370 }, { "epoch": 179.17333333333335, "grad_norm": 0.9140625, "learning_rate": 9.804600902234619e-05, "loss": 0.3647, "step": 134380 }, { "epoch": 179.18666666666667, "grad_norm": 0.74609375, "learning_rate": 9.804571902405986e-05, "loss": 0.3606, "step": 134390 }, { "epoch": 179.2, "grad_norm": 0.8984375, "learning_rate": 9.804542900468426e-05, "loss": 0.3525, "step": 134400 }, { "epoch": 179.21333333333334, "grad_norm": 0.87890625, "learning_rate": 9.804513896421953e-05, "loss": 0.3533, "step": 134410 }, { "epoch": 179.22666666666666, "grad_norm": 0.83984375, "learning_rate": 9.804484890266578e-05, "loss": 0.3638, "step": 134420 }, { "epoch": 179.24, "grad_norm": 0.90234375, "learning_rate": 9.804455882002315e-05, "loss": 0.3513, "step": 134430 }, { "epoch": 179.25333333333333, "grad_norm": 0.88671875, "learning_rate": 9.804426871629176e-05, "loss": 0.3513, "step": 134440 }, { "epoch": 179.26666666666668, "grad_norm": 0.875, "learning_rate": 9.804397859147173e-05, "loss": 0.3555, "step": 134450 }, { "epoch": 179.28, "grad_norm": 0.80078125, "learning_rate": 9.80436884455632e-05, "loss": 0.3825, "step": 134460 }, { "epoch": 179.29333333333332, "grad_norm": 0.83984375, "learning_rate": 9.80433982785663e-05, "loss": 0.3415, "step": 134470 }, { "epoch": 179.30666666666667, "grad_norm": 0.83984375, "learning_rate": 9.804310809048116e-05, "loss": 0.3657, "step": 134480 }, { "epoch": 179.32, "grad_norm": 0.71484375, "learning_rate": 9.804281788130787e-05, "loss": 0.3691, "step": 134490 }, { "epoch": 179.33333333333334, "grad_norm": 0.8828125, "learning_rate": 9.80425276510466e-05, "loss": 0.3671, "step": 134500 }, { "epoch": 179.34666666666666, "grad_norm": 0.87890625, "learning_rate": 9.804223739969747e-05, "loss": 0.3588, "step": 134510 }, { "epoch": 179.36, "grad_norm": 0.91796875, "learning_rate": 9.804194712726059e-05, "loss": 0.3598, "step": 134520 }, { "epoch": 179.37333333333333, "grad_norm": 0.7421875, "learning_rate": 9.80416568337361e-05, "loss": 0.3634, "step": 134530 }, { "epoch": 179.38666666666666, "grad_norm": 0.96484375, "learning_rate": 9.804136651912412e-05, "loss": 0.3495, "step": 134540 }, { "epoch": 179.4, "grad_norm": 0.859375, "learning_rate": 9.80410761834248e-05, "loss": 0.3603, "step": 134550 }, { "epoch": 179.41333333333333, "grad_norm": 0.828125, "learning_rate": 9.804078582663823e-05, "loss": 0.367, "step": 134560 }, { "epoch": 179.42666666666668, "grad_norm": 0.83203125, "learning_rate": 9.804049544876456e-05, "loss": 0.3684, "step": 134570 }, { "epoch": 179.44, "grad_norm": 0.87109375, "learning_rate": 9.804020504980394e-05, "loss": 0.3802, "step": 134580 }, { "epoch": 179.45333333333335, "grad_norm": 0.78125, "learning_rate": 9.803991462975645e-05, "loss": 0.3678, "step": 134590 }, { "epoch": 179.46666666666667, "grad_norm": 0.84765625, "learning_rate": 9.803962418862224e-05, "loss": 0.375, "step": 134600 }, { "epoch": 179.48, "grad_norm": 0.8046875, "learning_rate": 9.803933372640145e-05, "loss": 0.3587, "step": 134610 }, { "epoch": 179.49333333333334, "grad_norm": 0.8125, "learning_rate": 9.803904324309419e-05, "loss": 0.3699, "step": 134620 }, { "epoch": 179.50666666666666, "grad_norm": 0.859375, "learning_rate": 9.803875273870058e-05, "loss": 0.3696, "step": 134630 }, { "epoch": 179.52, "grad_norm": 0.73828125, "learning_rate": 9.803846221322077e-05, "loss": 0.3607, "step": 134640 }, { "epoch": 179.53333333333333, "grad_norm": 0.78515625, "learning_rate": 9.803817166665489e-05, "loss": 0.3611, "step": 134650 }, { "epoch": 179.54666666666665, "grad_norm": 0.984375, "learning_rate": 9.803788109900304e-05, "loss": 0.3615, "step": 134660 }, { "epoch": 179.56, "grad_norm": 0.76171875, "learning_rate": 9.803759051026536e-05, "loss": 0.3568, "step": 134670 }, { "epoch": 179.57333333333332, "grad_norm": 0.890625, "learning_rate": 9.803729990044199e-05, "loss": 0.3625, "step": 134680 }, { "epoch": 179.58666666666667, "grad_norm": 0.80859375, "learning_rate": 9.803700926953303e-05, "loss": 0.3522, "step": 134690 }, { "epoch": 179.6, "grad_norm": 0.83984375, "learning_rate": 9.803671861753865e-05, "loss": 0.3542, "step": 134700 }, { "epoch": 179.61333333333334, "grad_norm": 0.76171875, "learning_rate": 9.803642794445893e-05, "loss": 0.3457, "step": 134710 }, { "epoch": 179.62666666666667, "grad_norm": 0.83203125, "learning_rate": 9.803613725029404e-05, "loss": 0.3507, "step": 134720 }, { "epoch": 179.64, "grad_norm": 0.8984375, "learning_rate": 9.803584653504407e-05, "loss": 0.3568, "step": 134730 }, { "epoch": 179.65333333333334, "grad_norm": 0.8515625, "learning_rate": 9.803555579870917e-05, "loss": 0.3679, "step": 134740 }, { "epoch": 179.66666666666666, "grad_norm": 0.77734375, "learning_rate": 9.803526504128949e-05, "loss": 0.3607, "step": 134750 }, { "epoch": 179.68, "grad_norm": 0.8359375, "learning_rate": 9.80349742627851e-05, "loss": 0.3477, "step": 134760 }, { "epoch": 179.69333333333333, "grad_norm": 0.7890625, "learning_rate": 9.803468346319616e-05, "loss": 0.3593, "step": 134770 }, { "epoch": 179.70666666666668, "grad_norm": 0.96484375, "learning_rate": 9.803439264252281e-05, "loss": 0.3482, "step": 134780 }, { "epoch": 179.72, "grad_norm": 0.8984375, "learning_rate": 9.803410180076515e-05, "loss": 0.3704, "step": 134790 }, { "epoch": 179.73333333333332, "grad_norm": 0.828125, "learning_rate": 9.803381093792333e-05, "loss": 0.366, "step": 134800 }, { "epoch": 179.74666666666667, "grad_norm": 0.86328125, "learning_rate": 9.803352005399747e-05, "loss": 0.368, "step": 134810 }, { "epoch": 179.76, "grad_norm": 0.828125, "learning_rate": 9.80332291489877e-05, "loss": 0.3828, "step": 134820 }, { "epoch": 179.77333333333334, "grad_norm": 0.9375, "learning_rate": 9.803293822289414e-05, "loss": 0.3663, "step": 134830 }, { "epoch": 179.78666666666666, "grad_norm": 0.80859375, "learning_rate": 9.803264727571691e-05, "loss": 0.3696, "step": 134840 }, { "epoch": 179.8, "grad_norm": 0.8515625, "learning_rate": 9.803235630745617e-05, "loss": 0.3668, "step": 134850 }, { "epoch": 179.81333333333333, "grad_norm": 0.921875, "learning_rate": 9.803206531811202e-05, "loss": 0.3411, "step": 134860 }, { "epoch": 179.82666666666665, "grad_norm": 0.88671875, "learning_rate": 9.803177430768459e-05, "loss": 0.3485, "step": 134870 }, { "epoch": 179.84, "grad_norm": 0.92578125, "learning_rate": 9.803148327617401e-05, "loss": 0.3615, "step": 134880 }, { "epoch": 179.85333333333332, "grad_norm": 0.90625, "learning_rate": 9.803119222358042e-05, "loss": 0.3567, "step": 134890 }, { "epoch": 179.86666666666667, "grad_norm": 0.90625, "learning_rate": 9.803090114990395e-05, "loss": 0.3636, "step": 134900 }, { "epoch": 179.88, "grad_norm": 0.78515625, "learning_rate": 9.803061005514469e-05, "loss": 0.3434, "step": 134910 }, { "epoch": 179.89333333333335, "grad_norm": 0.80859375, "learning_rate": 9.80303189393028e-05, "loss": 0.3564, "step": 134920 }, { "epoch": 179.90666666666667, "grad_norm": 0.78125, "learning_rate": 9.803002780237842e-05, "loss": 0.3608, "step": 134930 }, { "epoch": 179.92, "grad_norm": 0.8671875, "learning_rate": 9.802973664437165e-05, "loss": 0.3604, "step": 134940 }, { "epoch": 179.93333333333334, "grad_norm": 0.72265625, "learning_rate": 9.802944546528263e-05, "loss": 0.3584, "step": 134950 }, { "epoch": 179.94666666666666, "grad_norm": 0.84765625, "learning_rate": 9.802915426511147e-05, "loss": 0.3579, "step": 134960 }, { "epoch": 179.96, "grad_norm": 0.75390625, "learning_rate": 9.802886304385833e-05, "loss": 0.3556, "step": 134970 }, { "epoch": 179.97333333333333, "grad_norm": 1.1875, "learning_rate": 9.802857180152332e-05, "loss": 0.3791, "step": 134980 }, { "epoch": 179.98666666666668, "grad_norm": 0.84765625, "learning_rate": 9.802828053810656e-05, "loss": 0.3491, "step": 134990 }, { "epoch": 180.0, "grad_norm": 0.80078125, "learning_rate": 9.802798925360819e-05, "loss": 0.3501, "step": 135000 }, { "epoch": 180.0, "eval_loss": 0.41868850588798523, "eval_model_preparation_time": 0.0042, "eval_runtime": 12.6644, "eval_samples_per_second": 1.263, "eval_steps_per_second": 0.079, "step": 135000 }, { "epoch": 180.01333333333332, "grad_norm": 0.92578125, "learning_rate": 9.802769794802833e-05, "loss": 0.3657, "step": 135010 }, { "epoch": 180.02666666666667, "grad_norm": 0.7734375, "learning_rate": 9.802740662136713e-05, "loss": 0.3811, "step": 135020 }, { "epoch": 180.04, "grad_norm": 0.77734375, "learning_rate": 9.802711527362469e-05, "loss": 0.3935, "step": 135030 }, { "epoch": 180.05333333333334, "grad_norm": 0.8515625, "learning_rate": 9.802682390480114e-05, "loss": 0.3774, "step": 135040 }, { "epoch": 180.06666666666666, "grad_norm": 1.0078125, "learning_rate": 9.802653251489661e-05, "loss": 0.3655, "step": 135050 }, { "epoch": 180.08, "grad_norm": 0.91796875, "learning_rate": 9.802624110391125e-05, "loss": 0.3693, "step": 135060 }, { "epoch": 180.09333333333333, "grad_norm": 0.9140625, "learning_rate": 9.802594967184518e-05, "loss": 0.3722, "step": 135070 }, { "epoch": 180.10666666666665, "grad_norm": 0.74609375, "learning_rate": 9.80256582186985e-05, "loss": 0.3615, "step": 135080 }, { "epoch": 180.12, "grad_norm": 0.875, "learning_rate": 9.802536674447136e-05, "loss": 0.3617, "step": 135090 }, { "epoch": 180.13333333333333, "grad_norm": 0.828125, "learning_rate": 9.80250752491639e-05, "loss": 0.3542, "step": 135100 }, { "epoch": 180.14666666666668, "grad_norm": 0.8359375, "learning_rate": 9.802478373277621e-05, "loss": 0.3735, "step": 135110 }, { "epoch": 180.16, "grad_norm": 0.7578125, "learning_rate": 9.802449219530847e-05, "loss": 0.369, "step": 135120 }, { "epoch": 180.17333333333335, "grad_norm": 0.9609375, "learning_rate": 9.802420063676077e-05, "loss": 0.3646, "step": 135130 }, { "epoch": 180.18666666666667, "grad_norm": 0.80078125, "learning_rate": 9.802390905713323e-05, "loss": 0.3615, "step": 135140 }, { "epoch": 180.2, "grad_norm": 0.85546875, "learning_rate": 9.802361745642602e-05, "loss": 0.3529, "step": 135150 }, { "epoch": 180.21333333333334, "grad_norm": 0.875, "learning_rate": 9.802332583463922e-05, "loss": 0.3533, "step": 135160 }, { "epoch": 180.22666666666666, "grad_norm": 0.8984375, "learning_rate": 9.802303419177301e-05, "loss": 0.3638, "step": 135170 }, { "epoch": 180.24, "grad_norm": 0.8515625, "learning_rate": 9.802274252782746e-05, "loss": 0.3508, "step": 135180 }, { "epoch": 180.25333333333333, "grad_norm": 0.84375, "learning_rate": 9.802245084280275e-05, "loss": 0.351, "step": 135190 }, { "epoch": 180.26666666666668, "grad_norm": 0.82421875, "learning_rate": 9.802215913669897e-05, "loss": 0.3545, "step": 135200 }, { "epoch": 180.28, "grad_norm": 0.93359375, "learning_rate": 9.802186740951626e-05, "loss": 0.3823, "step": 135210 }, { "epoch": 180.29333333333332, "grad_norm": 0.84765625, "learning_rate": 9.802157566125478e-05, "loss": 0.3416, "step": 135220 }, { "epoch": 180.30666666666667, "grad_norm": 0.8671875, "learning_rate": 9.80212838919146e-05, "loss": 0.3652, "step": 135230 }, { "epoch": 180.32, "grad_norm": 0.76171875, "learning_rate": 9.802099210149589e-05, "loss": 0.3691, "step": 135240 }, { "epoch": 180.33333333333334, "grad_norm": 0.87109375, "learning_rate": 9.802070028999877e-05, "loss": 0.3681, "step": 135250 }, { "epoch": 180.34666666666666, "grad_norm": 0.8515625, "learning_rate": 9.802040845742335e-05, "loss": 0.3588, "step": 135260 }, { "epoch": 180.36, "grad_norm": 0.86328125, "learning_rate": 9.802011660376978e-05, "loss": 0.3593, "step": 135270 }, { "epoch": 180.37333333333333, "grad_norm": 0.73828125, "learning_rate": 9.80198247290382e-05, "loss": 0.3646, "step": 135280 }, { "epoch": 180.38666666666666, "grad_norm": 0.96875, "learning_rate": 9.80195328332287e-05, "loss": 0.3502, "step": 135290 }, { "epoch": 180.4, "grad_norm": 0.796875, "learning_rate": 9.801924091634141e-05, "loss": 0.3607, "step": 135300 }, { "epoch": 180.41333333333333, "grad_norm": 0.78515625, "learning_rate": 9.80189489783765e-05, "loss": 0.3664, "step": 135310 }, { "epoch": 180.42666666666668, "grad_norm": 0.84765625, "learning_rate": 9.801865701933406e-05, "loss": 0.3686, "step": 135320 }, { "epoch": 180.44, "grad_norm": 0.9296875, "learning_rate": 9.801836503921422e-05, "loss": 0.3804, "step": 135330 }, { "epoch": 180.45333333333335, "grad_norm": 0.84765625, "learning_rate": 9.801807303801713e-05, "loss": 0.3683, "step": 135340 }, { "epoch": 180.46666666666667, "grad_norm": 0.9296875, "learning_rate": 9.801778101574293e-05, "loss": 0.3757, "step": 135350 }, { "epoch": 180.48, "grad_norm": 0.8515625, "learning_rate": 9.801748897239169e-05, "loss": 0.3583, "step": 135360 }, { "epoch": 180.49333333333334, "grad_norm": 0.91796875, "learning_rate": 9.801719690796359e-05, "loss": 0.3694, "step": 135370 }, { "epoch": 180.50666666666666, "grad_norm": 0.86328125, "learning_rate": 9.801690482245874e-05, "loss": 0.3692, "step": 135380 }, { "epoch": 180.52, "grad_norm": 0.6953125, "learning_rate": 9.801661271587728e-05, "loss": 0.3601, "step": 135390 }, { "epoch": 180.53333333333333, "grad_norm": 0.78515625, "learning_rate": 9.80163205882193e-05, "loss": 0.361, "step": 135400 }, { "epoch": 180.54666666666665, "grad_norm": 0.93359375, "learning_rate": 9.801602843948498e-05, "loss": 0.3626, "step": 135410 }, { "epoch": 180.56, "grad_norm": 0.8203125, "learning_rate": 9.801573626967442e-05, "loss": 0.3565, "step": 135420 }, { "epoch": 180.57333333333332, "grad_norm": 0.87890625, "learning_rate": 9.801544407878776e-05, "loss": 0.362, "step": 135430 }, { "epoch": 180.58666666666667, "grad_norm": 0.8125, "learning_rate": 9.801515186682511e-05, "loss": 0.3535, "step": 135440 }, { "epoch": 180.6, "grad_norm": 0.8125, "learning_rate": 9.80148596337866e-05, "loss": 0.3544, "step": 135450 }, { "epoch": 180.61333333333334, "grad_norm": 0.76953125, "learning_rate": 9.801456737967238e-05, "loss": 0.3474, "step": 135460 }, { "epoch": 180.62666666666667, "grad_norm": 0.859375, "learning_rate": 9.801427510448258e-05, "loss": 0.3515, "step": 135470 }, { "epoch": 180.64, "grad_norm": 0.85546875, "learning_rate": 9.80139828082173e-05, "loss": 0.357, "step": 135480 }, { "epoch": 180.65333333333334, "grad_norm": 0.86328125, "learning_rate": 9.801369049087667e-05, "loss": 0.3667, "step": 135490 }, { "epoch": 180.66666666666666, "grad_norm": 0.78125, "learning_rate": 9.801339815246086e-05, "loss": 0.3594, "step": 135500 }, { "epoch": 180.68, "grad_norm": 0.87890625, "learning_rate": 9.801310579296994e-05, "loss": 0.3484, "step": 135510 }, { "epoch": 180.69333333333333, "grad_norm": 0.75, "learning_rate": 9.801281341240409e-05, "loss": 0.36, "step": 135520 }, { "epoch": 180.70666666666668, "grad_norm": 0.94921875, "learning_rate": 9.80125210107634e-05, "loss": 0.3493, "step": 135530 }, { "epoch": 180.72, "grad_norm": 0.890625, "learning_rate": 9.801222858804802e-05, "loss": 0.3703, "step": 135540 }, { "epoch": 180.73333333333332, "grad_norm": 0.875, "learning_rate": 9.801193614425808e-05, "loss": 0.366, "step": 135550 }, { "epoch": 180.74666666666667, "grad_norm": 0.8125, "learning_rate": 9.801164367939369e-05, "loss": 0.3696, "step": 135560 }, { "epoch": 180.76, "grad_norm": 0.87109375, "learning_rate": 9.8011351193455e-05, "loss": 0.3821, "step": 135570 }, { "epoch": 180.77333333333334, "grad_norm": 0.8828125, "learning_rate": 9.801105868644212e-05, "loss": 0.3668, "step": 135580 }, { "epoch": 180.78666666666666, "grad_norm": 0.84765625, "learning_rate": 9.801076615835519e-05, "loss": 0.3694, "step": 135590 }, { "epoch": 180.8, "grad_norm": 0.9140625, "learning_rate": 9.801047360919432e-05, "loss": 0.3676, "step": 135600 }, { "epoch": 180.81333333333333, "grad_norm": 0.9453125, "learning_rate": 9.801018103895967e-05, "loss": 0.3413, "step": 135610 }, { "epoch": 180.82666666666665, "grad_norm": 0.8515625, "learning_rate": 9.800988844765133e-05, "loss": 0.3479, "step": 135620 }, { "epoch": 180.84, "grad_norm": 0.98046875, "learning_rate": 9.800959583526947e-05, "loss": 0.3613, "step": 135630 }, { "epoch": 180.85333333333332, "grad_norm": 0.83984375, "learning_rate": 9.800930320181419e-05, "loss": 0.3563, "step": 135640 }, { "epoch": 180.86666666666667, "grad_norm": 0.91796875, "learning_rate": 9.800901054728564e-05, "loss": 0.3624, "step": 135650 }, { "epoch": 180.88, "grad_norm": 0.8046875, "learning_rate": 9.800871787168392e-05, "loss": 0.3432, "step": 135660 }, { "epoch": 180.89333333333335, "grad_norm": 0.78125, "learning_rate": 9.800842517500917e-05, "loss": 0.3563, "step": 135670 }, { "epoch": 180.90666666666667, "grad_norm": 0.78515625, "learning_rate": 9.800813245726154e-05, "loss": 0.3606, "step": 135680 }, { "epoch": 180.92, "grad_norm": 0.9375, "learning_rate": 9.800783971844113e-05, "loss": 0.361, "step": 135690 }, { "epoch": 180.93333333333334, "grad_norm": 0.75, "learning_rate": 9.800754695854809e-05, "loss": 0.3581, "step": 135700 }, { "epoch": 180.94666666666666, "grad_norm": 0.796875, "learning_rate": 9.800725417758252e-05, "loss": 0.3578, "step": 135710 }, { "epoch": 180.96, "grad_norm": 0.8125, "learning_rate": 9.800696137554457e-05, "loss": 0.3559, "step": 135720 }, { "epoch": 180.97333333333333, "grad_norm": 1.078125, "learning_rate": 9.800666855243437e-05, "loss": 0.3785, "step": 135730 }, { "epoch": 180.98666666666668, "grad_norm": 0.8828125, "learning_rate": 9.800637570825204e-05, "loss": 0.349, "step": 135740 }, { "epoch": 181.0, "grad_norm": 0.8203125, "learning_rate": 9.80060828429977e-05, "loss": 0.3508, "step": 135750 }, { "epoch": 181.0, "eval_loss": 0.4161720871925354, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5336, "eval_samples_per_second": 1.519, "eval_steps_per_second": 0.095, "step": 135750 }, { "epoch": 181.01333333333332, "grad_norm": 0.9296875, "learning_rate": 9.800578995667151e-05, "loss": 0.3655, "step": 135760 }, { "epoch": 181.02666666666667, "grad_norm": 0.74609375, "learning_rate": 9.800549704927357e-05, "loss": 0.3806, "step": 135770 }, { "epoch": 181.04, "grad_norm": 0.9140625, "learning_rate": 9.800520412080402e-05, "loss": 0.3942, "step": 135780 }, { "epoch": 181.05333333333334, "grad_norm": 0.87109375, "learning_rate": 9.800491117126299e-05, "loss": 0.3772, "step": 135790 }, { "epoch": 181.06666666666666, "grad_norm": 1.0078125, "learning_rate": 9.800461820065059e-05, "loss": 0.3662, "step": 135800 }, { "epoch": 181.08, "grad_norm": 0.890625, "learning_rate": 9.800432520896698e-05, "loss": 0.3705, "step": 135810 }, { "epoch": 181.09333333333333, "grad_norm": 0.8203125, "learning_rate": 9.800403219621225e-05, "loss": 0.3719, "step": 135820 }, { "epoch": 181.10666666666665, "grad_norm": 0.75, "learning_rate": 9.800373916238656e-05, "loss": 0.3608, "step": 135830 }, { "epoch": 181.12, "grad_norm": 0.875, "learning_rate": 9.800344610749004e-05, "loss": 0.3618, "step": 135840 }, { "epoch": 181.13333333333333, "grad_norm": 0.8203125, "learning_rate": 9.80031530315228e-05, "loss": 0.3544, "step": 135850 }, { "epoch": 181.14666666666668, "grad_norm": 0.97265625, "learning_rate": 9.800285993448496e-05, "loss": 0.3737, "step": 135860 }, { "epoch": 181.16, "grad_norm": 0.7578125, "learning_rate": 9.80025668163767e-05, "loss": 0.3691, "step": 135870 }, { "epoch": 181.17333333333335, "grad_norm": 0.87890625, "learning_rate": 9.800227367719809e-05, "loss": 0.3643, "step": 135880 }, { "epoch": 181.18666666666667, "grad_norm": 0.796875, "learning_rate": 9.800198051694929e-05, "loss": 0.361, "step": 135890 }, { "epoch": 181.2, "grad_norm": 0.8359375, "learning_rate": 9.800168733563043e-05, "loss": 0.3525, "step": 135900 }, { "epoch": 181.21333333333334, "grad_norm": 0.9140625, "learning_rate": 9.800139413324161e-05, "loss": 0.3533, "step": 135910 }, { "epoch": 181.22666666666666, "grad_norm": 0.8359375, "learning_rate": 9.800110090978298e-05, "loss": 0.3636, "step": 135920 }, { "epoch": 181.24, "grad_norm": 0.85546875, "learning_rate": 9.800080766525467e-05, "loss": 0.3501, "step": 135930 }, { "epoch": 181.25333333333333, "grad_norm": 0.8203125, "learning_rate": 9.80005143996568e-05, "loss": 0.3519, "step": 135940 }, { "epoch": 181.26666666666668, "grad_norm": 0.8359375, "learning_rate": 9.800022111298951e-05, "loss": 0.3549, "step": 135950 }, { "epoch": 181.28, "grad_norm": 0.88671875, "learning_rate": 9.799992780525294e-05, "loss": 0.3824, "step": 135960 }, { "epoch": 181.29333333333332, "grad_norm": 0.82421875, "learning_rate": 9.799963447644718e-05, "loss": 0.3421, "step": 135970 }, { "epoch": 181.30666666666667, "grad_norm": 0.890625, "learning_rate": 9.799934112657239e-05, "loss": 0.3654, "step": 135980 }, { "epoch": 181.32, "grad_norm": 0.73828125, "learning_rate": 9.799904775562868e-05, "loss": 0.3705, "step": 135990 }, { "epoch": 181.33333333333334, "grad_norm": 0.90625, "learning_rate": 9.79987543636162e-05, "loss": 0.3675, "step": 136000 }, { "epoch": 181.34666666666666, "grad_norm": 0.92578125, "learning_rate": 9.799846095053506e-05, "loss": 0.3584, "step": 136010 }, { "epoch": 181.36, "grad_norm": 0.84765625, "learning_rate": 9.79981675163854e-05, "loss": 0.3584, "step": 136020 }, { "epoch": 181.37333333333333, "grad_norm": 0.70703125, "learning_rate": 9.799787406116733e-05, "loss": 0.3627, "step": 136030 }, { "epoch": 181.38666666666666, "grad_norm": 0.89453125, "learning_rate": 9.799758058488102e-05, "loss": 0.3497, "step": 136040 }, { "epoch": 181.4, "grad_norm": 0.87890625, "learning_rate": 9.799728708752655e-05, "loss": 0.3608, "step": 136050 }, { "epoch": 181.41333333333333, "grad_norm": 0.8515625, "learning_rate": 9.799699356910408e-05, "loss": 0.3659, "step": 136060 }, { "epoch": 181.42666666666668, "grad_norm": 0.81640625, "learning_rate": 9.799670002961372e-05, "loss": 0.3676, "step": 136070 }, { "epoch": 181.44, "grad_norm": 0.85546875, "learning_rate": 9.799640646905563e-05, "loss": 0.3793, "step": 136080 }, { "epoch": 181.45333333333335, "grad_norm": 0.8515625, "learning_rate": 9.799611288742989e-05, "loss": 0.3673, "step": 136090 }, { "epoch": 181.46666666666667, "grad_norm": 0.875, "learning_rate": 9.799581928473668e-05, "loss": 0.3747, "step": 136100 }, { "epoch": 181.48, "grad_norm": 0.7578125, "learning_rate": 9.799552566097609e-05, "loss": 0.3583, "step": 136110 }, { "epoch": 181.49333333333334, "grad_norm": 0.81640625, "learning_rate": 9.799523201614828e-05, "loss": 0.3686, "step": 136120 }, { "epoch": 181.50666666666666, "grad_norm": 0.89453125, "learning_rate": 9.799493835025334e-05, "loss": 0.3698, "step": 136130 }, { "epoch": 181.52, "grad_norm": 0.6953125, "learning_rate": 9.799464466329144e-05, "loss": 0.3605, "step": 136140 }, { "epoch": 181.53333333333333, "grad_norm": 0.9140625, "learning_rate": 9.799435095526268e-05, "loss": 0.361, "step": 136150 }, { "epoch": 181.54666666666665, "grad_norm": 0.9453125, "learning_rate": 9.799405722616722e-05, "loss": 0.3625, "step": 136160 }, { "epoch": 181.56, "grad_norm": 0.74609375, "learning_rate": 9.799376347600515e-05, "loss": 0.3567, "step": 136170 }, { "epoch": 181.57333333333332, "grad_norm": 0.9296875, "learning_rate": 9.799346970477661e-05, "loss": 0.3611, "step": 136180 }, { "epoch": 181.58666666666667, "grad_norm": 0.8203125, "learning_rate": 9.799317591248176e-05, "loss": 0.3527, "step": 136190 }, { "epoch": 181.6, "grad_norm": 0.828125, "learning_rate": 9.79928820991207e-05, "loss": 0.354, "step": 136200 }, { "epoch": 181.61333333333334, "grad_norm": 0.703125, "learning_rate": 9.799258826469356e-05, "loss": 0.3459, "step": 136210 }, { "epoch": 181.62666666666667, "grad_norm": 0.8125, "learning_rate": 9.799229440920046e-05, "loss": 0.3504, "step": 136220 }, { "epoch": 181.64, "grad_norm": 0.984375, "learning_rate": 9.799200053264156e-05, "loss": 0.3576, "step": 136230 }, { "epoch": 181.65333333333334, "grad_norm": 0.82421875, "learning_rate": 9.799170663501696e-05, "loss": 0.3674, "step": 136240 }, { "epoch": 181.66666666666666, "grad_norm": 0.7421875, "learning_rate": 9.799141271632682e-05, "loss": 0.3589, "step": 136250 }, { "epoch": 181.68, "grad_norm": 0.89453125, "learning_rate": 9.799111877657124e-05, "loss": 0.3472, "step": 136260 }, { "epoch": 181.69333333333333, "grad_norm": 0.76953125, "learning_rate": 9.799082481575034e-05, "loss": 0.3597, "step": 136270 }, { "epoch": 181.70666666666668, "grad_norm": 0.90625, "learning_rate": 9.799053083386428e-05, "loss": 0.3485, "step": 136280 }, { "epoch": 181.72, "grad_norm": 0.9296875, "learning_rate": 9.799023683091317e-05, "loss": 0.3694, "step": 136290 }, { "epoch": 181.73333333333332, "grad_norm": 0.859375, "learning_rate": 9.798994280689717e-05, "loss": 0.3669, "step": 136300 }, { "epoch": 181.74666666666667, "grad_norm": 0.77734375, "learning_rate": 9.798964876181636e-05, "loss": 0.3691, "step": 136310 }, { "epoch": 181.76, "grad_norm": 0.87109375, "learning_rate": 9.798935469567089e-05, "loss": 0.3825, "step": 136320 }, { "epoch": 181.77333333333334, "grad_norm": 0.91015625, "learning_rate": 9.798906060846092e-05, "loss": 0.3662, "step": 136330 }, { "epoch": 181.78666666666666, "grad_norm": 0.8125, "learning_rate": 9.798876650018653e-05, "loss": 0.3693, "step": 136340 }, { "epoch": 181.8, "grad_norm": 0.890625, "learning_rate": 9.798847237084789e-05, "loss": 0.3672, "step": 136350 }, { "epoch": 181.81333333333333, "grad_norm": 0.921875, "learning_rate": 9.798817822044509e-05, "loss": 0.3408, "step": 136360 }, { "epoch": 181.82666666666665, "grad_norm": 0.7578125, "learning_rate": 9.798788404897829e-05, "loss": 0.3478, "step": 136370 }, { "epoch": 181.84, "grad_norm": 0.91796875, "learning_rate": 9.79875898564476e-05, "loss": 0.3606, "step": 136380 }, { "epoch": 181.85333333333332, "grad_norm": 0.80859375, "learning_rate": 9.798729564285317e-05, "loss": 0.3562, "step": 136390 }, { "epoch": 181.86666666666667, "grad_norm": 0.9140625, "learning_rate": 9.798700140819512e-05, "loss": 0.3627, "step": 136400 }, { "epoch": 181.88, "grad_norm": 0.86328125, "learning_rate": 9.798670715247356e-05, "loss": 0.3431, "step": 136410 }, { "epoch": 181.89333333333335, "grad_norm": 0.79296875, "learning_rate": 9.798641287568864e-05, "loss": 0.3553, "step": 136420 }, { "epoch": 181.90666666666667, "grad_norm": 0.890625, "learning_rate": 9.798611857784048e-05, "loss": 0.36, "step": 136430 }, { "epoch": 181.92, "grad_norm": 0.796875, "learning_rate": 9.798582425892921e-05, "loss": 0.3603, "step": 136440 }, { "epoch": 181.93333333333334, "grad_norm": 0.8046875, "learning_rate": 9.798552991895498e-05, "loss": 0.3582, "step": 136450 }, { "epoch": 181.94666666666666, "grad_norm": 0.83203125, "learning_rate": 9.79852355579179e-05, "loss": 0.3578, "step": 136460 }, { "epoch": 181.96, "grad_norm": 0.734375, "learning_rate": 9.79849411758181e-05, "loss": 0.3565, "step": 136470 }, { "epoch": 181.97333333333333, "grad_norm": 1.09375, "learning_rate": 9.798464677265568e-05, "loss": 0.3784, "step": 136480 }, { "epoch": 181.98666666666668, "grad_norm": 0.81640625, "learning_rate": 9.798435234843083e-05, "loss": 0.3482, "step": 136490 }, { "epoch": 182.0, "grad_norm": 0.91796875, "learning_rate": 9.798405790314364e-05, "loss": 0.3505, "step": 136500 }, { "epoch": 182.0, "eval_loss": 0.4156961143016815, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5602, "eval_samples_per_second": 1.515, "eval_steps_per_second": 0.095, "step": 136500 }, { "epoch": 182.01333333333332, "grad_norm": 0.85546875, "learning_rate": 9.798376343679425e-05, "loss": 0.365, "step": 136510 }, { "epoch": 182.02666666666667, "grad_norm": 0.83984375, "learning_rate": 9.79834689493828e-05, "loss": 0.3802, "step": 136520 }, { "epoch": 182.04, "grad_norm": 0.83203125, "learning_rate": 9.798317444090939e-05, "loss": 0.3935, "step": 136530 }, { "epoch": 182.05333333333334, "grad_norm": 0.94921875, "learning_rate": 9.798287991137416e-05, "loss": 0.3768, "step": 136540 }, { "epoch": 182.06666666666666, "grad_norm": 0.91796875, "learning_rate": 9.798258536077725e-05, "loss": 0.3662, "step": 136550 }, { "epoch": 182.08, "grad_norm": 0.90234375, "learning_rate": 9.798229078911878e-05, "loss": 0.3683, "step": 136560 }, { "epoch": 182.09333333333333, "grad_norm": 0.9765625, "learning_rate": 9.79819961963989e-05, "loss": 0.3716, "step": 136570 }, { "epoch": 182.10666666666665, "grad_norm": 0.76171875, "learning_rate": 9.798170158261771e-05, "loss": 0.3602, "step": 136580 }, { "epoch": 182.12, "grad_norm": 0.8671875, "learning_rate": 9.798140694777536e-05, "loss": 0.3618, "step": 136590 }, { "epoch": 182.13333333333333, "grad_norm": 0.84765625, "learning_rate": 9.798111229187196e-05, "loss": 0.3538, "step": 136600 }, { "epoch": 182.14666666666668, "grad_norm": 0.9609375, "learning_rate": 9.798081761490766e-05, "loss": 0.3728, "step": 136610 }, { "epoch": 182.16, "grad_norm": 0.7421875, "learning_rate": 9.798052291688257e-05, "loss": 0.3699, "step": 136620 }, { "epoch": 182.17333333333335, "grad_norm": 0.90625, "learning_rate": 9.798022819779685e-05, "loss": 0.3628, "step": 136630 }, { "epoch": 182.18666666666667, "grad_norm": 0.84375, "learning_rate": 9.797993345765059e-05, "loss": 0.3613, "step": 136640 }, { "epoch": 182.2, "grad_norm": 0.81640625, "learning_rate": 9.797963869644394e-05, "loss": 0.3528, "step": 136650 }, { "epoch": 182.21333333333334, "grad_norm": 0.9140625, "learning_rate": 9.797934391417704e-05, "loss": 0.3532, "step": 136660 }, { "epoch": 182.22666666666666, "grad_norm": 0.83203125, "learning_rate": 9.797904911084998e-05, "loss": 0.3646, "step": 136670 }, { "epoch": 182.24, "grad_norm": 0.8515625, "learning_rate": 9.797875428646295e-05, "loss": 0.3505, "step": 136680 }, { "epoch": 182.25333333333333, "grad_norm": 0.83203125, "learning_rate": 9.797845944101602e-05, "loss": 0.3507, "step": 136690 }, { "epoch": 182.26666666666668, "grad_norm": 0.7421875, "learning_rate": 9.797816457450936e-05, "loss": 0.3546, "step": 136700 }, { "epoch": 182.28, "grad_norm": 0.93359375, "learning_rate": 9.79778696869431e-05, "loss": 0.3811, "step": 136710 }, { "epoch": 182.29333333333332, "grad_norm": 0.84375, "learning_rate": 9.797757477831732e-05, "loss": 0.3424, "step": 136720 }, { "epoch": 182.30666666666667, "grad_norm": 0.7421875, "learning_rate": 9.79772798486322e-05, "loss": 0.3644, "step": 136730 }, { "epoch": 182.32, "grad_norm": 0.7578125, "learning_rate": 9.797698489788785e-05, "loss": 0.3692, "step": 136740 }, { "epoch": 182.33333333333334, "grad_norm": 0.921875, "learning_rate": 9.79766899260844e-05, "loss": 0.3679, "step": 136750 }, { "epoch": 182.34666666666666, "grad_norm": 0.94921875, "learning_rate": 9.797639493322199e-05, "loss": 0.3582, "step": 136760 }, { "epoch": 182.36, "grad_norm": 0.8984375, "learning_rate": 9.797609991930074e-05, "loss": 0.3589, "step": 136770 }, { "epoch": 182.37333333333333, "grad_norm": 0.75390625, "learning_rate": 9.797580488432077e-05, "loss": 0.3631, "step": 136780 }, { "epoch": 182.38666666666666, "grad_norm": 0.9296875, "learning_rate": 9.797550982828224e-05, "loss": 0.3491, "step": 136790 }, { "epoch": 182.4, "grad_norm": 0.84765625, "learning_rate": 9.797521475118523e-05, "loss": 0.3605, "step": 136800 }, { "epoch": 182.41333333333333, "grad_norm": 0.83984375, "learning_rate": 9.797491965302991e-05, "loss": 0.367, "step": 136810 }, { "epoch": 182.42666666666668, "grad_norm": 0.80078125, "learning_rate": 9.797462453381643e-05, "loss": 0.3679, "step": 136820 }, { "epoch": 182.44, "grad_norm": 0.875, "learning_rate": 9.797432939354485e-05, "loss": 0.3794, "step": 136830 }, { "epoch": 182.45333333333335, "grad_norm": 0.8828125, "learning_rate": 9.797403423221536e-05, "loss": 0.3669, "step": 136840 }, { "epoch": 182.46666666666667, "grad_norm": 0.8125, "learning_rate": 9.797373904982805e-05, "loss": 0.3747, "step": 136850 }, { "epoch": 182.48, "grad_norm": 0.85546875, "learning_rate": 9.79734438463831e-05, "loss": 0.3579, "step": 136860 }, { "epoch": 182.49333333333334, "grad_norm": 0.8359375, "learning_rate": 9.797314862188057e-05, "loss": 0.3695, "step": 136870 }, { "epoch": 182.50666666666666, "grad_norm": 0.8359375, "learning_rate": 9.797285337632065e-05, "loss": 0.3688, "step": 136880 }, { "epoch": 182.52, "grad_norm": 0.82421875, "learning_rate": 9.797255810970342e-05, "loss": 0.3599, "step": 136890 }, { "epoch": 182.53333333333333, "grad_norm": 0.79296875, "learning_rate": 9.797226282202906e-05, "loss": 0.3606, "step": 136900 }, { "epoch": 182.54666666666665, "grad_norm": 0.984375, "learning_rate": 9.797196751329767e-05, "loss": 0.3617, "step": 136910 }, { "epoch": 182.56, "grad_norm": 0.77734375, "learning_rate": 9.797167218350938e-05, "loss": 0.3562, "step": 136920 }, { "epoch": 182.57333333333332, "grad_norm": 0.94140625, "learning_rate": 9.797137683266433e-05, "loss": 0.3612, "step": 136930 }, { "epoch": 182.58666666666667, "grad_norm": 0.77734375, "learning_rate": 9.797108146076264e-05, "loss": 0.3525, "step": 136940 }, { "epoch": 182.6, "grad_norm": 0.90234375, "learning_rate": 9.797078606780445e-05, "loss": 0.3538, "step": 136950 }, { "epoch": 182.61333333333334, "grad_norm": 0.81640625, "learning_rate": 9.797049065378987e-05, "loss": 0.3467, "step": 136960 }, { "epoch": 182.62666666666667, "grad_norm": 0.703125, "learning_rate": 9.797019521871905e-05, "loss": 0.3515, "step": 136970 }, { "epoch": 182.64, "grad_norm": 0.90234375, "learning_rate": 9.796989976259212e-05, "loss": 0.3565, "step": 136980 }, { "epoch": 182.65333333333334, "grad_norm": 0.80859375, "learning_rate": 9.796960428540918e-05, "loss": 0.3673, "step": 136990 }, { "epoch": 182.66666666666666, "grad_norm": 0.82421875, "learning_rate": 9.79693087871704e-05, "loss": 0.36, "step": 137000 }, { "epoch": 182.68, "grad_norm": 0.94921875, "learning_rate": 9.79690132678759e-05, "loss": 0.3474, "step": 137010 }, { "epoch": 182.69333333333333, "grad_norm": 0.78125, "learning_rate": 9.796871772752579e-05, "loss": 0.3598, "step": 137020 }, { "epoch": 182.70666666666668, "grad_norm": 0.9609375, "learning_rate": 9.796842216612021e-05, "loss": 0.3482, "step": 137030 }, { "epoch": 182.72, "grad_norm": 0.9140625, "learning_rate": 9.796812658365931e-05, "loss": 0.3693, "step": 137040 }, { "epoch": 182.73333333333332, "grad_norm": 0.83984375, "learning_rate": 9.796783098014317e-05, "loss": 0.3664, "step": 137050 }, { "epoch": 182.74666666666667, "grad_norm": 0.9375, "learning_rate": 9.796753535557197e-05, "loss": 0.3689, "step": 137060 }, { "epoch": 182.76, "grad_norm": 0.828125, "learning_rate": 9.796723970994581e-05, "loss": 0.3817, "step": 137070 }, { "epoch": 182.77333333333334, "grad_norm": 0.9765625, "learning_rate": 9.796694404326483e-05, "loss": 0.3662, "step": 137080 }, { "epoch": 182.78666666666666, "grad_norm": 0.765625, "learning_rate": 9.796664835552918e-05, "loss": 0.3696, "step": 137090 }, { "epoch": 182.8, "grad_norm": 0.96484375, "learning_rate": 9.796635264673895e-05, "loss": 0.3673, "step": 137100 }, { "epoch": 182.81333333333333, "grad_norm": 0.92578125, "learning_rate": 9.796605691689428e-05, "loss": 0.3409, "step": 137110 }, { "epoch": 182.82666666666665, "grad_norm": 0.86328125, "learning_rate": 9.796576116599533e-05, "loss": 0.3482, "step": 137120 }, { "epoch": 182.84, "grad_norm": 0.96875, "learning_rate": 9.796546539404221e-05, "loss": 0.3611, "step": 137130 }, { "epoch": 182.85333333333332, "grad_norm": 0.8359375, "learning_rate": 9.796516960103504e-05, "loss": 0.3559, "step": 137140 }, { "epoch": 182.86666666666667, "grad_norm": 0.8125, "learning_rate": 9.796487378697395e-05, "loss": 0.3623, "step": 137150 }, { "epoch": 182.88, "grad_norm": 0.8671875, "learning_rate": 9.79645779518591e-05, "loss": 0.3442, "step": 137160 }, { "epoch": 182.89333333333335, "grad_norm": 0.8125, "learning_rate": 9.796428209569057e-05, "loss": 0.3566, "step": 137170 }, { "epoch": 182.90666666666667, "grad_norm": 0.828125, "learning_rate": 9.796398621846854e-05, "loss": 0.3597, "step": 137180 }, { "epoch": 182.92, "grad_norm": 0.94140625, "learning_rate": 9.796369032019311e-05, "loss": 0.3603, "step": 137190 }, { "epoch": 182.93333333333334, "grad_norm": 0.796875, "learning_rate": 9.796339440086442e-05, "loss": 0.3583, "step": 137200 }, { "epoch": 182.94666666666666, "grad_norm": 0.81640625, "learning_rate": 9.79630984604826e-05, "loss": 0.3569, "step": 137210 }, { "epoch": 182.96, "grad_norm": 0.765625, "learning_rate": 9.796280249904777e-05, "loss": 0.3564, "step": 137220 }, { "epoch": 182.97333333333333, "grad_norm": 1.1171875, "learning_rate": 9.796250651656008e-05, "loss": 0.3787, "step": 137230 }, { "epoch": 182.98666666666668, "grad_norm": 0.8515625, "learning_rate": 9.796221051301965e-05, "loss": 0.3482, "step": 137240 }, { "epoch": 183.0, "grad_norm": 0.875, "learning_rate": 9.79619144884266e-05, "loss": 0.3505, "step": 137250 }, { "epoch": 183.0, "eval_loss": 0.4159391224384308, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4002, "eval_samples_per_second": 1.538, "eval_steps_per_second": 0.096, "step": 137250 }, { "epoch": 183.01333333333332, "grad_norm": 0.93359375, "learning_rate": 9.796161844278107e-05, "loss": 0.3644, "step": 137260 }, { "epoch": 183.02666666666667, "grad_norm": 0.79296875, "learning_rate": 9.796132237608318e-05, "loss": 0.3801, "step": 137270 }, { "epoch": 183.04, "grad_norm": 0.79296875, "learning_rate": 9.796102628833308e-05, "loss": 0.3934, "step": 137280 }, { "epoch": 183.05333333333334, "grad_norm": 0.93359375, "learning_rate": 9.796073017953087e-05, "loss": 0.3769, "step": 137290 }, { "epoch": 183.06666666666666, "grad_norm": 0.98828125, "learning_rate": 9.79604340496767e-05, "loss": 0.3661, "step": 137300 }, { "epoch": 183.08, "grad_norm": 0.921875, "learning_rate": 9.79601378987707e-05, "loss": 0.3701, "step": 137310 }, { "epoch": 183.09333333333333, "grad_norm": 0.96484375, "learning_rate": 9.795984172681301e-05, "loss": 0.3714, "step": 137320 }, { "epoch": 183.10666666666665, "grad_norm": 0.79296875, "learning_rate": 9.795954553380373e-05, "loss": 0.3606, "step": 137330 }, { "epoch": 183.12, "grad_norm": 0.8984375, "learning_rate": 9.795924931974302e-05, "loss": 0.3616, "step": 137340 }, { "epoch": 183.13333333333333, "grad_norm": 0.84375, "learning_rate": 9.795895308463099e-05, "loss": 0.3536, "step": 137350 }, { "epoch": 183.14666666666668, "grad_norm": 0.87890625, "learning_rate": 9.795865682846778e-05, "loss": 0.3736, "step": 137360 }, { "epoch": 183.16, "grad_norm": 0.81640625, "learning_rate": 9.795836055125351e-05, "loss": 0.3698, "step": 137370 }, { "epoch": 183.17333333333335, "grad_norm": 0.93359375, "learning_rate": 9.795806425298832e-05, "loss": 0.3634, "step": 137380 }, { "epoch": 183.18666666666667, "grad_norm": 0.875, "learning_rate": 9.795776793367235e-05, "loss": 0.3605, "step": 137390 }, { "epoch": 183.2, "grad_norm": 0.80078125, "learning_rate": 9.795747159330572e-05, "loss": 0.3525, "step": 137400 }, { "epoch": 183.21333333333334, "grad_norm": 0.88671875, "learning_rate": 9.795717523188854e-05, "loss": 0.3526, "step": 137410 }, { "epoch": 183.22666666666666, "grad_norm": 0.90625, "learning_rate": 9.795687884942098e-05, "loss": 0.3638, "step": 137420 }, { "epoch": 183.24, "grad_norm": 0.8515625, "learning_rate": 9.795658244590312e-05, "loss": 0.35, "step": 137430 }, { "epoch": 183.25333333333333, "grad_norm": 0.76171875, "learning_rate": 9.795628602133512e-05, "loss": 0.3513, "step": 137440 }, { "epoch": 183.26666666666668, "grad_norm": 0.8828125, "learning_rate": 9.795598957571713e-05, "loss": 0.3543, "step": 137450 }, { "epoch": 183.28, "grad_norm": 0.91015625, "learning_rate": 9.795569310904925e-05, "loss": 0.3817, "step": 137460 }, { "epoch": 183.29333333333332, "grad_norm": 0.78125, "learning_rate": 9.795539662133162e-05, "loss": 0.3411, "step": 137470 }, { "epoch": 183.30666666666667, "grad_norm": 0.83984375, "learning_rate": 9.795510011256436e-05, "loss": 0.3647, "step": 137480 }, { "epoch": 183.32, "grad_norm": 0.7421875, "learning_rate": 9.79548035827476e-05, "loss": 0.3694, "step": 137490 }, { "epoch": 183.33333333333334, "grad_norm": 0.86328125, "learning_rate": 9.795450703188149e-05, "loss": 0.3669, "step": 137500 }, { "epoch": 183.34666666666666, "grad_norm": 0.859375, "learning_rate": 9.795421045996615e-05, "loss": 0.3581, "step": 137510 }, { "epoch": 183.36, "grad_norm": 0.84375, "learning_rate": 9.795391386700173e-05, "loss": 0.3595, "step": 137520 }, { "epoch": 183.37333333333333, "grad_norm": 0.7578125, "learning_rate": 9.795361725298831e-05, "loss": 0.3639, "step": 137530 }, { "epoch": 183.38666666666666, "grad_norm": 0.96875, "learning_rate": 9.795332061792606e-05, "loss": 0.3492, "step": 137540 }, { "epoch": 183.4, "grad_norm": 0.81640625, "learning_rate": 9.795302396181509e-05, "loss": 0.3607, "step": 137550 }, { "epoch": 183.41333333333333, "grad_norm": 0.77734375, "learning_rate": 9.795272728465554e-05, "loss": 0.3665, "step": 137560 }, { "epoch": 183.42666666666668, "grad_norm": 0.80859375, "learning_rate": 9.795243058644756e-05, "loss": 0.3674, "step": 137570 }, { "epoch": 183.44, "grad_norm": 0.8203125, "learning_rate": 9.795213386719124e-05, "loss": 0.3795, "step": 137580 }, { "epoch": 183.45333333333335, "grad_norm": 0.8359375, "learning_rate": 9.795183712688674e-05, "loss": 0.3675, "step": 137590 }, { "epoch": 183.46666666666667, "grad_norm": 0.83203125, "learning_rate": 9.795154036553418e-05, "loss": 0.375, "step": 137600 }, { "epoch": 183.48, "grad_norm": 0.8671875, "learning_rate": 9.79512435831337e-05, "loss": 0.3588, "step": 137610 }, { "epoch": 183.49333333333334, "grad_norm": 0.7578125, "learning_rate": 9.795094677968541e-05, "loss": 0.369, "step": 137620 }, { "epoch": 183.50666666666666, "grad_norm": 0.85546875, "learning_rate": 9.795064995518945e-05, "loss": 0.3694, "step": 137630 }, { "epoch": 183.52, "grad_norm": 0.8125, "learning_rate": 9.795035310964596e-05, "loss": 0.3605, "step": 137640 }, { "epoch": 183.53333333333333, "grad_norm": 0.82421875, "learning_rate": 9.795005624305505e-05, "loss": 0.3609, "step": 137650 }, { "epoch": 183.54666666666665, "grad_norm": 0.8828125, "learning_rate": 9.794975935541686e-05, "loss": 0.3613, "step": 137660 }, { "epoch": 183.56, "grad_norm": 0.75, "learning_rate": 9.794946244673155e-05, "loss": 0.3568, "step": 137670 }, { "epoch": 183.57333333333332, "grad_norm": 0.91796875, "learning_rate": 9.79491655169992e-05, "loss": 0.3621, "step": 137680 }, { "epoch": 183.58666666666667, "grad_norm": 0.77734375, "learning_rate": 9.794886856621997e-05, "loss": 0.353, "step": 137690 }, { "epoch": 183.6, "grad_norm": 0.76953125, "learning_rate": 9.794857159439399e-05, "loss": 0.3538, "step": 137700 }, { "epoch": 183.61333333333334, "grad_norm": 0.8125, "learning_rate": 9.794827460152138e-05, "loss": 0.347, "step": 137710 }, { "epoch": 183.62666666666667, "grad_norm": 0.71875, "learning_rate": 9.794797758760227e-05, "loss": 0.3508, "step": 137720 }, { "epoch": 183.64, "grad_norm": 0.91015625, "learning_rate": 9.794768055263679e-05, "loss": 0.3572, "step": 137730 }, { "epoch": 183.65333333333334, "grad_norm": 0.921875, "learning_rate": 9.794738349662508e-05, "loss": 0.368, "step": 137740 }, { "epoch": 183.66666666666666, "grad_norm": 0.7734375, "learning_rate": 9.794708641956726e-05, "loss": 0.3599, "step": 137750 }, { "epoch": 183.68, "grad_norm": 0.87890625, "learning_rate": 9.794678932146348e-05, "loss": 0.3474, "step": 137760 }, { "epoch": 183.69333333333333, "grad_norm": 0.7421875, "learning_rate": 9.794649220231386e-05, "loss": 0.3589, "step": 137770 }, { "epoch": 183.70666666666668, "grad_norm": 0.9296875, "learning_rate": 9.794619506211852e-05, "loss": 0.3483, "step": 137780 }, { "epoch": 183.72, "grad_norm": 0.93359375, "learning_rate": 9.794589790087759e-05, "loss": 0.3696, "step": 137790 }, { "epoch": 183.73333333333332, "grad_norm": 0.76171875, "learning_rate": 9.794560071859123e-05, "loss": 0.3661, "step": 137800 }, { "epoch": 183.74666666666667, "grad_norm": 0.91015625, "learning_rate": 9.794530351525953e-05, "loss": 0.3689, "step": 137810 }, { "epoch": 183.76, "grad_norm": 0.84375, "learning_rate": 9.794500629088264e-05, "loss": 0.3818, "step": 137820 }, { "epoch": 183.77333333333334, "grad_norm": 0.875, "learning_rate": 9.794470904546069e-05, "loss": 0.3656, "step": 137830 }, { "epoch": 183.78666666666666, "grad_norm": 0.75, "learning_rate": 9.79444117789938e-05, "loss": 0.3698, "step": 137840 }, { "epoch": 183.8, "grad_norm": 0.88671875, "learning_rate": 9.794411449148211e-05, "loss": 0.3666, "step": 137850 }, { "epoch": 183.81333333333333, "grad_norm": 0.95703125, "learning_rate": 9.794381718292577e-05, "loss": 0.3408, "step": 137860 }, { "epoch": 183.82666666666665, "grad_norm": 0.8671875, "learning_rate": 9.794351985332488e-05, "loss": 0.3481, "step": 137870 }, { "epoch": 183.84, "grad_norm": 0.953125, "learning_rate": 9.794322250267958e-05, "loss": 0.3617, "step": 137880 }, { "epoch": 183.85333333333332, "grad_norm": 0.84375, "learning_rate": 9.794292513099001e-05, "loss": 0.3573, "step": 137890 }, { "epoch": 183.86666666666667, "grad_norm": 0.8671875, "learning_rate": 9.794262773825629e-05, "loss": 0.3625, "step": 137900 }, { "epoch": 183.88, "grad_norm": 0.8359375, "learning_rate": 9.794233032447855e-05, "loss": 0.343, "step": 137910 }, { "epoch": 183.89333333333335, "grad_norm": 0.76171875, "learning_rate": 9.794203288965692e-05, "loss": 0.3559, "step": 137920 }, { "epoch": 183.90666666666667, "grad_norm": 0.8203125, "learning_rate": 9.794173543379153e-05, "loss": 0.3601, "step": 137930 }, { "epoch": 183.92, "grad_norm": 0.84765625, "learning_rate": 9.794143795688253e-05, "loss": 0.3609, "step": 137940 }, { "epoch": 183.93333333333334, "grad_norm": 0.78515625, "learning_rate": 9.794114045893004e-05, "loss": 0.3575, "step": 137950 }, { "epoch": 183.94666666666666, "grad_norm": 0.80859375, "learning_rate": 9.794084293993418e-05, "loss": 0.3569, "step": 137960 }, { "epoch": 183.96, "grad_norm": 0.765625, "learning_rate": 9.794054539989506e-05, "loss": 0.356, "step": 137970 }, { "epoch": 183.97333333333333, "grad_norm": 1.078125, "learning_rate": 9.794024783881285e-05, "loss": 0.3786, "step": 137980 }, { "epoch": 183.98666666666668, "grad_norm": 0.8359375, "learning_rate": 9.79399502566877e-05, "loss": 0.3485, "step": 137990 }, { "epoch": 184.0, "grad_norm": 0.81640625, "learning_rate": 9.793965265351967e-05, "loss": 0.3497, "step": 138000 }, { "epoch": 184.0, "eval_loss": 0.417455792427063, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9187, "eval_samples_per_second": 1.465, "eval_steps_per_second": 0.092, "step": 138000 }, { "epoch": 184.01333333333332, "grad_norm": 0.953125, "learning_rate": 9.793935502930896e-05, "loss": 0.3654, "step": 138010 }, { "epoch": 184.02666666666667, "grad_norm": 0.79296875, "learning_rate": 9.793905738405565e-05, "loss": 0.3808, "step": 138020 }, { "epoch": 184.04, "grad_norm": 0.77734375, "learning_rate": 9.79387597177599e-05, "loss": 0.3942, "step": 138030 }, { "epoch": 184.05333333333334, "grad_norm": 0.8671875, "learning_rate": 9.793846203042181e-05, "loss": 0.3773, "step": 138040 }, { "epoch": 184.06666666666666, "grad_norm": 0.90625, "learning_rate": 9.793816432204155e-05, "loss": 0.3657, "step": 138050 }, { "epoch": 184.08, "grad_norm": 0.89453125, "learning_rate": 9.793786659261923e-05, "loss": 0.3689, "step": 138060 }, { "epoch": 184.09333333333333, "grad_norm": 0.9140625, "learning_rate": 9.793756884215499e-05, "loss": 0.3718, "step": 138070 }, { "epoch": 184.10666666666665, "grad_norm": 0.7734375, "learning_rate": 9.793727107064895e-05, "loss": 0.3604, "step": 138080 }, { "epoch": 184.12, "grad_norm": 0.8671875, "learning_rate": 9.793697327810124e-05, "loss": 0.3609, "step": 138090 }, { "epoch": 184.13333333333333, "grad_norm": 0.828125, "learning_rate": 9.793667546451199e-05, "loss": 0.3544, "step": 138100 }, { "epoch": 184.14666666666668, "grad_norm": 0.8046875, "learning_rate": 9.793637762988135e-05, "loss": 0.3736, "step": 138110 }, { "epoch": 184.16, "grad_norm": 0.82421875, "learning_rate": 9.793607977420942e-05, "loss": 0.3691, "step": 138120 }, { "epoch": 184.17333333333335, "grad_norm": 0.88671875, "learning_rate": 9.793578189749636e-05, "loss": 0.3641, "step": 138130 }, { "epoch": 184.18666666666667, "grad_norm": 0.765625, "learning_rate": 9.793548399974228e-05, "loss": 0.3604, "step": 138140 }, { "epoch": 184.2, "grad_norm": 0.8359375, "learning_rate": 9.793518608094734e-05, "loss": 0.3524, "step": 138150 }, { "epoch": 184.21333333333334, "grad_norm": 0.828125, "learning_rate": 9.793488814111163e-05, "loss": 0.3532, "step": 138160 }, { "epoch": 184.22666666666666, "grad_norm": 0.828125, "learning_rate": 9.793459018023529e-05, "loss": 0.3647, "step": 138170 }, { "epoch": 184.24, "grad_norm": 0.86328125, "learning_rate": 9.79342921983185e-05, "loss": 0.3507, "step": 138180 }, { "epoch": 184.25333333333333, "grad_norm": 0.9453125, "learning_rate": 9.793399419536132e-05, "loss": 0.3508, "step": 138190 }, { "epoch": 184.26666666666668, "grad_norm": 1.015625, "learning_rate": 9.793369617136392e-05, "loss": 0.3549, "step": 138200 }, { "epoch": 184.28, "grad_norm": 0.86328125, "learning_rate": 9.793339812632642e-05, "loss": 0.3819, "step": 138210 }, { "epoch": 184.29333333333332, "grad_norm": 0.81640625, "learning_rate": 9.793310006024896e-05, "loss": 0.3414, "step": 138220 }, { "epoch": 184.30666666666667, "grad_norm": 0.8125, "learning_rate": 9.793280197313166e-05, "loss": 0.3642, "step": 138230 }, { "epoch": 184.32, "grad_norm": 0.79296875, "learning_rate": 9.793250386497466e-05, "loss": 0.3693, "step": 138240 }, { "epoch": 184.33333333333334, "grad_norm": 0.90625, "learning_rate": 9.793220573577809e-05, "loss": 0.3671, "step": 138250 }, { "epoch": 184.34666666666666, "grad_norm": 0.91015625, "learning_rate": 9.793190758554207e-05, "loss": 0.3577, "step": 138260 }, { "epoch": 184.36, "grad_norm": 0.8671875, "learning_rate": 9.793160941426674e-05, "loss": 0.3598, "step": 138270 }, { "epoch": 184.37333333333333, "grad_norm": 0.71484375, "learning_rate": 9.793131122195224e-05, "loss": 0.3626, "step": 138280 }, { "epoch": 184.38666666666666, "grad_norm": 0.98046875, "learning_rate": 9.793101300859868e-05, "loss": 0.3495, "step": 138290 }, { "epoch": 184.4, "grad_norm": 0.8515625, "learning_rate": 9.79307147742062e-05, "loss": 0.3599, "step": 138300 }, { "epoch": 184.41333333333333, "grad_norm": 0.77734375, "learning_rate": 9.793041651877495e-05, "loss": 0.3665, "step": 138310 }, { "epoch": 184.42666666666668, "grad_norm": 0.82421875, "learning_rate": 9.793011824230502e-05, "loss": 0.3675, "step": 138320 }, { "epoch": 184.44, "grad_norm": 0.87890625, "learning_rate": 9.792981994479658e-05, "loss": 0.3799, "step": 138330 }, { "epoch": 184.45333333333335, "grad_norm": 0.8515625, "learning_rate": 9.792952162624973e-05, "loss": 0.3679, "step": 138340 }, { "epoch": 184.46666666666667, "grad_norm": 0.77734375, "learning_rate": 9.792922328666463e-05, "loss": 0.3742, "step": 138350 }, { "epoch": 184.48, "grad_norm": 0.8203125, "learning_rate": 9.79289249260414e-05, "loss": 0.3584, "step": 138360 }, { "epoch": 184.49333333333334, "grad_norm": 0.80078125, "learning_rate": 9.792862654438015e-05, "loss": 0.3684, "step": 138370 }, { "epoch": 184.50666666666666, "grad_norm": 0.89453125, "learning_rate": 9.792832814168105e-05, "loss": 0.3692, "step": 138380 }, { "epoch": 184.52, "grad_norm": 0.7421875, "learning_rate": 9.79280297179442e-05, "loss": 0.3601, "step": 138390 }, { "epoch": 184.53333333333333, "grad_norm": 0.7578125, "learning_rate": 9.792773127316974e-05, "loss": 0.3607, "step": 138400 }, { "epoch": 184.54666666666665, "grad_norm": 0.9140625, "learning_rate": 9.792743280735778e-05, "loss": 0.3617, "step": 138410 }, { "epoch": 184.56, "grad_norm": 0.76953125, "learning_rate": 9.79271343205085e-05, "loss": 0.3562, "step": 138420 }, { "epoch": 184.57333333333332, "grad_norm": 1.2265625, "learning_rate": 9.7926835812622e-05, "loss": 0.3611, "step": 138430 }, { "epoch": 184.58666666666667, "grad_norm": 0.81640625, "learning_rate": 9.792653728369843e-05, "loss": 0.3526, "step": 138440 }, { "epoch": 184.6, "grad_norm": 0.859375, "learning_rate": 9.792623873373788e-05, "loss": 0.3533, "step": 138450 }, { "epoch": 184.61333333333334, "grad_norm": 0.79296875, "learning_rate": 9.792594016274053e-05, "loss": 0.3457, "step": 138460 }, { "epoch": 184.62666666666667, "grad_norm": 0.71875, "learning_rate": 9.792564157070647e-05, "loss": 0.3502, "step": 138470 }, { "epoch": 184.64, "grad_norm": 0.88671875, "learning_rate": 9.792534295763585e-05, "loss": 0.3573, "step": 138480 }, { "epoch": 184.65333333333334, "grad_norm": 0.87109375, "learning_rate": 9.79250443235288e-05, "loss": 0.3675, "step": 138490 }, { "epoch": 184.66666666666666, "grad_norm": 0.73828125, "learning_rate": 9.792474566838547e-05, "loss": 0.3597, "step": 138500 }, { "epoch": 184.68, "grad_norm": 0.8125, "learning_rate": 9.792444699220595e-05, "loss": 0.347, "step": 138510 }, { "epoch": 184.69333333333333, "grad_norm": 0.77734375, "learning_rate": 9.79241482949904e-05, "loss": 0.3584, "step": 138520 }, { "epoch": 184.70666666666668, "grad_norm": 0.87890625, "learning_rate": 9.792384957673895e-05, "loss": 0.3488, "step": 138530 }, { "epoch": 184.72, "grad_norm": 0.83203125, "learning_rate": 9.792355083745173e-05, "loss": 0.3701, "step": 138540 }, { "epoch": 184.73333333333332, "grad_norm": 0.82421875, "learning_rate": 9.792325207712884e-05, "loss": 0.3656, "step": 138550 }, { "epoch": 184.74666666666667, "grad_norm": 0.83984375, "learning_rate": 9.792295329577046e-05, "loss": 0.369, "step": 138560 }, { "epoch": 184.76, "grad_norm": 0.859375, "learning_rate": 9.79226544933767e-05, "loss": 0.3819, "step": 138570 }, { "epoch": 184.77333333333334, "grad_norm": 0.91796875, "learning_rate": 9.792235566994769e-05, "loss": 0.3661, "step": 138580 }, { "epoch": 184.78666666666666, "grad_norm": 0.80078125, "learning_rate": 9.792205682548357e-05, "loss": 0.3696, "step": 138590 }, { "epoch": 184.8, "grad_norm": 0.91015625, "learning_rate": 9.792175795998444e-05, "loss": 0.366, "step": 138600 }, { "epoch": 184.81333333333333, "grad_norm": 0.97265625, "learning_rate": 9.792145907345048e-05, "loss": 0.3408, "step": 138610 }, { "epoch": 184.82666666666665, "grad_norm": 0.828125, "learning_rate": 9.792116016588176e-05, "loss": 0.3476, "step": 138620 }, { "epoch": 184.84, "grad_norm": 0.94921875, "learning_rate": 9.792086123727847e-05, "loss": 0.3605, "step": 138630 }, { "epoch": 184.85333333333332, "grad_norm": 0.828125, "learning_rate": 9.792056228764072e-05, "loss": 0.3564, "step": 138640 }, { "epoch": 184.86666666666667, "grad_norm": 0.83984375, "learning_rate": 9.792026331696864e-05, "loss": 0.3632, "step": 138650 }, { "epoch": 184.88, "grad_norm": 0.75, "learning_rate": 9.791996432526234e-05, "loss": 0.3434, "step": 138660 }, { "epoch": 184.89333333333335, "grad_norm": 0.7890625, "learning_rate": 9.791966531252199e-05, "loss": 0.3558, "step": 138670 }, { "epoch": 184.90666666666667, "grad_norm": 0.8359375, "learning_rate": 9.79193662787477e-05, "loss": 0.3591, "step": 138680 }, { "epoch": 184.92, "grad_norm": 0.81640625, "learning_rate": 9.791906722393959e-05, "loss": 0.3607, "step": 138690 }, { "epoch": 184.93333333333334, "grad_norm": 0.75, "learning_rate": 9.791876814809782e-05, "loss": 0.3569, "step": 138700 }, { "epoch": 184.94666666666666, "grad_norm": 0.7890625, "learning_rate": 9.79184690512225e-05, "loss": 0.3579, "step": 138710 }, { "epoch": 184.96, "grad_norm": 0.765625, "learning_rate": 9.791816993331377e-05, "loss": 0.3557, "step": 138720 }, { "epoch": 184.97333333333333, "grad_norm": 1.171875, "learning_rate": 9.791787079437174e-05, "loss": 0.3796, "step": 138730 }, { "epoch": 184.98666666666668, "grad_norm": 0.8203125, "learning_rate": 9.791757163439659e-05, "loss": 0.3483, "step": 138740 }, { "epoch": 185.0, "grad_norm": 0.8828125, "learning_rate": 9.79172724533884e-05, "loss": 0.3499, "step": 138750 }, { "epoch": 185.0, "eval_loss": 0.41546890139579773, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8378, "eval_samples_per_second": 1.476, "eval_steps_per_second": 0.092, "step": 138750 }, { "epoch": 185.01333333333332, "grad_norm": 0.9296875, "learning_rate": 9.791697325134733e-05, "loss": 0.365, "step": 138760 }, { "epoch": 185.02666666666667, "grad_norm": 0.8046875, "learning_rate": 9.791667402827352e-05, "loss": 0.3804, "step": 138770 }, { "epoch": 185.04, "grad_norm": 0.83203125, "learning_rate": 9.791637478416707e-05, "loss": 0.3936, "step": 138780 }, { "epoch": 185.05333333333334, "grad_norm": 0.88671875, "learning_rate": 9.791607551902811e-05, "loss": 0.3773, "step": 138790 }, { "epoch": 185.06666666666666, "grad_norm": 0.9453125, "learning_rate": 9.791577623285681e-05, "loss": 0.3657, "step": 138800 }, { "epoch": 185.08, "grad_norm": 0.83203125, "learning_rate": 9.791547692565328e-05, "loss": 0.3692, "step": 138810 }, { "epoch": 185.09333333333333, "grad_norm": 0.890625, "learning_rate": 9.791517759741763e-05, "loss": 0.3718, "step": 138820 }, { "epoch": 185.10666666666665, "grad_norm": 0.76171875, "learning_rate": 9.791487824815004e-05, "loss": 0.3611, "step": 138830 }, { "epoch": 185.12, "grad_norm": 0.92578125, "learning_rate": 9.79145788778506e-05, "loss": 0.3609, "step": 138840 }, { "epoch": 185.13333333333333, "grad_norm": 0.85546875, "learning_rate": 9.791427948651946e-05, "loss": 0.3532, "step": 138850 }, { "epoch": 185.14666666666668, "grad_norm": 0.83984375, "learning_rate": 9.791398007415673e-05, "loss": 0.3733, "step": 138860 }, { "epoch": 185.16, "grad_norm": 0.79296875, "learning_rate": 9.791368064076258e-05, "loss": 0.3685, "step": 138870 }, { "epoch": 185.17333333333335, "grad_norm": 0.890625, "learning_rate": 9.79133811863371e-05, "loss": 0.3635, "step": 138880 }, { "epoch": 185.18666666666667, "grad_norm": 0.78515625, "learning_rate": 9.791308171088046e-05, "loss": 0.3605, "step": 138890 }, { "epoch": 185.2, "grad_norm": 0.81640625, "learning_rate": 9.791278221439277e-05, "loss": 0.352, "step": 138900 }, { "epoch": 185.21333333333334, "grad_norm": 0.92578125, "learning_rate": 9.791248269687414e-05, "loss": 0.3531, "step": 138910 }, { "epoch": 185.22666666666666, "grad_norm": 0.83984375, "learning_rate": 9.791218315832475e-05, "loss": 0.3638, "step": 138920 }, { "epoch": 185.24, "grad_norm": 0.9453125, "learning_rate": 9.79118835987447e-05, "loss": 0.35, "step": 138930 }, { "epoch": 185.25333333333333, "grad_norm": 0.81640625, "learning_rate": 9.791158401813412e-05, "loss": 0.351, "step": 138940 }, { "epoch": 185.26666666666668, "grad_norm": 0.75390625, "learning_rate": 9.791128441649317e-05, "loss": 0.3549, "step": 138950 }, { "epoch": 185.28, "grad_norm": 0.8828125, "learning_rate": 9.791098479382195e-05, "loss": 0.3824, "step": 138960 }, { "epoch": 185.29333333333332, "grad_norm": 0.84765625, "learning_rate": 9.791068515012059e-05, "loss": 0.3419, "step": 138970 }, { "epoch": 185.30666666666667, "grad_norm": 0.87109375, "learning_rate": 9.791038548538924e-05, "loss": 0.3649, "step": 138980 }, { "epoch": 185.32, "grad_norm": 0.734375, "learning_rate": 9.791008579962804e-05, "loss": 0.369, "step": 138990 }, { "epoch": 185.33333333333334, "grad_norm": 0.93359375, "learning_rate": 9.790978609283709e-05, "loss": 0.3674, "step": 139000 }, { "epoch": 185.34666666666666, "grad_norm": 0.9609375, "learning_rate": 9.790948636501654e-05, "loss": 0.3582, "step": 139010 }, { "epoch": 185.36, "grad_norm": 0.890625, "learning_rate": 9.790918661616653e-05, "loss": 0.3591, "step": 139020 }, { "epoch": 185.37333333333333, "grad_norm": 0.80859375, "learning_rate": 9.790888684628719e-05, "loss": 0.3629, "step": 139030 }, { "epoch": 185.38666666666666, "grad_norm": 0.9765625, "learning_rate": 9.790858705537862e-05, "loss": 0.3497, "step": 139040 }, { "epoch": 185.4, "grad_norm": 0.83984375, "learning_rate": 9.790828724344099e-05, "loss": 0.3598, "step": 139050 }, { "epoch": 185.41333333333333, "grad_norm": 0.76953125, "learning_rate": 9.790798741047441e-05, "loss": 0.3657, "step": 139060 }, { "epoch": 185.42666666666668, "grad_norm": 0.796875, "learning_rate": 9.790768755647902e-05, "loss": 0.3674, "step": 139070 }, { "epoch": 185.44, "grad_norm": 0.94921875, "learning_rate": 9.790738768145496e-05, "loss": 0.3801, "step": 139080 }, { "epoch": 185.45333333333335, "grad_norm": 0.9296875, "learning_rate": 9.790708778540234e-05, "loss": 0.3674, "step": 139090 }, { "epoch": 185.46666666666667, "grad_norm": 0.83203125, "learning_rate": 9.79067878683213e-05, "loss": 0.3734, "step": 139100 }, { "epoch": 185.48, "grad_norm": 0.90625, "learning_rate": 9.790648793021199e-05, "loss": 0.3586, "step": 139110 }, { "epoch": 185.49333333333334, "grad_norm": 0.8203125, "learning_rate": 9.790618797107452e-05, "loss": 0.3689, "step": 139120 }, { "epoch": 185.50666666666666, "grad_norm": 0.90625, "learning_rate": 9.790588799090903e-05, "loss": 0.3692, "step": 139130 }, { "epoch": 185.52, "grad_norm": 0.73828125, "learning_rate": 9.790558798971562e-05, "loss": 0.3604, "step": 139140 }, { "epoch": 185.53333333333333, "grad_norm": 0.83984375, "learning_rate": 9.79052879674945e-05, "loss": 0.3613, "step": 139150 }, { "epoch": 185.54666666666665, "grad_norm": 0.93359375, "learning_rate": 9.790498792424572e-05, "loss": 0.362, "step": 139160 }, { "epoch": 185.56, "grad_norm": 0.83984375, "learning_rate": 9.790468785996945e-05, "loss": 0.3566, "step": 139170 }, { "epoch": 185.57333333333332, "grad_norm": 0.83203125, "learning_rate": 9.790438777466583e-05, "loss": 0.3615, "step": 139180 }, { "epoch": 185.58666666666667, "grad_norm": 0.80078125, "learning_rate": 9.790408766833497e-05, "loss": 0.3522, "step": 139190 }, { "epoch": 185.6, "grad_norm": 0.85546875, "learning_rate": 9.790378754097701e-05, "loss": 0.3528, "step": 139200 }, { "epoch": 185.61333333333334, "grad_norm": 0.80859375, "learning_rate": 9.790348739259208e-05, "loss": 0.3467, "step": 139210 }, { "epoch": 185.62666666666667, "grad_norm": 0.71875, "learning_rate": 9.790318722318032e-05, "loss": 0.3506, "step": 139220 }, { "epoch": 185.64, "grad_norm": 0.94140625, "learning_rate": 9.790288703274185e-05, "loss": 0.3566, "step": 139230 }, { "epoch": 185.65333333333334, "grad_norm": 0.8671875, "learning_rate": 9.79025868212768e-05, "loss": 0.3677, "step": 139240 }, { "epoch": 185.66666666666666, "grad_norm": 0.84765625, "learning_rate": 9.790228658878534e-05, "loss": 0.3596, "step": 139250 }, { "epoch": 185.68, "grad_norm": 0.91796875, "learning_rate": 9.790198633526753e-05, "loss": 0.3472, "step": 139260 }, { "epoch": 185.69333333333333, "grad_norm": 0.74609375, "learning_rate": 9.790168606072357e-05, "loss": 0.3595, "step": 139270 }, { "epoch": 185.70666666666668, "grad_norm": 0.96875, "learning_rate": 9.790138576515356e-05, "loss": 0.3478, "step": 139280 }, { "epoch": 185.72, "grad_norm": 0.90625, "learning_rate": 9.790108544855762e-05, "loss": 0.3705, "step": 139290 }, { "epoch": 185.73333333333332, "grad_norm": 0.85546875, "learning_rate": 9.79007851109359e-05, "loss": 0.3657, "step": 139300 }, { "epoch": 185.74666666666667, "grad_norm": 0.86328125, "learning_rate": 9.790048475228854e-05, "loss": 0.3685, "step": 139310 }, { "epoch": 185.76, "grad_norm": 0.9296875, "learning_rate": 9.790018437261567e-05, "loss": 0.3824, "step": 139320 }, { "epoch": 185.77333333333334, "grad_norm": 0.875, "learning_rate": 9.78998839719174e-05, "loss": 0.3664, "step": 139330 }, { "epoch": 185.78666666666666, "grad_norm": 0.76171875, "learning_rate": 9.789958355019388e-05, "loss": 0.3691, "step": 139340 }, { "epoch": 185.8, "grad_norm": 0.90625, "learning_rate": 9.789928310744522e-05, "loss": 0.3675, "step": 139350 }, { "epoch": 185.81333333333333, "grad_norm": 1.0234375, "learning_rate": 9.78989826436716e-05, "loss": 0.3415, "step": 139360 }, { "epoch": 185.82666666666665, "grad_norm": 0.80078125, "learning_rate": 9.789868215887311e-05, "loss": 0.3481, "step": 139370 }, { "epoch": 185.84, "grad_norm": 0.8828125, "learning_rate": 9.789838165304988e-05, "loss": 0.3607, "step": 139380 }, { "epoch": 185.85333333333332, "grad_norm": 0.85546875, "learning_rate": 9.789808112620207e-05, "loss": 0.3561, "step": 139390 }, { "epoch": 185.86666666666667, "grad_norm": 0.8828125, "learning_rate": 9.789778057832978e-05, "loss": 0.3623, "step": 139400 }, { "epoch": 185.88, "grad_norm": 0.80078125, "learning_rate": 9.789748000943318e-05, "loss": 0.3427, "step": 139410 }, { "epoch": 185.89333333333335, "grad_norm": 0.796875, "learning_rate": 9.789717941951236e-05, "loss": 0.3563, "step": 139420 }, { "epoch": 185.90666666666667, "grad_norm": 0.828125, "learning_rate": 9.789687880856749e-05, "loss": 0.3595, "step": 139430 }, { "epoch": 185.92, "grad_norm": 0.8515625, "learning_rate": 9.789657817659867e-05, "loss": 0.3604, "step": 139440 }, { "epoch": 185.93333333333334, "grad_norm": 0.78515625, "learning_rate": 9.789627752360604e-05, "loss": 0.3576, "step": 139450 }, { "epoch": 185.94666666666666, "grad_norm": 0.82421875, "learning_rate": 9.789597684958975e-05, "loss": 0.3576, "step": 139460 }, { "epoch": 185.96, "grad_norm": 0.828125, "learning_rate": 9.789567615454992e-05, "loss": 0.3551, "step": 139470 }, { "epoch": 185.97333333333333, "grad_norm": 1.078125, "learning_rate": 9.789537543848668e-05, "loss": 0.379, "step": 139480 }, { "epoch": 185.98666666666668, "grad_norm": 0.859375, "learning_rate": 9.789507470140017e-05, "loss": 0.3486, "step": 139490 }, { "epoch": 186.0, "grad_norm": 0.953125, "learning_rate": 9.789477394329051e-05, "loss": 0.3495, "step": 139500 }, { "epoch": 186.0, "eval_loss": 0.41658204793930054, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9866, "eval_samples_per_second": 1.456, "eval_steps_per_second": 0.091, "step": 139500 }, { "epoch": 186.01333333333332, "grad_norm": 0.89453125, "learning_rate": 9.789447316415785e-05, "loss": 0.3651, "step": 139510 }, { "epoch": 186.02666666666667, "grad_norm": 0.84375, "learning_rate": 9.789417236400228e-05, "loss": 0.3803, "step": 139520 }, { "epoch": 186.04, "grad_norm": 0.82421875, "learning_rate": 9.789387154282399e-05, "loss": 0.3937, "step": 139530 }, { "epoch": 186.05333333333334, "grad_norm": 0.8671875, "learning_rate": 9.789357070062308e-05, "loss": 0.3783, "step": 139540 }, { "epoch": 186.06666666666666, "grad_norm": 0.98046875, "learning_rate": 9.789326983739968e-05, "loss": 0.3659, "step": 139550 }, { "epoch": 186.08, "grad_norm": 0.88671875, "learning_rate": 9.789296895315394e-05, "loss": 0.3686, "step": 139560 }, { "epoch": 186.09333333333333, "grad_norm": 0.84375, "learning_rate": 9.789266804788598e-05, "loss": 0.3719, "step": 139570 }, { "epoch": 186.10666666666665, "grad_norm": 0.8125, "learning_rate": 9.789236712159592e-05, "loss": 0.3611, "step": 139580 }, { "epoch": 186.12, "grad_norm": 0.8671875, "learning_rate": 9.78920661742839e-05, "loss": 0.3616, "step": 139590 }, { "epoch": 186.13333333333333, "grad_norm": 0.7890625, "learning_rate": 9.789176520595007e-05, "loss": 0.3546, "step": 139600 }, { "epoch": 186.14666666666668, "grad_norm": 0.7734375, "learning_rate": 9.789146421659456e-05, "loss": 0.3727, "step": 139610 }, { "epoch": 186.16, "grad_norm": 0.74609375, "learning_rate": 9.789116320621748e-05, "loss": 0.3687, "step": 139620 }, { "epoch": 186.17333333333335, "grad_norm": 0.8671875, "learning_rate": 9.789086217481895e-05, "loss": 0.3626, "step": 139630 }, { "epoch": 186.18666666666667, "grad_norm": 0.765625, "learning_rate": 9.789056112239916e-05, "loss": 0.3597, "step": 139640 }, { "epoch": 186.2, "grad_norm": 0.7890625, "learning_rate": 9.789026004895818e-05, "loss": 0.3517, "step": 139650 }, { "epoch": 186.21333333333334, "grad_norm": 0.90625, "learning_rate": 9.78899589544962e-05, "loss": 0.353, "step": 139660 }, { "epoch": 186.22666666666666, "grad_norm": 0.8984375, "learning_rate": 9.78896578390133e-05, "loss": 0.3638, "step": 139670 }, { "epoch": 186.24, "grad_norm": 0.921875, "learning_rate": 9.788935670250962e-05, "loss": 0.3508, "step": 139680 }, { "epoch": 186.25333333333333, "grad_norm": 0.82421875, "learning_rate": 9.788905554498533e-05, "loss": 0.3509, "step": 139690 }, { "epoch": 186.26666666666668, "grad_norm": 0.8671875, "learning_rate": 9.788875436644054e-05, "loss": 0.3545, "step": 139700 }, { "epoch": 186.28, "grad_norm": 0.859375, "learning_rate": 9.788845316687537e-05, "loss": 0.3815, "step": 139710 }, { "epoch": 186.29333333333332, "grad_norm": 0.890625, "learning_rate": 9.788815194628998e-05, "loss": 0.3412, "step": 139720 }, { "epoch": 186.30666666666667, "grad_norm": 0.84375, "learning_rate": 9.788785070468446e-05, "loss": 0.3647, "step": 139730 }, { "epoch": 186.32, "grad_norm": 0.7890625, "learning_rate": 9.788754944205898e-05, "loss": 0.3691, "step": 139740 }, { "epoch": 186.33333333333334, "grad_norm": 0.91796875, "learning_rate": 9.788724815841365e-05, "loss": 0.3665, "step": 139750 }, { "epoch": 186.34666666666666, "grad_norm": 0.84375, "learning_rate": 9.788694685374862e-05, "loss": 0.3579, "step": 139760 }, { "epoch": 186.36, "grad_norm": 0.88671875, "learning_rate": 9.788664552806402e-05, "loss": 0.3596, "step": 139770 }, { "epoch": 186.37333333333333, "grad_norm": 0.75, "learning_rate": 9.788634418135997e-05, "loss": 0.3628, "step": 139780 }, { "epoch": 186.38666666666666, "grad_norm": 0.9609375, "learning_rate": 9.78860428136366e-05, "loss": 0.3491, "step": 139790 }, { "epoch": 186.4, "grad_norm": 0.84375, "learning_rate": 9.788574142489406e-05, "loss": 0.3604, "step": 139800 }, { "epoch": 186.41333333333333, "grad_norm": 0.84765625, "learning_rate": 9.788544001513247e-05, "loss": 0.3664, "step": 139810 }, { "epoch": 186.42666666666668, "grad_norm": 0.8046875, "learning_rate": 9.788513858435198e-05, "loss": 0.3678, "step": 139820 }, { "epoch": 186.44, "grad_norm": 0.80859375, "learning_rate": 9.788483713255268e-05, "loss": 0.3796, "step": 139830 }, { "epoch": 186.45333333333335, "grad_norm": 0.8359375, "learning_rate": 9.788453565973475e-05, "loss": 0.367, "step": 139840 }, { "epoch": 186.46666666666667, "grad_norm": 0.828125, "learning_rate": 9.788423416589829e-05, "loss": 0.3738, "step": 139850 }, { "epoch": 186.48, "grad_norm": 0.82421875, "learning_rate": 9.788393265104346e-05, "loss": 0.3581, "step": 139860 }, { "epoch": 186.49333333333334, "grad_norm": 0.8046875, "learning_rate": 9.788363111517036e-05, "loss": 0.3692, "step": 139870 }, { "epoch": 186.50666666666666, "grad_norm": 0.82421875, "learning_rate": 9.788332955827914e-05, "loss": 0.3695, "step": 139880 }, { "epoch": 186.52, "grad_norm": 0.8046875, "learning_rate": 9.788302798036994e-05, "loss": 0.3601, "step": 139890 }, { "epoch": 186.53333333333333, "grad_norm": 1.0703125, "learning_rate": 9.788272638144289e-05, "loss": 0.3606, "step": 139900 }, { "epoch": 186.54666666666665, "grad_norm": 0.9921875, "learning_rate": 9.788242476149812e-05, "loss": 0.3622, "step": 139910 }, { "epoch": 186.56, "grad_norm": 0.85546875, "learning_rate": 9.788212312053573e-05, "loss": 0.3564, "step": 139920 }, { "epoch": 186.57333333333332, "grad_norm": 0.875, "learning_rate": 9.788182145855592e-05, "loss": 0.3612, "step": 139930 }, { "epoch": 186.58666666666667, "grad_norm": 0.734375, "learning_rate": 9.788151977555876e-05, "loss": 0.3523, "step": 139940 }, { "epoch": 186.6, "grad_norm": 0.796875, "learning_rate": 9.78812180715444e-05, "loss": 0.3534, "step": 139950 }, { "epoch": 186.61333333333334, "grad_norm": 0.73046875, "learning_rate": 9.788091634651298e-05, "loss": 0.3461, "step": 139960 }, { "epoch": 186.62666666666667, "grad_norm": 0.7265625, "learning_rate": 9.788061460046464e-05, "loss": 0.3504, "step": 139970 }, { "epoch": 186.64, "grad_norm": 0.93359375, "learning_rate": 9.788031283339952e-05, "loss": 0.3568, "step": 139980 }, { "epoch": 186.65333333333334, "grad_norm": 0.8203125, "learning_rate": 9.78800110453177e-05, "loss": 0.3672, "step": 139990 }, { "epoch": 186.66666666666666, "grad_norm": 0.7265625, "learning_rate": 9.787970923621936e-05, "loss": 0.3582, "step": 140000 }, { "epoch": 186.68, "grad_norm": 0.7890625, "learning_rate": 9.787940740610464e-05, "loss": 0.3478, "step": 140010 }, { "epoch": 186.69333333333333, "grad_norm": 0.73046875, "learning_rate": 9.787910555497363e-05, "loss": 0.3597, "step": 140020 }, { "epoch": 186.70666666666668, "grad_norm": 0.96484375, "learning_rate": 9.787880368282651e-05, "loss": 0.3469, "step": 140030 }, { "epoch": 186.72, "grad_norm": 0.859375, "learning_rate": 9.787850178966337e-05, "loss": 0.3693, "step": 140040 }, { "epoch": 186.73333333333332, "grad_norm": 0.81640625, "learning_rate": 9.787819987548437e-05, "loss": 0.3651, "step": 140050 }, { "epoch": 186.74666666666667, "grad_norm": 0.8671875, "learning_rate": 9.787789794028963e-05, "loss": 0.3679, "step": 140060 }, { "epoch": 186.76, "grad_norm": 0.88671875, "learning_rate": 9.787759598407928e-05, "loss": 0.3824, "step": 140070 }, { "epoch": 186.77333333333334, "grad_norm": 0.89453125, "learning_rate": 9.787729400685346e-05, "loss": 0.3651, "step": 140080 }, { "epoch": 186.78666666666666, "grad_norm": 0.80078125, "learning_rate": 9.78769920086123e-05, "loss": 0.3703, "step": 140090 }, { "epoch": 186.8, "grad_norm": 0.89453125, "learning_rate": 9.787668998935593e-05, "loss": 0.3663, "step": 140100 }, { "epoch": 186.81333333333333, "grad_norm": 0.9375, "learning_rate": 9.787638794908449e-05, "loss": 0.3405, "step": 140110 }, { "epoch": 186.82666666666665, "grad_norm": 0.8203125, "learning_rate": 9.787608588779812e-05, "loss": 0.3472, "step": 140120 }, { "epoch": 186.84, "grad_norm": 0.85546875, "learning_rate": 9.787578380549694e-05, "loss": 0.361, "step": 140130 }, { "epoch": 186.85333333333332, "grad_norm": 0.81640625, "learning_rate": 9.787548170218107e-05, "loss": 0.3559, "step": 140140 }, { "epoch": 186.86666666666667, "grad_norm": 0.8984375, "learning_rate": 9.787517957785066e-05, "loss": 0.3633, "step": 140150 }, { "epoch": 186.88, "grad_norm": 0.8046875, "learning_rate": 9.787487743250585e-05, "loss": 0.3434, "step": 140160 }, { "epoch": 186.89333333333335, "grad_norm": 0.80078125, "learning_rate": 9.787457526614674e-05, "loss": 0.3564, "step": 140170 }, { "epoch": 186.90666666666667, "grad_norm": 0.796875, "learning_rate": 9.787427307877351e-05, "loss": 0.36, "step": 140180 }, { "epoch": 186.92, "grad_norm": 0.953125, "learning_rate": 9.787397087038626e-05, "loss": 0.3607, "step": 140190 }, { "epoch": 186.93333333333334, "grad_norm": 0.75, "learning_rate": 9.787366864098511e-05, "loss": 0.3574, "step": 140200 }, { "epoch": 186.94666666666666, "grad_norm": 0.87109375, "learning_rate": 9.787336639057023e-05, "loss": 0.3575, "step": 140210 }, { "epoch": 186.96, "grad_norm": 0.78125, "learning_rate": 9.787306411914173e-05, "loss": 0.3552, "step": 140220 }, { "epoch": 186.97333333333333, "grad_norm": 1.1953125, "learning_rate": 9.787276182669976e-05, "loss": 0.3783, "step": 140230 }, { "epoch": 186.98666666666668, "grad_norm": 0.83203125, "learning_rate": 9.787245951324442e-05, "loss": 0.3472, "step": 140240 }, { "epoch": 187.0, "grad_norm": 0.84765625, "learning_rate": 9.787215717877587e-05, "loss": 0.3501, "step": 140250 }, { "epoch": 187.0, "eval_loss": 0.4173215329647064, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.035, "eval_samples_per_second": 1.45, "eval_steps_per_second": 0.091, "step": 140250 }, { "epoch": 187.01333333333332, "grad_norm": 0.94140625, "learning_rate": 9.787185482329423e-05, "loss": 0.3648, "step": 140260 }, { "epoch": 187.02666666666667, "grad_norm": 0.81640625, "learning_rate": 9.787155244679966e-05, "loss": 0.3807, "step": 140270 }, { "epoch": 187.04, "grad_norm": 0.91796875, "learning_rate": 9.787125004929225e-05, "loss": 0.3937, "step": 140280 }, { "epoch": 187.05333333333334, "grad_norm": 0.90625, "learning_rate": 9.787094763077216e-05, "loss": 0.3777, "step": 140290 }, { "epoch": 187.06666666666666, "grad_norm": 0.890625, "learning_rate": 9.787064519123952e-05, "loss": 0.3658, "step": 140300 }, { "epoch": 187.08, "grad_norm": 0.83203125, "learning_rate": 9.787034273069446e-05, "loss": 0.3683, "step": 140310 }, { "epoch": 187.09333333333333, "grad_norm": 0.91015625, "learning_rate": 9.787004024913711e-05, "loss": 0.3716, "step": 140320 }, { "epoch": 187.10666666666665, "grad_norm": 0.75, "learning_rate": 9.78697377465676e-05, "loss": 0.3608, "step": 140330 }, { "epoch": 187.12, "grad_norm": 0.91015625, "learning_rate": 9.786943522298609e-05, "loss": 0.3615, "step": 140340 }, { "epoch": 187.13333333333333, "grad_norm": 0.8046875, "learning_rate": 9.786913267839267e-05, "loss": 0.3532, "step": 140350 }, { "epoch": 187.14666666666668, "grad_norm": 0.93359375, "learning_rate": 9.786883011278749e-05, "loss": 0.3736, "step": 140360 }, { "epoch": 187.16, "grad_norm": 0.7890625, "learning_rate": 9.786852752617069e-05, "loss": 0.3689, "step": 140370 }, { "epoch": 187.17333333333335, "grad_norm": 0.87109375, "learning_rate": 9.78682249185424e-05, "loss": 0.3633, "step": 140380 }, { "epoch": 187.18666666666667, "grad_norm": 0.80859375, "learning_rate": 9.786792228990276e-05, "loss": 0.3601, "step": 140390 }, { "epoch": 187.2, "grad_norm": 0.828125, "learning_rate": 9.786761964025189e-05, "loss": 0.3518, "step": 140400 }, { "epoch": 187.21333333333334, "grad_norm": 0.83203125, "learning_rate": 9.786731696958992e-05, "loss": 0.3529, "step": 140410 }, { "epoch": 187.22666666666666, "grad_norm": 0.8515625, "learning_rate": 9.786701427791699e-05, "loss": 0.364, "step": 140420 }, { "epoch": 187.24, "grad_norm": 0.828125, "learning_rate": 9.786671156523324e-05, "loss": 0.3496, "step": 140430 }, { "epoch": 187.25333333333333, "grad_norm": 0.85546875, "learning_rate": 9.786640883153879e-05, "loss": 0.3506, "step": 140440 }, { "epoch": 187.26666666666668, "grad_norm": 0.85546875, "learning_rate": 9.786610607683379e-05, "loss": 0.3541, "step": 140450 }, { "epoch": 187.28, "grad_norm": 0.84765625, "learning_rate": 9.786580330111834e-05, "loss": 0.3817, "step": 140460 }, { "epoch": 187.29333333333332, "grad_norm": 0.82421875, "learning_rate": 9.786550050439261e-05, "loss": 0.3406, "step": 140470 }, { "epoch": 187.30666666666667, "grad_norm": 0.78125, "learning_rate": 9.786519768665672e-05, "loss": 0.3644, "step": 140480 }, { "epoch": 187.32, "grad_norm": 0.7578125, "learning_rate": 9.78648948479108e-05, "loss": 0.3687, "step": 140490 }, { "epoch": 187.33333333333334, "grad_norm": 0.875, "learning_rate": 9.786459198815499e-05, "loss": 0.3672, "step": 140500 }, { "epoch": 187.34666666666666, "grad_norm": 0.84375, "learning_rate": 9.78642891073894e-05, "loss": 0.3581, "step": 140510 }, { "epoch": 187.36, "grad_norm": 0.8828125, "learning_rate": 9.786398620561418e-05, "loss": 0.3588, "step": 140520 }, { "epoch": 187.37333333333333, "grad_norm": 0.75, "learning_rate": 9.786368328282948e-05, "loss": 0.3627, "step": 140530 }, { "epoch": 187.38666666666666, "grad_norm": 0.94140625, "learning_rate": 9.78633803390354e-05, "loss": 0.3489, "step": 140540 }, { "epoch": 187.4, "grad_norm": 0.80078125, "learning_rate": 9.78630773742321e-05, "loss": 0.359, "step": 140550 }, { "epoch": 187.41333333333333, "grad_norm": 0.85546875, "learning_rate": 9.786277438841969e-05, "loss": 0.366, "step": 140560 }, { "epoch": 187.42666666666668, "grad_norm": 0.8515625, "learning_rate": 9.786247138159833e-05, "loss": 0.3674, "step": 140570 }, { "epoch": 187.44, "grad_norm": 0.8359375, "learning_rate": 9.78621683537681e-05, "loss": 0.3803, "step": 140580 }, { "epoch": 187.45333333333335, "grad_norm": 0.8671875, "learning_rate": 9.78618653049292e-05, "loss": 0.3671, "step": 140590 }, { "epoch": 187.46666666666667, "grad_norm": 0.859375, "learning_rate": 9.786156223508174e-05, "loss": 0.3738, "step": 140600 }, { "epoch": 187.48, "grad_norm": 0.80078125, "learning_rate": 9.786125914422583e-05, "loss": 0.3585, "step": 140610 }, { "epoch": 187.49333333333334, "grad_norm": 0.84375, "learning_rate": 9.786095603236162e-05, "loss": 0.3687, "step": 140620 }, { "epoch": 187.50666666666666, "grad_norm": 0.8125, "learning_rate": 9.786065289948925e-05, "loss": 0.3684, "step": 140630 }, { "epoch": 187.52, "grad_norm": 0.734375, "learning_rate": 9.786034974560883e-05, "loss": 0.3597, "step": 140640 }, { "epoch": 187.53333333333333, "grad_norm": 0.82421875, "learning_rate": 9.786004657072052e-05, "loss": 0.3603, "step": 140650 }, { "epoch": 187.54666666666665, "grad_norm": 0.953125, "learning_rate": 9.785974337482444e-05, "loss": 0.3613, "step": 140660 }, { "epoch": 187.56, "grad_norm": 0.7421875, "learning_rate": 9.785944015792073e-05, "loss": 0.3559, "step": 140670 }, { "epoch": 187.57333333333332, "grad_norm": 0.82421875, "learning_rate": 9.785913692000952e-05, "loss": 0.3614, "step": 140680 }, { "epoch": 187.58666666666667, "grad_norm": 0.765625, "learning_rate": 9.785883366109095e-05, "loss": 0.3522, "step": 140690 }, { "epoch": 187.6, "grad_norm": 0.82421875, "learning_rate": 9.785853038116512e-05, "loss": 0.3543, "step": 140700 }, { "epoch": 187.61333333333334, "grad_norm": 0.87890625, "learning_rate": 9.785822708023219e-05, "loss": 0.3459, "step": 140710 }, { "epoch": 187.62666666666667, "grad_norm": 0.859375, "learning_rate": 9.785792375829231e-05, "loss": 0.35, "step": 140720 }, { "epoch": 187.64, "grad_norm": 0.98046875, "learning_rate": 9.785762041534556e-05, "loss": 0.3574, "step": 140730 }, { "epoch": 187.65333333333334, "grad_norm": 0.859375, "learning_rate": 9.785731705139213e-05, "loss": 0.3667, "step": 140740 }, { "epoch": 187.66666666666666, "grad_norm": 0.734375, "learning_rate": 9.785701366643212e-05, "loss": 0.3591, "step": 140750 }, { "epoch": 187.68, "grad_norm": 0.87109375, "learning_rate": 9.785671026046568e-05, "loss": 0.3476, "step": 140760 }, { "epoch": 187.69333333333333, "grad_norm": 0.7421875, "learning_rate": 9.785640683349293e-05, "loss": 0.3589, "step": 140770 }, { "epoch": 187.70666666666668, "grad_norm": 0.92578125, "learning_rate": 9.785610338551402e-05, "loss": 0.3484, "step": 140780 }, { "epoch": 187.72, "grad_norm": 0.91015625, "learning_rate": 9.785579991652907e-05, "loss": 0.3696, "step": 140790 }, { "epoch": 187.73333333333332, "grad_norm": 0.86328125, "learning_rate": 9.78554964265382e-05, "loss": 0.3657, "step": 140800 }, { "epoch": 187.74666666666667, "grad_norm": 0.8984375, "learning_rate": 9.785519291554158e-05, "loss": 0.3684, "step": 140810 }, { "epoch": 187.76, "grad_norm": 0.96484375, "learning_rate": 9.785488938353931e-05, "loss": 0.3821, "step": 140820 }, { "epoch": 187.77333333333334, "grad_norm": 0.921875, "learning_rate": 9.785458583053153e-05, "loss": 0.3654, "step": 140830 }, { "epoch": 187.78666666666666, "grad_norm": 0.76953125, "learning_rate": 9.78542822565184e-05, "loss": 0.3689, "step": 140840 }, { "epoch": 187.8, "grad_norm": 0.94140625, "learning_rate": 9.785397866150001e-05, "loss": 0.3664, "step": 140850 }, { "epoch": 187.81333333333333, "grad_norm": 0.97265625, "learning_rate": 9.785367504547652e-05, "loss": 0.3411, "step": 140860 }, { "epoch": 187.82666666666665, "grad_norm": 0.796875, "learning_rate": 9.785337140844806e-05, "loss": 0.3479, "step": 140870 }, { "epoch": 187.84, "grad_norm": 0.96484375, "learning_rate": 9.785306775041476e-05, "loss": 0.3604, "step": 140880 }, { "epoch": 187.85333333333332, "grad_norm": 0.80859375, "learning_rate": 9.785276407137676e-05, "loss": 0.356, "step": 140890 }, { "epoch": 187.86666666666667, "grad_norm": 0.8828125, "learning_rate": 9.785246037133419e-05, "loss": 0.3626, "step": 140900 }, { "epoch": 187.88, "grad_norm": 0.8203125, "learning_rate": 9.785215665028718e-05, "loss": 0.3429, "step": 140910 }, { "epoch": 187.89333333333335, "grad_norm": 0.8203125, "learning_rate": 9.785185290823587e-05, "loss": 0.356, "step": 140920 }, { "epoch": 187.90666666666667, "grad_norm": 0.83984375, "learning_rate": 9.785154914518037e-05, "loss": 0.3597, "step": 140930 }, { "epoch": 187.92, "grad_norm": 0.828125, "learning_rate": 9.785124536112085e-05, "loss": 0.3601, "step": 140940 }, { "epoch": 187.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.785094155605741e-05, "loss": 0.3574, "step": 140950 }, { "epoch": 187.94666666666666, "grad_norm": 0.859375, "learning_rate": 9.78506377299902e-05, "loss": 0.3576, "step": 140960 }, { "epoch": 187.96, "grad_norm": 0.83984375, "learning_rate": 9.785033388291935e-05, "loss": 0.3555, "step": 140970 }, { "epoch": 187.97333333333333, "grad_norm": 1.1796875, "learning_rate": 9.785003001484501e-05, "loss": 0.3787, "step": 140980 }, { "epoch": 187.98666666666668, "grad_norm": 0.828125, "learning_rate": 9.784972612576728e-05, "loss": 0.3484, "step": 140990 }, { "epoch": 188.0, "grad_norm": 0.80078125, "learning_rate": 9.784942221568633e-05, "loss": 0.3494, "step": 141000 }, { "epoch": 188.0, "eval_loss": 0.41632339358329773, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.7642, "eval_samples_per_second": 1.36, "eval_steps_per_second": 0.085, "step": 141000 }, { "epoch": 188.01333333333332, "grad_norm": 0.953125, "learning_rate": 9.784911828460226e-05, "loss": 0.3652, "step": 141010 }, { "epoch": 188.02666666666667, "grad_norm": 0.87109375, "learning_rate": 9.784881433251523e-05, "loss": 0.3809, "step": 141020 }, { "epoch": 188.04, "grad_norm": 0.75, "learning_rate": 9.784851035942535e-05, "loss": 0.3933, "step": 141030 }, { "epoch": 188.05333333333334, "grad_norm": 0.9296875, "learning_rate": 9.784820636533277e-05, "loss": 0.3777, "step": 141040 }, { "epoch": 188.06666666666666, "grad_norm": 0.984375, "learning_rate": 9.784790235023762e-05, "loss": 0.3662, "step": 141050 }, { "epoch": 188.08, "grad_norm": 0.8125, "learning_rate": 9.784759831414003e-05, "loss": 0.3683, "step": 141060 }, { "epoch": 188.09333333333333, "grad_norm": 0.8125, "learning_rate": 9.784729425704013e-05, "loss": 0.3716, "step": 141070 }, { "epoch": 188.10666666666665, "grad_norm": 0.76171875, "learning_rate": 9.784699017893808e-05, "loss": 0.3604, "step": 141080 }, { "epoch": 188.12, "grad_norm": 0.953125, "learning_rate": 9.784668607983397e-05, "loss": 0.3611, "step": 141090 }, { "epoch": 188.13333333333333, "grad_norm": 0.8828125, "learning_rate": 9.784638195972798e-05, "loss": 0.3544, "step": 141100 }, { "epoch": 188.14666666666668, "grad_norm": 0.84765625, "learning_rate": 9.784607781862018e-05, "loss": 0.3732, "step": 141110 }, { "epoch": 188.16, "grad_norm": 0.78125, "learning_rate": 9.784577365651077e-05, "loss": 0.3682, "step": 141120 }, { "epoch": 188.17333333333335, "grad_norm": 0.9140625, "learning_rate": 9.784546947339986e-05, "loss": 0.3627, "step": 141130 }, { "epoch": 188.18666666666667, "grad_norm": 0.9140625, "learning_rate": 9.784516526928758e-05, "loss": 0.3596, "step": 141140 }, { "epoch": 188.2, "grad_norm": 0.8046875, "learning_rate": 9.784486104417405e-05, "loss": 0.3522, "step": 141150 }, { "epoch": 188.21333333333334, "grad_norm": 0.9453125, "learning_rate": 9.784455679805942e-05, "loss": 0.3527, "step": 141160 }, { "epoch": 188.22666666666666, "grad_norm": 0.9140625, "learning_rate": 9.784425253094384e-05, "loss": 0.3638, "step": 141170 }, { "epoch": 188.24, "grad_norm": 0.88671875, "learning_rate": 9.78439482428274e-05, "loss": 0.3503, "step": 141180 }, { "epoch": 188.25333333333333, "grad_norm": 0.90234375, "learning_rate": 9.784364393371027e-05, "loss": 0.3506, "step": 141190 }, { "epoch": 188.26666666666668, "grad_norm": 0.8828125, "learning_rate": 9.784333960359258e-05, "loss": 0.3544, "step": 141200 }, { "epoch": 188.28, "grad_norm": 0.8515625, "learning_rate": 9.784303525247443e-05, "loss": 0.3815, "step": 141210 }, { "epoch": 188.29333333333332, "grad_norm": 0.84765625, "learning_rate": 9.784273088035601e-05, "loss": 0.3411, "step": 141220 }, { "epoch": 188.30666666666667, "grad_norm": 0.83203125, "learning_rate": 9.784242648723739e-05, "loss": 0.364, "step": 141230 }, { "epoch": 188.32, "grad_norm": 0.7578125, "learning_rate": 9.784212207311876e-05, "loss": 0.3689, "step": 141240 }, { "epoch": 188.33333333333334, "grad_norm": 0.921875, "learning_rate": 9.784181763800021e-05, "loss": 0.3663, "step": 141250 }, { "epoch": 188.34666666666666, "grad_norm": 0.87109375, "learning_rate": 9.78415131818819e-05, "loss": 0.3575, "step": 141260 }, { "epoch": 188.36, "grad_norm": 0.82421875, "learning_rate": 9.784120870476396e-05, "loss": 0.359, "step": 141270 }, { "epoch": 188.37333333333333, "grad_norm": 0.765625, "learning_rate": 9.784090420664653e-05, "loss": 0.3629, "step": 141280 }, { "epoch": 188.38666666666666, "grad_norm": 1.0078125, "learning_rate": 9.784059968752971e-05, "loss": 0.3498, "step": 141290 }, { "epoch": 188.4, "grad_norm": 0.88671875, "learning_rate": 9.784029514741367e-05, "loss": 0.3595, "step": 141300 }, { "epoch": 188.41333333333333, "grad_norm": 0.76171875, "learning_rate": 9.783999058629853e-05, "loss": 0.3662, "step": 141310 }, { "epoch": 188.42666666666668, "grad_norm": 0.79296875, "learning_rate": 9.783968600418443e-05, "loss": 0.3683, "step": 141320 }, { "epoch": 188.44, "grad_norm": 0.875, "learning_rate": 9.783938140107149e-05, "loss": 0.3801, "step": 141330 }, { "epoch": 188.45333333333335, "grad_norm": 0.8515625, "learning_rate": 9.783907677695987e-05, "loss": 0.3667, "step": 141340 }, { "epoch": 188.46666666666667, "grad_norm": 0.83984375, "learning_rate": 9.783877213184966e-05, "loss": 0.3737, "step": 141350 }, { "epoch": 188.48, "grad_norm": 0.8125, "learning_rate": 9.783846746574104e-05, "loss": 0.3586, "step": 141360 }, { "epoch": 188.49333333333334, "grad_norm": 0.8671875, "learning_rate": 9.783816277863411e-05, "loss": 0.368, "step": 141370 }, { "epoch": 188.50666666666666, "grad_norm": 0.8359375, "learning_rate": 9.783785807052904e-05, "loss": 0.3693, "step": 141380 }, { "epoch": 188.52, "grad_norm": 0.74609375, "learning_rate": 9.783755334142592e-05, "loss": 0.3598, "step": 141390 }, { "epoch": 188.53333333333333, "grad_norm": 0.8359375, "learning_rate": 9.78372485913249e-05, "loss": 0.3604, "step": 141400 }, { "epoch": 188.54666666666665, "grad_norm": 1.0, "learning_rate": 9.783694382022615e-05, "loss": 0.3611, "step": 141410 }, { "epoch": 188.56, "grad_norm": 0.796875, "learning_rate": 9.783663902812975e-05, "loss": 0.3557, "step": 141420 }, { "epoch": 188.57333333333332, "grad_norm": 0.9140625, "learning_rate": 9.783633421503584e-05, "loss": 0.3606, "step": 141430 }, { "epoch": 188.58666666666667, "grad_norm": 0.78515625, "learning_rate": 9.78360293809446e-05, "loss": 0.3523, "step": 141440 }, { "epoch": 188.6, "grad_norm": 0.78125, "learning_rate": 9.783572452585611e-05, "loss": 0.3533, "step": 141450 }, { "epoch": 188.61333333333334, "grad_norm": 0.7421875, "learning_rate": 9.783541964977054e-05, "loss": 0.3467, "step": 141460 }, { "epoch": 188.62666666666667, "grad_norm": 0.76953125, "learning_rate": 9.783511475268801e-05, "loss": 0.35, "step": 141470 }, { "epoch": 188.64, "grad_norm": 0.96484375, "learning_rate": 9.783480983460866e-05, "loss": 0.3568, "step": 141480 }, { "epoch": 188.65333333333334, "grad_norm": 0.83984375, "learning_rate": 9.783450489553261e-05, "loss": 0.368, "step": 141490 }, { "epoch": 188.66666666666666, "grad_norm": 0.765625, "learning_rate": 9.783419993546002e-05, "loss": 0.3578, "step": 141500 }, { "epoch": 188.68, "grad_norm": 0.828125, "learning_rate": 9.783389495439099e-05, "loss": 0.347, "step": 141510 }, { "epoch": 188.69333333333333, "grad_norm": 0.7421875, "learning_rate": 9.783358995232566e-05, "loss": 0.3591, "step": 141520 }, { "epoch": 188.70666666666668, "grad_norm": 0.91796875, "learning_rate": 9.78332849292642e-05, "loss": 0.3483, "step": 141530 }, { "epoch": 188.72, "grad_norm": 0.87109375, "learning_rate": 9.78329798852067e-05, "loss": 0.3704, "step": 141540 }, { "epoch": 188.73333333333332, "grad_norm": 0.84765625, "learning_rate": 9.783267482015332e-05, "loss": 0.3654, "step": 141550 }, { "epoch": 188.74666666666667, "grad_norm": 0.90234375, "learning_rate": 9.78323697341042e-05, "loss": 0.3691, "step": 141560 }, { "epoch": 188.76, "grad_norm": 1.0, "learning_rate": 9.783206462705942e-05, "loss": 0.3817, "step": 141570 }, { "epoch": 188.77333333333334, "grad_norm": 0.93359375, "learning_rate": 9.78317594990192e-05, "loss": 0.3658, "step": 141580 }, { "epoch": 188.78666666666666, "grad_norm": 0.83203125, "learning_rate": 9.78314543499836e-05, "loss": 0.3686, "step": 141590 }, { "epoch": 188.8, "grad_norm": 0.9296875, "learning_rate": 9.783114917995278e-05, "loss": 0.3657, "step": 141600 }, { "epoch": 188.81333333333333, "grad_norm": 1.046875, "learning_rate": 9.783084398892687e-05, "loss": 0.3404, "step": 141610 }, { "epoch": 188.82666666666665, "grad_norm": 0.84375, "learning_rate": 9.783053877690604e-05, "loss": 0.3475, "step": 141620 }, { "epoch": 188.84, "grad_norm": 0.96484375, "learning_rate": 9.783023354389038e-05, "loss": 0.3617, "step": 141630 }, { "epoch": 188.85333333333332, "grad_norm": 0.7890625, "learning_rate": 9.782992828988004e-05, "loss": 0.3572, "step": 141640 }, { "epoch": 188.86666666666667, "grad_norm": 0.9140625, "learning_rate": 9.782962301487515e-05, "loss": 0.3626, "step": 141650 }, { "epoch": 188.88, "grad_norm": 0.8046875, "learning_rate": 9.782931771887584e-05, "loss": 0.3432, "step": 141660 }, { "epoch": 188.89333333333335, "grad_norm": 0.7734375, "learning_rate": 9.782901240188224e-05, "loss": 0.3566, "step": 141670 }, { "epoch": 188.90666666666667, "grad_norm": 0.84375, "learning_rate": 9.782870706389451e-05, "loss": 0.3597, "step": 141680 }, { "epoch": 188.92, "grad_norm": 0.81640625, "learning_rate": 9.782840170491277e-05, "loss": 0.36, "step": 141690 }, { "epoch": 188.93333333333334, "grad_norm": 0.7890625, "learning_rate": 9.782809632493715e-05, "loss": 0.3573, "step": 141700 }, { "epoch": 188.94666666666666, "grad_norm": 0.89453125, "learning_rate": 9.782779092396778e-05, "loss": 0.3574, "step": 141710 }, { "epoch": 188.96, "grad_norm": 0.7734375, "learning_rate": 9.782748550200481e-05, "loss": 0.3562, "step": 141720 }, { "epoch": 188.97333333333333, "grad_norm": 1.0234375, "learning_rate": 9.782718005904834e-05, "loss": 0.3777, "step": 141730 }, { "epoch": 188.98666666666668, "grad_norm": 0.859375, "learning_rate": 9.782687459509855e-05, "loss": 0.348, "step": 141740 }, { "epoch": 189.0, "grad_norm": 0.92578125, "learning_rate": 9.782656911015555e-05, "loss": 0.3495, "step": 141750 }, { "epoch": 189.0, "eval_loss": 0.41867369413375854, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.4588, "eval_samples_per_second": 1.396, "eval_steps_per_second": 0.087, "step": 141750 }, { "epoch": 189.01333333333332, "grad_norm": 0.921875, "learning_rate": 9.782626360421947e-05, "loss": 0.3651, "step": 141760 }, { "epoch": 189.02666666666667, "grad_norm": 0.83203125, "learning_rate": 9.782595807729044e-05, "loss": 0.3806, "step": 141770 }, { "epoch": 189.04, "grad_norm": 0.80859375, "learning_rate": 9.782565252936863e-05, "loss": 0.394, "step": 141780 }, { "epoch": 189.05333333333334, "grad_norm": 0.87109375, "learning_rate": 9.782534696045413e-05, "loss": 0.3773, "step": 141790 }, { "epoch": 189.06666666666666, "grad_norm": 0.9296875, "learning_rate": 9.78250413705471e-05, "loss": 0.3661, "step": 141800 }, { "epoch": 189.08, "grad_norm": 0.890625, "learning_rate": 9.782473575964767e-05, "loss": 0.3682, "step": 141810 }, { "epoch": 189.09333333333333, "grad_norm": 0.88671875, "learning_rate": 9.782443012775597e-05, "loss": 0.3713, "step": 141820 }, { "epoch": 189.10666666666665, "grad_norm": 0.74609375, "learning_rate": 9.782412447487213e-05, "loss": 0.3613, "step": 141830 }, { "epoch": 189.12, "grad_norm": 0.84765625, "learning_rate": 9.782381880099629e-05, "loss": 0.3613, "step": 141840 }, { "epoch": 189.13333333333333, "grad_norm": 0.82421875, "learning_rate": 9.782351310612858e-05, "loss": 0.3537, "step": 141850 }, { "epoch": 189.14666666666668, "grad_norm": 0.84375, "learning_rate": 9.782320739026913e-05, "loss": 0.3729, "step": 141860 }, { "epoch": 189.16, "grad_norm": 0.84375, "learning_rate": 9.782290165341809e-05, "loss": 0.3686, "step": 141870 }, { "epoch": 189.17333333333335, "grad_norm": 1.0078125, "learning_rate": 9.782259589557561e-05, "loss": 0.3621, "step": 141880 }, { "epoch": 189.18666666666667, "grad_norm": 0.84375, "learning_rate": 9.782229011674177e-05, "loss": 0.3595, "step": 141890 }, { "epoch": 189.2, "grad_norm": 0.90234375, "learning_rate": 9.782198431691674e-05, "loss": 0.3524, "step": 141900 }, { "epoch": 189.21333333333334, "grad_norm": 0.84375, "learning_rate": 9.782167849610065e-05, "loss": 0.3523, "step": 141910 }, { "epoch": 189.22666666666666, "grad_norm": 0.875, "learning_rate": 9.782137265429364e-05, "loss": 0.3636, "step": 141920 }, { "epoch": 189.24, "grad_norm": 0.890625, "learning_rate": 9.782106679149583e-05, "loss": 0.3489, "step": 141930 }, { "epoch": 189.25333333333333, "grad_norm": 0.88671875, "learning_rate": 9.782076090770738e-05, "loss": 0.3505, "step": 141940 }, { "epoch": 189.26666666666668, "grad_norm": 0.81640625, "learning_rate": 9.782045500292838e-05, "loss": 0.3541, "step": 141950 }, { "epoch": 189.28, "grad_norm": 0.79296875, "learning_rate": 9.782014907715899e-05, "loss": 0.3808, "step": 141960 }, { "epoch": 189.29333333333332, "grad_norm": 0.8125, "learning_rate": 9.781984313039935e-05, "loss": 0.3413, "step": 141970 }, { "epoch": 189.30666666666667, "grad_norm": 0.81640625, "learning_rate": 9.78195371626496e-05, "loss": 0.3643, "step": 141980 }, { "epoch": 189.32, "grad_norm": 0.7734375, "learning_rate": 9.781923117390986e-05, "loss": 0.3694, "step": 141990 }, { "epoch": 189.33333333333334, "grad_norm": 0.8671875, "learning_rate": 9.781892516418026e-05, "loss": 0.3667, "step": 142000 }, { "epoch": 189.34666666666666, "grad_norm": 0.90234375, "learning_rate": 9.781861913346095e-05, "loss": 0.3576, "step": 142010 }, { "epoch": 189.36, "grad_norm": 0.859375, "learning_rate": 9.781831308175204e-05, "loss": 0.3584, "step": 142020 }, { "epoch": 189.37333333333333, "grad_norm": 0.79296875, "learning_rate": 9.781800700905369e-05, "loss": 0.3627, "step": 142030 }, { "epoch": 189.38666666666666, "grad_norm": 0.91796875, "learning_rate": 9.781770091536602e-05, "loss": 0.3486, "step": 142040 }, { "epoch": 189.4, "grad_norm": 0.875, "learning_rate": 9.781739480068917e-05, "loss": 0.3604, "step": 142050 }, { "epoch": 189.41333333333333, "grad_norm": 0.8125, "learning_rate": 9.781708866502328e-05, "loss": 0.3659, "step": 142060 }, { "epoch": 189.42666666666668, "grad_norm": 0.83203125, "learning_rate": 9.781678250836847e-05, "loss": 0.3669, "step": 142070 }, { "epoch": 189.44, "grad_norm": 0.828125, "learning_rate": 9.781647633072489e-05, "loss": 0.3793, "step": 142080 }, { "epoch": 189.45333333333335, "grad_norm": 0.84765625, "learning_rate": 9.781617013209267e-05, "loss": 0.3676, "step": 142090 }, { "epoch": 189.46666666666667, "grad_norm": 0.79296875, "learning_rate": 9.781586391247193e-05, "loss": 0.374, "step": 142100 }, { "epoch": 189.48, "grad_norm": 0.8828125, "learning_rate": 9.781555767186282e-05, "loss": 0.3572, "step": 142110 }, { "epoch": 189.49333333333334, "grad_norm": 0.87890625, "learning_rate": 9.781525141026546e-05, "loss": 0.3685, "step": 142120 }, { "epoch": 189.50666666666666, "grad_norm": 0.87890625, "learning_rate": 9.781494512768e-05, "loss": 0.3683, "step": 142130 }, { "epoch": 189.52, "grad_norm": 0.74609375, "learning_rate": 9.781463882410658e-05, "loss": 0.3599, "step": 142140 }, { "epoch": 189.53333333333333, "grad_norm": 0.78125, "learning_rate": 9.781433249954531e-05, "loss": 0.3602, "step": 142150 }, { "epoch": 189.54666666666665, "grad_norm": 0.96484375, "learning_rate": 9.781402615399634e-05, "loss": 0.361, "step": 142160 }, { "epoch": 189.56, "grad_norm": 0.80859375, "learning_rate": 9.781371978745979e-05, "loss": 0.3564, "step": 142170 }, { "epoch": 189.57333333333332, "grad_norm": 0.85546875, "learning_rate": 9.781341339993582e-05, "loss": 0.3612, "step": 142180 }, { "epoch": 189.58666666666667, "grad_norm": 0.7890625, "learning_rate": 9.781310699142456e-05, "loss": 0.3528, "step": 142190 }, { "epoch": 189.6, "grad_norm": 0.828125, "learning_rate": 9.781280056192612e-05, "loss": 0.354, "step": 142200 }, { "epoch": 189.61333333333334, "grad_norm": 0.75390625, "learning_rate": 9.781249411144064e-05, "loss": 0.3464, "step": 142210 }, { "epoch": 189.62666666666667, "grad_norm": 0.80859375, "learning_rate": 9.781218763996829e-05, "loss": 0.3502, "step": 142220 }, { "epoch": 189.64, "grad_norm": 0.9296875, "learning_rate": 9.781188114750917e-05, "loss": 0.3565, "step": 142230 }, { "epoch": 189.65333333333334, "grad_norm": 0.87890625, "learning_rate": 9.781157463406341e-05, "loss": 0.3672, "step": 142240 }, { "epoch": 189.66666666666666, "grad_norm": 0.80859375, "learning_rate": 9.781126809963118e-05, "loss": 0.3586, "step": 142250 }, { "epoch": 189.68, "grad_norm": 0.91015625, "learning_rate": 9.781096154421257e-05, "loss": 0.3472, "step": 142260 }, { "epoch": 189.69333333333333, "grad_norm": 0.77734375, "learning_rate": 9.781065496780775e-05, "loss": 0.3587, "step": 142270 }, { "epoch": 189.70666666666668, "grad_norm": 0.98046875, "learning_rate": 9.781034837041684e-05, "loss": 0.3481, "step": 142280 }, { "epoch": 189.72, "grad_norm": 0.8359375, "learning_rate": 9.781004175203998e-05, "loss": 0.3699, "step": 142290 }, { "epoch": 189.73333333333332, "grad_norm": 0.86328125, "learning_rate": 9.78097351126773e-05, "loss": 0.3657, "step": 142300 }, { "epoch": 189.74666666666667, "grad_norm": 0.8203125, "learning_rate": 9.780942845232893e-05, "loss": 0.3684, "step": 142310 }, { "epoch": 189.76, "grad_norm": 0.9140625, "learning_rate": 9.7809121770995e-05, "loss": 0.3813, "step": 142320 }, { "epoch": 189.77333333333334, "grad_norm": 0.87890625, "learning_rate": 9.780881506867568e-05, "loss": 0.3667, "step": 142330 }, { "epoch": 189.78666666666666, "grad_norm": 0.76171875, "learning_rate": 9.780850834537106e-05, "loss": 0.3692, "step": 142340 }, { "epoch": 189.8, "grad_norm": 0.85546875, "learning_rate": 9.78082016010813e-05, "loss": 0.3671, "step": 142350 }, { "epoch": 189.81333333333333, "grad_norm": 0.94921875, "learning_rate": 9.780789483580652e-05, "loss": 0.3398, "step": 142360 }, { "epoch": 189.82666666666665, "grad_norm": 0.85546875, "learning_rate": 9.780758804954688e-05, "loss": 0.3481, "step": 142370 }, { "epoch": 189.84, "grad_norm": 0.921875, "learning_rate": 9.780728124230247e-05, "loss": 0.3611, "step": 142380 }, { "epoch": 189.85333333333332, "grad_norm": 0.81640625, "learning_rate": 9.780697441407348e-05, "loss": 0.3557, "step": 142390 }, { "epoch": 189.86666666666667, "grad_norm": 0.8515625, "learning_rate": 9.780666756486e-05, "loss": 0.3619, "step": 142400 }, { "epoch": 189.88, "grad_norm": 0.8203125, "learning_rate": 9.78063606946622e-05, "loss": 0.343, "step": 142410 }, { "epoch": 189.89333333333335, "grad_norm": 0.796875, "learning_rate": 9.780605380348018e-05, "loss": 0.3556, "step": 142420 }, { "epoch": 189.90666666666667, "grad_norm": 0.80859375, "learning_rate": 9.78057468913141e-05, "loss": 0.3591, "step": 142430 }, { "epoch": 189.92, "grad_norm": 0.84765625, "learning_rate": 9.780543995816409e-05, "loss": 0.36, "step": 142440 }, { "epoch": 189.93333333333334, "grad_norm": 0.796875, "learning_rate": 9.780513300403026e-05, "loss": 0.3575, "step": 142450 }, { "epoch": 189.94666666666666, "grad_norm": 0.8671875, "learning_rate": 9.780482602891279e-05, "loss": 0.3573, "step": 142460 }, { "epoch": 189.96, "grad_norm": 0.78515625, "learning_rate": 9.780451903281178e-05, "loss": 0.3556, "step": 142470 }, { "epoch": 189.97333333333333, "grad_norm": 1.15625, "learning_rate": 9.780421201572738e-05, "loss": 0.378, "step": 142480 }, { "epoch": 189.98666666666668, "grad_norm": 0.94921875, "learning_rate": 9.78039049776597e-05, "loss": 0.3481, "step": 142490 }, { "epoch": 190.0, "grad_norm": 0.80078125, "learning_rate": 9.780359791860891e-05, "loss": 0.3496, "step": 142500 }, { "epoch": 190.0, "eval_loss": 0.41461944580078125, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.779, "eval_samples_per_second": 1.484, "eval_steps_per_second": 0.093, "step": 142500 }, { "epoch": 190.01333333333332, "grad_norm": 0.92578125, "learning_rate": 9.780329083857513e-05, "loss": 0.3649, "step": 142510 }, { "epoch": 190.02666666666667, "grad_norm": 0.859375, "learning_rate": 9.780298373755849e-05, "loss": 0.38, "step": 142520 }, { "epoch": 190.04, "grad_norm": 0.74609375, "learning_rate": 9.780267661555914e-05, "loss": 0.3932, "step": 142530 }, { "epoch": 190.05333333333334, "grad_norm": 0.80859375, "learning_rate": 9.780236947257719e-05, "loss": 0.3771, "step": 142540 }, { "epoch": 190.06666666666666, "grad_norm": 1.0078125, "learning_rate": 9.78020623086128e-05, "loss": 0.366, "step": 142550 }, { "epoch": 190.08, "grad_norm": 0.8984375, "learning_rate": 9.780175512366608e-05, "loss": 0.3696, "step": 142560 }, { "epoch": 190.09333333333333, "grad_norm": 0.94140625, "learning_rate": 9.780144791773718e-05, "loss": 0.3718, "step": 142570 }, { "epoch": 190.10666666666665, "grad_norm": 0.8125, "learning_rate": 9.780114069082624e-05, "loss": 0.3605, "step": 142580 }, { "epoch": 190.12, "grad_norm": 0.83984375, "learning_rate": 9.780083344293338e-05, "loss": 0.3608, "step": 142590 }, { "epoch": 190.13333333333333, "grad_norm": 0.74609375, "learning_rate": 9.780052617405874e-05, "loss": 0.3528, "step": 142600 }, { "epoch": 190.14666666666668, "grad_norm": 0.80078125, "learning_rate": 9.780021888420248e-05, "loss": 0.3739, "step": 142610 }, { "epoch": 190.16, "grad_norm": 0.84375, "learning_rate": 9.779991157336469e-05, "loss": 0.3679, "step": 142620 }, { "epoch": 190.17333333333335, "grad_norm": 0.93359375, "learning_rate": 9.779960424154553e-05, "loss": 0.3629, "step": 142630 }, { "epoch": 190.18666666666667, "grad_norm": 0.80859375, "learning_rate": 9.779929688874515e-05, "loss": 0.3592, "step": 142640 }, { "epoch": 190.2, "grad_norm": 0.8359375, "learning_rate": 9.779898951496365e-05, "loss": 0.3514, "step": 142650 }, { "epoch": 190.21333333333334, "grad_norm": 0.8515625, "learning_rate": 9.779868212020119e-05, "loss": 0.3533, "step": 142660 }, { "epoch": 190.22666666666666, "grad_norm": 0.91796875, "learning_rate": 9.779837470445788e-05, "loss": 0.3628, "step": 142670 }, { "epoch": 190.24, "grad_norm": 0.90625, "learning_rate": 9.779806726773388e-05, "loss": 0.3497, "step": 142680 }, { "epoch": 190.25333333333333, "grad_norm": 0.875, "learning_rate": 9.779775981002933e-05, "loss": 0.3506, "step": 142690 }, { "epoch": 190.26666666666668, "grad_norm": 0.859375, "learning_rate": 9.779745233134434e-05, "loss": 0.3547, "step": 142700 }, { "epoch": 190.28, "grad_norm": 0.90234375, "learning_rate": 9.779714483167907e-05, "loss": 0.3807, "step": 142710 }, { "epoch": 190.29333333333332, "grad_norm": 0.88671875, "learning_rate": 9.779683731103363e-05, "loss": 0.3406, "step": 142720 }, { "epoch": 190.30666666666667, "grad_norm": 0.8828125, "learning_rate": 9.779652976940816e-05, "loss": 0.364, "step": 142730 }, { "epoch": 190.32, "grad_norm": 0.74609375, "learning_rate": 9.779622220680281e-05, "loss": 0.3691, "step": 142740 }, { "epoch": 190.33333333333334, "grad_norm": 0.9140625, "learning_rate": 9.77959146232177e-05, "loss": 0.3669, "step": 142750 }, { "epoch": 190.34666666666666, "grad_norm": 0.90625, "learning_rate": 9.779560701865299e-05, "loss": 0.3574, "step": 142760 }, { "epoch": 190.36, "grad_norm": 0.8203125, "learning_rate": 9.779529939310878e-05, "loss": 0.3594, "step": 142770 }, { "epoch": 190.37333333333333, "grad_norm": 0.69140625, "learning_rate": 9.779499174658524e-05, "loss": 0.362, "step": 142780 }, { "epoch": 190.38666666666666, "grad_norm": 0.921875, "learning_rate": 9.779468407908246e-05, "loss": 0.3488, "step": 142790 }, { "epoch": 190.4, "grad_norm": 0.921875, "learning_rate": 9.779437639060063e-05, "loss": 0.3583, "step": 142800 }, { "epoch": 190.41333333333333, "grad_norm": 0.859375, "learning_rate": 9.779406868113983e-05, "loss": 0.3667, "step": 142810 }, { "epoch": 190.42666666666668, "grad_norm": 0.828125, "learning_rate": 9.779376095070024e-05, "loss": 0.3678, "step": 142820 }, { "epoch": 190.44, "grad_norm": 0.9296875, "learning_rate": 9.779345319928197e-05, "loss": 0.3803, "step": 142830 }, { "epoch": 190.45333333333335, "grad_norm": 0.86328125, "learning_rate": 9.779314542688516e-05, "loss": 0.3678, "step": 142840 }, { "epoch": 190.46666666666667, "grad_norm": 0.87890625, "learning_rate": 9.779283763350996e-05, "loss": 0.3735, "step": 142850 }, { "epoch": 190.48, "grad_norm": 0.875, "learning_rate": 9.779252981915647e-05, "loss": 0.3584, "step": 142860 }, { "epoch": 190.49333333333334, "grad_norm": 0.83984375, "learning_rate": 9.779222198382488e-05, "loss": 0.3689, "step": 142870 }, { "epoch": 190.50666666666666, "grad_norm": 0.8515625, "learning_rate": 9.779191412751527e-05, "loss": 0.369, "step": 142880 }, { "epoch": 190.52, "grad_norm": 0.75, "learning_rate": 9.77916062502278e-05, "loss": 0.3601, "step": 142890 }, { "epoch": 190.53333333333333, "grad_norm": 0.84375, "learning_rate": 9.77912983519626e-05, "loss": 0.3612, "step": 142900 }, { "epoch": 190.54666666666665, "grad_norm": 1.078125, "learning_rate": 9.779099043271982e-05, "loss": 0.3617, "step": 142910 }, { "epoch": 190.56, "grad_norm": 0.79296875, "learning_rate": 9.779068249249956e-05, "loss": 0.3552, "step": 142920 }, { "epoch": 190.57333333333332, "grad_norm": 0.890625, "learning_rate": 9.779037453130199e-05, "loss": 0.3606, "step": 142930 }, { "epoch": 190.58666666666667, "grad_norm": 0.796875, "learning_rate": 9.779006654912726e-05, "loss": 0.3521, "step": 142940 }, { "epoch": 190.6, "grad_norm": 0.8125, "learning_rate": 9.778975854597546e-05, "loss": 0.3528, "step": 142950 }, { "epoch": 190.61333333333334, "grad_norm": 0.8125, "learning_rate": 9.778945052184673e-05, "loss": 0.3457, "step": 142960 }, { "epoch": 190.62666666666667, "grad_norm": 0.76171875, "learning_rate": 9.778914247674123e-05, "loss": 0.3503, "step": 142970 }, { "epoch": 190.64, "grad_norm": 0.875, "learning_rate": 9.778883441065908e-05, "loss": 0.3571, "step": 142980 }, { "epoch": 190.65333333333334, "grad_norm": 0.8671875, "learning_rate": 9.778852632360043e-05, "loss": 0.3675, "step": 142990 }, { "epoch": 190.66666666666666, "grad_norm": 0.703125, "learning_rate": 9.778821821556539e-05, "loss": 0.3586, "step": 143000 }, { "epoch": 190.68, "grad_norm": 0.83203125, "learning_rate": 9.778791008655411e-05, "loss": 0.3471, "step": 143010 }, { "epoch": 190.69333333333333, "grad_norm": 0.796875, "learning_rate": 9.778760193656673e-05, "loss": 0.3586, "step": 143020 }, { "epoch": 190.70666666666668, "grad_norm": 0.96875, "learning_rate": 9.77872937656034e-05, "loss": 0.3475, "step": 143030 }, { "epoch": 190.72, "grad_norm": 0.984375, "learning_rate": 9.778698557366421e-05, "loss": 0.3692, "step": 143040 }, { "epoch": 190.73333333333332, "grad_norm": 0.83984375, "learning_rate": 9.778667736074933e-05, "loss": 0.3655, "step": 143050 }, { "epoch": 190.74666666666667, "grad_norm": 0.8828125, "learning_rate": 9.778636912685888e-05, "loss": 0.3679, "step": 143060 }, { "epoch": 190.76, "grad_norm": 0.92578125, "learning_rate": 9.778606087199301e-05, "loss": 0.3807, "step": 143070 }, { "epoch": 190.77333333333334, "grad_norm": 0.9140625, "learning_rate": 9.778575259615186e-05, "loss": 0.3662, "step": 143080 }, { "epoch": 190.78666666666666, "grad_norm": 0.890625, "learning_rate": 9.778544429933552e-05, "loss": 0.368, "step": 143090 }, { "epoch": 190.8, "grad_norm": 0.91015625, "learning_rate": 9.778513598154418e-05, "loss": 0.366, "step": 143100 }, { "epoch": 190.81333333333333, "grad_norm": 0.94140625, "learning_rate": 9.778482764277794e-05, "loss": 0.3396, "step": 143110 }, { "epoch": 190.82666666666665, "grad_norm": 0.828125, "learning_rate": 9.778451928303696e-05, "loss": 0.3474, "step": 143120 }, { "epoch": 190.84, "grad_norm": 0.9140625, "learning_rate": 9.778421090232137e-05, "loss": 0.3601, "step": 143130 }, { "epoch": 190.85333333333332, "grad_norm": 0.84375, "learning_rate": 9.778390250063128e-05, "loss": 0.3567, "step": 143140 }, { "epoch": 190.86666666666667, "grad_norm": 0.84765625, "learning_rate": 9.778359407796686e-05, "loss": 0.3615, "step": 143150 }, { "epoch": 190.88, "grad_norm": 0.8125, "learning_rate": 9.778328563432821e-05, "loss": 0.3432, "step": 143160 }, { "epoch": 190.89333333333335, "grad_norm": 0.78515625, "learning_rate": 9.778297716971551e-05, "loss": 0.3558, "step": 143170 }, { "epoch": 190.90666666666667, "grad_norm": 0.82421875, "learning_rate": 9.778266868412887e-05, "loss": 0.3598, "step": 143180 }, { "epoch": 190.92, "grad_norm": 0.8515625, "learning_rate": 9.77823601775684e-05, "loss": 0.3599, "step": 143190 }, { "epoch": 190.93333333333334, "grad_norm": 0.765625, "learning_rate": 9.778205165003427e-05, "loss": 0.3573, "step": 143200 }, { "epoch": 190.94666666666666, "grad_norm": 0.8671875, "learning_rate": 9.778174310152662e-05, "loss": 0.3572, "step": 143210 }, { "epoch": 190.96, "grad_norm": 0.75390625, "learning_rate": 9.778143453204556e-05, "loss": 0.3552, "step": 143220 }, { "epoch": 190.97333333333333, "grad_norm": 1.0546875, "learning_rate": 9.778112594159124e-05, "loss": 0.378, "step": 143230 }, { "epoch": 190.98666666666668, "grad_norm": 0.8359375, "learning_rate": 9.77808173301638e-05, "loss": 0.3476, "step": 143240 }, { "epoch": 191.0, "grad_norm": 0.87890625, "learning_rate": 9.778050869776336e-05, "loss": 0.3498, "step": 143250 }, { "epoch": 191.0, "eval_loss": 0.4168744385242462, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9136, "eval_samples_per_second": 1.466, "eval_steps_per_second": 0.092, "step": 143250 }, { "epoch": 191.01333333333332, "grad_norm": 0.87890625, "learning_rate": 9.778020004439009e-05, "loss": 0.3644, "step": 143260 }, { "epoch": 191.02666666666667, "grad_norm": 0.8359375, "learning_rate": 9.777989137004406e-05, "loss": 0.3803, "step": 143270 }, { "epoch": 191.04, "grad_norm": 0.8203125, "learning_rate": 9.777958267472547e-05, "loss": 0.3935, "step": 143280 }, { "epoch": 191.05333333333334, "grad_norm": 0.84765625, "learning_rate": 9.777927395843442e-05, "loss": 0.3767, "step": 143290 }, { "epoch": 191.06666666666666, "grad_norm": 1.015625, "learning_rate": 9.777896522117105e-05, "loss": 0.3659, "step": 143300 }, { "epoch": 191.08, "grad_norm": 0.84765625, "learning_rate": 9.777865646293551e-05, "loss": 0.3684, "step": 143310 }, { "epoch": 191.09333333333333, "grad_norm": 0.8671875, "learning_rate": 9.777834768372793e-05, "loss": 0.371, "step": 143320 }, { "epoch": 191.10666666666665, "grad_norm": 0.76953125, "learning_rate": 9.777803888354844e-05, "loss": 0.3599, "step": 143330 }, { "epoch": 191.12, "grad_norm": 0.8515625, "learning_rate": 9.777773006239718e-05, "loss": 0.3601, "step": 143340 }, { "epoch": 191.13333333333333, "grad_norm": 0.859375, "learning_rate": 9.777742122027429e-05, "loss": 0.3541, "step": 143350 }, { "epoch": 191.14666666666668, "grad_norm": 0.859375, "learning_rate": 9.777711235717988e-05, "loss": 0.3733, "step": 143360 }, { "epoch": 191.16, "grad_norm": 0.8203125, "learning_rate": 9.777680347311413e-05, "loss": 0.3683, "step": 143370 }, { "epoch": 191.17333333333335, "grad_norm": 0.8828125, "learning_rate": 9.777649456807713e-05, "loss": 0.3625, "step": 143380 }, { "epoch": 191.18666666666667, "grad_norm": 0.82421875, "learning_rate": 9.777618564206904e-05, "loss": 0.3602, "step": 143390 }, { "epoch": 191.2, "grad_norm": 0.78515625, "learning_rate": 9.777587669508998e-05, "loss": 0.3517, "step": 143400 }, { "epoch": 191.21333333333334, "grad_norm": 0.859375, "learning_rate": 9.777556772714011e-05, "loss": 0.3517, "step": 143410 }, { "epoch": 191.22666666666666, "grad_norm": 0.88671875, "learning_rate": 9.777525873821956e-05, "loss": 0.3634, "step": 143420 }, { "epoch": 191.24, "grad_norm": 0.90625, "learning_rate": 9.777494972832845e-05, "loss": 0.3488, "step": 143430 }, { "epoch": 191.25333333333333, "grad_norm": 0.8984375, "learning_rate": 9.777464069746694e-05, "loss": 0.3501, "step": 143440 }, { "epoch": 191.26666666666668, "grad_norm": 0.9375, "learning_rate": 9.777433164563512e-05, "loss": 0.3532, "step": 143450 }, { "epoch": 191.28, "grad_norm": 0.90234375, "learning_rate": 9.777402257283319e-05, "loss": 0.3811, "step": 143460 }, { "epoch": 191.29333333333332, "grad_norm": 0.8046875, "learning_rate": 9.777371347906123e-05, "loss": 0.3407, "step": 143470 }, { "epoch": 191.30666666666667, "grad_norm": 0.86328125, "learning_rate": 9.77734043643194e-05, "loss": 0.3643, "step": 143480 }, { "epoch": 191.32, "grad_norm": 0.796875, "learning_rate": 9.777309522860782e-05, "loss": 0.3683, "step": 143490 }, { "epoch": 191.33333333333334, "grad_norm": 0.8828125, "learning_rate": 9.777278607192667e-05, "loss": 0.3664, "step": 143500 }, { "epoch": 191.34666666666666, "grad_norm": 0.92578125, "learning_rate": 9.777247689427602e-05, "loss": 0.3572, "step": 143510 }, { "epoch": 191.36, "grad_norm": 0.8984375, "learning_rate": 9.777216769565605e-05, "loss": 0.359, "step": 143520 }, { "epoch": 191.37333333333333, "grad_norm": 0.73828125, "learning_rate": 9.77718584760669e-05, "loss": 0.363, "step": 143530 }, { "epoch": 191.38666666666666, "grad_norm": 0.90625, "learning_rate": 9.777154923550867e-05, "loss": 0.3488, "step": 143540 }, { "epoch": 191.4, "grad_norm": 0.875, "learning_rate": 9.777123997398153e-05, "loss": 0.3597, "step": 143550 }, { "epoch": 191.41333333333333, "grad_norm": 0.7578125, "learning_rate": 9.77709306914856e-05, "loss": 0.3656, "step": 143560 }, { "epoch": 191.42666666666668, "grad_norm": 0.87890625, "learning_rate": 9.777062138802102e-05, "loss": 0.3676, "step": 143570 }, { "epoch": 191.44, "grad_norm": 0.859375, "learning_rate": 9.777031206358791e-05, "loss": 0.3804, "step": 143580 }, { "epoch": 191.45333333333335, "grad_norm": 0.91015625, "learning_rate": 9.777000271818644e-05, "loss": 0.3669, "step": 143590 }, { "epoch": 191.46666666666667, "grad_norm": 0.86328125, "learning_rate": 9.776969335181672e-05, "loss": 0.3745, "step": 143600 }, { "epoch": 191.48, "grad_norm": 0.8125, "learning_rate": 9.776938396447888e-05, "loss": 0.3578, "step": 143610 }, { "epoch": 191.49333333333334, "grad_norm": 0.79296875, "learning_rate": 9.776907455617308e-05, "loss": 0.3683, "step": 143620 }, { "epoch": 191.50666666666666, "grad_norm": 0.90625, "learning_rate": 9.776876512689944e-05, "loss": 0.3683, "step": 143630 }, { "epoch": 191.52, "grad_norm": 0.79296875, "learning_rate": 9.776845567665809e-05, "loss": 0.3595, "step": 143640 }, { "epoch": 191.53333333333333, "grad_norm": 0.87890625, "learning_rate": 9.776814620544919e-05, "loss": 0.3596, "step": 143650 }, { "epoch": 191.54666666666665, "grad_norm": 0.98046875, "learning_rate": 9.776783671327285e-05, "loss": 0.3609, "step": 143660 }, { "epoch": 191.56, "grad_norm": 0.7890625, "learning_rate": 9.77675272001292e-05, "loss": 0.3566, "step": 143670 }, { "epoch": 191.57333333333332, "grad_norm": 0.84375, "learning_rate": 9.776721766601842e-05, "loss": 0.3609, "step": 143680 }, { "epoch": 191.58666666666667, "grad_norm": 0.796875, "learning_rate": 9.77669081109406e-05, "loss": 0.3531, "step": 143690 }, { "epoch": 191.6, "grad_norm": 0.8671875, "learning_rate": 9.776659853489592e-05, "loss": 0.3539, "step": 143700 }, { "epoch": 191.61333333333334, "grad_norm": 0.75390625, "learning_rate": 9.776628893788447e-05, "loss": 0.3463, "step": 143710 }, { "epoch": 191.62666666666667, "grad_norm": 0.79296875, "learning_rate": 9.776597931990642e-05, "loss": 0.3502, "step": 143720 }, { "epoch": 191.64, "grad_norm": 1.03125, "learning_rate": 9.776566968096186e-05, "loss": 0.3562, "step": 143730 }, { "epoch": 191.65333333333334, "grad_norm": 0.8203125, "learning_rate": 9.776536002105097e-05, "loss": 0.3669, "step": 143740 }, { "epoch": 191.66666666666666, "grad_norm": 0.74609375, "learning_rate": 9.77650503401739e-05, "loss": 0.3588, "step": 143750 }, { "epoch": 191.68, "grad_norm": 0.90234375, "learning_rate": 9.776474063833072e-05, "loss": 0.3464, "step": 143760 }, { "epoch": 191.69333333333333, "grad_norm": 0.76953125, "learning_rate": 9.776443091552163e-05, "loss": 0.3587, "step": 143770 }, { "epoch": 191.70666666666668, "grad_norm": 0.8671875, "learning_rate": 9.776412117174673e-05, "loss": 0.3481, "step": 143780 }, { "epoch": 191.72, "grad_norm": 0.9375, "learning_rate": 9.776381140700618e-05, "loss": 0.3697, "step": 143790 }, { "epoch": 191.73333333333332, "grad_norm": 0.83203125, "learning_rate": 9.77635016213001e-05, "loss": 0.3649, "step": 143800 }, { "epoch": 191.74666666666667, "grad_norm": 0.8203125, "learning_rate": 9.776319181462861e-05, "loss": 0.3679, "step": 143810 }, { "epoch": 191.76, "grad_norm": 0.90625, "learning_rate": 9.776288198699188e-05, "loss": 0.3819, "step": 143820 }, { "epoch": 191.77333333333334, "grad_norm": 1.0078125, "learning_rate": 9.776257213839004e-05, "loss": 0.3652, "step": 143830 }, { "epoch": 191.78666666666666, "grad_norm": 0.796875, "learning_rate": 9.776226226882321e-05, "loss": 0.3686, "step": 143840 }, { "epoch": 191.8, "grad_norm": 0.87109375, "learning_rate": 9.776195237829153e-05, "loss": 0.3665, "step": 143850 }, { "epoch": 191.81333333333333, "grad_norm": 0.98828125, "learning_rate": 9.776164246679514e-05, "loss": 0.3404, "step": 143860 }, { "epoch": 191.82666666666665, "grad_norm": 0.8515625, "learning_rate": 9.776133253433418e-05, "loss": 0.3475, "step": 143870 }, { "epoch": 191.84, "grad_norm": 0.95703125, "learning_rate": 9.776102258090878e-05, "loss": 0.3606, "step": 143880 }, { "epoch": 191.85333333333332, "grad_norm": 0.8984375, "learning_rate": 9.776071260651907e-05, "loss": 0.3563, "step": 143890 }, { "epoch": 191.86666666666667, "grad_norm": 0.96484375, "learning_rate": 9.776040261116519e-05, "loss": 0.3614, "step": 143900 }, { "epoch": 191.88, "grad_norm": 0.8203125, "learning_rate": 9.77600925948473e-05, "loss": 0.3424, "step": 143910 }, { "epoch": 191.89333333333335, "grad_norm": 0.83984375, "learning_rate": 9.77597825575655e-05, "loss": 0.3551, "step": 143920 }, { "epoch": 191.90666666666667, "grad_norm": 0.83984375, "learning_rate": 9.775947249931994e-05, "loss": 0.3594, "step": 143930 }, { "epoch": 191.92, "grad_norm": 0.828125, "learning_rate": 9.775916242011076e-05, "loss": 0.3601, "step": 143940 }, { "epoch": 191.93333333333334, "grad_norm": 0.796875, "learning_rate": 9.77588523199381e-05, "loss": 0.3578, "step": 143950 }, { "epoch": 191.94666666666666, "grad_norm": 0.8515625, "learning_rate": 9.77585421988021e-05, "loss": 0.3567, "step": 143960 }, { "epoch": 191.96, "grad_norm": 0.79296875, "learning_rate": 9.775823205670285e-05, "loss": 0.3556, "step": 143970 }, { "epoch": 191.97333333333333, "grad_norm": 1.1640625, "learning_rate": 9.775792189364055e-05, "loss": 0.3771, "step": 143980 }, { "epoch": 191.98666666666668, "grad_norm": 0.87109375, "learning_rate": 9.77576117096153e-05, "loss": 0.3473, "step": 143990 }, { "epoch": 192.0, "grad_norm": 0.87890625, "learning_rate": 9.775730150462725e-05, "loss": 0.3484, "step": 144000 }, { "epoch": 192.0, "eval_loss": 0.41645538806915283, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.5237, "eval_samples_per_second": 1.388, "eval_steps_per_second": 0.087, "step": 144000 }, { "epoch": 192.01333333333332, "grad_norm": 0.9375, "learning_rate": 9.775699127867652e-05, "loss": 0.3644, "step": 144010 }, { "epoch": 192.02666666666667, "grad_norm": 0.78515625, "learning_rate": 9.775668103176328e-05, "loss": 0.3796, "step": 144020 }, { "epoch": 192.04, "grad_norm": 0.7578125, "learning_rate": 9.775637076388761e-05, "loss": 0.3926, "step": 144030 }, { "epoch": 192.05333333333334, "grad_norm": 0.8515625, "learning_rate": 9.775606047504971e-05, "loss": 0.3765, "step": 144040 }, { "epoch": 192.06666666666666, "grad_norm": 0.90234375, "learning_rate": 9.775575016524968e-05, "loss": 0.3656, "step": 144050 }, { "epoch": 192.08, "grad_norm": 0.890625, "learning_rate": 9.775543983448765e-05, "loss": 0.3683, "step": 144060 }, { "epoch": 192.09333333333333, "grad_norm": 0.81640625, "learning_rate": 9.775512948276377e-05, "loss": 0.3712, "step": 144070 }, { "epoch": 192.10666666666665, "grad_norm": 0.75390625, "learning_rate": 9.775481911007817e-05, "loss": 0.3594, "step": 144080 }, { "epoch": 192.12, "grad_norm": 0.88671875, "learning_rate": 9.775450871643099e-05, "loss": 0.3602, "step": 144090 }, { "epoch": 192.13333333333333, "grad_norm": 0.83203125, "learning_rate": 9.775419830182238e-05, "loss": 0.353, "step": 144100 }, { "epoch": 192.14666666666668, "grad_norm": 0.84375, "learning_rate": 9.775388786625245e-05, "loss": 0.3724, "step": 144110 }, { "epoch": 192.16, "grad_norm": 0.81640625, "learning_rate": 9.775357740972135e-05, "loss": 0.3688, "step": 144120 }, { "epoch": 192.17333333333335, "grad_norm": 0.98828125, "learning_rate": 9.775326693222922e-05, "loss": 0.3627, "step": 144130 }, { "epoch": 192.18666666666667, "grad_norm": 0.86328125, "learning_rate": 9.77529564337762e-05, "loss": 0.3598, "step": 144140 }, { "epoch": 192.2, "grad_norm": 0.8984375, "learning_rate": 9.775264591436241e-05, "loss": 0.3512, "step": 144150 }, { "epoch": 192.21333333333334, "grad_norm": 0.9375, "learning_rate": 9.775233537398799e-05, "loss": 0.3524, "step": 144160 }, { "epoch": 192.22666666666666, "grad_norm": 0.84765625, "learning_rate": 9.775202481265308e-05, "loss": 0.3628, "step": 144170 }, { "epoch": 192.24, "grad_norm": 0.86328125, "learning_rate": 9.775171423035783e-05, "loss": 0.3493, "step": 144180 }, { "epoch": 192.25333333333333, "grad_norm": 0.875, "learning_rate": 9.775140362710234e-05, "loss": 0.3501, "step": 144190 }, { "epoch": 192.26666666666668, "grad_norm": 0.79296875, "learning_rate": 9.775109300288678e-05, "loss": 0.3537, "step": 144200 }, { "epoch": 192.28, "grad_norm": 0.8828125, "learning_rate": 9.77507823577113e-05, "loss": 0.3807, "step": 144210 }, { "epoch": 192.29333333333332, "grad_norm": 0.796875, "learning_rate": 9.775047169157598e-05, "loss": 0.3413, "step": 144220 }, { "epoch": 192.30666666666667, "grad_norm": 0.79296875, "learning_rate": 9.7750161004481e-05, "loss": 0.3646, "step": 144230 }, { "epoch": 192.32, "grad_norm": 0.76953125, "learning_rate": 9.774985029642648e-05, "loss": 0.3699, "step": 144240 }, { "epoch": 192.33333333333334, "grad_norm": 0.94140625, "learning_rate": 9.774953956741258e-05, "loss": 0.3659, "step": 144250 }, { "epoch": 192.34666666666666, "grad_norm": 0.90625, "learning_rate": 9.77492288174394e-05, "loss": 0.3576, "step": 144260 }, { "epoch": 192.36, "grad_norm": 0.96484375, "learning_rate": 9.774891804650709e-05, "loss": 0.3584, "step": 144270 }, { "epoch": 192.37333333333333, "grad_norm": 0.765625, "learning_rate": 9.774860725461579e-05, "loss": 0.3628, "step": 144280 }, { "epoch": 192.38666666666666, "grad_norm": 0.92578125, "learning_rate": 9.774829644176565e-05, "loss": 0.3485, "step": 144290 }, { "epoch": 192.4, "grad_norm": 0.86328125, "learning_rate": 9.774798560795679e-05, "loss": 0.3597, "step": 144300 }, { "epoch": 192.41333333333333, "grad_norm": 0.80859375, "learning_rate": 9.774767475318934e-05, "loss": 0.3654, "step": 144310 }, { "epoch": 192.42666666666668, "grad_norm": 0.81640625, "learning_rate": 9.774736387746346e-05, "loss": 0.3669, "step": 144320 }, { "epoch": 192.44, "grad_norm": 0.90625, "learning_rate": 9.774705298077927e-05, "loss": 0.3793, "step": 144330 }, { "epoch": 192.45333333333335, "grad_norm": 0.875, "learning_rate": 9.77467420631369e-05, "loss": 0.3675, "step": 144340 }, { "epoch": 192.46666666666667, "grad_norm": 0.86328125, "learning_rate": 9.77464311245365e-05, "loss": 0.3728, "step": 144350 }, { "epoch": 192.48, "grad_norm": 0.890625, "learning_rate": 9.774612016497821e-05, "loss": 0.3582, "step": 144360 }, { "epoch": 192.49333333333334, "grad_norm": 0.8671875, "learning_rate": 9.774580918446215e-05, "loss": 0.3687, "step": 144370 }, { "epoch": 192.50666666666666, "grad_norm": 0.90625, "learning_rate": 9.774549818298845e-05, "loss": 0.368, "step": 144380 }, { "epoch": 192.52, "grad_norm": 0.73046875, "learning_rate": 9.77451871605573e-05, "loss": 0.3594, "step": 144390 }, { "epoch": 192.53333333333333, "grad_norm": 0.84375, "learning_rate": 9.774487611716877e-05, "loss": 0.3603, "step": 144400 }, { "epoch": 192.54666666666665, "grad_norm": 1.015625, "learning_rate": 9.774456505282303e-05, "loss": 0.3605, "step": 144410 }, { "epoch": 192.56, "grad_norm": 0.7734375, "learning_rate": 9.774425396752021e-05, "loss": 0.3556, "step": 144420 }, { "epoch": 192.57333333333332, "grad_norm": 0.90625, "learning_rate": 9.774394286126045e-05, "loss": 0.3607, "step": 144430 }, { "epoch": 192.58666666666667, "grad_norm": 0.859375, "learning_rate": 9.774363173404388e-05, "loss": 0.352, "step": 144440 }, { "epoch": 192.6, "grad_norm": 0.859375, "learning_rate": 9.774332058587065e-05, "loss": 0.3528, "step": 144450 }, { "epoch": 192.61333333333334, "grad_norm": 0.78515625, "learning_rate": 9.774300941674088e-05, "loss": 0.3461, "step": 144460 }, { "epoch": 192.62666666666667, "grad_norm": 0.7578125, "learning_rate": 9.774269822665472e-05, "loss": 0.3503, "step": 144470 }, { "epoch": 192.64, "grad_norm": 0.8671875, "learning_rate": 9.774238701561231e-05, "loss": 0.3562, "step": 144480 }, { "epoch": 192.65333333333334, "grad_norm": 0.8671875, "learning_rate": 9.774207578361376e-05, "loss": 0.368, "step": 144490 }, { "epoch": 192.66666666666666, "grad_norm": 0.75390625, "learning_rate": 9.774176453065922e-05, "loss": 0.3593, "step": 144500 }, { "epoch": 192.68, "grad_norm": 0.83203125, "learning_rate": 9.774145325674884e-05, "loss": 0.3471, "step": 144510 }, { "epoch": 192.69333333333333, "grad_norm": 0.80078125, "learning_rate": 9.774114196188276e-05, "loss": 0.3595, "step": 144520 }, { "epoch": 192.70666666666668, "grad_norm": 1.0078125, "learning_rate": 9.774083064606107e-05, "loss": 0.3484, "step": 144530 }, { "epoch": 192.72, "grad_norm": 0.8828125, "learning_rate": 9.774051930928397e-05, "loss": 0.3692, "step": 144540 }, { "epoch": 192.73333333333332, "grad_norm": 0.8359375, "learning_rate": 9.774020795155155e-05, "loss": 0.3652, "step": 144550 }, { "epoch": 192.74666666666667, "grad_norm": 0.80859375, "learning_rate": 9.773989657286397e-05, "loss": 0.3669, "step": 144560 }, { "epoch": 192.76, "grad_norm": 0.94140625, "learning_rate": 9.773958517322137e-05, "loss": 0.3817, "step": 144570 }, { "epoch": 192.77333333333334, "grad_norm": 0.8984375, "learning_rate": 9.773927375262386e-05, "loss": 0.3657, "step": 144580 }, { "epoch": 192.78666666666666, "grad_norm": 0.7734375, "learning_rate": 9.77389623110716e-05, "loss": 0.3687, "step": 144590 }, { "epoch": 192.8, "grad_norm": 0.921875, "learning_rate": 9.773865084856473e-05, "loss": 0.3657, "step": 144600 }, { "epoch": 192.81333333333333, "grad_norm": 1.0, "learning_rate": 9.773833936510337e-05, "loss": 0.3403, "step": 144610 }, { "epoch": 192.82666666666665, "grad_norm": 0.84765625, "learning_rate": 9.773802786068767e-05, "loss": 0.3475, "step": 144620 }, { "epoch": 192.84, "grad_norm": 0.90234375, "learning_rate": 9.773771633531775e-05, "loss": 0.3601, "step": 144630 }, { "epoch": 192.85333333333332, "grad_norm": 0.89453125, "learning_rate": 9.773740478899376e-05, "loss": 0.3561, "step": 144640 }, { "epoch": 192.86666666666667, "grad_norm": 0.87890625, "learning_rate": 9.773709322171583e-05, "loss": 0.3617, "step": 144650 }, { "epoch": 192.88, "grad_norm": 0.828125, "learning_rate": 9.773678163348412e-05, "loss": 0.3427, "step": 144660 }, { "epoch": 192.89333333333335, "grad_norm": 0.76953125, "learning_rate": 9.773647002429873e-05, "loss": 0.3557, "step": 144670 }, { "epoch": 192.90666666666667, "grad_norm": 0.859375, "learning_rate": 9.773615839415982e-05, "loss": 0.3587, "step": 144680 }, { "epoch": 192.92, "grad_norm": 0.828125, "learning_rate": 9.773584674306753e-05, "loss": 0.3601, "step": 144690 }, { "epoch": 192.93333333333334, "grad_norm": 0.7421875, "learning_rate": 9.773553507102197e-05, "loss": 0.3571, "step": 144700 }, { "epoch": 192.94666666666666, "grad_norm": 0.96875, "learning_rate": 9.77352233780233e-05, "loss": 0.3559, "step": 144710 }, { "epoch": 192.96, "grad_norm": 0.8125, "learning_rate": 9.773491166407165e-05, "loss": 0.3555, "step": 144720 }, { "epoch": 192.97333333333333, "grad_norm": 1.1328125, "learning_rate": 9.773459992916717e-05, "loss": 0.378, "step": 144730 }, { "epoch": 192.98666666666668, "grad_norm": 0.859375, "learning_rate": 9.773428817330999e-05, "loss": 0.3481, "step": 144740 }, { "epoch": 193.0, "grad_norm": 0.8359375, "learning_rate": 9.773397639650021e-05, "loss": 0.3494, "step": 144750 }, { "epoch": 193.0, "eval_loss": 0.41729623079299927, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8922, "eval_samples_per_second": 1.469, "eval_steps_per_second": 0.092, "step": 144750 }, { "epoch": 193.01333333333332, "grad_norm": 0.98046875, "learning_rate": 9.773366459873803e-05, "loss": 0.3645, "step": 144760 }, { "epoch": 193.02666666666667, "grad_norm": 0.7734375, "learning_rate": 9.773335278002353e-05, "loss": 0.3799, "step": 144770 }, { "epoch": 193.04, "grad_norm": 0.78125, "learning_rate": 9.77330409403569e-05, "loss": 0.3927, "step": 144780 }, { "epoch": 193.05333333333334, "grad_norm": 0.85546875, "learning_rate": 9.773272907973824e-05, "loss": 0.3769, "step": 144790 }, { "epoch": 193.06666666666666, "grad_norm": 0.95703125, "learning_rate": 9.773241719816769e-05, "loss": 0.3659, "step": 144800 }, { "epoch": 193.08, "grad_norm": 0.84375, "learning_rate": 9.77321052956454e-05, "loss": 0.3689, "step": 144810 }, { "epoch": 193.09333333333333, "grad_norm": 0.91015625, "learning_rate": 9.77317933721715e-05, "loss": 0.3706, "step": 144820 }, { "epoch": 193.10666666666665, "grad_norm": 0.890625, "learning_rate": 9.773148142774613e-05, "loss": 0.3609, "step": 144830 }, { "epoch": 193.12, "grad_norm": 0.828125, "learning_rate": 9.773116946236942e-05, "loss": 0.3606, "step": 144840 }, { "epoch": 193.13333333333333, "grad_norm": 0.81640625, "learning_rate": 9.773085747604151e-05, "loss": 0.3532, "step": 144850 }, { "epoch": 193.14666666666668, "grad_norm": 0.84375, "learning_rate": 9.773054546876253e-05, "loss": 0.3727, "step": 144860 }, { "epoch": 193.16, "grad_norm": 0.80859375, "learning_rate": 9.773023344053264e-05, "loss": 0.3684, "step": 144870 }, { "epoch": 193.17333333333335, "grad_norm": 0.90625, "learning_rate": 9.772992139135195e-05, "loss": 0.3634, "step": 144880 }, { "epoch": 193.18666666666667, "grad_norm": 0.796875, "learning_rate": 9.772960932122062e-05, "loss": 0.3589, "step": 144890 }, { "epoch": 193.2, "grad_norm": 0.8125, "learning_rate": 9.772929723013878e-05, "loss": 0.3516, "step": 144900 }, { "epoch": 193.21333333333334, "grad_norm": 0.84375, "learning_rate": 9.772898511810652e-05, "loss": 0.3523, "step": 144910 }, { "epoch": 193.22666666666666, "grad_norm": 0.859375, "learning_rate": 9.772867298512407e-05, "loss": 0.3632, "step": 144920 }, { "epoch": 193.24, "grad_norm": 0.9375, "learning_rate": 9.77283608311915e-05, "loss": 0.3494, "step": 144930 }, { "epoch": 193.25333333333333, "grad_norm": 0.8125, "learning_rate": 9.772804865630896e-05, "loss": 0.3502, "step": 144940 }, { "epoch": 193.26666666666668, "grad_norm": 0.83984375, "learning_rate": 9.77277364604766e-05, "loss": 0.3535, "step": 144950 }, { "epoch": 193.28, "grad_norm": 0.88671875, "learning_rate": 9.772742424369454e-05, "loss": 0.3803, "step": 144960 }, { "epoch": 193.29333333333332, "grad_norm": 0.80078125, "learning_rate": 9.772711200596293e-05, "loss": 0.3409, "step": 144970 }, { "epoch": 193.30666666666667, "grad_norm": 0.84375, "learning_rate": 9.77267997472819e-05, "loss": 0.3641, "step": 144980 }, { "epoch": 193.32, "grad_norm": 0.76171875, "learning_rate": 9.772648746765158e-05, "loss": 0.3689, "step": 144990 }, { "epoch": 193.33333333333334, "grad_norm": 1.015625, "learning_rate": 9.772617516707214e-05, "loss": 0.3662, "step": 145000 }, { "epoch": 193.34666666666666, "grad_norm": 0.96484375, "learning_rate": 9.772586284554368e-05, "loss": 0.3577, "step": 145010 }, { "epoch": 193.36, "grad_norm": 0.87890625, "learning_rate": 9.772555050306633e-05, "loss": 0.3588, "step": 145020 }, { "epoch": 193.37333333333333, "grad_norm": 0.796875, "learning_rate": 9.772523813964027e-05, "loss": 0.3623, "step": 145030 }, { "epoch": 193.38666666666666, "grad_norm": 0.94921875, "learning_rate": 9.772492575526562e-05, "loss": 0.3482, "step": 145040 }, { "epoch": 193.4, "grad_norm": 0.8359375, "learning_rate": 9.772461334994249e-05, "loss": 0.3594, "step": 145050 }, { "epoch": 193.41333333333333, "grad_norm": 0.81640625, "learning_rate": 9.772430092367106e-05, "loss": 0.3652, "step": 145060 }, { "epoch": 193.42666666666668, "grad_norm": 0.8359375, "learning_rate": 9.772398847645143e-05, "loss": 0.3668, "step": 145070 }, { "epoch": 193.44, "grad_norm": 0.8515625, "learning_rate": 9.772367600828376e-05, "loss": 0.3787, "step": 145080 }, { "epoch": 193.45333333333335, "grad_norm": 0.87890625, "learning_rate": 9.772336351916819e-05, "loss": 0.3672, "step": 145090 }, { "epoch": 193.46666666666667, "grad_norm": 0.86328125, "learning_rate": 9.772305100910484e-05, "loss": 0.3736, "step": 145100 }, { "epoch": 193.48, "grad_norm": 0.91015625, "learning_rate": 9.772273847809384e-05, "loss": 0.3581, "step": 145110 }, { "epoch": 193.49333333333334, "grad_norm": 0.8515625, "learning_rate": 9.772242592613537e-05, "loss": 0.3689, "step": 145120 }, { "epoch": 193.50666666666666, "grad_norm": 0.85546875, "learning_rate": 9.772211335322951e-05, "loss": 0.3685, "step": 145130 }, { "epoch": 193.52, "grad_norm": 0.75, "learning_rate": 9.772180075937645e-05, "loss": 0.3596, "step": 145140 }, { "epoch": 193.53333333333333, "grad_norm": 0.83203125, "learning_rate": 9.77214881445763e-05, "loss": 0.3605, "step": 145150 }, { "epoch": 193.54666666666665, "grad_norm": 1.0234375, "learning_rate": 9.772117550882917e-05, "loss": 0.3611, "step": 145160 }, { "epoch": 193.56, "grad_norm": 0.9921875, "learning_rate": 9.772086285213526e-05, "loss": 0.3556, "step": 145170 }, { "epoch": 193.57333333333332, "grad_norm": 0.8984375, "learning_rate": 9.772055017449466e-05, "loss": 0.3614, "step": 145180 }, { "epoch": 193.58666666666667, "grad_norm": 0.84375, "learning_rate": 9.772023747590754e-05, "loss": 0.3523, "step": 145190 }, { "epoch": 193.6, "grad_norm": 0.81640625, "learning_rate": 9.7719924756374e-05, "loss": 0.3538, "step": 145200 }, { "epoch": 193.61333333333334, "grad_norm": 0.8046875, "learning_rate": 9.771961201589421e-05, "loss": 0.3459, "step": 145210 }, { "epoch": 193.62666666666667, "grad_norm": 0.75, "learning_rate": 9.771929925446828e-05, "loss": 0.3499, "step": 145220 }, { "epoch": 193.64, "grad_norm": 1.015625, "learning_rate": 9.771898647209638e-05, "loss": 0.3569, "step": 145230 }, { "epoch": 193.65333333333334, "grad_norm": 0.8359375, "learning_rate": 9.771867366877863e-05, "loss": 0.3669, "step": 145240 }, { "epoch": 193.66666666666666, "grad_norm": 0.77734375, "learning_rate": 9.771836084451515e-05, "loss": 0.3588, "step": 145250 }, { "epoch": 193.68, "grad_norm": 0.8125, "learning_rate": 9.77180479993061e-05, "loss": 0.3467, "step": 145260 }, { "epoch": 193.69333333333333, "grad_norm": 0.84375, "learning_rate": 9.77177351331516e-05, "loss": 0.3588, "step": 145270 }, { "epoch": 193.70666666666668, "grad_norm": 0.91015625, "learning_rate": 9.77174222460518e-05, "loss": 0.3474, "step": 145280 }, { "epoch": 193.72, "grad_norm": 0.92578125, "learning_rate": 9.771710933800686e-05, "loss": 0.3689, "step": 145290 }, { "epoch": 193.73333333333332, "grad_norm": 0.86328125, "learning_rate": 9.771679640901687e-05, "loss": 0.365, "step": 145300 }, { "epoch": 193.74666666666667, "grad_norm": 0.86328125, "learning_rate": 9.7716483459082e-05, "loss": 0.3678, "step": 145310 }, { "epoch": 193.76, "grad_norm": 0.8828125, "learning_rate": 9.771617048820237e-05, "loss": 0.3815, "step": 145320 }, { "epoch": 193.77333333333334, "grad_norm": 0.90234375, "learning_rate": 9.771585749637813e-05, "loss": 0.365, "step": 145330 }, { "epoch": 193.78666666666666, "grad_norm": 0.80078125, "learning_rate": 9.77155444836094e-05, "loss": 0.369, "step": 145340 }, { "epoch": 193.8, "grad_norm": 0.87109375, "learning_rate": 9.771523144989634e-05, "loss": 0.3657, "step": 145350 }, { "epoch": 193.81333333333333, "grad_norm": 0.9375, "learning_rate": 9.771491839523907e-05, "loss": 0.34, "step": 145360 }, { "epoch": 193.82666666666665, "grad_norm": 0.80078125, "learning_rate": 9.771460531963774e-05, "loss": 0.3467, "step": 145370 }, { "epoch": 193.84, "grad_norm": 0.890625, "learning_rate": 9.771429222309249e-05, "loss": 0.3602, "step": 145380 }, { "epoch": 193.85333333333332, "grad_norm": 0.9140625, "learning_rate": 9.771397910560344e-05, "loss": 0.355, "step": 145390 }, { "epoch": 193.86666666666667, "grad_norm": 0.93359375, "learning_rate": 9.771366596717074e-05, "loss": 0.3615, "step": 145400 }, { "epoch": 193.88, "grad_norm": 0.85546875, "learning_rate": 9.771335280779453e-05, "loss": 0.3426, "step": 145410 }, { "epoch": 193.89333333333335, "grad_norm": 0.83984375, "learning_rate": 9.771303962747493e-05, "loss": 0.3552, "step": 145420 }, { "epoch": 193.90666666666667, "grad_norm": 0.8125, "learning_rate": 9.771272642621209e-05, "loss": 0.3595, "step": 145430 }, { "epoch": 193.92, "grad_norm": 0.90234375, "learning_rate": 9.771241320400614e-05, "loss": 0.3608, "step": 145440 }, { "epoch": 193.93333333333334, "grad_norm": 0.83203125, "learning_rate": 9.771209996085723e-05, "loss": 0.3574, "step": 145450 }, { "epoch": 193.94666666666666, "grad_norm": 0.85546875, "learning_rate": 9.771178669676551e-05, "loss": 0.3575, "step": 145460 }, { "epoch": 193.96, "grad_norm": 0.87890625, "learning_rate": 9.771147341173108e-05, "loss": 0.3561, "step": 145470 }, { "epoch": 193.97333333333333, "grad_norm": 1.1796875, "learning_rate": 9.77111601057541e-05, "loss": 0.3778, "step": 145480 }, { "epoch": 193.98666666666668, "grad_norm": 0.89453125, "learning_rate": 9.771084677883471e-05, "loss": 0.3473, "step": 145490 }, { "epoch": 194.0, "grad_norm": 0.84375, "learning_rate": 9.771053343097303e-05, "loss": 0.3496, "step": 145500 }, { "epoch": 194.0, "eval_loss": 0.41734275221824646, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8931, "eval_samples_per_second": 1.469, "eval_steps_per_second": 0.092, "step": 145500 }, { "epoch": 194.01333333333332, "grad_norm": 0.97265625, "learning_rate": 9.771022006216921e-05, "loss": 0.3646, "step": 145510 }, { "epoch": 194.02666666666667, "grad_norm": 0.80078125, "learning_rate": 9.770990667242339e-05, "loss": 0.3802, "step": 145520 }, { "epoch": 194.04, "grad_norm": 0.80078125, "learning_rate": 9.770959326173571e-05, "loss": 0.393, "step": 145530 }, { "epoch": 194.05333333333334, "grad_norm": 0.91015625, "learning_rate": 9.77092798301063e-05, "loss": 0.3765, "step": 145540 }, { "epoch": 194.06666666666666, "grad_norm": 1.0234375, "learning_rate": 9.770896637753529e-05, "loss": 0.3649, "step": 145550 }, { "epoch": 194.08, "grad_norm": 0.8359375, "learning_rate": 9.770865290402283e-05, "loss": 0.3684, "step": 145560 }, { "epoch": 194.09333333333333, "grad_norm": 0.87890625, "learning_rate": 9.770833940956907e-05, "loss": 0.3707, "step": 145570 }, { "epoch": 194.10666666666665, "grad_norm": 0.8515625, "learning_rate": 9.770802589417411e-05, "loss": 0.3602, "step": 145580 }, { "epoch": 194.12, "grad_norm": 0.890625, "learning_rate": 9.770771235783813e-05, "loss": 0.3608, "step": 145590 }, { "epoch": 194.13333333333333, "grad_norm": 0.8671875, "learning_rate": 9.770739880056124e-05, "loss": 0.3535, "step": 145600 }, { "epoch": 194.14666666666668, "grad_norm": 0.8046875, "learning_rate": 9.770708522234358e-05, "loss": 0.3723, "step": 145610 }, { "epoch": 194.16, "grad_norm": 0.73828125, "learning_rate": 9.770677162318529e-05, "loss": 0.3675, "step": 145620 }, { "epoch": 194.17333333333335, "grad_norm": 0.8828125, "learning_rate": 9.770645800308651e-05, "loss": 0.3625, "step": 145630 }, { "epoch": 194.18666666666667, "grad_norm": 0.81640625, "learning_rate": 9.77061443620474e-05, "loss": 0.3596, "step": 145640 }, { "epoch": 194.2, "grad_norm": 0.8203125, "learning_rate": 9.770583070006805e-05, "loss": 0.3514, "step": 145650 }, { "epoch": 194.21333333333334, "grad_norm": 0.8671875, "learning_rate": 9.770551701714863e-05, "loss": 0.353, "step": 145660 }, { "epoch": 194.22666666666666, "grad_norm": 0.85546875, "learning_rate": 9.770520331328927e-05, "loss": 0.3621, "step": 145670 }, { "epoch": 194.24, "grad_norm": 0.82421875, "learning_rate": 9.770488958849011e-05, "loss": 0.3491, "step": 145680 }, { "epoch": 194.25333333333333, "grad_norm": 0.84765625, "learning_rate": 9.77045758427513e-05, "loss": 0.3494, "step": 145690 }, { "epoch": 194.26666666666668, "grad_norm": 0.7265625, "learning_rate": 9.770426207607295e-05, "loss": 0.3541, "step": 145700 }, { "epoch": 194.28, "grad_norm": 1.0078125, "learning_rate": 9.770394828845522e-05, "loss": 0.3803, "step": 145710 }, { "epoch": 194.29333333333332, "grad_norm": 0.82421875, "learning_rate": 9.770363447989824e-05, "loss": 0.3411, "step": 145720 }, { "epoch": 194.30666666666667, "grad_norm": 0.80859375, "learning_rate": 9.770332065040213e-05, "loss": 0.3643, "step": 145730 }, { "epoch": 194.32, "grad_norm": 0.7578125, "learning_rate": 9.770300679996704e-05, "loss": 0.3683, "step": 145740 }, { "epoch": 194.33333333333334, "grad_norm": 0.87890625, "learning_rate": 9.770269292859315e-05, "loss": 0.3666, "step": 145750 }, { "epoch": 194.34666666666666, "grad_norm": 0.9453125, "learning_rate": 9.770237903628052e-05, "loss": 0.3573, "step": 145760 }, { "epoch": 194.36, "grad_norm": 0.91015625, "learning_rate": 9.770206512302935e-05, "loss": 0.3579, "step": 145770 }, { "epoch": 194.37333333333333, "grad_norm": 0.77734375, "learning_rate": 9.770175118883976e-05, "loss": 0.3627, "step": 145780 }, { "epoch": 194.38666666666666, "grad_norm": 0.96484375, "learning_rate": 9.770143723371187e-05, "loss": 0.3493, "step": 145790 }, { "epoch": 194.4, "grad_norm": 0.83984375, "learning_rate": 9.770112325764585e-05, "loss": 0.36, "step": 145800 }, { "epoch": 194.41333333333333, "grad_norm": 0.8125, "learning_rate": 9.770080926064182e-05, "loss": 0.3651, "step": 145810 }, { "epoch": 194.42666666666668, "grad_norm": 0.82421875, "learning_rate": 9.77004952426999e-05, "loss": 0.3673, "step": 145820 }, { "epoch": 194.44, "grad_norm": 0.859375, "learning_rate": 9.770018120382025e-05, "loss": 0.379, "step": 145830 }, { "epoch": 194.45333333333335, "grad_norm": 0.81640625, "learning_rate": 9.7699867144003e-05, "loss": 0.3668, "step": 145840 }, { "epoch": 194.46666666666667, "grad_norm": 0.8046875, "learning_rate": 9.76995530632483e-05, "loss": 0.3737, "step": 145850 }, { "epoch": 194.48, "grad_norm": 0.859375, "learning_rate": 9.769923896155629e-05, "loss": 0.3568, "step": 145860 }, { "epoch": 194.49333333333334, "grad_norm": 0.921875, "learning_rate": 9.769892483892707e-05, "loss": 0.3689, "step": 145870 }, { "epoch": 194.50666666666666, "grad_norm": 0.8828125, "learning_rate": 9.769861069536082e-05, "loss": 0.3683, "step": 145880 }, { "epoch": 194.52, "grad_norm": 0.71875, "learning_rate": 9.769829653085766e-05, "loss": 0.3597, "step": 145890 }, { "epoch": 194.53333333333333, "grad_norm": 0.953125, "learning_rate": 9.769798234541772e-05, "loss": 0.3605, "step": 145900 }, { "epoch": 194.54666666666665, "grad_norm": 0.953125, "learning_rate": 9.769766813904116e-05, "loss": 0.3613, "step": 145910 }, { "epoch": 194.56, "grad_norm": 0.8359375, "learning_rate": 9.769735391172811e-05, "loss": 0.3556, "step": 145920 }, { "epoch": 194.57333333333332, "grad_norm": 0.92578125, "learning_rate": 9.76970396634787e-05, "loss": 0.3605, "step": 145930 }, { "epoch": 194.58666666666667, "grad_norm": 0.859375, "learning_rate": 9.769672539429306e-05, "loss": 0.3518, "step": 145940 }, { "epoch": 194.6, "grad_norm": 0.8125, "learning_rate": 9.769641110417136e-05, "loss": 0.3535, "step": 145950 }, { "epoch": 194.61333333333334, "grad_norm": 0.828125, "learning_rate": 9.76960967931137e-05, "loss": 0.3455, "step": 145960 }, { "epoch": 194.62666666666667, "grad_norm": 0.8046875, "learning_rate": 9.769578246112026e-05, "loss": 0.35, "step": 145970 }, { "epoch": 194.64, "grad_norm": 0.93359375, "learning_rate": 9.769546810819112e-05, "loss": 0.3561, "step": 145980 }, { "epoch": 194.65333333333334, "grad_norm": 0.85546875, "learning_rate": 9.769515373432648e-05, "loss": 0.3666, "step": 145990 }, { "epoch": 194.66666666666666, "grad_norm": 0.78125, "learning_rate": 9.769483933952643e-05, "loss": 0.359, "step": 146000 }, { "epoch": 194.68, "grad_norm": 0.8125, "learning_rate": 9.769452492379114e-05, "loss": 0.3467, "step": 146010 }, { "epoch": 194.69333333333333, "grad_norm": 0.75, "learning_rate": 9.769421048712072e-05, "loss": 0.3589, "step": 146020 }, { "epoch": 194.70666666666668, "grad_norm": 1.03125, "learning_rate": 9.769389602951536e-05, "loss": 0.3473, "step": 146030 }, { "epoch": 194.72, "grad_norm": 0.875, "learning_rate": 9.769358155097513e-05, "loss": 0.3689, "step": 146040 }, { "epoch": 194.73333333333332, "grad_norm": 0.9140625, "learning_rate": 9.769326705150022e-05, "loss": 0.3646, "step": 146050 }, { "epoch": 194.74666666666667, "grad_norm": 0.88671875, "learning_rate": 9.769295253109073e-05, "loss": 0.3681, "step": 146060 }, { "epoch": 194.76, "grad_norm": 0.87109375, "learning_rate": 9.769263798974683e-05, "loss": 0.381, "step": 146070 }, { "epoch": 194.77333333333334, "grad_norm": 0.94921875, "learning_rate": 9.769232342746863e-05, "loss": 0.3647, "step": 146080 }, { "epoch": 194.78666666666666, "grad_norm": 0.796875, "learning_rate": 9.769200884425629e-05, "loss": 0.3688, "step": 146090 }, { "epoch": 194.8, "grad_norm": 0.87890625, "learning_rate": 9.769169424010995e-05, "loss": 0.366, "step": 146100 }, { "epoch": 194.81333333333333, "grad_norm": 1.0703125, "learning_rate": 9.769137961502972e-05, "loss": 0.3397, "step": 146110 }, { "epoch": 194.82666666666665, "grad_norm": 0.8359375, "learning_rate": 9.769106496901576e-05, "loss": 0.347, "step": 146120 }, { "epoch": 194.84, "grad_norm": 0.98828125, "learning_rate": 9.769075030206822e-05, "loss": 0.3602, "step": 146130 }, { "epoch": 194.85333333333332, "grad_norm": 0.84375, "learning_rate": 9.76904356141872e-05, "loss": 0.3559, "step": 146140 }, { "epoch": 194.86666666666667, "grad_norm": 0.81640625, "learning_rate": 9.769012090537288e-05, "loss": 0.3621, "step": 146150 }, { "epoch": 194.88, "grad_norm": 0.81640625, "learning_rate": 9.768980617562538e-05, "loss": 0.343, "step": 146160 }, { "epoch": 194.89333333333335, "grad_norm": 0.82421875, "learning_rate": 9.768949142494482e-05, "loss": 0.3552, "step": 146170 }, { "epoch": 194.90666666666667, "grad_norm": 0.85546875, "learning_rate": 9.768917665333137e-05, "loss": 0.3588, "step": 146180 }, { "epoch": 194.92, "grad_norm": 0.90625, "learning_rate": 9.768886186078514e-05, "loss": 0.3603, "step": 146190 }, { "epoch": 194.93333333333334, "grad_norm": 0.796875, "learning_rate": 9.76885470473063e-05, "loss": 0.357, "step": 146200 }, { "epoch": 194.94666666666666, "grad_norm": 0.8671875, "learning_rate": 9.768823221289495e-05, "loss": 0.3569, "step": 146210 }, { "epoch": 194.96, "grad_norm": 0.8046875, "learning_rate": 9.768791735755127e-05, "loss": 0.3553, "step": 146220 }, { "epoch": 194.97333333333333, "grad_norm": 1.09375, "learning_rate": 9.768760248127535e-05, "loss": 0.3774, "step": 146230 }, { "epoch": 194.98666666666668, "grad_norm": 0.8125, "learning_rate": 9.768728758406737e-05, "loss": 0.3474, "step": 146240 }, { "epoch": 195.0, "grad_norm": 0.90234375, "learning_rate": 9.768697266592746e-05, "loss": 0.3484, "step": 146250 }, { "epoch": 195.0, "eval_loss": 0.41712895035743713, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.0731, "eval_samples_per_second": 1.445, "eval_steps_per_second": 0.09, "step": 146250 }, { "epoch": 195.01333333333332, "grad_norm": 0.9140625, "learning_rate": 9.768665772685574e-05, "loss": 0.3641, "step": 146260 }, { "epoch": 195.02666666666667, "grad_norm": 0.81640625, "learning_rate": 9.768634276685236e-05, "loss": 0.3796, "step": 146270 }, { "epoch": 195.04, "grad_norm": 0.8125, "learning_rate": 9.768602778591746e-05, "loss": 0.3927, "step": 146280 }, { "epoch": 195.05333333333334, "grad_norm": 0.8203125, "learning_rate": 9.768571278405117e-05, "loss": 0.3768, "step": 146290 }, { "epoch": 195.06666666666666, "grad_norm": 1.0, "learning_rate": 9.768539776125363e-05, "loss": 0.3659, "step": 146300 }, { "epoch": 195.08, "grad_norm": 0.828125, "learning_rate": 9.7685082717525e-05, "loss": 0.3672, "step": 146310 }, { "epoch": 195.09333333333333, "grad_norm": 0.984375, "learning_rate": 9.768476765286538e-05, "loss": 0.3707, "step": 146320 }, { "epoch": 195.10666666666665, "grad_norm": 0.80078125, "learning_rate": 9.768445256727494e-05, "loss": 0.36, "step": 146330 }, { "epoch": 195.12, "grad_norm": 0.91796875, "learning_rate": 9.768413746075382e-05, "loss": 0.3599, "step": 146340 }, { "epoch": 195.13333333333333, "grad_norm": 0.8984375, "learning_rate": 9.768382233330213e-05, "loss": 0.3525, "step": 146350 }, { "epoch": 195.14666666666668, "grad_norm": 0.85546875, "learning_rate": 9.768350718492002e-05, "loss": 0.3725, "step": 146360 }, { "epoch": 195.16, "grad_norm": 0.8046875, "learning_rate": 9.768319201560764e-05, "loss": 0.3679, "step": 146370 }, { "epoch": 195.17333333333335, "grad_norm": 0.984375, "learning_rate": 9.768287682536513e-05, "loss": 0.3626, "step": 146380 }, { "epoch": 195.18666666666667, "grad_norm": 0.859375, "learning_rate": 9.768256161419259e-05, "loss": 0.3604, "step": 146390 }, { "epoch": 195.2, "grad_norm": 0.8671875, "learning_rate": 9.76822463820902e-05, "loss": 0.3512, "step": 146400 }, { "epoch": 195.21333333333334, "grad_norm": 0.97265625, "learning_rate": 9.76819311290581e-05, "loss": 0.3516, "step": 146410 }, { "epoch": 195.22666666666666, "grad_norm": 0.96875, "learning_rate": 9.76816158550964e-05, "loss": 0.3629, "step": 146420 }, { "epoch": 195.24, "grad_norm": 0.96484375, "learning_rate": 9.768130056020525e-05, "loss": 0.3487, "step": 146430 }, { "epoch": 195.25333333333333, "grad_norm": 0.859375, "learning_rate": 9.76809852443848e-05, "loss": 0.3503, "step": 146440 }, { "epoch": 195.26666666666668, "grad_norm": 0.828125, "learning_rate": 9.768066990763518e-05, "loss": 0.3539, "step": 146450 }, { "epoch": 195.28, "grad_norm": 0.87890625, "learning_rate": 9.768035454995652e-05, "loss": 0.3814, "step": 146460 }, { "epoch": 195.29333333333332, "grad_norm": 0.80859375, "learning_rate": 9.768003917134897e-05, "loss": 0.3399, "step": 146470 }, { "epoch": 195.30666666666667, "grad_norm": 0.828125, "learning_rate": 9.767972377181266e-05, "loss": 0.3629, "step": 146480 }, { "epoch": 195.32, "grad_norm": 0.75390625, "learning_rate": 9.767940835134773e-05, "loss": 0.3683, "step": 146490 }, { "epoch": 195.33333333333334, "grad_norm": 1.0078125, "learning_rate": 9.767909290995433e-05, "loss": 0.3663, "step": 146500 }, { "epoch": 195.34666666666666, "grad_norm": 0.9609375, "learning_rate": 9.767877744763258e-05, "loss": 0.3577, "step": 146510 }, { "epoch": 195.36, "grad_norm": 0.8984375, "learning_rate": 9.767846196438264e-05, "loss": 0.359, "step": 146520 }, { "epoch": 195.37333333333333, "grad_norm": 0.7578125, "learning_rate": 9.767814646020464e-05, "loss": 0.3619, "step": 146530 }, { "epoch": 195.38666666666666, "grad_norm": 0.9140625, "learning_rate": 9.76778309350987e-05, "loss": 0.3479, "step": 146540 }, { "epoch": 195.4, "grad_norm": 0.84765625, "learning_rate": 9.767751538906498e-05, "loss": 0.3594, "step": 146550 }, { "epoch": 195.41333333333333, "grad_norm": 0.84765625, "learning_rate": 9.767719982210361e-05, "loss": 0.3657, "step": 146560 }, { "epoch": 195.42666666666668, "grad_norm": 0.88671875, "learning_rate": 9.767688423421473e-05, "loss": 0.3674, "step": 146570 }, { "epoch": 195.44, "grad_norm": 0.921875, "learning_rate": 9.767656862539848e-05, "loss": 0.3798, "step": 146580 }, { "epoch": 195.45333333333335, "grad_norm": 0.84765625, "learning_rate": 9.767625299565499e-05, "loss": 0.3662, "step": 146590 }, { "epoch": 195.46666666666667, "grad_norm": 0.7890625, "learning_rate": 9.767593734498443e-05, "loss": 0.3731, "step": 146600 }, { "epoch": 195.48, "grad_norm": 0.84765625, "learning_rate": 9.76756216733869e-05, "loss": 0.3578, "step": 146610 }, { "epoch": 195.49333333333334, "grad_norm": 0.80859375, "learning_rate": 9.767530598086254e-05, "loss": 0.3688, "step": 146620 }, { "epoch": 195.50666666666666, "grad_norm": 0.90234375, "learning_rate": 9.767499026741153e-05, "loss": 0.3689, "step": 146630 }, { "epoch": 195.52, "grad_norm": 0.8203125, "learning_rate": 9.767467453303396e-05, "loss": 0.3597, "step": 146640 }, { "epoch": 195.53333333333333, "grad_norm": 0.82421875, "learning_rate": 9.767435877772999e-05, "loss": 0.3597, "step": 146650 }, { "epoch": 195.54666666666665, "grad_norm": 1.015625, "learning_rate": 9.767404300149975e-05, "loss": 0.3614, "step": 146660 }, { "epoch": 195.56, "grad_norm": 0.82421875, "learning_rate": 9.767372720434341e-05, "loss": 0.3551, "step": 146670 }, { "epoch": 195.57333333333332, "grad_norm": 0.88671875, "learning_rate": 9.767341138626107e-05, "loss": 0.3603, "step": 146680 }, { "epoch": 195.58666666666667, "grad_norm": 0.80859375, "learning_rate": 9.76730955472529e-05, "loss": 0.3517, "step": 146690 }, { "epoch": 195.6, "grad_norm": 0.89453125, "learning_rate": 9.7672779687319e-05, "loss": 0.353, "step": 146700 }, { "epoch": 195.61333333333334, "grad_norm": 0.9140625, "learning_rate": 9.767246380645953e-05, "loss": 0.3456, "step": 146710 }, { "epoch": 195.62666666666667, "grad_norm": 0.76953125, "learning_rate": 9.767214790467466e-05, "loss": 0.3485, "step": 146720 }, { "epoch": 195.64, "grad_norm": 0.95703125, "learning_rate": 9.767183198196446e-05, "loss": 0.3564, "step": 146730 }, { "epoch": 195.65333333333334, "grad_norm": 0.84765625, "learning_rate": 9.767151603832914e-05, "loss": 0.3665, "step": 146740 }, { "epoch": 195.66666666666666, "grad_norm": 0.76953125, "learning_rate": 9.767120007376877e-05, "loss": 0.3589, "step": 146750 }, { "epoch": 195.68, "grad_norm": 0.91796875, "learning_rate": 9.767088408828356e-05, "loss": 0.3467, "step": 146760 }, { "epoch": 195.69333333333333, "grad_norm": 0.7578125, "learning_rate": 9.76705680818736e-05, "loss": 0.3581, "step": 146770 }, { "epoch": 195.70666666666668, "grad_norm": 0.96484375, "learning_rate": 9.767025205453903e-05, "loss": 0.3486, "step": 146780 }, { "epoch": 195.72, "grad_norm": 0.90625, "learning_rate": 9.766993600628e-05, "loss": 0.3684, "step": 146790 }, { "epoch": 195.73333333333332, "grad_norm": 0.90625, "learning_rate": 9.766961993709667e-05, "loss": 0.3651, "step": 146800 }, { "epoch": 195.74666666666667, "grad_norm": 0.92578125, "learning_rate": 9.766930384698913e-05, "loss": 0.3681, "step": 146810 }, { "epoch": 195.76, "grad_norm": 0.84375, "learning_rate": 9.766898773595757e-05, "loss": 0.3812, "step": 146820 }, { "epoch": 195.77333333333334, "grad_norm": 0.89453125, "learning_rate": 9.766867160400211e-05, "loss": 0.3643, "step": 146830 }, { "epoch": 195.78666666666666, "grad_norm": 0.796875, "learning_rate": 9.766835545112287e-05, "loss": 0.3689, "step": 146840 }, { "epoch": 195.8, "grad_norm": 0.8828125, "learning_rate": 9.766803927732e-05, "loss": 0.3658, "step": 146850 }, { "epoch": 195.81333333333333, "grad_norm": 1.0625, "learning_rate": 9.766772308259364e-05, "loss": 0.3401, "step": 146860 }, { "epoch": 195.82666666666665, "grad_norm": 0.7890625, "learning_rate": 9.766740686694393e-05, "loss": 0.3471, "step": 146870 }, { "epoch": 195.84, "grad_norm": 0.88671875, "learning_rate": 9.766709063037102e-05, "loss": 0.3599, "step": 146880 }, { "epoch": 195.85333333333332, "grad_norm": 0.78125, "learning_rate": 9.766677437287504e-05, "loss": 0.355, "step": 146890 }, { "epoch": 195.86666666666667, "grad_norm": 0.81640625, "learning_rate": 9.766645809445611e-05, "loss": 0.3621, "step": 146900 }, { "epoch": 195.88, "grad_norm": 0.796875, "learning_rate": 9.76661417951144e-05, "loss": 0.3424, "step": 146910 }, { "epoch": 195.89333333333335, "grad_norm": 0.81640625, "learning_rate": 9.766582547485002e-05, "loss": 0.3556, "step": 146920 }, { "epoch": 195.90666666666667, "grad_norm": 0.8203125, "learning_rate": 9.766550913366313e-05, "loss": 0.3592, "step": 146930 }, { "epoch": 195.92, "grad_norm": 0.84375, "learning_rate": 9.766519277155387e-05, "loss": 0.3602, "step": 146940 }, { "epoch": 195.93333333333334, "grad_norm": 0.77734375, "learning_rate": 9.766487638852236e-05, "loss": 0.3574, "step": 146950 }, { "epoch": 195.94666666666666, "grad_norm": 0.8203125, "learning_rate": 9.766455998456876e-05, "loss": 0.3565, "step": 146960 }, { "epoch": 195.96, "grad_norm": 0.77734375, "learning_rate": 9.766424355969318e-05, "loss": 0.3541, "step": 146970 }, { "epoch": 195.97333333333333, "grad_norm": 1.171875, "learning_rate": 9.76639271138958e-05, "loss": 0.3776, "step": 146980 }, { "epoch": 195.98666666666668, "grad_norm": 0.8203125, "learning_rate": 9.766361064717673e-05, "loss": 0.3468, "step": 146990 }, { "epoch": 196.0, "grad_norm": 0.875, "learning_rate": 9.766329415953613e-05, "loss": 0.3487, "step": 147000 }, { "epoch": 196.0, "eval_loss": 0.4183884859085083, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9397, "eval_samples_per_second": 1.463, "eval_steps_per_second": 0.091, "step": 147000 }, { "epoch": 196.01333333333332, "grad_norm": 0.90625, "learning_rate": 9.76629776509741e-05, "loss": 0.3637, "step": 147010 }, { "epoch": 196.02666666666667, "grad_norm": 0.76953125, "learning_rate": 9.76626611214908e-05, "loss": 0.3797, "step": 147020 }, { "epoch": 196.04, "grad_norm": 0.84375, "learning_rate": 9.76623445710864e-05, "loss": 0.393, "step": 147030 }, { "epoch": 196.05333333333334, "grad_norm": 0.96875, "learning_rate": 9.766202799976099e-05, "loss": 0.3768, "step": 147040 }, { "epoch": 196.06666666666666, "grad_norm": 1.0, "learning_rate": 9.766171140751474e-05, "loss": 0.3649, "step": 147050 }, { "epoch": 196.08, "grad_norm": 0.984375, "learning_rate": 9.766139479434777e-05, "loss": 0.3684, "step": 147060 }, { "epoch": 196.09333333333333, "grad_norm": 0.8671875, "learning_rate": 9.766107816026022e-05, "loss": 0.3715, "step": 147070 }, { "epoch": 196.10666666666665, "grad_norm": 0.796875, "learning_rate": 9.766076150525226e-05, "loss": 0.3603, "step": 147080 }, { "epoch": 196.12, "grad_norm": 0.9140625, "learning_rate": 9.7660444829324e-05, "loss": 0.3606, "step": 147090 }, { "epoch": 196.13333333333333, "grad_norm": 0.7890625, "learning_rate": 9.766012813247559e-05, "loss": 0.3533, "step": 147100 }, { "epoch": 196.14666666666668, "grad_norm": 0.81640625, "learning_rate": 9.765981141470713e-05, "loss": 0.3721, "step": 147110 }, { "epoch": 196.16, "grad_norm": 0.82421875, "learning_rate": 9.765949467601882e-05, "loss": 0.3685, "step": 147120 }, { "epoch": 196.17333333333335, "grad_norm": 0.90234375, "learning_rate": 9.765917791641077e-05, "loss": 0.3625, "step": 147130 }, { "epoch": 196.18666666666667, "grad_norm": 0.78125, "learning_rate": 9.765886113588313e-05, "loss": 0.3594, "step": 147140 }, { "epoch": 196.2, "grad_norm": 0.88671875, "learning_rate": 9.765854433443602e-05, "loss": 0.3521, "step": 147150 }, { "epoch": 196.21333333333334, "grad_norm": 0.87109375, "learning_rate": 9.765822751206959e-05, "loss": 0.3521, "step": 147160 }, { "epoch": 196.22666666666666, "grad_norm": 0.9140625, "learning_rate": 9.765791066878398e-05, "loss": 0.3625, "step": 147170 }, { "epoch": 196.24, "grad_norm": 0.8984375, "learning_rate": 9.765759380457932e-05, "loss": 0.3492, "step": 147180 }, { "epoch": 196.25333333333333, "grad_norm": 0.86328125, "learning_rate": 9.765727691945577e-05, "loss": 0.35, "step": 147190 }, { "epoch": 196.26666666666668, "grad_norm": 0.8203125, "learning_rate": 9.765696001341345e-05, "loss": 0.354, "step": 147200 }, { "epoch": 196.28, "grad_norm": 0.9453125, "learning_rate": 9.76566430864525e-05, "loss": 0.3802, "step": 147210 }, { "epoch": 196.29333333333332, "grad_norm": 0.86328125, "learning_rate": 9.765632613857306e-05, "loss": 0.3413, "step": 147220 }, { "epoch": 196.30666666666667, "grad_norm": 0.82421875, "learning_rate": 9.765600916977529e-05, "loss": 0.3644, "step": 147230 }, { "epoch": 196.32, "grad_norm": 0.73046875, "learning_rate": 9.76556921800593e-05, "loss": 0.3685, "step": 147240 }, { "epoch": 196.33333333333334, "grad_norm": 0.89453125, "learning_rate": 9.765537516942524e-05, "loss": 0.3666, "step": 147250 }, { "epoch": 196.34666666666666, "grad_norm": 0.96875, "learning_rate": 9.765505813787326e-05, "loss": 0.3572, "step": 147260 }, { "epoch": 196.36, "grad_norm": 0.8203125, "learning_rate": 9.765474108540346e-05, "loss": 0.3584, "step": 147270 }, { "epoch": 196.37333333333333, "grad_norm": 0.796875, "learning_rate": 9.765442401201606e-05, "loss": 0.3626, "step": 147280 }, { "epoch": 196.38666666666666, "grad_norm": 0.9921875, "learning_rate": 9.76541069177111e-05, "loss": 0.3487, "step": 147290 }, { "epoch": 196.4, "grad_norm": 0.82421875, "learning_rate": 9.76537898024888e-05, "loss": 0.3599, "step": 147300 }, { "epoch": 196.41333333333333, "grad_norm": 0.91015625, "learning_rate": 9.765347266634924e-05, "loss": 0.3658, "step": 147310 }, { "epoch": 196.42666666666668, "grad_norm": 0.7890625, "learning_rate": 9.76531555092926e-05, "loss": 0.367, "step": 147320 }, { "epoch": 196.44, "grad_norm": 0.8515625, "learning_rate": 9.7652838331319e-05, "loss": 0.3796, "step": 147330 }, { "epoch": 196.45333333333335, "grad_norm": 0.890625, "learning_rate": 9.76525211324286e-05, "loss": 0.3657, "step": 147340 }, { "epoch": 196.46666666666667, "grad_norm": 0.82421875, "learning_rate": 9.765220391262151e-05, "loss": 0.3732, "step": 147350 }, { "epoch": 196.48, "grad_norm": 0.8203125, "learning_rate": 9.765188667189787e-05, "loss": 0.3566, "step": 147360 }, { "epoch": 196.49333333333334, "grad_norm": 0.94921875, "learning_rate": 9.765156941025785e-05, "loss": 0.3679, "step": 147370 }, { "epoch": 196.50666666666666, "grad_norm": 0.8984375, "learning_rate": 9.765125212770156e-05, "loss": 0.3694, "step": 147380 }, { "epoch": 196.52, "grad_norm": 0.73828125, "learning_rate": 9.765093482422915e-05, "loss": 0.3588, "step": 147390 }, { "epoch": 196.53333333333333, "grad_norm": 0.796875, "learning_rate": 9.765061749984077e-05, "loss": 0.3602, "step": 147400 }, { "epoch": 196.54666666666665, "grad_norm": 0.94921875, "learning_rate": 9.765030015453655e-05, "loss": 0.3604, "step": 147410 }, { "epoch": 196.56, "grad_norm": 0.76171875, "learning_rate": 9.76499827883166e-05, "loss": 0.3551, "step": 147420 }, { "epoch": 196.57333333333332, "grad_norm": 0.94140625, "learning_rate": 9.764966540118112e-05, "loss": 0.3607, "step": 147430 }, { "epoch": 196.58666666666667, "grad_norm": 0.78515625, "learning_rate": 9.764934799313022e-05, "loss": 0.352, "step": 147440 }, { "epoch": 196.6, "grad_norm": 0.8828125, "learning_rate": 9.7649030564164e-05, "loss": 0.3531, "step": 147450 }, { "epoch": 196.61333333333334, "grad_norm": 0.79296875, "learning_rate": 9.764871311428267e-05, "loss": 0.3459, "step": 147460 }, { "epoch": 196.62666666666667, "grad_norm": 0.76953125, "learning_rate": 9.764839564348631e-05, "loss": 0.3493, "step": 147470 }, { "epoch": 196.64, "grad_norm": 0.93359375, "learning_rate": 9.76480781517751e-05, "loss": 0.3553, "step": 147480 }, { "epoch": 196.65333333333334, "grad_norm": 0.8359375, "learning_rate": 9.764776063914916e-05, "loss": 0.3669, "step": 147490 }, { "epoch": 196.66666666666666, "grad_norm": 0.8046875, "learning_rate": 9.764744310560862e-05, "loss": 0.3583, "step": 147500 }, { "epoch": 196.68, "grad_norm": 0.86328125, "learning_rate": 9.764712555115366e-05, "loss": 0.347, "step": 147510 }, { "epoch": 196.69333333333333, "grad_norm": 0.7421875, "learning_rate": 9.764680797578436e-05, "loss": 0.3585, "step": 147520 }, { "epoch": 196.70666666666668, "grad_norm": 1.0625, "learning_rate": 9.764649037950092e-05, "loss": 0.3475, "step": 147530 }, { "epoch": 196.72, "grad_norm": 0.88671875, "learning_rate": 9.764617276230343e-05, "loss": 0.3695, "step": 147540 }, { "epoch": 196.73333333333332, "grad_norm": 0.8828125, "learning_rate": 9.764585512419204e-05, "loss": 0.3651, "step": 147550 }, { "epoch": 196.74666666666667, "grad_norm": 0.79296875, "learning_rate": 9.764553746516691e-05, "loss": 0.3677, "step": 147560 }, { "epoch": 196.76, "grad_norm": 0.94140625, "learning_rate": 9.764521978522818e-05, "loss": 0.3824, "step": 147570 }, { "epoch": 196.77333333333334, "grad_norm": 0.984375, "learning_rate": 9.764490208437598e-05, "loss": 0.366, "step": 147580 }, { "epoch": 196.78666666666666, "grad_norm": 0.73828125, "learning_rate": 9.764458436261044e-05, "loss": 0.3682, "step": 147590 }, { "epoch": 196.8, "grad_norm": 0.87109375, "learning_rate": 9.764426661993169e-05, "loss": 0.3659, "step": 147600 }, { "epoch": 196.81333333333333, "grad_norm": 1.015625, "learning_rate": 9.764394885633991e-05, "loss": 0.3401, "step": 147610 }, { "epoch": 196.82666666666665, "grad_norm": 0.79296875, "learning_rate": 9.764363107183521e-05, "loss": 0.3473, "step": 147620 }, { "epoch": 196.84, "grad_norm": 0.90625, "learning_rate": 9.764331326641773e-05, "loss": 0.3605, "step": 147630 }, { "epoch": 196.85333333333332, "grad_norm": 0.890625, "learning_rate": 9.764299544008762e-05, "loss": 0.3552, "step": 147640 }, { "epoch": 196.86666666666667, "grad_norm": 0.87890625, "learning_rate": 9.7642677592845e-05, "loss": 0.3621, "step": 147650 }, { "epoch": 196.88, "grad_norm": 0.8828125, "learning_rate": 9.764235972469003e-05, "loss": 0.3422, "step": 147660 }, { "epoch": 196.89333333333335, "grad_norm": 0.81640625, "learning_rate": 9.764204183562285e-05, "loss": 0.3557, "step": 147670 }, { "epoch": 196.90666666666667, "grad_norm": 0.8515625, "learning_rate": 9.764172392564359e-05, "loss": 0.3594, "step": 147680 }, { "epoch": 196.92, "grad_norm": 0.83984375, "learning_rate": 9.76414059947524e-05, "loss": 0.3592, "step": 147690 }, { "epoch": 196.93333333333334, "grad_norm": 0.79296875, "learning_rate": 9.76410880429494e-05, "loss": 0.3567, "step": 147700 }, { "epoch": 196.94666666666666, "grad_norm": 0.86328125, "learning_rate": 9.764077007023476e-05, "loss": 0.3568, "step": 147710 }, { "epoch": 196.96, "grad_norm": 0.78515625, "learning_rate": 9.764045207660858e-05, "loss": 0.3544, "step": 147720 }, { "epoch": 196.97333333333333, "grad_norm": 1.140625, "learning_rate": 9.764013406207104e-05, "loss": 0.3771, "step": 147730 }, { "epoch": 196.98666666666668, "grad_norm": 0.85546875, "learning_rate": 9.763981602662224e-05, "loss": 0.3475, "step": 147740 }, { "epoch": 197.0, "grad_norm": 0.92578125, "learning_rate": 9.763949797026235e-05, "loss": 0.3487, "step": 147750 }, { "epoch": 197.0, "eval_loss": 0.4166479706764221, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9176, "eval_samples_per_second": 1.466, "eval_steps_per_second": 0.092, "step": 147750 }, { "epoch": 197.01333333333332, "grad_norm": 0.953125, "learning_rate": 9.76391798929915e-05, "loss": 0.3647, "step": 147760 }, { "epoch": 197.02666666666667, "grad_norm": 0.859375, "learning_rate": 9.763886179480983e-05, "loss": 0.3796, "step": 147770 }, { "epoch": 197.04, "grad_norm": 0.87890625, "learning_rate": 9.763854367571747e-05, "loss": 0.3928, "step": 147780 }, { "epoch": 197.05333333333334, "grad_norm": 0.88671875, "learning_rate": 9.763822553571458e-05, "loss": 0.3762, "step": 147790 }, { "epoch": 197.06666666666666, "grad_norm": 1.015625, "learning_rate": 9.763790737480127e-05, "loss": 0.3639, "step": 147800 }, { "epoch": 197.08, "grad_norm": 0.9140625, "learning_rate": 9.763758919297772e-05, "loss": 0.3674, "step": 147810 }, { "epoch": 197.09333333333333, "grad_norm": 0.93359375, "learning_rate": 9.763727099024404e-05, "loss": 0.3714, "step": 147820 }, { "epoch": 197.10666666666665, "grad_norm": 0.84375, "learning_rate": 9.763695276660038e-05, "loss": 0.3597, "step": 147830 }, { "epoch": 197.12, "grad_norm": 0.87890625, "learning_rate": 9.763663452204687e-05, "loss": 0.3608, "step": 147840 }, { "epoch": 197.13333333333333, "grad_norm": 0.8203125, "learning_rate": 9.763631625658365e-05, "loss": 0.3525, "step": 147850 }, { "epoch": 197.14666666666668, "grad_norm": 0.8359375, "learning_rate": 9.763599797021087e-05, "loss": 0.3726, "step": 147860 }, { "epoch": 197.16, "grad_norm": 0.79296875, "learning_rate": 9.763567966292868e-05, "loss": 0.3677, "step": 147870 }, { "epoch": 197.17333333333335, "grad_norm": 1.0, "learning_rate": 9.763536133473719e-05, "loss": 0.3627, "step": 147880 }, { "epoch": 197.18666666666667, "grad_norm": 0.8984375, "learning_rate": 9.763504298563657e-05, "loss": 0.3588, "step": 147890 }, { "epoch": 197.2, "grad_norm": 0.76953125, "learning_rate": 9.763472461562692e-05, "loss": 0.3507, "step": 147900 }, { "epoch": 197.21333333333334, "grad_norm": 0.875, "learning_rate": 9.763440622470843e-05, "loss": 0.3522, "step": 147910 }, { "epoch": 197.22666666666666, "grad_norm": 0.890625, "learning_rate": 9.763408781288121e-05, "loss": 0.3634, "step": 147920 }, { "epoch": 197.24, "grad_norm": 0.91796875, "learning_rate": 9.76337693801454e-05, "loss": 0.3496, "step": 147930 }, { "epoch": 197.25333333333333, "grad_norm": 0.89453125, "learning_rate": 9.763345092650114e-05, "loss": 0.3502, "step": 147940 }, { "epoch": 197.26666666666668, "grad_norm": 0.82421875, "learning_rate": 9.763313245194858e-05, "loss": 0.3531, "step": 147950 }, { "epoch": 197.28, "grad_norm": 0.96484375, "learning_rate": 9.763281395648784e-05, "loss": 0.3811, "step": 147960 }, { "epoch": 197.29333333333332, "grad_norm": 0.85546875, "learning_rate": 9.76324954401191e-05, "loss": 0.3405, "step": 147970 }, { "epoch": 197.30666666666667, "grad_norm": 0.87109375, "learning_rate": 9.763217690284245e-05, "loss": 0.3638, "step": 147980 }, { "epoch": 197.32, "grad_norm": 0.76171875, "learning_rate": 9.763185834465807e-05, "loss": 0.3686, "step": 147990 }, { "epoch": 197.33333333333334, "grad_norm": 0.8515625, "learning_rate": 9.763153976556607e-05, "loss": 0.3652, "step": 148000 }, { "epoch": 197.34666666666666, "grad_norm": 0.921875, "learning_rate": 9.76312211655666e-05, "loss": 0.3572, "step": 148010 }, { "epoch": 197.36, "grad_norm": 0.97265625, "learning_rate": 9.76309025446598e-05, "loss": 0.358, "step": 148020 }, { "epoch": 197.37333333333333, "grad_norm": 0.828125, "learning_rate": 9.763058390284583e-05, "loss": 0.3623, "step": 148030 }, { "epoch": 197.38666666666666, "grad_norm": 0.99609375, "learning_rate": 9.763026524012481e-05, "loss": 0.3487, "step": 148040 }, { "epoch": 197.4, "grad_norm": 0.87890625, "learning_rate": 9.762994655649688e-05, "loss": 0.36, "step": 148050 }, { "epoch": 197.41333333333333, "grad_norm": 0.81640625, "learning_rate": 9.762962785196216e-05, "loss": 0.3652, "step": 148060 }, { "epoch": 197.42666666666668, "grad_norm": 0.8359375, "learning_rate": 9.762930912652085e-05, "loss": 0.3674, "step": 148070 }, { "epoch": 197.44, "grad_norm": 0.90234375, "learning_rate": 9.762899038017302e-05, "loss": 0.3789, "step": 148080 }, { "epoch": 197.45333333333335, "grad_norm": 0.87109375, "learning_rate": 9.762867161291885e-05, "loss": 0.3672, "step": 148090 }, { "epoch": 197.46666666666667, "grad_norm": 0.81640625, "learning_rate": 9.762835282475849e-05, "loss": 0.3729, "step": 148100 }, { "epoch": 197.48, "grad_norm": 0.84375, "learning_rate": 9.762803401569203e-05, "loss": 0.3573, "step": 148110 }, { "epoch": 197.49333333333334, "grad_norm": 0.859375, "learning_rate": 9.762771518571967e-05, "loss": 0.3681, "step": 148120 }, { "epoch": 197.50666666666666, "grad_norm": 0.91796875, "learning_rate": 9.76273963348415e-05, "loss": 0.3676, "step": 148130 }, { "epoch": 197.52, "grad_norm": 0.79296875, "learning_rate": 9.762707746305769e-05, "loss": 0.3592, "step": 148140 }, { "epoch": 197.53333333333333, "grad_norm": 0.796875, "learning_rate": 9.762675857036838e-05, "loss": 0.3605, "step": 148150 }, { "epoch": 197.54666666666665, "grad_norm": 0.90234375, "learning_rate": 9.762643965677369e-05, "loss": 0.3612, "step": 148160 }, { "epoch": 197.56, "grad_norm": 0.796875, "learning_rate": 9.762612072227377e-05, "loss": 0.355, "step": 148170 }, { "epoch": 197.57333333333332, "grad_norm": 0.88671875, "learning_rate": 9.762580176686877e-05, "loss": 0.3609, "step": 148180 }, { "epoch": 197.58666666666667, "grad_norm": 0.78125, "learning_rate": 9.762548279055882e-05, "loss": 0.3513, "step": 148190 }, { "epoch": 197.6, "grad_norm": 0.8515625, "learning_rate": 9.762516379334406e-05, "loss": 0.3536, "step": 148200 }, { "epoch": 197.61333333333334, "grad_norm": 0.8359375, "learning_rate": 9.762484477522463e-05, "loss": 0.3453, "step": 148210 }, { "epoch": 197.62666666666667, "grad_norm": 0.734375, "learning_rate": 9.762452573620067e-05, "loss": 0.3499, "step": 148220 }, { "epoch": 197.64, "grad_norm": 0.9609375, "learning_rate": 9.762420667627233e-05, "loss": 0.3563, "step": 148230 }, { "epoch": 197.65333333333334, "grad_norm": 0.83984375, "learning_rate": 9.762388759543972e-05, "loss": 0.3659, "step": 148240 }, { "epoch": 197.66666666666666, "grad_norm": 0.80859375, "learning_rate": 9.762356849370302e-05, "loss": 0.3597, "step": 148250 }, { "epoch": 197.68, "grad_norm": 0.83203125, "learning_rate": 9.762324937106236e-05, "loss": 0.347, "step": 148260 }, { "epoch": 197.69333333333333, "grad_norm": 0.89453125, "learning_rate": 9.762293022751785e-05, "loss": 0.3583, "step": 148270 }, { "epoch": 197.70666666666668, "grad_norm": 1.0234375, "learning_rate": 9.762261106306967e-05, "loss": 0.3478, "step": 148280 }, { "epoch": 197.72, "grad_norm": 0.96484375, "learning_rate": 9.762229187771793e-05, "loss": 0.3691, "step": 148290 }, { "epoch": 197.73333333333332, "grad_norm": 0.77734375, "learning_rate": 9.762197267146278e-05, "loss": 0.3647, "step": 148300 }, { "epoch": 197.74666666666667, "grad_norm": 0.875, "learning_rate": 9.762165344430436e-05, "loss": 0.3682, "step": 148310 }, { "epoch": 197.76, "grad_norm": 0.86328125, "learning_rate": 9.762133419624282e-05, "loss": 0.3812, "step": 148320 }, { "epoch": 197.77333333333334, "grad_norm": 0.96484375, "learning_rate": 9.762101492727829e-05, "loss": 0.3648, "step": 148330 }, { "epoch": 197.78666666666666, "grad_norm": 0.8125, "learning_rate": 9.762069563741092e-05, "loss": 0.3682, "step": 148340 }, { "epoch": 197.8, "grad_norm": 0.95703125, "learning_rate": 9.762037632664083e-05, "loss": 0.3651, "step": 148350 }, { "epoch": 197.81333333333333, "grad_norm": 1.015625, "learning_rate": 9.762005699496818e-05, "loss": 0.3399, "step": 148360 }, { "epoch": 197.82666666666665, "grad_norm": 0.85546875, "learning_rate": 9.761973764239312e-05, "loss": 0.3474, "step": 148370 }, { "epoch": 197.84, "grad_norm": 0.93359375, "learning_rate": 9.761941826891575e-05, "loss": 0.3601, "step": 148380 }, { "epoch": 197.85333333333332, "grad_norm": 0.82421875, "learning_rate": 9.761909887453625e-05, "loss": 0.3556, "step": 148390 }, { "epoch": 197.86666666666667, "grad_norm": 0.87109375, "learning_rate": 9.761877945925472e-05, "loss": 0.3621, "step": 148400 }, { "epoch": 197.88, "grad_norm": 0.8359375, "learning_rate": 9.761846002307134e-05, "loss": 0.3425, "step": 148410 }, { "epoch": 197.89333333333335, "grad_norm": 0.84765625, "learning_rate": 9.761814056598623e-05, "loss": 0.3557, "step": 148420 }, { "epoch": 197.90666666666667, "grad_norm": 0.91015625, "learning_rate": 9.761782108799952e-05, "loss": 0.3587, "step": 148430 }, { "epoch": 197.92, "grad_norm": 0.8671875, "learning_rate": 9.761750158911139e-05, "loss": 0.3598, "step": 148440 }, { "epoch": 197.93333333333334, "grad_norm": 0.83203125, "learning_rate": 9.761718206932195e-05, "loss": 0.3574, "step": 148450 }, { "epoch": 197.94666666666666, "grad_norm": 0.859375, "learning_rate": 9.761686252863133e-05, "loss": 0.3567, "step": 148460 }, { "epoch": 197.96, "grad_norm": 0.734375, "learning_rate": 9.76165429670397e-05, "loss": 0.3549, "step": 148470 }, { "epoch": 197.97333333333333, "grad_norm": 1.2578125, "learning_rate": 9.761622338454718e-05, "loss": 0.377, "step": 148480 }, { "epoch": 197.98666666666668, "grad_norm": 0.87109375, "learning_rate": 9.76159037811539e-05, "loss": 0.3471, "step": 148490 }, { "epoch": 198.0, "grad_norm": 0.875, "learning_rate": 9.761558415686004e-05, "loss": 0.348, "step": 148500 }, { "epoch": 198.0, "eval_loss": 0.4175030291080475, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.7688, "eval_samples_per_second": 1.486, "eval_steps_per_second": 0.093, "step": 148500 }, { "epoch": 198.01333333333332, "grad_norm": 0.984375, "learning_rate": 9.761526451166571e-05, "loss": 0.3643, "step": 148510 }, { "epoch": 198.02666666666667, "grad_norm": 0.78125, "learning_rate": 9.761494484557105e-05, "loss": 0.3792, "step": 148520 }, { "epoch": 198.04, "grad_norm": 0.78125, "learning_rate": 9.761462515857621e-05, "loss": 0.3931, "step": 148530 }, { "epoch": 198.05333333333334, "grad_norm": 0.86328125, "learning_rate": 9.761430545068133e-05, "loss": 0.3764, "step": 148540 }, { "epoch": 198.06666666666666, "grad_norm": 0.94140625, "learning_rate": 9.761398572188655e-05, "loss": 0.3652, "step": 148550 }, { "epoch": 198.08, "grad_norm": 0.84765625, "learning_rate": 9.761366597219199e-05, "loss": 0.3673, "step": 148560 }, { "epoch": 198.09333333333333, "grad_norm": 0.87109375, "learning_rate": 9.761334620159783e-05, "loss": 0.3704, "step": 148570 }, { "epoch": 198.10666666666665, "grad_norm": 0.78125, "learning_rate": 9.761302641010418e-05, "loss": 0.3602, "step": 148580 }, { "epoch": 198.12, "grad_norm": 0.86328125, "learning_rate": 9.76127065977112e-05, "loss": 0.3608, "step": 148590 }, { "epoch": 198.13333333333333, "grad_norm": 0.83984375, "learning_rate": 9.7612386764419e-05, "loss": 0.3527, "step": 148600 }, { "epoch": 198.14666666666668, "grad_norm": 0.85546875, "learning_rate": 9.761206691022775e-05, "loss": 0.3724, "step": 148610 }, { "epoch": 198.16, "grad_norm": 0.81640625, "learning_rate": 9.761174703513758e-05, "loss": 0.3675, "step": 148620 }, { "epoch": 198.17333333333335, "grad_norm": 0.9140625, "learning_rate": 9.761142713914862e-05, "loss": 0.3624, "step": 148630 }, { "epoch": 198.18666666666667, "grad_norm": 0.828125, "learning_rate": 9.761110722226103e-05, "loss": 0.3584, "step": 148640 }, { "epoch": 198.2, "grad_norm": 0.7578125, "learning_rate": 9.761078728447495e-05, "loss": 0.3506, "step": 148650 }, { "epoch": 198.21333333333334, "grad_norm": 0.9375, "learning_rate": 9.76104673257905e-05, "loss": 0.3518, "step": 148660 }, { "epoch": 198.22666666666666, "grad_norm": 0.91796875, "learning_rate": 9.761014734620784e-05, "loss": 0.3625, "step": 148670 }, { "epoch": 198.24, "grad_norm": 1.03125, "learning_rate": 9.760982734572709e-05, "loss": 0.3491, "step": 148680 }, { "epoch": 198.25333333333333, "grad_norm": 0.859375, "learning_rate": 9.760950732434842e-05, "loss": 0.3504, "step": 148690 }, { "epoch": 198.26666666666668, "grad_norm": 0.85546875, "learning_rate": 9.760918728207194e-05, "loss": 0.3536, "step": 148700 }, { "epoch": 198.28, "grad_norm": 1.0078125, "learning_rate": 9.760886721889781e-05, "loss": 0.3807, "step": 148710 }, { "epoch": 198.29333333333332, "grad_norm": 0.84765625, "learning_rate": 9.760854713482617e-05, "loss": 0.3405, "step": 148720 }, { "epoch": 198.30666666666667, "grad_norm": 0.76953125, "learning_rate": 9.760822702985714e-05, "loss": 0.3633, "step": 148730 }, { "epoch": 198.32, "grad_norm": 0.7578125, "learning_rate": 9.760790690399089e-05, "loss": 0.3679, "step": 148740 }, { "epoch": 198.33333333333334, "grad_norm": 0.93359375, "learning_rate": 9.760758675722754e-05, "loss": 0.3661, "step": 148750 }, { "epoch": 198.34666666666666, "grad_norm": 0.89453125, "learning_rate": 9.760726658956722e-05, "loss": 0.3566, "step": 148760 }, { "epoch": 198.36, "grad_norm": 0.890625, "learning_rate": 9.760694640101012e-05, "loss": 0.3582, "step": 148770 }, { "epoch": 198.37333333333333, "grad_norm": 0.72265625, "learning_rate": 9.760662619155633e-05, "loss": 0.3621, "step": 148780 }, { "epoch": 198.38666666666666, "grad_norm": 1.0234375, "learning_rate": 9.760630596120601e-05, "loss": 0.3486, "step": 148790 }, { "epoch": 198.4, "grad_norm": 0.79296875, "learning_rate": 9.760598570995929e-05, "loss": 0.3588, "step": 148800 }, { "epoch": 198.41333333333333, "grad_norm": 0.83984375, "learning_rate": 9.760566543781632e-05, "loss": 0.3654, "step": 148810 }, { "epoch": 198.42666666666668, "grad_norm": 0.82421875, "learning_rate": 9.760534514477726e-05, "loss": 0.3674, "step": 148820 }, { "epoch": 198.44, "grad_norm": 0.84375, "learning_rate": 9.760502483084221e-05, "loss": 0.3785, "step": 148830 }, { "epoch": 198.45333333333335, "grad_norm": 0.8671875, "learning_rate": 9.760470449601136e-05, "loss": 0.3661, "step": 148840 }, { "epoch": 198.46666666666667, "grad_norm": 0.9140625, "learning_rate": 9.76043841402848e-05, "loss": 0.3731, "step": 148850 }, { "epoch": 198.48, "grad_norm": 0.7890625, "learning_rate": 9.76040637636627e-05, "loss": 0.3579, "step": 148860 }, { "epoch": 198.49333333333334, "grad_norm": 0.90625, "learning_rate": 9.760374336614519e-05, "loss": 0.368, "step": 148870 }, { "epoch": 198.50666666666666, "grad_norm": 0.91015625, "learning_rate": 9.76034229477324e-05, "loss": 0.3683, "step": 148880 }, { "epoch": 198.52, "grad_norm": 0.73046875, "learning_rate": 9.76031025084245e-05, "loss": 0.3591, "step": 148890 }, { "epoch": 198.53333333333333, "grad_norm": 0.83203125, "learning_rate": 9.760278204822161e-05, "loss": 0.3598, "step": 148900 }, { "epoch": 198.54666666666665, "grad_norm": 0.98046875, "learning_rate": 9.760246156712387e-05, "loss": 0.3608, "step": 148910 }, { "epoch": 198.56, "grad_norm": 0.82421875, "learning_rate": 9.760214106513144e-05, "loss": 0.3559, "step": 148920 }, { "epoch": 198.57333333333332, "grad_norm": 0.91796875, "learning_rate": 9.760182054224445e-05, "loss": 0.3604, "step": 148930 }, { "epoch": 198.58666666666667, "grad_norm": 0.83203125, "learning_rate": 9.760149999846302e-05, "loss": 0.3515, "step": 148940 }, { "epoch": 198.6, "grad_norm": 0.8359375, "learning_rate": 9.760117943378732e-05, "loss": 0.3521, "step": 148950 }, { "epoch": 198.61333333333334, "grad_norm": 0.7578125, "learning_rate": 9.760085884821747e-05, "loss": 0.3445, "step": 148960 }, { "epoch": 198.62666666666667, "grad_norm": 0.78125, "learning_rate": 9.760053824175363e-05, "loss": 0.3498, "step": 148970 }, { "epoch": 198.64, "grad_norm": 0.9296875, "learning_rate": 9.760021761439593e-05, "loss": 0.3554, "step": 148980 }, { "epoch": 198.65333333333334, "grad_norm": 0.8203125, "learning_rate": 9.75998969661445e-05, "loss": 0.3669, "step": 148990 }, { "epoch": 198.66666666666666, "grad_norm": 0.765625, "learning_rate": 9.75995762969995e-05, "loss": 0.3584, "step": 149000 }, { "epoch": 198.68, "grad_norm": 0.9453125, "learning_rate": 9.759925560696106e-05, "loss": 0.3461, "step": 149010 }, { "epoch": 198.69333333333333, "grad_norm": 0.828125, "learning_rate": 9.759893489602932e-05, "loss": 0.3583, "step": 149020 }, { "epoch": 198.70666666666668, "grad_norm": 0.953125, "learning_rate": 9.759861416420443e-05, "loss": 0.3475, "step": 149030 }, { "epoch": 198.72, "grad_norm": 0.89453125, "learning_rate": 9.759829341148652e-05, "loss": 0.3692, "step": 149040 }, { "epoch": 198.73333333333332, "grad_norm": 0.84765625, "learning_rate": 9.759797263787575e-05, "loss": 0.3651, "step": 149050 }, { "epoch": 198.74666666666667, "grad_norm": 0.859375, "learning_rate": 9.759765184337224e-05, "loss": 0.3683, "step": 149060 }, { "epoch": 198.76, "grad_norm": 0.875, "learning_rate": 9.759733102797613e-05, "loss": 0.3805, "step": 149070 }, { "epoch": 198.77333333333334, "grad_norm": 0.91796875, "learning_rate": 9.759701019168758e-05, "loss": 0.3648, "step": 149080 }, { "epoch": 198.78666666666666, "grad_norm": 0.75390625, "learning_rate": 9.75966893345067e-05, "loss": 0.3685, "step": 149090 }, { "epoch": 198.8, "grad_norm": 0.91015625, "learning_rate": 9.759636845643368e-05, "loss": 0.3657, "step": 149100 }, { "epoch": 198.81333333333333, "grad_norm": 1.0, "learning_rate": 9.75960475574686e-05, "loss": 0.3398, "step": 149110 }, { "epoch": 198.82666666666665, "grad_norm": 0.76953125, "learning_rate": 9.759572663761166e-05, "loss": 0.3462, "step": 149120 }, { "epoch": 198.84, "grad_norm": 0.8828125, "learning_rate": 9.759540569686293e-05, "loss": 0.3601, "step": 149130 }, { "epoch": 198.85333333333332, "grad_norm": 0.8828125, "learning_rate": 9.759508473522263e-05, "loss": 0.3558, "step": 149140 }, { "epoch": 198.86666666666667, "grad_norm": 0.91796875, "learning_rate": 9.759476375269087e-05, "loss": 0.3614, "step": 149150 }, { "epoch": 198.88, "grad_norm": 0.7578125, "learning_rate": 9.759444274926776e-05, "loss": 0.3421, "step": 149160 }, { "epoch": 198.89333333333335, "grad_norm": 0.8203125, "learning_rate": 9.759412172495348e-05, "loss": 0.3552, "step": 149170 }, { "epoch": 198.90666666666667, "grad_norm": 0.859375, "learning_rate": 9.759380067974814e-05, "loss": 0.3586, "step": 149180 }, { "epoch": 198.92, "grad_norm": 0.81640625, "learning_rate": 9.759347961365193e-05, "loss": 0.36, "step": 149190 }, { "epoch": 198.93333333333334, "grad_norm": 0.73046875, "learning_rate": 9.759315852666492e-05, "loss": 0.3573, "step": 149200 }, { "epoch": 198.94666666666666, "grad_norm": 0.90234375, "learning_rate": 9.759283741878733e-05, "loss": 0.3572, "step": 149210 }, { "epoch": 198.96, "grad_norm": 0.7890625, "learning_rate": 9.759251629001924e-05, "loss": 0.3544, "step": 149220 }, { "epoch": 198.97333333333333, "grad_norm": 1.2109375, "learning_rate": 9.759219514036082e-05, "loss": 0.3766, "step": 149230 }, { "epoch": 198.98666666666668, "grad_norm": 0.8046875, "learning_rate": 9.759187396981219e-05, "loss": 0.3476, "step": 149240 }, { "epoch": 199.0, "grad_norm": 0.87890625, "learning_rate": 9.759155277837351e-05, "loss": 0.3484, "step": 149250 }, { "epoch": 199.0, "eval_loss": 0.41589051485061646, "eval_model_preparation_time": 0.0042, "eval_runtime": 11.2885, "eval_samples_per_second": 1.417, "eval_steps_per_second": 0.089, "step": 149250 }, { "epoch": 199.01333333333332, "grad_norm": 0.93359375, "learning_rate": 9.759123156604491e-05, "loss": 0.3642, "step": 149260 }, { "epoch": 199.02666666666667, "grad_norm": 0.79296875, "learning_rate": 9.759091033282654e-05, "loss": 0.3785, "step": 149270 }, { "epoch": 199.04, "grad_norm": 0.8046875, "learning_rate": 9.759058907871854e-05, "loss": 0.3927, "step": 149280 }, { "epoch": 199.05333333333334, "grad_norm": 0.875, "learning_rate": 9.759026780372105e-05, "loss": 0.376, "step": 149290 }, { "epoch": 199.06666666666666, "grad_norm": 1.015625, "learning_rate": 9.758994650783419e-05, "loss": 0.3651, "step": 149300 }, { "epoch": 199.08, "grad_norm": 0.9140625, "learning_rate": 9.758962519105815e-05, "loss": 0.3676, "step": 149310 }, { "epoch": 199.09333333333333, "grad_norm": 0.9453125, "learning_rate": 9.758930385339301e-05, "loss": 0.3712, "step": 149320 }, { "epoch": 199.10666666666665, "grad_norm": 0.79296875, "learning_rate": 9.758898249483896e-05, "loss": 0.3604, "step": 149330 }, { "epoch": 199.12, "grad_norm": 0.9375, "learning_rate": 9.758866111539611e-05, "loss": 0.3605, "step": 149340 }, { "epoch": 199.13333333333333, "grad_norm": 0.8671875, "learning_rate": 9.758833971506462e-05, "loss": 0.3524, "step": 149350 }, { "epoch": 199.14666666666668, "grad_norm": 0.79296875, "learning_rate": 9.758801829384463e-05, "loss": 0.3713, "step": 149360 }, { "epoch": 199.16, "grad_norm": 0.80078125, "learning_rate": 9.758769685173628e-05, "loss": 0.3679, "step": 149370 }, { "epoch": 199.17333333333335, "grad_norm": 0.9921875, "learning_rate": 9.75873753887397e-05, "loss": 0.3618, "step": 149380 }, { "epoch": 199.18666666666667, "grad_norm": 0.765625, "learning_rate": 9.758705390485503e-05, "loss": 0.3596, "step": 149390 }, { "epoch": 199.2, "grad_norm": 0.76953125, "learning_rate": 9.758673240008242e-05, "loss": 0.351, "step": 149400 }, { "epoch": 199.21333333333334, "grad_norm": 0.90625, "learning_rate": 9.758641087442203e-05, "loss": 0.3517, "step": 149410 }, { "epoch": 199.22666666666666, "grad_norm": 0.921875, "learning_rate": 9.758608932787397e-05, "loss": 0.3624, "step": 149420 }, { "epoch": 199.24, "grad_norm": 0.91796875, "learning_rate": 9.758576776043839e-05, "loss": 0.3494, "step": 149430 }, { "epoch": 199.25333333333333, "grad_norm": 0.8125, "learning_rate": 9.758544617211543e-05, "loss": 0.3497, "step": 149440 }, { "epoch": 199.26666666666668, "grad_norm": 0.8359375, "learning_rate": 9.758512456290525e-05, "loss": 0.3527, "step": 149450 }, { "epoch": 199.28, "grad_norm": 0.84765625, "learning_rate": 9.758480293280796e-05, "loss": 0.3825, "step": 149460 }, { "epoch": 199.29333333333332, "grad_norm": 0.8671875, "learning_rate": 9.758448128182374e-05, "loss": 0.3406, "step": 149470 }, { "epoch": 199.30666666666667, "grad_norm": 0.83984375, "learning_rate": 9.758415960995269e-05, "loss": 0.3634, "step": 149480 }, { "epoch": 199.32, "grad_norm": 0.76953125, "learning_rate": 9.758383791719497e-05, "loss": 0.3675, "step": 149490 }, { "epoch": 199.33333333333334, "grad_norm": 0.90625, "learning_rate": 9.758351620355073e-05, "loss": 0.3659, "step": 149500 }, { "epoch": 199.34666666666666, "grad_norm": 0.87109375, "learning_rate": 9.758319446902009e-05, "loss": 0.3571, "step": 149510 }, { "epoch": 199.36, "grad_norm": 0.84375, "learning_rate": 9.758287271360321e-05, "loss": 0.3587, "step": 149520 }, { "epoch": 199.37333333333333, "grad_norm": 0.83203125, "learning_rate": 9.758255093730022e-05, "loss": 0.3609, "step": 149530 }, { "epoch": 199.38666666666666, "grad_norm": 0.90234375, "learning_rate": 9.758222914011128e-05, "loss": 0.3481, "step": 149540 }, { "epoch": 199.4, "grad_norm": 0.87890625, "learning_rate": 9.758190732203651e-05, "loss": 0.3588, "step": 149550 }, { "epoch": 199.41333333333333, "grad_norm": 0.828125, "learning_rate": 9.758158548307606e-05, "loss": 0.3654, "step": 149560 }, { "epoch": 199.42666666666668, "grad_norm": 0.796875, "learning_rate": 9.758126362323006e-05, "loss": 0.3668, "step": 149570 }, { "epoch": 199.44, "grad_norm": 0.86328125, "learning_rate": 9.758094174249868e-05, "loss": 0.3789, "step": 149580 }, { "epoch": 199.45333333333335, "grad_norm": 0.85546875, "learning_rate": 9.758061984088203e-05, "loss": 0.3654, "step": 149590 }, { "epoch": 199.46666666666667, "grad_norm": 0.79296875, "learning_rate": 9.758029791838026e-05, "loss": 0.3742, "step": 149600 }, { "epoch": 199.48, "grad_norm": 0.77734375, "learning_rate": 9.757997597499351e-05, "loss": 0.357, "step": 149610 }, { "epoch": 199.49333333333334, "grad_norm": 0.83203125, "learning_rate": 9.757965401072193e-05, "loss": 0.3676, "step": 149620 }, { "epoch": 199.50666666666666, "grad_norm": 0.86328125, "learning_rate": 9.757933202556566e-05, "loss": 0.3677, "step": 149630 }, { "epoch": 199.52, "grad_norm": 0.7734375, "learning_rate": 9.757901001952485e-05, "loss": 0.3591, "step": 149640 }, { "epoch": 199.53333333333333, "grad_norm": 0.875, "learning_rate": 9.757868799259961e-05, "loss": 0.3605, "step": 149650 }, { "epoch": 199.54666666666665, "grad_norm": 0.9375, "learning_rate": 9.757836594479013e-05, "loss": 0.3604, "step": 149660 }, { "epoch": 199.56, "grad_norm": 0.8203125, "learning_rate": 9.75780438760965e-05, "loss": 0.3551, "step": 149670 }, { "epoch": 199.57333333333332, "grad_norm": 0.87109375, "learning_rate": 9.757772178651889e-05, "loss": 0.3602, "step": 149680 }, { "epoch": 199.58666666666667, "grad_norm": 0.875, "learning_rate": 9.757739967605743e-05, "loss": 0.3518, "step": 149690 }, { "epoch": 199.6, "grad_norm": 0.77734375, "learning_rate": 9.757707754471229e-05, "loss": 0.3518, "step": 149700 }, { "epoch": 199.61333333333334, "grad_norm": 0.73828125, "learning_rate": 9.757675539248357e-05, "loss": 0.3444, "step": 149710 }, { "epoch": 199.62666666666667, "grad_norm": 0.68359375, "learning_rate": 9.757643321937142e-05, "loss": 0.3496, "step": 149720 }, { "epoch": 199.64, "grad_norm": 0.90234375, "learning_rate": 9.7576111025376e-05, "loss": 0.3557, "step": 149730 }, { "epoch": 199.65333333333334, "grad_norm": 0.875, "learning_rate": 9.757578881049744e-05, "loss": 0.3664, "step": 149740 }, { "epoch": 199.66666666666666, "grad_norm": 0.8203125, "learning_rate": 9.757546657473589e-05, "loss": 0.3583, "step": 149750 }, { "epoch": 199.68, "grad_norm": 0.8828125, "learning_rate": 9.75751443180915e-05, "loss": 0.3462, "step": 149760 }, { "epoch": 199.69333333333333, "grad_norm": 0.75, "learning_rate": 9.757482204056436e-05, "loss": 0.359, "step": 149770 }, { "epoch": 199.70666666666668, "grad_norm": 0.9921875, "learning_rate": 9.757449974215468e-05, "loss": 0.3469, "step": 149780 }, { "epoch": 199.72, "grad_norm": 0.9296875, "learning_rate": 9.757417742286257e-05, "loss": 0.369, "step": 149790 }, { "epoch": 199.73333333333332, "grad_norm": 1.0078125, "learning_rate": 9.757385508268815e-05, "loss": 0.3645, "step": 149800 }, { "epoch": 199.74666666666667, "grad_norm": 0.89453125, "learning_rate": 9.757353272163159e-05, "loss": 0.3666, "step": 149810 }, { "epoch": 199.76, "grad_norm": 0.82421875, "learning_rate": 9.757321033969303e-05, "loss": 0.3819, "step": 149820 }, { "epoch": 199.77333333333334, "grad_norm": 0.91015625, "learning_rate": 9.757288793687261e-05, "loss": 0.3649, "step": 149830 }, { "epoch": 199.78666666666666, "grad_norm": 0.86328125, "learning_rate": 9.757256551317046e-05, "loss": 0.3681, "step": 149840 }, { "epoch": 199.8, "grad_norm": 0.91796875, "learning_rate": 9.757224306858674e-05, "loss": 0.3649, "step": 149850 }, { "epoch": 199.81333333333333, "grad_norm": 0.99609375, "learning_rate": 9.757192060312157e-05, "loss": 0.3398, "step": 149860 }, { "epoch": 199.82666666666665, "grad_norm": 0.9140625, "learning_rate": 9.75715981167751e-05, "loss": 0.3472, "step": 149870 }, { "epoch": 199.84, "grad_norm": 0.97265625, "learning_rate": 9.757127560954748e-05, "loss": 0.3599, "step": 149880 }, { "epoch": 199.85333333333332, "grad_norm": 0.81640625, "learning_rate": 9.757095308143885e-05, "loss": 0.3556, "step": 149890 }, { "epoch": 199.86666666666667, "grad_norm": 0.8828125, "learning_rate": 9.757063053244932e-05, "loss": 0.3616, "step": 149900 }, { "epoch": 199.88, "grad_norm": 0.78125, "learning_rate": 9.757030796257909e-05, "loss": 0.3424, "step": 149910 }, { "epoch": 199.89333333333335, "grad_norm": 0.87109375, "learning_rate": 9.756998537182824e-05, "loss": 0.3553, "step": 149920 }, { "epoch": 199.90666666666667, "grad_norm": 0.91796875, "learning_rate": 9.756966276019697e-05, "loss": 0.3589, "step": 149930 }, { "epoch": 199.92, "grad_norm": 0.87890625, "learning_rate": 9.756934012768538e-05, "loss": 0.3592, "step": 149940 }, { "epoch": 199.93333333333334, "grad_norm": 0.79296875, "learning_rate": 9.756901747429363e-05, "loss": 0.3571, "step": 149950 }, { "epoch": 199.94666666666666, "grad_norm": 0.8046875, "learning_rate": 9.756869480002184e-05, "loss": 0.3561, "step": 149960 }, { "epoch": 199.96, "grad_norm": 0.75, "learning_rate": 9.756837210487019e-05, "loss": 0.3544, "step": 149970 }, { "epoch": 199.97333333333333, "grad_norm": 1.109375, "learning_rate": 9.756804938883879e-05, "loss": 0.3769, "step": 149980 }, { "epoch": 199.98666666666668, "grad_norm": 0.84765625, "learning_rate": 9.75677266519278e-05, "loss": 0.3473, "step": 149990 }, { "epoch": 200.0, "grad_norm": 0.859375, "learning_rate": 9.756740389413734e-05, "loss": 0.3474, "step": 150000 }, { "epoch": 200.0, "eval_loss": 0.416329950094223, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8252, "eval_samples_per_second": 1.478, "eval_steps_per_second": 0.092, "step": 150000 }, { "epoch": 200.01333333333332, "grad_norm": 0.9609375, "learning_rate": 9.756708111546756e-05, "loss": 0.3647, "step": 150010 }, { "epoch": 200.02666666666667, "grad_norm": 0.79296875, "learning_rate": 9.756675831591861e-05, "loss": 0.3791, "step": 150020 }, { "epoch": 200.04, "grad_norm": 0.78515625, "learning_rate": 9.756643549549064e-05, "loss": 0.3924, "step": 150030 }, { "epoch": 200.05333333333334, "grad_norm": 0.9609375, "learning_rate": 9.756611265418379e-05, "loss": 0.3764, "step": 150040 }, { "epoch": 200.06666666666666, "grad_norm": 0.96875, "learning_rate": 9.756578979199816e-05, "loss": 0.3655, "step": 150050 }, { "epoch": 200.08, "grad_norm": 0.83984375, "learning_rate": 9.756546690893394e-05, "loss": 0.367, "step": 150060 }, { "epoch": 200.09333333333333, "grad_norm": 0.9453125, "learning_rate": 9.756514400499125e-05, "loss": 0.3709, "step": 150070 }, { "epoch": 200.10666666666665, "grad_norm": 0.7890625, "learning_rate": 9.756482108017025e-05, "loss": 0.3603, "step": 150080 }, { "epoch": 200.12, "grad_norm": 0.94140625, "learning_rate": 9.756449813447105e-05, "loss": 0.3601, "step": 150090 }, { "epoch": 200.13333333333333, "grad_norm": 0.8671875, "learning_rate": 9.756417516789382e-05, "loss": 0.3529, "step": 150100 }, { "epoch": 200.14666666666668, "grad_norm": 0.87890625, "learning_rate": 9.756385218043868e-05, "loss": 0.3724, "step": 150110 }, { "epoch": 200.16, "grad_norm": 0.7890625, "learning_rate": 9.75635291721058e-05, "loss": 0.3678, "step": 150120 }, { "epoch": 200.17333333333335, "grad_norm": 1.078125, "learning_rate": 9.756320614289529e-05, "loss": 0.3623, "step": 150130 }, { "epoch": 200.18666666666667, "grad_norm": 0.84765625, "learning_rate": 9.756288309280732e-05, "loss": 0.3595, "step": 150140 }, { "epoch": 200.2, "grad_norm": 0.83203125, "learning_rate": 9.756256002184201e-05, "loss": 0.3508, "step": 150150 }, { "epoch": 200.21333333333334, "grad_norm": 0.90234375, "learning_rate": 9.756223692999952e-05, "loss": 0.3517, "step": 150160 }, { "epoch": 200.22666666666666, "grad_norm": 0.9375, "learning_rate": 9.756191381727997e-05, "loss": 0.3629, "step": 150170 }, { "epoch": 200.24, "grad_norm": 0.9453125, "learning_rate": 9.756159068368353e-05, "loss": 0.3487, "step": 150180 }, { "epoch": 200.25333333333333, "grad_norm": 1.0078125, "learning_rate": 9.756126752921032e-05, "loss": 0.3498, "step": 150190 }, { "epoch": 200.26666666666668, "grad_norm": 0.796875, "learning_rate": 9.756094435386049e-05, "loss": 0.3535, "step": 150200 }, { "epoch": 200.28, "grad_norm": 0.84375, "learning_rate": 9.756062115763417e-05, "loss": 0.3806, "step": 150210 }, { "epoch": 200.29333333333332, "grad_norm": 0.796875, "learning_rate": 9.756029794053152e-05, "loss": 0.3399, "step": 150220 }, { "epoch": 200.30666666666667, "grad_norm": 0.90234375, "learning_rate": 9.755997470255267e-05, "loss": 0.3639, "step": 150230 }, { "epoch": 200.32, "grad_norm": 0.76171875, "learning_rate": 9.755965144369777e-05, "loss": 0.369, "step": 150240 }, { "epoch": 200.33333333333334, "grad_norm": 0.94140625, "learning_rate": 9.755932816396695e-05, "loss": 0.3662, "step": 150250 }, { "epoch": 200.34666666666666, "grad_norm": 0.9765625, "learning_rate": 9.755900486336037e-05, "loss": 0.3568, "step": 150260 }, { "epoch": 200.36, "grad_norm": 0.89453125, "learning_rate": 9.755868154187815e-05, "loss": 0.3575, "step": 150270 }, { "epoch": 200.37333333333333, "grad_norm": 0.8125, "learning_rate": 9.755835819952046e-05, "loss": 0.3615, "step": 150280 }, { "epoch": 200.38666666666666, "grad_norm": 0.98828125, "learning_rate": 9.755803483628741e-05, "loss": 0.3482, "step": 150290 }, { "epoch": 200.4, "grad_norm": 0.8671875, "learning_rate": 9.755771145217915e-05, "loss": 0.3594, "step": 150300 }, { "epoch": 200.41333333333333, "grad_norm": 0.80859375, "learning_rate": 9.755738804719586e-05, "loss": 0.3649, "step": 150310 }, { "epoch": 200.42666666666668, "grad_norm": 0.8125, "learning_rate": 9.755706462133762e-05, "loss": 0.3668, "step": 150320 }, { "epoch": 200.44, "grad_norm": 0.8125, "learning_rate": 9.755674117460461e-05, "loss": 0.3788, "step": 150330 }, { "epoch": 200.45333333333335, "grad_norm": 0.89453125, "learning_rate": 9.755641770699697e-05, "loss": 0.3665, "step": 150340 }, { "epoch": 200.46666666666667, "grad_norm": 0.8828125, "learning_rate": 9.755609421851484e-05, "loss": 0.3731, "step": 150350 }, { "epoch": 200.48, "grad_norm": 0.9453125, "learning_rate": 9.755577070915836e-05, "loss": 0.3566, "step": 150360 }, { "epoch": 200.49333333333334, "grad_norm": 0.84375, "learning_rate": 9.755544717892766e-05, "loss": 0.3679, "step": 150370 }, { "epoch": 200.50666666666666, "grad_norm": 0.8359375, "learning_rate": 9.75551236278229e-05, "loss": 0.3684, "step": 150380 }, { "epoch": 200.52, "grad_norm": 0.765625, "learning_rate": 9.755480005584421e-05, "loss": 0.3598, "step": 150390 }, { "epoch": 200.53333333333333, "grad_norm": 0.84375, "learning_rate": 9.755447646299174e-05, "loss": 0.3598, "step": 150400 }, { "epoch": 200.54666666666665, "grad_norm": 0.98046875, "learning_rate": 9.755415284926563e-05, "loss": 0.3602, "step": 150410 }, { "epoch": 200.56, "grad_norm": 0.80078125, "learning_rate": 9.755382921466603e-05, "loss": 0.3552, "step": 150420 }, { "epoch": 200.57333333333332, "grad_norm": 0.8203125, "learning_rate": 9.755350555919305e-05, "loss": 0.3604, "step": 150430 }, { "epoch": 200.58666666666667, "grad_norm": 0.80078125, "learning_rate": 9.755318188284688e-05, "loss": 0.3512, "step": 150440 }, { "epoch": 200.6, "grad_norm": 0.8125, "learning_rate": 9.755285818562763e-05, "loss": 0.3518, "step": 150450 }, { "epoch": 200.61333333333334, "grad_norm": 0.76171875, "learning_rate": 9.755253446753545e-05, "loss": 0.3457, "step": 150460 }, { "epoch": 200.62666666666667, "grad_norm": 0.8046875, "learning_rate": 9.755221072857046e-05, "loss": 0.349, "step": 150470 }, { "epoch": 200.64, "grad_norm": 0.89453125, "learning_rate": 9.755188696873285e-05, "loss": 0.3559, "step": 150480 }, { "epoch": 200.65333333333334, "grad_norm": 0.9140625, "learning_rate": 9.755156318802272e-05, "loss": 0.3659, "step": 150490 }, { "epoch": 200.66666666666666, "grad_norm": 0.75390625, "learning_rate": 9.755123938644024e-05, "loss": 0.3586, "step": 150500 }, { "epoch": 200.68, "grad_norm": 0.90234375, "learning_rate": 9.755091556398552e-05, "loss": 0.3467, "step": 150510 }, { "epoch": 200.69333333333333, "grad_norm": 0.796875, "learning_rate": 9.755059172065874e-05, "loss": 0.3581, "step": 150520 }, { "epoch": 200.70666666666668, "grad_norm": 1.046875, "learning_rate": 9.755026785646002e-05, "loss": 0.3475, "step": 150530 }, { "epoch": 200.72, "grad_norm": 0.90625, "learning_rate": 9.754994397138951e-05, "loss": 0.3689, "step": 150540 }, { "epoch": 200.73333333333332, "grad_norm": 0.87890625, "learning_rate": 9.754962006544735e-05, "loss": 0.365, "step": 150550 }, { "epoch": 200.74666666666667, "grad_norm": 0.75390625, "learning_rate": 9.754929613863367e-05, "loss": 0.367, "step": 150560 }, { "epoch": 200.76, "grad_norm": 0.875, "learning_rate": 9.754897219094863e-05, "loss": 0.3804, "step": 150570 }, { "epoch": 200.77333333333334, "grad_norm": 0.953125, "learning_rate": 9.754864822239236e-05, "loss": 0.3644, "step": 150580 }, { "epoch": 200.78666666666666, "grad_norm": 0.765625, "learning_rate": 9.7548324232965e-05, "loss": 0.3679, "step": 150590 }, { "epoch": 200.8, "grad_norm": 0.8828125, "learning_rate": 9.754800022266673e-05, "loss": 0.3658, "step": 150600 }, { "epoch": 200.81333333333333, "grad_norm": 0.92578125, "learning_rate": 9.754767619149763e-05, "loss": 0.3391, "step": 150610 }, { "epoch": 200.82666666666665, "grad_norm": 0.83203125, "learning_rate": 9.75473521394579e-05, "loss": 0.3468, "step": 150620 }, { "epoch": 200.84, "grad_norm": 1.0703125, "learning_rate": 9.754702806654763e-05, "loss": 0.3606, "step": 150630 }, { "epoch": 200.85333333333332, "grad_norm": 0.8671875, "learning_rate": 9.754670397276699e-05, "loss": 0.3545, "step": 150640 }, { "epoch": 200.86666666666667, "grad_norm": 0.93359375, "learning_rate": 9.754637985811614e-05, "loss": 0.3609, "step": 150650 }, { "epoch": 200.88, "grad_norm": 0.83203125, "learning_rate": 9.75460557225952e-05, "loss": 0.3421, "step": 150660 }, { "epoch": 200.89333333333335, "grad_norm": 0.828125, "learning_rate": 9.75457315662043e-05, "loss": 0.3546, "step": 150670 }, { "epoch": 200.90666666666667, "grad_norm": 0.84765625, "learning_rate": 9.754540738894361e-05, "loss": 0.3586, "step": 150680 }, { "epoch": 200.92, "grad_norm": 0.859375, "learning_rate": 9.754508319081326e-05, "loss": 0.359, "step": 150690 }, { "epoch": 200.93333333333334, "grad_norm": 0.78515625, "learning_rate": 9.754475897181339e-05, "loss": 0.3568, "step": 150700 }, { "epoch": 200.94666666666666, "grad_norm": 0.8046875, "learning_rate": 9.754443473194414e-05, "loss": 0.3568, "step": 150710 }, { "epoch": 200.96, "grad_norm": 0.74609375, "learning_rate": 9.754411047120567e-05, "loss": 0.3545, "step": 150720 }, { "epoch": 200.97333333333333, "grad_norm": 1.0859375, "learning_rate": 9.754378618959808e-05, "loss": 0.3771, "step": 150730 }, { "epoch": 200.98666666666668, "grad_norm": 0.90234375, "learning_rate": 9.754346188712157e-05, "loss": 0.347, "step": 150740 }, { "epoch": 201.0, "grad_norm": 0.91015625, "learning_rate": 9.754313756377625e-05, "loss": 0.3487, "step": 150750 }, { "epoch": 201.0, "eval_loss": 0.41564100980758667, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.9769, "eval_samples_per_second": 1.458, "eval_steps_per_second": 0.091, "step": 150750 }, { "epoch": 201.01333333333332, "grad_norm": 0.96875, "learning_rate": 9.754281321956224e-05, "loss": 0.3643, "step": 150760 }, { "epoch": 201.02666666666667, "grad_norm": 0.8046875, "learning_rate": 9.754248885447975e-05, "loss": 0.3799, "step": 150770 }, { "epoch": 201.04, "grad_norm": 0.859375, "learning_rate": 9.754216446852884e-05, "loss": 0.3934, "step": 150780 }, { "epoch": 201.05333333333334, "grad_norm": 0.89453125, "learning_rate": 9.754184006170972e-05, "loss": 0.3763, "step": 150790 }, { "epoch": 201.06666666666666, "grad_norm": 0.9765625, "learning_rate": 9.754151563402249e-05, "loss": 0.3659, "step": 150800 }, { "epoch": 201.08, "grad_norm": 0.84375, "learning_rate": 9.754119118546731e-05, "loss": 0.3683, "step": 150810 }, { "epoch": 201.09333333333333, "grad_norm": 0.9375, "learning_rate": 9.754086671604434e-05, "loss": 0.37, "step": 150820 }, { "epoch": 201.10666666666665, "grad_norm": 0.80859375, "learning_rate": 9.754054222575368e-05, "loss": 0.3604, "step": 150830 }, { "epoch": 201.12, "grad_norm": 0.9375, "learning_rate": 9.754021771459552e-05, "loss": 0.3605, "step": 150840 }, { "epoch": 201.13333333333333, "grad_norm": 0.84765625, "learning_rate": 9.753989318256995e-05, "loss": 0.3528, "step": 150850 }, { "epoch": 201.14666666666668, "grad_norm": 0.91015625, "learning_rate": 9.753956862967716e-05, "loss": 0.3723, "step": 150860 }, { "epoch": 201.16, "grad_norm": 0.7578125, "learning_rate": 9.753924405591726e-05, "loss": 0.3681, "step": 150870 }, { "epoch": 201.17333333333335, "grad_norm": 0.9296875, "learning_rate": 9.753891946129042e-05, "loss": 0.3617, "step": 150880 }, { "epoch": 201.18666666666667, "grad_norm": 0.8984375, "learning_rate": 9.753859484579675e-05, "loss": 0.359, "step": 150890 }, { "epoch": 201.2, "grad_norm": 0.87890625, "learning_rate": 9.753827020943642e-05, "loss": 0.3508, "step": 150900 }, { "epoch": 201.21333333333334, "grad_norm": 0.89453125, "learning_rate": 9.753794555220957e-05, "loss": 0.3518, "step": 150910 }, { "epoch": 201.22666666666666, "grad_norm": 0.8671875, "learning_rate": 9.753762087411632e-05, "loss": 0.3629, "step": 150920 }, { "epoch": 201.24, "grad_norm": 0.91015625, "learning_rate": 9.753729617515684e-05, "loss": 0.3486, "step": 150930 }, { "epoch": 201.25333333333333, "grad_norm": 0.94921875, "learning_rate": 9.753697145533125e-05, "loss": 0.3489, "step": 150940 }, { "epoch": 201.26666666666668, "grad_norm": 0.82421875, "learning_rate": 9.75366467146397e-05, "loss": 0.3544, "step": 150950 }, { "epoch": 201.28, "grad_norm": 0.87109375, "learning_rate": 9.753632195308234e-05, "loss": 0.3798, "step": 150960 }, { "epoch": 201.29333333333332, "grad_norm": 0.859375, "learning_rate": 9.753599717065931e-05, "loss": 0.3392, "step": 150970 }, { "epoch": 201.30666666666667, "grad_norm": 0.86328125, "learning_rate": 9.753567236737076e-05, "loss": 0.3628, "step": 150980 }, { "epoch": 201.32, "grad_norm": 0.81640625, "learning_rate": 9.75353475432168e-05, "loss": 0.3681, "step": 150990 }, { "epoch": 201.33333333333334, "grad_norm": 0.8828125, "learning_rate": 9.75350226981976e-05, "loss": 0.3661, "step": 151000 }, { "epoch": 201.34666666666666, "grad_norm": 0.93359375, "learning_rate": 9.753469783231332e-05, "loss": 0.3569, "step": 151010 }, { "epoch": 201.36, "grad_norm": 0.8515625, "learning_rate": 9.753437294556407e-05, "loss": 0.3578, "step": 151020 }, { "epoch": 201.37333333333333, "grad_norm": 0.75390625, "learning_rate": 9.753404803794999e-05, "loss": 0.3623, "step": 151030 }, { "epoch": 201.38666666666666, "grad_norm": 0.984375, "learning_rate": 9.753372310947124e-05, "loss": 0.3482, "step": 151040 }, { "epoch": 201.4, "grad_norm": 0.83984375, "learning_rate": 9.753339816012797e-05, "loss": 0.3587, "step": 151050 }, { "epoch": 201.41333333333333, "grad_norm": 0.796875, "learning_rate": 9.753307318992031e-05, "loss": 0.3655, "step": 151060 }, { "epoch": 201.42666666666668, "grad_norm": 0.84375, "learning_rate": 9.75327481988484e-05, "loss": 0.3684, "step": 151070 }, { "epoch": 201.44, "grad_norm": 0.88671875, "learning_rate": 9.753242318691238e-05, "loss": 0.3783, "step": 151080 }, { "epoch": 201.45333333333335, "grad_norm": 0.92578125, "learning_rate": 9.753209815411242e-05, "loss": 0.3665, "step": 151090 }, { "epoch": 201.46666666666667, "grad_norm": 0.921875, "learning_rate": 9.753177310044861e-05, "loss": 0.373, "step": 151100 }, { "epoch": 201.48, "grad_norm": 0.88671875, "learning_rate": 9.753144802592114e-05, "loss": 0.3566, "step": 151110 }, { "epoch": 201.49333333333334, "grad_norm": 0.91015625, "learning_rate": 9.753112293053015e-05, "loss": 0.3691, "step": 151120 }, { "epoch": 201.50666666666666, "grad_norm": 0.90234375, "learning_rate": 9.753079781427575e-05, "loss": 0.3681, "step": 151130 }, { "epoch": 201.52, "grad_norm": 0.70703125, "learning_rate": 9.753047267715811e-05, "loss": 0.3593, "step": 151140 }, { "epoch": 201.53333333333333, "grad_norm": 0.80078125, "learning_rate": 9.753014751917737e-05, "loss": 0.3593, "step": 151150 }, { "epoch": 201.54666666666665, "grad_norm": 0.99609375, "learning_rate": 9.752982234033367e-05, "loss": 0.3606, "step": 151160 }, { "epoch": 201.56, "grad_norm": 0.765625, "learning_rate": 9.752949714062713e-05, "loss": 0.3553, "step": 151170 }, { "epoch": 201.57333333333332, "grad_norm": 0.93359375, "learning_rate": 9.752917192005794e-05, "loss": 0.36, "step": 151180 }, { "epoch": 201.58666666666667, "grad_norm": 0.78125, "learning_rate": 9.752884667862621e-05, "loss": 0.3518, "step": 151190 }, { "epoch": 201.6, "grad_norm": 0.88671875, "learning_rate": 9.752852141633207e-05, "loss": 0.3528, "step": 151200 }, { "epoch": 201.61333333333334, "grad_norm": 0.80078125, "learning_rate": 9.752819613317569e-05, "loss": 0.3459, "step": 151210 }, { "epoch": 201.62666666666667, "grad_norm": 0.7890625, "learning_rate": 9.752787082915721e-05, "loss": 0.3495, "step": 151220 }, { "epoch": 201.64, "grad_norm": 0.9765625, "learning_rate": 9.752754550427678e-05, "loss": 0.3555, "step": 151230 }, { "epoch": 201.65333333333334, "grad_norm": 0.8828125, "learning_rate": 9.75272201585345e-05, "loss": 0.3662, "step": 151240 }, { "epoch": 201.66666666666666, "grad_norm": 0.83984375, "learning_rate": 9.752689479193057e-05, "loss": 0.3584, "step": 151250 }, { "epoch": 201.68, "grad_norm": 0.87109375, "learning_rate": 9.75265694044651e-05, "loss": 0.3459, "step": 151260 }, { "epoch": 201.69333333333333, "grad_norm": 0.80859375, "learning_rate": 9.752624399613824e-05, "loss": 0.3585, "step": 151270 }, { "epoch": 201.70666666666668, "grad_norm": 0.94140625, "learning_rate": 9.752591856695011e-05, "loss": 0.3477, "step": 151280 }, { "epoch": 201.72, "grad_norm": 0.9296875, "learning_rate": 9.752559311690089e-05, "loss": 0.3693, "step": 151290 }, { "epoch": 201.73333333333332, "grad_norm": 0.91796875, "learning_rate": 9.752526764599071e-05, "loss": 0.3642, "step": 151300 }, { "epoch": 201.74666666666667, "grad_norm": 0.9375, "learning_rate": 9.752494215421971e-05, "loss": 0.3677, "step": 151310 }, { "epoch": 201.76, "grad_norm": 0.84375, "learning_rate": 9.752461664158804e-05, "loss": 0.3811, "step": 151320 }, { "epoch": 201.77333333333334, "grad_norm": 0.94921875, "learning_rate": 9.752429110809582e-05, "loss": 0.3656, "step": 151330 }, { "epoch": 201.78666666666666, "grad_norm": 0.81640625, "learning_rate": 9.752396555374321e-05, "loss": 0.3676, "step": 151340 }, { "epoch": 201.8, "grad_norm": 0.88671875, "learning_rate": 9.752363997853036e-05, "loss": 0.366, "step": 151350 }, { "epoch": 201.81333333333333, "grad_norm": 0.9765625, "learning_rate": 9.752331438245739e-05, "loss": 0.34, "step": 151360 }, { "epoch": 201.82666666666665, "grad_norm": 0.87109375, "learning_rate": 9.752298876552447e-05, "loss": 0.3466, "step": 151370 }, { "epoch": 201.84, "grad_norm": 1.015625, "learning_rate": 9.752266312773173e-05, "loss": 0.3602, "step": 151380 }, { "epoch": 201.85333333333332, "grad_norm": 0.84375, "learning_rate": 9.752233746907931e-05, "loss": 0.3553, "step": 151390 }, { "epoch": 201.86666666666667, "grad_norm": 0.8984375, "learning_rate": 9.752201178956736e-05, "loss": 0.3618, "step": 151400 }, { "epoch": 201.88, "grad_norm": 0.859375, "learning_rate": 9.752168608919601e-05, "loss": 0.342, "step": 151410 }, { "epoch": 201.89333333333335, "grad_norm": 0.7578125, "learning_rate": 9.752136036796543e-05, "loss": 0.3552, "step": 151420 }, { "epoch": 201.90666666666667, "grad_norm": 0.9296875, "learning_rate": 9.752103462587572e-05, "loss": 0.359, "step": 151430 }, { "epoch": 201.92, "grad_norm": 0.81640625, "learning_rate": 9.752070886292706e-05, "loss": 0.3594, "step": 151440 }, { "epoch": 201.93333333333334, "grad_norm": 0.7734375, "learning_rate": 9.752038307911959e-05, "loss": 0.3561, "step": 151450 }, { "epoch": 201.94666666666666, "grad_norm": 0.90234375, "learning_rate": 9.752005727445344e-05, "loss": 0.3565, "step": 151460 }, { "epoch": 201.96, "grad_norm": 0.80078125, "learning_rate": 9.751973144892874e-05, "loss": 0.3542, "step": 151470 }, { "epoch": 201.97333333333333, "grad_norm": 1.1328125, "learning_rate": 9.751940560254566e-05, "loss": 0.3773, "step": 151480 }, { "epoch": 201.98666666666668, "grad_norm": 0.8515625, "learning_rate": 9.751907973530434e-05, "loss": 0.3468, "step": 151490 }, { "epoch": 202.0, "grad_norm": 0.796875, "learning_rate": 9.751875384720491e-05, "loss": 0.3491, "step": 151500 }, { "epoch": 202.0, "eval_loss": 0.41706639528274536, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.6682, "eval_samples_per_second": 1.5, "eval_steps_per_second": 0.094, "step": 151500 }, { "epoch": 202.01333333333332, "grad_norm": 0.96875, "learning_rate": 9.751842793824753e-05, "loss": 0.364, "step": 151510 }, { "epoch": 202.02666666666667, "grad_norm": 0.8359375, "learning_rate": 9.751810200843232e-05, "loss": 0.3792, "step": 151520 }, { "epoch": 202.04, "grad_norm": 0.82421875, "learning_rate": 9.751777605775945e-05, "loss": 0.3925, "step": 151530 }, { "epoch": 202.05333333333334, "grad_norm": 0.78515625, "learning_rate": 9.751745008622902e-05, "loss": 0.3761, "step": 151540 }, { "epoch": 202.06666666666666, "grad_norm": 0.953125, "learning_rate": 9.751712409384122e-05, "loss": 0.3642, "step": 151550 }, { "epoch": 202.08, "grad_norm": 0.890625, "learning_rate": 9.751679808059618e-05, "loss": 0.3672, "step": 151560 }, { "epoch": 202.09333333333333, "grad_norm": 0.89453125, "learning_rate": 9.751647204649404e-05, "loss": 0.3707, "step": 151570 }, { "epoch": 202.10666666666665, "grad_norm": 0.7421875, "learning_rate": 9.751614599153491e-05, "loss": 0.3597, "step": 151580 }, { "epoch": 202.12, "grad_norm": 0.88671875, "learning_rate": 9.751581991571898e-05, "loss": 0.361, "step": 151590 }, { "epoch": 202.13333333333333, "grad_norm": 0.83203125, "learning_rate": 9.75154938190464e-05, "loss": 0.3526, "step": 151600 }, { "epoch": 202.14666666666668, "grad_norm": 0.890625, "learning_rate": 9.751516770151727e-05, "loss": 0.3721, "step": 151610 }, { "epoch": 202.16, "grad_norm": 0.81640625, "learning_rate": 9.751484156313175e-05, "loss": 0.3683, "step": 151620 }, { "epoch": 202.17333333333335, "grad_norm": 0.890625, "learning_rate": 9.751451540388999e-05, "loss": 0.362, "step": 151630 }, { "epoch": 202.18666666666667, "grad_norm": 0.83203125, "learning_rate": 9.751418922379214e-05, "loss": 0.3583, "step": 151640 }, { "epoch": 202.2, "grad_norm": 0.8359375, "learning_rate": 9.751386302283832e-05, "loss": 0.3506, "step": 151650 }, { "epoch": 202.21333333333334, "grad_norm": 0.9296875, "learning_rate": 9.751353680102869e-05, "loss": 0.3516, "step": 151660 }, { "epoch": 202.22666666666666, "grad_norm": 0.890625, "learning_rate": 9.751321055836339e-05, "loss": 0.3631, "step": 151670 }, { "epoch": 202.24, "grad_norm": 0.84375, "learning_rate": 9.751288429484255e-05, "loss": 0.3485, "step": 151680 }, { "epoch": 202.25333333333333, "grad_norm": 0.91015625, "learning_rate": 9.751255801046635e-05, "loss": 0.3496, "step": 151690 }, { "epoch": 202.26666666666668, "grad_norm": 0.86328125, "learning_rate": 9.751223170523488e-05, "loss": 0.3537, "step": 151700 }, { "epoch": 202.28, "grad_norm": 0.84765625, "learning_rate": 9.751190537914834e-05, "loss": 0.3811, "step": 151710 }, { "epoch": 202.29333333333332, "grad_norm": 0.87890625, "learning_rate": 9.751157903220683e-05, "loss": 0.3401, "step": 151720 }, { "epoch": 202.30666666666667, "grad_norm": 0.87890625, "learning_rate": 9.751125266441052e-05, "loss": 0.3633, "step": 151730 }, { "epoch": 202.32, "grad_norm": 0.7890625, "learning_rate": 9.751092627575952e-05, "loss": 0.3682, "step": 151740 }, { "epoch": 202.33333333333334, "grad_norm": 0.94140625, "learning_rate": 9.751059986625402e-05, "loss": 0.3664, "step": 151750 }, { "epoch": 202.34666666666666, "grad_norm": 0.91796875, "learning_rate": 9.751027343589412e-05, "loss": 0.3575, "step": 151760 }, { "epoch": 202.36, "grad_norm": 0.91796875, "learning_rate": 9.750994698468e-05, "loss": 0.3583, "step": 151770 }, { "epoch": 202.37333333333333, "grad_norm": 0.80078125, "learning_rate": 9.750962051261177e-05, "loss": 0.3613, "step": 151780 }, { "epoch": 202.38666666666666, "grad_norm": 0.97265625, "learning_rate": 9.750929401968958e-05, "loss": 0.3486, "step": 151790 }, { "epoch": 202.4, "grad_norm": 0.8359375, "learning_rate": 9.75089675059136e-05, "loss": 0.3593, "step": 151800 }, { "epoch": 202.41333333333333, "grad_norm": 0.84375, "learning_rate": 9.750864097128395e-05, "loss": 0.3647, "step": 151810 }, { "epoch": 202.42666666666668, "grad_norm": 0.83203125, "learning_rate": 9.750831441580077e-05, "loss": 0.366, "step": 151820 }, { "epoch": 202.44, "grad_norm": 0.90625, "learning_rate": 9.750798783946423e-05, "loss": 0.3784, "step": 151830 }, { "epoch": 202.45333333333335, "grad_norm": 0.8125, "learning_rate": 9.750766124227442e-05, "loss": 0.366, "step": 151840 }, { "epoch": 202.46666666666667, "grad_norm": 0.8515625, "learning_rate": 9.750733462423155e-05, "loss": 0.3726, "step": 151850 }, { "epoch": 202.48, "grad_norm": 0.82421875, "learning_rate": 9.750700798533571e-05, "loss": 0.3565, "step": 151860 }, { "epoch": 202.49333333333334, "grad_norm": 0.859375, "learning_rate": 9.750668132558709e-05, "loss": 0.3679, "step": 151870 }, { "epoch": 202.50666666666666, "grad_norm": 0.8515625, "learning_rate": 9.750635464498578e-05, "loss": 0.3684, "step": 151880 }, { "epoch": 202.52, "grad_norm": 0.72265625, "learning_rate": 9.750602794353198e-05, "loss": 0.359, "step": 151890 }, { "epoch": 202.53333333333333, "grad_norm": 0.828125, "learning_rate": 9.750570122122579e-05, "loss": 0.3603, "step": 151900 }, { "epoch": 202.54666666666665, "grad_norm": 0.984375, "learning_rate": 9.750537447806737e-05, "loss": 0.3603, "step": 151910 }, { "epoch": 202.56, "grad_norm": 0.76953125, "learning_rate": 9.750504771405686e-05, "loss": 0.3545, "step": 151920 }, { "epoch": 202.57333333333332, "grad_norm": 0.890625, "learning_rate": 9.75047209291944e-05, "loss": 0.3603, "step": 151930 }, { "epoch": 202.58666666666667, "grad_norm": 0.8203125, "learning_rate": 9.750439412348016e-05, "loss": 0.3526, "step": 151940 }, { "epoch": 202.6, "grad_norm": 0.85546875, "learning_rate": 9.750406729691424e-05, "loss": 0.3531, "step": 151950 }, { "epoch": 202.61333333333334, "grad_norm": 0.82421875, "learning_rate": 9.750374044949682e-05, "loss": 0.3451, "step": 151960 }, { "epoch": 202.62666666666667, "grad_norm": 0.7734375, "learning_rate": 9.750341358122801e-05, "loss": 0.3496, "step": 151970 }, { "epoch": 202.64, "grad_norm": 0.92578125, "learning_rate": 9.750308669210799e-05, "loss": 0.3558, "step": 151980 }, { "epoch": 202.65333333333334, "grad_norm": 0.98046875, "learning_rate": 9.750275978213688e-05, "loss": 0.3667, "step": 151990 }, { "epoch": 202.66666666666666, "grad_norm": 0.796875, "learning_rate": 9.750243285131484e-05, "loss": 0.3593, "step": 152000 }, { "epoch": 202.68, "grad_norm": 0.8515625, "learning_rate": 9.750210589964199e-05, "loss": 0.3464, "step": 152010 }, { "epoch": 202.69333333333333, "grad_norm": 0.75390625, "learning_rate": 9.75017789271185e-05, "loss": 0.3587, "step": 152020 }, { "epoch": 202.70666666666668, "grad_norm": 0.95703125, "learning_rate": 9.750145193374448e-05, "loss": 0.347, "step": 152030 }, { "epoch": 202.72, "grad_norm": 0.828125, "learning_rate": 9.750112491952011e-05, "loss": 0.3687, "step": 152040 }, { "epoch": 202.73333333333332, "grad_norm": 0.83203125, "learning_rate": 9.750079788444551e-05, "loss": 0.3642, "step": 152050 }, { "epoch": 202.74666666666667, "grad_norm": 0.87890625, "learning_rate": 9.750047082852082e-05, "loss": 0.3664, "step": 152060 }, { "epoch": 202.76, "grad_norm": 0.96875, "learning_rate": 9.750014375174621e-05, "loss": 0.3808, "step": 152070 }, { "epoch": 202.77333333333334, "grad_norm": 1.0, "learning_rate": 9.74998166541218e-05, "loss": 0.3649, "step": 152080 }, { "epoch": 202.78666666666666, "grad_norm": 0.78515625, "learning_rate": 9.749948953564776e-05, "loss": 0.3684, "step": 152090 }, { "epoch": 202.8, "grad_norm": 0.8828125, "learning_rate": 9.74991623963242e-05, "loss": 0.365, "step": 152100 }, { "epoch": 202.81333333333333, "grad_norm": 0.94921875, "learning_rate": 9.749883523615127e-05, "loss": 0.3395, "step": 152110 }, { "epoch": 202.82666666666665, "grad_norm": 0.875, "learning_rate": 9.749850805512914e-05, "loss": 0.3466, "step": 152120 }, { "epoch": 202.84, "grad_norm": 0.9296875, "learning_rate": 9.749818085325793e-05, "loss": 0.3599, "step": 152130 }, { "epoch": 202.85333333333332, "grad_norm": 0.87890625, "learning_rate": 9.749785363053779e-05, "loss": 0.3558, "step": 152140 }, { "epoch": 202.86666666666667, "grad_norm": 0.890625, "learning_rate": 9.749752638696885e-05, "loss": 0.3611, "step": 152150 }, { "epoch": 202.88, "grad_norm": 0.8984375, "learning_rate": 9.749719912255128e-05, "loss": 0.3415, "step": 152160 }, { "epoch": 202.89333333333335, "grad_norm": 0.83203125, "learning_rate": 9.74968718372852e-05, "loss": 0.3544, "step": 152170 }, { "epoch": 202.90666666666667, "grad_norm": 0.9609375, "learning_rate": 9.749654453117078e-05, "loss": 0.359, "step": 152180 }, { "epoch": 202.92, "grad_norm": 0.83984375, "learning_rate": 9.749621720420814e-05, "loss": 0.3588, "step": 152190 }, { "epoch": 202.93333333333334, "grad_norm": 0.75390625, "learning_rate": 9.749588985639743e-05, "loss": 0.3568, "step": 152200 }, { "epoch": 202.94666666666666, "grad_norm": 0.9140625, "learning_rate": 9.74955624877388e-05, "loss": 0.3558, "step": 152210 }, { "epoch": 202.96, "grad_norm": 0.73828125, "learning_rate": 9.749523509823239e-05, "loss": 0.3549, "step": 152220 }, { "epoch": 202.97333333333333, "grad_norm": 1.1328125, "learning_rate": 9.749490768787832e-05, "loss": 0.377, "step": 152230 }, { "epoch": 202.98666666666668, "grad_norm": 0.82421875, "learning_rate": 9.749458025667679e-05, "loss": 0.3468, "step": 152240 }, { "epoch": 203.0, "grad_norm": 0.84765625, "learning_rate": 9.74942528046279e-05, "loss": 0.3487, "step": 152250 }, { "epoch": 203.0, "eval_loss": 0.41666752099990845, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8309, "eval_samples_per_second": 1.477, "eval_steps_per_second": 0.092, "step": 152250 }, { "epoch": 203.01333333333332, "grad_norm": 0.92578125, "learning_rate": 9.749392533173178e-05, "loss": 0.3633, "step": 152260 }, { "epoch": 203.02666666666667, "grad_norm": 0.84765625, "learning_rate": 9.749359783798861e-05, "loss": 0.3797, "step": 152270 }, { "epoch": 203.04, "grad_norm": 0.83203125, "learning_rate": 9.749327032339854e-05, "loss": 0.3913, "step": 152280 }, { "epoch": 203.05333333333334, "grad_norm": 0.8515625, "learning_rate": 9.749294278796168e-05, "loss": 0.3762, "step": 152290 }, { "epoch": 203.06666666666666, "grad_norm": 1.015625, "learning_rate": 9.749261523167819e-05, "loss": 0.3654, "step": 152300 }, { "epoch": 203.08, "grad_norm": 0.92578125, "learning_rate": 9.74922876545482e-05, "loss": 0.3682, "step": 152310 }, { "epoch": 203.09333333333333, "grad_norm": 0.91015625, "learning_rate": 9.749196005657189e-05, "loss": 0.3692, "step": 152320 }, { "epoch": 203.10666666666665, "grad_norm": 0.8203125, "learning_rate": 9.749163243774937e-05, "loss": 0.3601, "step": 152330 }, { "epoch": 203.12, "grad_norm": 0.9453125, "learning_rate": 9.749130479808078e-05, "loss": 0.3599, "step": 152340 }, { "epoch": 203.13333333333333, "grad_norm": 0.765625, "learning_rate": 9.74909771375663e-05, "loss": 0.352, "step": 152350 }, { "epoch": 203.14666666666668, "grad_norm": 0.95703125, "learning_rate": 9.749064945620604e-05, "loss": 0.3714, "step": 152360 }, { "epoch": 203.16, "grad_norm": 0.77734375, "learning_rate": 9.749032175400014e-05, "loss": 0.3676, "step": 152370 }, { "epoch": 203.17333333333335, "grad_norm": 0.90234375, "learning_rate": 9.748999403094878e-05, "loss": 0.3617, "step": 152380 }, { "epoch": 203.18666666666667, "grad_norm": 0.84765625, "learning_rate": 9.748966628705209e-05, "loss": 0.3586, "step": 152390 }, { "epoch": 203.2, "grad_norm": 0.8203125, "learning_rate": 9.748933852231019e-05, "loss": 0.3514, "step": 152400 }, { "epoch": 203.21333333333334, "grad_norm": 0.8984375, "learning_rate": 9.748901073672325e-05, "loss": 0.351, "step": 152410 }, { "epoch": 203.22666666666666, "grad_norm": 0.9921875, "learning_rate": 9.748868293029139e-05, "loss": 0.3626, "step": 152420 }, { "epoch": 203.24, "grad_norm": 0.859375, "learning_rate": 9.74883551030148e-05, "loss": 0.3482, "step": 152430 }, { "epoch": 203.25333333333333, "grad_norm": 0.87109375, "learning_rate": 9.748802725489357e-05, "loss": 0.3492, "step": 152440 }, { "epoch": 203.26666666666668, "grad_norm": 0.8125, "learning_rate": 9.748769938592786e-05, "loss": 0.3532, "step": 152450 }, { "epoch": 203.28, "grad_norm": 0.89453125, "learning_rate": 9.748737149611781e-05, "loss": 0.381, "step": 152460 }, { "epoch": 203.29333333333332, "grad_norm": 0.82421875, "learning_rate": 9.748704358546362e-05, "loss": 0.3411, "step": 152470 }, { "epoch": 203.30666666666667, "grad_norm": 0.8203125, "learning_rate": 9.748671565396535e-05, "loss": 0.3636, "step": 152480 }, { "epoch": 203.32, "grad_norm": 0.76953125, "learning_rate": 9.748638770162319e-05, "loss": 0.3671, "step": 152490 }, { "epoch": 203.33333333333334, "grad_norm": 0.97265625, "learning_rate": 9.748605972843728e-05, "loss": 0.3651, "step": 152500 }, { "epoch": 203.34666666666666, "grad_norm": 0.95703125, "learning_rate": 9.748573173440776e-05, "loss": 0.3565, "step": 152510 }, { "epoch": 203.36, "grad_norm": 0.8515625, "learning_rate": 9.748540371953478e-05, "loss": 0.3579, "step": 152520 }, { "epoch": 203.37333333333333, "grad_norm": 0.78125, "learning_rate": 9.748507568381846e-05, "loss": 0.362, "step": 152530 }, { "epoch": 203.38666666666666, "grad_norm": 0.9921875, "learning_rate": 9.748474762725897e-05, "loss": 0.3473, "step": 152540 }, { "epoch": 203.4, "grad_norm": 0.83203125, "learning_rate": 9.748441954985645e-05, "loss": 0.359, "step": 152550 }, { "epoch": 203.41333333333333, "grad_norm": 0.7890625, "learning_rate": 9.748409145161103e-05, "loss": 0.3647, "step": 152560 }, { "epoch": 203.42666666666668, "grad_norm": 0.83203125, "learning_rate": 9.748376333252288e-05, "loss": 0.3672, "step": 152570 }, { "epoch": 203.44, "grad_norm": 0.80078125, "learning_rate": 9.748343519259212e-05, "loss": 0.3791, "step": 152580 }, { "epoch": 203.45333333333335, "grad_norm": 0.80078125, "learning_rate": 9.748310703181892e-05, "loss": 0.3654, "step": 152590 }, { "epoch": 203.46666666666667, "grad_norm": 0.859375, "learning_rate": 9.748277885020337e-05, "loss": 0.3735, "step": 152600 }, { "epoch": 203.48, "grad_norm": 0.90234375, "learning_rate": 9.748245064774567e-05, "loss": 0.3575, "step": 152610 }, { "epoch": 203.49333333333334, "grad_norm": 0.859375, "learning_rate": 9.748212242444595e-05, "loss": 0.3678, "step": 152620 }, { "epoch": 203.50666666666666, "grad_norm": 0.8984375, "learning_rate": 9.748179418030434e-05, "loss": 0.3677, "step": 152630 }, { "epoch": 203.52, "grad_norm": 0.74609375, "learning_rate": 9.7481465915321e-05, "loss": 0.3596, "step": 152640 }, { "epoch": 203.53333333333333, "grad_norm": 0.84765625, "learning_rate": 9.748113762949604e-05, "loss": 0.3602, "step": 152650 }, { "epoch": 203.54666666666665, "grad_norm": 0.99609375, "learning_rate": 9.748080932282966e-05, "loss": 0.3597, "step": 152660 }, { "epoch": 203.56, "grad_norm": 0.78125, "learning_rate": 9.748048099532196e-05, "loss": 0.3548, "step": 152670 }, { "epoch": 203.57333333333332, "grad_norm": 0.9140625, "learning_rate": 9.74801526469731e-05, "loss": 0.3602, "step": 152680 }, { "epoch": 203.58666666666667, "grad_norm": 0.78125, "learning_rate": 9.747982427778323e-05, "loss": 0.3512, "step": 152690 }, { "epoch": 203.6, "grad_norm": 0.87109375, "learning_rate": 9.747949588775247e-05, "loss": 0.3524, "step": 152700 }, { "epoch": 203.61333333333334, "grad_norm": 0.78515625, "learning_rate": 9.747916747688099e-05, "loss": 0.3452, "step": 152710 }, { "epoch": 203.62666666666667, "grad_norm": 0.83984375, "learning_rate": 9.747883904516895e-05, "loss": 0.3497, "step": 152720 }, { "epoch": 203.64, "grad_norm": 0.9609375, "learning_rate": 9.747851059261644e-05, "loss": 0.3557, "step": 152730 }, { "epoch": 203.65333333333334, "grad_norm": 0.79296875, "learning_rate": 9.747818211922364e-05, "loss": 0.3661, "step": 152740 }, { "epoch": 203.66666666666666, "grad_norm": 0.76171875, "learning_rate": 9.74778536249907e-05, "loss": 0.3581, "step": 152750 }, { "epoch": 203.68, "grad_norm": 0.93359375, "learning_rate": 9.747752510991774e-05, "loss": 0.3466, "step": 152760 }, { "epoch": 203.69333333333333, "grad_norm": 0.75390625, "learning_rate": 9.747719657400492e-05, "loss": 0.3582, "step": 152770 }, { "epoch": 203.70666666666668, "grad_norm": 0.98046875, "learning_rate": 9.747686801725237e-05, "loss": 0.3471, "step": 152780 }, { "epoch": 203.72, "grad_norm": 0.9453125, "learning_rate": 9.747653943966024e-05, "loss": 0.3684, "step": 152790 }, { "epoch": 203.73333333333332, "grad_norm": 0.81640625, "learning_rate": 9.74762108412287e-05, "loss": 0.365, "step": 152800 }, { "epoch": 203.74666666666667, "grad_norm": 0.9609375, "learning_rate": 9.747588222195787e-05, "loss": 0.3675, "step": 152810 }, { "epoch": 203.76, "grad_norm": 0.9765625, "learning_rate": 9.74755535818479e-05, "loss": 0.3811, "step": 152820 }, { "epoch": 203.77333333333334, "grad_norm": 0.91796875, "learning_rate": 9.74752249208989e-05, "loss": 0.3644, "step": 152830 }, { "epoch": 203.78666666666666, "grad_norm": 0.87109375, "learning_rate": 9.747489623911108e-05, "loss": 0.3683, "step": 152840 }, { "epoch": 203.8, "grad_norm": 0.93359375, "learning_rate": 9.747456753648455e-05, "loss": 0.3654, "step": 152850 }, { "epoch": 203.81333333333333, "grad_norm": 0.9375, "learning_rate": 9.747423881301943e-05, "loss": 0.3398, "step": 152860 }, { "epoch": 203.82666666666665, "grad_norm": 0.87109375, "learning_rate": 9.74739100687159e-05, "loss": 0.3465, "step": 152870 }, { "epoch": 203.84, "grad_norm": 0.9140625, "learning_rate": 9.747358130357409e-05, "loss": 0.3606, "step": 152880 }, { "epoch": 203.85333333333332, "grad_norm": 0.8359375, "learning_rate": 9.747325251759416e-05, "loss": 0.3556, "step": 152890 }, { "epoch": 203.86666666666667, "grad_norm": 0.87890625, "learning_rate": 9.747292371077624e-05, "loss": 0.3608, "step": 152900 }, { "epoch": 203.88, "grad_norm": 0.875, "learning_rate": 9.747259488312046e-05, "loss": 0.3427, "step": 152910 }, { "epoch": 203.89333333333335, "grad_norm": 0.796875, "learning_rate": 9.7472266034627e-05, "loss": 0.3553, "step": 152920 }, { "epoch": 203.90666666666667, "grad_norm": 0.83203125, "learning_rate": 9.747193716529597e-05, "loss": 0.3583, "step": 152930 }, { "epoch": 203.92, "grad_norm": 0.828125, "learning_rate": 9.747160827512754e-05, "loss": 0.3594, "step": 152940 }, { "epoch": 203.93333333333334, "grad_norm": 0.76171875, "learning_rate": 9.747127936412183e-05, "loss": 0.3563, "step": 152950 }, { "epoch": 203.94666666666666, "grad_norm": 0.8984375, "learning_rate": 9.747095043227901e-05, "loss": 0.3562, "step": 152960 }, { "epoch": 203.96, "grad_norm": 0.8125, "learning_rate": 9.74706214795992e-05, "loss": 0.3541, "step": 152970 }, { "epoch": 203.97333333333333, "grad_norm": 1.0625, "learning_rate": 9.747029250608256e-05, "loss": 0.3772, "step": 152980 }, { "epoch": 203.98666666666668, "grad_norm": 0.9296875, "learning_rate": 9.746996351172923e-05, "loss": 0.3469, "step": 152990 }, { "epoch": 204.0, "grad_norm": 0.90625, "learning_rate": 9.746963449653936e-05, "loss": 0.3494, "step": 153000 }, { "epoch": 204.0, "eval_loss": 0.41865840554237366, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.7223, "eval_samples_per_second": 1.492, "eval_steps_per_second": 0.093, "step": 153000 }, { "epoch": 204.01333333333332, "grad_norm": 0.98828125, "learning_rate": 9.74693054605131e-05, "loss": 0.3639, "step": 153010 }, { "epoch": 204.02666666666667, "grad_norm": 0.80859375, "learning_rate": 9.746897640365057e-05, "loss": 0.3792, "step": 153020 }, { "epoch": 204.04, "grad_norm": 0.84375, "learning_rate": 9.746864732595194e-05, "loss": 0.3924, "step": 153030 }, { "epoch": 204.05333333333334, "grad_norm": 0.859375, "learning_rate": 9.746831822741733e-05, "loss": 0.376, "step": 153040 }, { "epoch": 204.06666666666666, "grad_norm": 0.97265625, "learning_rate": 9.74679891080469e-05, "loss": 0.3648, "step": 153050 }, { "epoch": 204.08, "grad_norm": 0.87109375, "learning_rate": 9.74676599678408e-05, "loss": 0.3672, "step": 153060 }, { "epoch": 204.09333333333333, "grad_norm": 0.8203125, "learning_rate": 9.746733080679916e-05, "loss": 0.3696, "step": 153070 }, { "epoch": 204.10666666666665, "grad_norm": 0.7265625, "learning_rate": 9.746700162492213e-05, "loss": 0.359, "step": 153080 }, { "epoch": 204.12, "grad_norm": 0.87890625, "learning_rate": 9.746667242220985e-05, "loss": 0.3596, "step": 153090 }, { "epoch": 204.13333333333333, "grad_norm": 0.828125, "learning_rate": 9.746634319866247e-05, "loss": 0.3527, "step": 153100 }, { "epoch": 204.14666666666668, "grad_norm": 0.828125, "learning_rate": 9.746601395428015e-05, "loss": 0.3715, "step": 153110 }, { "epoch": 204.16, "grad_norm": 0.78515625, "learning_rate": 9.7465684689063e-05, "loss": 0.3671, "step": 153120 }, { "epoch": 204.17333333333335, "grad_norm": 0.8984375, "learning_rate": 9.74653554030112e-05, "loss": 0.3622, "step": 153130 }, { "epoch": 204.18666666666667, "grad_norm": 0.89453125, "learning_rate": 9.746502609612487e-05, "loss": 0.3584, "step": 153140 }, { "epoch": 204.2, "grad_norm": 0.84765625, "learning_rate": 9.746469676840415e-05, "loss": 0.3512, "step": 153150 }, { "epoch": 204.21333333333334, "grad_norm": 0.9609375, "learning_rate": 9.746436741984921e-05, "loss": 0.3512, "step": 153160 }, { "epoch": 204.22666666666666, "grad_norm": 0.875, "learning_rate": 9.746403805046018e-05, "loss": 0.3626, "step": 153170 }, { "epoch": 204.24, "grad_norm": 0.90625, "learning_rate": 9.746370866023722e-05, "loss": 0.3494, "step": 153180 }, { "epoch": 204.25333333333333, "grad_norm": 0.89453125, "learning_rate": 9.746337924918045e-05, "loss": 0.3496, "step": 153190 }, { "epoch": 204.26666666666668, "grad_norm": 0.8125, "learning_rate": 9.746304981729002e-05, "loss": 0.3537, "step": 153200 }, { "epoch": 204.28, "grad_norm": 0.90234375, "learning_rate": 9.746272036456609e-05, "loss": 0.3793, "step": 153210 }, { "epoch": 204.29333333333332, "grad_norm": 0.8984375, "learning_rate": 9.74623908910088e-05, "loss": 0.3399, "step": 153220 }, { "epoch": 204.30666666666667, "grad_norm": 0.90625, "learning_rate": 9.746206139661827e-05, "loss": 0.3631, "step": 153230 }, { "epoch": 204.32, "grad_norm": 0.79296875, "learning_rate": 9.746173188139468e-05, "loss": 0.3681, "step": 153240 }, { "epoch": 204.33333333333334, "grad_norm": 0.9140625, "learning_rate": 9.746140234533814e-05, "loss": 0.3653, "step": 153250 }, { "epoch": 204.34666666666666, "grad_norm": 0.90625, "learning_rate": 9.746107278844882e-05, "loss": 0.3565, "step": 153260 }, { "epoch": 204.36, "grad_norm": 0.87890625, "learning_rate": 9.746074321072685e-05, "loss": 0.3582, "step": 153270 }, { "epoch": 204.37333333333333, "grad_norm": 0.73046875, "learning_rate": 9.746041361217239e-05, "loss": 0.3614, "step": 153280 }, { "epoch": 204.38666666666666, "grad_norm": 1.0078125, "learning_rate": 9.746008399278559e-05, "loss": 0.3481, "step": 153290 }, { "epoch": 204.4, "grad_norm": 0.91796875, "learning_rate": 9.745975435256658e-05, "loss": 0.3594, "step": 153300 }, { "epoch": 204.41333333333333, "grad_norm": 0.765625, "learning_rate": 9.74594246915155e-05, "loss": 0.3651, "step": 153310 }, { "epoch": 204.42666666666668, "grad_norm": 0.8125, "learning_rate": 9.745909500963249e-05, "loss": 0.3663, "step": 153320 }, { "epoch": 204.44, "grad_norm": 0.828125, "learning_rate": 9.74587653069177e-05, "loss": 0.3783, "step": 153330 }, { "epoch": 204.45333333333335, "grad_norm": 0.875, "learning_rate": 9.745843558337131e-05, "loss": 0.367, "step": 153340 }, { "epoch": 204.46666666666667, "grad_norm": 0.88671875, "learning_rate": 9.745810583899341e-05, "loss": 0.3726, "step": 153350 }, { "epoch": 204.48, "grad_norm": 0.921875, "learning_rate": 9.745777607378419e-05, "loss": 0.3566, "step": 153360 }, { "epoch": 204.49333333333334, "grad_norm": 0.953125, "learning_rate": 9.745744628774378e-05, "loss": 0.3674, "step": 153370 }, { "epoch": 204.50666666666666, "grad_norm": 0.890625, "learning_rate": 9.74571164808723e-05, "loss": 0.3678, "step": 153380 }, { "epoch": 204.52, "grad_norm": 0.76953125, "learning_rate": 9.745678665316993e-05, "loss": 0.3591, "step": 153390 }, { "epoch": 204.53333333333333, "grad_norm": 0.8984375, "learning_rate": 9.745645680463677e-05, "loss": 0.3596, "step": 153400 }, { "epoch": 204.54666666666665, "grad_norm": 1.0234375, "learning_rate": 9.745612693527301e-05, "loss": 0.3598, "step": 153410 }, { "epoch": 204.56, "grad_norm": 0.7890625, "learning_rate": 9.745579704507879e-05, "loss": 0.3539, "step": 153420 }, { "epoch": 204.57333333333332, "grad_norm": 0.95703125, "learning_rate": 9.745546713405425e-05, "loss": 0.3601, "step": 153430 }, { "epoch": 204.58666666666667, "grad_norm": 0.86328125, "learning_rate": 9.74551372021995e-05, "loss": 0.3519, "step": 153440 }, { "epoch": 204.6, "grad_norm": 0.8359375, "learning_rate": 9.745480724951473e-05, "loss": 0.3531, "step": 153450 }, { "epoch": 204.61333333333334, "grad_norm": 0.77734375, "learning_rate": 9.745447727600007e-05, "loss": 0.3453, "step": 153460 }, { "epoch": 204.62666666666667, "grad_norm": 0.76171875, "learning_rate": 9.745414728165565e-05, "loss": 0.3491, "step": 153470 }, { "epoch": 204.64, "grad_norm": 0.859375, "learning_rate": 9.745381726648164e-05, "loss": 0.3553, "step": 153480 }, { "epoch": 204.65333333333334, "grad_norm": 0.8515625, "learning_rate": 9.745348723047816e-05, "loss": 0.3659, "step": 153490 }, { "epoch": 204.66666666666666, "grad_norm": 0.75, "learning_rate": 9.745315717364539e-05, "loss": 0.3578, "step": 153500 }, { "epoch": 204.68, "grad_norm": 0.8671875, "learning_rate": 9.745282709598343e-05, "loss": 0.3465, "step": 153510 }, { "epoch": 204.69333333333333, "grad_norm": 0.7734375, "learning_rate": 9.745249699749246e-05, "loss": 0.3581, "step": 153520 }, { "epoch": 204.70666666666668, "grad_norm": 0.87890625, "learning_rate": 9.74521668781726e-05, "loss": 0.347, "step": 153530 }, { "epoch": 204.72, "grad_norm": 0.890625, "learning_rate": 9.745183673802403e-05, "loss": 0.3681, "step": 153540 }, { "epoch": 204.73333333333332, "grad_norm": 0.87109375, "learning_rate": 9.745150657704684e-05, "loss": 0.3649, "step": 153550 }, { "epoch": 204.74666666666667, "grad_norm": 0.80859375, "learning_rate": 9.745117639524123e-05, "loss": 0.3668, "step": 153560 }, { "epoch": 204.76, "grad_norm": 0.890625, "learning_rate": 9.745084619260731e-05, "loss": 0.3807, "step": 153570 }, { "epoch": 204.77333333333334, "grad_norm": 0.95703125, "learning_rate": 9.745051596914525e-05, "loss": 0.3649, "step": 153580 }, { "epoch": 204.78666666666666, "grad_norm": 0.77734375, "learning_rate": 9.745018572485516e-05, "loss": 0.3676, "step": 153590 }, { "epoch": 204.8, "grad_norm": 0.8671875, "learning_rate": 9.744985545973722e-05, "loss": 0.365, "step": 153600 }, { "epoch": 204.81333333333333, "grad_norm": 0.92578125, "learning_rate": 9.744952517379156e-05, "loss": 0.3395, "step": 153610 }, { "epoch": 204.82666666666665, "grad_norm": 0.83984375, "learning_rate": 9.744919486701834e-05, "loss": 0.3466, "step": 153620 }, { "epoch": 204.84, "grad_norm": 0.98046875, "learning_rate": 9.744886453941767e-05, "loss": 0.3605, "step": 153630 }, { "epoch": 204.85333333333332, "grad_norm": 0.8359375, "learning_rate": 9.744853419098972e-05, "loss": 0.3551, "step": 153640 }, { "epoch": 204.86666666666667, "grad_norm": 0.94921875, "learning_rate": 9.744820382173466e-05, "loss": 0.3616, "step": 153650 }, { "epoch": 204.88, "grad_norm": 0.8671875, "learning_rate": 9.744787343165256e-05, "loss": 0.3419, "step": 153660 }, { "epoch": 204.89333333333335, "grad_norm": 0.83984375, "learning_rate": 9.744754302074364e-05, "loss": 0.3552, "step": 153670 }, { "epoch": 204.90666666666667, "grad_norm": 0.84375, "learning_rate": 9.744721258900802e-05, "loss": 0.3582, "step": 153680 }, { "epoch": 204.92, "grad_norm": 0.78515625, "learning_rate": 9.744688213644581e-05, "loss": 0.359, "step": 153690 }, { "epoch": 204.93333333333334, "grad_norm": 0.81640625, "learning_rate": 9.744655166305722e-05, "loss": 0.3562, "step": 153700 }, { "epoch": 204.94666666666666, "grad_norm": 0.8203125, "learning_rate": 9.744622116884236e-05, "loss": 0.3555, "step": 153710 }, { "epoch": 204.96, "grad_norm": 0.8515625, "learning_rate": 9.744589065380136e-05, "loss": 0.355, "step": 153720 }, { "epoch": 204.97333333333333, "grad_norm": 1.15625, "learning_rate": 9.74455601179344e-05, "loss": 0.3766, "step": 153730 }, { "epoch": 204.98666666666668, "grad_norm": 0.9140625, "learning_rate": 9.744522956124158e-05, "loss": 0.3471, "step": 153740 }, { "epoch": 205.0, "grad_norm": 0.9453125, "learning_rate": 9.74448989837231e-05, "loss": 0.3483, "step": 153750 }, { "epoch": 205.0, "eval_loss": 0.4163600206375122, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.2421, "eval_samples_per_second": 1.562, "eval_steps_per_second": 0.098, "step": 153750 }, { "epoch": 205.01333333333332, "grad_norm": 0.9609375, "learning_rate": 9.744456838537906e-05, "loss": 0.364, "step": 153760 }, { "epoch": 205.02666666666667, "grad_norm": 0.83203125, "learning_rate": 9.744423776620963e-05, "loss": 0.3783, "step": 153770 }, { "epoch": 205.04, "grad_norm": 0.88671875, "learning_rate": 9.744390712621495e-05, "loss": 0.3932, "step": 153780 }, { "epoch": 205.05333333333334, "grad_norm": 0.86328125, "learning_rate": 9.744357646539515e-05, "loss": 0.3764, "step": 153790 }, { "epoch": 205.06666666666666, "grad_norm": 0.90234375, "learning_rate": 9.744324578375039e-05, "loss": 0.3648, "step": 153800 }, { "epoch": 205.08, "grad_norm": 0.85546875, "learning_rate": 9.744291508128083e-05, "loss": 0.3671, "step": 153810 }, { "epoch": 205.09333333333333, "grad_norm": 1.0546875, "learning_rate": 9.74425843579866e-05, "loss": 0.3702, "step": 153820 }, { "epoch": 205.10666666666665, "grad_norm": 0.78125, "learning_rate": 9.74422536138678e-05, "loss": 0.3599, "step": 153830 }, { "epoch": 205.12, "grad_norm": 0.875, "learning_rate": 9.744192284892466e-05, "loss": 0.3602, "step": 153840 }, { "epoch": 205.13333333333333, "grad_norm": 0.87109375, "learning_rate": 9.744159206315727e-05, "loss": 0.352, "step": 153850 }, { "epoch": 205.14666666666668, "grad_norm": 0.86328125, "learning_rate": 9.744126125656578e-05, "loss": 0.3725, "step": 153860 }, { "epoch": 205.16, "grad_norm": 0.79296875, "learning_rate": 9.744093042915037e-05, "loss": 0.3684, "step": 153870 }, { "epoch": 205.17333333333335, "grad_norm": 0.9453125, "learning_rate": 9.744059958091114e-05, "loss": 0.3624, "step": 153880 }, { "epoch": 205.18666666666667, "grad_norm": 0.76171875, "learning_rate": 9.744026871184825e-05, "loss": 0.359, "step": 153890 }, { "epoch": 205.2, "grad_norm": 0.89453125, "learning_rate": 9.743993782196185e-05, "loss": 0.3508, "step": 153900 }, { "epoch": 205.21333333333334, "grad_norm": 0.90234375, "learning_rate": 9.743960691125209e-05, "loss": 0.3514, "step": 153910 }, { "epoch": 205.22666666666666, "grad_norm": 0.88671875, "learning_rate": 9.743927597971911e-05, "loss": 0.3623, "step": 153920 }, { "epoch": 205.24, "grad_norm": 0.953125, "learning_rate": 9.743894502736306e-05, "loss": 0.3489, "step": 153930 }, { "epoch": 205.25333333333333, "grad_norm": 0.8515625, "learning_rate": 9.743861405418409e-05, "loss": 0.3496, "step": 153940 }, { "epoch": 205.26666666666668, "grad_norm": 0.8515625, "learning_rate": 9.74382830601823e-05, "loss": 0.3531, "step": 153950 }, { "epoch": 205.28, "grad_norm": 0.86328125, "learning_rate": 9.743795204535791e-05, "loss": 0.38, "step": 153960 }, { "epoch": 205.29333333333332, "grad_norm": 0.8671875, "learning_rate": 9.743762100971102e-05, "loss": 0.3405, "step": 153970 }, { "epoch": 205.30666666666667, "grad_norm": 0.86328125, "learning_rate": 9.743728995324176e-05, "loss": 0.3638, "step": 153980 }, { "epoch": 205.32, "grad_norm": 0.72265625, "learning_rate": 9.74369588759503e-05, "loss": 0.3678, "step": 153990 }, { "epoch": 205.33333333333334, "grad_norm": 0.91796875, "learning_rate": 9.74366277778368e-05, "loss": 0.365, "step": 154000 }, { "epoch": 205.34666666666666, "grad_norm": 0.9453125, "learning_rate": 9.743629665890138e-05, "loss": 0.3565, "step": 154010 }, { "epoch": 205.36, "grad_norm": 0.9453125, "learning_rate": 9.743596551914419e-05, "loss": 0.3577, "step": 154020 }, { "epoch": 205.37333333333333, "grad_norm": 0.83203125, "learning_rate": 9.743563435856537e-05, "loss": 0.3623, "step": 154030 }, { "epoch": 205.38666666666666, "grad_norm": 0.984375, "learning_rate": 9.74353031771651e-05, "loss": 0.348, "step": 154040 }, { "epoch": 205.4, "grad_norm": 0.8828125, "learning_rate": 9.743497197494347e-05, "loss": 0.3582, "step": 154050 }, { "epoch": 205.41333333333333, "grad_norm": 0.91015625, "learning_rate": 9.743464075190068e-05, "loss": 0.3655, "step": 154060 }, { "epoch": 205.42666666666668, "grad_norm": 0.83203125, "learning_rate": 9.743430950803684e-05, "loss": 0.3657, "step": 154070 }, { "epoch": 205.44, "grad_norm": 0.90625, "learning_rate": 9.74339782433521e-05, "loss": 0.3786, "step": 154080 }, { "epoch": 205.45333333333335, "grad_norm": 0.92578125, "learning_rate": 9.74336469578466e-05, "loss": 0.3661, "step": 154090 }, { "epoch": 205.46666666666667, "grad_norm": 0.87890625, "learning_rate": 9.743331565152052e-05, "loss": 0.3718, "step": 154100 }, { "epoch": 205.48, "grad_norm": 0.83984375, "learning_rate": 9.743298432437397e-05, "loss": 0.3574, "step": 154110 }, { "epoch": 205.49333333333334, "grad_norm": 0.8203125, "learning_rate": 9.743265297640711e-05, "loss": 0.3675, "step": 154120 }, { "epoch": 205.50666666666666, "grad_norm": 0.8984375, "learning_rate": 9.743232160762008e-05, "loss": 0.3682, "step": 154130 }, { "epoch": 205.52, "grad_norm": 0.71875, "learning_rate": 9.743199021801304e-05, "loss": 0.3593, "step": 154140 }, { "epoch": 205.53333333333333, "grad_norm": 0.90625, "learning_rate": 9.74316588075861e-05, "loss": 0.3589, "step": 154150 }, { "epoch": 205.54666666666665, "grad_norm": 1.0390625, "learning_rate": 9.743132737633944e-05, "loss": 0.3602, "step": 154160 }, { "epoch": 205.56, "grad_norm": 0.82421875, "learning_rate": 9.743099592427319e-05, "loss": 0.3551, "step": 154170 }, { "epoch": 205.57333333333332, "grad_norm": 0.8828125, "learning_rate": 9.743066445138751e-05, "loss": 0.3598, "step": 154180 }, { "epoch": 205.58666666666667, "grad_norm": 0.77734375, "learning_rate": 9.743033295768254e-05, "loss": 0.3518, "step": 154190 }, { "epoch": 205.6, "grad_norm": 0.83203125, "learning_rate": 9.74300014431584e-05, "loss": 0.353, "step": 154200 }, { "epoch": 205.61333333333334, "grad_norm": 0.73828125, "learning_rate": 9.742966990781527e-05, "loss": 0.3439, "step": 154210 }, { "epoch": 205.62666666666667, "grad_norm": 0.83203125, "learning_rate": 9.742933835165327e-05, "loss": 0.349, "step": 154220 }, { "epoch": 205.64, "grad_norm": 1.0078125, "learning_rate": 9.742900677467257e-05, "loss": 0.3557, "step": 154230 }, { "epoch": 205.65333333333334, "grad_norm": 0.85546875, "learning_rate": 9.74286751768733e-05, "loss": 0.3659, "step": 154240 }, { "epoch": 205.66666666666666, "grad_norm": 0.8046875, "learning_rate": 9.74283435582556e-05, "loss": 0.3575, "step": 154250 }, { "epoch": 205.68, "grad_norm": 0.9140625, "learning_rate": 9.742801191881964e-05, "loss": 0.3462, "step": 154260 }, { "epoch": 205.69333333333333, "grad_norm": 0.859375, "learning_rate": 9.742768025856554e-05, "loss": 0.3587, "step": 154270 }, { "epoch": 205.70666666666668, "grad_norm": 0.98046875, "learning_rate": 9.742734857749345e-05, "loss": 0.3471, "step": 154280 }, { "epoch": 205.72, "grad_norm": 0.87109375, "learning_rate": 9.742701687560354e-05, "loss": 0.3678, "step": 154290 }, { "epoch": 205.73333333333332, "grad_norm": 0.84765625, "learning_rate": 9.742668515289592e-05, "loss": 0.3636, "step": 154300 }, { "epoch": 205.74666666666667, "grad_norm": 0.84375, "learning_rate": 9.742635340937075e-05, "loss": 0.3669, "step": 154310 }, { "epoch": 205.76, "grad_norm": 0.9140625, "learning_rate": 9.742602164502819e-05, "loss": 0.3805, "step": 154320 }, { "epoch": 205.77333333333334, "grad_norm": 0.9609375, "learning_rate": 9.742568985986835e-05, "loss": 0.3643, "step": 154330 }, { "epoch": 205.78666666666666, "grad_norm": 0.76953125, "learning_rate": 9.742535805389142e-05, "loss": 0.3677, "step": 154340 }, { "epoch": 205.8, "grad_norm": 0.84765625, "learning_rate": 9.742502622709753e-05, "loss": 0.3646, "step": 154350 }, { "epoch": 205.81333333333333, "grad_norm": 0.98828125, "learning_rate": 9.74246943794868e-05, "loss": 0.34, "step": 154360 }, { "epoch": 205.82666666666665, "grad_norm": 0.78515625, "learning_rate": 9.742436251105941e-05, "loss": 0.3461, "step": 154370 }, { "epoch": 205.84, "grad_norm": 0.859375, "learning_rate": 9.742403062181549e-05, "loss": 0.3596, "step": 154380 }, { "epoch": 205.85333333333332, "grad_norm": 0.9140625, "learning_rate": 9.742369871175518e-05, "loss": 0.3546, "step": 154390 }, { "epoch": 205.86666666666667, "grad_norm": 0.859375, "learning_rate": 9.742336678087864e-05, "loss": 0.3609, "step": 154400 }, { "epoch": 205.88, "grad_norm": 0.8671875, "learning_rate": 9.7423034829186e-05, "loss": 0.3414, "step": 154410 }, { "epoch": 205.89333333333335, "grad_norm": 0.82421875, "learning_rate": 9.74227028566774e-05, "loss": 0.3547, "step": 154420 }, { "epoch": 205.90666666666667, "grad_norm": 0.8203125, "learning_rate": 9.742237086335304e-05, "loss": 0.3588, "step": 154430 }, { "epoch": 205.92, "grad_norm": 0.8125, "learning_rate": 9.7422038849213e-05, "loss": 0.3592, "step": 154440 }, { "epoch": 205.93333333333334, "grad_norm": 0.80078125, "learning_rate": 9.742170681425745e-05, "loss": 0.356, "step": 154450 }, { "epoch": 205.94666666666666, "grad_norm": 0.875, "learning_rate": 9.742137475848653e-05, "loss": 0.3563, "step": 154460 }, { "epoch": 205.96, "grad_norm": 0.76171875, "learning_rate": 9.742104268190041e-05, "loss": 0.3542, "step": 154470 }, { "epoch": 205.97333333333333, "grad_norm": 1.0859375, "learning_rate": 9.742071058449921e-05, "loss": 0.3765, "step": 154480 }, { "epoch": 205.98666666666668, "grad_norm": 0.8515625, "learning_rate": 9.74203784662831e-05, "loss": 0.3469, "step": 154490 }, { "epoch": 206.0, "grad_norm": 0.93359375, "learning_rate": 9.74200463272522e-05, "loss": 0.3489, "step": 154500 }, { "epoch": 206.0, "eval_loss": 0.4162338376045227, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.8493, "eval_samples_per_second": 1.475, "eval_steps_per_second": 0.092, "step": 154500 }, { "epoch": 206.01333333333332, "grad_norm": 0.8984375, "learning_rate": 9.741971416740667e-05, "loss": 0.3636, "step": 154510 }, { "epoch": 206.02666666666667, "grad_norm": 0.8203125, "learning_rate": 9.741938198674665e-05, "loss": 0.3787, "step": 154520 }, { "epoch": 206.04, "grad_norm": 0.796875, "learning_rate": 9.741904978527228e-05, "loss": 0.3921, "step": 154530 }, { "epoch": 206.05333333333334, "grad_norm": 0.8828125, "learning_rate": 9.741871756298372e-05, "loss": 0.3758, "step": 154540 }, { "epoch": 206.06666666666666, "grad_norm": 1.015625, "learning_rate": 9.74183853198811e-05, "loss": 0.3646, "step": 154550 }, { "epoch": 206.08, "grad_norm": 0.8671875, "learning_rate": 9.741805305596459e-05, "loss": 0.367, "step": 154560 }, { "epoch": 206.09333333333333, "grad_norm": 0.87890625, "learning_rate": 9.741772077123432e-05, "loss": 0.3701, "step": 154570 }, { "epoch": 206.10666666666665, "grad_norm": 0.75, "learning_rate": 9.741738846569042e-05, "loss": 0.3594, "step": 154580 }, { "epoch": 206.12, "grad_norm": 0.91796875, "learning_rate": 9.741705613933306e-05, "loss": 0.3598, "step": 154590 }, { "epoch": 206.13333333333333, "grad_norm": 0.8671875, "learning_rate": 9.741672379216238e-05, "loss": 0.3524, "step": 154600 }, { "epoch": 206.14666666666668, "grad_norm": 0.89453125, "learning_rate": 9.741639142417853e-05, "loss": 0.3718, "step": 154610 }, { "epoch": 206.16, "grad_norm": 0.8046875, "learning_rate": 9.741605903538165e-05, "loss": 0.3679, "step": 154620 }, { "epoch": 206.17333333333335, "grad_norm": 0.890625, "learning_rate": 9.741572662577187e-05, "loss": 0.3629, "step": 154630 }, { "epoch": 206.18666666666667, "grad_norm": 0.875, "learning_rate": 9.741539419534938e-05, "loss": 0.3578, "step": 154640 }, { "epoch": 206.2, "grad_norm": 0.828125, "learning_rate": 9.741506174411427e-05, "loss": 0.3505, "step": 154650 }, { "epoch": 206.21333333333334, "grad_norm": 0.93359375, "learning_rate": 9.741472927206671e-05, "loss": 0.3513, "step": 154660 }, { "epoch": 206.22666666666666, "grad_norm": 0.90234375, "learning_rate": 9.741439677920687e-05, "loss": 0.362, "step": 154670 }, { "epoch": 206.24, "grad_norm": 0.828125, "learning_rate": 9.741406426553488e-05, "loss": 0.3486, "step": 154680 }, { "epoch": 206.25333333333333, "grad_norm": 0.8984375, "learning_rate": 9.741373173105087e-05, "loss": 0.3487, "step": 154690 }, { "epoch": 206.26666666666668, "grad_norm": 0.8203125, "learning_rate": 9.7413399175755e-05, "loss": 0.3525, "step": 154700 }, { "epoch": 206.28, "grad_norm": 0.89453125, "learning_rate": 9.741306659964741e-05, "loss": 0.3805, "step": 154710 }, { "epoch": 206.29333333333332, "grad_norm": 0.859375, "learning_rate": 9.741273400272826e-05, "loss": 0.34, "step": 154720 }, { "epoch": 206.30666666666667, "grad_norm": 0.86328125, "learning_rate": 9.741240138499769e-05, "loss": 0.3636, "step": 154730 }, { "epoch": 206.32, "grad_norm": 0.78125, "learning_rate": 9.741206874645583e-05, "loss": 0.3682, "step": 154740 }, { "epoch": 206.33333333333334, "grad_norm": 0.89453125, "learning_rate": 9.741173608710283e-05, "loss": 0.3655, "step": 154750 }, { "epoch": 206.34666666666666, "grad_norm": 0.9140625, "learning_rate": 9.741140340693886e-05, "loss": 0.3557, "step": 154760 }, { "epoch": 206.36, "grad_norm": 0.97265625, "learning_rate": 9.741107070596405e-05, "loss": 0.3576, "step": 154770 }, { "epoch": 206.37333333333333, "grad_norm": 0.76953125, "learning_rate": 9.741073798417852e-05, "loss": 0.3627, "step": 154780 }, { "epoch": 206.38666666666666, "grad_norm": 0.99609375, "learning_rate": 9.741040524158247e-05, "loss": 0.3477, "step": 154790 }, { "epoch": 206.4, "grad_norm": 0.91796875, "learning_rate": 9.741007247817601e-05, "loss": 0.3592, "step": 154800 }, { "epoch": 206.41333333333333, "grad_norm": 0.84375, "learning_rate": 9.740973969395928e-05, "loss": 0.365, "step": 154810 }, { "epoch": 206.42666666666668, "grad_norm": 0.796875, "learning_rate": 9.740940688893245e-05, "loss": 0.3674, "step": 154820 }, { "epoch": 206.44, "grad_norm": 0.8359375, "learning_rate": 9.740907406309568e-05, "loss": 0.3781, "step": 154830 }, { "epoch": 206.45333333333335, "grad_norm": 0.8203125, "learning_rate": 9.740874121644904e-05, "loss": 0.3666, "step": 154840 }, { "epoch": 206.46666666666667, "grad_norm": 0.83203125, "learning_rate": 9.740840834899278e-05, "loss": 0.3726, "step": 154850 }, { "epoch": 206.48, "grad_norm": 0.83203125, "learning_rate": 9.740807546072697e-05, "loss": 0.3568, "step": 154860 }, { "epoch": 206.49333333333334, "grad_norm": 0.828125, "learning_rate": 9.740774255165178e-05, "loss": 0.3683, "step": 154870 }, { "epoch": 206.50666666666666, "grad_norm": 0.9375, "learning_rate": 9.740740962176737e-05, "loss": 0.3681, "step": 154880 }, { "epoch": 206.52, "grad_norm": 0.82421875, "learning_rate": 9.740707667107385e-05, "loss": 0.3587, "step": 154890 }, { "epoch": 206.53333333333333, "grad_norm": 0.87109375, "learning_rate": 9.740674369957142e-05, "loss": 0.3587, "step": 154900 }, { "epoch": 206.54666666666665, "grad_norm": 0.9921875, "learning_rate": 9.740641070726016e-05, "loss": 0.3604, "step": 154910 }, { "epoch": 206.56, "grad_norm": 0.80859375, "learning_rate": 9.740607769414027e-05, "loss": 0.3547, "step": 154920 }, { "epoch": 206.57333333333332, "grad_norm": 0.90625, "learning_rate": 9.740574466021188e-05, "loss": 0.3592, "step": 154930 }, { "epoch": 206.58666666666667, "grad_norm": 0.86328125, "learning_rate": 9.740541160547513e-05, "loss": 0.3511, "step": 154940 }, { "epoch": 206.6, "grad_norm": 0.8359375, "learning_rate": 9.740507852993018e-05, "loss": 0.3526, "step": 154950 }, { "epoch": 206.61333333333334, "grad_norm": 0.80078125, "learning_rate": 9.740474543357713e-05, "loss": 0.3445, "step": 154960 }, { "epoch": 206.62666666666667, "grad_norm": 0.72265625, "learning_rate": 9.740441231641619e-05, "loss": 0.3489, "step": 154970 }, { "epoch": 206.64, "grad_norm": 0.9609375, "learning_rate": 9.740407917844748e-05, "loss": 0.3547, "step": 154980 }, { "epoch": 206.65333333333334, "grad_norm": 0.7734375, "learning_rate": 9.740374601967114e-05, "loss": 0.3667, "step": 154990 }, { "epoch": 206.66666666666666, "grad_norm": 0.73828125, "learning_rate": 9.740341284008731e-05, "loss": 0.3587, "step": 155000 }, { "epoch": 206.68, "grad_norm": 0.87890625, "learning_rate": 9.740307963969617e-05, "loss": 0.3463, "step": 155010 }, { "epoch": 206.69333333333333, "grad_norm": 0.75, "learning_rate": 9.740274641849782e-05, "loss": 0.358, "step": 155020 }, { "epoch": 206.70666666666668, "grad_norm": 0.9765625, "learning_rate": 9.740241317649246e-05, "loss": 0.3472, "step": 155030 }, { "epoch": 206.72, "grad_norm": 0.890625, "learning_rate": 9.740207991368018e-05, "loss": 0.3694, "step": 155040 }, { "epoch": 206.73333333333332, "grad_norm": 0.87890625, "learning_rate": 9.740174663006116e-05, "loss": 0.3646, "step": 155050 }, { "epoch": 206.74666666666667, "grad_norm": 0.86328125, "learning_rate": 9.740141332563553e-05, "loss": 0.367, "step": 155060 }, { "epoch": 206.76, "grad_norm": 0.85546875, "learning_rate": 9.740108000040345e-05, "loss": 0.3806, "step": 155070 }, { "epoch": 206.77333333333334, "grad_norm": 0.984375, "learning_rate": 9.740074665436507e-05, "loss": 0.3648, "step": 155080 }, { "epoch": 206.78666666666666, "grad_norm": 0.82421875, "learning_rate": 9.740041328752052e-05, "loss": 0.3679, "step": 155090 }, { "epoch": 206.8, "grad_norm": 0.92578125, "learning_rate": 9.740007989986996e-05, "loss": 0.3655, "step": 155100 }, { "epoch": 206.81333333333333, "grad_norm": 1.0390625, "learning_rate": 9.739974649141352e-05, "loss": 0.3396, "step": 155110 }, { "epoch": 206.82666666666665, "grad_norm": 0.859375, "learning_rate": 9.739941306215136e-05, "loss": 0.3464, "step": 155120 }, { "epoch": 206.84, "grad_norm": 0.984375, "learning_rate": 9.739907961208362e-05, "loss": 0.3595, "step": 155130 }, { "epoch": 206.85333333333332, "grad_norm": 0.90234375, "learning_rate": 9.739874614121045e-05, "loss": 0.3552, "step": 155140 }, { "epoch": 206.86666666666667, "grad_norm": 0.84765625, "learning_rate": 9.7398412649532e-05, "loss": 0.3606, "step": 155150 }, { "epoch": 206.88, "grad_norm": 0.76953125, "learning_rate": 9.739807913704841e-05, "loss": 0.3417, "step": 155160 }, { "epoch": 206.89333333333335, "grad_norm": 0.77734375, "learning_rate": 9.739774560375982e-05, "loss": 0.3549, "step": 155170 }, { "epoch": 206.90666666666667, "grad_norm": 0.859375, "learning_rate": 9.739741204966642e-05, "loss": 0.3584, "step": 155180 }, { "epoch": 206.92, "grad_norm": 0.8515625, "learning_rate": 9.739707847476829e-05, "loss": 0.3593, "step": 155190 }, { "epoch": 206.93333333333334, "grad_norm": 0.77734375, "learning_rate": 9.73967448790656e-05, "loss": 0.3564, "step": 155200 }, { "epoch": 206.94666666666666, "grad_norm": 0.984375, "learning_rate": 9.739641126255851e-05, "loss": 0.3557, "step": 155210 }, { "epoch": 206.96, "grad_norm": 0.8125, "learning_rate": 9.739607762524717e-05, "loss": 0.3547, "step": 155220 }, { "epoch": 206.97333333333333, "grad_norm": 1.1171875, "learning_rate": 9.739574396713171e-05, "loss": 0.3767, "step": 155230 }, { "epoch": 206.98666666666668, "grad_norm": 0.8828125, "learning_rate": 9.73954102882123e-05, "loss": 0.3467, "step": 155240 }, { "epoch": 207.0, "grad_norm": 0.8515625, "learning_rate": 9.739507658848905e-05, "loss": 0.3477, "step": 155250 }, { "epoch": 207.0, "eval_loss": 0.41572150588035583, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.3886, "eval_samples_per_second": 1.54, "eval_steps_per_second": 0.096, "step": 155250 }, { "epoch": 207.01333333333332, "grad_norm": 0.97265625, "learning_rate": 9.739474286796213e-05, "loss": 0.3639, "step": 155260 }, { "epoch": 207.02666666666667, "grad_norm": 0.8515625, "learning_rate": 9.739440912663168e-05, "loss": 0.379, "step": 155270 }, { "epoch": 207.04, "grad_norm": 0.86328125, "learning_rate": 9.739407536449786e-05, "loss": 0.3921, "step": 155280 }, { "epoch": 207.05333333333334, "grad_norm": 0.875, "learning_rate": 9.73937415815608e-05, "loss": 0.3761, "step": 155290 }, { "epoch": 207.06666666666666, "grad_norm": 0.984375, "learning_rate": 9.739340777782066e-05, "loss": 0.3653, "step": 155300 }, { "epoch": 207.08, "grad_norm": 0.89453125, "learning_rate": 9.739307395327756e-05, "loss": 0.3668, "step": 155310 }, { "epoch": 207.09333333333333, "grad_norm": 0.98828125, "learning_rate": 9.739274010793168e-05, "loss": 0.3701, "step": 155320 }, { "epoch": 207.10666666666665, "grad_norm": 0.796875, "learning_rate": 9.739240624178315e-05, "loss": 0.3597, "step": 155330 }, { "epoch": 207.12, "grad_norm": 0.984375, "learning_rate": 9.739207235483212e-05, "loss": 0.3597, "step": 155340 }, { "epoch": 207.13333333333333, "grad_norm": 0.84765625, "learning_rate": 9.739173844707873e-05, "loss": 0.3526, "step": 155350 }, { "epoch": 207.14666666666668, "grad_norm": 0.9140625, "learning_rate": 9.739140451852313e-05, "loss": 0.3708, "step": 155360 }, { "epoch": 207.16, "grad_norm": 0.7578125, "learning_rate": 9.739107056916548e-05, "loss": 0.3671, "step": 155370 }, { "epoch": 207.17333333333335, "grad_norm": 0.94921875, "learning_rate": 9.73907365990059e-05, "loss": 0.3613, "step": 155380 }, { "epoch": 207.18666666666667, "grad_norm": 0.8828125, "learning_rate": 9.739040260804455e-05, "loss": 0.3585, "step": 155390 }, { "epoch": 207.2, "grad_norm": 0.7890625, "learning_rate": 9.73900685962816e-05, "loss": 0.3505, "step": 155400 }, { "epoch": 207.21333333333334, "grad_norm": 0.87109375, "learning_rate": 9.738973456371714e-05, "loss": 0.3507, "step": 155410 }, { "epoch": 207.22666666666666, "grad_norm": 0.83203125, "learning_rate": 9.738940051035138e-05, "loss": 0.3626, "step": 155420 }, { "epoch": 207.24, "grad_norm": 0.84375, "learning_rate": 9.738906643618443e-05, "loss": 0.3496, "step": 155430 }, { "epoch": 207.25333333333333, "grad_norm": 0.84375, "learning_rate": 9.738873234121643e-05, "loss": 0.3504, "step": 155440 }, { "epoch": 207.26666666666668, "grad_norm": 0.84765625, "learning_rate": 9.738839822544757e-05, "loss": 0.3522, "step": 155450 }, { "epoch": 207.28, "grad_norm": 0.87109375, "learning_rate": 9.738806408887795e-05, "loss": 0.3803, "step": 155460 }, { "epoch": 207.29333333333332, "grad_norm": 0.83984375, "learning_rate": 9.738772993150773e-05, "loss": 0.34, "step": 155470 }, { "epoch": 207.30666666666667, "grad_norm": 0.78515625, "learning_rate": 9.738739575333706e-05, "loss": 0.3632, "step": 155480 }, { "epoch": 207.32, "grad_norm": 0.7265625, "learning_rate": 9.73870615543661e-05, "loss": 0.3674, "step": 155490 }, { "epoch": 207.33333333333334, "grad_norm": 0.984375, "learning_rate": 9.738672733459497e-05, "loss": 0.3654, "step": 155500 }, { "epoch": 207.34666666666666, "grad_norm": 0.90625, "learning_rate": 9.738639309402384e-05, "loss": 0.3567, "step": 155510 }, { "epoch": 207.36, "grad_norm": 0.9375, "learning_rate": 9.738605883265287e-05, "loss": 0.3574, "step": 155520 }, { "epoch": 207.37333333333333, "grad_norm": 0.78125, "learning_rate": 9.738572455048214e-05, "loss": 0.3621, "step": 155530 }, { "epoch": 207.38666666666666, "grad_norm": 0.9921875, "learning_rate": 9.738539024751187e-05, "loss": 0.3485, "step": 155540 }, { "epoch": 207.4, "grad_norm": 0.87890625, "learning_rate": 9.738505592374216e-05, "loss": 0.3583, "step": 155550 }, { "epoch": 207.41333333333333, "grad_norm": 0.8125, "learning_rate": 9.73847215791732e-05, "loss": 0.364, "step": 155560 }, { "epoch": 207.42666666666668, "grad_norm": 0.8515625, "learning_rate": 9.738438721380509e-05, "loss": 0.3662, "step": 155570 }, { "epoch": 207.44, "grad_norm": 0.97265625, "learning_rate": 9.7384052827638e-05, "loss": 0.378, "step": 155580 }, { "epoch": 207.45333333333335, "grad_norm": 0.9921875, "learning_rate": 9.738371842067209e-05, "loss": 0.3666, "step": 155590 }, { "epoch": 207.46666666666667, "grad_norm": 0.875, "learning_rate": 9.738338399290747e-05, "loss": 0.3732, "step": 155600 }, { "epoch": 207.48, "grad_norm": 0.80859375, "learning_rate": 9.738304954434433e-05, "loss": 0.3566, "step": 155610 }, { "epoch": 207.49333333333334, "grad_norm": 0.796875, "learning_rate": 9.738271507498278e-05, "loss": 0.3686, "step": 155620 }, { "epoch": 207.50666666666666, "grad_norm": 0.80078125, "learning_rate": 9.7382380584823e-05, "loss": 0.3682, "step": 155630 }, { "epoch": 207.52, "grad_norm": 0.75, "learning_rate": 9.73820460738651e-05, "loss": 0.3589, "step": 155640 }, { "epoch": 207.53333333333333, "grad_norm": 0.8125, "learning_rate": 9.738171154210926e-05, "loss": 0.3594, "step": 155650 }, { "epoch": 207.54666666666665, "grad_norm": 0.94921875, "learning_rate": 9.73813769895556e-05, "loss": 0.36, "step": 155660 }, { "epoch": 207.56, "grad_norm": 0.80078125, "learning_rate": 9.738104241620429e-05, "loss": 0.3545, "step": 155670 }, { "epoch": 207.57333333333332, "grad_norm": 0.9609375, "learning_rate": 9.738070782205546e-05, "loss": 0.3601, "step": 155680 }, { "epoch": 207.58666666666667, "grad_norm": 0.796875, "learning_rate": 9.738037320710927e-05, "loss": 0.3507, "step": 155690 }, { "epoch": 207.6, "grad_norm": 0.86328125, "learning_rate": 9.738003857136585e-05, "loss": 0.3518, "step": 155700 }, { "epoch": 207.61333333333334, "grad_norm": 0.80859375, "learning_rate": 9.737970391482536e-05, "loss": 0.345, "step": 155710 }, { "epoch": 207.62666666666667, "grad_norm": 0.796875, "learning_rate": 9.737936923748795e-05, "loss": 0.3492, "step": 155720 }, { "epoch": 207.64, "grad_norm": 0.84375, "learning_rate": 9.737903453935375e-05, "loss": 0.3555, "step": 155730 }, { "epoch": 207.65333333333334, "grad_norm": 0.88671875, "learning_rate": 9.737869982042294e-05, "loss": 0.3658, "step": 155740 }, { "epoch": 207.66666666666666, "grad_norm": 0.74609375, "learning_rate": 9.737836508069562e-05, "loss": 0.3583, "step": 155750 }, { "epoch": 207.68, "grad_norm": 0.8984375, "learning_rate": 9.737803032017198e-05, "loss": 0.3457, "step": 155760 }, { "epoch": 207.69333333333333, "grad_norm": 0.82421875, "learning_rate": 9.737769553885214e-05, "loss": 0.3578, "step": 155770 }, { "epoch": 207.70666666666668, "grad_norm": 1.0078125, "learning_rate": 9.737736073673624e-05, "loss": 0.346, "step": 155780 }, { "epoch": 207.72, "grad_norm": 0.87890625, "learning_rate": 9.737702591382447e-05, "loss": 0.3685, "step": 155790 }, { "epoch": 207.73333333333332, "grad_norm": 0.85546875, "learning_rate": 9.737669107011693e-05, "loss": 0.3635, "step": 155800 }, { "epoch": 207.74666666666667, "grad_norm": 0.9296875, "learning_rate": 9.73763562056138e-05, "loss": 0.3666, "step": 155810 }, { "epoch": 207.76, "grad_norm": 0.91796875, "learning_rate": 9.737602132031521e-05, "loss": 0.3798, "step": 155820 }, { "epoch": 207.77333333333334, "grad_norm": 0.93359375, "learning_rate": 9.73756864142213e-05, "loss": 0.3638, "step": 155830 }, { "epoch": 207.78666666666666, "grad_norm": 0.78515625, "learning_rate": 9.737535148733224e-05, "loss": 0.3669, "step": 155840 }, { "epoch": 207.8, "grad_norm": 1.0234375, "learning_rate": 9.737501653964816e-05, "loss": 0.3651, "step": 155850 }, { "epoch": 207.81333333333333, "grad_norm": 0.96875, "learning_rate": 9.73746815711692e-05, "loss": 0.3396, "step": 155860 }, { "epoch": 207.82666666666665, "grad_norm": 0.8515625, "learning_rate": 9.737434658189554e-05, "loss": 0.3462, "step": 155870 }, { "epoch": 207.84, "grad_norm": 0.88671875, "learning_rate": 9.73740115718273e-05, "loss": 0.3605, "step": 155880 }, { "epoch": 207.85333333333332, "grad_norm": 0.7890625, "learning_rate": 9.737367654096463e-05, "loss": 0.3549, "step": 155890 }, { "epoch": 207.86666666666667, "grad_norm": 0.87890625, "learning_rate": 9.737334148930767e-05, "loss": 0.3608, "step": 155900 }, { "epoch": 207.88, "grad_norm": 0.83203125, "learning_rate": 9.737300641685658e-05, "loss": 0.3413, "step": 155910 }, { "epoch": 207.89333333333335, "grad_norm": 0.8359375, "learning_rate": 9.73726713236115e-05, "loss": 0.3544, "step": 155920 }, { "epoch": 207.90666666666667, "grad_norm": 0.91015625, "learning_rate": 9.73723362095726e-05, "loss": 0.3579, "step": 155930 }, { "epoch": 207.92, "grad_norm": 0.85546875, "learning_rate": 9.737200107473999e-05, "loss": 0.3582, "step": 155940 }, { "epoch": 207.93333333333334, "grad_norm": 0.765625, "learning_rate": 9.737166591911384e-05, "loss": 0.3568, "step": 155950 }, { "epoch": 207.94666666666666, "grad_norm": 0.8359375, "learning_rate": 9.73713307426943e-05, "loss": 0.3567, "step": 155960 }, { "epoch": 207.96, "grad_norm": 0.87109375, "learning_rate": 9.73709955454815e-05, "loss": 0.3549, "step": 155970 }, { "epoch": 207.97333333333333, "grad_norm": 1.046875, "learning_rate": 9.73706603274756e-05, "loss": 0.376, "step": 155980 }, { "epoch": 207.98666666666668, "grad_norm": 0.80078125, "learning_rate": 9.737032508867673e-05, "loss": 0.3474, "step": 155990 }, { "epoch": 208.0, "grad_norm": 0.8984375, "learning_rate": 9.736998982908508e-05, "loss": 0.3488, "step": 156000 }, { "epoch": 208.0, "eval_loss": 0.415574848651886, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.4966, "eval_samples_per_second": 1.524, "eval_steps_per_second": 0.095, "step": 156000 }, { "epoch": 208.01333333333332, "grad_norm": 0.9140625, "learning_rate": 9.736965454870074e-05, "loss": 0.3644, "step": 156010 }, { "epoch": 208.02666666666667, "grad_norm": 0.859375, "learning_rate": 9.73693192475239e-05, "loss": 0.379, "step": 156020 }, { "epoch": 208.04, "grad_norm": 0.91796875, "learning_rate": 9.736898392555469e-05, "loss": 0.3918, "step": 156030 }, { "epoch": 208.05333333333334, "grad_norm": 0.92578125, "learning_rate": 9.736864858279326e-05, "loss": 0.376, "step": 156040 }, { "epoch": 208.06666666666666, "grad_norm": 0.96484375, "learning_rate": 9.736831321923976e-05, "loss": 0.3648, "step": 156050 }, { "epoch": 208.08, "grad_norm": 1.0, "learning_rate": 9.736797783489433e-05, "loss": 0.3677, "step": 156060 }, { "epoch": 208.09333333333333, "grad_norm": 0.9140625, "learning_rate": 9.736764242975712e-05, "loss": 0.3694, "step": 156070 }, { "epoch": 208.10666666666665, "grad_norm": 0.7890625, "learning_rate": 9.736730700382827e-05, "loss": 0.3601, "step": 156080 }, { "epoch": 208.12, "grad_norm": 0.8828125, "learning_rate": 9.736697155710795e-05, "loss": 0.3601, "step": 156090 }, { "epoch": 208.13333333333333, "grad_norm": 0.859375, "learning_rate": 9.736663608959628e-05, "loss": 0.3522, "step": 156100 }, { "epoch": 208.14666666666668, "grad_norm": 0.8828125, "learning_rate": 9.736630060129343e-05, "loss": 0.3718, "step": 156110 }, { "epoch": 208.16, "grad_norm": 0.84375, "learning_rate": 9.736596509219953e-05, "loss": 0.3683, "step": 156120 }, { "epoch": 208.17333333333335, "grad_norm": 0.9453125, "learning_rate": 9.736562956231474e-05, "loss": 0.3623, "step": 156130 }, { "epoch": 208.18666666666667, "grad_norm": 0.8515625, "learning_rate": 9.73652940116392e-05, "loss": 0.358, "step": 156140 }, { "epoch": 208.2, "grad_norm": 0.8125, "learning_rate": 9.736495844017306e-05, "loss": 0.3507, "step": 156150 }, { "epoch": 208.21333333333334, "grad_norm": 0.88671875, "learning_rate": 9.736462284791646e-05, "loss": 0.3514, "step": 156160 }, { "epoch": 208.22666666666666, "grad_norm": 0.859375, "learning_rate": 9.736428723486955e-05, "loss": 0.3626, "step": 156170 }, { "epoch": 208.24, "grad_norm": 0.94921875, "learning_rate": 9.736395160103249e-05, "loss": 0.3485, "step": 156180 }, { "epoch": 208.25333333333333, "grad_norm": 0.81640625, "learning_rate": 9.736361594640542e-05, "loss": 0.3497, "step": 156190 }, { "epoch": 208.26666666666668, "grad_norm": 0.82421875, "learning_rate": 9.736328027098849e-05, "loss": 0.3534, "step": 156200 }, { "epoch": 208.28, "grad_norm": 0.8671875, "learning_rate": 9.736294457478183e-05, "loss": 0.3801, "step": 156210 }, { "epoch": 208.29333333333332, "grad_norm": 0.859375, "learning_rate": 9.736260885778561e-05, "loss": 0.3397, "step": 156220 }, { "epoch": 208.30666666666667, "grad_norm": 0.88671875, "learning_rate": 9.736227311999997e-05, "loss": 0.3634, "step": 156230 }, { "epoch": 208.32, "grad_norm": 0.74609375, "learning_rate": 9.736193736142504e-05, "loss": 0.3678, "step": 156240 }, { "epoch": 208.33333333333334, "grad_norm": 0.91015625, "learning_rate": 9.7361601582061e-05, "loss": 0.365, "step": 156250 }, { "epoch": 208.34666666666666, "grad_norm": 0.8828125, "learning_rate": 9.736126578190796e-05, "loss": 0.3567, "step": 156260 }, { "epoch": 208.36, "grad_norm": 0.8828125, "learning_rate": 9.73609299609661e-05, "loss": 0.3579, "step": 156270 }, { "epoch": 208.37333333333333, "grad_norm": 0.828125, "learning_rate": 9.736059411923556e-05, "loss": 0.361, "step": 156280 }, { "epoch": 208.38666666666666, "grad_norm": 0.9296875, "learning_rate": 9.736025825671647e-05, "loss": 0.3476, "step": 156290 }, { "epoch": 208.4, "grad_norm": 0.859375, "learning_rate": 9.7359922373409e-05, "loss": 0.3578, "step": 156300 }, { "epoch": 208.41333333333333, "grad_norm": 0.921875, "learning_rate": 9.735958646931329e-05, "loss": 0.3645, "step": 156310 }, { "epoch": 208.42666666666668, "grad_norm": 0.890625, "learning_rate": 9.735925054442947e-05, "loss": 0.3665, "step": 156320 }, { "epoch": 208.44, "grad_norm": 0.8984375, "learning_rate": 9.73589145987577e-05, "loss": 0.3791, "step": 156330 }, { "epoch": 208.45333333333335, "grad_norm": 0.89453125, "learning_rate": 9.735857863229813e-05, "loss": 0.3664, "step": 156340 }, { "epoch": 208.46666666666667, "grad_norm": 0.9140625, "learning_rate": 9.735824264505093e-05, "loss": 0.3726, "step": 156350 }, { "epoch": 208.48, "grad_norm": 0.8203125, "learning_rate": 9.73579066370162e-05, "loss": 0.3571, "step": 156360 }, { "epoch": 208.49333333333334, "grad_norm": 0.8515625, "learning_rate": 9.735757060819413e-05, "loss": 0.3671, "step": 156370 }, { "epoch": 208.50666666666666, "grad_norm": 0.890625, "learning_rate": 9.735723455858483e-05, "loss": 0.3675, "step": 156380 }, { "epoch": 208.52, "grad_norm": 0.8203125, "learning_rate": 9.735689848818848e-05, "loss": 0.358, "step": 156390 }, { "epoch": 208.53333333333333, "grad_norm": 0.8671875, "learning_rate": 9.735656239700521e-05, "loss": 0.3595, "step": 156400 }, { "epoch": 208.54666666666665, "grad_norm": 1.0234375, "learning_rate": 9.735622628503516e-05, "loss": 0.3608, "step": 156410 }, { "epoch": 208.56, "grad_norm": 0.82421875, "learning_rate": 9.735589015227851e-05, "loss": 0.3553, "step": 156420 }, { "epoch": 208.57333333333332, "grad_norm": 0.921875, "learning_rate": 9.735555399873537e-05, "loss": 0.3603, "step": 156430 }, { "epoch": 208.58666666666667, "grad_norm": 0.78125, "learning_rate": 9.735521782440592e-05, "loss": 0.3509, "step": 156440 }, { "epoch": 208.6, "grad_norm": 0.859375, "learning_rate": 9.735488162929029e-05, "loss": 0.3527, "step": 156450 }, { "epoch": 208.61333333333334, "grad_norm": 0.796875, "learning_rate": 9.735454541338862e-05, "loss": 0.3447, "step": 156460 }, { "epoch": 208.62666666666667, "grad_norm": 0.74609375, "learning_rate": 9.735420917670106e-05, "loss": 0.3491, "step": 156470 }, { "epoch": 208.64, "grad_norm": 0.96484375, "learning_rate": 9.735387291922777e-05, "loss": 0.3555, "step": 156480 }, { "epoch": 208.65333333333334, "grad_norm": 0.890625, "learning_rate": 9.735353664096891e-05, "loss": 0.3657, "step": 156490 }, { "epoch": 208.66666666666666, "grad_norm": 0.76171875, "learning_rate": 9.735320034192458e-05, "loss": 0.3578, "step": 156500 }, { "epoch": 208.68, "grad_norm": 0.88671875, "learning_rate": 9.735286402209499e-05, "loss": 0.3461, "step": 156510 }, { "epoch": 208.69333333333333, "grad_norm": 0.7421875, "learning_rate": 9.735252768148024e-05, "loss": 0.3583, "step": 156520 }, { "epoch": 208.70666666666668, "grad_norm": 0.9453125, "learning_rate": 9.735219132008049e-05, "loss": 0.3469, "step": 156530 }, { "epoch": 208.72, "grad_norm": 0.93359375, "learning_rate": 9.735185493789589e-05, "loss": 0.3682, "step": 156540 }, { "epoch": 208.73333333333332, "grad_norm": 0.8125, "learning_rate": 9.73515185349266e-05, "loss": 0.3644, "step": 156550 }, { "epoch": 208.74666666666667, "grad_norm": 1.0, "learning_rate": 9.735118211117274e-05, "loss": 0.3665, "step": 156560 }, { "epoch": 208.76, "grad_norm": 0.8671875, "learning_rate": 9.735084566663448e-05, "loss": 0.3806, "step": 156570 }, { "epoch": 208.77333333333334, "grad_norm": 0.91796875, "learning_rate": 9.735050920131197e-05, "loss": 0.3641, "step": 156580 }, { "epoch": 208.78666666666666, "grad_norm": 0.87109375, "learning_rate": 9.735017271520532e-05, "loss": 0.3677, "step": 156590 }, { "epoch": 208.8, "grad_norm": 0.9140625, "learning_rate": 9.734983620831474e-05, "loss": 0.3653, "step": 156600 }, { "epoch": 208.81333333333333, "grad_norm": 0.9375, "learning_rate": 9.734949968064034e-05, "loss": 0.3391, "step": 156610 }, { "epoch": 208.82666666666665, "grad_norm": 0.875, "learning_rate": 9.734916313218225e-05, "loss": 0.3464, "step": 156620 }, { "epoch": 208.84, "grad_norm": 0.90234375, "learning_rate": 9.734882656294064e-05, "loss": 0.3591, "step": 156630 }, { "epoch": 208.85333333333332, "grad_norm": 0.875, "learning_rate": 9.734848997291568e-05, "loss": 0.355, "step": 156640 }, { "epoch": 208.86666666666667, "grad_norm": 0.828125, "learning_rate": 9.734815336210747e-05, "loss": 0.3616, "step": 156650 }, { "epoch": 208.88, "grad_norm": 0.80078125, "learning_rate": 9.73478167305162e-05, "loss": 0.3413, "step": 156660 }, { "epoch": 208.89333333333335, "grad_norm": 0.81640625, "learning_rate": 9.734748007814201e-05, "loss": 0.3547, "step": 156670 }, { "epoch": 208.90666666666667, "grad_norm": 0.8359375, "learning_rate": 9.734714340498502e-05, "loss": 0.3583, "step": 156680 }, { "epoch": 208.92, "grad_norm": 0.85546875, "learning_rate": 9.73468067110454e-05, "loss": 0.3589, "step": 156690 }, { "epoch": 208.93333333333334, "grad_norm": 0.82421875, "learning_rate": 9.73464699963233e-05, "loss": 0.3559, "step": 156700 }, { "epoch": 208.94666666666666, "grad_norm": 0.875, "learning_rate": 9.734613326081886e-05, "loss": 0.3552, "step": 156710 }, { "epoch": 208.96, "grad_norm": 0.8125, "learning_rate": 9.734579650453222e-05, "loss": 0.3539, "step": 156720 }, { "epoch": 208.97333333333333, "grad_norm": 1.09375, "learning_rate": 9.734545972746353e-05, "loss": 0.3768, "step": 156730 }, { "epoch": 208.98666666666668, "grad_norm": 0.84375, "learning_rate": 9.734512292961298e-05, "loss": 0.3468, "step": 156740 }, { "epoch": 209.0, "grad_norm": 0.8984375, "learning_rate": 9.734478611098065e-05, "loss": 0.3489, "step": 156750 }, { "epoch": 209.0, "eval_loss": 0.4180391728878021, "eval_model_preparation_time": 0.0042, "eval_runtime": 10.5963, "eval_samples_per_second": 1.51, "eval_steps_per_second": 0.094, "step": 156750 } ], "logging_steps": 10, "max_steps": 1500000, "num_input_tokens_seen": 0, "num_train_epochs": 2000, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": false }, "attributes": {} } }, "total_flos": 0.0, "train_batch_size": 32, "trial_name": null, "trial_params": null }