{ "best_metric": 0.663003663003663, "best_model_checkpoint": "/home/grahama/workspace/experiments/complexity/model/checkpoint-1800", "epoch": 12.0, "eval_steps": 500, "global_step": 7200, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.016666666666666666, "grad_norm": 2.3482773303985596, "learning_rate": 2.3809523809523811e-07, "loss": 0.7019, "step": 10 }, { "epoch": 0.03333333333333333, "grad_norm": 1.3639864921569824, "learning_rate": 4.7619047619047623e-07, "loss": 0.7018, "step": 20 }, { "epoch": 0.05, "grad_norm": 2.9051921367645264, "learning_rate": 7.142857142857143e-07, "loss": 0.7151, "step": 30 }, { "epoch": 0.06666666666666667, "grad_norm": 1.0235440731048584, "learning_rate": 9.523809523809525e-07, "loss": 0.7034, "step": 40 }, { "epoch": 0.08333333333333333, "grad_norm": 2.771768808364868, "learning_rate": 1.1904761904761906e-06, "loss": 0.7006, "step": 50 }, { "epoch": 0.1, "grad_norm": 1.2305303812026978, "learning_rate": 1.4285714285714286e-06, "loss": 0.6995, "step": 60 }, { "epoch": 0.11666666666666667, "grad_norm": 2.2383503913879395, "learning_rate": 1.6666666666666667e-06, "loss": 0.6994, "step": 70 }, { "epoch": 0.13333333333333333, "grad_norm": 1.0624160766601562, "learning_rate": 1.904761904761905e-06, "loss": 0.6998, "step": 80 }, { "epoch": 0.15, "grad_norm": 1.2018228769302368, "learning_rate": 2.1428571428571427e-06, "loss": 0.6974, "step": 90 }, { "epoch": 0.16666666666666666, "grad_norm": 1.0849791765213013, "learning_rate": 2.380952380952381e-06, "loss": 0.6875, "step": 100 }, { "epoch": 0.18333333333333332, "grad_norm": 1.291517972946167, "learning_rate": 2.6190476190476192e-06, "loss": 0.6865, "step": 110 }, { "epoch": 0.2, "grad_norm": 1.056863784790039, "learning_rate": 2.8571428571428573e-06, "loss": 0.6829, "step": 120 }, { "epoch": 0.21666666666666667, "grad_norm": 2.968041181564331, "learning_rate": 3.0952380952380957e-06, "loss": 0.6696, "step": 130 }, { "epoch": 0.23333333333333334, "grad_norm": 1.055704116821289, "learning_rate": 3.3333333333333333e-06, "loss": 0.6783, "step": 140 }, { "epoch": 0.25, "grad_norm": 1.6586881875991821, "learning_rate": 3.5714285714285718e-06, "loss": 0.6702, "step": 150 }, { "epoch": 0.26666666666666666, "grad_norm": 2.3964574337005615, "learning_rate": 3.80952380952381e-06, "loss": 0.709, "step": 160 }, { "epoch": 0.2833333333333333, "grad_norm": 1.0744259357452393, "learning_rate": 4.047619047619048e-06, "loss": 0.7022, "step": 170 }, { "epoch": 0.3, "grad_norm": 1.071405053138733, "learning_rate": 4.2857142857142855e-06, "loss": 0.6747, "step": 180 }, { "epoch": 0.31666666666666665, "grad_norm": 2.1431033611297607, "learning_rate": 4.523809523809524e-06, "loss": 0.6623, "step": 190 }, { "epoch": 0.3333333333333333, "grad_norm": 1.301439881324768, "learning_rate": 4.761904761904762e-06, "loss": 0.667, "step": 200 }, { "epoch": 0.35, "grad_norm": 1.5243868827819824, "learning_rate": 5e-06, "loss": 0.6584, "step": 210 }, { "epoch": 0.36666666666666664, "grad_norm": 1.2769250869750977, "learning_rate": 5.2380952380952384e-06, "loss": 0.6898, "step": 220 }, { "epoch": 0.38333333333333336, "grad_norm": 1.274899959564209, "learning_rate": 5.476190476190477e-06, "loss": 0.6995, "step": 230 }, { "epoch": 0.4, "grad_norm": 1.658318281173706, "learning_rate": 5.7142857142857145e-06, "loss": 0.6705, "step": 240 }, { "epoch": 0.4166666666666667, "grad_norm": 2.4139277935028076, "learning_rate": 5.9523809523809525e-06, "loss": 0.6849, "step": 250 }, { "epoch": 0.43333333333333335, "grad_norm": 1.5813899040222168, "learning_rate": 6.1904761904761914e-06, "loss": 0.6663, "step": 260 }, { "epoch": 0.45, "grad_norm": 1.4048871994018555, "learning_rate": 6.4285714285714295e-06, "loss": 0.6542, "step": 270 }, { "epoch": 0.4666666666666667, "grad_norm": 1.7416518926620483, "learning_rate": 6.666666666666667e-06, "loss": 0.6793, "step": 280 }, { "epoch": 0.48333333333333334, "grad_norm": 1.7340086698532104, "learning_rate": 6.9047619047619055e-06, "loss": 0.6681, "step": 290 }, { "epoch": 0.5, "grad_norm": 1.4946725368499756, "learning_rate": 7.1428571428571436e-06, "loss": 0.6758, "step": 300 }, { "epoch": 0.5166666666666667, "grad_norm": 1.9904041290283203, "learning_rate": 7.380952380952382e-06, "loss": 0.6432, "step": 310 }, { "epoch": 0.5333333333333333, "grad_norm": 2.4469521045684814, "learning_rate": 7.61904761904762e-06, "loss": 0.6688, "step": 320 }, { "epoch": 0.55, "grad_norm": 2.104259967803955, "learning_rate": 7.857142857142858e-06, "loss": 0.6312, "step": 330 }, { "epoch": 0.5666666666666667, "grad_norm": 2.125582218170166, "learning_rate": 8.095238095238097e-06, "loss": 0.6712, "step": 340 }, { "epoch": 0.5833333333333334, "grad_norm": 1.9155024290084839, "learning_rate": 8.333333333333334e-06, "loss": 0.6766, "step": 350 }, { "epoch": 0.6, "grad_norm": 3.6578118801116943, "learning_rate": 8.571428571428571e-06, "loss": 0.6561, "step": 360 }, { "epoch": 0.6166666666666667, "grad_norm": 2.083104133605957, "learning_rate": 8.80952380952381e-06, "loss": 0.6374, "step": 370 }, { "epoch": 0.6333333333333333, "grad_norm": 4.414960861206055, "learning_rate": 9.047619047619049e-06, "loss": 0.6512, "step": 380 }, { "epoch": 0.65, "grad_norm": 2.075925588607788, "learning_rate": 9.285714285714288e-06, "loss": 0.6316, "step": 390 }, { "epoch": 0.6666666666666666, "grad_norm": 3.132584571838379, "learning_rate": 9.523809523809525e-06, "loss": 0.6424, "step": 400 }, { "epoch": 0.6833333333333333, "grad_norm": 2.2723052501678467, "learning_rate": 9.761904761904762e-06, "loss": 0.6395, "step": 410 }, { "epoch": 0.7, "grad_norm": 4.37326192855835, "learning_rate": 1e-05, "loss": 0.6519, "step": 420 }, { "epoch": 0.7166666666666667, "grad_norm": 3.2006280422210693, "learning_rate": 1.0238095238095238e-05, "loss": 0.6429, "step": 430 }, { "epoch": 0.7333333333333333, "grad_norm": 3.0944504737854004, "learning_rate": 1.0476190476190477e-05, "loss": 0.6756, "step": 440 }, { "epoch": 0.75, "grad_norm": 5.158036708831787, "learning_rate": 1.0714285714285714e-05, "loss": 0.6863, "step": 450 }, { "epoch": 0.7666666666666667, "grad_norm": 3.744805335998535, "learning_rate": 1.0952380952380955e-05, "loss": 0.6826, "step": 460 }, { "epoch": 0.7833333333333333, "grad_norm": 2.350935220718384, "learning_rate": 1.1190476190476192e-05, "loss": 0.6465, "step": 470 }, { "epoch": 0.8, "grad_norm": 2.391106367111206, "learning_rate": 1.1428571428571429e-05, "loss": 0.6494, "step": 480 }, { "epoch": 0.8166666666666667, "grad_norm": 2.6871049404144287, "learning_rate": 1.1666666666666668e-05, "loss": 0.614, "step": 490 }, { "epoch": 0.8333333333333334, "grad_norm": 2.496380567550659, "learning_rate": 1.1904761904761905e-05, "loss": 0.639, "step": 500 }, { "epoch": 0.85, "grad_norm": 3.1409785747528076, "learning_rate": 1.2142857142857142e-05, "loss": 0.6906, "step": 510 }, { "epoch": 0.8666666666666667, "grad_norm": 2.4331531524658203, "learning_rate": 1.2380952380952383e-05, "loss": 0.5914, "step": 520 }, { "epoch": 0.8833333333333333, "grad_norm": 2.956902265548706, "learning_rate": 1.261904761904762e-05, "loss": 0.7081, "step": 530 }, { "epoch": 0.9, "grad_norm": 2.1885573863983154, "learning_rate": 1.2857142857142859e-05, "loss": 0.6466, "step": 540 }, { "epoch": 0.9166666666666666, "grad_norm": 2.6431517601013184, "learning_rate": 1.3095238095238096e-05, "loss": 0.6631, "step": 550 }, { "epoch": 0.9333333333333333, "grad_norm": 2.1615426540374756, "learning_rate": 1.3333333333333333e-05, "loss": 0.6735, "step": 560 }, { "epoch": 0.95, "grad_norm": 2.0207862854003906, "learning_rate": 1.3571428571428574e-05, "loss": 0.6325, "step": 570 }, { "epoch": 0.9666666666666667, "grad_norm": 2.8899736404418945, "learning_rate": 1.3809523809523811e-05, "loss": 0.6519, "step": 580 }, { "epoch": 0.9833333333333333, "grad_norm": 2.453443765640259, "learning_rate": 1.4047619047619048e-05, "loss": 0.6532, "step": 590 }, { "epoch": 1.0, "grad_norm": 3.556234121322632, "learning_rate": 1.4285714285714287e-05, "loss": 0.5941, "step": 600 }, { "epoch": 1.0, "eval_accuracy": 0.6461538461538462, "eval_loss": 0.6432204246520996, "eval_runtime": 4.8353, "eval_samples_per_second": 282.297, "eval_steps_per_second": 17.786, "step": 600 }, { "epoch": 1.0166666666666666, "grad_norm": 2.244147539138794, "learning_rate": 1.4523809523809524e-05, "loss": 0.6154, "step": 610 }, { "epoch": 1.0333333333333334, "grad_norm": 2.3262217044830322, "learning_rate": 1.4761904761904763e-05, "loss": 0.5981, "step": 620 }, { "epoch": 1.05, "grad_norm": 2.543795347213745, "learning_rate": 1.5000000000000002e-05, "loss": 0.6061, "step": 630 }, { "epoch": 1.0666666666666667, "grad_norm": 3.5577542781829834, "learning_rate": 1.523809523809524e-05, "loss": 0.6432, "step": 640 }, { "epoch": 1.0833333333333333, "grad_norm": 3.3030037879943848, "learning_rate": 1.5476190476190476e-05, "loss": 0.5663, "step": 650 }, { "epoch": 1.1, "grad_norm": 2.2861194610595703, "learning_rate": 1.5714285714285715e-05, "loss": 0.6242, "step": 660 }, { "epoch": 1.1166666666666667, "grad_norm": 3.9813036918640137, "learning_rate": 1.5952380952380954e-05, "loss": 0.6192, "step": 670 }, { "epoch": 1.1333333333333333, "grad_norm": 5.103733062744141, "learning_rate": 1.6190476190476193e-05, "loss": 0.6288, "step": 680 }, { "epoch": 1.15, "grad_norm": 4.313375949859619, "learning_rate": 1.642857142857143e-05, "loss": 0.5938, "step": 690 }, { "epoch": 1.1666666666666667, "grad_norm": 3.633436918258667, "learning_rate": 1.6666666666666667e-05, "loss": 0.6003, "step": 700 }, { "epoch": 1.1833333333333333, "grad_norm": 3.060312509536743, "learning_rate": 1.6904761904761906e-05, "loss": 0.6214, "step": 710 }, { "epoch": 1.2, "grad_norm": 3.6623165607452393, "learning_rate": 1.7142857142857142e-05, "loss": 0.6283, "step": 720 }, { "epoch": 1.2166666666666668, "grad_norm": 2.556682586669922, "learning_rate": 1.7380952380952384e-05, "loss": 0.603, "step": 730 }, { "epoch": 1.2333333333333334, "grad_norm": 3.2409424781799316, "learning_rate": 1.761904761904762e-05, "loss": 0.6463, "step": 740 }, { "epoch": 1.25, "grad_norm": 3.6875534057617188, "learning_rate": 1.785714285714286e-05, "loss": 0.5864, "step": 750 }, { "epoch": 1.2666666666666666, "grad_norm": 2.9428772926330566, "learning_rate": 1.8095238095238097e-05, "loss": 0.6349, "step": 760 }, { "epoch": 1.2833333333333332, "grad_norm": 2.926853656768799, "learning_rate": 1.8333333333333333e-05, "loss": 0.6658, "step": 770 }, { "epoch": 1.3, "grad_norm": 3.1792550086975098, "learning_rate": 1.8571428571428575e-05, "loss": 0.6263, "step": 780 }, { "epoch": 1.3166666666666667, "grad_norm": 2.887868642807007, "learning_rate": 1.880952380952381e-05, "loss": 0.5737, "step": 790 }, { "epoch": 1.3333333333333333, "grad_norm": 3.9215023517608643, "learning_rate": 1.904761904761905e-05, "loss": 0.5895, "step": 800 }, { "epoch": 1.35, "grad_norm": 3.228184938430786, "learning_rate": 1.928571428571429e-05, "loss": 0.675, "step": 810 }, { "epoch": 1.3666666666666667, "grad_norm": 2.5528361797332764, "learning_rate": 1.9523809523809524e-05, "loss": 0.612, "step": 820 }, { "epoch": 1.3833333333333333, "grad_norm": 3.355010509490967, "learning_rate": 1.9761904761904763e-05, "loss": 0.6137, "step": 830 }, { "epoch": 1.4, "grad_norm": 5.365524768829346, "learning_rate": 2e-05, "loss": 0.6278, "step": 840 }, { "epoch": 1.4166666666666667, "grad_norm": 2.9840915203094482, "learning_rate": 1.999991365731819e-05, "loss": 0.6106, "step": 850 }, { "epoch": 1.4333333333333333, "grad_norm": 3.0227549076080322, "learning_rate": 1.999965463076377e-05, "loss": 0.6136, "step": 860 }, { "epoch": 1.45, "grad_norm": 4.935601711273193, "learning_rate": 1.999922292480975e-05, "loss": 0.6194, "step": 870 }, { "epoch": 1.4666666666666668, "grad_norm": 2.947390556335449, "learning_rate": 1.999861854691106e-05, "loss": 0.6737, "step": 880 }, { "epoch": 1.4833333333333334, "grad_norm": 3.2077040672302246, "learning_rate": 1.999784150750442e-05, "loss": 0.5906, "step": 890 }, { "epoch": 1.5, "grad_norm": 2.1263020038604736, "learning_rate": 1.9996891820008165e-05, "loss": 0.6731, "step": 900 }, { "epoch": 1.5166666666666666, "grad_norm": 3.1736927032470703, "learning_rate": 1.9995769500822007e-05, "loss": 0.5658, "step": 910 }, { "epoch": 1.5333333333333332, "grad_norm": 3.766897201538086, "learning_rate": 1.999447456932676e-05, "loss": 0.6082, "step": 920 }, { "epoch": 1.55, "grad_norm": 7.309018135070801, "learning_rate": 1.9993007047883988e-05, "loss": 0.5453, "step": 930 }, { "epoch": 1.5666666666666667, "grad_norm": 6.418699264526367, "learning_rate": 1.9991366961835643e-05, "loss": 0.6428, "step": 940 }, { "epoch": 1.5833333333333335, "grad_norm": 2.967588424682617, "learning_rate": 1.9989554339503612e-05, "loss": 0.6075, "step": 950 }, { "epoch": 1.6, "grad_norm": 3.2338814735412598, "learning_rate": 1.9987569212189224e-05, "loss": 0.6513, "step": 960 }, { "epoch": 1.6166666666666667, "grad_norm": 2.6137988567352295, "learning_rate": 1.9985411614172728e-05, "loss": 0.6457, "step": 970 }, { "epoch": 1.6333333333333333, "grad_norm": 2.2644853591918945, "learning_rate": 1.9983081582712684e-05, "loss": 0.6146, "step": 980 }, { "epoch": 1.65, "grad_norm": 3.580810785293579, "learning_rate": 1.9980579158045322e-05, "loss": 0.6434, "step": 990 }, { "epoch": 1.6666666666666665, "grad_norm": 3.8415021896362305, "learning_rate": 1.997790438338385e-05, "loss": 0.6149, "step": 1000 }, { "epoch": 1.6833333333333333, "grad_norm": 3.2889180183410645, "learning_rate": 1.997505730491772e-05, "loss": 0.6029, "step": 1010 }, { "epoch": 1.7, "grad_norm": 3.0964486598968506, "learning_rate": 1.9972037971811802e-05, "loss": 0.6128, "step": 1020 }, { "epoch": 1.7166666666666668, "grad_norm": 3.3787407875061035, "learning_rate": 1.9968846436205566e-05, "loss": 0.6478, "step": 1030 }, { "epoch": 1.7333333333333334, "grad_norm": 3.098156452178955, "learning_rate": 1.9965482753212154e-05, "loss": 0.617, "step": 1040 }, { "epoch": 1.75, "grad_norm": 3.4448206424713135, "learning_rate": 1.9961946980917457e-05, "loss": 0.6047, "step": 1050 }, { "epoch": 1.7666666666666666, "grad_norm": 2.8418798446655273, "learning_rate": 1.995823918037908e-05, "loss": 0.6228, "step": 1060 }, { "epoch": 1.7833333333333332, "grad_norm": 2.9955010414123535, "learning_rate": 1.9954359415625313e-05, "loss": 0.6033, "step": 1070 }, { "epoch": 1.8, "grad_norm": 3.4788753986358643, "learning_rate": 1.9950307753654016e-05, "loss": 0.5801, "step": 1080 }, { "epoch": 1.8166666666666667, "grad_norm": 2.713418483734131, "learning_rate": 1.994608426443146e-05, "loss": 0.5789, "step": 1090 }, { "epoch": 1.8333333333333335, "grad_norm": 3.982531785964966, "learning_rate": 1.994168902089112e-05, "loss": 0.6497, "step": 1100 }, { "epoch": 1.85, "grad_norm": 2.0478599071502686, "learning_rate": 1.9937122098932428e-05, "loss": 0.6031, "step": 1110 }, { "epoch": 1.8666666666666667, "grad_norm": 5.567689418792725, "learning_rate": 1.9932383577419432e-05, "loss": 0.6487, "step": 1120 }, { "epoch": 1.8833333333333333, "grad_norm": 2.5129470825195312, "learning_rate": 1.9927473538179467e-05, "loss": 0.5877, "step": 1130 }, { "epoch": 1.9, "grad_norm": 2.4075396060943604, "learning_rate": 1.9922392066001724e-05, "loss": 0.6478, "step": 1140 }, { "epoch": 1.9166666666666665, "grad_norm": 3.643559217453003, "learning_rate": 1.9917139248635788e-05, "loss": 0.625, "step": 1150 }, { "epoch": 1.9333333333333333, "grad_norm": 3.3517959117889404, "learning_rate": 1.991171517679013e-05, "loss": 0.6502, "step": 1160 }, { "epoch": 1.95, "grad_norm": 2.3340976238250732, "learning_rate": 1.9906119944130527e-05, "loss": 0.6354, "step": 1170 }, { "epoch": 1.9666666666666668, "grad_norm": 2.662628173828125, "learning_rate": 1.9900353647278466e-05, "loss": 0.6282, "step": 1180 }, { "epoch": 1.9833333333333334, "grad_norm": 3.3780112266540527, "learning_rate": 1.9894416385809444e-05, "loss": 0.6428, "step": 1190 }, { "epoch": 2.0, "grad_norm": 1.9971626996994019, "learning_rate": 1.9888308262251286e-05, "loss": 0.6028, "step": 1200 }, { "epoch": 2.0, "eval_accuracy": 0.6571428571428571, "eval_loss": 0.6266757845878601, "eval_runtime": 1.9428, "eval_samples_per_second": 702.601, "eval_steps_per_second": 44.266, "step": 1200 }, { "epoch": 2.0166666666666666, "grad_norm": 2.3505845069885254, "learning_rate": 1.9882029382082342e-05, "loss": 0.5231, "step": 1210 }, { "epoch": 2.033333333333333, "grad_norm": 3.543018102645874, "learning_rate": 1.9875579853729677e-05, "loss": 0.6002, "step": 1220 }, { "epoch": 2.05, "grad_norm": 2.687847852706909, "learning_rate": 1.9868959788567213e-05, "loss": 0.5469, "step": 1230 }, { "epoch": 2.066666666666667, "grad_norm": 4.663837909698486, "learning_rate": 1.9862169300913784e-05, "loss": 0.5582, "step": 1240 }, { "epoch": 2.0833333333333335, "grad_norm": 4.063023090362549, "learning_rate": 1.9855208508031173e-05, "loss": 0.549, "step": 1250 }, { "epoch": 2.1, "grad_norm": 5.092895984649658, "learning_rate": 1.9848077530122083e-05, "loss": 0.607, "step": 1260 }, { "epoch": 2.1166666666666667, "grad_norm": 3.7984111309051514, "learning_rate": 1.9840776490328067e-05, "loss": 0.592, "step": 1270 }, { "epoch": 2.1333333333333333, "grad_norm": 3.775224447250366, "learning_rate": 1.9833305514727396e-05, "loss": 0.5196, "step": 1280 }, { "epoch": 2.15, "grad_norm": 5.623272895812988, "learning_rate": 1.9825664732332886e-05, "loss": 0.5283, "step": 1290 }, { "epoch": 2.1666666666666665, "grad_norm": 4.856538772583008, "learning_rate": 1.981785427508966e-05, "loss": 0.518, "step": 1300 }, { "epoch": 2.183333333333333, "grad_norm": 5.726941108703613, "learning_rate": 1.9809874277872886e-05, "loss": 0.5532, "step": 1310 }, { "epoch": 2.2, "grad_norm": 5.120604515075684, "learning_rate": 1.9801724878485438e-05, "loss": 0.5172, "step": 1320 }, { "epoch": 2.216666666666667, "grad_norm": 7.325108051300049, "learning_rate": 1.9793406217655516e-05, "loss": 0.5383, "step": 1330 }, { "epoch": 2.2333333333333334, "grad_norm": 5.705660820007324, "learning_rate": 1.9784918439034216e-05, "loss": 0.4953, "step": 1340 }, { "epoch": 2.25, "grad_norm": 6.060757637023926, "learning_rate": 1.977626168919305e-05, "loss": 0.5214, "step": 1350 }, { "epoch": 2.2666666666666666, "grad_norm": 3.8743319511413574, "learning_rate": 1.9767436117621416e-05, "loss": 0.5362, "step": 1360 }, { "epoch": 2.283333333333333, "grad_norm": 4.374029636383057, "learning_rate": 1.975844187672402e-05, "loss": 0.5604, "step": 1370 }, { "epoch": 2.3, "grad_norm": 6.106194019317627, "learning_rate": 1.9749279121818235e-05, "loss": 0.5306, "step": 1380 }, { "epoch": 2.3166666666666664, "grad_norm": 5.56414270401001, "learning_rate": 1.9739948011131438e-05, "loss": 0.5369, "step": 1390 }, { "epoch": 2.3333333333333335, "grad_norm": 3.9365651607513428, "learning_rate": 1.973044870579824e-05, "loss": 0.526, "step": 1400 }, { "epoch": 2.35, "grad_norm": 4.8061394691467285, "learning_rate": 1.9720781369857747e-05, "loss": 0.5264, "step": 1410 }, { "epoch": 2.3666666666666667, "grad_norm": 5.648602485656738, "learning_rate": 1.9710946170250702e-05, "loss": 0.5488, "step": 1420 }, { "epoch": 2.3833333333333333, "grad_norm": 4.482698917388916, "learning_rate": 1.9700943276816602e-05, "loss": 0.5014, "step": 1430 }, { "epoch": 2.4, "grad_norm": 5.18354606628418, "learning_rate": 1.969077286229078e-05, "loss": 0.5383, "step": 1440 }, { "epoch": 2.4166666666666665, "grad_norm": 5.076839923858643, "learning_rate": 1.9680435102301412e-05, "loss": 0.5387, "step": 1450 }, { "epoch": 2.4333333333333336, "grad_norm": 5.83772611618042, "learning_rate": 1.9669930175366474e-05, "loss": 0.4779, "step": 1460 }, { "epoch": 2.45, "grad_norm": 5.16604471206665, "learning_rate": 1.9659258262890683e-05, "loss": 0.5521, "step": 1470 }, { "epoch": 2.466666666666667, "grad_norm": 4.944518089294434, "learning_rate": 1.964841954916235e-05, "loss": 0.4844, "step": 1480 }, { "epoch": 2.4833333333333334, "grad_norm": 6.394619941711426, "learning_rate": 1.9637414221350198e-05, "loss": 0.567, "step": 1490 }, { "epoch": 2.5, "grad_norm": 5.958597183227539, "learning_rate": 1.962624246950012e-05, "loss": 0.4951, "step": 1500 }, { "epoch": 2.5166666666666666, "grad_norm": 4.636740207672119, "learning_rate": 1.9614904486531935e-05, "loss": 0.5123, "step": 1510 }, { "epoch": 2.533333333333333, "grad_norm": 4.756173610687256, "learning_rate": 1.9603400468236e-05, "loss": 0.58, "step": 1520 }, { "epoch": 2.55, "grad_norm": 3.969093084335327, "learning_rate": 1.9591730613269878e-05, "loss": 0.5517, "step": 1530 }, { "epoch": 2.5666666666666664, "grad_norm": 4.5238237380981445, "learning_rate": 1.957989512315489e-05, "loss": 0.5167, "step": 1540 }, { "epoch": 2.5833333333333335, "grad_norm": 5.810571670532227, "learning_rate": 1.9567894202272623e-05, "loss": 0.4826, "step": 1550 }, { "epoch": 2.6, "grad_norm": 4.773239612579346, "learning_rate": 1.955572805786141e-05, "loss": 0.5443, "step": 1560 }, { "epoch": 2.6166666666666667, "grad_norm": 4.351752281188965, "learning_rate": 1.9543396900012763e-05, "loss": 0.526, "step": 1570 }, { "epoch": 2.6333333333333333, "grad_norm": 5.192873954772949, "learning_rate": 1.9530900941667733e-05, "loss": 0.5179, "step": 1580 }, { "epoch": 2.65, "grad_norm": 5.123302936553955, "learning_rate": 1.9518240398613226e-05, "loss": 0.528, "step": 1590 }, { "epoch": 2.6666666666666665, "grad_norm": 4.081309795379639, "learning_rate": 1.9505415489478293e-05, "loss": 0.592, "step": 1600 }, { "epoch": 2.6833333333333336, "grad_norm": 6.409515857696533, "learning_rate": 1.949242643573034e-05, "loss": 0.5388, "step": 1610 }, { "epoch": 2.7, "grad_norm": 5.410388469696045, "learning_rate": 1.947927346167132e-05, "loss": 0.5233, "step": 1620 }, { "epoch": 2.716666666666667, "grad_norm": 3.5235464572906494, "learning_rate": 1.9465956794433837e-05, "loss": 0.5285, "step": 1630 }, { "epoch": 2.7333333333333334, "grad_norm": 5.431538105010986, "learning_rate": 1.945247666397725e-05, "loss": 0.4719, "step": 1640 }, { "epoch": 2.75, "grad_norm": 6.913374900817871, "learning_rate": 1.9438833303083677e-05, "loss": 0.4603, "step": 1650 }, { "epoch": 2.7666666666666666, "grad_norm": 6.34077262878418, "learning_rate": 1.9425026947353994e-05, "loss": 0.5288, "step": 1660 }, { "epoch": 2.783333333333333, "grad_norm": 4.550387382507324, "learning_rate": 1.9411057835203756e-05, "loss": 0.4983, "step": 1670 }, { "epoch": 2.8, "grad_norm": 4.740011692047119, "learning_rate": 1.9396926207859085e-05, "loss": 0.4939, "step": 1680 }, { "epoch": 2.8166666666666664, "grad_norm": 5.84373664855957, "learning_rate": 1.9382632309352503e-05, "loss": 0.5498, "step": 1690 }, { "epoch": 2.8333333333333335, "grad_norm": 4.3570027351379395, "learning_rate": 1.936817638651871e-05, "loss": 0.4716, "step": 1700 }, { "epoch": 2.85, "grad_norm": 5.5916666984558105, "learning_rate": 1.935355868899034e-05, "loss": 0.5037, "step": 1710 }, { "epoch": 2.8666666666666667, "grad_norm": 4.379909038543701, "learning_rate": 1.9338779469193638e-05, "loss": 0.5789, "step": 1720 }, { "epoch": 2.8833333333333333, "grad_norm": 5.084365367889404, "learning_rate": 1.9323838982344092e-05, "loss": 0.5584, "step": 1730 }, { "epoch": 2.9, "grad_norm": 6.741174221038818, "learning_rate": 1.9308737486442045e-05, "loss": 0.5089, "step": 1740 }, { "epoch": 2.9166666666666665, "grad_norm": 6.0026469230651855, "learning_rate": 1.9293475242268224e-05, "loss": 0.4928, "step": 1750 }, { "epoch": 2.9333333333333336, "grad_norm": 6.163332939147949, "learning_rate": 1.9278052513379256e-05, "loss": 0.5397, "step": 1760 }, { "epoch": 2.95, "grad_norm": 5.151211738586426, "learning_rate": 1.926246956610309e-05, "loss": 0.5085, "step": 1770 }, { "epoch": 2.966666666666667, "grad_norm": 5.902535915374756, "learning_rate": 1.9246726669534416e-05, "loss": 0.5619, "step": 1780 }, { "epoch": 2.9833333333333334, "grad_norm": 4.26236629486084, "learning_rate": 1.923082409553002e-05, "loss": 0.4873, "step": 1790 }, { "epoch": 3.0, "grad_norm": 9.270946502685547, "learning_rate": 1.921476211870408e-05, "loss": 0.5346, "step": 1800 }, { "epoch": 3.0, "eval_accuracy": 0.663003663003663, "eval_loss": 0.6800894737243652, "eval_runtime": 2.0234, "eval_samples_per_second": 674.621, "eval_steps_per_second": 42.504, "step": 1800 }, { "epoch": 3.0166666666666666, "grad_norm": 8.520913124084473, "learning_rate": 1.919854101642342e-05, "loss": 0.4134, "step": 1810 }, { "epoch": 3.033333333333333, "grad_norm": 5.5546875, "learning_rate": 1.9182161068802742e-05, "loss": 0.3542, "step": 1820 }, { "epoch": 3.05, "grad_norm": 7.717833518981934, "learning_rate": 1.9165622558699763e-05, "loss": 0.4404, "step": 1830 }, { "epoch": 3.066666666666667, "grad_norm": 11.350333213806152, "learning_rate": 1.9148925771710347e-05, "loss": 0.3732, "step": 1840 }, { "epoch": 3.0833333333333335, "grad_norm": 6.214349269866943, "learning_rate": 1.913207099616357e-05, "loss": 0.3868, "step": 1850 }, { "epoch": 3.1, "grad_norm": 5.783053874969482, "learning_rate": 1.9115058523116734e-05, "loss": 0.344, "step": 1860 }, { "epoch": 3.1166666666666667, "grad_norm": 7.447259902954102, "learning_rate": 1.9097888646350347e-05, "loss": 0.4027, "step": 1870 }, { "epoch": 3.1333333333333333, "grad_norm": 6.286544322967529, "learning_rate": 1.908056166236305e-05, "loss": 0.4391, "step": 1880 }, { "epoch": 3.15, "grad_norm": 9.073515892028809, "learning_rate": 1.9063077870366504e-05, "loss": 0.3945, "step": 1890 }, { "epoch": 3.1666666666666665, "grad_norm": 6.541659355163574, "learning_rate": 1.9045437572280193e-05, "loss": 0.3617, "step": 1900 }, { "epoch": 3.183333333333333, "grad_norm": 7.9517693519592285, "learning_rate": 1.902764107272626e-05, "loss": 0.4313, "step": 1910 }, { "epoch": 3.2, "grad_norm": 7.137308597564697, "learning_rate": 1.900968867902419e-05, "loss": 0.3241, "step": 1920 }, { "epoch": 3.216666666666667, "grad_norm": 6.320766925811768, "learning_rate": 1.8991580701185564e-05, "loss": 0.37, "step": 1930 }, { "epoch": 3.2333333333333334, "grad_norm": 6.064675331115723, "learning_rate": 1.8973317451908642e-05, "loss": 0.2816, "step": 1940 }, { "epoch": 3.25, "grad_norm": 10.319533348083496, "learning_rate": 1.895489924657301e-05, "loss": 0.3939, "step": 1950 }, { "epoch": 3.2666666666666666, "grad_norm": 7.237499237060547, "learning_rate": 1.8936326403234125e-05, "loss": 0.3757, "step": 1960 }, { "epoch": 3.283333333333333, "grad_norm": 6.379919528961182, "learning_rate": 1.8917599242617796e-05, "loss": 0.3589, "step": 1970 }, { "epoch": 3.3, "grad_norm": 10.484453201293945, "learning_rate": 1.8898718088114688e-05, "loss": 0.3744, "step": 1980 }, { "epoch": 3.3166666666666664, "grad_norm": 12.126269340515137, "learning_rate": 1.8879683265774695e-05, "loss": 0.4276, "step": 1990 }, { "epoch": 3.3333333333333335, "grad_norm": 9.69861125946045, "learning_rate": 1.8860495104301346e-05, "loss": 0.3777, "step": 2000 }, { "epoch": 3.35, "grad_norm": 4.834460258483887, "learning_rate": 1.8841153935046098e-05, "loss": 0.3158, "step": 2010 }, { "epoch": 3.3666666666666667, "grad_norm": 6.695274829864502, "learning_rate": 1.8821660092002642e-05, "loss": 0.3942, "step": 2020 }, { "epoch": 3.3833333333333333, "grad_norm": 10.60463809967041, "learning_rate": 1.880201391180111e-05, "loss": 0.301, "step": 2030 }, { "epoch": 3.4, "grad_norm": 5.748558044433594, "learning_rate": 1.8782215733702286e-05, "loss": 0.3826, "step": 2040 }, { "epoch": 3.4166666666666665, "grad_norm": 6.971687316894531, "learning_rate": 1.8762265899591724e-05, "loss": 0.3766, "step": 2050 }, { "epoch": 3.4333333333333336, "grad_norm": 10.618817329406738, "learning_rate": 1.874216475397386e-05, "loss": 0.3522, "step": 2060 }, { "epoch": 3.45, "grad_norm": 8.329767227172852, "learning_rate": 1.8721912643966055e-05, "loss": 0.342, "step": 2070 }, { "epoch": 3.466666666666667, "grad_norm": 9.268407821655273, "learning_rate": 1.870150991929261e-05, "loss": 0.2877, "step": 2080 }, { "epoch": 3.4833333333333334, "grad_norm": 6.828186511993408, "learning_rate": 1.868095693227872e-05, "loss": 0.3706, "step": 2090 }, { "epoch": 3.5, "grad_norm": 11.919193267822266, "learning_rate": 1.866025403784439e-05, "loss": 0.3724, "step": 2100 }, { "epoch": 3.5166666666666666, "grad_norm": 14.13306713104248, "learning_rate": 1.86394015934983e-05, "loss": 0.3663, "step": 2110 }, { "epoch": 3.533333333333333, "grad_norm": 7.187041759490967, "learning_rate": 1.8618399959331642e-05, "loss": 0.3007, "step": 2120 }, { "epoch": 3.55, "grad_norm": 15.558795928955078, "learning_rate": 1.8597249498011906e-05, "loss": 0.3907, "step": 2130 }, { "epoch": 3.5666666666666664, "grad_norm": 11.272549629211426, "learning_rate": 1.8575950574776595e-05, "loss": 0.4012, "step": 2140 }, { "epoch": 3.5833333333333335, "grad_norm": 15.731003761291504, "learning_rate": 1.855450355742695e-05, "loss": 0.4231, "step": 2150 }, { "epoch": 3.6, "grad_norm": 7.192224502563477, "learning_rate": 1.8532908816321557e-05, "loss": 0.3396, "step": 2160 }, { "epoch": 3.6166666666666667, "grad_norm": 8.559320449829102, "learning_rate": 1.8511166724369997e-05, "loss": 0.319, "step": 2170 }, { "epoch": 3.6333333333333333, "grad_norm": 9.286134719848633, "learning_rate": 1.8489277657026377e-05, "loss": 0.3728, "step": 2180 }, { "epoch": 3.65, "grad_norm": 7.382202625274658, "learning_rate": 1.8467241992282842e-05, "loss": 0.3955, "step": 2190 }, { "epoch": 3.6666666666666665, "grad_norm": 11.097570419311523, "learning_rate": 1.844506011066308e-05, "loss": 0.373, "step": 2200 }, { "epoch": 3.6833333333333336, "grad_norm": 10.186798095703125, "learning_rate": 1.8422732395215717e-05, "loss": 0.458, "step": 2210 }, { "epoch": 3.7, "grad_norm": 9.413180351257324, "learning_rate": 1.8400259231507716e-05, "loss": 0.3728, "step": 2220 }, { "epoch": 3.716666666666667, "grad_norm": 8.126789093017578, "learning_rate": 1.8377641007617724e-05, "loss": 0.3829, "step": 2230 }, { "epoch": 3.7333333333333334, "grad_norm": 9.19456672668457, "learning_rate": 1.8354878114129368e-05, "loss": 0.321, "step": 2240 }, { "epoch": 3.75, "grad_norm": 17.7072811126709, "learning_rate": 1.833197094412449e-05, "loss": 0.3729, "step": 2250 }, { "epoch": 3.7666666666666666, "grad_norm": 9.825091361999512, "learning_rate": 1.8308919893176397e-05, "loss": 0.3191, "step": 2260 }, { "epoch": 3.783333333333333, "grad_norm": 11.167253494262695, "learning_rate": 1.8285725359343e-05, "loss": 0.4161, "step": 2270 }, { "epoch": 3.8, "grad_norm": 9.785726547241211, "learning_rate": 1.826238774315995e-05, "loss": 0.3167, "step": 2280 }, { "epoch": 3.8166666666666664, "grad_norm": 6.7009758949279785, "learning_rate": 1.8238907447633716e-05, "loss": 0.3276, "step": 2290 }, { "epoch": 3.8333333333333335, "grad_norm": 10.958868980407715, "learning_rate": 1.8215284878234644e-05, "loss": 0.2454, "step": 2300 }, { "epoch": 3.85, "grad_norm": 18.93035125732422, "learning_rate": 1.819152044288992e-05, "loss": 0.3836, "step": 2310 }, { "epoch": 3.8666666666666667, "grad_norm": 11.231881141662598, "learning_rate": 1.816761455197657e-05, "loss": 0.3491, "step": 2320 }, { "epoch": 3.8833333333333333, "grad_norm": 7.044066429138184, "learning_rate": 1.8143567618314336e-05, "loss": 0.3129, "step": 2330 }, { "epoch": 3.9, "grad_norm": 7.4137492179870605, "learning_rate": 1.811938005715857e-05, "loss": 0.3848, "step": 2340 }, { "epoch": 3.9166666666666665, "grad_norm": 3.7917087078094482, "learning_rate": 1.8095052286193044e-05, "loss": 0.2613, "step": 2350 }, { "epoch": 3.9333333333333336, "grad_norm": 7.329050064086914, "learning_rate": 1.8070584725522763e-05, "loss": 0.2839, "step": 2360 }, { "epoch": 3.95, "grad_norm": 8.250350952148438, "learning_rate": 1.8045977797666685e-05, "loss": 0.426, "step": 2370 }, { "epoch": 3.966666666666667, "grad_norm": 13.169599533081055, "learning_rate": 1.802123192755044e-05, "loss": 0.371, "step": 2380 }, { "epoch": 3.9833333333333334, "grad_norm": 5.934089660644531, "learning_rate": 1.7996347542498983e-05, "loss": 0.3463, "step": 2390 }, { "epoch": 4.0, "grad_norm": 5.9008307456970215, "learning_rate": 1.7971325072229227e-05, "loss": 0.2974, "step": 2400 }, { "epoch": 4.0, "eval_accuracy": 0.6446886446886447, "eval_loss": 0.8408761024475098, "eval_runtime": 1.9227, "eval_samples_per_second": 709.925, "eval_steps_per_second": 44.728, "step": 2400 }, { "epoch": 4.016666666666667, "grad_norm": 6.800796031951904, "learning_rate": 1.7946164948842604e-05, "loss": 0.1916, "step": 2410 }, { "epoch": 4.033333333333333, "grad_norm": 11.187984466552734, "learning_rate": 1.7920867606817625e-05, "loss": 0.1926, "step": 2420 }, { "epoch": 4.05, "grad_norm": 8.755463600158691, "learning_rate": 1.7895433483002356e-05, "loss": 0.1996, "step": 2430 }, { "epoch": 4.066666666666666, "grad_norm": 10.346768379211426, "learning_rate": 1.7869863016606893e-05, "loss": 0.1962, "step": 2440 }, { "epoch": 4.083333333333333, "grad_norm": 8.716865539550781, "learning_rate": 1.784415664919576e-05, "loss": 0.2325, "step": 2450 }, { "epoch": 4.1, "grad_norm": 24.440990447998047, "learning_rate": 1.78183148246803e-05, "loss": 0.1739, "step": 2460 }, { "epoch": 4.116666666666666, "grad_norm": 8.765872955322266, "learning_rate": 1.7792337989311e-05, "loss": 0.2363, "step": 2470 }, { "epoch": 4.133333333333334, "grad_norm": 15.551268577575684, "learning_rate": 1.7766226591669787e-05, "loss": 0.2068, "step": 2480 }, { "epoch": 4.15, "grad_norm": 14.396734237670898, "learning_rate": 1.7739981082662275e-05, "loss": 0.161, "step": 2490 }, { "epoch": 4.166666666666667, "grad_norm": 5.329517364501953, "learning_rate": 1.771360191551e-05, "loss": 0.2353, "step": 2500 }, { "epoch": 4.183333333333334, "grad_norm": 10.50860595703125, "learning_rate": 1.768708954574256e-05, "loss": 0.2031, "step": 2510 }, { "epoch": 4.2, "grad_norm": 21.69150733947754, "learning_rate": 1.766044443118978e-05, "loss": 0.255, "step": 2520 }, { "epoch": 4.216666666666667, "grad_norm": 9.158199310302734, "learning_rate": 1.7633667031973793e-05, "loss": 0.2332, "step": 2530 }, { "epoch": 4.233333333333333, "grad_norm": 8.26563549041748, "learning_rate": 1.760675781050109e-05, "loss": 0.2283, "step": 2540 }, { "epoch": 4.25, "grad_norm": 6.22615385055542, "learning_rate": 1.757971723145453e-05, "loss": 0.1477, "step": 2550 }, { "epoch": 4.266666666666667, "grad_norm": 12.131237030029297, "learning_rate": 1.755254576178535e-05, "loss": 0.2278, "step": 2560 }, { "epoch": 4.283333333333333, "grad_norm": 5.079014301300049, "learning_rate": 1.7525243870705052e-05, "loss": 0.3017, "step": 2570 }, { "epoch": 4.3, "grad_norm": 6.722441673278809, "learning_rate": 1.7497812029677344e-05, "loss": 0.1893, "step": 2580 }, { "epoch": 4.316666666666666, "grad_norm": 19.649364471435547, "learning_rate": 1.7470250712409963e-05, "loss": 0.2215, "step": 2590 }, { "epoch": 4.333333333333333, "grad_norm": 16.80063819885254, "learning_rate": 1.7442560394846518e-05, "loss": 0.2135, "step": 2600 }, { "epoch": 4.35, "grad_norm": 4.162881374359131, "learning_rate": 1.741474155515827e-05, "loss": 0.1982, "step": 2610 }, { "epoch": 4.366666666666666, "grad_norm": 9.364086151123047, "learning_rate": 1.738679467373586e-05, "loss": 0.1148, "step": 2620 }, { "epoch": 4.383333333333334, "grad_norm": 8.457878112792969, "learning_rate": 1.7358720233181023e-05, "loss": 0.2432, "step": 2630 }, { "epoch": 4.4, "grad_norm": 18.436786651611328, "learning_rate": 1.7330518718298263e-05, "loss": 0.1917, "step": 2640 }, { "epoch": 4.416666666666667, "grad_norm": 11.05576229095459, "learning_rate": 1.7302190616086464e-05, "loss": 0.2301, "step": 2650 }, { "epoch": 4.433333333333334, "grad_norm": 14.231767654418945, "learning_rate": 1.7273736415730488e-05, "loss": 0.1694, "step": 2660 }, { "epoch": 4.45, "grad_norm": 4.897223472595215, "learning_rate": 1.7245156608592727e-05, "loss": 0.2034, "step": 2670 }, { "epoch": 4.466666666666667, "grad_norm": 18.942005157470703, "learning_rate": 1.7216451688204623e-05, "loss": 0.2294, "step": 2680 }, { "epoch": 4.483333333333333, "grad_norm": 28.590120315551758, "learning_rate": 1.718762215025813e-05, "loss": 0.21, "step": 2690 }, { "epoch": 4.5, "grad_norm": 9.035322189331055, "learning_rate": 1.7158668492597186e-05, "loss": 0.1367, "step": 2700 }, { "epoch": 4.516666666666667, "grad_norm": 8.326066017150879, "learning_rate": 1.712959121520907e-05, "loss": 0.2171, "step": 2710 }, { "epoch": 4.533333333333333, "grad_norm": 18.64793586730957, "learning_rate": 1.7100390820215805e-05, "loss": 0.203, "step": 2720 }, { "epoch": 4.55, "grad_norm": 6.613404750823975, "learning_rate": 1.7071067811865477e-05, "loss": 0.2896, "step": 2730 }, { "epoch": 4.566666666666666, "grad_norm": 2.993422031402588, "learning_rate": 1.704162269652352e-05, "loss": 0.2196, "step": 2740 }, { "epoch": 4.583333333333333, "grad_norm": 8.488532066345215, "learning_rate": 1.701205598266398e-05, "loss": 0.1421, "step": 2750 }, { "epoch": 4.6, "grad_norm": 5.658782005310059, "learning_rate": 1.698236818086073e-05, "loss": 0.2469, "step": 2760 }, { "epoch": 4.616666666666667, "grad_norm": 14.441184043884277, "learning_rate": 1.6952559803778656e-05, "loss": 0.1689, "step": 2770 }, { "epoch": 4.633333333333333, "grad_norm": 10.702966690063477, "learning_rate": 1.6922631366164795e-05, "loss": 0.2721, "step": 2780 }, { "epoch": 4.65, "grad_norm": 13.82749080657959, "learning_rate": 1.689258338483947e-05, "loss": 0.2687, "step": 2790 }, { "epoch": 4.666666666666667, "grad_norm": 22.718114852905273, "learning_rate": 1.686241637868734e-05, "loss": 0.2094, "step": 2800 }, { "epoch": 4.683333333333334, "grad_norm": 23.70955467224121, "learning_rate": 1.683213086864843e-05, "loss": 0.2468, "step": 2810 }, { "epoch": 4.7, "grad_norm": 14.313791275024414, "learning_rate": 1.6801727377709195e-05, "loss": 0.3572, "step": 2820 }, { "epoch": 4.716666666666667, "grad_norm": 1.280615210533142, "learning_rate": 1.6771206430893408e-05, "loss": 0.1585, "step": 2830 }, { "epoch": 4.733333333333333, "grad_norm": 18.38262367248535, "learning_rate": 1.6740568555253153e-05, "loss": 0.1866, "step": 2840 }, { "epoch": 4.75, "grad_norm": 13.082511901855469, "learning_rate": 1.67098142798597e-05, "loss": 0.2372, "step": 2850 }, { "epoch": 4.766666666666667, "grad_norm": 6.905370712280273, "learning_rate": 1.6678944135794375e-05, "loss": 0.2246, "step": 2860 }, { "epoch": 4.783333333333333, "grad_norm": 5.4606122970581055, "learning_rate": 1.6647958656139377e-05, "loss": 0.2433, "step": 2870 }, { "epoch": 4.8, "grad_norm": 17.865739822387695, "learning_rate": 1.6616858375968596e-05, "loss": 0.2549, "step": 2880 }, { "epoch": 4.816666666666666, "grad_norm": 41.44401550292969, "learning_rate": 1.6585643832338342e-05, "loss": 0.2584, "step": 2890 }, { "epoch": 4.833333333333333, "grad_norm": 15.979497909545898, "learning_rate": 1.6554315564278102e-05, "loss": 0.2374, "step": 2900 }, { "epoch": 4.85, "grad_norm": 8.889433860778809, "learning_rate": 1.6522874112781213e-05, "loss": 0.3334, "step": 2910 }, { "epoch": 4.866666666666667, "grad_norm": 10.734085083007812, "learning_rate": 1.649132002079552e-05, "loss": 0.1694, "step": 2920 }, { "epoch": 4.883333333333333, "grad_norm": 7.850935935974121, "learning_rate": 1.645965383321401e-05, "loss": 0.1457, "step": 2930 }, { "epoch": 4.9, "grad_norm": 6.674160480499268, "learning_rate": 1.6427876096865394e-05, "loss": 0.2299, "step": 2940 }, { "epoch": 4.916666666666667, "grad_norm": 24.8321590423584, "learning_rate": 1.6395987360504667e-05, "loss": 0.2227, "step": 2950 }, { "epoch": 4.933333333333334, "grad_norm": 21.398326873779297, "learning_rate": 1.6363988174803638e-05, "loss": 0.2475, "step": 2960 }, { "epoch": 4.95, "grad_norm": 12.976921081542969, "learning_rate": 1.6331879092341402e-05, "loss": 0.1802, "step": 2970 }, { "epoch": 4.966666666666667, "grad_norm": 14.042061805725098, "learning_rate": 1.6299660667594814e-05, "loss": 0.2516, "step": 2980 }, { "epoch": 4.983333333333333, "grad_norm": 21.662731170654297, "learning_rate": 1.626733345692892e-05, "loss": 0.3282, "step": 2990 }, { "epoch": 5.0, "grad_norm": 17.608373641967773, "learning_rate": 1.6234898018587336e-05, "loss": 0.2124, "step": 3000 }, { "epoch": 5.0, "eval_accuracy": 0.6293040293040293, "eval_loss": 1.200034737586975, "eval_runtime": 1.9884, "eval_samples_per_second": 686.487, "eval_steps_per_second": 43.251, "step": 3000 }, { "epoch": 5.016666666666667, "grad_norm": 1.0147602558135986, "learning_rate": 1.6202354912682602e-05, "loss": 0.0847, "step": 3010 }, { "epoch": 5.033333333333333, "grad_norm": 20.401517868041992, "learning_rate": 1.6169704701186528e-05, "loss": 0.1415, "step": 3020 }, { "epoch": 5.05, "grad_norm": 1.022953987121582, "learning_rate": 1.6136947947920477e-05, "loss": 0.1371, "step": 3030 }, { "epoch": 5.066666666666666, "grad_norm": 10.270929336547852, "learning_rate": 1.6104085218545633e-05, "loss": 0.1774, "step": 3040 }, { "epoch": 5.083333333333333, "grad_norm": 8.564648628234863, "learning_rate": 1.6071117080553236e-05, "loss": 0.131, "step": 3050 }, { "epoch": 5.1, "grad_norm": 4.6336669921875, "learning_rate": 1.6038044103254775e-05, "loss": 0.0821, "step": 3060 }, { "epoch": 5.116666666666666, "grad_norm": 5.73518180847168, "learning_rate": 1.600486685777216e-05, "loss": 0.0531, "step": 3070 }, { "epoch": 5.133333333333334, "grad_norm": 24.018949508666992, "learning_rate": 1.5971585917027864e-05, "loss": 0.1445, "step": 3080 }, { "epoch": 5.15, "grad_norm": 2.413054943084717, "learning_rate": 1.5938201855735017e-05, "loss": 0.1126, "step": 3090 }, { "epoch": 5.166666666666667, "grad_norm": 16.5898380279541, "learning_rate": 1.5904715250387498e-05, "loss": 0.1097, "step": 3100 }, { "epoch": 5.183333333333334, "grad_norm": 21.17631721496582, "learning_rate": 1.5871126679249977e-05, "loss": 0.1689, "step": 3110 }, { "epoch": 5.2, "grad_norm": 15.361016273498535, "learning_rate": 1.5837436722347902e-05, "loss": 0.1159, "step": 3120 }, { "epoch": 5.216666666666667, "grad_norm": 37.31953811645508, "learning_rate": 1.5803645961457522e-05, "loss": 0.1664, "step": 3130 }, { "epoch": 5.233333333333333, "grad_norm": 1.088923692703247, "learning_rate": 1.576975498009583e-05, "loss": 0.1183, "step": 3140 }, { "epoch": 5.25, "grad_norm": 33.75508499145508, "learning_rate": 1.573576436351046e-05, "loss": 0.1523, "step": 3150 }, { "epoch": 5.266666666666667, "grad_norm": 8.551312446594238, "learning_rate": 1.570167469866962e-05, "loss": 0.1255, "step": 3160 }, { "epoch": 5.283333333333333, "grad_norm": 23.379915237426758, "learning_rate": 1.5667486574251916e-05, "loss": 0.1269, "step": 3170 }, { "epoch": 5.3, "grad_norm": 25.599714279174805, "learning_rate": 1.563320058063622e-05, "loss": 0.1512, "step": 3180 }, { "epoch": 5.316666666666666, "grad_norm": 1.7940479516983032, "learning_rate": 1.5598817309891466e-05, "loss": 0.0789, "step": 3190 }, { "epoch": 5.333333333333333, "grad_norm": 20.735576629638672, "learning_rate": 1.5564337355766412e-05, "loss": 0.1547, "step": 3200 }, { "epoch": 5.35, "grad_norm": 19.863126754760742, "learning_rate": 1.5529761313679396e-05, "loss": 0.1903, "step": 3210 }, { "epoch": 5.366666666666666, "grad_norm": 19.80723762512207, "learning_rate": 1.5495089780708062e-05, "loss": 0.1854, "step": 3220 }, { "epoch": 5.383333333333334, "grad_norm": 28.49349021911621, "learning_rate": 1.5460323355579035e-05, "loss": 0.1848, "step": 3230 }, { "epoch": 5.4, "grad_norm": 27.559804916381836, "learning_rate": 1.5425462638657597e-05, "loss": 0.1439, "step": 3240 }, { "epoch": 5.416666666666667, "grad_norm": 0.3180895745754242, "learning_rate": 1.53905082319373e-05, "loss": 0.0273, "step": 3250 }, { "epoch": 5.433333333333334, "grad_norm": 2.8709073066711426, "learning_rate": 1.5355460739029585e-05, "loss": 0.2483, "step": 3260 }, { "epoch": 5.45, "grad_norm": 0.46991926431655884, "learning_rate": 1.5320320765153367e-05, "loss": 0.0698, "step": 3270 }, { "epoch": 5.466666666666667, "grad_norm": 0.3897984027862549, "learning_rate": 1.5285088917124555e-05, "loss": 0.2807, "step": 3280 }, { "epoch": 5.483333333333333, "grad_norm": 0.5438683032989502, "learning_rate": 1.5249765803345602e-05, "loss": 0.179, "step": 3290 }, { "epoch": 5.5, "grad_norm": 27.689308166503906, "learning_rate": 1.5214352033794981e-05, "loss": 0.0847, "step": 3300 }, { "epoch": 5.516666666666667, "grad_norm": 28.62678337097168, "learning_rate": 1.517884822001666e-05, "loss": 0.2363, "step": 3310 }, { "epoch": 5.533333333333333, "grad_norm": 23.103588104248047, "learning_rate": 1.5143254975109538e-05, "loss": 0.1293, "step": 3320 }, { "epoch": 5.55, "grad_norm": 0.12534061074256897, "learning_rate": 1.5107572913716859e-05, "loss": 0.0927, "step": 3330 }, { "epoch": 5.566666666666666, "grad_norm": 0.5081673264503479, "learning_rate": 1.5071802652015592e-05, "loss": 0.122, "step": 3340 }, { "epoch": 5.583333333333333, "grad_norm": 16.712963104248047, "learning_rate": 1.503594480770581e-05, "loss": 0.2284, "step": 3350 }, { "epoch": 5.6, "grad_norm": 15.965821266174316, "learning_rate": 1.5000000000000002e-05, "loss": 0.1329, "step": 3360 }, { "epoch": 5.616666666666667, "grad_norm": 25.123790740966797, "learning_rate": 1.496396884961238e-05, "loss": 0.1604, "step": 3370 }, { "epoch": 5.633333333333333, "grad_norm": 1.8998332023620605, "learning_rate": 1.4927851978748177e-05, "loss": 0.0968, "step": 3380 }, { "epoch": 5.65, "grad_norm": 24.31692123413086, "learning_rate": 1.4891650011092896e-05, "loss": 0.1516, "step": 3390 }, { "epoch": 5.666666666666667, "grad_norm": 5.178999423980713, "learning_rate": 1.4855363571801523e-05, "loss": 0.1714, "step": 3400 }, { "epoch": 5.683333333333334, "grad_norm": 29.019245147705078, "learning_rate": 1.481899328748776e-05, "loss": 0.2386, "step": 3410 }, { "epoch": 5.7, "grad_norm": 6.961763381958008, "learning_rate": 1.4782539786213184e-05, "loss": 0.1293, "step": 3420 }, { "epoch": 5.716666666666667, "grad_norm": 33.04340744018555, "learning_rate": 1.4746003697476406e-05, "loss": 0.2424, "step": 3430 }, { "epoch": 5.733333333333333, "grad_norm": 23.46949577331543, "learning_rate": 1.4709385652202204e-05, "loss": 0.1184, "step": 3440 }, { "epoch": 5.75, "grad_norm": 8.250195503234863, "learning_rate": 1.4672686282730622e-05, "loss": 0.0839, "step": 3450 }, { "epoch": 5.766666666666667, "grad_norm": 0.5260627865791321, "learning_rate": 1.4635906222806058e-05, "loss": 0.1391, "step": 3460 }, { "epoch": 5.783333333333333, "grad_norm": 0.3091002404689789, "learning_rate": 1.4599046107566314e-05, "loss": 0.2284, "step": 3470 }, { "epoch": 5.8, "grad_norm": 25.41762924194336, "learning_rate": 1.4562106573531632e-05, "loss": 0.2418, "step": 3480 }, { "epoch": 5.816666666666666, "grad_norm": 8.183185577392578, "learning_rate": 1.4525088258593695e-05, "loss": 0.2818, "step": 3490 }, { "epoch": 5.833333333333333, "grad_norm": 8.167861938476562, "learning_rate": 1.4487991802004625e-05, "loss": 0.2096, "step": 3500 }, { "epoch": 5.85, "grad_norm": 1.1373860836029053, "learning_rate": 1.4450817844365924e-05, "loss": 0.1648, "step": 3510 }, { "epoch": 5.866666666666667, "grad_norm": 18.7924861907959, "learning_rate": 1.4413567027617442e-05, "loss": 0.1077, "step": 3520 }, { "epoch": 5.883333333333333, "grad_norm": 43.12092971801758, "learning_rate": 1.4376239995026254e-05, "loss": 0.1099, "step": 3530 }, { "epoch": 5.9, "grad_norm": 36.30341720581055, "learning_rate": 1.4338837391175582e-05, "loss": 0.0979, "step": 3540 }, { "epoch": 5.916666666666667, "grad_norm": 9.352974891662598, "learning_rate": 1.4301359861953652e-05, "loss": 0.1578, "step": 3550 }, { "epoch": 5.933333333333334, "grad_norm": 3.1973745822906494, "learning_rate": 1.4263808054542541e-05, "loss": 0.1587, "step": 3560 }, { "epoch": 5.95, "grad_norm": 20.190561294555664, "learning_rate": 1.4226182617406996e-05, "loss": 0.1586, "step": 3570 }, { "epoch": 5.966666666666667, "grad_norm": 24.63654327392578, "learning_rate": 1.418848420028325e-05, "loss": 0.0922, "step": 3580 }, { "epoch": 5.983333333333333, "grad_norm": 27.1915225982666, "learning_rate": 1.4150713454167788e-05, "loss": 0.2448, "step": 3590 }, { "epoch": 6.0, "grad_norm": 2.4420948028564453, "learning_rate": 1.4112871031306118e-05, "loss": 0.1722, "step": 3600 }, { "epoch": 6.0, "eval_accuracy": 0.6336996336996337, "eval_loss": 1.5674309730529785, "eval_runtime": 1.9561, "eval_samples_per_second": 697.811, "eval_steps_per_second": 43.965, "step": 3600 }, { "epoch": 6.016666666666667, "grad_norm": 2.7956202030181885, "learning_rate": 1.4074957585181488e-05, "loss": 0.0886, "step": 3610 }, { "epoch": 6.033333333333333, "grad_norm": 0.37907764315605164, "learning_rate": 1.4036973770503623e-05, "loss": 0.0597, "step": 3620 }, { "epoch": 6.05, "grad_norm": 5.614625930786133, "learning_rate": 1.3998920243197408e-05, "loss": 0.0832, "step": 3630 }, { "epoch": 6.066666666666666, "grad_norm": 0.19984441995620728, "learning_rate": 1.396079766039157e-05, "loss": 0.0445, "step": 3640 }, { "epoch": 6.083333333333333, "grad_norm": 3.4363865852355957, "learning_rate": 1.3922606680407307e-05, "loss": 0.0436, "step": 3650 }, { "epoch": 6.1, "grad_norm": 10.151202201843262, "learning_rate": 1.3884347962746949e-05, "loss": 0.0801, "step": 3660 }, { "epoch": 6.116666666666666, "grad_norm": 4.335551738739014, "learning_rate": 1.3846022168082553e-05, "loss": 0.2556, "step": 3670 }, { "epoch": 6.133333333333334, "grad_norm": 32.38202667236328, "learning_rate": 1.3807629958244498e-05, "loss": 0.0734, "step": 3680 }, { "epoch": 6.15, "grad_norm": 0.9993119835853577, "learning_rate": 1.3769171996210053e-05, "loss": 0.0508, "step": 3690 }, { "epoch": 6.166666666666667, "grad_norm": 14.930900573730469, "learning_rate": 1.373064894609194e-05, "loss": 0.1259, "step": 3700 }, { "epoch": 6.183333333333334, "grad_norm": 0.06836142390966415, "learning_rate": 1.3692061473126845e-05, "loss": 0.1129, "step": 3710 }, { "epoch": 6.2, "grad_norm": 36.90699005126953, "learning_rate": 1.3653410243663953e-05, "loss": 0.0942, "step": 3720 }, { "epoch": 6.216666666666667, "grad_norm": 1.2870429754257202, "learning_rate": 1.361469592515342e-05, "loss": 0.0856, "step": 3730 }, { "epoch": 6.233333333333333, "grad_norm": 21.09489631652832, "learning_rate": 1.3575919186134862e-05, "loss": 0.1176, "step": 3740 }, { "epoch": 6.25, "grad_norm": 19.593664169311523, "learning_rate": 1.3537080696225815e-05, "loss": 0.0861, "step": 3750 }, { "epoch": 6.266666666666667, "grad_norm": 5.173015594482422, "learning_rate": 1.349818112611015e-05, "loss": 0.1912, "step": 3760 }, { "epoch": 6.283333333333333, "grad_norm": 0.2996021509170532, "learning_rate": 1.3459221147526504e-05, "loss": 0.0818, "step": 3770 }, { "epoch": 6.3, "grad_norm": 27.303770065307617, "learning_rate": 1.342020143325669e-05, "loss": 0.0249, "step": 3780 }, { "epoch": 6.316666666666666, "grad_norm": 0.49486374855041504, "learning_rate": 1.3381122657114059e-05, "loss": 0.0622, "step": 3790 }, { "epoch": 6.333333333333333, "grad_norm": 2.8161256313323975, "learning_rate": 1.3341985493931877e-05, "loss": 0.2356, "step": 3800 }, { "epoch": 6.35, "grad_norm": 0.050575144588947296, "learning_rate": 1.3302790619551673e-05, "loss": 0.0724, "step": 3810 }, { "epoch": 6.366666666666666, "grad_norm": 0.10276170074939728, "learning_rate": 1.3263538710811559e-05, "loss": 0.0366, "step": 3820 }, { "epoch": 6.383333333333334, "grad_norm": 44.04489517211914, "learning_rate": 1.3224230445534544e-05, "loss": 0.1344, "step": 3830 }, { "epoch": 6.4, "grad_norm": 14.379541397094727, "learning_rate": 1.3184866502516846e-05, "loss": 0.1865, "step": 3840 }, { "epoch": 6.416666666666667, "grad_norm": 0.12741892039775848, "learning_rate": 1.3145447561516138e-05, "loss": 0.0663, "step": 3850 }, { "epoch": 6.433333333333334, "grad_norm": 3.2561116218566895, "learning_rate": 1.3105974303239838e-05, "loss": 0.1107, "step": 3860 }, { "epoch": 6.45, "grad_norm": 2.7047250270843506, "learning_rate": 1.3066447409333345e-05, "loss": 0.0871, "step": 3870 }, { "epoch": 6.466666666666667, "grad_norm": 22.090036392211914, "learning_rate": 1.3026867562368262e-05, "loss": 0.0339, "step": 3880 }, { "epoch": 6.483333333333333, "grad_norm": 16.041553497314453, "learning_rate": 1.2987235445830612e-05, "loss": 0.1337, "step": 3890 }, { "epoch": 6.5, "grad_norm": 15.934035301208496, "learning_rate": 1.2947551744109044e-05, "loss": 0.0988, "step": 3900 }, { "epoch": 6.516666666666667, "grad_norm": 0.12512661516666412, "learning_rate": 1.2907817142483002e-05, "loss": 0.0507, "step": 3910 }, { "epoch": 6.533333333333333, "grad_norm": 0.8212718367576599, "learning_rate": 1.2868032327110904e-05, "loss": 0.0697, "step": 3920 }, { "epoch": 6.55, "grad_norm": 49.31973648071289, "learning_rate": 1.2828197985018276e-05, "loss": 0.0341, "step": 3930 }, { "epoch": 6.566666666666666, "grad_norm": 5.994250297546387, "learning_rate": 1.2788314804085904e-05, "loss": 0.0876, "step": 3940 }, { "epoch": 6.583333333333333, "grad_norm": 0.28034791350364685, "learning_rate": 1.2748383473037948e-05, "loss": 0.1736, "step": 3950 }, { "epoch": 6.6, "grad_norm": 9.517563819885254, "learning_rate": 1.2708404681430054e-05, "loss": 0.0938, "step": 3960 }, { "epoch": 6.616666666666667, "grad_norm": 0.8875794410705566, "learning_rate": 1.266837911963743e-05, "loss": 0.1409, "step": 3970 }, { "epoch": 6.633333333333333, "grad_norm": 13.758536338806152, "learning_rate": 1.2628307478842955e-05, "loss": 0.161, "step": 3980 }, { "epoch": 6.65, "grad_norm": 0.685119092464447, "learning_rate": 1.2588190451025209e-05, "loss": 0.0927, "step": 3990 }, { "epoch": 6.666666666666667, "grad_norm": 9.26745319366455, "learning_rate": 1.2548028728946548e-05, "loss": 0.2317, "step": 4000 }, { "epoch": 6.683333333333334, "grad_norm": 0.41291195154190063, "learning_rate": 1.2507823006141128e-05, "loss": 0.0975, "step": 4010 }, { "epoch": 6.7, "grad_norm": 31.908096313476562, "learning_rate": 1.2467573976902936e-05, "loss": 0.1475, "step": 4020 }, { "epoch": 6.716666666666667, "grad_norm": 1.9993367195129395, "learning_rate": 1.24272823362738e-05, "loss": 0.1265, "step": 4030 }, { "epoch": 6.733333333333333, "grad_norm": 0.32419532537460327, "learning_rate": 1.238694878003138e-05, "loss": 0.0779, "step": 4040 }, { "epoch": 6.75, "grad_norm": 0.8238071203231812, "learning_rate": 1.2346574004677154e-05, "loss": 0.1067, "step": 4050 }, { "epoch": 6.766666666666667, "grad_norm": 60.266483306884766, "learning_rate": 1.2306158707424402e-05, "loss": 0.1401, "step": 4060 }, { "epoch": 6.783333333333333, "grad_norm": 3.0764288902282715, "learning_rate": 1.2265703586186158e-05, "loss": 0.0847, "step": 4070 }, { "epoch": 6.8, "grad_norm": 44.34507751464844, "learning_rate": 1.2225209339563144e-05, "loss": 0.1783, "step": 4080 }, { "epoch": 6.816666666666666, "grad_norm": 7.701195240020752, "learning_rate": 1.2184676666831741e-05, "loss": 0.2235, "step": 4090 }, { "epoch": 6.833333333333333, "grad_norm": 22.504344940185547, "learning_rate": 1.2144106267931877e-05, "loss": 0.141, "step": 4100 }, { "epoch": 6.85, "grad_norm": 19.971139907836914, "learning_rate": 1.210349884345496e-05, "loss": 0.2359, "step": 4110 }, { "epoch": 6.866666666666667, "grad_norm": 15.64979362487793, "learning_rate": 1.2062855094631777e-05, "loss": 0.1019, "step": 4120 }, { "epoch": 6.883333333333333, "grad_norm": 18.649150848388672, "learning_rate": 1.2022175723320382e-05, "loss": 0.0806, "step": 4130 }, { "epoch": 6.9, "grad_norm": 12.660820960998535, "learning_rate": 1.1981461431993978e-05, "loss": 0.1066, "step": 4140 }, { "epoch": 6.916666666666667, "grad_norm": 27.603178024291992, "learning_rate": 1.1940712923728784e-05, "loss": 0.1701, "step": 4150 }, { "epoch": 6.933333333333334, "grad_norm": 14.351332664489746, "learning_rate": 1.1899930902191904e-05, "loss": 0.0951, "step": 4160 }, { "epoch": 6.95, "grad_norm": 0.23754386603832245, "learning_rate": 1.1859116071629148e-05, "loss": 0.1334, "step": 4170 }, { "epoch": 6.966666666666667, "grad_norm": 15.504202842712402, "learning_rate": 1.181826913685291e-05, "loss": 0.1684, "step": 4180 }, { "epoch": 6.983333333333333, "grad_norm": 3.2268130779266357, "learning_rate": 1.1777390803229964e-05, "loss": 0.1206, "step": 4190 }, { "epoch": 7.0, "grad_norm": 15.195246696472168, "learning_rate": 1.1736481776669307e-05, "loss": 0.0643, "step": 4200 }, { "epoch": 7.0, "eval_accuracy": 0.6366300366300366, "eval_loss": 1.8222845792770386, "eval_runtime": 2.4299, "eval_samples_per_second": 561.742, "eval_steps_per_second": 35.392, "step": 4200 }, { "epoch": 7.016666666666667, "grad_norm": 3.1184213161468506, "learning_rate": 1.1695542763609944e-05, "loss": 0.0434, "step": 4210 }, { "epoch": 7.033333333333333, "grad_norm": 7.201974868774414, "learning_rate": 1.1654574471008712e-05, "loss": 0.0079, "step": 4220 }, { "epoch": 7.05, "grad_norm": 3.9969992637634277, "learning_rate": 1.1613577606328068e-05, "loss": 0.113, "step": 4230 }, { "epoch": 7.066666666666666, "grad_norm": 0.36156192421913147, "learning_rate": 1.1572552877523855e-05, "loss": 0.0531, "step": 4240 }, { "epoch": 7.083333333333333, "grad_norm": 3.436892032623291, "learning_rate": 1.1531500993033094e-05, "loss": 0.0311, "step": 4250 }, { "epoch": 7.1, "grad_norm": 0.3816102147102356, "learning_rate": 1.1490422661761744e-05, "loss": 0.0684, "step": 4260 }, { "epoch": 7.116666666666666, "grad_norm": 1.731108546257019, "learning_rate": 1.1449318593072468e-05, "loss": 0.0526, "step": 4270 }, { "epoch": 7.133333333333334, "grad_norm": 42.39308547973633, "learning_rate": 1.1408189496772369e-05, "loss": 0.0688, "step": 4280 }, { "epoch": 7.15, "grad_norm": 2.614971160888672, "learning_rate": 1.1367036083100735e-05, "loss": 0.0998, "step": 4290 }, { "epoch": 7.166666666666667, "grad_norm": 0.032221995294094086, "learning_rate": 1.1325859062716795e-05, "loss": 0.0068, "step": 4300 }, { "epoch": 7.183333333333334, "grad_norm": 0.026208536699414253, "learning_rate": 1.1284659146687416e-05, "loss": 0.1411, "step": 4310 }, { "epoch": 7.2, "grad_norm": 15.706056594848633, "learning_rate": 1.1243437046474854e-05, "loss": 0.0609, "step": 4320 }, { "epoch": 7.216666666666667, "grad_norm": 43.92604064941406, "learning_rate": 1.120219347392444e-05, "loss": 0.1201, "step": 4330 }, { "epoch": 7.233333333333333, "grad_norm": 3.1085469722747803, "learning_rate": 1.1160929141252303e-05, "loss": 0.0502, "step": 4340 }, { "epoch": 7.25, "grad_norm": 0.1720058023929596, "learning_rate": 1.1119644761033079e-05, "loss": 0.0695, "step": 4350 }, { "epoch": 7.266666666666667, "grad_norm": 62.54095458984375, "learning_rate": 1.1078341046187588e-05, "loss": 0.084, "step": 4360 }, { "epoch": 7.283333333333333, "grad_norm": 0.06810988485813141, "learning_rate": 1.1037018709970528e-05, "loss": 0.0311, "step": 4370 }, { "epoch": 7.3, "grad_norm": 20.363981246948242, "learning_rate": 1.0995678465958168e-05, "loss": 0.0434, "step": 4380 }, { "epoch": 7.316666666666666, "grad_norm": 0.0323542058467865, "learning_rate": 1.0954321028036013e-05, "loss": 0.0534, "step": 4390 }, { "epoch": 7.333333333333333, "grad_norm": 0.07076967507600784, "learning_rate": 1.0912947110386484e-05, "loss": 0.0603, "step": 4400 }, { "epoch": 7.35, "grad_norm": 0.7574355006217957, "learning_rate": 1.0871557427476585e-05, "loss": 0.0859, "step": 4410 }, { "epoch": 7.366666666666666, "grad_norm": 3.641155958175659, "learning_rate": 1.0830152694045553e-05, "loss": 0.1094, "step": 4420 }, { "epoch": 7.383333333333334, "grad_norm": 0.17219914495944977, "learning_rate": 1.078873362509254e-05, "loss": 0.0779, "step": 4430 }, { "epoch": 7.4, "grad_norm": 0.03016113117337227, "learning_rate": 1.0747300935864245e-05, "loss": 0.0344, "step": 4440 }, { "epoch": 7.416666666666667, "grad_norm": 0.3405592441558838, "learning_rate": 1.0705855341842564e-05, "loss": 0.0863, "step": 4450 }, { "epoch": 7.433333333333334, "grad_norm": 0.026357417926192284, "learning_rate": 1.0664397558732245e-05, "loss": 0.0873, "step": 4460 }, { "epoch": 7.45, "grad_norm": 13.986675262451172, "learning_rate": 1.0622928302448523e-05, "loss": 0.0984, "step": 4470 }, { "epoch": 7.466666666666667, "grad_norm": 0.05464504286646843, "learning_rate": 1.0581448289104759e-05, "loss": 0.0332, "step": 4480 }, { "epoch": 7.483333333333333, "grad_norm": 43.4432373046875, "learning_rate": 1.0539958235000075e-05, "loss": 0.0659, "step": 4490 }, { "epoch": 7.5, "grad_norm": 29.609643936157227, "learning_rate": 1.0498458856606972e-05, "loss": 0.1271, "step": 4500 }, { "epoch": 7.516666666666667, "grad_norm": 0.08658182621002197, "learning_rate": 1.0456950870558982e-05, "loss": 0.0496, "step": 4510 }, { "epoch": 7.533333333333333, "grad_norm": 0.4856656789779663, "learning_rate": 1.0415434993638269e-05, "loss": 0.056, "step": 4520 }, { "epoch": 7.55, "grad_norm": 54.464481353759766, "learning_rate": 1.037391194276326e-05, "loss": 0.1164, "step": 4530 }, { "epoch": 7.566666666666666, "grad_norm": 0.028596431016921997, "learning_rate": 1.0332382434976267e-05, "loss": 0.1338, "step": 4540 }, { "epoch": 7.583333333333333, "grad_norm": 0.47550636529922485, "learning_rate": 1.0290847187431115e-05, "loss": 0.0099, "step": 4550 }, { "epoch": 7.6, "grad_norm": 0.024133695289492607, "learning_rate": 1.0249306917380731e-05, "loss": 0.0478, "step": 4560 }, { "epoch": 7.616666666666667, "grad_norm": 0.15692509710788727, "learning_rate": 1.0207762342164778e-05, "loss": 0.027, "step": 4570 }, { "epoch": 7.633333333333333, "grad_norm": 25.491106033325195, "learning_rate": 1.0166214179197265e-05, "loss": 0.0313, "step": 4580 }, { "epoch": 7.65, "grad_norm": 0.8982044458389282, "learning_rate": 1.0124663145954152e-05, "loss": 0.0284, "step": 4590 }, { "epoch": 7.666666666666667, "grad_norm": 0.4735371470451355, "learning_rate": 1.0083109959960974e-05, "loss": 0.0569, "step": 4600 }, { "epoch": 7.683333333333334, "grad_norm": 0.14562205970287323, "learning_rate": 1.0041555338780427e-05, "loss": 0.1106, "step": 4610 }, { "epoch": 7.7, "grad_norm": 36.13142013549805, "learning_rate": 1e-05, "loss": 0.0461, "step": 4620 }, { "epoch": 7.716666666666667, "grad_norm": 69.17588806152344, "learning_rate": 9.958444661219578e-06, "loss": 0.1307, "step": 4630 }, { "epoch": 7.733333333333333, "grad_norm": 23.862674713134766, "learning_rate": 9.916890040039031e-06, "loss": 0.1613, "step": 4640 }, { "epoch": 7.75, "grad_norm": 13.202719688415527, "learning_rate": 9.87533685404585e-06, "loss": 0.1349, "step": 4650 }, { "epoch": 7.766666666666667, "grad_norm": 0.12848487496376038, "learning_rate": 9.833785820802739e-06, "loss": 0.0125, "step": 4660 }, { "epoch": 7.783333333333333, "grad_norm": 0.026713097468018532, "learning_rate": 9.792237657835225e-06, "loss": 0.137, "step": 4670 }, { "epoch": 7.8, "grad_norm": 0.09598132967948914, "learning_rate": 9.750693082619274e-06, "loss": 0.0479, "step": 4680 }, { "epoch": 7.816666666666666, "grad_norm": 55.45012283325195, "learning_rate": 9.709152812568886e-06, "loss": 0.0105, "step": 4690 }, { "epoch": 7.833333333333333, "grad_norm": 1.960809588432312, "learning_rate": 9.667617565023734e-06, "loss": 0.1331, "step": 4700 }, { "epoch": 7.85, "grad_norm": 0.05195235088467598, "learning_rate": 9.626088057236745e-06, "loss": 0.0732, "step": 4710 }, { "epoch": 7.866666666666667, "grad_norm": 0.07702606171369553, "learning_rate": 9.584565006361735e-06, "loss": 0.086, "step": 4720 }, { "epoch": 7.883333333333333, "grad_norm": 62.13239669799805, "learning_rate": 9.543049129441021e-06, "loss": 0.0593, "step": 4730 }, { "epoch": 7.9, "grad_norm": 3.229891777038574, "learning_rate": 9.501541143393028e-06, "loss": 0.0753, "step": 4740 }, { "epoch": 7.916666666666667, "grad_norm": 10.668651580810547, "learning_rate": 9.460041764999929e-06, "loss": 0.1537, "step": 4750 }, { "epoch": 7.933333333333334, "grad_norm": 6.874297618865967, "learning_rate": 9.418551710895243e-06, "loss": 0.0911, "step": 4760 }, { "epoch": 7.95, "grad_norm": 0.8538333177566528, "learning_rate": 9.377071697551479e-06, "loss": 0.0291, "step": 4770 }, { "epoch": 7.966666666666667, "grad_norm": 0.22471383213996887, "learning_rate": 9.33560244126776e-06, "loss": 0.0661, "step": 4780 }, { "epoch": 7.983333333333333, "grad_norm": 1.8405463695526123, "learning_rate": 9.294144658157443e-06, "loss": 0.0653, "step": 4790 }, { "epoch": 8.0, "grad_norm": 0.3498668968677521, "learning_rate": 9.252699064135759e-06, "loss": 0.0639, "step": 4800 }, { "epoch": 8.0, "eval_accuracy": 0.6241758241758242, "eval_loss": 2.287038803100586, "eval_runtime": 2.006, "eval_samples_per_second": 680.459, "eval_steps_per_second": 42.871, "step": 4800 }, { "epoch": 8.016666666666667, "grad_norm": 12.221203804016113, "learning_rate": 9.211266374907463e-06, "loss": 0.0407, "step": 4810 }, { "epoch": 8.033333333333333, "grad_norm": 0.09653156995773315, "learning_rate": 9.169847305954448e-06, "loss": 0.0146, "step": 4820 }, { "epoch": 8.05, "grad_norm": 0.0653880164027214, "learning_rate": 9.128442572523418e-06, "loss": 0.0522, "step": 4830 }, { "epoch": 8.066666666666666, "grad_norm": 0.018451673910021782, "learning_rate": 9.087052889613519e-06, "loss": 0.0198, "step": 4840 }, { "epoch": 8.083333333333334, "grad_norm": 2.7249293327331543, "learning_rate": 9.045678971963988e-06, "loss": 0.0574, "step": 4850 }, { "epoch": 8.1, "grad_norm": 0.03191056102514267, "learning_rate": 9.004321534041836e-06, "loss": 0.0537, "step": 4860 }, { "epoch": 8.116666666666667, "grad_norm": 8.838760375976562, "learning_rate": 8.962981290029475e-06, "loss": 0.0149, "step": 4870 }, { "epoch": 8.133333333333333, "grad_norm": 11.203906059265137, "learning_rate": 8.921658953812416e-06, "loss": 0.0043, "step": 4880 }, { "epoch": 8.15, "grad_norm": 0.10002117604017258, "learning_rate": 8.880355238966923e-06, "loss": 0.0325, "step": 4890 }, { "epoch": 8.166666666666666, "grad_norm": 0.47016626596450806, "learning_rate": 8.839070858747697e-06, "loss": 0.0665, "step": 4900 }, { "epoch": 8.183333333333334, "grad_norm": 2.427482843399048, "learning_rate": 8.797806526075566e-06, "loss": 0.0488, "step": 4910 }, { "epoch": 8.2, "grad_norm": 0.014250639826059341, "learning_rate": 8.756562953525151e-06, "loss": 0.0366, "step": 4920 }, { "epoch": 8.216666666666667, "grad_norm": 1.8263099193572998, "learning_rate": 8.715340853312586e-06, "loss": 0.0301, "step": 4930 }, { "epoch": 8.233333333333333, "grad_norm": 0.20052829384803772, "learning_rate": 8.674140937283208e-06, "loss": 0.0266, "step": 4940 }, { "epoch": 8.25, "grad_norm": 0.4661940634250641, "learning_rate": 8.632963916899268e-06, "loss": 0.0016, "step": 4950 }, { "epoch": 8.266666666666667, "grad_norm": 0.3336583971977234, "learning_rate": 8.591810503227634e-06, "loss": 0.0199, "step": 4960 }, { "epoch": 8.283333333333333, "grad_norm": 3.7666029930114746, "learning_rate": 8.550681406927534e-06, "loss": 0.0372, "step": 4970 }, { "epoch": 8.3, "grad_norm": 0.23303212225437164, "learning_rate": 8.509577338238255e-06, "loss": 0.027, "step": 4980 }, { "epoch": 8.316666666666666, "grad_norm": 0.04906190559267998, "learning_rate": 8.46849900696691e-06, "loss": 0.1621, "step": 4990 }, { "epoch": 8.333333333333334, "grad_norm": 0.6690149307250977, "learning_rate": 8.427447122476148e-06, "loss": 0.0588, "step": 5000 }, { "epoch": 8.35, "grad_norm": 0.030395809561014175, "learning_rate": 8.386422393671934e-06, "loss": 0.0011, "step": 5010 }, { "epoch": 8.366666666666667, "grad_norm": 0.0137130506336689, "learning_rate": 8.34542552899129e-06, "loss": 0.0248, "step": 5020 }, { "epoch": 8.383333333333333, "grad_norm": 0.03623773530125618, "learning_rate": 8.304457236390062e-06, "loss": 0.0368, "step": 5030 }, { "epoch": 8.4, "grad_norm": 28.148099899291992, "learning_rate": 8.263518223330698e-06, "loss": 0.0481, "step": 5040 }, { "epoch": 8.416666666666666, "grad_norm": 3.5140609741210938, "learning_rate": 8.222609196770037e-06, "loss": 0.0232, "step": 5050 }, { "epoch": 8.433333333333334, "grad_norm": 15.2373685836792, "learning_rate": 8.181730863147094e-06, "loss": 0.0238, "step": 5060 }, { "epoch": 8.45, "grad_norm": 0.0257254671305418, "learning_rate": 8.140883928370855e-06, "loss": 0.0333, "step": 5070 }, { "epoch": 8.466666666666667, "grad_norm": 0.08491776883602142, "learning_rate": 8.100069097808103e-06, "loss": 0.0413, "step": 5080 }, { "epoch": 8.483333333333333, "grad_norm": 39.21556091308594, "learning_rate": 8.059287076271216e-06, "loss": 0.1001, "step": 5090 }, { "epoch": 8.5, "grad_norm": 0.017393160611391068, "learning_rate": 8.018538568006027e-06, "loss": 0.0025, "step": 5100 }, { "epoch": 8.516666666666667, "grad_norm": 16.39540672302246, "learning_rate": 7.977824276679623e-06, "loss": 0.0528, "step": 5110 }, { "epoch": 8.533333333333333, "grad_norm": 0.015073513612151146, "learning_rate": 7.937144905368226e-06, "loss": 0.1109, "step": 5120 }, { "epoch": 8.55, "grad_norm": 0.05708052217960358, "learning_rate": 7.896501156545044e-06, "loss": 0.0332, "step": 5130 }, { "epoch": 8.566666666666666, "grad_norm": 0.027908623218536377, "learning_rate": 7.855893732068124e-06, "loss": 0.0926, "step": 5140 }, { "epoch": 8.583333333333334, "grad_norm": 23.559062957763672, "learning_rate": 7.815323333168262e-06, "loss": 0.012, "step": 5150 }, { "epoch": 8.6, "grad_norm": 0.9111537933349609, "learning_rate": 7.774790660436857e-06, "loss": 0.0219, "step": 5160 }, { "epoch": 8.616666666666667, "grad_norm": 0.03302312642335892, "learning_rate": 7.734296413813847e-06, "loss": 0.0792, "step": 5170 }, { "epoch": 8.633333333333333, "grad_norm": 14.167460441589355, "learning_rate": 7.6938412925756e-06, "loss": 0.0331, "step": 5180 }, { "epoch": 8.65, "grad_norm": 0.27443990111351013, "learning_rate": 7.653425995322852e-06, "loss": 0.0517, "step": 5190 }, { "epoch": 8.666666666666666, "grad_norm": 2.8816311359405518, "learning_rate": 7.613051219968624e-06, "loss": 0.0758, "step": 5200 }, { "epoch": 8.683333333333334, "grad_norm": 0.015650594606995583, "learning_rate": 7.5727176637262034e-06, "loss": 0.0803, "step": 5210 }, { "epoch": 8.7, "grad_norm": 0.02484651654958725, "learning_rate": 7.532426023097063e-06, "loss": 0.0583, "step": 5220 }, { "epoch": 8.716666666666667, "grad_norm": 78.51082611083984, "learning_rate": 7.492176993858873e-06, "loss": 0.1146, "step": 5230 }, { "epoch": 8.733333333333333, "grad_norm": 1.1751972436904907, "learning_rate": 7.451971271053455e-06, "loss": 0.0537, "step": 5240 }, { "epoch": 8.75, "grad_norm": 2.047635793685913, "learning_rate": 7.411809548974792e-06, "loss": 0.1589, "step": 5250 }, { "epoch": 8.766666666666667, "grad_norm": 20.830856323242188, "learning_rate": 7.371692521157048e-06, "loss": 0.1046, "step": 5260 }, { "epoch": 8.783333333333333, "grad_norm": 50.50537109375, "learning_rate": 7.331620880362571e-06, "loss": 0.017, "step": 5270 }, { "epoch": 8.8, "grad_norm": 14.005181312561035, "learning_rate": 7.291595318569951e-06, "loss": 0.131, "step": 5280 }, { "epoch": 8.816666666666666, "grad_norm": 0.017126847058534622, "learning_rate": 7.2516165269620534e-06, "loss": 0.0394, "step": 5290 }, { "epoch": 8.833333333333334, "grad_norm": 11.570549964904785, "learning_rate": 7.2116851959140965e-06, "loss": 0.0167, "step": 5300 }, { "epoch": 8.85, "grad_norm": 60.751495361328125, "learning_rate": 7.171802014981726e-06, "loss": 0.1043, "step": 5310 }, { "epoch": 8.866666666666667, "grad_norm": 14.370758056640625, "learning_rate": 7.131967672889101e-06, "loss": 0.037, "step": 5320 }, { "epoch": 8.883333333333333, "grad_norm": 0.042631592601537704, "learning_rate": 7.092182857516998e-06, "loss": 0.0825, "step": 5330 }, { "epoch": 8.9, "grad_norm": 18.05477523803711, "learning_rate": 7.052448255890958e-06, "loss": 0.0753, "step": 5340 }, { "epoch": 8.916666666666666, "grad_norm": 0.08995214104652405, "learning_rate": 7.012764554169393e-06, "loss": 0.0639, "step": 5350 }, { "epoch": 8.933333333333334, "grad_norm": 0.4663775861263275, "learning_rate": 6.973132437631743e-06, "loss": 0.0017, "step": 5360 }, { "epoch": 8.95, "grad_norm": 0.013071997091174126, "learning_rate": 6.933552590666659e-06, "loss": 0.041, "step": 5370 }, { "epoch": 8.966666666666667, "grad_norm": 0.024483798071742058, "learning_rate": 6.8940256967601625e-06, "loss": 0.0705, "step": 5380 }, { "epoch": 8.983333333333333, "grad_norm": 0.05324419215321541, "learning_rate": 6.854552438483866e-06, "loss": 0.0902, "step": 5390 }, { "epoch": 9.0, "grad_norm": 0.010217195376753807, "learning_rate": 6.815133497483157e-06, "loss": 0.0161, "step": 5400 }, { "epoch": 9.0, "eval_accuracy": 0.6256410256410256, "eval_loss": 2.376491069793701, "eval_runtime": 1.984, "eval_samples_per_second": 687.989, "eval_steps_per_second": 43.346, "step": 5400 }, { "epoch": 9.016666666666667, "grad_norm": 0.04304489493370056, "learning_rate": 6.775769554465455e-06, "loss": 0.0052, "step": 5410 }, { "epoch": 9.033333333333333, "grad_norm": 0.04578486457467079, "learning_rate": 6.736461289188445e-06, "loss": 0.0161, "step": 5420 }, { "epoch": 9.05, "grad_norm": 0.020307594910264015, "learning_rate": 6.697209380448333e-06, "loss": 0.0023, "step": 5430 }, { "epoch": 9.066666666666666, "grad_norm": 0.06639733165502548, "learning_rate": 6.6580145060681255e-06, "loss": 0.0079, "step": 5440 }, { "epoch": 9.083333333333334, "grad_norm": 0.005567920859903097, "learning_rate": 6.618877342885945e-06, "loss": 0.0014, "step": 5450 }, { "epoch": 9.1, "grad_norm": 0.007131638005375862, "learning_rate": 6.579798566743314e-06, "loss": 0.0034, "step": 5460 }, { "epoch": 9.116666666666667, "grad_norm": 157.75733947753906, "learning_rate": 6.540778852473497e-06, "loss": 0.0641, "step": 5470 }, { "epoch": 9.133333333333333, "grad_norm": 0.32051143050193787, "learning_rate": 6.501818873889856e-06, "loss": 0.0628, "step": 5480 }, { "epoch": 9.15, "grad_norm": 0.012005547992885113, "learning_rate": 6.462919303774186e-06, "loss": 0.0496, "step": 5490 }, { "epoch": 9.166666666666666, "grad_norm": 0.09318733960390091, "learning_rate": 6.424080813865139e-06, "loss": 0.0184, "step": 5500 }, { "epoch": 9.183333333333334, "grad_norm": 0.03979954123497009, "learning_rate": 6.3853040748465855e-06, "loss": 0.0235, "step": 5510 }, { "epoch": 9.2, "grad_norm": 20.619905471801758, "learning_rate": 6.34658975633605e-06, "loss": 0.0842, "step": 5520 }, { "epoch": 9.216666666666667, "grad_norm": 65.93218994140625, "learning_rate": 6.3079385268731575e-06, "loss": 0.0727, "step": 5530 }, { "epoch": 9.233333333333333, "grad_norm": 4.460343837738037, "learning_rate": 6.269351053908061e-06, "loss": 0.0541, "step": 5540 }, { "epoch": 9.25, "grad_norm": 0.09803818166255951, "learning_rate": 6.230828003789949e-06, "loss": 0.0009, "step": 5550 }, { "epoch": 9.266666666666667, "grad_norm": 0.0428694486618042, "learning_rate": 6.192370041755505e-06, "loss": 0.0812, "step": 5560 }, { "epoch": 9.283333333333333, "grad_norm": 0.028728744015097618, "learning_rate": 6.153977831917451e-06, "loss": 0.0042, "step": 5570 }, { "epoch": 9.3, "grad_norm": 0.3407820761203766, "learning_rate": 6.115652037253054e-06, "loss": 0.0018, "step": 5580 }, { "epoch": 9.316666666666666, "grad_norm": 0.024533122777938843, "learning_rate": 6.077393319592697e-06, "loss": 0.0774, "step": 5590 }, { "epoch": 9.333333333333334, "grad_norm": 0.5175767540931702, "learning_rate": 6.039202339608432e-06, "loss": 0.0779, "step": 5600 }, { "epoch": 9.35, "grad_norm": 0.017414189875125885, "learning_rate": 6.001079756802592e-06, "loss": 0.0018, "step": 5610 }, { "epoch": 9.366666666666667, "grad_norm": 0.018383994698524475, "learning_rate": 5.963026229496378e-06, "loss": 0.0032, "step": 5620 }, { "epoch": 9.383333333333333, "grad_norm": 1.9100221395492554, "learning_rate": 5.925042414818514e-06, "loss": 0.0719, "step": 5630 }, { "epoch": 9.4, "grad_norm": 0.014550582505762577, "learning_rate": 5.887128968693887e-06, "loss": 0.0198, "step": 5640 }, { "epoch": 9.416666666666666, "grad_norm": 0.008884880691766739, "learning_rate": 5.849286545832211e-06, "loss": 0.0496, "step": 5650 }, { "epoch": 9.433333333333334, "grad_norm": 0.025510238483548164, "learning_rate": 5.811515799716754e-06, "loss": 0.0285, "step": 5660 }, { "epoch": 9.45, "grad_norm": 0.029813693836331367, "learning_rate": 5.773817382593008e-06, "loss": 0.0229, "step": 5670 }, { "epoch": 9.466666666666667, "grad_norm": 0.0077801719307899475, "learning_rate": 5.736191945457463e-06, "loss": 0.1094, "step": 5680 }, { "epoch": 9.483333333333333, "grad_norm": 0.21113517880439758, "learning_rate": 5.698640138046349e-06, "loss": 0.0182, "step": 5690 }, { "epoch": 9.5, "grad_norm": 0.011576608754694462, "learning_rate": 5.66116260882442e-06, "loss": 0.057, "step": 5700 }, { "epoch": 9.516666666666667, "grad_norm": 0.2033030092716217, "learning_rate": 5.623760004973749e-06, "loss": 0.0734, "step": 5710 }, { "epoch": 9.533333333333333, "grad_norm": 0.022775832563638687, "learning_rate": 5.586432972382561e-06, "loss": 0.0235, "step": 5720 }, { "epoch": 9.55, "grad_norm": 0.011610534973442554, "learning_rate": 5.549182155634076e-06, "loss": 0.0016, "step": 5730 }, { "epoch": 9.566666666666666, "grad_norm": 102.03386688232422, "learning_rate": 5.512008197995379e-06, "loss": 0.0602, "step": 5740 }, { "epoch": 9.583333333333334, "grad_norm": 13.98901081085205, "learning_rate": 5.47491174140631e-06, "loss": 0.0295, "step": 5750 }, { "epoch": 9.6, "grad_norm": 0.09368708729743958, "learning_rate": 5.43789342646837e-06, "loss": 0.0117, "step": 5760 }, { "epoch": 9.616666666666667, "grad_norm": 0.011298476718366146, "learning_rate": 5.4009538924336864e-06, "loss": 0.0007, "step": 5770 }, { "epoch": 9.633333333333333, "grad_norm": 25.619182586669922, "learning_rate": 5.364093777193944e-06, "loss": 0.0335, "step": 5780 }, { "epoch": 9.65, "grad_norm": 0.013145272620022297, "learning_rate": 5.32731371726938e-06, "loss": 0.0305, "step": 5790 }, { "epoch": 9.666666666666666, "grad_norm": 0.033255018293857574, "learning_rate": 5.290614347797802e-06, "loss": 0.0347, "step": 5800 }, { "epoch": 9.683333333333334, "grad_norm": 0.021136023104190826, "learning_rate": 5.253996302523596e-06, "loss": 0.0417, "step": 5810 }, { "epoch": 9.7, "grad_norm": 0.01828765496611595, "learning_rate": 5.217460213786822e-06, "loss": 0.0008, "step": 5820 }, { "epoch": 9.716666666666667, "grad_norm": 0.021525239571928978, "learning_rate": 5.181006712512245e-06, "loss": 0.0043, "step": 5830 }, { "epoch": 9.733333333333333, "grad_norm": 49.80839157104492, "learning_rate": 5.144636428198477e-06, "loss": 0.1559, "step": 5840 }, { "epoch": 9.75, "grad_norm": 20.633182525634766, "learning_rate": 5.108349988907111e-06, "loss": 0.0062, "step": 5850 }, { "epoch": 9.766666666666667, "grad_norm": 0.006064248271286488, "learning_rate": 5.072148021251822e-06, "loss": 0.0723, "step": 5860 }, { "epoch": 9.783333333333333, "grad_norm": 0.15177957713603973, "learning_rate": 5.036031150387624e-06, "loss": 0.0679, "step": 5870 }, { "epoch": 9.8, "grad_norm": 67.9042739868164, "learning_rate": 5.000000000000003e-06, "loss": 0.013, "step": 5880 }, { "epoch": 9.816666666666666, "grad_norm": 0.08752978593111038, "learning_rate": 4.964055192294187e-06, "loss": 0.0052, "step": 5890 }, { "epoch": 9.833333333333334, "grad_norm": 1.5333389043807983, "learning_rate": 4.92819734798441e-06, "loss": 0.0049, "step": 5900 }, { "epoch": 9.85, "grad_norm": 0.015482067130506039, "learning_rate": 4.892427086283147e-06, "loss": 0.0067, "step": 5910 }, { "epoch": 9.866666666666667, "grad_norm": 0.05730535835027695, "learning_rate": 4.856745024890466e-06, "loss": 0.0397, "step": 5920 }, { "epoch": 9.883333333333333, "grad_norm": 14.22793960571289, "learning_rate": 4.821151779983343e-06, "loss": 0.0653, "step": 5930 }, { "epoch": 9.9, "grad_norm": 0.6677501201629639, "learning_rate": 4.78564796620502e-06, "loss": 0.0014, "step": 5940 }, { "epoch": 9.916666666666666, "grad_norm": 0.007463044486939907, "learning_rate": 4.7502341966544e-06, "loss": 0.0139, "step": 5950 }, { "epoch": 9.933333333333334, "grad_norm": 0.01207564864307642, "learning_rate": 4.714911082875446e-06, "loss": 0.0171, "step": 5960 }, { "epoch": 9.95, "grad_norm": 0.21874092519283295, "learning_rate": 4.679679234846636e-06, "loss": 0.0025, "step": 5970 }, { "epoch": 9.966666666666667, "grad_norm": 0.6054325103759766, "learning_rate": 4.644539260970417e-06, "loss": 0.0825, "step": 5980 }, { "epoch": 9.983333333333333, "grad_norm": 0.026162736117839813, "learning_rate": 4.609491768062705e-06, "loss": 0.0319, "step": 5990 }, { "epoch": 10.0, "grad_norm": 0.02407621219754219, "learning_rate": 4.5745373613424075e-06, "loss": 0.0128, "step": 6000 }, { "epoch": 10.0, "eval_accuracy": 0.6366300366300366, "eval_loss": 2.5328738689422607, "eval_runtime": 1.9365, "eval_samples_per_second": 704.886, "eval_steps_per_second": 44.41, "step": 6000 }, { "epoch": 10.016666666666667, "grad_norm": 2.5848894119262695, "learning_rate": 4.539676644420966e-06, "loss": 0.0066, "step": 6010 }, { "epoch": 10.033333333333333, "grad_norm": 164.14398193359375, "learning_rate": 4.504910219291941e-06, "loss": 0.0391, "step": 6020 }, { "epoch": 10.05, "grad_norm": 0.004672689363360405, "learning_rate": 4.470238686320606e-06, "loss": 0.0425, "step": 6030 }, { "epoch": 10.066666666666666, "grad_norm": 0.015739306807518005, "learning_rate": 4.435662644233594e-06, "loss": 0.0844, "step": 6040 }, { "epoch": 10.083333333333334, "grad_norm": 0.28408434987068176, "learning_rate": 4.4011826901085346e-06, "loss": 0.0047, "step": 6050 }, { "epoch": 10.1, "grad_norm": 0.792030394077301, "learning_rate": 4.3667994193637794e-06, "loss": 0.1337, "step": 6060 }, { "epoch": 10.116666666666667, "grad_norm": 0.016146106645464897, "learning_rate": 4.3325134257480905e-06, "loss": 0.0012, "step": 6070 }, { "epoch": 10.133333333333333, "grad_norm": 0.004173349589109421, "learning_rate": 4.298325301330383e-06, "loss": 0.0915, "step": 6080 }, { "epoch": 10.15, "grad_norm": 0.3737195134162903, "learning_rate": 4.264235636489542e-06, "loss": 0.0012, "step": 6090 }, { "epoch": 10.166666666666666, "grad_norm": 0.03490012139081955, "learning_rate": 4.23024501990417e-06, "loss": 0.005, "step": 6100 }, { "epoch": 10.183333333333334, "grad_norm": 0.07963980734348297, "learning_rate": 4.196354038542476e-06, "loss": 0.0192, "step": 6110 }, { "epoch": 10.2, "grad_norm": 0.005616281647235155, "learning_rate": 4.162563277652104e-06, "loss": 0.0597, "step": 6120 }, { "epoch": 10.216666666666667, "grad_norm": 1.6034228801727295, "learning_rate": 4.128873320750027e-06, "loss": 0.0021, "step": 6130 }, { "epoch": 10.233333333333333, "grad_norm": 0.026460707187652588, "learning_rate": 4.095284749612504e-06, "loss": 0.0011, "step": 6140 }, { "epoch": 10.25, "grad_norm": 0.00982896238565445, "learning_rate": 4.061798144264986e-06, "loss": 0.0225, "step": 6150 }, { "epoch": 10.266666666666667, "grad_norm": 0.0047401911579072475, "learning_rate": 4.028414082972141e-06, "loss": 0.0125, "step": 6160 }, { "epoch": 10.283333333333333, "grad_norm": 39.154083251953125, "learning_rate": 3.995133142227843e-06, "loss": 0.0107, "step": 6170 }, { "epoch": 10.3, "grad_norm": 0.2048110067844391, "learning_rate": 3.961955896745224e-06, "loss": 0.0045, "step": 6180 }, { "epoch": 10.316666666666666, "grad_norm": 0.054925791919231415, "learning_rate": 3.928882919446767e-06, "loss": 0.0121, "step": 6190 }, { "epoch": 10.333333333333334, "grad_norm": 6.554659366607666, "learning_rate": 3.89591478145437e-06, "loss": 0.0681, "step": 6200 }, { "epoch": 10.35, "grad_norm": 0.02309197373688221, "learning_rate": 3.8630520520795275e-06, "loss": 0.0901, "step": 6210 }, { "epoch": 10.366666666666667, "grad_norm": 0.12893272936344147, "learning_rate": 3.830295298813475e-06, "loss": 0.035, "step": 6220 }, { "epoch": 10.383333333333333, "grad_norm": 0.009439480490982533, "learning_rate": 3.797645087317401e-06, "loss": 0.0081, "step": 6230 }, { "epoch": 10.4, "grad_norm": 0.009158750995993614, "learning_rate": 3.7651019814126656e-06, "loss": 0.0614, "step": 6240 }, { "epoch": 10.416666666666666, "grad_norm": 0.15298189222812653, "learning_rate": 3.7326665430710798e-06, "loss": 0.005, "step": 6250 }, { "epoch": 10.433333333333334, "grad_norm": 0.005107731092721224, "learning_rate": 3.7003393324051874e-06, "loss": 0.0331, "step": 6260 }, { "epoch": 10.45, "grad_norm": 14.306778907775879, "learning_rate": 3.6681209076586035e-06, "loss": 0.028, "step": 6270 }, { "epoch": 10.466666666666667, "grad_norm": 0.14541669189929962, "learning_rate": 3.636011825196365e-06, "loss": 0.0005, "step": 6280 }, { "epoch": 10.483333333333333, "grad_norm": 0.08900494128465652, "learning_rate": 3.6040126394953334e-06, "loss": 0.0216, "step": 6290 }, { "epoch": 10.5, "grad_norm": 2.911168336868286, "learning_rate": 3.5721239031346067e-06, "loss": 0.068, "step": 6300 }, { "epoch": 10.516666666666667, "grad_norm": 0.011473206803202629, "learning_rate": 3.540346166785994e-06, "loss": 0.046, "step": 6310 }, { "epoch": 10.533333333333333, "grad_norm": 0.013163376599550247, "learning_rate": 3.5086799792044812e-06, "loss": 0.0145, "step": 6320 }, { "epoch": 10.55, "grad_norm": 0.033820025622844696, "learning_rate": 3.4771258872187917e-06, "loss": 0.0419, "step": 6330 }, { "epoch": 10.566666666666666, "grad_norm": 0.05051262304186821, "learning_rate": 3.4456844357218977e-06, "loss": 0.0176, "step": 6340 }, { "epoch": 10.583333333333334, "grad_norm": 4.920490741729736, "learning_rate": 3.414356167661658e-06, "loss": 0.0447, "step": 6350 }, { "epoch": 10.6, "grad_norm": 0.1240825355052948, "learning_rate": 3.3831416240314085e-06, "loss": 0.0213, "step": 6360 }, { "epoch": 10.616666666666667, "grad_norm": 0.004741927608847618, "learning_rate": 3.3520413438606215e-06, "loss": 0.0198, "step": 6370 }, { "epoch": 10.633333333333333, "grad_norm": 0.7797335982322693, "learning_rate": 3.3210558642056277e-06, "loss": 0.0121, "step": 6380 }, { "epoch": 10.65, "grad_norm": 0.13754583895206451, "learning_rate": 3.290185720140301e-06, "loss": 0.0692, "step": 6390 }, { "epoch": 10.666666666666666, "grad_norm": 0.046297337859869, "learning_rate": 3.2594314447468457e-06, "loss": 0.0214, "step": 6400 }, { "epoch": 10.683333333333334, "grad_norm": 0.9988303780555725, "learning_rate": 3.228793569106594e-06, "loss": 0.0644, "step": 6410 }, { "epoch": 10.7, "grad_norm": 40.29999923706055, "learning_rate": 3.1982726222908046e-06, "loss": 0.0564, "step": 6420 }, { "epoch": 10.716666666666667, "grad_norm": 0.005441838409751654, "learning_rate": 3.1678691313515688e-06, "loss": 0.0054, "step": 6430 }, { "epoch": 10.733333333333333, "grad_norm": 0.08924850821495056, "learning_rate": 3.1375836213126653e-06, "loss": 0.0137, "step": 6440 }, { "epoch": 10.75, "grad_norm": 0.30186939239501953, "learning_rate": 3.10741661516053e-06, "loss": 0.0064, "step": 6450 }, { "epoch": 10.766666666666667, "grad_norm": 0.10808040201663971, "learning_rate": 3.077368633835205e-06, "loss": 0.0017, "step": 6460 }, { "epoch": 10.783333333333333, "grad_norm": 2.806311845779419, "learning_rate": 3.0474401962213483e-06, "loss": 0.0017, "step": 6470 }, { "epoch": 10.8, "grad_norm": 0.5742372274398804, "learning_rate": 3.017631819139273e-06, "loss": 0.0035, "step": 6480 }, { "epoch": 10.816666666666666, "grad_norm": 0.027512436732649803, "learning_rate": 2.987944017336023e-06, "loss": 0.0139, "step": 6490 }, { "epoch": 10.833333333333334, "grad_norm": 0.0474701002240181, "learning_rate": 2.958377303476483e-06, "loss": 0.0317, "step": 6500 }, { "epoch": 10.85, "grad_norm": 6.042050838470459, "learning_rate": 2.9289321881345257e-06, "loss": 0.0055, "step": 6510 }, { "epoch": 10.866666666666667, "grad_norm": 1.1392112970352173, "learning_rate": 2.8996091797841976e-06, "loss": 0.0393, "step": 6520 }, { "epoch": 10.883333333333333, "grad_norm": 0.004693117458373308, "learning_rate": 2.8704087847909333e-06, "loss": 0.0004, "step": 6530 }, { "epoch": 10.9, "grad_norm": 0.3389260470867157, "learning_rate": 2.8413315074028157e-06, "loss": 0.0193, "step": 6540 }, { "epoch": 10.916666666666666, "grad_norm": 0.12661051750183105, "learning_rate": 2.8123778497418687e-06, "loss": 0.0196, "step": 6550 }, { "epoch": 10.933333333333334, "grad_norm": 0.2787809371948242, "learning_rate": 2.783548311795379e-06, "loss": 0.0487, "step": 6560 }, { "epoch": 10.95, "grad_norm": 0.08719979971647263, "learning_rate": 2.7548433914072736e-06, "loss": 0.0553, "step": 6570 }, { "epoch": 10.966666666666667, "grad_norm": 0.03355100005865097, "learning_rate": 2.726263584269513e-06, "loss": 0.0035, "step": 6580 }, { "epoch": 10.983333333333333, "grad_norm": 0.020008157938718796, "learning_rate": 2.6978093839135365e-06, "loss": 0.0577, "step": 6590 }, { "epoch": 11.0, "grad_norm": 0.049677930772304535, "learning_rate": 2.669481281701739e-06, "loss": 0.0164, "step": 6600 }, { "epoch": 11.0, "eval_accuracy": 0.6293040293040293, "eval_loss": 2.6321825981140137, "eval_runtime": 1.9472, "eval_samples_per_second": 700.994, "eval_steps_per_second": 44.165, "step": 6600 }, { "epoch": 11.016666666666667, "grad_norm": 0.02977852337062359, "learning_rate": 2.641279766818977e-06, "loss": 0.0003, "step": 6610 }, { "epoch": 11.033333333333333, "grad_norm": 0.011167909018695354, "learning_rate": 2.6132053262641467e-06, "loss": 0.022, "step": 6620 }, { "epoch": 11.05, "grad_norm": 2.918816328048706, "learning_rate": 2.5852584448417327e-06, "loss": 0.0009, "step": 6630 }, { "epoch": 11.066666666666666, "grad_norm": 0.013001427054405212, "learning_rate": 2.5574396051534835e-06, "loss": 0.0126, "step": 6640 }, { "epoch": 11.083333333333334, "grad_norm": 3.934358596801758, "learning_rate": 2.529749287590042e-06, "loss": 0.0657, "step": 6650 }, { "epoch": 11.1, "grad_norm": 0.016156084835529327, "learning_rate": 2.502187970322657e-06, "loss": 0.093, "step": 6660 }, { "epoch": 11.116666666666667, "grad_norm": 0.10527543723583221, "learning_rate": 2.4747561292949496e-06, "loss": 0.0102, "step": 6670 }, { "epoch": 11.133333333333333, "grad_norm": 0.01703232154250145, "learning_rate": 2.447454238214654e-06, "loss": 0.0003, "step": 6680 }, { "epoch": 11.15, "grad_norm": 0.029103636741638184, "learning_rate": 2.420282768545469e-06, "loss": 0.0038, "step": 6690 }, { "epoch": 11.166666666666666, "grad_norm": 0.015173720195889473, "learning_rate": 2.3932421894989167e-06, "loss": 0.0313, "step": 6700 }, { "epoch": 11.183333333333334, "grad_norm": 0.022922033444046974, "learning_rate": 2.366332968026207e-06, "loss": 0.0466, "step": 6710 }, { "epoch": 11.2, "grad_norm": 1.8661198616027832, "learning_rate": 2.339555568810221e-06, "loss": 0.0129, "step": 6720 }, { "epoch": 11.216666666666667, "grad_norm": 0.015827415511012077, "learning_rate": 2.3129104542574433e-06, "loss": 0.0035, "step": 6730 }, { "epoch": 11.233333333333333, "grad_norm": 0.04141826927661896, "learning_rate": 2.2863980844900036e-06, "loss": 0.0393, "step": 6740 }, { "epoch": 11.25, "grad_norm": 0.008678029291331768, "learning_rate": 2.2600189173377263e-06, "loss": 0.0012, "step": 6750 }, { "epoch": 11.266666666666667, "grad_norm": 0.0064391172491014, "learning_rate": 2.2337734083302164e-06, "loss": 0.0504, "step": 6760 }, { "epoch": 11.283333333333333, "grad_norm": 0.053652215749025345, "learning_rate": 2.207662010689002e-06, "loss": 0.0005, "step": 6770 }, { "epoch": 11.3, "grad_norm": 77.94811248779297, "learning_rate": 2.1816851753197023e-06, "loss": 0.0425, "step": 6780 }, { "epoch": 11.316666666666666, "grad_norm": 0.018824616447091103, "learning_rate": 2.155843350804243e-06, "loss": 0.0014, "step": 6790 }, { "epoch": 11.333333333333334, "grad_norm": 24.755586624145508, "learning_rate": 2.130136983393112e-06, "loss": 0.0116, "step": 6800 }, { "epoch": 11.35, "grad_norm": 0.6925886869430542, "learning_rate": 2.104566516997647e-06, "loss": 0.0049, "step": 6810 }, { "epoch": 11.366666666666667, "grad_norm": 2.041292190551758, "learning_rate": 2.0791323931823783e-06, "loss": 0.0544, "step": 6820 }, { "epoch": 11.383333333333333, "grad_norm": 0.009696914814412594, "learning_rate": 2.053835051157397e-06, "loss": 0.0189, "step": 6830 }, { "epoch": 11.4, "grad_norm": 0.5942186117172241, "learning_rate": 2.0286749277707783e-06, "loss": 0.0181, "step": 6840 }, { "epoch": 11.416666666666666, "grad_norm": 0.038010694086551666, "learning_rate": 2.0036524575010176e-06, "loss": 0.1053, "step": 6850 }, { "epoch": 11.433333333333334, "grad_norm": 0.0037780546117573977, "learning_rate": 1.9787680724495617e-06, "loss": 0.0295, "step": 6860 }, { "epoch": 11.45, "grad_norm": 0.0093591483309865, "learning_rate": 1.9540222023333165e-06, "loss": 0.0004, "step": 6870 }, { "epoch": 11.466666666666667, "grad_norm": 0.36084067821502686, "learning_rate": 1.929415274477239e-06, "loss": 0.0375, "step": 6880 }, { "epoch": 11.483333333333333, "grad_norm": 0.07602624595165253, "learning_rate": 1.9049477138069606e-06, "loss": 0.0027, "step": 6890 }, { "epoch": 11.5, "grad_norm": 0.0053289649076759815, "learning_rate": 1.880619942841435e-06, "loss": 0.0003, "step": 6900 }, { "epoch": 11.516666666666667, "grad_norm": 0.06744978576898575, "learning_rate": 1.856432381685669e-06, "loss": 0.0115, "step": 6910 }, { "epoch": 11.533333333333333, "grad_norm": 0.006499492563307285, "learning_rate": 1.8323854480234348e-06, "loss": 0.0004, "step": 6920 }, { "epoch": 11.55, "grad_norm": 0.012737682089209557, "learning_rate": 1.808479557110081e-06, "loss": 0.0147, "step": 6930 }, { "epoch": 11.566666666666666, "grad_norm": 11.834685325622559, "learning_rate": 1.7847151217653624e-06, "loss": 0.0125, "step": 6940 }, { "epoch": 11.583333333333334, "grad_norm": 0.019163092598319054, "learning_rate": 1.7610925523662836e-06, "loss": 0.0538, "step": 6950 }, { "epoch": 11.6, "grad_norm": 1.9256852865219116, "learning_rate": 1.7376122568400533e-06, "loss": 0.0032, "step": 6960 }, { "epoch": 11.616666666666667, "grad_norm": 0.0039183590561151505, "learning_rate": 1.714274640657001e-06, "loss": 0.008, "step": 6970 }, { "epoch": 11.633333333333333, "grad_norm": 0.02196461521089077, "learning_rate": 1.6910801068236015e-06, "loss": 0.003, "step": 6980 }, { "epoch": 11.65, "grad_norm": 0.006805905140936375, "learning_rate": 1.6680290558755119e-06, "loss": 0.0336, "step": 6990 }, { "epoch": 11.666666666666666, "grad_norm": 0.09496167302131653, "learning_rate": 1.6451218858706374e-06, "loss": 0.0206, "step": 7000 }, { "epoch": 11.683333333333334, "grad_norm": 0.015263626351952553, "learning_rate": 1.6223589923822768e-06, "loss": 0.0382, "step": 7010 }, { "epoch": 11.7, "grad_norm": 0.005197111517190933, "learning_rate": 1.599740768492286e-06, "loss": 0.0002, "step": 7020 }, { "epoch": 11.716666666666667, "grad_norm": 0.027239451184868813, "learning_rate": 1.5772676047842862e-06, "loss": 0.0025, "step": 7030 }, { "epoch": 11.733333333333333, "grad_norm": 0.36813682317733765, "learning_rate": 1.5549398893369216e-06, "loss": 0.0017, "step": 7040 }, { "epoch": 11.75, "grad_norm": 0.006986125838011503, "learning_rate": 1.5327580077171589e-06, "loss": 0.0394, "step": 7050 }, { "epoch": 11.766666666666667, "grad_norm": 0.07977800071239471, "learning_rate": 1.5107223429736273e-06, "loss": 0.051, "step": 7060 }, { "epoch": 11.783333333333333, "grad_norm": 0.0035156458616256714, "learning_rate": 1.4888332756300027e-06, "loss": 0.0006, "step": 7070 }, { "epoch": 11.8, "grad_norm": 0.5690571069717407, "learning_rate": 1.467091183678444e-06, "loss": 0.0012, "step": 7080 }, { "epoch": 11.816666666666666, "grad_norm": 0.00904709193855524, "learning_rate": 1.4454964425730533e-06, "loss": 0.0318, "step": 7090 }, { "epoch": 11.833333333333334, "grad_norm": 0.033793073147535324, "learning_rate": 1.424049425223405e-06, "loss": 0.0013, "step": 7100 }, { "epoch": 11.85, "grad_norm": 1.5678539276123047, "learning_rate": 1.4027505019880972e-06, "loss": 0.0462, "step": 7110 }, { "epoch": 11.866666666666667, "grad_norm": 0.006125775631517172, "learning_rate": 1.3816000406683604e-06, "loss": 0.0389, "step": 7120 }, { "epoch": 11.883333333333333, "grad_norm": 0.005812865681946278, "learning_rate": 1.3605984065017074e-06, "loss": 0.0187, "step": 7130 }, { "epoch": 11.9, "grad_norm": 0.03303861618041992, "learning_rate": 1.339745962155613e-06, "loss": 0.0011, "step": 7140 }, { "epoch": 11.916666666666666, "grad_norm": 0.08446267992258072, "learning_rate": 1.3190430677212795e-06, "loss": 0.0006, "step": 7150 }, { "epoch": 11.933333333333334, "grad_norm": 77.23758697509766, "learning_rate": 1.2984900807073919e-06, "loss": 0.1209, "step": 7160 }, { "epoch": 11.95, "grad_norm": 0.011724837124347687, "learning_rate": 1.278087356033947e-06, "loss": 0.0149, "step": 7170 }, { "epoch": 11.966666666666667, "grad_norm": 0.017768416553735733, "learning_rate": 1.2578352460261456e-06, "loss": 0.0028, "step": 7180 }, { "epoch": 11.983333333333333, "grad_norm": 0.022292958572506905, "learning_rate": 1.2377341004082778e-06, "loss": 0.0003, "step": 7190 }, { "epoch": 12.0, "grad_norm": 6.165916442871094, "learning_rate": 1.2177842662977136e-06, "loss": 0.0162, "step": 7200 }, { "epoch": 12.0, "eval_accuracy": 0.6293040293040293, "eval_loss": 2.6758413314819336, "eval_runtime": 2.0091, "eval_samples_per_second": 679.41, "eval_steps_per_second": 42.805, "step": 7200 } ], "logging_steps": 10, "max_steps": 8400, "num_input_tokens_seen": 0, "num_train_epochs": 14, "save_steps": 500, "stateful_callbacks": { "EarlyStoppingCallback": { "args": { "early_stopping_patience": 9, "early_stopping_threshold": 0.0 }, "attributes": { "early_stopping_patience_counter": 9 } }, "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 3814663679096832.0, "train_batch_size": 16, "trial_name": null, "trial_params": null }