grahamaco's picture
Add trained complexity classifier
7e0ad08 verified
{
"best_metric": 0.663003663003663,
"best_model_checkpoint": "/home/grahama/workspace/experiments/complexity/model/checkpoint-1800",
"epoch": 12.0,
"eval_steps": 500,
"global_step": 7200,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.016666666666666666,
"grad_norm": 2.3482773303985596,
"learning_rate": 2.3809523809523811e-07,
"loss": 0.7019,
"step": 10
},
{
"epoch": 0.03333333333333333,
"grad_norm": 1.3639864921569824,
"learning_rate": 4.7619047619047623e-07,
"loss": 0.7018,
"step": 20
},
{
"epoch": 0.05,
"grad_norm": 2.9051921367645264,
"learning_rate": 7.142857142857143e-07,
"loss": 0.7151,
"step": 30
},
{
"epoch": 0.06666666666666667,
"grad_norm": 1.0235440731048584,
"learning_rate": 9.523809523809525e-07,
"loss": 0.7034,
"step": 40
},
{
"epoch": 0.08333333333333333,
"grad_norm": 2.771768808364868,
"learning_rate": 1.1904761904761906e-06,
"loss": 0.7006,
"step": 50
},
{
"epoch": 0.1,
"grad_norm": 1.2305303812026978,
"learning_rate": 1.4285714285714286e-06,
"loss": 0.6995,
"step": 60
},
{
"epoch": 0.11666666666666667,
"grad_norm": 2.2383503913879395,
"learning_rate": 1.6666666666666667e-06,
"loss": 0.6994,
"step": 70
},
{
"epoch": 0.13333333333333333,
"grad_norm": 1.0624160766601562,
"learning_rate": 1.904761904761905e-06,
"loss": 0.6998,
"step": 80
},
{
"epoch": 0.15,
"grad_norm": 1.2018228769302368,
"learning_rate": 2.1428571428571427e-06,
"loss": 0.6974,
"step": 90
},
{
"epoch": 0.16666666666666666,
"grad_norm": 1.0849791765213013,
"learning_rate": 2.380952380952381e-06,
"loss": 0.6875,
"step": 100
},
{
"epoch": 0.18333333333333332,
"grad_norm": 1.291517972946167,
"learning_rate": 2.6190476190476192e-06,
"loss": 0.6865,
"step": 110
},
{
"epoch": 0.2,
"grad_norm": 1.056863784790039,
"learning_rate": 2.8571428571428573e-06,
"loss": 0.6829,
"step": 120
},
{
"epoch": 0.21666666666666667,
"grad_norm": 2.968041181564331,
"learning_rate": 3.0952380952380957e-06,
"loss": 0.6696,
"step": 130
},
{
"epoch": 0.23333333333333334,
"grad_norm": 1.055704116821289,
"learning_rate": 3.3333333333333333e-06,
"loss": 0.6783,
"step": 140
},
{
"epoch": 0.25,
"grad_norm": 1.6586881875991821,
"learning_rate": 3.5714285714285718e-06,
"loss": 0.6702,
"step": 150
},
{
"epoch": 0.26666666666666666,
"grad_norm": 2.3964574337005615,
"learning_rate": 3.80952380952381e-06,
"loss": 0.709,
"step": 160
},
{
"epoch": 0.2833333333333333,
"grad_norm": 1.0744259357452393,
"learning_rate": 4.047619047619048e-06,
"loss": 0.7022,
"step": 170
},
{
"epoch": 0.3,
"grad_norm": 1.071405053138733,
"learning_rate": 4.2857142857142855e-06,
"loss": 0.6747,
"step": 180
},
{
"epoch": 0.31666666666666665,
"grad_norm": 2.1431033611297607,
"learning_rate": 4.523809523809524e-06,
"loss": 0.6623,
"step": 190
},
{
"epoch": 0.3333333333333333,
"grad_norm": 1.301439881324768,
"learning_rate": 4.761904761904762e-06,
"loss": 0.667,
"step": 200
},
{
"epoch": 0.35,
"grad_norm": 1.5243868827819824,
"learning_rate": 5e-06,
"loss": 0.6584,
"step": 210
},
{
"epoch": 0.36666666666666664,
"grad_norm": 1.2769250869750977,
"learning_rate": 5.2380952380952384e-06,
"loss": 0.6898,
"step": 220
},
{
"epoch": 0.38333333333333336,
"grad_norm": 1.274899959564209,
"learning_rate": 5.476190476190477e-06,
"loss": 0.6995,
"step": 230
},
{
"epoch": 0.4,
"grad_norm": 1.658318281173706,
"learning_rate": 5.7142857142857145e-06,
"loss": 0.6705,
"step": 240
},
{
"epoch": 0.4166666666666667,
"grad_norm": 2.4139277935028076,
"learning_rate": 5.9523809523809525e-06,
"loss": 0.6849,
"step": 250
},
{
"epoch": 0.43333333333333335,
"grad_norm": 1.5813899040222168,
"learning_rate": 6.1904761904761914e-06,
"loss": 0.6663,
"step": 260
},
{
"epoch": 0.45,
"grad_norm": 1.4048871994018555,
"learning_rate": 6.4285714285714295e-06,
"loss": 0.6542,
"step": 270
},
{
"epoch": 0.4666666666666667,
"grad_norm": 1.7416518926620483,
"learning_rate": 6.666666666666667e-06,
"loss": 0.6793,
"step": 280
},
{
"epoch": 0.48333333333333334,
"grad_norm": 1.7340086698532104,
"learning_rate": 6.9047619047619055e-06,
"loss": 0.6681,
"step": 290
},
{
"epoch": 0.5,
"grad_norm": 1.4946725368499756,
"learning_rate": 7.1428571428571436e-06,
"loss": 0.6758,
"step": 300
},
{
"epoch": 0.5166666666666667,
"grad_norm": 1.9904041290283203,
"learning_rate": 7.380952380952382e-06,
"loss": 0.6432,
"step": 310
},
{
"epoch": 0.5333333333333333,
"grad_norm": 2.4469521045684814,
"learning_rate": 7.61904761904762e-06,
"loss": 0.6688,
"step": 320
},
{
"epoch": 0.55,
"grad_norm": 2.104259967803955,
"learning_rate": 7.857142857142858e-06,
"loss": 0.6312,
"step": 330
},
{
"epoch": 0.5666666666666667,
"grad_norm": 2.125582218170166,
"learning_rate": 8.095238095238097e-06,
"loss": 0.6712,
"step": 340
},
{
"epoch": 0.5833333333333334,
"grad_norm": 1.9155024290084839,
"learning_rate": 8.333333333333334e-06,
"loss": 0.6766,
"step": 350
},
{
"epoch": 0.6,
"grad_norm": 3.6578118801116943,
"learning_rate": 8.571428571428571e-06,
"loss": 0.6561,
"step": 360
},
{
"epoch": 0.6166666666666667,
"grad_norm": 2.083104133605957,
"learning_rate": 8.80952380952381e-06,
"loss": 0.6374,
"step": 370
},
{
"epoch": 0.6333333333333333,
"grad_norm": 4.414960861206055,
"learning_rate": 9.047619047619049e-06,
"loss": 0.6512,
"step": 380
},
{
"epoch": 0.65,
"grad_norm": 2.075925588607788,
"learning_rate": 9.285714285714288e-06,
"loss": 0.6316,
"step": 390
},
{
"epoch": 0.6666666666666666,
"grad_norm": 3.132584571838379,
"learning_rate": 9.523809523809525e-06,
"loss": 0.6424,
"step": 400
},
{
"epoch": 0.6833333333333333,
"grad_norm": 2.2723052501678467,
"learning_rate": 9.761904761904762e-06,
"loss": 0.6395,
"step": 410
},
{
"epoch": 0.7,
"grad_norm": 4.37326192855835,
"learning_rate": 1e-05,
"loss": 0.6519,
"step": 420
},
{
"epoch": 0.7166666666666667,
"grad_norm": 3.2006280422210693,
"learning_rate": 1.0238095238095238e-05,
"loss": 0.6429,
"step": 430
},
{
"epoch": 0.7333333333333333,
"grad_norm": 3.0944504737854004,
"learning_rate": 1.0476190476190477e-05,
"loss": 0.6756,
"step": 440
},
{
"epoch": 0.75,
"grad_norm": 5.158036708831787,
"learning_rate": 1.0714285714285714e-05,
"loss": 0.6863,
"step": 450
},
{
"epoch": 0.7666666666666667,
"grad_norm": 3.744805335998535,
"learning_rate": 1.0952380952380955e-05,
"loss": 0.6826,
"step": 460
},
{
"epoch": 0.7833333333333333,
"grad_norm": 2.350935220718384,
"learning_rate": 1.1190476190476192e-05,
"loss": 0.6465,
"step": 470
},
{
"epoch": 0.8,
"grad_norm": 2.391106367111206,
"learning_rate": 1.1428571428571429e-05,
"loss": 0.6494,
"step": 480
},
{
"epoch": 0.8166666666666667,
"grad_norm": 2.6871049404144287,
"learning_rate": 1.1666666666666668e-05,
"loss": 0.614,
"step": 490
},
{
"epoch": 0.8333333333333334,
"grad_norm": 2.496380567550659,
"learning_rate": 1.1904761904761905e-05,
"loss": 0.639,
"step": 500
},
{
"epoch": 0.85,
"grad_norm": 3.1409785747528076,
"learning_rate": 1.2142857142857142e-05,
"loss": 0.6906,
"step": 510
},
{
"epoch": 0.8666666666666667,
"grad_norm": 2.4331531524658203,
"learning_rate": 1.2380952380952383e-05,
"loss": 0.5914,
"step": 520
},
{
"epoch": 0.8833333333333333,
"grad_norm": 2.956902265548706,
"learning_rate": 1.261904761904762e-05,
"loss": 0.7081,
"step": 530
},
{
"epoch": 0.9,
"grad_norm": 2.1885573863983154,
"learning_rate": 1.2857142857142859e-05,
"loss": 0.6466,
"step": 540
},
{
"epoch": 0.9166666666666666,
"grad_norm": 2.6431517601013184,
"learning_rate": 1.3095238095238096e-05,
"loss": 0.6631,
"step": 550
},
{
"epoch": 0.9333333333333333,
"grad_norm": 2.1615426540374756,
"learning_rate": 1.3333333333333333e-05,
"loss": 0.6735,
"step": 560
},
{
"epoch": 0.95,
"grad_norm": 2.0207862854003906,
"learning_rate": 1.3571428571428574e-05,
"loss": 0.6325,
"step": 570
},
{
"epoch": 0.9666666666666667,
"grad_norm": 2.8899736404418945,
"learning_rate": 1.3809523809523811e-05,
"loss": 0.6519,
"step": 580
},
{
"epoch": 0.9833333333333333,
"grad_norm": 2.453443765640259,
"learning_rate": 1.4047619047619048e-05,
"loss": 0.6532,
"step": 590
},
{
"epoch": 1.0,
"grad_norm": 3.556234121322632,
"learning_rate": 1.4285714285714287e-05,
"loss": 0.5941,
"step": 600
},
{
"epoch": 1.0,
"eval_accuracy": 0.6461538461538462,
"eval_loss": 0.6432204246520996,
"eval_runtime": 4.8353,
"eval_samples_per_second": 282.297,
"eval_steps_per_second": 17.786,
"step": 600
},
{
"epoch": 1.0166666666666666,
"grad_norm": 2.244147539138794,
"learning_rate": 1.4523809523809524e-05,
"loss": 0.6154,
"step": 610
},
{
"epoch": 1.0333333333333334,
"grad_norm": 2.3262217044830322,
"learning_rate": 1.4761904761904763e-05,
"loss": 0.5981,
"step": 620
},
{
"epoch": 1.05,
"grad_norm": 2.543795347213745,
"learning_rate": 1.5000000000000002e-05,
"loss": 0.6061,
"step": 630
},
{
"epoch": 1.0666666666666667,
"grad_norm": 3.5577542781829834,
"learning_rate": 1.523809523809524e-05,
"loss": 0.6432,
"step": 640
},
{
"epoch": 1.0833333333333333,
"grad_norm": 3.3030037879943848,
"learning_rate": 1.5476190476190476e-05,
"loss": 0.5663,
"step": 650
},
{
"epoch": 1.1,
"grad_norm": 2.2861194610595703,
"learning_rate": 1.5714285714285715e-05,
"loss": 0.6242,
"step": 660
},
{
"epoch": 1.1166666666666667,
"grad_norm": 3.9813036918640137,
"learning_rate": 1.5952380952380954e-05,
"loss": 0.6192,
"step": 670
},
{
"epoch": 1.1333333333333333,
"grad_norm": 5.103733062744141,
"learning_rate": 1.6190476190476193e-05,
"loss": 0.6288,
"step": 680
},
{
"epoch": 1.15,
"grad_norm": 4.313375949859619,
"learning_rate": 1.642857142857143e-05,
"loss": 0.5938,
"step": 690
},
{
"epoch": 1.1666666666666667,
"grad_norm": 3.633436918258667,
"learning_rate": 1.6666666666666667e-05,
"loss": 0.6003,
"step": 700
},
{
"epoch": 1.1833333333333333,
"grad_norm": 3.060312509536743,
"learning_rate": 1.6904761904761906e-05,
"loss": 0.6214,
"step": 710
},
{
"epoch": 1.2,
"grad_norm": 3.6623165607452393,
"learning_rate": 1.7142857142857142e-05,
"loss": 0.6283,
"step": 720
},
{
"epoch": 1.2166666666666668,
"grad_norm": 2.556682586669922,
"learning_rate": 1.7380952380952384e-05,
"loss": 0.603,
"step": 730
},
{
"epoch": 1.2333333333333334,
"grad_norm": 3.2409424781799316,
"learning_rate": 1.761904761904762e-05,
"loss": 0.6463,
"step": 740
},
{
"epoch": 1.25,
"grad_norm": 3.6875534057617188,
"learning_rate": 1.785714285714286e-05,
"loss": 0.5864,
"step": 750
},
{
"epoch": 1.2666666666666666,
"grad_norm": 2.9428772926330566,
"learning_rate": 1.8095238095238097e-05,
"loss": 0.6349,
"step": 760
},
{
"epoch": 1.2833333333333332,
"grad_norm": 2.926853656768799,
"learning_rate": 1.8333333333333333e-05,
"loss": 0.6658,
"step": 770
},
{
"epoch": 1.3,
"grad_norm": 3.1792550086975098,
"learning_rate": 1.8571428571428575e-05,
"loss": 0.6263,
"step": 780
},
{
"epoch": 1.3166666666666667,
"grad_norm": 2.887868642807007,
"learning_rate": 1.880952380952381e-05,
"loss": 0.5737,
"step": 790
},
{
"epoch": 1.3333333333333333,
"grad_norm": 3.9215023517608643,
"learning_rate": 1.904761904761905e-05,
"loss": 0.5895,
"step": 800
},
{
"epoch": 1.35,
"grad_norm": 3.228184938430786,
"learning_rate": 1.928571428571429e-05,
"loss": 0.675,
"step": 810
},
{
"epoch": 1.3666666666666667,
"grad_norm": 2.5528361797332764,
"learning_rate": 1.9523809523809524e-05,
"loss": 0.612,
"step": 820
},
{
"epoch": 1.3833333333333333,
"grad_norm": 3.355010509490967,
"learning_rate": 1.9761904761904763e-05,
"loss": 0.6137,
"step": 830
},
{
"epoch": 1.4,
"grad_norm": 5.365524768829346,
"learning_rate": 2e-05,
"loss": 0.6278,
"step": 840
},
{
"epoch": 1.4166666666666667,
"grad_norm": 2.9840915203094482,
"learning_rate": 1.999991365731819e-05,
"loss": 0.6106,
"step": 850
},
{
"epoch": 1.4333333333333333,
"grad_norm": 3.0227549076080322,
"learning_rate": 1.999965463076377e-05,
"loss": 0.6136,
"step": 860
},
{
"epoch": 1.45,
"grad_norm": 4.935601711273193,
"learning_rate": 1.999922292480975e-05,
"loss": 0.6194,
"step": 870
},
{
"epoch": 1.4666666666666668,
"grad_norm": 2.947390556335449,
"learning_rate": 1.999861854691106e-05,
"loss": 0.6737,
"step": 880
},
{
"epoch": 1.4833333333333334,
"grad_norm": 3.2077040672302246,
"learning_rate": 1.999784150750442e-05,
"loss": 0.5906,
"step": 890
},
{
"epoch": 1.5,
"grad_norm": 2.1263020038604736,
"learning_rate": 1.9996891820008165e-05,
"loss": 0.6731,
"step": 900
},
{
"epoch": 1.5166666666666666,
"grad_norm": 3.1736927032470703,
"learning_rate": 1.9995769500822007e-05,
"loss": 0.5658,
"step": 910
},
{
"epoch": 1.5333333333333332,
"grad_norm": 3.766897201538086,
"learning_rate": 1.999447456932676e-05,
"loss": 0.6082,
"step": 920
},
{
"epoch": 1.55,
"grad_norm": 7.309018135070801,
"learning_rate": 1.9993007047883988e-05,
"loss": 0.5453,
"step": 930
},
{
"epoch": 1.5666666666666667,
"grad_norm": 6.418699264526367,
"learning_rate": 1.9991366961835643e-05,
"loss": 0.6428,
"step": 940
},
{
"epoch": 1.5833333333333335,
"grad_norm": 2.967588424682617,
"learning_rate": 1.9989554339503612e-05,
"loss": 0.6075,
"step": 950
},
{
"epoch": 1.6,
"grad_norm": 3.2338814735412598,
"learning_rate": 1.9987569212189224e-05,
"loss": 0.6513,
"step": 960
},
{
"epoch": 1.6166666666666667,
"grad_norm": 2.6137988567352295,
"learning_rate": 1.9985411614172728e-05,
"loss": 0.6457,
"step": 970
},
{
"epoch": 1.6333333333333333,
"grad_norm": 2.2644853591918945,
"learning_rate": 1.9983081582712684e-05,
"loss": 0.6146,
"step": 980
},
{
"epoch": 1.65,
"grad_norm": 3.580810785293579,
"learning_rate": 1.9980579158045322e-05,
"loss": 0.6434,
"step": 990
},
{
"epoch": 1.6666666666666665,
"grad_norm": 3.8415021896362305,
"learning_rate": 1.997790438338385e-05,
"loss": 0.6149,
"step": 1000
},
{
"epoch": 1.6833333333333333,
"grad_norm": 3.2889180183410645,
"learning_rate": 1.997505730491772e-05,
"loss": 0.6029,
"step": 1010
},
{
"epoch": 1.7,
"grad_norm": 3.0964486598968506,
"learning_rate": 1.9972037971811802e-05,
"loss": 0.6128,
"step": 1020
},
{
"epoch": 1.7166666666666668,
"grad_norm": 3.3787407875061035,
"learning_rate": 1.9968846436205566e-05,
"loss": 0.6478,
"step": 1030
},
{
"epoch": 1.7333333333333334,
"grad_norm": 3.098156452178955,
"learning_rate": 1.9965482753212154e-05,
"loss": 0.617,
"step": 1040
},
{
"epoch": 1.75,
"grad_norm": 3.4448206424713135,
"learning_rate": 1.9961946980917457e-05,
"loss": 0.6047,
"step": 1050
},
{
"epoch": 1.7666666666666666,
"grad_norm": 2.8418798446655273,
"learning_rate": 1.995823918037908e-05,
"loss": 0.6228,
"step": 1060
},
{
"epoch": 1.7833333333333332,
"grad_norm": 2.9955010414123535,
"learning_rate": 1.9954359415625313e-05,
"loss": 0.6033,
"step": 1070
},
{
"epoch": 1.8,
"grad_norm": 3.4788753986358643,
"learning_rate": 1.9950307753654016e-05,
"loss": 0.5801,
"step": 1080
},
{
"epoch": 1.8166666666666667,
"grad_norm": 2.713418483734131,
"learning_rate": 1.994608426443146e-05,
"loss": 0.5789,
"step": 1090
},
{
"epoch": 1.8333333333333335,
"grad_norm": 3.982531785964966,
"learning_rate": 1.994168902089112e-05,
"loss": 0.6497,
"step": 1100
},
{
"epoch": 1.85,
"grad_norm": 2.0478599071502686,
"learning_rate": 1.9937122098932428e-05,
"loss": 0.6031,
"step": 1110
},
{
"epoch": 1.8666666666666667,
"grad_norm": 5.567689418792725,
"learning_rate": 1.9932383577419432e-05,
"loss": 0.6487,
"step": 1120
},
{
"epoch": 1.8833333333333333,
"grad_norm": 2.5129470825195312,
"learning_rate": 1.9927473538179467e-05,
"loss": 0.5877,
"step": 1130
},
{
"epoch": 1.9,
"grad_norm": 2.4075396060943604,
"learning_rate": 1.9922392066001724e-05,
"loss": 0.6478,
"step": 1140
},
{
"epoch": 1.9166666666666665,
"grad_norm": 3.643559217453003,
"learning_rate": 1.9917139248635788e-05,
"loss": 0.625,
"step": 1150
},
{
"epoch": 1.9333333333333333,
"grad_norm": 3.3517959117889404,
"learning_rate": 1.991171517679013e-05,
"loss": 0.6502,
"step": 1160
},
{
"epoch": 1.95,
"grad_norm": 2.3340976238250732,
"learning_rate": 1.9906119944130527e-05,
"loss": 0.6354,
"step": 1170
},
{
"epoch": 1.9666666666666668,
"grad_norm": 2.662628173828125,
"learning_rate": 1.9900353647278466e-05,
"loss": 0.6282,
"step": 1180
},
{
"epoch": 1.9833333333333334,
"grad_norm": 3.3780112266540527,
"learning_rate": 1.9894416385809444e-05,
"loss": 0.6428,
"step": 1190
},
{
"epoch": 2.0,
"grad_norm": 1.9971626996994019,
"learning_rate": 1.9888308262251286e-05,
"loss": 0.6028,
"step": 1200
},
{
"epoch": 2.0,
"eval_accuracy": 0.6571428571428571,
"eval_loss": 0.6266757845878601,
"eval_runtime": 1.9428,
"eval_samples_per_second": 702.601,
"eval_steps_per_second": 44.266,
"step": 1200
},
{
"epoch": 2.0166666666666666,
"grad_norm": 2.3505845069885254,
"learning_rate": 1.9882029382082342e-05,
"loss": 0.5231,
"step": 1210
},
{
"epoch": 2.033333333333333,
"grad_norm": 3.543018102645874,
"learning_rate": 1.9875579853729677e-05,
"loss": 0.6002,
"step": 1220
},
{
"epoch": 2.05,
"grad_norm": 2.687847852706909,
"learning_rate": 1.9868959788567213e-05,
"loss": 0.5469,
"step": 1230
},
{
"epoch": 2.066666666666667,
"grad_norm": 4.663837909698486,
"learning_rate": 1.9862169300913784e-05,
"loss": 0.5582,
"step": 1240
},
{
"epoch": 2.0833333333333335,
"grad_norm": 4.063023090362549,
"learning_rate": 1.9855208508031173e-05,
"loss": 0.549,
"step": 1250
},
{
"epoch": 2.1,
"grad_norm": 5.092895984649658,
"learning_rate": 1.9848077530122083e-05,
"loss": 0.607,
"step": 1260
},
{
"epoch": 2.1166666666666667,
"grad_norm": 3.7984111309051514,
"learning_rate": 1.9840776490328067e-05,
"loss": 0.592,
"step": 1270
},
{
"epoch": 2.1333333333333333,
"grad_norm": 3.775224447250366,
"learning_rate": 1.9833305514727396e-05,
"loss": 0.5196,
"step": 1280
},
{
"epoch": 2.15,
"grad_norm": 5.623272895812988,
"learning_rate": 1.9825664732332886e-05,
"loss": 0.5283,
"step": 1290
},
{
"epoch": 2.1666666666666665,
"grad_norm": 4.856538772583008,
"learning_rate": 1.981785427508966e-05,
"loss": 0.518,
"step": 1300
},
{
"epoch": 2.183333333333333,
"grad_norm": 5.726941108703613,
"learning_rate": 1.9809874277872886e-05,
"loss": 0.5532,
"step": 1310
},
{
"epoch": 2.2,
"grad_norm": 5.120604515075684,
"learning_rate": 1.9801724878485438e-05,
"loss": 0.5172,
"step": 1320
},
{
"epoch": 2.216666666666667,
"grad_norm": 7.325108051300049,
"learning_rate": 1.9793406217655516e-05,
"loss": 0.5383,
"step": 1330
},
{
"epoch": 2.2333333333333334,
"grad_norm": 5.705660820007324,
"learning_rate": 1.9784918439034216e-05,
"loss": 0.4953,
"step": 1340
},
{
"epoch": 2.25,
"grad_norm": 6.060757637023926,
"learning_rate": 1.977626168919305e-05,
"loss": 0.5214,
"step": 1350
},
{
"epoch": 2.2666666666666666,
"grad_norm": 3.8743319511413574,
"learning_rate": 1.9767436117621416e-05,
"loss": 0.5362,
"step": 1360
},
{
"epoch": 2.283333333333333,
"grad_norm": 4.374029636383057,
"learning_rate": 1.975844187672402e-05,
"loss": 0.5604,
"step": 1370
},
{
"epoch": 2.3,
"grad_norm": 6.106194019317627,
"learning_rate": 1.9749279121818235e-05,
"loss": 0.5306,
"step": 1380
},
{
"epoch": 2.3166666666666664,
"grad_norm": 5.56414270401001,
"learning_rate": 1.9739948011131438e-05,
"loss": 0.5369,
"step": 1390
},
{
"epoch": 2.3333333333333335,
"grad_norm": 3.9365651607513428,
"learning_rate": 1.973044870579824e-05,
"loss": 0.526,
"step": 1400
},
{
"epoch": 2.35,
"grad_norm": 4.8061394691467285,
"learning_rate": 1.9720781369857747e-05,
"loss": 0.5264,
"step": 1410
},
{
"epoch": 2.3666666666666667,
"grad_norm": 5.648602485656738,
"learning_rate": 1.9710946170250702e-05,
"loss": 0.5488,
"step": 1420
},
{
"epoch": 2.3833333333333333,
"grad_norm": 4.482698917388916,
"learning_rate": 1.9700943276816602e-05,
"loss": 0.5014,
"step": 1430
},
{
"epoch": 2.4,
"grad_norm": 5.18354606628418,
"learning_rate": 1.969077286229078e-05,
"loss": 0.5383,
"step": 1440
},
{
"epoch": 2.4166666666666665,
"grad_norm": 5.076839923858643,
"learning_rate": 1.9680435102301412e-05,
"loss": 0.5387,
"step": 1450
},
{
"epoch": 2.4333333333333336,
"grad_norm": 5.83772611618042,
"learning_rate": 1.9669930175366474e-05,
"loss": 0.4779,
"step": 1460
},
{
"epoch": 2.45,
"grad_norm": 5.16604471206665,
"learning_rate": 1.9659258262890683e-05,
"loss": 0.5521,
"step": 1470
},
{
"epoch": 2.466666666666667,
"grad_norm": 4.944518089294434,
"learning_rate": 1.964841954916235e-05,
"loss": 0.4844,
"step": 1480
},
{
"epoch": 2.4833333333333334,
"grad_norm": 6.394619941711426,
"learning_rate": 1.9637414221350198e-05,
"loss": 0.567,
"step": 1490
},
{
"epoch": 2.5,
"grad_norm": 5.958597183227539,
"learning_rate": 1.962624246950012e-05,
"loss": 0.4951,
"step": 1500
},
{
"epoch": 2.5166666666666666,
"grad_norm": 4.636740207672119,
"learning_rate": 1.9614904486531935e-05,
"loss": 0.5123,
"step": 1510
},
{
"epoch": 2.533333333333333,
"grad_norm": 4.756173610687256,
"learning_rate": 1.9603400468236e-05,
"loss": 0.58,
"step": 1520
},
{
"epoch": 2.55,
"grad_norm": 3.969093084335327,
"learning_rate": 1.9591730613269878e-05,
"loss": 0.5517,
"step": 1530
},
{
"epoch": 2.5666666666666664,
"grad_norm": 4.5238237380981445,
"learning_rate": 1.957989512315489e-05,
"loss": 0.5167,
"step": 1540
},
{
"epoch": 2.5833333333333335,
"grad_norm": 5.810571670532227,
"learning_rate": 1.9567894202272623e-05,
"loss": 0.4826,
"step": 1550
},
{
"epoch": 2.6,
"grad_norm": 4.773239612579346,
"learning_rate": 1.955572805786141e-05,
"loss": 0.5443,
"step": 1560
},
{
"epoch": 2.6166666666666667,
"grad_norm": 4.351752281188965,
"learning_rate": 1.9543396900012763e-05,
"loss": 0.526,
"step": 1570
},
{
"epoch": 2.6333333333333333,
"grad_norm": 5.192873954772949,
"learning_rate": 1.9530900941667733e-05,
"loss": 0.5179,
"step": 1580
},
{
"epoch": 2.65,
"grad_norm": 5.123302936553955,
"learning_rate": 1.9518240398613226e-05,
"loss": 0.528,
"step": 1590
},
{
"epoch": 2.6666666666666665,
"grad_norm": 4.081309795379639,
"learning_rate": 1.9505415489478293e-05,
"loss": 0.592,
"step": 1600
},
{
"epoch": 2.6833333333333336,
"grad_norm": 6.409515857696533,
"learning_rate": 1.949242643573034e-05,
"loss": 0.5388,
"step": 1610
},
{
"epoch": 2.7,
"grad_norm": 5.410388469696045,
"learning_rate": 1.947927346167132e-05,
"loss": 0.5233,
"step": 1620
},
{
"epoch": 2.716666666666667,
"grad_norm": 3.5235464572906494,
"learning_rate": 1.9465956794433837e-05,
"loss": 0.5285,
"step": 1630
},
{
"epoch": 2.7333333333333334,
"grad_norm": 5.431538105010986,
"learning_rate": 1.945247666397725e-05,
"loss": 0.4719,
"step": 1640
},
{
"epoch": 2.75,
"grad_norm": 6.913374900817871,
"learning_rate": 1.9438833303083677e-05,
"loss": 0.4603,
"step": 1650
},
{
"epoch": 2.7666666666666666,
"grad_norm": 6.34077262878418,
"learning_rate": 1.9425026947353994e-05,
"loss": 0.5288,
"step": 1660
},
{
"epoch": 2.783333333333333,
"grad_norm": 4.550387382507324,
"learning_rate": 1.9411057835203756e-05,
"loss": 0.4983,
"step": 1670
},
{
"epoch": 2.8,
"grad_norm": 4.740011692047119,
"learning_rate": 1.9396926207859085e-05,
"loss": 0.4939,
"step": 1680
},
{
"epoch": 2.8166666666666664,
"grad_norm": 5.84373664855957,
"learning_rate": 1.9382632309352503e-05,
"loss": 0.5498,
"step": 1690
},
{
"epoch": 2.8333333333333335,
"grad_norm": 4.3570027351379395,
"learning_rate": 1.936817638651871e-05,
"loss": 0.4716,
"step": 1700
},
{
"epoch": 2.85,
"grad_norm": 5.5916666984558105,
"learning_rate": 1.935355868899034e-05,
"loss": 0.5037,
"step": 1710
},
{
"epoch": 2.8666666666666667,
"grad_norm": 4.379909038543701,
"learning_rate": 1.9338779469193638e-05,
"loss": 0.5789,
"step": 1720
},
{
"epoch": 2.8833333333333333,
"grad_norm": 5.084365367889404,
"learning_rate": 1.9323838982344092e-05,
"loss": 0.5584,
"step": 1730
},
{
"epoch": 2.9,
"grad_norm": 6.741174221038818,
"learning_rate": 1.9308737486442045e-05,
"loss": 0.5089,
"step": 1740
},
{
"epoch": 2.9166666666666665,
"grad_norm": 6.0026469230651855,
"learning_rate": 1.9293475242268224e-05,
"loss": 0.4928,
"step": 1750
},
{
"epoch": 2.9333333333333336,
"grad_norm": 6.163332939147949,
"learning_rate": 1.9278052513379256e-05,
"loss": 0.5397,
"step": 1760
},
{
"epoch": 2.95,
"grad_norm": 5.151211738586426,
"learning_rate": 1.926246956610309e-05,
"loss": 0.5085,
"step": 1770
},
{
"epoch": 2.966666666666667,
"grad_norm": 5.902535915374756,
"learning_rate": 1.9246726669534416e-05,
"loss": 0.5619,
"step": 1780
},
{
"epoch": 2.9833333333333334,
"grad_norm": 4.26236629486084,
"learning_rate": 1.923082409553002e-05,
"loss": 0.4873,
"step": 1790
},
{
"epoch": 3.0,
"grad_norm": 9.270946502685547,
"learning_rate": 1.921476211870408e-05,
"loss": 0.5346,
"step": 1800
},
{
"epoch": 3.0,
"eval_accuracy": 0.663003663003663,
"eval_loss": 0.6800894737243652,
"eval_runtime": 2.0234,
"eval_samples_per_second": 674.621,
"eval_steps_per_second": 42.504,
"step": 1800
},
{
"epoch": 3.0166666666666666,
"grad_norm": 8.520913124084473,
"learning_rate": 1.919854101642342e-05,
"loss": 0.4134,
"step": 1810
},
{
"epoch": 3.033333333333333,
"grad_norm": 5.5546875,
"learning_rate": 1.9182161068802742e-05,
"loss": 0.3542,
"step": 1820
},
{
"epoch": 3.05,
"grad_norm": 7.717833518981934,
"learning_rate": 1.9165622558699763e-05,
"loss": 0.4404,
"step": 1830
},
{
"epoch": 3.066666666666667,
"grad_norm": 11.350333213806152,
"learning_rate": 1.9148925771710347e-05,
"loss": 0.3732,
"step": 1840
},
{
"epoch": 3.0833333333333335,
"grad_norm": 6.214349269866943,
"learning_rate": 1.913207099616357e-05,
"loss": 0.3868,
"step": 1850
},
{
"epoch": 3.1,
"grad_norm": 5.783053874969482,
"learning_rate": 1.9115058523116734e-05,
"loss": 0.344,
"step": 1860
},
{
"epoch": 3.1166666666666667,
"grad_norm": 7.447259902954102,
"learning_rate": 1.9097888646350347e-05,
"loss": 0.4027,
"step": 1870
},
{
"epoch": 3.1333333333333333,
"grad_norm": 6.286544322967529,
"learning_rate": 1.908056166236305e-05,
"loss": 0.4391,
"step": 1880
},
{
"epoch": 3.15,
"grad_norm": 9.073515892028809,
"learning_rate": 1.9063077870366504e-05,
"loss": 0.3945,
"step": 1890
},
{
"epoch": 3.1666666666666665,
"grad_norm": 6.541659355163574,
"learning_rate": 1.9045437572280193e-05,
"loss": 0.3617,
"step": 1900
},
{
"epoch": 3.183333333333333,
"grad_norm": 7.9517693519592285,
"learning_rate": 1.902764107272626e-05,
"loss": 0.4313,
"step": 1910
},
{
"epoch": 3.2,
"grad_norm": 7.137308597564697,
"learning_rate": 1.900968867902419e-05,
"loss": 0.3241,
"step": 1920
},
{
"epoch": 3.216666666666667,
"grad_norm": 6.320766925811768,
"learning_rate": 1.8991580701185564e-05,
"loss": 0.37,
"step": 1930
},
{
"epoch": 3.2333333333333334,
"grad_norm": 6.064675331115723,
"learning_rate": 1.8973317451908642e-05,
"loss": 0.2816,
"step": 1940
},
{
"epoch": 3.25,
"grad_norm": 10.319533348083496,
"learning_rate": 1.895489924657301e-05,
"loss": 0.3939,
"step": 1950
},
{
"epoch": 3.2666666666666666,
"grad_norm": 7.237499237060547,
"learning_rate": 1.8936326403234125e-05,
"loss": 0.3757,
"step": 1960
},
{
"epoch": 3.283333333333333,
"grad_norm": 6.379919528961182,
"learning_rate": 1.8917599242617796e-05,
"loss": 0.3589,
"step": 1970
},
{
"epoch": 3.3,
"grad_norm": 10.484453201293945,
"learning_rate": 1.8898718088114688e-05,
"loss": 0.3744,
"step": 1980
},
{
"epoch": 3.3166666666666664,
"grad_norm": 12.126269340515137,
"learning_rate": 1.8879683265774695e-05,
"loss": 0.4276,
"step": 1990
},
{
"epoch": 3.3333333333333335,
"grad_norm": 9.69861125946045,
"learning_rate": 1.8860495104301346e-05,
"loss": 0.3777,
"step": 2000
},
{
"epoch": 3.35,
"grad_norm": 4.834460258483887,
"learning_rate": 1.8841153935046098e-05,
"loss": 0.3158,
"step": 2010
},
{
"epoch": 3.3666666666666667,
"grad_norm": 6.695274829864502,
"learning_rate": 1.8821660092002642e-05,
"loss": 0.3942,
"step": 2020
},
{
"epoch": 3.3833333333333333,
"grad_norm": 10.60463809967041,
"learning_rate": 1.880201391180111e-05,
"loss": 0.301,
"step": 2030
},
{
"epoch": 3.4,
"grad_norm": 5.748558044433594,
"learning_rate": 1.8782215733702286e-05,
"loss": 0.3826,
"step": 2040
},
{
"epoch": 3.4166666666666665,
"grad_norm": 6.971687316894531,
"learning_rate": 1.8762265899591724e-05,
"loss": 0.3766,
"step": 2050
},
{
"epoch": 3.4333333333333336,
"grad_norm": 10.618817329406738,
"learning_rate": 1.874216475397386e-05,
"loss": 0.3522,
"step": 2060
},
{
"epoch": 3.45,
"grad_norm": 8.329767227172852,
"learning_rate": 1.8721912643966055e-05,
"loss": 0.342,
"step": 2070
},
{
"epoch": 3.466666666666667,
"grad_norm": 9.268407821655273,
"learning_rate": 1.870150991929261e-05,
"loss": 0.2877,
"step": 2080
},
{
"epoch": 3.4833333333333334,
"grad_norm": 6.828186511993408,
"learning_rate": 1.868095693227872e-05,
"loss": 0.3706,
"step": 2090
},
{
"epoch": 3.5,
"grad_norm": 11.919193267822266,
"learning_rate": 1.866025403784439e-05,
"loss": 0.3724,
"step": 2100
},
{
"epoch": 3.5166666666666666,
"grad_norm": 14.13306713104248,
"learning_rate": 1.86394015934983e-05,
"loss": 0.3663,
"step": 2110
},
{
"epoch": 3.533333333333333,
"grad_norm": 7.187041759490967,
"learning_rate": 1.8618399959331642e-05,
"loss": 0.3007,
"step": 2120
},
{
"epoch": 3.55,
"grad_norm": 15.558795928955078,
"learning_rate": 1.8597249498011906e-05,
"loss": 0.3907,
"step": 2130
},
{
"epoch": 3.5666666666666664,
"grad_norm": 11.272549629211426,
"learning_rate": 1.8575950574776595e-05,
"loss": 0.4012,
"step": 2140
},
{
"epoch": 3.5833333333333335,
"grad_norm": 15.731003761291504,
"learning_rate": 1.855450355742695e-05,
"loss": 0.4231,
"step": 2150
},
{
"epoch": 3.6,
"grad_norm": 7.192224502563477,
"learning_rate": 1.8532908816321557e-05,
"loss": 0.3396,
"step": 2160
},
{
"epoch": 3.6166666666666667,
"grad_norm": 8.559320449829102,
"learning_rate": 1.8511166724369997e-05,
"loss": 0.319,
"step": 2170
},
{
"epoch": 3.6333333333333333,
"grad_norm": 9.286134719848633,
"learning_rate": 1.8489277657026377e-05,
"loss": 0.3728,
"step": 2180
},
{
"epoch": 3.65,
"grad_norm": 7.382202625274658,
"learning_rate": 1.8467241992282842e-05,
"loss": 0.3955,
"step": 2190
},
{
"epoch": 3.6666666666666665,
"grad_norm": 11.097570419311523,
"learning_rate": 1.844506011066308e-05,
"loss": 0.373,
"step": 2200
},
{
"epoch": 3.6833333333333336,
"grad_norm": 10.186798095703125,
"learning_rate": 1.8422732395215717e-05,
"loss": 0.458,
"step": 2210
},
{
"epoch": 3.7,
"grad_norm": 9.413180351257324,
"learning_rate": 1.8400259231507716e-05,
"loss": 0.3728,
"step": 2220
},
{
"epoch": 3.716666666666667,
"grad_norm": 8.126789093017578,
"learning_rate": 1.8377641007617724e-05,
"loss": 0.3829,
"step": 2230
},
{
"epoch": 3.7333333333333334,
"grad_norm": 9.19456672668457,
"learning_rate": 1.8354878114129368e-05,
"loss": 0.321,
"step": 2240
},
{
"epoch": 3.75,
"grad_norm": 17.7072811126709,
"learning_rate": 1.833197094412449e-05,
"loss": 0.3729,
"step": 2250
},
{
"epoch": 3.7666666666666666,
"grad_norm": 9.825091361999512,
"learning_rate": 1.8308919893176397e-05,
"loss": 0.3191,
"step": 2260
},
{
"epoch": 3.783333333333333,
"grad_norm": 11.167253494262695,
"learning_rate": 1.8285725359343e-05,
"loss": 0.4161,
"step": 2270
},
{
"epoch": 3.8,
"grad_norm": 9.785726547241211,
"learning_rate": 1.826238774315995e-05,
"loss": 0.3167,
"step": 2280
},
{
"epoch": 3.8166666666666664,
"grad_norm": 6.7009758949279785,
"learning_rate": 1.8238907447633716e-05,
"loss": 0.3276,
"step": 2290
},
{
"epoch": 3.8333333333333335,
"grad_norm": 10.958868980407715,
"learning_rate": 1.8215284878234644e-05,
"loss": 0.2454,
"step": 2300
},
{
"epoch": 3.85,
"grad_norm": 18.93035125732422,
"learning_rate": 1.819152044288992e-05,
"loss": 0.3836,
"step": 2310
},
{
"epoch": 3.8666666666666667,
"grad_norm": 11.231881141662598,
"learning_rate": 1.816761455197657e-05,
"loss": 0.3491,
"step": 2320
},
{
"epoch": 3.8833333333333333,
"grad_norm": 7.044066429138184,
"learning_rate": 1.8143567618314336e-05,
"loss": 0.3129,
"step": 2330
},
{
"epoch": 3.9,
"grad_norm": 7.4137492179870605,
"learning_rate": 1.811938005715857e-05,
"loss": 0.3848,
"step": 2340
},
{
"epoch": 3.9166666666666665,
"grad_norm": 3.7917087078094482,
"learning_rate": 1.8095052286193044e-05,
"loss": 0.2613,
"step": 2350
},
{
"epoch": 3.9333333333333336,
"grad_norm": 7.329050064086914,
"learning_rate": 1.8070584725522763e-05,
"loss": 0.2839,
"step": 2360
},
{
"epoch": 3.95,
"grad_norm": 8.250350952148438,
"learning_rate": 1.8045977797666685e-05,
"loss": 0.426,
"step": 2370
},
{
"epoch": 3.966666666666667,
"grad_norm": 13.169599533081055,
"learning_rate": 1.802123192755044e-05,
"loss": 0.371,
"step": 2380
},
{
"epoch": 3.9833333333333334,
"grad_norm": 5.934089660644531,
"learning_rate": 1.7996347542498983e-05,
"loss": 0.3463,
"step": 2390
},
{
"epoch": 4.0,
"grad_norm": 5.9008307456970215,
"learning_rate": 1.7971325072229227e-05,
"loss": 0.2974,
"step": 2400
},
{
"epoch": 4.0,
"eval_accuracy": 0.6446886446886447,
"eval_loss": 0.8408761024475098,
"eval_runtime": 1.9227,
"eval_samples_per_second": 709.925,
"eval_steps_per_second": 44.728,
"step": 2400
},
{
"epoch": 4.016666666666667,
"grad_norm": 6.800796031951904,
"learning_rate": 1.7946164948842604e-05,
"loss": 0.1916,
"step": 2410
},
{
"epoch": 4.033333333333333,
"grad_norm": 11.187984466552734,
"learning_rate": 1.7920867606817625e-05,
"loss": 0.1926,
"step": 2420
},
{
"epoch": 4.05,
"grad_norm": 8.755463600158691,
"learning_rate": 1.7895433483002356e-05,
"loss": 0.1996,
"step": 2430
},
{
"epoch": 4.066666666666666,
"grad_norm": 10.346768379211426,
"learning_rate": 1.7869863016606893e-05,
"loss": 0.1962,
"step": 2440
},
{
"epoch": 4.083333333333333,
"grad_norm": 8.716865539550781,
"learning_rate": 1.784415664919576e-05,
"loss": 0.2325,
"step": 2450
},
{
"epoch": 4.1,
"grad_norm": 24.440990447998047,
"learning_rate": 1.78183148246803e-05,
"loss": 0.1739,
"step": 2460
},
{
"epoch": 4.116666666666666,
"grad_norm": 8.765872955322266,
"learning_rate": 1.7792337989311e-05,
"loss": 0.2363,
"step": 2470
},
{
"epoch": 4.133333333333334,
"grad_norm": 15.551268577575684,
"learning_rate": 1.7766226591669787e-05,
"loss": 0.2068,
"step": 2480
},
{
"epoch": 4.15,
"grad_norm": 14.396734237670898,
"learning_rate": 1.7739981082662275e-05,
"loss": 0.161,
"step": 2490
},
{
"epoch": 4.166666666666667,
"grad_norm": 5.329517364501953,
"learning_rate": 1.771360191551e-05,
"loss": 0.2353,
"step": 2500
},
{
"epoch": 4.183333333333334,
"grad_norm": 10.50860595703125,
"learning_rate": 1.768708954574256e-05,
"loss": 0.2031,
"step": 2510
},
{
"epoch": 4.2,
"grad_norm": 21.69150733947754,
"learning_rate": 1.766044443118978e-05,
"loss": 0.255,
"step": 2520
},
{
"epoch": 4.216666666666667,
"grad_norm": 9.158199310302734,
"learning_rate": 1.7633667031973793e-05,
"loss": 0.2332,
"step": 2530
},
{
"epoch": 4.233333333333333,
"grad_norm": 8.26563549041748,
"learning_rate": 1.760675781050109e-05,
"loss": 0.2283,
"step": 2540
},
{
"epoch": 4.25,
"grad_norm": 6.22615385055542,
"learning_rate": 1.757971723145453e-05,
"loss": 0.1477,
"step": 2550
},
{
"epoch": 4.266666666666667,
"grad_norm": 12.131237030029297,
"learning_rate": 1.755254576178535e-05,
"loss": 0.2278,
"step": 2560
},
{
"epoch": 4.283333333333333,
"grad_norm": 5.079014301300049,
"learning_rate": 1.7525243870705052e-05,
"loss": 0.3017,
"step": 2570
},
{
"epoch": 4.3,
"grad_norm": 6.722441673278809,
"learning_rate": 1.7497812029677344e-05,
"loss": 0.1893,
"step": 2580
},
{
"epoch": 4.316666666666666,
"grad_norm": 19.649364471435547,
"learning_rate": 1.7470250712409963e-05,
"loss": 0.2215,
"step": 2590
},
{
"epoch": 4.333333333333333,
"grad_norm": 16.80063819885254,
"learning_rate": 1.7442560394846518e-05,
"loss": 0.2135,
"step": 2600
},
{
"epoch": 4.35,
"grad_norm": 4.162881374359131,
"learning_rate": 1.741474155515827e-05,
"loss": 0.1982,
"step": 2610
},
{
"epoch": 4.366666666666666,
"grad_norm": 9.364086151123047,
"learning_rate": 1.738679467373586e-05,
"loss": 0.1148,
"step": 2620
},
{
"epoch": 4.383333333333334,
"grad_norm": 8.457878112792969,
"learning_rate": 1.7358720233181023e-05,
"loss": 0.2432,
"step": 2630
},
{
"epoch": 4.4,
"grad_norm": 18.436786651611328,
"learning_rate": 1.7330518718298263e-05,
"loss": 0.1917,
"step": 2640
},
{
"epoch": 4.416666666666667,
"grad_norm": 11.05576229095459,
"learning_rate": 1.7302190616086464e-05,
"loss": 0.2301,
"step": 2650
},
{
"epoch": 4.433333333333334,
"grad_norm": 14.231767654418945,
"learning_rate": 1.7273736415730488e-05,
"loss": 0.1694,
"step": 2660
},
{
"epoch": 4.45,
"grad_norm": 4.897223472595215,
"learning_rate": 1.7245156608592727e-05,
"loss": 0.2034,
"step": 2670
},
{
"epoch": 4.466666666666667,
"grad_norm": 18.942005157470703,
"learning_rate": 1.7216451688204623e-05,
"loss": 0.2294,
"step": 2680
},
{
"epoch": 4.483333333333333,
"grad_norm": 28.590120315551758,
"learning_rate": 1.718762215025813e-05,
"loss": 0.21,
"step": 2690
},
{
"epoch": 4.5,
"grad_norm": 9.035322189331055,
"learning_rate": 1.7158668492597186e-05,
"loss": 0.1367,
"step": 2700
},
{
"epoch": 4.516666666666667,
"grad_norm": 8.326066017150879,
"learning_rate": 1.712959121520907e-05,
"loss": 0.2171,
"step": 2710
},
{
"epoch": 4.533333333333333,
"grad_norm": 18.64793586730957,
"learning_rate": 1.7100390820215805e-05,
"loss": 0.203,
"step": 2720
},
{
"epoch": 4.55,
"grad_norm": 6.613404750823975,
"learning_rate": 1.7071067811865477e-05,
"loss": 0.2896,
"step": 2730
},
{
"epoch": 4.566666666666666,
"grad_norm": 2.993422031402588,
"learning_rate": 1.704162269652352e-05,
"loss": 0.2196,
"step": 2740
},
{
"epoch": 4.583333333333333,
"grad_norm": 8.488532066345215,
"learning_rate": 1.701205598266398e-05,
"loss": 0.1421,
"step": 2750
},
{
"epoch": 4.6,
"grad_norm": 5.658782005310059,
"learning_rate": 1.698236818086073e-05,
"loss": 0.2469,
"step": 2760
},
{
"epoch": 4.616666666666667,
"grad_norm": 14.441184043884277,
"learning_rate": 1.6952559803778656e-05,
"loss": 0.1689,
"step": 2770
},
{
"epoch": 4.633333333333333,
"grad_norm": 10.702966690063477,
"learning_rate": 1.6922631366164795e-05,
"loss": 0.2721,
"step": 2780
},
{
"epoch": 4.65,
"grad_norm": 13.82749080657959,
"learning_rate": 1.689258338483947e-05,
"loss": 0.2687,
"step": 2790
},
{
"epoch": 4.666666666666667,
"grad_norm": 22.718114852905273,
"learning_rate": 1.686241637868734e-05,
"loss": 0.2094,
"step": 2800
},
{
"epoch": 4.683333333333334,
"grad_norm": 23.70955467224121,
"learning_rate": 1.683213086864843e-05,
"loss": 0.2468,
"step": 2810
},
{
"epoch": 4.7,
"grad_norm": 14.313791275024414,
"learning_rate": 1.6801727377709195e-05,
"loss": 0.3572,
"step": 2820
},
{
"epoch": 4.716666666666667,
"grad_norm": 1.280615210533142,
"learning_rate": 1.6771206430893408e-05,
"loss": 0.1585,
"step": 2830
},
{
"epoch": 4.733333333333333,
"grad_norm": 18.38262367248535,
"learning_rate": 1.6740568555253153e-05,
"loss": 0.1866,
"step": 2840
},
{
"epoch": 4.75,
"grad_norm": 13.082511901855469,
"learning_rate": 1.67098142798597e-05,
"loss": 0.2372,
"step": 2850
},
{
"epoch": 4.766666666666667,
"grad_norm": 6.905370712280273,
"learning_rate": 1.6678944135794375e-05,
"loss": 0.2246,
"step": 2860
},
{
"epoch": 4.783333333333333,
"grad_norm": 5.4606122970581055,
"learning_rate": 1.6647958656139377e-05,
"loss": 0.2433,
"step": 2870
},
{
"epoch": 4.8,
"grad_norm": 17.865739822387695,
"learning_rate": 1.6616858375968596e-05,
"loss": 0.2549,
"step": 2880
},
{
"epoch": 4.816666666666666,
"grad_norm": 41.44401550292969,
"learning_rate": 1.6585643832338342e-05,
"loss": 0.2584,
"step": 2890
},
{
"epoch": 4.833333333333333,
"grad_norm": 15.979497909545898,
"learning_rate": 1.6554315564278102e-05,
"loss": 0.2374,
"step": 2900
},
{
"epoch": 4.85,
"grad_norm": 8.889433860778809,
"learning_rate": 1.6522874112781213e-05,
"loss": 0.3334,
"step": 2910
},
{
"epoch": 4.866666666666667,
"grad_norm": 10.734085083007812,
"learning_rate": 1.649132002079552e-05,
"loss": 0.1694,
"step": 2920
},
{
"epoch": 4.883333333333333,
"grad_norm": 7.850935935974121,
"learning_rate": 1.645965383321401e-05,
"loss": 0.1457,
"step": 2930
},
{
"epoch": 4.9,
"grad_norm": 6.674160480499268,
"learning_rate": 1.6427876096865394e-05,
"loss": 0.2299,
"step": 2940
},
{
"epoch": 4.916666666666667,
"grad_norm": 24.8321590423584,
"learning_rate": 1.6395987360504667e-05,
"loss": 0.2227,
"step": 2950
},
{
"epoch": 4.933333333333334,
"grad_norm": 21.398326873779297,
"learning_rate": 1.6363988174803638e-05,
"loss": 0.2475,
"step": 2960
},
{
"epoch": 4.95,
"grad_norm": 12.976921081542969,
"learning_rate": 1.6331879092341402e-05,
"loss": 0.1802,
"step": 2970
},
{
"epoch": 4.966666666666667,
"grad_norm": 14.042061805725098,
"learning_rate": 1.6299660667594814e-05,
"loss": 0.2516,
"step": 2980
},
{
"epoch": 4.983333333333333,
"grad_norm": 21.662731170654297,
"learning_rate": 1.626733345692892e-05,
"loss": 0.3282,
"step": 2990
},
{
"epoch": 5.0,
"grad_norm": 17.608373641967773,
"learning_rate": 1.6234898018587336e-05,
"loss": 0.2124,
"step": 3000
},
{
"epoch": 5.0,
"eval_accuracy": 0.6293040293040293,
"eval_loss": 1.200034737586975,
"eval_runtime": 1.9884,
"eval_samples_per_second": 686.487,
"eval_steps_per_second": 43.251,
"step": 3000
},
{
"epoch": 5.016666666666667,
"grad_norm": 1.0147602558135986,
"learning_rate": 1.6202354912682602e-05,
"loss": 0.0847,
"step": 3010
},
{
"epoch": 5.033333333333333,
"grad_norm": 20.401517868041992,
"learning_rate": 1.6169704701186528e-05,
"loss": 0.1415,
"step": 3020
},
{
"epoch": 5.05,
"grad_norm": 1.022953987121582,
"learning_rate": 1.6136947947920477e-05,
"loss": 0.1371,
"step": 3030
},
{
"epoch": 5.066666666666666,
"grad_norm": 10.270929336547852,
"learning_rate": 1.6104085218545633e-05,
"loss": 0.1774,
"step": 3040
},
{
"epoch": 5.083333333333333,
"grad_norm": 8.564648628234863,
"learning_rate": 1.6071117080553236e-05,
"loss": 0.131,
"step": 3050
},
{
"epoch": 5.1,
"grad_norm": 4.6336669921875,
"learning_rate": 1.6038044103254775e-05,
"loss": 0.0821,
"step": 3060
},
{
"epoch": 5.116666666666666,
"grad_norm": 5.73518180847168,
"learning_rate": 1.600486685777216e-05,
"loss": 0.0531,
"step": 3070
},
{
"epoch": 5.133333333333334,
"grad_norm": 24.018949508666992,
"learning_rate": 1.5971585917027864e-05,
"loss": 0.1445,
"step": 3080
},
{
"epoch": 5.15,
"grad_norm": 2.413054943084717,
"learning_rate": 1.5938201855735017e-05,
"loss": 0.1126,
"step": 3090
},
{
"epoch": 5.166666666666667,
"grad_norm": 16.5898380279541,
"learning_rate": 1.5904715250387498e-05,
"loss": 0.1097,
"step": 3100
},
{
"epoch": 5.183333333333334,
"grad_norm": 21.17631721496582,
"learning_rate": 1.5871126679249977e-05,
"loss": 0.1689,
"step": 3110
},
{
"epoch": 5.2,
"grad_norm": 15.361016273498535,
"learning_rate": 1.5837436722347902e-05,
"loss": 0.1159,
"step": 3120
},
{
"epoch": 5.216666666666667,
"grad_norm": 37.31953811645508,
"learning_rate": 1.5803645961457522e-05,
"loss": 0.1664,
"step": 3130
},
{
"epoch": 5.233333333333333,
"grad_norm": 1.088923692703247,
"learning_rate": 1.576975498009583e-05,
"loss": 0.1183,
"step": 3140
},
{
"epoch": 5.25,
"grad_norm": 33.75508499145508,
"learning_rate": 1.573576436351046e-05,
"loss": 0.1523,
"step": 3150
},
{
"epoch": 5.266666666666667,
"grad_norm": 8.551312446594238,
"learning_rate": 1.570167469866962e-05,
"loss": 0.1255,
"step": 3160
},
{
"epoch": 5.283333333333333,
"grad_norm": 23.379915237426758,
"learning_rate": 1.5667486574251916e-05,
"loss": 0.1269,
"step": 3170
},
{
"epoch": 5.3,
"grad_norm": 25.599714279174805,
"learning_rate": 1.563320058063622e-05,
"loss": 0.1512,
"step": 3180
},
{
"epoch": 5.316666666666666,
"grad_norm": 1.7940479516983032,
"learning_rate": 1.5598817309891466e-05,
"loss": 0.0789,
"step": 3190
},
{
"epoch": 5.333333333333333,
"grad_norm": 20.735576629638672,
"learning_rate": 1.5564337355766412e-05,
"loss": 0.1547,
"step": 3200
},
{
"epoch": 5.35,
"grad_norm": 19.863126754760742,
"learning_rate": 1.5529761313679396e-05,
"loss": 0.1903,
"step": 3210
},
{
"epoch": 5.366666666666666,
"grad_norm": 19.80723762512207,
"learning_rate": 1.5495089780708062e-05,
"loss": 0.1854,
"step": 3220
},
{
"epoch": 5.383333333333334,
"grad_norm": 28.49349021911621,
"learning_rate": 1.5460323355579035e-05,
"loss": 0.1848,
"step": 3230
},
{
"epoch": 5.4,
"grad_norm": 27.559804916381836,
"learning_rate": 1.5425462638657597e-05,
"loss": 0.1439,
"step": 3240
},
{
"epoch": 5.416666666666667,
"grad_norm": 0.3180895745754242,
"learning_rate": 1.53905082319373e-05,
"loss": 0.0273,
"step": 3250
},
{
"epoch": 5.433333333333334,
"grad_norm": 2.8709073066711426,
"learning_rate": 1.5355460739029585e-05,
"loss": 0.2483,
"step": 3260
},
{
"epoch": 5.45,
"grad_norm": 0.46991926431655884,
"learning_rate": 1.5320320765153367e-05,
"loss": 0.0698,
"step": 3270
},
{
"epoch": 5.466666666666667,
"grad_norm": 0.3897984027862549,
"learning_rate": 1.5285088917124555e-05,
"loss": 0.2807,
"step": 3280
},
{
"epoch": 5.483333333333333,
"grad_norm": 0.5438683032989502,
"learning_rate": 1.5249765803345602e-05,
"loss": 0.179,
"step": 3290
},
{
"epoch": 5.5,
"grad_norm": 27.689308166503906,
"learning_rate": 1.5214352033794981e-05,
"loss": 0.0847,
"step": 3300
},
{
"epoch": 5.516666666666667,
"grad_norm": 28.62678337097168,
"learning_rate": 1.517884822001666e-05,
"loss": 0.2363,
"step": 3310
},
{
"epoch": 5.533333333333333,
"grad_norm": 23.103588104248047,
"learning_rate": 1.5143254975109538e-05,
"loss": 0.1293,
"step": 3320
},
{
"epoch": 5.55,
"grad_norm": 0.12534061074256897,
"learning_rate": 1.5107572913716859e-05,
"loss": 0.0927,
"step": 3330
},
{
"epoch": 5.566666666666666,
"grad_norm": 0.5081673264503479,
"learning_rate": 1.5071802652015592e-05,
"loss": 0.122,
"step": 3340
},
{
"epoch": 5.583333333333333,
"grad_norm": 16.712963104248047,
"learning_rate": 1.503594480770581e-05,
"loss": 0.2284,
"step": 3350
},
{
"epoch": 5.6,
"grad_norm": 15.965821266174316,
"learning_rate": 1.5000000000000002e-05,
"loss": 0.1329,
"step": 3360
},
{
"epoch": 5.616666666666667,
"grad_norm": 25.123790740966797,
"learning_rate": 1.496396884961238e-05,
"loss": 0.1604,
"step": 3370
},
{
"epoch": 5.633333333333333,
"grad_norm": 1.8998332023620605,
"learning_rate": 1.4927851978748177e-05,
"loss": 0.0968,
"step": 3380
},
{
"epoch": 5.65,
"grad_norm": 24.31692123413086,
"learning_rate": 1.4891650011092896e-05,
"loss": 0.1516,
"step": 3390
},
{
"epoch": 5.666666666666667,
"grad_norm": 5.178999423980713,
"learning_rate": 1.4855363571801523e-05,
"loss": 0.1714,
"step": 3400
},
{
"epoch": 5.683333333333334,
"grad_norm": 29.019245147705078,
"learning_rate": 1.481899328748776e-05,
"loss": 0.2386,
"step": 3410
},
{
"epoch": 5.7,
"grad_norm": 6.961763381958008,
"learning_rate": 1.4782539786213184e-05,
"loss": 0.1293,
"step": 3420
},
{
"epoch": 5.716666666666667,
"grad_norm": 33.04340744018555,
"learning_rate": 1.4746003697476406e-05,
"loss": 0.2424,
"step": 3430
},
{
"epoch": 5.733333333333333,
"grad_norm": 23.46949577331543,
"learning_rate": 1.4709385652202204e-05,
"loss": 0.1184,
"step": 3440
},
{
"epoch": 5.75,
"grad_norm": 8.250195503234863,
"learning_rate": 1.4672686282730622e-05,
"loss": 0.0839,
"step": 3450
},
{
"epoch": 5.766666666666667,
"grad_norm": 0.5260627865791321,
"learning_rate": 1.4635906222806058e-05,
"loss": 0.1391,
"step": 3460
},
{
"epoch": 5.783333333333333,
"grad_norm": 0.3091002404689789,
"learning_rate": 1.4599046107566314e-05,
"loss": 0.2284,
"step": 3470
},
{
"epoch": 5.8,
"grad_norm": 25.41762924194336,
"learning_rate": 1.4562106573531632e-05,
"loss": 0.2418,
"step": 3480
},
{
"epoch": 5.816666666666666,
"grad_norm": 8.183185577392578,
"learning_rate": 1.4525088258593695e-05,
"loss": 0.2818,
"step": 3490
},
{
"epoch": 5.833333333333333,
"grad_norm": 8.167861938476562,
"learning_rate": 1.4487991802004625e-05,
"loss": 0.2096,
"step": 3500
},
{
"epoch": 5.85,
"grad_norm": 1.1373860836029053,
"learning_rate": 1.4450817844365924e-05,
"loss": 0.1648,
"step": 3510
},
{
"epoch": 5.866666666666667,
"grad_norm": 18.7924861907959,
"learning_rate": 1.4413567027617442e-05,
"loss": 0.1077,
"step": 3520
},
{
"epoch": 5.883333333333333,
"grad_norm": 43.12092971801758,
"learning_rate": 1.4376239995026254e-05,
"loss": 0.1099,
"step": 3530
},
{
"epoch": 5.9,
"grad_norm": 36.30341720581055,
"learning_rate": 1.4338837391175582e-05,
"loss": 0.0979,
"step": 3540
},
{
"epoch": 5.916666666666667,
"grad_norm": 9.352974891662598,
"learning_rate": 1.4301359861953652e-05,
"loss": 0.1578,
"step": 3550
},
{
"epoch": 5.933333333333334,
"grad_norm": 3.1973745822906494,
"learning_rate": 1.4263808054542541e-05,
"loss": 0.1587,
"step": 3560
},
{
"epoch": 5.95,
"grad_norm": 20.190561294555664,
"learning_rate": 1.4226182617406996e-05,
"loss": 0.1586,
"step": 3570
},
{
"epoch": 5.966666666666667,
"grad_norm": 24.63654327392578,
"learning_rate": 1.418848420028325e-05,
"loss": 0.0922,
"step": 3580
},
{
"epoch": 5.983333333333333,
"grad_norm": 27.1915225982666,
"learning_rate": 1.4150713454167788e-05,
"loss": 0.2448,
"step": 3590
},
{
"epoch": 6.0,
"grad_norm": 2.4420948028564453,
"learning_rate": 1.4112871031306118e-05,
"loss": 0.1722,
"step": 3600
},
{
"epoch": 6.0,
"eval_accuracy": 0.6336996336996337,
"eval_loss": 1.5674309730529785,
"eval_runtime": 1.9561,
"eval_samples_per_second": 697.811,
"eval_steps_per_second": 43.965,
"step": 3600
},
{
"epoch": 6.016666666666667,
"grad_norm": 2.7956202030181885,
"learning_rate": 1.4074957585181488e-05,
"loss": 0.0886,
"step": 3610
},
{
"epoch": 6.033333333333333,
"grad_norm": 0.37907764315605164,
"learning_rate": 1.4036973770503623e-05,
"loss": 0.0597,
"step": 3620
},
{
"epoch": 6.05,
"grad_norm": 5.614625930786133,
"learning_rate": 1.3998920243197408e-05,
"loss": 0.0832,
"step": 3630
},
{
"epoch": 6.066666666666666,
"grad_norm": 0.19984441995620728,
"learning_rate": 1.396079766039157e-05,
"loss": 0.0445,
"step": 3640
},
{
"epoch": 6.083333333333333,
"grad_norm": 3.4363865852355957,
"learning_rate": 1.3922606680407307e-05,
"loss": 0.0436,
"step": 3650
},
{
"epoch": 6.1,
"grad_norm": 10.151202201843262,
"learning_rate": 1.3884347962746949e-05,
"loss": 0.0801,
"step": 3660
},
{
"epoch": 6.116666666666666,
"grad_norm": 4.335551738739014,
"learning_rate": 1.3846022168082553e-05,
"loss": 0.2556,
"step": 3670
},
{
"epoch": 6.133333333333334,
"grad_norm": 32.38202667236328,
"learning_rate": 1.3807629958244498e-05,
"loss": 0.0734,
"step": 3680
},
{
"epoch": 6.15,
"grad_norm": 0.9993119835853577,
"learning_rate": 1.3769171996210053e-05,
"loss": 0.0508,
"step": 3690
},
{
"epoch": 6.166666666666667,
"grad_norm": 14.930900573730469,
"learning_rate": 1.373064894609194e-05,
"loss": 0.1259,
"step": 3700
},
{
"epoch": 6.183333333333334,
"grad_norm": 0.06836142390966415,
"learning_rate": 1.3692061473126845e-05,
"loss": 0.1129,
"step": 3710
},
{
"epoch": 6.2,
"grad_norm": 36.90699005126953,
"learning_rate": 1.3653410243663953e-05,
"loss": 0.0942,
"step": 3720
},
{
"epoch": 6.216666666666667,
"grad_norm": 1.2870429754257202,
"learning_rate": 1.361469592515342e-05,
"loss": 0.0856,
"step": 3730
},
{
"epoch": 6.233333333333333,
"grad_norm": 21.09489631652832,
"learning_rate": 1.3575919186134862e-05,
"loss": 0.1176,
"step": 3740
},
{
"epoch": 6.25,
"grad_norm": 19.593664169311523,
"learning_rate": 1.3537080696225815e-05,
"loss": 0.0861,
"step": 3750
},
{
"epoch": 6.266666666666667,
"grad_norm": 5.173015594482422,
"learning_rate": 1.349818112611015e-05,
"loss": 0.1912,
"step": 3760
},
{
"epoch": 6.283333333333333,
"grad_norm": 0.2996021509170532,
"learning_rate": 1.3459221147526504e-05,
"loss": 0.0818,
"step": 3770
},
{
"epoch": 6.3,
"grad_norm": 27.303770065307617,
"learning_rate": 1.342020143325669e-05,
"loss": 0.0249,
"step": 3780
},
{
"epoch": 6.316666666666666,
"grad_norm": 0.49486374855041504,
"learning_rate": 1.3381122657114059e-05,
"loss": 0.0622,
"step": 3790
},
{
"epoch": 6.333333333333333,
"grad_norm": 2.8161256313323975,
"learning_rate": 1.3341985493931877e-05,
"loss": 0.2356,
"step": 3800
},
{
"epoch": 6.35,
"grad_norm": 0.050575144588947296,
"learning_rate": 1.3302790619551673e-05,
"loss": 0.0724,
"step": 3810
},
{
"epoch": 6.366666666666666,
"grad_norm": 0.10276170074939728,
"learning_rate": 1.3263538710811559e-05,
"loss": 0.0366,
"step": 3820
},
{
"epoch": 6.383333333333334,
"grad_norm": 44.04489517211914,
"learning_rate": 1.3224230445534544e-05,
"loss": 0.1344,
"step": 3830
},
{
"epoch": 6.4,
"grad_norm": 14.379541397094727,
"learning_rate": 1.3184866502516846e-05,
"loss": 0.1865,
"step": 3840
},
{
"epoch": 6.416666666666667,
"grad_norm": 0.12741892039775848,
"learning_rate": 1.3145447561516138e-05,
"loss": 0.0663,
"step": 3850
},
{
"epoch": 6.433333333333334,
"grad_norm": 3.2561116218566895,
"learning_rate": 1.3105974303239838e-05,
"loss": 0.1107,
"step": 3860
},
{
"epoch": 6.45,
"grad_norm": 2.7047250270843506,
"learning_rate": 1.3066447409333345e-05,
"loss": 0.0871,
"step": 3870
},
{
"epoch": 6.466666666666667,
"grad_norm": 22.090036392211914,
"learning_rate": 1.3026867562368262e-05,
"loss": 0.0339,
"step": 3880
},
{
"epoch": 6.483333333333333,
"grad_norm": 16.041553497314453,
"learning_rate": 1.2987235445830612e-05,
"loss": 0.1337,
"step": 3890
},
{
"epoch": 6.5,
"grad_norm": 15.934035301208496,
"learning_rate": 1.2947551744109044e-05,
"loss": 0.0988,
"step": 3900
},
{
"epoch": 6.516666666666667,
"grad_norm": 0.12512661516666412,
"learning_rate": 1.2907817142483002e-05,
"loss": 0.0507,
"step": 3910
},
{
"epoch": 6.533333333333333,
"grad_norm": 0.8212718367576599,
"learning_rate": 1.2868032327110904e-05,
"loss": 0.0697,
"step": 3920
},
{
"epoch": 6.55,
"grad_norm": 49.31973648071289,
"learning_rate": 1.2828197985018276e-05,
"loss": 0.0341,
"step": 3930
},
{
"epoch": 6.566666666666666,
"grad_norm": 5.994250297546387,
"learning_rate": 1.2788314804085904e-05,
"loss": 0.0876,
"step": 3940
},
{
"epoch": 6.583333333333333,
"grad_norm": 0.28034791350364685,
"learning_rate": 1.2748383473037948e-05,
"loss": 0.1736,
"step": 3950
},
{
"epoch": 6.6,
"grad_norm": 9.517563819885254,
"learning_rate": 1.2708404681430054e-05,
"loss": 0.0938,
"step": 3960
},
{
"epoch": 6.616666666666667,
"grad_norm": 0.8875794410705566,
"learning_rate": 1.266837911963743e-05,
"loss": 0.1409,
"step": 3970
},
{
"epoch": 6.633333333333333,
"grad_norm": 13.758536338806152,
"learning_rate": 1.2628307478842955e-05,
"loss": 0.161,
"step": 3980
},
{
"epoch": 6.65,
"grad_norm": 0.685119092464447,
"learning_rate": 1.2588190451025209e-05,
"loss": 0.0927,
"step": 3990
},
{
"epoch": 6.666666666666667,
"grad_norm": 9.26745319366455,
"learning_rate": 1.2548028728946548e-05,
"loss": 0.2317,
"step": 4000
},
{
"epoch": 6.683333333333334,
"grad_norm": 0.41291195154190063,
"learning_rate": 1.2507823006141128e-05,
"loss": 0.0975,
"step": 4010
},
{
"epoch": 6.7,
"grad_norm": 31.908096313476562,
"learning_rate": 1.2467573976902936e-05,
"loss": 0.1475,
"step": 4020
},
{
"epoch": 6.716666666666667,
"grad_norm": 1.9993367195129395,
"learning_rate": 1.24272823362738e-05,
"loss": 0.1265,
"step": 4030
},
{
"epoch": 6.733333333333333,
"grad_norm": 0.32419532537460327,
"learning_rate": 1.238694878003138e-05,
"loss": 0.0779,
"step": 4040
},
{
"epoch": 6.75,
"grad_norm": 0.8238071203231812,
"learning_rate": 1.2346574004677154e-05,
"loss": 0.1067,
"step": 4050
},
{
"epoch": 6.766666666666667,
"grad_norm": 60.266483306884766,
"learning_rate": 1.2306158707424402e-05,
"loss": 0.1401,
"step": 4060
},
{
"epoch": 6.783333333333333,
"grad_norm": 3.0764288902282715,
"learning_rate": 1.2265703586186158e-05,
"loss": 0.0847,
"step": 4070
},
{
"epoch": 6.8,
"grad_norm": 44.34507751464844,
"learning_rate": 1.2225209339563144e-05,
"loss": 0.1783,
"step": 4080
},
{
"epoch": 6.816666666666666,
"grad_norm": 7.701195240020752,
"learning_rate": 1.2184676666831741e-05,
"loss": 0.2235,
"step": 4090
},
{
"epoch": 6.833333333333333,
"grad_norm": 22.504344940185547,
"learning_rate": 1.2144106267931877e-05,
"loss": 0.141,
"step": 4100
},
{
"epoch": 6.85,
"grad_norm": 19.971139907836914,
"learning_rate": 1.210349884345496e-05,
"loss": 0.2359,
"step": 4110
},
{
"epoch": 6.866666666666667,
"grad_norm": 15.64979362487793,
"learning_rate": 1.2062855094631777e-05,
"loss": 0.1019,
"step": 4120
},
{
"epoch": 6.883333333333333,
"grad_norm": 18.649150848388672,
"learning_rate": 1.2022175723320382e-05,
"loss": 0.0806,
"step": 4130
},
{
"epoch": 6.9,
"grad_norm": 12.660820960998535,
"learning_rate": 1.1981461431993978e-05,
"loss": 0.1066,
"step": 4140
},
{
"epoch": 6.916666666666667,
"grad_norm": 27.603178024291992,
"learning_rate": 1.1940712923728784e-05,
"loss": 0.1701,
"step": 4150
},
{
"epoch": 6.933333333333334,
"grad_norm": 14.351332664489746,
"learning_rate": 1.1899930902191904e-05,
"loss": 0.0951,
"step": 4160
},
{
"epoch": 6.95,
"grad_norm": 0.23754386603832245,
"learning_rate": 1.1859116071629148e-05,
"loss": 0.1334,
"step": 4170
},
{
"epoch": 6.966666666666667,
"grad_norm": 15.504202842712402,
"learning_rate": 1.181826913685291e-05,
"loss": 0.1684,
"step": 4180
},
{
"epoch": 6.983333333333333,
"grad_norm": 3.2268130779266357,
"learning_rate": 1.1777390803229964e-05,
"loss": 0.1206,
"step": 4190
},
{
"epoch": 7.0,
"grad_norm": 15.195246696472168,
"learning_rate": 1.1736481776669307e-05,
"loss": 0.0643,
"step": 4200
},
{
"epoch": 7.0,
"eval_accuracy": 0.6366300366300366,
"eval_loss": 1.8222845792770386,
"eval_runtime": 2.4299,
"eval_samples_per_second": 561.742,
"eval_steps_per_second": 35.392,
"step": 4200
},
{
"epoch": 7.016666666666667,
"grad_norm": 3.1184213161468506,
"learning_rate": 1.1695542763609944e-05,
"loss": 0.0434,
"step": 4210
},
{
"epoch": 7.033333333333333,
"grad_norm": 7.201974868774414,
"learning_rate": 1.1654574471008712e-05,
"loss": 0.0079,
"step": 4220
},
{
"epoch": 7.05,
"grad_norm": 3.9969992637634277,
"learning_rate": 1.1613577606328068e-05,
"loss": 0.113,
"step": 4230
},
{
"epoch": 7.066666666666666,
"grad_norm": 0.36156192421913147,
"learning_rate": 1.1572552877523855e-05,
"loss": 0.0531,
"step": 4240
},
{
"epoch": 7.083333333333333,
"grad_norm": 3.436892032623291,
"learning_rate": 1.1531500993033094e-05,
"loss": 0.0311,
"step": 4250
},
{
"epoch": 7.1,
"grad_norm": 0.3816102147102356,
"learning_rate": 1.1490422661761744e-05,
"loss": 0.0684,
"step": 4260
},
{
"epoch": 7.116666666666666,
"grad_norm": 1.731108546257019,
"learning_rate": 1.1449318593072468e-05,
"loss": 0.0526,
"step": 4270
},
{
"epoch": 7.133333333333334,
"grad_norm": 42.39308547973633,
"learning_rate": 1.1408189496772369e-05,
"loss": 0.0688,
"step": 4280
},
{
"epoch": 7.15,
"grad_norm": 2.614971160888672,
"learning_rate": 1.1367036083100735e-05,
"loss": 0.0998,
"step": 4290
},
{
"epoch": 7.166666666666667,
"grad_norm": 0.032221995294094086,
"learning_rate": 1.1325859062716795e-05,
"loss": 0.0068,
"step": 4300
},
{
"epoch": 7.183333333333334,
"grad_norm": 0.026208536699414253,
"learning_rate": 1.1284659146687416e-05,
"loss": 0.1411,
"step": 4310
},
{
"epoch": 7.2,
"grad_norm": 15.706056594848633,
"learning_rate": 1.1243437046474854e-05,
"loss": 0.0609,
"step": 4320
},
{
"epoch": 7.216666666666667,
"grad_norm": 43.92604064941406,
"learning_rate": 1.120219347392444e-05,
"loss": 0.1201,
"step": 4330
},
{
"epoch": 7.233333333333333,
"grad_norm": 3.1085469722747803,
"learning_rate": 1.1160929141252303e-05,
"loss": 0.0502,
"step": 4340
},
{
"epoch": 7.25,
"grad_norm": 0.1720058023929596,
"learning_rate": 1.1119644761033079e-05,
"loss": 0.0695,
"step": 4350
},
{
"epoch": 7.266666666666667,
"grad_norm": 62.54095458984375,
"learning_rate": 1.1078341046187588e-05,
"loss": 0.084,
"step": 4360
},
{
"epoch": 7.283333333333333,
"grad_norm": 0.06810988485813141,
"learning_rate": 1.1037018709970528e-05,
"loss": 0.0311,
"step": 4370
},
{
"epoch": 7.3,
"grad_norm": 20.363981246948242,
"learning_rate": 1.0995678465958168e-05,
"loss": 0.0434,
"step": 4380
},
{
"epoch": 7.316666666666666,
"grad_norm": 0.0323542058467865,
"learning_rate": 1.0954321028036013e-05,
"loss": 0.0534,
"step": 4390
},
{
"epoch": 7.333333333333333,
"grad_norm": 0.07076967507600784,
"learning_rate": 1.0912947110386484e-05,
"loss": 0.0603,
"step": 4400
},
{
"epoch": 7.35,
"grad_norm": 0.7574355006217957,
"learning_rate": 1.0871557427476585e-05,
"loss": 0.0859,
"step": 4410
},
{
"epoch": 7.366666666666666,
"grad_norm": 3.641155958175659,
"learning_rate": 1.0830152694045553e-05,
"loss": 0.1094,
"step": 4420
},
{
"epoch": 7.383333333333334,
"grad_norm": 0.17219914495944977,
"learning_rate": 1.078873362509254e-05,
"loss": 0.0779,
"step": 4430
},
{
"epoch": 7.4,
"grad_norm": 0.03016113117337227,
"learning_rate": 1.0747300935864245e-05,
"loss": 0.0344,
"step": 4440
},
{
"epoch": 7.416666666666667,
"grad_norm": 0.3405592441558838,
"learning_rate": 1.0705855341842564e-05,
"loss": 0.0863,
"step": 4450
},
{
"epoch": 7.433333333333334,
"grad_norm": 0.026357417926192284,
"learning_rate": 1.0664397558732245e-05,
"loss": 0.0873,
"step": 4460
},
{
"epoch": 7.45,
"grad_norm": 13.986675262451172,
"learning_rate": 1.0622928302448523e-05,
"loss": 0.0984,
"step": 4470
},
{
"epoch": 7.466666666666667,
"grad_norm": 0.05464504286646843,
"learning_rate": 1.0581448289104759e-05,
"loss": 0.0332,
"step": 4480
},
{
"epoch": 7.483333333333333,
"grad_norm": 43.4432373046875,
"learning_rate": 1.0539958235000075e-05,
"loss": 0.0659,
"step": 4490
},
{
"epoch": 7.5,
"grad_norm": 29.609643936157227,
"learning_rate": 1.0498458856606972e-05,
"loss": 0.1271,
"step": 4500
},
{
"epoch": 7.516666666666667,
"grad_norm": 0.08658182621002197,
"learning_rate": 1.0456950870558982e-05,
"loss": 0.0496,
"step": 4510
},
{
"epoch": 7.533333333333333,
"grad_norm": 0.4856656789779663,
"learning_rate": 1.0415434993638269e-05,
"loss": 0.056,
"step": 4520
},
{
"epoch": 7.55,
"grad_norm": 54.464481353759766,
"learning_rate": 1.037391194276326e-05,
"loss": 0.1164,
"step": 4530
},
{
"epoch": 7.566666666666666,
"grad_norm": 0.028596431016921997,
"learning_rate": 1.0332382434976267e-05,
"loss": 0.1338,
"step": 4540
},
{
"epoch": 7.583333333333333,
"grad_norm": 0.47550636529922485,
"learning_rate": 1.0290847187431115e-05,
"loss": 0.0099,
"step": 4550
},
{
"epoch": 7.6,
"grad_norm": 0.024133695289492607,
"learning_rate": 1.0249306917380731e-05,
"loss": 0.0478,
"step": 4560
},
{
"epoch": 7.616666666666667,
"grad_norm": 0.15692509710788727,
"learning_rate": 1.0207762342164778e-05,
"loss": 0.027,
"step": 4570
},
{
"epoch": 7.633333333333333,
"grad_norm": 25.491106033325195,
"learning_rate": 1.0166214179197265e-05,
"loss": 0.0313,
"step": 4580
},
{
"epoch": 7.65,
"grad_norm": 0.8982044458389282,
"learning_rate": 1.0124663145954152e-05,
"loss": 0.0284,
"step": 4590
},
{
"epoch": 7.666666666666667,
"grad_norm": 0.4735371470451355,
"learning_rate": 1.0083109959960974e-05,
"loss": 0.0569,
"step": 4600
},
{
"epoch": 7.683333333333334,
"grad_norm": 0.14562205970287323,
"learning_rate": 1.0041555338780427e-05,
"loss": 0.1106,
"step": 4610
},
{
"epoch": 7.7,
"grad_norm": 36.13142013549805,
"learning_rate": 1e-05,
"loss": 0.0461,
"step": 4620
},
{
"epoch": 7.716666666666667,
"grad_norm": 69.17588806152344,
"learning_rate": 9.958444661219578e-06,
"loss": 0.1307,
"step": 4630
},
{
"epoch": 7.733333333333333,
"grad_norm": 23.862674713134766,
"learning_rate": 9.916890040039031e-06,
"loss": 0.1613,
"step": 4640
},
{
"epoch": 7.75,
"grad_norm": 13.202719688415527,
"learning_rate": 9.87533685404585e-06,
"loss": 0.1349,
"step": 4650
},
{
"epoch": 7.766666666666667,
"grad_norm": 0.12848487496376038,
"learning_rate": 9.833785820802739e-06,
"loss": 0.0125,
"step": 4660
},
{
"epoch": 7.783333333333333,
"grad_norm": 0.026713097468018532,
"learning_rate": 9.792237657835225e-06,
"loss": 0.137,
"step": 4670
},
{
"epoch": 7.8,
"grad_norm": 0.09598132967948914,
"learning_rate": 9.750693082619274e-06,
"loss": 0.0479,
"step": 4680
},
{
"epoch": 7.816666666666666,
"grad_norm": 55.45012283325195,
"learning_rate": 9.709152812568886e-06,
"loss": 0.0105,
"step": 4690
},
{
"epoch": 7.833333333333333,
"grad_norm": 1.960809588432312,
"learning_rate": 9.667617565023734e-06,
"loss": 0.1331,
"step": 4700
},
{
"epoch": 7.85,
"grad_norm": 0.05195235088467598,
"learning_rate": 9.626088057236745e-06,
"loss": 0.0732,
"step": 4710
},
{
"epoch": 7.866666666666667,
"grad_norm": 0.07702606171369553,
"learning_rate": 9.584565006361735e-06,
"loss": 0.086,
"step": 4720
},
{
"epoch": 7.883333333333333,
"grad_norm": 62.13239669799805,
"learning_rate": 9.543049129441021e-06,
"loss": 0.0593,
"step": 4730
},
{
"epoch": 7.9,
"grad_norm": 3.229891777038574,
"learning_rate": 9.501541143393028e-06,
"loss": 0.0753,
"step": 4740
},
{
"epoch": 7.916666666666667,
"grad_norm": 10.668651580810547,
"learning_rate": 9.460041764999929e-06,
"loss": 0.1537,
"step": 4750
},
{
"epoch": 7.933333333333334,
"grad_norm": 6.874297618865967,
"learning_rate": 9.418551710895243e-06,
"loss": 0.0911,
"step": 4760
},
{
"epoch": 7.95,
"grad_norm": 0.8538333177566528,
"learning_rate": 9.377071697551479e-06,
"loss": 0.0291,
"step": 4770
},
{
"epoch": 7.966666666666667,
"grad_norm": 0.22471383213996887,
"learning_rate": 9.33560244126776e-06,
"loss": 0.0661,
"step": 4780
},
{
"epoch": 7.983333333333333,
"grad_norm": 1.8405463695526123,
"learning_rate": 9.294144658157443e-06,
"loss": 0.0653,
"step": 4790
},
{
"epoch": 8.0,
"grad_norm": 0.3498668968677521,
"learning_rate": 9.252699064135759e-06,
"loss": 0.0639,
"step": 4800
},
{
"epoch": 8.0,
"eval_accuracy": 0.6241758241758242,
"eval_loss": 2.287038803100586,
"eval_runtime": 2.006,
"eval_samples_per_second": 680.459,
"eval_steps_per_second": 42.871,
"step": 4800
},
{
"epoch": 8.016666666666667,
"grad_norm": 12.221203804016113,
"learning_rate": 9.211266374907463e-06,
"loss": 0.0407,
"step": 4810
},
{
"epoch": 8.033333333333333,
"grad_norm": 0.09653156995773315,
"learning_rate": 9.169847305954448e-06,
"loss": 0.0146,
"step": 4820
},
{
"epoch": 8.05,
"grad_norm": 0.0653880164027214,
"learning_rate": 9.128442572523418e-06,
"loss": 0.0522,
"step": 4830
},
{
"epoch": 8.066666666666666,
"grad_norm": 0.018451673910021782,
"learning_rate": 9.087052889613519e-06,
"loss": 0.0198,
"step": 4840
},
{
"epoch": 8.083333333333334,
"grad_norm": 2.7249293327331543,
"learning_rate": 9.045678971963988e-06,
"loss": 0.0574,
"step": 4850
},
{
"epoch": 8.1,
"grad_norm": 0.03191056102514267,
"learning_rate": 9.004321534041836e-06,
"loss": 0.0537,
"step": 4860
},
{
"epoch": 8.116666666666667,
"grad_norm": 8.838760375976562,
"learning_rate": 8.962981290029475e-06,
"loss": 0.0149,
"step": 4870
},
{
"epoch": 8.133333333333333,
"grad_norm": 11.203906059265137,
"learning_rate": 8.921658953812416e-06,
"loss": 0.0043,
"step": 4880
},
{
"epoch": 8.15,
"grad_norm": 0.10002117604017258,
"learning_rate": 8.880355238966923e-06,
"loss": 0.0325,
"step": 4890
},
{
"epoch": 8.166666666666666,
"grad_norm": 0.47016626596450806,
"learning_rate": 8.839070858747697e-06,
"loss": 0.0665,
"step": 4900
},
{
"epoch": 8.183333333333334,
"grad_norm": 2.427482843399048,
"learning_rate": 8.797806526075566e-06,
"loss": 0.0488,
"step": 4910
},
{
"epoch": 8.2,
"grad_norm": 0.014250639826059341,
"learning_rate": 8.756562953525151e-06,
"loss": 0.0366,
"step": 4920
},
{
"epoch": 8.216666666666667,
"grad_norm": 1.8263099193572998,
"learning_rate": 8.715340853312586e-06,
"loss": 0.0301,
"step": 4930
},
{
"epoch": 8.233333333333333,
"grad_norm": 0.20052829384803772,
"learning_rate": 8.674140937283208e-06,
"loss": 0.0266,
"step": 4940
},
{
"epoch": 8.25,
"grad_norm": 0.4661940634250641,
"learning_rate": 8.632963916899268e-06,
"loss": 0.0016,
"step": 4950
},
{
"epoch": 8.266666666666667,
"grad_norm": 0.3336583971977234,
"learning_rate": 8.591810503227634e-06,
"loss": 0.0199,
"step": 4960
},
{
"epoch": 8.283333333333333,
"grad_norm": 3.7666029930114746,
"learning_rate": 8.550681406927534e-06,
"loss": 0.0372,
"step": 4970
},
{
"epoch": 8.3,
"grad_norm": 0.23303212225437164,
"learning_rate": 8.509577338238255e-06,
"loss": 0.027,
"step": 4980
},
{
"epoch": 8.316666666666666,
"grad_norm": 0.04906190559267998,
"learning_rate": 8.46849900696691e-06,
"loss": 0.1621,
"step": 4990
},
{
"epoch": 8.333333333333334,
"grad_norm": 0.6690149307250977,
"learning_rate": 8.427447122476148e-06,
"loss": 0.0588,
"step": 5000
},
{
"epoch": 8.35,
"grad_norm": 0.030395809561014175,
"learning_rate": 8.386422393671934e-06,
"loss": 0.0011,
"step": 5010
},
{
"epoch": 8.366666666666667,
"grad_norm": 0.0137130506336689,
"learning_rate": 8.34542552899129e-06,
"loss": 0.0248,
"step": 5020
},
{
"epoch": 8.383333333333333,
"grad_norm": 0.03623773530125618,
"learning_rate": 8.304457236390062e-06,
"loss": 0.0368,
"step": 5030
},
{
"epoch": 8.4,
"grad_norm": 28.148099899291992,
"learning_rate": 8.263518223330698e-06,
"loss": 0.0481,
"step": 5040
},
{
"epoch": 8.416666666666666,
"grad_norm": 3.5140609741210938,
"learning_rate": 8.222609196770037e-06,
"loss": 0.0232,
"step": 5050
},
{
"epoch": 8.433333333333334,
"grad_norm": 15.2373685836792,
"learning_rate": 8.181730863147094e-06,
"loss": 0.0238,
"step": 5060
},
{
"epoch": 8.45,
"grad_norm": 0.0257254671305418,
"learning_rate": 8.140883928370855e-06,
"loss": 0.0333,
"step": 5070
},
{
"epoch": 8.466666666666667,
"grad_norm": 0.08491776883602142,
"learning_rate": 8.100069097808103e-06,
"loss": 0.0413,
"step": 5080
},
{
"epoch": 8.483333333333333,
"grad_norm": 39.21556091308594,
"learning_rate": 8.059287076271216e-06,
"loss": 0.1001,
"step": 5090
},
{
"epoch": 8.5,
"grad_norm": 0.017393160611391068,
"learning_rate": 8.018538568006027e-06,
"loss": 0.0025,
"step": 5100
},
{
"epoch": 8.516666666666667,
"grad_norm": 16.39540672302246,
"learning_rate": 7.977824276679623e-06,
"loss": 0.0528,
"step": 5110
},
{
"epoch": 8.533333333333333,
"grad_norm": 0.015073513612151146,
"learning_rate": 7.937144905368226e-06,
"loss": 0.1109,
"step": 5120
},
{
"epoch": 8.55,
"grad_norm": 0.05708052217960358,
"learning_rate": 7.896501156545044e-06,
"loss": 0.0332,
"step": 5130
},
{
"epoch": 8.566666666666666,
"grad_norm": 0.027908623218536377,
"learning_rate": 7.855893732068124e-06,
"loss": 0.0926,
"step": 5140
},
{
"epoch": 8.583333333333334,
"grad_norm": 23.559062957763672,
"learning_rate": 7.815323333168262e-06,
"loss": 0.012,
"step": 5150
},
{
"epoch": 8.6,
"grad_norm": 0.9111537933349609,
"learning_rate": 7.774790660436857e-06,
"loss": 0.0219,
"step": 5160
},
{
"epoch": 8.616666666666667,
"grad_norm": 0.03302312642335892,
"learning_rate": 7.734296413813847e-06,
"loss": 0.0792,
"step": 5170
},
{
"epoch": 8.633333333333333,
"grad_norm": 14.167460441589355,
"learning_rate": 7.6938412925756e-06,
"loss": 0.0331,
"step": 5180
},
{
"epoch": 8.65,
"grad_norm": 0.27443990111351013,
"learning_rate": 7.653425995322852e-06,
"loss": 0.0517,
"step": 5190
},
{
"epoch": 8.666666666666666,
"grad_norm": 2.8816311359405518,
"learning_rate": 7.613051219968624e-06,
"loss": 0.0758,
"step": 5200
},
{
"epoch": 8.683333333333334,
"grad_norm": 0.015650594606995583,
"learning_rate": 7.5727176637262034e-06,
"loss": 0.0803,
"step": 5210
},
{
"epoch": 8.7,
"grad_norm": 0.02484651654958725,
"learning_rate": 7.532426023097063e-06,
"loss": 0.0583,
"step": 5220
},
{
"epoch": 8.716666666666667,
"grad_norm": 78.51082611083984,
"learning_rate": 7.492176993858873e-06,
"loss": 0.1146,
"step": 5230
},
{
"epoch": 8.733333333333333,
"grad_norm": 1.1751972436904907,
"learning_rate": 7.451971271053455e-06,
"loss": 0.0537,
"step": 5240
},
{
"epoch": 8.75,
"grad_norm": 2.047635793685913,
"learning_rate": 7.411809548974792e-06,
"loss": 0.1589,
"step": 5250
},
{
"epoch": 8.766666666666667,
"grad_norm": 20.830856323242188,
"learning_rate": 7.371692521157048e-06,
"loss": 0.1046,
"step": 5260
},
{
"epoch": 8.783333333333333,
"grad_norm": 50.50537109375,
"learning_rate": 7.331620880362571e-06,
"loss": 0.017,
"step": 5270
},
{
"epoch": 8.8,
"grad_norm": 14.005181312561035,
"learning_rate": 7.291595318569951e-06,
"loss": 0.131,
"step": 5280
},
{
"epoch": 8.816666666666666,
"grad_norm": 0.017126847058534622,
"learning_rate": 7.2516165269620534e-06,
"loss": 0.0394,
"step": 5290
},
{
"epoch": 8.833333333333334,
"grad_norm": 11.570549964904785,
"learning_rate": 7.2116851959140965e-06,
"loss": 0.0167,
"step": 5300
},
{
"epoch": 8.85,
"grad_norm": 60.751495361328125,
"learning_rate": 7.171802014981726e-06,
"loss": 0.1043,
"step": 5310
},
{
"epoch": 8.866666666666667,
"grad_norm": 14.370758056640625,
"learning_rate": 7.131967672889101e-06,
"loss": 0.037,
"step": 5320
},
{
"epoch": 8.883333333333333,
"grad_norm": 0.042631592601537704,
"learning_rate": 7.092182857516998e-06,
"loss": 0.0825,
"step": 5330
},
{
"epoch": 8.9,
"grad_norm": 18.05477523803711,
"learning_rate": 7.052448255890958e-06,
"loss": 0.0753,
"step": 5340
},
{
"epoch": 8.916666666666666,
"grad_norm": 0.08995214104652405,
"learning_rate": 7.012764554169393e-06,
"loss": 0.0639,
"step": 5350
},
{
"epoch": 8.933333333333334,
"grad_norm": 0.4663775861263275,
"learning_rate": 6.973132437631743e-06,
"loss": 0.0017,
"step": 5360
},
{
"epoch": 8.95,
"grad_norm": 0.013071997091174126,
"learning_rate": 6.933552590666659e-06,
"loss": 0.041,
"step": 5370
},
{
"epoch": 8.966666666666667,
"grad_norm": 0.024483798071742058,
"learning_rate": 6.8940256967601625e-06,
"loss": 0.0705,
"step": 5380
},
{
"epoch": 8.983333333333333,
"grad_norm": 0.05324419215321541,
"learning_rate": 6.854552438483866e-06,
"loss": 0.0902,
"step": 5390
},
{
"epoch": 9.0,
"grad_norm": 0.010217195376753807,
"learning_rate": 6.815133497483157e-06,
"loss": 0.0161,
"step": 5400
},
{
"epoch": 9.0,
"eval_accuracy": 0.6256410256410256,
"eval_loss": 2.376491069793701,
"eval_runtime": 1.984,
"eval_samples_per_second": 687.989,
"eval_steps_per_second": 43.346,
"step": 5400
},
{
"epoch": 9.016666666666667,
"grad_norm": 0.04304489493370056,
"learning_rate": 6.775769554465455e-06,
"loss": 0.0052,
"step": 5410
},
{
"epoch": 9.033333333333333,
"grad_norm": 0.04578486457467079,
"learning_rate": 6.736461289188445e-06,
"loss": 0.0161,
"step": 5420
},
{
"epoch": 9.05,
"grad_norm": 0.020307594910264015,
"learning_rate": 6.697209380448333e-06,
"loss": 0.0023,
"step": 5430
},
{
"epoch": 9.066666666666666,
"grad_norm": 0.06639733165502548,
"learning_rate": 6.6580145060681255e-06,
"loss": 0.0079,
"step": 5440
},
{
"epoch": 9.083333333333334,
"grad_norm": 0.005567920859903097,
"learning_rate": 6.618877342885945e-06,
"loss": 0.0014,
"step": 5450
},
{
"epoch": 9.1,
"grad_norm": 0.007131638005375862,
"learning_rate": 6.579798566743314e-06,
"loss": 0.0034,
"step": 5460
},
{
"epoch": 9.116666666666667,
"grad_norm": 157.75733947753906,
"learning_rate": 6.540778852473497e-06,
"loss": 0.0641,
"step": 5470
},
{
"epoch": 9.133333333333333,
"grad_norm": 0.32051143050193787,
"learning_rate": 6.501818873889856e-06,
"loss": 0.0628,
"step": 5480
},
{
"epoch": 9.15,
"grad_norm": 0.012005547992885113,
"learning_rate": 6.462919303774186e-06,
"loss": 0.0496,
"step": 5490
},
{
"epoch": 9.166666666666666,
"grad_norm": 0.09318733960390091,
"learning_rate": 6.424080813865139e-06,
"loss": 0.0184,
"step": 5500
},
{
"epoch": 9.183333333333334,
"grad_norm": 0.03979954123497009,
"learning_rate": 6.3853040748465855e-06,
"loss": 0.0235,
"step": 5510
},
{
"epoch": 9.2,
"grad_norm": 20.619905471801758,
"learning_rate": 6.34658975633605e-06,
"loss": 0.0842,
"step": 5520
},
{
"epoch": 9.216666666666667,
"grad_norm": 65.93218994140625,
"learning_rate": 6.3079385268731575e-06,
"loss": 0.0727,
"step": 5530
},
{
"epoch": 9.233333333333333,
"grad_norm": 4.460343837738037,
"learning_rate": 6.269351053908061e-06,
"loss": 0.0541,
"step": 5540
},
{
"epoch": 9.25,
"grad_norm": 0.09803818166255951,
"learning_rate": 6.230828003789949e-06,
"loss": 0.0009,
"step": 5550
},
{
"epoch": 9.266666666666667,
"grad_norm": 0.0428694486618042,
"learning_rate": 6.192370041755505e-06,
"loss": 0.0812,
"step": 5560
},
{
"epoch": 9.283333333333333,
"grad_norm": 0.028728744015097618,
"learning_rate": 6.153977831917451e-06,
"loss": 0.0042,
"step": 5570
},
{
"epoch": 9.3,
"grad_norm": 0.3407820761203766,
"learning_rate": 6.115652037253054e-06,
"loss": 0.0018,
"step": 5580
},
{
"epoch": 9.316666666666666,
"grad_norm": 0.024533122777938843,
"learning_rate": 6.077393319592697e-06,
"loss": 0.0774,
"step": 5590
},
{
"epoch": 9.333333333333334,
"grad_norm": 0.5175767540931702,
"learning_rate": 6.039202339608432e-06,
"loss": 0.0779,
"step": 5600
},
{
"epoch": 9.35,
"grad_norm": 0.017414189875125885,
"learning_rate": 6.001079756802592e-06,
"loss": 0.0018,
"step": 5610
},
{
"epoch": 9.366666666666667,
"grad_norm": 0.018383994698524475,
"learning_rate": 5.963026229496378e-06,
"loss": 0.0032,
"step": 5620
},
{
"epoch": 9.383333333333333,
"grad_norm": 1.9100221395492554,
"learning_rate": 5.925042414818514e-06,
"loss": 0.0719,
"step": 5630
},
{
"epoch": 9.4,
"grad_norm": 0.014550582505762577,
"learning_rate": 5.887128968693887e-06,
"loss": 0.0198,
"step": 5640
},
{
"epoch": 9.416666666666666,
"grad_norm": 0.008884880691766739,
"learning_rate": 5.849286545832211e-06,
"loss": 0.0496,
"step": 5650
},
{
"epoch": 9.433333333333334,
"grad_norm": 0.025510238483548164,
"learning_rate": 5.811515799716754e-06,
"loss": 0.0285,
"step": 5660
},
{
"epoch": 9.45,
"grad_norm": 0.029813693836331367,
"learning_rate": 5.773817382593008e-06,
"loss": 0.0229,
"step": 5670
},
{
"epoch": 9.466666666666667,
"grad_norm": 0.0077801719307899475,
"learning_rate": 5.736191945457463e-06,
"loss": 0.1094,
"step": 5680
},
{
"epoch": 9.483333333333333,
"grad_norm": 0.21113517880439758,
"learning_rate": 5.698640138046349e-06,
"loss": 0.0182,
"step": 5690
},
{
"epoch": 9.5,
"grad_norm": 0.011576608754694462,
"learning_rate": 5.66116260882442e-06,
"loss": 0.057,
"step": 5700
},
{
"epoch": 9.516666666666667,
"grad_norm": 0.2033030092716217,
"learning_rate": 5.623760004973749e-06,
"loss": 0.0734,
"step": 5710
},
{
"epoch": 9.533333333333333,
"grad_norm": 0.022775832563638687,
"learning_rate": 5.586432972382561e-06,
"loss": 0.0235,
"step": 5720
},
{
"epoch": 9.55,
"grad_norm": 0.011610534973442554,
"learning_rate": 5.549182155634076e-06,
"loss": 0.0016,
"step": 5730
},
{
"epoch": 9.566666666666666,
"grad_norm": 102.03386688232422,
"learning_rate": 5.512008197995379e-06,
"loss": 0.0602,
"step": 5740
},
{
"epoch": 9.583333333333334,
"grad_norm": 13.98901081085205,
"learning_rate": 5.47491174140631e-06,
"loss": 0.0295,
"step": 5750
},
{
"epoch": 9.6,
"grad_norm": 0.09368708729743958,
"learning_rate": 5.43789342646837e-06,
"loss": 0.0117,
"step": 5760
},
{
"epoch": 9.616666666666667,
"grad_norm": 0.011298476718366146,
"learning_rate": 5.4009538924336864e-06,
"loss": 0.0007,
"step": 5770
},
{
"epoch": 9.633333333333333,
"grad_norm": 25.619182586669922,
"learning_rate": 5.364093777193944e-06,
"loss": 0.0335,
"step": 5780
},
{
"epoch": 9.65,
"grad_norm": 0.013145272620022297,
"learning_rate": 5.32731371726938e-06,
"loss": 0.0305,
"step": 5790
},
{
"epoch": 9.666666666666666,
"grad_norm": 0.033255018293857574,
"learning_rate": 5.290614347797802e-06,
"loss": 0.0347,
"step": 5800
},
{
"epoch": 9.683333333333334,
"grad_norm": 0.021136023104190826,
"learning_rate": 5.253996302523596e-06,
"loss": 0.0417,
"step": 5810
},
{
"epoch": 9.7,
"grad_norm": 0.01828765496611595,
"learning_rate": 5.217460213786822e-06,
"loss": 0.0008,
"step": 5820
},
{
"epoch": 9.716666666666667,
"grad_norm": 0.021525239571928978,
"learning_rate": 5.181006712512245e-06,
"loss": 0.0043,
"step": 5830
},
{
"epoch": 9.733333333333333,
"grad_norm": 49.80839157104492,
"learning_rate": 5.144636428198477e-06,
"loss": 0.1559,
"step": 5840
},
{
"epoch": 9.75,
"grad_norm": 20.633182525634766,
"learning_rate": 5.108349988907111e-06,
"loss": 0.0062,
"step": 5850
},
{
"epoch": 9.766666666666667,
"grad_norm": 0.006064248271286488,
"learning_rate": 5.072148021251822e-06,
"loss": 0.0723,
"step": 5860
},
{
"epoch": 9.783333333333333,
"grad_norm": 0.15177957713603973,
"learning_rate": 5.036031150387624e-06,
"loss": 0.0679,
"step": 5870
},
{
"epoch": 9.8,
"grad_norm": 67.9042739868164,
"learning_rate": 5.000000000000003e-06,
"loss": 0.013,
"step": 5880
},
{
"epoch": 9.816666666666666,
"grad_norm": 0.08752978593111038,
"learning_rate": 4.964055192294187e-06,
"loss": 0.0052,
"step": 5890
},
{
"epoch": 9.833333333333334,
"grad_norm": 1.5333389043807983,
"learning_rate": 4.92819734798441e-06,
"loss": 0.0049,
"step": 5900
},
{
"epoch": 9.85,
"grad_norm": 0.015482067130506039,
"learning_rate": 4.892427086283147e-06,
"loss": 0.0067,
"step": 5910
},
{
"epoch": 9.866666666666667,
"grad_norm": 0.05730535835027695,
"learning_rate": 4.856745024890466e-06,
"loss": 0.0397,
"step": 5920
},
{
"epoch": 9.883333333333333,
"grad_norm": 14.22793960571289,
"learning_rate": 4.821151779983343e-06,
"loss": 0.0653,
"step": 5930
},
{
"epoch": 9.9,
"grad_norm": 0.6677501201629639,
"learning_rate": 4.78564796620502e-06,
"loss": 0.0014,
"step": 5940
},
{
"epoch": 9.916666666666666,
"grad_norm": 0.007463044486939907,
"learning_rate": 4.7502341966544e-06,
"loss": 0.0139,
"step": 5950
},
{
"epoch": 9.933333333333334,
"grad_norm": 0.01207564864307642,
"learning_rate": 4.714911082875446e-06,
"loss": 0.0171,
"step": 5960
},
{
"epoch": 9.95,
"grad_norm": 0.21874092519283295,
"learning_rate": 4.679679234846636e-06,
"loss": 0.0025,
"step": 5970
},
{
"epoch": 9.966666666666667,
"grad_norm": 0.6054325103759766,
"learning_rate": 4.644539260970417e-06,
"loss": 0.0825,
"step": 5980
},
{
"epoch": 9.983333333333333,
"grad_norm": 0.026162736117839813,
"learning_rate": 4.609491768062705e-06,
"loss": 0.0319,
"step": 5990
},
{
"epoch": 10.0,
"grad_norm": 0.02407621219754219,
"learning_rate": 4.5745373613424075e-06,
"loss": 0.0128,
"step": 6000
},
{
"epoch": 10.0,
"eval_accuracy": 0.6366300366300366,
"eval_loss": 2.5328738689422607,
"eval_runtime": 1.9365,
"eval_samples_per_second": 704.886,
"eval_steps_per_second": 44.41,
"step": 6000
},
{
"epoch": 10.016666666666667,
"grad_norm": 2.5848894119262695,
"learning_rate": 4.539676644420966e-06,
"loss": 0.0066,
"step": 6010
},
{
"epoch": 10.033333333333333,
"grad_norm": 164.14398193359375,
"learning_rate": 4.504910219291941e-06,
"loss": 0.0391,
"step": 6020
},
{
"epoch": 10.05,
"grad_norm": 0.004672689363360405,
"learning_rate": 4.470238686320606e-06,
"loss": 0.0425,
"step": 6030
},
{
"epoch": 10.066666666666666,
"grad_norm": 0.015739306807518005,
"learning_rate": 4.435662644233594e-06,
"loss": 0.0844,
"step": 6040
},
{
"epoch": 10.083333333333334,
"grad_norm": 0.28408434987068176,
"learning_rate": 4.4011826901085346e-06,
"loss": 0.0047,
"step": 6050
},
{
"epoch": 10.1,
"grad_norm": 0.792030394077301,
"learning_rate": 4.3667994193637794e-06,
"loss": 0.1337,
"step": 6060
},
{
"epoch": 10.116666666666667,
"grad_norm": 0.016146106645464897,
"learning_rate": 4.3325134257480905e-06,
"loss": 0.0012,
"step": 6070
},
{
"epoch": 10.133333333333333,
"grad_norm": 0.004173349589109421,
"learning_rate": 4.298325301330383e-06,
"loss": 0.0915,
"step": 6080
},
{
"epoch": 10.15,
"grad_norm": 0.3737195134162903,
"learning_rate": 4.264235636489542e-06,
"loss": 0.0012,
"step": 6090
},
{
"epoch": 10.166666666666666,
"grad_norm": 0.03490012139081955,
"learning_rate": 4.23024501990417e-06,
"loss": 0.005,
"step": 6100
},
{
"epoch": 10.183333333333334,
"grad_norm": 0.07963980734348297,
"learning_rate": 4.196354038542476e-06,
"loss": 0.0192,
"step": 6110
},
{
"epoch": 10.2,
"grad_norm": 0.005616281647235155,
"learning_rate": 4.162563277652104e-06,
"loss": 0.0597,
"step": 6120
},
{
"epoch": 10.216666666666667,
"grad_norm": 1.6034228801727295,
"learning_rate": 4.128873320750027e-06,
"loss": 0.0021,
"step": 6130
},
{
"epoch": 10.233333333333333,
"grad_norm": 0.026460707187652588,
"learning_rate": 4.095284749612504e-06,
"loss": 0.0011,
"step": 6140
},
{
"epoch": 10.25,
"grad_norm": 0.00982896238565445,
"learning_rate": 4.061798144264986e-06,
"loss": 0.0225,
"step": 6150
},
{
"epoch": 10.266666666666667,
"grad_norm": 0.0047401911579072475,
"learning_rate": 4.028414082972141e-06,
"loss": 0.0125,
"step": 6160
},
{
"epoch": 10.283333333333333,
"grad_norm": 39.154083251953125,
"learning_rate": 3.995133142227843e-06,
"loss": 0.0107,
"step": 6170
},
{
"epoch": 10.3,
"grad_norm": 0.2048110067844391,
"learning_rate": 3.961955896745224e-06,
"loss": 0.0045,
"step": 6180
},
{
"epoch": 10.316666666666666,
"grad_norm": 0.054925791919231415,
"learning_rate": 3.928882919446767e-06,
"loss": 0.0121,
"step": 6190
},
{
"epoch": 10.333333333333334,
"grad_norm": 6.554659366607666,
"learning_rate": 3.89591478145437e-06,
"loss": 0.0681,
"step": 6200
},
{
"epoch": 10.35,
"grad_norm": 0.02309197373688221,
"learning_rate": 3.8630520520795275e-06,
"loss": 0.0901,
"step": 6210
},
{
"epoch": 10.366666666666667,
"grad_norm": 0.12893272936344147,
"learning_rate": 3.830295298813475e-06,
"loss": 0.035,
"step": 6220
},
{
"epoch": 10.383333333333333,
"grad_norm": 0.009439480490982533,
"learning_rate": 3.797645087317401e-06,
"loss": 0.0081,
"step": 6230
},
{
"epoch": 10.4,
"grad_norm": 0.009158750995993614,
"learning_rate": 3.7651019814126656e-06,
"loss": 0.0614,
"step": 6240
},
{
"epoch": 10.416666666666666,
"grad_norm": 0.15298189222812653,
"learning_rate": 3.7326665430710798e-06,
"loss": 0.005,
"step": 6250
},
{
"epoch": 10.433333333333334,
"grad_norm": 0.005107731092721224,
"learning_rate": 3.7003393324051874e-06,
"loss": 0.0331,
"step": 6260
},
{
"epoch": 10.45,
"grad_norm": 14.306778907775879,
"learning_rate": 3.6681209076586035e-06,
"loss": 0.028,
"step": 6270
},
{
"epoch": 10.466666666666667,
"grad_norm": 0.14541669189929962,
"learning_rate": 3.636011825196365e-06,
"loss": 0.0005,
"step": 6280
},
{
"epoch": 10.483333333333333,
"grad_norm": 0.08900494128465652,
"learning_rate": 3.6040126394953334e-06,
"loss": 0.0216,
"step": 6290
},
{
"epoch": 10.5,
"grad_norm": 2.911168336868286,
"learning_rate": 3.5721239031346067e-06,
"loss": 0.068,
"step": 6300
},
{
"epoch": 10.516666666666667,
"grad_norm": 0.011473206803202629,
"learning_rate": 3.540346166785994e-06,
"loss": 0.046,
"step": 6310
},
{
"epoch": 10.533333333333333,
"grad_norm": 0.013163376599550247,
"learning_rate": 3.5086799792044812e-06,
"loss": 0.0145,
"step": 6320
},
{
"epoch": 10.55,
"grad_norm": 0.033820025622844696,
"learning_rate": 3.4771258872187917e-06,
"loss": 0.0419,
"step": 6330
},
{
"epoch": 10.566666666666666,
"grad_norm": 0.05051262304186821,
"learning_rate": 3.4456844357218977e-06,
"loss": 0.0176,
"step": 6340
},
{
"epoch": 10.583333333333334,
"grad_norm": 4.920490741729736,
"learning_rate": 3.414356167661658e-06,
"loss": 0.0447,
"step": 6350
},
{
"epoch": 10.6,
"grad_norm": 0.1240825355052948,
"learning_rate": 3.3831416240314085e-06,
"loss": 0.0213,
"step": 6360
},
{
"epoch": 10.616666666666667,
"grad_norm": 0.004741927608847618,
"learning_rate": 3.3520413438606215e-06,
"loss": 0.0198,
"step": 6370
},
{
"epoch": 10.633333333333333,
"grad_norm": 0.7797335982322693,
"learning_rate": 3.3210558642056277e-06,
"loss": 0.0121,
"step": 6380
},
{
"epoch": 10.65,
"grad_norm": 0.13754583895206451,
"learning_rate": 3.290185720140301e-06,
"loss": 0.0692,
"step": 6390
},
{
"epoch": 10.666666666666666,
"grad_norm": 0.046297337859869,
"learning_rate": 3.2594314447468457e-06,
"loss": 0.0214,
"step": 6400
},
{
"epoch": 10.683333333333334,
"grad_norm": 0.9988303780555725,
"learning_rate": 3.228793569106594e-06,
"loss": 0.0644,
"step": 6410
},
{
"epoch": 10.7,
"grad_norm": 40.29999923706055,
"learning_rate": 3.1982726222908046e-06,
"loss": 0.0564,
"step": 6420
},
{
"epoch": 10.716666666666667,
"grad_norm": 0.005441838409751654,
"learning_rate": 3.1678691313515688e-06,
"loss": 0.0054,
"step": 6430
},
{
"epoch": 10.733333333333333,
"grad_norm": 0.08924850821495056,
"learning_rate": 3.1375836213126653e-06,
"loss": 0.0137,
"step": 6440
},
{
"epoch": 10.75,
"grad_norm": 0.30186939239501953,
"learning_rate": 3.10741661516053e-06,
"loss": 0.0064,
"step": 6450
},
{
"epoch": 10.766666666666667,
"grad_norm": 0.10808040201663971,
"learning_rate": 3.077368633835205e-06,
"loss": 0.0017,
"step": 6460
},
{
"epoch": 10.783333333333333,
"grad_norm": 2.806311845779419,
"learning_rate": 3.0474401962213483e-06,
"loss": 0.0017,
"step": 6470
},
{
"epoch": 10.8,
"grad_norm": 0.5742372274398804,
"learning_rate": 3.017631819139273e-06,
"loss": 0.0035,
"step": 6480
},
{
"epoch": 10.816666666666666,
"grad_norm": 0.027512436732649803,
"learning_rate": 2.987944017336023e-06,
"loss": 0.0139,
"step": 6490
},
{
"epoch": 10.833333333333334,
"grad_norm": 0.0474701002240181,
"learning_rate": 2.958377303476483e-06,
"loss": 0.0317,
"step": 6500
},
{
"epoch": 10.85,
"grad_norm": 6.042050838470459,
"learning_rate": 2.9289321881345257e-06,
"loss": 0.0055,
"step": 6510
},
{
"epoch": 10.866666666666667,
"grad_norm": 1.1392112970352173,
"learning_rate": 2.8996091797841976e-06,
"loss": 0.0393,
"step": 6520
},
{
"epoch": 10.883333333333333,
"grad_norm": 0.004693117458373308,
"learning_rate": 2.8704087847909333e-06,
"loss": 0.0004,
"step": 6530
},
{
"epoch": 10.9,
"grad_norm": 0.3389260470867157,
"learning_rate": 2.8413315074028157e-06,
"loss": 0.0193,
"step": 6540
},
{
"epoch": 10.916666666666666,
"grad_norm": 0.12661051750183105,
"learning_rate": 2.8123778497418687e-06,
"loss": 0.0196,
"step": 6550
},
{
"epoch": 10.933333333333334,
"grad_norm": 0.2787809371948242,
"learning_rate": 2.783548311795379e-06,
"loss": 0.0487,
"step": 6560
},
{
"epoch": 10.95,
"grad_norm": 0.08719979971647263,
"learning_rate": 2.7548433914072736e-06,
"loss": 0.0553,
"step": 6570
},
{
"epoch": 10.966666666666667,
"grad_norm": 0.03355100005865097,
"learning_rate": 2.726263584269513e-06,
"loss": 0.0035,
"step": 6580
},
{
"epoch": 10.983333333333333,
"grad_norm": 0.020008157938718796,
"learning_rate": 2.6978093839135365e-06,
"loss": 0.0577,
"step": 6590
},
{
"epoch": 11.0,
"grad_norm": 0.049677930772304535,
"learning_rate": 2.669481281701739e-06,
"loss": 0.0164,
"step": 6600
},
{
"epoch": 11.0,
"eval_accuracy": 0.6293040293040293,
"eval_loss": 2.6321825981140137,
"eval_runtime": 1.9472,
"eval_samples_per_second": 700.994,
"eval_steps_per_second": 44.165,
"step": 6600
},
{
"epoch": 11.016666666666667,
"grad_norm": 0.02977852337062359,
"learning_rate": 2.641279766818977e-06,
"loss": 0.0003,
"step": 6610
},
{
"epoch": 11.033333333333333,
"grad_norm": 0.011167909018695354,
"learning_rate": 2.6132053262641467e-06,
"loss": 0.022,
"step": 6620
},
{
"epoch": 11.05,
"grad_norm": 2.918816328048706,
"learning_rate": 2.5852584448417327e-06,
"loss": 0.0009,
"step": 6630
},
{
"epoch": 11.066666666666666,
"grad_norm": 0.013001427054405212,
"learning_rate": 2.5574396051534835e-06,
"loss": 0.0126,
"step": 6640
},
{
"epoch": 11.083333333333334,
"grad_norm": 3.934358596801758,
"learning_rate": 2.529749287590042e-06,
"loss": 0.0657,
"step": 6650
},
{
"epoch": 11.1,
"grad_norm": 0.016156084835529327,
"learning_rate": 2.502187970322657e-06,
"loss": 0.093,
"step": 6660
},
{
"epoch": 11.116666666666667,
"grad_norm": 0.10527543723583221,
"learning_rate": 2.4747561292949496e-06,
"loss": 0.0102,
"step": 6670
},
{
"epoch": 11.133333333333333,
"grad_norm": 0.01703232154250145,
"learning_rate": 2.447454238214654e-06,
"loss": 0.0003,
"step": 6680
},
{
"epoch": 11.15,
"grad_norm": 0.029103636741638184,
"learning_rate": 2.420282768545469e-06,
"loss": 0.0038,
"step": 6690
},
{
"epoch": 11.166666666666666,
"grad_norm": 0.015173720195889473,
"learning_rate": 2.3932421894989167e-06,
"loss": 0.0313,
"step": 6700
},
{
"epoch": 11.183333333333334,
"grad_norm": 0.022922033444046974,
"learning_rate": 2.366332968026207e-06,
"loss": 0.0466,
"step": 6710
},
{
"epoch": 11.2,
"grad_norm": 1.8661198616027832,
"learning_rate": 2.339555568810221e-06,
"loss": 0.0129,
"step": 6720
},
{
"epoch": 11.216666666666667,
"grad_norm": 0.015827415511012077,
"learning_rate": 2.3129104542574433e-06,
"loss": 0.0035,
"step": 6730
},
{
"epoch": 11.233333333333333,
"grad_norm": 0.04141826927661896,
"learning_rate": 2.2863980844900036e-06,
"loss": 0.0393,
"step": 6740
},
{
"epoch": 11.25,
"grad_norm": 0.008678029291331768,
"learning_rate": 2.2600189173377263e-06,
"loss": 0.0012,
"step": 6750
},
{
"epoch": 11.266666666666667,
"grad_norm": 0.0064391172491014,
"learning_rate": 2.2337734083302164e-06,
"loss": 0.0504,
"step": 6760
},
{
"epoch": 11.283333333333333,
"grad_norm": 0.053652215749025345,
"learning_rate": 2.207662010689002e-06,
"loss": 0.0005,
"step": 6770
},
{
"epoch": 11.3,
"grad_norm": 77.94811248779297,
"learning_rate": 2.1816851753197023e-06,
"loss": 0.0425,
"step": 6780
},
{
"epoch": 11.316666666666666,
"grad_norm": 0.018824616447091103,
"learning_rate": 2.155843350804243e-06,
"loss": 0.0014,
"step": 6790
},
{
"epoch": 11.333333333333334,
"grad_norm": 24.755586624145508,
"learning_rate": 2.130136983393112e-06,
"loss": 0.0116,
"step": 6800
},
{
"epoch": 11.35,
"grad_norm": 0.6925886869430542,
"learning_rate": 2.104566516997647e-06,
"loss": 0.0049,
"step": 6810
},
{
"epoch": 11.366666666666667,
"grad_norm": 2.041292190551758,
"learning_rate": 2.0791323931823783e-06,
"loss": 0.0544,
"step": 6820
},
{
"epoch": 11.383333333333333,
"grad_norm": 0.009696914814412594,
"learning_rate": 2.053835051157397e-06,
"loss": 0.0189,
"step": 6830
},
{
"epoch": 11.4,
"grad_norm": 0.5942186117172241,
"learning_rate": 2.0286749277707783e-06,
"loss": 0.0181,
"step": 6840
},
{
"epoch": 11.416666666666666,
"grad_norm": 0.038010694086551666,
"learning_rate": 2.0036524575010176e-06,
"loss": 0.1053,
"step": 6850
},
{
"epoch": 11.433333333333334,
"grad_norm": 0.0037780546117573977,
"learning_rate": 1.9787680724495617e-06,
"loss": 0.0295,
"step": 6860
},
{
"epoch": 11.45,
"grad_norm": 0.0093591483309865,
"learning_rate": 1.9540222023333165e-06,
"loss": 0.0004,
"step": 6870
},
{
"epoch": 11.466666666666667,
"grad_norm": 0.36084067821502686,
"learning_rate": 1.929415274477239e-06,
"loss": 0.0375,
"step": 6880
},
{
"epoch": 11.483333333333333,
"grad_norm": 0.07602624595165253,
"learning_rate": 1.9049477138069606e-06,
"loss": 0.0027,
"step": 6890
},
{
"epoch": 11.5,
"grad_norm": 0.0053289649076759815,
"learning_rate": 1.880619942841435e-06,
"loss": 0.0003,
"step": 6900
},
{
"epoch": 11.516666666666667,
"grad_norm": 0.06744978576898575,
"learning_rate": 1.856432381685669e-06,
"loss": 0.0115,
"step": 6910
},
{
"epoch": 11.533333333333333,
"grad_norm": 0.006499492563307285,
"learning_rate": 1.8323854480234348e-06,
"loss": 0.0004,
"step": 6920
},
{
"epoch": 11.55,
"grad_norm": 0.012737682089209557,
"learning_rate": 1.808479557110081e-06,
"loss": 0.0147,
"step": 6930
},
{
"epoch": 11.566666666666666,
"grad_norm": 11.834685325622559,
"learning_rate": 1.7847151217653624e-06,
"loss": 0.0125,
"step": 6940
},
{
"epoch": 11.583333333333334,
"grad_norm": 0.019163092598319054,
"learning_rate": 1.7610925523662836e-06,
"loss": 0.0538,
"step": 6950
},
{
"epoch": 11.6,
"grad_norm": 1.9256852865219116,
"learning_rate": 1.7376122568400533e-06,
"loss": 0.0032,
"step": 6960
},
{
"epoch": 11.616666666666667,
"grad_norm": 0.0039183590561151505,
"learning_rate": 1.714274640657001e-06,
"loss": 0.008,
"step": 6970
},
{
"epoch": 11.633333333333333,
"grad_norm": 0.02196461521089077,
"learning_rate": 1.6910801068236015e-06,
"loss": 0.003,
"step": 6980
},
{
"epoch": 11.65,
"grad_norm": 0.006805905140936375,
"learning_rate": 1.6680290558755119e-06,
"loss": 0.0336,
"step": 6990
},
{
"epoch": 11.666666666666666,
"grad_norm": 0.09496167302131653,
"learning_rate": 1.6451218858706374e-06,
"loss": 0.0206,
"step": 7000
},
{
"epoch": 11.683333333333334,
"grad_norm": 0.015263626351952553,
"learning_rate": 1.6223589923822768e-06,
"loss": 0.0382,
"step": 7010
},
{
"epoch": 11.7,
"grad_norm": 0.005197111517190933,
"learning_rate": 1.599740768492286e-06,
"loss": 0.0002,
"step": 7020
},
{
"epoch": 11.716666666666667,
"grad_norm": 0.027239451184868813,
"learning_rate": 1.5772676047842862e-06,
"loss": 0.0025,
"step": 7030
},
{
"epoch": 11.733333333333333,
"grad_norm": 0.36813682317733765,
"learning_rate": 1.5549398893369216e-06,
"loss": 0.0017,
"step": 7040
},
{
"epoch": 11.75,
"grad_norm": 0.006986125838011503,
"learning_rate": 1.5327580077171589e-06,
"loss": 0.0394,
"step": 7050
},
{
"epoch": 11.766666666666667,
"grad_norm": 0.07977800071239471,
"learning_rate": 1.5107223429736273e-06,
"loss": 0.051,
"step": 7060
},
{
"epoch": 11.783333333333333,
"grad_norm": 0.0035156458616256714,
"learning_rate": 1.4888332756300027e-06,
"loss": 0.0006,
"step": 7070
},
{
"epoch": 11.8,
"grad_norm": 0.5690571069717407,
"learning_rate": 1.467091183678444e-06,
"loss": 0.0012,
"step": 7080
},
{
"epoch": 11.816666666666666,
"grad_norm": 0.00904709193855524,
"learning_rate": 1.4454964425730533e-06,
"loss": 0.0318,
"step": 7090
},
{
"epoch": 11.833333333333334,
"grad_norm": 0.033793073147535324,
"learning_rate": 1.424049425223405e-06,
"loss": 0.0013,
"step": 7100
},
{
"epoch": 11.85,
"grad_norm": 1.5678539276123047,
"learning_rate": 1.4027505019880972e-06,
"loss": 0.0462,
"step": 7110
},
{
"epoch": 11.866666666666667,
"grad_norm": 0.006125775631517172,
"learning_rate": 1.3816000406683604e-06,
"loss": 0.0389,
"step": 7120
},
{
"epoch": 11.883333333333333,
"grad_norm": 0.005812865681946278,
"learning_rate": 1.3605984065017074e-06,
"loss": 0.0187,
"step": 7130
},
{
"epoch": 11.9,
"grad_norm": 0.03303861618041992,
"learning_rate": 1.339745962155613e-06,
"loss": 0.0011,
"step": 7140
},
{
"epoch": 11.916666666666666,
"grad_norm": 0.08446267992258072,
"learning_rate": 1.3190430677212795e-06,
"loss": 0.0006,
"step": 7150
},
{
"epoch": 11.933333333333334,
"grad_norm": 77.23758697509766,
"learning_rate": 1.2984900807073919e-06,
"loss": 0.1209,
"step": 7160
},
{
"epoch": 11.95,
"grad_norm": 0.011724837124347687,
"learning_rate": 1.278087356033947e-06,
"loss": 0.0149,
"step": 7170
},
{
"epoch": 11.966666666666667,
"grad_norm": 0.017768416553735733,
"learning_rate": 1.2578352460261456e-06,
"loss": 0.0028,
"step": 7180
},
{
"epoch": 11.983333333333333,
"grad_norm": 0.022292958572506905,
"learning_rate": 1.2377341004082778e-06,
"loss": 0.0003,
"step": 7190
},
{
"epoch": 12.0,
"grad_norm": 6.165916442871094,
"learning_rate": 1.2177842662977136e-06,
"loss": 0.0162,
"step": 7200
},
{
"epoch": 12.0,
"eval_accuracy": 0.6293040293040293,
"eval_loss": 2.6758413314819336,
"eval_runtime": 2.0091,
"eval_samples_per_second": 679.41,
"eval_steps_per_second": 42.805,
"step": 7200
}
],
"logging_steps": 10,
"max_steps": 8400,
"num_input_tokens_seen": 0,
"num_train_epochs": 14,
"save_steps": 500,
"stateful_callbacks": {
"EarlyStoppingCallback": {
"args": {
"early_stopping_patience": 9,
"early_stopping_threshold": 0.0
},
"attributes": {
"early_stopping_patience_counter": 9
}
},
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 3814663679096832.0,
"train_batch_size": 16,
"trial_name": null,
"trial_params": null
}