Eva-4B-Label-Only-Consensus / trainer_state.json
FutureMa's picture
Upload Eva-4B-Label-Only-Consensus fine-tuned model
0a9a8f0 verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 2.0,
"eval_steps": 500.0,
"global_step": 3750,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.0005333333333333334,
"grad_norm": 60.0,
"learning_rate": 1.7699115044247788e-07,
"loss": 0.48311638832092285,
"step": 1,
"token_acc": 0.9515738498789347
},
{
"epoch": 0.005333333333333333,
"grad_norm": 49.5,
"learning_rate": 1.769911504424779e-06,
"loss": 0.411925474802653,
"step": 10,
"token_acc": 0.9584996009577015
},
{
"epoch": 0.010666666666666666,
"grad_norm": 27.125,
"learning_rate": 3.539823008849558e-06,
"loss": 0.21190166473388672,
"step": 20,
"token_acc": 0.9635054021608643
},
{
"epoch": 0.016,
"grad_norm": 12.0,
"learning_rate": 5.309734513274337e-06,
"loss": 0.09306760430335999,
"step": 30,
"token_acc": 0.9690127312034591
},
{
"epoch": 0.021333333333333333,
"grad_norm": 3.703125,
"learning_rate": 7.079646017699116e-06,
"loss": 0.05371033549308777,
"step": 40,
"token_acc": 0.9756919374247894
},
{
"epoch": 0.02666666666666667,
"grad_norm": 4.875,
"learning_rate": 8.849557522123895e-06,
"loss": 0.04967069625854492,
"step": 50,
"token_acc": 0.9762884103556738
},
{
"epoch": 0.032,
"grad_norm": 9.0,
"learning_rate": 1.0619469026548675e-05,
"loss": 0.043303996324539185,
"step": 60,
"token_acc": 0.9821471652593486
},
{
"epoch": 0.037333333333333336,
"grad_norm": 4.34375,
"learning_rate": 1.2389380530973452e-05,
"loss": 0.05136480927467346,
"step": 70,
"token_acc": 0.9824687800192123
},
{
"epoch": 0.042666666666666665,
"grad_norm": 2.515625,
"learning_rate": 1.4159292035398232e-05,
"loss": 0.040071535110473636,
"step": 80,
"token_acc": 0.9839212862970962
},
{
"epoch": 0.048,
"grad_norm": 6.9375,
"learning_rate": 1.592920353982301e-05,
"loss": 0.04163743853569031,
"step": 90,
"token_acc": 0.982388419782871
},
{
"epoch": 0.05333333333333334,
"grad_norm": 3.40625,
"learning_rate": 1.769911504424779e-05,
"loss": 0.04012444615364075,
"step": 100,
"token_acc": 0.984115523465704
},
{
"epoch": 0.058666666666666666,
"grad_norm": 5.65625,
"learning_rate": 1.946902654867257e-05,
"loss": 0.03385461866855621,
"step": 110,
"token_acc": 0.986376673040153
},
{
"epoch": 0.064,
"grad_norm": 3.09375,
"learning_rate": 1.9999817199278942e-05,
"loss": 0.03304356336593628,
"step": 120,
"token_acc": 0.9869596715769138
},
{
"epoch": 0.06933333333333333,
"grad_norm": 5.5625,
"learning_rate": 1.9998921864897123e-05,
"loss": 0.044121870398521425,
"step": 130,
"token_acc": 0.984873949579832
},
{
"epoch": 0.07466666666666667,
"grad_norm": 4.53125,
"learning_rate": 1.9997280487931355e-05,
"loss": 0.03417717218399048,
"step": 140,
"token_acc": 0.9848884624610218
},
{
"epoch": 0.08,
"grad_norm": 3.0,
"learning_rate": 1.9994893190848556e-05,
"loss": 0.029238414764404298,
"step": 150,
"token_acc": 0.987954709708504
},
{
"epoch": 0.08533333333333333,
"grad_norm": 3.546875,
"learning_rate": 1.999176015177046e-05,
"loss": 0.022293809056282043,
"step": 160,
"token_acc": 0.9906385021603457
},
{
"epoch": 0.09066666666666667,
"grad_norm": 5.4375,
"learning_rate": 1.998788160446032e-05,
"loss": 0.02923697829246521,
"step": 170,
"token_acc": 0.9894862604540023
},
{
"epoch": 0.096,
"grad_norm": 2.34375,
"learning_rate": 1.9983257838305487e-05,
"loss": 0.03760753273963928,
"step": 180,
"token_acc": 0.9840425531914894
},
{
"epoch": 0.10133333333333333,
"grad_norm": 2.90625,
"learning_rate": 1.9977889198295794e-05,
"loss": 0.03487681448459625,
"step": 190,
"token_acc": 0.9852380952380952
},
{
"epoch": 0.10666666666666667,
"grad_norm": 3.28125,
"learning_rate": 1.9971776084997844e-05,
"loss": 0.023173870146274568,
"step": 200,
"token_acc": 0.9909069155300311
},
{
"epoch": 0.112,
"grad_norm": 1.953125,
"learning_rate": 1.9964918954525086e-05,
"loss": 0.030919164419174194,
"step": 210,
"token_acc": 0.9863178108497359
},
{
"epoch": 0.11733333333333333,
"grad_norm": 4.09375,
"learning_rate": 1.995731831850382e-05,
"loss": 0.03021637201309204,
"step": 220,
"token_acc": 0.9885112494016276
},
{
"epoch": 0.12266666666666666,
"grad_norm": 1.4375,
"learning_rate": 1.9948974744035002e-05,
"loss": 0.028303766250610353,
"step": 230,
"token_acc": 0.9881785283474065
},
{
"epoch": 0.128,
"grad_norm": 2.890625,
"learning_rate": 1.9939888853651933e-05,
"loss": 0.02691739797592163,
"step": 240,
"token_acc": 0.9875598086124402
},
{
"epoch": 0.13333333333333333,
"grad_norm": 2.609375,
"learning_rate": 1.9930061325273812e-05,
"loss": 0.021169370412826537,
"step": 250,
"token_acc": 0.9908521906596052
},
{
"epoch": 0.13866666666666666,
"grad_norm": 2.703125,
"learning_rate": 1.9919492892155164e-05,
"loss": 0.028641647100448607,
"step": 260,
"token_acc": 0.9887344199424737
},
{
"epoch": 0.144,
"grad_norm": 2.28125,
"learning_rate": 1.990818434283112e-05,
"loss": 0.018036679923534395,
"step": 270,
"token_acc": 0.9930271699927867
},
{
"epoch": 0.14933333333333335,
"grad_norm": 2.78125,
"learning_rate": 1.989613652105858e-05,
"loss": 0.042414110898971555,
"step": 280,
"token_acc": 0.9865707434052757
},
{
"epoch": 0.15466666666666667,
"grad_norm": 1.671875,
"learning_rate": 1.9883350325753276e-05,
"loss": 0.02896667718887329,
"step": 290,
"token_acc": 0.9865255052935515
},
{
"epoch": 0.16,
"grad_norm": 4.46875,
"learning_rate": 1.9869826710922676e-05,
"loss": 0.024548523128032684,
"step": 300,
"token_acc": 0.9903869262196587
},
{
"epoch": 0.16533333333333333,
"grad_norm": 1.5546875,
"learning_rate": 1.9855566685594817e-05,
"loss": 0.02712039351463318,
"step": 310,
"token_acc": 0.9897129186602871
},
{
"epoch": 0.17066666666666666,
"grad_norm": 2.015625,
"learning_rate": 1.984057131374303e-05,
"loss": 0.028550270199775695,
"step": 320,
"token_acc": 0.9891487822522306
},
{
"epoch": 0.176,
"grad_norm": 2.203125,
"learning_rate": 1.982484171420654e-05,
"loss": 0.02943946123123169,
"step": 330,
"token_acc": 0.9891618497109826
},
{
"epoch": 0.18133333333333335,
"grad_norm": 1.65625,
"learning_rate": 1.980837906060698e-05,
"loss": 0.026945659518241884,
"step": 340,
"token_acc": 0.9886992065400336
},
{
"epoch": 0.18666666666666668,
"grad_norm": 2.84375,
"learning_rate": 1.979118458126085e-05,
"loss": 0.030513125658035278,
"step": 350,
"token_acc": 0.9872350674373795
},
{
"epoch": 0.192,
"grad_norm": 3.15625,
"learning_rate": 1.9773259559087838e-05,
"loss": 0.02490377426147461,
"step": 360,
"token_acc": 0.9895038167938931
},
{
"epoch": 0.19733333333333333,
"grad_norm": 1.34375,
"learning_rate": 1.975460533151513e-05,
"loss": 0.025952666997909546,
"step": 370,
"token_acc": 0.9888996138996139
},
{
"epoch": 0.20266666666666666,
"grad_norm": 2.25,
"learning_rate": 1.9735223290377595e-05,
"loss": 0.016641640663146974,
"step": 380,
"token_acc": 0.9939686369119421
},
{
"epoch": 0.208,
"grad_norm": 1.09375,
"learning_rate": 1.971511488181395e-05,
"loss": 0.034984779357910153,
"step": 390,
"token_acc": 0.9870067372473532
},
{
"epoch": 0.21333333333333335,
"grad_norm": 1.6015625,
"learning_rate": 1.9694281606158864e-05,
"loss": 0.026276156306266785,
"step": 400,
"token_acc": 0.9906204906204906
},
{
"epoch": 0.21866666666666668,
"grad_norm": 2.015625,
"learning_rate": 1.9672725017831003e-05,
"loss": 0.020120564103126525,
"step": 410,
"token_acc": 0.9908499879605105
},
{
"epoch": 0.224,
"grad_norm": 1.6875,
"learning_rate": 1.9650446725217056e-05,
"loss": 0.018248651921749116,
"step": 420,
"token_acc": 0.9915743861338469
},
{
"epoch": 0.22933333333333333,
"grad_norm": 1.5546875,
"learning_rate": 1.9627448390551736e-05,
"loss": 0.027030360698699952,
"step": 430,
"token_acc": 0.9883805374001452
},
{
"epoch": 0.23466666666666666,
"grad_norm": 1.7109375,
"learning_rate": 1.9603731729793746e-05,
"loss": 0.01883748471736908,
"step": 440,
"token_acc": 0.992797118847539
},
{
"epoch": 0.24,
"grad_norm": 1.1328125,
"learning_rate": 1.9579298512497758e-05,
"loss": 0.02055278718471527,
"step": 450,
"token_acc": 0.992283578490475
},
{
"epoch": 0.24533333333333332,
"grad_norm": 2.640625,
"learning_rate": 1.9554150561682374e-05,
"loss": 0.01704043596982956,
"step": 460,
"token_acc": 0.9932692307692308
},
{
"epoch": 0.25066666666666665,
"grad_norm": 2.453125,
"learning_rate": 1.9528289753694108e-05,
"loss": 0.02123623788356781,
"step": 470,
"token_acc": 0.9913689762646847
},
{
"epoch": 0.256,
"grad_norm": 1.7578125,
"learning_rate": 1.9501718018067395e-05,
"loss": 0.019534851610660552,
"step": 480,
"token_acc": 0.9918229918229918
},
{
"epoch": 0.2613333333333333,
"grad_norm": 1.03125,
"learning_rate": 1.9474437337380608e-05,
"loss": 0.021141186356544495,
"step": 490,
"token_acc": 0.9910950661853188
},
{
"epoch": 0.26666666666666666,
"grad_norm": 1.4453125,
"learning_rate": 1.944644974710816e-05,
"loss": 0.020709624886512755,
"step": 500,
"token_acc": 0.991608726923999
},
{
"epoch": 0.272,
"grad_norm": 1.8828125,
"learning_rate": 1.9417757335468596e-05,
"loss": 0.023134306073188782,
"step": 510,
"token_acc": 0.9908543922984356
},
{
"epoch": 0.2773333333333333,
"grad_norm": 1.7890625,
"learning_rate": 1.9388362243268823e-05,
"loss": 0.026473182439804076,
"step": 520,
"token_acc": 0.9901465993751501
},
{
"epoch": 0.2826666666666667,
"grad_norm": 1.9765625,
"learning_rate": 1.935826666374435e-05,
"loss": 0.022518408298492432,
"step": 530,
"token_acc": 0.9892267177400048
},
{
"epoch": 0.288,
"grad_norm": 1.4296875,
"learning_rate": 1.9327472842395666e-05,
"loss": 0.019042176008224488,
"step": 540,
"token_acc": 0.9918796274181992
},
{
"epoch": 0.29333333333333333,
"grad_norm": 3.078125,
"learning_rate": 1.9295983076820687e-05,
"loss": 0.024749264121055603,
"step": 550,
"token_acc": 0.9903707270101108
},
{
"epoch": 0.2986666666666667,
"grad_norm": 2.296875,
"learning_rate": 1.9263799716543335e-05,
"loss": 0.02081143856048584,
"step": 560,
"token_acc": 0.9911820781696854
},
{
"epoch": 0.304,
"grad_norm": 4.25,
"learning_rate": 1.9230925162838223e-05,
"loss": 0.02844887673854828,
"step": 570,
"token_acc": 0.9888942539835828
},
{
"epoch": 0.30933333333333335,
"grad_norm": 1.7890625,
"learning_rate": 1.9197361868551498e-05,
"loss": 0.02411177456378937,
"step": 580,
"token_acc": 0.9910778876296118
},
{
"epoch": 0.31466666666666665,
"grad_norm": 2.484375,
"learning_rate": 1.916311233791783e-05,
"loss": 0.026547589898109437,
"step": 590,
"token_acc": 0.9884253677357125
},
{
"epoch": 0.32,
"grad_norm": 1.7578125,
"learning_rate": 1.912817912637357e-05,
"loss": 0.021162503957748414,
"step": 600,
"token_acc": 0.9920270596762503
},
{
"epoch": 0.3253333333333333,
"grad_norm": 2.25,
"learning_rate": 1.909256484036606e-05,
"loss": 0.018523281812667845,
"step": 610,
"token_acc": 0.9920386007237636
},
{
"epoch": 0.33066666666666666,
"grad_norm": 2.21875,
"learning_rate": 1.9056272137159187e-05,
"loss": 0.019353365898132323,
"step": 620,
"token_acc": 0.9906001446131598
},
{
"epoch": 0.336,
"grad_norm": 1.1171875,
"learning_rate": 1.901930372463511e-05,
"loss": 0.016073083877563475,
"step": 630,
"token_acc": 0.9935236267690094
},
{
"epoch": 0.3413333333333333,
"grad_norm": 1.2578125,
"learning_rate": 1.8981662361092206e-05,
"loss": 0.023251956701278685,
"step": 640,
"token_acc": 0.9899159663865547
},
{
"epoch": 0.3466666666666667,
"grad_norm": 1.1015625,
"learning_rate": 1.8943350855039288e-05,
"loss": 0.020946937799453735,
"step": 650,
"token_acc": 0.9917914051183003
},
{
"epoch": 0.352,
"grad_norm": 1.3828125,
"learning_rate": 1.8904372064986033e-05,
"loss": 0.026175621151924133,
"step": 660,
"token_acc": 0.9892267177400048
},
{
"epoch": 0.35733333333333334,
"grad_norm": 1.546875,
"learning_rate": 1.886472889922972e-05,
"loss": 0.021933737397193908,
"step": 670,
"token_acc": 0.9913190258017844
},
{
"epoch": 0.3626666666666667,
"grad_norm": 2.15625,
"learning_rate": 1.8824424315638233e-05,
"loss": 0.024211180210113526,
"step": 680,
"token_acc": 0.9887694145758662
},
{
"epoch": 0.368,
"grad_norm": 2.171875,
"learning_rate": 1.8783461321429356e-05,
"loss": 0.02285428047180176,
"step": 690,
"token_acc": 0.9899183869419107
},
{
"epoch": 0.37333333333333335,
"grad_norm": 2.875,
"learning_rate": 1.874184297294641e-05,
"loss": 0.017681846022605897,
"step": 700,
"token_acc": 0.9925319200192725
},
{
"epoch": 0.37866666666666665,
"grad_norm": 2.890625,
"learning_rate": 1.8699572375430206e-05,
"loss": 0.024342547357082366,
"step": 710,
"token_acc": 0.9891956782713085
},
{
"epoch": 0.384,
"grad_norm": 1.5546875,
"learning_rate": 1.8656652682787356e-05,
"loss": 0.019416600465774536,
"step": 720,
"token_acc": 0.9918111753371869
},
{
"epoch": 0.3893333333333333,
"grad_norm": 1.9921875,
"learning_rate": 1.861308709735496e-05,
"loss": 0.021490809321403504,
"step": 730,
"token_acc": 0.9920673076923077
},
{
"epoch": 0.39466666666666667,
"grad_norm": 1.359375,
"learning_rate": 1.856887886966166e-05,
"loss": 0.022315359115600585,
"step": 740,
"token_acc": 0.9910800385728061
},
{
"epoch": 0.4,
"grad_norm": 2.125,
"learning_rate": 1.8524031298185114e-05,
"loss": 0.02025478482246399,
"step": 750,
"token_acc": 0.9923076923076923
},
{
"epoch": 0.4053333333333333,
"grad_norm": 0.59765625,
"learning_rate": 1.8478547729105898e-05,
"loss": 0.01826128214597702,
"step": 760,
"token_acc": 0.9928005759539237
},
{
"epoch": 0.4106666666666667,
"grad_norm": 2.34375,
"learning_rate": 1.8432431556057832e-05,
"loss": 0.018927228450775147,
"step": 770,
"token_acc": 0.9920501084076127
},
{
"epoch": 0.416,
"grad_norm": 1.6796875,
"learning_rate": 1.838568621987478e-05,
"loss": 0.019689281284809113,
"step": 780,
"token_acc": 0.9923187710033605
},
{
"epoch": 0.42133333333333334,
"grad_norm": 1.0390625,
"learning_rate": 1.8338315208333904e-05,
"loss": 0.019245265424251555,
"step": 790,
"token_acc": 0.9921109251733206
},
{
"epoch": 0.4266666666666667,
"grad_norm": 3.15625,
"learning_rate": 1.8290322055895454e-05,
"loss": 0.029564368724822997,
"step": 800,
"token_acc": 0.9883692755027865
},
{
"epoch": 0.432,
"grad_norm": 1.8203125,
"learning_rate": 1.8241710343439042e-05,
"loss": 0.019276759028434752,
"step": 810,
"token_acc": 0.9908960229995208
},
{
"epoch": 0.43733333333333335,
"grad_norm": 1.8671875,
"learning_rate": 1.8192483697996473e-05,
"loss": 0.02783963978290558,
"step": 820,
"token_acc": 0.9889103182256509
},
{
"epoch": 0.44266666666666665,
"grad_norm": 1.109375,
"learning_rate": 1.814264579248111e-05,
"loss": 0.021492433547973634,
"step": 830,
"token_acc": 0.9923408329344183
},
{
"epoch": 0.448,
"grad_norm": 1.90625,
"learning_rate": 1.809220034541384e-05,
"loss": 0.018139883875846863,
"step": 840,
"token_acc": 0.9913565426170469
},
{
"epoch": 0.4533333333333333,
"grad_norm": 1.9765625,
"learning_rate": 1.8041151120645622e-05,
"loss": 0.01825737953186035,
"step": 850,
"token_acc": 0.9932789246279404
},
{
"epoch": 0.45866666666666667,
"grad_norm": 1.0078125,
"learning_rate": 1.7989501927076663e-05,
"loss": 0.019094854593276978,
"step": 860,
"token_acc": 0.9921109251733206
},
{
"epoch": 0.464,
"grad_norm": 2.4375,
"learning_rate": 1.793725661837223e-05,
"loss": 0.016404467821121215,
"step": 870,
"token_acc": 0.9937649880095923
},
{
"epoch": 0.4693333333333333,
"grad_norm": 0.625,
"learning_rate": 1.7884419092675104e-05,
"loss": 0.01613576114177704,
"step": 880,
"token_acc": 0.9940033581194531
},
{
"epoch": 0.4746666666666667,
"grad_norm": 1.15625,
"learning_rate": 1.7830993292314736e-05,
"loss": 0.02038634419441223,
"step": 890,
"token_acc": 0.9923518164435946
},
{
"epoch": 0.48,
"grad_norm": 2.78125,
"learning_rate": 1.7776983203513113e-05,
"loss": 0.022456066310405733,
"step": 900,
"token_acc": 0.9901014002897152
},
{
"epoch": 0.48533333333333334,
"grad_norm": 1.640625,
"learning_rate": 1.7722392856087326e-05,
"loss": 0.020150689780712126,
"step": 910,
"token_acc": 0.9925748502994012
},
{
"epoch": 0.49066666666666664,
"grad_norm": 0.78515625,
"learning_rate": 1.7667226323148894e-05,
"loss": 0.020665311813354494,
"step": 920,
"token_acc": 0.9916167664670659
},
{
"epoch": 0.496,
"grad_norm": 1.9140625,
"learning_rate": 1.7611487720799868e-05,
"loss": 0.02016124427318573,
"step": 930,
"token_acc": 0.9916267942583732
},
{
"epoch": 0.5013333333333333,
"grad_norm": 2.21875,
"learning_rate": 1.7555181207825712e-05,
"loss": 0.02833055853843689,
"step": 940,
"token_acc": 0.9886801541425819
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.91015625,
"learning_rate": 1.749831098538501e-05,
"loss": 0.01865219920873642,
"step": 950,
"token_acc": 0.9929816069699903
},
{
"epoch": 0.512,
"grad_norm": 1.4765625,
"learning_rate": 1.744088129669601e-05,
"loss": 0.015682655572891235,
"step": 960,
"token_acc": 0.9940334128878282
},
{
"epoch": 0.5173333333333333,
"grad_norm": 2.171875,
"learning_rate": 1.7382896426720025e-05,
"loss": 0.01739872097969055,
"step": 970,
"token_acc": 0.9930238152513832
},
{
"epoch": 0.5226666666666666,
"grad_norm": 2.328125,
"learning_rate": 1.732436070184172e-05,
"loss": 0.021472826600074768,
"step": 980,
"token_acc": 0.9922965816080885
},
{
"epoch": 0.528,
"grad_norm": 1.40625,
"learning_rate": 1.726527848954631e-05,
"loss": 0.02006145417690277,
"step": 990,
"token_acc": 0.9905910735826297
},
{
"epoch": 0.5333333333333333,
"grad_norm": 1.140625,
"learning_rate": 1.72056541980937e-05,
"loss": 0.01847991794347763,
"step": 1000,
"token_acc": 0.9911462072266093
},
{
"epoch": 0.5386666666666666,
"grad_norm": 1.3515625,
"learning_rate": 1.7145492276189565e-05,
"loss": 0.01983983814716339,
"step": 1010,
"token_acc": 0.9906295050456512
},
{
"epoch": 0.544,
"grad_norm": 2.25,
"learning_rate": 1.7084797212653427e-05,
"loss": 0.020782938599586485,
"step": 1020,
"token_acc": 0.9922928709055877
},
{
"epoch": 0.5493333333333333,
"grad_norm": 2.40625,
"learning_rate": 1.7023573536083734e-05,
"loss": 0.017258843779563902,
"step": 1030,
"token_acc": 0.9934545454545455
},
{
"epoch": 0.5546666666666666,
"grad_norm": 1.3046875,
"learning_rate": 1.6961825814519976e-05,
"loss": 0.020492631196975707,
"step": 1040,
"token_acc": 0.9898477157360406
},
{
"epoch": 0.56,
"grad_norm": 0.9296875,
"learning_rate": 1.6899558655101832e-05,
"loss": 0.018405696749687193,
"step": 1050,
"token_acc": 0.9937694704049844
},
{
"epoch": 0.5653333333333334,
"grad_norm": 1.1953125,
"learning_rate": 1.683677670372544e-05,
"loss": 0.02100014090538025,
"step": 1060,
"token_acc": 0.9916347992351816
},
{
"epoch": 0.5706666666666667,
"grad_norm": 1.671875,
"learning_rate": 1.6773484644696764e-05,
"loss": 0.01713407039642334,
"step": 1070,
"token_acc": 0.9932708483537611
},
{
"epoch": 0.576,
"grad_norm": 2.390625,
"learning_rate": 1.6709687200382057e-05,
"loss": 0.018759623169898987,
"step": 1080,
"token_acc": 0.9932659932659933
},
{
"epoch": 0.5813333333333334,
"grad_norm": 1.4921875,
"learning_rate": 1.6645389130855547e-05,
"loss": 0.02089170664548874,
"step": 1090,
"token_acc": 0.9915905814512254
},
{
"epoch": 0.5866666666666667,
"grad_norm": 1.6796875,
"learning_rate": 1.658059523354425e-05,
"loss": 0.023786291480064392,
"step": 1100,
"token_acc": 0.9910735826296743
},
{
"epoch": 0.592,
"grad_norm": 2.328125,
"learning_rate": 1.6515310342870038e-05,
"loss": 0.02250564396381378,
"step": 1110,
"token_acc": 0.9894179894179894
},
{
"epoch": 0.5973333333333334,
"grad_norm": 1.03125,
"learning_rate": 1.6449539329888934e-05,
"loss": 0.018116173148155213,
"step": 1120,
"token_acc": 0.9922761284093652
},
{
"epoch": 0.6026666666666667,
"grad_norm": 1.984375,
"learning_rate": 1.638328710192766e-05,
"loss": 0.015691110491752626,
"step": 1130,
"token_acc": 0.9942501197891711
},
{
"epoch": 0.608,
"grad_norm": 1.953125,
"learning_rate": 1.63165586022175e-05,
"loss": 0.020994681119918823,
"step": 1140,
"token_acc": 0.9935158501440923
},
{
"epoch": 0.6133333333333333,
"grad_norm": 1.9296875,
"learning_rate": 1.6249358809525457e-05,
"loss": 0.021514520049095154,
"step": 1150,
"token_acc": 0.9916187739463601
},
{
"epoch": 0.6186666666666667,
"grad_norm": 1.078125,
"learning_rate": 1.6181692737782806e-05,
"loss": 0.019446739554405214,
"step": 1160,
"token_acc": 0.9911462072266093
},
{
"epoch": 0.624,
"grad_norm": 25.875,
"learning_rate": 1.6113565435710975e-05,
"loss": 0.02417919337749481,
"step": 1170,
"token_acc": 0.9889049686444766
},
{
"epoch": 0.6293333333333333,
"grad_norm": 1.203125,
"learning_rate": 1.6044981986444827e-05,
"loss": 0.016394074261188506,
"step": 1180,
"token_acc": 0.9947077219148425
},
{
"epoch": 0.6346666666666667,
"grad_norm": 1.765625,
"learning_rate": 1.597594750715344e-05,
"loss": 0.025788456201553345,
"step": 1190,
"token_acc": 0.9900918318028032
},
{
"epoch": 0.64,
"grad_norm": 1.5390625,
"learning_rate": 1.590646714865828e-05,
"loss": 0.02058074176311493,
"step": 1200,
"token_acc": 0.9913419913419913
},
{
"epoch": 0.6453333333333333,
"grad_norm": 1.2109375,
"learning_rate": 1.5836546095048873e-05,
"loss": 0.02075360417366028,
"step": 1210,
"token_acc": 0.9903614457831326
},
{
"epoch": 0.6506666666666666,
"grad_norm": 2.15625,
"learning_rate": 1.5766189563296027e-05,
"loss": 0.01986580789089203,
"step": 1220,
"token_acc": 0.991866028708134
},
{
"epoch": 0.656,
"grad_norm": 1.0390625,
"learning_rate": 1.5695402802862586e-05,
"loss": 0.020870494842529296,
"step": 1230,
"token_acc": 0.9921052631578947
},
{
"epoch": 0.6613333333333333,
"grad_norm": 0.98828125,
"learning_rate": 1.5624191095311736e-05,
"loss": 0.01600797474384308,
"step": 1240,
"token_acc": 0.9934593023255814
},
{
"epoch": 0.6666666666666666,
"grad_norm": 1.828125,
"learning_rate": 1.5552559753912952e-05,
"loss": 0.018866974115371703,
"step": 1250,
"token_acc": 0.9932853717026379
},
{
"epoch": 0.672,
"grad_norm": 1.203125,
"learning_rate": 1.5480514123245557e-05,
"loss": 0.014872387051582336,
"step": 1260,
"token_acc": 0.9934782608695653
},
{
"epoch": 0.6773333333333333,
"grad_norm": 1.3515625,
"learning_rate": 1.540805957879994e-05,
"loss": 0.01863376349210739,
"step": 1270,
"token_acc": 0.9929799080125877
},
{
"epoch": 0.6826666666666666,
"grad_norm": 1.234375,
"learning_rate": 1.5335201526576505e-05,
"loss": 0.017441746592521668,
"step": 1280,
"token_acc": 0.9937469937469937
},
{
"epoch": 0.688,
"grad_norm": 0.7890625,
"learning_rate": 1.5261945402682292e-05,
"loss": 0.015908092260360718,
"step": 1290,
"token_acc": 0.9935189630340855
},
{
"epoch": 0.6933333333333334,
"grad_norm": 1.4296875,
"learning_rate": 1.5188296672925378e-05,
"loss": 0.01847825348377228,
"step": 1300,
"token_acc": 0.9921033740129217
},
{
"epoch": 0.6986666666666667,
"grad_norm": 1.3125,
"learning_rate": 1.511426083240708e-05,
"loss": 0.020309022068977355,
"step": 1310,
"token_acc": 0.9918776875298615
},
{
"epoch": 0.704,
"grad_norm": 1.109375,
"learning_rate": 1.503984340511193e-05,
"loss": 0.015028844773769378,
"step": 1320,
"token_acc": 0.9934687953555879
},
{
"epoch": 0.7093333333333334,
"grad_norm": 1.6640625,
"learning_rate": 1.496504994349554e-05,
"loss": 0.020722246170043944,
"step": 1330,
"token_acc": 0.9917993246502653
},
{
"epoch": 0.7146666666666667,
"grad_norm": 2.765625,
"learning_rate": 1.4889886028070295e-05,
"loss": 0.01873396784067154,
"step": 1340,
"token_acc": 0.9920787325972156
},
{
"epoch": 0.72,
"grad_norm": 2.828125,
"learning_rate": 1.4814357266989e-05,
"loss": 0.015888297557830812,
"step": 1350,
"token_acc": 0.9925801819052178
},
{
"epoch": 0.7253333333333334,
"grad_norm": 1.6015625,
"learning_rate": 1.4738469295626435e-05,
"loss": 0.021275366842746734,
"step": 1360,
"token_acc": 0.9901299951853635
},
{
"epoch": 0.7306666666666667,
"grad_norm": 2.359375,
"learning_rate": 1.4662227776158877e-05,
"loss": 0.019410797953605653,
"step": 1370,
"token_acc": 0.991321118611379
},
{
"epoch": 0.736,
"grad_norm": 1.625,
"learning_rate": 1.4585638397141657e-05,
"loss": 0.01648997813463211,
"step": 1380,
"token_acc": 0.9937769267592149
},
{
"epoch": 0.7413333333333333,
"grad_norm": 2.015625,
"learning_rate": 1.4508706873084691e-05,
"loss": 0.016959480941295624,
"step": 1390,
"token_acc": 0.9930572180991142
},
{
"epoch": 0.7466666666666667,
"grad_norm": 2.609375,
"learning_rate": 1.4431438944026135e-05,
"loss": 0.0224549800157547,
"step": 1400,
"token_acc": 0.9907990314769975
},
{
"epoch": 0.752,
"grad_norm": 0.8671875,
"learning_rate": 1.4353840375104093e-05,
"loss": 0.020980487763881683,
"step": 1410,
"token_acc": 0.9906429942418427
},
{
"epoch": 0.7573333333333333,
"grad_norm": 1.46875,
"learning_rate": 1.4275916956126475e-05,
"loss": 0.018121670186519622,
"step": 1420,
"token_acc": 0.9928281137939278
},
{
"epoch": 0.7626666666666667,
"grad_norm": 1.453125,
"learning_rate": 1.4197674501138993e-05,
"loss": 0.01867426037788391,
"step": 1430,
"token_acc": 0.9937634924442312
},
{
"epoch": 0.768,
"grad_norm": 1.1484375,
"learning_rate": 1.411911884799138e-05,
"loss": 0.02212289273738861,
"step": 1440,
"token_acc": 0.9910972088546679
},
{
"epoch": 0.7733333333333333,
"grad_norm": 1.125,
"learning_rate": 1.4040255857901797e-05,
"loss": 0.0170156791806221,
"step": 1450,
"token_acc": 0.9925641640681219
},
{
"epoch": 0.7786666666666666,
"grad_norm": 2.453125,
"learning_rate": 1.3961091415019525e-05,
"loss": 0.01638861894607544,
"step": 1460,
"token_acc": 0.992320614350852
},
{
"epoch": 0.784,
"grad_norm": 1.921875,
"learning_rate": 1.3881631425985935e-05,
"loss": 0.01728953719139099,
"step": 1470,
"token_acc": 0.993993272465161
},
{
"epoch": 0.7893333333333333,
"grad_norm": 3.0625,
"learning_rate": 1.3801881819493772e-05,
"loss": 0.01775331199169159,
"step": 1480,
"token_acc": 0.9929900894367899
},
{
"epoch": 0.7946666666666666,
"grad_norm": 1.2265625,
"learning_rate": 1.3721848545844812e-05,
"loss": 0.01741935908794403,
"step": 1490,
"token_acc": 0.9929934766851897
},
{
"epoch": 0.8,
"grad_norm": 2.46875,
"learning_rate": 1.3641537576505882e-05,
"loss": 0.015620550513267517,
"step": 1500,
"token_acc": 0.9935205183585313
},
{
"epoch": 0.8053333333333333,
"grad_norm": 1.5546875,
"learning_rate": 1.3560954903663333e-05,
"loss": 0.01380889117717743,
"step": 1510,
"token_acc": 0.9932595089070775
},
{
"epoch": 0.8106666666666666,
"grad_norm": 1.359375,
"learning_rate": 1.3480106539775935e-05,
"loss": 0.015630985796451568,
"step": 1520,
"token_acc": 0.9935018050541516
},
{
"epoch": 0.816,
"grad_norm": 1.6484375,
"learning_rate": 1.3398998517126275e-05,
"loss": 0.02101683020591736,
"step": 1530,
"token_acc": 0.9911100432484382
},
{
"epoch": 0.8213333333333334,
"grad_norm": 1.3125,
"learning_rate": 1.3317636887370695e-05,
"loss": 0.016578157246112824,
"step": 1540,
"token_acc": 0.9917775090689238
},
{
"epoch": 0.8266666666666667,
"grad_norm": 2.015625,
"learning_rate": 1.3236027721087724e-05,
"loss": 0.020927420258522032,
"step": 1550,
"token_acc": 0.990118100747168
},
{
"epoch": 0.832,
"grad_norm": 1.6484375,
"learning_rate": 1.3154177107325174e-05,
"loss": 0.016280189156532288,
"step": 1560,
"token_acc": 0.9930388862217955
},
{
"epoch": 0.8373333333333334,
"grad_norm": 1.5390625,
"learning_rate": 1.307209115314581e-05,
"loss": 0.01498023122549057,
"step": 1570,
"token_acc": 0.9932676124068286
},
{
"epoch": 0.8426666666666667,
"grad_norm": 1.203125,
"learning_rate": 1.2989775983171688e-05,
"loss": 0.01635483354330063,
"step": 1580,
"token_acc": 0.9932448733413751
},
{
"epoch": 0.848,
"grad_norm": 1.328125,
"learning_rate": 1.2907237739127174e-05,
"loss": 0.01580911874771118,
"step": 1590,
"token_acc": 0.9927606177606177
},
{
"epoch": 0.8533333333333334,
"grad_norm": 2.703125,
"learning_rate": 1.2824482579380715e-05,
"loss": 0.017236483097076417,
"step": 1600,
"token_acc": 0.9939990398463754
},
{
"epoch": 0.8586666666666667,
"grad_norm": 1.234375,
"learning_rate": 1.274151667848533e-05,
"loss": 0.013278999924659729,
"step": 1610,
"token_acc": 0.9952164553934465
},
{
"epoch": 0.864,
"grad_norm": 0.78515625,
"learning_rate": 1.2658346226717917e-05,
"loss": 0.01357889622449875,
"step": 1620,
"token_acc": 0.9937439846005774
},
{
"epoch": 0.8693333333333333,
"grad_norm": 1.4453125,
"learning_rate": 1.25749774296174e-05,
"loss": 0.019012153148651123,
"step": 1630,
"token_acc": 0.992816091954023
},
{
"epoch": 0.8746666666666667,
"grad_norm": 1.9296875,
"learning_rate": 1.2491416507521692e-05,
"loss": 0.01692788451910019,
"step": 1640,
"token_acc": 0.993006993006993
},
{
"epoch": 0.88,
"grad_norm": 1.5625,
"learning_rate": 1.2407669695103602e-05,
"loss": 0.01657618284225464,
"step": 1650,
"token_acc": 0.9930622009569378
},
{
"epoch": 0.8853333333333333,
"grad_norm": 1.25,
"learning_rate": 1.2323743240905634e-05,
"loss": 0.014970755577087403,
"step": 1660,
"token_acc": 0.9937243543326092
},
{
"epoch": 0.8906666666666667,
"grad_norm": 1.03125,
"learning_rate": 1.223964340687379e-05,
"loss": 0.015818938612937927,
"step": 1670,
"token_acc": 0.9932692307692308
},
{
"epoch": 0.896,
"grad_norm": 0.96875,
"learning_rate": 1.2155376467890341e-05,
"loss": 0.02039675712585449,
"step": 1680,
"token_acc": 0.9917874396135266
},
{
"epoch": 0.9013333333333333,
"grad_norm": 0.91015625,
"learning_rate": 1.207094871130563e-05,
"loss": 0.016360247135162355,
"step": 1690,
"token_acc": 0.991813147122562
},
{
"epoch": 0.9066666666666666,
"grad_norm": 1.0078125,
"learning_rate": 1.1986366436468986e-05,
"loss": 0.017489761114120483,
"step": 1700,
"token_acc": 0.992519305019305
},
{
"epoch": 0.912,
"grad_norm": 1.8203125,
"learning_rate": 1.1901635954258688e-05,
"loss": 0.02098821699619293,
"step": 1710,
"token_acc": 0.9916127486220944
},
{
"epoch": 0.9173333333333333,
"grad_norm": 1.578125,
"learning_rate": 1.1816763586611121e-05,
"loss": 0.015266384184360503,
"step": 1720,
"token_acc": 0.9927884615384616
},
{
"epoch": 0.9226666666666666,
"grad_norm": 1.578125,
"learning_rate": 1.1731755666049058e-05,
"loss": 0.017502057552337646,
"step": 1730,
"token_acc": 0.994256999282125
},
{
"epoch": 0.928,
"grad_norm": 1.6640625,
"learning_rate": 1.16466185352092e-05,
"loss": 0.01726265549659729,
"step": 1740,
"token_acc": 0.9923169267707083
},
{
"epoch": 0.9333333333333333,
"grad_norm": 2.078125,
"learning_rate": 1.1561358546368907e-05,
"loss": 0.015200915932655334,
"step": 1750,
"token_acc": 0.9925211097708082
},
{
"epoch": 0.9386666666666666,
"grad_norm": 0.77734375,
"learning_rate": 1.1475982060972273e-05,
"loss": 0.019084087014198302,
"step": 1760,
"token_acc": 0.9923132356473697
},
{
"epoch": 0.944,
"grad_norm": 1.0546875,
"learning_rate": 1.1390495449155461e-05,
"loss": 0.019373241066932678,
"step": 1770,
"token_acc": 0.9918288872867099
},
{
"epoch": 0.9493333333333334,
"grad_norm": 1.3046875,
"learning_rate": 1.1304905089271419e-05,
"loss": 0.019359979033470153,
"step": 1780,
"token_acc": 0.9923150816522575
},
{
"epoch": 0.9546666666666667,
"grad_norm": 1.2265625,
"learning_rate": 1.1219217367413979e-05,
"loss": 0.01616174578666687,
"step": 1790,
"token_acc": 0.9928143712574851
},
{
"epoch": 0.96,
"grad_norm": 0.98828125,
"learning_rate": 1.1133438676941376e-05,
"loss": 0.016984623670578004,
"step": 1800,
"token_acc": 0.9930271699927867
},
{
"epoch": 0.9653333333333334,
"grad_norm": 1.0703125,
"learning_rate": 1.1047575417999222e-05,
"loss": 0.01455014944076538,
"step": 1810,
"token_acc": 0.9932627526467758
},
{
"epoch": 0.9706666666666667,
"grad_norm": 1.5625,
"learning_rate": 1.0961633997042972e-05,
"loss": 0.013113033771514893,
"step": 1820,
"token_acc": 0.9945094294581046
},
{
"epoch": 0.976,
"grad_norm": 0.60546875,
"learning_rate": 1.0875620826359939e-05,
"loss": 0.014685747027397156,
"step": 1830,
"token_acc": 0.9929679922405431
},
{
"epoch": 0.9813333333333333,
"grad_norm": 2.578125,
"learning_rate": 1.0789542323590839e-05,
"loss": 0.017240770161151886,
"step": 1840,
"token_acc": 0.9937590014402304
},
{
"epoch": 0.9866666666666667,
"grad_norm": 2.703125,
"learning_rate": 1.0703404911250963e-05,
"loss": 0.01656486988067627,
"step": 1850,
"token_acc": 0.9937530033637674
},
{
"epoch": 0.992,
"grad_norm": 1.703125,
"learning_rate": 1.0617215016250996e-05,
"loss": 0.01589758098125458,
"step": 1860,
"token_acc": 0.9944524843222383
},
{
"epoch": 0.9973333333333333,
"grad_norm": 2.734375,
"learning_rate": 1.0530979069417463e-05,
"loss": 0.015091650187969208,
"step": 1870,
"token_acc": 0.9942252165543792
},
{
"epoch": 1.0026666666666666,
"grad_norm": 0.71484375,
"learning_rate": 1.044470350501292e-05,
"loss": 0.00926424264907837,
"step": 1880,
"token_acc": 0.9962396590624216
},
{
"epoch": 1.008,
"grad_norm": 1.46875,
"learning_rate": 1.0358394760255891e-05,
"loss": 0.004853641241788864,
"step": 1890,
"token_acc": 0.9983091787439613
},
{
"epoch": 1.0133333333333334,
"grad_norm": 0.2578125,
"learning_rate": 1.0272059274840555e-05,
"loss": 0.006672994792461395,
"step": 1900,
"token_acc": 0.9980852082336046
},
{
"epoch": 1.0186666666666666,
"grad_norm": 1.0,
"learning_rate": 1.0185703490456281e-05,
"loss": 0.00521823950111866,
"step": 1910,
"token_acc": 0.998324958123953
},
{
"epoch": 1.024,
"grad_norm": 0.11767578125,
"learning_rate": 1.0099333850306979e-05,
"loss": 0.0029520409181714056,
"step": 1920,
"token_acc": 0.9992800575953924
},
{
"epoch": 1.0293333333333334,
"grad_norm": 0.50390625,
"learning_rate": 1.001295679863038e-05,
"loss": 0.005888096615672111,
"step": 1930,
"token_acc": 0.9980838323353294
},
{
"epoch": 1.0346666666666666,
"grad_norm": 1.1328125,
"learning_rate": 9.926578780217198e-06,
"loss": 0.006349328905344009,
"step": 1940,
"token_acc": 0.9990412272291467
},
{
"epoch": 1.04,
"grad_norm": 4.59375,
"learning_rate": 9.840206239930286e-06,
"loss": 0.007245439291000366,
"step": 1950,
"token_acc": 0.99712368168744
},
{
"epoch": 1.0453333333333332,
"grad_norm": 0.1767578125,
"learning_rate": 9.753845622223758e-06,
"loss": 0.005397027730941773,
"step": 1960,
"token_acc": 0.9983164983164983
},
{
"epoch": 1.0506666666666666,
"grad_norm": 0.130859375,
"learning_rate": 9.66750337066215e-06,
"loss": 0.008311130106449127,
"step": 1970,
"token_acc": 0.9961547704878635
},
{
"epoch": 1.056,
"grad_norm": 0.92578125,
"learning_rate": 9.581185927439665e-06,
"loss": 0.0037665631622076034,
"step": 1980,
"token_acc": 0.9987992315081652
},
{
"epoch": 1.0613333333333332,
"grad_norm": 3.171875,
"learning_rate": 9.4948997328995e-06,
"loss": 0.005160611867904663,
"step": 1990,
"token_acc": 0.9975822050290135
},
{
"epoch": 1.0666666666666667,
"grad_norm": 3.0,
"learning_rate": 9.408651225053313e-06,
"loss": 0.008499051630496978,
"step": 2000,
"token_acc": 0.9978354978354979
},
{
"epoch": 1.072,
"grad_norm": 0.44140625,
"learning_rate": 9.32244683910087e-06,
"loss": 0.0035781636834144592,
"step": 2010,
"token_acc": 0.9983136593591906
},
{
"epoch": 1.0773333333333333,
"grad_norm": 1.890625,
"learning_rate": 9.236293006949901e-06,
"loss": 0.0061306580901145935,
"step": 2020,
"token_acc": 0.9968884633796075
},
{
"epoch": 1.0826666666666667,
"grad_norm": 1.7265625,
"learning_rate": 9.150196156736205e-06,
"loss": 0.006732334196567535,
"step": 2030,
"token_acc": 0.9980750721847931
},
{
"epoch": 1.088,
"grad_norm": 1.8046875,
"learning_rate": 9.064162712344015e-06,
"loss": 0.005464298278093338,
"step": 2040,
"token_acc": 0.9968576262992507
},
{
"epoch": 1.0933333333333333,
"grad_norm": 3.546875,
"learning_rate": 8.978199092926726e-06,
"loss": 0.007541795819997787,
"step": 2050,
"token_acc": 0.9976133651551312
},
{
"epoch": 1.0986666666666667,
"grad_norm": 1.609375,
"learning_rate": 8.892311712427924e-06,
"loss": 0.004805643856525421,
"step": 2060,
"token_acc": 0.9985594237695078
},
{
"epoch": 1.104,
"grad_norm": 1.6875,
"learning_rate": 8.806506979102834e-06,
"loss": 0.0038967303931713103,
"step": 2070,
"token_acc": 0.9983177120884402
},
{
"epoch": 1.1093333333333333,
"grad_norm": 2.40625,
"learning_rate": 8.720791295040175e-06,
"loss": 0.006791643053293228,
"step": 2080,
"token_acc": 0.9973627427475426
},
{
"epoch": 1.1146666666666667,
"grad_norm": 0.03466796875,
"learning_rate": 8.63517105568451e-06,
"loss": 0.010593726485967635,
"step": 2090,
"token_acc": 0.9963968292097045
},
{
"epoch": 1.12,
"grad_norm": 0.61328125,
"learning_rate": 8.549652649359053e-06,
"loss": 0.008941850066184998,
"step": 2100,
"token_acc": 0.9973551334455398
},
{
"epoch": 1.1253333333333333,
"grad_norm": 0.52734375,
"learning_rate": 8.46424245678901e-06,
"loss": 0.002381850406527519,
"step": 2110,
"token_acc": 0.9997611084567606
},
{
"epoch": 1.1306666666666667,
"grad_norm": 1.078125,
"learning_rate": 8.37894685062551e-06,
"loss": 0.004864877089858055,
"step": 2120,
"token_acc": 0.9978380975258228
},
{
"epoch": 1.1360000000000001,
"grad_norm": 1.5859375,
"learning_rate": 8.293772194970137e-06,
"loss": 0.006302349269390106,
"step": 2130,
"token_acc": 0.9971167707832773
},
{
"epoch": 1.1413333333333333,
"grad_norm": 1.03125,
"learning_rate": 8.208724844900078e-06,
"loss": 0.006415116786956787,
"step": 2140,
"token_acc": 0.9975996159385502
},
{
"epoch": 1.1466666666666667,
"grad_norm": 0.333984375,
"learning_rate": 8.123811145993943e-06,
"loss": 0.004534322023391724,
"step": 2150,
"token_acc": 0.9985569985569985
},
{
"epoch": 1.152,
"grad_norm": 0.81640625,
"learning_rate": 8.039037433858334e-06,
"loss": 0.0036215364933013918,
"step": 2160,
"token_acc": 0.9985611510791367
},
{
"epoch": 1.1573333333333333,
"grad_norm": 2.53125,
"learning_rate": 7.95441003365512e-06,
"loss": 0.0054457664489746095,
"step": 2170,
"token_acc": 0.9983189241114313
},
{
"epoch": 1.1626666666666667,
"grad_norm": 1.21875,
"learning_rate": 7.869935259629486e-06,
"loss": 0.002699613384902477,
"step": 2180,
"token_acc": 0.9987931450639633
},
{
"epoch": 1.168,
"grad_norm": 0.427734375,
"learning_rate": 7.785619414638836e-06,
"loss": 0.0033791519701480864,
"step": 2190,
"token_acc": 0.9985538684020245
},
{
"epoch": 1.1733333333333333,
"grad_norm": 0.384765625,
"learning_rate": 7.701468789682511e-06,
"loss": 0.006151729822158813,
"step": 2200,
"token_acc": 0.9975874547647768
},
{
"epoch": 1.1786666666666668,
"grad_norm": 1.34375,
"learning_rate": 7.6174896634324135e-06,
"loss": 0.0063545525074005125,
"step": 2210,
"token_acc": 0.9973690504663956
},
{
"epoch": 1.184,
"grad_norm": 2.53125,
"learning_rate": 7.533688301764511e-06,
"loss": 0.007921293377876282,
"step": 2220,
"token_acc": 0.9976070830342187
},
{
"epoch": 1.1893333333333334,
"grad_norm": 0.01483154296875,
"learning_rate": 7.450070957291366e-06,
"loss": 0.002941630594432354,
"step": 2230,
"token_acc": 0.9990403071017274
},
{
"epoch": 1.1946666666666665,
"grad_norm": 1.6796875,
"learning_rate": 7.3666438688955885e-06,
"loss": 0.003889225795865059,
"step": 2240,
"token_acc": 0.9983265598852499
},
{
"epoch": 1.2,
"grad_norm": 2.4375,
"learning_rate": 7.283413261264341e-06,
"loss": 0.009336037933826447,
"step": 2250,
"token_acc": 0.9964037401102853
},
{
"epoch": 1.2053333333333334,
"grad_norm": 0.1552734375,
"learning_rate": 7.200385344424908e-06,
"loss": 0.0049955971539020535,
"step": 2260,
"token_acc": 0.9978271366489618
},
{
"epoch": 1.2106666666666666,
"grad_norm": 0.96875,
"learning_rate": 7.117566313281346e-06,
"loss": 0.006457388401031494,
"step": 2270,
"token_acc": 0.9973532242540905
},
{
"epoch": 1.216,
"grad_norm": 0.5078125,
"learning_rate": 7.03496234715227e-06,
"loss": 0.00416189506649971,
"step": 2280,
"token_acc": 0.9980755352417608
},
{
"epoch": 1.2213333333333334,
"grad_norm": 0.197265625,
"learning_rate": 6.952579609309793e-06,
"loss": 0.002200193703174591,
"step": 2290,
"token_acc": 0.9990400767938565
},
{
"epoch": 1.2266666666666666,
"grad_norm": 0.1416015625,
"learning_rate": 6.870424246519682e-06,
"loss": 0.002812638506293297,
"step": 2300,
"token_acc": 0.9992804029743344
},
{
"epoch": 1.232,
"grad_norm": 0.1015625,
"learning_rate": 6.788502388582727e-06,
"loss": 0.004387106746435165,
"step": 2310,
"token_acc": 0.9983169031017072
},
{
"epoch": 1.2373333333333334,
"grad_norm": 2.34375,
"learning_rate": 6.706820147877388e-06,
"loss": 0.0042403869330883024,
"step": 2320,
"token_acc": 0.9983156881616939
},
{
"epoch": 1.2426666666666666,
"grad_norm": 1.2734375,
"learning_rate": 6.625383618903718e-06,
"loss": 0.003984439373016358,
"step": 2330,
"token_acc": 0.9983104030895487
},
{
"epoch": 1.248,
"grad_norm": 4.40625,
"learning_rate": 6.5441988778286625e-06,
"loss": 0.011166787147521973,
"step": 2340,
"token_acc": 0.9971139971139971
},
{
"epoch": 1.2533333333333334,
"grad_norm": 0.88671875,
"learning_rate": 6.463271982032695e-06,
"loss": 0.005804238468408584,
"step": 2350,
"token_acc": 0.9983148772267694
},
{
"epoch": 1.2586666666666666,
"grad_norm": 0.64453125,
"learning_rate": 6.382608969657847e-06,
"loss": 0.009684956073760987,
"step": 2360,
"token_acc": 0.9968929254302104
},
{
"epoch": 1.264,
"grad_norm": 2.75,
"learning_rate": 6.302215859157208e-06,
"loss": 0.005170706287026405,
"step": 2370,
"token_acc": 0.9980727535533607
},
{
"epoch": 1.2693333333333334,
"grad_norm": 0.65625,
"learning_rate": 6.22209864884587e-06,
"loss": 0.005149983614683151,
"step": 2380,
"token_acc": 0.9976065102920058
},
{
"epoch": 1.2746666666666666,
"grad_norm": 1.0546875,
"learning_rate": 6.142263316453376e-06,
"loss": 0.004198073223233223,
"step": 2390,
"token_acc": 0.9985583853916387
},
{
"epoch": 1.28,
"grad_norm": 2.734375,
"learning_rate": 6.062715818677696e-06,
"loss": 0.00775875523686409,
"step": 2400,
"token_acc": 0.9971098265895953
},
{
"epoch": 1.2853333333333334,
"grad_norm": 0.83203125,
"learning_rate": 5.983462090740811e-06,
"loss": 0.0033920254558324815,
"step": 2410,
"token_acc": 0.999279711884754
},
{
"epoch": 1.2906666666666666,
"grad_norm": 0.7421875,
"learning_rate": 5.904508045945854e-06,
"loss": 0.005340686440467835,
"step": 2420,
"token_acc": 0.9971284996410624
},
{
"epoch": 1.296,
"grad_norm": 1.0546875,
"learning_rate": 5.825859575235904e-06,
"loss": 0.004911442846059799,
"step": 2430,
"token_acc": 0.9983112183353438
},
{
"epoch": 1.3013333333333335,
"grad_norm": 1.046875,
"learning_rate": 5.747522546754456e-06,
"loss": 0.004845966398715973,
"step": 2440,
"token_acc": 0.9973519499277804
},
{
"epoch": 1.3066666666666666,
"grad_norm": 2.0,
"learning_rate": 5.669502805407592e-06,
"loss": 0.004123274236917496,
"step": 2450,
"token_acc": 0.9985576923076923
},
{
"epoch": 1.312,
"grad_norm": 1.6484375,
"learning_rate": 5.591806172427858e-06,
"loss": 0.0051461681723594666,
"step": 2460,
"token_acc": 0.9985652797704447
},
{
"epoch": 1.3173333333333335,
"grad_norm": 0.421875,
"learning_rate": 5.514438444939947e-06,
"loss": 0.004213321581482887,
"step": 2470,
"token_acc": 0.9985524728588661
},
{
"epoch": 1.3226666666666667,
"grad_norm": 0.5625,
"learning_rate": 5.437405395528148e-06,
"loss": 0.002550625242292881,
"step": 2480,
"token_acc": 0.9990379990379991
},
{
"epoch": 1.328,
"grad_norm": 1.9921875,
"learning_rate": 5.36071277180567e-06,
"loss": 0.0048110231757164,
"step": 2490,
"token_acc": 0.9975973089860644
},
{
"epoch": 1.3333333333333333,
"grad_norm": 1.59375,
"learning_rate": 5.284366295985741e-06,
"loss": 0.0039034508168697356,
"step": 2500,
"token_acc": 0.9985604606525912
},
{
"epoch": 1.3386666666666667,
"grad_norm": 0.5703125,
"learning_rate": 5.208371664454737e-06,
"loss": 0.006703800708055496,
"step": 2510,
"token_acc": 0.9980833732630571
},
{
"epoch": 1.3439999999999999,
"grad_norm": 0.1630859375,
"learning_rate": 5.132734547347088e-06,
"loss": 0.004545541480183601,
"step": 2520,
"token_acc": 0.998081074598225
},
{
"epoch": 1.3493333333333333,
"grad_norm": 2.265625,
"learning_rate": 5.057460588122276e-06,
"loss": 0.006165074557065964,
"step": 2530,
"token_acc": 0.997837578087458
},
{
"epoch": 1.3546666666666667,
"grad_norm": 0.41015625,
"learning_rate": 4.98255540314372e-06,
"loss": 0.0034597426652908324,
"step": 2540,
"token_acc": 0.9987966305655837
},
{
"epoch": 1.3599999999999999,
"grad_norm": 4.46875,
"learning_rate": 4.908024581259744e-06,
"loss": 0.008379907160997391,
"step": 2550,
"token_acc": 0.997597886139803
},
{
"epoch": 1.3653333333333333,
"grad_norm": 2.265625,
"learning_rate": 4.833873683386596e-06,
"loss": 0.004962638020515442,
"step": 2560,
"token_acc": 0.9980759980759981
},
{
"epoch": 1.3706666666666667,
"grad_norm": 1.6875,
"learning_rate": 4.760108242093493e-06,
"loss": 0.004094836115837097,
"step": 2570,
"token_acc": 0.9988023952095808
},
{
"epoch": 1.376,
"grad_norm": 0.201171875,
"learning_rate": 4.686733761189872e-06,
"loss": 0.003802131861448288,
"step": 2580,
"token_acc": 0.9985524728588661
},
{
"epoch": 1.3813333333333333,
"grad_norm": 0.30078125,
"learning_rate": 4.613755715314701e-06,
"loss": 0.004577885195612907,
"step": 2590,
"token_acc": 0.9983213429256594
},
{
"epoch": 1.3866666666666667,
"grad_norm": 0.71484375,
"learning_rate": 4.541179549528032e-06,
"loss": 0.006140761077404022,
"step": 2600,
"token_acc": 0.9978417266187051
},
{
"epoch": 1.392,
"grad_norm": 1.15625,
"learning_rate": 4.469010678904694e-06,
"loss": 0.005562315881252289,
"step": 2610,
"token_acc": 0.9968629343629344
},
{
"epoch": 1.3973333333333333,
"grad_norm": 0.08203125,
"learning_rate": 4.397254488130313e-06,
"loss": 0.006752446293830872,
"step": 2620,
"token_acc": 0.9976036424634556
},
{
"epoch": 1.4026666666666667,
"grad_norm": 0.48828125,
"learning_rate": 4.3259163310995e-06,
"loss": 0.004103198274970054,
"step": 2630,
"token_acc": 0.9985514244326412
},
{
"epoch": 1.408,
"grad_norm": 0.61328125,
"learning_rate": 4.255001530516425e-06,
"loss": 0.003177974745631218,
"step": 2640,
"token_acc": 0.9988035415171094
},
{
"epoch": 1.4133333333333333,
"grad_norm": 0.3671875,
"learning_rate": 4.184515377497643e-06,
"loss": 0.0040819644927978516,
"step": 2650,
"token_acc": 0.9988012467034284
},
{
"epoch": 1.4186666666666667,
"grad_norm": 1.15625,
"learning_rate": 4.11446313117733e-06,
"loss": 0.006515056639909744,
"step": 2660,
"token_acc": 0.9985507246376811
},
{
"epoch": 1.424,
"grad_norm": 2.296875,
"learning_rate": 4.044850018314896e-06,
"loss": 0.008263874053955077,
"step": 2670,
"token_acc": 0.9973696795791487
},
{
"epoch": 1.4293333333333333,
"grad_norm": 0.228515625,
"learning_rate": 3.975681232904971e-06,
"loss": 0.004042870551347733,
"step": 2680,
"token_acc": 0.9985587316838818
},
{
"epoch": 1.4346666666666668,
"grad_norm": 1.015625,
"learning_rate": 3.906961935789914e-06,
"loss": 0.0033185966312885284,
"step": 2690,
"token_acc": 0.9992764109985528
},
{
"epoch": 1.44,
"grad_norm": 0.37109375,
"learning_rate": 3.838697254274708e-06,
"loss": 0.005210072547197342,
"step": 2700,
"token_acc": 0.9978297564504461
},
{
"epoch": 1.4453333333333334,
"grad_norm": 0.8984375,
"learning_rate": 3.7708922817444382e-06,
"loss": 0.004422234743833542,
"step": 2710,
"token_acc": 0.9980764606876653
},
{
"epoch": 1.4506666666666668,
"grad_norm": 1.3515625,
"learning_rate": 3.7035520772842216e-06,
"loss": 0.003228164464235306,
"step": 2720,
"token_acc": 0.9987974987974988
},
{
"epoch": 1.456,
"grad_norm": 0.85546875,
"learning_rate": 3.636681665301779e-06,
"loss": 0.00462164580821991,
"step": 2730,
"token_acc": 0.9980648282535075
},
{
"epoch": 1.4613333333333334,
"grad_norm": 1.4453125,
"learning_rate": 3.5702860351525216e-06,
"loss": 0.004252329096198082,
"step": 2740,
"token_acc": 0.9988026819923371
},
{
"epoch": 1.4666666666666668,
"grad_norm": 2.25,
"learning_rate": 3.504370140767297e-06,
"loss": 0.0034693241119384765,
"step": 2750,
"token_acc": 0.9987896393125151
},
{
"epoch": 1.472,
"grad_norm": 1.3671875,
"learning_rate": 3.438938900282768e-06,
"loss": 0.005826358124613762,
"step": 2760,
"token_acc": 0.9983144714664098
},
{
"epoch": 1.4773333333333334,
"grad_norm": 0.1552734375,
"learning_rate": 3.3739971956744444e-06,
"loss": 0.006960628926753998,
"step": 2770,
"token_acc": 0.9975944190522011
},
{
"epoch": 1.4826666666666668,
"grad_norm": 0.5625,
"learning_rate": 3.3095498723924514e-06,
"loss": 0.0032369595021009443,
"step": 2780,
"token_acc": 0.9985552612569227
},
{
"epoch": 1.488,
"grad_norm": 2.0,
"learning_rate": 3.245601738999964e-06,
"loss": 0.00596727654337883,
"step": 2790,
"token_acc": 0.9980787704130644
},
{
"epoch": 1.4933333333333334,
"grad_norm": 2.296875,
"learning_rate": 3.182157566814471e-06,
"loss": 0.0037505336105823515,
"step": 2800,
"token_acc": 0.9990407673860912
},
{
"epoch": 1.4986666666666666,
"grad_norm": 0.32421875,
"learning_rate": 3.1192220895517434e-06,
"loss": 0.005509653314948082,
"step": 2810,
"token_acc": 0.9983095870562666
},
{
"epoch": 1.504,
"grad_norm": 3.09375,
"learning_rate": 3.056800002972655e-06,
"loss": 0.005837666988372803,
"step": 2820,
"token_acc": 0.9978323699421965
},
{
"epoch": 1.5093333333333332,
"grad_norm": 2.78125,
"learning_rate": 2.994895964532818e-06,
"loss": 0.005459493398666382,
"step": 2830,
"token_acc": 0.9983253588516746
},
{
"epoch": 1.5146666666666668,
"grad_norm": 1.3125,
"learning_rate": 2.9335145930350852e-06,
"loss": 0.001859320141375065,
"step": 2840,
"token_acc": 0.9990300678952473
},
{
"epoch": 1.52,
"grad_norm": 0.2216796875,
"learning_rate": 2.8726604682849192e-06,
"loss": 0.003423035144805908,
"step": 2850,
"token_acc": 0.9978380975258228
},
{
"epoch": 1.5253333333333332,
"grad_norm": 2.5,
"learning_rate": 2.8123381307486875e-06,
"loss": 0.007793290168046951,
"step": 2860,
"token_acc": 0.9968824940047961
},
{
"epoch": 1.5306666666666666,
"grad_norm": 1.09375,
"learning_rate": 2.752552081214899e-06,
"loss": 0.0038124389946460726,
"step": 2870,
"token_acc": 0.9985601151907847
},
{
"epoch": 1.536,
"grad_norm": 1.65625,
"learning_rate": 2.693306780458369e-06,
"loss": 0.0020717747509479524,
"step": 2880,
"token_acc": 0.9987951807228915
},
{
"epoch": 1.5413333333333332,
"grad_norm": 0.1474609375,
"learning_rate": 2.6346066489074083e-06,
"loss": 0.0018467091023921967,
"step": 2890,
"token_acc": 0.9995200383969283
},
{
"epoch": 1.5466666666666666,
"grad_norm": 0.279296875,
"learning_rate": 2.576456066313989e-06,
"loss": 0.005197260528802872,
"step": 2900,
"token_acc": 0.9973715651135006
},
{
"epoch": 1.552,
"grad_norm": 0.451171875,
"learning_rate": 2.518859371426985e-06,
"loss": 0.0031303077936172484,
"step": 2910,
"token_acc": 0.9988012467034284
},
{
"epoch": 1.5573333333333332,
"grad_norm": 0.88671875,
"learning_rate": 2.4618208616684213e-06,
"loss": 0.0031688179820775985,
"step": 2920,
"token_acc": 0.9990426041168023
},
{
"epoch": 1.5626666666666666,
"grad_norm": 1.1328125,
"learning_rate": 2.405344792812847e-06,
"loss": 0.004901519417762757,
"step": 2930,
"token_acc": 0.9985535197685632
},
{
"epoch": 1.568,
"grad_norm": 1.7109375,
"learning_rate": 2.3494353786698e-06,
"loss": 0.003883931040763855,
"step": 2940,
"token_acc": 0.9985576923076923
},
{
"epoch": 1.5733333333333333,
"grad_norm": 0.78515625,
"learning_rate": 2.294096790769411e-06,
"loss": 0.002903797477483749,
"step": 2950,
"token_acc": 0.9988000959923207
},
{
"epoch": 1.5786666666666667,
"grad_norm": 0.72265625,
"learning_rate": 2.239333158051147e-06,
"loss": 0.0052621312439441684,
"step": 2960,
"token_acc": 0.9980796927508402
},
{
"epoch": 1.584,
"grad_norm": 2.0625,
"learning_rate": 2.185148566555738e-06,
"loss": 0.0045540638267993925,
"step": 2970,
"token_acc": 0.9983173076923076
},
{
"epoch": 1.5893333333333333,
"grad_norm": 2.671875,
"learning_rate": 2.131547059120329e-06,
"loss": 0.0034696806222200395,
"step": 2980,
"token_acc": 0.9980680994928761
},
{
"epoch": 1.5946666666666667,
"grad_norm": 0.375,
"learning_rate": 2.0785326350768085e-06,
"loss": 0.005480880290269852,
"step": 2990,
"token_acc": 0.9980847498204453
},
{
"epoch": 1.6,
"grad_norm": 0.1865234375,
"learning_rate": 2.0261092499534287e-06,
"loss": 0.0024819549173116682,
"step": 3000,
"token_acc": 0.9992753623188406
},
{
"epoch": 1.6053333333333333,
"grad_norm": 0.126953125,
"learning_rate": 1.974280815179659e-06,
"loss": 0.005214349180459976,
"step": 3010,
"token_acc": 0.9987992315081652
},
{
"epoch": 1.6106666666666667,
"grad_norm": 2.03125,
"learning_rate": 1.9230511977943646e-06,
"loss": 0.0028021618723869323,
"step": 3020,
"token_acc": 0.9987974987974988
},
{
"epoch": 1.616,
"grad_norm": 0.8828125,
"learning_rate": 1.8724242201572585e-06,
"loss": 0.002719448506832123,
"step": 3030,
"token_acc": 0.9985563041385948
},
{
"epoch": 1.6213333333333333,
"grad_norm": 1.3671875,
"learning_rate": 1.822403659663715e-06,
"loss": 0.001963297836482525,
"step": 3040,
"token_acc": 0.9995184204189742
},
{
"epoch": 1.6266666666666667,
"grad_norm": 1.1171875,
"learning_rate": 1.7729932484629298e-06,
"loss": 0.007073329389095306,
"step": 3050,
"token_acc": 0.9973513123043583
},
{
"epoch": 1.6320000000000001,
"grad_norm": 2.765625,
"learning_rate": 1.724196673179458e-06,
"loss": 0.006209851428866387,
"step": 3060,
"token_acc": 0.9978391356542617
},
{
"epoch": 1.6373333333333333,
"grad_norm": 0.96875,
"learning_rate": 1.6760175746381402e-06,
"loss": 0.0023255087435245514,
"step": 3070,
"token_acc": 0.9995188838104402
},
{
"epoch": 1.6426666666666667,
"grad_norm": 0.5234375,
"learning_rate": 1.6284595475924547e-06,
"loss": 0.005354274809360504,
"step": 3080,
"token_acc": 0.9985576923076923
},
{
"epoch": 1.6480000000000001,
"grad_norm": 0.162109375,
"learning_rate": 1.5815261404563066e-06,
"loss": 0.00551719069480896,
"step": 3090,
"token_acc": 0.998088867654085
},
{
"epoch": 1.6533333333333333,
"grad_norm": 3.015625,
"learning_rate": 1.5352208550392745e-06,
"loss": 0.003801211714744568,
"step": 3100,
"token_acc": 0.9980764606876653
},
{
"epoch": 1.6586666666666665,
"grad_norm": 0.40234375,
"learning_rate": 1.489547146285325e-06,
"loss": 0.0029349761083722115,
"step": 3110,
"token_acc": 0.9985535197685632
},
{
"epoch": 1.6640000000000001,
"grad_norm": 2.421875,
"learning_rate": 1.4445084220150341e-06,
"loss": 0.005994468182325363,
"step": 3120,
"token_acc": 0.9975816203143894
},
{
"epoch": 1.6693333333333333,
"grad_norm": 3.421875,
"learning_rate": 1.4001080426713332e-06,
"loss": 0.004013296961784363,
"step": 3130,
"token_acc": 0.9985608059486687
},
{
"epoch": 1.6746666666666665,
"grad_norm": 2.703125,
"learning_rate": 1.3563493210687527e-06,
"loss": 0.005458477884531021,
"step": 3140,
"token_acc": 0.9983201343892488
},
{
"epoch": 1.6800000000000002,
"grad_norm": 0.88671875,
"learning_rate": 1.3132355221462778e-06,
"loss": 0.004872192442417145,
"step": 3150,
"token_acc": 0.9980755352417608
},
{
"epoch": 1.6853333333333333,
"grad_norm": 3.234375,
"learning_rate": 1.2707698627237152e-06,
"loss": 0.0033847920596599577,
"step": 3160,
"token_acc": 0.998795761078998
},
{
"epoch": 1.6906666666666665,
"grad_norm": 1.640625,
"learning_rate": 1.2289555112617024e-06,
"loss": 0.0032213889062404633,
"step": 3170,
"token_acc": 0.999277108433735
},
{
"epoch": 1.696,
"grad_norm": 2.3125,
"learning_rate": 1.1877955876252779e-06,
"loss": 0.004248654469847679,
"step": 3180,
"token_acc": 0.9983156881616939
},
{
"epoch": 1.7013333333333334,
"grad_norm": 1.390625,
"learning_rate": 1.147293162851123e-06,
"loss": 0.008833888173103332,
"step": 3190,
"token_acc": 0.996867469879518
},
{
"epoch": 1.7066666666666666,
"grad_norm": 1.0390625,
"learning_rate": 1.1074512589184105e-06,
"loss": 0.004553095623850823,
"step": 3200,
"token_acc": 0.9978234582829504
},
{
"epoch": 1.712,
"grad_norm": 1.546875,
"learning_rate": 1.0682728485233306e-06,
"loss": 0.0025400497019290925,
"step": 3210,
"token_acc": 0.9990396158463385
},
{
"epoch": 1.7173333333333334,
"grad_norm": 0.435546875,
"learning_rate": 1.0297608548573002e-06,
"loss": 0.00552871935069561,
"step": 3220,
"token_acc": 0.9985510746196571
},
{
"epoch": 1.7226666666666666,
"grad_norm": 1.609375,
"learning_rate": 9.91918151388841e-07,
"loss": 0.007216790318489074,
"step": 3230,
"token_acc": 0.997834977146981
},
{
"epoch": 1.728,
"grad_norm": 1.7265625,
"learning_rate": 9.547475616492008e-07,
"loss": 0.003866948187351227,
"step": 3240,
"token_acc": 0.9987974987974988
},
{
"epoch": 1.7333333333333334,
"grad_norm": 2.21875,
"learning_rate": 9.182518590216616e-07,
"loss": 0.004370670020580292,
"step": 3250,
"token_acc": 0.9988083889418494
},
{
"epoch": 1.7386666666666666,
"grad_norm": 1.7890625,
"learning_rate": 8.824337665346372e-07,
"loss": 0.004827927052974701,
"step": 3260,
"token_acc": 0.9990400767938565
},
{
"epoch": 1.744,
"grad_norm": 1.1875,
"learning_rate": 8.472959566584804e-07,
"loss": 0.004777887836098671,
"step": 3270,
"token_acc": 0.9980815347721822
},
{
"epoch": 1.7493333333333334,
"grad_norm": 0.578125,
"learning_rate": 8.128410511061002e-07,
"loss": 0.0018575575202703476,
"step": 3280,
"token_acc": 0.9995191151719163
},
{
"epoch": 1.7546666666666666,
"grad_norm": 0.296875,
"learning_rate": 7.790716206373283e-07,
"loss": 0.00343349426984787,
"step": 3290,
"token_acc": 0.9987977879297908
},
{
"epoch": 1.76,
"grad_norm": 4.40625,
"learning_rate": 7.459901848671347e-07,
"loss": 0.004643554985523224,
"step": 3300,
"token_acc": 0.9980750721847931
},
{
"epoch": 1.7653333333333334,
"grad_norm": 2.375,
"learning_rate": 7.135992120776159e-07,
"loss": 0.006345170736312866,
"step": 3310,
"token_acc": 0.9973614775725593
},
{
"epoch": 1.7706666666666666,
"grad_norm": 0.1708984375,
"learning_rate": 6.819011190338309e-07,
"loss": 0.004708114266395569,
"step": 3320,
"token_acc": 0.9971243709561467
},
{
"epoch": 1.776,
"grad_norm": 1.6328125,
"learning_rate": 6.508982708034962e-07,
"loss": 0.005871200561523437,
"step": 3330,
"token_acc": 0.9975868725868726
},
{
"epoch": 1.7813333333333334,
"grad_norm": 0.068359375,
"learning_rate": 6.205929805805e-07,
"loss": 0.004391339421272278,
"step": 3340,
"token_acc": 0.9983169031017072
},
{
"epoch": 1.7866666666666666,
"grad_norm": 1.90625,
"learning_rate": 5.90987509512333e-07,
"loss": 0.0028297567740082743,
"step": 3350,
"token_acc": 0.9987948903350204
},
{
"epoch": 1.792,
"grad_norm": 1.5078125,
"learning_rate": 5.620840665313554e-07,
"loss": 0.0036468330770730974,
"step": 3360,
"token_acc": 0.9983116256632899
},
{
"epoch": 1.7973333333333334,
"grad_norm": 1.2109375,
"learning_rate": 5.338848081900062e-07,
"loss": 0.005594483017921448,
"step": 3370,
"token_acc": 0.998563562365334
},
{
"epoch": 1.8026666666666666,
"grad_norm": 0.1962890625,
"learning_rate": 5.063918384998801e-07,
"loss": 0.002733568102121353,
"step": 3380,
"token_acc": 0.9990377676208805
},
{
"epoch": 1.808,
"grad_norm": 1.625,
"learning_rate": 4.796072087747506e-07,
"loss": 0.00883147269487381,
"step": 3390,
"token_acc": 0.9975862901279267
},
{
"epoch": 1.8133333333333335,
"grad_norm": 0.166015625,
"learning_rate": 4.5353291747751605e-07,
"loss": 0.005349083244800568,
"step": 3400,
"token_acc": 0.9985621854780733
},
{
"epoch": 1.8186666666666667,
"grad_norm": 1.859375,
"learning_rate": 4.281709100710907e-07,
"loss": 0.004085775464773178,
"step": 3410,
"token_acc": 0.9985601151907847
},
{
"epoch": 1.8239999999999998,
"grad_norm": 1.625,
"learning_rate": 4.035230788732447e-07,
"loss": 0.003792187198996544,
"step": 3420,
"token_acc": 0.9987843423292001
},
{
"epoch": 1.8293333333333335,
"grad_norm": 0.90234375,
"learning_rate": 3.7959126291541635e-07,
"loss": 0.004388328641653061,
"step": 3430,
"token_acc": 0.9980718245360328
},
{
"epoch": 1.8346666666666667,
"grad_norm": 1.8359375,
"learning_rate": 3.5637724780550386e-07,
"loss": 0.004762783646583557,
"step": 3440,
"token_acc": 0.9980806142034548
},
{
"epoch": 1.8399999999999999,
"grad_norm": 0.984375,
"learning_rate": 3.338827655946253e-07,
"loss": 0.004710916429758072,
"step": 3450,
"token_acc": 0.998324557204404
},
{
"epoch": 1.8453333333333335,
"grad_norm": 0.1845703125,
"learning_rate": 3.121094946478942e-07,
"loss": 0.00310780368745327,
"step": 3460,
"token_acc": 0.9987977879297908
},
{
"epoch": 1.8506666666666667,
"grad_norm": 0.05908203125,
"learning_rate": 2.910590595191898e-07,
"loss": 0.003157524764537811,
"step": 3470,
"token_acc": 0.9983185202978622
},
{
"epoch": 1.8559999999999999,
"grad_norm": 0.474609375,
"learning_rate": 2.707330308299516e-07,
"loss": 0.00519019179046154,
"step": 3480,
"token_acc": 0.9985538684020245
},
{
"epoch": 1.8613333333333333,
"grad_norm": 2.875,
"learning_rate": 2.5113292515198007e-07,
"loss": 0.004100662097334862,
"step": 3490,
"token_acc": 0.9987995198079231
},
{
"epoch": 1.8666666666666667,
"grad_norm": 1.671875,
"learning_rate": 2.3226020489429235e-07,
"loss": 0.00834677368402481,
"step": 3500,
"token_acc": 0.9971333014811276
},
{
"epoch": 1.8719999999999999,
"grad_norm": 0.59375,
"learning_rate": 2.1411627819400317e-07,
"loss": 0.005914821475744248,
"step": 3510,
"token_acc": 0.9978281853281853
},
{
"epoch": 1.8773333333333333,
"grad_norm": 1.71875,
"learning_rate": 1.9670249881126202e-07,
"loss": 0.004040413722395897,
"step": 3520,
"token_acc": 0.9983177120884402
},
{
"epoch": 1.8826666666666667,
"grad_norm": 0.8359375,
"learning_rate": 1.8002016602824634e-07,
"loss": 0.003570510447025299,
"step": 3530,
"token_acc": 0.9985594237695078
},
{
"epoch": 1.888,
"grad_norm": 2.0625,
"learning_rate": 1.6407052455221562e-07,
"loss": 0.006800946593284607,
"step": 3540,
"token_acc": 0.9973576747537833
},
{
"epoch": 1.8933333333333333,
"grad_norm": 1.3984375,
"learning_rate": 1.4885476442264902e-07,
"loss": 0.005493031442165374,
"step": 3550,
"token_acc": 0.9983225497244189
},
{
"epoch": 1.8986666666666667,
"grad_norm": 1.1796875,
"learning_rate": 1.3437402092244533e-07,
"loss": 0.004691895842552185,
"step": 3560,
"token_acc": 0.9983185202978622
},
{
"epoch": 1.904,
"grad_norm": 0.03857421875,
"learning_rate": 1.2062937449321854e-07,
"loss": 0.002638164907693863,
"step": 3570,
"token_acc": 0.9985621854780733
},
{
"epoch": 1.9093333333333333,
"grad_norm": 1.0859375,
"learning_rate": 1.0762185065468889e-07,
"loss": 0.0054055720567703245,
"step": 3580,
"token_acc": 0.9973627427475426
},
{
"epoch": 1.9146666666666667,
"grad_norm": 2.40625,
"learning_rate": 9.535241992816191e-08,
"loss": 0.009028273820877075,
"step": 3590,
"token_acc": 0.997114691031498
},
{
"epoch": 1.92,
"grad_norm": 1.78125,
"learning_rate": 8.382199776411526e-08,
"loss": 0.00407477468252182,
"step": 3600,
"token_acc": 0.9980792316926771
},
{
"epoch": 1.9253333333333333,
"grad_norm": 1.421875,
"learning_rate": 7.303144447389554e-08,
"loss": 0.003363639488816261,
"step": 3610,
"token_acc": 0.9987925621830476
},
{
"epoch": 1.9306666666666668,
"grad_norm": 2.734375,
"learning_rate": 6.298156516552966e-08,
"loss": 0.002769722230732441,
"step": 3620,
"token_acc": 0.9990363767766803
},
{
"epoch": 1.936,
"grad_norm": 0.53515625,
"learning_rate": 5.3673109683656245e-08,
"loss": 0.0032248608767986298,
"step": 3630,
"token_acc": 0.999275887038378
},
{
"epoch": 1.9413333333333334,
"grad_norm": 1.484375,
"learning_rate": 4.510677255357143e-08,
"loss": 0.002857924811542034,
"step": 3640,
"token_acc": 0.999273607748184
},
{
"epoch": 1.9466666666666668,
"grad_norm": 1.0625,
"learning_rate": 3.7283192929412624e-08,
"loss": 0.003569948300719261,
"step": 3650,
"token_acc": 0.9983173076923076
},
{
"epoch": 1.952,
"grad_norm": 1.1796875,
"learning_rate": 3.020295454647104e-08,
"loss": 0.0055261336266994475,
"step": 3660,
"token_acc": 0.9983213429256594
},
{
"epoch": 1.9573333333333334,
"grad_norm": 2.015625,
"learning_rate": 2.3866585677635445e-08,
"loss": 0.00529012456536293,
"step": 3670,
"token_acc": 0.9983156881616939
},
{
"epoch": 1.9626666666666668,
"grad_norm": 0.71484375,
"learning_rate": 1.827455909397813e-08,
"loss": 0.0030386311933398246,
"step": 3680,
"token_acc": 0.9990391544559212
},
{
"epoch": 1.968,
"grad_norm": 0.47265625,
"learning_rate": 1.3427292029476458e-08,
"loss": 0.004317119717597961,
"step": 3690,
"token_acc": 0.9987916868052199
},
{
"epoch": 1.9733333333333334,
"grad_norm": 1.2421875,
"learning_rate": 9.325146149888887e-09,
"loss": 0.0020676439628005026,
"step": 3700,
"token_acc": 0.9992704280155642
},
{
"epoch": 1.9786666666666668,
"grad_norm": 0.33203125,
"learning_rate": 5.96842752576543e-09,
"loss": 0.00551963597536087,
"step": 3710,
"token_acc": 0.9971291866028709
},
{
"epoch": 1.984,
"grad_norm": 1.7578125,
"learning_rate": 3.3573866096114903e-09,
"loss": 0.00279228575527668,
"step": 3720,
"token_acc": 0.9985639061752034
},
{
"epoch": 1.9893333333333332,
"grad_norm": 1.6875,
"learning_rate": 1.4922182172016908e-09,
"loss": 0.005330391228199005,
"step": 3730,
"token_acc": 0.9980741454020221
},
{
"epoch": 1.9946666666666668,
"grad_norm": 1.734375,
"learning_rate": 3.7306151304483675e-10,
"loss": 0.004098391160368919,
"step": 3740,
"token_acc": 0.9987937273823885
},
{
"epoch": 2.0,
"grad_norm": 0.045654296875,
"learning_rate": 0.0,
"loss": 0.006149080768227577,
"step": 3750,
"token_acc": 0.9972527472527473
}
],
"logging_steps": 10,
"max_steps": 3750,
"num_input_tokens_seen": 0,
"num_train_epochs": 2,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 1.6689320719024128e+18,
"train_batch_size": 8,
"trial_name": null,
"trial_params": null
}