{ "best_global_step": null, "best_metric": null, "best_model_checkpoint": null, "epoch": 1.0, "eval_steps": 500, "global_step": 1500, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.006666666666666667, "grad_norm": 10.347835540771484, "learning_rate": 6.000000000000001e-07, "loss": 0.3391, "step": 10 }, { "epoch": 0.013333333333333334, "grad_norm": 2.26513934135437, "learning_rate": 1.2666666666666669e-06, "loss": 0.2202, "step": 20 }, { "epoch": 0.02, "grad_norm": 1.394706130027771, "learning_rate": 1.9333333333333336e-06, "loss": 0.1494, "step": 30 }, { "epoch": 0.02666666666666667, "grad_norm": 1.0002306699752808, "learning_rate": 2.6e-06, "loss": 0.1411, "step": 40 }, { "epoch": 0.03333333333333333, "grad_norm": 1.1570179462432861, "learning_rate": 3.266666666666667e-06, "loss": 0.1341, "step": 50 }, { "epoch": 0.04, "grad_norm": 1.0147454738616943, "learning_rate": 3.9333333333333335e-06, "loss": 0.1265, "step": 60 }, { "epoch": 0.04666666666666667, "grad_norm": 0.9774643182754517, "learning_rate": 4.600000000000001e-06, "loss": 0.1175, "step": 70 }, { "epoch": 0.05333333333333334, "grad_norm": 0.8928899765014648, "learning_rate": 5.2666666666666665e-06, "loss": 0.1071, "step": 80 }, { "epoch": 0.06, "grad_norm": 0.993636429309845, "learning_rate": 5.933333333333335e-06, "loss": 0.1012, "step": 90 }, { "epoch": 0.06666666666666667, "grad_norm": 0.8183819651603699, "learning_rate": 6.600000000000001e-06, "loss": 0.0927, "step": 100 }, { "epoch": 0.07333333333333333, "grad_norm": 0.9628591537475586, "learning_rate": 7.266666666666668e-06, "loss": 0.0901, "step": 110 }, { "epoch": 0.08, "grad_norm": 1.008246660232544, "learning_rate": 7.933333333333334e-06, "loss": 0.0851, "step": 120 }, { "epoch": 0.08666666666666667, "grad_norm": 0.6641691327095032, "learning_rate": 8.6e-06, "loss": 0.0842, "step": 130 }, { "epoch": 0.09333333333333334, "grad_norm": 0.6952003240585327, "learning_rate": 9.266666666666667e-06, "loss": 0.082, "step": 140 }, { "epoch": 0.1, "grad_norm": 0.5983585715293884, "learning_rate": 9.933333333333334e-06, "loss": 0.0779, "step": 150 }, { "epoch": 0.10666666666666667, "grad_norm": 0.9952366352081299, "learning_rate": 9.998903417374228e-06, "loss": 0.0768, "step": 160 }, { "epoch": 0.11333333333333333, "grad_norm": 0.798287034034729, "learning_rate": 9.995113378907791e-06, "loss": 0.0754, "step": 170 }, { "epoch": 0.12, "grad_norm": 1.2509194612503052, "learning_rate": 9.988618398427495e-06, "loss": 0.0744, "step": 180 }, { "epoch": 0.12666666666666668, "grad_norm": 0.4534149765968323, "learning_rate": 9.979421993079853e-06, "loss": 0.0736, "step": 190 }, { "epoch": 0.13333333333333333, "grad_norm": 0.7652836441993713, "learning_rate": 9.967529142880592e-06, "loss": 0.0716, "step": 200 }, { "epoch": 0.14, "grad_norm": 0.718652069568634, "learning_rate": 9.952946288017899e-06, "loss": 0.0713, "step": 210 }, { "epoch": 0.14666666666666667, "grad_norm": 0.7762929797172546, "learning_rate": 9.93568132536494e-06, "loss": 0.0696, "step": 220 }, { "epoch": 0.15333333333333332, "grad_norm": 0.5218461155891418, "learning_rate": 9.915743604203563e-06, "loss": 0.0698, "step": 230 }, { "epoch": 0.16, "grad_norm": 0.5417851805686951, "learning_rate": 9.893143921161501e-06, "loss": 0.0698, "step": 240 }, { "epoch": 0.16666666666666666, "grad_norm": 0.8238837122917175, "learning_rate": 9.867894514365802e-06, "loss": 0.0686, "step": 250 }, { "epoch": 0.17333333333333334, "grad_norm": 0.47940725088119507, "learning_rate": 9.840009056815674e-06, "loss": 0.0687, "step": 260 }, { "epoch": 0.18, "grad_norm": 0.41688045859336853, "learning_rate": 9.809502648978311e-06, "loss": 0.0679, "step": 270 }, { "epoch": 0.18666666666666668, "grad_norm": 0.7234716415405273, "learning_rate": 9.776391810611719e-06, "loss": 0.0677, "step": 280 }, { "epoch": 0.19333333333333333, "grad_norm": 0.5452114939689636, "learning_rate": 9.740694471818988e-06, "loss": 0.0676, "step": 290 }, { "epoch": 0.2, "grad_norm": 0.6840308904647827, "learning_rate": 9.702429963338812e-06, "loss": 0.0683, "step": 300 }, { "epoch": 0.20666666666666667, "grad_norm": 0.4877675771713257, "learning_rate": 9.661619006077562e-06, "loss": 0.0676, "step": 310 }, { "epoch": 0.21333333333333335, "grad_norm": 0.4813857972621918, "learning_rate": 9.618283699888543e-06, "loss": 0.0676, "step": 320 }, { "epoch": 0.22, "grad_norm": 0.5303060412406921, "learning_rate": 9.572447511604536e-06, "loss": 0.0659, "step": 330 }, { "epoch": 0.22666666666666666, "grad_norm": 0.496908575296402, "learning_rate": 9.524135262330098e-06, "loss": 0.0668, "step": 340 }, { "epoch": 0.23333333333333334, "grad_norm": 0.4328661262989044, "learning_rate": 9.473373114000493e-06, "loss": 0.0647, "step": 350 }, { "epoch": 0.24, "grad_norm": 0.5352442264556885, "learning_rate": 9.420188555214537e-06, "loss": 0.0644, "step": 360 }, { "epoch": 0.24666666666666667, "grad_norm": 0.37976253032684326, "learning_rate": 9.364610386349048e-06, "loss": 0.0633, "step": 370 }, { "epoch": 0.25333333333333335, "grad_norm": 0.5393264889717102, "learning_rate": 9.306668703962927e-06, "loss": 0.065, "step": 380 }, { "epoch": 0.26, "grad_norm": 0.3638332188129425, "learning_rate": 9.246394884499334e-06, "loss": 0.064, "step": 390 }, { "epoch": 0.26666666666666666, "grad_norm": 2.042694091796875, "learning_rate": 9.18382156729481e-06, "loss": 0.062, "step": 400 }, { "epoch": 0.2733333333333333, "grad_norm": 0.34397029876708984, "learning_rate": 9.118982636904476e-06, "loss": 0.0624, "step": 410 }, { "epoch": 0.28, "grad_norm": 0.23306092619895935, "learning_rate": 9.051913204752972e-06, "loss": 0.062, "step": 420 }, { "epoch": 0.2866666666666667, "grad_norm": 0.3035712242126465, "learning_rate": 8.982649590120982e-06, "loss": 0.0625, "step": 430 }, { "epoch": 0.29333333333333333, "grad_norm": 0.3025246858596802, "learning_rate": 8.911229300477716e-06, "loss": 0.0608, "step": 440 }, { "epoch": 0.3, "grad_norm": 0.38521069288253784, "learning_rate": 8.837691011169944e-06, "loss": 0.0626, "step": 450 }, { "epoch": 0.30666666666666664, "grad_norm": 0.41823601722717285, "learning_rate": 8.762074544478622e-06, "loss": 0.0612, "step": 460 }, { "epoch": 0.31333333333333335, "grad_norm": 0.3616046905517578, "learning_rate": 8.68442084805442e-06, "loss": 0.0607, "step": 470 }, { "epoch": 0.32, "grad_norm": 0.2620314955711365, "learning_rate": 8.604771972743848e-06, "loss": 0.0612, "step": 480 }, { "epoch": 0.32666666666666666, "grad_norm": 0.3574216961860657, "learning_rate": 8.523171049817974e-06, "loss": 0.0602, "step": 490 }, { "epoch": 0.3333333333333333, "grad_norm": 0.4048396050930023, "learning_rate": 8.439662267616093e-06, "loss": 0.0618, "step": 500 }, { "epoch": 0.34, "grad_norm": 0.23975229263305664, "learning_rate": 8.354290847616954e-06, "loss": 0.0607, "step": 510 }, { "epoch": 0.3466666666666667, "grad_norm": 0.3554510474205017, "learning_rate": 8.267103019950529e-06, "loss": 0.0603, "step": 520 }, { "epoch": 0.35333333333333333, "grad_norm": 0.4456672966480255, "learning_rate": 8.178145998363585e-06, "loss": 0.0609, "step": 530 }, { "epoch": 0.36, "grad_norm": 0.3112841546535492, "learning_rate": 8.087467954652608e-06, "loss": 0.0595, "step": 540 }, { "epoch": 0.36666666666666664, "grad_norm": 0.685577392578125, "learning_rate": 7.99511799257793e-06, "loss": 0.0609, "step": 550 }, { "epoch": 0.37333333333333335, "grad_norm": 0.24042946100234985, "learning_rate": 7.901146121273165e-06, "loss": 0.0594, "step": 560 }, { "epoch": 0.38, "grad_norm": 0.27032390236854553, "learning_rate": 7.80560322816439e-06, "loss": 0.0595, "step": 570 }, { "epoch": 0.38666666666666666, "grad_norm": 0.30939266085624695, "learning_rate": 7.7085410514137e-06, "loss": 0.0595, "step": 580 }, { "epoch": 0.3933333333333333, "grad_norm": 0.3024686872959137, "learning_rate": 7.610012151902091e-06, "loss": 0.0589, "step": 590 }, { "epoch": 0.4, "grad_norm": 0.2973555624485016, "learning_rate": 7.510069884766802e-06, "loss": 0.0585, "step": 600 }, { "epoch": 0.4066666666666667, "grad_norm": 0.28038638830184937, "learning_rate": 7.408768370508577e-06, "loss": 0.0593, "step": 610 }, { "epoch": 0.41333333333333333, "grad_norm": 0.3142131567001343, "learning_rate": 7.3061624656844544e-06, "loss": 0.0583, "step": 620 }, { "epoch": 0.42, "grad_norm": 0.3769611418247223, "learning_rate": 7.2023077332019755e-06, "loss": 0.0591, "step": 630 }, { "epoch": 0.4266666666666667, "grad_norm": 0.3961074650287628, "learning_rate": 7.0972604122308865e-06, "loss": 0.0583, "step": 640 }, { "epoch": 0.43333333333333335, "grad_norm": 0.30949458479881287, "learning_rate": 6.991077387748643e-06, "loss": 0.057, "step": 650 }, { "epoch": 0.44, "grad_norm": 0.42794495820999146, "learning_rate": 6.883816159736187e-06, "loss": 0.0585, "step": 660 }, { "epoch": 0.44666666666666666, "grad_norm": 0.35730963945388794, "learning_rate": 6.775534812040686e-06, "loss": 0.0581, "step": 670 }, { "epoch": 0.4533333333333333, "grad_norm": 0.2594165503978729, "learning_rate": 6.666291980922122e-06, "loss": 0.0582, "step": 680 }, { "epoch": 0.46, "grad_norm": 0.39807814359664917, "learning_rate": 6.556146823300701e-06, "loss": 0.0573, "step": 690 }, { "epoch": 0.4666666666666667, "grad_norm": 0.3986457288265228, "learning_rate": 6.445158984722358e-06, "loss": 0.0581, "step": 700 }, { "epoch": 0.47333333333333333, "grad_norm": 0.2675548195838928, "learning_rate": 6.3333885670596285e-06, "loss": 0.0575, "step": 710 }, { "epoch": 0.48, "grad_norm": 0.865472137928009, "learning_rate": 6.220896095965428e-06, "loss": 0.0571, "step": 720 }, { "epoch": 0.4866666666666667, "grad_norm": 0.7614474892616272, "learning_rate": 6.107742488097338e-06, "loss": 0.0563, "step": 730 }, { "epoch": 0.49333333333333335, "grad_norm": 0.3361007869243622, "learning_rate": 5.993989018130173e-06, "loss": 0.0574, "step": 740 }, { "epoch": 0.5, "grad_norm": 0.38297197222709656, "learning_rate": 5.879697285574655e-06, "loss": 0.0564, "step": 750 }, { "epoch": 0.5066666666666667, "grad_norm": 0.27665939927101135, "learning_rate": 5.764929181420191e-06, "loss": 0.0568, "step": 760 }, { "epoch": 0.5133333333333333, "grad_norm": 0.27429795265197754, "learning_rate": 5.649746854619814e-06, "loss": 0.0556, "step": 770 }, { "epoch": 0.52, "grad_norm": 0.23286040127277374, "learning_rate": 5.5342126784354265e-06, "loss": 0.0556, "step": 780 }, { "epoch": 0.5266666666666666, "grad_norm": 0.33931684494018555, "learning_rate": 5.41838921666158e-06, "loss": 0.0559, "step": 790 }, { "epoch": 0.5333333333333333, "grad_norm": 0.2981378138065338, "learning_rate": 5.3023391897460715e-06, "loss": 0.0546, "step": 800 }, { "epoch": 0.54, "grad_norm": 0.3966798484325409, "learning_rate": 5.18612544082573e-06, "loss": 0.0549, "step": 810 }, { "epoch": 0.5466666666666666, "grad_norm": 0.3768337368965149, "learning_rate": 5.069810901695727e-06, "loss": 0.055, "step": 820 }, { "epoch": 0.5533333333333333, "grad_norm": 0.33831533789634705, "learning_rate": 4.953458558730917e-06, "loss": 0.0548, "step": 830 }, { "epoch": 0.56, "grad_norm": 0.2501234710216522, "learning_rate": 4.837131418777595e-06, "loss": 0.0556, "step": 840 }, { "epoch": 0.5666666666666667, "grad_norm": 0.25522980093955994, "learning_rate": 4.720892475034181e-06, "loss": 0.0562, "step": 850 }, { "epoch": 0.5733333333333334, "grad_norm": 0.24554181098937988, "learning_rate": 4.604804672939295e-06, "loss": 0.0553, "step": 860 }, { "epoch": 0.58, "grad_norm": 0.22543250024318695, "learning_rate": 4.4889308760856826e-06, "loss": 0.0549, "step": 870 }, { "epoch": 0.5866666666666667, "grad_norm": 0.272178053855896, "learning_rate": 4.373333832178478e-06, "loss": 0.0562, "step": 880 }, { "epoch": 0.5933333333333334, "grad_norm": 0.3259921669960022, "learning_rate": 4.258076139056217e-06, "loss": 0.0547, "step": 890 }, { "epoch": 0.6, "grad_norm": 0.2713643014431, "learning_rate": 4.143220210792993e-06, "loss": 0.054, "step": 900 }, { "epoch": 0.6066666666666667, "grad_norm": 0.22583137452602386, "learning_rate": 4.028828243900141e-06, "loss": 0.0538, "step": 910 }, { "epoch": 0.6133333333333333, "grad_norm": 0.23559589684009552, "learning_rate": 3.914962183645733e-06, "loss": 0.0538, "step": 920 }, { "epoch": 0.62, "grad_norm": 0.32913973927497864, "learning_rate": 3.8016836905101157e-06, "loss": 0.0538, "step": 930 }, { "epoch": 0.6266666666666667, "grad_norm": 0.3711105287075043, "learning_rate": 3.6890541067956775e-06, "loss": 0.0541, "step": 940 }, { "epoch": 0.6333333333333333, "grad_norm": 0.3126576244831085, "learning_rate": 3.577134423408906e-06, "loss": 0.0545, "step": 950 }, { "epoch": 0.64, "grad_norm": 0.5039965510368347, "learning_rate": 3.465985246832739e-06, "loss": 0.0539, "step": 960 }, { "epoch": 0.6466666666666666, "grad_norm": 0.3266129791736603, "learning_rate": 3.355666766307084e-06, "loss": 0.0555, "step": 970 }, { "epoch": 0.6533333333333333, "grad_norm": 0.30717387795448303, "learning_rate": 3.246238721235283e-06, "loss": 0.0539, "step": 980 }, { "epoch": 0.66, "grad_norm": 0.22871653735637665, "learning_rate": 3.137760368834169e-06, "loss": 0.0545, "step": 990 }, { "epoch": 0.6666666666666666, "grad_norm": 0.23322133719921112, "learning_rate": 3.030290452045245e-06, "loss": 0.054, "step": 1000 }, { "epoch": 0.6733333333333333, "grad_norm": 0.4281166195869446, "learning_rate": 2.9238871677243354e-06, "loss": 0.0541, "step": 1010 }, { "epoch": 0.68, "grad_norm": 0.5867601633071899, "learning_rate": 2.818608135126967e-06, "loss": 0.0539, "step": 1020 }, { "epoch": 0.6866666666666666, "grad_norm": 0.3478272557258606, "learning_rate": 2.714510364706531e-06, "loss": 0.0536, "step": 1030 }, { "epoch": 0.6933333333333334, "grad_norm": 0.278250515460968, "learning_rate": 2.611650227242102e-06, "loss": 0.0532, "step": 1040 }, { "epoch": 0.7, "grad_norm": 0.32072925567626953, "learning_rate": 2.5100834233126827e-06, "loss": 0.0543, "step": 1050 }, { "epoch": 0.7066666666666667, "grad_norm": 0.27053526043891907, "learning_rate": 2.40986495313435e-06, "loss": 0.0539, "step": 1060 }, { "epoch": 0.7133333333333334, "grad_norm": 0.23075462877750397, "learning_rate": 2.3110490867766644e-06, "loss": 0.0531, "step": 1070 }, { "epoch": 0.72, "grad_norm": 0.32764536142349243, "learning_rate": 2.213689334774479e-06, "loss": 0.0542, "step": 1080 }, { "epoch": 0.7266666666666667, "grad_norm": 0.20173397660255432, "learning_rate": 2.1178384191510344e-06, "loss": 0.0529, "step": 1090 }, { "epoch": 0.7333333333333333, "grad_norm": 0.22324852645397186, "learning_rate": 2.023548244868051e-06, "loss": 0.0526, "step": 1100 }, { "epoch": 0.74, "grad_norm": 0.29789212346076965, "learning_rate": 1.9308698717182874e-06, "loss": 0.0515, "step": 1110 }, { "epoch": 0.7466666666666667, "grad_norm": 0.2879989445209503, "learning_rate": 1.8398534866757455e-06, "loss": 0.0525, "step": 1120 }, { "epoch": 0.7533333333333333, "grad_norm": 0.2744724750518799, "learning_rate": 1.7505483767185583e-06, "loss": 0.0532, "step": 1130 }, { "epoch": 0.76, "grad_norm": 0.23047767579555511, "learning_rate": 1.6630029021392007e-06, "loss": 0.0521, "step": 1140 }, { "epoch": 0.7666666666666667, "grad_norm": 0.3084733486175537, "learning_rate": 1.5772644703565564e-06, "loss": 0.0534, "step": 1150 }, { "epoch": 0.7733333333333333, "grad_norm": 0.29534289240837097, "learning_rate": 1.4933795102439558e-06, "loss": 0.0523, "step": 1160 }, { "epoch": 0.78, "grad_norm": 0.3022957146167755, "learning_rate": 1.4113934469871166e-06, "loss": 0.053, "step": 1170 }, { "epoch": 0.7866666666666666, "grad_norm": 0.2606695890426636, "learning_rate": 1.3313506774856177e-06, "loss": 0.0513, "step": 1180 }, { "epoch": 0.7933333333333333, "grad_norm": 0.4019298553466797, "learning_rate": 1.2532945463111856e-06, "loss": 0.0533, "step": 1190 }, { "epoch": 0.8, "grad_norm": 0.21917088329792023, "learning_rate": 1.1772673222358421e-06, "loss": 0.0507, "step": 1200 }, { "epoch": 0.8066666666666666, "grad_norm": 0.29969459772109985, "learning_rate": 1.1033101753426285e-06, "loss": 0.0531, "step": 1210 }, { "epoch": 0.8133333333333334, "grad_norm": 0.21764793992042542, "learning_rate": 1.0314631547312738e-06, "loss": 0.0521, "step": 1220 }, { "epoch": 0.82, "grad_norm": 0.27188634872436523, "learning_rate": 9.617651668308914e-07, "loss": 0.0531, "step": 1230 }, { "epoch": 0.8266666666666667, "grad_norm": 0.4300704598426819, "learning_rate": 8.942539543314799e-07, "loss": 0.0515, "step": 1240 }, { "epoch": 0.8333333333333334, "grad_norm": 0.24062004685401917, "learning_rate": 8.289660757455803e-07, "loss": 0.0513, "step": 1250 }, { "epoch": 0.84, "grad_norm": 0.22657471895217896, "learning_rate": 7.659368856111926e-07, "loss": 0.0512, "step": 1260 }, { "epoch": 0.8466666666666667, "grad_norm": 0.35750308632850647, "learning_rate": 7.052005153466779e-07, "loss": 0.0531, "step": 1270 }, { "epoch": 0.8533333333333334, "grad_norm": 0.25433865189552307, "learning_rate": 6.467898547679913e-07, "loss": 0.0524, "step": 1280 }, { "epoch": 0.86, "grad_norm": 0.2227182686328888, "learning_rate": 5.9073653427826e-07, "loss": 0.0526, "step": 1290 }, { "epoch": 0.8666666666666667, "grad_norm": 0.3259586691856384, "learning_rate": 5.370709077393721e-07, "loss": 0.0529, "step": 1300 }, { "epoch": 0.8733333333333333, "grad_norm": 0.25573357939720154, "learning_rate": 4.858220360348187e-07, "loss": 0.0516, "step": 1310 }, { "epoch": 0.88, "grad_norm": 0.310043603181839, "learning_rate": 4.370176713327118e-07, "loss": 0.0516, "step": 1320 }, { "epoch": 0.8866666666666667, "grad_norm": 0.18110626935958862, "learning_rate": 3.90684242057498e-07, "loss": 0.0519, "step": 1330 }, { "epoch": 0.8933333333333333, "grad_norm": 0.2742123603820801, "learning_rate": 3.468468385785023e-07, "loss": 0.0518, "step": 1340 }, { "epoch": 0.9, "grad_norm": 0.229804128408432, "learning_rate": 3.055291996230492e-07, "loss": 0.0502, "step": 1350 }, { "epoch": 0.9066666666666666, "grad_norm": 1.2707250118255615, "learning_rate": 2.6675369942151864e-07, "loss": 0.0529, "step": 1360 }, { "epoch": 0.9133333333333333, "grad_norm": 0.20896561443805695, "learning_rate": 2.3054133559131163e-07, "loss": 0.0525, "step": 1370 }, { "epoch": 0.92, "grad_norm": 0.24439620971679688, "learning_rate": 1.9691171776626882e-07, "loss": 0.0529, "step": 1380 }, { "epoch": 0.9266666666666666, "grad_norm": 0.3632369637489319, "learning_rate": 1.6588305697770313e-07, "loss": 0.0524, "step": 1390 }, { "epoch": 0.9333333333333333, "grad_norm": 0.26585954427719116, "learning_rate": 1.374721557928116e-07, "loss": 0.0519, "step": 1400 }, { "epoch": 0.94, "grad_norm": 0.28978848457336426, "learning_rate": 1.1169439921578485e-07, "loss": 0.0518, "step": 1410 }, { "epoch": 0.9466666666666667, "grad_norm": 0.2870274782180786, "learning_rate": 8.856374635655696e-08, "loss": 0.0511, "step": 1420 }, { "epoch": 0.9533333333333334, "grad_norm": 0.3111524283885956, "learning_rate": 6.809272287169988e-08, "loss": 0.0512, "step": 1430 }, { "epoch": 0.96, "grad_norm": 0.3778371810913086, "learning_rate": 5.029241418156139e-08, "loss": 0.0514, "step": 1440 }, { "epoch": 0.9666666666666667, "grad_norm": 0.20682398974895477, "learning_rate": 3.517245946731529e-08, "loss": 0.0508, "step": 1450 }, { "epoch": 0.9733333333333334, "grad_norm": 0.3211764693260193, "learning_rate": 2.27410464511707e-08, "loss": 0.052, "step": 1460 }, { "epoch": 0.98, "grad_norm": 0.2780303955078125, "learning_rate": 1.3004906962578723e-08, "loss": 0.0533, "step": 1470 }, { "epoch": 0.9866666666666667, "grad_norm": 0.2501288056373596, "learning_rate": 5.969313292830126e-09, "loss": 0.0515, "step": 1480 }, { "epoch": 0.9933333333333333, "grad_norm": 0.4127538204193115, "learning_rate": 1.638075340010814e-09, "loss": 0.0509, "step": 1490 }, { "epoch": 1.0, "grad_norm": 0.40533891320228577, "learning_rate": 1.3538545881042198e-11, "loss": 0.0512, "step": 1500 } ], "logging_steps": 10, "max_steps": 1500, "num_input_tokens_seen": 0, "num_train_epochs": 9223372036854775807, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 8.234122991345074e+18, "train_batch_size": 1, "trial_name": null, "trial_params": null }