{ "best_global_step": null, "best_metric": null, "best_model_checkpoint": null, "epoch": 2.104, "eval_steps": 500, "global_step": 1500, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.006666666666666667, "grad_norm": 17.179410934448242, "learning_rate": 6.000000000000001e-07, "loss": 0.7318, "step": 10 }, { "epoch": 0.013333333333333334, "grad_norm": 3.135037660598755, "learning_rate": 1.2666666666666669e-06, "loss": 0.5035, "step": 20 }, { "epoch": 0.02, "grad_norm": 1.0028103590011597, "learning_rate": 1.9333333333333336e-06, "loss": 0.347, "step": 30 }, { "epoch": 0.02666666666666667, "grad_norm": 0.9301308393478394, "learning_rate": 2.6e-06, "loss": 0.3206, "step": 40 }, { "epoch": 0.03333333333333333, "grad_norm": 13.198473930358887, "learning_rate": 3.266666666666667e-06, "loss": 0.3132, "step": 50 }, { "epoch": 0.04, "grad_norm": 2.502417802810669, "learning_rate": 3.9333333333333335e-06, "loss": 0.3102, "step": 60 }, { "epoch": 0.04666666666666667, "grad_norm": 1.962709665298462, "learning_rate": 4.600000000000001e-06, "loss": 0.3072, "step": 70 }, { "epoch": 0.05333333333333334, "grad_norm": 0.9486454129219055, "learning_rate": 5.2666666666666665e-06, "loss": 0.3054, "step": 80 }, { "epoch": 0.06, "grad_norm": 1.4147624969482422, "learning_rate": 5.933333333333335e-06, "loss": 0.3028, "step": 90 }, { "epoch": 0.06666666666666667, "grad_norm": 1.3703656196594238, "learning_rate": 6.600000000000001e-06, "loss": 0.3019, "step": 100 }, { "epoch": 0.07333333333333333, "grad_norm": 1.1991888284683228, "learning_rate": 7.266666666666668e-06, "loss": 0.3037, "step": 110 }, { "epoch": 0.08, "grad_norm": 1.392200231552124, "learning_rate": 7.933333333333334e-06, "loss": 0.3026, "step": 120 }, { "epoch": 0.08666666666666667, "grad_norm": 0.984872043132782, "learning_rate": 8.6e-06, "loss": 0.3025, "step": 130 }, { "epoch": 0.09333333333333334, "grad_norm": 0.9026976823806763, "learning_rate": 9.266666666666667e-06, "loss": 0.3026, "step": 140 }, { "epoch": 0.1, "grad_norm": 0.8897069692611694, "learning_rate": 9.933333333333334e-06, "loss": 0.3019, "step": 150 }, { "epoch": 0.10666666666666667, "grad_norm": 0.9619942307472229, "learning_rate": 9.998903417374228e-06, "loss": 0.3016, "step": 160 }, { "epoch": 0.11333333333333333, "grad_norm": 1.430272102355957, "learning_rate": 9.995113378907791e-06, "loss": 0.2995, "step": 170 }, { "epoch": 0.12, "grad_norm": 1.0930227041244507, "learning_rate": 9.988618398427495e-06, "loss": 0.2987, "step": 180 }, { "epoch": 0.12666666666666668, "grad_norm": 0.8541769981384277, "learning_rate": 9.979421993079853e-06, "loss": 0.2988, "step": 190 }, { "epoch": 0.13333333333333333, "grad_norm": 1.0007736682891846, "learning_rate": 9.967529142880592e-06, "loss": 0.2978, "step": 200 }, { "epoch": 0.14, "grad_norm": 0.9553325176239014, "learning_rate": 9.952946288017899e-06, "loss": 0.2975, "step": 210 }, { "epoch": 0.14666666666666667, "grad_norm": 0.9452527165412903, "learning_rate": 9.93568132536494e-06, "loss": 0.2959, "step": 220 }, { "epoch": 0.15333333333333332, "grad_norm": 0.9005290865898132, "learning_rate": 9.915743604203563e-06, "loss": 0.2974, "step": 230 }, { "epoch": 0.16, "grad_norm": 0.8893721699714661, "learning_rate": 9.893143921161501e-06, "loss": 0.2959, "step": 240 }, { "epoch": 0.16666666666666666, "grad_norm": 0.8175977468490601, "learning_rate": 9.867894514365802e-06, "loss": 0.2967, "step": 250 }, { "epoch": 0.17333333333333334, "grad_norm": 1.0447587966918945, "learning_rate": 9.840009056815674e-06, "loss": 0.2977, "step": 260 }, { "epoch": 0.18, "grad_norm": 0.8433653116226196, "learning_rate": 9.809502648978311e-06, "loss": 0.2949, "step": 270 }, { "epoch": 0.18666666666666668, "grad_norm": 0.899699330329895, "learning_rate": 9.776391810611719e-06, "loss": 0.2928, "step": 280 }, { "epoch": 0.19333333333333333, "grad_norm": 0.9095135927200317, "learning_rate": 9.740694471818988e-06, "loss": 0.2959, "step": 290 }, { "epoch": 0.2, "grad_norm": 17.036102294921875, "learning_rate": 9.702429963338812e-06, "loss": 0.3187, "step": 300 }, { "epoch": 0.20666666666666667, "grad_norm": 1.3837735652923584, "learning_rate": 9.661619006077562e-06, "loss": 0.338, "step": 310 }, { "epoch": 0.21333333333333335, "grad_norm": 0.8101090788841248, "learning_rate": 9.618283699888543e-06, "loss": 0.2939, "step": 320 }, { "epoch": 0.22, "grad_norm": 0.7796570062637329, "learning_rate": 9.572447511604536e-06, "loss": 0.2937, "step": 330 }, { "epoch": 0.22666666666666666, "grad_norm": 0.9723106622695923, "learning_rate": 9.524135262330098e-06, "loss": 0.2938, "step": 340 }, { "epoch": 0.23333333333333334, "grad_norm": 0.7630950808525085, "learning_rate": 9.473373114000493e-06, "loss": 0.2963, "step": 350 }, { "epoch": 0.24, "grad_norm": 0.6715610027313232, "learning_rate": 9.420188555214537e-06, "loss": 0.2929, "step": 360 }, { "epoch": 0.24666666666666667, "grad_norm": 1.1709316968917847, "learning_rate": 9.364610386349048e-06, "loss": 0.2925, "step": 370 }, { "epoch": 0.25333333333333335, "grad_norm": 0.9209672808647156, "learning_rate": 9.306668703962927e-06, "loss": 0.2941, "step": 380 }, { "epoch": 0.26, "grad_norm": 0.9940042495727539, "learning_rate": 9.246394884499334e-06, "loss": 0.2933, "step": 390 }, { "epoch": 0.26666666666666666, "grad_norm": 0.8881985545158386, "learning_rate": 9.18382156729481e-06, "loss": 0.2936, "step": 400 }, { "epoch": 0.2733333333333333, "grad_norm": 0.871043860912323, "learning_rate": 9.118982636904476e-06, "loss": 0.2942, "step": 410 }, { "epoch": 0.28, "grad_norm": 1.2014673948287964, "learning_rate": 9.051913204752972e-06, "loss": 0.2915, "step": 420 }, { "epoch": 0.2866666666666667, "grad_norm": 1.1756418943405151, "learning_rate": 8.982649590120982e-06, "loss": 0.2925, "step": 430 }, { "epoch": 0.29333333333333333, "grad_norm": 0.949000358581543, "learning_rate": 8.911229300477716e-06, "loss": 0.2934, "step": 440 }, { "epoch": 0.3, "grad_norm": 0.9523175954818726, "learning_rate": 8.837691011169944e-06, "loss": 0.2923, "step": 450 }, { "epoch": 0.30666666666666664, "grad_norm": 0.8335953950881958, "learning_rate": 8.762074544478622e-06, "loss": 0.2928, "step": 460 }, { "epoch": 0.31333333333333335, "grad_norm": 0.9363358020782471, "learning_rate": 8.68442084805442e-06, "loss": 0.2927, "step": 470 }, { "epoch": 0.32, "grad_norm": 0.9223266839981079, "learning_rate": 8.604771972743848e-06, "loss": 0.2917, "step": 480 }, { "epoch": 0.32666666666666666, "grad_norm": 0.8521516919136047, "learning_rate": 8.523171049817974e-06, "loss": 0.2913, "step": 490 }, { "epoch": 0.3333333333333333, "grad_norm": 1.0892271995544434, "learning_rate": 8.439662267616093e-06, "loss": 0.2907, "step": 500 }, { "epoch": 0.34, "grad_norm": 1.3269575834274292, "learning_rate": 8.354290847616954e-06, "loss": 0.2906, "step": 510 }, { "epoch": 0.3466666666666667, "grad_norm": 0.7763073444366455, "learning_rate": 8.267103019950529e-06, "loss": 0.2898, "step": 520 }, { "epoch": 0.35333333333333333, "grad_norm": 0.8938851356506348, "learning_rate": 8.178145998363585e-06, "loss": 0.2916, "step": 530 }, { "epoch": 0.36, "grad_norm": 1.5600512027740479, "learning_rate": 8.087467954652608e-06, "loss": 0.2907, "step": 540 }, { "epoch": 0.36666666666666664, "grad_norm": 0.7190754413604736, "learning_rate": 7.99511799257793e-06, "loss": 0.2898, "step": 550 }, { "epoch": 0.37333333333333335, "grad_norm": 0.9390725493431091, "learning_rate": 7.901146121273165e-06, "loss": 0.2879, "step": 560 }, { "epoch": 0.38, "grad_norm": 0.9324615597724915, "learning_rate": 7.80560322816439e-06, "loss": 0.2885, "step": 570 }, { "epoch": 0.38666666666666666, "grad_norm": 1.603588581085205, "learning_rate": 7.7085410514137e-06, "loss": 0.29, "step": 580 }, { "epoch": 0.3933333333333333, "grad_norm": 0.9243031740188599, "learning_rate": 7.610012151902091e-06, "loss": 0.289, "step": 590 }, { "epoch": 0.4, "grad_norm": 0.8938408493995667, "learning_rate": 7.510069884766802e-06, "loss": 0.2894, "step": 600 }, { "epoch": 0.4066666666666667, "grad_norm": 0.8788526058197021, "learning_rate": 7.408768370508577e-06, "loss": 0.289, "step": 610 }, { "epoch": 0.41333333333333333, "grad_norm": 1.0575368404388428, "learning_rate": 7.3061624656844544e-06, "loss": 0.2888, "step": 620 }, { "epoch": 0.42, "grad_norm": 0.8783132433891296, "learning_rate": 7.2023077332019755e-06, "loss": 0.2889, "step": 630 }, { "epoch": 0.4266666666666667, "grad_norm": 0.7886477112770081, "learning_rate": 7.0972604122308865e-06, "loss": 0.288, "step": 640 }, { "epoch": 0.43333333333333335, "grad_norm": 0.9342199563980103, "learning_rate": 6.991077387748643e-06, "loss": 0.2882, "step": 650 }, { "epoch": 0.44, "grad_norm": 0.927667498588562, "learning_rate": 6.883816159736187e-06, "loss": 0.2891, "step": 660 }, { "epoch": 0.44666666666666666, "grad_norm": 0.7458853721618652, "learning_rate": 6.775534812040686e-06, "loss": 0.2878, "step": 670 }, { "epoch": 1.0053333333333334, "grad_norm": 0.9560510516166687, "learning_rate": 6.666291980922122e-06, "loss": 0.2879, "step": 680 }, { "epoch": 1.012, "grad_norm": 0.8636048436164856, "learning_rate": 6.556146823300701e-06, "loss": 0.2886, "step": 690 }, { "epoch": 1.0186666666666666, "grad_norm": 0.9005559682846069, "learning_rate": 6.445158984722358e-06, "loss": 0.2881, "step": 700 }, { "epoch": 1.0253333333333334, "grad_norm": 2.7765614986419678, "learning_rate": 6.3333885670596285e-06, "loss": 0.2873, "step": 710 }, { "epoch": 1.032, "grad_norm": 0.9043927192687988, "learning_rate": 6.220896095965428e-06, "loss": 0.2894, "step": 720 }, { "epoch": 1.0386666666666666, "grad_norm": 0.9013159275054932, "learning_rate": 6.107742488097338e-06, "loss": 0.2878, "step": 730 }, { "epoch": 1.0453333333333332, "grad_norm": 1.1176661252975464, "learning_rate": 5.993989018130173e-06, "loss": 0.286, "step": 740 }, { "epoch": 1.052, "grad_norm": 0.9050567746162415, "learning_rate": 5.879697285574655e-06, "loss": 0.2844, "step": 750 }, { "epoch": 1.0586666666666666, "grad_norm": 0.9422501921653748, "learning_rate": 5.764929181420191e-06, "loss": 0.2873, "step": 760 }, { "epoch": 1.0653333333333332, "grad_norm": 0.9040423631668091, "learning_rate": 5.649746854619814e-06, "loss": 0.2854, "step": 770 }, { "epoch": 1.072, "grad_norm": 1.179377555847168, "learning_rate": 5.5342126784354265e-06, "loss": 0.2837, "step": 780 }, { "epoch": 1.0786666666666667, "grad_norm": 0.886728048324585, "learning_rate": 5.41838921666158e-06, "loss": 0.2826, "step": 790 }, { "epoch": 1.0853333333333333, "grad_norm": 0.8838808536529541, "learning_rate": 5.3023391897460715e-06, "loss": 0.2841, "step": 800 }, { "epoch": 1.092, "grad_norm": 1.1746634244918823, "learning_rate": 5.18612544082573e-06, "loss": 0.2843, "step": 810 }, { "epoch": 1.0986666666666667, "grad_norm": 0.9780789017677307, "learning_rate": 5.069810901695727e-06, "loss": 0.2838, "step": 820 }, { "epoch": 1.1053333333333333, "grad_norm": 1.8729772567749023, "learning_rate": 4.953458558730917e-06, "loss": 0.2827, "step": 830 }, { "epoch": 1.112, "grad_norm": 0.9038311243057251, "learning_rate": 4.837131418777595e-06, "loss": 0.2813, "step": 840 }, { "epoch": 1.1186666666666667, "grad_norm": 1.2726099491119385, "learning_rate": 4.720892475034181e-06, "loss": 0.2816, "step": 850 }, { "epoch": 1.1253333333333333, "grad_norm": 0.9130957722663879, "learning_rate": 4.604804672939295e-06, "loss": 0.2821, "step": 860 }, { "epoch": 1.1320000000000001, "grad_norm": 1.3209630250930786, "learning_rate": 4.4889308760856826e-06, "loss": 0.2833, "step": 870 }, { "epoch": 1.1386666666666667, "grad_norm": 1.8481944799423218, "learning_rate": 4.373333832178478e-06, "loss": 0.2834, "step": 880 }, { "epoch": 1.1453333333333333, "grad_norm": 0.7885728478431702, "learning_rate": 4.258076139056217e-06, "loss": 0.2818, "step": 890 }, { "epoch": 1.152, "grad_norm": 0.9263648390769958, "learning_rate": 4.143220210792993e-06, "loss": 0.2807, "step": 900 }, { "epoch": 1.1586666666666667, "grad_norm": 0.846098005771637, "learning_rate": 4.028828243900141e-06, "loss": 0.2796, "step": 910 }, { "epoch": 1.1653333333333333, "grad_norm": 1.2958885431289673, "learning_rate": 3.914962183645733e-06, "loss": 0.2797, "step": 920 }, { "epoch": 1.172, "grad_norm": 0.7466662526130676, "learning_rate": 3.8016836905101157e-06, "loss": 0.2795, "step": 930 }, { "epoch": 1.1786666666666668, "grad_norm": 0.9258480072021484, "learning_rate": 3.6890541067956775e-06, "loss": 0.278, "step": 940 }, { "epoch": 1.1853333333333333, "grad_norm": 0.7277618646621704, "learning_rate": 3.577134423408906e-06, "loss": 0.2786, "step": 950 }, { "epoch": 1.192, "grad_norm": 2.6303648948669434, "learning_rate": 3.465985246832739e-06, "loss": 0.2794, "step": 960 }, { "epoch": 1.1986666666666665, "grad_norm": 1.109855055809021, "learning_rate": 3.355666766307084e-06, "loss": 0.279, "step": 970 }, { "epoch": 1.2053333333333334, "grad_norm": 1.018596887588501, "learning_rate": 3.246238721235283e-06, "loss": 0.2797, "step": 980 }, { "epoch": 1.212, "grad_norm": 0.7051777243614197, "learning_rate": 3.137760368834169e-06, "loss": 0.2804, "step": 990 }, { "epoch": 1.2186666666666666, "grad_norm": 0.9288476705551147, "learning_rate": 3.030290452045245e-06, "loss": 0.2777, "step": 1000 }, { "epoch": 1.2253333333333334, "grad_norm": 1.1656556129455566, "learning_rate": 2.9238871677243354e-06, "loss": 0.2784, "step": 1010 }, { "epoch": 1.232, "grad_norm": 0.8173216581344604, "learning_rate": 2.818608135126967e-06, "loss": 0.2774, "step": 1020 }, { "epoch": 1.2386666666666666, "grad_norm": 1.0525356531143188, "learning_rate": 2.714510364706531e-06, "loss": 0.2762, "step": 1030 }, { "epoch": 1.2453333333333334, "grad_norm": 1.065725326538086, "learning_rate": 2.611650227242102e-06, "loss": 0.2761, "step": 1040 }, { "epoch": 1.252, "grad_norm": 1.0570695400238037, "learning_rate": 2.5100834233126827e-06, "loss": 0.2755, "step": 1050 }, { "epoch": 1.2586666666666666, "grad_norm": 0.9656396508216858, "learning_rate": 2.40986495313435e-06, "loss": 0.2767, "step": 1060 }, { "epoch": 1.2653333333333334, "grad_norm": 0.8878446221351624, "learning_rate": 2.3110490867766644e-06, "loss": 0.2768, "step": 1070 }, { "epoch": 1.272, "grad_norm": 0.9621784687042236, "learning_rate": 2.213689334774479e-06, "loss": 0.2764, "step": 1080 }, { "epoch": 1.2786666666666666, "grad_norm": 1.7135512828826904, "learning_rate": 2.1178384191510344e-06, "loss": 0.278, "step": 1090 }, { "epoch": 1.2853333333333334, "grad_norm": 0.7171072363853455, "learning_rate": 2.023548244868051e-06, "loss": 0.2783, "step": 1100 }, { "epoch": 1.292, "grad_norm": 1.1100950241088867, "learning_rate": 1.9308698717182874e-06, "loss": 0.2751, "step": 1110 }, { "epoch": 1.2986666666666666, "grad_norm": 1.0502686500549316, "learning_rate": 1.8398534866757455e-06, "loss": 0.2756, "step": 1120 }, { "epoch": 1.3053333333333335, "grad_norm": 1.0502331256866455, "learning_rate": 1.7505483767185583e-06, "loss": 0.2751, "step": 1130 }, { "epoch": 1.312, "grad_norm": 0.8936400413513184, "learning_rate": 1.6630029021392007e-06, "loss": 0.2757, "step": 1140 }, { "epoch": 1.3186666666666667, "grad_norm": 0.9794175028800964, "learning_rate": 1.5772644703565564e-06, "loss": 0.2752, "step": 1150 }, { "epoch": 1.3253333333333333, "grad_norm": 0.7495421171188354, "learning_rate": 1.4933795102439558e-06, "loss": 0.2763, "step": 1160 }, { "epoch": 1.332, "grad_norm": 1.200521469116211, "learning_rate": 1.4113934469871166e-06, "loss": 0.2734, "step": 1170 }, { "epoch": 1.3386666666666667, "grad_norm": 1.303836703300476, "learning_rate": 1.3313506774856177e-06, "loss": 0.2741, "step": 1180 }, { "epoch": 1.3453333333333333, "grad_norm": 0.8371695876121521, "learning_rate": 1.2532945463111856e-06, "loss": 0.2735, "step": 1190 }, { "epoch": 1.3519999999999999, "grad_norm": 0.9150954484939575, "learning_rate": 1.1772673222358421e-06, "loss": 0.2742, "step": 1200 }, { "epoch": 1.3586666666666667, "grad_norm": 0.8890231847763062, "learning_rate": 1.1033101753426285e-06, "loss": 0.273, "step": 1210 }, { "epoch": 1.3653333333333333, "grad_norm": 0.994347870349884, "learning_rate": 1.0314631547312738e-06, "loss": 0.2741, "step": 1220 }, { "epoch": 1.3719999999999999, "grad_norm": 1.2332909107208252, "learning_rate": 9.617651668308914e-07, "loss": 0.273, "step": 1230 }, { "epoch": 1.3786666666666667, "grad_norm": 1.254149079322815, "learning_rate": 8.942539543314799e-07, "loss": 0.2722, "step": 1240 }, { "epoch": 1.3853333333333333, "grad_norm": 1.4629772901535034, "learning_rate": 8.289660757455803e-07, "loss": 0.2741, "step": 1250 }, { "epoch": 1.392, "grad_norm": 0.9300149083137512, "learning_rate": 7.659368856111926e-07, "loss": 0.2721, "step": 1260 }, { "epoch": 1.3986666666666667, "grad_norm": 0.8379223942756653, "learning_rate": 7.052005153466779e-07, "loss": 0.2713, "step": 1270 }, { "epoch": 1.4053333333333333, "grad_norm": 1.0981905460357666, "learning_rate": 6.467898547679913e-07, "loss": 0.2713, "step": 1280 }, { "epoch": 1.412, "grad_norm": 1.0436373949050903, "learning_rate": 5.9073653427826e-07, "loss": 0.2719, "step": 1290 }, { "epoch": 1.4186666666666667, "grad_norm": 1.0875204801559448, "learning_rate": 5.370709077393721e-07, "loss": 0.2726, "step": 1300 }, { "epoch": 1.4253333333333333, "grad_norm": 0.8588967323303223, "learning_rate": 4.858220360348187e-07, "loss": 0.2716, "step": 1310 }, { "epoch": 1.432, "grad_norm": 0.9247114062309265, "learning_rate": 4.370176713327118e-07, "loss": 0.2732, "step": 1320 }, { "epoch": 1.4386666666666668, "grad_norm": 0.950705885887146, "learning_rate": 3.90684242057498e-07, "loss": 0.2726, "step": 1330 }, { "epoch": 1.4453333333333334, "grad_norm": 1.1385959386825562, "learning_rate": 3.468468385785023e-07, "loss": 0.2704, "step": 1340 }, { "epoch": 2.004, "grad_norm": 0.8614100217819214, "learning_rate": 3.055291996230492e-07, "loss": 0.2717, "step": 1350 }, { "epoch": 2.010666666666667, "grad_norm": 1.0673099756240845, "learning_rate": 2.6675369942151864e-07, "loss": 0.272, "step": 1360 }, { "epoch": 2.017333333333333, "grad_norm": 0.8404608368873596, "learning_rate": 2.3054133559131163e-07, "loss": 0.2728, "step": 1370 }, { "epoch": 2.024, "grad_norm": 1.1001969575881958, "learning_rate": 1.9691171776626882e-07, "loss": 0.2729, "step": 1380 }, { "epoch": 2.030666666666667, "grad_norm": 1.0574861764907837, "learning_rate": 1.6588305697770313e-07, "loss": 0.2722, "step": 1390 }, { "epoch": 2.037333333333333, "grad_norm": 0.7837361693382263, "learning_rate": 1.374721557928116e-07, "loss": 0.2721, "step": 1400 }, { "epoch": 2.044, "grad_norm": 0.937188446521759, "learning_rate": 1.1169439921578485e-07, "loss": 0.2709, "step": 1410 }, { "epoch": 2.050666666666667, "grad_norm": 0.8120216727256775, "learning_rate": 8.856374635655696e-08, "loss": 0.2699, "step": 1420 }, { "epoch": 2.0573333333333332, "grad_norm": 0.9232758283615112, "learning_rate": 6.809272287169988e-08, "loss": 0.2712, "step": 1430 }, { "epoch": 2.064, "grad_norm": 0.6734821796417236, "learning_rate": 5.029241418156139e-08, "loss": 0.2709, "step": 1440 }, { "epoch": 2.070666666666667, "grad_norm": 0.8397889137268066, "learning_rate": 3.517245946731529e-08, "loss": 0.2696, "step": 1450 }, { "epoch": 2.0773333333333333, "grad_norm": 0.9425774216651917, "learning_rate": 2.27410464511707e-08, "loss": 0.2683, "step": 1460 }, { "epoch": 2.084, "grad_norm": 2.522279739379883, "learning_rate": 1.3004906962578723e-08, "loss": 0.269, "step": 1470 }, { "epoch": 2.0906666666666665, "grad_norm": 1.0002614259719849, "learning_rate": 5.969313292830126e-09, "loss": 0.2683, "step": 1480 }, { "epoch": 2.0973333333333333, "grad_norm": 0.664967954158783, "learning_rate": 1.638075340010814e-09, "loss": 0.2698, "step": 1490 }, { "epoch": 2.104, "grad_norm": 0.9386897087097168, "learning_rate": 1.3538545881042198e-11, "loss": 0.2688, "step": 1500 } ], "logging_steps": 10, "max_steps": 1500, "num_input_tokens_seen": 0, "num_train_epochs": 9223372036854775807, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 3.8376648965860884e+18, "train_batch_size": 1, "trial_name": null, "trial_params": null }