{ "best_global_step": null, "best_metric": null, "best_model_checkpoint": null, "epoch": 104.16666666666667, "eval_steps": 500, "global_step": 5000, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.20833333333333334, "grad_norm": 6.974559783935547, "learning_rate": 9e-07, "loss": 0.9968, "step": 10 }, { "epoch": 0.4166666666666667, "grad_norm": 5.023812294006348, "learning_rate": 1.9e-06, "loss": 0.9334, "step": 20 }, { "epoch": 0.625, "grad_norm": 2.8353774547576904, "learning_rate": 2.9e-06, "loss": 0.6922, "step": 30 }, { "epoch": 0.8333333333333334, "grad_norm": 0.9118760228157043, "learning_rate": 3.9e-06, "loss": 0.4461, "step": 40 }, { "epoch": 1.0416666666666667, "grad_norm": 0.5101693272590637, "learning_rate": 4.9000000000000005e-06, "loss": 0.2961, "step": 50 }, { "epoch": 1.25, "grad_norm": 0.41475388407707214, "learning_rate": 5.9e-06, "loss": 0.2194, "step": 60 }, { "epoch": 1.4583333333333333, "grad_norm": 0.3171979486942291, "learning_rate": 6.900000000000001e-06, "loss": 0.1815, "step": 70 }, { "epoch": 1.6666666666666665, "grad_norm": 0.38558876514434814, "learning_rate": 7.9e-06, "loss": 0.1614, "step": 80 }, { "epoch": 1.875, "grad_norm": 0.28808021545410156, "learning_rate": 8.9e-06, "loss": 0.1422, "step": 90 }, { "epoch": 2.0833333333333335, "grad_norm": 0.29702240228652954, "learning_rate": 9.900000000000002e-06, "loss": 0.1262, "step": 100 }, { "epoch": 2.2916666666666665, "grad_norm": 0.2959185540676117, "learning_rate": 1.09e-05, "loss": 0.1081, "step": 110 }, { "epoch": 2.5, "grad_norm": 0.2338050752878189, "learning_rate": 1.19e-05, "loss": 0.0981, "step": 120 }, { "epoch": 2.7083333333333335, "grad_norm": 0.2578125, "learning_rate": 1.29e-05, "loss": 0.0895, "step": 130 }, { "epoch": 2.9166666666666665, "grad_norm": 0.2224149852991104, "learning_rate": 1.3900000000000002e-05, "loss": 0.0776, "step": 140 }, { "epoch": 3.125, "grad_norm": 0.19243746995925903, "learning_rate": 1.49e-05, "loss": 0.0712, "step": 150 }, { "epoch": 3.3333333333333335, "grad_norm": 0.2733956575393677, "learning_rate": 1.59e-05, "loss": 0.0674, "step": 160 }, { "epoch": 3.5416666666666665, "grad_norm": 0.23844897747039795, "learning_rate": 1.69e-05, "loss": 0.0617, "step": 170 }, { "epoch": 3.75, "grad_norm": 0.20417346060276031, "learning_rate": 1.79e-05, "loss": 0.056, "step": 180 }, { "epoch": 3.9583333333333335, "grad_norm": 0.24881872534751892, "learning_rate": 1.8900000000000002e-05, "loss": 0.0525, "step": 190 }, { "epoch": 4.166666666666667, "grad_norm": 0.25316762924194336, "learning_rate": 1.9900000000000003e-05, "loss": 0.0512, "step": 200 }, { "epoch": 4.375, "grad_norm": 0.19489045441150665, "learning_rate": 2.09e-05, "loss": 0.0454, "step": 210 }, { "epoch": 4.583333333333333, "grad_norm": 0.1898735761642456, "learning_rate": 2.19e-05, "loss": 0.0446, "step": 220 }, { "epoch": 4.791666666666667, "grad_norm": 0.20489181578159332, "learning_rate": 2.29e-05, "loss": 0.0422, "step": 230 }, { "epoch": 5.0, "grad_norm": 0.3320506811141968, "learning_rate": 2.39e-05, "loss": 0.0407, "step": 240 }, { "epoch": 5.208333333333333, "grad_norm": 0.24517174065113068, "learning_rate": 2.4900000000000002e-05, "loss": 0.0374, "step": 250 }, { "epoch": 5.416666666666667, "grad_norm": 0.26409515738487244, "learning_rate": 2.5900000000000003e-05, "loss": 0.0364, "step": 260 }, { "epoch": 5.625, "grad_norm": 0.2976372241973877, "learning_rate": 2.6900000000000003e-05, "loss": 0.0353, "step": 270 }, { "epoch": 5.833333333333333, "grad_norm": 0.24544252455234528, "learning_rate": 2.7900000000000004e-05, "loss": 0.0332, "step": 280 }, { "epoch": 6.041666666666667, "grad_norm": 0.3133062720298767, "learning_rate": 2.8899999999999998e-05, "loss": 0.0332, "step": 290 }, { "epoch": 6.25, "grad_norm": 0.29001384973526, "learning_rate": 2.9900000000000002e-05, "loss": 0.0326, "step": 300 }, { "epoch": 6.458333333333333, "grad_norm": 0.2940799295902252, "learning_rate": 3.09e-05, "loss": 0.0321, "step": 310 }, { "epoch": 6.666666666666667, "grad_norm": 0.2921755909919739, "learning_rate": 3.19e-05, "loss": 0.0306, "step": 320 }, { "epoch": 6.875, "grad_norm": 0.3143065869808197, "learning_rate": 3.29e-05, "loss": 0.0298, "step": 330 }, { "epoch": 7.083333333333333, "grad_norm": 0.35790130496025085, "learning_rate": 3.3900000000000004e-05, "loss": 0.0295, "step": 340 }, { "epoch": 7.291666666666667, "grad_norm": 0.24478909373283386, "learning_rate": 3.49e-05, "loss": 0.028, "step": 350 }, { "epoch": 7.5, "grad_norm": 0.19725550711154938, "learning_rate": 3.59e-05, "loss": 0.0273, "step": 360 }, { "epoch": 7.708333333333333, "grad_norm": 0.19303350150585175, "learning_rate": 3.69e-05, "loss": 0.0279, "step": 370 }, { "epoch": 7.916666666666667, "grad_norm": 0.22829170525074005, "learning_rate": 3.79e-05, "loss": 0.0275, "step": 380 }, { "epoch": 8.125, "grad_norm": 0.312612384557724, "learning_rate": 3.8900000000000004e-05, "loss": 0.0252, "step": 390 }, { "epoch": 8.333333333333334, "grad_norm": 0.26859182119369507, "learning_rate": 3.99e-05, "loss": 0.0262, "step": 400 }, { "epoch": 8.541666666666666, "grad_norm": 0.24778631329536438, "learning_rate": 4.09e-05, "loss": 0.024, "step": 410 }, { "epoch": 8.75, "grad_norm": 0.2118053287267685, "learning_rate": 4.19e-05, "loss": 0.0254, "step": 420 }, { "epoch": 8.958333333333334, "grad_norm": 0.2575972080230713, "learning_rate": 4.29e-05, "loss": 0.024, "step": 430 }, { "epoch": 9.166666666666666, "grad_norm": 0.2238076776266098, "learning_rate": 4.39e-05, "loss": 0.0247, "step": 440 }, { "epoch": 9.375, "grad_norm": 0.32065877318382263, "learning_rate": 4.49e-05, "loss": 0.0247, "step": 450 }, { "epoch": 9.583333333333334, "grad_norm": 0.28235775232315063, "learning_rate": 4.5900000000000004e-05, "loss": 0.0242, "step": 460 }, { "epoch": 9.791666666666666, "grad_norm": 0.3509873151779175, "learning_rate": 4.69e-05, "loss": 0.0235, "step": 470 }, { "epoch": 10.0, "grad_norm": 0.26749303936958313, "learning_rate": 4.79e-05, "loss": 0.0234, "step": 480 }, { "epoch": 10.208333333333334, "grad_norm": 0.2362636923789978, "learning_rate": 4.89e-05, "loss": 0.0227, "step": 490 }, { "epoch": 10.416666666666666, "grad_norm": 0.1780959814786911, "learning_rate": 4.99e-05, "loss": 0.0224, "step": 500 }, { "epoch": 10.625, "grad_norm": 0.2748551070690155, "learning_rate": 5.0900000000000004e-05, "loss": 0.0245, "step": 510 }, { "epoch": 10.833333333333334, "grad_norm": 0.20780707895755768, "learning_rate": 5.19e-05, "loss": 0.0212, "step": 520 }, { "epoch": 11.041666666666666, "grad_norm": 0.3468799591064453, "learning_rate": 5.2900000000000005e-05, "loss": 0.0227, "step": 530 }, { "epoch": 11.25, "grad_norm": 0.2328055202960968, "learning_rate": 5.390000000000001e-05, "loss": 0.0212, "step": 540 }, { "epoch": 11.458333333333334, "grad_norm": 0.264704167842865, "learning_rate": 5.4900000000000006e-05, "loss": 0.0217, "step": 550 }, { "epoch": 11.666666666666666, "grad_norm": 0.2830072045326233, "learning_rate": 5.590000000000001e-05, "loss": 0.0223, "step": 560 }, { "epoch": 11.875, "grad_norm": 0.3284772038459778, "learning_rate": 5.69e-05, "loss": 0.0208, "step": 570 }, { "epoch": 12.083333333333334, "grad_norm": 0.24000631272792816, "learning_rate": 5.79e-05, "loss": 0.0206, "step": 580 }, { "epoch": 12.291666666666666, "grad_norm": 0.24238787591457367, "learning_rate": 5.89e-05, "loss": 0.0214, "step": 590 }, { "epoch": 12.5, "grad_norm": 0.25679489970207214, "learning_rate": 5.99e-05, "loss": 0.0206, "step": 600 }, { "epoch": 12.708333333333334, "grad_norm": 0.2557210326194763, "learning_rate": 6.09e-05, "loss": 0.0217, "step": 610 }, { "epoch": 12.916666666666666, "grad_norm": 0.24070383608341217, "learning_rate": 6.19e-05, "loss": 0.0209, "step": 620 }, { "epoch": 13.125, "grad_norm": 0.25813865661621094, "learning_rate": 6.29e-05, "loss": 0.0208, "step": 630 }, { "epoch": 13.333333333333334, "grad_norm": 0.2484397441148758, "learning_rate": 6.390000000000001e-05, "loss": 0.0206, "step": 640 }, { "epoch": 13.541666666666666, "grad_norm": 0.24208255112171173, "learning_rate": 6.49e-05, "loss": 0.0189, "step": 650 }, { "epoch": 13.75, "grad_norm": 0.19995449483394623, "learning_rate": 6.59e-05, "loss": 0.0196, "step": 660 }, { "epoch": 13.958333333333334, "grad_norm": 0.24547183513641357, "learning_rate": 6.690000000000001e-05, "loss": 0.0189, "step": 670 }, { "epoch": 14.166666666666666, "grad_norm": 0.2594086229801178, "learning_rate": 6.790000000000001e-05, "loss": 0.019, "step": 680 }, { "epoch": 14.375, "grad_norm": 0.2065507173538208, "learning_rate": 6.89e-05, "loss": 0.0192, "step": 690 }, { "epoch": 14.583333333333334, "grad_norm": 0.2905842661857605, "learning_rate": 6.99e-05, "loss": 0.0187, "step": 700 }, { "epoch": 14.791666666666666, "grad_norm": 0.2601730227470398, "learning_rate": 7.09e-05, "loss": 0.0196, "step": 710 }, { "epoch": 15.0, "grad_norm": 0.28263160586357117, "learning_rate": 7.19e-05, "loss": 0.0192, "step": 720 }, { "epoch": 15.208333333333334, "grad_norm": 0.3240365982055664, "learning_rate": 7.29e-05, "loss": 0.0195, "step": 730 }, { "epoch": 15.416666666666666, "grad_norm": 0.24705904722213745, "learning_rate": 7.390000000000001e-05, "loss": 0.0187, "step": 740 }, { "epoch": 15.625, "grad_norm": 0.2265540510416031, "learning_rate": 7.49e-05, "loss": 0.0179, "step": 750 }, { "epoch": 15.833333333333334, "grad_norm": 0.193108931183815, "learning_rate": 7.59e-05, "loss": 0.0183, "step": 760 }, { "epoch": 16.041666666666668, "grad_norm": 0.36317235231399536, "learning_rate": 7.69e-05, "loss": 0.0182, "step": 770 }, { "epoch": 16.25, "grad_norm": 0.3126901686191559, "learning_rate": 7.790000000000001e-05, "loss": 0.0197, "step": 780 }, { "epoch": 16.458333333333332, "grad_norm": 0.238056942820549, "learning_rate": 7.890000000000001e-05, "loss": 0.0182, "step": 790 }, { "epoch": 16.666666666666668, "grad_norm": 0.25261858105659485, "learning_rate": 7.99e-05, "loss": 0.0176, "step": 800 }, { "epoch": 16.875, "grad_norm": 0.1865801066160202, "learning_rate": 8.090000000000001e-05, "loss": 0.0174, "step": 810 }, { "epoch": 17.083333333333332, "grad_norm": 0.18573996424674988, "learning_rate": 8.19e-05, "loss": 0.0176, "step": 820 }, { "epoch": 17.291666666666668, "grad_norm": 0.21988113224506378, "learning_rate": 8.29e-05, "loss": 0.0174, "step": 830 }, { "epoch": 17.5, "grad_norm": 0.196188285946846, "learning_rate": 8.39e-05, "loss": 0.0172, "step": 840 }, { "epoch": 17.708333333333332, "grad_norm": 0.219802588224411, "learning_rate": 8.49e-05, "loss": 0.0181, "step": 850 }, { "epoch": 17.916666666666668, "grad_norm": 0.2536110579967499, "learning_rate": 8.59e-05, "loss": 0.0178, "step": 860 }, { "epoch": 18.125, "grad_norm": 0.3585800528526306, "learning_rate": 8.69e-05, "loss": 0.0176, "step": 870 }, { "epoch": 18.333333333333332, "grad_norm": 0.18298107385635376, "learning_rate": 8.790000000000001e-05, "loss": 0.0173, "step": 880 }, { "epoch": 18.541666666666668, "grad_norm": 0.22495491802692413, "learning_rate": 8.89e-05, "loss": 0.0166, "step": 890 }, { "epoch": 18.75, "grad_norm": 0.21044448018074036, "learning_rate": 8.99e-05, "loss": 0.0161, "step": 900 }, { "epoch": 18.958333333333332, "grad_norm": 0.19759798049926758, "learning_rate": 9.090000000000001e-05, "loss": 0.0153, "step": 910 }, { "epoch": 19.166666666666668, "grad_norm": 0.22768504917621613, "learning_rate": 9.190000000000001e-05, "loss": 0.0168, "step": 920 }, { "epoch": 19.375, "grad_norm": 0.1936219483613968, "learning_rate": 9.290000000000001e-05, "loss": 0.0162, "step": 930 }, { "epoch": 19.583333333333332, "grad_norm": 0.21084393560886383, "learning_rate": 9.39e-05, "loss": 0.0179, "step": 940 }, { "epoch": 19.791666666666668, "grad_norm": 0.20455226302146912, "learning_rate": 9.49e-05, "loss": 0.0154, "step": 950 }, { "epoch": 20.0, "grad_norm": 0.26040470600128174, "learning_rate": 9.59e-05, "loss": 0.0155, "step": 960 }, { "epoch": 20.208333333333332, "grad_norm": 0.2832554280757904, "learning_rate": 9.69e-05, "loss": 0.0164, "step": 970 }, { "epoch": 20.416666666666668, "grad_norm": 0.2514568567276001, "learning_rate": 9.790000000000001e-05, "loss": 0.017, "step": 980 }, { "epoch": 20.625, "grad_norm": 0.20968522131443024, "learning_rate": 9.89e-05, "loss": 0.016, "step": 990 }, { "epoch": 20.833333333333332, "grad_norm": 0.20158836245536804, "learning_rate": 9.99e-05, "loss": 0.0153, "step": 1000 }, { "epoch": 21.041666666666668, "grad_norm": 0.24486659467220306, "learning_rate": 9.999994463727085e-05, "loss": 0.0157, "step": 1010 }, { "epoch": 21.25, "grad_norm": 0.2102823108434677, "learning_rate": 9.999975326009292e-05, "loss": 0.0166, "step": 1020 }, { "epoch": 21.458333333333332, "grad_norm": 0.2416916787624359, "learning_rate": 9.999942518549879e-05, "loss": 0.0161, "step": 1030 }, { "epoch": 21.666666666666668, "grad_norm": 0.14526234567165375, "learning_rate": 9.999896041438544e-05, "loss": 0.0156, "step": 1040 }, { "epoch": 21.875, "grad_norm": 0.21768969297409058, "learning_rate": 9.999835894802353e-05, "loss": 0.0149, "step": 1050 }, { "epoch": 22.083333333333332, "grad_norm": 0.2318434864282608, "learning_rate": 9.999762078805743e-05, "loss": 0.0153, "step": 1060 }, { "epoch": 22.291666666666668, "grad_norm": 0.2798757255077362, "learning_rate": 9.999674593650526e-05, "loss": 0.0155, "step": 1070 }, { "epoch": 22.5, "grad_norm": 0.24006976187229156, "learning_rate": 9.99957343957588e-05, "loss": 0.0153, "step": 1080 }, { "epoch": 22.708333333333332, "grad_norm": 0.21017949283123016, "learning_rate": 9.99945861685836e-05, "loss": 0.0162, "step": 1090 }, { "epoch": 22.916666666666668, "grad_norm": 0.19796672463417053, "learning_rate": 9.999330125811884e-05, "loss": 0.0149, "step": 1100 }, { "epoch": 23.125, "grad_norm": 0.2603440582752228, "learning_rate": 9.999187966787744e-05, "loss": 0.015, "step": 1110 }, { "epoch": 23.333333333333332, "grad_norm": 0.23967282474040985, "learning_rate": 9.999032140174595e-05, "loss": 0.0151, "step": 1120 }, { "epoch": 23.541666666666668, "grad_norm": 0.18136964738368988, "learning_rate": 9.998862646398464e-05, "loss": 0.0152, "step": 1130 }, { "epoch": 23.75, "grad_norm": 0.252003014087677, "learning_rate": 9.998679485922739e-05, "loss": 0.0153, "step": 1140 }, { "epoch": 23.958333333333332, "grad_norm": 0.2043199986219406, "learning_rate": 9.998482659248174e-05, "loss": 0.0157, "step": 1150 }, { "epoch": 24.166666666666668, "grad_norm": 0.18087252974510193, "learning_rate": 9.998272166912883e-05, "loss": 0.0154, "step": 1160 }, { "epoch": 24.375, "grad_norm": 0.21990996599197388, "learning_rate": 9.998048009492347e-05, "loss": 0.015, "step": 1170 }, { "epoch": 24.583333333333332, "grad_norm": 0.2346096634864807, "learning_rate": 9.997810187599403e-05, "loss": 0.0154, "step": 1180 }, { "epoch": 24.791666666666668, "grad_norm": 0.18085162341594696, "learning_rate": 9.997558701884249e-05, "loss": 0.015, "step": 1190 }, { "epoch": 25.0, "grad_norm": 0.3023941218852997, "learning_rate": 9.997293553034433e-05, "loss": 0.0133, "step": 1200 }, { "epoch": 25.208333333333332, "grad_norm": 0.20299163460731506, "learning_rate": 9.997014741774866e-05, "loss": 0.0133, "step": 1210 }, { "epoch": 25.416666666666668, "grad_norm": 0.26265865564346313, "learning_rate": 9.996722268867803e-05, "loss": 0.0137, "step": 1220 }, { "epoch": 25.625, "grad_norm": 0.24567152559757233, "learning_rate": 9.996416135112858e-05, "loss": 0.0132, "step": 1230 }, { "epoch": 25.833333333333332, "grad_norm": 0.17860938608646393, "learning_rate": 9.996096341346988e-05, "loss": 0.0135, "step": 1240 }, { "epoch": 26.041666666666668, "grad_norm": 0.27000877261161804, "learning_rate": 9.995762888444495e-05, "loss": 0.0127, "step": 1250 }, { "epoch": 26.25, "grad_norm": 0.21311180293560028, "learning_rate": 9.995415777317027e-05, "loss": 0.0146, "step": 1260 }, { "epoch": 26.458333333333332, "grad_norm": 0.19608379900455475, "learning_rate": 9.995055008913574e-05, "loss": 0.0141, "step": 1270 }, { "epoch": 26.666666666666668, "grad_norm": 0.14746077358722687, "learning_rate": 9.994680584220463e-05, "loss": 0.0127, "step": 1280 }, { "epoch": 26.875, "grad_norm": 0.2702135443687439, "learning_rate": 9.994292504261355e-05, "loss": 0.0139, "step": 1290 }, { "epoch": 27.083333333333332, "grad_norm": 0.16915710270404816, "learning_rate": 9.993890770097247e-05, "loss": 0.0125, "step": 1300 }, { "epoch": 27.291666666666668, "grad_norm": 0.18446531891822815, "learning_rate": 9.993475382826467e-05, "loss": 0.0133, "step": 1310 }, { "epoch": 27.5, "grad_norm": 0.1798723340034485, "learning_rate": 9.993046343584664e-05, "loss": 0.0127, "step": 1320 }, { "epoch": 27.708333333333332, "grad_norm": 0.1655735820531845, "learning_rate": 9.992603653544816e-05, "loss": 0.0123, "step": 1330 }, { "epoch": 27.916666666666668, "grad_norm": 0.21007224917411804, "learning_rate": 9.992147313917222e-05, "loss": 0.0125, "step": 1340 }, { "epoch": 28.125, "grad_norm": 0.2112513929605484, "learning_rate": 9.991677325949497e-05, "loss": 0.0125, "step": 1350 }, { "epoch": 28.333333333333332, "grad_norm": 0.20448802411556244, "learning_rate": 9.991193690926568e-05, "loss": 0.0133, "step": 1360 }, { "epoch": 28.541666666666668, "grad_norm": 0.1936739832162857, "learning_rate": 9.990696410170678e-05, "loss": 0.0125, "step": 1370 }, { "epoch": 28.75, "grad_norm": 0.20615226030349731, "learning_rate": 9.990185485041371e-05, "loss": 0.0121, "step": 1380 }, { "epoch": 28.958333333333332, "grad_norm": 0.18444038927555084, "learning_rate": 9.989660916935498e-05, "loss": 0.0123, "step": 1390 }, { "epoch": 29.166666666666668, "grad_norm": 0.21376805007457733, "learning_rate": 9.989122707287208e-05, "loss": 0.013, "step": 1400 }, { "epoch": 29.375, "grad_norm": 0.25530359148979187, "learning_rate": 9.988570857567945e-05, "loss": 0.0125, "step": 1410 }, { "epoch": 29.583333333333332, "grad_norm": 0.21851158142089844, "learning_rate": 9.988005369286446e-05, "loss": 0.0123, "step": 1420 }, { "epoch": 29.791666666666668, "grad_norm": 0.19980329275131226, "learning_rate": 9.987426243988734e-05, "loss": 0.0134, "step": 1430 }, { "epoch": 30.0, "grad_norm": 0.3672507107257843, "learning_rate": 9.986833483258114e-05, "loss": 0.0108, "step": 1440 }, { "epoch": 30.208333333333332, "grad_norm": 0.26760515570640564, "learning_rate": 9.986227088715173e-05, "loss": 0.0144, "step": 1450 }, { "epoch": 30.416666666666668, "grad_norm": 0.1989632248878479, "learning_rate": 9.98560706201777e-05, "loss": 0.0135, "step": 1460 }, { "epoch": 30.625, "grad_norm": 0.20122896134853363, "learning_rate": 9.984973404861036e-05, "loss": 0.0137, "step": 1470 }, { "epoch": 30.833333333333332, "grad_norm": 0.22380387783050537, "learning_rate": 9.984326118977361e-05, "loss": 0.0138, "step": 1480 }, { "epoch": 31.041666666666668, "grad_norm": 0.17185676097869873, "learning_rate": 9.983665206136406e-05, "loss": 0.0119, "step": 1490 }, { "epoch": 31.25, "grad_norm": 0.20098410546779633, "learning_rate": 9.982990668145075e-05, "loss": 0.0119, "step": 1500 }, { "epoch": 31.458333333333332, "grad_norm": 0.16579347848892212, "learning_rate": 9.982302506847534e-05, "loss": 0.013, "step": 1510 }, { "epoch": 31.666666666666668, "grad_norm": 0.15271247923374176, "learning_rate": 9.981600724125189e-05, "loss": 0.0131, "step": 1520 }, { "epoch": 31.875, "grad_norm": 0.16309182345867157, "learning_rate": 9.980885321896685e-05, "loss": 0.0121, "step": 1530 }, { "epoch": 32.083333333333336, "grad_norm": 0.17842234671115875, "learning_rate": 9.980156302117905e-05, "loss": 0.0112, "step": 1540 }, { "epoch": 32.291666666666664, "grad_norm": 0.18424782156944275, "learning_rate": 9.979413666781963e-05, "loss": 0.0117, "step": 1550 }, { "epoch": 32.5, "grad_norm": 0.17072798311710358, "learning_rate": 9.978657417919193e-05, "loss": 0.0113, "step": 1560 }, { "epoch": 32.708333333333336, "grad_norm": 0.16320225596427917, "learning_rate": 9.977887557597153e-05, "loss": 0.0113, "step": 1570 }, { "epoch": 32.916666666666664, "grad_norm": 0.17314594984054565, "learning_rate": 9.97710408792061e-05, "loss": 0.0108, "step": 1580 }, { "epoch": 33.125, "grad_norm": 0.21347780525684357, "learning_rate": 9.976307011031542e-05, "loss": 0.0111, "step": 1590 }, { "epoch": 33.333333333333336, "grad_norm": 0.1748444139957428, "learning_rate": 9.975496329109126e-05, "loss": 0.0118, "step": 1600 }, { "epoch": 33.541666666666664, "grad_norm": 0.22180508077144623, "learning_rate": 9.974672044369732e-05, "loss": 0.0111, "step": 1610 }, { "epoch": 33.75, "grad_norm": 0.1914110630750656, "learning_rate": 9.97383415906693e-05, "loss": 0.0124, "step": 1620 }, { "epoch": 33.958333333333336, "grad_norm": 0.1542980968952179, "learning_rate": 9.97298267549146e-05, "loss": 0.0119, "step": 1630 }, { "epoch": 34.166666666666664, "grad_norm": 0.2009705901145935, "learning_rate": 9.972117595971249e-05, "loss": 0.0124, "step": 1640 }, { "epoch": 34.375, "grad_norm": 0.1812678873538971, "learning_rate": 9.971238922871391e-05, "loss": 0.0116, "step": 1650 }, { "epoch": 34.583333333333336, "grad_norm": 0.13899721205234528, "learning_rate": 9.970346658594142e-05, "loss": 0.0113, "step": 1660 }, { "epoch": 34.791666666666664, "grad_norm": 0.12181176245212555, "learning_rate": 9.969440805578923e-05, "loss": 0.0115, "step": 1670 }, { "epoch": 35.0, "grad_norm": 0.20665058493614197, "learning_rate": 9.968521366302298e-05, "loss": 0.0104, "step": 1680 }, { "epoch": 35.208333333333336, "grad_norm": 0.14869576692581177, "learning_rate": 9.967588343277981e-05, "loss": 0.0111, "step": 1690 }, { "epoch": 35.416666666666664, "grad_norm": 0.21121446788311005, "learning_rate": 9.966641739056818e-05, "loss": 0.0121, "step": 1700 }, { "epoch": 35.625, "grad_norm": 0.2114773988723755, "learning_rate": 9.965681556226793e-05, "loss": 0.0117, "step": 1710 }, { "epoch": 35.833333333333336, "grad_norm": 0.2102501392364502, "learning_rate": 9.964707797413006e-05, "loss": 0.0111, "step": 1720 }, { "epoch": 36.041666666666664, "grad_norm": 0.197468101978302, "learning_rate": 9.963720465277679e-05, "loss": 0.0113, "step": 1730 }, { "epoch": 36.25, "grad_norm": 0.21283449232578278, "learning_rate": 9.96271956252014e-05, "loss": 0.0111, "step": 1740 }, { "epoch": 36.458333333333336, "grad_norm": 0.20028117299079895, "learning_rate": 9.961705091876816e-05, "loss": 0.012, "step": 1750 }, { "epoch": 36.666666666666664, "grad_norm": 0.15327388048171997, "learning_rate": 9.960677056121235e-05, "loss": 0.0104, "step": 1760 }, { "epoch": 36.875, "grad_norm": 0.16232164204120636, "learning_rate": 9.959635458064005e-05, "loss": 0.0107, "step": 1770 }, { "epoch": 37.083333333333336, "grad_norm": 0.18801745772361755, "learning_rate": 9.958580300552815e-05, "loss": 0.0106, "step": 1780 }, { "epoch": 37.291666666666664, "grad_norm": 0.15016761422157288, "learning_rate": 9.957511586472426e-05, "loss": 0.0104, "step": 1790 }, { "epoch": 37.5, "grad_norm": 0.15682189166545868, "learning_rate": 9.956429318744662e-05, "loss": 0.0101, "step": 1800 }, { "epoch": 37.708333333333336, "grad_norm": 0.2034134864807129, "learning_rate": 9.955333500328404e-05, "loss": 0.0106, "step": 1810 }, { "epoch": 37.916666666666664, "grad_norm": 0.16577675938606262, "learning_rate": 9.95422413421957e-05, "loss": 0.0104, "step": 1820 }, { "epoch": 38.125, "grad_norm": 0.16364583373069763, "learning_rate": 9.953101223451133e-05, "loss": 0.0101, "step": 1830 }, { "epoch": 38.333333333333336, "grad_norm": 0.14578108489513397, "learning_rate": 9.951964771093085e-05, "loss": 0.0105, "step": 1840 }, { "epoch": 38.541666666666664, "grad_norm": 0.14456351101398468, "learning_rate": 9.950814780252442e-05, "loss": 0.0101, "step": 1850 }, { "epoch": 38.75, "grad_norm": 0.20234094560146332, "learning_rate": 9.949651254073236e-05, "loss": 0.0109, "step": 1860 }, { "epoch": 38.958333333333336, "grad_norm": 0.16703951358795166, "learning_rate": 9.948474195736504e-05, "loss": 0.0105, "step": 1870 }, { "epoch": 39.166666666666664, "grad_norm": 0.17165902256965637, "learning_rate": 9.947283608460277e-05, "loss": 0.0103, "step": 1880 }, { "epoch": 39.375, "grad_norm": 0.14556387066841125, "learning_rate": 9.946079495499577e-05, "loss": 0.0101, "step": 1890 }, { "epoch": 39.583333333333336, "grad_norm": 0.19160117208957672, "learning_rate": 9.944861860146401e-05, "loss": 0.0113, "step": 1900 }, { "epoch": 39.791666666666664, "grad_norm": 0.1653631329536438, "learning_rate": 9.943630705729719e-05, "loss": 0.01, "step": 1910 }, { "epoch": 40.0, "grad_norm": 0.20655889809131622, "learning_rate": 9.942386035615459e-05, "loss": 0.0106, "step": 1920 }, { "epoch": 40.208333333333336, "grad_norm": 0.1884182095527649, "learning_rate": 9.941127853206503e-05, "loss": 0.0108, "step": 1930 }, { "epoch": 40.416666666666664, "grad_norm": 0.15719261765480042, "learning_rate": 9.939856161942673e-05, "loss": 0.0105, "step": 1940 }, { "epoch": 40.625, "grad_norm": 0.15232212841510773, "learning_rate": 9.938570965300724e-05, "loss": 0.0102, "step": 1950 }, { "epoch": 40.833333333333336, "grad_norm": 0.1885528415441513, "learning_rate": 9.937272266794335e-05, "loss": 0.0109, "step": 1960 }, { "epoch": 41.041666666666664, "grad_norm": 0.15623626112937927, "learning_rate": 9.935960069974096e-05, "loss": 0.0099, "step": 1970 }, { "epoch": 41.25, "grad_norm": 0.15828962624073029, "learning_rate": 9.934634378427506e-05, "loss": 0.0111, "step": 1980 }, { "epoch": 41.458333333333336, "grad_norm": 0.17898498475551605, "learning_rate": 9.933295195778954e-05, "loss": 0.0096, "step": 1990 }, { "epoch": 41.666666666666664, "grad_norm": 0.156189426779747, "learning_rate": 9.931942525689715e-05, "loss": 0.0097, "step": 2000 }, { "epoch": 41.875, "grad_norm": 0.18208195269107819, "learning_rate": 9.930576371857936e-05, "loss": 0.0104, "step": 2010 }, { "epoch": 42.083333333333336, "grad_norm": 0.22289738059043884, "learning_rate": 9.929196738018629e-05, "loss": 0.0101, "step": 2020 }, { "epoch": 42.291666666666664, "grad_norm": 0.1856096237897873, "learning_rate": 9.927803627943662e-05, "loss": 0.0102, "step": 2030 }, { "epoch": 42.5, "grad_norm": 0.18785765767097473, "learning_rate": 9.926397045441744e-05, "loss": 0.01, "step": 2040 }, { "epoch": 42.708333333333336, "grad_norm": 0.17422276735305786, "learning_rate": 9.924976994358417e-05, "loss": 0.01, "step": 2050 }, { "epoch": 42.916666666666664, "grad_norm": 0.14945165812969208, "learning_rate": 9.923543478576048e-05, "loss": 0.0099, "step": 2060 }, { "epoch": 43.125, "grad_norm": 0.1581973135471344, "learning_rate": 9.922096502013813e-05, "loss": 0.0114, "step": 2070 }, { "epoch": 43.333333333333336, "grad_norm": 0.1979743242263794, "learning_rate": 9.92063606862769e-05, "loss": 0.0115, "step": 2080 }, { "epoch": 43.541666666666664, "grad_norm": 0.1677751988172531, "learning_rate": 9.919162182410453e-05, "loss": 0.0103, "step": 2090 }, { "epoch": 43.75, "grad_norm": 0.12610012292861938, "learning_rate": 9.917674847391645e-05, "loss": 0.0098, "step": 2100 }, { "epoch": 43.958333333333336, "grad_norm": 0.1920396089553833, "learning_rate": 9.916174067637584e-05, "loss": 0.0094, "step": 2110 }, { "epoch": 44.166666666666664, "grad_norm": 0.159335657954216, "learning_rate": 9.914659847251348e-05, "loss": 0.0105, "step": 2120 }, { "epoch": 44.375, "grad_norm": 0.18806587159633636, "learning_rate": 9.913132190372753e-05, "loss": 0.0101, "step": 2130 }, { "epoch": 44.583333333333336, "grad_norm": 0.1827884465456009, "learning_rate": 9.911591101178359e-05, "loss": 0.0103, "step": 2140 }, { "epoch": 44.791666666666664, "grad_norm": 0.21888400614261627, "learning_rate": 9.910036583881443e-05, "loss": 0.01, "step": 2150 }, { "epoch": 45.0, "grad_norm": 0.20317022502422333, "learning_rate": 9.908468642731995e-05, "loss": 0.0089, "step": 2160 }, { "epoch": 45.208333333333336, "grad_norm": 0.23497819900512695, "learning_rate": 9.906887282016707e-05, "loss": 0.0105, "step": 2170 }, { "epoch": 45.416666666666664, "grad_norm": 0.18091560900211334, "learning_rate": 9.90529250605896e-05, "loss": 0.0099, "step": 2180 }, { "epoch": 45.625, "grad_norm": 0.14061926305294037, "learning_rate": 9.903684319218809e-05, "loss": 0.01, "step": 2190 }, { "epoch": 45.833333333333336, "grad_norm": 0.19375453889369965, "learning_rate": 9.902062725892976e-05, "loss": 0.0096, "step": 2200 }, { "epoch": 46.041666666666664, "grad_norm": 0.21020196378231049, "learning_rate": 9.900427730514834e-05, "loss": 0.0096, "step": 2210 }, { "epoch": 46.25, "grad_norm": 0.15842080116271973, "learning_rate": 9.8987793375544e-05, "loss": 0.0097, "step": 2220 }, { "epoch": 46.458333333333336, "grad_norm": 0.15409104526042938, "learning_rate": 9.897117551518318e-05, "loss": 0.0094, "step": 2230 }, { "epoch": 46.666666666666664, "grad_norm": 0.1582673192024231, "learning_rate": 9.895442376949844e-05, "loss": 0.0102, "step": 2240 }, { "epoch": 46.875, "grad_norm": 0.14312148094177246, "learning_rate": 9.893753818428845e-05, "loss": 0.0094, "step": 2250 }, { "epoch": 47.083333333333336, "grad_norm": 0.17130939662456512, "learning_rate": 9.892051880571773e-05, "loss": 0.0092, "step": 2260 }, { "epoch": 47.291666666666664, "grad_norm": 0.18089613318443298, "learning_rate": 9.890336568031663e-05, "loss": 0.0098, "step": 2270 }, { "epoch": 47.5, "grad_norm": 0.14833058416843414, "learning_rate": 9.888607885498113e-05, "loss": 0.0098, "step": 2280 }, { "epoch": 47.708333333333336, "grad_norm": 0.1335451900959015, "learning_rate": 9.886865837697275e-05, "loss": 0.0088, "step": 2290 }, { "epoch": 47.916666666666664, "grad_norm": 0.1326667219400406, "learning_rate": 9.88511042939184e-05, "loss": 0.0094, "step": 2300 }, { "epoch": 48.125, "grad_norm": 0.16099606454372406, "learning_rate": 9.883341665381028e-05, "loss": 0.0092, "step": 2310 }, { "epoch": 48.333333333333336, "grad_norm": 0.16287587583065033, "learning_rate": 9.881559550500575e-05, "loss": 0.0099, "step": 2320 }, { "epoch": 48.541666666666664, "grad_norm": 0.20915569365024567, "learning_rate": 9.879764089622712e-05, "loss": 0.0097, "step": 2330 }, { "epoch": 48.75, "grad_norm": 0.1475881040096283, "learning_rate": 9.87795528765616e-05, "loss": 0.0097, "step": 2340 }, { "epoch": 48.958333333333336, "grad_norm": 0.15001028776168823, "learning_rate": 9.876133149546118e-05, "loss": 0.0096, "step": 2350 }, { "epoch": 49.166666666666664, "grad_norm": 0.1850421130657196, "learning_rate": 9.874297680274238e-05, "loss": 0.0095, "step": 2360 }, { "epoch": 49.375, "grad_norm": 0.1945352703332901, "learning_rate": 9.872448884858624e-05, "loss": 0.0096, "step": 2370 }, { "epoch": 49.583333333333336, "grad_norm": 0.13718049228191376, "learning_rate": 9.870586768353815e-05, "loss": 0.0087, "step": 2380 }, { "epoch": 49.791666666666664, "grad_norm": 0.1327553540468216, "learning_rate": 9.868711335850764e-05, "loss": 0.0092, "step": 2390 }, { "epoch": 50.0, "grad_norm": 0.260092556476593, "learning_rate": 9.866822592476833e-05, "loss": 0.0096, "step": 2400 }, { "epoch": 50.208333333333336, "grad_norm": 0.175159752368927, "learning_rate": 9.86492054339577e-05, "loss": 0.0091, "step": 2410 }, { "epoch": 50.416666666666664, "grad_norm": 0.17031779885292053, "learning_rate": 9.863005193807711e-05, "loss": 0.0095, "step": 2420 }, { "epoch": 50.625, "grad_norm": 0.1681128591299057, "learning_rate": 9.861076548949143e-05, "loss": 0.0107, "step": 2430 }, { "epoch": 50.833333333333336, "grad_norm": 0.17762134969234467, "learning_rate": 9.859134614092912e-05, "loss": 0.0102, "step": 2440 }, { "epoch": 51.041666666666664, "grad_norm": 0.14008237421512604, "learning_rate": 9.857179394548191e-05, "loss": 0.0093, "step": 2450 }, { "epoch": 51.25, "grad_norm": 0.1564144790172577, "learning_rate": 9.855210895660477e-05, "loss": 0.0096, "step": 2460 }, { "epoch": 51.458333333333336, "grad_norm": 0.13487133383750916, "learning_rate": 9.853229122811568e-05, "loss": 0.0099, "step": 2470 }, { "epoch": 51.666666666666664, "grad_norm": 0.1658105105161667, "learning_rate": 9.851234081419559e-05, "loss": 0.0085, "step": 2480 }, { "epoch": 51.875, "grad_norm": 0.15481163561344147, "learning_rate": 9.849225776938814e-05, "loss": 0.0091, "step": 2490 }, { "epoch": 52.083333333333336, "grad_norm": 0.19152818620204926, "learning_rate": 9.847204214859964e-05, "loss": 0.0081, "step": 2500 }, { "epoch": 52.291666666666664, "grad_norm": 0.14624345302581787, "learning_rate": 9.845169400709879e-05, "loss": 0.0087, "step": 2510 }, { "epoch": 52.5, "grad_norm": 0.14260073006153107, "learning_rate": 9.843121340051664e-05, "loss": 0.0096, "step": 2520 }, { "epoch": 52.708333333333336, "grad_norm": 0.18242524564266205, "learning_rate": 9.841060038484641e-05, "loss": 0.0089, "step": 2530 }, { "epoch": 52.916666666666664, "grad_norm": 0.135667085647583, "learning_rate": 9.838985501644328e-05, "loss": 0.0095, "step": 2540 }, { "epoch": 53.125, "grad_norm": 0.11698679625988007, "learning_rate": 9.83689773520243e-05, "loss": 0.008, "step": 2550 }, { "epoch": 53.333333333333336, "grad_norm": 0.13887479901313782, "learning_rate": 9.834796744866819e-05, "loss": 0.0086, "step": 2560 }, { "epoch": 53.541666666666664, "grad_norm": 0.12642112374305725, "learning_rate": 9.832682536381525e-05, "loss": 0.0092, "step": 2570 }, { "epoch": 53.75, "grad_norm": 0.11770359426736832, "learning_rate": 9.830555115526711e-05, "loss": 0.009, "step": 2580 }, { "epoch": 53.958333333333336, "grad_norm": 0.10433600842952728, "learning_rate": 9.828414488118667e-05, "loss": 0.0084, "step": 2590 }, { "epoch": 54.166666666666664, "grad_norm": 0.12209464609622955, "learning_rate": 9.826260660009785e-05, "loss": 0.0094, "step": 2600 }, { "epoch": 54.375, "grad_norm": 0.1385062336921692, "learning_rate": 9.824093637088547e-05, "loss": 0.009, "step": 2610 }, { "epoch": 54.583333333333336, "grad_norm": 0.12731477618217468, "learning_rate": 9.821913425279514e-05, "loss": 0.0089, "step": 2620 }, { "epoch": 54.791666666666664, "grad_norm": 0.15336956083774567, "learning_rate": 9.8197200305433e-05, "loss": 0.0085, "step": 2630 }, { "epoch": 55.0, "grad_norm": 0.1945595145225525, "learning_rate": 9.817513458876564e-05, "loss": 0.0096, "step": 2640 }, { "epoch": 55.208333333333336, "grad_norm": 0.11767341941595078, "learning_rate": 9.815293716311987e-05, "loss": 0.0088, "step": 2650 }, { "epoch": 55.416666666666664, "grad_norm": 0.14541785418987274, "learning_rate": 9.813060808918262e-05, "loss": 0.0092, "step": 2660 }, { "epoch": 55.625, "grad_norm": 0.16650767624378204, "learning_rate": 9.810814742800069e-05, "loss": 0.0097, "step": 2670 }, { "epoch": 55.833333333333336, "grad_norm": 0.1150713860988617, "learning_rate": 9.808555524098074e-05, "loss": 0.0086, "step": 2680 }, { "epoch": 56.041666666666664, "grad_norm": 0.1088116317987442, "learning_rate": 9.806283158988887e-05, "loss": 0.0078, "step": 2690 }, { "epoch": 56.25, "grad_norm": 0.14631342887878418, "learning_rate": 9.803997653685072e-05, "loss": 0.0082, "step": 2700 }, { "epoch": 56.458333333333336, "grad_norm": 0.1343754678964615, "learning_rate": 9.801699014435112e-05, "loss": 0.008, "step": 2710 }, { "epoch": 56.666666666666664, "grad_norm": 0.13529370725154877, "learning_rate": 9.799387247523398e-05, "loss": 0.0085, "step": 2720 }, { "epoch": 56.875, "grad_norm": 0.11147897690534592, "learning_rate": 9.797062359270215e-05, "loss": 0.0079, "step": 2730 }, { "epoch": 57.083333333333336, "grad_norm": 0.19471466541290283, "learning_rate": 9.794724356031715e-05, "loss": 0.0083, "step": 2740 }, { "epoch": 57.291666666666664, "grad_norm": 0.1863505244255066, "learning_rate": 9.792373244199913e-05, "loss": 0.0085, "step": 2750 }, { "epoch": 57.5, "grad_norm": 0.13585540652275085, "learning_rate": 9.790009030202658e-05, "loss": 0.0081, "step": 2760 }, { "epoch": 57.708333333333336, "grad_norm": 0.13892769813537598, "learning_rate": 9.78763172050362e-05, "loss": 0.0086, "step": 2770 }, { "epoch": 57.916666666666664, "grad_norm": 0.15619535744190216, "learning_rate": 9.785241321602274e-05, "loss": 0.0078, "step": 2780 }, { "epoch": 58.125, "grad_norm": 0.17480793595314026, "learning_rate": 9.782837840033879e-05, "loss": 0.0088, "step": 2790 }, { "epoch": 58.333333333333336, "grad_norm": 0.19116300344467163, "learning_rate": 9.780421282369461e-05, "loss": 0.0091, "step": 2800 }, { "epoch": 58.541666666666664, "grad_norm": 0.2017354965209961, "learning_rate": 9.777991655215797e-05, "loss": 0.0082, "step": 2810 }, { "epoch": 58.75, "grad_norm": 0.17326346039772034, "learning_rate": 9.775548965215394e-05, "loss": 0.0088, "step": 2820 }, { "epoch": 58.958333333333336, "grad_norm": 0.17388294637203217, "learning_rate": 9.773093219046474e-05, "loss": 0.0084, "step": 2830 }, { "epoch": 59.166666666666664, "grad_norm": 0.1788823902606964, "learning_rate": 9.770624423422954e-05, "loss": 0.0084, "step": 2840 }, { "epoch": 59.375, "grad_norm": 0.11936558783054352, "learning_rate": 9.768142585094426e-05, "loss": 0.0091, "step": 2850 }, { "epoch": 59.583333333333336, "grad_norm": 0.14019201695919037, "learning_rate": 9.765647710846142e-05, "loss": 0.0092, "step": 2860 }, { "epoch": 59.791666666666664, "grad_norm": 0.12400297075510025, "learning_rate": 9.763139807498991e-05, "loss": 0.0084, "step": 2870 }, { "epoch": 60.0, "grad_norm": 0.1594945192337036, "learning_rate": 9.760618881909487e-05, "loss": 0.0083, "step": 2880 }, { "epoch": 60.208333333333336, "grad_norm": 0.17475134134292603, "learning_rate": 9.758084940969744e-05, "loss": 0.0093, "step": 2890 }, { "epoch": 60.416666666666664, "grad_norm": 0.125895693898201, "learning_rate": 9.755537991607459e-05, "loss": 0.0087, "step": 2900 }, { "epoch": 60.625, "grad_norm": 0.14806149899959564, "learning_rate": 9.752978040785895e-05, "loss": 0.0072, "step": 2910 }, { "epoch": 60.833333333333336, "grad_norm": 0.14935727417469025, "learning_rate": 9.750405095503859e-05, "loss": 0.0084, "step": 2920 }, { "epoch": 61.041666666666664, "grad_norm": 0.12621425092220306, "learning_rate": 9.747819162795686e-05, "loss": 0.0076, "step": 2930 }, { "epoch": 61.25, "grad_norm": 0.15602892637252808, "learning_rate": 9.745220249731217e-05, "loss": 0.0084, "step": 2940 }, { "epoch": 61.458333333333336, "grad_norm": 0.12207546830177307, "learning_rate": 9.742608363415781e-05, "loss": 0.0084, "step": 2950 }, { "epoch": 61.666666666666664, "grad_norm": 0.1394585818052292, "learning_rate": 9.739983510990176e-05, "loss": 0.0077, "step": 2960 }, { "epoch": 61.875, "grad_norm": 0.13204297423362732, "learning_rate": 9.737345699630647e-05, "loss": 0.0079, "step": 2970 }, { "epoch": 62.083333333333336, "grad_norm": 0.13679321110248566, "learning_rate": 9.734694936548869e-05, "loss": 0.0074, "step": 2980 }, { "epoch": 62.291666666666664, "grad_norm": 0.11424277722835541, "learning_rate": 9.732031228991932e-05, "loss": 0.0086, "step": 2990 }, { "epoch": 62.5, "grad_norm": 0.112228162586689, "learning_rate": 9.729354584242302e-05, "loss": 0.0087, "step": 3000 }, { "epoch": 62.708333333333336, "grad_norm": 0.15181872248649597, "learning_rate": 9.726665009617832e-05, "loss": 0.0081, "step": 3010 }, { "epoch": 62.916666666666664, "grad_norm": 0.1584879606962204, "learning_rate": 9.723962512471714e-05, "loss": 0.0083, "step": 3020 }, { "epoch": 63.125, "grad_norm": 0.15587449073791504, "learning_rate": 9.72124710019247e-05, "loss": 0.0084, "step": 3030 }, { "epoch": 63.333333333333336, "grad_norm": 0.13749879598617554, "learning_rate": 9.718518780203934e-05, "loss": 0.0087, "step": 3040 }, { "epoch": 63.541666666666664, "grad_norm": 0.15750397741794586, "learning_rate": 9.715777559965228e-05, "loss": 0.0085, "step": 3050 }, { "epoch": 63.75, "grad_norm": 0.16457325220108032, "learning_rate": 9.713023446970746e-05, "loss": 0.008, "step": 3060 }, { "epoch": 63.958333333333336, "grad_norm": 0.14457859098911285, "learning_rate": 9.710256448750126e-05, "loss": 0.008, "step": 3070 }, { "epoch": 64.16666666666667, "grad_norm": 0.21400192379951477, "learning_rate": 9.707476572868235e-05, "loss": 0.0087, "step": 3080 }, { "epoch": 64.375, "grad_norm": 0.176253542304039, "learning_rate": 9.704683826925149e-05, "loss": 0.0082, "step": 3090 }, { "epoch": 64.58333333333333, "grad_norm": 0.14613905549049377, "learning_rate": 9.701878218556129e-05, "loss": 0.0091, "step": 3100 }, { "epoch": 64.79166666666667, "grad_norm": 0.12556883692741394, "learning_rate": 9.699059755431598e-05, "loss": 0.0086, "step": 3110 }, { "epoch": 65.0, "grad_norm": 0.12506556510925293, "learning_rate": 9.696228445257132e-05, "loss": 0.0078, "step": 3120 }, { "epoch": 65.20833333333333, "grad_norm": 0.1324303150177002, "learning_rate": 9.693384295773419e-05, "loss": 0.0076, "step": 3130 }, { "epoch": 65.41666666666667, "grad_norm": 0.14260755479335785, "learning_rate": 9.690527314756259e-05, "loss": 0.0075, "step": 3140 }, { "epoch": 65.625, "grad_norm": 0.17024897038936615, "learning_rate": 9.687657510016527e-05, "loss": 0.0073, "step": 3150 }, { "epoch": 65.83333333333333, "grad_norm": 0.12163723260164261, "learning_rate": 9.684774889400161e-05, "loss": 0.0084, "step": 3160 }, { "epoch": 66.04166666666667, "grad_norm": 0.17265737056732178, "learning_rate": 9.681879460788135e-05, "loss": 0.0085, "step": 3170 }, { "epoch": 66.25, "grad_norm": 0.14137807488441467, "learning_rate": 9.67897123209644e-05, "loss": 0.0087, "step": 3180 }, { "epoch": 66.45833333333333, "grad_norm": 0.11415492743253708, "learning_rate": 9.676050211276062e-05, "loss": 0.0084, "step": 3190 }, { "epoch": 66.66666666666667, "grad_norm": 0.10539334267377853, "learning_rate": 9.673116406312962e-05, "loss": 0.0085, "step": 3200 }, { "epoch": 66.875, "grad_norm": 0.1746184527873993, "learning_rate": 9.67016982522805e-05, "loss": 0.0079, "step": 3210 }, { "epoch": 67.08333333333333, "grad_norm": 0.15164965391159058, "learning_rate": 9.667210476077164e-05, "loss": 0.0078, "step": 3220 }, { "epoch": 67.29166666666667, "grad_norm": 0.1245863139629364, "learning_rate": 9.664238366951055e-05, "loss": 0.0083, "step": 3230 }, { "epoch": 67.5, "grad_norm": 0.13058176636695862, "learning_rate": 9.661253505975355e-05, "loss": 0.008, "step": 3240 }, { "epoch": 67.70833333333333, "grad_norm": 0.1412813365459442, "learning_rate": 9.658255901310557e-05, "loss": 0.0084, "step": 3250 }, { "epoch": 67.91666666666667, "grad_norm": 0.13035815954208374, "learning_rate": 9.655245561152e-05, "loss": 0.0082, "step": 3260 }, { "epoch": 68.125, "grad_norm": 0.14681102335453033, "learning_rate": 9.65222249372984e-05, "loss": 0.0078, "step": 3270 }, { "epoch": 68.33333333333333, "grad_norm": 0.12792235612869263, "learning_rate": 9.649186707309026e-05, "loss": 0.0082, "step": 3280 }, { "epoch": 68.54166666666667, "grad_norm": 0.15287558734416962, "learning_rate": 9.646138210189283e-05, "loss": 0.0079, "step": 3290 }, { "epoch": 68.75, "grad_norm": 0.1277853548526764, "learning_rate": 9.643077010705087e-05, "loss": 0.008, "step": 3300 }, { "epoch": 68.95833333333333, "grad_norm": 0.10948234051465988, "learning_rate": 9.640003117225637e-05, "loss": 0.0081, "step": 3310 }, { "epoch": 69.16666666666667, "grad_norm": 0.16888520121574402, "learning_rate": 9.636916538154846e-05, "loss": 0.008, "step": 3320 }, { "epoch": 69.375, "grad_norm": 0.1860867738723755, "learning_rate": 9.633817281931296e-05, "loss": 0.0081, "step": 3330 }, { "epoch": 69.58333333333333, "grad_norm": 0.12217903882265091, "learning_rate": 9.630705357028242e-05, "loss": 0.008, "step": 3340 }, { "epoch": 69.79166666666667, "grad_norm": 0.14392343163490295, "learning_rate": 9.627580771953563e-05, "loss": 0.0084, "step": 3350 }, { "epoch": 70.0, "grad_norm": 0.2517831027507782, "learning_rate": 9.624443535249759e-05, "loss": 0.0091, "step": 3360 }, { "epoch": 70.20833333333333, "grad_norm": 0.1237884908914566, "learning_rate": 9.621293655493913e-05, "loss": 0.0086, "step": 3370 }, { "epoch": 70.41666666666667, "grad_norm": 0.1395934820175171, "learning_rate": 9.618131141297675e-05, "loss": 0.0091, "step": 3380 }, { "epoch": 70.625, "grad_norm": 0.15799179673194885, "learning_rate": 9.614956001307242e-05, "loss": 0.0098, "step": 3390 }, { "epoch": 70.83333333333333, "grad_norm": 0.14630959928035736, "learning_rate": 9.611768244203321e-05, "loss": 0.0082, "step": 3400 }, { "epoch": 71.04166666666667, "grad_norm": 0.19569124281406403, "learning_rate": 9.60856787870112e-05, "loss": 0.0089, "step": 3410 }, { "epoch": 71.25, "grad_norm": 0.15080992877483368, "learning_rate": 9.605354913550318e-05, "loss": 0.0081, "step": 3420 }, { "epoch": 71.45833333333333, "grad_norm": 0.12431894987821579, "learning_rate": 9.602129357535037e-05, "loss": 0.0077, "step": 3430 }, { "epoch": 71.66666666666667, "grad_norm": 0.1317983716726303, "learning_rate": 9.598891219473825e-05, "loss": 0.0081, "step": 3440 }, { "epoch": 71.875, "grad_norm": 0.1271415799856186, "learning_rate": 9.595640508219625e-05, "loss": 0.0079, "step": 3450 }, { "epoch": 72.08333333333333, "grad_norm": 0.12340828031301498, "learning_rate": 9.592377232659761e-05, "loss": 0.0073, "step": 3460 }, { "epoch": 72.29166666666667, "grad_norm": 0.16125109791755676, "learning_rate": 9.589101401715904e-05, "loss": 0.0082, "step": 3470 }, { "epoch": 72.5, "grad_norm": 0.13908740878105164, "learning_rate": 9.585813024344045e-05, "loss": 0.0081, "step": 3480 }, { "epoch": 72.70833333333333, "grad_norm": 0.12069405615329742, "learning_rate": 9.58251210953449e-05, "loss": 0.0072, "step": 3490 }, { "epoch": 72.91666666666667, "grad_norm": 0.15209130942821503, "learning_rate": 9.579198666311809e-05, "loss": 0.0082, "step": 3500 }, { "epoch": 73.125, "grad_norm": 0.12193018198013306, "learning_rate": 9.575872703734832e-05, "loss": 0.0078, "step": 3510 }, { "epoch": 73.33333333333333, "grad_norm": 0.17105849087238312, "learning_rate": 9.572534230896611e-05, "loss": 0.0085, "step": 3520 }, { "epoch": 73.54166666666667, "grad_norm": 0.1370059996843338, "learning_rate": 9.569183256924403e-05, "loss": 0.0085, "step": 3530 }, { "epoch": 73.75, "grad_norm": 0.13424254953861237, "learning_rate": 9.565819790979646e-05, "loss": 0.0085, "step": 3540 }, { "epoch": 73.95833333333333, "grad_norm": 0.12105348706245422, "learning_rate": 9.562443842257925e-05, "loss": 0.0077, "step": 3550 }, { "epoch": 74.16666666666667, "grad_norm": 0.14536826312541962, "learning_rate": 9.559055419988956e-05, "loss": 0.0087, "step": 3560 }, { "epoch": 74.375, "grad_norm": 0.1609853357076645, "learning_rate": 9.555654533436557e-05, "loss": 0.0092, "step": 3570 }, { "epoch": 74.58333333333333, "grad_norm": 0.15583093464374542, "learning_rate": 9.552241191898621e-05, "loss": 0.0084, "step": 3580 }, { "epoch": 74.79166666666667, "grad_norm": 0.13674955070018768, "learning_rate": 9.548815404707092e-05, "loss": 0.0078, "step": 3590 }, { "epoch": 75.0, "grad_norm": 0.1659046858549118, "learning_rate": 9.545377181227942e-05, "loss": 0.008, "step": 3600 }, { "epoch": 75.20833333333333, "grad_norm": 0.09946411848068237, "learning_rate": 9.541926530861145e-05, "loss": 0.0076, "step": 3610 }, { "epoch": 75.41666666666667, "grad_norm": 0.13440348207950592, "learning_rate": 9.538463463040645e-05, "loss": 0.0071, "step": 3620 }, { "epoch": 75.625, "grad_norm": 0.13562451303005219, "learning_rate": 9.534987987234337e-05, "loss": 0.0072, "step": 3630 }, { "epoch": 75.83333333333333, "grad_norm": 0.12133369594812393, "learning_rate": 9.53150011294404e-05, "loss": 0.0078, "step": 3640 }, { "epoch": 76.04166666666667, "grad_norm": 0.11865601688623428, "learning_rate": 9.527999849705471e-05, "loss": 0.0073, "step": 3650 }, { "epoch": 76.25, "grad_norm": 0.13767482340335846, "learning_rate": 9.524487207088213e-05, "loss": 0.008, "step": 3660 }, { "epoch": 76.45833333333333, "grad_norm": 0.12942279875278473, "learning_rate": 9.520962194695698e-05, "loss": 0.0082, "step": 3670 }, { "epoch": 76.66666666666667, "grad_norm": 0.14708350598812103, "learning_rate": 9.517424822165175e-05, "loss": 0.0089, "step": 3680 }, { "epoch": 76.875, "grad_norm": 0.12420503050088882, "learning_rate": 9.513875099167685e-05, "loss": 0.0079, "step": 3690 }, { "epoch": 77.08333333333333, "grad_norm": 0.14663736522197723, "learning_rate": 9.510313035408035e-05, "loss": 0.0084, "step": 3700 }, { "epoch": 77.29166666666667, "grad_norm": 0.1613157093524933, "learning_rate": 9.506738640624775e-05, "loss": 0.0085, "step": 3710 }, { "epoch": 77.5, "grad_norm": 0.15745188295841217, "learning_rate": 9.50315192459016e-05, "loss": 0.0084, "step": 3720 }, { "epoch": 77.70833333333333, "grad_norm": 0.1454235464334488, "learning_rate": 9.499552897110136e-05, "loss": 0.0081, "step": 3730 }, { "epoch": 77.91666666666667, "grad_norm": 0.13637305796146393, "learning_rate": 9.495941568024304e-05, "loss": 0.0078, "step": 3740 }, { "epoch": 78.125, "grad_norm": 0.16548554599285126, "learning_rate": 9.492317947205904e-05, "loss": 0.0078, "step": 3750 }, { "epoch": 78.33333333333333, "grad_norm": 0.11904530972242355, "learning_rate": 9.488682044561775e-05, "loss": 0.008, "step": 3760 }, { "epoch": 78.54166666666667, "grad_norm": 0.13436388969421387, "learning_rate": 9.485033870032335e-05, "loss": 0.0078, "step": 3770 }, { "epoch": 78.75, "grad_norm": 0.13463658094406128, "learning_rate": 9.481373433591556e-05, "loss": 0.008, "step": 3780 }, { "epoch": 78.95833333333333, "grad_norm": 0.12881360948085785, "learning_rate": 9.47770074524693e-05, "loss": 0.0074, "step": 3790 }, { "epoch": 79.16666666666667, "grad_norm": 0.1699158102273941, "learning_rate": 9.474015815039446e-05, "loss": 0.0091, "step": 3800 }, { "epoch": 79.375, "grad_norm": 0.15745197236537933, "learning_rate": 9.470318653043565e-05, "loss": 0.009, "step": 3810 }, { "epoch": 79.58333333333333, "grad_norm": 0.1425720900297165, "learning_rate": 9.466609269367185e-05, "loss": 0.0081, "step": 3820 }, { "epoch": 79.79166666666667, "grad_norm": 0.13255997002124786, "learning_rate": 9.46288767415162e-05, "loss": 0.0085, "step": 3830 }, { "epoch": 80.0, "grad_norm": 0.18882817029953003, "learning_rate": 9.459153877571567e-05, "loss": 0.0077, "step": 3840 }, { "epoch": 80.20833333333333, "grad_norm": 0.12347506731748581, "learning_rate": 9.455407889835087e-05, "loss": 0.0076, "step": 3850 }, { "epoch": 80.41666666666667, "grad_norm": 0.134022518992424, "learning_rate": 9.451649721183564e-05, "loss": 0.008, "step": 3860 }, { "epoch": 80.625, "grad_norm": 0.10200574994087219, "learning_rate": 9.447879381891692e-05, "loss": 0.0081, "step": 3870 }, { "epoch": 80.83333333333333, "grad_norm": 0.11393435299396515, "learning_rate": 9.444096882267428e-05, "loss": 0.0067, "step": 3880 }, { "epoch": 81.04166666666667, "grad_norm": 0.17549581825733185, "learning_rate": 9.440302232651988e-05, "loss": 0.0068, "step": 3890 }, { "epoch": 81.25, "grad_norm": 0.129764124751091, "learning_rate": 9.436495443419795e-05, "loss": 0.0072, "step": 3900 }, { "epoch": 81.45833333333333, "grad_norm": 0.13367408514022827, "learning_rate": 9.432676524978466e-05, "loss": 0.0075, "step": 3910 }, { "epoch": 81.66666666666667, "grad_norm": 0.12855835258960724, "learning_rate": 9.42884548776878e-05, "loss": 0.007, "step": 3920 }, { "epoch": 81.875, "grad_norm": 0.12377104163169861, "learning_rate": 9.425002342264646e-05, "loss": 0.0066, "step": 3930 }, { "epoch": 82.08333333333333, "grad_norm": 0.14512717723846436, "learning_rate": 9.421147098973077e-05, "loss": 0.0078, "step": 3940 }, { "epoch": 82.29166666666667, "grad_norm": 0.14285895228385925, "learning_rate": 9.41727976843416e-05, "loss": 0.007, "step": 3950 }, { "epoch": 82.5, "grad_norm": 0.1557202786207199, "learning_rate": 9.413400361221029e-05, "loss": 0.0077, "step": 3960 }, { "epoch": 82.70833333333333, "grad_norm": 0.12391534447669983, "learning_rate": 9.409508887939835e-05, "loss": 0.0075, "step": 3970 }, { "epoch": 82.91666666666667, "grad_norm": 0.1519940346479416, "learning_rate": 9.40560535922972e-05, "loss": 0.0069, "step": 3980 }, { "epoch": 83.125, "grad_norm": 0.1247396171092987, "learning_rate": 9.40168978576278e-05, "loss": 0.0074, "step": 3990 }, { "epoch": 83.33333333333333, "grad_norm": 0.12143047899007797, "learning_rate": 9.397762178244043e-05, "loss": 0.0077, "step": 4000 }, { "epoch": 83.54166666666667, "grad_norm": 0.1239767074584961, "learning_rate": 9.393822547411439e-05, "loss": 0.0073, "step": 4010 }, { "epoch": 83.75, "grad_norm": 0.14913630485534668, "learning_rate": 9.389870904035769e-05, "loss": 0.0072, "step": 4020 }, { "epoch": 83.95833333333333, "grad_norm": 0.12743103504180908, "learning_rate": 9.385907258920672e-05, "loss": 0.0073, "step": 4030 }, { "epoch": 84.16666666666667, "grad_norm": 0.16922424733638763, "learning_rate": 9.381931622902607e-05, "loss": 0.0073, "step": 4040 }, { "epoch": 84.375, "grad_norm": 0.12121975421905518, "learning_rate": 9.377944006850807e-05, "loss": 0.0084, "step": 4050 }, { "epoch": 84.58333333333333, "grad_norm": 0.12847809493541718, "learning_rate": 9.373944421667265e-05, "loss": 0.0078, "step": 4060 }, { "epoch": 84.79166666666667, "grad_norm": 0.10404125601053238, "learning_rate": 9.369932878286691e-05, "loss": 0.0073, "step": 4070 }, { "epoch": 85.0, "grad_norm": 0.20326335728168488, "learning_rate": 9.365909387676494e-05, "loss": 0.0075, "step": 4080 }, { "epoch": 85.20833333333333, "grad_norm": 0.1208629459142685, "learning_rate": 9.361873960836744e-05, "loss": 0.0075, "step": 4090 }, { "epoch": 85.41666666666667, "grad_norm": 0.15183036029338837, "learning_rate": 9.357826608800142e-05, "loss": 0.0074, "step": 4100 }, { "epoch": 85.625, "grad_norm": 0.11224193871021271, "learning_rate": 9.353767342631994e-05, "loss": 0.0072, "step": 4110 }, { "epoch": 85.83333333333333, "grad_norm": 0.14832796156406403, "learning_rate": 9.34969617343018e-05, "loss": 0.0076, "step": 4120 }, { "epoch": 86.04166666666667, "grad_norm": 0.13874362409114838, "learning_rate": 9.345613112325122e-05, "loss": 0.008, "step": 4130 }, { "epoch": 86.25, "grad_norm": 0.12126526981592178, "learning_rate": 9.34151817047975e-05, "loss": 0.0077, "step": 4140 }, { "epoch": 86.45833333333333, "grad_norm": 0.11635075509548187, "learning_rate": 9.33741135908948e-05, "loss": 0.008, "step": 4150 }, { "epoch": 86.66666666666667, "grad_norm": 0.09447265416383743, "learning_rate": 9.33329268938218e-05, "loss": 0.0069, "step": 4160 }, { "epoch": 86.875, "grad_norm": 0.11846235394477844, "learning_rate": 9.329162172618132e-05, "loss": 0.0074, "step": 4170 }, { "epoch": 87.08333333333333, "grad_norm": 0.13078013062477112, "learning_rate": 9.325019820090013e-05, "loss": 0.0072, "step": 4180 }, { "epoch": 87.29166666666667, "grad_norm": 0.12578906118869781, "learning_rate": 9.320865643122855e-05, "loss": 0.0078, "step": 4190 }, { "epoch": 87.5, "grad_norm": 0.1526239514350891, "learning_rate": 9.316699653074023e-05, "loss": 0.0073, "step": 4200 }, { "epoch": 87.70833333333333, "grad_norm": 0.11341243982315063, "learning_rate": 9.312521861333172e-05, "loss": 0.0067, "step": 4210 }, { "epoch": 87.91666666666667, "grad_norm": 0.09736169129610062, "learning_rate": 9.308332279322224e-05, "loss": 0.0066, "step": 4220 }, { "epoch": 88.125, "grad_norm": 0.13081710040569305, "learning_rate": 9.304130918495338e-05, "loss": 0.0074, "step": 4230 }, { "epoch": 88.33333333333333, "grad_norm": 0.12707583606243134, "learning_rate": 9.299917790338874e-05, "loss": 0.0076, "step": 4240 }, { "epoch": 88.54166666666667, "grad_norm": 0.11190862953662872, "learning_rate": 9.295692906371363e-05, "loss": 0.0068, "step": 4250 }, { "epoch": 88.75, "grad_norm": 0.11754106730222702, "learning_rate": 9.291456278143476e-05, "loss": 0.0075, "step": 4260 }, { "epoch": 88.95833333333333, "grad_norm": 0.10456420481204987, "learning_rate": 9.287207917237994e-05, "loss": 0.0072, "step": 4270 }, { "epoch": 89.16666666666667, "grad_norm": 0.13785317540168762, "learning_rate": 9.282947835269773e-05, "loss": 0.0072, "step": 4280 }, { "epoch": 89.375, "grad_norm": 0.10497057437896729, "learning_rate": 9.278676043885715e-05, "loss": 0.0078, "step": 4290 }, { "epoch": 89.58333333333333, "grad_norm": 0.10352105647325516, "learning_rate": 9.274392554764733e-05, "loss": 0.0073, "step": 4300 }, { "epoch": 89.79166666666667, "grad_norm": 0.1163288876414299, "learning_rate": 9.270097379617723e-05, "loss": 0.0073, "step": 4310 }, { "epoch": 90.0, "grad_norm": 0.17180398106575012, "learning_rate": 9.26579053018753e-05, "loss": 0.0071, "step": 4320 }, { "epoch": 90.20833333333333, "grad_norm": 0.15238836407661438, "learning_rate": 9.261472018248918e-05, "loss": 0.0072, "step": 4330 }, { "epoch": 90.41666666666667, "grad_norm": 0.12145853042602539, "learning_rate": 9.25714185560853e-05, "loss": 0.0076, "step": 4340 }, { "epoch": 90.625, "grad_norm": 0.1380954384803772, "learning_rate": 9.252800054104868e-05, "loss": 0.0073, "step": 4350 }, { "epoch": 90.83333333333333, "grad_norm": 0.14991872012615204, "learning_rate": 9.248446625608252e-05, "loss": 0.0072, "step": 4360 }, { "epoch": 91.04166666666667, "grad_norm": 0.15483133494853973, "learning_rate": 9.244081582020789e-05, "loss": 0.0083, "step": 4370 }, { "epoch": 91.25, "grad_norm": 0.12043429166078568, "learning_rate": 9.239704935276339e-05, "loss": 0.0079, "step": 4380 }, { "epoch": 91.45833333333333, "grad_norm": 0.13251228630542755, "learning_rate": 9.235316697340489e-05, "loss": 0.0075, "step": 4390 }, { "epoch": 91.66666666666667, "grad_norm": 0.1269141584634781, "learning_rate": 9.230916880210512e-05, "loss": 0.0079, "step": 4400 }, { "epoch": 91.875, "grad_norm": 0.11620093137025833, "learning_rate": 9.226505495915342e-05, "loss": 0.0073, "step": 4410 }, { "epoch": 92.08333333333333, "grad_norm": 0.1434793919324875, "learning_rate": 9.222082556515536e-05, "loss": 0.0063, "step": 4420 }, { "epoch": 92.29166666666667, "grad_norm": 0.1004461795091629, "learning_rate": 9.217648074103242e-05, "loss": 0.008, "step": 4430 }, { "epoch": 92.5, "grad_norm": 0.0979839563369751, "learning_rate": 9.213202060802161e-05, "loss": 0.0068, "step": 4440 }, { "epoch": 92.70833333333333, "grad_norm": 0.11008862406015396, "learning_rate": 9.208744528767528e-05, "loss": 0.0069, "step": 4450 }, { "epoch": 92.91666666666667, "grad_norm": 0.11195098608732224, "learning_rate": 9.204275490186064e-05, "loss": 0.007, "step": 4460 }, { "epoch": 93.125, "grad_norm": 0.13116782903671265, "learning_rate": 9.199794957275949e-05, "loss": 0.0068, "step": 4470 }, { "epoch": 93.33333333333333, "grad_norm": 0.10709001123905182, "learning_rate": 9.19530294228679e-05, "loss": 0.0062, "step": 4480 }, { "epoch": 93.54166666666667, "grad_norm": 0.11429505795240402, "learning_rate": 9.190799457499583e-05, "loss": 0.0072, "step": 4490 }, { "epoch": 93.75, "grad_norm": 0.12184348702430725, "learning_rate": 9.186284515226686e-05, "loss": 0.0071, "step": 4500 }, { "epoch": 93.95833333333333, "grad_norm": 0.12104353308677673, "learning_rate": 9.181758127811777e-05, "loss": 0.0074, "step": 4510 }, { "epoch": 94.16666666666667, "grad_norm": 0.09736120700836182, "learning_rate": 9.177220307629825e-05, "loss": 0.0076, "step": 4520 }, { "epoch": 94.375, "grad_norm": 0.09775745123624802, "learning_rate": 9.172671067087059e-05, "loss": 0.0076, "step": 4530 }, { "epoch": 94.58333333333333, "grad_norm": 0.10957901924848557, "learning_rate": 9.16811041862093e-05, "loss": 0.0069, "step": 4540 }, { "epoch": 94.79166666666667, "grad_norm": 0.11660820990800858, "learning_rate": 9.163538374700076e-05, "loss": 0.0067, "step": 4550 }, { "epoch": 95.0, "grad_norm": 0.1356566995382309, "learning_rate": 9.158954947824287e-05, "loss": 0.0065, "step": 4560 }, { "epoch": 95.20833333333333, "grad_norm": 0.1425929218530655, "learning_rate": 9.154360150524482e-05, "loss": 0.0069, "step": 4570 }, { "epoch": 95.41666666666667, "grad_norm": 0.13953809440135956, "learning_rate": 9.14975399536266e-05, "loss": 0.0078, "step": 4580 }, { "epoch": 95.625, "grad_norm": 0.08912316709756851, "learning_rate": 9.14513649493187e-05, "loss": 0.0067, "step": 4590 }, { "epoch": 95.83333333333333, "grad_norm": 0.10334280133247375, "learning_rate": 9.140507661856187e-05, "loss": 0.0066, "step": 4600 }, { "epoch": 96.04166666666667, "grad_norm": 0.11234814673662186, "learning_rate": 9.135867508790661e-05, "loss": 0.0068, "step": 4610 }, { "epoch": 96.25, "grad_norm": 0.1121845468878746, "learning_rate": 9.131216048421291e-05, "loss": 0.0078, "step": 4620 }, { "epoch": 96.45833333333333, "grad_norm": 0.1481083333492279, "learning_rate": 9.126553293464998e-05, "loss": 0.0073, "step": 4630 }, { "epoch": 96.66666666666667, "grad_norm": 0.1397561877965927, "learning_rate": 9.121879256669572e-05, "loss": 0.0079, "step": 4640 }, { "epoch": 96.875, "grad_norm": 0.1100471243262291, "learning_rate": 9.117193950813652e-05, "loss": 0.0072, "step": 4650 }, { "epoch": 97.08333333333333, "grad_norm": 0.18109332025051117, "learning_rate": 9.112497388706685e-05, "loss": 0.0071, "step": 4660 }, { "epoch": 97.29166666666667, "grad_norm": 0.16449885070323944, "learning_rate": 9.10778958318889e-05, "loss": 0.0081, "step": 4670 }, { "epoch": 97.5, "grad_norm": 0.18169593811035156, "learning_rate": 9.103070547131232e-05, "loss": 0.0076, "step": 4680 }, { "epoch": 97.70833333333333, "grad_norm": 0.17230816185474396, "learning_rate": 9.098340293435375e-05, "loss": 0.0075, "step": 4690 }, { "epoch": 97.91666666666667, "grad_norm": 0.11778809130191803, "learning_rate": 9.093598835033649e-05, "loss": 0.0072, "step": 4700 }, { "epoch": 98.125, "grad_norm": 0.15728609263896942, "learning_rate": 9.088846184889021e-05, "loss": 0.0072, "step": 4710 }, { "epoch": 98.33333333333333, "grad_norm": 0.11238937824964523, "learning_rate": 9.084082355995057e-05, "loss": 0.0073, "step": 4720 }, { "epoch": 98.54166666666667, "grad_norm": 0.11571408063173294, "learning_rate": 9.079307361375882e-05, "loss": 0.0067, "step": 4730 }, { "epoch": 98.75, "grad_norm": 0.12732599675655365, "learning_rate": 9.074521214086149e-05, "loss": 0.0072, "step": 4740 }, { "epoch": 98.95833333333333, "grad_norm": 0.11861906200647354, "learning_rate": 9.069723927211001e-05, "loss": 0.0073, "step": 4750 }, { "epoch": 99.16666666666667, "grad_norm": 0.12790387868881226, "learning_rate": 9.064915513866037e-05, "loss": 0.007, "step": 4760 }, { "epoch": 99.375, "grad_norm": 0.14003939926624298, "learning_rate": 9.060095987197279e-05, "loss": 0.0075, "step": 4770 }, { "epoch": 99.58333333333333, "grad_norm": 0.18221960961818695, "learning_rate": 9.055265360381126e-05, "loss": 0.0079, "step": 4780 }, { "epoch": 99.79166666666667, "grad_norm": 0.18938899040222168, "learning_rate": 9.050423646624326e-05, "loss": 0.0078, "step": 4790 }, { "epoch": 100.0, "grad_norm": 0.1797226518392563, "learning_rate": 9.045570859163943e-05, "loss": 0.007, "step": 4800 }, { "epoch": 100.20833333333333, "grad_norm": 0.11891371011734009, "learning_rate": 9.04070701126731e-05, "loss": 0.0074, "step": 4810 }, { "epoch": 100.41666666666667, "grad_norm": 0.11718389391899109, "learning_rate": 9.035832116232001e-05, "loss": 0.0078, "step": 4820 }, { "epoch": 100.625, "grad_norm": 0.1415216028690338, "learning_rate": 9.030946187385796e-05, "loss": 0.0075, "step": 4830 }, { "epoch": 100.83333333333333, "grad_norm": 0.14168231189250946, "learning_rate": 9.026049238086635e-05, "loss": 0.0065, "step": 4840 }, { "epoch": 101.04166666666667, "grad_norm": 0.17353275418281555, "learning_rate": 9.021141281722591e-05, "loss": 0.0067, "step": 4850 }, { "epoch": 101.25, "grad_norm": 0.13674576580524445, "learning_rate": 9.01622233171183e-05, "loss": 0.0074, "step": 4860 }, { "epoch": 101.45833333333333, "grad_norm": 0.16381537914276123, "learning_rate": 9.011292401502574e-05, "loss": 0.0067, "step": 4870 }, { "epoch": 101.66666666666667, "grad_norm": 0.12143448740243912, "learning_rate": 9.006351504573063e-05, "loss": 0.0073, "step": 4880 }, { "epoch": 101.875, "grad_norm": 0.14107128977775574, "learning_rate": 9.001399654431519e-05, "loss": 0.0065, "step": 4890 }, { "epoch": 102.08333333333333, "grad_norm": 0.12365766614675522, "learning_rate": 8.996436864616116e-05, "loss": 0.0071, "step": 4900 }, { "epoch": 102.29166666666667, "grad_norm": 0.11717549711465836, "learning_rate": 8.991463148694925e-05, "loss": 0.0071, "step": 4910 }, { "epoch": 102.5, "grad_norm": 0.12707993388175964, "learning_rate": 8.986478520265902e-05, "loss": 0.007, "step": 4920 }, { "epoch": 102.70833333333333, "grad_norm": 0.1060505360364914, "learning_rate": 8.981482992956827e-05, "loss": 0.007, "step": 4930 }, { "epoch": 102.91666666666667, "grad_norm": 0.0786166563630104, "learning_rate": 8.976476580425282e-05, "loss": 0.0068, "step": 4940 }, { "epoch": 103.125, "grad_norm": 0.10416026413440704, "learning_rate": 8.971459296358606e-05, "loss": 0.0075, "step": 4950 }, { "epoch": 103.33333333333333, "grad_norm": 0.12413540482521057, "learning_rate": 8.966431154473864e-05, "loss": 0.0066, "step": 4960 }, { "epoch": 103.54166666666667, "grad_norm": 0.09850534051656723, "learning_rate": 8.961392168517803e-05, "loss": 0.0067, "step": 4970 }, { "epoch": 103.75, "grad_norm": 0.11118543148040771, "learning_rate": 8.956342352266821e-05, "loss": 0.0058, "step": 4980 }, { "epoch": 103.95833333333333, "grad_norm": 0.11706725507974625, "learning_rate": 8.95128171952692e-05, "loss": 0.0068, "step": 4990 }, { "epoch": 104.16666666666667, "grad_norm": 0.10897029936313629, "learning_rate": 8.946210284133676e-05, "loss": 0.0064, "step": 5000 } ], "logging_steps": 10, "max_steps": 20000, "num_input_tokens_seen": 0, "num_train_epochs": 417, "save_steps": 1000, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": false }, "attributes": {} } }, "total_flos": 0.0, "train_batch_size": 512, "trial_name": null, "trial_params": null }