| { |
| "best_global_step": null, |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 104.16666666666667, |
| "eval_steps": 500, |
| "global_step": 5000, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.20833333333333334, |
| "grad_norm": 6.974559783935547, |
| "learning_rate": 9e-07, |
| "loss": 0.9968, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.4166666666666667, |
| "grad_norm": 5.023812294006348, |
| "learning_rate": 1.9e-06, |
| "loss": 0.9334, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.625, |
| "grad_norm": 2.8353774547576904, |
| "learning_rate": 2.9e-06, |
| "loss": 0.6922, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.8333333333333334, |
| "grad_norm": 0.9118760228157043, |
| "learning_rate": 3.9e-06, |
| "loss": 0.4461, |
| "step": 40 |
| }, |
| { |
| "epoch": 1.0416666666666667, |
| "grad_norm": 0.5101693272590637, |
| "learning_rate": 4.9000000000000005e-06, |
| "loss": 0.2961, |
| "step": 50 |
| }, |
| { |
| "epoch": 1.25, |
| "grad_norm": 0.41475388407707214, |
| "learning_rate": 5.9e-06, |
| "loss": 0.2194, |
| "step": 60 |
| }, |
| { |
| "epoch": 1.4583333333333333, |
| "grad_norm": 0.3171979486942291, |
| "learning_rate": 6.900000000000001e-06, |
| "loss": 0.1815, |
| "step": 70 |
| }, |
| { |
| "epoch": 1.6666666666666665, |
| "grad_norm": 0.38558876514434814, |
| "learning_rate": 7.9e-06, |
| "loss": 0.1614, |
| "step": 80 |
| }, |
| { |
| "epoch": 1.875, |
| "grad_norm": 0.28808021545410156, |
| "learning_rate": 8.9e-06, |
| "loss": 0.1422, |
| "step": 90 |
| }, |
| { |
| "epoch": 2.0833333333333335, |
| "grad_norm": 0.29702240228652954, |
| "learning_rate": 9.900000000000002e-06, |
| "loss": 0.1262, |
| "step": 100 |
| }, |
| { |
| "epoch": 2.2916666666666665, |
| "grad_norm": 0.2959185540676117, |
| "learning_rate": 1.09e-05, |
| "loss": 0.1081, |
| "step": 110 |
| }, |
| { |
| "epoch": 2.5, |
| "grad_norm": 0.2338050752878189, |
| "learning_rate": 1.19e-05, |
| "loss": 0.0981, |
| "step": 120 |
| }, |
| { |
| "epoch": 2.7083333333333335, |
| "grad_norm": 0.2578125, |
| "learning_rate": 1.29e-05, |
| "loss": 0.0895, |
| "step": 130 |
| }, |
| { |
| "epoch": 2.9166666666666665, |
| "grad_norm": 0.2224149852991104, |
| "learning_rate": 1.3900000000000002e-05, |
| "loss": 0.0776, |
| "step": 140 |
| }, |
| { |
| "epoch": 3.125, |
| "grad_norm": 0.19243746995925903, |
| "learning_rate": 1.49e-05, |
| "loss": 0.0712, |
| "step": 150 |
| }, |
| { |
| "epoch": 3.3333333333333335, |
| "grad_norm": 0.2733956575393677, |
| "learning_rate": 1.59e-05, |
| "loss": 0.0674, |
| "step": 160 |
| }, |
| { |
| "epoch": 3.5416666666666665, |
| "grad_norm": 0.23844897747039795, |
| "learning_rate": 1.69e-05, |
| "loss": 0.0617, |
| "step": 170 |
| }, |
| { |
| "epoch": 3.75, |
| "grad_norm": 0.20417346060276031, |
| "learning_rate": 1.79e-05, |
| "loss": 0.056, |
| "step": 180 |
| }, |
| { |
| "epoch": 3.9583333333333335, |
| "grad_norm": 0.24881872534751892, |
| "learning_rate": 1.8900000000000002e-05, |
| "loss": 0.0525, |
| "step": 190 |
| }, |
| { |
| "epoch": 4.166666666666667, |
| "grad_norm": 0.25316762924194336, |
| "learning_rate": 1.9900000000000003e-05, |
| "loss": 0.0512, |
| "step": 200 |
| }, |
| { |
| "epoch": 4.375, |
| "grad_norm": 0.19489045441150665, |
| "learning_rate": 2.09e-05, |
| "loss": 0.0454, |
| "step": 210 |
| }, |
| { |
| "epoch": 4.583333333333333, |
| "grad_norm": 0.1898735761642456, |
| "learning_rate": 2.19e-05, |
| "loss": 0.0446, |
| "step": 220 |
| }, |
| { |
| "epoch": 4.791666666666667, |
| "grad_norm": 0.20489181578159332, |
| "learning_rate": 2.29e-05, |
| "loss": 0.0422, |
| "step": 230 |
| }, |
| { |
| "epoch": 5.0, |
| "grad_norm": 0.3320506811141968, |
| "learning_rate": 2.39e-05, |
| "loss": 0.0407, |
| "step": 240 |
| }, |
| { |
| "epoch": 5.208333333333333, |
| "grad_norm": 0.24517174065113068, |
| "learning_rate": 2.4900000000000002e-05, |
| "loss": 0.0374, |
| "step": 250 |
| }, |
| { |
| "epoch": 5.416666666666667, |
| "grad_norm": 0.26409515738487244, |
| "learning_rate": 2.5900000000000003e-05, |
| "loss": 0.0364, |
| "step": 260 |
| }, |
| { |
| "epoch": 5.625, |
| "grad_norm": 0.2976372241973877, |
| "learning_rate": 2.6900000000000003e-05, |
| "loss": 0.0353, |
| "step": 270 |
| }, |
| { |
| "epoch": 5.833333333333333, |
| "grad_norm": 0.24544252455234528, |
| "learning_rate": 2.7900000000000004e-05, |
| "loss": 0.0332, |
| "step": 280 |
| }, |
| { |
| "epoch": 6.041666666666667, |
| "grad_norm": 0.3133062720298767, |
| "learning_rate": 2.8899999999999998e-05, |
| "loss": 0.0332, |
| "step": 290 |
| }, |
| { |
| "epoch": 6.25, |
| "grad_norm": 0.29001384973526, |
| "learning_rate": 2.9900000000000002e-05, |
| "loss": 0.0326, |
| "step": 300 |
| }, |
| { |
| "epoch": 6.458333333333333, |
| "grad_norm": 0.2940799295902252, |
| "learning_rate": 3.09e-05, |
| "loss": 0.0321, |
| "step": 310 |
| }, |
| { |
| "epoch": 6.666666666666667, |
| "grad_norm": 0.2921755909919739, |
| "learning_rate": 3.19e-05, |
| "loss": 0.0306, |
| "step": 320 |
| }, |
| { |
| "epoch": 6.875, |
| "grad_norm": 0.3143065869808197, |
| "learning_rate": 3.29e-05, |
| "loss": 0.0298, |
| "step": 330 |
| }, |
| { |
| "epoch": 7.083333333333333, |
| "grad_norm": 0.35790130496025085, |
| "learning_rate": 3.3900000000000004e-05, |
| "loss": 0.0295, |
| "step": 340 |
| }, |
| { |
| "epoch": 7.291666666666667, |
| "grad_norm": 0.24478909373283386, |
| "learning_rate": 3.49e-05, |
| "loss": 0.028, |
| "step": 350 |
| }, |
| { |
| "epoch": 7.5, |
| "grad_norm": 0.19725550711154938, |
| "learning_rate": 3.59e-05, |
| "loss": 0.0273, |
| "step": 360 |
| }, |
| { |
| "epoch": 7.708333333333333, |
| "grad_norm": 0.19303350150585175, |
| "learning_rate": 3.69e-05, |
| "loss": 0.0279, |
| "step": 370 |
| }, |
| { |
| "epoch": 7.916666666666667, |
| "grad_norm": 0.22829170525074005, |
| "learning_rate": 3.79e-05, |
| "loss": 0.0275, |
| "step": 380 |
| }, |
| { |
| "epoch": 8.125, |
| "grad_norm": 0.312612384557724, |
| "learning_rate": 3.8900000000000004e-05, |
| "loss": 0.0252, |
| "step": 390 |
| }, |
| { |
| "epoch": 8.333333333333334, |
| "grad_norm": 0.26859182119369507, |
| "learning_rate": 3.99e-05, |
| "loss": 0.0262, |
| "step": 400 |
| }, |
| { |
| "epoch": 8.541666666666666, |
| "grad_norm": 0.24778631329536438, |
| "learning_rate": 4.09e-05, |
| "loss": 0.024, |
| "step": 410 |
| }, |
| { |
| "epoch": 8.75, |
| "grad_norm": 0.2118053287267685, |
| "learning_rate": 4.19e-05, |
| "loss": 0.0254, |
| "step": 420 |
| }, |
| { |
| "epoch": 8.958333333333334, |
| "grad_norm": 0.2575972080230713, |
| "learning_rate": 4.29e-05, |
| "loss": 0.024, |
| "step": 430 |
| }, |
| { |
| "epoch": 9.166666666666666, |
| "grad_norm": 0.2238076776266098, |
| "learning_rate": 4.39e-05, |
| "loss": 0.0247, |
| "step": 440 |
| }, |
| { |
| "epoch": 9.375, |
| "grad_norm": 0.32065877318382263, |
| "learning_rate": 4.49e-05, |
| "loss": 0.0247, |
| "step": 450 |
| }, |
| { |
| "epoch": 9.583333333333334, |
| "grad_norm": 0.28235775232315063, |
| "learning_rate": 4.5900000000000004e-05, |
| "loss": 0.0242, |
| "step": 460 |
| }, |
| { |
| "epoch": 9.791666666666666, |
| "grad_norm": 0.3509873151779175, |
| "learning_rate": 4.69e-05, |
| "loss": 0.0235, |
| "step": 470 |
| }, |
| { |
| "epoch": 10.0, |
| "grad_norm": 0.26749303936958313, |
| "learning_rate": 4.79e-05, |
| "loss": 0.0234, |
| "step": 480 |
| }, |
| { |
| "epoch": 10.208333333333334, |
| "grad_norm": 0.2362636923789978, |
| "learning_rate": 4.89e-05, |
| "loss": 0.0227, |
| "step": 490 |
| }, |
| { |
| "epoch": 10.416666666666666, |
| "grad_norm": 0.1780959814786911, |
| "learning_rate": 4.99e-05, |
| "loss": 0.0224, |
| "step": 500 |
| }, |
| { |
| "epoch": 10.625, |
| "grad_norm": 0.2748551070690155, |
| "learning_rate": 5.0900000000000004e-05, |
| "loss": 0.0245, |
| "step": 510 |
| }, |
| { |
| "epoch": 10.833333333333334, |
| "grad_norm": 0.20780707895755768, |
| "learning_rate": 5.19e-05, |
| "loss": 0.0212, |
| "step": 520 |
| }, |
| { |
| "epoch": 11.041666666666666, |
| "grad_norm": 0.3468799591064453, |
| "learning_rate": 5.2900000000000005e-05, |
| "loss": 0.0227, |
| "step": 530 |
| }, |
| { |
| "epoch": 11.25, |
| "grad_norm": 0.2328055202960968, |
| "learning_rate": 5.390000000000001e-05, |
| "loss": 0.0212, |
| "step": 540 |
| }, |
| { |
| "epoch": 11.458333333333334, |
| "grad_norm": 0.264704167842865, |
| "learning_rate": 5.4900000000000006e-05, |
| "loss": 0.0217, |
| "step": 550 |
| }, |
| { |
| "epoch": 11.666666666666666, |
| "grad_norm": 0.2830072045326233, |
| "learning_rate": 5.590000000000001e-05, |
| "loss": 0.0223, |
| "step": 560 |
| }, |
| { |
| "epoch": 11.875, |
| "grad_norm": 0.3284772038459778, |
| "learning_rate": 5.69e-05, |
| "loss": 0.0208, |
| "step": 570 |
| }, |
| { |
| "epoch": 12.083333333333334, |
| "grad_norm": 0.24000631272792816, |
| "learning_rate": 5.79e-05, |
| "loss": 0.0206, |
| "step": 580 |
| }, |
| { |
| "epoch": 12.291666666666666, |
| "grad_norm": 0.24238787591457367, |
| "learning_rate": 5.89e-05, |
| "loss": 0.0214, |
| "step": 590 |
| }, |
| { |
| "epoch": 12.5, |
| "grad_norm": 0.25679489970207214, |
| "learning_rate": 5.99e-05, |
| "loss": 0.0206, |
| "step": 600 |
| }, |
| { |
| "epoch": 12.708333333333334, |
| "grad_norm": 0.2557210326194763, |
| "learning_rate": 6.09e-05, |
| "loss": 0.0217, |
| "step": 610 |
| }, |
| { |
| "epoch": 12.916666666666666, |
| "grad_norm": 0.24070383608341217, |
| "learning_rate": 6.19e-05, |
| "loss": 0.0209, |
| "step": 620 |
| }, |
| { |
| "epoch": 13.125, |
| "grad_norm": 0.25813865661621094, |
| "learning_rate": 6.29e-05, |
| "loss": 0.0208, |
| "step": 630 |
| }, |
| { |
| "epoch": 13.333333333333334, |
| "grad_norm": 0.2484397441148758, |
| "learning_rate": 6.390000000000001e-05, |
| "loss": 0.0206, |
| "step": 640 |
| }, |
| { |
| "epoch": 13.541666666666666, |
| "grad_norm": 0.24208255112171173, |
| "learning_rate": 6.49e-05, |
| "loss": 0.0189, |
| "step": 650 |
| }, |
| { |
| "epoch": 13.75, |
| "grad_norm": 0.19995449483394623, |
| "learning_rate": 6.59e-05, |
| "loss": 0.0196, |
| "step": 660 |
| }, |
| { |
| "epoch": 13.958333333333334, |
| "grad_norm": 0.24547183513641357, |
| "learning_rate": 6.690000000000001e-05, |
| "loss": 0.0189, |
| "step": 670 |
| }, |
| { |
| "epoch": 14.166666666666666, |
| "grad_norm": 0.2594086229801178, |
| "learning_rate": 6.790000000000001e-05, |
| "loss": 0.019, |
| "step": 680 |
| }, |
| { |
| "epoch": 14.375, |
| "grad_norm": 0.2065507173538208, |
| "learning_rate": 6.89e-05, |
| "loss": 0.0192, |
| "step": 690 |
| }, |
| { |
| "epoch": 14.583333333333334, |
| "grad_norm": 0.2905842661857605, |
| "learning_rate": 6.99e-05, |
| "loss": 0.0187, |
| "step": 700 |
| }, |
| { |
| "epoch": 14.791666666666666, |
| "grad_norm": 0.2601730227470398, |
| "learning_rate": 7.09e-05, |
| "loss": 0.0196, |
| "step": 710 |
| }, |
| { |
| "epoch": 15.0, |
| "grad_norm": 0.28263160586357117, |
| "learning_rate": 7.19e-05, |
| "loss": 0.0192, |
| "step": 720 |
| }, |
| { |
| "epoch": 15.208333333333334, |
| "grad_norm": 0.3240365982055664, |
| "learning_rate": 7.29e-05, |
| "loss": 0.0195, |
| "step": 730 |
| }, |
| { |
| "epoch": 15.416666666666666, |
| "grad_norm": 0.24705904722213745, |
| "learning_rate": 7.390000000000001e-05, |
| "loss": 0.0187, |
| "step": 740 |
| }, |
| { |
| "epoch": 15.625, |
| "grad_norm": 0.2265540510416031, |
| "learning_rate": 7.49e-05, |
| "loss": 0.0179, |
| "step": 750 |
| }, |
| { |
| "epoch": 15.833333333333334, |
| "grad_norm": 0.193108931183815, |
| "learning_rate": 7.59e-05, |
| "loss": 0.0183, |
| "step": 760 |
| }, |
| { |
| "epoch": 16.041666666666668, |
| "grad_norm": 0.36317235231399536, |
| "learning_rate": 7.69e-05, |
| "loss": 0.0182, |
| "step": 770 |
| }, |
| { |
| "epoch": 16.25, |
| "grad_norm": 0.3126901686191559, |
| "learning_rate": 7.790000000000001e-05, |
| "loss": 0.0197, |
| "step": 780 |
| }, |
| { |
| "epoch": 16.458333333333332, |
| "grad_norm": 0.238056942820549, |
| "learning_rate": 7.890000000000001e-05, |
| "loss": 0.0182, |
| "step": 790 |
| }, |
| { |
| "epoch": 16.666666666666668, |
| "grad_norm": 0.25261858105659485, |
| "learning_rate": 7.99e-05, |
| "loss": 0.0176, |
| "step": 800 |
| }, |
| { |
| "epoch": 16.875, |
| "grad_norm": 0.1865801066160202, |
| "learning_rate": 8.090000000000001e-05, |
| "loss": 0.0174, |
| "step": 810 |
| }, |
| { |
| "epoch": 17.083333333333332, |
| "grad_norm": 0.18573996424674988, |
| "learning_rate": 8.19e-05, |
| "loss": 0.0176, |
| "step": 820 |
| }, |
| { |
| "epoch": 17.291666666666668, |
| "grad_norm": 0.21988113224506378, |
| "learning_rate": 8.29e-05, |
| "loss": 0.0174, |
| "step": 830 |
| }, |
| { |
| "epoch": 17.5, |
| "grad_norm": 0.196188285946846, |
| "learning_rate": 8.39e-05, |
| "loss": 0.0172, |
| "step": 840 |
| }, |
| { |
| "epoch": 17.708333333333332, |
| "grad_norm": 0.219802588224411, |
| "learning_rate": 8.49e-05, |
| "loss": 0.0181, |
| "step": 850 |
| }, |
| { |
| "epoch": 17.916666666666668, |
| "grad_norm": 0.2536110579967499, |
| "learning_rate": 8.59e-05, |
| "loss": 0.0178, |
| "step": 860 |
| }, |
| { |
| "epoch": 18.125, |
| "grad_norm": 0.3585800528526306, |
| "learning_rate": 8.69e-05, |
| "loss": 0.0176, |
| "step": 870 |
| }, |
| { |
| "epoch": 18.333333333333332, |
| "grad_norm": 0.18298107385635376, |
| "learning_rate": 8.790000000000001e-05, |
| "loss": 0.0173, |
| "step": 880 |
| }, |
| { |
| "epoch": 18.541666666666668, |
| "grad_norm": 0.22495491802692413, |
| "learning_rate": 8.89e-05, |
| "loss": 0.0166, |
| "step": 890 |
| }, |
| { |
| "epoch": 18.75, |
| "grad_norm": 0.21044448018074036, |
| "learning_rate": 8.99e-05, |
| "loss": 0.0161, |
| "step": 900 |
| }, |
| { |
| "epoch": 18.958333333333332, |
| "grad_norm": 0.19759798049926758, |
| "learning_rate": 9.090000000000001e-05, |
| "loss": 0.0153, |
| "step": 910 |
| }, |
| { |
| "epoch": 19.166666666666668, |
| "grad_norm": 0.22768504917621613, |
| "learning_rate": 9.190000000000001e-05, |
| "loss": 0.0168, |
| "step": 920 |
| }, |
| { |
| "epoch": 19.375, |
| "grad_norm": 0.1936219483613968, |
| "learning_rate": 9.290000000000001e-05, |
| "loss": 0.0162, |
| "step": 930 |
| }, |
| { |
| "epoch": 19.583333333333332, |
| "grad_norm": 0.21084393560886383, |
| "learning_rate": 9.39e-05, |
| "loss": 0.0179, |
| "step": 940 |
| }, |
| { |
| "epoch": 19.791666666666668, |
| "grad_norm": 0.20455226302146912, |
| "learning_rate": 9.49e-05, |
| "loss": 0.0154, |
| "step": 950 |
| }, |
| { |
| "epoch": 20.0, |
| "grad_norm": 0.26040470600128174, |
| "learning_rate": 9.59e-05, |
| "loss": 0.0155, |
| "step": 960 |
| }, |
| { |
| "epoch": 20.208333333333332, |
| "grad_norm": 0.2832554280757904, |
| "learning_rate": 9.69e-05, |
| "loss": 0.0164, |
| "step": 970 |
| }, |
| { |
| "epoch": 20.416666666666668, |
| "grad_norm": 0.2514568567276001, |
| "learning_rate": 9.790000000000001e-05, |
| "loss": 0.017, |
| "step": 980 |
| }, |
| { |
| "epoch": 20.625, |
| "grad_norm": 0.20968522131443024, |
| "learning_rate": 9.89e-05, |
| "loss": 0.016, |
| "step": 990 |
| }, |
| { |
| "epoch": 20.833333333333332, |
| "grad_norm": 0.20158836245536804, |
| "learning_rate": 9.99e-05, |
| "loss": 0.0153, |
| "step": 1000 |
| }, |
| { |
| "epoch": 21.041666666666668, |
| "grad_norm": 0.24486659467220306, |
| "learning_rate": 9.999994463727085e-05, |
| "loss": 0.0157, |
| "step": 1010 |
| }, |
| { |
| "epoch": 21.25, |
| "grad_norm": 0.2102823108434677, |
| "learning_rate": 9.999975326009292e-05, |
| "loss": 0.0166, |
| "step": 1020 |
| }, |
| { |
| "epoch": 21.458333333333332, |
| "grad_norm": 0.2416916787624359, |
| "learning_rate": 9.999942518549879e-05, |
| "loss": 0.0161, |
| "step": 1030 |
| }, |
| { |
| "epoch": 21.666666666666668, |
| "grad_norm": 0.14526234567165375, |
| "learning_rate": 9.999896041438544e-05, |
| "loss": 0.0156, |
| "step": 1040 |
| }, |
| { |
| "epoch": 21.875, |
| "grad_norm": 0.21768969297409058, |
| "learning_rate": 9.999835894802353e-05, |
| "loss": 0.0149, |
| "step": 1050 |
| }, |
| { |
| "epoch": 22.083333333333332, |
| "grad_norm": 0.2318434864282608, |
| "learning_rate": 9.999762078805743e-05, |
| "loss": 0.0153, |
| "step": 1060 |
| }, |
| { |
| "epoch": 22.291666666666668, |
| "grad_norm": 0.2798757255077362, |
| "learning_rate": 9.999674593650526e-05, |
| "loss": 0.0155, |
| "step": 1070 |
| }, |
| { |
| "epoch": 22.5, |
| "grad_norm": 0.24006976187229156, |
| "learning_rate": 9.99957343957588e-05, |
| "loss": 0.0153, |
| "step": 1080 |
| }, |
| { |
| "epoch": 22.708333333333332, |
| "grad_norm": 0.21017949283123016, |
| "learning_rate": 9.99945861685836e-05, |
| "loss": 0.0162, |
| "step": 1090 |
| }, |
| { |
| "epoch": 22.916666666666668, |
| "grad_norm": 0.19796672463417053, |
| "learning_rate": 9.999330125811884e-05, |
| "loss": 0.0149, |
| "step": 1100 |
| }, |
| { |
| "epoch": 23.125, |
| "grad_norm": 0.2603440582752228, |
| "learning_rate": 9.999187966787744e-05, |
| "loss": 0.015, |
| "step": 1110 |
| }, |
| { |
| "epoch": 23.333333333333332, |
| "grad_norm": 0.23967282474040985, |
| "learning_rate": 9.999032140174595e-05, |
| "loss": 0.0151, |
| "step": 1120 |
| }, |
| { |
| "epoch": 23.541666666666668, |
| "grad_norm": 0.18136964738368988, |
| "learning_rate": 9.998862646398464e-05, |
| "loss": 0.0152, |
| "step": 1130 |
| }, |
| { |
| "epoch": 23.75, |
| "grad_norm": 0.252003014087677, |
| "learning_rate": 9.998679485922739e-05, |
| "loss": 0.0153, |
| "step": 1140 |
| }, |
| { |
| "epoch": 23.958333333333332, |
| "grad_norm": 0.2043199986219406, |
| "learning_rate": 9.998482659248174e-05, |
| "loss": 0.0157, |
| "step": 1150 |
| }, |
| { |
| "epoch": 24.166666666666668, |
| "grad_norm": 0.18087252974510193, |
| "learning_rate": 9.998272166912883e-05, |
| "loss": 0.0154, |
| "step": 1160 |
| }, |
| { |
| "epoch": 24.375, |
| "grad_norm": 0.21990996599197388, |
| "learning_rate": 9.998048009492347e-05, |
| "loss": 0.015, |
| "step": 1170 |
| }, |
| { |
| "epoch": 24.583333333333332, |
| "grad_norm": 0.2346096634864807, |
| "learning_rate": 9.997810187599403e-05, |
| "loss": 0.0154, |
| "step": 1180 |
| }, |
| { |
| "epoch": 24.791666666666668, |
| "grad_norm": 0.18085162341594696, |
| "learning_rate": 9.997558701884249e-05, |
| "loss": 0.015, |
| "step": 1190 |
| }, |
| { |
| "epoch": 25.0, |
| "grad_norm": 0.3023941218852997, |
| "learning_rate": 9.997293553034433e-05, |
| "loss": 0.0133, |
| "step": 1200 |
| }, |
| { |
| "epoch": 25.208333333333332, |
| "grad_norm": 0.20299163460731506, |
| "learning_rate": 9.997014741774866e-05, |
| "loss": 0.0133, |
| "step": 1210 |
| }, |
| { |
| "epoch": 25.416666666666668, |
| "grad_norm": 0.26265865564346313, |
| "learning_rate": 9.996722268867803e-05, |
| "loss": 0.0137, |
| "step": 1220 |
| }, |
| { |
| "epoch": 25.625, |
| "grad_norm": 0.24567152559757233, |
| "learning_rate": 9.996416135112858e-05, |
| "loss": 0.0132, |
| "step": 1230 |
| }, |
| { |
| "epoch": 25.833333333333332, |
| "grad_norm": 0.17860938608646393, |
| "learning_rate": 9.996096341346988e-05, |
| "loss": 0.0135, |
| "step": 1240 |
| }, |
| { |
| "epoch": 26.041666666666668, |
| "grad_norm": 0.27000877261161804, |
| "learning_rate": 9.995762888444495e-05, |
| "loss": 0.0127, |
| "step": 1250 |
| }, |
| { |
| "epoch": 26.25, |
| "grad_norm": 0.21311180293560028, |
| "learning_rate": 9.995415777317027e-05, |
| "loss": 0.0146, |
| "step": 1260 |
| }, |
| { |
| "epoch": 26.458333333333332, |
| "grad_norm": 0.19608379900455475, |
| "learning_rate": 9.995055008913574e-05, |
| "loss": 0.0141, |
| "step": 1270 |
| }, |
| { |
| "epoch": 26.666666666666668, |
| "grad_norm": 0.14746077358722687, |
| "learning_rate": 9.994680584220463e-05, |
| "loss": 0.0127, |
| "step": 1280 |
| }, |
| { |
| "epoch": 26.875, |
| "grad_norm": 0.2702135443687439, |
| "learning_rate": 9.994292504261355e-05, |
| "loss": 0.0139, |
| "step": 1290 |
| }, |
| { |
| "epoch": 27.083333333333332, |
| "grad_norm": 0.16915710270404816, |
| "learning_rate": 9.993890770097247e-05, |
| "loss": 0.0125, |
| "step": 1300 |
| }, |
| { |
| "epoch": 27.291666666666668, |
| "grad_norm": 0.18446531891822815, |
| "learning_rate": 9.993475382826467e-05, |
| "loss": 0.0133, |
| "step": 1310 |
| }, |
| { |
| "epoch": 27.5, |
| "grad_norm": 0.1798723340034485, |
| "learning_rate": 9.993046343584664e-05, |
| "loss": 0.0127, |
| "step": 1320 |
| }, |
| { |
| "epoch": 27.708333333333332, |
| "grad_norm": 0.1655735820531845, |
| "learning_rate": 9.992603653544816e-05, |
| "loss": 0.0123, |
| "step": 1330 |
| }, |
| { |
| "epoch": 27.916666666666668, |
| "grad_norm": 0.21007224917411804, |
| "learning_rate": 9.992147313917222e-05, |
| "loss": 0.0125, |
| "step": 1340 |
| }, |
| { |
| "epoch": 28.125, |
| "grad_norm": 0.2112513929605484, |
| "learning_rate": 9.991677325949497e-05, |
| "loss": 0.0125, |
| "step": 1350 |
| }, |
| { |
| "epoch": 28.333333333333332, |
| "grad_norm": 0.20448802411556244, |
| "learning_rate": 9.991193690926568e-05, |
| "loss": 0.0133, |
| "step": 1360 |
| }, |
| { |
| "epoch": 28.541666666666668, |
| "grad_norm": 0.1936739832162857, |
| "learning_rate": 9.990696410170678e-05, |
| "loss": 0.0125, |
| "step": 1370 |
| }, |
| { |
| "epoch": 28.75, |
| "grad_norm": 0.20615226030349731, |
| "learning_rate": 9.990185485041371e-05, |
| "loss": 0.0121, |
| "step": 1380 |
| }, |
| { |
| "epoch": 28.958333333333332, |
| "grad_norm": 0.18444038927555084, |
| "learning_rate": 9.989660916935498e-05, |
| "loss": 0.0123, |
| "step": 1390 |
| }, |
| { |
| "epoch": 29.166666666666668, |
| "grad_norm": 0.21376805007457733, |
| "learning_rate": 9.989122707287208e-05, |
| "loss": 0.013, |
| "step": 1400 |
| }, |
| { |
| "epoch": 29.375, |
| "grad_norm": 0.25530359148979187, |
| "learning_rate": 9.988570857567945e-05, |
| "loss": 0.0125, |
| "step": 1410 |
| }, |
| { |
| "epoch": 29.583333333333332, |
| "grad_norm": 0.21851158142089844, |
| "learning_rate": 9.988005369286446e-05, |
| "loss": 0.0123, |
| "step": 1420 |
| }, |
| { |
| "epoch": 29.791666666666668, |
| "grad_norm": 0.19980329275131226, |
| "learning_rate": 9.987426243988734e-05, |
| "loss": 0.0134, |
| "step": 1430 |
| }, |
| { |
| "epoch": 30.0, |
| "grad_norm": 0.3672507107257843, |
| "learning_rate": 9.986833483258114e-05, |
| "loss": 0.0108, |
| "step": 1440 |
| }, |
| { |
| "epoch": 30.208333333333332, |
| "grad_norm": 0.26760515570640564, |
| "learning_rate": 9.986227088715173e-05, |
| "loss": 0.0144, |
| "step": 1450 |
| }, |
| { |
| "epoch": 30.416666666666668, |
| "grad_norm": 0.1989632248878479, |
| "learning_rate": 9.98560706201777e-05, |
| "loss": 0.0135, |
| "step": 1460 |
| }, |
| { |
| "epoch": 30.625, |
| "grad_norm": 0.20122896134853363, |
| "learning_rate": 9.984973404861036e-05, |
| "loss": 0.0137, |
| "step": 1470 |
| }, |
| { |
| "epoch": 30.833333333333332, |
| "grad_norm": 0.22380387783050537, |
| "learning_rate": 9.984326118977361e-05, |
| "loss": 0.0138, |
| "step": 1480 |
| }, |
| { |
| "epoch": 31.041666666666668, |
| "grad_norm": 0.17185676097869873, |
| "learning_rate": 9.983665206136406e-05, |
| "loss": 0.0119, |
| "step": 1490 |
| }, |
| { |
| "epoch": 31.25, |
| "grad_norm": 0.20098410546779633, |
| "learning_rate": 9.982990668145075e-05, |
| "loss": 0.0119, |
| "step": 1500 |
| }, |
| { |
| "epoch": 31.458333333333332, |
| "grad_norm": 0.16579347848892212, |
| "learning_rate": 9.982302506847534e-05, |
| "loss": 0.013, |
| "step": 1510 |
| }, |
| { |
| "epoch": 31.666666666666668, |
| "grad_norm": 0.15271247923374176, |
| "learning_rate": 9.981600724125189e-05, |
| "loss": 0.0131, |
| "step": 1520 |
| }, |
| { |
| "epoch": 31.875, |
| "grad_norm": 0.16309182345867157, |
| "learning_rate": 9.980885321896685e-05, |
| "loss": 0.0121, |
| "step": 1530 |
| }, |
| { |
| "epoch": 32.083333333333336, |
| "grad_norm": 0.17842234671115875, |
| "learning_rate": 9.980156302117905e-05, |
| "loss": 0.0112, |
| "step": 1540 |
| }, |
| { |
| "epoch": 32.291666666666664, |
| "grad_norm": 0.18424782156944275, |
| "learning_rate": 9.979413666781963e-05, |
| "loss": 0.0117, |
| "step": 1550 |
| }, |
| { |
| "epoch": 32.5, |
| "grad_norm": 0.17072798311710358, |
| "learning_rate": 9.978657417919193e-05, |
| "loss": 0.0113, |
| "step": 1560 |
| }, |
| { |
| "epoch": 32.708333333333336, |
| "grad_norm": 0.16320225596427917, |
| "learning_rate": 9.977887557597153e-05, |
| "loss": 0.0113, |
| "step": 1570 |
| }, |
| { |
| "epoch": 32.916666666666664, |
| "grad_norm": 0.17314594984054565, |
| "learning_rate": 9.97710408792061e-05, |
| "loss": 0.0108, |
| "step": 1580 |
| }, |
| { |
| "epoch": 33.125, |
| "grad_norm": 0.21347780525684357, |
| "learning_rate": 9.976307011031542e-05, |
| "loss": 0.0111, |
| "step": 1590 |
| }, |
| { |
| "epoch": 33.333333333333336, |
| "grad_norm": 0.1748444139957428, |
| "learning_rate": 9.975496329109126e-05, |
| "loss": 0.0118, |
| "step": 1600 |
| }, |
| { |
| "epoch": 33.541666666666664, |
| "grad_norm": 0.22180508077144623, |
| "learning_rate": 9.974672044369732e-05, |
| "loss": 0.0111, |
| "step": 1610 |
| }, |
| { |
| "epoch": 33.75, |
| "grad_norm": 0.1914110630750656, |
| "learning_rate": 9.97383415906693e-05, |
| "loss": 0.0124, |
| "step": 1620 |
| }, |
| { |
| "epoch": 33.958333333333336, |
| "grad_norm": 0.1542980968952179, |
| "learning_rate": 9.97298267549146e-05, |
| "loss": 0.0119, |
| "step": 1630 |
| }, |
| { |
| "epoch": 34.166666666666664, |
| "grad_norm": 0.2009705901145935, |
| "learning_rate": 9.972117595971249e-05, |
| "loss": 0.0124, |
| "step": 1640 |
| }, |
| { |
| "epoch": 34.375, |
| "grad_norm": 0.1812678873538971, |
| "learning_rate": 9.971238922871391e-05, |
| "loss": 0.0116, |
| "step": 1650 |
| }, |
| { |
| "epoch": 34.583333333333336, |
| "grad_norm": 0.13899721205234528, |
| "learning_rate": 9.970346658594142e-05, |
| "loss": 0.0113, |
| "step": 1660 |
| }, |
| { |
| "epoch": 34.791666666666664, |
| "grad_norm": 0.12181176245212555, |
| "learning_rate": 9.969440805578923e-05, |
| "loss": 0.0115, |
| "step": 1670 |
| }, |
| { |
| "epoch": 35.0, |
| "grad_norm": 0.20665058493614197, |
| "learning_rate": 9.968521366302298e-05, |
| "loss": 0.0104, |
| "step": 1680 |
| }, |
| { |
| "epoch": 35.208333333333336, |
| "grad_norm": 0.14869576692581177, |
| "learning_rate": 9.967588343277981e-05, |
| "loss": 0.0111, |
| "step": 1690 |
| }, |
| { |
| "epoch": 35.416666666666664, |
| "grad_norm": 0.21121446788311005, |
| "learning_rate": 9.966641739056818e-05, |
| "loss": 0.0121, |
| "step": 1700 |
| }, |
| { |
| "epoch": 35.625, |
| "grad_norm": 0.2114773988723755, |
| "learning_rate": 9.965681556226793e-05, |
| "loss": 0.0117, |
| "step": 1710 |
| }, |
| { |
| "epoch": 35.833333333333336, |
| "grad_norm": 0.2102501392364502, |
| "learning_rate": 9.964707797413006e-05, |
| "loss": 0.0111, |
| "step": 1720 |
| }, |
| { |
| "epoch": 36.041666666666664, |
| "grad_norm": 0.197468101978302, |
| "learning_rate": 9.963720465277679e-05, |
| "loss": 0.0113, |
| "step": 1730 |
| }, |
| { |
| "epoch": 36.25, |
| "grad_norm": 0.21283449232578278, |
| "learning_rate": 9.96271956252014e-05, |
| "loss": 0.0111, |
| "step": 1740 |
| }, |
| { |
| "epoch": 36.458333333333336, |
| "grad_norm": 0.20028117299079895, |
| "learning_rate": 9.961705091876816e-05, |
| "loss": 0.012, |
| "step": 1750 |
| }, |
| { |
| "epoch": 36.666666666666664, |
| "grad_norm": 0.15327388048171997, |
| "learning_rate": 9.960677056121235e-05, |
| "loss": 0.0104, |
| "step": 1760 |
| }, |
| { |
| "epoch": 36.875, |
| "grad_norm": 0.16232164204120636, |
| "learning_rate": 9.959635458064005e-05, |
| "loss": 0.0107, |
| "step": 1770 |
| }, |
| { |
| "epoch": 37.083333333333336, |
| "grad_norm": 0.18801745772361755, |
| "learning_rate": 9.958580300552815e-05, |
| "loss": 0.0106, |
| "step": 1780 |
| }, |
| { |
| "epoch": 37.291666666666664, |
| "grad_norm": 0.15016761422157288, |
| "learning_rate": 9.957511586472426e-05, |
| "loss": 0.0104, |
| "step": 1790 |
| }, |
| { |
| "epoch": 37.5, |
| "grad_norm": 0.15682189166545868, |
| "learning_rate": 9.956429318744662e-05, |
| "loss": 0.0101, |
| "step": 1800 |
| }, |
| { |
| "epoch": 37.708333333333336, |
| "grad_norm": 0.2034134864807129, |
| "learning_rate": 9.955333500328404e-05, |
| "loss": 0.0106, |
| "step": 1810 |
| }, |
| { |
| "epoch": 37.916666666666664, |
| "grad_norm": 0.16577675938606262, |
| "learning_rate": 9.95422413421957e-05, |
| "loss": 0.0104, |
| "step": 1820 |
| }, |
| { |
| "epoch": 38.125, |
| "grad_norm": 0.16364583373069763, |
| "learning_rate": 9.953101223451133e-05, |
| "loss": 0.0101, |
| "step": 1830 |
| }, |
| { |
| "epoch": 38.333333333333336, |
| "grad_norm": 0.14578108489513397, |
| "learning_rate": 9.951964771093085e-05, |
| "loss": 0.0105, |
| "step": 1840 |
| }, |
| { |
| "epoch": 38.541666666666664, |
| "grad_norm": 0.14456351101398468, |
| "learning_rate": 9.950814780252442e-05, |
| "loss": 0.0101, |
| "step": 1850 |
| }, |
| { |
| "epoch": 38.75, |
| "grad_norm": 0.20234094560146332, |
| "learning_rate": 9.949651254073236e-05, |
| "loss": 0.0109, |
| "step": 1860 |
| }, |
| { |
| "epoch": 38.958333333333336, |
| "grad_norm": 0.16703951358795166, |
| "learning_rate": 9.948474195736504e-05, |
| "loss": 0.0105, |
| "step": 1870 |
| }, |
| { |
| "epoch": 39.166666666666664, |
| "grad_norm": 0.17165902256965637, |
| "learning_rate": 9.947283608460277e-05, |
| "loss": 0.0103, |
| "step": 1880 |
| }, |
| { |
| "epoch": 39.375, |
| "grad_norm": 0.14556387066841125, |
| "learning_rate": 9.946079495499577e-05, |
| "loss": 0.0101, |
| "step": 1890 |
| }, |
| { |
| "epoch": 39.583333333333336, |
| "grad_norm": 0.19160117208957672, |
| "learning_rate": 9.944861860146401e-05, |
| "loss": 0.0113, |
| "step": 1900 |
| }, |
| { |
| "epoch": 39.791666666666664, |
| "grad_norm": 0.1653631329536438, |
| "learning_rate": 9.943630705729719e-05, |
| "loss": 0.01, |
| "step": 1910 |
| }, |
| { |
| "epoch": 40.0, |
| "grad_norm": 0.20655889809131622, |
| "learning_rate": 9.942386035615459e-05, |
| "loss": 0.0106, |
| "step": 1920 |
| }, |
| { |
| "epoch": 40.208333333333336, |
| "grad_norm": 0.1884182095527649, |
| "learning_rate": 9.941127853206503e-05, |
| "loss": 0.0108, |
| "step": 1930 |
| }, |
| { |
| "epoch": 40.416666666666664, |
| "grad_norm": 0.15719261765480042, |
| "learning_rate": 9.939856161942673e-05, |
| "loss": 0.0105, |
| "step": 1940 |
| }, |
| { |
| "epoch": 40.625, |
| "grad_norm": 0.15232212841510773, |
| "learning_rate": 9.938570965300724e-05, |
| "loss": 0.0102, |
| "step": 1950 |
| }, |
| { |
| "epoch": 40.833333333333336, |
| "grad_norm": 0.1885528415441513, |
| "learning_rate": 9.937272266794335e-05, |
| "loss": 0.0109, |
| "step": 1960 |
| }, |
| { |
| "epoch": 41.041666666666664, |
| "grad_norm": 0.15623626112937927, |
| "learning_rate": 9.935960069974096e-05, |
| "loss": 0.0099, |
| "step": 1970 |
| }, |
| { |
| "epoch": 41.25, |
| "grad_norm": 0.15828962624073029, |
| "learning_rate": 9.934634378427506e-05, |
| "loss": 0.0111, |
| "step": 1980 |
| }, |
| { |
| "epoch": 41.458333333333336, |
| "grad_norm": 0.17898498475551605, |
| "learning_rate": 9.933295195778954e-05, |
| "loss": 0.0096, |
| "step": 1990 |
| }, |
| { |
| "epoch": 41.666666666666664, |
| "grad_norm": 0.156189426779747, |
| "learning_rate": 9.931942525689715e-05, |
| "loss": 0.0097, |
| "step": 2000 |
| }, |
| { |
| "epoch": 41.875, |
| "grad_norm": 0.18208195269107819, |
| "learning_rate": 9.930576371857936e-05, |
| "loss": 0.0104, |
| "step": 2010 |
| }, |
| { |
| "epoch": 42.083333333333336, |
| "grad_norm": 0.22289738059043884, |
| "learning_rate": 9.929196738018629e-05, |
| "loss": 0.0101, |
| "step": 2020 |
| }, |
| { |
| "epoch": 42.291666666666664, |
| "grad_norm": 0.1856096237897873, |
| "learning_rate": 9.927803627943662e-05, |
| "loss": 0.0102, |
| "step": 2030 |
| }, |
| { |
| "epoch": 42.5, |
| "grad_norm": 0.18785765767097473, |
| "learning_rate": 9.926397045441744e-05, |
| "loss": 0.01, |
| "step": 2040 |
| }, |
| { |
| "epoch": 42.708333333333336, |
| "grad_norm": 0.17422276735305786, |
| "learning_rate": 9.924976994358417e-05, |
| "loss": 0.01, |
| "step": 2050 |
| }, |
| { |
| "epoch": 42.916666666666664, |
| "grad_norm": 0.14945165812969208, |
| "learning_rate": 9.923543478576048e-05, |
| "loss": 0.0099, |
| "step": 2060 |
| }, |
| { |
| "epoch": 43.125, |
| "grad_norm": 0.1581973135471344, |
| "learning_rate": 9.922096502013813e-05, |
| "loss": 0.0114, |
| "step": 2070 |
| }, |
| { |
| "epoch": 43.333333333333336, |
| "grad_norm": 0.1979743242263794, |
| "learning_rate": 9.92063606862769e-05, |
| "loss": 0.0115, |
| "step": 2080 |
| }, |
| { |
| "epoch": 43.541666666666664, |
| "grad_norm": 0.1677751988172531, |
| "learning_rate": 9.919162182410453e-05, |
| "loss": 0.0103, |
| "step": 2090 |
| }, |
| { |
| "epoch": 43.75, |
| "grad_norm": 0.12610012292861938, |
| "learning_rate": 9.917674847391645e-05, |
| "loss": 0.0098, |
| "step": 2100 |
| }, |
| { |
| "epoch": 43.958333333333336, |
| "grad_norm": 0.1920396089553833, |
| "learning_rate": 9.916174067637584e-05, |
| "loss": 0.0094, |
| "step": 2110 |
| }, |
| { |
| "epoch": 44.166666666666664, |
| "grad_norm": 0.159335657954216, |
| "learning_rate": 9.914659847251348e-05, |
| "loss": 0.0105, |
| "step": 2120 |
| }, |
| { |
| "epoch": 44.375, |
| "grad_norm": 0.18806587159633636, |
| "learning_rate": 9.913132190372753e-05, |
| "loss": 0.0101, |
| "step": 2130 |
| }, |
| { |
| "epoch": 44.583333333333336, |
| "grad_norm": 0.1827884465456009, |
| "learning_rate": 9.911591101178359e-05, |
| "loss": 0.0103, |
| "step": 2140 |
| }, |
| { |
| "epoch": 44.791666666666664, |
| "grad_norm": 0.21888400614261627, |
| "learning_rate": 9.910036583881443e-05, |
| "loss": 0.01, |
| "step": 2150 |
| }, |
| { |
| "epoch": 45.0, |
| "grad_norm": 0.20317022502422333, |
| "learning_rate": 9.908468642731995e-05, |
| "loss": 0.0089, |
| "step": 2160 |
| }, |
| { |
| "epoch": 45.208333333333336, |
| "grad_norm": 0.23497819900512695, |
| "learning_rate": 9.906887282016707e-05, |
| "loss": 0.0105, |
| "step": 2170 |
| }, |
| { |
| "epoch": 45.416666666666664, |
| "grad_norm": 0.18091560900211334, |
| "learning_rate": 9.90529250605896e-05, |
| "loss": 0.0099, |
| "step": 2180 |
| }, |
| { |
| "epoch": 45.625, |
| "grad_norm": 0.14061926305294037, |
| "learning_rate": 9.903684319218809e-05, |
| "loss": 0.01, |
| "step": 2190 |
| }, |
| { |
| "epoch": 45.833333333333336, |
| "grad_norm": 0.19375453889369965, |
| "learning_rate": 9.902062725892976e-05, |
| "loss": 0.0096, |
| "step": 2200 |
| }, |
| { |
| "epoch": 46.041666666666664, |
| "grad_norm": 0.21020196378231049, |
| "learning_rate": 9.900427730514834e-05, |
| "loss": 0.0096, |
| "step": 2210 |
| }, |
| { |
| "epoch": 46.25, |
| "grad_norm": 0.15842080116271973, |
| "learning_rate": 9.8987793375544e-05, |
| "loss": 0.0097, |
| "step": 2220 |
| }, |
| { |
| "epoch": 46.458333333333336, |
| "grad_norm": 0.15409104526042938, |
| "learning_rate": 9.897117551518318e-05, |
| "loss": 0.0094, |
| "step": 2230 |
| }, |
| { |
| "epoch": 46.666666666666664, |
| "grad_norm": 0.1582673192024231, |
| "learning_rate": 9.895442376949844e-05, |
| "loss": 0.0102, |
| "step": 2240 |
| }, |
| { |
| "epoch": 46.875, |
| "grad_norm": 0.14312148094177246, |
| "learning_rate": 9.893753818428845e-05, |
| "loss": 0.0094, |
| "step": 2250 |
| }, |
| { |
| "epoch": 47.083333333333336, |
| "grad_norm": 0.17130939662456512, |
| "learning_rate": 9.892051880571773e-05, |
| "loss": 0.0092, |
| "step": 2260 |
| }, |
| { |
| "epoch": 47.291666666666664, |
| "grad_norm": 0.18089613318443298, |
| "learning_rate": 9.890336568031663e-05, |
| "loss": 0.0098, |
| "step": 2270 |
| }, |
| { |
| "epoch": 47.5, |
| "grad_norm": 0.14833058416843414, |
| "learning_rate": 9.888607885498113e-05, |
| "loss": 0.0098, |
| "step": 2280 |
| }, |
| { |
| "epoch": 47.708333333333336, |
| "grad_norm": 0.1335451900959015, |
| "learning_rate": 9.886865837697275e-05, |
| "loss": 0.0088, |
| "step": 2290 |
| }, |
| { |
| "epoch": 47.916666666666664, |
| "grad_norm": 0.1326667219400406, |
| "learning_rate": 9.88511042939184e-05, |
| "loss": 0.0094, |
| "step": 2300 |
| }, |
| { |
| "epoch": 48.125, |
| "grad_norm": 0.16099606454372406, |
| "learning_rate": 9.883341665381028e-05, |
| "loss": 0.0092, |
| "step": 2310 |
| }, |
| { |
| "epoch": 48.333333333333336, |
| "grad_norm": 0.16287587583065033, |
| "learning_rate": 9.881559550500575e-05, |
| "loss": 0.0099, |
| "step": 2320 |
| }, |
| { |
| "epoch": 48.541666666666664, |
| "grad_norm": 0.20915569365024567, |
| "learning_rate": 9.879764089622712e-05, |
| "loss": 0.0097, |
| "step": 2330 |
| }, |
| { |
| "epoch": 48.75, |
| "grad_norm": 0.1475881040096283, |
| "learning_rate": 9.87795528765616e-05, |
| "loss": 0.0097, |
| "step": 2340 |
| }, |
| { |
| "epoch": 48.958333333333336, |
| "grad_norm": 0.15001028776168823, |
| "learning_rate": 9.876133149546118e-05, |
| "loss": 0.0096, |
| "step": 2350 |
| }, |
| { |
| "epoch": 49.166666666666664, |
| "grad_norm": 0.1850421130657196, |
| "learning_rate": 9.874297680274238e-05, |
| "loss": 0.0095, |
| "step": 2360 |
| }, |
| { |
| "epoch": 49.375, |
| "grad_norm": 0.1945352703332901, |
| "learning_rate": 9.872448884858624e-05, |
| "loss": 0.0096, |
| "step": 2370 |
| }, |
| { |
| "epoch": 49.583333333333336, |
| "grad_norm": 0.13718049228191376, |
| "learning_rate": 9.870586768353815e-05, |
| "loss": 0.0087, |
| "step": 2380 |
| }, |
| { |
| "epoch": 49.791666666666664, |
| "grad_norm": 0.1327553540468216, |
| "learning_rate": 9.868711335850764e-05, |
| "loss": 0.0092, |
| "step": 2390 |
| }, |
| { |
| "epoch": 50.0, |
| "grad_norm": 0.260092556476593, |
| "learning_rate": 9.866822592476833e-05, |
| "loss": 0.0096, |
| "step": 2400 |
| }, |
| { |
| "epoch": 50.208333333333336, |
| "grad_norm": 0.175159752368927, |
| "learning_rate": 9.86492054339577e-05, |
| "loss": 0.0091, |
| "step": 2410 |
| }, |
| { |
| "epoch": 50.416666666666664, |
| "grad_norm": 0.17031779885292053, |
| "learning_rate": 9.863005193807711e-05, |
| "loss": 0.0095, |
| "step": 2420 |
| }, |
| { |
| "epoch": 50.625, |
| "grad_norm": 0.1681128591299057, |
| "learning_rate": 9.861076548949143e-05, |
| "loss": 0.0107, |
| "step": 2430 |
| }, |
| { |
| "epoch": 50.833333333333336, |
| "grad_norm": 0.17762134969234467, |
| "learning_rate": 9.859134614092912e-05, |
| "loss": 0.0102, |
| "step": 2440 |
| }, |
| { |
| "epoch": 51.041666666666664, |
| "grad_norm": 0.14008237421512604, |
| "learning_rate": 9.857179394548191e-05, |
| "loss": 0.0093, |
| "step": 2450 |
| }, |
| { |
| "epoch": 51.25, |
| "grad_norm": 0.1564144790172577, |
| "learning_rate": 9.855210895660477e-05, |
| "loss": 0.0096, |
| "step": 2460 |
| }, |
| { |
| "epoch": 51.458333333333336, |
| "grad_norm": 0.13487133383750916, |
| "learning_rate": 9.853229122811568e-05, |
| "loss": 0.0099, |
| "step": 2470 |
| }, |
| { |
| "epoch": 51.666666666666664, |
| "grad_norm": 0.1658105105161667, |
| "learning_rate": 9.851234081419559e-05, |
| "loss": 0.0085, |
| "step": 2480 |
| }, |
| { |
| "epoch": 51.875, |
| "grad_norm": 0.15481163561344147, |
| "learning_rate": 9.849225776938814e-05, |
| "loss": 0.0091, |
| "step": 2490 |
| }, |
| { |
| "epoch": 52.083333333333336, |
| "grad_norm": 0.19152818620204926, |
| "learning_rate": 9.847204214859964e-05, |
| "loss": 0.0081, |
| "step": 2500 |
| }, |
| { |
| "epoch": 52.291666666666664, |
| "grad_norm": 0.14624345302581787, |
| "learning_rate": 9.845169400709879e-05, |
| "loss": 0.0087, |
| "step": 2510 |
| }, |
| { |
| "epoch": 52.5, |
| "grad_norm": 0.14260073006153107, |
| "learning_rate": 9.843121340051664e-05, |
| "loss": 0.0096, |
| "step": 2520 |
| }, |
| { |
| "epoch": 52.708333333333336, |
| "grad_norm": 0.18242524564266205, |
| "learning_rate": 9.841060038484641e-05, |
| "loss": 0.0089, |
| "step": 2530 |
| }, |
| { |
| "epoch": 52.916666666666664, |
| "grad_norm": 0.135667085647583, |
| "learning_rate": 9.838985501644328e-05, |
| "loss": 0.0095, |
| "step": 2540 |
| }, |
| { |
| "epoch": 53.125, |
| "grad_norm": 0.11698679625988007, |
| "learning_rate": 9.83689773520243e-05, |
| "loss": 0.008, |
| "step": 2550 |
| }, |
| { |
| "epoch": 53.333333333333336, |
| "grad_norm": 0.13887479901313782, |
| "learning_rate": 9.834796744866819e-05, |
| "loss": 0.0086, |
| "step": 2560 |
| }, |
| { |
| "epoch": 53.541666666666664, |
| "grad_norm": 0.12642112374305725, |
| "learning_rate": 9.832682536381525e-05, |
| "loss": 0.0092, |
| "step": 2570 |
| }, |
| { |
| "epoch": 53.75, |
| "grad_norm": 0.11770359426736832, |
| "learning_rate": 9.830555115526711e-05, |
| "loss": 0.009, |
| "step": 2580 |
| }, |
| { |
| "epoch": 53.958333333333336, |
| "grad_norm": 0.10433600842952728, |
| "learning_rate": 9.828414488118667e-05, |
| "loss": 0.0084, |
| "step": 2590 |
| }, |
| { |
| "epoch": 54.166666666666664, |
| "grad_norm": 0.12209464609622955, |
| "learning_rate": 9.826260660009785e-05, |
| "loss": 0.0094, |
| "step": 2600 |
| }, |
| { |
| "epoch": 54.375, |
| "grad_norm": 0.1385062336921692, |
| "learning_rate": 9.824093637088547e-05, |
| "loss": 0.009, |
| "step": 2610 |
| }, |
| { |
| "epoch": 54.583333333333336, |
| "grad_norm": 0.12731477618217468, |
| "learning_rate": 9.821913425279514e-05, |
| "loss": 0.0089, |
| "step": 2620 |
| }, |
| { |
| "epoch": 54.791666666666664, |
| "grad_norm": 0.15336956083774567, |
| "learning_rate": 9.8197200305433e-05, |
| "loss": 0.0085, |
| "step": 2630 |
| }, |
| { |
| "epoch": 55.0, |
| "grad_norm": 0.1945595145225525, |
| "learning_rate": 9.817513458876564e-05, |
| "loss": 0.0096, |
| "step": 2640 |
| }, |
| { |
| "epoch": 55.208333333333336, |
| "grad_norm": 0.11767341941595078, |
| "learning_rate": 9.815293716311987e-05, |
| "loss": 0.0088, |
| "step": 2650 |
| }, |
| { |
| "epoch": 55.416666666666664, |
| "grad_norm": 0.14541785418987274, |
| "learning_rate": 9.813060808918262e-05, |
| "loss": 0.0092, |
| "step": 2660 |
| }, |
| { |
| "epoch": 55.625, |
| "grad_norm": 0.16650767624378204, |
| "learning_rate": 9.810814742800069e-05, |
| "loss": 0.0097, |
| "step": 2670 |
| }, |
| { |
| "epoch": 55.833333333333336, |
| "grad_norm": 0.1150713860988617, |
| "learning_rate": 9.808555524098074e-05, |
| "loss": 0.0086, |
| "step": 2680 |
| }, |
| { |
| "epoch": 56.041666666666664, |
| "grad_norm": 0.1088116317987442, |
| "learning_rate": 9.806283158988887e-05, |
| "loss": 0.0078, |
| "step": 2690 |
| }, |
| { |
| "epoch": 56.25, |
| "grad_norm": 0.14631342887878418, |
| "learning_rate": 9.803997653685072e-05, |
| "loss": 0.0082, |
| "step": 2700 |
| }, |
| { |
| "epoch": 56.458333333333336, |
| "grad_norm": 0.1343754678964615, |
| "learning_rate": 9.801699014435112e-05, |
| "loss": 0.008, |
| "step": 2710 |
| }, |
| { |
| "epoch": 56.666666666666664, |
| "grad_norm": 0.13529370725154877, |
| "learning_rate": 9.799387247523398e-05, |
| "loss": 0.0085, |
| "step": 2720 |
| }, |
| { |
| "epoch": 56.875, |
| "grad_norm": 0.11147897690534592, |
| "learning_rate": 9.797062359270215e-05, |
| "loss": 0.0079, |
| "step": 2730 |
| }, |
| { |
| "epoch": 57.083333333333336, |
| "grad_norm": 0.19471466541290283, |
| "learning_rate": 9.794724356031715e-05, |
| "loss": 0.0083, |
| "step": 2740 |
| }, |
| { |
| "epoch": 57.291666666666664, |
| "grad_norm": 0.1863505244255066, |
| "learning_rate": 9.792373244199913e-05, |
| "loss": 0.0085, |
| "step": 2750 |
| }, |
| { |
| "epoch": 57.5, |
| "grad_norm": 0.13585540652275085, |
| "learning_rate": 9.790009030202658e-05, |
| "loss": 0.0081, |
| "step": 2760 |
| }, |
| { |
| "epoch": 57.708333333333336, |
| "grad_norm": 0.13892769813537598, |
| "learning_rate": 9.78763172050362e-05, |
| "loss": 0.0086, |
| "step": 2770 |
| }, |
| { |
| "epoch": 57.916666666666664, |
| "grad_norm": 0.15619535744190216, |
| "learning_rate": 9.785241321602274e-05, |
| "loss": 0.0078, |
| "step": 2780 |
| }, |
| { |
| "epoch": 58.125, |
| "grad_norm": 0.17480793595314026, |
| "learning_rate": 9.782837840033879e-05, |
| "loss": 0.0088, |
| "step": 2790 |
| }, |
| { |
| "epoch": 58.333333333333336, |
| "grad_norm": 0.19116300344467163, |
| "learning_rate": 9.780421282369461e-05, |
| "loss": 0.0091, |
| "step": 2800 |
| }, |
| { |
| "epoch": 58.541666666666664, |
| "grad_norm": 0.2017354965209961, |
| "learning_rate": 9.777991655215797e-05, |
| "loss": 0.0082, |
| "step": 2810 |
| }, |
| { |
| "epoch": 58.75, |
| "grad_norm": 0.17326346039772034, |
| "learning_rate": 9.775548965215394e-05, |
| "loss": 0.0088, |
| "step": 2820 |
| }, |
| { |
| "epoch": 58.958333333333336, |
| "grad_norm": 0.17388294637203217, |
| "learning_rate": 9.773093219046474e-05, |
| "loss": 0.0084, |
| "step": 2830 |
| }, |
| { |
| "epoch": 59.166666666666664, |
| "grad_norm": 0.1788823902606964, |
| "learning_rate": 9.770624423422954e-05, |
| "loss": 0.0084, |
| "step": 2840 |
| }, |
| { |
| "epoch": 59.375, |
| "grad_norm": 0.11936558783054352, |
| "learning_rate": 9.768142585094426e-05, |
| "loss": 0.0091, |
| "step": 2850 |
| }, |
| { |
| "epoch": 59.583333333333336, |
| "grad_norm": 0.14019201695919037, |
| "learning_rate": 9.765647710846142e-05, |
| "loss": 0.0092, |
| "step": 2860 |
| }, |
| { |
| "epoch": 59.791666666666664, |
| "grad_norm": 0.12400297075510025, |
| "learning_rate": 9.763139807498991e-05, |
| "loss": 0.0084, |
| "step": 2870 |
| }, |
| { |
| "epoch": 60.0, |
| "grad_norm": 0.1594945192337036, |
| "learning_rate": 9.760618881909487e-05, |
| "loss": 0.0083, |
| "step": 2880 |
| }, |
| { |
| "epoch": 60.208333333333336, |
| "grad_norm": 0.17475134134292603, |
| "learning_rate": 9.758084940969744e-05, |
| "loss": 0.0093, |
| "step": 2890 |
| }, |
| { |
| "epoch": 60.416666666666664, |
| "grad_norm": 0.125895693898201, |
| "learning_rate": 9.755537991607459e-05, |
| "loss": 0.0087, |
| "step": 2900 |
| }, |
| { |
| "epoch": 60.625, |
| "grad_norm": 0.14806149899959564, |
| "learning_rate": 9.752978040785895e-05, |
| "loss": 0.0072, |
| "step": 2910 |
| }, |
| { |
| "epoch": 60.833333333333336, |
| "grad_norm": 0.14935727417469025, |
| "learning_rate": 9.750405095503859e-05, |
| "loss": 0.0084, |
| "step": 2920 |
| }, |
| { |
| "epoch": 61.041666666666664, |
| "grad_norm": 0.12621425092220306, |
| "learning_rate": 9.747819162795686e-05, |
| "loss": 0.0076, |
| "step": 2930 |
| }, |
| { |
| "epoch": 61.25, |
| "grad_norm": 0.15602892637252808, |
| "learning_rate": 9.745220249731217e-05, |
| "loss": 0.0084, |
| "step": 2940 |
| }, |
| { |
| "epoch": 61.458333333333336, |
| "grad_norm": 0.12207546830177307, |
| "learning_rate": 9.742608363415781e-05, |
| "loss": 0.0084, |
| "step": 2950 |
| }, |
| { |
| "epoch": 61.666666666666664, |
| "grad_norm": 0.1394585818052292, |
| "learning_rate": 9.739983510990176e-05, |
| "loss": 0.0077, |
| "step": 2960 |
| }, |
| { |
| "epoch": 61.875, |
| "grad_norm": 0.13204297423362732, |
| "learning_rate": 9.737345699630647e-05, |
| "loss": 0.0079, |
| "step": 2970 |
| }, |
| { |
| "epoch": 62.083333333333336, |
| "grad_norm": 0.13679321110248566, |
| "learning_rate": 9.734694936548869e-05, |
| "loss": 0.0074, |
| "step": 2980 |
| }, |
| { |
| "epoch": 62.291666666666664, |
| "grad_norm": 0.11424277722835541, |
| "learning_rate": 9.732031228991932e-05, |
| "loss": 0.0086, |
| "step": 2990 |
| }, |
| { |
| "epoch": 62.5, |
| "grad_norm": 0.112228162586689, |
| "learning_rate": 9.729354584242302e-05, |
| "loss": 0.0087, |
| "step": 3000 |
| }, |
| { |
| "epoch": 62.708333333333336, |
| "grad_norm": 0.15181872248649597, |
| "learning_rate": 9.726665009617832e-05, |
| "loss": 0.0081, |
| "step": 3010 |
| }, |
| { |
| "epoch": 62.916666666666664, |
| "grad_norm": 0.1584879606962204, |
| "learning_rate": 9.723962512471714e-05, |
| "loss": 0.0083, |
| "step": 3020 |
| }, |
| { |
| "epoch": 63.125, |
| "grad_norm": 0.15587449073791504, |
| "learning_rate": 9.72124710019247e-05, |
| "loss": 0.0084, |
| "step": 3030 |
| }, |
| { |
| "epoch": 63.333333333333336, |
| "grad_norm": 0.13749879598617554, |
| "learning_rate": 9.718518780203934e-05, |
| "loss": 0.0087, |
| "step": 3040 |
| }, |
| { |
| "epoch": 63.541666666666664, |
| "grad_norm": 0.15750397741794586, |
| "learning_rate": 9.715777559965228e-05, |
| "loss": 0.0085, |
| "step": 3050 |
| }, |
| { |
| "epoch": 63.75, |
| "grad_norm": 0.16457325220108032, |
| "learning_rate": 9.713023446970746e-05, |
| "loss": 0.008, |
| "step": 3060 |
| }, |
| { |
| "epoch": 63.958333333333336, |
| "grad_norm": 0.14457859098911285, |
| "learning_rate": 9.710256448750126e-05, |
| "loss": 0.008, |
| "step": 3070 |
| }, |
| { |
| "epoch": 64.16666666666667, |
| "grad_norm": 0.21400192379951477, |
| "learning_rate": 9.707476572868235e-05, |
| "loss": 0.0087, |
| "step": 3080 |
| }, |
| { |
| "epoch": 64.375, |
| "grad_norm": 0.176253542304039, |
| "learning_rate": 9.704683826925149e-05, |
| "loss": 0.0082, |
| "step": 3090 |
| }, |
| { |
| "epoch": 64.58333333333333, |
| "grad_norm": 0.14613905549049377, |
| "learning_rate": 9.701878218556129e-05, |
| "loss": 0.0091, |
| "step": 3100 |
| }, |
| { |
| "epoch": 64.79166666666667, |
| "grad_norm": 0.12556883692741394, |
| "learning_rate": 9.699059755431598e-05, |
| "loss": 0.0086, |
| "step": 3110 |
| }, |
| { |
| "epoch": 65.0, |
| "grad_norm": 0.12506556510925293, |
| "learning_rate": 9.696228445257132e-05, |
| "loss": 0.0078, |
| "step": 3120 |
| }, |
| { |
| "epoch": 65.20833333333333, |
| "grad_norm": 0.1324303150177002, |
| "learning_rate": 9.693384295773419e-05, |
| "loss": 0.0076, |
| "step": 3130 |
| }, |
| { |
| "epoch": 65.41666666666667, |
| "grad_norm": 0.14260755479335785, |
| "learning_rate": 9.690527314756259e-05, |
| "loss": 0.0075, |
| "step": 3140 |
| }, |
| { |
| "epoch": 65.625, |
| "grad_norm": 0.17024897038936615, |
| "learning_rate": 9.687657510016527e-05, |
| "loss": 0.0073, |
| "step": 3150 |
| }, |
| { |
| "epoch": 65.83333333333333, |
| "grad_norm": 0.12163723260164261, |
| "learning_rate": 9.684774889400161e-05, |
| "loss": 0.0084, |
| "step": 3160 |
| }, |
| { |
| "epoch": 66.04166666666667, |
| "grad_norm": 0.17265737056732178, |
| "learning_rate": 9.681879460788135e-05, |
| "loss": 0.0085, |
| "step": 3170 |
| }, |
| { |
| "epoch": 66.25, |
| "grad_norm": 0.14137807488441467, |
| "learning_rate": 9.67897123209644e-05, |
| "loss": 0.0087, |
| "step": 3180 |
| }, |
| { |
| "epoch": 66.45833333333333, |
| "grad_norm": 0.11415492743253708, |
| "learning_rate": 9.676050211276062e-05, |
| "loss": 0.0084, |
| "step": 3190 |
| }, |
| { |
| "epoch": 66.66666666666667, |
| "grad_norm": 0.10539334267377853, |
| "learning_rate": 9.673116406312962e-05, |
| "loss": 0.0085, |
| "step": 3200 |
| }, |
| { |
| "epoch": 66.875, |
| "grad_norm": 0.1746184527873993, |
| "learning_rate": 9.67016982522805e-05, |
| "loss": 0.0079, |
| "step": 3210 |
| }, |
| { |
| "epoch": 67.08333333333333, |
| "grad_norm": 0.15164965391159058, |
| "learning_rate": 9.667210476077164e-05, |
| "loss": 0.0078, |
| "step": 3220 |
| }, |
| { |
| "epoch": 67.29166666666667, |
| "grad_norm": 0.1245863139629364, |
| "learning_rate": 9.664238366951055e-05, |
| "loss": 0.0083, |
| "step": 3230 |
| }, |
| { |
| "epoch": 67.5, |
| "grad_norm": 0.13058176636695862, |
| "learning_rate": 9.661253505975355e-05, |
| "loss": 0.008, |
| "step": 3240 |
| }, |
| { |
| "epoch": 67.70833333333333, |
| "grad_norm": 0.1412813365459442, |
| "learning_rate": 9.658255901310557e-05, |
| "loss": 0.0084, |
| "step": 3250 |
| }, |
| { |
| "epoch": 67.91666666666667, |
| "grad_norm": 0.13035815954208374, |
| "learning_rate": 9.655245561152e-05, |
| "loss": 0.0082, |
| "step": 3260 |
| }, |
| { |
| "epoch": 68.125, |
| "grad_norm": 0.14681102335453033, |
| "learning_rate": 9.65222249372984e-05, |
| "loss": 0.0078, |
| "step": 3270 |
| }, |
| { |
| "epoch": 68.33333333333333, |
| "grad_norm": 0.12792235612869263, |
| "learning_rate": 9.649186707309026e-05, |
| "loss": 0.0082, |
| "step": 3280 |
| }, |
| { |
| "epoch": 68.54166666666667, |
| "grad_norm": 0.15287558734416962, |
| "learning_rate": 9.646138210189283e-05, |
| "loss": 0.0079, |
| "step": 3290 |
| }, |
| { |
| "epoch": 68.75, |
| "grad_norm": 0.1277853548526764, |
| "learning_rate": 9.643077010705087e-05, |
| "loss": 0.008, |
| "step": 3300 |
| }, |
| { |
| "epoch": 68.95833333333333, |
| "grad_norm": 0.10948234051465988, |
| "learning_rate": 9.640003117225637e-05, |
| "loss": 0.0081, |
| "step": 3310 |
| }, |
| { |
| "epoch": 69.16666666666667, |
| "grad_norm": 0.16888520121574402, |
| "learning_rate": 9.636916538154846e-05, |
| "loss": 0.008, |
| "step": 3320 |
| }, |
| { |
| "epoch": 69.375, |
| "grad_norm": 0.1860867738723755, |
| "learning_rate": 9.633817281931296e-05, |
| "loss": 0.0081, |
| "step": 3330 |
| }, |
| { |
| "epoch": 69.58333333333333, |
| "grad_norm": 0.12217903882265091, |
| "learning_rate": 9.630705357028242e-05, |
| "loss": 0.008, |
| "step": 3340 |
| }, |
| { |
| "epoch": 69.79166666666667, |
| "grad_norm": 0.14392343163490295, |
| "learning_rate": 9.627580771953563e-05, |
| "loss": 0.0084, |
| "step": 3350 |
| }, |
| { |
| "epoch": 70.0, |
| "grad_norm": 0.2517831027507782, |
| "learning_rate": 9.624443535249759e-05, |
| "loss": 0.0091, |
| "step": 3360 |
| }, |
| { |
| "epoch": 70.20833333333333, |
| "grad_norm": 0.1237884908914566, |
| "learning_rate": 9.621293655493913e-05, |
| "loss": 0.0086, |
| "step": 3370 |
| }, |
| { |
| "epoch": 70.41666666666667, |
| "grad_norm": 0.1395934820175171, |
| "learning_rate": 9.618131141297675e-05, |
| "loss": 0.0091, |
| "step": 3380 |
| }, |
| { |
| "epoch": 70.625, |
| "grad_norm": 0.15799179673194885, |
| "learning_rate": 9.614956001307242e-05, |
| "loss": 0.0098, |
| "step": 3390 |
| }, |
| { |
| "epoch": 70.83333333333333, |
| "grad_norm": 0.14630959928035736, |
| "learning_rate": 9.611768244203321e-05, |
| "loss": 0.0082, |
| "step": 3400 |
| }, |
| { |
| "epoch": 71.04166666666667, |
| "grad_norm": 0.19569124281406403, |
| "learning_rate": 9.60856787870112e-05, |
| "loss": 0.0089, |
| "step": 3410 |
| }, |
| { |
| "epoch": 71.25, |
| "grad_norm": 0.15080992877483368, |
| "learning_rate": 9.605354913550318e-05, |
| "loss": 0.0081, |
| "step": 3420 |
| }, |
| { |
| "epoch": 71.45833333333333, |
| "grad_norm": 0.12431894987821579, |
| "learning_rate": 9.602129357535037e-05, |
| "loss": 0.0077, |
| "step": 3430 |
| }, |
| { |
| "epoch": 71.66666666666667, |
| "grad_norm": 0.1317983716726303, |
| "learning_rate": 9.598891219473825e-05, |
| "loss": 0.0081, |
| "step": 3440 |
| }, |
| { |
| "epoch": 71.875, |
| "grad_norm": 0.1271415799856186, |
| "learning_rate": 9.595640508219625e-05, |
| "loss": 0.0079, |
| "step": 3450 |
| }, |
| { |
| "epoch": 72.08333333333333, |
| "grad_norm": 0.12340828031301498, |
| "learning_rate": 9.592377232659761e-05, |
| "loss": 0.0073, |
| "step": 3460 |
| }, |
| { |
| "epoch": 72.29166666666667, |
| "grad_norm": 0.16125109791755676, |
| "learning_rate": 9.589101401715904e-05, |
| "loss": 0.0082, |
| "step": 3470 |
| }, |
| { |
| "epoch": 72.5, |
| "grad_norm": 0.13908740878105164, |
| "learning_rate": 9.585813024344045e-05, |
| "loss": 0.0081, |
| "step": 3480 |
| }, |
| { |
| "epoch": 72.70833333333333, |
| "grad_norm": 0.12069405615329742, |
| "learning_rate": 9.58251210953449e-05, |
| "loss": 0.0072, |
| "step": 3490 |
| }, |
| { |
| "epoch": 72.91666666666667, |
| "grad_norm": 0.15209130942821503, |
| "learning_rate": 9.579198666311809e-05, |
| "loss": 0.0082, |
| "step": 3500 |
| }, |
| { |
| "epoch": 73.125, |
| "grad_norm": 0.12193018198013306, |
| "learning_rate": 9.575872703734832e-05, |
| "loss": 0.0078, |
| "step": 3510 |
| }, |
| { |
| "epoch": 73.33333333333333, |
| "grad_norm": 0.17105849087238312, |
| "learning_rate": 9.572534230896611e-05, |
| "loss": 0.0085, |
| "step": 3520 |
| }, |
| { |
| "epoch": 73.54166666666667, |
| "grad_norm": 0.1370059996843338, |
| "learning_rate": 9.569183256924403e-05, |
| "loss": 0.0085, |
| "step": 3530 |
| }, |
| { |
| "epoch": 73.75, |
| "grad_norm": 0.13424254953861237, |
| "learning_rate": 9.565819790979646e-05, |
| "loss": 0.0085, |
| "step": 3540 |
| }, |
| { |
| "epoch": 73.95833333333333, |
| "grad_norm": 0.12105348706245422, |
| "learning_rate": 9.562443842257925e-05, |
| "loss": 0.0077, |
| "step": 3550 |
| }, |
| { |
| "epoch": 74.16666666666667, |
| "grad_norm": 0.14536826312541962, |
| "learning_rate": 9.559055419988956e-05, |
| "loss": 0.0087, |
| "step": 3560 |
| }, |
| { |
| "epoch": 74.375, |
| "grad_norm": 0.1609853357076645, |
| "learning_rate": 9.555654533436557e-05, |
| "loss": 0.0092, |
| "step": 3570 |
| }, |
| { |
| "epoch": 74.58333333333333, |
| "grad_norm": 0.15583093464374542, |
| "learning_rate": 9.552241191898621e-05, |
| "loss": 0.0084, |
| "step": 3580 |
| }, |
| { |
| "epoch": 74.79166666666667, |
| "grad_norm": 0.13674955070018768, |
| "learning_rate": 9.548815404707092e-05, |
| "loss": 0.0078, |
| "step": 3590 |
| }, |
| { |
| "epoch": 75.0, |
| "grad_norm": 0.1659046858549118, |
| "learning_rate": 9.545377181227942e-05, |
| "loss": 0.008, |
| "step": 3600 |
| }, |
| { |
| "epoch": 75.20833333333333, |
| "grad_norm": 0.09946411848068237, |
| "learning_rate": 9.541926530861145e-05, |
| "loss": 0.0076, |
| "step": 3610 |
| }, |
| { |
| "epoch": 75.41666666666667, |
| "grad_norm": 0.13440348207950592, |
| "learning_rate": 9.538463463040645e-05, |
| "loss": 0.0071, |
| "step": 3620 |
| }, |
| { |
| "epoch": 75.625, |
| "grad_norm": 0.13562451303005219, |
| "learning_rate": 9.534987987234337e-05, |
| "loss": 0.0072, |
| "step": 3630 |
| }, |
| { |
| "epoch": 75.83333333333333, |
| "grad_norm": 0.12133369594812393, |
| "learning_rate": 9.53150011294404e-05, |
| "loss": 0.0078, |
| "step": 3640 |
| }, |
| { |
| "epoch": 76.04166666666667, |
| "grad_norm": 0.11865601688623428, |
| "learning_rate": 9.527999849705471e-05, |
| "loss": 0.0073, |
| "step": 3650 |
| }, |
| { |
| "epoch": 76.25, |
| "grad_norm": 0.13767482340335846, |
| "learning_rate": 9.524487207088213e-05, |
| "loss": 0.008, |
| "step": 3660 |
| }, |
| { |
| "epoch": 76.45833333333333, |
| "grad_norm": 0.12942279875278473, |
| "learning_rate": 9.520962194695698e-05, |
| "loss": 0.0082, |
| "step": 3670 |
| }, |
| { |
| "epoch": 76.66666666666667, |
| "grad_norm": 0.14708350598812103, |
| "learning_rate": 9.517424822165175e-05, |
| "loss": 0.0089, |
| "step": 3680 |
| }, |
| { |
| "epoch": 76.875, |
| "grad_norm": 0.12420503050088882, |
| "learning_rate": 9.513875099167685e-05, |
| "loss": 0.0079, |
| "step": 3690 |
| }, |
| { |
| "epoch": 77.08333333333333, |
| "grad_norm": 0.14663736522197723, |
| "learning_rate": 9.510313035408035e-05, |
| "loss": 0.0084, |
| "step": 3700 |
| }, |
| { |
| "epoch": 77.29166666666667, |
| "grad_norm": 0.1613157093524933, |
| "learning_rate": 9.506738640624775e-05, |
| "loss": 0.0085, |
| "step": 3710 |
| }, |
| { |
| "epoch": 77.5, |
| "grad_norm": 0.15745188295841217, |
| "learning_rate": 9.50315192459016e-05, |
| "loss": 0.0084, |
| "step": 3720 |
| }, |
| { |
| "epoch": 77.70833333333333, |
| "grad_norm": 0.1454235464334488, |
| "learning_rate": 9.499552897110136e-05, |
| "loss": 0.0081, |
| "step": 3730 |
| }, |
| { |
| "epoch": 77.91666666666667, |
| "grad_norm": 0.13637305796146393, |
| "learning_rate": 9.495941568024304e-05, |
| "loss": 0.0078, |
| "step": 3740 |
| }, |
| { |
| "epoch": 78.125, |
| "grad_norm": 0.16548554599285126, |
| "learning_rate": 9.492317947205904e-05, |
| "loss": 0.0078, |
| "step": 3750 |
| }, |
| { |
| "epoch": 78.33333333333333, |
| "grad_norm": 0.11904530972242355, |
| "learning_rate": 9.488682044561775e-05, |
| "loss": 0.008, |
| "step": 3760 |
| }, |
| { |
| "epoch": 78.54166666666667, |
| "grad_norm": 0.13436388969421387, |
| "learning_rate": 9.485033870032335e-05, |
| "loss": 0.0078, |
| "step": 3770 |
| }, |
| { |
| "epoch": 78.75, |
| "grad_norm": 0.13463658094406128, |
| "learning_rate": 9.481373433591556e-05, |
| "loss": 0.008, |
| "step": 3780 |
| }, |
| { |
| "epoch": 78.95833333333333, |
| "grad_norm": 0.12881360948085785, |
| "learning_rate": 9.47770074524693e-05, |
| "loss": 0.0074, |
| "step": 3790 |
| }, |
| { |
| "epoch": 79.16666666666667, |
| "grad_norm": 0.1699158102273941, |
| "learning_rate": 9.474015815039446e-05, |
| "loss": 0.0091, |
| "step": 3800 |
| }, |
| { |
| "epoch": 79.375, |
| "grad_norm": 0.15745197236537933, |
| "learning_rate": 9.470318653043565e-05, |
| "loss": 0.009, |
| "step": 3810 |
| }, |
| { |
| "epoch": 79.58333333333333, |
| "grad_norm": 0.1425720900297165, |
| "learning_rate": 9.466609269367185e-05, |
| "loss": 0.0081, |
| "step": 3820 |
| }, |
| { |
| "epoch": 79.79166666666667, |
| "grad_norm": 0.13255997002124786, |
| "learning_rate": 9.46288767415162e-05, |
| "loss": 0.0085, |
| "step": 3830 |
| }, |
| { |
| "epoch": 80.0, |
| "grad_norm": 0.18882817029953003, |
| "learning_rate": 9.459153877571567e-05, |
| "loss": 0.0077, |
| "step": 3840 |
| }, |
| { |
| "epoch": 80.20833333333333, |
| "grad_norm": 0.12347506731748581, |
| "learning_rate": 9.455407889835087e-05, |
| "loss": 0.0076, |
| "step": 3850 |
| }, |
| { |
| "epoch": 80.41666666666667, |
| "grad_norm": 0.134022518992424, |
| "learning_rate": 9.451649721183564e-05, |
| "loss": 0.008, |
| "step": 3860 |
| }, |
| { |
| "epoch": 80.625, |
| "grad_norm": 0.10200574994087219, |
| "learning_rate": 9.447879381891692e-05, |
| "loss": 0.0081, |
| "step": 3870 |
| }, |
| { |
| "epoch": 80.83333333333333, |
| "grad_norm": 0.11393435299396515, |
| "learning_rate": 9.444096882267428e-05, |
| "loss": 0.0067, |
| "step": 3880 |
| }, |
| { |
| "epoch": 81.04166666666667, |
| "grad_norm": 0.17549581825733185, |
| "learning_rate": 9.440302232651988e-05, |
| "loss": 0.0068, |
| "step": 3890 |
| }, |
| { |
| "epoch": 81.25, |
| "grad_norm": 0.129764124751091, |
| "learning_rate": 9.436495443419795e-05, |
| "loss": 0.0072, |
| "step": 3900 |
| }, |
| { |
| "epoch": 81.45833333333333, |
| "grad_norm": 0.13367408514022827, |
| "learning_rate": 9.432676524978466e-05, |
| "loss": 0.0075, |
| "step": 3910 |
| }, |
| { |
| "epoch": 81.66666666666667, |
| "grad_norm": 0.12855835258960724, |
| "learning_rate": 9.42884548776878e-05, |
| "loss": 0.007, |
| "step": 3920 |
| }, |
| { |
| "epoch": 81.875, |
| "grad_norm": 0.12377104163169861, |
| "learning_rate": 9.425002342264646e-05, |
| "loss": 0.0066, |
| "step": 3930 |
| }, |
| { |
| "epoch": 82.08333333333333, |
| "grad_norm": 0.14512717723846436, |
| "learning_rate": 9.421147098973077e-05, |
| "loss": 0.0078, |
| "step": 3940 |
| }, |
| { |
| "epoch": 82.29166666666667, |
| "grad_norm": 0.14285895228385925, |
| "learning_rate": 9.41727976843416e-05, |
| "loss": 0.007, |
| "step": 3950 |
| }, |
| { |
| "epoch": 82.5, |
| "grad_norm": 0.1557202786207199, |
| "learning_rate": 9.413400361221029e-05, |
| "loss": 0.0077, |
| "step": 3960 |
| }, |
| { |
| "epoch": 82.70833333333333, |
| "grad_norm": 0.12391534447669983, |
| "learning_rate": 9.409508887939835e-05, |
| "loss": 0.0075, |
| "step": 3970 |
| }, |
| { |
| "epoch": 82.91666666666667, |
| "grad_norm": 0.1519940346479416, |
| "learning_rate": 9.40560535922972e-05, |
| "loss": 0.0069, |
| "step": 3980 |
| }, |
| { |
| "epoch": 83.125, |
| "grad_norm": 0.1247396171092987, |
| "learning_rate": 9.40168978576278e-05, |
| "loss": 0.0074, |
| "step": 3990 |
| }, |
| { |
| "epoch": 83.33333333333333, |
| "grad_norm": 0.12143047899007797, |
| "learning_rate": 9.397762178244043e-05, |
| "loss": 0.0077, |
| "step": 4000 |
| }, |
| { |
| "epoch": 83.54166666666667, |
| "grad_norm": 0.1239767074584961, |
| "learning_rate": 9.393822547411439e-05, |
| "loss": 0.0073, |
| "step": 4010 |
| }, |
| { |
| "epoch": 83.75, |
| "grad_norm": 0.14913630485534668, |
| "learning_rate": 9.389870904035769e-05, |
| "loss": 0.0072, |
| "step": 4020 |
| }, |
| { |
| "epoch": 83.95833333333333, |
| "grad_norm": 0.12743103504180908, |
| "learning_rate": 9.385907258920672e-05, |
| "loss": 0.0073, |
| "step": 4030 |
| }, |
| { |
| "epoch": 84.16666666666667, |
| "grad_norm": 0.16922424733638763, |
| "learning_rate": 9.381931622902607e-05, |
| "loss": 0.0073, |
| "step": 4040 |
| }, |
| { |
| "epoch": 84.375, |
| "grad_norm": 0.12121975421905518, |
| "learning_rate": 9.377944006850807e-05, |
| "loss": 0.0084, |
| "step": 4050 |
| }, |
| { |
| "epoch": 84.58333333333333, |
| "grad_norm": 0.12847809493541718, |
| "learning_rate": 9.373944421667265e-05, |
| "loss": 0.0078, |
| "step": 4060 |
| }, |
| { |
| "epoch": 84.79166666666667, |
| "grad_norm": 0.10404125601053238, |
| "learning_rate": 9.369932878286691e-05, |
| "loss": 0.0073, |
| "step": 4070 |
| }, |
| { |
| "epoch": 85.0, |
| "grad_norm": 0.20326335728168488, |
| "learning_rate": 9.365909387676494e-05, |
| "loss": 0.0075, |
| "step": 4080 |
| }, |
| { |
| "epoch": 85.20833333333333, |
| "grad_norm": 0.1208629459142685, |
| "learning_rate": 9.361873960836744e-05, |
| "loss": 0.0075, |
| "step": 4090 |
| }, |
| { |
| "epoch": 85.41666666666667, |
| "grad_norm": 0.15183036029338837, |
| "learning_rate": 9.357826608800142e-05, |
| "loss": 0.0074, |
| "step": 4100 |
| }, |
| { |
| "epoch": 85.625, |
| "grad_norm": 0.11224193871021271, |
| "learning_rate": 9.353767342631994e-05, |
| "loss": 0.0072, |
| "step": 4110 |
| }, |
| { |
| "epoch": 85.83333333333333, |
| "grad_norm": 0.14832796156406403, |
| "learning_rate": 9.34969617343018e-05, |
| "loss": 0.0076, |
| "step": 4120 |
| }, |
| { |
| "epoch": 86.04166666666667, |
| "grad_norm": 0.13874362409114838, |
| "learning_rate": 9.345613112325122e-05, |
| "loss": 0.008, |
| "step": 4130 |
| }, |
| { |
| "epoch": 86.25, |
| "grad_norm": 0.12126526981592178, |
| "learning_rate": 9.34151817047975e-05, |
| "loss": 0.0077, |
| "step": 4140 |
| }, |
| { |
| "epoch": 86.45833333333333, |
| "grad_norm": 0.11635075509548187, |
| "learning_rate": 9.33741135908948e-05, |
| "loss": 0.008, |
| "step": 4150 |
| }, |
| { |
| "epoch": 86.66666666666667, |
| "grad_norm": 0.09447265416383743, |
| "learning_rate": 9.33329268938218e-05, |
| "loss": 0.0069, |
| "step": 4160 |
| }, |
| { |
| "epoch": 86.875, |
| "grad_norm": 0.11846235394477844, |
| "learning_rate": 9.329162172618132e-05, |
| "loss": 0.0074, |
| "step": 4170 |
| }, |
| { |
| "epoch": 87.08333333333333, |
| "grad_norm": 0.13078013062477112, |
| "learning_rate": 9.325019820090013e-05, |
| "loss": 0.0072, |
| "step": 4180 |
| }, |
| { |
| "epoch": 87.29166666666667, |
| "grad_norm": 0.12578906118869781, |
| "learning_rate": 9.320865643122855e-05, |
| "loss": 0.0078, |
| "step": 4190 |
| }, |
| { |
| "epoch": 87.5, |
| "grad_norm": 0.1526239514350891, |
| "learning_rate": 9.316699653074023e-05, |
| "loss": 0.0073, |
| "step": 4200 |
| }, |
| { |
| "epoch": 87.70833333333333, |
| "grad_norm": 0.11341243982315063, |
| "learning_rate": 9.312521861333172e-05, |
| "loss": 0.0067, |
| "step": 4210 |
| }, |
| { |
| "epoch": 87.91666666666667, |
| "grad_norm": 0.09736169129610062, |
| "learning_rate": 9.308332279322224e-05, |
| "loss": 0.0066, |
| "step": 4220 |
| }, |
| { |
| "epoch": 88.125, |
| "grad_norm": 0.13081710040569305, |
| "learning_rate": 9.304130918495338e-05, |
| "loss": 0.0074, |
| "step": 4230 |
| }, |
| { |
| "epoch": 88.33333333333333, |
| "grad_norm": 0.12707583606243134, |
| "learning_rate": 9.299917790338874e-05, |
| "loss": 0.0076, |
| "step": 4240 |
| }, |
| { |
| "epoch": 88.54166666666667, |
| "grad_norm": 0.11190862953662872, |
| "learning_rate": 9.295692906371363e-05, |
| "loss": 0.0068, |
| "step": 4250 |
| }, |
| { |
| "epoch": 88.75, |
| "grad_norm": 0.11754106730222702, |
| "learning_rate": 9.291456278143476e-05, |
| "loss": 0.0075, |
| "step": 4260 |
| }, |
| { |
| "epoch": 88.95833333333333, |
| "grad_norm": 0.10456420481204987, |
| "learning_rate": 9.287207917237994e-05, |
| "loss": 0.0072, |
| "step": 4270 |
| }, |
| { |
| "epoch": 89.16666666666667, |
| "grad_norm": 0.13785317540168762, |
| "learning_rate": 9.282947835269773e-05, |
| "loss": 0.0072, |
| "step": 4280 |
| }, |
| { |
| "epoch": 89.375, |
| "grad_norm": 0.10497057437896729, |
| "learning_rate": 9.278676043885715e-05, |
| "loss": 0.0078, |
| "step": 4290 |
| }, |
| { |
| "epoch": 89.58333333333333, |
| "grad_norm": 0.10352105647325516, |
| "learning_rate": 9.274392554764733e-05, |
| "loss": 0.0073, |
| "step": 4300 |
| }, |
| { |
| "epoch": 89.79166666666667, |
| "grad_norm": 0.1163288876414299, |
| "learning_rate": 9.270097379617723e-05, |
| "loss": 0.0073, |
| "step": 4310 |
| }, |
| { |
| "epoch": 90.0, |
| "grad_norm": 0.17180398106575012, |
| "learning_rate": 9.26579053018753e-05, |
| "loss": 0.0071, |
| "step": 4320 |
| }, |
| { |
| "epoch": 90.20833333333333, |
| "grad_norm": 0.15238836407661438, |
| "learning_rate": 9.261472018248918e-05, |
| "loss": 0.0072, |
| "step": 4330 |
| }, |
| { |
| "epoch": 90.41666666666667, |
| "grad_norm": 0.12145853042602539, |
| "learning_rate": 9.25714185560853e-05, |
| "loss": 0.0076, |
| "step": 4340 |
| }, |
| { |
| "epoch": 90.625, |
| "grad_norm": 0.1380954384803772, |
| "learning_rate": 9.252800054104868e-05, |
| "loss": 0.0073, |
| "step": 4350 |
| }, |
| { |
| "epoch": 90.83333333333333, |
| "grad_norm": 0.14991872012615204, |
| "learning_rate": 9.248446625608252e-05, |
| "loss": 0.0072, |
| "step": 4360 |
| }, |
| { |
| "epoch": 91.04166666666667, |
| "grad_norm": 0.15483133494853973, |
| "learning_rate": 9.244081582020789e-05, |
| "loss": 0.0083, |
| "step": 4370 |
| }, |
| { |
| "epoch": 91.25, |
| "grad_norm": 0.12043429166078568, |
| "learning_rate": 9.239704935276339e-05, |
| "loss": 0.0079, |
| "step": 4380 |
| }, |
| { |
| "epoch": 91.45833333333333, |
| "grad_norm": 0.13251228630542755, |
| "learning_rate": 9.235316697340489e-05, |
| "loss": 0.0075, |
| "step": 4390 |
| }, |
| { |
| "epoch": 91.66666666666667, |
| "grad_norm": 0.1269141584634781, |
| "learning_rate": 9.230916880210512e-05, |
| "loss": 0.0079, |
| "step": 4400 |
| }, |
| { |
| "epoch": 91.875, |
| "grad_norm": 0.11620093137025833, |
| "learning_rate": 9.226505495915342e-05, |
| "loss": 0.0073, |
| "step": 4410 |
| }, |
| { |
| "epoch": 92.08333333333333, |
| "grad_norm": 0.1434793919324875, |
| "learning_rate": 9.222082556515536e-05, |
| "loss": 0.0063, |
| "step": 4420 |
| }, |
| { |
| "epoch": 92.29166666666667, |
| "grad_norm": 0.1004461795091629, |
| "learning_rate": 9.217648074103242e-05, |
| "loss": 0.008, |
| "step": 4430 |
| }, |
| { |
| "epoch": 92.5, |
| "grad_norm": 0.0979839563369751, |
| "learning_rate": 9.213202060802161e-05, |
| "loss": 0.0068, |
| "step": 4440 |
| }, |
| { |
| "epoch": 92.70833333333333, |
| "grad_norm": 0.11008862406015396, |
| "learning_rate": 9.208744528767528e-05, |
| "loss": 0.0069, |
| "step": 4450 |
| }, |
| { |
| "epoch": 92.91666666666667, |
| "grad_norm": 0.11195098608732224, |
| "learning_rate": 9.204275490186064e-05, |
| "loss": 0.007, |
| "step": 4460 |
| }, |
| { |
| "epoch": 93.125, |
| "grad_norm": 0.13116782903671265, |
| "learning_rate": 9.199794957275949e-05, |
| "loss": 0.0068, |
| "step": 4470 |
| }, |
| { |
| "epoch": 93.33333333333333, |
| "grad_norm": 0.10709001123905182, |
| "learning_rate": 9.19530294228679e-05, |
| "loss": 0.0062, |
| "step": 4480 |
| }, |
| { |
| "epoch": 93.54166666666667, |
| "grad_norm": 0.11429505795240402, |
| "learning_rate": 9.190799457499583e-05, |
| "loss": 0.0072, |
| "step": 4490 |
| }, |
| { |
| "epoch": 93.75, |
| "grad_norm": 0.12184348702430725, |
| "learning_rate": 9.186284515226686e-05, |
| "loss": 0.0071, |
| "step": 4500 |
| }, |
| { |
| "epoch": 93.95833333333333, |
| "grad_norm": 0.12104353308677673, |
| "learning_rate": 9.181758127811777e-05, |
| "loss": 0.0074, |
| "step": 4510 |
| }, |
| { |
| "epoch": 94.16666666666667, |
| "grad_norm": 0.09736120700836182, |
| "learning_rate": 9.177220307629825e-05, |
| "loss": 0.0076, |
| "step": 4520 |
| }, |
| { |
| "epoch": 94.375, |
| "grad_norm": 0.09775745123624802, |
| "learning_rate": 9.172671067087059e-05, |
| "loss": 0.0076, |
| "step": 4530 |
| }, |
| { |
| "epoch": 94.58333333333333, |
| "grad_norm": 0.10957901924848557, |
| "learning_rate": 9.16811041862093e-05, |
| "loss": 0.0069, |
| "step": 4540 |
| }, |
| { |
| "epoch": 94.79166666666667, |
| "grad_norm": 0.11660820990800858, |
| "learning_rate": 9.163538374700076e-05, |
| "loss": 0.0067, |
| "step": 4550 |
| }, |
| { |
| "epoch": 95.0, |
| "grad_norm": 0.1356566995382309, |
| "learning_rate": 9.158954947824287e-05, |
| "loss": 0.0065, |
| "step": 4560 |
| }, |
| { |
| "epoch": 95.20833333333333, |
| "grad_norm": 0.1425929218530655, |
| "learning_rate": 9.154360150524482e-05, |
| "loss": 0.0069, |
| "step": 4570 |
| }, |
| { |
| "epoch": 95.41666666666667, |
| "grad_norm": 0.13953809440135956, |
| "learning_rate": 9.14975399536266e-05, |
| "loss": 0.0078, |
| "step": 4580 |
| }, |
| { |
| "epoch": 95.625, |
| "grad_norm": 0.08912316709756851, |
| "learning_rate": 9.14513649493187e-05, |
| "loss": 0.0067, |
| "step": 4590 |
| }, |
| { |
| "epoch": 95.83333333333333, |
| "grad_norm": 0.10334280133247375, |
| "learning_rate": 9.140507661856187e-05, |
| "loss": 0.0066, |
| "step": 4600 |
| }, |
| { |
| "epoch": 96.04166666666667, |
| "grad_norm": 0.11234814673662186, |
| "learning_rate": 9.135867508790661e-05, |
| "loss": 0.0068, |
| "step": 4610 |
| }, |
| { |
| "epoch": 96.25, |
| "grad_norm": 0.1121845468878746, |
| "learning_rate": 9.131216048421291e-05, |
| "loss": 0.0078, |
| "step": 4620 |
| }, |
| { |
| "epoch": 96.45833333333333, |
| "grad_norm": 0.1481083333492279, |
| "learning_rate": 9.126553293464998e-05, |
| "loss": 0.0073, |
| "step": 4630 |
| }, |
| { |
| "epoch": 96.66666666666667, |
| "grad_norm": 0.1397561877965927, |
| "learning_rate": 9.121879256669572e-05, |
| "loss": 0.0079, |
| "step": 4640 |
| }, |
| { |
| "epoch": 96.875, |
| "grad_norm": 0.1100471243262291, |
| "learning_rate": 9.117193950813652e-05, |
| "loss": 0.0072, |
| "step": 4650 |
| }, |
| { |
| "epoch": 97.08333333333333, |
| "grad_norm": 0.18109332025051117, |
| "learning_rate": 9.112497388706685e-05, |
| "loss": 0.0071, |
| "step": 4660 |
| }, |
| { |
| "epoch": 97.29166666666667, |
| "grad_norm": 0.16449885070323944, |
| "learning_rate": 9.10778958318889e-05, |
| "loss": 0.0081, |
| "step": 4670 |
| }, |
| { |
| "epoch": 97.5, |
| "grad_norm": 0.18169593811035156, |
| "learning_rate": 9.103070547131232e-05, |
| "loss": 0.0076, |
| "step": 4680 |
| }, |
| { |
| "epoch": 97.70833333333333, |
| "grad_norm": 0.17230816185474396, |
| "learning_rate": 9.098340293435375e-05, |
| "loss": 0.0075, |
| "step": 4690 |
| }, |
| { |
| "epoch": 97.91666666666667, |
| "grad_norm": 0.11778809130191803, |
| "learning_rate": 9.093598835033649e-05, |
| "loss": 0.0072, |
| "step": 4700 |
| }, |
| { |
| "epoch": 98.125, |
| "grad_norm": 0.15728609263896942, |
| "learning_rate": 9.088846184889021e-05, |
| "loss": 0.0072, |
| "step": 4710 |
| }, |
| { |
| "epoch": 98.33333333333333, |
| "grad_norm": 0.11238937824964523, |
| "learning_rate": 9.084082355995057e-05, |
| "loss": 0.0073, |
| "step": 4720 |
| }, |
| { |
| "epoch": 98.54166666666667, |
| "grad_norm": 0.11571408063173294, |
| "learning_rate": 9.079307361375882e-05, |
| "loss": 0.0067, |
| "step": 4730 |
| }, |
| { |
| "epoch": 98.75, |
| "grad_norm": 0.12732599675655365, |
| "learning_rate": 9.074521214086149e-05, |
| "loss": 0.0072, |
| "step": 4740 |
| }, |
| { |
| "epoch": 98.95833333333333, |
| "grad_norm": 0.11861906200647354, |
| "learning_rate": 9.069723927211001e-05, |
| "loss": 0.0073, |
| "step": 4750 |
| }, |
| { |
| "epoch": 99.16666666666667, |
| "grad_norm": 0.12790387868881226, |
| "learning_rate": 9.064915513866037e-05, |
| "loss": 0.007, |
| "step": 4760 |
| }, |
| { |
| "epoch": 99.375, |
| "grad_norm": 0.14003939926624298, |
| "learning_rate": 9.060095987197279e-05, |
| "loss": 0.0075, |
| "step": 4770 |
| }, |
| { |
| "epoch": 99.58333333333333, |
| "grad_norm": 0.18221960961818695, |
| "learning_rate": 9.055265360381126e-05, |
| "loss": 0.0079, |
| "step": 4780 |
| }, |
| { |
| "epoch": 99.79166666666667, |
| "grad_norm": 0.18938899040222168, |
| "learning_rate": 9.050423646624326e-05, |
| "loss": 0.0078, |
| "step": 4790 |
| }, |
| { |
| "epoch": 100.0, |
| "grad_norm": 0.1797226518392563, |
| "learning_rate": 9.045570859163943e-05, |
| "loss": 0.007, |
| "step": 4800 |
| }, |
| { |
| "epoch": 100.20833333333333, |
| "grad_norm": 0.11891371011734009, |
| "learning_rate": 9.04070701126731e-05, |
| "loss": 0.0074, |
| "step": 4810 |
| }, |
| { |
| "epoch": 100.41666666666667, |
| "grad_norm": 0.11718389391899109, |
| "learning_rate": 9.035832116232001e-05, |
| "loss": 0.0078, |
| "step": 4820 |
| }, |
| { |
| "epoch": 100.625, |
| "grad_norm": 0.1415216028690338, |
| "learning_rate": 9.030946187385796e-05, |
| "loss": 0.0075, |
| "step": 4830 |
| }, |
| { |
| "epoch": 100.83333333333333, |
| "grad_norm": 0.14168231189250946, |
| "learning_rate": 9.026049238086635e-05, |
| "loss": 0.0065, |
| "step": 4840 |
| }, |
| { |
| "epoch": 101.04166666666667, |
| "grad_norm": 0.17353275418281555, |
| "learning_rate": 9.021141281722591e-05, |
| "loss": 0.0067, |
| "step": 4850 |
| }, |
| { |
| "epoch": 101.25, |
| "grad_norm": 0.13674576580524445, |
| "learning_rate": 9.01622233171183e-05, |
| "loss": 0.0074, |
| "step": 4860 |
| }, |
| { |
| "epoch": 101.45833333333333, |
| "grad_norm": 0.16381537914276123, |
| "learning_rate": 9.011292401502574e-05, |
| "loss": 0.0067, |
| "step": 4870 |
| }, |
| { |
| "epoch": 101.66666666666667, |
| "grad_norm": 0.12143448740243912, |
| "learning_rate": 9.006351504573063e-05, |
| "loss": 0.0073, |
| "step": 4880 |
| }, |
| { |
| "epoch": 101.875, |
| "grad_norm": 0.14107128977775574, |
| "learning_rate": 9.001399654431519e-05, |
| "loss": 0.0065, |
| "step": 4890 |
| }, |
| { |
| "epoch": 102.08333333333333, |
| "grad_norm": 0.12365766614675522, |
| "learning_rate": 8.996436864616116e-05, |
| "loss": 0.0071, |
| "step": 4900 |
| }, |
| { |
| "epoch": 102.29166666666667, |
| "grad_norm": 0.11717549711465836, |
| "learning_rate": 8.991463148694925e-05, |
| "loss": 0.0071, |
| "step": 4910 |
| }, |
| { |
| "epoch": 102.5, |
| "grad_norm": 0.12707993388175964, |
| "learning_rate": 8.986478520265902e-05, |
| "loss": 0.007, |
| "step": 4920 |
| }, |
| { |
| "epoch": 102.70833333333333, |
| "grad_norm": 0.1060505360364914, |
| "learning_rate": 8.981482992956827e-05, |
| "loss": 0.007, |
| "step": 4930 |
| }, |
| { |
| "epoch": 102.91666666666667, |
| "grad_norm": 0.0786166563630104, |
| "learning_rate": 8.976476580425282e-05, |
| "loss": 0.0068, |
| "step": 4940 |
| }, |
| { |
| "epoch": 103.125, |
| "grad_norm": 0.10416026413440704, |
| "learning_rate": 8.971459296358606e-05, |
| "loss": 0.0075, |
| "step": 4950 |
| }, |
| { |
| "epoch": 103.33333333333333, |
| "grad_norm": 0.12413540482521057, |
| "learning_rate": 8.966431154473864e-05, |
| "loss": 0.0066, |
| "step": 4960 |
| }, |
| { |
| "epoch": 103.54166666666667, |
| "grad_norm": 0.09850534051656723, |
| "learning_rate": 8.961392168517803e-05, |
| "loss": 0.0067, |
| "step": 4970 |
| }, |
| { |
| "epoch": 103.75, |
| "grad_norm": 0.11118543148040771, |
| "learning_rate": 8.956342352266821e-05, |
| "loss": 0.0058, |
| "step": 4980 |
| }, |
| { |
| "epoch": 103.95833333333333, |
| "grad_norm": 0.11706725507974625, |
| "learning_rate": 8.95128171952692e-05, |
| "loss": 0.0068, |
| "step": 4990 |
| }, |
| { |
| "epoch": 104.16666666666667, |
| "grad_norm": 0.10897029936313629, |
| "learning_rate": 8.946210284133676e-05, |
| "loss": 0.0064, |
| "step": 5000 |
| } |
| ], |
| "logging_steps": 10, |
| "max_steps": 20000, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 417, |
| "save_steps": 1000, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": false |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 0.0, |
| "train_batch_size": 512, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|