{ "best_global_step": null, "best_metric": null, "best_model_checkpoint": null, "epoch": 1.0, "eval_steps": 500, "global_step": 7500, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0013333333333333333, "grad_norm": 8.54599380493164, "learning_rate": 1.8e-05, "loss": 5.4609, "step": 10 }, { "epoch": 0.0026666666666666666, "grad_norm": 4.442131519317627, "learning_rate": 3.8e-05, "loss": 4.4953, "step": 20 }, { "epoch": 0.004, "grad_norm": 2.5090410709381104, "learning_rate": 5.8e-05, "loss": 3.6086, "step": 30 }, { "epoch": 0.005333333333333333, "grad_norm": 2.2689425945281982, "learning_rate": 7.800000000000001e-05, "loss": 3.2301, "step": 40 }, { "epoch": 0.006666666666666667, "grad_norm": 2.368473768234253, "learning_rate": 9.8e-05, "loss": 3.1415, "step": 50 }, { "epoch": 0.008, "grad_norm": 2.5440406799316406, "learning_rate": 0.000118, "loss": 2.812, "step": 60 }, { "epoch": 0.009333333333333334, "grad_norm": 3.2771072387695312, "learning_rate": 0.000138, "loss": 2.7536, "step": 70 }, { "epoch": 0.010666666666666666, "grad_norm": 3.1553053855895996, "learning_rate": 0.00015800000000000002, "loss": 3.0832, "step": 80 }, { "epoch": 0.012, "grad_norm": 2.804758310317993, "learning_rate": 0.00017800000000000002, "loss": 2.5819, "step": 90 }, { "epoch": 0.013333333333333334, "grad_norm": 3.1417534351348877, "learning_rate": 0.00019800000000000002, "loss": 2.5907, "step": 100 }, { "epoch": 0.014666666666666666, "grad_norm": 4.256618022918701, "learning_rate": 0.00019975675675675675, "loss": 2.6703, "step": 110 }, { "epoch": 0.016, "grad_norm": 3.272716760635376, "learning_rate": 0.00019948648648648648, "loss": 2.6242, "step": 120 }, { "epoch": 0.017333333333333333, "grad_norm": 2.649427652359009, "learning_rate": 0.00019921621621621623, "loss": 2.522, "step": 130 }, { "epoch": 0.018666666666666668, "grad_norm": 3.259302854537964, "learning_rate": 0.00019894594594594596, "loss": 2.5605, "step": 140 }, { "epoch": 0.02, "grad_norm": 3.081885814666748, "learning_rate": 0.0001986756756756757, "loss": 2.4966, "step": 150 }, { "epoch": 0.021333333333333333, "grad_norm": 3.1175105571746826, "learning_rate": 0.00019840540540540542, "loss": 2.5449, "step": 160 }, { "epoch": 0.02266666666666667, "grad_norm": 2.9999260902404785, "learning_rate": 0.00019813513513513515, "loss": 2.444, "step": 170 }, { "epoch": 0.024, "grad_norm": 2.9630610942840576, "learning_rate": 0.00019786486486486488, "loss": 2.3259, "step": 180 }, { "epoch": 0.025333333333333333, "grad_norm": 2.424903392791748, "learning_rate": 0.0001975945945945946, "loss": 2.4376, "step": 190 }, { "epoch": 0.02666666666666667, "grad_norm": 2.5037362575531006, "learning_rate": 0.00019732432432432434, "loss": 2.4054, "step": 200 }, { "epoch": 0.028, "grad_norm": 2.698734998703003, "learning_rate": 0.00019705405405405407, "loss": 2.4893, "step": 210 }, { "epoch": 0.029333333333333333, "grad_norm": 2.93727445602417, "learning_rate": 0.0001967837837837838, "loss": 2.4322, "step": 220 }, { "epoch": 0.030666666666666665, "grad_norm": 2.732948064804077, "learning_rate": 0.00019651351351351352, "loss": 2.4059, "step": 230 }, { "epoch": 0.032, "grad_norm": 2.547001838684082, "learning_rate": 0.00019624324324324325, "loss": 2.3939, "step": 240 }, { "epoch": 0.03333333333333333, "grad_norm": 3.1220786571502686, "learning_rate": 0.00019597297297297298, "loss": 2.4073, "step": 250 }, { "epoch": 0.034666666666666665, "grad_norm": 2.666619300842285, "learning_rate": 0.0001957027027027027, "loss": 2.4248, "step": 260 }, { "epoch": 0.036, "grad_norm": 2.6100213527679443, "learning_rate": 0.00019543243243243244, "loss": 2.4226, "step": 270 }, { "epoch": 0.037333333333333336, "grad_norm": 2.719904661178589, "learning_rate": 0.00019516216216216217, "loss": 2.3225, "step": 280 }, { "epoch": 0.03866666666666667, "grad_norm": 2.7894270420074463, "learning_rate": 0.0001948918918918919, "loss": 2.4674, "step": 290 }, { "epoch": 0.04, "grad_norm": 2.681861400604248, "learning_rate": 0.00019462162162162163, "loss": 2.3162, "step": 300 }, { "epoch": 0.04133333333333333, "grad_norm": 2.6987245082855225, "learning_rate": 0.00019435135135135136, "loss": 2.3305, "step": 310 }, { "epoch": 0.042666666666666665, "grad_norm": 3.070972442626953, "learning_rate": 0.00019408108108108109, "loss": 2.4287, "step": 320 }, { "epoch": 0.044, "grad_norm": 3.182809591293335, "learning_rate": 0.00019381081081081082, "loss": 2.3388, "step": 330 }, { "epoch": 0.04533333333333334, "grad_norm": 2.537672281265259, "learning_rate": 0.00019354054054054057, "loss": 2.4681, "step": 340 }, { "epoch": 0.04666666666666667, "grad_norm": 3.020998239517212, "learning_rate": 0.00019327027027027027, "loss": 2.2711, "step": 350 }, { "epoch": 0.048, "grad_norm": 2.513453245162964, "learning_rate": 0.000193, "loss": 2.2022, "step": 360 }, { "epoch": 0.04933333333333333, "grad_norm": 2.6128101348876953, "learning_rate": 0.00019272972972972973, "loss": 2.1995, "step": 370 }, { "epoch": 0.050666666666666665, "grad_norm": 2.2417399883270264, "learning_rate": 0.00019245945945945946, "loss": 2.4493, "step": 380 }, { "epoch": 0.052, "grad_norm": 2.059178590774536, "learning_rate": 0.0001921891891891892, "loss": 2.2551, "step": 390 }, { "epoch": 0.05333333333333334, "grad_norm": 2.5995736122131348, "learning_rate": 0.00019191891891891895, "loss": 2.2236, "step": 400 }, { "epoch": 0.05466666666666667, "grad_norm": 2.6002516746520996, "learning_rate": 0.00019164864864864867, "loss": 2.3687, "step": 410 }, { "epoch": 0.056, "grad_norm": 2.8979287147521973, "learning_rate": 0.0001913783783783784, "loss": 2.2049, "step": 420 }, { "epoch": 0.05733333333333333, "grad_norm": 2.6748251914978027, "learning_rate": 0.0001911081081081081, "loss": 2.1391, "step": 430 }, { "epoch": 0.058666666666666666, "grad_norm": 2.5248448848724365, "learning_rate": 0.00019083783783783783, "loss": 2.2802, "step": 440 }, { "epoch": 0.06, "grad_norm": 3.0248875617980957, "learning_rate": 0.00019056756756756756, "loss": 2.3581, "step": 450 }, { "epoch": 0.06133333333333333, "grad_norm": 2.5311789512634277, "learning_rate": 0.0001902972972972973, "loss": 2.2591, "step": 460 }, { "epoch": 0.06266666666666666, "grad_norm": 2.5081493854522705, "learning_rate": 0.00019002702702702705, "loss": 2.1174, "step": 470 }, { "epoch": 0.064, "grad_norm": 2.6198976039886475, "learning_rate": 0.00018975675675675678, "loss": 2.0521, "step": 480 }, { "epoch": 0.06533333333333333, "grad_norm": 2.45538330078125, "learning_rate": 0.0001894864864864865, "loss": 2.2505, "step": 490 }, { "epoch": 0.06666666666666667, "grad_norm": 2.385469675064087, "learning_rate": 0.00018921621621621624, "loss": 2.2058, "step": 500 }, { "epoch": 0.068, "grad_norm": 2.725461483001709, "learning_rate": 0.00018894594594594594, "loss": 2.204, "step": 510 }, { "epoch": 0.06933333333333333, "grad_norm": 2.841071128845215, "learning_rate": 0.00018867567567567567, "loss": 2.2056, "step": 520 }, { "epoch": 0.07066666666666667, "grad_norm": 2.7167351245880127, "learning_rate": 0.00018840540540540542, "loss": 2.3119, "step": 530 }, { "epoch": 0.072, "grad_norm": 2.4602131843566895, "learning_rate": 0.00018813513513513515, "loss": 2.1392, "step": 540 }, { "epoch": 0.07333333333333333, "grad_norm": 2.702946186065674, "learning_rate": 0.00018786486486486488, "loss": 2.134, "step": 550 }, { "epoch": 0.07466666666666667, "grad_norm": 2.299375057220459, "learning_rate": 0.0001875945945945946, "loss": 2.1797, "step": 560 }, { "epoch": 0.076, "grad_norm": 2.5447652339935303, "learning_rate": 0.00018732432432432434, "loss": 2.3235, "step": 570 }, { "epoch": 0.07733333333333334, "grad_norm": 2.616107702255249, "learning_rate": 0.00018705405405405407, "loss": 2.2475, "step": 580 }, { "epoch": 0.07866666666666666, "grad_norm": 3.0087509155273438, "learning_rate": 0.0001867837837837838, "loss": 2.2688, "step": 590 }, { "epoch": 0.08, "grad_norm": 2.919137716293335, "learning_rate": 0.00018651351351351353, "loss": 2.2384, "step": 600 }, { "epoch": 0.08133333333333333, "grad_norm": 2.334582805633545, "learning_rate": 0.00018624324324324325, "loss": 2.1417, "step": 610 }, { "epoch": 0.08266666666666667, "grad_norm": 2.6818926334381104, "learning_rate": 0.00018597297297297298, "loss": 2.2346, "step": 620 }, { "epoch": 0.084, "grad_norm": 3.2101333141326904, "learning_rate": 0.0001857027027027027, "loss": 2.1733, "step": 630 }, { "epoch": 0.08533333333333333, "grad_norm": 2.108243703842163, "learning_rate": 0.00018543243243243244, "loss": 2.2037, "step": 640 }, { "epoch": 0.08666666666666667, "grad_norm": 2.615994691848755, "learning_rate": 0.00018516216216216217, "loss": 2.1014, "step": 650 }, { "epoch": 0.088, "grad_norm": 2.4982452392578125, "learning_rate": 0.0001848918918918919, "loss": 2.1369, "step": 660 }, { "epoch": 0.08933333333333333, "grad_norm": 2.39957332611084, "learning_rate": 0.00018462162162162163, "loss": 2.1687, "step": 670 }, { "epoch": 0.09066666666666667, "grad_norm": 2.402393102645874, "learning_rate": 0.00018435135135135136, "loss": 2.0967, "step": 680 }, { "epoch": 0.092, "grad_norm": 2.9548466205596924, "learning_rate": 0.0001840810810810811, "loss": 2.0859, "step": 690 }, { "epoch": 0.09333333333333334, "grad_norm": 2.752746105194092, "learning_rate": 0.00018381081081081082, "loss": 2.2127, "step": 700 }, { "epoch": 0.09466666666666666, "grad_norm": 2.451632022857666, "learning_rate": 0.00018354054054054054, "loss": 2.1961, "step": 710 }, { "epoch": 0.096, "grad_norm": 2.4328248500823975, "learning_rate": 0.00018327027027027027, "loss": 2.1844, "step": 720 }, { "epoch": 0.09733333333333333, "grad_norm": 2.9737393856048584, "learning_rate": 0.000183, "loss": 2.152, "step": 730 }, { "epoch": 0.09866666666666667, "grad_norm": 2.3271377086639404, "learning_rate": 0.00018272972972972976, "loss": 2.0511, "step": 740 }, { "epoch": 0.1, "grad_norm": 2.575824022293091, "learning_rate": 0.00018245945945945946, "loss": 2.2377, "step": 750 }, { "epoch": 0.10133333333333333, "grad_norm": 2.394209146499634, "learning_rate": 0.0001821891891891892, "loss": 2.1904, "step": 760 }, { "epoch": 0.10266666666666667, "grad_norm": 2.2639620304107666, "learning_rate": 0.00018191891891891892, "loss": 2.2071, "step": 770 }, { "epoch": 0.104, "grad_norm": 2.454848051071167, "learning_rate": 0.00018164864864864865, "loss": 2.1308, "step": 780 }, { "epoch": 0.10533333333333333, "grad_norm": 2.4239871501922607, "learning_rate": 0.00018137837837837838, "loss": 2.3019, "step": 790 }, { "epoch": 0.10666666666666667, "grad_norm": 2.4817445278167725, "learning_rate": 0.00018110810810810813, "loss": 2.128, "step": 800 }, { "epoch": 0.108, "grad_norm": 2.6659679412841797, "learning_rate": 0.00018083783783783786, "loss": 1.9202, "step": 810 }, { "epoch": 0.10933333333333334, "grad_norm": 2.231278419494629, "learning_rate": 0.0001805675675675676, "loss": 2.1227, "step": 820 }, { "epoch": 0.11066666666666666, "grad_norm": 2.6334681510925293, "learning_rate": 0.0001802972972972973, "loss": 2.0482, "step": 830 }, { "epoch": 0.112, "grad_norm": 2.4232165813446045, "learning_rate": 0.00018002702702702702, "loss": 2.0708, "step": 840 }, { "epoch": 0.11333333333333333, "grad_norm": 2.354008674621582, "learning_rate": 0.00017975675675675675, "loss": 2.0493, "step": 850 }, { "epoch": 0.11466666666666667, "grad_norm": 2.582345724105835, "learning_rate": 0.00017948648648648648, "loss": 2.221, "step": 860 }, { "epoch": 0.116, "grad_norm": 2.4354162216186523, "learning_rate": 0.00017921621621621624, "loss": 2.0123, "step": 870 }, { "epoch": 0.11733333333333333, "grad_norm": 3.0853333473205566, "learning_rate": 0.00017894594594594597, "loss": 2.024, "step": 880 }, { "epoch": 0.11866666666666667, "grad_norm": 2.249725818634033, "learning_rate": 0.0001786756756756757, "loss": 2.1998, "step": 890 }, { "epoch": 0.12, "grad_norm": 2.403038740158081, "learning_rate": 0.00017840540540540542, "loss": 2.1166, "step": 900 }, { "epoch": 0.12133333333333333, "grad_norm": 2.416254997253418, "learning_rate": 0.00017813513513513513, "loss": 2.1032, "step": 910 }, { "epoch": 0.12266666666666666, "grad_norm": 2.6445345878601074, "learning_rate": 0.00017786486486486485, "loss": 2.0197, "step": 920 }, { "epoch": 0.124, "grad_norm": 2.84909987449646, "learning_rate": 0.0001775945945945946, "loss": 2.0796, "step": 930 }, { "epoch": 0.12533333333333332, "grad_norm": 2.1707866191864014, "learning_rate": 0.00017732432432432434, "loss": 2.1496, "step": 940 }, { "epoch": 0.12666666666666668, "grad_norm": 2.600884437561035, "learning_rate": 0.00017705405405405407, "loss": 1.9924, "step": 950 }, { "epoch": 0.128, "grad_norm": 2.818328857421875, "learning_rate": 0.0001767837837837838, "loss": 1.9545, "step": 960 }, { "epoch": 0.12933333333333333, "grad_norm": 2.4547555446624756, "learning_rate": 0.00017651351351351353, "loss": 2.089, "step": 970 }, { "epoch": 0.13066666666666665, "grad_norm": 2.362712860107422, "learning_rate": 0.00017624324324324326, "loss": 2.0058, "step": 980 }, { "epoch": 0.132, "grad_norm": 2.355741262435913, "learning_rate": 0.00017597297297297298, "loss": 2.028, "step": 990 }, { "epoch": 0.13333333333333333, "grad_norm": 2.233793258666992, "learning_rate": 0.00017570270270270271, "loss": 2.2153, "step": 1000 }, { "epoch": 0.13466666666666666, "grad_norm": 2.3833236694335938, "learning_rate": 0.00017543243243243244, "loss": 2.0436, "step": 1010 }, { "epoch": 0.136, "grad_norm": 2.710584878921509, "learning_rate": 0.00017516216216216217, "loss": 2.0223, "step": 1020 }, { "epoch": 0.13733333333333334, "grad_norm": 2.614525556564331, "learning_rate": 0.0001748918918918919, "loss": 2.0186, "step": 1030 }, { "epoch": 0.13866666666666666, "grad_norm": 2.5518527030944824, "learning_rate": 0.00017462162162162163, "loss": 2.1302, "step": 1040 }, { "epoch": 0.14, "grad_norm": 2.047034502029419, "learning_rate": 0.00017435135135135136, "loss": 1.9576, "step": 1050 }, { "epoch": 0.14133333333333334, "grad_norm": 2.1909399032592773, "learning_rate": 0.0001740810810810811, "loss": 1.9832, "step": 1060 }, { "epoch": 0.14266666666666666, "grad_norm": 2.759376049041748, "learning_rate": 0.00017381081081081082, "loss": 1.9669, "step": 1070 }, { "epoch": 0.144, "grad_norm": 2.1014363765716553, "learning_rate": 0.00017354054054054055, "loss": 1.9592, "step": 1080 }, { "epoch": 0.14533333333333334, "grad_norm": 2.471461296081543, "learning_rate": 0.00017327027027027027, "loss": 2.0039, "step": 1090 }, { "epoch": 0.14666666666666667, "grad_norm": 2.4198598861694336, "learning_rate": 0.000173, "loss": 2.2345, "step": 1100 }, { "epoch": 0.148, "grad_norm": 2.2740516662597656, "learning_rate": 0.00017272972972972973, "loss": 1.9767, "step": 1110 }, { "epoch": 0.14933333333333335, "grad_norm": 2.3317854404449463, "learning_rate": 0.00017245945945945946, "loss": 1.8423, "step": 1120 }, { "epoch": 0.15066666666666667, "grad_norm": 2.584611177444458, "learning_rate": 0.0001721891891891892, "loss": 2.0966, "step": 1130 }, { "epoch": 0.152, "grad_norm": 2.548743486404419, "learning_rate": 0.00017191891891891895, "loss": 2.1091, "step": 1140 }, { "epoch": 0.15333333333333332, "grad_norm": 2.825737476348877, "learning_rate": 0.00017164864864864865, "loss": 2.0788, "step": 1150 }, { "epoch": 0.15466666666666667, "grad_norm": 2.088826894760132, "learning_rate": 0.00017137837837837838, "loss": 2.1464, "step": 1160 }, { "epoch": 0.156, "grad_norm": 2.2038209438323975, "learning_rate": 0.0001711081081081081, "loss": 2.0624, "step": 1170 }, { "epoch": 0.15733333333333333, "grad_norm": 2.4896717071533203, "learning_rate": 0.00017083783783783784, "loss": 1.967, "step": 1180 }, { "epoch": 0.15866666666666668, "grad_norm": 2.3541336059570312, "learning_rate": 0.00017056756756756757, "loss": 2.0084, "step": 1190 }, { "epoch": 0.16, "grad_norm": 2.453277349472046, "learning_rate": 0.00017029729729729732, "loss": 2.0833, "step": 1200 }, { "epoch": 0.16133333333333333, "grad_norm": 2.260068655014038, "learning_rate": 0.00017002702702702705, "loss": 2.1794, "step": 1210 }, { "epoch": 0.16266666666666665, "grad_norm": 2.3417861461639404, "learning_rate": 0.00016975675675675678, "loss": 2.041, "step": 1220 }, { "epoch": 0.164, "grad_norm": 2.2368979454040527, "learning_rate": 0.00016948648648648648, "loss": 1.948, "step": 1230 }, { "epoch": 0.16533333333333333, "grad_norm": 2.455191135406494, "learning_rate": 0.0001692162162162162, "loss": 2.097, "step": 1240 }, { "epoch": 0.16666666666666666, "grad_norm": 2.4021196365356445, "learning_rate": 0.00016894594594594594, "loss": 2.2503, "step": 1250 }, { "epoch": 0.168, "grad_norm": 2.4756224155426025, "learning_rate": 0.0001686756756756757, "loss": 2.1246, "step": 1260 }, { "epoch": 0.16933333333333334, "grad_norm": 2.039151668548584, "learning_rate": 0.00016840540540540542, "loss": 2.0853, "step": 1270 }, { "epoch": 0.17066666666666666, "grad_norm": 2.3654773235321045, "learning_rate": 0.00016813513513513515, "loss": 1.8093, "step": 1280 }, { "epoch": 0.172, "grad_norm": 2.2299022674560547, "learning_rate": 0.00016786486486486488, "loss": 2.1571, "step": 1290 }, { "epoch": 0.17333333333333334, "grad_norm": 2.2870802879333496, "learning_rate": 0.0001675945945945946, "loss": 2.0854, "step": 1300 }, { "epoch": 0.17466666666666666, "grad_norm": 2.5499372482299805, "learning_rate": 0.0001673243243243243, "loss": 1.9018, "step": 1310 }, { "epoch": 0.176, "grad_norm": 2.303187608718872, "learning_rate": 0.00016705405405405404, "loss": 1.8708, "step": 1320 }, { "epoch": 0.17733333333333334, "grad_norm": 2.691697359085083, "learning_rate": 0.0001667837837837838, "loss": 2.0391, "step": 1330 }, { "epoch": 0.17866666666666667, "grad_norm": 2.1159846782684326, "learning_rate": 0.00016651351351351353, "loss": 2.0662, "step": 1340 }, { "epoch": 0.18, "grad_norm": 2.203563928604126, "learning_rate": 0.00016624324324324326, "loss": 2.1151, "step": 1350 }, { "epoch": 0.18133333333333335, "grad_norm": 2.6186702251434326, "learning_rate": 0.00016597297297297299, "loss": 2.0718, "step": 1360 }, { "epoch": 0.18266666666666667, "grad_norm": 2.2199795246124268, "learning_rate": 0.00016570270270270271, "loss": 2.0022, "step": 1370 }, { "epoch": 0.184, "grad_norm": 2.2812774181365967, "learning_rate": 0.00016543243243243244, "loss": 2.0641, "step": 1380 }, { "epoch": 0.18533333333333332, "grad_norm": 2.3244810104370117, "learning_rate": 0.00016516216216216217, "loss": 1.9985, "step": 1390 }, { "epoch": 0.18666666666666668, "grad_norm": 2.5323832035064697, "learning_rate": 0.0001648918918918919, "loss": 2.1556, "step": 1400 }, { "epoch": 0.188, "grad_norm": 2.3235483169555664, "learning_rate": 0.00016462162162162163, "loss": 2.0925, "step": 1410 }, { "epoch": 0.18933333333333333, "grad_norm": 2.1113898754119873, "learning_rate": 0.00016435135135135136, "loss": 1.9516, "step": 1420 }, { "epoch": 0.19066666666666668, "grad_norm": 2.413828134536743, "learning_rate": 0.0001640810810810811, "loss": 1.967, "step": 1430 }, { "epoch": 0.192, "grad_norm": 2.5828988552093506, "learning_rate": 0.00016381081081081082, "loss": 1.9044, "step": 1440 }, { "epoch": 0.19333333333333333, "grad_norm": 2.4083187580108643, "learning_rate": 0.00016354054054054055, "loss": 2.0735, "step": 1450 }, { "epoch": 0.19466666666666665, "grad_norm": 2.087176561355591, "learning_rate": 0.00016327027027027028, "loss": 2.1443, "step": 1460 }, { "epoch": 0.196, "grad_norm": 2.379067897796631, "learning_rate": 0.000163, "loss": 1.9315, "step": 1470 }, { "epoch": 0.19733333333333333, "grad_norm": 2.18395733833313, "learning_rate": 0.00016272972972972973, "loss": 1.9611, "step": 1480 }, { "epoch": 0.19866666666666666, "grad_norm": 2.779679298400879, "learning_rate": 0.00016245945945945946, "loss": 1.9477, "step": 1490 }, { "epoch": 0.2, "grad_norm": 2.5839364528656006, "learning_rate": 0.0001621891891891892, "loss": 2.0883, "step": 1500 }, { "epoch": 0.20133333333333334, "grad_norm": 2.2403440475463867, "learning_rate": 0.00016191891891891892, "loss": 1.9674, "step": 1510 }, { "epoch": 0.20266666666666666, "grad_norm": 2.212310552597046, "learning_rate": 0.00016164864864864865, "loss": 1.9615, "step": 1520 }, { "epoch": 0.204, "grad_norm": 2.061232089996338, "learning_rate": 0.00016137837837837838, "loss": 1.8414, "step": 1530 }, { "epoch": 0.20533333333333334, "grad_norm": 2.308788299560547, "learning_rate": 0.00016110810810810813, "loss": 2.1248, "step": 1540 }, { "epoch": 0.20666666666666667, "grad_norm": 2.8568644523620605, "learning_rate": 0.00016083783783783784, "loss": 2.0214, "step": 1550 }, { "epoch": 0.208, "grad_norm": 2.2601778507232666, "learning_rate": 0.00016056756756756757, "loss": 2.0157, "step": 1560 }, { "epoch": 0.20933333333333334, "grad_norm": 2.2495760917663574, "learning_rate": 0.0001602972972972973, "loss": 1.8412, "step": 1570 }, { "epoch": 0.21066666666666667, "grad_norm": 2.428441047668457, "learning_rate": 0.00016002702702702702, "loss": 1.9386, "step": 1580 }, { "epoch": 0.212, "grad_norm": 2.09167742729187, "learning_rate": 0.00015975675675675675, "loss": 1.973, "step": 1590 }, { "epoch": 0.21333333333333335, "grad_norm": 2.3817343711853027, "learning_rate": 0.0001594864864864865, "loss": 1.8546, "step": 1600 }, { "epoch": 0.21466666666666667, "grad_norm": 2.8860208988189697, "learning_rate": 0.00015921621621621624, "loss": 2.012, "step": 1610 }, { "epoch": 0.216, "grad_norm": 2.051791191101074, "learning_rate": 0.00015894594594594597, "loss": 2.0164, "step": 1620 }, { "epoch": 0.21733333333333332, "grad_norm": 2.287928819656372, "learning_rate": 0.00015867567567567567, "loss": 2.0204, "step": 1630 }, { "epoch": 0.21866666666666668, "grad_norm": 2.236645221710205, "learning_rate": 0.0001584054054054054, "loss": 1.9511, "step": 1640 }, { "epoch": 0.22, "grad_norm": 2.5095677375793457, "learning_rate": 0.00015813513513513513, "loss": 1.8854, "step": 1650 }, { "epoch": 0.22133333333333333, "grad_norm": 2.1247832775115967, "learning_rate": 0.00015786486486486488, "loss": 1.9322, "step": 1660 }, { "epoch": 0.22266666666666668, "grad_norm": 2.481032371520996, "learning_rate": 0.0001575945945945946, "loss": 2.0147, "step": 1670 }, { "epoch": 0.224, "grad_norm": 2.2294256687164307, "learning_rate": 0.00015732432432432434, "loss": 1.9696, "step": 1680 }, { "epoch": 0.22533333333333333, "grad_norm": 2.1882622241973877, "learning_rate": 0.00015705405405405407, "loss": 1.9985, "step": 1690 }, { "epoch": 0.22666666666666666, "grad_norm": 2.462214946746826, "learning_rate": 0.0001567837837837838, "loss": 1.9962, "step": 1700 }, { "epoch": 0.228, "grad_norm": 2.432840585708618, "learning_rate": 0.0001565135135135135, "loss": 1.9907, "step": 1710 }, { "epoch": 0.22933333333333333, "grad_norm": 2.3330256938934326, "learning_rate": 0.00015624324324324323, "loss": 2.0143, "step": 1720 }, { "epoch": 0.23066666666666666, "grad_norm": 2.855696439743042, "learning_rate": 0.00015597297297297299, "loss": 1.9473, "step": 1730 }, { "epoch": 0.232, "grad_norm": 2.1184675693511963, "learning_rate": 0.00015570270270270272, "loss": 1.753, "step": 1740 }, { "epoch": 0.23333333333333334, "grad_norm": 2.4657397270202637, "learning_rate": 0.00015543243243243244, "loss": 2.0217, "step": 1750 }, { "epoch": 0.23466666666666666, "grad_norm": 2.0865886211395264, "learning_rate": 0.00015516216216216217, "loss": 1.8535, "step": 1760 }, { "epoch": 0.236, "grad_norm": 2.6373355388641357, "learning_rate": 0.0001548918918918919, "loss": 2.0945, "step": 1770 }, { "epoch": 0.23733333333333334, "grad_norm": 2.4117348194122314, "learning_rate": 0.00015462162162162163, "loss": 1.8543, "step": 1780 }, { "epoch": 0.23866666666666667, "grad_norm": 2.3577213287353516, "learning_rate": 0.00015435135135135136, "loss": 1.7954, "step": 1790 }, { "epoch": 0.24, "grad_norm": 2.1598386764526367, "learning_rate": 0.0001540810810810811, "loss": 1.7916, "step": 1800 }, { "epoch": 0.24133333333333334, "grad_norm": 2.6178441047668457, "learning_rate": 0.00015381081081081082, "loss": 1.9397, "step": 1810 }, { "epoch": 0.24266666666666667, "grad_norm": 2.4125001430511475, "learning_rate": 0.00015354054054054055, "loss": 1.9107, "step": 1820 }, { "epoch": 0.244, "grad_norm": 2.800724744796753, "learning_rate": 0.00015327027027027028, "loss": 2.0856, "step": 1830 }, { "epoch": 0.24533333333333332, "grad_norm": 2.2823989391326904, "learning_rate": 0.000153, "loss": 2.0139, "step": 1840 }, { "epoch": 0.24666666666666667, "grad_norm": 2.6119205951690674, "learning_rate": 0.00015272972972972973, "loss": 1.9756, "step": 1850 }, { "epoch": 0.248, "grad_norm": 2.471101999282837, "learning_rate": 0.00015245945945945946, "loss": 2.0031, "step": 1860 }, { "epoch": 0.24933333333333332, "grad_norm": 3.342244863510132, "learning_rate": 0.00015218918918918922, "loss": 1.961, "step": 1870 }, { "epoch": 0.25066666666666665, "grad_norm": 2.2568140029907227, "learning_rate": 0.00015191891891891892, "loss": 1.8824, "step": 1880 }, { "epoch": 0.252, "grad_norm": 2.2656123638153076, "learning_rate": 0.00015164864864864865, "loss": 1.9523, "step": 1890 }, { "epoch": 0.25333333333333335, "grad_norm": 2.502617120742798, "learning_rate": 0.00015137837837837838, "loss": 1.9268, "step": 1900 }, { "epoch": 0.25466666666666665, "grad_norm": 1.9510729312896729, "learning_rate": 0.0001511081081081081, "loss": 2.0174, "step": 1910 }, { "epoch": 0.256, "grad_norm": 2.3908302783966064, "learning_rate": 0.00015083783783783784, "loss": 1.9687, "step": 1920 }, { "epoch": 0.25733333333333336, "grad_norm": 2.6163437366485596, "learning_rate": 0.00015056756756756757, "loss": 1.9372, "step": 1930 }, { "epoch": 0.25866666666666666, "grad_norm": 2.542884349822998, "learning_rate": 0.00015029729729729732, "loss": 1.8967, "step": 1940 }, { "epoch": 0.26, "grad_norm": 2.367628812789917, "learning_rate": 0.00015002702702702705, "loss": 2.0635, "step": 1950 }, { "epoch": 0.2613333333333333, "grad_norm": 2.3614468574523926, "learning_rate": 0.00014975675675675675, "loss": 1.8329, "step": 1960 }, { "epoch": 0.26266666666666666, "grad_norm": 2.4361073970794678, "learning_rate": 0.00014948648648648648, "loss": 1.883, "step": 1970 }, { "epoch": 0.264, "grad_norm": 2.4619548320770264, "learning_rate": 0.0001492162162162162, "loss": 1.8639, "step": 1980 }, { "epoch": 0.2653333333333333, "grad_norm": 2.17228364944458, "learning_rate": 0.00014894594594594594, "loss": 1.9439, "step": 1990 }, { "epoch": 0.26666666666666666, "grad_norm": 2.700016975402832, "learning_rate": 0.0001486756756756757, "loss": 1.8936, "step": 2000 }, { "epoch": 0.268, "grad_norm": 2.6100916862487793, "learning_rate": 0.00014840540540540543, "loss": 1.8344, "step": 2010 }, { "epoch": 0.2693333333333333, "grad_norm": 2.815261125564575, "learning_rate": 0.00014813513513513516, "loss": 1.9495, "step": 2020 }, { "epoch": 0.27066666666666667, "grad_norm": 2.138500452041626, "learning_rate": 0.00014786486486486488, "loss": 1.8193, "step": 2030 }, { "epoch": 0.272, "grad_norm": 2.1488797664642334, "learning_rate": 0.00014759459459459459, "loss": 1.9433, "step": 2040 }, { "epoch": 0.2733333333333333, "grad_norm": 2.1589486598968506, "learning_rate": 0.00014732432432432432, "loss": 1.6762, "step": 2050 }, { "epoch": 0.27466666666666667, "grad_norm": 2.2638726234436035, "learning_rate": 0.00014705405405405407, "loss": 1.9194, "step": 2060 }, { "epoch": 0.276, "grad_norm": 2.4697513580322266, "learning_rate": 0.0001467837837837838, "loss": 1.8012, "step": 2070 }, { "epoch": 0.2773333333333333, "grad_norm": 2.354917287826538, "learning_rate": 0.00014651351351351353, "loss": 1.9185, "step": 2080 }, { "epoch": 0.2786666666666667, "grad_norm": 2.6465835571289062, "learning_rate": 0.00014624324324324326, "loss": 1.8993, "step": 2090 }, { "epoch": 0.28, "grad_norm": 2.190953493118286, "learning_rate": 0.000145972972972973, "loss": 1.8787, "step": 2100 }, { "epoch": 0.2813333333333333, "grad_norm": 1.9679425954818726, "learning_rate": 0.00014570270270270272, "loss": 1.9927, "step": 2110 }, { "epoch": 0.2826666666666667, "grad_norm": 2.415135622024536, "learning_rate": 0.00014543243243243242, "loss": 1.9229, "step": 2120 }, { "epoch": 0.284, "grad_norm": 2.4086499214172363, "learning_rate": 0.00014516216216216217, "loss": 2.0727, "step": 2130 }, { "epoch": 0.2853333333333333, "grad_norm": 2.392893075942993, "learning_rate": 0.0001448918918918919, "loss": 1.7448, "step": 2140 }, { "epoch": 0.2866666666666667, "grad_norm": 2.770169258117676, "learning_rate": 0.00014462162162162163, "loss": 1.9505, "step": 2150 }, { "epoch": 0.288, "grad_norm": 2.311103582382202, "learning_rate": 0.00014435135135135136, "loss": 1.6804, "step": 2160 }, { "epoch": 0.28933333333333333, "grad_norm": 2.165285587310791, "learning_rate": 0.0001440810810810811, "loss": 1.9187, "step": 2170 }, { "epoch": 0.2906666666666667, "grad_norm": 2.094935178756714, "learning_rate": 0.00014381081081081082, "loss": 1.8903, "step": 2180 }, { "epoch": 0.292, "grad_norm": 2.519655466079712, "learning_rate": 0.00014354054054054055, "loss": 1.8652, "step": 2190 }, { "epoch": 0.29333333333333333, "grad_norm": 2.7851929664611816, "learning_rate": 0.00014327027027027028, "loss": 1.967, "step": 2200 }, { "epoch": 0.2946666666666667, "grad_norm": 2.0721092224121094, "learning_rate": 0.000143, "loss": 1.781, "step": 2210 }, { "epoch": 0.296, "grad_norm": 2.5341694355010986, "learning_rate": 0.00014272972972972974, "loss": 1.8954, "step": 2220 }, { "epoch": 0.29733333333333334, "grad_norm": 2.5309038162231445, "learning_rate": 0.00014245945945945946, "loss": 1.7745, "step": 2230 }, { "epoch": 0.2986666666666667, "grad_norm": 2.662684440612793, "learning_rate": 0.0001421891891891892, "loss": 1.9238, "step": 2240 }, { "epoch": 0.3, "grad_norm": 2.6758480072021484, "learning_rate": 0.00014191891891891892, "loss": 1.9235, "step": 2250 }, { "epoch": 0.30133333333333334, "grad_norm": 2.1309969425201416, "learning_rate": 0.00014164864864864865, "loss": 1.8598, "step": 2260 }, { "epoch": 0.30266666666666664, "grad_norm": 2.1839652061462402, "learning_rate": 0.0001413783783783784, "loss": 1.9754, "step": 2270 }, { "epoch": 0.304, "grad_norm": 2.4292712211608887, "learning_rate": 0.0001411081081081081, "loss": 1.8616, "step": 2280 }, { "epoch": 0.30533333333333335, "grad_norm": 2.4542698860168457, "learning_rate": 0.00014083783783783784, "loss": 1.8174, "step": 2290 }, { "epoch": 0.30666666666666664, "grad_norm": 2.242682456970215, "learning_rate": 0.00014056756756756757, "loss": 1.9928, "step": 2300 }, { "epoch": 0.308, "grad_norm": 2.100231885910034, "learning_rate": 0.0001402972972972973, "loss": 1.7233, "step": 2310 }, { "epoch": 0.30933333333333335, "grad_norm": 2.2382125854492188, "learning_rate": 0.00014002702702702703, "loss": 1.7495, "step": 2320 }, { "epoch": 0.31066666666666665, "grad_norm": 2.4526655673980713, "learning_rate": 0.00013975675675675675, "loss": 1.8347, "step": 2330 }, { "epoch": 0.312, "grad_norm": 2.5950348377227783, "learning_rate": 0.0001394864864864865, "loss": 2.0072, "step": 2340 }, { "epoch": 0.31333333333333335, "grad_norm": 2.5388689041137695, "learning_rate": 0.00013921621621621624, "loss": 1.797, "step": 2350 }, { "epoch": 0.31466666666666665, "grad_norm": 2.236910343170166, "learning_rate": 0.00013894594594594594, "loss": 1.9876, "step": 2360 }, { "epoch": 0.316, "grad_norm": 2.8742430210113525, "learning_rate": 0.00013867567567567567, "loss": 1.8521, "step": 2370 }, { "epoch": 0.31733333333333336, "grad_norm": 2.561190605163574, "learning_rate": 0.0001384054054054054, "loss": 2.0232, "step": 2380 }, { "epoch": 0.31866666666666665, "grad_norm": 2.38421893119812, "learning_rate": 0.00013813513513513513, "loss": 1.961, "step": 2390 }, { "epoch": 0.32, "grad_norm": 2.2902133464813232, "learning_rate": 0.00013786486486486488, "loss": 1.9902, "step": 2400 }, { "epoch": 0.32133333333333336, "grad_norm": 2.5904157161712646, "learning_rate": 0.00013759459459459461, "loss": 1.781, "step": 2410 }, { "epoch": 0.32266666666666666, "grad_norm": 2.5587573051452637, "learning_rate": 0.00013732432432432434, "loss": 1.9068, "step": 2420 }, { "epoch": 0.324, "grad_norm": 2.613391399383545, "learning_rate": 0.00013705405405405407, "loss": 2.0022, "step": 2430 }, { "epoch": 0.3253333333333333, "grad_norm": 2.584764003753662, "learning_rate": 0.00013678378378378377, "loss": 1.8805, "step": 2440 }, { "epoch": 0.32666666666666666, "grad_norm": 2.3512659072875977, "learning_rate": 0.0001365135135135135, "loss": 1.9629, "step": 2450 }, { "epoch": 0.328, "grad_norm": 2.413891315460205, "learning_rate": 0.00013624324324324326, "loss": 1.8533, "step": 2460 }, { "epoch": 0.3293333333333333, "grad_norm": 2.387099504470825, "learning_rate": 0.000135972972972973, "loss": 1.8711, "step": 2470 }, { "epoch": 0.33066666666666666, "grad_norm": 2.6385467052459717, "learning_rate": 0.00013570270270270272, "loss": 1.9717, "step": 2480 }, { "epoch": 0.332, "grad_norm": 2.960862874984741, "learning_rate": 0.00013543243243243245, "loss": 1.8296, "step": 2490 }, { "epoch": 0.3333333333333333, "grad_norm": 2.1800155639648438, "learning_rate": 0.00013516216216216218, "loss": 1.9322, "step": 2500 }, { "epoch": 0.33466666666666667, "grad_norm": 2.5185933113098145, "learning_rate": 0.0001348918918918919, "loss": 1.8675, "step": 2510 }, { "epoch": 0.336, "grad_norm": 2.2519352436065674, "learning_rate": 0.0001346216216216216, "loss": 1.7972, "step": 2520 }, { "epoch": 0.3373333333333333, "grad_norm": 2.6340436935424805, "learning_rate": 0.00013435135135135136, "loss": 1.9534, "step": 2530 }, { "epoch": 0.33866666666666667, "grad_norm": 2.165707588195801, "learning_rate": 0.0001340810810810811, "loss": 1.7994, "step": 2540 }, { "epoch": 0.34, "grad_norm": 2.348612070083618, "learning_rate": 0.00013381081081081082, "loss": 1.9858, "step": 2550 }, { "epoch": 0.3413333333333333, "grad_norm": 2.3681528568267822, "learning_rate": 0.00013354054054054055, "loss": 1.7415, "step": 2560 }, { "epoch": 0.3426666666666667, "grad_norm": 2.5608510971069336, "learning_rate": 0.00013327027027027028, "loss": 1.8823, "step": 2570 }, { "epoch": 0.344, "grad_norm": 2.6806623935699463, "learning_rate": 0.000133, "loss": 1.8476, "step": 2580 }, { "epoch": 0.3453333333333333, "grad_norm": 2.831604242324829, "learning_rate": 0.00013272972972972974, "loss": 1.9141, "step": 2590 }, { "epoch": 0.3466666666666667, "grad_norm": 1.9012176990509033, "learning_rate": 0.00013245945945945947, "loss": 1.8499, "step": 2600 }, { "epoch": 0.348, "grad_norm": 2.3375415802001953, "learning_rate": 0.0001321891891891892, "loss": 1.7699, "step": 2610 }, { "epoch": 0.34933333333333333, "grad_norm": 2.512385368347168, "learning_rate": 0.00013191891891891892, "loss": 1.8884, "step": 2620 }, { "epoch": 0.3506666666666667, "grad_norm": 2.3544890880584717, "learning_rate": 0.00013164864864864865, "loss": 1.9272, "step": 2630 }, { "epoch": 0.352, "grad_norm": 2.4715840816497803, "learning_rate": 0.00013137837837837838, "loss": 1.7804, "step": 2640 }, { "epoch": 0.35333333333333333, "grad_norm": 2.5176870822906494, "learning_rate": 0.0001311081081081081, "loss": 1.9021, "step": 2650 }, { "epoch": 0.3546666666666667, "grad_norm": 2.504687786102295, "learning_rate": 0.00013083783783783784, "loss": 1.8654, "step": 2660 }, { "epoch": 0.356, "grad_norm": 2.0953216552734375, "learning_rate": 0.0001305675675675676, "loss": 2.0281, "step": 2670 }, { "epoch": 0.35733333333333334, "grad_norm": 2.504034996032715, "learning_rate": 0.0001302972972972973, "loss": 1.8217, "step": 2680 }, { "epoch": 0.3586666666666667, "grad_norm": 2.6822965145111084, "learning_rate": 0.00013002702702702703, "loss": 1.8937, "step": 2690 }, { "epoch": 0.36, "grad_norm": 2.371816396713257, "learning_rate": 0.00012975675675675676, "loss": 2.0069, "step": 2700 }, { "epoch": 0.36133333333333334, "grad_norm": 2.483445167541504, "learning_rate": 0.00012948648648648648, "loss": 1.8049, "step": 2710 }, { "epoch": 0.3626666666666667, "grad_norm": 2.2719194889068604, "learning_rate": 0.00012921621621621621, "loss": 1.8349, "step": 2720 }, { "epoch": 0.364, "grad_norm": 3.004281759262085, "learning_rate": 0.00012894594594594597, "loss": 1.9028, "step": 2730 }, { "epoch": 0.36533333333333334, "grad_norm": 2.079331636428833, "learning_rate": 0.0001286756756756757, "loss": 1.9015, "step": 2740 }, { "epoch": 0.36666666666666664, "grad_norm": 2.302001953125, "learning_rate": 0.00012840540540540543, "loss": 1.7912, "step": 2750 }, { "epoch": 0.368, "grad_norm": 2.505072593688965, "learning_rate": 0.00012813513513513513, "loss": 1.7402, "step": 2760 }, { "epoch": 0.36933333333333335, "grad_norm": 2.2121100425720215, "learning_rate": 0.00012786486486486486, "loss": 1.8438, "step": 2770 }, { "epoch": 0.37066666666666664, "grad_norm": 2.7014358043670654, "learning_rate": 0.0001275945945945946, "loss": 1.8281, "step": 2780 }, { "epoch": 0.372, "grad_norm": 2.3546624183654785, "learning_rate": 0.00012732432432432432, "loss": 1.7845, "step": 2790 }, { "epoch": 0.37333333333333335, "grad_norm": 2.6270368099212646, "learning_rate": 0.00012705405405405407, "loss": 1.7712, "step": 2800 }, { "epoch": 0.37466666666666665, "grad_norm": 2.2024219036102295, "learning_rate": 0.0001267837837837838, "loss": 1.8937, "step": 2810 }, { "epoch": 0.376, "grad_norm": 2.725980281829834, "learning_rate": 0.00012651351351351353, "loss": 1.8, "step": 2820 }, { "epoch": 0.37733333333333335, "grad_norm": 2.736056327819824, "learning_rate": 0.00012624324324324326, "loss": 1.7882, "step": 2830 }, { "epoch": 0.37866666666666665, "grad_norm": 2.295846939086914, "learning_rate": 0.00012597297297297296, "loss": 1.8812, "step": 2840 }, { "epoch": 0.38, "grad_norm": 2.3466341495513916, "learning_rate": 0.0001257027027027027, "loss": 1.8526, "step": 2850 }, { "epoch": 0.38133333333333336, "grad_norm": 2.5064749717712402, "learning_rate": 0.00012543243243243245, "loss": 1.8277, "step": 2860 }, { "epoch": 0.38266666666666665, "grad_norm": 2.057648181915283, "learning_rate": 0.00012516216216216218, "loss": 1.8434, "step": 2870 }, { "epoch": 0.384, "grad_norm": 2.188091516494751, "learning_rate": 0.0001248918918918919, "loss": 1.7555, "step": 2880 }, { "epoch": 0.38533333333333336, "grad_norm": 2.241875410079956, "learning_rate": 0.00012462162162162163, "loss": 1.7676, "step": 2890 }, { "epoch": 0.38666666666666666, "grad_norm": 2.3929405212402344, "learning_rate": 0.00012435135135135136, "loss": 1.8402, "step": 2900 }, { "epoch": 0.388, "grad_norm": 2.52616024017334, "learning_rate": 0.0001240810810810811, "loss": 1.7849, "step": 2910 }, { "epoch": 0.3893333333333333, "grad_norm": 2.8403215408325195, "learning_rate": 0.0001238108108108108, "loss": 1.9443, "step": 2920 }, { "epoch": 0.39066666666666666, "grad_norm": 2.620992422103882, "learning_rate": 0.00012354054054054055, "loss": 1.8759, "step": 2930 }, { "epoch": 0.392, "grad_norm": 2.383084535598755, "learning_rate": 0.00012327027027027028, "loss": 1.7983, "step": 2940 }, { "epoch": 0.3933333333333333, "grad_norm": 2.5578014850616455, "learning_rate": 0.000123, "loss": 1.81, "step": 2950 }, { "epoch": 0.39466666666666667, "grad_norm": 2.495368003845215, "learning_rate": 0.00012272972972972974, "loss": 1.7728, "step": 2960 }, { "epoch": 0.396, "grad_norm": 2.232659101486206, "learning_rate": 0.00012245945945945947, "loss": 1.8377, "step": 2970 }, { "epoch": 0.3973333333333333, "grad_norm": 2.6198713779449463, "learning_rate": 0.0001221891891891892, "loss": 1.9587, "step": 2980 }, { "epoch": 0.39866666666666667, "grad_norm": 2.1526083946228027, "learning_rate": 0.00012191891891891894, "loss": 1.809, "step": 2990 }, { "epoch": 0.4, "grad_norm": 2.3453357219696045, "learning_rate": 0.00012164864864864864, "loss": 1.9066, "step": 3000 }, { "epoch": 0.4013333333333333, "grad_norm": 2.4124536514282227, "learning_rate": 0.00012137837837837838, "loss": 1.8622, "step": 3010 }, { "epoch": 0.4026666666666667, "grad_norm": 2.6172194480895996, "learning_rate": 0.00012110810810810811, "loss": 1.8597, "step": 3020 }, { "epoch": 0.404, "grad_norm": 2.4721031188964844, "learning_rate": 0.00012083783783783784, "loss": 1.8155, "step": 3030 }, { "epoch": 0.4053333333333333, "grad_norm": 2.181688070297241, "learning_rate": 0.00012056756756756757, "loss": 1.7773, "step": 3040 }, { "epoch": 0.4066666666666667, "grad_norm": 2.3668036460876465, "learning_rate": 0.00012029729729729731, "loss": 1.8723, "step": 3050 }, { "epoch": 0.408, "grad_norm": 2.3490967750549316, "learning_rate": 0.00012002702702702704, "loss": 1.9486, "step": 3060 }, { "epoch": 0.4093333333333333, "grad_norm": 2.873337984085083, "learning_rate": 0.00011975675675675677, "loss": 1.6982, "step": 3070 }, { "epoch": 0.4106666666666667, "grad_norm": 2.973256826400757, "learning_rate": 0.00011948648648648649, "loss": 1.8668, "step": 3080 }, { "epoch": 0.412, "grad_norm": 2.4113101959228516, "learning_rate": 0.00011921621621621621, "loss": 1.8744, "step": 3090 }, { "epoch": 0.41333333333333333, "grad_norm": 2.451672077178955, "learning_rate": 0.00011894594594594594, "loss": 1.8917, "step": 3100 }, { "epoch": 0.4146666666666667, "grad_norm": 2.1510443687438965, "learning_rate": 0.00011867567567567569, "loss": 1.867, "step": 3110 }, { "epoch": 0.416, "grad_norm": 2.453091621398926, "learning_rate": 0.00011840540540540542, "loss": 1.8437, "step": 3120 }, { "epoch": 0.41733333333333333, "grad_norm": 2.2953782081604004, "learning_rate": 0.00011813513513513514, "loss": 1.8312, "step": 3130 }, { "epoch": 0.4186666666666667, "grad_norm": 2.1897218227386475, "learning_rate": 0.00011786486486486487, "loss": 1.7924, "step": 3140 }, { "epoch": 0.42, "grad_norm": 2.358774185180664, "learning_rate": 0.00011759459459459462, "loss": 1.8807, "step": 3150 }, { "epoch": 0.42133333333333334, "grad_norm": 2.3652596473693848, "learning_rate": 0.00011732432432432432, "loss": 1.7519, "step": 3160 }, { "epoch": 0.4226666666666667, "grad_norm": 2.2734439373016357, "learning_rate": 0.00011705405405405405, "loss": 1.9866, "step": 3170 }, { "epoch": 0.424, "grad_norm": 2.14550518989563, "learning_rate": 0.00011678378378378379, "loss": 1.7491, "step": 3180 }, { "epoch": 0.42533333333333334, "grad_norm": 2.2799768447875977, "learning_rate": 0.00011651351351351352, "loss": 1.8064, "step": 3190 }, { "epoch": 0.4266666666666667, "grad_norm": 2.2822225093841553, "learning_rate": 0.00011624324324324325, "loss": 1.8875, "step": 3200 }, { "epoch": 0.428, "grad_norm": 2.3406484127044678, "learning_rate": 0.00011597297297297298, "loss": 1.7164, "step": 3210 }, { "epoch": 0.42933333333333334, "grad_norm": 2.42501163482666, "learning_rate": 0.00011570270270270272, "loss": 1.6375, "step": 3220 }, { "epoch": 0.43066666666666664, "grad_norm": 2.5525708198547363, "learning_rate": 0.00011543243243243245, "loss": 1.8152, "step": 3230 }, { "epoch": 0.432, "grad_norm": 2.5526885986328125, "learning_rate": 0.00011516216216216216, "loss": 1.8527, "step": 3240 }, { "epoch": 0.43333333333333335, "grad_norm": 2.4633045196533203, "learning_rate": 0.00011489189189189189, "loss": 1.9891, "step": 3250 }, { "epoch": 0.43466666666666665, "grad_norm": 2.543779134750366, "learning_rate": 0.00011462162162162162, "loss": 1.657, "step": 3260 }, { "epoch": 0.436, "grad_norm": 2.3144562244415283, "learning_rate": 0.00011435135135135135, "loss": 1.7782, "step": 3270 }, { "epoch": 0.43733333333333335, "grad_norm": 2.4620347023010254, "learning_rate": 0.00011408108108108109, "loss": 1.671, "step": 3280 }, { "epoch": 0.43866666666666665, "grad_norm": 2.1379547119140625, "learning_rate": 0.00011381081081081082, "loss": 1.7785, "step": 3290 }, { "epoch": 0.44, "grad_norm": 2.7815945148468018, "learning_rate": 0.00011354054054054055, "loss": 1.8815, "step": 3300 }, { "epoch": 0.44133333333333336, "grad_norm": 2.363492012023926, "learning_rate": 0.00011327027027027028, "loss": 1.7913, "step": 3310 }, { "epoch": 0.44266666666666665, "grad_norm": 2.4313836097717285, "learning_rate": 0.000113, "loss": 1.6717, "step": 3320 }, { "epoch": 0.444, "grad_norm": 2.3215606212615967, "learning_rate": 0.00011272972972972972, "loss": 1.7141, "step": 3330 }, { "epoch": 0.44533333333333336, "grad_norm": 2.645784854888916, "learning_rate": 0.00011245945945945945, "loss": 1.7668, "step": 3340 }, { "epoch": 0.44666666666666666, "grad_norm": 2.1791491508483887, "learning_rate": 0.0001121891891891892, "loss": 1.6896, "step": 3350 }, { "epoch": 0.448, "grad_norm": 2.405156135559082, "learning_rate": 0.00011191891891891893, "loss": 1.7193, "step": 3360 }, { "epoch": 0.4493333333333333, "grad_norm": 2.422961473464966, "learning_rate": 0.00011164864864864865, "loss": 1.7974, "step": 3370 }, { "epoch": 0.45066666666666666, "grad_norm": 2.448552370071411, "learning_rate": 0.00011137837837837838, "loss": 1.7334, "step": 3380 }, { "epoch": 0.452, "grad_norm": 2.373347520828247, "learning_rate": 0.00011110810810810813, "loss": 1.8613, "step": 3390 }, { "epoch": 0.4533333333333333, "grad_norm": 2.2626328468322754, "learning_rate": 0.00011083783783783783, "loss": 1.9542, "step": 3400 }, { "epoch": 0.45466666666666666, "grad_norm": 2.335479497909546, "learning_rate": 0.00011056756756756757, "loss": 1.7644, "step": 3410 }, { "epoch": 0.456, "grad_norm": 2.395338773727417, "learning_rate": 0.0001102972972972973, "loss": 1.8408, "step": 3420 }, { "epoch": 0.4573333333333333, "grad_norm": 2.3638622760772705, "learning_rate": 0.00011002702702702703, "loss": 1.7154, "step": 3430 }, { "epoch": 0.45866666666666667, "grad_norm": 2.7765445709228516, "learning_rate": 0.00010975675675675676, "loss": 1.9639, "step": 3440 }, { "epoch": 0.46, "grad_norm": 2.2215042114257812, "learning_rate": 0.0001094864864864865, "loss": 1.6793, "step": 3450 }, { "epoch": 0.4613333333333333, "grad_norm": 2.3340561389923096, "learning_rate": 0.00010921621621621623, "loss": 1.8801, "step": 3460 }, { "epoch": 0.46266666666666667, "grad_norm": 2.5933775901794434, "learning_rate": 0.00010894594594594596, "loss": 1.7788, "step": 3470 }, { "epoch": 0.464, "grad_norm": 2.8188467025756836, "learning_rate": 0.00010867567567567567, "loss": 1.7195, "step": 3480 }, { "epoch": 0.4653333333333333, "grad_norm": 2.4774179458618164, "learning_rate": 0.0001084054054054054, "loss": 1.8218, "step": 3490 }, { "epoch": 0.4666666666666667, "grad_norm": 2.1092641353607178, "learning_rate": 0.00010813513513513513, "loss": 1.8152, "step": 3500 }, { "epoch": 0.468, "grad_norm": 2.6163859367370605, "learning_rate": 0.00010786486486486487, "loss": 1.8379, "step": 3510 }, { "epoch": 0.4693333333333333, "grad_norm": 2.596951484680176, "learning_rate": 0.0001075945945945946, "loss": 1.7957, "step": 3520 }, { "epoch": 0.4706666666666667, "grad_norm": 2.303182601928711, "learning_rate": 0.00010732432432432433, "loss": 1.8729, "step": 3530 }, { "epoch": 0.472, "grad_norm": 2.363114595413208, "learning_rate": 0.00010705405405405406, "loss": 1.963, "step": 3540 }, { "epoch": 0.47333333333333333, "grad_norm": 2.3271377086639404, "learning_rate": 0.0001067837837837838, "loss": 1.7534, "step": 3550 }, { "epoch": 0.4746666666666667, "grad_norm": 2.517594337463379, "learning_rate": 0.0001065135135135135, "loss": 1.737, "step": 3560 }, { "epoch": 0.476, "grad_norm": 2.4857470989227295, "learning_rate": 0.00010624324324324323, "loss": 1.7539, "step": 3570 }, { "epoch": 0.47733333333333333, "grad_norm": 2.998281478881836, "learning_rate": 0.00010597297297297298, "loss": 1.808, "step": 3580 }, { "epoch": 0.4786666666666667, "grad_norm": 2.3807339668273926, "learning_rate": 0.0001057027027027027, "loss": 1.8887, "step": 3590 }, { "epoch": 0.48, "grad_norm": 2.3057262897491455, "learning_rate": 0.00010543243243243244, "loss": 1.773, "step": 3600 }, { "epoch": 0.48133333333333334, "grad_norm": 2.498272657394409, "learning_rate": 0.00010516216216216216, "loss": 1.7171, "step": 3610 }, { "epoch": 0.4826666666666667, "grad_norm": 2.491147994995117, "learning_rate": 0.00010489189189189191, "loss": 1.8013, "step": 3620 }, { "epoch": 0.484, "grad_norm": 2.615712881088257, "learning_rate": 0.00010462162162162164, "loss": 1.9365, "step": 3630 }, { "epoch": 0.48533333333333334, "grad_norm": 2.81484055519104, "learning_rate": 0.00010435135135135136, "loss": 1.714, "step": 3640 }, { "epoch": 0.4866666666666667, "grad_norm": 2.371706247329712, "learning_rate": 0.00010408108108108108, "loss": 1.801, "step": 3650 }, { "epoch": 0.488, "grad_norm": 2.4274868965148926, "learning_rate": 0.00010381081081081081, "loss": 1.6728, "step": 3660 }, { "epoch": 0.48933333333333334, "grad_norm": 2.419053316116333, "learning_rate": 0.00010354054054054054, "loss": 1.7538, "step": 3670 }, { "epoch": 0.49066666666666664, "grad_norm": 2.3377275466918945, "learning_rate": 0.00010327027027027028, "loss": 1.6784, "step": 3680 }, { "epoch": 0.492, "grad_norm": 2.5018696784973145, "learning_rate": 0.00010300000000000001, "loss": 1.8772, "step": 3690 }, { "epoch": 0.49333333333333335, "grad_norm": 2.106964349746704, "learning_rate": 0.00010272972972972974, "loss": 1.7381, "step": 3700 }, { "epoch": 0.49466666666666664, "grad_norm": 2.7904281616210938, "learning_rate": 0.00010245945945945947, "loss": 1.7774, "step": 3710 }, { "epoch": 0.496, "grad_norm": 2.5653111934661865, "learning_rate": 0.00010218918918918921, "loss": 1.861, "step": 3720 }, { "epoch": 0.49733333333333335, "grad_norm": 2.198683261871338, "learning_rate": 0.00010191891891891891, "loss": 1.7723, "step": 3730 }, { "epoch": 0.49866666666666665, "grad_norm": 2.7365922927856445, "learning_rate": 0.00010164864864864864, "loss": 1.7066, "step": 3740 }, { "epoch": 0.5, "grad_norm": 2.3762874603271484, "learning_rate": 0.00010137837837837838, "loss": 1.8504, "step": 3750 }, { "epoch": 0.5013333333333333, "grad_norm": 2.620673179626465, "learning_rate": 0.00010110810810810811, "loss": 1.8199, "step": 3760 }, { "epoch": 0.5026666666666667, "grad_norm": 2.5394673347473145, "learning_rate": 0.00010083783783783784, "loss": 1.8501, "step": 3770 }, { "epoch": 0.504, "grad_norm": 2.297248125076294, "learning_rate": 0.00010056756756756757, "loss": 1.6851, "step": 3780 }, { "epoch": 0.5053333333333333, "grad_norm": 2.316267967224121, "learning_rate": 0.00010029729729729731, "loss": 1.7737, "step": 3790 }, { "epoch": 0.5066666666666667, "grad_norm": 2.332772970199585, "learning_rate": 0.00010002702702702704, "loss": 1.7312, "step": 3800 }, { "epoch": 0.508, "grad_norm": 2.190260410308838, "learning_rate": 9.975675675675676e-05, "loss": 1.7734, "step": 3810 }, { "epoch": 0.5093333333333333, "grad_norm": 2.7426130771636963, "learning_rate": 9.94864864864865e-05, "loss": 1.7855, "step": 3820 }, { "epoch": 0.5106666666666667, "grad_norm": 2.242137908935547, "learning_rate": 9.921621621621622e-05, "loss": 1.7832, "step": 3830 }, { "epoch": 0.512, "grad_norm": 2.5682225227355957, "learning_rate": 9.894594594594595e-05, "loss": 1.6038, "step": 3840 }, { "epoch": 0.5133333333333333, "grad_norm": 2.2677552700042725, "learning_rate": 9.867567567567569e-05, "loss": 1.6608, "step": 3850 }, { "epoch": 0.5146666666666667, "grad_norm": 2.7266035079956055, "learning_rate": 9.840540540540542e-05, "loss": 1.82, "step": 3860 }, { "epoch": 0.516, "grad_norm": 2.479783058166504, "learning_rate": 9.813513513513513e-05, "loss": 1.7791, "step": 3870 }, { "epoch": 0.5173333333333333, "grad_norm": 2.4355106353759766, "learning_rate": 9.786486486486487e-05, "loss": 1.7157, "step": 3880 }, { "epoch": 0.5186666666666667, "grad_norm": 2.2603278160095215, "learning_rate": 9.75945945945946e-05, "loss": 1.8092, "step": 3890 }, { "epoch": 0.52, "grad_norm": 2.4887278079986572, "learning_rate": 9.732432432432433e-05, "loss": 1.7094, "step": 3900 }, { "epoch": 0.5213333333333333, "grad_norm": 2.621600866317749, "learning_rate": 9.705405405405406e-05, "loss": 1.8193, "step": 3910 }, { "epoch": 0.5226666666666666, "grad_norm": 2.263338565826416, "learning_rate": 9.678378378378379e-05, "loss": 1.9238, "step": 3920 }, { "epoch": 0.524, "grad_norm": 2.3326528072357178, "learning_rate": 9.651351351351352e-05, "loss": 1.7959, "step": 3930 }, { "epoch": 0.5253333333333333, "grad_norm": 2.843334913253784, "learning_rate": 9.624324324324325e-05, "loss": 1.7858, "step": 3940 }, { "epoch": 0.5266666666666666, "grad_norm": 2.7273387908935547, "learning_rate": 9.597297297297298e-05, "loss": 1.6727, "step": 3950 }, { "epoch": 0.528, "grad_norm": 2.3087942600250244, "learning_rate": 9.570270270270271e-05, "loss": 1.7141, "step": 3960 }, { "epoch": 0.5293333333333333, "grad_norm": 2.8893113136291504, "learning_rate": 9.543243243243244e-05, "loss": 1.8398, "step": 3970 }, { "epoch": 0.5306666666666666, "grad_norm": 2.326162576675415, "learning_rate": 9.516216216216217e-05, "loss": 1.684, "step": 3980 }, { "epoch": 0.532, "grad_norm": 2.185478925704956, "learning_rate": 9.48918918918919e-05, "loss": 1.7513, "step": 3990 }, { "epoch": 0.5333333333333333, "grad_norm": 2.5856521129608154, "learning_rate": 9.462162162162162e-05, "loss": 1.7606, "step": 4000 }, { "epoch": 0.5346666666666666, "grad_norm": 2.2908594608306885, "learning_rate": 9.435135135135135e-05, "loss": 1.771, "step": 4010 }, { "epoch": 0.536, "grad_norm": 2.780820369720459, "learning_rate": 9.40810810810811e-05, "loss": 1.7179, "step": 4020 }, { "epoch": 0.5373333333333333, "grad_norm": 2.564866781234741, "learning_rate": 9.381081081081081e-05, "loss": 1.7235, "step": 4030 }, { "epoch": 0.5386666666666666, "grad_norm": 2.4878122806549072, "learning_rate": 9.354054054054054e-05, "loss": 1.6965, "step": 4040 }, { "epoch": 0.54, "grad_norm": 2.3223400115966797, "learning_rate": 9.327027027027028e-05, "loss": 1.9201, "step": 4050 }, { "epoch": 0.5413333333333333, "grad_norm": 2.294663667678833, "learning_rate": 9.300000000000001e-05, "loss": 1.7465, "step": 4060 }, { "epoch": 0.5426666666666666, "grad_norm": 2.4434211254119873, "learning_rate": 9.272972972972973e-05, "loss": 1.8371, "step": 4070 }, { "epoch": 0.544, "grad_norm": 2.2722768783569336, "learning_rate": 9.245945945945947e-05, "loss": 1.6401, "step": 4080 }, { "epoch": 0.5453333333333333, "grad_norm": 2.0681846141815186, "learning_rate": 9.21891891891892e-05, "loss": 1.7559, "step": 4090 }, { "epoch": 0.5466666666666666, "grad_norm": 2.4701437950134277, "learning_rate": 9.191891891891893e-05, "loss": 1.7718, "step": 4100 }, { "epoch": 0.548, "grad_norm": 2.545989513397217, "learning_rate": 9.164864864864866e-05, "loss": 1.7521, "step": 4110 }, { "epoch": 0.5493333333333333, "grad_norm": 2.7108235359191895, "learning_rate": 9.137837837837838e-05, "loss": 1.7254, "step": 4120 }, { "epoch": 0.5506666666666666, "grad_norm": 2.4735264778137207, "learning_rate": 9.110810810810811e-05, "loss": 1.7458, "step": 4130 }, { "epoch": 0.552, "grad_norm": 2.220050573348999, "learning_rate": 9.083783783783784e-05, "loss": 1.77, "step": 4140 }, { "epoch": 0.5533333333333333, "grad_norm": 2.395819902420044, "learning_rate": 9.056756756756757e-05, "loss": 1.7674, "step": 4150 }, { "epoch": 0.5546666666666666, "grad_norm": 2.2065374851226807, "learning_rate": 9.02972972972973e-05, "loss": 1.6576, "step": 4160 }, { "epoch": 0.556, "grad_norm": 2.499130964279175, "learning_rate": 9.002702702702703e-05, "loss": 1.7199, "step": 4170 }, { "epoch": 0.5573333333333333, "grad_norm": 2.316784381866455, "learning_rate": 8.975675675675676e-05, "loss": 1.7379, "step": 4180 }, { "epoch": 0.5586666666666666, "grad_norm": 2.3874051570892334, "learning_rate": 8.948648648648649e-05, "loss": 1.6866, "step": 4190 }, { "epoch": 0.56, "grad_norm": 2.3450894355773926, "learning_rate": 8.921621621621622e-05, "loss": 1.7862, "step": 4200 }, { "epoch": 0.5613333333333334, "grad_norm": 2.4151878356933594, "learning_rate": 8.894594594594595e-05, "loss": 1.8199, "step": 4210 }, { "epoch": 0.5626666666666666, "grad_norm": 2.5283477306365967, "learning_rate": 8.867567567567569e-05, "loss": 1.8578, "step": 4220 }, { "epoch": 0.564, "grad_norm": 2.4942572116851807, "learning_rate": 8.84054054054054e-05, "loss": 1.7759, "step": 4230 }, { "epoch": 0.5653333333333334, "grad_norm": 2.476116895675659, "learning_rate": 8.813513513513513e-05, "loss": 1.8068, "step": 4240 }, { "epoch": 0.5666666666666667, "grad_norm": 2.4816012382507324, "learning_rate": 8.786486486486488e-05, "loss": 1.7716, "step": 4250 }, { "epoch": 0.568, "grad_norm": 2.349569320678711, "learning_rate": 8.75945945945946e-05, "loss": 1.6928, "step": 4260 }, { "epoch": 0.5693333333333334, "grad_norm": 2.599334955215454, "learning_rate": 8.732432432432432e-05, "loss": 1.7631, "step": 4270 }, { "epoch": 0.5706666666666667, "grad_norm": 2.4788341522216797, "learning_rate": 8.705405405405406e-05, "loss": 1.5607, "step": 4280 }, { "epoch": 0.572, "grad_norm": 2.4678757190704346, "learning_rate": 8.678378378378379e-05, "loss": 1.7926, "step": 4290 }, { "epoch": 0.5733333333333334, "grad_norm": 2.707916736602783, "learning_rate": 8.651351351351352e-05, "loss": 1.7541, "step": 4300 }, { "epoch": 0.5746666666666667, "grad_norm": 2.478193759918213, "learning_rate": 8.624324324324325e-05, "loss": 1.6382, "step": 4310 }, { "epoch": 0.576, "grad_norm": 2.7475545406341553, "learning_rate": 8.597297297297298e-05, "loss": 1.6723, "step": 4320 }, { "epoch": 0.5773333333333334, "grad_norm": 2.6279048919677734, "learning_rate": 8.570270270270271e-05, "loss": 1.8845, "step": 4330 }, { "epoch": 0.5786666666666667, "grad_norm": 2.270444393157959, "learning_rate": 8.543243243243244e-05, "loss": 1.8199, "step": 4340 }, { "epoch": 0.58, "grad_norm": 2.681002616882324, "learning_rate": 8.516216216216217e-05, "loss": 1.7343, "step": 4350 }, { "epoch": 0.5813333333333334, "grad_norm": 2.756366014480591, "learning_rate": 8.48918918918919e-05, "loss": 1.7764, "step": 4360 }, { "epoch": 0.5826666666666667, "grad_norm": 2.6855266094207764, "learning_rate": 8.462162162162162e-05, "loss": 1.6117, "step": 4370 }, { "epoch": 0.584, "grad_norm": 2.4041712284088135, "learning_rate": 8.435135135135135e-05, "loss": 1.7411, "step": 4380 }, { "epoch": 0.5853333333333334, "grad_norm": 2.4793505668640137, "learning_rate": 8.408108108108108e-05, "loss": 1.7765, "step": 4390 }, { "epoch": 0.5866666666666667, "grad_norm": 2.3179032802581787, "learning_rate": 8.381081081081081e-05, "loss": 1.7906, "step": 4400 }, { "epoch": 0.588, "grad_norm": 2.4121007919311523, "learning_rate": 8.354054054054054e-05, "loss": 1.5975, "step": 4410 }, { "epoch": 0.5893333333333334, "grad_norm": 2.316859722137451, "learning_rate": 8.327027027027028e-05, "loss": 1.7897, "step": 4420 }, { "epoch": 0.5906666666666667, "grad_norm": 2.4854021072387695, "learning_rate": 8.3e-05, "loss": 1.8299, "step": 4430 }, { "epoch": 0.592, "grad_norm": 2.215632677078247, "learning_rate": 8.272972972972973e-05, "loss": 1.7155, "step": 4440 }, { "epoch": 0.5933333333333334, "grad_norm": 2.052816390991211, "learning_rate": 8.245945945945947e-05, "loss": 1.842, "step": 4450 }, { "epoch": 0.5946666666666667, "grad_norm": 2.4223296642303467, "learning_rate": 8.21891891891892e-05, "loss": 1.7534, "step": 4460 }, { "epoch": 0.596, "grad_norm": 2.5604755878448486, "learning_rate": 8.191891891891891e-05, "loss": 1.8931, "step": 4470 }, { "epoch": 0.5973333333333334, "grad_norm": 2.4084320068359375, "learning_rate": 8.164864864864866e-05, "loss": 1.8604, "step": 4480 }, { "epoch": 0.5986666666666667, "grad_norm": 2.3748981952667236, "learning_rate": 8.137837837837839e-05, "loss": 1.6899, "step": 4490 }, { "epoch": 0.6, "grad_norm": 2.626437187194824, "learning_rate": 8.110810810810811e-05, "loss": 1.7266, "step": 4500 }, { "epoch": 0.6013333333333334, "grad_norm": 2.8805296421051025, "learning_rate": 8.083783783783784e-05, "loss": 1.6474, "step": 4510 }, { "epoch": 0.6026666666666667, "grad_norm": 2.7690365314483643, "learning_rate": 8.056756756756757e-05, "loss": 1.8816, "step": 4520 }, { "epoch": 0.604, "grad_norm": 2.068767786026001, "learning_rate": 8.02972972972973e-05, "loss": 1.6933, "step": 4530 }, { "epoch": 0.6053333333333333, "grad_norm": 2.304553270339966, "learning_rate": 8.002702702702703e-05, "loss": 1.7292, "step": 4540 }, { "epoch": 0.6066666666666667, "grad_norm": 2.5072391033172607, "learning_rate": 7.975675675675676e-05, "loss": 1.6681, "step": 4550 }, { "epoch": 0.608, "grad_norm": 2.6145615577697754, "learning_rate": 7.948648648648649e-05, "loss": 1.6283, "step": 4560 }, { "epoch": 0.6093333333333333, "grad_norm": 2.449979066848755, "learning_rate": 7.921621621621622e-05, "loss": 1.8048, "step": 4570 }, { "epoch": 0.6106666666666667, "grad_norm": 2.9940662384033203, "learning_rate": 7.894594594594596e-05, "loss": 1.9057, "step": 4580 }, { "epoch": 0.612, "grad_norm": 2.5613086223602295, "learning_rate": 7.867567567567568e-05, "loss": 1.7684, "step": 4590 }, { "epoch": 0.6133333333333333, "grad_norm": 2.5477535724639893, "learning_rate": 7.84054054054054e-05, "loss": 1.6731, "step": 4600 }, { "epoch": 0.6146666666666667, "grad_norm": 2.6440248489379883, "learning_rate": 7.813513513513513e-05, "loss": 1.636, "step": 4610 }, { "epoch": 0.616, "grad_norm": 2.123093605041504, "learning_rate": 7.786486486486488e-05, "loss": 1.8323, "step": 4620 }, { "epoch": 0.6173333333333333, "grad_norm": 2.5474610328674316, "learning_rate": 7.759459459459459e-05, "loss": 1.7251, "step": 4630 }, { "epoch": 0.6186666666666667, "grad_norm": 2.78224778175354, "learning_rate": 7.732432432432432e-05, "loss": 1.7143, "step": 4640 }, { "epoch": 0.62, "grad_norm": 2.470123767852783, "learning_rate": 7.705405405405406e-05, "loss": 1.7682, "step": 4650 }, { "epoch": 0.6213333333333333, "grad_norm": 2.5710723400115967, "learning_rate": 7.678378378378379e-05, "loss": 1.8062, "step": 4660 }, { "epoch": 0.6226666666666667, "grad_norm": 2.321366310119629, "learning_rate": 7.651351351351351e-05, "loss": 1.7087, "step": 4670 }, { "epoch": 0.624, "grad_norm": 2.769404411315918, "learning_rate": 7.624324324324325e-05, "loss": 1.8375, "step": 4680 }, { "epoch": 0.6253333333333333, "grad_norm": 2.4478726387023926, "learning_rate": 7.597297297297298e-05, "loss": 1.663, "step": 4690 }, { "epoch": 0.6266666666666667, "grad_norm": 2.865020275115967, "learning_rate": 7.570270270270271e-05, "loss": 1.7983, "step": 4700 }, { "epoch": 0.628, "grad_norm": 2.564938545227051, "learning_rate": 7.543243243243244e-05, "loss": 1.7516, "step": 4710 }, { "epoch": 0.6293333333333333, "grad_norm": 2.2252092361450195, "learning_rate": 7.516216216216217e-05, "loss": 1.716, "step": 4720 }, { "epoch": 0.6306666666666667, "grad_norm": 2.067749261856079, "learning_rate": 7.48918918918919e-05, "loss": 1.6779, "step": 4730 }, { "epoch": 0.632, "grad_norm": 2.7093424797058105, "learning_rate": 7.462162162162162e-05, "loss": 1.7285, "step": 4740 }, { "epoch": 0.6333333333333333, "grad_norm": 2.576286554336548, "learning_rate": 7.435135135135135e-05, "loss": 1.619, "step": 4750 }, { "epoch": 0.6346666666666667, "grad_norm": 2.5047481060028076, "learning_rate": 7.408108108108108e-05, "loss": 1.9123, "step": 4760 }, { "epoch": 0.636, "grad_norm": 2.2953903675079346, "learning_rate": 7.381081081081081e-05, "loss": 1.6716, "step": 4770 }, { "epoch": 0.6373333333333333, "grad_norm": 2.3581738471984863, "learning_rate": 7.354054054054055e-05, "loss": 1.7734, "step": 4780 }, { "epoch": 0.6386666666666667, "grad_norm": 2.7139110565185547, "learning_rate": 7.327027027027027e-05, "loss": 1.758, "step": 4790 }, { "epoch": 0.64, "grad_norm": 2.26751971244812, "learning_rate": 7.3e-05, "loss": 1.6165, "step": 4800 }, { "epoch": 0.6413333333333333, "grad_norm": 2.472557306289673, "learning_rate": 7.272972972972973e-05, "loss": 1.7257, "step": 4810 }, { "epoch": 0.6426666666666667, "grad_norm": 2.4562666416168213, "learning_rate": 7.245945945945947e-05, "loss": 1.6237, "step": 4820 }, { "epoch": 0.644, "grad_norm": 2.587217092514038, "learning_rate": 7.218918918918919e-05, "loss": 1.7768, "step": 4830 }, { "epoch": 0.6453333333333333, "grad_norm": 2.319197416305542, "learning_rate": 7.191891891891892e-05, "loss": 1.8886, "step": 4840 }, { "epoch": 0.6466666666666666, "grad_norm": 2.6838629245758057, "learning_rate": 7.164864864864866e-05, "loss": 1.8624, "step": 4850 }, { "epoch": 0.648, "grad_norm": 2.459134578704834, "learning_rate": 7.137837837837839e-05, "loss": 1.8797, "step": 4860 }, { "epoch": 0.6493333333333333, "grad_norm": 2.434612274169922, "learning_rate": 7.11081081081081e-05, "loss": 1.7052, "step": 4870 }, { "epoch": 0.6506666666666666, "grad_norm": 2.676539897918701, "learning_rate": 7.083783783783784e-05, "loss": 1.5103, "step": 4880 }, { "epoch": 0.652, "grad_norm": 2.1555585861206055, "learning_rate": 7.056756756756757e-05, "loss": 1.7087, "step": 4890 }, { "epoch": 0.6533333333333333, "grad_norm": 2.6224405765533447, "learning_rate": 7.02972972972973e-05, "loss": 1.7359, "step": 4900 }, { "epoch": 0.6546666666666666, "grad_norm": 2.353959798812866, "learning_rate": 7.002702702702703e-05, "loss": 1.7143, "step": 4910 }, { "epoch": 0.656, "grad_norm": 2.266991376876831, "learning_rate": 6.975675675675676e-05, "loss": 1.6933, "step": 4920 }, { "epoch": 0.6573333333333333, "grad_norm": 2.238447904586792, "learning_rate": 6.948648648648649e-05, "loss": 1.6179, "step": 4930 }, { "epoch": 0.6586666666666666, "grad_norm": 2.6156067848205566, "learning_rate": 6.921621621621622e-05, "loss": 1.6184, "step": 4940 }, { "epoch": 0.66, "grad_norm": 2.658324718475342, "learning_rate": 6.894594594594595e-05, "loss": 1.8393, "step": 4950 }, { "epoch": 0.6613333333333333, "grad_norm": 3.0969736576080322, "learning_rate": 6.867567567567568e-05, "loss": 1.7887, "step": 4960 }, { "epoch": 0.6626666666666666, "grad_norm": 2.7049593925476074, "learning_rate": 6.84054054054054e-05, "loss": 1.7723, "step": 4970 }, { "epoch": 0.664, "grad_norm": 2.2911875247955322, "learning_rate": 6.813513513513515e-05, "loss": 1.6815, "step": 4980 }, { "epoch": 0.6653333333333333, "grad_norm": 2.4017186164855957, "learning_rate": 6.786486486486486e-05, "loss": 1.7622, "step": 4990 }, { "epoch": 0.6666666666666666, "grad_norm": 2.133009672164917, "learning_rate": 6.759459459459459e-05, "loss": 1.6369, "step": 5000 }, { "epoch": 0.668, "grad_norm": 2.7822725772857666, "learning_rate": 6.732432432432432e-05, "loss": 1.7423, "step": 5010 }, { "epoch": 0.6693333333333333, "grad_norm": 2.395003080368042, "learning_rate": 6.705405405405406e-05, "loss": 1.665, "step": 5020 }, { "epoch": 0.6706666666666666, "grad_norm": 2.3305490016937256, "learning_rate": 6.678378378378378e-05, "loss": 1.7307, "step": 5030 }, { "epoch": 0.672, "grad_norm": 2.327988862991333, "learning_rate": 6.651351351351351e-05, "loss": 1.6633, "step": 5040 }, { "epoch": 0.6733333333333333, "grad_norm": 2.212411880493164, "learning_rate": 6.624324324324325e-05, "loss": 1.63, "step": 5050 }, { "epoch": 0.6746666666666666, "grad_norm": 2.9532217979431152, "learning_rate": 6.597297297297298e-05, "loss": 1.7147, "step": 5060 }, { "epoch": 0.676, "grad_norm": 2.410266160964966, "learning_rate": 6.57027027027027e-05, "loss": 1.7012, "step": 5070 }, { "epoch": 0.6773333333333333, "grad_norm": 2.47847056388855, "learning_rate": 6.543243243243244e-05, "loss": 1.6846, "step": 5080 }, { "epoch": 0.6786666666666666, "grad_norm": 2.3797738552093506, "learning_rate": 6.516216216216217e-05, "loss": 1.7244, "step": 5090 }, { "epoch": 0.68, "grad_norm": 2.260364294052124, "learning_rate": 6.48918918918919e-05, "loss": 1.6383, "step": 5100 }, { "epoch": 0.6813333333333333, "grad_norm": 7.000325679779053, "learning_rate": 6.462162162162163e-05, "loss": 1.9112, "step": 5110 }, { "epoch": 0.6826666666666666, "grad_norm": 2.6418049335479736, "learning_rate": 6.435135135135135e-05, "loss": 1.7482, "step": 5120 }, { "epoch": 0.684, "grad_norm": 2.709291458129883, "learning_rate": 6.408108108108108e-05, "loss": 1.763, "step": 5130 }, { "epoch": 0.6853333333333333, "grad_norm": 3.0964314937591553, "learning_rate": 6.381081081081081e-05, "loss": 1.7461, "step": 5140 }, { "epoch": 0.6866666666666666, "grad_norm": 2.2311952114105225, "learning_rate": 6.354054054054054e-05, "loss": 1.8129, "step": 5150 }, { "epoch": 0.688, "grad_norm": 2.4658689498901367, "learning_rate": 6.327027027027027e-05, "loss": 1.7197, "step": 5160 }, { "epoch": 0.6893333333333334, "grad_norm": 2.494281053543091, "learning_rate": 6.3e-05, "loss": 1.7131, "step": 5170 }, { "epoch": 0.6906666666666667, "grad_norm": 2.337458848953247, "learning_rate": 6.272972972972974e-05, "loss": 1.8182, "step": 5180 }, { "epoch": 0.692, "grad_norm": 2.2860753536224365, "learning_rate": 6.245945945945946e-05, "loss": 1.8402, "step": 5190 }, { "epoch": 0.6933333333333334, "grad_norm": 2.654182195663452, "learning_rate": 6.218918918918919e-05, "loss": 1.7607, "step": 5200 }, { "epoch": 0.6946666666666667, "grad_norm": 2.4384946823120117, "learning_rate": 6.191891891891892e-05, "loss": 1.8643, "step": 5210 }, { "epoch": 0.696, "grad_norm": 2.5063271522521973, "learning_rate": 6.164864864864866e-05, "loss": 1.7459, "step": 5220 }, { "epoch": 0.6973333333333334, "grad_norm": 2.3819327354431152, "learning_rate": 6.137837837837837e-05, "loss": 1.7328, "step": 5230 }, { "epoch": 0.6986666666666667, "grad_norm": 2.353322744369507, "learning_rate": 6.11081081081081e-05, "loss": 1.6994, "step": 5240 }, { "epoch": 0.7, "grad_norm": 2.059305429458618, "learning_rate": 6.083783783783784e-05, "loss": 1.6366, "step": 5250 }, { "epoch": 0.7013333333333334, "grad_norm": 2.6309072971343994, "learning_rate": 6.0567567567567575e-05, "loss": 1.8112, "step": 5260 }, { "epoch": 0.7026666666666667, "grad_norm": 2.3017349243164062, "learning_rate": 6.02972972972973e-05, "loss": 1.6129, "step": 5270 }, { "epoch": 0.704, "grad_norm": 2.3827080726623535, "learning_rate": 6.0027027027027026e-05, "loss": 1.7627, "step": 5280 }, { "epoch": 0.7053333333333334, "grad_norm": 2.489391565322876, "learning_rate": 5.975675675675676e-05, "loss": 1.6755, "step": 5290 }, { "epoch": 0.7066666666666667, "grad_norm": 2.4546420574188232, "learning_rate": 5.948648648648649e-05, "loss": 1.637, "step": 5300 }, { "epoch": 0.708, "grad_norm": 2.1778452396392822, "learning_rate": 5.921621621621621e-05, "loss": 1.7271, "step": 5310 }, { "epoch": 0.7093333333333334, "grad_norm": 2.3320977687835693, "learning_rate": 5.894594594594595e-05, "loss": 1.7104, "step": 5320 }, { "epoch": 0.7106666666666667, "grad_norm": 2.9002904891967773, "learning_rate": 5.867567567567568e-05, "loss": 1.768, "step": 5330 }, { "epoch": 0.712, "grad_norm": 2.236595392227173, "learning_rate": 5.8405405405405414e-05, "loss": 1.7603, "step": 5340 }, { "epoch": 0.7133333333333334, "grad_norm": 2.342060089111328, "learning_rate": 5.8135135135135136e-05, "loss": 1.756, "step": 5350 }, { "epoch": 0.7146666666666667, "grad_norm": 2.43502140045166, "learning_rate": 5.7864864864864865e-05, "loss": 1.6526, "step": 5360 }, { "epoch": 0.716, "grad_norm": 2.416416883468628, "learning_rate": 5.75945945945946e-05, "loss": 1.6821, "step": 5370 }, { "epoch": 0.7173333333333334, "grad_norm": 2.79465651512146, "learning_rate": 5.732432432432433e-05, "loss": 1.653, "step": 5380 }, { "epoch": 0.7186666666666667, "grad_norm": 2.1442489624023438, "learning_rate": 5.705405405405405e-05, "loss": 1.6052, "step": 5390 }, { "epoch": 0.72, "grad_norm": 2.3195009231567383, "learning_rate": 5.678378378378378e-05, "loss": 1.773, "step": 5400 }, { "epoch": 0.7213333333333334, "grad_norm": 2.435551166534424, "learning_rate": 5.651351351351352e-05, "loss": 1.6717, "step": 5410 }, { "epoch": 0.7226666666666667, "grad_norm": 2.9846158027648926, "learning_rate": 5.6243243243243246e-05, "loss": 1.6524, "step": 5420 }, { "epoch": 0.724, "grad_norm": 2.2463107109069824, "learning_rate": 5.597297297297297e-05, "loss": 1.5635, "step": 5430 }, { "epoch": 0.7253333333333334, "grad_norm": 2.6960723400115967, "learning_rate": 5.5702702702702704e-05, "loss": 1.5236, "step": 5440 }, { "epoch": 0.7266666666666667, "grad_norm": 2.4956061840057373, "learning_rate": 5.543243243243243e-05, "loss": 1.7235, "step": 5450 }, { "epoch": 0.728, "grad_norm": 2.218177080154419, "learning_rate": 5.516216216216217e-05, "loss": 1.682, "step": 5460 }, { "epoch": 0.7293333333333333, "grad_norm": 2.515575647354126, "learning_rate": 5.48918918918919e-05, "loss": 1.7251, "step": 5470 }, { "epoch": 0.7306666666666667, "grad_norm": 2.859912395477295, "learning_rate": 5.462162162162162e-05, "loss": 1.7788, "step": 5480 }, { "epoch": 0.732, "grad_norm": 2.5170841217041016, "learning_rate": 5.4351351351351356e-05, "loss": 1.7671, "step": 5490 }, { "epoch": 0.7333333333333333, "grad_norm": 3.0050339698791504, "learning_rate": 5.4081081081081085e-05, "loss": 1.6537, "step": 5500 }, { "epoch": 0.7346666666666667, "grad_norm": 2.685117483139038, "learning_rate": 5.381081081081082e-05, "loss": 1.7784, "step": 5510 }, { "epoch": 0.736, "grad_norm": 2.6302332878112793, "learning_rate": 5.354054054054054e-05, "loss": 1.8508, "step": 5520 }, { "epoch": 0.7373333333333333, "grad_norm": 2.4447121620178223, "learning_rate": 5.327027027027027e-05, "loss": 1.5135, "step": 5530 }, { "epoch": 0.7386666666666667, "grad_norm": 2.059255361557007, "learning_rate": 5.300000000000001e-05, "loss": 1.6182, "step": 5540 }, { "epoch": 0.74, "grad_norm": 2.508316993713379, "learning_rate": 5.2729729729729737e-05, "loss": 1.7946, "step": 5550 }, { "epoch": 0.7413333333333333, "grad_norm": 2.500084161758423, "learning_rate": 5.245945945945946e-05, "loss": 1.6965, "step": 5560 }, { "epoch": 0.7426666666666667, "grad_norm": 2.6352810859680176, "learning_rate": 5.2189189189189195e-05, "loss": 1.5864, "step": 5570 }, { "epoch": 0.744, "grad_norm": 2.924647092819214, "learning_rate": 5.1918918918918924e-05, "loss": 1.7354, "step": 5580 }, { "epoch": 0.7453333333333333, "grad_norm": 2.4402995109558105, "learning_rate": 5.164864864864866e-05, "loss": 1.6326, "step": 5590 }, { "epoch": 0.7466666666666667, "grad_norm": 3.5275487899780273, "learning_rate": 5.1378378378378375e-05, "loss": 1.6526, "step": 5600 }, { "epoch": 0.748, "grad_norm": 2.640603542327881, "learning_rate": 5.110810810810811e-05, "loss": 1.6978, "step": 5610 }, { "epoch": 0.7493333333333333, "grad_norm": 2.4517879486083984, "learning_rate": 5.083783783783784e-05, "loss": 1.6873, "step": 5620 }, { "epoch": 0.7506666666666667, "grad_norm": 2.5826404094696045, "learning_rate": 5.0567567567567576e-05, "loss": 1.7209, "step": 5630 }, { "epoch": 0.752, "grad_norm": 3.254995822906494, "learning_rate": 5.02972972972973e-05, "loss": 1.7182, "step": 5640 }, { "epoch": 0.7533333333333333, "grad_norm": 2.4099812507629395, "learning_rate": 5.002702702702703e-05, "loss": 1.5186, "step": 5650 }, { "epoch": 0.7546666666666667, "grad_norm": 2.534217357635498, "learning_rate": 4.975675675675676e-05, "loss": 1.8553, "step": 5660 }, { "epoch": 0.756, "grad_norm": 2.5693318843841553, "learning_rate": 4.948648648648649e-05, "loss": 1.8622, "step": 5670 }, { "epoch": 0.7573333333333333, "grad_norm": 2.573843002319336, "learning_rate": 4.921621621621622e-05, "loss": 1.6448, "step": 5680 }, { "epoch": 0.7586666666666667, "grad_norm": 2.8359835147857666, "learning_rate": 4.894594594594595e-05, "loss": 1.6768, "step": 5690 }, { "epoch": 0.76, "grad_norm": 2.405327081680298, "learning_rate": 4.867567567567568e-05, "loss": 1.7944, "step": 5700 }, { "epoch": 0.7613333333333333, "grad_norm": 2.5962822437286377, "learning_rate": 4.840540540540541e-05, "loss": 1.589, "step": 5710 }, { "epoch": 0.7626666666666667, "grad_norm": 2.4753477573394775, "learning_rate": 4.813513513513514e-05, "loss": 1.767, "step": 5720 }, { "epoch": 0.764, "grad_norm": 2.732316017150879, "learning_rate": 4.7864864864864866e-05, "loss": 1.7758, "step": 5730 }, { "epoch": 0.7653333333333333, "grad_norm": 2.772697925567627, "learning_rate": 4.75945945945946e-05, "loss": 1.6539, "step": 5740 }, { "epoch": 0.7666666666666667, "grad_norm": 2.8475613594055176, "learning_rate": 4.7324324324324324e-05, "loss": 1.688, "step": 5750 }, { "epoch": 0.768, "grad_norm": 2.7171499729156494, "learning_rate": 4.705405405405406e-05, "loss": 1.6328, "step": 5760 }, { "epoch": 0.7693333333333333, "grad_norm": 2.5793089866638184, "learning_rate": 4.678378378378379e-05, "loss": 1.5797, "step": 5770 }, { "epoch": 0.7706666666666667, "grad_norm": 2.263705015182495, "learning_rate": 4.651351351351352e-05, "loss": 1.7494, "step": 5780 }, { "epoch": 0.772, "grad_norm": 2.689951181411743, "learning_rate": 4.624324324324325e-05, "loss": 1.642, "step": 5790 }, { "epoch": 0.7733333333333333, "grad_norm": 2.384277105331421, "learning_rate": 4.5972972972972976e-05, "loss": 1.822, "step": 5800 }, { "epoch": 0.7746666666666666, "grad_norm": 2.517409324645996, "learning_rate": 4.5702702702702705e-05, "loss": 1.6411, "step": 5810 }, { "epoch": 0.776, "grad_norm": 2.7147343158721924, "learning_rate": 4.5432432432432434e-05, "loss": 1.7847, "step": 5820 }, { "epoch": 0.7773333333333333, "grad_norm": 2.289916515350342, "learning_rate": 4.516216216216216e-05, "loss": 1.7548, "step": 5830 }, { "epoch": 0.7786666666666666, "grad_norm": 2.620067596435547, "learning_rate": 4.48918918918919e-05, "loss": 1.5818, "step": 5840 }, { "epoch": 0.78, "grad_norm": 2.3116276264190674, "learning_rate": 4.462162162162162e-05, "loss": 1.6786, "step": 5850 }, { "epoch": 0.7813333333333333, "grad_norm": 2.479151964187622, "learning_rate": 4.4351351351351357e-05, "loss": 1.7516, "step": 5860 }, { "epoch": 0.7826666666666666, "grad_norm": 2.3408565521240234, "learning_rate": 4.4081081081081086e-05, "loss": 1.6726, "step": 5870 }, { "epoch": 0.784, "grad_norm": 2.4903507232666016, "learning_rate": 4.3810810810810815e-05, "loss": 1.7151, "step": 5880 }, { "epoch": 0.7853333333333333, "grad_norm": 2.7375853061676025, "learning_rate": 4.3540540540540544e-05, "loss": 1.712, "step": 5890 }, { "epoch": 0.7866666666666666, "grad_norm": 2.2988908290863037, "learning_rate": 4.327027027027027e-05, "loss": 1.7197, "step": 5900 }, { "epoch": 0.788, "grad_norm": 2.9923717975616455, "learning_rate": 4.3e-05, "loss": 1.4819, "step": 5910 }, { "epoch": 0.7893333333333333, "grad_norm": 2.4413089752197266, "learning_rate": 4.272972972972973e-05, "loss": 1.5703, "step": 5920 }, { "epoch": 0.7906666666666666, "grad_norm": 2.3859667778015137, "learning_rate": 4.245945945945946e-05, "loss": 1.7052, "step": 5930 }, { "epoch": 0.792, "grad_norm": 2.527226209640503, "learning_rate": 4.2189189189189195e-05, "loss": 1.7125, "step": 5940 }, { "epoch": 0.7933333333333333, "grad_norm": 3.1854281425476074, "learning_rate": 4.191891891891892e-05, "loss": 1.7037, "step": 5950 }, { "epoch": 0.7946666666666666, "grad_norm": 2.814861297607422, "learning_rate": 4.1648648648648654e-05, "loss": 1.6434, "step": 5960 }, { "epoch": 0.796, "grad_norm": 2.9175212383270264, "learning_rate": 4.137837837837838e-05, "loss": 1.7307, "step": 5970 }, { "epoch": 0.7973333333333333, "grad_norm": 2.400646924972534, "learning_rate": 4.110810810810811e-05, "loss": 1.5439, "step": 5980 }, { "epoch": 0.7986666666666666, "grad_norm": 2.5307583808898926, "learning_rate": 4.083783783783784e-05, "loss": 1.6965, "step": 5990 }, { "epoch": 0.8, "grad_norm": 2.612553358078003, "learning_rate": 4.056756756756757e-05, "loss": 1.7097, "step": 6000 }, { "epoch": 0.8013333333333333, "grad_norm": 2.284662961959839, "learning_rate": 4.02972972972973e-05, "loss": 1.6993, "step": 6010 }, { "epoch": 0.8026666666666666, "grad_norm": 3.0410237312316895, "learning_rate": 4.002702702702703e-05, "loss": 1.6701, "step": 6020 }, { "epoch": 0.804, "grad_norm": 2.654667377471924, "learning_rate": 3.975675675675676e-05, "loss": 1.7714, "step": 6030 }, { "epoch": 0.8053333333333333, "grad_norm": 2.5018224716186523, "learning_rate": 3.948648648648649e-05, "loss": 1.6427, "step": 6040 }, { "epoch": 0.8066666666666666, "grad_norm": 2.2526869773864746, "learning_rate": 3.9216216216216215e-05, "loss": 1.4547, "step": 6050 }, { "epoch": 0.808, "grad_norm": 2.6133015155792236, "learning_rate": 3.894594594594595e-05, "loss": 1.7321, "step": 6060 }, { "epoch": 0.8093333333333333, "grad_norm": 2.4903156757354736, "learning_rate": 3.867567567567568e-05, "loss": 1.6721, "step": 6070 }, { "epoch": 0.8106666666666666, "grad_norm": 2.7530627250671387, "learning_rate": 3.840540540540541e-05, "loss": 1.6131, "step": 6080 }, { "epoch": 0.812, "grad_norm": 2.515719413757324, "learning_rate": 3.813513513513514e-05, "loss": 1.6351, "step": 6090 }, { "epoch": 0.8133333333333334, "grad_norm": 2.6677589416503906, "learning_rate": 3.7864864864864867e-05, "loss": 1.6129, "step": 6100 }, { "epoch": 0.8146666666666667, "grad_norm": 2.306367874145508, "learning_rate": 3.7594594594594596e-05, "loss": 1.6285, "step": 6110 }, { "epoch": 0.816, "grad_norm": 3.3968253135681152, "learning_rate": 3.7324324324324325e-05, "loss": 1.7338, "step": 6120 }, { "epoch": 0.8173333333333334, "grad_norm": 2.48195743560791, "learning_rate": 3.7054054054054054e-05, "loss": 1.8016, "step": 6130 }, { "epoch": 0.8186666666666667, "grad_norm": 2.4861512184143066, "learning_rate": 3.678378378378379e-05, "loss": 1.6984, "step": 6140 }, { "epoch": 0.82, "grad_norm": 2.6321170330047607, "learning_rate": 3.651351351351351e-05, "loss": 1.6262, "step": 6150 }, { "epoch": 0.8213333333333334, "grad_norm": 2.5380373001098633, "learning_rate": 3.624324324324325e-05, "loss": 1.5623, "step": 6160 }, { "epoch": 0.8226666666666667, "grad_norm": 2.204197883605957, "learning_rate": 3.5972972972972977e-05, "loss": 1.6745, "step": 6170 }, { "epoch": 0.824, "grad_norm": 2.7403526306152344, "learning_rate": 3.5702702702702706e-05, "loss": 1.5203, "step": 6180 }, { "epoch": 0.8253333333333334, "grad_norm": 2.620312452316284, "learning_rate": 3.5432432432432435e-05, "loss": 1.7019, "step": 6190 }, { "epoch": 0.8266666666666667, "grad_norm": 2.6407034397125244, "learning_rate": 3.5162162162162164e-05, "loss": 1.6738, "step": 6200 }, { "epoch": 0.828, "grad_norm": 2.8657119274139404, "learning_rate": 3.489189189189189e-05, "loss": 1.6289, "step": 6210 }, { "epoch": 0.8293333333333334, "grad_norm": 2.3813586235046387, "learning_rate": 3.462162162162162e-05, "loss": 1.5808, "step": 6220 }, { "epoch": 0.8306666666666667, "grad_norm": 2.9518868923187256, "learning_rate": 3.435135135135135e-05, "loss": 1.7271, "step": 6230 }, { "epoch": 0.832, "grad_norm": 2.5830390453338623, "learning_rate": 3.4081081081081086e-05, "loss": 1.8173, "step": 6240 }, { "epoch": 0.8333333333333334, "grad_norm": 2.986417293548584, "learning_rate": 3.381081081081081e-05, "loss": 1.7649, "step": 6250 }, { "epoch": 0.8346666666666667, "grad_norm": 2.7815823554992676, "learning_rate": 3.3540540540540544e-05, "loss": 1.8131, "step": 6260 }, { "epoch": 0.836, "grad_norm": 2.68438720703125, "learning_rate": 3.3270270270270274e-05, "loss": 1.6404, "step": 6270 }, { "epoch": 0.8373333333333334, "grad_norm": 2.7621591091156006, "learning_rate": 3.3e-05, "loss": 1.7984, "step": 6280 }, { "epoch": 0.8386666666666667, "grad_norm": 2.544633388519287, "learning_rate": 3.272972972972973e-05, "loss": 1.5763, "step": 6290 }, { "epoch": 0.84, "grad_norm": 2.5023107528686523, "learning_rate": 3.245945945945946e-05, "loss": 1.8152, "step": 6300 }, { "epoch": 0.8413333333333334, "grad_norm": 2.2994837760925293, "learning_rate": 3.218918918918919e-05, "loss": 1.8882, "step": 6310 }, { "epoch": 0.8426666666666667, "grad_norm": 3.953317880630493, "learning_rate": 3.191891891891892e-05, "loss": 1.6891, "step": 6320 }, { "epoch": 0.844, "grad_norm": 2.7134106159210205, "learning_rate": 3.164864864864865e-05, "loss": 1.7224, "step": 6330 }, { "epoch": 0.8453333333333334, "grad_norm": 2.4005279541015625, "learning_rate": 3.1378378378378383e-05, "loss": 1.787, "step": 6340 }, { "epoch": 0.8466666666666667, "grad_norm": 2.4672749042510986, "learning_rate": 3.1108108108108106e-05, "loss": 1.738, "step": 6350 }, { "epoch": 0.848, "grad_norm": 2.928025245666504, "learning_rate": 3.083783783783784e-05, "loss": 1.8161, "step": 6360 }, { "epoch": 0.8493333333333334, "grad_norm": 2.672902822494507, "learning_rate": 3.056756756756757e-05, "loss": 1.6174, "step": 6370 }, { "epoch": 0.8506666666666667, "grad_norm": 2.5502936840057373, "learning_rate": 3.02972972972973e-05, "loss": 1.6013, "step": 6380 }, { "epoch": 0.852, "grad_norm": 2.719055652618408, "learning_rate": 3.002702702702703e-05, "loss": 1.6408, "step": 6390 }, { "epoch": 0.8533333333333334, "grad_norm": 2.978949785232544, "learning_rate": 2.975675675675676e-05, "loss": 1.6231, "step": 6400 }, { "epoch": 0.8546666666666667, "grad_norm": 2.727102756500244, "learning_rate": 2.9486486486486487e-05, "loss": 1.6566, "step": 6410 }, { "epoch": 0.856, "grad_norm": 2.3912513256073, "learning_rate": 2.921621621621622e-05, "loss": 1.6672, "step": 6420 }, { "epoch": 0.8573333333333333, "grad_norm": 2.4890830516815186, "learning_rate": 2.8945945945945945e-05, "loss": 1.6692, "step": 6430 }, { "epoch": 0.8586666666666667, "grad_norm": 2.6371443271636963, "learning_rate": 2.8675675675675677e-05, "loss": 1.864, "step": 6440 }, { "epoch": 0.86, "grad_norm": 2.6232187747955322, "learning_rate": 2.8405405405405406e-05, "loss": 1.7107, "step": 6450 }, { "epoch": 0.8613333333333333, "grad_norm": 2.3654496669769287, "learning_rate": 2.813513513513514e-05, "loss": 1.6735, "step": 6460 }, { "epoch": 0.8626666666666667, "grad_norm": 2.777508497238159, "learning_rate": 2.7864864864864864e-05, "loss": 1.7127, "step": 6470 }, { "epoch": 0.864, "grad_norm": 2.7823853492736816, "learning_rate": 2.7594594594594596e-05, "loss": 1.7249, "step": 6480 }, { "epoch": 0.8653333333333333, "grad_norm": 2.3992345333099365, "learning_rate": 2.7324324324324326e-05, "loss": 1.4668, "step": 6490 }, { "epoch": 0.8666666666666667, "grad_norm": 2.6813876628875732, "learning_rate": 2.7054054054054058e-05, "loss": 1.5731, "step": 6500 }, { "epoch": 0.868, "grad_norm": 2.8751773834228516, "learning_rate": 2.6783783783783784e-05, "loss": 1.737, "step": 6510 }, { "epoch": 0.8693333333333333, "grad_norm": 2.3561997413635254, "learning_rate": 2.6513513513513516e-05, "loss": 1.5408, "step": 6520 }, { "epoch": 0.8706666666666667, "grad_norm": 2.712101697921753, "learning_rate": 2.624324324324324e-05, "loss": 1.6529, "step": 6530 }, { "epoch": 0.872, "grad_norm": 2.6622605323791504, "learning_rate": 2.5972972972972974e-05, "loss": 1.6287, "step": 6540 }, { "epoch": 0.8733333333333333, "grad_norm": 2.330552339553833, "learning_rate": 2.5702702702702703e-05, "loss": 1.7394, "step": 6550 }, { "epoch": 0.8746666666666667, "grad_norm": 2.4436655044555664, "learning_rate": 2.5432432432432435e-05, "loss": 1.6597, "step": 6560 }, { "epoch": 0.876, "grad_norm": 2.36600923538208, "learning_rate": 2.516216216216216e-05, "loss": 1.6797, "step": 6570 }, { "epoch": 0.8773333333333333, "grad_norm": 2.758204698562622, "learning_rate": 2.4891891891891893e-05, "loss": 1.669, "step": 6580 }, { "epoch": 0.8786666666666667, "grad_norm": 2.7728378772735596, "learning_rate": 2.4621621621621623e-05, "loss": 1.7215, "step": 6590 }, { "epoch": 0.88, "grad_norm": 2.289459705352783, "learning_rate": 2.4351351351351355e-05, "loss": 1.6012, "step": 6600 }, { "epoch": 0.8813333333333333, "grad_norm": 2.649552345275879, "learning_rate": 2.4081081081081084e-05, "loss": 1.6669, "step": 6610 }, { "epoch": 0.8826666666666667, "grad_norm": 2.6189112663269043, "learning_rate": 2.3810810810810813e-05, "loss": 1.7255, "step": 6620 }, { "epoch": 0.884, "grad_norm": 2.6846015453338623, "learning_rate": 2.3540540540540542e-05, "loss": 1.9068, "step": 6630 }, { "epoch": 0.8853333333333333, "grad_norm": 2.8346004486083984, "learning_rate": 2.327027027027027e-05, "loss": 1.7185, "step": 6640 }, { "epoch": 0.8866666666666667, "grad_norm": 2.6064999103546143, "learning_rate": 2.3000000000000003e-05, "loss": 1.6009, "step": 6650 }, { "epoch": 0.888, "grad_norm": 2.423532009124756, "learning_rate": 2.2729729729729732e-05, "loss": 1.6337, "step": 6660 }, { "epoch": 0.8893333333333333, "grad_norm": 2.556084632873535, "learning_rate": 2.245945945945946e-05, "loss": 1.6241, "step": 6670 }, { "epoch": 0.8906666666666667, "grad_norm": 2.7347779273986816, "learning_rate": 2.218918918918919e-05, "loss": 1.6245, "step": 6680 }, { "epoch": 0.892, "grad_norm": 3.145932674407959, "learning_rate": 2.191891891891892e-05, "loss": 1.723, "step": 6690 }, { "epoch": 0.8933333333333333, "grad_norm": 2.62679386138916, "learning_rate": 2.1648648648648652e-05, "loss": 1.5785, "step": 6700 }, { "epoch": 0.8946666666666667, "grad_norm": 2.508307695388794, "learning_rate": 2.137837837837838e-05, "loss": 1.6147, "step": 6710 }, { "epoch": 0.896, "grad_norm": 2.8022305965423584, "learning_rate": 2.110810810810811e-05, "loss": 1.7815, "step": 6720 }, { "epoch": 0.8973333333333333, "grad_norm": 3.2732038497924805, "learning_rate": 2.083783783783784e-05, "loss": 1.5358, "step": 6730 }, { "epoch": 0.8986666666666666, "grad_norm": 2.396840810775757, "learning_rate": 2.0567567567567568e-05, "loss": 1.6873, "step": 6740 }, { "epoch": 0.9, "grad_norm": 2.5847902297973633, "learning_rate": 2.02972972972973e-05, "loss": 1.7431, "step": 6750 }, { "epoch": 0.9013333333333333, "grad_norm": 3.0284829139709473, "learning_rate": 2.002702702702703e-05, "loss": 1.5864, "step": 6760 }, { "epoch": 0.9026666666666666, "grad_norm": 2.715101480484009, "learning_rate": 1.975675675675676e-05, "loss": 1.6942, "step": 6770 }, { "epoch": 0.904, "grad_norm": 2.6553282737731934, "learning_rate": 1.9486486486486487e-05, "loss": 1.6703, "step": 6780 }, { "epoch": 0.9053333333333333, "grad_norm": 2.634984254837036, "learning_rate": 1.9216216216216216e-05, "loss": 1.6149, "step": 6790 }, { "epoch": 0.9066666666666666, "grad_norm": 2.7491838932037354, "learning_rate": 1.894594594594595e-05, "loss": 1.5419, "step": 6800 }, { "epoch": 0.908, "grad_norm": 2.5145108699798584, "learning_rate": 1.8675675675675678e-05, "loss": 1.6888, "step": 6810 }, { "epoch": 0.9093333333333333, "grad_norm": 2.5140767097473145, "learning_rate": 1.8405405405405407e-05, "loss": 1.6765, "step": 6820 }, { "epoch": 0.9106666666666666, "grad_norm": 2.548701047897339, "learning_rate": 1.8135135135135136e-05, "loss": 1.6776, "step": 6830 }, { "epoch": 0.912, "grad_norm": 2.5743017196655273, "learning_rate": 1.7864864864864865e-05, "loss": 1.6047, "step": 6840 }, { "epoch": 0.9133333333333333, "grad_norm": 2.569002151489258, "learning_rate": 1.7594594594594597e-05, "loss": 1.6433, "step": 6850 }, { "epoch": 0.9146666666666666, "grad_norm": 2.7466344833374023, "learning_rate": 1.7324324324324326e-05, "loss": 1.469, "step": 6860 }, { "epoch": 0.916, "grad_norm": 2.4851741790771484, "learning_rate": 1.7054054054054055e-05, "loss": 1.755, "step": 6870 }, { "epoch": 0.9173333333333333, "grad_norm": 2.8213634490966797, "learning_rate": 1.6783783783783784e-05, "loss": 1.7171, "step": 6880 }, { "epoch": 0.9186666666666666, "grad_norm": 2.4094128608703613, "learning_rate": 1.6513513513513513e-05, "loss": 1.7336, "step": 6890 }, { "epoch": 0.92, "grad_norm": 2.748495578765869, "learning_rate": 1.6243243243243246e-05, "loss": 1.7019, "step": 6900 }, { "epoch": 0.9213333333333333, "grad_norm": 2.6169843673706055, "learning_rate": 1.5972972972972975e-05, "loss": 1.6504, "step": 6910 }, { "epoch": 0.9226666666666666, "grad_norm": 2.2441680431365967, "learning_rate": 1.5702702702702704e-05, "loss": 1.4319, "step": 6920 }, { "epoch": 0.924, "grad_norm": 2.5555968284606934, "learning_rate": 1.5432432432432433e-05, "loss": 1.7728, "step": 6930 }, { "epoch": 0.9253333333333333, "grad_norm": 2.4957871437072754, "learning_rate": 1.5162162162162164e-05, "loss": 1.7825, "step": 6940 }, { "epoch": 0.9266666666666666, "grad_norm": 2.550595283508301, "learning_rate": 1.4891891891891893e-05, "loss": 1.603, "step": 6950 }, { "epoch": 0.928, "grad_norm": 2.6314826011657715, "learning_rate": 1.4621621621621623e-05, "loss": 1.7567, "step": 6960 }, { "epoch": 0.9293333333333333, "grad_norm": 2.9072461128234863, "learning_rate": 1.4351351351351352e-05, "loss": 1.6172, "step": 6970 }, { "epoch": 0.9306666666666666, "grad_norm": 3.2710816860198975, "learning_rate": 1.4081081081081081e-05, "loss": 1.6034, "step": 6980 }, { "epoch": 0.932, "grad_norm": 2.4734737873077393, "learning_rate": 1.3810810810810812e-05, "loss": 1.6267, "step": 6990 }, { "epoch": 0.9333333333333333, "grad_norm": 2.662058115005493, "learning_rate": 1.3540540540540541e-05, "loss": 1.6551, "step": 7000 }, { "epoch": 0.9346666666666666, "grad_norm": 2.6980836391448975, "learning_rate": 1.3270270270270272e-05, "loss": 1.6888, "step": 7010 }, { "epoch": 0.936, "grad_norm": 2.771665096282959, "learning_rate": 1.3000000000000001e-05, "loss": 1.7321, "step": 7020 }, { "epoch": 0.9373333333333334, "grad_norm": 2.653038740158081, "learning_rate": 1.2729729729729732e-05, "loss": 1.7143, "step": 7030 }, { "epoch": 0.9386666666666666, "grad_norm": 2.3817522525787354, "learning_rate": 1.245945945945946e-05, "loss": 1.5358, "step": 7040 }, { "epoch": 0.94, "grad_norm": 2.279339551925659, "learning_rate": 1.218918918918919e-05, "loss": 1.6555, "step": 7050 }, { "epoch": 0.9413333333333334, "grad_norm": 3.3182878494262695, "learning_rate": 1.191891891891892e-05, "loss": 1.6184, "step": 7060 }, { "epoch": 0.9426666666666667, "grad_norm": 2.6482789516448975, "learning_rate": 1.164864864864865e-05, "loss": 1.709, "step": 7070 }, { "epoch": 0.944, "grad_norm": 2.4812536239624023, "learning_rate": 1.137837837837838e-05, "loss": 1.7768, "step": 7080 }, { "epoch": 0.9453333333333334, "grad_norm": 3.111724615097046, "learning_rate": 1.1108108108108109e-05, "loss": 1.6812, "step": 7090 }, { "epoch": 0.9466666666666667, "grad_norm": 2.495426654815674, "learning_rate": 1.0837837837837838e-05, "loss": 1.5317, "step": 7100 }, { "epoch": 0.948, "grad_norm": 2.2483787536621094, "learning_rate": 1.0567567567567569e-05, "loss": 1.629, "step": 7110 }, { "epoch": 0.9493333333333334, "grad_norm": 2.7049107551574707, "learning_rate": 1.0297297297297298e-05, "loss": 1.5866, "step": 7120 }, { "epoch": 0.9506666666666667, "grad_norm": 3.0780189037323, "learning_rate": 1.0027027027027029e-05, "loss": 1.7374, "step": 7130 }, { "epoch": 0.952, "grad_norm": 2.746018171310425, "learning_rate": 9.756756756756758e-06, "loss": 1.5519, "step": 7140 }, { "epoch": 0.9533333333333334, "grad_norm": 2.679908514022827, "learning_rate": 9.486486486486487e-06, "loss": 1.5365, "step": 7150 }, { "epoch": 0.9546666666666667, "grad_norm": 2.8329336643218994, "learning_rate": 9.216216216216217e-06, "loss": 1.62, "step": 7160 }, { "epoch": 0.956, "grad_norm": 2.6065895557403564, "learning_rate": 8.945945945945946e-06, "loss": 1.7687, "step": 7170 }, { "epoch": 0.9573333333333334, "grad_norm": 2.30088472366333, "learning_rate": 8.675675675675677e-06, "loss": 1.557, "step": 7180 }, { "epoch": 0.9586666666666667, "grad_norm": 2.599210262298584, "learning_rate": 8.405405405405406e-06, "loss": 1.62, "step": 7190 }, { "epoch": 0.96, "grad_norm": 2.2358078956604004, "learning_rate": 8.135135135135135e-06, "loss": 1.6407, "step": 7200 }, { "epoch": 0.9613333333333334, "grad_norm": 2.4841508865356445, "learning_rate": 7.864864864864866e-06, "loss": 1.6056, "step": 7210 }, { "epoch": 0.9626666666666667, "grad_norm": 2.3047494888305664, "learning_rate": 7.594594594594595e-06, "loss": 1.5406, "step": 7220 }, { "epoch": 0.964, "grad_norm": 2.834550380706787, "learning_rate": 7.324324324324325e-06, "loss": 1.7274, "step": 7230 }, { "epoch": 0.9653333333333334, "grad_norm": 2.8711700439453125, "learning_rate": 7.054054054054055e-06, "loss": 1.6701, "step": 7240 }, { "epoch": 0.9666666666666667, "grad_norm": 2.738593816757202, "learning_rate": 6.7837837837837845e-06, "loss": 1.6375, "step": 7250 }, { "epoch": 0.968, "grad_norm": 2.4135043621063232, "learning_rate": 6.5135135135135135e-06, "loss": 1.6107, "step": 7260 }, { "epoch": 0.9693333333333334, "grad_norm": 2.8111422061920166, "learning_rate": 6.243243243243243e-06, "loss": 1.539, "step": 7270 }, { "epoch": 0.9706666666666667, "grad_norm": 2.566840648651123, "learning_rate": 5.972972972972973e-06, "loss": 1.594, "step": 7280 }, { "epoch": 0.972, "grad_norm": 2.5556352138519287, "learning_rate": 5.702702702702703e-06, "loss": 1.6455, "step": 7290 }, { "epoch": 0.9733333333333334, "grad_norm": 3.008657932281494, "learning_rate": 5.432432432432433e-06, "loss": 1.5848, "step": 7300 }, { "epoch": 0.9746666666666667, "grad_norm": 2.610825777053833, "learning_rate": 5.162162162162163e-06, "loss": 1.7194, "step": 7310 }, { "epoch": 0.976, "grad_norm": 2.616455078125, "learning_rate": 4.891891891891892e-06, "loss": 1.568, "step": 7320 }, { "epoch": 0.9773333333333334, "grad_norm": 2.8675105571746826, "learning_rate": 4.621621621621622e-06, "loss": 1.7507, "step": 7330 }, { "epoch": 0.9786666666666667, "grad_norm": 2.5159497261047363, "learning_rate": 4.351351351351352e-06, "loss": 1.7367, "step": 7340 }, { "epoch": 0.98, "grad_norm": 2.332679271697998, "learning_rate": 4.0810810810810815e-06, "loss": 1.7872, "step": 7350 }, { "epoch": 0.9813333333333333, "grad_norm": 2.50606632232666, "learning_rate": 3.810810810810811e-06, "loss": 1.7851, "step": 7360 }, { "epoch": 0.9826666666666667, "grad_norm": 2.3942174911499023, "learning_rate": 3.5405405405405408e-06, "loss": 1.735, "step": 7370 }, { "epoch": 0.984, "grad_norm": 2.652820348739624, "learning_rate": 3.27027027027027e-06, "loss": 1.549, "step": 7380 }, { "epoch": 0.9853333333333333, "grad_norm": 2.5401089191436768, "learning_rate": 3e-06, "loss": 1.7919, "step": 7390 }, { "epoch": 0.9866666666666667, "grad_norm": 2.644707679748535, "learning_rate": 2.72972972972973e-06, "loss": 1.6898, "step": 7400 }, { "epoch": 0.988, "grad_norm": 2.5156869888305664, "learning_rate": 2.4594594594594594e-06, "loss": 1.7502, "step": 7410 }, { "epoch": 0.9893333333333333, "grad_norm": 2.9626588821411133, "learning_rate": 2.1891891891891893e-06, "loss": 1.7192, "step": 7420 }, { "epoch": 0.9906666666666667, "grad_norm": 2.3246891498565674, "learning_rate": 1.9189189189189187e-06, "loss": 1.5739, "step": 7430 }, { "epoch": 0.992, "grad_norm": 2.74018931388855, "learning_rate": 1.648648648648649e-06, "loss": 1.6219, "step": 7440 }, { "epoch": 0.9933333333333333, "grad_norm": 2.560476779937744, "learning_rate": 1.3783783783783784e-06, "loss": 1.629, "step": 7450 }, { "epoch": 0.9946666666666667, "grad_norm": 2.6624557971954346, "learning_rate": 1.108108108108108e-06, "loss": 1.6837, "step": 7460 }, { "epoch": 0.996, "grad_norm": 2.5217485427856445, "learning_rate": 8.378378378378379e-07, "loss": 1.7801, "step": 7470 }, { "epoch": 0.9973333333333333, "grad_norm": 2.61094069480896, "learning_rate": 5.675675675675676e-07, "loss": 1.7075, "step": 7480 }, { "epoch": 0.9986666666666667, "grad_norm": 2.4117472171783447, "learning_rate": 2.972972972972973e-07, "loss": 1.7605, "step": 7490 }, { "epoch": 1.0, "grad_norm": 2.9337403774261475, "learning_rate": 2.7027027027027028e-08, "loss": 1.5628, "step": 7500 } ], "logging_steps": 10, "max_steps": 7500, "num_input_tokens_seen": 0, "num_train_epochs": 1, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 1.789801119744e+17, "train_batch_size": 4, "trial_name": null, "trial_params": null }