| { | |
| "best_metric": 0.663003663003663, | |
| "best_model_checkpoint": "/home/grahama/workspace/experiments/complexity/model/checkpoint-1800", | |
| "epoch": 12.0, | |
| "eval_steps": 500, | |
| "global_step": 7200, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.016666666666666666, | |
| "grad_norm": 2.3482773303985596, | |
| "learning_rate": 2.3809523809523811e-07, | |
| "loss": 0.7019, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.03333333333333333, | |
| "grad_norm": 1.3639864921569824, | |
| "learning_rate": 4.7619047619047623e-07, | |
| "loss": 0.7018, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.05, | |
| "grad_norm": 2.9051921367645264, | |
| "learning_rate": 7.142857142857143e-07, | |
| "loss": 0.7151, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.06666666666666667, | |
| "grad_norm": 1.0235440731048584, | |
| "learning_rate": 9.523809523809525e-07, | |
| "loss": 0.7034, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 0.08333333333333333, | |
| "grad_norm": 2.771768808364868, | |
| "learning_rate": 1.1904761904761906e-06, | |
| "loss": 0.7006, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.1, | |
| "grad_norm": 1.2305303812026978, | |
| "learning_rate": 1.4285714285714286e-06, | |
| "loss": 0.6995, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.11666666666666667, | |
| "grad_norm": 2.2383503913879395, | |
| "learning_rate": 1.6666666666666667e-06, | |
| "loss": 0.6994, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 0.13333333333333333, | |
| "grad_norm": 1.0624160766601562, | |
| "learning_rate": 1.904761904761905e-06, | |
| "loss": 0.6998, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 0.15, | |
| "grad_norm": 1.2018228769302368, | |
| "learning_rate": 2.1428571428571427e-06, | |
| "loss": 0.6974, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 0.16666666666666666, | |
| "grad_norm": 1.0849791765213013, | |
| "learning_rate": 2.380952380952381e-06, | |
| "loss": 0.6875, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.18333333333333332, | |
| "grad_norm": 1.291517972946167, | |
| "learning_rate": 2.6190476190476192e-06, | |
| "loss": 0.6865, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 0.2, | |
| "grad_norm": 1.056863784790039, | |
| "learning_rate": 2.8571428571428573e-06, | |
| "loss": 0.6829, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 0.21666666666666667, | |
| "grad_norm": 2.968041181564331, | |
| "learning_rate": 3.0952380952380957e-06, | |
| "loss": 0.6696, | |
| "step": 130 | |
| }, | |
| { | |
| "epoch": 0.23333333333333334, | |
| "grad_norm": 1.055704116821289, | |
| "learning_rate": 3.3333333333333333e-06, | |
| "loss": 0.6783, | |
| "step": 140 | |
| }, | |
| { | |
| "epoch": 0.25, | |
| "grad_norm": 1.6586881875991821, | |
| "learning_rate": 3.5714285714285718e-06, | |
| "loss": 0.6702, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 0.26666666666666666, | |
| "grad_norm": 2.3964574337005615, | |
| "learning_rate": 3.80952380952381e-06, | |
| "loss": 0.709, | |
| "step": 160 | |
| }, | |
| { | |
| "epoch": 0.2833333333333333, | |
| "grad_norm": 1.0744259357452393, | |
| "learning_rate": 4.047619047619048e-06, | |
| "loss": 0.7022, | |
| "step": 170 | |
| }, | |
| { | |
| "epoch": 0.3, | |
| "grad_norm": 1.071405053138733, | |
| "learning_rate": 4.2857142857142855e-06, | |
| "loss": 0.6747, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 0.31666666666666665, | |
| "grad_norm": 2.1431033611297607, | |
| "learning_rate": 4.523809523809524e-06, | |
| "loss": 0.6623, | |
| "step": 190 | |
| }, | |
| { | |
| "epoch": 0.3333333333333333, | |
| "grad_norm": 1.301439881324768, | |
| "learning_rate": 4.761904761904762e-06, | |
| "loss": 0.667, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 0.35, | |
| "grad_norm": 1.5243868827819824, | |
| "learning_rate": 5e-06, | |
| "loss": 0.6584, | |
| "step": 210 | |
| }, | |
| { | |
| "epoch": 0.36666666666666664, | |
| "grad_norm": 1.2769250869750977, | |
| "learning_rate": 5.2380952380952384e-06, | |
| "loss": 0.6898, | |
| "step": 220 | |
| }, | |
| { | |
| "epoch": 0.38333333333333336, | |
| "grad_norm": 1.274899959564209, | |
| "learning_rate": 5.476190476190477e-06, | |
| "loss": 0.6995, | |
| "step": 230 | |
| }, | |
| { | |
| "epoch": 0.4, | |
| "grad_norm": 1.658318281173706, | |
| "learning_rate": 5.7142857142857145e-06, | |
| "loss": 0.6705, | |
| "step": 240 | |
| }, | |
| { | |
| "epoch": 0.4166666666666667, | |
| "grad_norm": 2.4139277935028076, | |
| "learning_rate": 5.9523809523809525e-06, | |
| "loss": 0.6849, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 0.43333333333333335, | |
| "grad_norm": 1.5813899040222168, | |
| "learning_rate": 6.1904761904761914e-06, | |
| "loss": 0.6663, | |
| "step": 260 | |
| }, | |
| { | |
| "epoch": 0.45, | |
| "grad_norm": 1.4048871994018555, | |
| "learning_rate": 6.4285714285714295e-06, | |
| "loss": 0.6542, | |
| "step": 270 | |
| }, | |
| { | |
| "epoch": 0.4666666666666667, | |
| "grad_norm": 1.7416518926620483, | |
| "learning_rate": 6.666666666666667e-06, | |
| "loss": 0.6793, | |
| "step": 280 | |
| }, | |
| { | |
| "epoch": 0.48333333333333334, | |
| "grad_norm": 1.7340086698532104, | |
| "learning_rate": 6.9047619047619055e-06, | |
| "loss": 0.6681, | |
| "step": 290 | |
| }, | |
| { | |
| "epoch": 0.5, | |
| "grad_norm": 1.4946725368499756, | |
| "learning_rate": 7.1428571428571436e-06, | |
| "loss": 0.6758, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 0.5166666666666667, | |
| "grad_norm": 1.9904041290283203, | |
| "learning_rate": 7.380952380952382e-06, | |
| "loss": 0.6432, | |
| "step": 310 | |
| }, | |
| { | |
| "epoch": 0.5333333333333333, | |
| "grad_norm": 2.4469521045684814, | |
| "learning_rate": 7.61904761904762e-06, | |
| "loss": 0.6688, | |
| "step": 320 | |
| }, | |
| { | |
| "epoch": 0.55, | |
| "grad_norm": 2.104259967803955, | |
| "learning_rate": 7.857142857142858e-06, | |
| "loss": 0.6312, | |
| "step": 330 | |
| }, | |
| { | |
| "epoch": 0.5666666666666667, | |
| "grad_norm": 2.125582218170166, | |
| "learning_rate": 8.095238095238097e-06, | |
| "loss": 0.6712, | |
| "step": 340 | |
| }, | |
| { | |
| "epoch": 0.5833333333333334, | |
| "grad_norm": 1.9155024290084839, | |
| "learning_rate": 8.333333333333334e-06, | |
| "loss": 0.6766, | |
| "step": 350 | |
| }, | |
| { | |
| "epoch": 0.6, | |
| "grad_norm": 3.6578118801116943, | |
| "learning_rate": 8.571428571428571e-06, | |
| "loss": 0.6561, | |
| "step": 360 | |
| }, | |
| { | |
| "epoch": 0.6166666666666667, | |
| "grad_norm": 2.083104133605957, | |
| "learning_rate": 8.80952380952381e-06, | |
| "loss": 0.6374, | |
| "step": 370 | |
| }, | |
| { | |
| "epoch": 0.6333333333333333, | |
| "grad_norm": 4.414960861206055, | |
| "learning_rate": 9.047619047619049e-06, | |
| "loss": 0.6512, | |
| "step": 380 | |
| }, | |
| { | |
| "epoch": 0.65, | |
| "grad_norm": 2.075925588607788, | |
| "learning_rate": 9.285714285714288e-06, | |
| "loss": 0.6316, | |
| "step": 390 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "grad_norm": 3.132584571838379, | |
| "learning_rate": 9.523809523809525e-06, | |
| "loss": 0.6424, | |
| "step": 400 | |
| }, | |
| { | |
| "epoch": 0.6833333333333333, | |
| "grad_norm": 2.2723052501678467, | |
| "learning_rate": 9.761904761904762e-06, | |
| "loss": 0.6395, | |
| "step": 410 | |
| }, | |
| { | |
| "epoch": 0.7, | |
| "grad_norm": 4.37326192855835, | |
| "learning_rate": 1e-05, | |
| "loss": 0.6519, | |
| "step": 420 | |
| }, | |
| { | |
| "epoch": 0.7166666666666667, | |
| "grad_norm": 3.2006280422210693, | |
| "learning_rate": 1.0238095238095238e-05, | |
| "loss": 0.6429, | |
| "step": 430 | |
| }, | |
| { | |
| "epoch": 0.7333333333333333, | |
| "grad_norm": 3.0944504737854004, | |
| "learning_rate": 1.0476190476190477e-05, | |
| "loss": 0.6756, | |
| "step": 440 | |
| }, | |
| { | |
| "epoch": 0.75, | |
| "grad_norm": 5.158036708831787, | |
| "learning_rate": 1.0714285714285714e-05, | |
| "loss": 0.6863, | |
| "step": 450 | |
| }, | |
| { | |
| "epoch": 0.7666666666666667, | |
| "grad_norm": 3.744805335998535, | |
| "learning_rate": 1.0952380952380955e-05, | |
| "loss": 0.6826, | |
| "step": 460 | |
| }, | |
| { | |
| "epoch": 0.7833333333333333, | |
| "grad_norm": 2.350935220718384, | |
| "learning_rate": 1.1190476190476192e-05, | |
| "loss": 0.6465, | |
| "step": 470 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "grad_norm": 2.391106367111206, | |
| "learning_rate": 1.1428571428571429e-05, | |
| "loss": 0.6494, | |
| "step": 480 | |
| }, | |
| { | |
| "epoch": 0.8166666666666667, | |
| "grad_norm": 2.6871049404144287, | |
| "learning_rate": 1.1666666666666668e-05, | |
| "loss": 0.614, | |
| "step": 490 | |
| }, | |
| { | |
| "epoch": 0.8333333333333334, | |
| "grad_norm": 2.496380567550659, | |
| "learning_rate": 1.1904761904761905e-05, | |
| "loss": 0.639, | |
| "step": 500 | |
| }, | |
| { | |
| "epoch": 0.85, | |
| "grad_norm": 3.1409785747528076, | |
| "learning_rate": 1.2142857142857142e-05, | |
| "loss": 0.6906, | |
| "step": 510 | |
| }, | |
| { | |
| "epoch": 0.8666666666666667, | |
| "grad_norm": 2.4331531524658203, | |
| "learning_rate": 1.2380952380952383e-05, | |
| "loss": 0.5914, | |
| "step": 520 | |
| }, | |
| { | |
| "epoch": 0.8833333333333333, | |
| "grad_norm": 2.956902265548706, | |
| "learning_rate": 1.261904761904762e-05, | |
| "loss": 0.7081, | |
| "step": 530 | |
| }, | |
| { | |
| "epoch": 0.9, | |
| "grad_norm": 2.1885573863983154, | |
| "learning_rate": 1.2857142857142859e-05, | |
| "loss": 0.6466, | |
| "step": 540 | |
| }, | |
| { | |
| "epoch": 0.9166666666666666, | |
| "grad_norm": 2.6431517601013184, | |
| "learning_rate": 1.3095238095238096e-05, | |
| "loss": 0.6631, | |
| "step": 550 | |
| }, | |
| { | |
| "epoch": 0.9333333333333333, | |
| "grad_norm": 2.1615426540374756, | |
| "learning_rate": 1.3333333333333333e-05, | |
| "loss": 0.6735, | |
| "step": 560 | |
| }, | |
| { | |
| "epoch": 0.95, | |
| "grad_norm": 2.0207862854003906, | |
| "learning_rate": 1.3571428571428574e-05, | |
| "loss": 0.6325, | |
| "step": 570 | |
| }, | |
| { | |
| "epoch": 0.9666666666666667, | |
| "grad_norm": 2.8899736404418945, | |
| "learning_rate": 1.3809523809523811e-05, | |
| "loss": 0.6519, | |
| "step": 580 | |
| }, | |
| { | |
| "epoch": 0.9833333333333333, | |
| "grad_norm": 2.453443765640259, | |
| "learning_rate": 1.4047619047619048e-05, | |
| "loss": 0.6532, | |
| "step": 590 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "grad_norm": 3.556234121322632, | |
| "learning_rate": 1.4285714285714287e-05, | |
| "loss": 0.5941, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "eval_accuracy": 0.6461538461538462, | |
| "eval_loss": 0.6432204246520996, | |
| "eval_runtime": 4.8353, | |
| "eval_samples_per_second": 282.297, | |
| "eval_steps_per_second": 17.786, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 1.0166666666666666, | |
| "grad_norm": 2.244147539138794, | |
| "learning_rate": 1.4523809523809524e-05, | |
| "loss": 0.6154, | |
| "step": 610 | |
| }, | |
| { | |
| "epoch": 1.0333333333333334, | |
| "grad_norm": 2.3262217044830322, | |
| "learning_rate": 1.4761904761904763e-05, | |
| "loss": 0.5981, | |
| "step": 620 | |
| }, | |
| { | |
| "epoch": 1.05, | |
| "grad_norm": 2.543795347213745, | |
| "learning_rate": 1.5000000000000002e-05, | |
| "loss": 0.6061, | |
| "step": 630 | |
| }, | |
| { | |
| "epoch": 1.0666666666666667, | |
| "grad_norm": 3.5577542781829834, | |
| "learning_rate": 1.523809523809524e-05, | |
| "loss": 0.6432, | |
| "step": 640 | |
| }, | |
| { | |
| "epoch": 1.0833333333333333, | |
| "grad_norm": 3.3030037879943848, | |
| "learning_rate": 1.5476190476190476e-05, | |
| "loss": 0.5663, | |
| "step": 650 | |
| }, | |
| { | |
| "epoch": 1.1, | |
| "grad_norm": 2.2861194610595703, | |
| "learning_rate": 1.5714285714285715e-05, | |
| "loss": 0.6242, | |
| "step": 660 | |
| }, | |
| { | |
| "epoch": 1.1166666666666667, | |
| "grad_norm": 3.9813036918640137, | |
| "learning_rate": 1.5952380952380954e-05, | |
| "loss": 0.6192, | |
| "step": 670 | |
| }, | |
| { | |
| "epoch": 1.1333333333333333, | |
| "grad_norm": 5.103733062744141, | |
| "learning_rate": 1.6190476190476193e-05, | |
| "loss": 0.6288, | |
| "step": 680 | |
| }, | |
| { | |
| "epoch": 1.15, | |
| "grad_norm": 4.313375949859619, | |
| "learning_rate": 1.642857142857143e-05, | |
| "loss": 0.5938, | |
| "step": 690 | |
| }, | |
| { | |
| "epoch": 1.1666666666666667, | |
| "grad_norm": 3.633436918258667, | |
| "learning_rate": 1.6666666666666667e-05, | |
| "loss": 0.6003, | |
| "step": 700 | |
| }, | |
| { | |
| "epoch": 1.1833333333333333, | |
| "grad_norm": 3.060312509536743, | |
| "learning_rate": 1.6904761904761906e-05, | |
| "loss": 0.6214, | |
| "step": 710 | |
| }, | |
| { | |
| "epoch": 1.2, | |
| "grad_norm": 3.6623165607452393, | |
| "learning_rate": 1.7142857142857142e-05, | |
| "loss": 0.6283, | |
| "step": 720 | |
| }, | |
| { | |
| "epoch": 1.2166666666666668, | |
| "grad_norm": 2.556682586669922, | |
| "learning_rate": 1.7380952380952384e-05, | |
| "loss": 0.603, | |
| "step": 730 | |
| }, | |
| { | |
| "epoch": 1.2333333333333334, | |
| "grad_norm": 3.2409424781799316, | |
| "learning_rate": 1.761904761904762e-05, | |
| "loss": 0.6463, | |
| "step": 740 | |
| }, | |
| { | |
| "epoch": 1.25, | |
| "grad_norm": 3.6875534057617188, | |
| "learning_rate": 1.785714285714286e-05, | |
| "loss": 0.5864, | |
| "step": 750 | |
| }, | |
| { | |
| "epoch": 1.2666666666666666, | |
| "grad_norm": 2.9428772926330566, | |
| "learning_rate": 1.8095238095238097e-05, | |
| "loss": 0.6349, | |
| "step": 760 | |
| }, | |
| { | |
| "epoch": 1.2833333333333332, | |
| "grad_norm": 2.926853656768799, | |
| "learning_rate": 1.8333333333333333e-05, | |
| "loss": 0.6658, | |
| "step": 770 | |
| }, | |
| { | |
| "epoch": 1.3, | |
| "grad_norm": 3.1792550086975098, | |
| "learning_rate": 1.8571428571428575e-05, | |
| "loss": 0.6263, | |
| "step": 780 | |
| }, | |
| { | |
| "epoch": 1.3166666666666667, | |
| "grad_norm": 2.887868642807007, | |
| "learning_rate": 1.880952380952381e-05, | |
| "loss": 0.5737, | |
| "step": 790 | |
| }, | |
| { | |
| "epoch": 1.3333333333333333, | |
| "grad_norm": 3.9215023517608643, | |
| "learning_rate": 1.904761904761905e-05, | |
| "loss": 0.5895, | |
| "step": 800 | |
| }, | |
| { | |
| "epoch": 1.35, | |
| "grad_norm": 3.228184938430786, | |
| "learning_rate": 1.928571428571429e-05, | |
| "loss": 0.675, | |
| "step": 810 | |
| }, | |
| { | |
| "epoch": 1.3666666666666667, | |
| "grad_norm": 2.5528361797332764, | |
| "learning_rate": 1.9523809523809524e-05, | |
| "loss": 0.612, | |
| "step": 820 | |
| }, | |
| { | |
| "epoch": 1.3833333333333333, | |
| "grad_norm": 3.355010509490967, | |
| "learning_rate": 1.9761904761904763e-05, | |
| "loss": 0.6137, | |
| "step": 830 | |
| }, | |
| { | |
| "epoch": 1.4, | |
| "grad_norm": 5.365524768829346, | |
| "learning_rate": 2e-05, | |
| "loss": 0.6278, | |
| "step": 840 | |
| }, | |
| { | |
| "epoch": 1.4166666666666667, | |
| "grad_norm": 2.9840915203094482, | |
| "learning_rate": 1.999991365731819e-05, | |
| "loss": 0.6106, | |
| "step": 850 | |
| }, | |
| { | |
| "epoch": 1.4333333333333333, | |
| "grad_norm": 3.0227549076080322, | |
| "learning_rate": 1.999965463076377e-05, | |
| "loss": 0.6136, | |
| "step": 860 | |
| }, | |
| { | |
| "epoch": 1.45, | |
| "grad_norm": 4.935601711273193, | |
| "learning_rate": 1.999922292480975e-05, | |
| "loss": 0.6194, | |
| "step": 870 | |
| }, | |
| { | |
| "epoch": 1.4666666666666668, | |
| "grad_norm": 2.947390556335449, | |
| "learning_rate": 1.999861854691106e-05, | |
| "loss": 0.6737, | |
| "step": 880 | |
| }, | |
| { | |
| "epoch": 1.4833333333333334, | |
| "grad_norm": 3.2077040672302246, | |
| "learning_rate": 1.999784150750442e-05, | |
| "loss": 0.5906, | |
| "step": 890 | |
| }, | |
| { | |
| "epoch": 1.5, | |
| "grad_norm": 2.1263020038604736, | |
| "learning_rate": 1.9996891820008165e-05, | |
| "loss": 0.6731, | |
| "step": 900 | |
| }, | |
| { | |
| "epoch": 1.5166666666666666, | |
| "grad_norm": 3.1736927032470703, | |
| "learning_rate": 1.9995769500822007e-05, | |
| "loss": 0.5658, | |
| "step": 910 | |
| }, | |
| { | |
| "epoch": 1.5333333333333332, | |
| "grad_norm": 3.766897201538086, | |
| "learning_rate": 1.999447456932676e-05, | |
| "loss": 0.6082, | |
| "step": 920 | |
| }, | |
| { | |
| "epoch": 1.55, | |
| "grad_norm": 7.309018135070801, | |
| "learning_rate": 1.9993007047883988e-05, | |
| "loss": 0.5453, | |
| "step": 930 | |
| }, | |
| { | |
| "epoch": 1.5666666666666667, | |
| "grad_norm": 6.418699264526367, | |
| "learning_rate": 1.9991366961835643e-05, | |
| "loss": 0.6428, | |
| "step": 940 | |
| }, | |
| { | |
| "epoch": 1.5833333333333335, | |
| "grad_norm": 2.967588424682617, | |
| "learning_rate": 1.9989554339503612e-05, | |
| "loss": 0.6075, | |
| "step": 950 | |
| }, | |
| { | |
| "epoch": 1.6, | |
| "grad_norm": 3.2338814735412598, | |
| "learning_rate": 1.9987569212189224e-05, | |
| "loss": 0.6513, | |
| "step": 960 | |
| }, | |
| { | |
| "epoch": 1.6166666666666667, | |
| "grad_norm": 2.6137988567352295, | |
| "learning_rate": 1.9985411614172728e-05, | |
| "loss": 0.6457, | |
| "step": 970 | |
| }, | |
| { | |
| "epoch": 1.6333333333333333, | |
| "grad_norm": 2.2644853591918945, | |
| "learning_rate": 1.9983081582712684e-05, | |
| "loss": 0.6146, | |
| "step": 980 | |
| }, | |
| { | |
| "epoch": 1.65, | |
| "grad_norm": 3.580810785293579, | |
| "learning_rate": 1.9980579158045322e-05, | |
| "loss": 0.6434, | |
| "step": 990 | |
| }, | |
| { | |
| "epoch": 1.6666666666666665, | |
| "grad_norm": 3.8415021896362305, | |
| "learning_rate": 1.997790438338385e-05, | |
| "loss": 0.6149, | |
| "step": 1000 | |
| }, | |
| { | |
| "epoch": 1.6833333333333333, | |
| "grad_norm": 3.2889180183410645, | |
| "learning_rate": 1.997505730491772e-05, | |
| "loss": 0.6029, | |
| "step": 1010 | |
| }, | |
| { | |
| "epoch": 1.7, | |
| "grad_norm": 3.0964486598968506, | |
| "learning_rate": 1.9972037971811802e-05, | |
| "loss": 0.6128, | |
| "step": 1020 | |
| }, | |
| { | |
| "epoch": 1.7166666666666668, | |
| "grad_norm": 3.3787407875061035, | |
| "learning_rate": 1.9968846436205566e-05, | |
| "loss": 0.6478, | |
| "step": 1030 | |
| }, | |
| { | |
| "epoch": 1.7333333333333334, | |
| "grad_norm": 3.098156452178955, | |
| "learning_rate": 1.9965482753212154e-05, | |
| "loss": 0.617, | |
| "step": 1040 | |
| }, | |
| { | |
| "epoch": 1.75, | |
| "grad_norm": 3.4448206424713135, | |
| "learning_rate": 1.9961946980917457e-05, | |
| "loss": 0.6047, | |
| "step": 1050 | |
| }, | |
| { | |
| "epoch": 1.7666666666666666, | |
| "grad_norm": 2.8418798446655273, | |
| "learning_rate": 1.995823918037908e-05, | |
| "loss": 0.6228, | |
| "step": 1060 | |
| }, | |
| { | |
| "epoch": 1.7833333333333332, | |
| "grad_norm": 2.9955010414123535, | |
| "learning_rate": 1.9954359415625313e-05, | |
| "loss": 0.6033, | |
| "step": 1070 | |
| }, | |
| { | |
| "epoch": 1.8, | |
| "grad_norm": 3.4788753986358643, | |
| "learning_rate": 1.9950307753654016e-05, | |
| "loss": 0.5801, | |
| "step": 1080 | |
| }, | |
| { | |
| "epoch": 1.8166666666666667, | |
| "grad_norm": 2.713418483734131, | |
| "learning_rate": 1.994608426443146e-05, | |
| "loss": 0.5789, | |
| "step": 1090 | |
| }, | |
| { | |
| "epoch": 1.8333333333333335, | |
| "grad_norm": 3.982531785964966, | |
| "learning_rate": 1.994168902089112e-05, | |
| "loss": 0.6497, | |
| "step": 1100 | |
| }, | |
| { | |
| "epoch": 1.85, | |
| "grad_norm": 2.0478599071502686, | |
| "learning_rate": 1.9937122098932428e-05, | |
| "loss": 0.6031, | |
| "step": 1110 | |
| }, | |
| { | |
| "epoch": 1.8666666666666667, | |
| "grad_norm": 5.567689418792725, | |
| "learning_rate": 1.9932383577419432e-05, | |
| "loss": 0.6487, | |
| "step": 1120 | |
| }, | |
| { | |
| "epoch": 1.8833333333333333, | |
| "grad_norm": 2.5129470825195312, | |
| "learning_rate": 1.9927473538179467e-05, | |
| "loss": 0.5877, | |
| "step": 1130 | |
| }, | |
| { | |
| "epoch": 1.9, | |
| "grad_norm": 2.4075396060943604, | |
| "learning_rate": 1.9922392066001724e-05, | |
| "loss": 0.6478, | |
| "step": 1140 | |
| }, | |
| { | |
| "epoch": 1.9166666666666665, | |
| "grad_norm": 3.643559217453003, | |
| "learning_rate": 1.9917139248635788e-05, | |
| "loss": 0.625, | |
| "step": 1150 | |
| }, | |
| { | |
| "epoch": 1.9333333333333333, | |
| "grad_norm": 3.3517959117889404, | |
| "learning_rate": 1.991171517679013e-05, | |
| "loss": 0.6502, | |
| "step": 1160 | |
| }, | |
| { | |
| "epoch": 1.95, | |
| "grad_norm": 2.3340976238250732, | |
| "learning_rate": 1.9906119944130527e-05, | |
| "loss": 0.6354, | |
| "step": 1170 | |
| }, | |
| { | |
| "epoch": 1.9666666666666668, | |
| "grad_norm": 2.662628173828125, | |
| "learning_rate": 1.9900353647278466e-05, | |
| "loss": 0.6282, | |
| "step": 1180 | |
| }, | |
| { | |
| "epoch": 1.9833333333333334, | |
| "grad_norm": 3.3780112266540527, | |
| "learning_rate": 1.9894416385809444e-05, | |
| "loss": 0.6428, | |
| "step": 1190 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "grad_norm": 1.9971626996994019, | |
| "learning_rate": 1.9888308262251286e-05, | |
| "loss": 0.6028, | |
| "step": 1200 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "eval_accuracy": 0.6571428571428571, | |
| "eval_loss": 0.6266757845878601, | |
| "eval_runtime": 1.9428, | |
| "eval_samples_per_second": 702.601, | |
| "eval_steps_per_second": 44.266, | |
| "step": 1200 | |
| }, | |
| { | |
| "epoch": 2.0166666666666666, | |
| "grad_norm": 2.3505845069885254, | |
| "learning_rate": 1.9882029382082342e-05, | |
| "loss": 0.5231, | |
| "step": 1210 | |
| }, | |
| { | |
| "epoch": 2.033333333333333, | |
| "grad_norm": 3.543018102645874, | |
| "learning_rate": 1.9875579853729677e-05, | |
| "loss": 0.6002, | |
| "step": 1220 | |
| }, | |
| { | |
| "epoch": 2.05, | |
| "grad_norm": 2.687847852706909, | |
| "learning_rate": 1.9868959788567213e-05, | |
| "loss": 0.5469, | |
| "step": 1230 | |
| }, | |
| { | |
| "epoch": 2.066666666666667, | |
| "grad_norm": 4.663837909698486, | |
| "learning_rate": 1.9862169300913784e-05, | |
| "loss": 0.5582, | |
| "step": 1240 | |
| }, | |
| { | |
| "epoch": 2.0833333333333335, | |
| "grad_norm": 4.063023090362549, | |
| "learning_rate": 1.9855208508031173e-05, | |
| "loss": 0.549, | |
| "step": 1250 | |
| }, | |
| { | |
| "epoch": 2.1, | |
| "grad_norm": 5.092895984649658, | |
| "learning_rate": 1.9848077530122083e-05, | |
| "loss": 0.607, | |
| "step": 1260 | |
| }, | |
| { | |
| "epoch": 2.1166666666666667, | |
| "grad_norm": 3.7984111309051514, | |
| "learning_rate": 1.9840776490328067e-05, | |
| "loss": 0.592, | |
| "step": 1270 | |
| }, | |
| { | |
| "epoch": 2.1333333333333333, | |
| "grad_norm": 3.775224447250366, | |
| "learning_rate": 1.9833305514727396e-05, | |
| "loss": 0.5196, | |
| "step": 1280 | |
| }, | |
| { | |
| "epoch": 2.15, | |
| "grad_norm": 5.623272895812988, | |
| "learning_rate": 1.9825664732332886e-05, | |
| "loss": 0.5283, | |
| "step": 1290 | |
| }, | |
| { | |
| "epoch": 2.1666666666666665, | |
| "grad_norm": 4.856538772583008, | |
| "learning_rate": 1.981785427508966e-05, | |
| "loss": 0.518, | |
| "step": 1300 | |
| }, | |
| { | |
| "epoch": 2.183333333333333, | |
| "grad_norm": 5.726941108703613, | |
| "learning_rate": 1.9809874277872886e-05, | |
| "loss": 0.5532, | |
| "step": 1310 | |
| }, | |
| { | |
| "epoch": 2.2, | |
| "grad_norm": 5.120604515075684, | |
| "learning_rate": 1.9801724878485438e-05, | |
| "loss": 0.5172, | |
| "step": 1320 | |
| }, | |
| { | |
| "epoch": 2.216666666666667, | |
| "grad_norm": 7.325108051300049, | |
| "learning_rate": 1.9793406217655516e-05, | |
| "loss": 0.5383, | |
| "step": 1330 | |
| }, | |
| { | |
| "epoch": 2.2333333333333334, | |
| "grad_norm": 5.705660820007324, | |
| "learning_rate": 1.9784918439034216e-05, | |
| "loss": 0.4953, | |
| "step": 1340 | |
| }, | |
| { | |
| "epoch": 2.25, | |
| "grad_norm": 6.060757637023926, | |
| "learning_rate": 1.977626168919305e-05, | |
| "loss": 0.5214, | |
| "step": 1350 | |
| }, | |
| { | |
| "epoch": 2.2666666666666666, | |
| "grad_norm": 3.8743319511413574, | |
| "learning_rate": 1.9767436117621416e-05, | |
| "loss": 0.5362, | |
| "step": 1360 | |
| }, | |
| { | |
| "epoch": 2.283333333333333, | |
| "grad_norm": 4.374029636383057, | |
| "learning_rate": 1.975844187672402e-05, | |
| "loss": 0.5604, | |
| "step": 1370 | |
| }, | |
| { | |
| "epoch": 2.3, | |
| "grad_norm": 6.106194019317627, | |
| "learning_rate": 1.9749279121818235e-05, | |
| "loss": 0.5306, | |
| "step": 1380 | |
| }, | |
| { | |
| "epoch": 2.3166666666666664, | |
| "grad_norm": 5.56414270401001, | |
| "learning_rate": 1.9739948011131438e-05, | |
| "loss": 0.5369, | |
| "step": 1390 | |
| }, | |
| { | |
| "epoch": 2.3333333333333335, | |
| "grad_norm": 3.9365651607513428, | |
| "learning_rate": 1.973044870579824e-05, | |
| "loss": 0.526, | |
| "step": 1400 | |
| }, | |
| { | |
| "epoch": 2.35, | |
| "grad_norm": 4.8061394691467285, | |
| "learning_rate": 1.9720781369857747e-05, | |
| "loss": 0.5264, | |
| "step": 1410 | |
| }, | |
| { | |
| "epoch": 2.3666666666666667, | |
| "grad_norm": 5.648602485656738, | |
| "learning_rate": 1.9710946170250702e-05, | |
| "loss": 0.5488, | |
| "step": 1420 | |
| }, | |
| { | |
| "epoch": 2.3833333333333333, | |
| "grad_norm": 4.482698917388916, | |
| "learning_rate": 1.9700943276816602e-05, | |
| "loss": 0.5014, | |
| "step": 1430 | |
| }, | |
| { | |
| "epoch": 2.4, | |
| "grad_norm": 5.18354606628418, | |
| "learning_rate": 1.969077286229078e-05, | |
| "loss": 0.5383, | |
| "step": 1440 | |
| }, | |
| { | |
| "epoch": 2.4166666666666665, | |
| "grad_norm": 5.076839923858643, | |
| "learning_rate": 1.9680435102301412e-05, | |
| "loss": 0.5387, | |
| "step": 1450 | |
| }, | |
| { | |
| "epoch": 2.4333333333333336, | |
| "grad_norm": 5.83772611618042, | |
| "learning_rate": 1.9669930175366474e-05, | |
| "loss": 0.4779, | |
| "step": 1460 | |
| }, | |
| { | |
| "epoch": 2.45, | |
| "grad_norm": 5.16604471206665, | |
| "learning_rate": 1.9659258262890683e-05, | |
| "loss": 0.5521, | |
| "step": 1470 | |
| }, | |
| { | |
| "epoch": 2.466666666666667, | |
| "grad_norm": 4.944518089294434, | |
| "learning_rate": 1.964841954916235e-05, | |
| "loss": 0.4844, | |
| "step": 1480 | |
| }, | |
| { | |
| "epoch": 2.4833333333333334, | |
| "grad_norm": 6.394619941711426, | |
| "learning_rate": 1.9637414221350198e-05, | |
| "loss": 0.567, | |
| "step": 1490 | |
| }, | |
| { | |
| "epoch": 2.5, | |
| "grad_norm": 5.958597183227539, | |
| "learning_rate": 1.962624246950012e-05, | |
| "loss": 0.4951, | |
| "step": 1500 | |
| }, | |
| { | |
| "epoch": 2.5166666666666666, | |
| "grad_norm": 4.636740207672119, | |
| "learning_rate": 1.9614904486531935e-05, | |
| "loss": 0.5123, | |
| "step": 1510 | |
| }, | |
| { | |
| "epoch": 2.533333333333333, | |
| "grad_norm": 4.756173610687256, | |
| "learning_rate": 1.9603400468236e-05, | |
| "loss": 0.58, | |
| "step": 1520 | |
| }, | |
| { | |
| "epoch": 2.55, | |
| "grad_norm": 3.969093084335327, | |
| "learning_rate": 1.9591730613269878e-05, | |
| "loss": 0.5517, | |
| "step": 1530 | |
| }, | |
| { | |
| "epoch": 2.5666666666666664, | |
| "grad_norm": 4.5238237380981445, | |
| "learning_rate": 1.957989512315489e-05, | |
| "loss": 0.5167, | |
| "step": 1540 | |
| }, | |
| { | |
| "epoch": 2.5833333333333335, | |
| "grad_norm": 5.810571670532227, | |
| "learning_rate": 1.9567894202272623e-05, | |
| "loss": 0.4826, | |
| "step": 1550 | |
| }, | |
| { | |
| "epoch": 2.6, | |
| "grad_norm": 4.773239612579346, | |
| "learning_rate": 1.955572805786141e-05, | |
| "loss": 0.5443, | |
| "step": 1560 | |
| }, | |
| { | |
| "epoch": 2.6166666666666667, | |
| "grad_norm": 4.351752281188965, | |
| "learning_rate": 1.9543396900012763e-05, | |
| "loss": 0.526, | |
| "step": 1570 | |
| }, | |
| { | |
| "epoch": 2.6333333333333333, | |
| "grad_norm": 5.192873954772949, | |
| "learning_rate": 1.9530900941667733e-05, | |
| "loss": 0.5179, | |
| "step": 1580 | |
| }, | |
| { | |
| "epoch": 2.65, | |
| "grad_norm": 5.123302936553955, | |
| "learning_rate": 1.9518240398613226e-05, | |
| "loss": 0.528, | |
| "step": 1590 | |
| }, | |
| { | |
| "epoch": 2.6666666666666665, | |
| "grad_norm": 4.081309795379639, | |
| "learning_rate": 1.9505415489478293e-05, | |
| "loss": 0.592, | |
| "step": 1600 | |
| }, | |
| { | |
| "epoch": 2.6833333333333336, | |
| "grad_norm": 6.409515857696533, | |
| "learning_rate": 1.949242643573034e-05, | |
| "loss": 0.5388, | |
| "step": 1610 | |
| }, | |
| { | |
| "epoch": 2.7, | |
| "grad_norm": 5.410388469696045, | |
| "learning_rate": 1.947927346167132e-05, | |
| "loss": 0.5233, | |
| "step": 1620 | |
| }, | |
| { | |
| "epoch": 2.716666666666667, | |
| "grad_norm": 3.5235464572906494, | |
| "learning_rate": 1.9465956794433837e-05, | |
| "loss": 0.5285, | |
| "step": 1630 | |
| }, | |
| { | |
| "epoch": 2.7333333333333334, | |
| "grad_norm": 5.431538105010986, | |
| "learning_rate": 1.945247666397725e-05, | |
| "loss": 0.4719, | |
| "step": 1640 | |
| }, | |
| { | |
| "epoch": 2.75, | |
| "grad_norm": 6.913374900817871, | |
| "learning_rate": 1.9438833303083677e-05, | |
| "loss": 0.4603, | |
| "step": 1650 | |
| }, | |
| { | |
| "epoch": 2.7666666666666666, | |
| "grad_norm": 6.34077262878418, | |
| "learning_rate": 1.9425026947353994e-05, | |
| "loss": 0.5288, | |
| "step": 1660 | |
| }, | |
| { | |
| "epoch": 2.783333333333333, | |
| "grad_norm": 4.550387382507324, | |
| "learning_rate": 1.9411057835203756e-05, | |
| "loss": 0.4983, | |
| "step": 1670 | |
| }, | |
| { | |
| "epoch": 2.8, | |
| "grad_norm": 4.740011692047119, | |
| "learning_rate": 1.9396926207859085e-05, | |
| "loss": 0.4939, | |
| "step": 1680 | |
| }, | |
| { | |
| "epoch": 2.8166666666666664, | |
| "grad_norm": 5.84373664855957, | |
| "learning_rate": 1.9382632309352503e-05, | |
| "loss": 0.5498, | |
| "step": 1690 | |
| }, | |
| { | |
| "epoch": 2.8333333333333335, | |
| "grad_norm": 4.3570027351379395, | |
| "learning_rate": 1.936817638651871e-05, | |
| "loss": 0.4716, | |
| "step": 1700 | |
| }, | |
| { | |
| "epoch": 2.85, | |
| "grad_norm": 5.5916666984558105, | |
| "learning_rate": 1.935355868899034e-05, | |
| "loss": 0.5037, | |
| "step": 1710 | |
| }, | |
| { | |
| "epoch": 2.8666666666666667, | |
| "grad_norm": 4.379909038543701, | |
| "learning_rate": 1.9338779469193638e-05, | |
| "loss": 0.5789, | |
| "step": 1720 | |
| }, | |
| { | |
| "epoch": 2.8833333333333333, | |
| "grad_norm": 5.084365367889404, | |
| "learning_rate": 1.9323838982344092e-05, | |
| "loss": 0.5584, | |
| "step": 1730 | |
| }, | |
| { | |
| "epoch": 2.9, | |
| "grad_norm": 6.741174221038818, | |
| "learning_rate": 1.9308737486442045e-05, | |
| "loss": 0.5089, | |
| "step": 1740 | |
| }, | |
| { | |
| "epoch": 2.9166666666666665, | |
| "grad_norm": 6.0026469230651855, | |
| "learning_rate": 1.9293475242268224e-05, | |
| "loss": 0.4928, | |
| "step": 1750 | |
| }, | |
| { | |
| "epoch": 2.9333333333333336, | |
| "grad_norm": 6.163332939147949, | |
| "learning_rate": 1.9278052513379256e-05, | |
| "loss": 0.5397, | |
| "step": 1760 | |
| }, | |
| { | |
| "epoch": 2.95, | |
| "grad_norm": 5.151211738586426, | |
| "learning_rate": 1.926246956610309e-05, | |
| "loss": 0.5085, | |
| "step": 1770 | |
| }, | |
| { | |
| "epoch": 2.966666666666667, | |
| "grad_norm": 5.902535915374756, | |
| "learning_rate": 1.9246726669534416e-05, | |
| "loss": 0.5619, | |
| "step": 1780 | |
| }, | |
| { | |
| "epoch": 2.9833333333333334, | |
| "grad_norm": 4.26236629486084, | |
| "learning_rate": 1.923082409553002e-05, | |
| "loss": 0.4873, | |
| "step": 1790 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "grad_norm": 9.270946502685547, | |
| "learning_rate": 1.921476211870408e-05, | |
| "loss": 0.5346, | |
| "step": 1800 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "eval_accuracy": 0.663003663003663, | |
| "eval_loss": 0.6800894737243652, | |
| "eval_runtime": 2.0234, | |
| "eval_samples_per_second": 674.621, | |
| "eval_steps_per_second": 42.504, | |
| "step": 1800 | |
| }, | |
| { | |
| "epoch": 3.0166666666666666, | |
| "grad_norm": 8.520913124084473, | |
| "learning_rate": 1.919854101642342e-05, | |
| "loss": 0.4134, | |
| "step": 1810 | |
| }, | |
| { | |
| "epoch": 3.033333333333333, | |
| "grad_norm": 5.5546875, | |
| "learning_rate": 1.9182161068802742e-05, | |
| "loss": 0.3542, | |
| "step": 1820 | |
| }, | |
| { | |
| "epoch": 3.05, | |
| "grad_norm": 7.717833518981934, | |
| "learning_rate": 1.9165622558699763e-05, | |
| "loss": 0.4404, | |
| "step": 1830 | |
| }, | |
| { | |
| "epoch": 3.066666666666667, | |
| "grad_norm": 11.350333213806152, | |
| "learning_rate": 1.9148925771710347e-05, | |
| "loss": 0.3732, | |
| "step": 1840 | |
| }, | |
| { | |
| "epoch": 3.0833333333333335, | |
| "grad_norm": 6.214349269866943, | |
| "learning_rate": 1.913207099616357e-05, | |
| "loss": 0.3868, | |
| "step": 1850 | |
| }, | |
| { | |
| "epoch": 3.1, | |
| "grad_norm": 5.783053874969482, | |
| "learning_rate": 1.9115058523116734e-05, | |
| "loss": 0.344, | |
| "step": 1860 | |
| }, | |
| { | |
| "epoch": 3.1166666666666667, | |
| "grad_norm": 7.447259902954102, | |
| "learning_rate": 1.9097888646350347e-05, | |
| "loss": 0.4027, | |
| "step": 1870 | |
| }, | |
| { | |
| "epoch": 3.1333333333333333, | |
| "grad_norm": 6.286544322967529, | |
| "learning_rate": 1.908056166236305e-05, | |
| "loss": 0.4391, | |
| "step": 1880 | |
| }, | |
| { | |
| "epoch": 3.15, | |
| "grad_norm": 9.073515892028809, | |
| "learning_rate": 1.9063077870366504e-05, | |
| "loss": 0.3945, | |
| "step": 1890 | |
| }, | |
| { | |
| "epoch": 3.1666666666666665, | |
| "grad_norm": 6.541659355163574, | |
| "learning_rate": 1.9045437572280193e-05, | |
| "loss": 0.3617, | |
| "step": 1900 | |
| }, | |
| { | |
| "epoch": 3.183333333333333, | |
| "grad_norm": 7.9517693519592285, | |
| "learning_rate": 1.902764107272626e-05, | |
| "loss": 0.4313, | |
| "step": 1910 | |
| }, | |
| { | |
| "epoch": 3.2, | |
| "grad_norm": 7.137308597564697, | |
| "learning_rate": 1.900968867902419e-05, | |
| "loss": 0.3241, | |
| "step": 1920 | |
| }, | |
| { | |
| "epoch": 3.216666666666667, | |
| "grad_norm": 6.320766925811768, | |
| "learning_rate": 1.8991580701185564e-05, | |
| "loss": 0.37, | |
| "step": 1930 | |
| }, | |
| { | |
| "epoch": 3.2333333333333334, | |
| "grad_norm": 6.064675331115723, | |
| "learning_rate": 1.8973317451908642e-05, | |
| "loss": 0.2816, | |
| "step": 1940 | |
| }, | |
| { | |
| "epoch": 3.25, | |
| "grad_norm": 10.319533348083496, | |
| "learning_rate": 1.895489924657301e-05, | |
| "loss": 0.3939, | |
| "step": 1950 | |
| }, | |
| { | |
| "epoch": 3.2666666666666666, | |
| "grad_norm": 7.237499237060547, | |
| "learning_rate": 1.8936326403234125e-05, | |
| "loss": 0.3757, | |
| "step": 1960 | |
| }, | |
| { | |
| "epoch": 3.283333333333333, | |
| "grad_norm": 6.379919528961182, | |
| "learning_rate": 1.8917599242617796e-05, | |
| "loss": 0.3589, | |
| "step": 1970 | |
| }, | |
| { | |
| "epoch": 3.3, | |
| "grad_norm": 10.484453201293945, | |
| "learning_rate": 1.8898718088114688e-05, | |
| "loss": 0.3744, | |
| "step": 1980 | |
| }, | |
| { | |
| "epoch": 3.3166666666666664, | |
| "grad_norm": 12.126269340515137, | |
| "learning_rate": 1.8879683265774695e-05, | |
| "loss": 0.4276, | |
| "step": 1990 | |
| }, | |
| { | |
| "epoch": 3.3333333333333335, | |
| "grad_norm": 9.69861125946045, | |
| "learning_rate": 1.8860495104301346e-05, | |
| "loss": 0.3777, | |
| "step": 2000 | |
| }, | |
| { | |
| "epoch": 3.35, | |
| "grad_norm": 4.834460258483887, | |
| "learning_rate": 1.8841153935046098e-05, | |
| "loss": 0.3158, | |
| "step": 2010 | |
| }, | |
| { | |
| "epoch": 3.3666666666666667, | |
| "grad_norm": 6.695274829864502, | |
| "learning_rate": 1.8821660092002642e-05, | |
| "loss": 0.3942, | |
| "step": 2020 | |
| }, | |
| { | |
| "epoch": 3.3833333333333333, | |
| "grad_norm": 10.60463809967041, | |
| "learning_rate": 1.880201391180111e-05, | |
| "loss": 0.301, | |
| "step": 2030 | |
| }, | |
| { | |
| "epoch": 3.4, | |
| "grad_norm": 5.748558044433594, | |
| "learning_rate": 1.8782215733702286e-05, | |
| "loss": 0.3826, | |
| "step": 2040 | |
| }, | |
| { | |
| "epoch": 3.4166666666666665, | |
| "grad_norm": 6.971687316894531, | |
| "learning_rate": 1.8762265899591724e-05, | |
| "loss": 0.3766, | |
| "step": 2050 | |
| }, | |
| { | |
| "epoch": 3.4333333333333336, | |
| "grad_norm": 10.618817329406738, | |
| "learning_rate": 1.874216475397386e-05, | |
| "loss": 0.3522, | |
| "step": 2060 | |
| }, | |
| { | |
| "epoch": 3.45, | |
| "grad_norm": 8.329767227172852, | |
| "learning_rate": 1.8721912643966055e-05, | |
| "loss": 0.342, | |
| "step": 2070 | |
| }, | |
| { | |
| "epoch": 3.466666666666667, | |
| "grad_norm": 9.268407821655273, | |
| "learning_rate": 1.870150991929261e-05, | |
| "loss": 0.2877, | |
| "step": 2080 | |
| }, | |
| { | |
| "epoch": 3.4833333333333334, | |
| "grad_norm": 6.828186511993408, | |
| "learning_rate": 1.868095693227872e-05, | |
| "loss": 0.3706, | |
| "step": 2090 | |
| }, | |
| { | |
| "epoch": 3.5, | |
| "grad_norm": 11.919193267822266, | |
| "learning_rate": 1.866025403784439e-05, | |
| "loss": 0.3724, | |
| "step": 2100 | |
| }, | |
| { | |
| "epoch": 3.5166666666666666, | |
| "grad_norm": 14.13306713104248, | |
| "learning_rate": 1.86394015934983e-05, | |
| "loss": 0.3663, | |
| "step": 2110 | |
| }, | |
| { | |
| "epoch": 3.533333333333333, | |
| "grad_norm": 7.187041759490967, | |
| "learning_rate": 1.8618399959331642e-05, | |
| "loss": 0.3007, | |
| "step": 2120 | |
| }, | |
| { | |
| "epoch": 3.55, | |
| "grad_norm": 15.558795928955078, | |
| "learning_rate": 1.8597249498011906e-05, | |
| "loss": 0.3907, | |
| "step": 2130 | |
| }, | |
| { | |
| "epoch": 3.5666666666666664, | |
| "grad_norm": 11.272549629211426, | |
| "learning_rate": 1.8575950574776595e-05, | |
| "loss": 0.4012, | |
| "step": 2140 | |
| }, | |
| { | |
| "epoch": 3.5833333333333335, | |
| "grad_norm": 15.731003761291504, | |
| "learning_rate": 1.855450355742695e-05, | |
| "loss": 0.4231, | |
| "step": 2150 | |
| }, | |
| { | |
| "epoch": 3.6, | |
| "grad_norm": 7.192224502563477, | |
| "learning_rate": 1.8532908816321557e-05, | |
| "loss": 0.3396, | |
| "step": 2160 | |
| }, | |
| { | |
| "epoch": 3.6166666666666667, | |
| "grad_norm": 8.559320449829102, | |
| "learning_rate": 1.8511166724369997e-05, | |
| "loss": 0.319, | |
| "step": 2170 | |
| }, | |
| { | |
| "epoch": 3.6333333333333333, | |
| "grad_norm": 9.286134719848633, | |
| "learning_rate": 1.8489277657026377e-05, | |
| "loss": 0.3728, | |
| "step": 2180 | |
| }, | |
| { | |
| "epoch": 3.65, | |
| "grad_norm": 7.382202625274658, | |
| "learning_rate": 1.8467241992282842e-05, | |
| "loss": 0.3955, | |
| "step": 2190 | |
| }, | |
| { | |
| "epoch": 3.6666666666666665, | |
| "grad_norm": 11.097570419311523, | |
| "learning_rate": 1.844506011066308e-05, | |
| "loss": 0.373, | |
| "step": 2200 | |
| }, | |
| { | |
| "epoch": 3.6833333333333336, | |
| "grad_norm": 10.186798095703125, | |
| "learning_rate": 1.8422732395215717e-05, | |
| "loss": 0.458, | |
| "step": 2210 | |
| }, | |
| { | |
| "epoch": 3.7, | |
| "grad_norm": 9.413180351257324, | |
| "learning_rate": 1.8400259231507716e-05, | |
| "loss": 0.3728, | |
| "step": 2220 | |
| }, | |
| { | |
| "epoch": 3.716666666666667, | |
| "grad_norm": 8.126789093017578, | |
| "learning_rate": 1.8377641007617724e-05, | |
| "loss": 0.3829, | |
| "step": 2230 | |
| }, | |
| { | |
| "epoch": 3.7333333333333334, | |
| "grad_norm": 9.19456672668457, | |
| "learning_rate": 1.8354878114129368e-05, | |
| "loss": 0.321, | |
| "step": 2240 | |
| }, | |
| { | |
| "epoch": 3.75, | |
| "grad_norm": 17.7072811126709, | |
| "learning_rate": 1.833197094412449e-05, | |
| "loss": 0.3729, | |
| "step": 2250 | |
| }, | |
| { | |
| "epoch": 3.7666666666666666, | |
| "grad_norm": 9.825091361999512, | |
| "learning_rate": 1.8308919893176397e-05, | |
| "loss": 0.3191, | |
| "step": 2260 | |
| }, | |
| { | |
| "epoch": 3.783333333333333, | |
| "grad_norm": 11.167253494262695, | |
| "learning_rate": 1.8285725359343e-05, | |
| "loss": 0.4161, | |
| "step": 2270 | |
| }, | |
| { | |
| "epoch": 3.8, | |
| "grad_norm": 9.785726547241211, | |
| "learning_rate": 1.826238774315995e-05, | |
| "loss": 0.3167, | |
| "step": 2280 | |
| }, | |
| { | |
| "epoch": 3.8166666666666664, | |
| "grad_norm": 6.7009758949279785, | |
| "learning_rate": 1.8238907447633716e-05, | |
| "loss": 0.3276, | |
| "step": 2290 | |
| }, | |
| { | |
| "epoch": 3.8333333333333335, | |
| "grad_norm": 10.958868980407715, | |
| "learning_rate": 1.8215284878234644e-05, | |
| "loss": 0.2454, | |
| "step": 2300 | |
| }, | |
| { | |
| "epoch": 3.85, | |
| "grad_norm": 18.93035125732422, | |
| "learning_rate": 1.819152044288992e-05, | |
| "loss": 0.3836, | |
| "step": 2310 | |
| }, | |
| { | |
| "epoch": 3.8666666666666667, | |
| "grad_norm": 11.231881141662598, | |
| "learning_rate": 1.816761455197657e-05, | |
| "loss": 0.3491, | |
| "step": 2320 | |
| }, | |
| { | |
| "epoch": 3.8833333333333333, | |
| "grad_norm": 7.044066429138184, | |
| "learning_rate": 1.8143567618314336e-05, | |
| "loss": 0.3129, | |
| "step": 2330 | |
| }, | |
| { | |
| "epoch": 3.9, | |
| "grad_norm": 7.4137492179870605, | |
| "learning_rate": 1.811938005715857e-05, | |
| "loss": 0.3848, | |
| "step": 2340 | |
| }, | |
| { | |
| "epoch": 3.9166666666666665, | |
| "grad_norm": 3.7917087078094482, | |
| "learning_rate": 1.8095052286193044e-05, | |
| "loss": 0.2613, | |
| "step": 2350 | |
| }, | |
| { | |
| "epoch": 3.9333333333333336, | |
| "grad_norm": 7.329050064086914, | |
| "learning_rate": 1.8070584725522763e-05, | |
| "loss": 0.2839, | |
| "step": 2360 | |
| }, | |
| { | |
| "epoch": 3.95, | |
| "grad_norm": 8.250350952148438, | |
| "learning_rate": 1.8045977797666685e-05, | |
| "loss": 0.426, | |
| "step": 2370 | |
| }, | |
| { | |
| "epoch": 3.966666666666667, | |
| "grad_norm": 13.169599533081055, | |
| "learning_rate": 1.802123192755044e-05, | |
| "loss": 0.371, | |
| "step": 2380 | |
| }, | |
| { | |
| "epoch": 3.9833333333333334, | |
| "grad_norm": 5.934089660644531, | |
| "learning_rate": 1.7996347542498983e-05, | |
| "loss": 0.3463, | |
| "step": 2390 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "grad_norm": 5.9008307456970215, | |
| "learning_rate": 1.7971325072229227e-05, | |
| "loss": 0.2974, | |
| "step": 2400 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "eval_accuracy": 0.6446886446886447, | |
| "eval_loss": 0.8408761024475098, | |
| "eval_runtime": 1.9227, | |
| "eval_samples_per_second": 709.925, | |
| "eval_steps_per_second": 44.728, | |
| "step": 2400 | |
| }, | |
| { | |
| "epoch": 4.016666666666667, | |
| "grad_norm": 6.800796031951904, | |
| "learning_rate": 1.7946164948842604e-05, | |
| "loss": 0.1916, | |
| "step": 2410 | |
| }, | |
| { | |
| "epoch": 4.033333333333333, | |
| "grad_norm": 11.187984466552734, | |
| "learning_rate": 1.7920867606817625e-05, | |
| "loss": 0.1926, | |
| "step": 2420 | |
| }, | |
| { | |
| "epoch": 4.05, | |
| "grad_norm": 8.755463600158691, | |
| "learning_rate": 1.7895433483002356e-05, | |
| "loss": 0.1996, | |
| "step": 2430 | |
| }, | |
| { | |
| "epoch": 4.066666666666666, | |
| "grad_norm": 10.346768379211426, | |
| "learning_rate": 1.7869863016606893e-05, | |
| "loss": 0.1962, | |
| "step": 2440 | |
| }, | |
| { | |
| "epoch": 4.083333333333333, | |
| "grad_norm": 8.716865539550781, | |
| "learning_rate": 1.784415664919576e-05, | |
| "loss": 0.2325, | |
| "step": 2450 | |
| }, | |
| { | |
| "epoch": 4.1, | |
| "grad_norm": 24.440990447998047, | |
| "learning_rate": 1.78183148246803e-05, | |
| "loss": 0.1739, | |
| "step": 2460 | |
| }, | |
| { | |
| "epoch": 4.116666666666666, | |
| "grad_norm": 8.765872955322266, | |
| "learning_rate": 1.7792337989311e-05, | |
| "loss": 0.2363, | |
| "step": 2470 | |
| }, | |
| { | |
| "epoch": 4.133333333333334, | |
| "grad_norm": 15.551268577575684, | |
| "learning_rate": 1.7766226591669787e-05, | |
| "loss": 0.2068, | |
| "step": 2480 | |
| }, | |
| { | |
| "epoch": 4.15, | |
| "grad_norm": 14.396734237670898, | |
| "learning_rate": 1.7739981082662275e-05, | |
| "loss": 0.161, | |
| "step": 2490 | |
| }, | |
| { | |
| "epoch": 4.166666666666667, | |
| "grad_norm": 5.329517364501953, | |
| "learning_rate": 1.771360191551e-05, | |
| "loss": 0.2353, | |
| "step": 2500 | |
| }, | |
| { | |
| "epoch": 4.183333333333334, | |
| "grad_norm": 10.50860595703125, | |
| "learning_rate": 1.768708954574256e-05, | |
| "loss": 0.2031, | |
| "step": 2510 | |
| }, | |
| { | |
| "epoch": 4.2, | |
| "grad_norm": 21.69150733947754, | |
| "learning_rate": 1.766044443118978e-05, | |
| "loss": 0.255, | |
| "step": 2520 | |
| }, | |
| { | |
| "epoch": 4.216666666666667, | |
| "grad_norm": 9.158199310302734, | |
| "learning_rate": 1.7633667031973793e-05, | |
| "loss": 0.2332, | |
| "step": 2530 | |
| }, | |
| { | |
| "epoch": 4.233333333333333, | |
| "grad_norm": 8.26563549041748, | |
| "learning_rate": 1.760675781050109e-05, | |
| "loss": 0.2283, | |
| "step": 2540 | |
| }, | |
| { | |
| "epoch": 4.25, | |
| "grad_norm": 6.22615385055542, | |
| "learning_rate": 1.757971723145453e-05, | |
| "loss": 0.1477, | |
| "step": 2550 | |
| }, | |
| { | |
| "epoch": 4.266666666666667, | |
| "grad_norm": 12.131237030029297, | |
| "learning_rate": 1.755254576178535e-05, | |
| "loss": 0.2278, | |
| "step": 2560 | |
| }, | |
| { | |
| "epoch": 4.283333333333333, | |
| "grad_norm": 5.079014301300049, | |
| "learning_rate": 1.7525243870705052e-05, | |
| "loss": 0.3017, | |
| "step": 2570 | |
| }, | |
| { | |
| "epoch": 4.3, | |
| "grad_norm": 6.722441673278809, | |
| "learning_rate": 1.7497812029677344e-05, | |
| "loss": 0.1893, | |
| "step": 2580 | |
| }, | |
| { | |
| "epoch": 4.316666666666666, | |
| "grad_norm": 19.649364471435547, | |
| "learning_rate": 1.7470250712409963e-05, | |
| "loss": 0.2215, | |
| "step": 2590 | |
| }, | |
| { | |
| "epoch": 4.333333333333333, | |
| "grad_norm": 16.80063819885254, | |
| "learning_rate": 1.7442560394846518e-05, | |
| "loss": 0.2135, | |
| "step": 2600 | |
| }, | |
| { | |
| "epoch": 4.35, | |
| "grad_norm": 4.162881374359131, | |
| "learning_rate": 1.741474155515827e-05, | |
| "loss": 0.1982, | |
| "step": 2610 | |
| }, | |
| { | |
| "epoch": 4.366666666666666, | |
| "grad_norm": 9.364086151123047, | |
| "learning_rate": 1.738679467373586e-05, | |
| "loss": 0.1148, | |
| "step": 2620 | |
| }, | |
| { | |
| "epoch": 4.383333333333334, | |
| "grad_norm": 8.457878112792969, | |
| "learning_rate": 1.7358720233181023e-05, | |
| "loss": 0.2432, | |
| "step": 2630 | |
| }, | |
| { | |
| "epoch": 4.4, | |
| "grad_norm": 18.436786651611328, | |
| "learning_rate": 1.7330518718298263e-05, | |
| "loss": 0.1917, | |
| "step": 2640 | |
| }, | |
| { | |
| "epoch": 4.416666666666667, | |
| "grad_norm": 11.05576229095459, | |
| "learning_rate": 1.7302190616086464e-05, | |
| "loss": 0.2301, | |
| "step": 2650 | |
| }, | |
| { | |
| "epoch": 4.433333333333334, | |
| "grad_norm": 14.231767654418945, | |
| "learning_rate": 1.7273736415730488e-05, | |
| "loss": 0.1694, | |
| "step": 2660 | |
| }, | |
| { | |
| "epoch": 4.45, | |
| "grad_norm": 4.897223472595215, | |
| "learning_rate": 1.7245156608592727e-05, | |
| "loss": 0.2034, | |
| "step": 2670 | |
| }, | |
| { | |
| "epoch": 4.466666666666667, | |
| "grad_norm": 18.942005157470703, | |
| "learning_rate": 1.7216451688204623e-05, | |
| "loss": 0.2294, | |
| "step": 2680 | |
| }, | |
| { | |
| "epoch": 4.483333333333333, | |
| "grad_norm": 28.590120315551758, | |
| "learning_rate": 1.718762215025813e-05, | |
| "loss": 0.21, | |
| "step": 2690 | |
| }, | |
| { | |
| "epoch": 4.5, | |
| "grad_norm": 9.035322189331055, | |
| "learning_rate": 1.7158668492597186e-05, | |
| "loss": 0.1367, | |
| "step": 2700 | |
| }, | |
| { | |
| "epoch": 4.516666666666667, | |
| "grad_norm": 8.326066017150879, | |
| "learning_rate": 1.712959121520907e-05, | |
| "loss": 0.2171, | |
| "step": 2710 | |
| }, | |
| { | |
| "epoch": 4.533333333333333, | |
| "grad_norm": 18.64793586730957, | |
| "learning_rate": 1.7100390820215805e-05, | |
| "loss": 0.203, | |
| "step": 2720 | |
| }, | |
| { | |
| "epoch": 4.55, | |
| "grad_norm": 6.613404750823975, | |
| "learning_rate": 1.7071067811865477e-05, | |
| "loss": 0.2896, | |
| "step": 2730 | |
| }, | |
| { | |
| "epoch": 4.566666666666666, | |
| "grad_norm": 2.993422031402588, | |
| "learning_rate": 1.704162269652352e-05, | |
| "loss": 0.2196, | |
| "step": 2740 | |
| }, | |
| { | |
| "epoch": 4.583333333333333, | |
| "grad_norm": 8.488532066345215, | |
| "learning_rate": 1.701205598266398e-05, | |
| "loss": 0.1421, | |
| "step": 2750 | |
| }, | |
| { | |
| "epoch": 4.6, | |
| "grad_norm": 5.658782005310059, | |
| "learning_rate": 1.698236818086073e-05, | |
| "loss": 0.2469, | |
| "step": 2760 | |
| }, | |
| { | |
| "epoch": 4.616666666666667, | |
| "grad_norm": 14.441184043884277, | |
| "learning_rate": 1.6952559803778656e-05, | |
| "loss": 0.1689, | |
| "step": 2770 | |
| }, | |
| { | |
| "epoch": 4.633333333333333, | |
| "grad_norm": 10.702966690063477, | |
| "learning_rate": 1.6922631366164795e-05, | |
| "loss": 0.2721, | |
| "step": 2780 | |
| }, | |
| { | |
| "epoch": 4.65, | |
| "grad_norm": 13.82749080657959, | |
| "learning_rate": 1.689258338483947e-05, | |
| "loss": 0.2687, | |
| "step": 2790 | |
| }, | |
| { | |
| "epoch": 4.666666666666667, | |
| "grad_norm": 22.718114852905273, | |
| "learning_rate": 1.686241637868734e-05, | |
| "loss": 0.2094, | |
| "step": 2800 | |
| }, | |
| { | |
| "epoch": 4.683333333333334, | |
| "grad_norm": 23.70955467224121, | |
| "learning_rate": 1.683213086864843e-05, | |
| "loss": 0.2468, | |
| "step": 2810 | |
| }, | |
| { | |
| "epoch": 4.7, | |
| "grad_norm": 14.313791275024414, | |
| "learning_rate": 1.6801727377709195e-05, | |
| "loss": 0.3572, | |
| "step": 2820 | |
| }, | |
| { | |
| "epoch": 4.716666666666667, | |
| "grad_norm": 1.280615210533142, | |
| "learning_rate": 1.6771206430893408e-05, | |
| "loss": 0.1585, | |
| "step": 2830 | |
| }, | |
| { | |
| "epoch": 4.733333333333333, | |
| "grad_norm": 18.38262367248535, | |
| "learning_rate": 1.6740568555253153e-05, | |
| "loss": 0.1866, | |
| "step": 2840 | |
| }, | |
| { | |
| "epoch": 4.75, | |
| "grad_norm": 13.082511901855469, | |
| "learning_rate": 1.67098142798597e-05, | |
| "loss": 0.2372, | |
| "step": 2850 | |
| }, | |
| { | |
| "epoch": 4.766666666666667, | |
| "grad_norm": 6.905370712280273, | |
| "learning_rate": 1.6678944135794375e-05, | |
| "loss": 0.2246, | |
| "step": 2860 | |
| }, | |
| { | |
| "epoch": 4.783333333333333, | |
| "grad_norm": 5.4606122970581055, | |
| "learning_rate": 1.6647958656139377e-05, | |
| "loss": 0.2433, | |
| "step": 2870 | |
| }, | |
| { | |
| "epoch": 4.8, | |
| "grad_norm": 17.865739822387695, | |
| "learning_rate": 1.6616858375968596e-05, | |
| "loss": 0.2549, | |
| "step": 2880 | |
| }, | |
| { | |
| "epoch": 4.816666666666666, | |
| "grad_norm": 41.44401550292969, | |
| "learning_rate": 1.6585643832338342e-05, | |
| "loss": 0.2584, | |
| "step": 2890 | |
| }, | |
| { | |
| "epoch": 4.833333333333333, | |
| "grad_norm": 15.979497909545898, | |
| "learning_rate": 1.6554315564278102e-05, | |
| "loss": 0.2374, | |
| "step": 2900 | |
| }, | |
| { | |
| "epoch": 4.85, | |
| "grad_norm": 8.889433860778809, | |
| "learning_rate": 1.6522874112781213e-05, | |
| "loss": 0.3334, | |
| "step": 2910 | |
| }, | |
| { | |
| "epoch": 4.866666666666667, | |
| "grad_norm": 10.734085083007812, | |
| "learning_rate": 1.649132002079552e-05, | |
| "loss": 0.1694, | |
| "step": 2920 | |
| }, | |
| { | |
| "epoch": 4.883333333333333, | |
| "grad_norm": 7.850935935974121, | |
| "learning_rate": 1.645965383321401e-05, | |
| "loss": 0.1457, | |
| "step": 2930 | |
| }, | |
| { | |
| "epoch": 4.9, | |
| "grad_norm": 6.674160480499268, | |
| "learning_rate": 1.6427876096865394e-05, | |
| "loss": 0.2299, | |
| "step": 2940 | |
| }, | |
| { | |
| "epoch": 4.916666666666667, | |
| "grad_norm": 24.8321590423584, | |
| "learning_rate": 1.6395987360504667e-05, | |
| "loss": 0.2227, | |
| "step": 2950 | |
| }, | |
| { | |
| "epoch": 4.933333333333334, | |
| "grad_norm": 21.398326873779297, | |
| "learning_rate": 1.6363988174803638e-05, | |
| "loss": 0.2475, | |
| "step": 2960 | |
| }, | |
| { | |
| "epoch": 4.95, | |
| "grad_norm": 12.976921081542969, | |
| "learning_rate": 1.6331879092341402e-05, | |
| "loss": 0.1802, | |
| "step": 2970 | |
| }, | |
| { | |
| "epoch": 4.966666666666667, | |
| "grad_norm": 14.042061805725098, | |
| "learning_rate": 1.6299660667594814e-05, | |
| "loss": 0.2516, | |
| "step": 2980 | |
| }, | |
| { | |
| "epoch": 4.983333333333333, | |
| "grad_norm": 21.662731170654297, | |
| "learning_rate": 1.626733345692892e-05, | |
| "loss": 0.3282, | |
| "step": 2990 | |
| }, | |
| { | |
| "epoch": 5.0, | |
| "grad_norm": 17.608373641967773, | |
| "learning_rate": 1.6234898018587336e-05, | |
| "loss": 0.2124, | |
| "step": 3000 | |
| }, | |
| { | |
| "epoch": 5.0, | |
| "eval_accuracy": 0.6293040293040293, | |
| "eval_loss": 1.200034737586975, | |
| "eval_runtime": 1.9884, | |
| "eval_samples_per_second": 686.487, | |
| "eval_steps_per_second": 43.251, | |
| "step": 3000 | |
| }, | |
| { | |
| "epoch": 5.016666666666667, | |
| "grad_norm": 1.0147602558135986, | |
| "learning_rate": 1.6202354912682602e-05, | |
| "loss": 0.0847, | |
| "step": 3010 | |
| }, | |
| { | |
| "epoch": 5.033333333333333, | |
| "grad_norm": 20.401517868041992, | |
| "learning_rate": 1.6169704701186528e-05, | |
| "loss": 0.1415, | |
| "step": 3020 | |
| }, | |
| { | |
| "epoch": 5.05, | |
| "grad_norm": 1.022953987121582, | |
| "learning_rate": 1.6136947947920477e-05, | |
| "loss": 0.1371, | |
| "step": 3030 | |
| }, | |
| { | |
| "epoch": 5.066666666666666, | |
| "grad_norm": 10.270929336547852, | |
| "learning_rate": 1.6104085218545633e-05, | |
| "loss": 0.1774, | |
| "step": 3040 | |
| }, | |
| { | |
| "epoch": 5.083333333333333, | |
| "grad_norm": 8.564648628234863, | |
| "learning_rate": 1.6071117080553236e-05, | |
| "loss": 0.131, | |
| "step": 3050 | |
| }, | |
| { | |
| "epoch": 5.1, | |
| "grad_norm": 4.6336669921875, | |
| "learning_rate": 1.6038044103254775e-05, | |
| "loss": 0.0821, | |
| "step": 3060 | |
| }, | |
| { | |
| "epoch": 5.116666666666666, | |
| "grad_norm": 5.73518180847168, | |
| "learning_rate": 1.600486685777216e-05, | |
| "loss": 0.0531, | |
| "step": 3070 | |
| }, | |
| { | |
| "epoch": 5.133333333333334, | |
| "grad_norm": 24.018949508666992, | |
| "learning_rate": 1.5971585917027864e-05, | |
| "loss": 0.1445, | |
| "step": 3080 | |
| }, | |
| { | |
| "epoch": 5.15, | |
| "grad_norm": 2.413054943084717, | |
| "learning_rate": 1.5938201855735017e-05, | |
| "loss": 0.1126, | |
| "step": 3090 | |
| }, | |
| { | |
| "epoch": 5.166666666666667, | |
| "grad_norm": 16.5898380279541, | |
| "learning_rate": 1.5904715250387498e-05, | |
| "loss": 0.1097, | |
| "step": 3100 | |
| }, | |
| { | |
| "epoch": 5.183333333333334, | |
| "grad_norm": 21.17631721496582, | |
| "learning_rate": 1.5871126679249977e-05, | |
| "loss": 0.1689, | |
| "step": 3110 | |
| }, | |
| { | |
| "epoch": 5.2, | |
| "grad_norm": 15.361016273498535, | |
| "learning_rate": 1.5837436722347902e-05, | |
| "loss": 0.1159, | |
| "step": 3120 | |
| }, | |
| { | |
| "epoch": 5.216666666666667, | |
| "grad_norm": 37.31953811645508, | |
| "learning_rate": 1.5803645961457522e-05, | |
| "loss": 0.1664, | |
| "step": 3130 | |
| }, | |
| { | |
| "epoch": 5.233333333333333, | |
| "grad_norm": 1.088923692703247, | |
| "learning_rate": 1.576975498009583e-05, | |
| "loss": 0.1183, | |
| "step": 3140 | |
| }, | |
| { | |
| "epoch": 5.25, | |
| "grad_norm": 33.75508499145508, | |
| "learning_rate": 1.573576436351046e-05, | |
| "loss": 0.1523, | |
| "step": 3150 | |
| }, | |
| { | |
| "epoch": 5.266666666666667, | |
| "grad_norm": 8.551312446594238, | |
| "learning_rate": 1.570167469866962e-05, | |
| "loss": 0.1255, | |
| "step": 3160 | |
| }, | |
| { | |
| "epoch": 5.283333333333333, | |
| "grad_norm": 23.379915237426758, | |
| "learning_rate": 1.5667486574251916e-05, | |
| "loss": 0.1269, | |
| "step": 3170 | |
| }, | |
| { | |
| "epoch": 5.3, | |
| "grad_norm": 25.599714279174805, | |
| "learning_rate": 1.563320058063622e-05, | |
| "loss": 0.1512, | |
| "step": 3180 | |
| }, | |
| { | |
| "epoch": 5.316666666666666, | |
| "grad_norm": 1.7940479516983032, | |
| "learning_rate": 1.5598817309891466e-05, | |
| "loss": 0.0789, | |
| "step": 3190 | |
| }, | |
| { | |
| "epoch": 5.333333333333333, | |
| "grad_norm": 20.735576629638672, | |
| "learning_rate": 1.5564337355766412e-05, | |
| "loss": 0.1547, | |
| "step": 3200 | |
| }, | |
| { | |
| "epoch": 5.35, | |
| "grad_norm": 19.863126754760742, | |
| "learning_rate": 1.5529761313679396e-05, | |
| "loss": 0.1903, | |
| "step": 3210 | |
| }, | |
| { | |
| "epoch": 5.366666666666666, | |
| "grad_norm": 19.80723762512207, | |
| "learning_rate": 1.5495089780708062e-05, | |
| "loss": 0.1854, | |
| "step": 3220 | |
| }, | |
| { | |
| "epoch": 5.383333333333334, | |
| "grad_norm": 28.49349021911621, | |
| "learning_rate": 1.5460323355579035e-05, | |
| "loss": 0.1848, | |
| "step": 3230 | |
| }, | |
| { | |
| "epoch": 5.4, | |
| "grad_norm": 27.559804916381836, | |
| "learning_rate": 1.5425462638657597e-05, | |
| "loss": 0.1439, | |
| "step": 3240 | |
| }, | |
| { | |
| "epoch": 5.416666666666667, | |
| "grad_norm": 0.3180895745754242, | |
| "learning_rate": 1.53905082319373e-05, | |
| "loss": 0.0273, | |
| "step": 3250 | |
| }, | |
| { | |
| "epoch": 5.433333333333334, | |
| "grad_norm": 2.8709073066711426, | |
| "learning_rate": 1.5355460739029585e-05, | |
| "loss": 0.2483, | |
| "step": 3260 | |
| }, | |
| { | |
| "epoch": 5.45, | |
| "grad_norm": 0.46991926431655884, | |
| "learning_rate": 1.5320320765153367e-05, | |
| "loss": 0.0698, | |
| "step": 3270 | |
| }, | |
| { | |
| "epoch": 5.466666666666667, | |
| "grad_norm": 0.3897984027862549, | |
| "learning_rate": 1.5285088917124555e-05, | |
| "loss": 0.2807, | |
| "step": 3280 | |
| }, | |
| { | |
| "epoch": 5.483333333333333, | |
| "grad_norm": 0.5438683032989502, | |
| "learning_rate": 1.5249765803345602e-05, | |
| "loss": 0.179, | |
| "step": 3290 | |
| }, | |
| { | |
| "epoch": 5.5, | |
| "grad_norm": 27.689308166503906, | |
| "learning_rate": 1.5214352033794981e-05, | |
| "loss": 0.0847, | |
| "step": 3300 | |
| }, | |
| { | |
| "epoch": 5.516666666666667, | |
| "grad_norm": 28.62678337097168, | |
| "learning_rate": 1.517884822001666e-05, | |
| "loss": 0.2363, | |
| "step": 3310 | |
| }, | |
| { | |
| "epoch": 5.533333333333333, | |
| "grad_norm": 23.103588104248047, | |
| "learning_rate": 1.5143254975109538e-05, | |
| "loss": 0.1293, | |
| "step": 3320 | |
| }, | |
| { | |
| "epoch": 5.55, | |
| "grad_norm": 0.12534061074256897, | |
| "learning_rate": 1.5107572913716859e-05, | |
| "loss": 0.0927, | |
| "step": 3330 | |
| }, | |
| { | |
| "epoch": 5.566666666666666, | |
| "grad_norm": 0.5081673264503479, | |
| "learning_rate": 1.5071802652015592e-05, | |
| "loss": 0.122, | |
| "step": 3340 | |
| }, | |
| { | |
| "epoch": 5.583333333333333, | |
| "grad_norm": 16.712963104248047, | |
| "learning_rate": 1.503594480770581e-05, | |
| "loss": 0.2284, | |
| "step": 3350 | |
| }, | |
| { | |
| "epoch": 5.6, | |
| "grad_norm": 15.965821266174316, | |
| "learning_rate": 1.5000000000000002e-05, | |
| "loss": 0.1329, | |
| "step": 3360 | |
| }, | |
| { | |
| "epoch": 5.616666666666667, | |
| "grad_norm": 25.123790740966797, | |
| "learning_rate": 1.496396884961238e-05, | |
| "loss": 0.1604, | |
| "step": 3370 | |
| }, | |
| { | |
| "epoch": 5.633333333333333, | |
| "grad_norm": 1.8998332023620605, | |
| "learning_rate": 1.4927851978748177e-05, | |
| "loss": 0.0968, | |
| "step": 3380 | |
| }, | |
| { | |
| "epoch": 5.65, | |
| "grad_norm": 24.31692123413086, | |
| "learning_rate": 1.4891650011092896e-05, | |
| "loss": 0.1516, | |
| "step": 3390 | |
| }, | |
| { | |
| "epoch": 5.666666666666667, | |
| "grad_norm": 5.178999423980713, | |
| "learning_rate": 1.4855363571801523e-05, | |
| "loss": 0.1714, | |
| "step": 3400 | |
| }, | |
| { | |
| "epoch": 5.683333333333334, | |
| "grad_norm": 29.019245147705078, | |
| "learning_rate": 1.481899328748776e-05, | |
| "loss": 0.2386, | |
| "step": 3410 | |
| }, | |
| { | |
| "epoch": 5.7, | |
| "grad_norm": 6.961763381958008, | |
| "learning_rate": 1.4782539786213184e-05, | |
| "loss": 0.1293, | |
| "step": 3420 | |
| }, | |
| { | |
| "epoch": 5.716666666666667, | |
| "grad_norm": 33.04340744018555, | |
| "learning_rate": 1.4746003697476406e-05, | |
| "loss": 0.2424, | |
| "step": 3430 | |
| }, | |
| { | |
| "epoch": 5.733333333333333, | |
| "grad_norm": 23.46949577331543, | |
| "learning_rate": 1.4709385652202204e-05, | |
| "loss": 0.1184, | |
| "step": 3440 | |
| }, | |
| { | |
| "epoch": 5.75, | |
| "grad_norm": 8.250195503234863, | |
| "learning_rate": 1.4672686282730622e-05, | |
| "loss": 0.0839, | |
| "step": 3450 | |
| }, | |
| { | |
| "epoch": 5.766666666666667, | |
| "grad_norm": 0.5260627865791321, | |
| "learning_rate": 1.4635906222806058e-05, | |
| "loss": 0.1391, | |
| "step": 3460 | |
| }, | |
| { | |
| "epoch": 5.783333333333333, | |
| "grad_norm": 0.3091002404689789, | |
| "learning_rate": 1.4599046107566314e-05, | |
| "loss": 0.2284, | |
| "step": 3470 | |
| }, | |
| { | |
| "epoch": 5.8, | |
| "grad_norm": 25.41762924194336, | |
| "learning_rate": 1.4562106573531632e-05, | |
| "loss": 0.2418, | |
| "step": 3480 | |
| }, | |
| { | |
| "epoch": 5.816666666666666, | |
| "grad_norm": 8.183185577392578, | |
| "learning_rate": 1.4525088258593695e-05, | |
| "loss": 0.2818, | |
| "step": 3490 | |
| }, | |
| { | |
| "epoch": 5.833333333333333, | |
| "grad_norm": 8.167861938476562, | |
| "learning_rate": 1.4487991802004625e-05, | |
| "loss": 0.2096, | |
| "step": 3500 | |
| }, | |
| { | |
| "epoch": 5.85, | |
| "grad_norm": 1.1373860836029053, | |
| "learning_rate": 1.4450817844365924e-05, | |
| "loss": 0.1648, | |
| "step": 3510 | |
| }, | |
| { | |
| "epoch": 5.866666666666667, | |
| "grad_norm": 18.7924861907959, | |
| "learning_rate": 1.4413567027617442e-05, | |
| "loss": 0.1077, | |
| "step": 3520 | |
| }, | |
| { | |
| "epoch": 5.883333333333333, | |
| "grad_norm": 43.12092971801758, | |
| "learning_rate": 1.4376239995026254e-05, | |
| "loss": 0.1099, | |
| "step": 3530 | |
| }, | |
| { | |
| "epoch": 5.9, | |
| "grad_norm": 36.30341720581055, | |
| "learning_rate": 1.4338837391175582e-05, | |
| "loss": 0.0979, | |
| "step": 3540 | |
| }, | |
| { | |
| "epoch": 5.916666666666667, | |
| "grad_norm": 9.352974891662598, | |
| "learning_rate": 1.4301359861953652e-05, | |
| "loss": 0.1578, | |
| "step": 3550 | |
| }, | |
| { | |
| "epoch": 5.933333333333334, | |
| "grad_norm": 3.1973745822906494, | |
| "learning_rate": 1.4263808054542541e-05, | |
| "loss": 0.1587, | |
| "step": 3560 | |
| }, | |
| { | |
| "epoch": 5.95, | |
| "grad_norm": 20.190561294555664, | |
| "learning_rate": 1.4226182617406996e-05, | |
| "loss": 0.1586, | |
| "step": 3570 | |
| }, | |
| { | |
| "epoch": 5.966666666666667, | |
| "grad_norm": 24.63654327392578, | |
| "learning_rate": 1.418848420028325e-05, | |
| "loss": 0.0922, | |
| "step": 3580 | |
| }, | |
| { | |
| "epoch": 5.983333333333333, | |
| "grad_norm": 27.1915225982666, | |
| "learning_rate": 1.4150713454167788e-05, | |
| "loss": 0.2448, | |
| "step": 3590 | |
| }, | |
| { | |
| "epoch": 6.0, | |
| "grad_norm": 2.4420948028564453, | |
| "learning_rate": 1.4112871031306118e-05, | |
| "loss": 0.1722, | |
| "step": 3600 | |
| }, | |
| { | |
| "epoch": 6.0, | |
| "eval_accuracy": 0.6336996336996337, | |
| "eval_loss": 1.5674309730529785, | |
| "eval_runtime": 1.9561, | |
| "eval_samples_per_second": 697.811, | |
| "eval_steps_per_second": 43.965, | |
| "step": 3600 | |
| }, | |
| { | |
| "epoch": 6.016666666666667, | |
| "grad_norm": 2.7956202030181885, | |
| "learning_rate": 1.4074957585181488e-05, | |
| "loss": 0.0886, | |
| "step": 3610 | |
| }, | |
| { | |
| "epoch": 6.033333333333333, | |
| "grad_norm": 0.37907764315605164, | |
| "learning_rate": 1.4036973770503623e-05, | |
| "loss": 0.0597, | |
| "step": 3620 | |
| }, | |
| { | |
| "epoch": 6.05, | |
| "grad_norm": 5.614625930786133, | |
| "learning_rate": 1.3998920243197408e-05, | |
| "loss": 0.0832, | |
| "step": 3630 | |
| }, | |
| { | |
| "epoch": 6.066666666666666, | |
| "grad_norm": 0.19984441995620728, | |
| "learning_rate": 1.396079766039157e-05, | |
| "loss": 0.0445, | |
| "step": 3640 | |
| }, | |
| { | |
| "epoch": 6.083333333333333, | |
| "grad_norm": 3.4363865852355957, | |
| "learning_rate": 1.3922606680407307e-05, | |
| "loss": 0.0436, | |
| "step": 3650 | |
| }, | |
| { | |
| "epoch": 6.1, | |
| "grad_norm": 10.151202201843262, | |
| "learning_rate": 1.3884347962746949e-05, | |
| "loss": 0.0801, | |
| "step": 3660 | |
| }, | |
| { | |
| "epoch": 6.116666666666666, | |
| "grad_norm": 4.335551738739014, | |
| "learning_rate": 1.3846022168082553e-05, | |
| "loss": 0.2556, | |
| "step": 3670 | |
| }, | |
| { | |
| "epoch": 6.133333333333334, | |
| "grad_norm": 32.38202667236328, | |
| "learning_rate": 1.3807629958244498e-05, | |
| "loss": 0.0734, | |
| "step": 3680 | |
| }, | |
| { | |
| "epoch": 6.15, | |
| "grad_norm": 0.9993119835853577, | |
| "learning_rate": 1.3769171996210053e-05, | |
| "loss": 0.0508, | |
| "step": 3690 | |
| }, | |
| { | |
| "epoch": 6.166666666666667, | |
| "grad_norm": 14.930900573730469, | |
| "learning_rate": 1.373064894609194e-05, | |
| "loss": 0.1259, | |
| "step": 3700 | |
| }, | |
| { | |
| "epoch": 6.183333333333334, | |
| "grad_norm": 0.06836142390966415, | |
| "learning_rate": 1.3692061473126845e-05, | |
| "loss": 0.1129, | |
| "step": 3710 | |
| }, | |
| { | |
| "epoch": 6.2, | |
| "grad_norm": 36.90699005126953, | |
| "learning_rate": 1.3653410243663953e-05, | |
| "loss": 0.0942, | |
| "step": 3720 | |
| }, | |
| { | |
| "epoch": 6.216666666666667, | |
| "grad_norm": 1.2870429754257202, | |
| "learning_rate": 1.361469592515342e-05, | |
| "loss": 0.0856, | |
| "step": 3730 | |
| }, | |
| { | |
| "epoch": 6.233333333333333, | |
| "grad_norm": 21.09489631652832, | |
| "learning_rate": 1.3575919186134862e-05, | |
| "loss": 0.1176, | |
| "step": 3740 | |
| }, | |
| { | |
| "epoch": 6.25, | |
| "grad_norm": 19.593664169311523, | |
| "learning_rate": 1.3537080696225815e-05, | |
| "loss": 0.0861, | |
| "step": 3750 | |
| }, | |
| { | |
| "epoch": 6.266666666666667, | |
| "grad_norm": 5.173015594482422, | |
| "learning_rate": 1.349818112611015e-05, | |
| "loss": 0.1912, | |
| "step": 3760 | |
| }, | |
| { | |
| "epoch": 6.283333333333333, | |
| "grad_norm": 0.2996021509170532, | |
| "learning_rate": 1.3459221147526504e-05, | |
| "loss": 0.0818, | |
| "step": 3770 | |
| }, | |
| { | |
| "epoch": 6.3, | |
| "grad_norm": 27.303770065307617, | |
| "learning_rate": 1.342020143325669e-05, | |
| "loss": 0.0249, | |
| "step": 3780 | |
| }, | |
| { | |
| "epoch": 6.316666666666666, | |
| "grad_norm": 0.49486374855041504, | |
| "learning_rate": 1.3381122657114059e-05, | |
| "loss": 0.0622, | |
| "step": 3790 | |
| }, | |
| { | |
| "epoch": 6.333333333333333, | |
| "grad_norm": 2.8161256313323975, | |
| "learning_rate": 1.3341985493931877e-05, | |
| "loss": 0.2356, | |
| "step": 3800 | |
| }, | |
| { | |
| "epoch": 6.35, | |
| "grad_norm": 0.050575144588947296, | |
| "learning_rate": 1.3302790619551673e-05, | |
| "loss": 0.0724, | |
| "step": 3810 | |
| }, | |
| { | |
| "epoch": 6.366666666666666, | |
| "grad_norm": 0.10276170074939728, | |
| "learning_rate": 1.3263538710811559e-05, | |
| "loss": 0.0366, | |
| "step": 3820 | |
| }, | |
| { | |
| "epoch": 6.383333333333334, | |
| "grad_norm": 44.04489517211914, | |
| "learning_rate": 1.3224230445534544e-05, | |
| "loss": 0.1344, | |
| "step": 3830 | |
| }, | |
| { | |
| "epoch": 6.4, | |
| "grad_norm": 14.379541397094727, | |
| "learning_rate": 1.3184866502516846e-05, | |
| "loss": 0.1865, | |
| "step": 3840 | |
| }, | |
| { | |
| "epoch": 6.416666666666667, | |
| "grad_norm": 0.12741892039775848, | |
| "learning_rate": 1.3145447561516138e-05, | |
| "loss": 0.0663, | |
| "step": 3850 | |
| }, | |
| { | |
| "epoch": 6.433333333333334, | |
| "grad_norm": 3.2561116218566895, | |
| "learning_rate": 1.3105974303239838e-05, | |
| "loss": 0.1107, | |
| "step": 3860 | |
| }, | |
| { | |
| "epoch": 6.45, | |
| "grad_norm": 2.7047250270843506, | |
| "learning_rate": 1.3066447409333345e-05, | |
| "loss": 0.0871, | |
| "step": 3870 | |
| }, | |
| { | |
| "epoch": 6.466666666666667, | |
| "grad_norm": 22.090036392211914, | |
| "learning_rate": 1.3026867562368262e-05, | |
| "loss": 0.0339, | |
| "step": 3880 | |
| }, | |
| { | |
| "epoch": 6.483333333333333, | |
| "grad_norm": 16.041553497314453, | |
| "learning_rate": 1.2987235445830612e-05, | |
| "loss": 0.1337, | |
| "step": 3890 | |
| }, | |
| { | |
| "epoch": 6.5, | |
| "grad_norm": 15.934035301208496, | |
| "learning_rate": 1.2947551744109044e-05, | |
| "loss": 0.0988, | |
| "step": 3900 | |
| }, | |
| { | |
| "epoch": 6.516666666666667, | |
| "grad_norm": 0.12512661516666412, | |
| "learning_rate": 1.2907817142483002e-05, | |
| "loss": 0.0507, | |
| "step": 3910 | |
| }, | |
| { | |
| "epoch": 6.533333333333333, | |
| "grad_norm": 0.8212718367576599, | |
| "learning_rate": 1.2868032327110904e-05, | |
| "loss": 0.0697, | |
| "step": 3920 | |
| }, | |
| { | |
| "epoch": 6.55, | |
| "grad_norm": 49.31973648071289, | |
| "learning_rate": 1.2828197985018276e-05, | |
| "loss": 0.0341, | |
| "step": 3930 | |
| }, | |
| { | |
| "epoch": 6.566666666666666, | |
| "grad_norm": 5.994250297546387, | |
| "learning_rate": 1.2788314804085904e-05, | |
| "loss": 0.0876, | |
| "step": 3940 | |
| }, | |
| { | |
| "epoch": 6.583333333333333, | |
| "grad_norm": 0.28034791350364685, | |
| "learning_rate": 1.2748383473037948e-05, | |
| "loss": 0.1736, | |
| "step": 3950 | |
| }, | |
| { | |
| "epoch": 6.6, | |
| "grad_norm": 9.517563819885254, | |
| "learning_rate": 1.2708404681430054e-05, | |
| "loss": 0.0938, | |
| "step": 3960 | |
| }, | |
| { | |
| "epoch": 6.616666666666667, | |
| "grad_norm": 0.8875794410705566, | |
| "learning_rate": 1.266837911963743e-05, | |
| "loss": 0.1409, | |
| "step": 3970 | |
| }, | |
| { | |
| "epoch": 6.633333333333333, | |
| "grad_norm": 13.758536338806152, | |
| "learning_rate": 1.2628307478842955e-05, | |
| "loss": 0.161, | |
| "step": 3980 | |
| }, | |
| { | |
| "epoch": 6.65, | |
| "grad_norm": 0.685119092464447, | |
| "learning_rate": 1.2588190451025209e-05, | |
| "loss": 0.0927, | |
| "step": 3990 | |
| }, | |
| { | |
| "epoch": 6.666666666666667, | |
| "grad_norm": 9.26745319366455, | |
| "learning_rate": 1.2548028728946548e-05, | |
| "loss": 0.2317, | |
| "step": 4000 | |
| }, | |
| { | |
| "epoch": 6.683333333333334, | |
| "grad_norm": 0.41291195154190063, | |
| "learning_rate": 1.2507823006141128e-05, | |
| "loss": 0.0975, | |
| "step": 4010 | |
| }, | |
| { | |
| "epoch": 6.7, | |
| "grad_norm": 31.908096313476562, | |
| "learning_rate": 1.2467573976902936e-05, | |
| "loss": 0.1475, | |
| "step": 4020 | |
| }, | |
| { | |
| "epoch": 6.716666666666667, | |
| "grad_norm": 1.9993367195129395, | |
| "learning_rate": 1.24272823362738e-05, | |
| "loss": 0.1265, | |
| "step": 4030 | |
| }, | |
| { | |
| "epoch": 6.733333333333333, | |
| "grad_norm": 0.32419532537460327, | |
| "learning_rate": 1.238694878003138e-05, | |
| "loss": 0.0779, | |
| "step": 4040 | |
| }, | |
| { | |
| "epoch": 6.75, | |
| "grad_norm": 0.8238071203231812, | |
| "learning_rate": 1.2346574004677154e-05, | |
| "loss": 0.1067, | |
| "step": 4050 | |
| }, | |
| { | |
| "epoch": 6.766666666666667, | |
| "grad_norm": 60.266483306884766, | |
| "learning_rate": 1.2306158707424402e-05, | |
| "loss": 0.1401, | |
| "step": 4060 | |
| }, | |
| { | |
| "epoch": 6.783333333333333, | |
| "grad_norm": 3.0764288902282715, | |
| "learning_rate": 1.2265703586186158e-05, | |
| "loss": 0.0847, | |
| "step": 4070 | |
| }, | |
| { | |
| "epoch": 6.8, | |
| "grad_norm": 44.34507751464844, | |
| "learning_rate": 1.2225209339563144e-05, | |
| "loss": 0.1783, | |
| "step": 4080 | |
| }, | |
| { | |
| "epoch": 6.816666666666666, | |
| "grad_norm": 7.701195240020752, | |
| "learning_rate": 1.2184676666831741e-05, | |
| "loss": 0.2235, | |
| "step": 4090 | |
| }, | |
| { | |
| "epoch": 6.833333333333333, | |
| "grad_norm": 22.504344940185547, | |
| "learning_rate": 1.2144106267931877e-05, | |
| "loss": 0.141, | |
| "step": 4100 | |
| }, | |
| { | |
| "epoch": 6.85, | |
| "grad_norm": 19.971139907836914, | |
| "learning_rate": 1.210349884345496e-05, | |
| "loss": 0.2359, | |
| "step": 4110 | |
| }, | |
| { | |
| "epoch": 6.866666666666667, | |
| "grad_norm": 15.64979362487793, | |
| "learning_rate": 1.2062855094631777e-05, | |
| "loss": 0.1019, | |
| "step": 4120 | |
| }, | |
| { | |
| "epoch": 6.883333333333333, | |
| "grad_norm": 18.649150848388672, | |
| "learning_rate": 1.2022175723320382e-05, | |
| "loss": 0.0806, | |
| "step": 4130 | |
| }, | |
| { | |
| "epoch": 6.9, | |
| "grad_norm": 12.660820960998535, | |
| "learning_rate": 1.1981461431993978e-05, | |
| "loss": 0.1066, | |
| "step": 4140 | |
| }, | |
| { | |
| "epoch": 6.916666666666667, | |
| "grad_norm": 27.603178024291992, | |
| "learning_rate": 1.1940712923728784e-05, | |
| "loss": 0.1701, | |
| "step": 4150 | |
| }, | |
| { | |
| "epoch": 6.933333333333334, | |
| "grad_norm": 14.351332664489746, | |
| "learning_rate": 1.1899930902191904e-05, | |
| "loss": 0.0951, | |
| "step": 4160 | |
| }, | |
| { | |
| "epoch": 6.95, | |
| "grad_norm": 0.23754386603832245, | |
| "learning_rate": 1.1859116071629148e-05, | |
| "loss": 0.1334, | |
| "step": 4170 | |
| }, | |
| { | |
| "epoch": 6.966666666666667, | |
| "grad_norm": 15.504202842712402, | |
| "learning_rate": 1.181826913685291e-05, | |
| "loss": 0.1684, | |
| "step": 4180 | |
| }, | |
| { | |
| "epoch": 6.983333333333333, | |
| "grad_norm": 3.2268130779266357, | |
| "learning_rate": 1.1777390803229964e-05, | |
| "loss": 0.1206, | |
| "step": 4190 | |
| }, | |
| { | |
| "epoch": 7.0, | |
| "grad_norm": 15.195246696472168, | |
| "learning_rate": 1.1736481776669307e-05, | |
| "loss": 0.0643, | |
| "step": 4200 | |
| }, | |
| { | |
| "epoch": 7.0, | |
| "eval_accuracy": 0.6366300366300366, | |
| "eval_loss": 1.8222845792770386, | |
| "eval_runtime": 2.4299, | |
| "eval_samples_per_second": 561.742, | |
| "eval_steps_per_second": 35.392, | |
| "step": 4200 | |
| }, | |
| { | |
| "epoch": 7.016666666666667, | |
| "grad_norm": 3.1184213161468506, | |
| "learning_rate": 1.1695542763609944e-05, | |
| "loss": 0.0434, | |
| "step": 4210 | |
| }, | |
| { | |
| "epoch": 7.033333333333333, | |
| "grad_norm": 7.201974868774414, | |
| "learning_rate": 1.1654574471008712e-05, | |
| "loss": 0.0079, | |
| "step": 4220 | |
| }, | |
| { | |
| "epoch": 7.05, | |
| "grad_norm": 3.9969992637634277, | |
| "learning_rate": 1.1613577606328068e-05, | |
| "loss": 0.113, | |
| "step": 4230 | |
| }, | |
| { | |
| "epoch": 7.066666666666666, | |
| "grad_norm": 0.36156192421913147, | |
| "learning_rate": 1.1572552877523855e-05, | |
| "loss": 0.0531, | |
| "step": 4240 | |
| }, | |
| { | |
| "epoch": 7.083333333333333, | |
| "grad_norm": 3.436892032623291, | |
| "learning_rate": 1.1531500993033094e-05, | |
| "loss": 0.0311, | |
| "step": 4250 | |
| }, | |
| { | |
| "epoch": 7.1, | |
| "grad_norm": 0.3816102147102356, | |
| "learning_rate": 1.1490422661761744e-05, | |
| "loss": 0.0684, | |
| "step": 4260 | |
| }, | |
| { | |
| "epoch": 7.116666666666666, | |
| "grad_norm": 1.731108546257019, | |
| "learning_rate": 1.1449318593072468e-05, | |
| "loss": 0.0526, | |
| "step": 4270 | |
| }, | |
| { | |
| "epoch": 7.133333333333334, | |
| "grad_norm": 42.39308547973633, | |
| "learning_rate": 1.1408189496772369e-05, | |
| "loss": 0.0688, | |
| "step": 4280 | |
| }, | |
| { | |
| "epoch": 7.15, | |
| "grad_norm": 2.614971160888672, | |
| "learning_rate": 1.1367036083100735e-05, | |
| "loss": 0.0998, | |
| "step": 4290 | |
| }, | |
| { | |
| "epoch": 7.166666666666667, | |
| "grad_norm": 0.032221995294094086, | |
| "learning_rate": 1.1325859062716795e-05, | |
| "loss": 0.0068, | |
| "step": 4300 | |
| }, | |
| { | |
| "epoch": 7.183333333333334, | |
| "grad_norm": 0.026208536699414253, | |
| "learning_rate": 1.1284659146687416e-05, | |
| "loss": 0.1411, | |
| "step": 4310 | |
| }, | |
| { | |
| "epoch": 7.2, | |
| "grad_norm": 15.706056594848633, | |
| "learning_rate": 1.1243437046474854e-05, | |
| "loss": 0.0609, | |
| "step": 4320 | |
| }, | |
| { | |
| "epoch": 7.216666666666667, | |
| "grad_norm": 43.92604064941406, | |
| "learning_rate": 1.120219347392444e-05, | |
| "loss": 0.1201, | |
| "step": 4330 | |
| }, | |
| { | |
| "epoch": 7.233333333333333, | |
| "grad_norm": 3.1085469722747803, | |
| "learning_rate": 1.1160929141252303e-05, | |
| "loss": 0.0502, | |
| "step": 4340 | |
| }, | |
| { | |
| "epoch": 7.25, | |
| "grad_norm": 0.1720058023929596, | |
| "learning_rate": 1.1119644761033079e-05, | |
| "loss": 0.0695, | |
| "step": 4350 | |
| }, | |
| { | |
| "epoch": 7.266666666666667, | |
| "grad_norm": 62.54095458984375, | |
| "learning_rate": 1.1078341046187588e-05, | |
| "loss": 0.084, | |
| "step": 4360 | |
| }, | |
| { | |
| "epoch": 7.283333333333333, | |
| "grad_norm": 0.06810988485813141, | |
| "learning_rate": 1.1037018709970528e-05, | |
| "loss": 0.0311, | |
| "step": 4370 | |
| }, | |
| { | |
| "epoch": 7.3, | |
| "grad_norm": 20.363981246948242, | |
| "learning_rate": 1.0995678465958168e-05, | |
| "loss": 0.0434, | |
| "step": 4380 | |
| }, | |
| { | |
| "epoch": 7.316666666666666, | |
| "grad_norm": 0.0323542058467865, | |
| "learning_rate": 1.0954321028036013e-05, | |
| "loss": 0.0534, | |
| "step": 4390 | |
| }, | |
| { | |
| "epoch": 7.333333333333333, | |
| "grad_norm": 0.07076967507600784, | |
| "learning_rate": 1.0912947110386484e-05, | |
| "loss": 0.0603, | |
| "step": 4400 | |
| }, | |
| { | |
| "epoch": 7.35, | |
| "grad_norm": 0.7574355006217957, | |
| "learning_rate": 1.0871557427476585e-05, | |
| "loss": 0.0859, | |
| "step": 4410 | |
| }, | |
| { | |
| "epoch": 7.366666666666666, | |
| "grad_norm": 3.641155958175659, | |
| "learning_rate": 1.0830152694045553e-05, | |
| "loss": 0.1094, | |
| "step": 4420 | |
| }, | |
| { | |
| "epoch": 7.383333333333334, | |
| "grad_norm": 0.17219914495944977, | |
| "learning_rate": 1.078873362509254e-05, | |
| "loss": 0.0779, | |
| "step": 4430 | |
| }, | |
| { | |
| "epoch": 7.4, | |
| "grad_norm": 0.03016113117337227, | |
| "learning_rate": 1.0747300935864245e-05, | |
| "loss": 0.0344, | |
| "step": 4440 | |
| }, | |
| { | |
| "epoch": 7.416666666666667, | |
| "grad_norm": 0.3405592441558838, | |
| "learning_rate": 1.0705855341842564e-05, | |
| "loss": 0.0863, | |
| "step": 4450 | |
| }, | |
| { | |
| "epoch": 7.433333333333334, | |
| "grad_norm": 0.026357417926192284, | |
| "learning_rate": 1.0664397558732245e-05, | |
| "loss": 0.0873, | |
| "step": 4460 | |
| }, | |
| { | |
| "epoch": 7.45, | |
| "grad_norm": 13.986675262451172, | |
| "learning_rate": 1.0622928302448523e-05, | |
| "loss": 0.0984, | |
| "step": 4470 | |
| }, | |
| { | |
| "epoch": 7.466666666666667, | |
| "grad_norm": 0.05464504286646843, | |
| "learning_rate": 1.0581448289104759e-05, | |
| "loss": 0.0332, | |
| "step": 4480 | |
| }, | |
| { | |
| "epoch": 7.483333333333333, | |
| "grad_norm": 43.4432373046875, | |
| "learning_rate": 1.0539958235000075e-05, | |
| "loss": 0.0659, | |
| "step": 4490 | |
| }, | |
| { | |
| "epoch": 7.5, | |
| "grad_norm": 29.609643936157227, | |
| "learning_rate": 1.0498458856606972e-05, | |
| "loss": 0.1271, | |
| "step": 4500 | |
| }, | |
| { | |
| "epoch": 7.516666666666667, | |
| "grad_norm": 0.08658182621002197, | |
| "learning_rate": 1.0456950870558982e-05, | |
| "loss": 0.0496, | |
| "step": 4510 | |
| }, | |
| { | |
| "epoch": 7.533333333333333, | |
| "grad_norm": 0.4856656789779663, | |
| "learning_rate": 1.0415434993638269e-05, | |
| "loss": 0.056, | |
| "step": 4520 | |
| }, | |
| { | |
| "epoch": 7.55, | |
| "grad_norm": 54.464481353759766, | |
| "learning_rate": 1.037391194276326e-05, | |
| "loss": 0.1164, | |
| "step": 4530 | |
| }, | |
| { | |
| "epoch": 7.566666666666666, | |
| "grad_norm": 0.028596431016921997, | |
| "learning_rate": 1.0332382434976267e-05, | |
| "loss": 0.1338, | |
| "step": 4540 | |
| }, | |
| { | |
| "epoch": 7.583333333333333, | |
| "grad_norm": 0.47550636529922485, | |
| "learning_rate": 1.0290847187431115e-05, | |
| "loss": 0.0099, | |
| "step": 4550 | |
| }, | |
| { | |
| "epoch": 7.6, | |
| "grad_norm": 0.024133695289492607, | |
| "learning_rate": 1.0249306917380731e-05, | |
| "loss": 0.0478, | |
| "step": 4560 | |
| }, | |
| { | |
| "epoch": 7.616666666666667, | |
| "grad_norm": 0.15692509710788727, | |
| "learning_rate": 1.0207762342164778e-05, | |
| "loss": 0.027, | |
| "step": 4570 | |
| }, | |
| { | |
| "epoch": 7.633333333333333, | |
| "grad_norm": 25.491106033325195, | |
| "learning_rate": 1.0166214179197265e-05, | |
| "loss": 0.0313, | |
| "step": 4580 | |
| }, | |
| { | |
| "epoch": 7.65, | |
| "grad_norm": 0.8982044458389282, | |
| "learning_rate": 1.0124663145954152e-05, | |
| "loss": 0.0284, | |
| "step": 4590 | |
| }, | |
| { | |
| "epoch": 7.666666666666667, | |
| "grad_norm": 0.4735371470451355, | |
| "learning_rate": 1.0083109959960974e-05, | |
| "loss": 0.0569, | |
| "step": 4600 | |
| }, | |
| { | |
| "epoch": 7.683333333333334, | |
| "grad_norm": 0.14562205970287323, | |
| "learning_rate": 1.0041555338780427e-05, | |
| "loss": 0.1106, | |
| "step": 4610 | |
| }, | |
| { | |
| "epoch": 7.7, | |
| "grad_norm": 36.13142013549805, | |
| "learning_rate": 1e-05, | |
| "loss": 0.0461, | |
| "step": 4620 | |
| }, | |
| { | |
| "epoch": 7.716666666666667, | |
| "grad_norm": 69.17588806152344, | |
| "learning_rate": 9.958444661219578e-06, | |
| "loss": 0.1307, | |
| "step": 4630 | |
| }, | |
| { | |
| "epoch": 7.733333333333333, | |
| "grad_norm": 23.862674713134766, | |
| "learning_rate": 9.916890040039031e-06, | |
| "loss": 0.1613, | |
| "step": 4640 | |
| }, | |
| { | |
| "epoch": 7.75, | |
| "grad_norm": 13.202719688415527, | |
| "learning_rate": 9.87533685404585e-06, | |
| "loss": 0.1349, | |
| "step": 4650 | |
| }, | |
| { | |
| "epoch": 7.766666666666667, | |
| "grad_norm": 0.12848487496376038, | |
| "learning_rate": 9.833785820802739e-06, | |
| "loss": 0.0125, | |
| "step": 4660 | |
| }, | |
| { | |
| "epoch": 7.783333333333333, | |
| "grad_norm": 0.026713097468018532, | |
| "learning_rate": 9.792237657835225e-06, | |
| "loss": 0.137, | |
| "step": 4670 | |
| }, | |
| { | |
| "epoch": 7.8, | |
| "grad_norm": 0.09598132967948914, | |
| "learning_rate": 9.750693082619274e-06, | |
| "loss": 0.0479, | |
| "step": 4680 | |
| }, | |
| { | |
| "epoch": 7.816666666666666, | |
| "grad_norm": 55.45012283325195, | |
| "learning_rate": 9.709152812568886e-06, | |
| "loss": 0.0105, | |
| "step": 4690 | |
| }, | |
| { | |
| "epoch": 7.833333333333333, | |
| "grad_norm": 1.960809588432312, | |
| "learning_rate": 9.667617565023734e-06, | |
| "loss": 0.1331, | |
| "step": 4700 | |
| }, | |
| { | |
| "epoch": 7.85, | |
| "grad_norm": 0.05195235088467598, | |
| "learning_rate": 9.626088057236745e-06, | |
| "loss": 0.0732, | |
| "step": 4710 | |
| }, | |
| { | |
| "epoch": 7.866666666666667, | |
| "grad_norm": 0.07702606171369553, | |
| "learning_rate": 9.584565006361735e-06, | |
| "loss": 0.086, | |
| "step": 4720 | |
| }, | |
| { | |
| "epoch": 7.883333333333333, | |
| "grad_norm": 62.13239669799805, | |
| "learning_rate": 9.543049129441021e-06, | |
| "loss": 0.0593, | |
| "step": 4730 | |
| }, | |
| { | |
| "epoch": 7.9, | |
| "grad_norm": 3.229891777038574, | |
| "learning_rate": 9.501541143393028e-06, | |
| "loss": 0.0753, | |
| "step": 4740 | |
| }, | |
| { | |
| "epoch": 7.916666666666667, | |
| "grad_norm": 10.668651580810547, | |
| "learning_rate": 9.460041764999929e-06, | |
| "loss": 0.1537, | |
| "step": 4750 | |
| }, | |
| { | |
| "epoch": 7.933333333333334, | |
| "grad_norm": 6.874297618865967, | |
| "learning_rate": 9.418551710895243e-06, | |
| "loss": 0.0911, | |
| "step": 4760 | |
| }, | |
| { | |
| "epoch": 7.95, | |
| "grad_norm": 0.8538333177566528, | |
| "learning_rate": 9.377071697551479e-06, | |
| "loss": 0.0291, | |
| "step": 4770 | |
| }, | |
| { | |
| "epoch": 7.966666666666667, | |
| "grad_norm": 0.22471383213996887, | |
| "learning_rate": 9.33560244126776e-06, | |
| "loss": 0.0661, | |
| "step": 4780 | |
| }, | |
| { | |
| "epoch": 7.983333333333333, | |
| "grad_norm": 1.8405463695526123, | |
| "learning_rate": 9.294144658157443e-06, | |
| "loss": 0.0653, | |
| "step": 4790 | |
| }, | |
| { | |
| "epoch": 8.0, | |
| "grad_norm": 0.3498668968677521, | |
| "learning_rate": 9.252699064135759e-06, | |
| "loss": 0.0639, | |
| "step": 4800 | |
| }, | |
| { | |
| "epoch": 8.0, | |
| "eval_accuracy": 0.6241758241758242, | |
| "eval_loss": 2.287038803100586, | |
| "eval_runtime": 2.006, | |
| "eval_samples_per_second": 680.459, | |
| "eval_steps_per_second": 42.871, | |
| "step": 4800 | |
| }, | |
| { | |
| "epoch": 8.016666666666667, | |
| "grad_norm": 12.221203804016113, | |
| "learning_rate": 9.211266374907463e-06, | |
| "loss": 0.0407, | |
| "step": 4810 | |
| }, | |
| { | |
| "epoch": 8.033333333333333, | |
| "grad_norm": 0.09653156995773315, | |
| "learning_rate": 9.169847305954448e-06, | |
| "loss": 0.0146, | |
| "step": 4820 | |
| }, | |
| { | |
| "epoch": 8.05, | |
| "grad_norm": 0.0653880164027214, | |
| "learning_rate": 9.128442572523418e-06, | |
| "loss": 0.0522, | |
| "step": 4830 | |
| }, | |
| { | |
| "epoch": 8.066666666666666, | |
| "grad_norm": 0.018451673910021782, | |
| "learning_rate": 9.087052889613519e-06, | |
| "loss": 0.0198, | |
| "step": 4840 | |
| }, | |
| { | |
| "epoch": 8.083333333333334, | |
| "grad_norm": 2.7249293327331543, | |
| "learning_rate": 9.045678971963988e-06, | |
| "loss": 0.0574, | |
| "step": 4850 | |
| }, | |
| { | |
| "epoch": 8.1, | |
| "grad_norm": 0.03191056102514267, | |
| "learning_rate": 9.004321534041836e-06, | |
| "loss": 0.0537, | |
| "step": 4860 | |
| }, | |
| { | |
| "epoch": 8.116666666666667, | |
| "grad_norm": 8.838760375976562, | |
| "learning_rate": 8.962981290029475e-06, | |
| "loss": 0.0149, | |
| "step": 4870 | |
| }, | |
| { | |
| "epoch": 8.133333333333333, | |
| "grad_norm": 11.203906059265137, | |
| "learning_rate": 8.921658953812416e-06, | |
| "loss": 0.0043, | |
| "step": 4880 | |
| }, | |
| { | |
| "epoch": 8.15, | |
| "grad_norm": 0.10002117604017258, | |
| "learning_rate": 8.880355238966923e-06, | |
| "loss": 0.0325, | |
| "step": 4890 | |
| }, | |
| { | |
| "epoch": 8.166666666666666, | |
| "grad_norm": 0.47016626596450806, | |
| "learning_rate": 8.839070858747697e-06, | |
| "loss": 0.0665, | |
| "step": 4900 | |
| }, | |
| { | |
| "epoch": 8.183333333333334, | |
| "grad_norm": 2.427482843399048, | |
| "learning_rate": 8.797806526075566e-06, | |
| "loss": 0.0488, | |
| "step": 4910 | |
| }, | |
| { | |
| "epoch": 8.2, | |
| "grad_norm": 0.014250639826059341, | |
| "learning_rate": 8.756562953525151e-06, | |
| "loss": 0.0366, | |
| "step": 4920 | |
| }, | |
| { | |
| "epoch": 8.216666666666667, | |
| "grad_norm": 1.8263099193572998, | |
| "learning_rate": 8.715340853312586e-06, | |
| "loss": 0.0301, | |
| "step": 4930 | |
| }, | |
| { | |
| "epoch": 8.233333333333333, | |
| "grad_norm": 0.20052829384803772, | |
| "learning_rate": 8.674140937283208e-06, | |
| "loss": 0.0266, | |
| "step": 4940 | |
| }, | |
| { | |
| "epoch": 8.25, | |
| "grad_norm": 0.4661940634250641, | |
| "learning_rate": 8.632963916899268e-06, | |
| "loss": 0.0016, | |
| "step": 4950 | |
| }, | |
| { | |
| "epoch": 8.266666666666667, | |
| "grad_norm": 0.3336583971977234, | |
| "learning_rate": 8.591810503227634e-06, | |
| "loss": 0.0199, | |
| "step": 4960 | |
| }, | |
| { | |
| "epoch": 8.283333333333333, | |
| "grad_norm": 3.7666029930114746, | |
| "learning_rate": 8.550681406927534e-06, | |
| "loss": 0.0372, | |
| "step": 4970 | |
| }, | |
| { | |
| "epoch": 8.3, | |
| "grad_norm": 0.23303212225437164, | |
| "learning_rate": 8.509577338238255e-06, | |
| "loss": 0.027, | |
| "step": 4980 | |
| }, | |
| { | |
| "epoch": 8.316666666666666, | |
| "grad_norm": 0.04906190559267998, | |
| "learning_rate": 8.46849900696691e-06, | |
| "loss": 0.1621, | |
| "step": 4990 | |
| }, | |
| { | |
| "epoch": 8.333333333333334, | |
| "grad_norm": 0.6690149307250977, | |
| "learning_rate": 8.427447122476148e-06, | |
| "loss": 0.0588, | |
| "step": 5000 | |
| }, | |
| { | |
| "epoch": 8.35, | |
| "grad_norm": 0.030395809561014175, | |
| "learning_rate": 8.386422393671934e-06, | |
| "loss": 0.0011, | |
| "step": 5010 | |
| }, | |
| { | |
| "epoch": 8.366666666666667, | |
| "grad_norm": 0.0137130506336689, | |
| "learning_rate": 8.34542552899129e-06, | |
| "loss": 0.0248, | |
| "step": 5020 | |
| }, | |
| { | |
| "epoch": 8.383333333333333, | |
| "grad_norm": 0.03623773530125618, | |
| "learning_rate": 8.304457236390062e-06, | |
| "loss": 0.0368, | |
| "step": 5030 | |
| }, | |
| { | |
| "epoch": 8.4, | |
| "grad_norm": 28.148099899291992, | |
| "learning_rate": 8.263518223330698e-06, | |
| "loss": 0.0481, | |
| "step": 5040 | |
| }, | |
| { | |
| "epoch": 8.416666666666666, | |
| "grad_norm": 3.5140609741210938, | |
| "learning_rate": 8.222609196770037e-06, | |
| "loss": 0.0232, | |
| "step": 5050 | |
| }, | |
| { | |
| "epoch": 8.433333333333334, | |
| "grad_norm": 15.2373685836792, | |
| "learning_rate": 8.181730863147094e-06, | |
| "loss": 0.0238, | |
| "step": 5060 | |
| }, | |
| { | |
| "epoch": 8.45, | |
| "grad_norm": 0.0257254671305418, | |
| "learning_rate": 8.140883928370855e-06, | |
| "loss": 0.0333, | |
| "step": 5070 | |
| }, | |
| { | |
| "epoch": 8.466666666666667, | |
| "grad_norm": 0.08491776883602142, | |
| "learning_rate": 8.100069097808103e-06, | |
| "loss": 0.0413, | |
| "step": 5080 | |
| }, | |
| { | |
| "epoch": 8.483333333333333, | |
| "grad_norm": 39.21556091308594, | |
| "learning_rate": 8.059287076271216e-06, | |
| "loss": 0.1001, | |
| "step": 5090 | |
| }, | |
| { | |
| "epoch": 8.5, | |
| "grad_norm": 0.017393160611391068, | |
| "learning_rate": 8.018538568006027e-06, | |
| "loss": 0.0025, | |
| "step": 5100 | |
| }, | |
| { | |
| "epoch": 8.516666666666667, | |
| "grad_norm": 16.39540672302246, | |
| "learning_rate": 7.977824276679623e-06, | |
| "loss": 0.0528, | |
| "step": 5110 | |
| }, | |
| { | |
| "epoch": 8.533333333333333, | |
| "grad_norm": 0.015073513612151146, | |
| "learning_rate": 7.937144905368226e-06, | |
| "loss": 0.1109, | |
| "step": 5120 | |
| }, | |
| { | |
| "epoch": 8.55, | |
| "grad_norm": 0.05708052217960358, | |
| "learning_rate": 7.896501156545044e-06, | |
| "loss": 0.0332, | |
| "step": 5130 | |
| }, | |
| { | |
| "epoch": 8.566666666666666, | |
| "grad_norm": 0.027908623218536377, | |
| "learning_rate": 7.855893732068124e-06, | |
| "loss": 0.0926, | |
| "step": 5140 | |
| }, | |
| { | |
| "epoch": 8.583333333333334, | |
| "grad_norm": 23.559062957763672, | |
| "learning_rate": 7.815323333168262e-06, | |
| "loss": 0.012, | |
| "step": 5150 | |
| }, | |
| { | |
| "epoch": 8.6, | |
| "grad_norm": 0.9111537933349609, | |
| "learning_rate": 7.774790660436857e-06, | |
| "loss": 0.0219, | |
| "step": 5160 | |
| }, | |
| { | |
| "epoch": 8.616666666666667, | |
| "grad_norm": 0.03302312642335892, | |
| "learning_rate": 7.734296413813847e-06, | |
| "loss": 0.0792, | |
| "step": 5170 | |
| }, | |
| { | |
| "epoch": 8.633333333333333, | |
| "grad_norm": 14.167460441589355, | |
| "learning_rate": 7.6938412925756e-06, | |
| "loss": 0.0331, | |
| "step": 5180 | |
| }, | |
| { | |
| "epoch": 8.65, | |
| "grad_norm": 0.27443990111351013, | |
| "learning_rate": 7.653425995322852e-06, | |
| "loss": 0.0517, | |
| "step": 5190 | |
| }, | |
| { | |
| "epoch": 8.666666666666666, | |
| "grad_norm": 2.8816311359405518, | |
| "learning_rate": 7.613051219968624e-06, | |
| "loss": 0.0758, | |
| "step": 5200 | |
| }, | |
| { | |
| "epoch": 8.683333333333334, | |
| "grad_norm": 0.015650594606995583, | |
| "learning_rate": 7.5727176637262034e-06, | |
| "loss": 0.0803, | |
| "step": 5210 | |
| }, | |
| { | |
| "epoch": 8.7, | |
| "grad_norm": 0.02484651654958725, | |
| "learning_rate": 7.532426023097063e-06, | |
| "loss": 0.0583, | |
| "step": 5220 | |
| }, | |
| { | |
| "epoch": 8.716666666666667, | |
| "grad_norm": 78.51082611083984, | |
| "learning_rate": 7.492176993858873e-06, | |
| "loss": 0.1146, | |
| "step": 5230 | |
| }, | |
| { | |
| "epoch": 8.733333333333333, | |
| "grad_norm": 1.1751972436904907, | |
| "learning_rate": 7.451971271053455e-06, | |
| "loss": 0.0537, | |
| "step": 5240 | |
| }, | |
| { | |
| "epoch": 8.75, | |
| "grad_norm": 2.047635793685913, | |
| "learning_rate": 7.411809548974792e-06, | |
| "loss": 0.1589, | |
| "step": 5250 | |
| }, | |
| { | |
| "epoch": 8.766666666666667, | |
| "grad_norm": 20.830856323242188, | |
| "learning_rate": 7.371692521157048e-06, | |
| "loss": 0.1046, | |
| "step": 5260 | |
| }, | |
| { | |
| "epoch": 8.783333333333333, | |
| "grad_norm": 50.50537109375, | |
| "learning_rate": 7.331620880362571e-06, | |
| "loss": 0.017, | |
| "step": 5270 | |
| }, | |
| { | |
| "epoch": 8.8, | |
| "grad_norm": 14.005181312561035, | |
| "learning_rate": 7.291595318569951e-06, | |
| "loss": 0.131, | |
| "step": 5280 | |
| }, | |
| { | |
| "epoch": 8.816666666666666, | |
| "grad_norm": 0.017126847058534622, | |
| "learning_rate": 7.2516165269620534e-06, | |
| "loss": 0.0394, | |
| "step": 5290 | |
| }, | |
| { | |
| "epoch": 8.833333333333334, | |
| "grad_norm": 11.570549964904785, | |
| "learning_rate": 7.2116851959140965e-06, | |
| "loss": 0.0167, | |
| "step": 5300 | |
| }, | |
| { | |
| "epoch": 8.85, | |
| "grad_norm": 60.751495361328125, | |
| "learning_rate": 7.171802014981726e-06, | |
| "loss": 0.1043, | |
| "step": 5310 | |
| }, | |
| { | |
| "epoch": 8.866666666666667, | |
| "grad_norm": 14.370758056640625, | |
| "learning_rate": 7.131967672889101e-06, | |
| "loss": 0.037, | |
| "step": 5320 | |
| }, | |
| { | |
| "epoch": 8.883333333333333, | |
| "grad_norm": 0.042631592601537704, | |
| "learning_rate": 7.092182857516998e-06, | |
| "loss": 0.0825, | |
| "step": 5330 | |
| }, | |
| { | |
| "epoch": 8.9, | |
| "grad_norm": 18.05477523803711, | |
| "learning_rate": 7.052448255890958e-06, | |
| "loss": 0.0753, | |
| "step": 5340 | |
| }, | |
| { | |
| "epoch": 8.916666666666666, | |
| "grad_norm": 0.08995214104652405, | |
| "learning_rate": 7.012764554169393e-06, | |
| "loss": 0.0639, | |
| "step": 5350 | |
| }, | |
| { | |
| "epoch": 8.933333333333334, | |
| "grad_norm": 0.4663775861263275, | |
| "learning_rate": 6.973132437631743e-06, | |
| "loss": 0.0017, | |
| "step": 5360 | |
| }, | |
| { | |
| "epoch": 8.95, | |
| "grad_norm": 0.013071997091174126, | |
| "learning_rate": 6.933552590666659e-06, | |
| "loss": 0.041, | |
| "step": 5370 | |
| }, | |
| { | |
| "epoch": 8.966666666666667, | |
| "grad_norm": 0.024483798071742058, | |
| "learning_rate": 6.8940256967601625e-06, | |
| "loss": 0.0705, | |
| "step": 5380 | |
| }, | |
| { | |
| "epoch": 8.983333333333333, | |
| "grad_norm": 0.05324419215321541, | |
| "learning_rate": 6.854552438483866e-06, | |
| "loss": 0.0902, | |
| "step": 5390 | |
| }, | |
| { | |
| "epoch": 9.0, | |
| "grad_norm": 0.010217195376753807, | |
| "learning_rate": 6.815133497483157e-06, | |
| "loss": 0.0161, | |
| "step": 5400 | |
| }, | |
| { | |
| "epoch": 9.0, | |
| "eval_accuracy": 0.6256410256410256, | |
| "eval_loss": 2.376491069793701, | |
| "eval_runtime": 1.984, | |
| "eval_samples_per_second": 687.989, | |
| "eval_steps_per_second": 43.346, | |
| "step": 5400 | |
| }, | |
| { | |
| "epoch": 9.016666666666667, | |
| "grad_norm": 0.04304489493370056, | |
| "learning_rate": 6.775769554465455e-06, | |
| "loss": 0.0052, | |
| "step": 5410 | |
| }, | |
| { | |
| "epoch": 9.033333333333333, | |
| "grad_norm": 0.04578486457467079, | |
| "learning_rate": 6.736461289188445e-06, | |
| "loss": 0.0161, | |
| "step": 5420 | |
| }, | |
| { | |
| "epoch": 9.05, | |
| "grad_norm": 0.020307594910264015, | |
| "learning_rate": 6.697209380448333e-06, | |
| "loss": 0.0023, | |
| "step": 5430 | |
| }, | |
| { | |
| "epoch": 9.066666666666666, | |
| "grad_norm": 0.06639733165502548, | |
| "learning_rate": 6.6580145060681255e-06, | |
| "loss": 0.0079, | |
| "step": 5440 | |
| }, | |
| { | |
| "epoch": 9.083333333333334, | |
| "grad_norm": 0.005567920859903097, | |
| "learning_rate": 6.618877342885945e-06, | |
| "loss": 0.0014, | |
| "step": 5450 | |
| }, | |
| { | |
| "epoch": 9.1, | |
| "grad_norm": 0.007131638005375862, | |
| "learning_rate": 6.579798566743314e-06, | |
| "loss": 0.0034, | |
| "step": 5460 | |
| }, | |
| { | |
| "epoch": 9.116666666666667, | |
| "grad_norm": 157.75733947753906, | |
| "learning_rate": 6.540778852473497e-06, | |
| "loss": 0.0641, | |
| "step": 5470 | |
| }, | |
| { | |
| "epoch": 9.133333333333333, | |
| "grad_norm": 0.32051143050193787, | |
| "learning_rate": 6.501818873889856e-06, | |
| "loss": 0.0628, | |
| "step": 5480 | |
| }, | |
| { | |
| "epoch": 9.15, | |
| "grad_norm": 0.012005547992885113, | |
| "learning_rate": 6.462919303774186e-06, | |
| "loss": 0.0496, | |
| "step": 5490 | |
| }, | |
| { | |
| "epoch": 9.166666666666666, | |
| "grad_norm": 0.09318733960390091, | |
| "learning_rate": 6.424080813865139e-06, | |
| "loss": 0.0184, | |
| "step": 5500 | |
| }, | |
| { | |
| "epoch": 9.183333333333334, | |
| "grad_norm": 0.03979954123497009, | |
| "learning_rate": 6.3853040748465855e-06, | |
| "loss": 0.0235, | |
| "step": 5510 | |
| }, | |
| { | |
| "epoch": 9.2, | |
| "grad_norm": 20.619905471801758, | |
| "learning_rate": 6.34658975633605e-06, | |
| "loss": 0.0842, | |
| "step": 5520 | |
| }, | |
| { | |
| "epoch": 9.216666666666667, | |
| "grad_norm": 65.93218994140625, | |
| "learning_rate": 6.3079385268731575e-06, | |
| "loss": 0.0727, | |
| "step": 5530 | |
| }, | |
| { | |
| "epoch": 9.233333333333333, | |
| "grad_norm": 4.460343837738037, | |
| "learning_rate": 6.269351053908061e-06, | |
| "loss": 0.0541, | |
| "step": 5540 | |
| }, | |
| { | |
| "epoch": 9.25, | |
| "grad_norm": 0.09803818166255951, | |
| "learning_rate": 6.230828003789949e-06, | |
| "loss": 0.0009, | |
| "step": 5550 | |
| }, | |
| { | |
| "epoch": 9.266666666666667, | |
| "grad_norm": 0.0428694486618042, | |
| "learning_rate": 6.192370041755505e-06, | |
| "loss": 0.0812, | |
| "step": 5560 | |
| }, | |
| { | |
| "epoch": 9.283333333333333, | |
| "grad_norm": 0.028728744015097618, | |
| "learning_rate": 6.153977831917451e-06, | |
| "loss": 0.0042, | |
| "step": 5570 | |
| }, | |
| { | |
| "epoch": 9.3, | |
| "grad_norm": 0.3407820761203766, | |
| "learning_rate": 6.115652037253054e-06, | |
| "loss": 0.0018, | |
| "step": 5580 | |
| }, | |
| { | |
| "epoch": 9.316666666666666, | |
| "grad_norm": 0.024533122777938843, | |
| "learning_rate": 6.077393319592697e-06, | |
| "loss": 0.0774, | |
| "step": 5590 | |
| }, | |
| { | |
| "epoch": 9.333333333333334, | |
| "grad_norm": 0.5175767540931702, | |
| "learning_rate": 6.039202339608432e-06, | |
| "loss": 0.0779, | |
| "step": 5600 | |
| }, | |
| { | |
| "epoch": 9.35, | |
| "grad_norm": 0.017414189875125885, | |
| "learning_rate": 6.001079756802592e-06, | |
| "loss": 0.0018, | |
| "step": 5610 | |
| }, | |
| { | |
| "epoch": 9.366666666666667, | |
| "grad_norm": 0.018383994698524475, | |
| "learning_rate": 5.963026229496378e-06, | |
| "loss": 0.0032, | |
| "step": 5620 | |
| }, | |
| { | |
| "epoch": 9.383333333333333, | |
| "grad_norm": 1.9100221395492554, | |
| "learning_rate": 5.925042414818514e-06, | |
| "loss": 0.0719, | |
| "step": 5630 | |
| }, | |
| { | |
| "epoch": 9.4, | |
| "grad_norm": 0.014550582505762577, | |
| "learning_rate": 5.887128968693887e-06, | |
| "loss": 0.0198, | |
| "step": 5640 | |
| }, | |
| { | |
| "epoch": 9.416666666666666, | |
| "grad_norm": 0.008884880691766739, | |
| "learning_rate": 5.849286545832211e-06, | |
| "loss": 0.0496, | |
| "step": 5650 | |
| }, | |
| { | |
| "epoch": 9.433333333333334, | |
| "grad_norm": 0.025510238483548164, | |
| "learning_rate": 5.811515799716754e-06, | |
| "loss": 0.0285, | |
| "step": 5660 | |
| }, | |
| { | |
| "epoch": 9.45, | |
| "grad_norm": 0.029813693836331367, | |
| "learning_rate": 5.773817382593008e-06, | |
| "loss": 0.0229, | |
| "step": 5670 | |
| }, | |
| { | |
| "epoch": 9.466666666666667, | |
| "grad_norm": 0.0077801719307899475, | |
| "learning_rate": 5.736191945457463e-06, | |
| "loss": 0.1094, | |
| "step": 5680 | |
| }, | |
| { | |
| "epoch": 9.483333333333333, | |
| "grad_norm": 0.21113517880439758, | |
| "learning_rate": 5.698640138046349e-06, | |
| "loss": 0.0182, | |
| "step": 5690 | |
| }, | |
| { | |
| "epoch": 9.5, | |
| "grad_norm": 0.011576608754694462, | |
| "learning_rate": 5.66116260882442e-06, | |
| "loss": 0.057, | |
| "step": 5700 | |
| }, | |
| { | |
| "epoch": 9.516666666666667, | |
| "grad_norm": 0.2033030092716217, | |
| "learning_rate": 5.623760004973749e-06, | |
| "loss": 0.0734, | |
| "step": 5710 | |
| }, | |
| { | |
| "epoch": 9.533333333333333, | |
| "grad_norm": 0.022775832563638687, | |
| "learning_rate": 5.586432972382561e-06, | |
| "loss": 0.0235, | |
| "step": 5720 | |
| }, | |
| { | |
| "epoch": 9.55, | |
| "grad_norm": 0.011610534973442554, | |
| "learning_rate": 5.549182155634076e-06, | |
| "loss": 0.0016, | |
| "step": 5730 | |
| }, | |
| { | |
| "epoch": 9.566666666666666, | |
| "grad_norm": 102.03386688232422, | |
| "learning_rate": 5.512008197995379e-06, | |
| "loss": 0.0602, | |
| "step": 5740 | |
| }, | |
| { | |
| "epoch": 9.583333333333334, | |
| "grad_norm": 13.98901081085205, | |
| "learning_rate": 5.47491174140631e-06, | |
| "loss": 0.0295, | |
| "step": 5750 | |
| }, | |
| { | |
| "epoch": 9.6, | |
| "grad_norm": 0.09368708729743958, | |
| "learning_rate": 5.43789342646837e-06, | |
| "loss": 0.0117, | |
| "step": 5760 | |
| }, | |
| { | |
| "epoch": 9.616666666666667, | |
| "grad_norm": 0.011298476718366146, | |
| "learning_rate": 5.4009538924336864e-06, | |
| "loss": 0.0007, | |
| "step": 5770 | |
| }, | |
| { | |
| "epoch": 9.633333333333333, | |
| "grad_norm": 25.619182586669922, | |
| "learning_rate": 5.364093777193944e-06, | |
| "loss": 0.0335, | |
| "step": 5780 | |
| }, | |
| { | |
| "epoch": 9.65, | |
| "grad_norm": 0.013145272620022297, | |
| "learning_rate": 5.32731371726938e-06, | |
| "loss": 0.0305, | |
| "step": 5790 | |
| }, | |
| { | |
| "epoch": 9.666666666666666, | |
| "grad_norm": 0.033255018293857574, | |
| "learning_rate": 5.290614347797802e-06, | |
| "loss": 0.0347, | |
| "step": 5800 | |
| }, | |
| { | |
| "epoch": 9.683333333333334, | |
| "grad_norm": 0.021136023104190826, | |
| "learning_rate": 5.253996302523596e-06, | |
| "loss": 0.0417, | |
| "step": 5810 | |
| }, | |
| { | |
| "epoch": 9.7, | |
| "grad_norm": 0.01828765496611595, | |
| "learning_rate": 5.217460213786822e-06, | |
| "loss": 0.0008, | |
| "step": 5820 | |
| }, | |
| { | |
| "epoch": 9.716666666666667, | |
| "grad_norm": 0.021525239571928978, | |
| "learning_rate": 5.181006712512245e-06, | |
| "loss": 0.0043, | |
| "step": 5830 | |
| }, | |
| { | |
| "epoch": 9.733333333333333, | |
| "grad_norm": 49.80839157104492, | |
| "learning_rate": 5.144636428198477e-06, | |
| "loss": 0.1559, | |
| "step": 5840 | |
| }, | |
| { | |
| "epoch": 9.75, | |
| "grad_norm": 20.633182525634766, | |
| "learning_rate": 5.108349988907111e-06, | |
| "loss": 0.0062, | |
| "step": 5850 | |
| }, | |
| { | |
| "epoch": 9.766666666666667, | |
| "grad_norm": 0.006064248271286488, | |
| "learning_rate": 5.072148021251822e-06, | |
| "loss": 0.0723, | |
| "step": 5860 | |
| }, | |
| { | |
| "epoch": 9.783333333333333, | |
| "grad_norm": 0.15177957713603973, | |
| "learning_rate": 5.036031150387624e-06, | |
| "loss": 0.0679, | |
| "step": 5870 | |
| }, | |
| { | |
| "epoch": 9.8, | |
| "grad_norm": 67.9042739868164, | |
| "learning_rate": 5.000000000000003e-06, | |
| "loss": 0.013, | |
| "step": 5880 | |
| }, | |
| { | |
| "epoch": 9.816666666666666, | |
| "grad_norm": 0.08752978593111038, | |
| "learning_rate": 4.964055192294187e-06, | |
| "loss": 0.0052, | |
| "step": 5890 | |
| }, | |
| { | |
| "epoch": 9.833333333333334, | |
| "grad_norm": 1.5333389043807983, | |
| "learning_rate": 4.92819734798441e-06, | |
| "loss": 0.0049, | |
| "step": 5900 | |
| }, | |
| { | |
| "epoch": 9.85, | |
| "grad_norm": 0.015482067130506039, | |
| "learning_rate": 4.892427086283147e-06, | |
| "loss": 0.0067, | |
| "step": 5910 | |
| }, | |
| { | |
| "epoch": 9.866666666666667, | |
| "grad_norm": 0.05730535835027695, | |
| "learning_rate": 4.856745024890466e-06, | |
| "loss": 0.0397, | |
| "step": 5920 | |
| }, | |
| { | |
| "epoch": 9.883333333333333, | |
| "grad_norm": 14.22793960571289, | |
| "learning_rate": 4.821151779983343e-06, | |
| "loss": 0.0653, | |
| "step": 5930 | |
| }, | |
| { | |
| "epoch": 9.9, | |
| "grad_norm": 0.6677501201629639, | |
| "learning_rate": 4.78564796620502e-06, | |
| "loss": 0.0014, | |
| "step": 5940 | |
| }, | |
| { | |
| "epoch": 9.916666666666666, | |
| "grad_norm": 0.007463044486939907, | |
| "learning_rate": 4.7502341966544e-06, | |
| "loss": 0.0139, | |
| "step": 5950 | |
| }, | |
| { | |
| "epoch": 9.933333333333334, | |
| "grad_norm": 0.01207564864307642, | |
| "learning_rate": 4.714911082875446e-06, | |
| "loss": 0.0171, | |
| "step": 5960 | |
| }, | |
| { | |
| "epoch": 9.95, | |
| "grad_norm": 0.21874092519283295, | |
| "learning_rate": 4.679679234846636e-06, | |
| "loss": 0.0025, | |
| "step": 5970 | |
| }, | |
| { | |
| "epoch": 9.966666666666667, | |
| "grad_norm": 0.6054325103759766, | |
| "learning_rate": 4.644539260970417e-06, | |
| "loss": 0.0825, | |
| "step": 5980 | |
| }, | |
| { | |
| "epoch": 9.983333333333333, | |
| "grad_norm": 0.026162736117839813, | |
| "learning_rate": 4.609491768062705e-06, | |
| "loss": 0.0319, | |
| "step": 5990 | |
| }, | |
| { | |
| "epoch": 10.0, | |
| "grad_norm": 0.02407621219754219, | |
| "learning_rate": 4.5745373613424075e-06, | |
| "loss": 0.0128, | |
| "step": 6000 | |
| }, | |
| { | |
| "epoch": 10.0, | |
| "eval_accuracy": 0.6366300366300366, | |
| "eval_loss": 2.5328738689422607, | |
| "eval_runtime": 1.9365, | |
| "eval_samples_per_second": 704.886, | |
| "eval_steps_per_second": 44.41, | |
| "step": 6000 | |
| }, | |
| { | |
| "epoch": 10.016666666666667, | |
| "grad_norm": 2.5848894119262695, | |
| "learning_rate": 4.539676644420966e-06, | |
| "loss": 0.0066, | |
| "step": 6010 | |
| }, | |
| { | |
| "epoch": 10.033333333333333, | |
| "grad_norm": 164.14398193359375, | |
| "learning_rate": 4.504910219291941e-06, | |
| "loss": 0.0391, | |
| "step": 6020 | |
| }, | |
| { | |
| "epoch": 10.05, | |
| "grad_norm": 0.004672689363360405, | |
| "learning_rate": 4.470238686320606e-06, | |
| "loss": 0.0425, | |
| "step": 6030 | |
| }, | |
| { | |
| "epoch": 10.066666666666666, | |
| "grad_norm": 0.015739306807518005, | |
| "learning_rate": 4.435662644233594e-06, | |
| "loss": 0.0844, | |
| "step": 6040 | |
| }, | |
| { | |
| "epoch": 10.083333333333334, | |
| "grad_norm": 0.28408434987068176, | |
| "learning_rate": 4.4011826901085346e-06, | |
| "loss": 0.0047, | |
| "step": 6050 | |
| }, | |
| { | |
| "epoch": 10.1, | |
| "grad_norm": 0.792030394077301, | |
| "learning_rate": 4.3667994193637794e-06, | |
| "loss": 0.1337, | |
| "step": 6060 | |
| }, | |
| { | |
| "epoch": 10.116666666666667, | |
| "grad_norm": 0.016146106645464897, | |
| "learning_rate": 4.3325134257480905e-06, | |
| "loss": 0.0012, | |
| "step": 6070 | |
| }, | |
| { | |
| "epoch": 10.133333333333333, | |
| "grad_norm": 0.004173349589109421, | |
| "learning_rate": 4.298325301330383e-06, | |
| "loss": 0.0915, | |
| "step": 6080 | |
| }, | |
| { | |
| "epoch": 10.15, | |
| "grad_norm": 0.3737195134162903, | |
| "learning_rate": 4.264235636489542e-06, | |
| "loss": 0.0012, | |
| "step": 6090 | |
| }, | |
| { | |
| "epoch": 10.166666666666666, | |
| "grad_norm": 0.03490012139081955, | |
| "learning_rate": 4.23024501990417e-06, | |
| "loss": 0.005, | |
| "step": 6100 | |
| }, | |
| { | |
| "epoch": 10.183333333333334, | |
| "grad_norm": 0.07963980734348297, | |
| "learning_rate": 4.196354038542476e-06, | |
| "loss": 0.0192, | |
| "step": 6110 | |
| }, | |
| { | |
| "epoch": 10.2, | |
| "grad_norm": 0.005616281647235155, | |
| "learning_rate": 4.162563277652104e-06, | |
| "loss": 0.0597, | |
| "step": 6120 | |
| }, | |
| { | |
| "epoch": 10.216666666666667, | |
| "grad_norm": 1.6034228801727295, | |
| "learning_rate": 4.128873320750027e-06, | |
| "loss": 0.0021, | |
| "step": 6130 | |
| }, | |
| { | |
| "epoch": 10.233333333333333, | |
| "grad_norm": 0.026460707187652588, | |
| "learning_rate": 4.095284749612504e-06, | |
| "loss": 0.0011, | |
| "step": 6140 | |
| }, | |
| { | |
| "epoch": 10.25, | |
| "grad_norm": 0.00982896238565445, | |
| "learning_rate": 4.061798144264986e-06, | |
| "loss": 0.0225, | |
| "step": 6150 | |
| }, | |
| { | |
| "epoch": 10.266666666666667, | |
| "grad_norm": 0.0047401911579072475, | |
| "learning_rate": 4.028414082972141e-06, | |
| "loss": 0.0125, | |
| "step": 6160 | |
| }, | |
| { | |
| "epoch": 10.283333333333333, | |
| "grad_norm": 39.154083251953125, | |
| "learning_rate": 3.995133142227843e-06, | |
| "loss": 0.0107, | |
| "step": 6170 | |
| }, | |
| { | |
| "epoch": 10.3, | |
| "grad_norm": 0.2048110067844391, | |
| "learning_rate": 3.961955896745224e-06, | |
| "loss": 0.0045, | |
| "step": 6180 | |
| }, | |
| { | |
| "epoch": 10.316666666666666, | |
| "grad_norm": 0.054925791919231415, | |
| "learning_rate": 3.928882919446767e-06, | |
| "loss": 0.0121, | |
| "step": 6190 | |
| }, | |
| { | |
| "epoch": 10.333333333333334, | |
| "grad_norm": 6.554659366607666, | |
| "learning_rate": 3.89591478145437e-06, | |
| "loss": 0.0681, | |
| "step": 6200 | |
| }, | |
| { | |
| "epoch": 10.35, | |
| "grad_norm": 0.02309197373688221, | |
| "learning_rate": 3.8630520520795275e-06, | |
| "loss": 0.0901, | |
| "step": 6210 | |
| }, | |
| { | |
| "epoch": 10.366666666666667, | |
| "grad_norm": 0.12893272936344147, | |
| "learning_rate": 3.830295298813475e-06, | |
| "loss": 0.035, | |
| "step": 6220 | |
| }, | |
| { | |
| "epoch": 10.383333333333333, | |
| "grad_norm": 0.009439480490982533, | |
| "learning_rate": 3.797645087317401e-06, | |
| "loss": 0.0081, | |
| "step": 6230 | |
| }, | |
| { | |
| "epoch": 10.4, | |
| "grad_norm": 0.009158750995993614, | |
| "learning_rate": 3.7651019814126656e-06, | |
| "loss": 0.0614, | |
| "step": 6240 | |
| }, | |
| { | |
| "epoch": 10.416666666666666, | |
| "grad_norm": 0.15298189222812653, | |
| "learning_rate": 3.7326665430710798e-06, | |
| "loss": 0.005, | |
| "step": 6250 | |
| }, | |
| { | |
| "epoch": 10.433333333333334, | |
| "grad_norm": 0.005107731092721224, | |
| "learning_rate": 3.7003393324051874e-06, | |
| "loss": 0.0331, | |
| "step": 6260 | |
| }, | |
| { | |
| "epoch": 10.45, | |
| "grad_norm": 14.306778907775879, | |
| "learning_rate": 3.6681209076586035e-06, | |
| "loss": 0.028, | |
| "step": 6270 | |
| }, | |
| { | |
| "epoch": 10.466666666666667, | |
| "grad_norm": 0.14541669189929962, | |
| "learning_rate": 3.636011825196365e-06, | |
| "loss": 0.0005, | |
| "step": 6280 | |
| }, | |
| { | |
| "epoch": 10.483333333333333, | |
| "grad_norm": 0.08900494128465652, | |
| "learning_rate": 3.6040126394953334e-06, | |
| "loss": 0.0216, | |
| "step": 6290 | |
| }, | |
| { | |
| "epoch": 10.5, | |
| "grad_norm": 2.911168336868286, | |
| "learning_rate": 3.5721239031346067e-06, | |
| "loss": 0.068, | |
| "step": 6300 | |
| }, | |
| { | |
| "epoch": 10.516666666666667, | |
| "grad_norm": 0.011473206803202629, | |
| "learning_rate": 3.540346166785994e-06, | |
| "loss": 0.046, | |
| "step": 6310 | |
| }, | |
| { | |
| "epoch": 10.533333333333333, | |
| "grad_norm": 0.013163376599550247, | |
| "learning_rate": 3.5086799792044812e-06, | |
| "loss": 0.0145, | |
| "step": 6320 | |
| }, | |
| { | |
| "epoch": 10.55, | |
| "grad_norm": 0.033820025622844696, | |
| "learning_rate": 3.4771258872187917e-06, | |
| "loss": 0.0419, | |
| "step": 6330 | |
| }, | |
| { | |
| "epoch": 10.566666666666666, | |
| "grad_norm": 0.05051262304186821, | |
| "learning_rate": 3.4456844357218977e-06, | |
| "loss": 0.0176, | |
| "step": 6340 | |
| }, | |
| { | |
| "epoch": 10.583333333333334, | |
| "grad_norm": 4.920490741729736, | |
| "learning_rate": 3.414356167661658e-06, | |
| "loss": 0.0447, | |
| "step": 6350 | |
| }, | |
| { | |
| "epoch": 10.6, | |
| "grad_norm": 0.1240825355052948, | |
| "learning_rate": 3.3831416240314085e-06, | |
| "loss": 0.0213, | |
| "step": 6360 | |
| }, | |
| { | |
| "epoch": 10.616666666666667, | |
| "grad_norm": 0.004741927608847618, | |
| "learning_rate": 3.3520413438606215e-06, | |
| "loss": 0.0198, | |
| "step": 6370 | |
| }, | |
| { | |
| "epoch": 10.633333333333333, | |
| "grad_norm": 0.7797335982322693, | |
| "learning_rate": 3.3210558642056277e-06, | |
| "loss": 0.0121, | |
| "step": 6380 | |
| }, | |
| { | |
| "epoch": 10.65, | |
| "grad_norm": 0.13754583895206451, | |
| "learning_rate": 3.290185720140301e-06, | |
| "loss": 0.0692, | |
| "step": 6390 | |
| }, | |
| { | |
| "epoch": 10.666666666666666, | |
| "grad_norm": 0.046297337859869, | |
| "learning_rate": 3.2594314447468457e-06, | |
| "loss": 0.0214, | |
| "step": 6400 | |
| }, | |
| { | |
| "epoch": 10.683333333333334, | |
| "grad_norm": 0.9988303780555725, | |
| "learning_rate": 3.228793569106594e-06, | |
| "loss": 0.0644, | |
| "step": 6410 | |
| }, | |
| { | |
| "epoch": 10.7, | |
| "grad_norm": 40.29999923706055, | |
| "learning_rate": 3.1982726222908046e-06, | |
| "loss": 0.0564, | |
| "step": 6420 | |
| }, | |
| { | |
| "epoch": 10.716666666666667, | |
| "grad_norm": 0.005441838409751654, | |
| "learning_rate": 3.1678691313515688e-06, | |
| "loss": 0.0054, | |
| "step": 6430 | |
| }, | |
| { | |
| "epoch": 10.733333333333333, | |
| "grad_norm": 0.08924850821495056, | |
| "learning_rate": 3.1375836213126653e-06, | |
| "loss": 0.0137, | |
| "step": 6440 | |
| }, | |
| { | |
| "epoch": 10.75, | |
| "grad_norm": 0.30186939239501953, | |
| "learning_rate": 3.10741661516053e-06, | |
| "loss": 0.0064, | |
| "step": 6450 | |
| }, | |
| { | |
| "epoch": 10.766666666666667, | |
| "grad_norm": 0.10808040201663971, | |
| "learning_rate": 3.077368633835205e-06, | |
| "loss": 0.0017, | |
| "step": 6460 | |
| }, | |
| { | |
| "epoch": 10.783333333333333, | |
| "grad_norm": 2.806311845779419, | |
| "learning_rate": 3.0474401962213483e-06, | |
| "loss": 0.0017, | |
| "step": 6470 | |
| }, | |
| { | |
| "epoch": 10.8, | |
| "grad_norm": 0.5742372274398804, | |
| "learning_rate": 3.017631819139273e-06, | |
| "loss": 0.0035, | |
| "step": 6480 | |
| }, | |
| { | |
| "epoch": 10.816666666666666, | |
| "grad_norm": 0.027512436732649803, | |
| "learning_rate": 2.987944017336023e-06, | |
| "loss": 0.0139, | |
| "step": 6490 | |
| }, | |
| { | |
| "epoch": 10.833333333333334, | |
| "grad_norm": 0.0474701002240181, | |
| "learning_rate": 2.958377303476483e-06, | |
| "loss": 0.0317, | |
| "step": 6500 | |
| }, | |
| { | |
| "epoch": 10.85, | |
| "grad_norm": 6.042050838470459, | |
| "learning_rate": 2.9289321881345257e-06, | |
| "loss": 0.0055, | |
| "step": 6510 | |
| }, | |
| { | |
| "epoch": 10.866666666666667, | |
| "grad_norm": 1.1392112970352173, | |
| "learning_rate": 2.8996091797841976e-06, | |
| "loss": 0.0393, | |
| "step": 6520 | |
| }, | |
| { | |
| "epoch": 10.883333333333333, | |
| "grad_norm": 0.004693117458373308, | |
| "learning_rate": 2.8704087847909333e-06, | |
| "loss": 0.0004, | |
| "step": 6530 | |
| }, | |
| { | |
| "epoch": 10.9, | |
| "grad_norm": 0.3389260470867157, | |
| "learning_rate": 2.8413315074028157e-06, | |
| "loss": 0.0193, | |
| "step": 6540 | |
| }, | |
| { | |
| "epoch": 10.916666666666666, | |
| "grad_norm": 0.12661051750183105, | |
| "learning_rate": 2.8123778497418687e-06, | |
| "loss": 0.0196, | |
| "step": 6550 | |
| }, | |
| { | |
| "epoch": 10.933333333333334, | |
| "grad_norm": 0.2787809371948242, | |
| "learning_rate": 2.783548311795379e-06, | |
| "loss": 0.0487, | |
| "step": 6560 | |
| }, | |
| { | |
| "epoch": 10.95, | |
| "grad_norm": 0.08719979971647263, | |
| "learning_rate": 2.7548433914072736e-06, | |
| "loss": 0.0553, | |
| "step": 6570 | |
| }, | |
| { | |
| "epoch": 10.966666666666667, | |
| "grad_norm": 0.03355100005865097, | |
| "learning_rate": 2.726263584269513e-06, | |
| "loss": 0.0035, | |
| "step": 6580 | |
| }, | |
| { | |
| "epoch": 10.983333333333333, | |
| "grad_norm": 0.020008157938718796, | |
| "learning_rate": 2.6978093839135365e-06, | |
| "loss": 0.0577, | |
| "step": 6590 | |
| }, | |
| { | |
| "epoch": 11.0, | |
| "grad_norm": 0.049677930772304535, | |
| "learning_rate": 2.669481281701739e-06, | |
| "loss": 0.0164, | |
| "step": 6600 | |
| }, | |
| { | |
| "epoch": 11.0, | |
| "eval_accuracy": 0.6293040293040293, | |
| "eval_loss": 2.6321825981140137, | |
| "eval_runtime": 1.9472, | |
| "eval_samples_per_second": 700.994, | |
| "eval_steps_per_second": 44.165, | |
| "step": 6600 | |
| }, | |
| { | |
| "epoch": 11.016666666666667, | |
| "grad_norm": 0.02977852337062359, | |
| "learning_rate": 2.641279766818977e-06, | |
| "loss": 0.0003, | |
| "step": 6610 | |
| }, | |
| { | |
| "epoch": 11.033333333333333, | |
| "grad_norm": 0.011167909018695354, | |
| "learning_rate": 2.6132053262641467e-06, | |
| "loss": 0.022, | |
| "step": 6620 | |
| }, | |
| { | |
| "epoch": 11.05, | |
| "grad_norm": 2.918816328048706, | |
| "learning_rate": 2.5852584448417327e-06, | |
| "loss": 0.0009, | |
| "step": 6630 | |
| }, | |
| { | |
| "epoch": 11.066666666666666, | |
| "grad_norm": 0.013001427054405212, | |
| "learning_rate": 2.5574396051534835e-06, | |
| "loss": 0.0126, | |
| "step": 6640 | |
| }, | |
| { | |
| "epoch": 11.083333333333334, | |
| "grad_norm": 3.934358596801758, | |
| "learning_rate": 2.529749287590042e-06, | |
| "loss": 0.0657, | |
| "step": 6650 | |
| }, | |
| { | |
| "epoch": 11.1, | |
| "grad_norm": 0.016156084835529327, | |
| "learning_rate": 2.502187970322657e-06, | |
| "loss": 0.093, | |
| "step": 6660 | |
| }, | |
| { | |
| "epoch": 11.116666666666667, | |
| "grad_norm": 0.10527543723583221, | |
| "learning_rate": 2.4747561292949496e-06, | |
| "loss": 0.0102, | |
| "step": 6670 | |
| }, | |
| { | |
| "epoch": 11.133333333333333, | |
| "grad_norm": 0.01703232154250145, | |
| "learning_rate": 2.447454238214654e-06, | |
| "loss": 0.0003, | |
| "step": 6680 | |
| }, | |
| { | |
| "epoch": 11.15, | |
| "grad_norm": 0.029103636741638184, | |
| "learning_rate": 2.420282768545469e-06, | |
| "loss": 0.0038, | |
| "step": 6690 | |
| }, | |
| { | |
| "epoch": 11.166666666666666, | |
| "grad_norm": 0.015173720195889473, | |
| "learning_rate": 2.3932421894989167e-06, | |
| "loss": 0.0313, | |
| "step": 6700 | |
| }, | |
| { | |
| "epoch": 11.183333333333334, | |
| "grad_norm": 0.022922033444046974, | |
| "learning_rate": 2.366332968026207e-06, | |
| "loss": 0.0466, | |
| "step": 6710 | |
| }, | |
| { | |
| "epoch": 11.2, | |
| "grad_norm": 1.8661198616027832, | |
| "learning_rate": 2.339555568810221e-06, | |
| "loss": 0.0129, | |
| "step": 6720 | |
| }, | |
| { | |
| "epoch": 11.216666666666667, | |
| "grad_norm": 0.015827415511012077, | |
| "learning_rate": 2.3129104542574433e-06, | |
| "loss": 0.0035, | |
| "step": 6730 | |
| }, | |
| { | |
| "epoch": 11.233333333333333, | |
| "grad_norm": 0.04141826927661896, | |
| "learning_rate": 2.2863980844900036e-06, | |
| "loss": 0.0393, | |
| "step": 6740 | |
| }, | |
| { | |
| "epoch": 11.25, | |
| "grad_norm": 0.008678029291331768, | |
| "learning_rate": 2.2600189173377263e-06, | |
| "loss": 0.0012, | |
| "step": 6750 | |
| }, | |
| { | |
| "epoch": 11.266666666666667, | |
| "grad_norm": 0.0064391172491014, | |
| "learning_rate": 2.2337734083302164e-06, | |
| "loss": 0.0504, | |
| "step": 6760 | |
| }, | |
| { | |
| "epoch": 11.283333333333333, | |
| "grad_norm": 0.053652215749025345, | |
| "learning_rate": 2.207662010689002e-06, | |
| "loss": 0.0005, | |
| "step": 6770 | |
| }, | |
| { | |
| "epoch": 11.3, | |
| "grad_norm": 77.94811248779297, | |
| "learning_rate": 2.1816851753197023e-06, | |
| "loss": 0.0425, | |
| "step": 6780 | |
| }, | |
| { | |
| "epoch": 11.316666666666666, | |
| "grad_norm": 0.018824616447091103, | |
| "learning_rate": 2.155843350804243e-06, | |
| "loss": 0.0014, | |
| "step": 6790 | |
| }, | |
| { | |
| "epoch": 11.333333333333334, | |
| "grad_norm": 24.755586624145508, | |
| "learning_rate": 2.130136983393112e-06, | |
| "loss": 0.0116, | |
| "step": 6800 | |
| }, | |
| { | |
| "epoch": 11.35, | |
| "grad_norm": 0.6925886869430542, | |
| "learning_rate": 2.104566516997647e-06, | |
| "loss": 0.0049, | |
| "step": 6810 | |
| }, | |
| { | |
| "epoch": 11.366666666666667, | |
| "grad_norm": 2.041292190551758, | |
| "learning_rate": 2.0791323931823783e-06, | |
| "loss": 0.0544, | |
| "step": 6820 | |
| }, | |
| { | |
| "epoch": 11.383333333333333, | |
| "grad_norm": 0.009696914814412594, | |
| "learning_rate": 2.053835051157397e-06, | |
| "loss": 0.0189, | |
| "step": 6830 | |
| }, | |
| { | |
| "epoch": 11.4, | |
| "grad_norm": 0.5942186117172241, | |
| "learning_rate": 2.0286749277707783e-06, | |
| "loss": 0.0181, | |
| "step": 6840 | |
| }, | |
| { | |
| "epoch": 11.416666666666666, | |
| "grad_norm": 0.038010694086551666, | |
| "learning_rate": 2.0036524575010176e-06, | |
| "loss": 0.1053, | |
| "step": 6850 | |
| }, | |
| { | |
| "epoch": 11.433333333333334, | |
| "grad_norm": 0.0037780546117573977, | |
| "learning_rate": 1.9787680724495617e-06, | |
| "loss": 0.0295, | |
| "step": 6860 | |
| }, | |
| { | |
| "epoch": 11.45, | |
| "grad_norm": 0.0093591483309865, | |
| "learning_rate": 1.9540222023333165e-06, | |
| "loss": 0.0004, | |
| "step": 6870 | |
| }, | |
| { | |
| "epoch": 11.466666666666667, | |
| "grad_norm": 0.36084067821502686, | |
| "learning_rate": 1.929415274477239e-06, | |
| "loss": 0.0375, | |
| "step": 6880 | |
| }, | |
| { | |
| "epoch": 11.483333333333333, | |
| "grad_norm": 0.07602624595165253, | |
| "learning_rate": 1.9049477138069606e-06, | |
| "loss": 0.0027, | |
| "step": 6890 | |
| }, | |
| { | |
| "epoch": 11.5, | |
| "grad_norm": 0.0053289649076759815, | |
| "learning_rate": 1.880619942841435e-06, | |
| "loss": 0.0003, | |
| "step": 6900 | |
| }, | |
| { | |
| "epoch": 11.516666666666667, | |
| "grad_norm": 0.06744978576898575, | |
| "learning_rate": 1.856432381685669e-06, | |
| "loss": 0.0115, | |
| "step": 6910 | |
| }, | |
| { | |
| "epoch": 11.533333333333333, | |
| "grad_norm": 0.006499492563307285, | |
| "learning_rate": 1.8323854480234348e-06, | |
| "loss": 0.0004, | |
| "step": 6920 | |
| }, | |
| { | |
| "epoch": 11.55, | |
| "grad_norm": 0.012737682089209557, | |
| "learning_rate": 1.808479557110081e-06, | |
| "loss": 0.0147, | |
| "step": 6930 | |
| }, | |
| { | |
| "epoch": 11.566666666666666, | |
| "grad_norm": 11.834685325622559, | |
| "learning_rate": 1.7847151217653624e-06, | |
| "loss": 0.0125, | |
| "step": 6940 | |
| }, | |
| { | |
| "epoch": 11.583333333333334, | |
| "grad_norm": 0.019163092598319054, | |
| "learning_rate": 1.7610925523662836e-06, | |
| "loss": 0.0538, | |
| "step": 6950 | |
| }, | |
| { | |
| "epoch": 11.6, | |
| "grad_norm": 1.9256852865219116, | |
| "learning_rate": 1.7376122568400533e-06, | |
| "loss": 0.0032, | |
| "step": 6960 | |
| }, | |
| { | |
| "epoch": 11.616666666666667, | |
| "grad_norm": 0.0039183590561151505, | |
| "learning_rate": 1.714274640657001e-06, | |
| "loss": 0.008, | |
| "step": 6970 | |
| }, | |
| { | |
| "epoch": 11.633333333333333, | |
| "grad_norm": 0.02196461521089077, | |
| "learning_rate": 1.6910801068236015e-06, | |
| "loss": 0.003, | |
| "step": 6980 | |
| }, | |
| { | |
| "epoch": 11.65, | |
| "grad_norm": 0.006805905140936375, | |
| "learning_rate": 1.6680290558755119e-06, | |
| "loss": 0.0336, | |
| "step": 6990 | |
| }, | |
| { | |
| "epoch": 11.666666666666666, | |
| "grad_norm": 0.09496167302131653, | |
| "learning_rate": 1.6451218858706374e-06, | |
| "loss": 0.0206, | |
| "step": 7000 | |
| }, | |
| { | |
| "epoch": 11.683333333333334, | |
| "grad_norm": 0.015263626351952553, | |
| "learning_rate": 1.6223589923822768e-06, | |
| "loss": 0.0382, | |
| "step": 7010 | |
| }, | |
| { | |
| "epoch": 11.7, | |
| "grad_norm": 0.005197111517190933, | |
| "learning_rate": 1.599740768492286e-06, | |
| "loss": 0.0002, | |
| "step": 7020 | |
| }, | |
| { | |
| "epoch": 11.716666666666667, | |
| "grad_norm": 0.027239451184868813, | |
| "learning_rate": 1.5772676047842862e-06, | |
| "loss": 0.0025, | |
| "step": 7030 | |
| }, | |
| { | |
| "epoch": 11.733333333333333, | |
| "grad_norm": 0.36813682317733765, | |
| "learning_rate": 1.5549398893369216e-06, | |
| "loss": 0.0017, | |
| "step": 7040 | |
| }, | |
| { | |
| "epoch": 11.75, | |
| "grad_norm": 0.006986125838011503, | |
| "learning_rate": 1.5327580077171589e-06, | |
| "loss": 0.0394, | |
| "step": 7050 | |
| }, | |
| { | |
| "epoch": 11.766666666666667, | |
| "grad_norm": 0.07977800071239471, | |
| "learning_rate": 1.5107223429736273e-06, | |
| "loss": 0.051, | |
| "step": 7060 | |
| }, | |
| { | |
| "epoch": 11.783333333333333, | |
| "grad_norm": 0.0035156458616256714, | |
| "learning_rate": 1.4888332756300027e-06, | |
| "loss": 0.0006, | |
| "step": 7070 | |
| }, | |
| { | |
| "epoch": 11.8, | |
| "grad_norm": 0.5690571069717407, | |
| "learning_rate": 1.467091183678444e-06, | |
| "loss": 0.0012, | |
| "step": 7080 | |
| }, | |
| { | |
| "epoch": 11.816666666666666, | |
| "grad_norm": 0.00904709193855524, | |
| "learning_rate": 1.4454964425730533e-06, | |
| "loss": 0.0318, | |
| "step": 7090 | |
| }, | |
| { | |
| "epoch": 11.833333333333334, | |
| "grad_norm": 0.033793073147535324, | |
| "learning_rate": 1.424049425223405e-06, | |
| "loss": 0.0013, | |
| "step": 7100 | |
| }, | |
| { | |
| "epoch": 11.85, | |
| "grad_norm": 1.5678539276123047, | |
| "learning_rate": 1.4027505019880972e-06, | |
| "loss": 0.0462, | |
| "step": 7110 | |
| }, | |
| { | |
| "epoch": 11.866666666666667, | |
| "grad_norm": 0.006125775631517172, | |
| "learning_rate": 1.3816000406683604e-06, | |
| "loss": 0.0389, | |
| "step": 7120 | |
| }, | |
| { | |
| "epoch": 11.883333333333333, | |
| "grad_norm": 0.005812865681946278, | |
| "learning_rate": 1.3605984065017074e-06, | |
| "loss": 0.0187, | |
| "step": 7130 | |
| }, | |
| { | |
| "epoch": 11.9, | |
| "grad_norm": 0.03303861618041992, | |
| "learning_rate": 1.339745962155613e-06, | |
| "loss": 0.0011, | |
| "step": 7140 | |
| }, | |
| { | |
| "epoch": 11.916666666666666, | |
| "grad_norm": 0.08446267992258072, | |
| "learning_rate": 1.3190430677212795e-06, | |
| "loss": 0.0006, | |
| "step": 7150 | |
| }, | |
| { | |
| "epoch": 11.933333333333334, | |
| "grad_norm": 77.23758697509766, | |
| "learning_rate": 1.2984900807073919e-06, | |
| "loss": 0.1209, | |
| "step": 7160 | |
| }, | |
| { | |
| "epoch": 11.95, | |
| "grad_norm": 0.011724837124347687, | |
| "learning_rate": 1.278087356033947e-06, | |
| "loss": 0.0149, | |
| "step": 7170 | |
| }, | |
| { | |
| "epoch": 11.966666666666667, | |
| "grad_norm": 0.017768416553735733, | |
| "learning_rate": 1.2578352460261456e-06, | |
| "loss": 0.0028, | |
| "step": 7180 | |
| }, | |
| { | |
| "epoch": 11.983333333333333, | |
| "grad_norm": 0.022292958572506905, | |
| "learning_rate": 1.2377341004082778e-06, | |
| "loss": 0.0003, | |
| "step": 7190 | |
| }, | |
| { | |
| "epoch": 12.0, | |
| "grad_norm": 6.165916442871094, | |
| "learning_rate": 1.2177842662977136e-06, | |
| "loss": 0.0162, | |
| "step": 7200 | |
| }, | |
| { | |
| "epoch": 12.0, | |
| "eval_accuracy": 0.6293040293040293, | |
| "eval_loss": 2.6758413314819336, | |
| "eval_runtime": 2.0091, | |
| "eval_samples_per_second": 679.41, | |
| "eval_steps_per_second": 42.805, | |
| "step": 7200 | |
| } | |
| ], | |
| "logging_steps": 10, | |
| "max_steps": 8400, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 14, | |
| "save_steps": 500, | |
| "stateful_callbacks": { | |
| "EarlyStoppingCallback": { | |
| "args": { | |
| "early_stopping_patience": 9, | |
| "early_stopping_threshold": 0.0 | |
| }, | |
| "attributes": { | |
| "early_stopping_patience_counter": 9 | |
| } | |
| }, | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 3814663679096832.0, | |
| "train_batch_size": 16, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |