| { |
| "best_metric": 0.8064092397689819, |
| "best_model_checkpoint": "./outputs/checkpoint-19200", |
| "epoch": 4.0, |
| "eval_steps": 100, |
| "global_step": 19200, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.0, |
| "learning_rate": 0.00019989583333333334, |
| "loss": 1.7041, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.0, |
| "learning_rate": 0.00019979166666666667, |
| "loss": 1.7168, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.01, |
| "learning_rate": 0.0001996875, |
| "loss": 1.6652, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.01, |
| "learning_rate": 0.00019958333333333335, |
| "loss": 1.7071, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.01, |
| "learning_rate": 0.00019947916666666668, |
| "loss": 1.7232, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.01, |
| "learning_rate": 0.000199375, |
| "loss": 1.7245, |
| "step": 60 |
| }, |
| { |
| "epoch": 0.01, |
| "learning_rate": 0.00019927083333333334, |
| "loss": 1.7288, |
| "step": 70 |
| }, |
| { |
| "epoch": 0.02, |
| "learning_rate": 0.0001991666666666667, |
| "loss": 1.7587, |
| "step": 80 |
| }, |
| { |
| "epoch": 0.02, |
| "learning_rate": 0.00019906250000000002, |
| "loss": 1.6539, |
| "step": 90 |
| }, |
| { |
| "epoch": 0.02, |
| "learning_rate": 0.00019895833333333332, |
| "loss": 1.7258, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.02, |
| "eval_accuracy": 0.8048333333333333, |
| "eval_loss": 1.6999030113220215, |
| "eval_runtime": 59.4761, |
| "eval_samples_per_second": 100.881, |
| "eval_steps_per_second": 12.61, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.02, |
| "learning_rate": 0.00019885416666666668, |
| "loss": 1.7298, |
| "step": 110 |
| }, |
| { |
| "epoch": 0.03, |
| "learning_rate": 0.00019875, |
| "loss": 1.673, |
| "step": 120 |
| }, |
| { |
| "epoch": 0.03, |
| "learning_rate": 0.00019864583333333336, |
| "loss": 1.7089, |
| "step": 130 |
| }, |
| { |
| "epoch": 0.03, |
| "learning_rate": 0.00019854166666666666, |
| "loss": 1.6914, |
| "step": 140 |
| }, |
| { |
| "epoch": 0.03, |
| "learning_rate": 0.00019843750000000002, |
| "loss": 1.74, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.03, |
| "learning_rate": 0.00019833333333333335, |
| "loss": 1.7199, |
| "step": 160 |
| }, |
| { |
| "epoch": 0.04, |
| "learning_rate": 0.00019822916666666668, |
| "loss": 1.6624, |
| "step": 170 |
| }, |
| { |
| "epoch": 0.04, |
| "learning_rate": 0.000198125, |
| "loss": 1.6455, |
| "step": 180 |
| }, |
| { |
| "epoch": 0.04, |
| "learning_rate": 0.00019802083333333333, |
| "loss": 1.6626, |
| "step": 190 |
| }, |
| { |
| "epoch": 0.04, |
| "learning_rate": 0.0001979166666666667, |
| "loss": 1.669, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.04, |
| "eval_accuracy": 0.8055, |
| "eval_loss": 1.6797956228256226, |
| "eval_runtime": 59.1414, |
| "eval_samples_per_second": 101.452, |
| "eval_steps_per_second": 12.681, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.04, |
| "learning_rate": 0.0001978125, |
| "loss": 1.6798, |
| "step": 210 |
| }, |
| { |
| "epoch": 0.05, |
| "learning_rate": 0.00019770833333333335, |
| "loss": 1.68, |
| "step": 220 |
| }, |
| { |
| "epoch": 0.05, |
| "learning_rate": 0.00019760416666666667, |
| "loss": 1.6983, |
| "step": 230 |
| }, |
| { |
| "epoch": 0.05, |
| "learning_rate": 0.00019750000000000003, |
| "loss": 1.6763, |
| "step": 240 |
| }, |
| { |
| "epoch": 0.05, |
| "learning_rate": 0.00019739583333333333, |
| "loss": 1.6582, |
| "step": 250 |
| }, |
| { |
| "epoch": 0.05, |
| "learning_rate": 0.0001972916666666667, |
| "loss": 1.6681, |
| "step": 260 |
| }, |
| { |
| "epoch": 0.06, |
| "learning_rate": 0.00019718750000000002, |
| "loss": 1.6549, |
| "step": 270 |
| }, |
| { |
| "epoch": 0.06, |
| "learning_rate": 0.00019708333333333334, |
| "loss": 1.6482, |
| "step": 280 |
| }, |
| { |
| "epoch": 0.06, |
| "learning_rate": 0.00019697916666666667, |
| "loss": 1.6796, |
| "step": 290 |
| }, |
| { |
| "epoch": 0.06, |
| "learning_rate": 0.000196875, |
| "loss": 1.6704, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.06, |
| "eval_accuracy": 0.8053333333333333, |
| "eval_loss": 1.6598883867263794, |
| "eval_runtime": 59.4853, |
| "eval_samples_per_second": 100.865, |
| "eval_steps_per_second": 12.608, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.06, |
| "learning_rate": 0.00019677083333333336, |
| "loss": 1.6751, |
| "step": 310 |
| }, |
| { |
| "epoch": 0.07, |
| "learning_rate": 0.00019666666666666666, |
| "loss": 1.6525, |
| "step": 320 |
| }, |
| { |
| "epoch": 0.07, |
| "learning_rate": 0.00019656250000000001, |
| "loss": 1.6683, |
| "step": 330 |
| }, |
| { |
| "epoch": 0.07, |
| "learning_rate": 0.00019645833333333334, |
| "loss": 1.6452, |
| "step": 340 |
| }, |
| { |
| "epoch": 0.07, |
| "learning_rate": 0.00019635416666666667, |
| "loss": 1.6645, |
| "step": 350 |
| }, |
| { |
| "epoch": 0.07, |
| "learning_rate": 0.00019625, |
| "loss": 1.6736, |
| "step": 360 |
| }, |
| { |
| "epoch": 0.08, |
| "learning_rate": 0.00019614583333333333, |
| "loss": 1.6154, |
| "step": 370 |
| }, |
| { |
| "epoch": 0.08, |
| "learning_rate": 0.00019604166666666668, |
| "loss": 1.6417, |
| "step": 380 |
| }, |
| { |
| "epoch": 0.08, |
| "learning_rate": 0.0001959375, |
| "loss": 1.6299, |
| "step": 390 |
| }, |
| { |
| "epoch": 0.08, |
| "learning_rate": 0.00019583333333333334, |
| "loss": 1.6655, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.08, |
| "eval_accuracy": 0.8046666666666666, |
| "eval_loss": 1.6406689882278442, |
| "eval_runtime": 59.8248, |
| "eval_samples_per_second": 100.293, |
| "eval_steps_per_second": 12.537, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.09, |
| "learning_rate": 0.00019572916666666667, |
| "loss": 1.6436, |
| "step": 410 |
| }, |
| { |
| "epoch": 0.09, |
| "learning_rate": 0.00019562500000000003, |
| "loss": 1.6618, |
| "step": 420 |
| }, |
| { |
| "epoch": 0.09, |
| "learning_rate": 0.00019552083333333335, |
| "loss": 1.6351, |
| "step": 430 |
| }, |
| { |
| "epoch": 0.09, |
| "learning_rate": 0.00019541666666666668, |
| "loss": 1.6252, |
| "step": 440 |
| }, |
| { |
| "epoch": 0.09, |
| "learning_rate": 0.0001953125, |
| "loss": 1.6796, |
| "step": 450 |
| }, |
| { |
| "epoch": 0.1, |
| "learning_rate": 0.00019520833333333334, |
| "loss": 1.6648, |
| "step": 460 |
| }, |
| { |
| "epoch": 0.1, |
| "learning_rate": 0.00019510416666666667, |
| "loss": 1.6189, |
| "step": 470 |
| }, |
| { |
| "epoch": 0.1, |
| "learning_rate": 0.000195, |
| "loss": 1.6668, |
| "step": 480 |
| }, |
| { |
| "epoch": 0.1, |
| "learning_rate": 0.00019489583333333335, |
| "loss": 1.6243, |
| "step": 490 |
| }, |
| { |
| "epoch": 0.1, |
| "learning_rate": 0.00019479166666666668, |
| "loss": 1.5754, |
| "step": 500 |
| }, |
| { |
| "epoch": 0.1, |
| "eval_accuracy": 0.809, |
| "eval_loss": 1.6222825050354004, |
| "eval_runtime": 59.9166, |
| "eval_samples_per_second": 100.139, |
| "eval_steps_per_second": 12.517, |
| "step": 500 |
| }, |
| { |
| "epoch": 0.11, |
| "learning_rate": 0.0001946875, |
| "loss": 1.6443, |
| "step": 510 |
| }, |
| { |
| "epoch": 0.11, |
| "learning_rate": 0.00019458333333333334, |
| "loss": 1.604, |
| "step": 520 |
| }, |
| { |
| "epoch": 0.11, |
| "learning_rate": 0.00019447916666666667, |
| "loss": 1.5798, |
| "step": 530 |
| }, |
| { |
| "epoch": 0.11, |
| "learning_rate": 0.00019437500000000002, |
| "loss": 1.6611, |
| "step": 540 |
| }, |
| { |
| "epoch": 0.11, |
| "learning_rate": 0.00019427083333333332, |
| "loss": 1.6208, |
| "step": 550 |
| }, |
| { |
| "epoch": 0.12, |
| "learning_rate": 0.00019416666666666668, |
| "loss": 1.5771, |
| "step": 560 |
| }, |
| { |
| "epoch": 0.12, |
| "learning_rate": 0.0001940625, |
| "loss": 1.6447, |
| "step": 570 |
| }, |
| { |
| "epoch": 0.12, |
| "learning_rate": 0.00019395833333333336, |
| "loss": 1.6274, |
| "step": 580 |
| }, |
| { |
| "epoch": 0.12, |
| "learning_rate": 0.00019385416666666666, |
| "loss": 1.5745, |
| "step": 590 |
| }, |
| { |
| "epoch": 0.12, |
| "learning_rate": 0.00019375000000000002, |
| "loss": 1.6159, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.12, |
| "eval_accuracy": 0.8068333333333333, |
| "eval_loss": 1.603979468345642, |
| "eval_runtime": 59.3435, |
| "eval_samples_per_second": 101.106, |
| "eval_steps_per_second": 12.638, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.13, |
| "learning_rate": 0.00019364583333333335, |
| "loss": 1.6388, |
| "step": 610 |
| }, |
| { |
| "epoch": 0.13, |
| "learning_rate": 0.00019354166666666668, |
| "loss": 1.5786, |
| "step": 620 |
| }, |
| { |
| "epoch": 0.13, |
| "learning_rate": 0.0001934375, |
| "loss": 1.5871, |
| "step": 630 |
| }, |
| { |
| "epoch": 0.13, |
| "learning_rate": 0.00019333333333333333, |
| "loss": 1.5982, |
| "step": 640 |
| }, |
| { |
| "epoch": 0.14, |
| "learning_rate": 0.0001932291666666667, |
| "loss": 1.6386, |
| "step": 650 |
| }, |
| { |
| "epoch": 0.14, |
| "learning_rate": 0.000193125, |
| "loss": 1.5556, |
| "step": 660 |
| }, |
| { |
| "epoch": 0.14, |
| "learning_rate": 0.00019302083333333335, |
| "loss": 1.6128, |
| "step": 670 |
| }, |
| { |
| "epoch": 0.14, |
| "learning_rate": 0.00019291666666666668, |
| "loss": 1.6287, |
| "step": 680 |
| }, |
| { |
| "epoch": 0.14, |
| "learning_rate": 0.00019281250000000003, |
| "loss": 1.5409, |
| "step": 690 |
| }, |
| { |
| "epoch": 0.15, |
| "learning_rate": 0.00019270833333333333, |
| "loss": 1.5663, |
| "step": 700 |
| }, |
| { |
| "epoch": 0.15, |
| "eval_accuracy": 0.8073333333333333, |
| "eval_loss": 1.5858408212661743, |
| "eval_runtime": 59.6036, |
| "eval_samples_per_second": 100.665, |
| "eval_steps_per_second": 12.583, |
| "step": 700 |
| }, |
| { |
| "epoch": 0.15, |
| "learning_rate": 0.00019260416666666666, |
| "loss": 1.5979, |
| "step": 710 |
| }, |
| { |
| "epoch": 0.15, |
| "learning_rate": 0.00019250000000000002, |
| "loss": 1.5757, |
| "step": 720 |
| }, |
| { |
| "epoch": 0.15, |
| "learning_rate": 0.00019239583333333335, |
| "loss": 1.5784, |
| "step": 730 |
| }, |
| { |
| "epoch": 0.15, |
| "learning_rate": 0.00019229166666666667, |
| "loss": 1.5751, |
| "step": 740 |
| }, |
| { |
| "epoch": 0.16, |
| "learning_rate": 0.0001921875, |
| "loss": 1.5372, |
| "step": 750 |
| }, |
| { |
| "epoch": 0.16, |
| "learning_rate": 0.00019208333333333336, |
| "loss": 1.4675, |
| "step": 760 |
| }, |
| { |
| "epoch": 0.16, |
| "learning_rate": 0.00019197916666666666, |
| "loss": 1.5204, |
| "step": 770 |
| }, |
| { |
| "epoch": 0.16, |
| "learning_rate": 0.00019187500000000002, |
| "loss": 1.601, |
| "step": 780 |
| }, |
| { |
| "epoch": 0.16, |
| "learning_rate": 0.00019177083333333334, |
| "loss": 1.547, |
| "step": 790 |
| }, |
| { |
| "epoch": 0.17, |
| "learning_rate": 0.00019166666666666667, |
| "loss": 1.5426, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.17, |
| "eval_accuracy": 0.8095, |
| "eval_loss": 1.5676575899124146, |
| "eval_runtime": 59.5457, |
| "eval_samples_per_second": 100.763, |
| "eval_steps_per_second": 12.595, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.17, |
| "learning_rate": 0.0001915625, |
| "loss": 1.5446, |
| "step": 810 |
| }, |
| { |
| "epoch": 0.17, |
| "learning_rate": 0.00019145833333333333, |
| "loss": 1.5546, |
| "step": 820 |
| }, |
| { |
| "epoch": 0.17, |
| "learning_rate": 0.00019135416666666669, |
| "loss": 1.5844, |
| "step": 830 |
| }, |
| { |
| "epoch": 0.17, |
| "learning_rate": 0.00019125000000000001, |
| "loss": 1.6027, |
| "step": 840 |
| }, |
| { |
| "epoch": 0.18, |
| "learning_rate": 0.00019114583333333334, |
| "loss": 1.5902, |
| "step": 850 |
| }, |
| { |
| "epoch": 0.18, |
| "learning_rate": 0.00019104166666666667, |
| "loss": 1.5739, |
| "step": 860 |
| }, |
| { |
| "epoch": 0.18, |
| "learning_rate": 0.00019093750000000003, |
| "loss": 1.5606, |
| "step": 870 |
| }, |
| { |
| "epoch": 0.18, |
| "learning_rate": 0.00019083333333333336, |
| "loss": 1.5316, |
| "step": 880 |
| }, |
| { |
| "epoch": 0.19, |
| "learning_rate": 0.00019072916666666666, |
| "loss": 1.5823, |
| "step": 890 |
| }, |
| { |
| "epoch": 0.19, |
| "learning_rate": 0.000190625, |
| "loss": 1.5794, |
| "step": 900 |
| }, |
| { |
| "epoch": 0.19, |
| "eval_accuracy": 0.808, |
| "eval_loss": 1.550596833229065, |
| "eval_runtime": 59.7805, |
| "eval_samples_per_second": 100.367, |
| "eval_steps_per_second": 12.546, |
| "step": 900 |
| }, |
| { |
| "epoch": 0.19, |
| "learning_rate": 0.00019052083333333334, |
| "loss": 1.6148, |
| "step": 910 |
| }, |
| { |
| "epoch": 0.19, |
| "learning_rate": 0.00019041666666666667, |
| "loss": 1.5922, |
| "step": 920 |
| }, |
| { |
| "epoch": 0.19, |
| "learning_rate": 0.0001903125, |
| "loss": 1.5822, |
| "step": 930 |
| }, |
| { |
| "epoch": 0.2, |
| "learning_rate": 0.00019020833333333335, |
| "loss": 1.5314, |
| "step": 940 |
| }, |
| { |
| "epoch": 0.2, |
| "learning_rate": 0.00019010416666666668, |
| "loss": 1.5052, |
| "step": 950 |
| }, |
| { |
| "epoch": 0.2, |
| "learning_rate": 0.00019, |
| "loss": 1.6039, |
| "step": 960 |
| }, |
| { |
| "epoch": 0.2, |
| "learning_rate": 0.00018989583333333334, |
| "loss": 1.5331, |
| "step": 970 |
| }, |
| { |
| "epoch": 0.2, |
| "learning_rate": 0.00018979166666666667, |
| "loss": 1.4891, |
| "step": 980 |
| }, |
| { |
| "epoch": 0.21, |
| "learning_rate": 0.00018968750000000002, |
| "loss": 1.5395, |
| "step": 990 |
| }, |
| { |
| "epoch": 0.21, |
| "learning_rate": 0.00018958333333333332, |
| "loss": 1.5504, |
| "step": 1000 |
| }, |
| { |
| "epoch": 0.21, |
| "eval_accuracy": 0.8035, |
| "eval_loss": 1.534228801727295, |
| "eval_runtime": 59.288, |
| "eval_samples_per_second": 101.201, |
| "eval_steps_per_second": 12.65, |
| "step": 1000 |
| }, |
| { |
| "epoch": 0.21, |
| "learning_rate": 0.00018947916666666668, |
| "loss": 1.5642, |
| "step": 1010 |
| }, |
| { |
| "epoch": 0.21, |
| "learning_rate": 0.000189375, |
| "loss": 1.5655, |
| "step": 1020 |
| }, |
| { |
| "epoch": 0.21, |
| "learning_rate": 0.00018927083333333336, |
| "loss": 1.454, |
| "step": 1030 |
| }, |
| { |
| "epoch": 0.22, |
| "learning_rate": 0.00018916666666666667, |
| "loss": 1.4889, |
| "step": 1040 |
| }, |
| { |
| "epoch": 0.22, |
| "learning_rate": 0.00018906250000000002, |
| "loss": 1.5293, |
| "step": 1050 |
| }, |
| { |
| "epoch": 0.22, |
| "learning_rate": 0.00018895833333333335, |
| "loss": 1.567, |
| "step": 1060 |
| }, |
| { |
| "epoch": 0.22, |
| "learning_rate": 0.00018885416666666668, |
| "loss": 1.4736, |
| "step": 1070 |
| }, |
| { |
| "epoch": 0.23, |
| "learning_rate": 0.00018875, |
| "loss": 1.4881, |
| "step": 1080 |
| }, |
| { |
| "epoch": 0.23, |
| "learning_rate": 0.00018864583333333334, |
| "loss": 1.5934, |
| "step": 1090 |
| }, |
| { |
| "epoch": 0.23, |
| "learning_rate": 0.0001885416666666667, |
| "loss": 1.554, |
| "step": 1100 |
| }, |
| { |
| "epoch": 0.23, |
| "eval_accuracy": 0.802, |
| "eval_loss": 1.5179262161254883, |
| "eval_runtime": 59.6486, |
| "eval_samples_per_second": 100.589, |
| "eval_steps_per_second": 12.574, |
| "step": 1100 |
| }, |
| { |
| "epoch": 0.23, |
| "learning_rate": 0.0001884375, |
| "loss": 1.4919, |
| "step": 1110 |
| }, |
| { |
| "epoch": 0.23, |
| "learning_rate": 0.00018833333333333335, |
| "loss": 1.4702, |
| "step": 1120 |
| }, |
| { |
| "epoch": 0.24, |
| "learning_rate": 0.00018822916666666668, |
| "loss": 1.4973, |
| "step": 1130 |
| }, |
| { |
| "epoch": 0.24, |
| "learning_rate": 0.000188125, |
| "loss": 1.4941, |
| "step": 1140 |
| }, |
| { |
| "epoch": 0.24, |
| "learning_rate": 0.00018802083333333333, |
| "loss": 1.4737, |
| "step": 1150 |
| }, |
| { |
| "epoch": 0.24, |
| "learning_rate": 0.00018791666666666666, |
| "loss": 1.5378, |
| "step": 1160 |
| }, |
| { |
| "epoch": 0.24, |
| "learning_rate": 0.00018781250000000002, |
| "loss": 1.5634, |
| "step": 1170 |
| }, |
| { |
| "epoch": 0.25, |
| "learning_rate": 0.00018770833333333335, |
| "loss": 1.4912, |
| "step": 1180 |
| }, |
| { |
| "epoch": 0.25, |
| "learning_rate": 0.00018760416666666668, |
| "loss": 1.492, |
| "step": 1190 |
| }, |
| { |
| "epoch": 0.25, |
| "learning_rate": 0.0001875, |
| "loss": 1.4831, |
| "step": 1200 |
| }, |
| { |
| "epoch": 0.25, |
| "eval_accuracy": 0.7971666666666667, |
| "eval_loss": 1.5021802186965942, |
| "eval_runtime": 59.4896, |
| "eval_samples_per_second": 100.858, |
| "eval_steps_per_second": 12.607, |
| "step": 1200 |
| }, |
| { |
| "epoch": 0.25, |
| "learning_rate": 0.00018739583333333336, |
| "loss": 1.4461, |
| "step": 1210 |
| }, |
| { |
| "epoch": 0.25, |
| "learning_rate": 0.00018729166666666666, |
| "loss": 1.5045, |
| "step": 1220 |
| }, |
| { |
| "epoch": 0.26, |
| "learning_rate": 0.00018718750000000002, |
| "loss": 1.5142, |
| "step": 1230 |
| }, |
| { |
| "epoch": 0.26, |
| "learning_rate": 0.00018708333333333335, |
| "loss": 1.478, |
| "step": 1240 |
| }, |
| { |
| "epoch": 0.26, |
| "learning_rate": 0.00018697916666666667, |
| "loss": 1.4318, |
| "step": 1250 |
| }, |
| { |
| "epoch": 0.26, |
| "learning_rate": 0.000186875, |
| "loss": 1.4547, |
| "step": 1260 |
| }, |
| { |
| "epoch": 0.26, |
| "learning_rate": 0.00018677083333333333, |
| "loss": 1.4929, |
| "step": 1270 |
| }, |
| { |
| "epoch": 0.27, |
| "learning_rate": 0.0001866666666666667, |
| "loss": 1.5399, |
| "step": 1280 |
| }, |
| { |
| "epoch": 0.27, |
| "learning_rate": 0.00018656250000000001, |
| "loss": 1.5384, |
| "step": 1290 |
| }, |
| { |
| "epoch": 0.27, |
| "learning_rate": 0.00018645833333333334, |
| "loss": 1.4718, |
| "step": 1300 |
| }, |
| { |
| "epoch": 0.27, |
| "eval_accuracy": 0.7955, |
| "eval_loss": 1.4866539239883423, |
| "eval_runtime": 59.7543, |
| "eval_samples_per_second": 100.411, |
| "eval_steps_per_second": 12.551, |
| "step": 1300 |
| }, |
| { |
| "epoch": 0.27, |
| "learning_rate": 0.00018635416666666667, |
| "loss": 1.4566, |
| "step": 1310 |
| }, |
| { |
| "epoch": 0.28, |
| "learning_rate": 0.00018625, |
| "loss": 1.4934, |
| "step": 1320 |
| }, |
| { |
| "epoch": 0.28, |
| "learning_rate": 0.00018614583333333336, |
| "loss": 1.4722, |
| "step": 1330 |
| }, |
| { |
| "epoch": 0.28, |
| "learning_rate": 0.00018604166666666666, |
| "loss": 1.4498, |
| "step": 1340 |
| }, |
| { |
| "epoch": 0.28, |
| "learning_rate": 0.0001859375, |
| "loss": 1.4899, |
| "step": 1350 |
| }, |
| { |
| "epoch": 0.28, |
| "learning_rate": 0.00018583333333333334, |
| "loss": 1.5187, |
| "step": 1360 |
| }, |
| { |
| "epoch": 0.29, |
| "learning_rate": 0.00018572916666666667, |
| "loss": 1.4886, |
| "step": 1370 |
| }, |
| { |
| "epoch": 0.29, |
| "learning_rate": 0.000185625, |
| "loss": 1.3723, |
| "step": 1380 |
| }, |
| { |
| "epoch": 0.29, |
| "learning_rate": 0.00018552083333333335, |
| "loss": 1.5331, |
| "step": 1390 |
| }, |
| { |
| "epoch": 0.29, |
| "learning_rate": 0.00018541666666666668, |
| "loss": 1.5206, |
| "step": 1400 |
| }, |
| { |
| "epoch": 0.29, |
| "eval_accuracy": 0.796, |
| "eval_loss": 1.4716088771820068, |
| "eval_runtime": 59.89, |
| "eval_samples_per_second": 100.184, |
| "eval_steps_per_second": 12.523, |
| "step": 1400 |
| }, |
| { |
| "epoch": 0.29, |
| "learning_rate": 0.0001853125, |
| "loss": 1.4758, |
| "step": 1410 |
| }, |
| { |
| "epoch": 0.3, |
| "learning_rate": 0.00018520833333333334, |
| "loss": 1.4036, |
| "step": 1420 |
| }, |
| { |
| "epoch": 0.3, |
| "learning_rate": 0.00018510416666666667, |
| "loss": 1.4802, |
| "step": 1430 |
| }, |
| { |
| "epoch": 0.3, |
| "learning_rate": 0.00018500000000000002, |
| "loss": 1.4982, |
| "step": 1440 |
| }, |
| { |
| "epoch": 0.3, |
| "learning_rate": 0.00018489583333333333, |
| "loss": 1.3851, |
| "step": 1450 |
| }, |
| { |
| "epoch": 0.3, |
| "learning_rate": 0.00018479166666666668, |
| "loss": 1.4731, |
| "step": 1460 |
| }, |
| { |
| "epoch": 0.31, |
| "learning_rate": 0.0001846875, |
| "loss": 1.4901, |
| "step": 1470 |
| }, |
| { |
| "epoch": 0.31, |
| "learning_rate": 0.00018458333333333337, |
| "loss": 1.4565, |
| "step": 1480 |
| }, |
| { |
| "epoch": 0.31, |
| "learning_rate": 0.00018447916666666667, |
| "loss": 1.484, |
| "step": 1490 |
| }, |
| { |
| "epoch": 0.31, |
| "learning_rate": 0.000184375, |
| "loss": 1.4534, |
| "step": 1500 |
| }, |
| { |
| "epoch": 0.31, |
| "eval_accuracy": 0.7963333333333333, |
| "eval_loss": 1.4566529989242554, |
| "eval_runtime": 59.3602, |
| "eval_samples_per_second": 101.078, |
| "eval_steps_per_second": 12.635, |
| "step": 1500 |
| }, |
| { |
| "epoch": 0.31, |
| "learning_rate": 0.00018427083333333335, |
| "loss": 1.4311, |
| "step": 1510 |
| }, |
| { |
| "epoch": 0.32, |
| "learning_rate": 0.00018416666666666665, |
| "loss": 1.4833, |
| "step": 1520 |
| }, |
| { |
| "epoch": 0.32, |
| "learning_rate": 0.0001840625, |
| "loss": 1.4624, |
| "step": 1530 |
| }, |
| { |
| "epoch": 0.32, |
| "learning_rate": 0.00018395833333333334, |
| "loss": 1.4502, |
| "step": 1540 |
| }, |
| { |
| "epoch": 0.32, |
| "learning_rate": 0.0001838541666666667, |
| "loss": 1.4318, |
| "step": 1550 |
| }, |
| { |
| "epoch": 0.33, |
| "learning_rate": 0.00018375, |
| "loss": 1.5118, |
| "step": 1560 |
| }, |
| { |
| "epoch": 0.33, |
| "learning_rate": 0.00018364583333333335, |
| "loss": 1.4956, |
| "step": 1570 |
| }, |
| { |
| "epoch": 0.33, |
| "learning_rate": 0.00018354166666666668, |
| "loss": 1.4441, |
| "step": 1580 |
| }, |
| { |
| "epoch": 0.33, |
| "learning_rate": 0.0001834375, |
| "loss": 1.411, |
| "step": 1590 |
| }, |
| { |
| "epoch": 0.33, |
| "learning_rate": 0.00018333333333333334, |
| "loss": 1.3932, |
| "step": 1600 |
| }, |
| { |
| "epoch": 0.33, |
| "eval_accuracy": 0.7875, |
| "eval_loss": 1.4427212476730347, |
| "eval_runtime": 59.4465, |
| "eval_samples_per_second": 100.931, |
| "eval_steps_per_second": 12.616, |
| "step": 1600 |
| }, |
| { |
| "epoch": 0.34, |
| "learning_rate": 0.00018322916666666666, |
| "loss": 1.463, |
| "step": 1610 |
| }, |
| { |
| "epoch": 0.34, |
| "learning_rate": 0.00018312500000000002, |
| "loss": 1.4177, |
| "step": 1620 |
| }, |
| { |
| "epoch": 0.34, |
| "learning_rate": 0.00018302083333333335, |
| "loss": 1.3925, |
| "step": 1630 |
| }, |
| { |
| "epoch": 0.34, |
| "learning_rate": 0.00018291666666666668, |
| "loss": 1.3542, |
| "step": 1640 |
| }, |
| { |
| "epoch": 0.34, |
| "learning_rate": 0.0001828125, |
| "loss": 1.4822, |
| "step": 1650 |
| }, |
| { |
| "epoch": 0.35, |
| "learning_rate": 0.00018270833333333336, |
| "loss": 1.5194, |
| "step": 1660 |
| }, |
| { |
| "epoch": 0.35, |
| "learning_rate": 0.00018260416666666666, |
| "loss": 1.4127, |
| "step": 1670 |
| }, |
| { |
| "epoch": 0.35, |
| "learning_rate": 0.0001825, |
| "loss": 1.4903, |
| "step": 1680 |
| }, |
| { |
| "epoch": 0.35, |
| "learning_rate": 0.00018239583333333335, |
| "loss": 1.3942, |
| "step": 1690 |
| }, |
| { |
| "epoch": 0.35, |
| "learning_rate": 0.00018229166666666667, |
| "loss": 1.4635, |
| "step": 1700 |
| }, |
| { |
| "epoch": 0.35, |
| "eval_accuracy": 0.789, |
| "eval_loss": 1.428931474685669, |
| "eval_runtime": 59.8771, |
| "eval_samples_per_second": 100.205, |
| "eval_steps_per_second": 12.526, |
| "step": 1700 |
| }, |
| { |
| "epoch": 0.36, |
| "learning_rate": 0.0001821875, |
| "loss": 1.4017, |
| "step": 1710 |
| }, |
| { |
| "epoch": 0.36, |
| "learning_rate": 0.00018208333333333333, |
| "loss": 1.3441, |
| "step": 1720 |
| }, |
| { |
| "epoch": 0.36, |
| "learning_rate": 0.0001819791666666667, |
| "loss": 1.3916, |
| "step": 1730 |
| }, |
| { |
| "epoch": 0.36, |
| "learning_rate": 0.00018187500000000002, |
| "loss": 1.4689, |
| "step": 1740 |
| }, |
| { |
| "epoch": 0.36, |
| "learning_rate": 0.00018177083333333334, |
| "loss": 1.4167, |
| "step": 1750 |
| }, |
| { |
| "epoch": 0.37, |
| "learning_rate": 0.00018166666666666667, |
| "loss": 1.3933, |
| "step": 1760 |
| }, |
| { |
| "epoch": 0.37, |
| "learning_rate": 0.0001815625, |
| "loss": 1.4475, |
| "step": 1770 |
| }, |
| { |
| "epoch": 0.37, |
| "learning_rate": 0.00018145833333333336, |
| "loss": 1.4016, |
| "step": 1780 |
| }, |
| { |
| "epoch": 0.37, |
| "learning_rate": 0.00018135416666666666, |
| "loss": 1.4282, |
| "step": 1790 |
| }, |
| { |
| "epoch": 0.38, |
| "learning_rate": 0.00018125000000000001, |
| "loss": 1.4339, |
| "step": 1800 |
| }, |
| { |
| "epoch": 0.38, |
| "eval_accuracy": 0.793, |
| "eval_loss": 1.4150886535644531, |
| "eval_runtime": 59.6437, |
| "eval_samples_per_second": 100.597, |
| "eval_steps_per_second": 12.575, |
| "step": 1800 |
| }, |
| { |
| "epoch": 0.38, |
| "learning_rate": 0.00018114583333333334, |
| "loss": 1.4277, |
| "step": 1810 |
| }, |
| { |
| "epoch": 0.38, |
| "learning_rate": 0.00018104166666666667, |
| "loss": 1.4318, |
| "step": 1820 |
| }, |
| { |
| "epoch": 0.38, |
| "learning_rate": 0.0001809375, |
| "loss": 1.419, |
| "step": 1830 |
| }, |
| { |
| "epoch": 0.38, |
| "learning_rate": 0.00018083333333333336, |
| "loss": 1.425, |
| "step": 1840 |
| }, |
| { |
| "epoch": 0.39, |
| "learning_rate": 0.00018072916666666668, |
| "loss": 1.4502, |
| "step": 1850 |
| }, |
| { |
| "epoch": 0.39, |
| "learning_rate": 0.000180625, |
| "loss": 1.4108, |
| "step": 1860 |
| }, |
| { |
| "epoch": 0.39, |
| "learning_rate": 0.00018052083333333334, |
| "loss": 1.3482, |
| "step": 1870 |
| }, |
| { |
| "epoch": 0.39, |
| "learning_rate": 0.00018041666666666667, |
| "loss": 1.4307, |
| "step": 1880 |
| }, |
| { |
| "epoch": 0.39, |
| "learning_rate": 0.00018031250000000003, |
| "loss": 1.4115, |
| "step": 1890 |
| }, |
| { |
| "epoch": 0.4, |
| "learning_rate": 0.00018020833333333333, |
| "loss": 1.4492, |
| "step": 1900 |
| }, |
| { |
| "epoch": 0.4, |
| "eval_accuracy": 0.7973333333333333, |
| "eval_loss": 1.4015529155731201, |
| "eval_runtime": 59.9019, |
| "eval_samples_per_second": 100.164, |
| "eval_steps_per_second": 12.52, |
| "step": 1900 |
| }, |
| { |
| "epoch": 0.4, |
| "learning_rate": 0.00018010416666666668, |
| "loss": 1.3868, |
| "step": 1910 |
| }, |
| { |
| "epoch": 0.4, |
| "learning_rate": 0.00018, |
| "loss": 1.4474, |
| "step": 1920 |
| }, |
| { |
| "epoch": 0.4, |
| "learning_rate": 0.00017989583333333334, |
| "loss": 1.414, |
| "step": 1930 |
| }, |
| { |
| "epoch": 0.4, |
| "learning_rate": 0.00017979166666666667, |
| "loss": 1.3448, |
| "step": 1940 |
| }, |
| { |
| "epoch": 0.41, |
| "learning_rate": 0.0001796875, |
| "loss": 1.3547, |
| "step": 1950 |
| }, |
| { |
| "epoch": 0.41, |
| "learning_rate": 0.00017958333333333335, |
| "loss": 1.444, |
| "step": 1960 |
| }, |
| { |
| "epoch": 0.41, |
| "learning_rate": 0.00017947916666666665, |
| "loss": 1.4228, |
| "step": 1970 |
| }, |
| { |
| "epoch": 0.41, |
| "learning_rate": 0.000179375, |
| "loss": 1.3477, |
| "step": 1980 |
| }, |
| { |
| "epoch": 0.41, |
| "learning_rate": 0.00017927083333333334, |
| "loss": 1.3851, |
| "step": 1990 |
| }, |
| { |
| "epoch": 0.42, |
| "learning_rate": 0.0001791666666666667, |
| "loss": 1.4369, |
| "step": 2000 |
| }, |
| { |
| "epoch": 0.42, |
| "eval_accuracy": 0.8018333333333333, |
| "eval_loss": 1.388146996498108, |
| "eval_runtime": 59.2681, |
| "eval_samples_per_second": 101.235, |
| "eval_steps_per_second": 12.654, |
| "step": 2000 |
| }, |
| { |
| "epoch": 0.42, |
| "learning_rate": 0.0001790625, |
| "loss": 1.3707, |
| "step": 2010 |
| }, |
| { |
| "epoch": 0.42, |
| "learning_rate": 0.00017895833333333335, |
| "loss": 1.3459, |
| "step": 2020 |
| }, |
| { |
| "epoch": 0.42, |
| "learning_rate": 0.00017885416666666668, |
| "loss": 1.3703, |
| "step": 2030 |
| }, |
| { |
| "epoch": 0.42, |
| "learning_rate": 0.00017875, |
| "loss": 1.3549, |
| "step": 2040 |
| }, |
| { |
| "epoch": 0.43, |
| "learning_rate": 0.00017864583333333334, |
| "loss": 1.3393, |
| "step": 2050 |
| }, |
| { |
| "epoch": 0.43, |
| "learning_rate": 0.00017854166666666667, |
| "loss": 1.4119, |
| "step": 2060 |
| }, |
| { |
| "epoch": 0.43, |
| "learning_rate": 0.00017843750000000002, |
| "loss": 1.3033, |
| "step": 2070 |
| }, |
| { |
| "epoch": 0.43, |
| "learning_rate": 0.00017833333333333335, |
| "loss": 1.4236, |
| "step": 2080 |
| }, |
| { |
| "epoch": 0.44, |
| "learning_rate": 0.00017822916666666668, |
| "loss": 1.3981, |
| "step": 2090 |
| }, |
| { |
| "epoch": 0.44, |
| "learning_rate": 0.000178125, |
| "loss": 1.4007, |
| "step": 2100 |
| }, |
| { |
| "epoch": 0.44, |
| "eval_accuracy": 0.801, |
| "eval_loss": 1.3753528594970703, |
| "eval_runtime": 59.8138, |
| "eval_samples_per_second": 100.311, |
| "eval_steps_per_second": 12.539, |
| "step": 2100 |
| }, |
| { |
| "epoch": 0.44, |
| "learning_rate": 0.00017802083333333333, |
| "loss": 1.3426, |
| "step": 2110 |
| }, |
| { |
| "epoch": 0.44, |
| "learning_rate": 0.00017791666666666666, |
| "loss": 1.4152, |
| "step": 2120 |
| }, |
| { |
| "epoch": 0.44, |
| "learning_rate": 0.0001778125, |
| "loss": 1.3001, |
| "step": 2130 |
| }, |
| { |
| "epoch": 0.45, |
| "learning_rate": 0.00017770833333333335, |
| "loss": 1.3596, |
| "step": 2140 |
| }, |
| { |
| "epoch": 0.45, |
| "learning_rate": 0.00017760416666666668, |
| "loss": 1.3551, |
| "step": 2150 |
| }, |
| { |
| "epoch": 0.45, |
| "learning_rate": 0.0001775, |
| "loss": 1.4062, |
| "step": 2160 |
| }, |
| { |
| "epoch": 0.45, |
| "learning_rate": 0.00017739583333333333, |
| "loss": 1.3936, |
| "step": 2170 |
| }, |
| { |
| "epoch": 0.45, |
| "learning_rate": 0.0001772916666666667, |
| "loss": 1.3639, |
| "step": 2180 |
| }, |
| { |
| "epoch": 0.46, |
| "learning_rate": 0.00017718750000000002, |
| "loss": 1.3569, |
| "step": 2190 |
| }, |
| { |
| "epoch": 0.46, |
| "learning_rate": 0.00017708333333333335, |
| "loss": 1.3697, |
| "step": 2200 |
| }, |
| { |
| "epoch": 0.46, |
| "eval_accuracy": 0.8025, |
| "eval_loss": 1.362697958946228, |
| "eval_runtime": 59.7949, |
| "eval_samples_per_second": 100.343, |
| "eval_steps_per_second": 12.543, |
| "step": 2200 |
| }, |
| { |
| "epoch": 0.46, |
| "learning_rate": 0.00017697916666666667, |
| "loss": 1.4537, |
| "step": 2210 |
| }, |
| { |
| "epoch": 0.46, |
| "learning_rate": 0.000176875, |
| "loss": 1.3992, |
| "step": 2220 |
| }, |
| { |
| "epoch": 0.46, |
| "learning_rate": 0.00017677083333333336, |
| "loss": 1.3165, |
| "step": 2230 |
| }, |
| { |
| "epoch": 0.47, |
| "learning_rate": 0.00017666666666666666, |
| "loss": 1.3334, |
| "step": 2240 |
| }, |
| { |
| "epoch": 0.47, |
| "learning_rate": 0.00017656250000000002, |
| "loss": 1.3771, |
| "step": 2250 |
| }, |
| { |
| "epoch": 0.47, |
| "learning_rate": 0.00017645833333333334, |
| "loss": 1.4053, |
| "step": 2260 |
| }, |
| { |
| "epoch": 0.47, |
| "learning_rate": 0.00017635416666666667, |
| "loss": 1.4105, |
| "step": 2270 |
| }, |
| { |
| "epoch": 0.47, |
| "learning_rate": 0.00017625, |
| "loss": 1.3364, |
| "step": 2280 |
| }, |
| { |
| "epoch": 0.48, |
| "learning_rate": 0.00017614583333333333, |
| "loss": 1.3479, |
| "step": 2290 |
| }, |
| { |
| "epoch": 0.48, |
| "learning_rate": 0.00017604166666666669, |
| "loss": 1.3298, |
| "step": 2300 |
| }, |
| { |
| "epoch": 0.48, |
| "eval_accuracy": 0.8048333333333333, |
| "eval_loss": 1.3505219221115112, |
| "eval_runtime": 60.0452, |
| "eval_samples_per_second": 99.925, |
| "eval_steps_per_second": 12.491, |
| "step": 2300 |
| }, |
| { |
| "epoch": 0.48, |
| "learning_rate": 0.0001759375, |
| "loss": 1.4053, |
| "step": 2310 |
| }, |
| { |
| "epoch": 0.48, |
| "learning_rate": 0.00017583333333333334, |
| "loss": 1.3661, |
| "step": 2320 |
| }, |
| { |
| "epoch": 0.49, |
| "learning_rate": 0.00017572916666666667, |
| "loss": 1.3404, |
| "step": 2330 |
| }, |
| { |
| "epoch": 0.49, |
| "learning_rate": 0.00017562500000000003, |
| "loss": 1.41, |
| "step": 2340 |
| }, |
| { |
| "epoch": 0.49, |
| "learning_rate": 0.00017552083333333333, |
| "loss": 1.3754, |
| "step": 2350 |
| }, |
| { |
| "epoch": 0.49, |
| "learning_rate": 0.00017541666666666668, |
| "loss": 1.3296, |
| "step": 2360 |
| }, |
| { |
| "epoch": 0.49, |
| "learning_rate": 0.0001753125, |
| "loss": 1.3744, |
| "step": 2370 |
| }, |
| { |
| "epoch": 0.5, |
| "learning_rate": 0.00017520833333333334, |
| "loss": 1.4002, |
| "step": 2380 |
| }, |
| { |
| "epoch": 0.5, |
| "learning_rate": 0.00017510416666666667, |
| "loss": 1.4129, |
| "step": 2390 |
| }, |
| { |
| "epoch": 0.5, |
| "learning_rate": 0.000175, |
| "loss": 1.2809, |
| "step": 2400 |
| }, |
| { |
| "epoch": 0.5, |
| "eval_accuracy": 0.8068333333333333, |
| "eval_loss": 1.3386346101760864, |
| "eval_runtime": 60.0389, |
| "eval_samples_per_second": 99.935, |
| "eval_steps_per_second": 12.492, |
| "step": 2400 |
| }, |
| { |
| "epoch": 0.5, |
| "learning_rate": 0.00017489583333333335, |
| "loss": 1.4093, |
| "step": 2410 |
| }, |
| { |
| "epoch": 0.5, |
| "learning_rate": 0.00017479166666666666, |
| "loss": 1.3473, |
| "step": 2420 |
| }, |
| { |
| "epoch": 0.51, |
| "learning_rate": 0.0001746875, |
| "loss": 1.3404, |
| "step": 2430 |
| }, |
| { |
| "epoch": 0.51, |
| "learning_rate": 0.00017458333333333334, |
| "loss": 1.4237, |
| "step": 2440 |
| }, |
| { |
| "epoch": 0.51, |
| "learning_rate": 0.0001744791666666667, |
| "loss": 1.3334, |
| "step": 2450 |
| }, |
| { |
| "epoch": 0.51, |
| "learning_rate": 0.000174375, |
| "loss": 1.3595, |
| "step": 2460 |
| }, |
| { |
| "epoch": 0.51, |
| "learning_rate": 0.00017427083333333335, |
| "loss": 1.2743, |
| "step": 2470 |
| }, |
| { |
| "epoch": 0.52, |
| "learning_rate": 0.00017416666666666668, |
| "loss": 1.2732, |
| "step": 2480 |
| }, |
| { |
| "epoch": 0.52, |
| "learning_rate": 0.0001740625, |
| "loss": 1.3992, |
| "step": 2490 |
| }, |
| { |
| "epoch": 0.52, |
| "learning_rate": 0.00017395833333333334, |
| "loss": 1.2989, |
| "step": 2500 |
| }, |
| { |
| "epoch": 0.52, |
| "eval_accuracy": 0.8066666666666666, |
| "eval_loss": 1.327233910560608, |
| "eval_runtime": 60.3705, |
| "eval_samples_per_second": 99.386, |
| "eval_steps_per_second": 12.423, |
| "step": 2500 |
| }, |
| { |
| "epoch": 0.52, |
| "learning_rate": 0.00017385416666666667, |
| "loss": 1.3593, |
| "step": 2510 |
| }, |
| { |
| "epoch": 0.53, |
| "learning_rate": 0.00017375000000000002, |
| "loss": 1.3061, |
| "step": 2520 |
| }, |
| { |
| "epoch": 0.53, |
| "learning_rate": 0.00017364583333333335, |
| "loss": 1.3298, |
| "step": 2530 |
| }, |
| { |
| "epoch": 0.53, |
| "learning_rate": 0.00017354166666666668, |
| "loss": 1.347, |
| "step": 2540 |
| }, |
| { |
| "epoch": 0.53, |
| "learning_rate": 0.0001734375, |
| "loss": 1.3915, |
| "step": 2550 |
| }, |
| { |
| "epoch": 0.53, |
| "learning_rate": 0.00017333333333333334, |
| "loss": 1.3186, |
| "step": 2560 |
| }, |
| { |
| "epoch": 0.54, |
| "learning_rate": 0.00017322916666666666, |
| "loss": 1.4158, |
| "step": 2570 |
| }, |
| { |
| "epoch": 0.54, |
| "learning_rate": 0.000173125, |
| "loss": 1.2703, |
| "step": 2580 |
| }, |
| { |
| "epoch": 0.54, |
| "learning_rate": 0.00017302083333333335, |
| "loss": 1.3249, |
| "step": 2590 |
| }, |
| { |
| "epoch": 0.54, |
| "learning_rate": 0.00017291666666666668, |
| "loss": 1.2958, |
| "step": 2600 |
| }, |
| { |
| "epoch": 0.54, |
| "eval_accuracy": 0.81, |
| "eval_loss": 1.3158748149871826, |
| "eval_runtime": 59.8791, |
| "eval_samples_per_second": 100.202, |
| "eval_steps_per_second": 12.525, |
| "step": 2600 |
| }, |
| { |
| "epoch": 0.54, |
| "learning_rate": 0.0001728125, |
| "loss": 1.3026, |
| "step": 2610 |
| }, |
| { |
| "epoch": 0.55, |
| "learning_rate": 0.00017270833333333333, |
| "loss": 1.2884, |
| "step": 2620 |
| }, |
| { |
| "epoch": 0.55, |
| "learning_rate": 0.0001726041666666667, |
| "loss": 1.2833, |
| "step": 2630 |
| }, |
| { |
| "epoch": 0.55, |
| "learning_rate": 0.00017250000000000002, |
| "loss": 1.2588, |
| "step": 2640 |
| }, |
| { |
| "epoch": 0.55, |
| "learning_rate": 0.00017239583333333335, |
| "loss": 1.3951, |
| "step": 2650 |
| }, |
| { |
| "epoch": 0.55, |
| "learning_rate": 0.00017229166666666668, |
| "loss": 1.4242, |
| "step": 2660 |
| }, |
| { |
| "epoch": 0.56, |
| "learning_rate": 0.0001721875, |
| "loss": 1.2517, |
| "step": 2670 |
| }, |
| { |
| "epoch": 0.56, |
| "learning_rate": 0.00017208333333333336, |
| "loss": 1.2616, |
| "step": 2680 |
| }, |
| { |
| "epoch": 0.56, |
| "learning_rate": 0.00017197916666666666, |
| "loss": 1.2748, |
| "step": 2690 |
| }, |
| { |
| "epoch": 0.56, |
| "learning_rate": 0.00017187500000000002, |
| "loss": 1.3072, |
| "step": 2700 |
| }, |
| { |
| "epoch": 0.56, |
| "eval_accuracy": 0.8096666666666666, |
| "eval_loss": 1.3048388957977295, |
| "eval_runtime": 59.7463, |
| "eval_samples_per_second": 100.425, |
| "eval_steps_per_second": 12.553, |
| "step": 2700 |
| }, |
| { |
| "epoch": 0.56, |
| "learning_rate": 0.00017177083333333335, |
| "loss": 1.3589, |
| "step": 2710 |
| }, |
| { |
| "epoch": 0.57, |
| "learning_rate": 0.00017166666666666667, |
| "loss": 1.3197, |
| "step": 2720 |
| }, |
| { |
| "epoch": 0.57, |
| "learning_rate": 0.0001715625, |
| "loss": 1.31, |
| "step": 2730 |
| }, |
| { |
| "epoch": 0.57, |
| "learning_rate": 0.00017145833333333333, |
| "loss": 1.346, |
| "step": 2740 |
| }, |
| { |
| "epoch": 0.57, |
| "learning_rate": 0.0001713541666666667, |
| "loss": 1.3529, |
| "step": 2750 |
| }, |
| { |
| "epoch": 0.57, |
| "learning_rate": 0.00017125, |
| "loss": 1.3381, |
| "step": 2760 |
| }, |
| { |
| "epoch": 0.58, |
| "learning_rate": 0.00017114583333333334, |
| "loss": 1.2754, |
| "step": 2770 |
| }, |
| { |
| "epoch": 0.58, |
| "learning_rate": 0.00017104166666666667, |
| "loss": 1.2656, |
| "step": 2780 |
| }, |
| { |
| "epoch": 0.58, |
| "learning_rate": 0.00017093750000000003, |
| "loss": 1.3398, |
| "step": 2790 |
| }, |
| { |
| "epoch": 0.58, |
| "learning_rate": 0.00017083333333333333, |
| "loss": 1.2545, |
| "step": 2800 |
| }, |
| { |
| "epoch": 0.58, |
| "eval_accuracy": 0.809, |
| "eval_loss": 1.29426908493042, |
| "eval_runtime": 60.0172, |
| "eval_samples_per_second": 99.971, |
| "eval_steps_per_second": 12.496, |
| "step": 2800 |
| }, |
| { |
| "epoch": 0.59, |
| "learning_rate": 0.00017072916666666669, |
| "loss": 1.283, |
| "step": 2810 |
| }, |
| { |
| "epoch": 0.59, |
| "learning_rate": 0.00017062500000000001, |
| "loss": 1.2477, |
| "step": 2820 |
| }, |
| { |
| "epoch": 0.59, |
| "learning_rate": 0.00017052083333333334, |
| "loss": 1.3185, |
| "step": 2830 |
| }, |
| { |
| "epoch": 0.59, |
| "learning_rate": 0.00017041666666666667, |
| "loss": 1.2974, |
| "step": 2840 |
| }, |
| { |
| "epoch": 0.59, |
| "learning_rate": 0.0001703125, |
| "loss": 1.3587, |
| "step": 2850 |
| }, |
| { |
| "epoch": 0.6, |
| "learning_rate": 0.00017020833333333336, |
| "loss": 1.3052, |
| "step": 2860 |
| }, |
| { |
| "epoch": 0.6, |
| "learning_rate": 0.00017010416666666666, |
| "loss": 1.3035, |
| "step": 2870 |
| }, |
| { |
| "epoch": 0.6, |
| "learning_rate": 0.00017, |
| "loss": 1.25, |
| "step": 2880 |
| }, |
| { |
| "epoch": 0.6, |
| "learning_rate": 0.00016989583333333334, |
| "loss": 1.3781, |
| "step": 2890 |
| }, |
| { |
| "epoch": 0.6, |
| "learning_rate": 0.00016979166666666667, |
| "loss": 1.2722, |
| "step": 2900 |
| }, |
| { |
| "epoch": 0.6, |
| "eval_accuracy": 0.8111666666666667, |
| "eval_loss": 1.2834398746490479, |
| "eval_runtime": 60.5144, |
| "eval_samples_per_second": 99.15, |
| "eval_steps_per_second": 12.394, |
| "step": 2900 |
| }, |
| { |
| "epoch": 0.61, |
| "learning_rate": 0.0001696875, |
| "loss": 1.3562, |
| "step": 2910 |
| }, |
| { |
| "epoch": 0.61, |
| "learning_rate": 0.00016958333333333333, |
| "loss": 1.3013, |
| "step": 2920 |
| }, |
| { |
| "epoch": 0.61, |
| "learning_rate": 0.00016947916666666668, |
| "loss": 1.365, |
| "step": 2930 |
| }, |
| { |
| "epoch": 0.61, |
| "learning_rate": 0.000169375, |
| "loss": 1.2483, |
| "step": 2940 |
| }, |
| { |
| "epoch": 0.61, |
| "learning_rate": 0.00016927083333333334, |
| "loss": 1.3139, |
| "step": 2950 |
| }, |
| { |
| "epoch": 0.62, |
| "learning_rate": 0.00016916666666666667, |
| "loss": 1.3588, |
| "step": 2960 |
| }, |
| { |
| "epoch": 0.62, |
| "learning_rate": 0.00016906250000000002, |
| "loss": 1.2225, |
| "step": 2970 |
| }, |
| { |
| "epoch": 0.62, |
| "learning_rate": 0.00016895833333333335, |
| "loss": 1.2848, |
| "step": 2980 |
| }, |
| { |
| "epoch": 0.62, |
| "learning_rate": 0.00016885416666666668, |
| "loss": 1.2348, |
| "step": 2990 |
| }, |
| { |
| "epoch": 0.62, |
| "learning_rate": 0.00016875, |
| "loss": 1.2628, |
| "step": 3000 |
| }, |
| { |
| "epoch": 0.62, |
| "eval_accuracy": 0.8101666666666667, |
| "eval_loss": 1.2732218503952026, |
| "eval_runtime": 59.8117, |
| "eval_samples_per_second": 100.315, |
| "eval_steps_per_second": 12.539, |
| "step": 3000 |
| }, |
| { |
| "epoch": 0.63, |
| "learning_rate": 0.00016864583333333334, |
| "loss": 1.226, |
| "step": 3010 |
| }, |
| { |
| "epoch": 0.63, |
| "learning_rate": 0.00016854166666666667, |
| "loss": 1.2305, |
| "step": 3020 |
| }, |
| { |
| "epoch": 0.63, |
| "learning_rate": 0.0001684375, |
| "loss": 1.2673, |
| "step": 3030 |
| }, |
| { |
| "epoch": 0.63, |
| "learning_rate": 0.00016833333333333335, |
| "loss": 1.2703, |
| "step": 3040 |
| }, |
| { |
| "epoch": 0.64, |
| "learning_rate": 0.00016822916666666668, |
| "loss": 1.3201, |
| "step": 3050 |
| }, |
| { |
| "epoch": 0.64, |
| "learning_rate": 0.000168125, |
| "loss": 1.3095, |
| "step": 3060 |
| }, |
| { |
| "epoch": 0.64, |
| "learning_rate": 0.00016802083333333334, |
| "loss": 1.2888, |
| "step": 3070 |
| }, |
| { |
| "epoch": 0.64, |
| "learning_rate": 0.00016791666666666666, |
| "loss": 1.2744, |
| "step": 3080 |
| }, |
| { |
| "epoch": 0.64, |
| "learning_rate": 0.00016781250000000002, |
| "loss": 1.245, |
| "step": 3090 |
| }, |
| { |
| "epoch": 0.65, |
| "learning_rate": 0.00016770833333333332, |
| "loss": 1.2357, |
| "step": 3100 |
| }, |
| { |
| "epoch": 0.65, |
| "eval_accuracy": 0.8105, |
| "eval_loss": 1.2631747722625732, |
| "eval_runtime": 59.9312, |
| "eval_samples_per_second": 100.115, |
| "eval_steps_per_second": 12.514, |
| "step": 3100 |
| }, |
| { |
| "epoch": 0.65, |
| "learning_rate": 0.00016760416666666668, |
| "loss": 1.3349, |
| "step": 3110 |
| }, |
| { |
| "epoch": 0.65, |
| "learning_rate": 0.0001675, |
| "loss": 1.289, |
| "step": 3120 |
| }, |
| { |
| "epoch": 0.65, |
| "learning_rate": 0.00016739583333333336, |
| "loss": 1.2013, |
| "step": 3130 |
| }, |
| { |
| "epoch": 0.65, |
| "learning_rate": 0.00016729166666666666, |
| "loss": 1.3114, |
| "step": 3140 |
| }, |
| { |
| "epoch": 0.66, |
| "learning_rate": 0.00016718750000000002, |
| "loss": 1.2983, |
| "step": 3150 |
| }, |
| { |
| "epoch": 0.66, |
| "learning_rate": 0.00016708333333333335, |
| "loss": 1.2253, |
| "step": 3160 |
| }, |
| { |
| "epoch": 0.66, |
| "learning_rate": 0.00016697916666666668, |
| "loss": 1.2128, |
| "step": 3170 |
| }, |
| { |
| "epoch": 0.66, |
| "learning_rate": 0.000166875, |
| "loss": 1.1842, |
| "step": 3180 |
| }, |
| { |
| "epoch": 0.66, |
| "learning_rate": 0.00016677083333333333, |
| "loss": 1.2304, |
| "step": 3190 |
| }, |
| { |
| "epoch": 0.67, |
| "learning_rate": 0.0001666666666666667, |
| "loss": 1.3189, |
| "step": 3200 |
| }, |
| { |
| "epoch": 0.67, |
| "eval_accuracy": 0.8093333333333333, |
| "eval_loss": 1.2531973123550415, |
| "eval_runtime": 59.9305, |
| "eval_samples_per_second": 100.116, |
| "eval_steps_per_second": 12.515, |
| "step": 3200 |
| }, |
| { |
| "epoch": 0.67, |
| "learning_rate": 0.0001665625, |
| "loss": 1.2067, |
| "step": 3210 |
| }, |
| { |
| "epoch": 0.67, |
| "learning_rate": 0.00016645833333333335, |
| "loss": 1.2135, |
| "step": 3220 |
| }, |
| { |
| "epoch": 0.67, |
| "learning_rate": 0.00016635416666666667, |
| "loss": 1.2667, |
| "step": 3230 |
| }, |
| { |
| "epoch": 0.68, |
| "learning_rate": 0.00016625000000000003, |
| "loss": 1.3016, |
| "step": 3240 |
| }, |
| { |
| "epoch": 0.68, |
| "learning_rate": 0.00016614583333333333, |
| "loss": 1.3337, |
| "step": 3250 |
| }, |
| { |
| "epoch": 0.68, |
| "learning_rate": 0.0001660416666666667, |
| "loss": 1.2271, |
| "step": 3260 |
| }, |
| { |
| "epoch": 0.68, |
| "learning_rate": 0.00016593750000000002, |
| "loss": 1.2313, |
| "step": 3270 |
| }, |
| { |
| "epoch": 0.68, |
| "learning_rate": 0.00016583333333333334, |
| "loss": 1.2606, |
| "step": 3280 |
| }, |
| { |
| "epoch": 0.69, |
| "learning_rate": 0.00016572916666666667, |
| "loss": 1.2409, |
| "step": 3290 |
| }, |
| { |
| "epoch": 0.69, |
| "learning_rate": 0.000165625, |
| "loss": 1.2465, |
| "step": 3300 |
| }, |
| { |
| "epoch": 0.69, |
| "eval_accuracy": 0.8096666666666666, |
| "eval_loss": 1.243584394454956, |
| "eval_runtime": 60.106, |
| "eval_samples_per_second": 99.824, |
| "eval_steps_per_second": 12.478, |
| "step": 3300 |
| }, |
| { |
| "epoch": 0.69, |
| "learning_rate": 0.00016552083333333336, |
| "loss": 1.166, |
| "step": 3310 |
| }, |
| { |
| "epoch": 0.69, |
| "learning_rate": 0.00016541666666666666, |
| "loss": 1.139, |
| "step": 3320 |
| }, |
| { |
| "epoch": 0.69, |
| "learning_rate": 0.0001653125, |
| "loss": 1.2326, |
| "step": 3330 |
| }, |
| { |
| "epoch": 0.7, |
| "learning_rate": 0.00016520833333333334, |
| "loss": 1.223, |
| "step": 3340 |
| }, |
| { |
| "epoch": 0.7, |
| "learning_rate": 0.00016510416666666667, |
| "loss": 1.2662, |
| "step": 3350 |
| }, |
| { |
| "epoch": 0.7, |
| "learning_rate": 0.000165, |
| "loss": 1.2327, |
| "step": 3360 |
| }, |
| { |
| "epoch": 0.7, |
| "learning_rate": 0.00016489583333333333, |
| "loss": 1.2684, |
| "step": 3370 |
| }, |
| { |
| "epoch": 0.7, |
| "learning_rate": 0.00016479166666666668, |
| "loss": 1.2323, |
| "step": 3380 |
| }, |
| { |
| "epoch": 0.71, |
| "learning_rate": 0.0001646875, |
| "loss": 1.2627, |
| "step": 3390 |
| }, |
| { |
| "epoch": 0.71, |
| "learning_rate": 0.00016458333333333334, |
| "loss": 1.2579, |
| "step": 3400 |
| }, |
| { |
| "epoch": 0.71, |
| "eval_accuracy": 0.8086666666666666, |
| "eval_loss": 1.234160304069519, |
| "eval_runtime": 59.9345, |
| "eval_samples_per_second": 100.109, |
| "eval_steps_per_second": 12.514, |
| "step": 3400 |
| }, |
| { |
| "epoch": 0.71, |
| "learning_rate": 0.00016447916666666667, |
| "loss": 1.2511, |
| "step": 3410 |
| }, |
| { |
| "epoch": 0.71, |
| "learning_rate": 0.00016437500000000002, |
| "loss": 1.2648, |
| "step": 3420 |
| }, |
| { |
| "epoch": 0.71, |
| "learning_rate": 0.00016427083333333335, |
| "loss": 1.2107, |
| "step": 3430 |
| }, |
| { |
| "epoch": 0.72, |
| "learning_rate": 0.00016416666666666668, |
| "loss": 1.2272, |
| "step": 3440 |
| }, |
| { |
| "epoch": 0.72, |
| "learning_rate": 0.0001640625, |
| "loss": 1.1902, |
| "step": 3450 |
| }, |
| { |
| "epoch": 0.72, |
| "learning_rate": 0.00016395833333333334, |
| "loss": 1.221, |
| "step": 3460 |
| }, |
| { |
| "epoch": 0.72, |
| "learning_rate": 0.00016385416666666667, |
| "loss": 1.1957, |
| "step": 3470 |
| }, |
| { |
| "epoch": 0.72, |
| "learning_rate": 0.00016375, |
| "loss": 1.2252, |
| "step": 3480 |
| }, |
| { |
| "epoch": 0.73, |
| "learning_rate": 0.00016364583333333335, |
| "loss": 1.2167, |
| "step": 3490 |
| }, |
| { |
| "epoch": 0.73, |
| "learning_rate": 0.00016354166666666668, |
| "loss": 1.1963, |
| "step": 3500 |
| }, |
| { |
| "epoch": 0.73, |
| "eval_accuracy": 0.8085, |
| "eval_loss": 1.2249300479888916, |
| "eval_runtime": 60.7089, |
| "eval_samples_per_second": 98.832, |
| "eval_steps_per_second": 12.354, |
| "step": 3500 |
| }, |
| { |
| "epoch": 0.73, |
| "learning_rate": 0.0001634375, |
| "loss": 1.1855, |
| "step": 3510 |
| }, |
| { |
| "epoch": 0.73, |
| "learning_rate": 0.00016333333333333334, |
| "loss": 1.3042, |
| "step": 3520 |
| }, |
| { |
| "epoch": 0.74, |
| "learning_rate": 0.00016322916666666667, |
| "loss": 1.1728, |
| "step": 3530 |
| }, |
| { |
| "epoch": 0.74, |
| "learning_rate": 0.00016312500000000002, |
| "loss": 1.269, |
| "step": 3540 |
| }, |
| { |
| "epoch": 0.74, |
| "learning_rate": 0.00016302083333333332, |
| "loss": 1.3319, |
| "step": 3550 |
| }, |
| { |
| "epoch": 0.74, |
| "learning_rate": 0.00016291666666666668, |
| "loss": 1.2438, |
| "step": 3560 |
| }, |
| { |
| "epoch": 0.74, |
| "learning_rate": 0.0001628125, |
| "loss": 1.2682, |
| "step": 3570 |
| }, |
| { |
| "epoch": 0.75, |
| "learning_rate": 0.00016270833333333336, |
| "loss": 1.2397, |
| "step": 3580 |
| }, |
| { |
| "epoch": 0.75, |
| "learning_rate": 0.00016260416666666666, |
| "loss": 1.21, |
| "step": 3590 |
| }, |
| { |
| "epoch": 0.75, |
| "learning_rate": 0.00016250000000000002, |
| "loss": 1.1701, |
| "step": 3600 |
| }, |
| { |
| "epoch": 0.75, |
| "eval_accuracy": 0.8091666666666667, |
| "eval_loss": 1.2158732414245605, |
| "eval_runtime": 60.2112, |
| "eval_samples_per_second": 99.649, |
| "eval_steps_per_second": 12.456, |
| "step": 3600 |
| }, |
| { |
| "epoch": 0.75, |
| "learning_rate": 0.00016239583333333335, |
| "loss": 1.2941, |
| "step": 3610 |
| }, |
| { |
| "epoch": 0.75, |
| "learning_rate": 0.00016229166666666668, |
| "loss": 1.1956, |
| "step": 3620 |
| }, |
| { |
| "epoch": 0.76, |
| "learning_rate": 0.0001621875, |
| "loss": 1.1219, |
| "step": 3630 |
| }, |
| { |
| "epoch": 0.76, |
| "learning_rate": 0.00016208333333333333, |
| "loss": 1.2862, |
| "step": 3640 |
| }, |
| { |
| "epoch": 0.76, |
| "learning_rate": 0.0001619791666666667, |
| "loss": 1.2385, |
| "step": 3650 |
| }, |
| { |
| "epoch": 0.76, |
| "learning_rate": 0.000161875, |
| "loss": 1.2297, |
| "step": 3660 |
| }, |
| { |
| "epoch": 0.76, |
| "learning_rate": 0.00016177083333333335, |
| "loss": 1.2379, |
| "step": 3670 |
| }, |
| { |
| "epoch": 0.77, |
| "learning_rate": 0.00016166666666666668, |
| "loss": 1.2005, |
| "step": 3680 |
| }, |
| { |
| "epoch": 0.77, |
| "learning_rate": 0.0001615625, |
| "loss": 1.2529, |
| "step": 3690 |
| }, |
| { |
| "epoch": 0.77, |
| "learning_rate": 0.00016145833333333333, |
| "loss": 1.2117, |
| "step": 3700 |
| }, |
| { |
| "epoch": 0.77, |
| "eval_accuracy": 0.8113333333333334, |
| "eval_loss": 1.2068514823913574, |
| "eval_runtime": 61.5986, |
| "eval_samples_per_second": 97.405, |
| "eval_steps_per_second": 12.176, |
| "step": 3700 |
| }, |
| { |
| "epoch": 0.77, |
| "learning_rate": 0.00016135416666666666, |
| "loss": 1.1552, |
| "step": 3710 |
| }, |
| { |
| "epoch": 0.78, |
| "learning_rate": 0.00016125000000000002, |
| "loss": 1.2025, |
| "step": 3720 |
| }, |
| { |
| "epoch": 0.78, |
| "learning_rate": 0.00016114583333333334, |
| "loss": 1.3751, |
| "step": 3730 |
| }, |
| { |
| "epoch": 0.78, |
| "learning_rate": 0.00016104166666666667, |
| "loss": 1.2619, |
| "step": 3740 |
| }, |
| { |
| "epoch": 0.78, |
| "learning_rate": 0.0001609375, |
| "loss": 1.1852, |
| "step": 3750 |
| }, |
| { |
| "epoch": 0.78, |
| "learning_rate": 0.00016083333333333336, |
| "loss": 1.2198, |
| "step": 3760 |
| }, |
| { |
| "epoch": 0.79, |
| "learning_rate": 0.00016072916666666666, |
| "loss": 1.2551, |
| "step": 3770 |
| }, |
| { |
| "epoch": 0.79, |
| "learning_rate": 0.00016062500000000001, |
| "loss": 1.1502, |
| "step": 3780 |
| }, |
| { |
| "epoch": 0.79, |
| "learning_rate": 0.00016052083333333334, |
| "loss": 1.3294, |
| "step": 3790 |
| }, |
| { |
| "epoch": 0.79, |
| "learning_rate": 0.00016041666666666667, |
| "loss": 1.1907, |
| "step": 3800 |
| }, |
| { |
| "epoch": 0.79, |
| "eval_accuracy": 0.8111666666666667, |
| "eval_loss": 1.198384165763855, |
| "eval_runtime": 60.4064, |
| "eval_samples_per_second": 99.327, |
| "eval_steps_per_second": 12.416, |
| "step": 3800 |
| }, |
| { |
| "epoch": 0.79, |
| "learning_rate": 0.0001603125, |
| "loss": 1.2523, |
| "step": 3810 |
| }, |
| { |
| "epoch": 0.8, |
| "learning_rate": 0.00016020833333333333, |
| "loss": 1.1974, |
| "step": 3820 |
| }, |
| { |
| "epoch": 0.8, |
| "learning_rate": 0.00016010416666666668, |
| "loss": 1.2817, |
| "step": 3830 |
| }, |
| { |
| "epoch": 0.8, |
| "learning_rate": 0.00016, |
| "loss": 1.292, |
| "step": 3840 |
| }, |
| { |
| "epoch": 0.8, |
| "learning_rate": 0.00015989583333333334, |
| "loss": 1.2838, |
| "step": 3850 |
| }, |
| { |
| "epoch": 0.8, |
| "learning_rate": 0.00015979166666666667, |
| "loss": 1.2542, |
| "step": 3860 |
| }, |
| { |
| "epoch": 0.81, |
| "learning_rate": 0.0001596875, |
| "loss": 1.1947, |
| "step": 3870 |
| }, |
| { |
| "epoch": 0.81, |
| "learning_rate": 0.00015958333333333335, |
| "loss": 1.214, |
| "step": 3880 |
| }, |
| { |
| "epoch": 0.81, |
| "learning_rate": 0.00015947916666666666, |
| "loss": 1.2064, |
| "step": 3890 |
| }, |
| { |
| "epoch": 0.81, |
| "learning_rate": 0.000159375, |
| "loss": 1.1903, |
| "step": 3900 |
| }, |
| { |
| "epoch": 0.81, |
| "eval_accuracy": 0.8115, |
| "eval_loss": 1.1901664733886719, |
| "eval_runtime": 60.3051, |
| "eval_samples_per_second": 99.494, |
| "eval_steps_per_second": 12.437, |
| "step": 3900 |
| }, |
| { |
| "epoch": 0.81, |
| "learning_rate": 0.00015927083333333334, |
| "loss": 1.2, |
| "step": 3910 |
| }, |
| { |
| "epoch": 0.82, |
| "learning_rate": 0.00015916666666666667, |
| "loss": 1.1508, |
| "step": 3920 |
| }, |
| { |
| "epoch": 0.82, |
| "learning_rate": 0.0001590625, |
| "loss": 1.2983, |
| "step": 3930 |
| }, |
| { |
| "epoch": 0.82, |
| "learning_rate": 0.00015895833333333335, |
| "loss": 1.2125, |
| "step": 3940 |
| }, |
| { |
| "epoch": 0.82, |
| "learning_rate": 0.00015885416666666668, |
| "loss": 1.2576, |
| "step": 3950 |
| }, |
| { |
| "epoch": 0.82, |
| "learning_rate": 0.00015875, |
| "loss": 1.2249, |
| "step": 3960 |
| }, |
| { |
| "epoch": 0.83, |
| "learning_rate": 0.00015864583333333334, |
| "loss": 1.1715, |
| "step": 3970 |
| }, |
| { |
| "epoch": 0.83, |
| "learning_rate": 0.00015854166666666667, |
| "loss": 1.2649, |
| "step": 3980 |
| }, |
| { |
| "epoch": 0.83, |
| "learning_rate": 0.00015843750000000002, |
| "loss": 1.2269, |
| "step": 3990 |
| }, |
| { |
| "epoch": 0.83, |
| "learning_rate": 0.00015833333333333332, |
| "loss": 1.2357, |
| "step": 4000 |
| }, |
| { |
| "epoch": 0.83, |
| "eval_accuracy": 0.8115, |
| "eval_loss": 1.1821300983428955, |
| "eval_runtime": 60.2258, |
| "eval_samples_per_second": 99.625, |
| "eval_steps_per_second": 12.453, |
| "step": 4000 |
| }, |
| { |
| "epoch": 0.84, |
| "learning_rate": 0.00015822916666666668, |
| "loss": 1.0841, |
| "step": 4010 |
| }, |
| { |
| "epoch": 0.84, |
| "learning_rate": 0.000158125, |
| "loss": 1.2343, |
| "step": 4020 |
| }, |
| { |
| "epoch": 0.84, |
| "learning_rate": 0.00015802083333333336, |
| "loss": 1.1654, |
| "step": 4030 |
| }, |
| { |
| "epoch": 0.84, |
| "learning_rate": 0.00015791666666666667, |
| "loss": 1.0654, |
| "step": 4040 |
| }, |
| { |
| "epoch": 0.84, |
| "learning_rate": 0.00015781250000000002, |
| "loss": 1.1303, |
| "step": 4050 |
| }, |
| { |
| "epoch": 0.85, |
| "learning_rate": 0.00015770833333333335, |
| "loss": 1.1791, |
| "step": 4060 |
| }, |
| { |
| "epoch": 0.85, |
| "learning_rate": 0.00015760416666666665, |
| "loss": 1.1471, |
| "step": 4070 |
| }, |
| { |
| "epoch": 0.85, |
| "learning_rate": 0.0001575, |
| "loss": 1.158, |
| "step": 4080 |
| }, |
| { |
| "epoch": 0.85, |
| "learning_rate": 0.00015739583333333334, |
| "loss": 1.2618, |
| "step": 4090 |
| }, |
| { |
| "epoch": 0.85, |
| "learning_rate": 0.0001572916666666667, |
| "loss": 1.1924, |
| "step": 4100 |
| }, |
| { |
| "epoch": 0.85, |
| "eval_accuracy": 0.8116666666666666, |
| "eval_loss": 1.1737799644470215, |
| "eval_runtime": 60.5292, |
| "eval_samples_per_second": 99.126, |
| "eval_steps_per_second": 12.391, |
| "step": 4100 |
| }, |
| { |
| "epoch": 0.86, |
| "learning_rate": 0.0001571875, |
| "loss": 1.1654, |
| "step": 4110 |
| }, |
| { |
| "epoch": 0.86, |
| "learning_rate": 0.00015708333333333335, |
| "loss": 1.1804, |
| "step": 4120 |
| }, |
| { |
| "epoch": 0.86, |
| "learning_rate": 0.00015697916666666668, |
| "loss": 1.2523, |
| "step": 4130 |
| }, |
| { |
| "epoch": 0.86, |
| "learning_rate": 0.000156875, |
| "loss": 1.1569, |
| "step": 4140 |
| }, |
| { |
| "epoch": 0.86, |
| "learning_rate": 0.00015677083333333333, |
| "loss": 1.3463, |
| "step": 4150 |
| }, |
| { |
| "epoch": 0.87, |
| "learning_rate": 0.00015666666666666666, |
| "loss": 1.154, |
| "step": 4160 |
| }, |
| { |
| "epoch": 0.87, |
| "learning_rate": 0.00015656250000000002, |
| "loss": 1.0789, |
| "step": 4170 |
| }, |
| { |
| "epoch": 0.87, |
| "learning_rate": 0.00015645833333333335, |
| "loss": 1.1554, |
| "step": 4180 |
| }, |
| { |
| "epoch": 0.87, |
| "learning_rate": 0.00015635416666666667, |
| "loss": 1.1318, |
| "step": 4190 |
| }, |
| { |
| "epoch": 0.88, |
| "learning_rate": 0.00015625, |
| "loss": 1.1914, |
| "step": 4200 |
| }, |
| { |
| "epoch": 0.88, |
| "eval_accuracy": 0.8133333333333334, |
| "eval_loss": 1.1657198667526245, |
| "eval_runtime": 60.3587, |
| "eval_samples_per_second": 99.406, |
| "eval_steps_per_second": 12.426, |
| "step": 4200 |
| }, |
| { |
| "epoch": 0.88, |
| "learning_rate": 0.00015614583333333336, |
| "loss": 1.1521, |
| "step": 4210 |
| }, |
| { |
| "epoch": 0.88, |
| "learning_rate": 0.00015604166666666666, |
| "loss": 1.0792, |
| "step": 4220 |
| }, |
| { |
| "epoch": 0.88, |
| "learning_rate": 0.00015593750000000002, |
| "loss": 1.2351, |
| "step": 4230 |
| }, |
| { |
| "epoch": 0.88, |
| "learning_rate": 0.00015583333333333334, |
| "loss": 1.1624, |
| "step": 4240 |
| }, |
| { |
| "epoch": 0.89, |
| "learning_rate": 0.00015572916666666667, |
| "loss": 1.1749, |
| "step": 4250 |
| }, |
| { |
| "epoch": 0.89, |
| "learning_rate": 0.000155625, |
| "loss": 1.1846, |
| "step": 4260 |
| }, |
| { |
| "epoch": 0.89, |
| "learning_rate": 0.00015552083333333333, |
| "loss": 1.1637, |
| "step": 4270 |
| }, |
| { |
| "epoch": 0.89, |
| "learning_rate": 0.00015541666666666669, |
| "loss": 1.1464, |
| "step": 4280 |
| }, |
| { |
| "epoch": 0.89, |
| "learning_rate": 0.00015531250000000001, |
| "loss": 1.2723, |
| "step": 4290 |
| }, |
| { |
| "epoch": 0.9, |
| "learning_rate": 0.00015520833333333334, |
| "loss": 1.1536, |
| "step": 4300 |
| }, |
| { |
| "epoch": 0.9, |
| "eval_accuracy": 0.8148333333333333, |
| "eval_loss": 1.1579933166503906, |
| "eval_runtime": 60.3451, |
| "eval_samples_per_second": 99.428, |
| "eval_steps_per_second": 12.429, |
| "step": 4300 |
| }, |
| { |
| "epoch": 0.9, |
| "learning_rate": 0.00015510416666666667, |
| "loss": 1.1009, |
| "step": 4310 |
| }, |
| { |
| "epoch": 0.9, |
| "learning_rate": 0.000155, |
| "loss": 1.1351, |
| "step": 4320 |
| }, |
| { |
| "epoch": 0.9, |
| "learning_rate": 0.00015489583333333336, |
| "loss": 1.2169, |
| "step": 4330 |
| }, |
| { |
| "epoch": 0.9, |
| "learning_rate": 0.00015479166666666666, |
| "loss": 1.2304, |
| "step": 4340 |
| }, |
| { |
| "epoch": 0.91, |
| "learning_rate": 0.0001546875, |
| "loss": 1.2234, |
| "step": 4350 |
| }, |
| { |
| "epoch": 0.91, |
| "learning_rate": 0.00015458333333333334, |
| "loss": 1.2535, |
| "step": 4360 |
| }, |
| { |
| "epoch": 0.91, |
| "learning_rate": 0.00015447916666666667, |
| "loss": 1.2689, |
| "step": 4370 |
| }, |
| { |
| "epoch": 0.91, |
| "learning_rate": 0.000154375, |
| "loss": 1.1052, |
| "step": 4380 |
| }, |
| { |
| "epoch": 0.91, |
| "learning_rate": 0.00015427083333333335, |
| "loss": 1.1185, |
| "step": 4390 |
| }, |
| { |
| "epoch": 0.92, |
| "learning_rate": 0.00015416666666666668, |
| "loss": 1.1893, |
| "step": 4400 |
| }, |
| { |
| "epoch": 0.92, |
| "eval_accuracy": 0.8158333333333333, |
| "eval_loss": 1.1504827737808228, |
| "eval_runtime": 59.557, |
| "eval_samples_per_second": 100.744, |
| "eval_steps_per_second": 12.593, |
| "step": 4400 |
| }, |
| { |
| "epoch": 0.92, |
| "learning_rate": 0.0001540625, |
| "loss": 1.2907, |
| "step": 4410 |
| }, |
| { |
| "epoch": 0.92, |
| "learning_rate": 0.00015395833333333334, |
| "loss": 1.1621, |
| "step": 4420 |
| }, |
| { |
| "epoch": 0.92, |
| "learning_rate": 0.00015385416666666667, |
| "loss": 1.1427, |
| "step": 4430 |
| }, |
| { |
| "epoch": 0.93, |
| "learning_rate": 0.00015375000000000002, |
| "loss": 1.2581, |
| "step": 4440 |
| }, |
| { |
| "epoch": 0.93, |
| "learning_rate": 0.00015364583333333333, |
| "loss": 1.1431, |
| "step": 4450 |
| }, |
| { |
| "epoch": 0.93, |
| "learning_rate": 0.00015354166666666668, |
| "loss": 1.1554, |
| "step": 4460 |
| }, |
| { |
| "epoch": 0.93, |
| "learning_rate": 0.0001534375, |
| "loss": 1.1736, |
| "step": 4470 |
| }, |
| { |
| "epoch": 0.93, |
| "learning_rate": 0.00015333333333333334, |
| "loss": 1.1008, |
| "step": 4480 |
| }, |
| { |
| "epoch": 0.94, |
| "learning_rate": 0.00015322916666666667, |
| "loss": 1.0985, |
| "step": 4490 |
| }, |
| { |
| "epoch": 0.94, |
| "learning_rate": 0.000153125, |
| "loss": 1.1811, |
| "step": 4500 |
| }, |
| { |
| "epoch": 0.94, |
| "eval_accuracy": 0.8158333333333333, |
| "eval_loss": 1.1432603597640991, |
| "eval_runtime": 60.1682, |
| "eval_samples_per_second": 99.721, |
| "eval_steps_per_second": 12.465, |
| "step": 4500 |
| }, |
| { |
| "epoch": 0.94, |
| "learning_rate": 0.00015302083333333335, |
| "loss": 1.0978, |
| "step": 4510 |
| }, |
| { |
| "epoch": 0.94, |
| "learning_rate": 0.00015291666666666665, |
| "loss": 1.177, |
| "step": 4520 |
| }, |
| { |
| "epoch": 0.94, |
| "learning_rate": 0.0001528125, |
| "loss": 1.1379, |
| "step": 4530 |
| }, |
| { |
| "epoch": 0.95, |
| "learning_rate": 0.00015270833333333334, |
| "loss": 1.1188, |
| "step": 4540 |
| }, |
| { |
| "epoch": 0.95, |
| "learning_rate": 0.0001526041666666667, |
| "loss": 1.1489, |
| "step": 4550 |
| }, |
| { |
| "epoch": 0.95, |
| "learning_rate": 0.0001525, |
| "loss": 1.1316, |
| "step": 4560 |
| }, |
| { |
| "epoch": 0.95, |
| "learning_rate": 0.00015239583333333335, |
| "loss": 1.1685, |
| "step": 4570 |
| }, |
| { |
| "epoch": 0.95, |
| "learning_rate": 0.00015229166666666668, |
| "loss": 1.0708, |
| "step": 4580 |
| }, |
| { |
| "epoch": 0.96, |
| "learning_rate": 0.0001521875, |
| "loss": 1.1313, |
| "step": 4590 |
| }, |
| { |
| "epoch": 0.96, |
| "learning_rate": 0.00015208333333333333, |
| "loss": 1.0182, |
| "step": 4600 |
| }, |
| { |
| "epoch": 0.96, |
| "eval_accuracy": 0.8165, |
| "eval_loss": 1.1358309984207153, |
| "eval_runtime": 59.8667, |
| "eval_samples_per_second": 100.223, |
| "eval_steps_per_second": 12.528, |
| "step": 4600 |
| }, |
| { |
| "epoch": 0.96, |
| "learning_rate": 0.00015197916666666666, |
| "loss": 1.1748, |
| "step": 4610 |
| }, |
| { |
| "epoch": 0.96, |
| "learning_rate": 0.00015187500000000002, |
| "loss": 1.171, |
| "step": 4620 |
| }, |
| { |
| "epoch": 0.96, |
| "learning_rate": 0.00015177083333333335, |
| "loss": 1.1169, |
| "step": 4630 |
| }, |
| { |
| "epoch": 0.97, |
| "learning_rate": 0.00015166666666666668, |
| "loss": 1.0936, |
| "step": 4640 |
| }, |
| { |
| "epoch": 0.97, |
| "learning_rate": 0.0001515625, |
| "loss": 1.0741, |
| "step": 4650 |
| }, |
| { |
| "epoch": 0.97, |
| "learning_rate": 0.00015145833333333333, |
| "loss": 1.201, |
| "step": 4660 |
| }, |
| { |
| "epoch": 0.97, |
| "learning_rate": 0.00015135416666666666, |
| "loss": 1.1713, |
| "step": 4670 |
| }, |
| { |
| "epoch": 0.97, |
| "learning_rate": 0.00015125, |
| "loss": 1.1395, |
| "step": 4680 |
| }, |
| { |
| "epoch": 0.98, |
| "learning_rate": 0.00015114583333333335, |
| "loss": 1.1095, |
| "step": 4690 |
| }, |
| { |
| "epoch": 0.98, |
| "learning_rate": 0.00015104166666666667, |
| "loss": 1.0396, |
| "step": 4700 |
| }, |
| { |
| "epoch": 0.98, |
| "eval_accuracy": 0.8158333333333333, |
| "eval_loss": 1.1286622285842896, |
| "eval_runtime": 59.7512, |
| "eval_samples_per_second": 100.416, |
| "eval_steps_per_second": 12.552, |
| "step": 4700 |
| }, |
| { |
| "epoch": 0.98, |
| "learning_rate": 0.0001509375, |
| "loss": 1.1648, |
| "step": 4710 |
| }, |
| { |
| "epoch": 0.98, |
| "learning_rate": 0.00015083333333333333, |
| "loss": 1.2071, |
| "step": 4720 |
| }, |
| { |
| "epoch": 0.99, |
| "learning_rate": 0.0001507291666666667, |
| "loss": 1.0075, |
| "step": 4730 |
| }, |
| { |
| "epoch": 0.99, |
| "learning_rate": 0.00015062500000000002, |
| "loss": 1.1149, |
| "step": 4740 |
| }, |
| { |
| "epoch": 0.99, |
| "learning_rate": 0.00015052083333333334, |
| "loss": 1.0764, |
| "step": 4750 |
| }, |
| { |
| "epoch": 0.99, |
| "learning_rate": 0.00015041666666666667, |
| "loss": 1.104, |
| "step": 4760 |
| }, |
| { |
| "epoch": 0.99, |
| "learning_rate": 0.0001503125, |
| "loss": 1.1529, |
| "step": 4770 |
| }, |
| { |
| "epoch": 1.0, |
| "learning_rate": 0.00015020833333333336, |
| "loss": 1.1982, |
| "step": 4780 |
| }, |
| { |
| "epoch": 1.0, |
| "learning_rate": 0.00015010416666666666, |
| "loss": 1.2677, |
| "step": 4790 |
| }, |
| { |
| "epoch": 1.0, |
| "learning_rate": 0.00015000000000000001, |
| "loss": 1.1502, |
| "step": 4800 |
| }, |
| { |
| "epoch": 1.0, |
| "eval_accuracy": 0.816, |
| "eval_loss": 1.1217460632324219, |
| "eval_runtime": 59.5436, |
| "eval_samples_per_second": 100.767, |
| "eval_steps_per_second": 12.596, |
| "step": 4800 |
| }, |
| { |
| "epoch": 1.0, |
| "learning_rate": 0.00014989583333333334, |
| "loss": 1.2269, |
| "step": 4810 |
| }, |
| { |
| "epoch": 1.0, |
| "learning_rate": 0.00014979166666666667, |
| "loss": 1.0926, |
| "step": 4820 |
| }, |
| { |
| "epoch": 1.01, |
| "learning_rate": 0.0001496875, |
| "loss": 1.1196, |
| "step": 4830 |
| }, |
| { |
| "epoch": 1.01, |
| "learning_rate": 0.00014958333333333336, |
| "loss": 1.0833, |
| "step": 4840 |
| }, |
| { |
| "epoch": 1.01, |
| "learning_rate": 0.00014947916666666668, |
| "loss": 1.1003, |
| "step": 4850 |
| }, |
| { |
| "epoch": 1.01, |
| "learning_rate": 0.00014937499999999999, |
| "loss": 1.2151, |
| "step": 4860 |
| }, |
| { |
| "epoch": 1.01, |
| "learning_rate": 0.00014927083333333334, |
| "loss": 1.1159, |
| "step": 4870 |
| }, |
| { |
| "epoch": 1.02, |
| "learning_rate": 0.00014916666666666667, |
| "loss": 1.0358, |
| "step": 4880 |
| }, |
| { |
| "epoch": 1.02, |
| "learning_rate": 0.00014906250000000003, |
| "loss": 1.006, |
| "step": 4890 |
| }, |
| { |
| "epoch": 1.02, |
| "learning_rate": 0.00014895833333333333, |
| "loss": 1.1764, |
| "step": 4900 |
| }, |
| { |
| "epoch": 1.02, |
| "eval_accuracy": 0.8158333333333333, |
| "eval_loss": 1.1147218942642212, |
| "eval_runtime": 59.5489, |
| "eval_samples_per_second": 100.758, |
| "eval_steps_per_second": 12.595, |
| "step": 4900 |
| }, |
| { |
| "epoch": 1.02, |
| "learning_rate": 0.00014885416666666668, |
| "loss": 1.1757, |
| "step": 4910 |
| }, |
| { |
| "epoch": 1.02, |
| "learning_rate": 0.00014875, |
| "loss": 1.1849, |
| "step": 4920 |
| }, |
| { |
| "epoch": 1.03, |
| "learning_rate": 0.00014864583333333334, |
| "loss": 1.0612, |
| "step": 4930 |
| }, |
| { |
| "epoch": 1.03, |
| "learning_rate": 0.00014854166666666667, |
| "loss": 1.1179, |
| "step": 4940 |
| }, |
| { |
| "epoch": 1.03, |
| "learning_rate": 0.0001484375, |
| "loss": 1.1105, |
| "step": 4950 |
| }, |
| { |
| "epoch": 1.03, |
| "learning_rate": 0.00014833333333333335, |
| "loss": 1.1282, |
| "step": 4960 |
| }, |
| { |
| "epoch": 1.04, |
| "learning_rate": 0.00014822916666666665, |
| "loss": 1.2305, |
| "step": 4970 |
| }, |
| { |
| "epoch": 1.04, |
| "learning_rate": 0.000148125, |
| "loss": 1.0431, |
| "step": 4980 |
| }, |
| { |
| "epoch": 1.04, |
| "learning_rate": 0.00014802083333333334, |
| "loss": 1.1201, |
| "step": 4990 |
| }, |
| { |
| "epoch": 1.04, |
| "learning_rate": 0.0001479166666666667, |
| "loss": 1.1508, |
| "step": 5000 |
| }, |
| { |
| "epoch": 1.04, |
| "eval_accuracy": 0.8151666666666667, |
| "eval_loss": 1.1080474853515625, |
| "eval_runtime": 59.7957, |
| "eval_samples_per_second": 100.342, |
| "eval_steps_per_second": 12.543, |
| "step": 5000 |
| }, |
| { |
| "epoch": 1.04, |
| "learning_rate": 0.0001478125, |
| "loss": 1.1987, |
| "step": 5010 |
| }, |
| { |
| "epoch": 1.05, |
| "learning_rate": 0.00014770833333333335, |
| "loss": 1.1422, |
| "step": 5020 |
| }, |
| { |
| "epoch": 1.05, |
| "learning_rate": 0.00014760416666666668, |
| "loss": 0.9753, |
| "step": 5030 |
| }, |
| { |
| "epoch": 1.05, |
| "learning_rate": 0.0001475, |
| "loss": 1.1754, |
| "step": 5040 |
| }, |
| { |
| "epoch": 1.05, |
| "learning_rate": 0.00014739583333333334, |
| "loss": 1.0736, |
| "step": 5050 |
| }, |
| { |
| "epoch": 1.05, |
| "learning_rate": 0.00014729166666666666, |
| "loss": 1.1402, |
| "step": 5060 |
| }, |
| { |
| "epoch": 1.06, |
| "learning_rate": 0.00014718750000000002, |
| "loss": 1.2073, |
| "step": 5070 |
| }, |
| { |
| "epoch": 1.06, |
| "learning_rate": 0.00014708333333333335, |
| "loss": 1.1422, |
| "step": 5080 |
| }, |
| { |
| "epoch": 1.06, |
| "learning_rate": 0.00014697916666666668, |
| "loss": 1.0425, |
| "step": 5090 |
| }, |
| { |
| "epoch": 1.06, |
| "learning_rate": 0.000146875, |
| "loss": 1.0518, |
| "step": 5100 |
| }, |
| { |
| "epoch": 1.06, |
| "eval_accuracy": 0.8155, |
| "eval_loss": 1.1014742851257324, |
| "eval_runtime": 59.6278, |
| "eval_samples_per_second": 100.624, |
| "eval_steps_per_second": 12.578, |
| "step": 5100 |
| }, |
| { |
| "epoch": 1.06, |
| "learning_rate": 0.00014677083333333333, |
| "loss": 1.0789, |
| "step": 5110 |
| }, |
| { |
| "epoch": 1.07, |
| "learning_rate": 0.00014666666666666666, |
| "loss": 1.1623, |
| "step": 5120 |
| }, |
| { |
| "epoch": 1.07, |
| "learning_rate": 0.0001465625, |
| "loss": 1.0644, |
| "step": 5130 |
| }, |
| { |
| "epoch": 1.07, |
| "learning_rate": 0.00014645833333333335, |
| "loss": 1.084, |
| "step": 5140 |
| }, |
| { |
| "epoch": 1.07, |
| "learning_rate": 0.00014635416666666668, |
| "loss": 1.148, |
| "step": 5150 |
| }, |
| { |
| "epoch": 1.07, |
| "learning_rate": 0.00014625, |
| "loss": 1.1631, |
| "step": 5160 |
| }, |
| { |
| "epoch": 1.08, |
| "learning_rate": 0.00014614583333333333, |
| "loss": 1.0106, |
| "step": 5170 |
| }, |
| { |
| "epoch": 1.08, |
| "learning_rate": 0.0001460416666666667, |
| "loss": 1.0735, |
| "step": 5180 |
| }, |
| { |
| "epoch": 1.08, |
| "learning_rate": 0.00014593750000000002, |
| "loss": 1.186, |
| "step": 5190 |
| }, |
| { |
| "epoch": 1.08, |
| "learning_rate": 0.00014583333333333335, |
| "loss": 1.0648, |
| "step": 5200 |
| }, |
| { |
| "epoch": 1.08, |
| "eval_accuracy": 0.816, |
| "eval_loss": 1.095172643661499, |
| "eval_runtime": 59.5602, |
| "eval_samples_per_second": 100.738, |
| "eval_steps_per_second": 12.592, |
| "step": 5200 |
| }, |
| { |
| "epoch": 1.09, |
| "learning_rate": 0.00014572916666666667, |
| "loss": 1.0892, |
| "step": 5210 |
| }, |
| { |
| "epoch": 1.09, |
| "learning_rate": 0.000145625, |
| "loss": 1.1821, |
| "step": 5220 |
| }, |
| { |
| "epoch": 1.09, |
| "learning_rate": 0.00014552083333333336, |
| "loss": 1.0954, |
| "step": 5230 |
| }, |
| { |
| "epoch": 1.09, |
| "learning_rate": 0.00014541666666666666, |
| "loss": 1.1076, |
| "step": 5240 |
| }, |
| { |
| "epoch": 1.09, |
| "learning_rate": 0.00014531250000000002, |
| "loss": 1.0859, |
| "step": 5250 |
| }, |
| { |
| "epoch": 1.1, |
| "learning_rate": 0.00014520833333333334, |
| "loss": 0.9888, |
| "step": 5260 |
| }, |
| { |
| "epoch": 1.1, |
| "learning_rate": 0.00014510416666666667, |
| "loss": 1.1703, |
| "step": 5270 |
| }, |
| { |
| "epoch": 1.1, |
| "learning_rate": 0.000145, |
| "loss": 1.1417, |
| "step": 5280 |
| }, |
| { |
| "epoch": 1.1, |
| "learning_rate": 0.00014489583333333333, |
| "loss": 1.1233, |
| "step": 5290 |
| }, |
| { |
| "epoch": 1.1, |
| "learning_rate": 0.00014479166666666669, |
| "loss": 1.1631, |
| "step": 5300 |
| }, |
| { |
| "epoch": 1.1, |
| "eval_accuracy": 0.8153333333333334, |
| "eval_loss": 1.0889489650726318, |
| "eval_runtime": 60.5314, |
| "eval_samples_per_second": 99.122, |
| "eval_steps_per_second": 12.39, |
| "step": 5300 |
| }, |
| { |
| "epoch": 1.11, |
| "learning_rate": 0.0001446875, |
| "loss": 1.1069, |
| "step": 5310 |
| }, |
| { |
| "epoch": 1.11, |
| "learning_rate": 0.00014458333333333334, |
| "loss": 1.1324, |
| "step": 5320 |
| }, |
| { |
| "epoch": 1.11, |
| "learning_rate": 0.00014447916666666667, |
| "loss": 1.0406, |
| "step": 5330 |
| }, |
| { |
| "epoch": 1.11, |
| "learning_rate": 0.00014437500000000003, |
| "loss": 1.0643, |
| "step": 5340 |
| }, |
| { |
| "epoch": 1.11, |
| "learning_rate": 0.00014427083333333333, |
| "loss": 1.0466, |
| "step": 5350 |
| }, |
| { |
| "epoch": 1.12, |
| "learning_rate": 0.00014416666666666668, |
| "loss": 1.0987, |
| "step": 5360 |
| }, |
| { |
| "epoch": 1.12, |
| "learning_rate": 0.0001440625, |
| "loss": 1.0603, |
| "step": 5370 |
| }, |
| { |
| "epoch": 1.12, |
| "learning_rate": 0.00014395833333333334, |
| "loss": 1.1559, |
| "step": 5380 |
| }, |
| { |
| "epoch": 1.12, |
| "learning_rate": 0.00014385416666666667, |
| "loss": 1.0942, |
| "step": 5390 |
| }, |
| { |
| "epoch": 1.12, |
| "learning_rate": 0.00014375, |
| "loss": 1.0629, |
| "step": 5400 |
| }, |
| { |
| "epoch": 1.12, |
| "eval_accuracy": 0.8151666666666667, |
| "eval_loss": 1.0826135873794556, |
| "eval_runtime": 59.8495, |
| "eval_samples_per_second": 100.252, |
| "eval_steps_per_second": 12.531, |
| "step": 5400 |
| }, |
| { |
| "epoch": 1.13, |
| "learning_rate": 0.00014364583333333335, |
| "loss": 1.0683, |
| "step": 5410 |
| }, |
| { |
| "epoch": 1.13, |
| "learning_rate": 0.00014354166666666665, |
| "loss": 1.1363, |
| "step": 5420 |
| }, |
| { |
| "epoch": 1.13, |
| "learning_rate": 0.0001434375, |
| "loss": 1.2511, |
| "step": 5430 |
| }, |
| { |
| "epoch": 1.13, |
| "learning_rate": 0.00014333333333333334, |
| "loss": 1.1718, |
| "step": 5440 |
| }, |
| { |
| "epoch": 1.14, |
| "learning_rate": 0.00014322916666666667, |
| "loss": 1.1405, |
| "step": 5450 |
| }, |
| { |
| "epoch": 1.14, |
| "learning_rate": 0.000143125, |
| "loss": 1.1358, |
| "step": 5460 |
| }, |
| { |
| "epoch": 1.14, |
| "learning_rate": 0.00014302083333333332, |
| "loss": 1.1561, |
| "step": 5470 |
| }, |
| { |
| "epoch": 1.14, |
| "learning_rate": 0.00014291666666666668, |
| "loss": 1.1084, |
| "step": 5480 |
| }, |
| { |
| "epoch": 1.14, |
| "learning_rate": 0.0001428125, |
| "loss": 1.0932, |
| "step": 5490 |
| }, |
| { |
| "epoch": 1.15, |
| "learning_rate": 0.00014270833333333334, |
| "loss": 1.1151, |
| "step": 5500 |
| }, |
| { |
| "epoch": 1.15, |
| "eval_accuracy": 0.815, |
| "eval_loss": 1.077078104019165, |
| "eval_runtime": 60.2326, |
| "eval_samples_per_second": 99.614, |
| "eval_steps_per_second": 12.452, |
| "step": 5500 |
| }, |
| { |
| "epoch": 1.15, |
| "learning_rate": 0.00014260416666666667, |
| "loss": 1.1859, |
| "step": 5510 |
| }, |
| { |
| "epoch": 1.15, |
| "learning_rate": 0.00014250000000000002, |
| "loss": 1.186, |
| "step": 5520 |
| }, |
| { |
| "epoch": 1.15, |
| "learning_rate": 0.00014239583333333335, |
| "loss": 1.0691, |
| "step": 5530 |
| }, |
| { |
| "epoch": 1.15, |
| "learning_rate": 0.00014229166666666668, |
| "loss": 1.0114, |
| "step": 5540 |
| }, |
| { |
| "epoch": 1.16, |
| "learning_rate": 0.0001421875, |
| "loss": 1.0687, |
| "step": 5550 |
| }, |
| { |
| "epoch": 1.16, |
| "learning_rate": 0.00014208333333333334, |
| "loss": 1.0402, |
| "step": 5560 |
| }, |
| { |
| "epoch": 1.16, |
| "learning_rate": 0.00014197916666666666, |
| "loss": 1.0181, |
| "step": 5570 |
| }, |
| { |
| "epoch": 1.16, |
| "learning_rate": 0.000141875, |
| "loss": 1.0831, |
| "step": 5580 |
| }, |
| { |
| "epoch": 1.16, |
| "learning_rate": 0.00014177083333333335, |
| "loss": 1.0845, |
| "step": 5590 |
| }, |
| { |
| "epoch": 1.17, |
| "learning_rate": 0.00014166666666666668, |
| "loss": 1.1377, |
| "step": 5600 |
| }, |
| { |
| "epoch": 1.17, |
| "eval_accuracy": 0.8145, |
| "eval_loss": 1.0710835456848145, |
| "eval_runtime": 61.0469, |
| "eval_samples_per_second": 98.285, |
| "eval_steps_per_second": 12.286, |
| "step": 5600 |
| }, |
| { |
| "epoch": 1.17, |
| "learning_rate": 0.0001415625, |
| "loss": 1.0783, |
| "step": 5610 |
| }, |
| { |
| "epoch": 1.17, |
| "learning_rate": 0.00014145833333333333, |
| "loss": 1.092, |
| "step": 5620 |
| }, |
| { |
| "epoch": 1.17, |
| "learning_rate": 0.0001413541666666667, |
| "loss": 1.1503, |
| "step": 5630 |
| }, |
| { |
| "epoch": 1.18, |
| "learning_rate": 0.00014125000000000002, |
| "loss": 1.1164, |
| "step": 5640 |
| }, |
| { |
| "epoch": 1.18, |
| "learning_rate": 0.00014114583333333332, |
| "loss": 0.9975, |
| "step": 5650 |
| }, |
| { |
| "epoch": 1.18, |
| "learning_rate": 0.00014104166666666668, |
| "loss": 1.017, |
| "step": 5660 |
| }, |
| { |
| "epoch": 1.18, |
| "learning_rate": 0.0001409375, |
| "loss": 1.1263, |
| "step": 5670 |
| }, |
| { |
| "epoch": 1.18, |
| "learning_rate": 0.00014083333333333336, |
| "loss": 1.023, |
| "step": 5680 |
| }, |
| { |
| "epoch": 1.19, |
| "learning_rate": 0.00014072916666666666, |
| "loss": 0.9961, |
| "step": 5690 |
| }, |
| { |
| "epoch": 1.19, |
| "learning_rate": 0.00014062500000000002, |
| "loss": 1.0353, |
| "step": 5700 |
| }, |
| { |
| "epoch": 1.19, |
| "eval_accuracy": 0.8158333333333333, |
| "eval_loss": 1.0651854276657104, |
| "eval_runtime": 60.5973, |
| "eval_samples_per_second": 99.014, |
| "eval_steps_per_second": 12.377, |
| "step": 5700 |
| }, |
| { |
| "epoch": 1.19, |
| "learning_rate": 0.00014052083333333335, |
| "loss": 0.9853, |
| "step": 5710 |
| }, |
| { |
| "epoch": 1.19, |
| "learning_rate": 0.00014041666666666667, |
| "loss": 0.9305, |
| "step": 5720 |
| }, |
| { |
| "epoch": 1.19, |
| "learning_rate": 0.0001403125, |
| "loss": 1.125, |
| "step": 5730 |
| }, |
| { |
| "epoch": 1.2, |
| "learning_rate": 0.00014020833333333333, |
| "loss": 1.0904, |
| "step": 5740 |
| }, |
| { |
| "epoch": 1.2, |
| "learning_rate": 0.00014010416666666669, |
| "loss": 1.1147, |
| "step": 5750 |
| }, |
| { |
| "epoch": 1.2, |
| "learning_rate": 0.00014, |
| "loss": 1.0227, |
| "step": 5760 |
| }, |
| { |
| "epoch": 1.2, |
| "learning_rate": 0.00013989583333333334, |
| "loss": 1.0952, |
| "step": 5770 |
| }, |
| { |
| "epoch": 1.2, |
| "learning_rate": 0.00013979166666666667, |
| "loss": 1.0593, |
| "step": 5780 |
| }, |
| { |
| "epoch": 1.21, |
| "learning_rate": 0.00013968750000000003, |
| "loss": 1.062, |
| "step": 5790 |
| }, |
| { |
| "epoch": 1.21, |
| "learning_rate": 0.00013958333333333333, |
| "loss": 1.068, |
| "step": 5800 |
| }, |
| { |
| "epoch": 1.21, |
| "eval_accuracy": 0.815, |
| "eval_loss": 1.059420108795166, |
| "eval_runtime": 60.638, |
| "eval_samples_per_second": 98.948, |
| "eval_steps_per_second": 12.368, |
| "step": 5800 |
| }, |
| { |
| "epoch": 1.21, |
| "learning_rate": 0.00013947916666666668, |
| "loss": 0.9805, |
| "step": 5810 |
| }, |
| { |
| "epoch": 1.21, |
| "learning_rate": 0.000139375, |
| "loss": 1.1046, |
| "step": 5820 |
| }, |
| { |
| "epoch": 1.21, |
| "learning_rate": 0.00013927083333333334, |
| "loss": 1.1928, |
| "step": 5830 |
| }, |
| { |
| "epoch": 1.22, |
| "learning_rate": 0.00013916666666666667, |
| "loss": 1.0337, |
| "step": 5840 |
| }, |
| { |
| "epoch": 1.22, |
| "learning_rate": 0.0001390625, |
| "loss": 1.0635, |
| "step": 5850 |
| }, |
| { |
| "epoch": 1.22, |
| "learning_rate": 0.00013895833333333335, |
| "loss": 1.0255, |
| "step": 5860 |
| }, |
| { |
| "epoch": 1.22, |
| "learning_rate": 0.00013885416666666666, |
| "loss": 1.1606, |
| "step": 5870 |
| }, |
| { |
| "epoch": 1.23, |
| "learning_rate": 0.00013875, |
| "loss": 1.1158, |
| "step": 5880 |
| }, |
| { |
| "epoch": 1.23, |
| "learning_rate": 0.00013864583333333334, |
| "loss": 0.9869, |
| "step": 5890 |
| }, |
| { |
| "epoch": 1.23, |
| "learning_rate": 0.00013854166666666667, |
| "loss": 1.0834, |
| "step": 5900 |
| }, |
| { |
| "epoch": 1.23, |
| "eval_accuracy": 0.8161666666666667, |
| "eval_loss": 1.0537856817245483, |
| "eval_runtime": 60.4567, |
| "eval_samples_per_second": 99.245, |
| "eval_steps_per_second": 12.406, |
| "step": 5900 |
| }, |
| { |
| "epoch": 1.23, |
| "learning_rate": 0.0001384375, |
| "loss": 1.0467, |
| "step": 5910 |
| }, |
| { |
| "epoch": 1.23, |
| "learning_rate": 0.00013833333333333333, |
| "loss": 1.0388, |
| "step": 5920 |
| }, |
| { |
| "epoch": 1.24, |
| "learning_rate": 0.00013822916666666668, |
| "loss": 1.1408, |
| "step": 5930 |
| }, |
| { |
| "epoch": 1.24, |
| "learning_rate": 0.000138125, |
| "loss": 1.1401, |
| "step": 5940 |
| }, |
| { |
| "epoch": 1.24, |
| "learning_rate": 0.00013802083333333334, |
| "loss": 1.0583, |
| "step": 5950 |
| }, |
| { |
| "epoch": 1.24, |
| "learning_rate": 0.00013791666666666667, |
| "loss": 1.1039, |
| "step": 5960 |
| }, |
| { |
| "epoch": 1.24, |
| "learning_rate": 0.00013781250000000002, |
| "loss": 1.143, |
| "step": 5970 |
| }, |
| { |
| "epoch": 1.25, |
| "learning_rate": 0.00013770833333333335, |
| "loss": 1.0061, |
| "step": 5980 |
| }, |
| { |
| "epoch": 1.25, |
| "learning_rate": 0.00013760416666666668, |
| "loss": 0.9496, |
| "step": 5990 |
| }, |
| { |
| "epoch": 1.25, |
| "learning_rate": 0.0001375, |
| "loss": 1.0002, |
| "step": 6000 |
| }, |
| { |
| "epoch": 1.25, |
| "eval_accuracy": 0.8165, |
| "eval_loss": 1.0482627153396606, |
| "eval_runtime": 59.9771, |
| "eval_samples_per_second": 100.038, |
| "eval_steps_per_second": 12.505, |
| "step": 6000 |
| }, |
| { |
| "epoch": 1.25, |
| "learning_rate": 0.00013739583333333334, |
| "loss": 0.9696, |
| "step": 6010 |
| }, |
| { |
| "epoch": 1.25, |
| "learning_rate": 0.00013729166666666667, |
| "loss": 1.0921, |
| "step": 6020 |
| }, |
| { |
| "epoch": 1.26, |
| "learning_rate": 0.0001371875, |
| "loss": 1.0734, |
| "step": 6030 |
| }, |
| { |
| "epoch": 1.26, |
| "learning_rate": 0.00013708333333333335, |
| "loss": 1.0224, |
| "step": 6040 |
| }, |
| { |
| "epoch": 1.26, |
| "learning_rate": 0.00013697916666666668, |
| "loss": 0.9932, |
| "step": 6050 |
| }, |
| { |
| "epoch": 1.26, |
| "learning_rate": 0.000136875, |
| "loss": 1.0661, |
| "step": 6060 |
| }, |
| { |
| "epoch": 1.26, |
| "learning_rate": 0.00013677083333333334, |
| "loss": 1.0396, |
| "step": 6070 |
| }, |
| { |
| "epoch": 1.27, |
| "learning_rate": 0.00013666666666666666, |
| "loss": 1.0388, |
| "step": 6080 |
| }, |
| { |
| "epoch": 1.27, |
| "learning_rate": 0.00013656250000000002, |
| "loss": 1.0194, |
| "step": 6090 |
| }, |
| { |
| "epoch": 1.27, |
| "learning_rate": 0.00013645833333333332, |
| "loss": 1.0024, |
| "step": 6100 |
| }, |
| { |
| "epoch": 1.27, |
| "eval_accuracy": 0.817, |
| "eval_loss": 1.0427976846694946, |
| "eval_runtime": 60.0681, |
| "eval_samples_per_second": 99.887, |
| "eval_steps_per_second": 12.486, |
| "step": 6100 |
| }, |
| { |
| "epoch": 1.27, |
| "learning_rate": 0.00013635416666666668, |
| "loss": 1.0402, |
| "step": 6110 |
| }, |
| { |
| "epoch": 1.27, |
| "learning_rate": 0.00013625, |
| "loss": 1.1157, |
| "step": 6120 |
| }, |
| { |
| "epoch": 1.28, |
| "learning_rate": 0.00013614583333333336, |
| "loss": 0.9612, |
| "step": 6130 |
| }, |
| { |
| "epoch": 1.28, |
| "learning_rate": 0.00013604166666666666, |
| "loss": 0.9551, |
| "step": 6140 |
| }, |
| { |
| "epoch": 1.28, |
| "learning_rate": 0.00013593750000000002, |
| "loss": 0.9694, |
| "step": 6150 |
| }, |
| { |
| "epoch": 1.28, |
| "learning_rate": 0.00013583333333333335, |
| "loss": 1.0188, |
| "step": 6160 |
| }, |
| { |
| "epoch": 1.29, |
| "learning_rate": 0.00013572916666666667, |
| "loss": 1.0513, |
| "step": 6170 |
| }, |
| { |
| "epoch": 1.29, |
| "learning_rate": 0.000135625, |
| "loss": 1.0613, |
| "step": 6180 |
| }, |
| { |
| "epoch": 1.29, |
| "learning_rate": 0.00013552083333333333, |
| "loss": 1.0362, |
| "step": 6190 |
| }, |
| { |
| "epoch": 1.29, |
| "learning_rate": 0.0001354166666666667, |
| "loss": 1.0609, |
| "step": 6200 |
| }, |
| { |
| "epoch": 1.29, |
| "eval_accuracy": 0.817, |
| "eval_loss": 1.0375816822052002, |
| "eval_runtime": 60.2711, |
| "eval_samples_per_second": 99.55, |
| "eval_steps_per_second": 12.444, |
| "step": 6200 |
| }, |
| { |
| "epoch": 1.29, |
| "learning_rate": 0.0001353125, |
| "loss": 1.0143, |
| "step": 6210 |
| }, |
| { |
| "epoch": 1.3, |
| "learning_rate": 0.00013520833333333334, |
| "loss": 0.9418, |
| "step": 6220 |
| }, |
| { |
| "epoch": 1.3, |
| "learning_rate": 0.00013510416666666667, |
| "loss": 0.9983, |
| "step": 6230 |
| }, |
| { |
| "epoch": 1.3, |
| "learning_rate": 0.00013500000000000003, |
| "loss": 1.0909, |
| "step": 6240 |
| }, |
| { |
| "epoch": 1.3, |
| "learning_rate": 0.00013489583333333333, |
| "loss": 1.0695, |
| "step": 6250 |
| }, |
| { |
| "epoch": 1.3, |
| "learning_rate": 0.00013479166666666666, |
| "loss": 1.1074, |
| "step": 6260 |
| }, |
| { |
| "epoch": 1.31, |
| "learning_rate": 0.00013468750000000001, |
| "loss": 1.0113, |
| "step": 6270 |
| }, |
| { |
| "epoch": 1.31, |
| "learning_rate": 0.00013458333333333334, |
| "loss": 1.0046, |
| "step": 6280 |
| }, |
| { |
| "epoch": 1.31, |
| "learning_rate": 0.00013447916666666667, |
| "loss": 0.9617, |
| "step": 6290 |
| }, |
| { |
| "epoch": 1.31, |
| "learning_rate": 0.000134375, |
| "loss": 1.0901, |
| "step": 6300 |
| }, |
| { |
| "epoch": 1.31, |
| "eval_accuracy": 0.816, |
| "eval_loss": 1.0324124097824097, |
| "eval_runtime": 60.2378, |
| "eval_samples_per_second": 99.605, |
| "eval_steps_per_second": 12.451, |
| "step": 6300 |
| }, |
| { |
| "epoch": 1.31, |
| "learning_rate": 0.00013427083333333336, |
| "loss": 1.0489, |
| "step": 6310 |
| }, |
| { |
| "epoch": 1.32, |
| "learning_rate": 0.00013416666666666666, |
| "loss": 1.171, |
| "step": 6320 |
| }, |
| { |
| "epoch": 1.32, |
| "learning_rate": 0.0001340625, |
| "loss": 1.1169, |
| "step": 6330 |
| }, |
| { |
| "epoch": 1.32, |
| "learning_rate": 0.00013395833333333334, |
| "loss": 1.0604, |
| "step": 6340 |
| }, |
| { |
| "epoch": 1.32, |
| "learning_rate": 0.00013385416666666667, |
| "loss": 0.9772, |
| "step": 6350 |
| }, |
| { |
| "epoch": 1.32, |
| "learning_rate": 0.00013375, |
| "loss": 1.1195, |
| "step": 6360 |
| }, |
| { |
| "epoch": 1.33, |
| "learning_rate": 0.00013364583333333333, |
| "loss": 1.0211, |
| "step": 6370 |
| }, |
| { |
| "epoch": 1.33, |
| "learning_rate": 0.00013354166666666668, |
| "loss": 0.9428, |
| "step": 6380 |
| }, |
| { |
| "epoch": 1.33, |
| "learning_rate": 0.0001334375, |
| "loss": 1.0457, |
| "step": 6390 |
| }, |
| { |
| "epoch": 1.33, |
| "learning_rate": 0.00013333333333333334, |
| "loss": 1.0772, |
| "step": 6400 |
| }, |
| { |
| "epoch": 1.33, |
| "eval_accuracy": 0.8173333333333334, |
| "eval_loss": 1.0275102853775024, |
| "eval_runtime": 59.7247, |
| "eval_samples_per_second": 100.461, |
| "eval_steps_per_second": 12.558, |
| "step": 6400 |
| }, |
| { |
| "epoch": 1.34, |
| "learning_rate": 0.00013322916666666667, |
| "loss": 0.8728, |
| "step": 6410 |
| }, |
| { |
| "epoch": 1.34, |
| "learning_rate": 0.00013312500000000002, |
| "loss": 1.0539, |
| "step": 6420 |
| }, |
| { |
| "epoch": 1.34, |
| "learning_rate": 0.00013302083333333335, |
| "loss": 0.8385, |
| "step": 6430 |
| }, |
| { |
| "epoch": 1.34, |
| "learning_rate": 0.00013291666666666665, |
| "loss": 1.1201, |
| "step": 6440 |
| }, |
| { |
| "epoch": 1.34, |
| "learning_rate": 0.0001328125, |
| "loss": 1.003, |
| "step": 6450 |
| }, |
| { |
| "epoch": 1.35, |
| "learning_rate": 0.00013270833333333334, |
| "loss": 1.0263, |
| "step": 6460 |
| }, |
| { |
| "epoch": 1.35, |
| "learning_rate": 0.00013260416666666667, |
| "loss": 0.9852, |
| "step": 6470 |
| }, |
| { |
| "epoch": 1.35, |
| "learning_rate": 0.0001325, |
| "loss": 1.0387, |
| "step": 6480 |
| }, |
| { |
| "epoch": 1.35, |
| "learning_rate": 0.00013239583333333335, |
| "loss": 1.0205, |
| "step": 6490 |
| }, |
| { |
| "epoch": 1.35, |
| "learning_rate": 0.00013229166666666668, |
| "loss": 0.9434, |
| "step": 6500 |
| }, |
| { |
| "epoch": 1.35, |
| "eval_accuracy": 0.817, |
| "eval_loss": 1.0225718021392822, |
| "eval_runtime": 59.908, |
| "eval_samples_per_second": 100.154, |
| "eval_steps_per_second": 12.519, |
| "step": 6500 |
| }, |
| { |
| "epoch": 1.36, |
| "learning_rate": 0.0001321875, |
| "loss": 1.0237, |
| "step": 6510 |
| }, |
| { |
| "epoch": 1.36, |
| "learning_rate": 0.00013208333333333334, |
| "loss": 1.0781, |
| "step": 6520 |
| }, |
| { |
| "epoch": 1.36, |
| "learning_rate": 0.00013197916666666666, |
| "loss": 0.9755, |
| "step": 6530 |
| }, |
| { |
| "epoch": 1.36, |
| "learning_rate": 0.00013187500000000002, |
| "loss": 1.0541, |
| "step": 6540 |
| }, |
| { |
| "epoch": 1.36, |
| "learning_rate": 0.00013177083333333332, |
| "loss": 1.0043, |
| "step": 6550 |
| }, |
| { |
| "epoch": 1.37, |
| "learning_rate": 0.00013166666666666668, |
| "loss": 0.9869, |
| "step": 6560 |
| }, |
| { |
| "epoch": 1.37, |
| "learning_rate": 0.0001315625, |
| "loss": 1.0009, |
| "step": 6570 |
| }, |
| { |
| "epoch": 1.37, |
| "learning_rate": 0.00013145833333333336, |
| "loss": 1.0527, |
| "step": 6580 |
| }, |
| { |
| "epoch": 1.37, |
| "learning_rate": 0.00013135416666666666, |
| "loss": 0.9895, |
| "step": 6590 |
| }, |
| { |
| "epoch": 1.38, |
| "learning_rate": 0.00013125000000000002, |
| "loss": 0.9692, |
| "step": 6600 |
| }, |
| { |
| "epoch": 1.38, |
| "eval_accuracy": 0.8156666666666667, |
| "eval_loss": 1.0178108215332031, |
| "eval_runtime": 59.5847, |
| "eval_samples_per_second": 100.697, |
| "eval_steps_per_second": 12.587, |
| "step": 6600 |
| }, |
| { |
| "epoch": 1.38, |
| "learning_rate": 0.00013114583333333335, |
| "loss": 1.0543, |
| "step": 6610 |
| }, |
| { |
| "epoch": 1.38, |
| "learning_rate": 0.00013104166666666668, |
| "loss": 0.9972, |
| "step": 6620 |
| }, |
| { |
| "epoch": 1.38, |
| "learning_rate": 0.0001309375, |
| "loss": 1.0252, |
| "step": 6630 |
| }, |
| { |
| "epoch": 1.38, |
| "learning_rate": 0.00013083333333333333, |
| "loss": 0.964, |
| "step": 6640 |
| }, |
| { |
| "epoch": 1.39, |
| "learning_rate": 0.0001307291666666667, |
| "loss": 1.0462, |
| "step": 6650 |
| }, |
| { |
| "epoch": 1.39, |
| "learning_rate": 0.000130625, |
| "loss": 1.1092, |
| "step": 6660 |
| }, |
| { |
| "epoch": 1.39, |
| "learning_rate": 0.00013052083333333335, |
| "loss": 1.0094, |
| "step": 6670 |
| }, |
| { |
| "epoch": 1.39, |
| "learning_rate": 0.00013041666666666667, |
| "loss": 1.0332, |
| "step": 6680 |
| }, |
| { |
| "epoch": 1.39, |
| "learning_rate": 0.0001303125, |
| "loss": 1.1112, |
| "step": 6690 |
| }, |
| { |
| "epoch": 1.4, |
| "learning_rate": 0.00013020833333333333, |
| "loss": 1.0461, |
| "step": 6700 |
| }, |
| { |
| "epoch": 1.4, |
| "eval_accuracy": 0.8155, |
| "eval_loss": 1.0131304264068604, |
| "eval_runtime": 59.6345, |
| "eval_samples_per_second": 100.613, |
| "eval_steps_per_second": 12.577, |
| "step": 6700 |
| }, |
| { |
| "epoch": 1.4, |
| "learning_rate": 0.00013010416666666666, |
| "loss": 1.1189, |
| "step": 6710 |
| }, |
| { |
| "epoch": 1.4, |
| "learning_rate": 0.00013000000000000002, |
| "loss": 0.9788, |
| "step": 6720 |
| }, |
| { |
| "epoch": 1.4, |
| "learning_rate": 0.00012989583333333334, |
| "loss": 0.9568, |
| "step": 6730 |
| }, |
| { |
| "epoch": 1.4, |
| "learning_rate": 0.00012979166666666667, |
| "loss": 0.9969, |
| "step": 6740 |
| }, |
| { |
| "epoch": 1.41, |
| "learning_rate": 0.0001296875, |
| "loss": 1.0807, |
| "step": 6750 |
| }, |
| { |
| "epoch": 1.41, |
| "learning_rate": 0.00012958333333333336, |
| "loss": 0.9391, |
| "step": 6760 |
| }, |
| { |
| "epoch": 1.41, |
| "learning_rate": 0.00012947916666666666, |
| "loss": 1.0292, |
| "step": 6770 |
| }, |
| { |
| "epoch": 1.41, |
| "learning_rate": 0.00012937500000000001, |
| "loss": 1.0981, |
| "step": 6780 |
| }, |
| { |
| "epoch": 1.41, |
| "learning_rate": 0.00012927083333333334, |
| "loss": 1.063, |
| "step": 6790 |
| }, |
| { |
| "epoch": 1.42, |
| "learning_rate": 0.00012916666666666667, |
| "loss": 1.0583, |
| "step": 6800 |
| }, |
| { |
| "epoch": 1.42, |
| "eval_accuracy": 0.8143333333333334, |
| "eval_loss": 1.0085917711257935, |
| "eval_runtime": 59.7678, |
| "eval_samples_per_second": 100.388, |
| "eval_steps_per_second": 12.549, |
| "step": 6800 |
| }, |
| { |
| "epoch": 1.42, |
| "learning_rate": 0.0001290625, |
| "loss": 1.0346, |
| "step": 6810 |
| }, |
| { |
| "epoch": 1.42, |
| "learning_rate": 0.00012895833333333333, |
| "loss": 0.9525, |
| "step": 6820 |
| }, |
| { |
| "epoch": 1.42, |
| "learning_rate": 0.00012885416666666668, |
| "loss": 1.0391, |
| "step": 6830 |
| }, |
| { |
| "epoch": 1.43, |
| "learning_rate": 0.00012875, |
| "loss": 0.914, |
| "step": 6840 |
| }, |
| { |
| "epoch": 1.43, |
| "learning_rate": 0.00012864583333333334, |
| "loss": 1.0198, |
| "step": 6850 |
| }, |
| { |
| "epoch": 1.43, |
| "learning_rate": 0.00012854166666666667, |
| "loss": 1.0732, |
| "step": 6860 |
| }, |
| { |
| "epoch": 1.43, |
| "learning_rate": 0.0001284375, |
| "loss": 1.1257, |
| "step": 6870 |
| }, |
| { |
| "epoch": 1.43, |
| "learning_rate": 0.00012833333333333335, |
| "loss": 1.0191, |
| "step": 6880 |
| }, |
| { |
| "epoch": 1.44, |
| "learning_rate": 0.00012822916666666666, |
| "loss": 0.9674, |
| "step": 6890 |
| }, |
| { |
| "epoch": 1.44, |
| "learning_rate": 0.000128125, |
| "loss": 0.9369, |
| "step": 6900 |
| }, |
| { |
| "epoch": 1.44, |
| "eval_accuracy": 0.8156666666666667, |
| "eval_loss": 1.0041823387145996, |
| "eval_runtime": 59.87, |
| "eval_samples_per_second": 100.217, |
| "eval_steps_per_second": 12.527, |
| "step": 6900 |
| }, |
| { |
| "epoch": 1.44, |
| "learning_rate": 0.00012802083333333334, |
| "loss": 0.989, |
| "step": 6910 |
| }, |
| { |
| "epoch": 1.44, |
| "learning_rate": 0.00012791666666666667, |
| "loss": 0.9341, |
| "step": 6920 |
| }, |
| { |
| "epoch": 1.44, |
| "learning_rate": 0.0001278125, |
| "loss": 1.0326, |
| "step": 6930 |
| }, |
| { |
| "epoch": 1.45, |
| "learning_rate": 0.00012770833333333335, |
| "loss": 1.0256, |
| "step": 6940 |
| }, |
| { |
| "epoch": 1.45, |
| "learning_rate": 0.00012760416666666668, |
| "loss": 1.0102, |
| "step": 6950 |
| }, |
| { |
| "epoch": 1.45, |
| "learning_rate": 0.0001275, |
| "loss": 0.8938, |
| "step": 6960 |
| }, |
| { |
| "epoch": 1.45, |
| "learning_rate": 0.00012739583333333334, |
| "loss": 1.0258, |
| "step": 6970 |
| }, |
| { |
| "epoch": 1.45, |
| "learning_rate": 0.00012729166666666667, |
| "loss": 0.9779, |
| "step": 6980 |
| }, |
| { |
| "epoch": 1.46, |
| "learning_rate": 0.00012718750000000002, |
| "loss": 1.0047, |
| "step": 6990 |
| }, |
| { |
| "epoch": 1.46, |
| "learning_rate": 0.00012708333333333332, |
| "loss": 1.0685, |
| "step": 7000 |
| }, |
| { |
| "epoch": 1.46, |
| "eval_accuracy": 0.8151666666666667, |
| "eval_loss": 0.9998148083686829, |
| "eval_runtime": 59.7758, |
| "eval_samples_per_second": 100.375, |
| "eval_steps_per_second": 12.547, |
| "step": 7000 |
| }, |
| { |
| "epoch": 1.46, |
| "learning_rate": 0.00012697916666666668, |
| "loss": 0.9437, |
| "step": 7010 |
| }, |
| { |
| "epoch": 1.46, |
| "learning_rate": 0.000126875, |
| "loss": 1.0423, |
| "step": 7020 |
| }, |
| { |
| "epoch": 1.46, |
| "learning_rate": 0.00012677083333333336, |
| "loss": 1.0588, |
| "step": 7030 |
| }, |
| { |
| "epoch": 1.47, |
| "learning_rate": 0.00012666666666666666, |
| "loss": 1.076, |
| "step": 7040 |
| }, |
| { |
| "epoch": 1.47, |
| "learning_rate": 0.0001265625, |
| "loss": 0.9718, |
| "step": 7050 |
| }, |
| { |
| "epoch": 1.47, |
| "learning_rate": 0.00012645833333333335, |
| "loss": 0.9775, |
| "step": 7060 |
| }, |
| { |
| "epoch": 1.47, |
| "learning_rate": 0.00012635416666666665, |
| "loss": 0.9461, |
| "step": 7070 |
| }, |
| { |
| "epoch": 1.48, |
| "learning_rate": 0.00012625, |
| "loss": 0.9732, |
| "step": 7080 |
| }, |
| { |
| "epoch": 1.48, |
| "learning_rate": 0.00012614583333333333, |
| "loss": 1.0246, |
| "step": 7090 |
| }, |
| { |
| "epoch": 1.48, |
| "learning_rate": 0.0001260416666666667, |
| "loss": 1.062, |
| "step": 7100 |
| }, |
| { |
| "epoch": 1.48, |
| "eval_accuracy": 0.8153333333333334, |
| "eval_loss": 0.9954829216003418, |
| "eval_runtime": 59.6319, |
| "eval_samples_per_second": 100.617, |
| "eval_steps_per_second": 12.577, |
| "step": 7100 |
| }, |
| { |
| "epoch": 1.48, |
| "learning_rate": 0.0001259375, |
| "loss": 1.0322, |
| "step": 7110 |
| }, |
| { |
| "epoch": 1.48, |
| "learning_rate": 0.00012583333333333335, |
| "loss": 0.9819, |
| "step": 7120 |
| }, |
| { |
| "epoch": 1.49, |
| "learning_rate": 0.00012572916666666668, |
| "loss": 0.971, |
| "step": 7130 |
| }, |
| { |
| "epoch": 1.49, |
| "learning_rate": 0.000125625, |
| "loss": 1.0039, |
| "step": 7140 |
| }, |
| { |
| "epoch": 1.49, |
| "learning_rate": 0.00012552083333333333, |
| "loss": 0.9903, |
| "step": 7150 |
| }, |
| { |
| "epoch": 1.49, |
| "learning_rate": 0.00012541666666666666, |
| "loss": 1.0589, |
| "step": 7160 |
| }, |
| { |
| "epoch": 1.49, |
| "learning_rate": 0.00012531250000000002, |
| "loss": 0.9637, |
| "step": 7170 |
| }, |
| { |
| "epoch": 1.5, |
| "learning_rate": 0.00012520833333333335, |
| "loss": 0.9911, |
| "step": 7180 |
| }, |
| { |
| "epoch": 1.5, |
| "learning_rate": 0.00012510416666666667, |
| "loss": 0.9029, |
| "step": 7190 |
| }, |
| { |
| "epoch": 1.5, |
| "learning_rate": 0.000125, |
| "loss": 1.0394, |
| "step": 7200 |
| }, |
| { |
| "epoch": 1.5, |
| "eval_accuracy": 0.8141666666666667, |
| "eval_loss": 0.9912140369415283, |
| "eval_runtime": 60.2996, |
| "eval_samples_per_second": 99.503, |
| "eval_steps_per_second": 12.438, |
| "step": 7200 |
| }, |
| { |
| "epoch": 1.5, |
| "learning_rate": 0.00012489583333333336, |
| "loss": 1.0609, |
| "step": 7210 |
| }, |
| { |
| "epoch": 1.5, |
| "learning_rate": 0.00012479166666666666, |
| "loss": 1.0693, |
| "step": 7220 |
| }, |
| { |
| "epoch": 1.51, |
| "learning_rate": 0.0001246875, |
| "loss": 1.0705, |
| "step": 7230 |
| }, |
| { |
| "epoch": 1.51, |
| "learning_rate": 0.00012458333333333334, |
| "loss": 1.0811, |
| "step": 7240 |
| }, |
| { |
| "epoch": 1.51, |
| "learning_rate": 0.00012447916666666667, |
| "loss": 0.9924, |
| "step": 7250 |
| }, |
| { |
| "epoch": 1.51, |
| "learning_rate": 0.000124375, |
| "loss": 0.9777, |
| "step": 7260 |
| }, |
| { |
| "epoch": 1.51, |
| "learning_rate": 0.00012427083333333333, |
| "loss": 0.997, |
| "step": 7270 |
| }, |
| { |
| "epoch": 1.52, |
| "learning_rate": 0.00012416666666666669, |
| "loss": 1.1401, |
| "step": 7280 |
| }, |
| { |
| "epoch": 1.52, |
| "learning_rate": 0.00012406250000000001, |
| "loss": 0.9785, |
| "step": 7290 |
| }, |
| { |
| "epoch": 1.52, |
| "learning_rate": 0.00012395833333333334, |
| "loss": 1.031, |
| "step": 7300 |
| }, |
| { |
| "epoch": 1.52, |
| "eval_accuracy": 0.8156666666666667, |
| "eval_loss": 0.9870244264602661, |
| "eval_runtime": 60.2162, |
| "eval_samples_per_second": 99.641, |
| "eval_steps_per_second": 12.455, |
| "step": 7300 |
| }, |
| { |
| "epoch": 1.52, |
| "learning_rate": 0.00012385416666666667, |
| "loss": 0.8874, |
| "step": 7310 |
| }, |
| { |
| "epoch": 1.52, |
| "learning_rate": 0.00012375, |
| "loss": 1.056, |
| "step": 7320 |
| }, |
| { |
| "epoch": 1.53, |
| "learning_rate": 0.00012364583333333335, |
| "loss": 0.8832, |
| "step": 7330 |
| }, |
| { |
| "epoch": 1.53, |
| "learning_rate": 0.00012354166666666666, |
| "loss": 1.0124, |
| "step": 7340 |
| }, |
| { |
| "epoch": 1.53, |
| "learning_rate": 0.0001234375, |
| "loss": 1.0278, |
| "step": 7350 |
| }, |
| { |
| "epoch": 1.53, |
| "learning_rate": 0.00012333333333333334, |
| "loss": 0.9802, |
| "step": 7360 |
| }, |
| { |
| "epoch": 1.54, |
| "learning_rate": 0.00012322916666666667, |
| "loss": 0.9763, |
| "step": 7370 |
| }, |
| { |
| "epoch": 1.54, |
| "learning_rate": 0.000123125, |
| "loss": 0.9772, |
| "step": 7380 |
| }, |
| { |
| "epoch": 1.54, |
| "learning_rate": 0.00012302083333333335, |
| "loss": 0.978, |
| "step": 7390 |
| }, |
| { |
| "epoch": 1.54, |
| "learning_rate": 0.00012291666666666668, |
| "loss": 0.9556, |
| "step": 7400 |
| }, |
| { |
| "epoch": 1.54, |
| "eval_accuracy": 0.8155, |
| "eval_loss": 0.9829460382461548, |
| "eval_runtime": 59.9836, |
| "eval_samples_per_second": 100.027, |
| "eval_steps_per_second": 12.503, |
| "step": 7400 |
| }, |
| { |
| "epoch": 1.54, |
| "learning_rate": 0.0001228125, |
| "loss": 0.9288, |
| "step": 7410 |
| }, |
| { |
| "epoch": 1.55, |
| "learning_rate": 0.00012270833333333334, |
| "loss": 0.9377, |
| "step": 7420 |
| }, |
| { |
| "epoch": 1.55, |
| "learning_rate": 0.00012260416666666667, |
| "loss": 0.9641, |
| "step": 7430 |
| }, |
| { |
| "epoch": 1.55, |
| "learning_rate": 0.00012250000000000002, |
| "loss": 1.0137, |
| "step": 7440 |
| }, |
| { |
| "epoch": 1.55, |
| "learning_rate": 0.00012239583333333332, |
| "loss": 1.017, |
| "step": 7450 |
| }, |
| { |
| "epoch": 1.55, |
| "learning_rate": 0.00012229166666666668, |
| "loss": 0.9695, |
| "step": 7460 |
| }, |
| { |
| "epoch": 1.56, |
| "learning_rate": 0.0001221875, |
| "loss": 0.9117, |
| "step": 7470 |
| }, |
| { |
| "epoch": 1.56, |
| "learning_rate": 0.00012208333333333334, |
| "loss": 0.9367, |
| "step": 7480 |
| }, |
| { |
| "epoch": 1.56, |
| "learning_rate": 0.00012197916666666667, |
| "loss": 0.923, |
| "step": 7490 |
| }, |
| { |
| "epoch": 1.56, |
| "learning_rate": 0.00012187500000000001, |
| "loss": 0.9846, |
| "step": 7500 |
| }, |
| { |
| "epoch": 1.56, |
| "eval_accuracy": 0.8151666666666667, |
| "eval_loss": 0.9789379835128784, |
| "eval_runtime": 60.0359, |
| "eval_samples_per_second": 99.94, |
| "eval_steps_per_second": 12.493, |
| "step": 7500 |
| }, |
| { |
| "epoch": 1.56, |
| "learning_rate": 0.00012177083333333335, |
| "loss": 0.8893, |
| "step": 7510 |
| }, |
| { |
| "epoch": 1.57, |
| "learning_rate": 0.00012166666666666667, |
| "loss": 0.9816, |
| "step": 7520 |
| }, |
| { |
| "epoch": 1.57, |
| "learning_rate": 0.00012156250000000001, |
| "loss": 1.1046, |
| "step": 7530 |
| }, |
| { |
| "epoch": 1.57, |
| "learning_rate": 0.00012145833333333334, |
| "loss": 1.0137, |
| "step": 7540 |
| }, |
| { |
| "epoch": 1.57, |
| "learning_rate": 0.00012135416666666668, |
| "loss": 1.0399, |
| "step": 7550 |
| }, |
| { |
| "epoch": 1.57, |
| "learning_rate": 0.00012124999999999999, |
| "loss": 1.0678, |
| "step": 7560 |
| }, |
| { |
| "epoch": 1.58, |
| "learning_rate": 0.00012114583333333333, |
| "loss": 0.9635, |
| "step": 7570 |
| }, |
| { |
| "epoch": 1.58, |
| "learning_rate": 0.00012104166666666668, |
| "loss": 0.9719, |
| "step": 7580 |
| }, |
| { |
| "epoch": 1.58, |
| "learning_rate": 0.00012093750000000002, |
| "loss": 1.0548, |
| "step": 7590 |
| }, |
| { |
| "epoch": 1.58, |
| "learning_rate": 0.00012083333333333333, |
| "loss": 0.9995, |
| "step": 7600 |
| }, |
| { |
| "epoch": 1.58, |
| "eval_accuracy": 0.8158333333333333, |
| "eval_loss": 0.9750451445579529, |
| "eval_runtime": 60.0862, |
| "eval_samples_per_second": 99.857, |
| "eval_steps_per_second": 12.482, |
| "step": 7600 |
| }, |
| { |
| "epoch": 1.59, |
| "learning_rate": 0.00012072916666666668, |
| "loss": 0.9988, |
| "step": 7610 |
| }, |
| { |
| "epoch": 1.59, |
| "learning_rate": 0.000120625, |
| "loss": 0.9213, |
| "step": 7620 |
| }, |
| { |
| "epoch": 1.59, |
| "learning_rate": 0.00012052083333333335, |
| "loss": 0.9995, |
| "step": 7630 |
| }, |
| { |
| "epoch": 1.59, |
| "learning_rate": 0.00012041666666666666, |
| "loss": 0.9942, |
| "step": 7640 |
| }, |
| { |
| "epoch": 1.59, |
| "learning_rate": 0.0001203125, |
| "loss": 0.9851, |
| "step": 7650 |
| }, |
| { |
| "epoch": 1.6, |
| "learning_rate": 0.00012020833333333335, |
| "loss": 0.9267, |
| "step": 7660 |
| }, |
| { |
| "epoch": 1.6, |
| "learning_rate": 0.00012010416666666666, |
| "loss": 1.0127, |
| "step": 7670 |
| }, |
| { |
| "epoch": 1.6, |
| "learning_rate": 0.00012, |
| "loss": 0.9586, |
| "step": 7680 |
| }, |
| { |
| "epoch": 1.6, |
| "learning_rate": 0.00011989583333333335, |
| "loss": 1.0004, |
| "step": 7690 |
| }, |
| { |
| "epoch": 1.6, |
| "learning_rate": 0.00011979166666666667, |
| "loss": 1.0273, |
| "step": 7700 |
| }, |
| { |
| "epoch": 1.6, |
| "eval_accuracy": 0.8163333333333334, |
| "eval_loss": 0.9710873961448669, |
| "eval_runtime": 59.9177, |
| "eval_samples_per_second": 100.137, |
| "eval_steps_per_second": 12.517, |
| "step": 7700 |
| }, |
| { |
| "epoch": 1.61, |
| "learning_rate": 0.0001196875, |
| "loss": 1.014, |
| "step": 7710 |
| }, |
| { |
| "epoch": 1.61, |
| "learning_rate": 0.00011958333333333333, |
| "loss": 1.0144, |
| "step": 7720 |
| }, |
| { |
| "epoch": 1.61, |
| "learning_rate": 0.00011947916666666667, |
| "loss": 0.9847, |
| "step": 7730 |
| }, |
| { |
| "epoch": 1.61, |
| "learning_rate": 0.00011937500000000001, |
| "loss": 0.9252, |
| "step": 7740 |
| }, |
| { |
| "epoch": 1.61, |
| "learning_rate": 0.00011927083333333333, |
| "loss": 1.0114, |
| "step": 7750 |
| }, |
| { |
| "epoch": 1.62, |
| "learning_rate": 0.00011916666666666667, |
| "loss": 1.0507, |
| "step": 7760 |
| }, |
| { |
| "epoch": 1.62, |
| "learning_rate": 0.00011906250000000001, |
| "loss": 1.0266, |
| "step": 7770 |
| }, |
| { |
| "epoch": 1.62, |
| "learning_rate": 0.00011895833333333334, |
| "loss": 0.9569, |
| "step": 7780 |
| }, |
| { |
| "epoch": 1.62, |
| "learning_rate": 0.00011885416666666667, |
| "loss": 1.0095, |
| "step": 7790 |
| }, |
| { |
| "epoch": 1.62, |
| "learning_rate": 0.00011875, |
| "loss": 0.9383, |
| "step": 7800 |
| }, |
| { |
| "epoch": 1.62, |
| "eval_accuracy": 0.817, |
| "eval_loss": 0.9673598408699036, |
| "eval_runtime": 60.4933, |
| "eval_samples_per_second": 99.185, |
| "eval_steps_per_second": 12.398, |
| "step": 7800 |
| }, |
| { |
| "epoch": 1.63, |
| "learning_rate": 0.00011864583333333334, |
| "loss": 0.9555, |
| "step": 7810 |
| }, |
| { |
| "epoch": 1.63, |
| "learning_rate": 0.00011854166666666666, |
| "loss": 0.9398, |
| "step": 7820 |
| }, |
| { |
| "epoch": 1.63, |
| "learning_rate": 0.0001184375, |
| "loss": 0.9853, |
| "step": 7830 |
| }, |
| { |
| "epoch": 1.63, |
| "learning_rate": 0.00011833333333333334, |
| "loss": 0.9169, |
| "step": 7840 |
| }, |
| { |
| "epoch": 1.64, |
| "learning_rate": 0.00011822916666666668, |
| "loss": 0.9585, |
| "step": 7850 |
| }, |
| { |
| "epoch": 1.64, |
| "learning_rate": 0.000118125, |
| "loss": 0.9887, |
| "step": 7860 |
| }, |
| { |
| "epoch": 1.64, |
| "learning_rate": 0.00011802083333333334, |
| "loss": 0.9977, |
| "step": 7870 |
| }, |
| { |
| "epoch": 1.64, |
| "learning_rate": 0.00011791666666666667, |
| "loss": 1.0631, |
| "step": 7880 |
| }, |
| { |
| "epoch": 1.64, |
| "learning_rate": 0.00011781250000000001, |
| "loss": 1.0091, |
| "step": 7890 |
| }, |
| { |
| "epoch": 1.65, |
| "learning_rate": 0.00011770833333333333, |
| "loss": 0.951, |
| "step": 7900 |
| }, |
| { |
| "epoch": 1.65, |
| "eval_accuracy": 0.8163333333333334, |
| "eval_loss": 0.9633956551551819, |
| "eval_runtime": 60.1611, |
| "eval_samples_per_second": 99.732, |
| "eval_steps_per_second": 12.467, |
| "step": 7900 |
| }, |
| { |
| "epoch": 1.65, |
| "learning_rate": 0.00011760416666666667, |
| "loss": 0.963, |
| "step": 7910 |
| }, |
| { |
| "epoch": 1.65, |
| "learning_rate": 0.00011750000000000001, |
| "loss": 0.9877, |
| "step": 7920 |
| }, |
| { |
| "epoch": 1.65, |
| "learning_rate": 0.00011739583333333335, |
| "loss": 0.9546, |
| "step": 7930 |
| }, |
| { |
| "epoch": 1.65, |
| "learning_rate": 0.00011729166666666667, |
| "loss": 1.0401, |
| "step": 7940 |
| }, |
| { |
| "epoch": 1.66, |
| "learning_rate": 0.00011718750000000001, |
| "loss": 1.0437, |
| "step": 7950 |
| }, |
| { |
| "epoch": 1.66, |
| "learning_rate": 0.00011708333333333335, |
| "loss": 1.0313, |
| "step": 7960 |
| }, |
| { |
| "epoch": 1.66, |
| "learning_rate": 0.00011697916666666667, |
| "loss": 0.9933, |
| "step": 7970 |
| }, |
| { |
| "epoch": 1.66, |
| "learning_rate": 0.000116875, |
| "loss": 0.8613, |
| "step": 7980 |
| }, |
| { |
| "epoch": 1.66, |
| "learning_rate": 0.00011677083333333334, |
| "loss": 0.8978, |
| "step": 7990 |
| }, |
| { |
| "epoch": 1.67, |
| "learning_rate": 0.00011666666666666668, |
| "loss": 0.9457, |
| "step": 8000 |
| }, |
| { |
| "epoch": 1.67, |
| "eval_accuracy": 0.8166666666666667, |
| "eval_loss": 0.9598354697227478, |
| "eval_runtime": 59.7327, |
| "eval_samples_per_second": 100.447, |
| "eval_steps_per_second": 12.556, |
| "step": 8000 |
| }, |
| { |
| "epoch": 1.67, |
| "learning_rate": 0.0001165625, |
| "loss": 1.0678, |
| "step": 8010 |
| }, |
| { |
| "epoch": 1.67, |
| "learning_rate": 0.00011645833333333334, |
| "loss": 0.935, |
| "step": 8020 |
| }, |
| { |
| "epoch": 1.67, |
| "learning_rate": 0.00011635416666666668, |
| "loss": 0.9617, |
| "step": 8030 |
| }, |
| { |
| "epoch": 1.68, |
| "learning_rate": 0.00011625000000000002, |
| "loss": 1.0114, |
| "step": 8040 |
| }, |
| { |
| "epoch": 1.68, |
| "learning_rate": 0.00011614583333333334, |
| "loss": 1.0023, |
| "step": 8050 |
| }, |
| { |
| "epoch": 1.68, |
| "learning_rate": 0.00011604166666666668, |
| "loss": 0.9904, |
| "step": 8060 |
| }, |
| { |
| "epoch": 1.68, |
| "learning_rate": 0.0001159375, |
| "loss": 1.0362, |
| "step": 8070 |
| }, |
| { |
| "epoch": 1.68, |
| "learning_rate": 0.00011583333333333335, |
| "loss": 1.0451, |
| "step": 8080 |
| }, |
| { |
| "epoch": 1.69, |
| "learning_rate": 0.00011572916666666666, |
| "loss": 0.9381, |
| "step": 8090 |
| }, |
| { |
| "epoch": 1.69, |
| "learning_rate": 0.000115625, |
| "loss": 1.012, |
| "step": 8100 |
| }, |
| { |
| "epoch": 1.69, |
| "eval_accuracy": 0.816, |
| "eval_loss": 0.9563413858413696, |
| "eval_runtime": 59.8254, |
| "eval_samples_per_second": 100.292, |
| "eval_steps_per_second": 12.536, |
| "step": 8100 |
| }, |
| { |
| "epoch": 1.69, |
| "learning_rate": 0.00011552083333333335, |
| "loss": 1.0559, |
| "step": 8110 |
| }, |
| { |
| "epoch": 1.69, |
| "learning_rate": 0.00011541666666666666, |
| "loss": 1.0559, |
| "step": 8120 |
| }, |
| { |
| "epoch": 1.69, |
| "learning_rate": 0.0001153125, |
| "loss": 0.9631, |
| "step": 8130 |
| }, |
| { |
| "epoch": 1.7, |
| "learning_rate": 0.00011520833333333335, |
| "loss": 1.0145, |
| "step": 8140 |
| }, |
| { |
| "epoch": 1.7, |
| "learning_rate": 0.00011510416666666667, |
| "loss": 1.1109, |
| "step": 8150 |
| }, |
| { |
| "epoch": 1.7, |
| "learning_rate": 0.00011499999999999999, |
| "loss": 0.9352, |
| "step": 8160 |
| }, |
| { |
| "epoch": 1.7, |
| "learning_rate": 0.00011489583333333333, |
| "loss": 0.9821, |
| "step": 8170 |
| }, |
| { |
| "epoch": 1.7, |
| "learning_rate": 0.00011479166666666667, |
| "loss": 1.0056, |
| "step": 8180 |
| }, |
| { |
| "epoch": 1.71, |
| "learning_rate": 0.00011468750000000002, |
| "loss": 0.7862, |
| "step": 8190 |
| }, |
| { |
| "epoch": 1.71, |
| "learning_rate": 0.00011458333333333333, |
| "loss": 0.9683, |
| "step": 8200 |
| }, |
| { |
| "epoch": 1.71, |
| "eval_accuracy": 0.8158333333333333, |
| "eval_loss": 0.9528841376304626, |
| "eval_runtime": 60.0367, |
| "eval_samples_per_second": 99.939, |
| "eval_steps_per_second": 12.492, |
| "step": 8200 |
| }, |
| { |
| "epoch": 1.71, |
| "learning_rate": 0.00011447916666666667, |
| "loss": 1.0004, |
| "step": 8210 |
| }, |
| { |
| "epoch": 1.71, |
| "learning_rate": 0.00011437500000000002, |
| "loss": 0.9048, |
| "step": 8220 |
| }, |
| { |
| "epoch": 1.71, |
| "learning_rate": 0.00011427083333333334, |
| "loss": 0.8365, |
| "step": 8230 |
| }, |
| { |
| "epoch": 1.72, |
| "learning_rate": 0.00011416666666666667, |
| "loss": 0.9707, |
| "step": 8240 |
| }, |
| { |
| "epoch": 1.72, |
| "learning_rate": 0.0001140625, |
| "loss": 0.9003, |
| "step": 8250 |
| }, |
| { |
| "epoch": 1.72, |
| "learning_rate": 0.00011395833333333334, |
| "loss": 0.9226, |
| "step": 8260 |
| }, |
| { |
| "epoch": 1.72, |
| "learning_rate": 0.00011385416666666666, |
| "loss": 1.0543, |
| "step": 8270 |
| }, |
| { |
| "epoch": 1.73, |
| "learning_rate": 0.00011375, |
| "loss": 0.87, |
| "step": 8280 |
| }, |
| { |
| "epoch": 1.73, |
| "learning_rate": 0.00011364583333333334, |
| "loss": 0.8877, |
| "step": 8290 |
| }, |
| { |
| "epoch": 1.73, |
| "learning_rate": 0.00011354166666666668, |
| "loss": 0.9582, |
| "step": 8300 |
| }, |
| { |
| "epoch": 1.73, |
| "eval_accuracy": 0.8156666666666667, |
| "eval_loss": 0.9494544267654419, |
| "eval_runtime": 60.1397, |
| "eval_samples_per_second": 99.768, |
| "eval_steps_per_second": 12.471, |
| "step": 8300 |
| }, |
| { |
| "epoch": 1.73, |
| "learning_rate": 0.0001134375, |
| "loss": 0.9052, |
| "step": 8310 |
| }, |
| { |
| "epoch": 1.73, |
| "learning_rate": 0.00011333333333333334, |
| "loss": 0.9273, |
| "step": 8320 |
| }, |
| { |
| "epoch": 1.74, |
| "learning_rate": 0.00011322916666666667, |
| "loss": 1.0223, |
| "step": 8330 |
| }, |
| { |
| "epoch": 1.74, |
| "learning_rate": 0.00011312500000000001, |
| "loss": 0.9308, |
| "step": 8340 |
| }, |
| { |
| "epoch": 1.74, |
| "learning_rate": 0.00011302083333333333, |
| "loss": 0.9127, |
| "step": 8350 |
| }, |
| { |
| "epoch": 1.74, |
| "learning_rate": 0.00011291666666666667, |
| "loss": 0.8806, |
| "step": 8360 |
| }, |
| { |
| "epoch": 1.74, |
| "learning_rate": 0.00011281250000000001, |
| "loss": 0.896, |
| "step": 8370 |
| }, |
| { |
| "epoch": 1.75, |
| "learning_rate": 0.00011270833333333335, |
| "loss": 0.9675, |
| "step": 8380 |
| }, |
| { |
| "epoch": 1.75, |
| "learning_rate": 0.00011260416666666667, |
| "loss": 0.9429, |
| "step": 8390 |
| }, |
| { |
| "epoch": 1.75, |
| "learning_rate": 0.00011250000000000001, |
| "loss": 0.9005, |
| "step": 8400 |
| }, |
| { |
| "epoch": 1.75, |
| "eval_accuracy": 0.8161666666666667, |
| "eval_loss": 0.9460874199867249, |
| "eval_runtime": 59.7636, |
| "eval_samples_per_second": 100.396, |
| "eval_steps_per_second": 12.549, |
| "step": 8400 |
| }, |
| { |
| "epoch": 1.75, |
| "learning_rate": 0.00011239583333333334, |
| "loss": 0.8994, |
| "step": 8410 |
| }, |
| { |
| "epoch": 1.75, |
| "learning_rate": 0.00011229166666666667, |
| "loss": 0.9196, |
| "step": 8420 |
| }, |
| { |
| "epoch": 1.76, |
| "learning_rate": 0.0001121875, |
| "loss": 1.0148, |
| "step": 8430 |
| }, |
| { |
| "epoch": 1.76, |
| "learning_rate": 0.00011208333333333334, |
| "loss": 0.9613, |
| "step": 8440 |
| }, |
| { |
| "epoch": 1.76, |
| "learning_rate": 0.00011197916666666668, |
| "loss": 0.9082, |
| "step": 8450 |
| }, |
| { |
| "epoch": 1.76, |
| "learning_rate": 0.000111875, |
| "loss": 0.9859, |
| "step": 8460 |
| }, |
| { |
| "epoch": 1.76, |
| "learning_rate": 0.00011177083333333334, |
| "loss": 1.031, |
| "step": 8470 |
| }, |
| { |
| "epoch": 1.77, |
| "learning_rate": 0.00011166666666666668, |
| "loss": 0.8355, |
| "step": 8480 |
| }, |
| { |
| "epoch": 1.77, |
| "learning_rate": 0.00011156250000000001, |
| "loss": 0.8973, |
| "step": 8490 |
| }, |
| { |
| "epoch": 1.77, |
| "learning_rate": 0.00011145833333333334, |
| "loss": 0.888, |
| "step": 8500 |
| }, |
| { |
| "epoch": 1.77, |
| "eval_accuracy": 0.8175, |
| "eval_loss": 0.9427911639213562, |
| "eval_runtime": 61.2618, |
| "eval_samples_per_second": 97.94, |
| "eval_steps_per_second": 12.243, |
| "step": 8500 |
| }, |
| { |
| "epoch": 1.77, |
| "learning_rate": 0.00011135416666666667, |
| "loss": 0.8018, |
| "step": 8510 |
| }, |
| { |
| "epoch": 1.77, |
| "learning_rate": 0.00011125000000000001, |
| "loss": 0.9515, |
| "step": 8520 |
| }, |
| { |
| "epoch": 1.78, |
| "learning_rate": 0.00011114583333333335, |
| "loss": 0.9843, |
| "step": 8530 |
| }, |
| { |
| "epoch": 1.78, |
| "learning_rate": 0.00011104166666666666, |
| "loss": 0.9946, |
| "step": 8540 |
| }, |
| { |
| "epoch": 1.78, |
| "learning_rate": 0.0001109375, |
| "loss": 0.9946, |
| "step": 8550 |
| }, |
| { |
| "epoch": 1.78, |
| "learning_rate": 0.00011083333333333335, |
| "loss": 1.0048, |
| "step": 8560 |
| }, |
| { |
| "epoch": 1.79, |
| "learning_rate": 0.00011072916666666666, |
| "loss": 0.9225, |
| "step": 8570 |
| }, |
| { |
| "epoch": 1.79, |
| "learning_rate": 0.000110625, |
| "loss": 0.9782, |
| "step": 8580 |
| }, |
| { |
| "epoch": 1.79, |
| "learning_rate": 0.00011052083333333333, |
| "loss": 1.014, |
| "step": 8590 |
| }, |
| { |
| "epoch": 1.79, |
| "learning_rate": 0.00011041666666666668, |
| "loss": 0.9267, |
| "step": 8600 |
| }, |
| { |
| "epoch": 1.79, |
| "eval_accuracy": 0.8168333333333333, |
| "eval_loss": 0.9395878911018372, |
| "eval_runtime": 60.0866, |
| "eval_samples_per_second": 99.856, |
| "eval_steps_per_second": 12.482, |
| "step": 8600 |
| }, |
| { |
| "epoch": 1.79, |
| "learning_rate": 0.00011031249999999999, |
| "loss": 0.9434, |
| "step": 8610 |
| }, |
| { |
| "epoch": 1.8, |
| "learning_rate": 0.00011020833333333333, |
| "loss": 1.0368, |
| "step": 8620 |
| }, |
| { |
| "epoch": 1.8, |
| "learning_rate": 0.00011010416666666668, |
| "loss": 0.966, |
| "step": 8630 |
| }, |
| { |
| "epoch": 1.8, |
| "learning_rate": 0.00011000000000000002, |
| "loss": 0.9484, |
| "step": 8640 |
| }, |
| { |
| "epoch": 1.8, |
| "learning_rate": 0.00010989583333333333, |
| "loss": 0.9203, |
| "step": 8650 |
| }, |
| { |
| "epoch": 1.8, |
| "learning_rate": 0.00010979166666666667, |
| "loss": 0.9323, |
| "step": 8660 |
| }, |
| { |
| "epoch": 1.81, |
| "learning_rate": 0.0001096875, |
| "loss": 1.0355, |
| "step": 8670 |
| }, |
| { |
| "epoch": 1.81, |
| "learning_rate": 0.00010958333333333335, |
| "loss": 0.9016, |
| "step": 8680 |
| }, |
| { |
| "epoch": 1.81, |
| "learning_rate": 0.00010947916666666666, |
| "loss": 0.9086, |
| "step": 8690 |
| }, |
| { |
| "epoch": 1.81, |
| "learning_rate": 0.000109375, |
| "loss": 0.9298, |
| "step": 8700 |
| }, |
| { |
| "epoch": 1.81, |
| "eval_accuracy": 0.8168333333333333, |
| "eval_loss": 0.9364497065544128, |
| "eval_runtime": 59.9971, |
| "eval_samples_per_second": 100.005, |
| "eval_steps_per_second": 12.501, |
| "step": 8700 |
| }, |
| { |
| "epoch": 1.81, |
| "learning_rate": 0.00010927083333333334, |
| "loss": 1.0576, |
| "step": 8710 |
| }, |
| { |
| "epoch": 1.82, |
| "learning_rate": 0.00010916666666666666, |
| "loss": 0.9211, |
| "step": 8720 |
| }, |
| { |
| "epoch": 1.82, |
| "learning_rate": 0.0001090625, |
| "loss": 0.9961, |
| "step": 8730 |
| }, |
| { |
| "epoch": 1.82, |
| "learning_rate": 0.00010895833333333334, |
| "loss": 0.9157, |
| "step": 8740 |
| }, |
| { |
| "epoch": 1.82, |
| "learning_rate": 0.00010885416666666669, |
| "loss": 0.9075, |
| "step": 8750 |
| }, |
| { |
| "epoch": 1.82, |
| "learning_rate": 0.00010875, |
| "loss": 0.9123, |
| "step": 8760 |
| }, |
| { |
| "epoch": 1.83, |
| "learning_rate": 0.00010864583333333333, |
| "loss": 0.9671, |
| "step": 8770 |
| }, |
| { |
| "epoch": 1.83, |
| "learning_rate": 0.00010854166666666667, |
| "loss": 0.9502, |
| "step": 8780 |
| }, |
| { |
| "epoch": 1.83, |
| "learning_rate": 0.00010843750000000001, |
| "loss": 1.0254, |
| "step": 8790 |
| }, |
| { |
| "epoch": 1.83, |
| "learning_rate": 0.00010833333333333333, |
| "loss": 1.0072, |
| "step": 8800 |
| }, |
| { |
| "epoch": 1.83, |
| "eval_accuracy": 0.8166666666666667, |
| "eval_loss": 0.9333662986755371, |
| "eval_runtime": 59.8456, |
| "eval_samples_per_second": 100.258, |
| "eval_steps_per_second": 12.532, |
| "step": 8800 |
| }, |
| { |
| "epoch": 1.84, |
| "learning_rate": 0.00010822916666666667, |
| "loss": 0.88, |
| "step": 8810 |
| }, |
| { |
| "epoch": 1.84, |
| "learning_rate": 0.00010812500000000001, |
| "loss": 0.908, |
| "step": 8820 |
| }, |
| { |
| "epoch": 1.84, |
| "learning_rate": 0.00010802083333333335, |
| "loss": 0.9136, |
| "step": 8830 |
| }, |
| { |
| "epoch": 1.84, |
| "learning_rate": 0.00010791666666666667, |
| "loss": 0.8889, |
| "step": 8840 |
| }, |
| { |
| "epoch": 1.84, |
| "learning_rate": 0.00010781250000000001, |
| "loss": 0.9675, |
| "step": 8850 |
| }, |
| { |
| "epoch": 1.85, |
| "learning_rate": 0.00010770833333333334, |
| "loss": 1.0277, |
| "step": 8860 |
| }, |
| { |
| "epoch": 1.85, |
| "learning_rate": 0.00010760416666666666, |
| "loss": 0.9519, |
| "step": 8870 |
| }, |
| { |
| "epoch": 1.85, |
| "learning_rate": 0.0001075, |
| "loss": 0.8311, |
| "step": 8880 |
| }, |
| { |
| "epoch": 1.85, |
| "learning_rate": 0.00010739583333333334, |
| "loss": 0.9708, |
| "step": 8890 |
| }, |
| { |
| "epoch": 1.85, |
| "learning_rate": 0.00010729166666666668, |
| "loss": 0.9425, |
| "step": 8900 |
| }, |
| { |
| "epoch": 1.85, |
| "eval_accuracy": 0.8158333333333333, |
| "eval_loss": 0.9303320050239563, |
| "eval_runtime": 59.9933, |
| "eval_samples_per_second": 100.011, |
| "eval_steps_per_second": 12.501, |
| "step": 8900 |
| }, |
| { |
| "epoch": 1.86, |
| "learning_rate": 0.0001071875, |
| "loss": 0.9695, |
| "step": 8910 |
| }, |
| { |
| "epoch": 1.86, |
| "learning_rate": 0.00010708333333333334, |
| "loss": 1.0064, |
| "step": 8920 |
| }, |
| { |
| "epoch": 1.86, |
| "learning_rate": 0.00010697916666666668, |
| "loss": 0.9399, |
| "step": 8930 |
| }, |
| { |
| "epoch": 1.86, |
| "learning_rate": 0.00010687500000000001, |
| "loss": 0.8355, |
| "step": 8940 |
| }, |
| { |
| "epoch": 1.86, |
| "learning_rate": 0.00010677083333333334, |
| "loss": 0.8846, |
| "step": 8950 |
| }, |
| { |
| "epoch": 1.87, |
| "learning_rate": 0.00010666666666666667, |
| "loss": 0.9259, |
| "step": 8960 |
| }, |
| { |
| "epoch": 1.87, |
| "learning_rate": 0.00010656250000000001, |
| "loss": 1.0175, |
| "step": 8970 |
| }, |
| { |
| "epoch": 1.87, |
| "learning_rate": 0.00010645833333333335, |
| "loss": 1.0094, |
| "step": 8980 |
| }, |
| { |
| "epoch": 1.87, |
| "learning_rate": 0.00010635416666666667, |
| "loss": 1.0023, |
| "step": 8990 |
| }, |
| { |
| "epoch": 1.88, |
| "learning_rate": 0.00010625000000000001, |
| "loss": 0.9729, |
| "step": 9000 |
| }, |
| { |
| "epoch": 1.88, |
| "eval_accuracy": 0.8168333333333333, |
| "eval_loss": 0.9272984266281128, |
| "eval_runtime": 59.9339, |
| "eval_samples_per_second": 100.11, |
| "eval_steps_per_second": 12.514, |
| "step": 9000 |
| }, |
| { |
| "epoch": 1.88, |
| "learning_rate": 0.00010614583333333335, |
| "loss": 1.0249, |
| "step": 9010 |
| }, |
| { |
| "epoch": 1.88, |
| "learning_rate": 0.00010604166666666666, |
| "loss": 0.8812, |
| "step": 9020 |
| }, |
| { |
| "epoch": 1.88, |
| "learning_rate": 0.00010593750000000001, |
| "loss": 0.9631, |
| "step": 9030 |
| }, |
| { |
| "epoch": 1.88, |
| "learning_rate": 0.00010583333333333334, |
| "loss": 0.8949, |
| "step": 9040 |
| }, |
| { |
| "epoch": 1.89, |
| "learning_rate": 0.00010572916666666668, |
| "loss": 0.9703, |
| "step": 9050 |
| }, |
| { |
| "epoch": 1.89, |
| "learning_rate": 0.00010562499999999999, |
| "loss": 0.8575, |
| "step": 9060 |
| }, |
| { |
| "epoch": 1.89, |
| "learning_rate": 0.00010552083333333333, |
| "loss": 0.8533, |
| "step": 9070 |
| }, |
| { |
| "epoch": 1.89, |
| "learning_rate": 0.00010541666666666668, |
| "loss": 0.9857, |
| "step": 9080 |
| }, |
| { |
| "epoch": 1.89, |
| "learning_rate": 0.00010531250000000002, |
| "loss": 0.8813, |
| "step": 9090 |
| }, |
| { |
| "epoch": 1.9, |
| "learning_rate": 0.00010520833333333333, |
| "loss": 0.9104, |
| "step": 9100 |
| }, |
| { |
| "epoch": 1.9, |
| "eval_accuracy": 0.8175, |
| "eval_loss": 0.9243930578231812, |
| "eval_runtime": 59.8827, |
| "eval_samples_per_second": 100.196, |
| "eval_steps_per_second": 12.524, |
| "step": 9100 |
| }, |
| { |
| "epoch": 1.9, |
| "learning_rate": 0.00010510416666666668, |
| "loss": 1.0087, |
| "step": 9110 |
| }, |
| { |
| "epoch": 1.9, |
| "learning_rate": 0.000105, |
| "loss": 0.9967, |
| "step": 9120 |
| }, |
| { |
| "epoch": 1.9, |
| "learning_rate": 0.00010489583333333335, |
| "loss": 1.0169, |
| "step": 9130 |
| }, |
| { |
| "epoch": 1.9, |
| "learning_rate": 0.00010479166666666666, |
| "loss": 0.8593, |
| "step": 9140 |
| }, |
| { |
| "epoch": 1.91, |
| "learning_rate": 0.0001046875, |
| "loss": 0.9077, |
| "step": 9150 |
| }, |
| { |
| "epoch": 1.91, |
| "learning_rate": 0.00010458333333333335, |
| "loss": 0.8788, |
| "step": 9160 |
| }, |
| { |
| "epoch": 1.91, |
| "learning_rate": 0.00010447916666666666, |
| "loss": 1.0712, |
| "step": 9170 |
| }, |
| { |
| "epoch": 1.91, |
| "learning_rate": 0.000104375, |
| "loss": 0.9945, |
| "step": 9180 |
| }, |
| { |
| "epoch": 1.91, |
| "learning_rate": 0.00010427083333333334, |
| "loss": 0.809, |
| "step": 9190 |
| }, |
| { |
| "epoch": 1.92, |
| "learning_rate": 0.00010416666666666667, |
| "loss": 0.9153, |
| "step": 9200 |
| }, |
| { |
| "epoch": 1.92, |
| "eval_accuracy": 0.817, |
| "eval_loss": 0.9216222167015076, |
| "eval_runtime": 60.3263, |
| "eval_samples_per_second": 99.459, |
| "eval_steps_per_second": 12.432, |
| "step": 9200 |
| }, |
| { |
| "epoch": 1.92, |
| "learning_rate": 0.0001040625, |
| "loss": 0.9582, |
| "step": 9210 |
| }, |
| { |
| "epoch": 1.92, |
| "learning_rate": 0.00010395833333333333, |
| "loss": 0.8335, |
| "step": 9220 |
| }, |
| { |
| "epoch": 1.92, |
| "learning_rate": 0.00010385416666666667, |
| "loss": 0.9739, |
| "step": 9230 |
| }, |
| { |
| "epoch": 1.93, |
| "learning_rate": 0.00010375000000000001, |
| "loss": 0.952, |
| "step": 9240 |
| }, |
| { |
| "epoch": 1.93, |
| "learning_rate": 0.00010364583333333333, |
| "loss": 0.8811, |
| "step": 9250 |
| }, |
| { |
| "epoch": 1.93, |
| "learning_rate": 0.00010354166666666667, |
| "loss": 1.023, |
| "step": 9260 |
| }, |
| { |
| "epoch": 1.93, |
| "learning_rate": 0.00010343750000000001, |
| "loss": 0.9013, |
| "step": 9270 |
| }, |
| { |
| "epoch": 1.93, |
| "learning_rate": 0.00010333333333333334, |
| "loss": 0.9092, |
| "step": 9280 |
| }, |
| { |
| "epoch": 1.94, |
| "learning_rate": 0.00010322916666666667, |
| "loss": 0.9804, |
| "step": 9290 |
| }, |
| { |
| "epoch": 1.94, |
| "learning_rate": 0.000103125, |
| "loss": 0.9115, |
| "step": 9300 |
| }, |
| { |
| "epoch": 1.94, |
| "eval_accuracy": 0.8165, |
| "eval_loss": 0.9188224077224731, |
| "eval_runtime": 59.4737, |
| "eval_samples_per_second": 100.885, |
| "eval_steps_per_second": 12.611, |
| "step": 9300 |
| }, |
| { |
| "epoch": 1.94, |
| "learning_rate": 0.00010302083333333334, |
| "loss": 0.8622, |
| "step": 9310 |
| }, |
| { |
| "epoch": 1.94, |
| "learning_rate": 0.00010291666666666666, |
| "loss": 0.9735, |
| "step": 9320 |
| }, |
| { |
| "epoch": 1.94, |
| "learning_rate": 0.0001028125, |
| "loss": 0.8311, |
| "step": 9330 |
| }, |
| { |
| "epoch": 1.95, |
| "learning_rate": 0.00010270833333333334, |
| "loss": 0.7907, |
| "step": 9340 |
| }, |
| { |
| "epoch": 1.95, |
| "learning_rate": 0.00010260416666666668, |
| "loss": 0.9423, |
| "step": 9350 |
| }, |
| { |
| "epoch": 1.95, |
| "learning_rate": 0.0001025, |
| "loss": 0.9422, |
| "step": 9360 |
| }, |
| { |
| "epoch": 1.95, |
| "learning_rate": 0.00010239583333333334, |
| "loss": 0.9318, |
| "step": 9370 |
| }, |
| { |
| "epoch": 1.95, |
| "learning_rate": 0.00010229166666666667, |
| "loss": 0.9288, |
| "step": 9380 |
| }, |
| { |
| "epoch": 1.96, |
| "learning_rate": 0.00010218750000000001, |
| "loss": 0.8747, |
| "step": 9390 |
| }, |
| { |
| "epoch": 1.96, |
| "learning_rate": 0.00010208333333333333, |
| "loss": 0.9079, |
| "step": 9400 |
| }, |
| { |
| "epoch": 1.96, |
| "eval_accuracy": 0.8168333333333333, |
| "eval_loss": 0.9160864353179932, |
| "eval_runtime": 59.7556, |
| "eval_samples_per_second": 100.409, |
| "eval_steps_per_second": 12.551, |
| "step": 9400 |
| }, |
| { |
| "epoch": 1.96, |
| "learning_rate": 0.00010197916666666667, |
| "loss": 0.9764, |
| "step": 9410 |
| }, |
| { |
| "epoch": 1.96, |
| "learning_rate": 0.00010187500000000001, |
| "loss": 1.0017, |
| "step": 9420 |
| }, |
| { |
| "epoch": 1.96, |
| "learning_rate": 0.00010177083333333335, |
| "loss": 0.9841, |
| "step": 9430 |
| }, |
| { |
| "epoch": 1.97, |
| "learning_rate": 0.00010166666666666667, |
| "loss": 0.985, |
| "step": 9440 |
| }, |
| { |
| "epoch": 1.97, |
| "learning_rate": 0.00010156250000000001, |
| "loss": 0.9453, |
| "step": 9450 |
| }, |
| { |
| "epoch": 1.97, |
| "learning_rate": 0.00010145833333333334, |
| "loss": 0.8888, |
| "step": 9460 |
| }, |
| { |
| "epoch": 1.97, |
| "learning_rate": 0.00010135416666666667, |
| "loss": 0.956, |
| "step": 9470 |
| }, |
| { |
| "epoch": 1.98, |
| "learning_rate": 0.00010125, |
| "loss": 0.8697, |
| "step": 9480 |
| }, |
| { |
| "epoch": 1.98, |
| "learning_rate": 0.00010114583333333334, |
| "loss": 0.9936, |
| "step": 9490 |
| }, |
| { |
| "epoch": 1.98, |
| "learning_rate": 0.00010104166666666668, |
| "loss": 0.8453, |
| "step": 9500 |
| }, |
| { |
| "epoch": 1.98, |
| "eval_accuracy": 0.8175, |
| "eval_loss": 0.9133460521697998, |
| "eval_runtime": 59.8554, |
| "eval_samples_per_second": 100.242, |
| "eval_steps_per_second": 12.53, |
| "step": 9500 |
| }, |
| { |
| "epoch": 1.98, |
| "learning_rate": 0.0001009375, |
| "loss": 0.9598, |
| "step": 9510 |
| }, |
| { |
| "epoch": 1.98, |
| "learning_rate": 0.00010083333333333334, |
| "loss": 0.9067, |
| "step": 9520 |
| }, |
| { |
| "epoch": 1.99, |
| "learning_rate": 0.00010072916666666668, |
| "loss": 0.8931, |
| "step": 9530 |
| }, |
| { |
| "epoch": 1.99, |
| "learning_rate": 0.00010062500000000002, |
| "loss": 0.9762, |
| "step": 9540 |
| }, |
| { |
| "epoch": 1.99, |
| "learning_rate": 0.00010052083333333333, |
| "loss": 0.9877, |
| "step": 9550 |
| }, |
| { |
| "epoch": 1.99, |
| "learning_rate": 0.00010041666666666666, |
| "loss": 0.9696, |
| "step": 9560 |
| }, |
| { |
| "epoch": 1.99, |
| "learning_rate": 0.0001003125, |
| "loss": 0.9763, |
| "step": 9570 |
| }, |
| { |
| "epoch": 2.0, |
| "learning_rate": 0.00010020833333333335, |
| "loss": 0.8631, |
| "step": 9580 |
| }, |
| { |
| "epoch": 2.0, |
| "learning_rate": 0.00010010416666666666, |
| "loss": 0.8001, |
| "step": 9590 |
| }, |
| { |
| "epoch": 2.0, |
| "learning_rate": 0.0001, |
| "loss": 0.8323, |
| "step": 9600 |
| }, |
| { |
| "epoch": 2.0, |
| "eval_accuracy": 0.817, |
| "eval_loss": 0.9106907844543457, |
| "eval_runtime": 59.5569, |
| "eval_samples_per_second": 100.744, |
| "eval_steps_per_second": 12.593, |
| "step": 9600 |
| }, |
| { |
| "epoch": 2.0, |
| "learning_rate": 9.989583333333333e-05, |
| "loss": 0.833, |
| "step": 9610 |
| }, |
| { |
| "epoch": 2.0, |
| "learning_rate": 9.979166666666668e-05, |
| "loss": 0.9048, |
| "step": 9620 |
| }, |
| { |
| "epoch": 2.01, |
| "learning_rate": 9.96875e-05, |
| "loss": 1.0003, |
| "step": 9630 |
| }, |
| { |
| "epoch": 2.01, |
| "learning_rate": 9.958333333333335e-05, |
| "loss": 0.9214, |
| "step": 9640 |
| }, |
| { |
| "epoch": 2.01, |
| "learning_rate": 9.947916666666666e-05, |
| "loss": 0.9345, |
| "step": 9650 |
| }, |
| { |
| "epoch": 2.01, |
| "learning_rate": 9.9375e-05, |
| "loss": 0.858, |
| "step": 9660 |
| }, |
| { |
| "epoch": 2.01, |
| "learning_rate": 9.927083333333333e-05, |
| "loss": 0.923, |
| "step": 9670 |
| }, |
| { |
| "epoch": 2.02, |
| "learning_rate": 9.916666666666667e-05, |
| "loss": 0.9333, |
| "step": 9680 |
| }, |
| { |
| "epoch": 2.02, |
| "learning_rate": 9.90625e-05, |
| "loss": 0.8702, |
| "step": 9690 |
| }, |
| { |
| "epoch": 2.02, |
| "learning_rate": 9.895833333333334e-05, |
| "loss": 0.9071, |
| "step": 9700 |
| }, |
| { |
| "epoch": 2.02, |
| "eval_accuracy": 0.8183333333333334, |
| "eval_loss": 0.9080246686935425, |
| "eval_runtime": 59.8773, |
| "eval_samples_per_second": 100.205, |
| "eval_steps_per_second": 12.526, |
| "step": 9700 |
| }, |
| { |
| "epoch": 2.02, |
| "learning_rate": 9.885416666666667e-05, |
| "loss": 0.8409, |
| "step": 9710 |
| }, |
| { |
| "epoch": 2.02, |
| "learning_rate": 9.875000000000002e-05, |
| "loss": 0.8283, |
| "step": 9720 |
| }, |
| { |
| "epoch": 2.03, |
| "learning_rate": 9.864583333333334e-05, |
| "loss": 0.9851, |
| "step": 9730 |
| }, |
| { |
| "epoch": 2.03, |
| "learning_rate": 9.854166666666667e-05, |
| "loss": 1.0913, |
| "step": 9740 |
| }, |
| { |
| "epoch": 2.03, |
| "learning_rate": 9.84375e-05, |
| "loss": 0.9222, |
| "step": 9750 |
| }, |
| { |
| "epoch": 2.03, |
| "learning_rate": 9.833333333333333e-05, |
| "loss": 0.8768, |
| "step": 9760 |
| }, |
| { |
| "epoch": 2.04, |
| "learning_rate": 9.822916666666667e-05, |
| "loss": 0.8602, |
| "step": 9770 |
| }, |
| { |
| "epoch": 2.04, |
| "learning_rate": 9.8125e-05, |
| "loss": 0.9389, |
| "step": 9780 |
| }, |
| { |
| "epoch": 2.04, |
| "learning_rate": 9.802083333333334e-05, |
| "loss": 1.0085, |
| "step": 9790 |
| }, |
| { |
| "epoch": 2.04, |
| "learning_rate": 9.791666666666667e-05, |
| "loss": 0.9331, |
| "step": 9800 |
| }, |
| { |
| "epoch": 2.04, |
| "eval_accuracy": 0.8185, |
| "eval_loss": 0.9053726196289062, |
| "eval_runtime": 59.5244, |
| "eval_samples_per_second": 100.799, |
| "eval_steps_per_second": 12.6, |
| "step": 9800 |
| }, |
| { |
| "epoch": 2.04, |
| "learning_rate": 9.781250000000001e-05, |
| "loss": 0.8929, |
| "step": 9810 |
| }, |
| { |
| "epoch": 2.05, |
| "learning_rate": 9.770833333333334e-05, |
| "loss": 0.9915, |
| "step": 9820 |
| }, |
| { |
| "epoch": 2.05, |
| "learning_rate": 9.760416666666667e-05, |
| "loss": 0.8457, |
| "step": 9830 |
| }, |
| { |
| "epoch": 2.05, |
| "learning_rate": 9.75e-05, |
| "loss": 0.8583, |
| "step": 9840 |
| }, |
| { |
| "epoch": 2.05, |
| "learning_rate": 9.739583333333334e-05, |
| "loss": 0.8435, |
| "step": 9850 |
| }, |
| { |
| "epoch": 2.05, |
| "learning_rate": 9.729166666666667e-05, |
| "loss": 0.9445, |
| "step": 9860 |
| }, |
| { |
| "epoch": 2.06, |
| "learning_rate": 9.718750000000001e-05, |
| "loss": 1.0234, |
| "step": 9870 |
| }, |
| { |
| "epoch": 2.06, |
| "learning_rate": 9.708333333333334e-05, |
| "loss": 0.8881, |
| "step": 9880 |
| }, |
| { |
| "epoch": 2.06, |
| "learning_rate": 9.697916666666668e-05, |
| "loss": 0.9292, |
| "step": 9890 |
| }, |
| { |
| "epoch": 2.06, |
| "learning_rate": 9.687500000000001e-05, |
| "loss": 0.886, |
| "step": 9900 |
| }, |
| { |
| "epoch": 2.06, |
| "eval_accuracy": 0.8193333333333334, |
| "eval_loss": 0.9029235243797302, |
| "eval_runtime": 60.8267, |
| "eval_samples_per_second": 98.641, |
| "eval_steps_per_second": 12.33, |
| "step": 9900 |
| }, |
| { |
| "epoch": 2.06, |
| "learning_rate": 9.677083333333334e-05, |
| "loss": 0.8499, |
| "step": 9910 |
| }, |
| { |
| "epoch": 2.07, |
| "learning_rate": 9.666666666666667e-05, |
| "loss": 0.9185, |
| "step": 9920 |
| }, |
| { |
| "epoch": 2.07, |
| "learning_rate": 9.65625e-05, |
| "loss": 0.9427, |
| "step": 9930 |
| }, |
| { |
| "epoch": 2.07, |
| "learning_rate": 9.645833333333334e-05, |
| "loss": 1.0027, |
| "step": 9940 |
| }, |
| { |
| "epoch": 2.07, |
| "learning_rate": 9.635416666666667e-05, |
| "loss": 0.9777, |
| "step": 9950 |
| }, |
| { |
| "epoch": 2.08, |
| "learning_rate": 9.625000000000001e-05, |
| "loss": 1.1016, |
| "step": 9960 |
| }, |
| { |
| "epoch": 2.08, |
| "learning_rate": 9.614583333333334e-05, |
| "loss": 1.0447, |
| "step": 9970 |
| }, |
| { |
| "epoch": 2.08, |
| "learning_rate": 9.604166666666668e-05, |
| "loss": 0.8262, |
| "step": 9980 |
| }, |
| { |
| "epoch": 2.08, |
| "learning_rate": 9.593750000000001e-05, |
| "loss": 0.8655, |
| "step": 9990 |
| }, |
| { |
| "epoch": 2.08, |
| "learning_rate": 9.583333333333334e-05, |
| "loss": 0.8562, |
| "step": 10000 |
| }, |
| { |
| "epoch": 2.08, |
| "eval_accuracy": 0.8183333333333334, |
| "eval_loss": 0.9005782604217529, |
| "eval_runtime": 59.8075, |
| "eval_samples_per_second": 100.322, |
| "eval_steps_per_second": 12.54, |
| "step": 10000 |
| }, |
| { |
| "epoch": 2.09, |
| "learning_rate": 9.572916666666666e-05, |
| "loss": 0.9233, |
| "step": 10010 |
| }, |
| { |
| "epoch": 2.09, |
| "learning_rate": 9.562500000000001e-05, |
| "loss": 0.9629, |
| "step": 10020 |
| }, |
| { |
| "epoch": 2.09, |
| "learning_rate": 9.552083333333334e-05, |
| "loss": 0.8589, |
| "step": 10030 |
| }, |
| { |
| "epoch": 2.09, |
| "learning_rate": 9.541666666666668e-05, |
| "loss": 0.8375, |
| "step": 10040 |
| }, |
| { |
| "epoch": 2.09, |
| "learning_rate": 9.53125e-05, |
| "loss": 0.9112, |
| "step": 10050 |
| }, |
| { |
| "epoch": 2.1, |
| "learning_rate": 9.520833333333333e-05, |
| "loss": 0.9153, |
| "step": 10060 |
| }, |
| { |
| "epoch": 2.1, |
| "learning_rate": 9.510416666666668e-05, |
| "loss": 0.854, |
| "step": 10070 |
| }, |
| { |
| "epoch": 2.1, |
| "learning_rate": 9.5e-05, |
| "loss": 1.0431, |
| "step": 10080 |
| }, |
| { |
| "epoch": 2.1, |
| "learning_rate": 9.489583333333333e-05, |
| "loss": 0.8993, |
| "step": 10090 |
| }, |
| { |
| "epoch": 2.1, |
| "learning_rate": 9.479166666666666e-05, |
| "loss": 0.8904, |
| "step": 10100 |
| }, |
| { |
| "epoch": 2.1, |
| "eval_accuracy": 0.8193333333333334, |
| "eval_loss": 0.8980449438095093, |
| "eval_runtime": 59.9046, |
| "eval_samples_per_second": 100.159, |
| "eval_steps_per_second": 12.52, |
| "step": 10100 |
| }, |
| { |
| "epoch": 2.11, |
| "learning_rate": 9.46875e-05, |
| "loss": 0.8597, |
| "step": 10110 |
| }, |
| { |
| "epoch": 2.11, |
| "learning_rate": 9.458333333333333e-05, |
| "loss": 0.9408, |
| "step": 10120 |
| }, |
| { |
| "epoch": 2.11, |
| "learning_rate": 9.447916666666668e-05, |
| "loss": 0.9446, |
| "step": 10130 |
| }, |
| { |
| "epoch": 2.11, |
| "learning_rate": 9.4375e-05, |
| "loss": 0.9181, |
| "step": 10140 |
| }, |
| { |
| "epoch": 2.11, |
| "learning_rate": 9.427083333333335e-05, |
| "loss": 0.8094, |
| "step": 10150 |
| }, |
| { |
| "epoch": 2.12, |
| "learning_rate": 9.416666666666667e-05, |
| "loss": 0.9128, |
| "step": 10160 |
| }, |
| { |
| "epoch": 2.12, |
| "learning_rate": 9.40625e-05, |
| "loss": 0.9085, |
| "step": 10170 |
| }, |
| { |
| "epoch": 2.12, |
| "learning_rate": 9.395833333333333e-05, |
| "loss": 0.903, |
| "step": 10180 |
| }, |
| { |
| "epoch": 2.12, |
| "learning_rate": 9.385416666666667e-05, |
| "loss": 0.8836, |
| "step": 10190 |
| }, |
| { |
| "epoch": 2.12, |
| "learning_rate": 9.375e-05, |
| "loss": 0.8247, |
| "step": 10200 |
| }, |
| { |
| "epoch": 2.12, |
| "eval_accuracy": 0.8188333333333333, |
| "eval_loss": 0.8956376910209656, |
| "eval_runtime": 59.6477, |
| "eval_samples_per_second": 100.591, |
| "eval_steps_per_second": 12.574, |
| "step": 10200 |
| }, |
| { |
| "epoch": 2.13, |
| "learning_rate": 9.364583333333333e-05, |
| "loss": 0.8779, |
| "step": 10210 |
| }, |
| { |
| "epoch": 2.13, |
| "learning_rate": 9.354166666666667e-05, |
| "loss": 0.9429, |
| "step": 10220 |
| }, |
| { |
| "epoch": 2.13, |
| "learning_rate": 9.34375e-05, |
| "loss": 0.8699, |
| "step": 10230 |
| }, |
| { |
| "epoch": 2.13, |
| "learning_rate": 9.333333333333334e-05, |
| "loss": 0.8919, |
| "step": 10240 |
| }, |
| { |
| "epoch": 2.14, |
| "learning_rate": 9.322916666666667e-05, |
| "loss": 0.8543, |
| "step": 10250 |
| }, |
| { |
| "epoch": 2.14, |
| "learning_rate": 9.3125e-05, |
| "loss": 0.9656, |
| "step": 10260 |
| }, |
| { |
| "epoch": 2.14, |
| "learning_rate": 9.302083333333333e-05, |
| "loss": 0.9084, |
| "step": 10270 |
| }, |
| { |
| "epoch": 2.14, |
| "learning_rate": 9.291666666666667e-05, |
| "loss": 0.8991, |
| "step": 10280 |
| }, |
| { |
| "epoch": 2.14, |
| "learning_rate": 9.28125e-05, |
| "loss": 0.9397, |
| "step": 10290 |
| }, |
| { |
| "epoch": 2.15, |
| "learning_rate": 9.270833333333334e-05, |
| "loss": 0.8114, |
| "step": 10300 |
| }, |
| { |
| "epoch": 2.15, |
| "eval_accuracy": 0.8201666666666667, |
| "eval_loss": 0.8934054374694824, |
| "eval_runtime": 60.1019, |
| "eval_samples_per_second": 99.831, |
| "eval_steps_per_second": 12.479, |
| "step": 10300 |
| }, |
| { |
| "epoch": 2.15, |
| "learning_rate": 9.260416666666667e-05, |
| "loss": 0.9237, |
| "step": 10310 |
| }, |
| { |
| "epoch": 2.15, |
| "learning_rate": 9.250000000000001e-05, |
| "loss": 0.8199, |
| "step": 10320 |
| }, |
| { |
| "epoch": 2.15, |
| "learning_rate": 9.239583333333334e-05, |
| "loss": 0.9568, |
| "step": 10330 |
| }, |
| { |
| "epoch": 2.15, |
| "learning_rate": 9.229166666666668e-05, |
| "loss": 0.9725, |
| "step": 10340 |
| }, |
| { |
| "epoch": 2.16, |
| "learning_rate": 9.21875e-05, |
| "loss": 0.8879, |
| "step": 10350 |
| }, |
| { |
| "epoch": 2.16, |
| "learning_rate": 9.208333333333333e-05, |
| "loss": 0.9734, |
| "step": 10360 |
| }, |
| { |
| "epoch": 2.16, |
| "learning_rate": 9.197916666666667e-05, |
| "loss": 0.9337, |
| "step": 10370 |
| }, |
| { |
| "epoch": 2.16, |
| "learning_rate": 9.1875e-05, |
| "loss": 0.917, |
| "step": 10380 |
| }, |
| { |
| "epoch": 2.16, |
| "learning_rate": 9.177083333333334e-05, |
| "loss": 0.8322, |
| "step": 10390 |
| }, |
| { |
| "epoch": 2.17, |
| "learning_rate": 9.166666666666667e-05, |
| "loss": 0.96, |
| "step": 10400 |
| }, |
| { |
| "epoch": 2.17, |
| "eval_accuracy": 0.8198333333333333, |
| "eval_loss": 0.8911527395248413, |
| "eval_runtime": 60.8262, |
| "eval_samples_per_second": 98.642, |
| "eval_steps_per_second": 12.33, |
| "step": 10400 |
| }, |
| { |
| "epoch": 2.17, |
| "learning_rate": 9.156250000000001e-05, |
| "loss": 0.8777, |
| "step": 10410 |
| }, |
| { |
| "epoch": 2.17, |
| "learning_rate": 9.145833333333334e-05, |
| "loss": 0.7841, |
| "step": 10420 |
| }, |
| { |
| "epoch": 2.17, |
| "learning_rate": 9.135416666666668e-05, |
| "loss": 1.0032, |
| "step": 10430 |
| }, |
| { |
| "epoch": 2.17, |
| "learning_rate": 9.125e-05, |
| "loss": 0.8637, |
| "step": 10440 |
| }, |
| { |
| "epoch": 2.18, |
| "learning_rate": 9.114583333333334e-05, |
| "loss": 0.9558, |
| "step": 10450 |
| }, |
| { |
| "epoch": 2.18, |
| "learning_rate": 9.104166666666667e-05, |
| "loss": 0.9103, |
| "step": 10460 |
| }, |
| { |
| "epoch": 2.18, |
| "learning_rate": 9.093750000000001e-05, |
| "loss": 0.8938, |
| "step": 10470 |
| }, |
| { |
| "epoch": 2.18, |
| "learning_rate": 9.083333333333334e-05, |
| "loss": 0.9379, |
| "step": 10480 |
| }, |
| { |
| "epoch": 2.19, |
| "learning_rate": 9.072916666666668e-05, |
| "loss": 0.8906, |
| "step": 10490 |
| }, |
| { |
| "epoch": 2.19, |
| "learning_rate": 9.062500000000001e-05, |
| "loss": 0.9326, |
| "step": 10500 |
| }, |
| { |
| "epoch": 2.19, |
| "eval_accuracy": 0.8198333333333333, |
| "eval_loss": 0.8889092803001404, |
| "eval_runtime": 60.4177, |
| "eval_samples_per_second": 99.309, |
| "eval_steps_per_second": 12.414, |
| "step": 10500 |
| }, |
| { |
| "epoch": 2.19, |
| "learning_rate": 9.052083333333334e-05, |
| "loss": 0.8228, |
| "step": 10510 |
| }, |
| { |
| "epoch": 2.19, |
| "learning_rate": 9.041666666666668e-05, |
| "loss": 0.8495, |
| "step": 10520 |
| }, |
| { |
| "epoch": 2.19, |
| "learning_rate": 9.03125e-05, |
| "loss": 0.8623, |
| "step": 10530 |
| }, |
| { |
| "epoch": 2.2, |
| "learning_rate": 9.020833333333334e-05, |
| "loss": 0.9245, |
| "step": 10540 |
| }, |
| { |
| "epoch": 2.2, |
| "learning_rate": 9.010416666666666e-05, |
| "loss": 0.8755, |
| "step": 10550 |
| }, |
| { |
| "epoch": 2.2, |
| "learning_rate": 9e-05, |
| "loss": 0.9681, |
| "step": 10560 |
| }, |
| { |
| "epoch": 2.2, |
| "learning_rate": 8.989583333333333e-05, |
| "loss": 0.8296, |
| "step": 10570 |
| }, |
| { |
| "epoch": 2.2, |
| "learning_rate": 8.979166666666668e-05, |
| "loss": 0.907, |
| "step": 10580 |
| }, |
| { |
| "epoch": 2.21, |
| "learning_rate": 8.96875e-05, |
| "loss": 0.8387, |
| "step": 10590 |
| }, |
| { |
| "epoch": 2.21, |
| "learning_rate": 8.958333333333335e-05, |
| "loss": 0.8057, |
| "step": 10600 |
| }, |
| { |
| "epoch": 2.21, |
| "eval_accuracy": 0.8195, |
| "eval_loss": 0.886721134185791, |
| "eval_runtime": 60.7878, |
| "eval_samples_per_second": 98.704, |
| "eval_steps_per_second": 12.338, |
| "step": 10600 |
| }, |
| { |
| "epoch": 2.21, |
| "learning_rate": 8.947916666666668e-05, |
| "loss": 0.94, |
| "step": 10610 |
| }, |
| { |
| "epoch": 2.21, |
| "learning_rate": 8.9375e-05, |
| "loss": 0.8714, |
| "step": 10620 |
| }, |
| { |
| "epoch": 2.21, |
| "learning_rate": 8.927083333333333e-05, |
| "loss": 1.0279, |
| "step": 10630 |
| }, |
| { |
| "epoch": 2.22, |
| "learning_rate": 8.916666666666667e-05, |
| "loss": 0.9274, |
| "step": 10640 |
| }, |
| { |
| "epoch": 2.22, |
| "learning_rate": 8.90625e-05, |
| "loss": 0.887, |
| "step": 10650 |
| }, |
| { |
| "epoch": 2.22, |
| "learning_rate": 8.895833333333333e-05, |
| "loss": 0.8918, |
| "step": 10660 |
| }, |
| { |
| "epoch": 2.22, |
| "learning_rate": 8.885416666666667e-05, |
| "loss": 0.9477, |
| "step": 10670 |
| }, |
| { |
| "epoch": 2.23, |
| "learning_rate": 8.875e-05, |
| "loss": 0.8518, |
| "step": 10680 |
| }, |
| { |
| "epoch": 2.23, |
| "learning_rate": 8.864583333333334e-05, |
| "loss": 0.9886, |
| "step": 10690 |
| }, |
| { |
| "epoch": 2.23, |
| "learning_rate": 8.854166666666667e-05, |
| "loss": 0.8266, |
| "step": 10700 |
| }, |
| { |
| "epoch": 2.23, |
| "eval_accuracy": 0.8188333333333333, |
| "eval_loss": 0.88455730676651, |
| "eval_runtime": 59.7724, |
| "eval_samples_per_second": 100.381, |
| "eval_steps_per_second": 12.548, |
| "step": 10700 |
| }, |
| { |
| "epoch": 2.23, |
| "learning_rate": 8.84375e-05, |
| "loss": 0.9126, |
| "step": 10710 |
| }, |
| { |
| "epoch": 2.23, |
| "learning_rate": 8.833333333333333e-05, |
| "loss": 0.8102, |
| "step": 10720 |
| }, |
| { |
| "epoch": 2.24, |
| "learning_rate": 8.822916666666667e-05, |
| "loss": 0.8637, |
| "step": 10730 |
| }, |
| { |
| "epoch": 2.24, |
| "learning_rate": 8.8125e-05, |
| "loss": 0.9869, |
| "step": 10740 |
| }, |
| { |
| "epoch": 2.24, |
| "learning_rate": 8.802083333333334e-05, |
| "loss": 0.8814, |
| "step": 10750 |
| }, |
| { |
| "epoch": 2.24, |
| "learning_rate": 8.791666666666667e-05, |
| "loss": 0.9535, |
| "step": 10760 |
| }, |
| { |
| "epoch": 2.24, |
| "learning_rate": 8.781250000000001e-05, |
| "loss": 0.9933, |
| "step": 10770 |
| }, |
| { |
| "epoch": 2.25, |
| "learning_rate": 8.770833333333334e-05, |
| "loss": 0.8286, |
| "step": 10780 |
| }, |
| { |
| "epoch": 2.25, |
| "learning_rate": 8.760416666666667e-05, |
| "loss": 0.7871, |
| "step": 10790 |
| }, |
| { |
| "epoch": 2.25, |
| "learning_rate": 8.75e-05, |
| "loss": 0.7909, |
| "step": 10800 |
| }, |
| { |
| "epoch": 2.25, |
| "eval_accuracy": 0.82, |
| "eval_loss": 0.8823391795158386, |
| "eval_runtime": 59.8225, |
| "eval_samples_per_second": 100.297, |
| "eval_steps_per_second": 12.537, |
| "step": 10800 |
| }, |
| { |
| "epoch": 2.25, |
| "learning_rate": 8.739583333333333e-05, |
| "loss": 0.826, |
| "step": 10810 |
| }, |
| { |
| "epoch": 2.25, |
| "learning_rate": 8.729166666666667e-05, |
| "loss": 0.9323, |
| "step": 10820 |
| }, |
| { |
| "epoch": 2.26, |
| "learning_rate": 8.71875e-05, |
| "loss": 0.8849, |
| "step": 10830 |
| }, |
| { |
| "epoch": 2.26, |
| "learning_rate": 8.708333333333334e-05, |
| "loss": 0.9148, |
| "step": 10840 |
| }, |
| { |
| "epoch": 2.26, |
| "learning_rate": 8.697916666666667e-05, |
| "loss": 0.9798, |
| "step": 10850 |
| }, |
| { |
| "epoch": 2.26, |
| "learning_rate": 8.687500000000001e-05, |
| "loss": 0.9062, |
| "step": 10860 |
| }, |
| { |
| "epoch": 2.26, |
| "learning_rate": 8.677083333333334e-05, |
| "loss": 0.8027, |
| "step": 10870 |
| }, |
| { |
| "epoch": 2.27, |
| "learning_rate": 8.666666666666667e-05, |
| "loss": 0.8939, |
| "step": 10880 |
| }, |
| { |
| "epoch": 2.27, |
| "learning_rate": 8.65625e-05, |
| "loss": 0.9829, |
| "step": 10890 |
| }, |
| { |
| "epoch": 2.27, |
| "learning_rate": 8.645833333333334e-05, |
| "loss": 0.886, |
| "step": 10900 |
| }, |
| { |
| "epoch": 2.27, |
| "eval_accuracy": 0.8191666666666667, |
| "eval_loss": 0.8802666068077087, |
| "eval_runtime": 59.9938, |
| "eval_samples_per_second": 100.01, |
| "eval_steps_per_second": 12.501, |
| "step": 10900 |
| }, |
| { |
| "epoch": 2.27, |
| "learning_rate": 8.635416666666667e-05, |
| "loss": 0.8374, |
| "step": 10910 |
| }, |
| { |
| "epoch": 2.27, |
| "learning_rate": 8.625000000000001e-05, |
| "loss": 0.8154, |
| "step": 10920 |
| }, |
| { |
| "epoch": 2.28, |
| "learning_rate": 8.614583333333334e-05, |
| "loss": 0.8789, |
| "step": 10930 |
| }, |
| { |
| "epoch": 2.28, |
| "learning_rate": 8.604166666666668e-05, |
| "loss": 0.842, |
| "step": 10940 |
| }, |
| { |
| "epoch": 2.28, |
| "learning_rate": 8.593750000000001e-05, |
| "loss": 0.8782, |
| "step": 10950 |
| }, |
| { |
| "epoch": 2.28, |
| "learning_rate": 8.583333333333334e-05, |
| "loss": 0.901, |
| "step": 10960 |
| }, |
| { |
| "epoch": 2.29, |
| "learning_rate": 8.572916666666667e-05, |
| "loss": 1.0296, |
| "step": 10970 |
| }, |
| { |
| "epoch": 2.29, |
| "learning_rate": 8.5625e-05, |
| "loss": 0.891, |
| "step": 10980 |
| }, |
| { |
| "epoch": 2.29, |
| "learning_rate": 8.552083333333334e-05, |
| "loss": 0.8485, |
| "step": 10990 |
| }, |
| { |
| "epoch": 2.29, |
| "learning_rate": 8.541666666666666e-05, |
| "loss": 0.8691, |
| "step": 11000 |
| }, |
| { |
| "epoch": 2.29, |
| "eval_accuracy": 0.8193333333333334, |
| "eval_loss": 0.8782818913459778, |
| "eval_runtime": 60.5065, |
| "eval_samples_per_second": 99.163, |
| "eval_steps_per_second": 12.395, |
| "step": 11000 |
| }, |
| { |
| "epoch": 2.29, |
| "learning_rate": 8.531250000000001e-05, |
| "loss": 0.9225, |
| "step": 11010 |
| }, |
| { |
| "epoch": 2.3, |
| "learning_rate": 8.520833333333334e-05, |
| "loss": 0.7699, |
| "step": 11020 |
| }, |
| { |
| "epoch": 2.3, |
| "learning_rate": 8.510416666666668e-05, |
| "loss": 0.8573, |
| "step": 11030 |
| }, |
| { |
| "epoch": 2.3, |
| "learning_rate": 8.5e-05, |
| "loss": 0.8257, |
| "step": 11040 |
| }, |
| { |
| "epoch": 2.3, |
| "learning_rate": 8.489583333333333e-05, |
| "loss": 0.915, |
| "step": 11050 |
| }, |
| { |
| "epoch": 2.3, |
| "learning_rate": 8.479166666666666e-05, |
| "loss": 0.8742, |
| "step": 11060 |
| }, |
| { |
| "epoch": 2.31, |
| "learning_rate": 8.46875e-05, |
| "loss": 0.8568, |
| "step": 11070 |
| }, |
| { |
| "epoch": 2.31, |
| "learning_rate": 8.458333333333333e-05, |
| "loss": 1.0271, |
| "step": 11080 |
| }, |
| { |
| "epoch": 2.31, |
| "learning_rate": 8.447916666666668e-05, |
| "loss": 0.9573, |
| "step": 11090 |
| }, |
| { |
| "epoch": 2.31, |
| "learning_rate": 8.4375e-05, |
| "loss": 0.8676, |
| "step": 11100 |
| }, |
| { |
| "epoch": 2.31, |
| "eval_accuracy": 0.8186666666666667, |
| "eval_loss": 0.8763127326965332, |
| "eval_runtime": 60.024, |
| "eval_samples_per_second": 99.96, |
| "eval_steps_per_second": 12.495, |
| "step": 11100 |
| }, |
| { |
| "epoch": 2.31, |
| "learning_rate": 8.427083333333333e-05, |
| "loss": 0.9015, |
| "step": 11110 |
| }, |
| { |
| "epoch": 2.32, |
| "learning_rate": 8.416666666666668e-05, |
| "loss": 0.8764, |
| "step": 11120 |
| }, |
| { |
| "epoch": 2.32, |
| "learning_rate": 8.40625e-05, |
| "loss": 0.8536, |
| "step": 11130 |
| }, |
| { |
| "epoch": 2.32, |
| "learning_rate": 8.395833333333333e-05, |
| "loss": 1.0081, |
| "step": 11140 |
| }, |
| { |
| "epoch": 2.32, |
| "learning_rate": 8.385416666666666e-05, |
| "loss": 0.7741, |
| "step": 11150 |
| }, |
| { |
| "epoch": 2.33, |
| "learning_rate": 8.375e-05, |
| "loss": 0.8499, |
| "step": 11160 |
| }, |
| { |
| "epoch": 2.33, |
| "learning_rate": 8.364583333333333e-05, |
| "loss": 0.837, |
| "step": 11170 |
| }, |
| { |
| "epoch": 2.33, |
| "learning_rate": 8.354166666666667e-05, |
| "loss": 0.93, |
| "step": 11180 |
| }, |
| { |
| "epoch": 2.33, |
| "learning_rate": 8.34375e-05, |
| "loss": 0.8481, |
| "step": 11190 |
| }, |
| { |
| "epoch": 2.33, |
| "learning_rate": 8.333333333333334e-05, |
| "loss": 0.8147, |
| "step": 11200 |
| }, |
| { |
| "epoch": 2.33, |
| "eval_accuracy": 0.819, |
| "eval_loss": 0.8743513822555542, |
| "eval_runtime": 60.5841, |
| "eval_samples_per_second": 99.036, |
| "eval_steps_per_second": 12.379, |
| "step": 11200 |
| }, |
| { |
| "epoch": 2.34, |
| "learning_rate": 8.322916666666667e-05, |
| "loss": 0.9215, |
| "step": 11210 |
| }, |
| { |
| "epoch": 2.34, |
| "learning_rate": 8.312500000000001e-05, |
| "loss": 1.0171, |
| "step": 11220 |
| }, |
| { |
| "epoch": 2.34, |
| "learning_rate": 8.302083333333334e-05, |
| "loss": 0.877, |
| "step": 11230 |
| }, |
| { |
| "epoch": 2.34, |
| "learning_rate": 8.291666666666667e-05, |
| "loss": 0.9123, |
| "step": 11240 |
| }, |
| { |
| "epoch": 2.34, |
| "learning_rate": 8.28125e-05, |
| "loss": 0.8584, |
| "step": 11250 |
| }, |
| { |
| "epoch": 2.35, |
| "learning_rate": 8.270833333333333e-05, |
| "loss": 0.9235, |
| "step": 11260 |
| }, |
| { |
| "epoch": 2.35, |
| "learning_rate": 8.260416666666667e-05, |
| "loss": 0.9265, |
| "step": 11270 |
| }, |
| { |
| "epoch": 2.35, |
| "learning_rate": 8.25e-05, |
| "loss": 1.0082, |
| "step": 11280 |
| }, |
| { |
| "epoch": 2.35, |
| "learning_rate": 8.239583333333334e-05, |
| "loss": 0.8357, |
| "step": 11290 |
| }, |
| { |
| "epoch": 2.35, |
| "learning_rate": 8.229166666666667e-05, |
| "loss": 0.7723, |
| "step": 11300 |
| }, |
| { |
| "epoch": 2.35, |
| "eval_accuracy": 0.8195, |
| "eval_loss": 0.8724921941757202, |
| "eval_runtime": 60.1821, |
| "eval_samples_per_second": 99.697, |
| "eval_steps_per_second": 12.462, |
| "step": 11300 |
| }, |
| { |
| "epoch": 2.36, |
| "learning_rate": 8.218750000000001e-05, |
| "loss": 0.8506, |
| "step": 11310 |
| }, |
| { |
| "epoch": 2.36, |
| "learning_rate": 8.208333333333334e-05, |
| "loss": 0.9962, |
| "step": 11320 |
| }, |
| { |
| "epoch": 2.36, |
| "learning_rate": 8.197916666666667e-05, |
| "loss": 0.7963, |
| "step": 11330 |
| }, |
| { |
| "epoch": 2.36, |
| "learning_rate": 8.1875e-05, |
| "loss": 0.8108, |
| "step": 11340 |
| }, |
| { |
| "epoch": 2.36, |
| "learning_rate": 8.177083333333334e-05, |
| "loss": 0.8533, |
| "step": 11350 |
| }, |
| { |
| "epoch": 2.37, |
| "learning_rate": 8.166666666666667e-05, |
| "loss": 0.8543, |
| "step": 11360 |
| }, |
| { |
| "epoch": 2.37, |
| "learning_rate": 8.156250000000001e-05, |
| "loss": 0.7748, |
| "step": 11370 |
| }, |
| { |
| "epoch": 2.37, |
| "learning_rate": 8.145833333333334e-05, |
| "loss": 0.8673, |
| "step": 11380 |
| }, |
| { |
| "epoch": 2.37, |
| "learning_rate": 8.135416666666668e-05, |
| "loss": 0.7873, |
| "step": 11390 |
| }, |
| { |
| "epoch": 2.38, |
| "learning_rate": 8.125000000000001e-05, |
| "loss": 0.9222, |
| "step": 11400 |
| }, |
| { |
| "epoch": 2.38, |
| "eval_accuracy": 0.8188333333333333, |
| "eval_loss": 0.8705334663391113, |
| "eval_runtime": 60.4825, |
| "eval_samples_per_second": 99.202, |
| "eval_steps_per_second": 12.4, |
| "step": 11400 |
| }, |
| { |
| "epoch": 2.38, |
| "learning_rate": 8.114583333333334e-05, |
| "loss": 0.8725, |
| "step": 11410 |
| }, |
| { |
| "epoch": 2.38, |
| "learning_rate": 8.104166666666667e-05, |
| "loss": 0.8851, |
| "step": 11420 |
| }, |
| { |
| "epoch": 2.38, |
| "learning_rate": 8.09375e-05, |
| "loss": 0.6912, |
| "step": 11430 |
| }, |
| { |
| "epoch": 2.38, |
| "learning_rate": 8.083333333333334e-05, |
| "loss": 0.8245, |
| "step": 11440 |
| }, |
| { |
| "epoch": 2.39, |
| "learning_rate": 8.072916666666667e-05, |
| "loss": 0.9026, |
| "step": 11450 |
| }, |
| { |
| "epoch": 2.39, |
| "learning_rate": 8.062500000000001e-05, |
| "loss": 0.8828, |
| "step": 11460 |
| }, |
| { |
| "epoch": 2.39, |
| "learning_rate": 8.052083333333334e-05, |
| "loss": 0.8112, |
| "step": 11470 |
| }, |
| { |
| "epoch": 2.39, |
| "learning_rate": 8.041666666666668e-05, |
| "loss": 0.865, |
| "step": 11480 |
| }, |
| { |
| "epoch": 2.39, |
| "learning_rate": 8.031250000000001e-05, |
| "loss": 0.7553, |
| "step": 11490 |
| }, |
| { |
| "epoch": 2.4, |
| "learning_rate": 8.020833333333334e-05, |
| "loss": 0.9692, |
| "step": 11500 |
| }, |
| { |
| "epoch": 2.4, |
| "eval_accuracy": 0.8195, |
| "eval_loss": 0.868669867515564, |
| "eval_runtime": 60.6333, |
| "eval_samples_per_second": 98.955, |
| "eval_steps_per_second": 12.369, |
| "step": 11500 |
| }, |
| { |
| "epoch": 2.4, |
| "learning_rate": 8.010416666666666e-05, |
| "loss": 0.8435, |
| "step": 11510 |
| }, |
| { |
| "epoch": 2.4, |
| "learning_rate": 8e-05, |
| "loss": 0.8767, |
| "step": 11520 |
| }, |
| { |
| "epoch": 2.4, |
| "learning_rate": 7.989583333333334e-05, |
| "loss": 0.9097, |
| "step": 11530 |
| }, |
| { |
| "epoch": 2.4, |
| "learning_rate": 7.979166666666668e-05, |
| "loss": 0.8379, |
| "step": 11540 |
| }, |
| { |
| "epoch": 2.41, |
| "learning_rate": 7.96875e-05, |
| "loss": 0.9373, |
| "step": 11550 |
| }, |
| { |
| "epoch": 2.41, |
| "learning_rate": 7.958333333333333e-05, |
| "loss": 0.8829, |
| "step": 11560 |
| }, |
| { |
| "epoch": 2.41, |
| "learning_rate": 7.947916666666668e-05, |
| "loss": 0.857, |
| "step": 11570 |
| }, |
| { |
| "epoch": 2.41, |
| "learning_rate": 7.9375e-05, |
| "loss": 0.8152, |
| "step": 11580 |
| }, |
| { |
| "epoch": 2.41, |
| "learning_rate": 7.927083333333333e-05, |
| "loss": 0.8382, |
| "step": 11590 |
| }, |
| { |
| "epoch": 2.42, |
| "learning_rate": 7.916666666666666e-05, |
| "loss": 0.8792, |
| "step": 11600 |
| }, |
| { |
| "epoch": 2.42, |
| "eval_accuracy": 0.8188333333333333, |
| "eval_loss": 0.8668614029884338, |
| "eval_runtime": 60.4427, |
| "eval_samples_per_second": 99.268, |
| "eval_steps_per_second": 12.408, |
| "step": 11600 |
| }, |
| { |
| "epoch": 2.42, |
| "learning_rate": 7.90625e-05, |
| "loss": 0.9746, |
| "step": 11610 |
| }, |
| { |
| "epoch": 2.42, |
| "learning_rate": 7.895833333333333e-05, |
| "loss": 0.9131, |
| "step": 11620 |
| }, |
| { |
| "epoch": 2.42, |
| "learning_rate": 7.885416666666667e-05, |
| "loss": 0.9136, |
| "step": 11630 |
| }, |
| { |
| "epoch": 2.42, |
| "learning_rate": 7.875e-05, |
| "loss": 0.7783, |
| "step": 11640 |
| }, |
| { |
| "epoch": 2.43, |
| "learning_rate": 7.864583333333335e-05, |
| "loss": 0.9325, |
| "step": 11650 |
| }, |
| { |
| "epoch": 2.43, |
| "learning_rate": 7.854166666666667e-05, |
| "loss": 0.82, |
| "step": 11660 |
| }, |
| { |
| "epoch": 2.43, |
| "learning_rate": 7.84375e-05, |
| "loss": 0.8862, |
| "step": 11670 |
| }, |
| { |
| "epoch": 2.43, |
| "learning_rate": 7.833333333333333e-05, |
| "loss": 0.7929, |
| "step": 11680 |
| }, |
| { |
| "epoch": 2.44, |
| "learning_rate": 7.822916666666667e-05, |
| "loss": 0.8625, |
| "step": 11690 |
| }, |
| { |
| "epoch": 2.44, |
| "learning_rate": 7.8125e-05, |
| "loss": 0.939, |
| "step": 11700 |
| }, |
| { |
| "epoch": 2.44, |
| "eval_accuracy": 0.8193333333333334, |
| "eval_loss": 0.8650014400482178, |
| "eval_runtime": 60.5697, |
| "eval_samples_per_second": 99.059, |
| "eval_steps_per_second": 12.382, |
| "step": 11700 |
| }, |
| { |
| "epoch": 2.44, |
| "learning_rate": 7.802083333333333e-05, |
| "loss": 0.9089, |
| "step": 11710 |
| }, |
| { |
| "epoch": 2.44, |
| "learning_rate": 7.791666666666667e-05, |
| "loss": 0.831, |
| "step": 11720 |
| }, |
| { |
| "epoch": 2.44, |
| "learning_rate": 7.78125e-05, |
| "loss": 0.9358, |
| "step": 11730 |
| }, |
| { |
| "epoch": 2.45, |
| "learning_rate": 7.770833333333334e-05, |
| "loss": 0.8783, |
| "step": 11740 |
| }, |
| { |
| "epoch": 2.45, |
| "learning_rate": 7.760416666666667e-05, |
| "loss": 0.8856, |
| "step": 11750 |
| }, |
| { |
| "epoch": 2.45, |
| "learning_rate": 7.75e-05, |
| "loss": 0.9105, |
| "step": 11760 |
| }, |
| { |
| "epoch": 2.45, |
| "learning_rate": 7.739583333333333e-05, |
| "loss": 0.7612, |
| "step": 11770 |
| }, |
| { |
| "epoch": 2.45, |
| "learning_rate": 7.729166666666667e-05, |
| "loss": 0.8791, |
| "step": 11780 |
| }, |
| { |
| "epoch": 2.46, |
| "learning_rate": 7.71875e-05, |
| "loss": 0.8531, |
| "step": 11790 |
| }, |
| { |
| "epoch": 2.46, |
| "learning_rate": 7.708333333333334e-05, |
| "loss": 0.9093, |
| "step": 11800 |
| }, |
| { |
| "epoch": 2.46, |
| "eval_accuracy": 0.8188333333333333, |
| "eval_loss": 0.8633024096488953, |
| "eval_runtime": 60.6107, |
| "eval_samples_per_second": 98.992, |
| "eval_steps_per_second": 12.374, |
| "step": 11800 |
| }, |
| { |
| "epoch": 2.46, |
| "learning_rate": 7.697916666666667e-05, |
| "loss": 0.8898, |
| "step": 11810 |
| }, |
| { |
| "epoch": 2.46, |
| "learning_rate": 7.687500000000001e-05, |
| "loss": 0.8957, |
| "step": 11820 |
| }, |
| { |
| "epoch": 2.46, |
| "learning_rate": 7.677083333333334e-05, |
| "loss": 0.8843, |
| "step": 11830 |
| }, |
| { |
| "epoch": 2.47, |
| "learning_rate": 7.666666666666667e-05, |
| "loss": 0.8384, |
| "step": 11840 |
| }, |
| { |
| "epoch": 2.47, |
| "learning_rate": 7.65625e-05, |
| "loss": 0.9018, |
| "step": 11850 |
| }, |
| { |
| "epoch": 2.47, |
| "learning_rate": 7.645833333333333e-05, |
| "loss": 0.8341, |
| "step": 11860 |
| }, |
| { |
| "epoch": 2.47, |
| "learning_rate": 7.635416666666667e-05, |
| "loss": 0.8599, |
| "step": 11870 |
| }, |
| { |
| "epoch": 2.48, |
| "learning_rate": 7.625e-05, |
| "loss": 0.8166, |
| "step": 11880 |
| }, |
| { |
| "epoch": 2.48, |
| "learning_rate": 7.614583333333334e-05, |
| "loss": 0.9357, |
| "step": 11890 |
| }, |
| { |
| "epoch": 2.48, |
| "learning_rate": 7.604166666666667e-05, |
| "loss": 0.7794, |
| "step": 11900 |
| }, |
| { |
| "epoch": 2.48, |
| "eval_accuracy": 0.8181666666666667, |
| "eval_loss": 0.8615716695785522, |
| "eval_runtime": 60.5021, |
| "eval_samples_per_second": 99.17, |
| "eval_steps_per_second": 12.396, |
| "step": 11900 |
| }, |
| { |
| "epoch": 2.48, |
| "learning_rate": 7.593750000000001e-05, |
| "loss": 0.8408, |
| "step": 11910 |
| }, |
| { |
| "epoch": 2.48, |
| "learning_rate": 7.583333333333334e-05, |
| "loss": 0.8493, |
| "step": 11920 |
| }, |
| { |
| "epoch": 2.49, |
| "learning_rate": 7.572916666666667e-05, |
| "loss": 0.9521, |
| "step": 11930 |
| }, |
| { |
| "epoch": 2.49, |
| "learning_rate": 7.5625e-05, |
| "loss": 0.9206, |
| "step": 11940 |
| }, |
| { |
| "epoch": 2.49, |
| "learning_rate": 7.552083333333334e-05, |
| "loss": 0.8045, |
| "step": 11950 |
| }, |
| { |
| "epoch": 2.49, |
| "learning_rate": 7.541666666666667e-05, |
| "loss": 0.884, |
| "step": 11960 |
| }, |
| { |
| "epoch": 2.49, |
| "learning_rate": 7.531250000000001e-05, |
| "loss": 0.9027, |
| "step": 11970 |
| }, |
| { |
| "epoch": 2.5, |
| "learning_rate": 7.520833333333334e-05, |
| "loss": 0.9304, |
| "step": 11980 |
| }, |
| { |
| "epoch": 2.5, |
| "learning_rate": 7.510416666666668e-05, |
| "loss": 0.8908, |
| "step": 11990 |
| }, |
| { |
| "epoch": 2.5, |
| "learning_rate": 7.500000000000001e-05, |
| "loss": 0.8572, |
| "step": 12000 |
| }, |
| { |
| "epoch": 2.5, |
| "eval_accuracy": 0.8181666666666667, |
| "eval_loss": 0.8599247932434082, |
| "eval_runtime": 60.3523, |
| "eval_samples_per_second": 99.416, |
| "eval_steps_per_second": 12.427, |
| "step": 12000 |
| }, |
| { |
| "epoch": 2.5, |
| "learning_rate": 7.489583333333334e-05, |
| "loss": 0.8573, |
| "step": 12010 |
| }, |
| { |
| "epoch": 2.5, |
| "learning_rate": 7.479166666666668e-05, |
| "loss": 0.9029, |
| "step": 12020 |
| }, |
| { |
| "epoch": 2.51, |
| "learning_rate": 7.468749999999999e-05, |
| "loss": 0.8706, |
| "step": 12030 |
| }, |
| { |
| "epoch": 2.51, |
| "learning_rate": 7.458333333333333e-05, |
| "loss": 0.9281, |
| "step": 12040 |
| }, |
| { |
| "epoch": 2.51, |
| "learning_rate": 7.447916666666666e-05, |
| "loss": 0.8718, |
| "step": 12050 |
| }, |
| { |
| "epoch": 2.51, |
| "learning_rate": 7.4375e-05, |
| "loss": 0.8078, |
| "step": 12060 |
| }, |
| { |
| "epoch": 2.51, |
| "learning_rate": 7.427083333333333e-05, |
| "loss": 0.782, |
| "step": 12070 |
| }, |
| { |
| "epoch": 2.52, |
| "learning_rate": 7.416666666666668e-05, |
| "loss": 0.81, |
| "step": 12080 |
| }, |
| { |
| "epoch": 2.52, |
| "learning_rate": 7.40625e-05, |
| "loss": 1.0015, |
| "step": 12090 |
| }, |
| { |
| "epoch": 2.52, |
| "learning_rate": 7.395833333333335e-05, |
| "loss": 0.9035, |
| "step": 12100 |
| }, |
| { |
| "epoch": 2.52, |
| "eval_accuracy": 0.8185, |
| "eval_loss": 0.8582282066345215, |
| "eval_runtime": 60.3114, |
| "eval_samples_per_second": 99.484, |
| "eval_steps_per_second": 12.435, |
| "step": 12100 |
| }, |
| { |
| "epoch": 2.52, |
| "learning_rate": 7.385416666666668e-05, |
| "loss": 0.8239, |
| "step": 12110 |
| }, |
| { |
| "epoch": 2.52, |
| "learning_rate": 7.375e-05, |
| "loss": 0.93, |
| "step": 12120 |
| }, |
| { |
| "epoch": 2.53, |
| "learning_rate": 7.364583333333333e-05, |
| "loss": 0.7904, |
| "step": 12130 |
| }, |
| { |
| "epoch": 2.53, |
| "learning_rate": 7.354166666666667e-05, |
| "loss": 0.9401, |
| "step": 12140 |
| }, |
| { |
| "epoch": 2.53, |
| "learning_rate": 7.34375e-05, |
| "loss": 0.8185, |
| "step": 12150 |
| }, |
| { |
| "epoch": 2.53, |
| "learning_rate": 7.333333333333333e-05, |
| "loss": 0.827, |
| "step": 12160 |
| }, |
| { |
| "epoch": 2.54, |
| "learning_rate": 7.322916666666667e-05, |
| "loss": 0.9634, |
| "step": 12170 |
| }, |
| { |
| "epoch": 2.54, |
| "learning_rate": 7.3125e-05, |
| "loss": 0.8821, |
| "step": 12180 |
| }, |
| { |
| "epoch": 2.54, |
| "learning_rate": 7.302083333333334e-05, |
| "loss": 0.8695, |
| "step": 12190 |
| }, |
| { |
| "epoch": 2.54, |
| "learning_rate": 7.291666666666667e-05, |
| "loss": 0.8063, |
| "step": 12200 |
| }, |
| { |
| "epoch": 2.54, |
| "eval_accuracy": 0.8193333333333334, |
| "eval_loss": 0.8565818667411804, |
| "eval_runtime": 60.1002, |
| "eval_samples_per_second": 99.833, |
| "eval_steps_per_second": 12.479, |
| "step": 12200 |
| }, |
| { |
| "epoch": 2.54, |
| "learning_rate": 7.28125e-05, |
| "loss": 0.8199, |
| "step": 12210 |
| }, |
| { |
| "epoch": 2.55, |
| "learning_rate": 7.270833333333333e-05, |
| "loss": 0.795, |
| "step": 12220 |
| }, |
| { |
| "epoch": 2.55, |
| "learning_rate": 7.260416666666667e-05, |
| "loss": 0.951, |
| "step": 12230 |
| }, |
| { |
| "epoch": 2.55, |
| "learning_rate": 7.25e-05, |
| "loss": 0.9901, |
| "step": 12240 |
| }, |
| { |
| "epoch": 2.55, |
| "learning_rate": 7.239583333333334e-05, |
| "loss": 0.8523, |
| "step": 12250 |
| }, |
| { |
| "epoch": 2.55, |
| "learning_rate": 7.229166666666667e-05, |
| "loss": 0.7762, |
| "step": 12260 |
| }, |
| { |
| "epoch": 2.56, |
| "learning_rate": 7.218750000000001e-05, |
| "loss": 0.86, |
| "step": 12270 |
| }, |
| { |
| "epoch": 2.56, |
| "learning_rate": 7.208333333333334e-05, |
| "loss": 0.7752, |
| "step": 12280 |
| }, |
| { |
| "epoch": 2.56, |
| "learning_rate": 7.197916666666667e-05, |
| "loss": 0.7141, |
| "step": 12290 |
| }, |
| { |
| "epoch": 2.56, |
| "learning_rate": 7.1875e-05, |
| "loss": 0.8935, |
| "step": 12300 |
| }, |
| { |
| "epoch": 2.56, |
| "eval_accuracy": 0.8195, |
| "eval_loss": 0.8550054430961609, |
| "eval_runtime": 60.9247, |
| "eval_samples_per_second": 98.482, |
| "eval_steps_per_second": 12.31, |
| "step": 12300 |
| }, |
| { |
| "epoch": 2.56, |
| "learning_rate": 7.177083333333333e-05, |
| "loss": 0.6926, |
| "step": 12310 |
| }, |
| { |
| "epoch": 2.57, |
| "learning_rate": 7.166666666666667e-05, |
| "loss": 0.8016, |
| "step": 12320 |
| }, |
| { |
| "epoch": 2.57, |
| "learning_rate": 7.15625e-05, |
| "loss": 0.9042, |
| "step": 12330 |
| }, |
| { |
| "epoch": 2.57, |
| "learning_rate": 7.145833333333334e-05, |
| "loss": 0.9276, |
| "step": 12340 |
| }, |
| { |
| "epoch": 2.57, |
| "learning_rate": 7.135416666666667e-05, |
| "loss": 0.9454, |
| "step": 12350 |
| }, |
| { |
| "epoch": 2.58, |
| "learning_rate": 7.125000000000001e-05, |
| "loss": 0.8952, |
| "step": 12360 |
| }, |
| { |
| "epoch": 2.58, |
| "learning_rate": 7.114583333333334e-05, |
| "loss": 0.8311, |
| "step": 12370 |
| }, |
| { |
| "epoch": 2.58, |
| "learning_rate": 7.104166666666667e-05, |
| "loss": 0.8437, |
| "step": 12380 |
| }, |
| { |
| "epoch": 2.58, |
| "learning_rate": 7.09375e-05, |
| "loss": 0.935, |
| "step": 12390 |
| }, |
| { |
| "epoch": 2.58, |
| "learning_rate": 7.083333333333334e-05, |
| "loss": 0.7991, |
| "step": 12400 |
| }, |
| { |
| "epoch": 2.58, |
| "eval_accuracy": 0.8191666666666667, |
| "eval_loss": 0.8534790277481079, |
| "eval_runtime": 61.7909, |
| "eval_samples_per_second": 97.102, |
| "eval_steps_per_second": 12.138, |
| "step": 12400 |
| }, |
| { |
| "epoch": 2.59, |
| "learning_rate": 7.072916666666667e-05, |
| "loss": 0.7695, |
| "step": 12410 |
| }, |
| { |
| "epoch": 2.59, |
| "learning_rate": 7.062500000000001e-05, |
| "loss": 0.7281, |
| "step": 12420 |
| }, |
| { |
| "epoch": 2.59, |
| "learning_rate": 7.052083333333334e-05, |
| "loss": 0.8991, |
| "step": 12430 |
| }, |
| { |
| "epoch": 2.59, |
| "learning_rate": 7.041666666666668e-05, |
| "loss": 0.8079, |
| "step": 12440 |
| }, |
| { |
| "epoch": 2.59, |
| "learning_rate": 7.031250000000001e-05, |
| "loss": 0.8824, |
| "step": 12450 |
| }, |
| { |
| "epoch": 2.6, |
| "learning_rate": 7.020833333333334e-05, |
| "loss": 0.8558, |
| "step": 12460 |
| }, |
| { |
| "epoch": 2.6, |
| "learning_rate": 7.010416666666667e-05, |
| "loss": 0.9436, |
| "step": 12470 |
| }, |
| { |
| "epoch": 2.6, |
| "learning_rate": 7e-05, |
| "loss": 0.8273, |
| "step": 12480 |
| }, |
| { |
| "epoch": 2.6, |
| "learning_rate": 6.989583333333334e-05, |
| "loss": 0.7871, |
| "step": 12490 |
| }, |
| { |
| "epoch": 2.6, |
| "learning_rate": 6.979166666666666e-05, |
| "loss": 0.856, |
| "step": 12500 |
| }, |
| { |
| "epoch": 2.6, |
| "eval_accuracy": 0.8195, |
| "eval_loss": 0.852008044719696, |
| "eval_runtime": 61.6686, |
| "eval_samples_per_second": 97.294, |
| "eval_steps_per_second": 12.162, |
| "step": 12500 |
| }, |
| { |
| "epoch": 2.61, |
| "learning_rate": 6.96875e-05, |
| "loss": 0.8275, |
| "step": 12510 |
| }, |
| { |
| "epoch": 2.61, |
| "learning_rate": 6.958333333333334e-05, |
| "loss": 0.7841, |
| "step": 12520 |
| }, |
| { |
| "epoch": 2.61, |
| "learning_rate": 6.947916666666668e-05, |
| "loss": 0.7951, |
| "step": 12530 |
| }, |
| { |
| "epoch": 2.61, |
| "learning_rate": 6.9375e-05, |
| "loss": 0.8173, |
| "step": 12540 |
| }, |
| { |
| "epoch": 2.61, |
| "learning_rate": 6.927083333333333e-05, |
| "loss": 0.9032, |
| "step": 12550 |
| }, |
| { |
| "epoch": 2.62, |
| "learning_rate": 6.916666666666666e-05, |
| "loss": 0.8016, |
| "step": 12560 |
| }, |
| { |
| "epoch": 2.62, |
| "learning_rate": 6.90625e-05, |
| "loss": 0.8069, |
| "step": 12570 |
| }, |
| { |
| "epoch": 2.62, |
| "learning_rate": 6.895833333333333e-05, |
| "loss": 0.8154, |
| "step": 12580 |
| }, |
| { |
| "epoch": 2.62, |
| "learning_rate": 6.885416666666668e-05, |
| "loss": 0.8054, |
| "step": 12590 |
| }, |
| { |
| "epoch": 2.62, |
| "learning_rate": 6.875e-05, |
| "loss": 0.8374, |
| "step": 12600 |
| }, |
| { |
| "epoch": 2.62, |
| "eval_accuracy": 0.8196666666666667, |
| "eval_loss": 0.850480318069458, |
| "eval_runtime": 61.0905, |
| "eval_samples_per_second": 98.215, |
| "eval_steps_per_second": 12.277, |
| "step": 12600 |
| }, |
| { |
| "epoch": 2.63, |
| "learning_rate": 6.864583333333333e-05, |
| "loss": 0.943, |
| "step": 12610 |
| }, |
| { |
| "epoch": 2.63, |
| "learning_rate": 6.854166666666667e-05, |
| "loss": 0.775, |
| "step": 12620 |
| }, |
| { |
| "epoch": 2.63, |
| "learning_rate": 6.84375e-05, |
| "loss": 0.9101, |
| "step": 12630 |
| }, |
| { |
| "epoch": 2.63, |
| "learning_rate": 6.833333333333333e-05, |
| "loss": 0.9451, |
| "step": 12640 |
| }, |
| { |
| "epoch": 2.64, |
| "learning_rate": 6.822916666666666e-05, |
| "loss": 0.8306, |
| "step": 12650 |
| }, |
| { |
| "epoch": 2.64, |
| "learning_rate": 6.8125e-05, |
| "loss": 0.8224, |
| "step": 12660 |
| }, |
| { |
| "epoch": 2.64, |
| "learning_rate": 6.802083333333333e-05, |
| "loss": 0.9082, |
| "step": 12670 |
| }, |
| { |
| "epoch": 2.64, |
| "learning_rate": 6.791666666666667e-05, |
| "loss": 0.9213, |
| "step": 12680 |
| }, |
| { |
| "epoch": 2.64, |
| "learning_rate": 6.78125e-05, |
| "loss": 0.7583, |
| "step": 12690 |
| }, |
| { |
| "epoch": 2.65, |
| "learning_rate": 6.770833333333334e-05, |
| "loss": 0.8418, |
| "step": 12700 |
| }, |
| { |
| "epoch": 2.65, |
| "eval_accuracy": 0.8203333333333334, |
| "eval_loss": 0.8489903807640076, |
| "eval_runtime": 61.0482, |
| "eval_samples_per_second": 98.283, |
| "eval_steps_per_second": 12.285, |
| "step": 12700 |
| }, |
| { |
| "epoch": 2.65, |
| "learning_rate": 6.760416666666667e-05, |
| "loss": 0.8826, |
| "step": 12710 |
| }, |
| { |
| "epoch": 2.65, |
| "learning_rate": 6.750000000000001e-05, |
| "loss": 0.9423, |
| "step": 12720 |
| }, |
| { |
| "epoch": 2.65, |
| "learning_rate": 6.739583333333333e-05, |
| "loss": 0.91, |
| "step": 12730 |
| }, |
| { |
| "epoch": 2.65, |
| "learning_rate": 6.729166666666667e-05, |
| "loss": 0.7467, |
| "step": 12740 |
| }, |
| { |
| "epoch": 2.66, |
| "learning_rate": 6.71875e-05, |
| "loss": 0.8387, |
| "step": 12750 |
| }, |
| { |
| "epoch": 2.66, |
| "learning_rate": 6.708333333333333e-05, |
| "loss": 0.8736, |
| "step": 12760 |
| }, |
| { |
| "epoch": 2.66, |
| "learning_rate": 6.697916666666667e-05, |
| "loss": 0.8896, |
| "step": 12770 |
| }, |
| { |
| "epoch": 2.66, |
| "learning_rate": 6.6875e-05, |
| "loss": 0.7543, |
| "step": 12780 |
| }, |
| { |
| "epoch": 2.66, |
| "learning_rate": 6.677083333333334e-05, |
| "loss": 0.8234, |
| "step": 12790 |
| }, |
| { |
| "epoch": 2.67, |
| "learning_rate": 6.666666666666667e-05, |
| "loss": 0.9232, |
| "step": 12800 |
| }, |
| { |
| "epoch": 2.67, |
| "eval_accuracy": 0.8208333333333333, |
| "eval_loss": 0.8475448489189148, |
| "eval_runtime": 61.0966, |
| "eval_samples_per_second": 98.205, |
| "eval_steps_per_second": 12.276, |
| "step": 12800 |
| }, |
| { |
| "epoch": 2.67, |
| "learning_rate": 6.656250000000001e-05, |
| "loss": 0.8793, |
| "step": 12810 |
| }, |
| { |
| "epoch": 2.67, |
| "learning_rate": 6.645833333333333e-05, |
| "loss": 0.8887, |
| "step": 12820 |
| }, |
| { |
| "epoch": 2.67, |
| "learning_rate": 6.635416666666667e-05, |
| "loss": 0.7921, |
| "step": 12830 |
| }, |
| { |
| "epoch": 2.67, |
| "learning_rate": 6.625e-05, |
| "loss": 0.7992, |
| "step": 12840 |
| }, |
| { |
| "epoch": 2.68, |
| "learning_rate": 6.614583333333334e-05, |
| "loss": 0.7632, |
| "step": 12850 |
| }, |
| { |
| "epoch": 2.68, |
| "learning_rate": 6.604166666666667e-05, |
| "loss": 0.8905, |
| "step": 12860 |
| }, |
| { |
| "epoch": 2.68, |
| "learning_rate": 6.593750000000001e-05, |
| "loss": 0.8154, |
| "step": 12870 |
| }, |
| { |
| "epoch": 2.68, |
| "learning_rate": 6.583333333333334e-05, |
| "loss": 0.9302, |
| "step": 12880 |
| }, |
| { |
| "epoch": 2.69, |
| "learning_rate": 6.572916666666668e-05, |
| "loss": 0.8542, |
| "step": 12890 |
| }, |
| { |
| "epoch": 2.69, |
| "learning_rate": 6.562500000000001e-05, |
| "loss": 0.8335, |
| "step": 12900 |
| }, |
| { |
| "epoch": 2.69, |
| "eval_accuracy": 0.8206666666666667, |
| "eval_loss": 0.8461668491363525, |
| "eval_runtime": 61.269, |
| "eval_samples_per_second": 97.929, |
| "eval_steps_per_second": 12.241, |
| "step": 12900 |
| }, |
| { |
| "epoch": 2.69, |
| "learning_rate": 6.552083333333334e-05, |
| "loss": 0.9654, |
| "step": 12910 |
| }, |
| { |
| "epoch": 2.69, |
| "learning_rate": 6.541666666666667e-05, |
| "loss": 0.9115, |
| "step": 12920 |
| }, |
| { |
| "epoch": 2.69, |
| "learning_rate": 6.53125e-05, |
| "loss": 0.9599, |
| "step": 12930 |
| }, |
| { |
| "epoch": 2.7, |
| "learning_rate": 6.520833333333334e-05, |
| "loss": 0.846, |
| "step": 12940 |
| }, |
| { |
| "epoch": 2.7, |
| "learning_rate": 6.510416666666667e-05, |
| "loss": 0.851, |
| "step": 12950 |
| }, |
| { |
| "epoch": 2.7, |
| "learning_rate": 6.500000000000001e-05, |
| "loss": 0.8271, |
| "step": 12960 |
| }, |
| { |
| "epoch": 2.7, |
| "learning_rate": 6.489583333333334e-05, |
| "loss": 0.819, |
| "step": 12970 |
| }, |
| { |
| "epoch": 2.7, |
| "learning_rate": 6.479166666666668e-05, |
| "loss": 0.934, |
| "step": 12980 |
| }, |
| { |
| "epoch": 2.71, |
| "learning_rate": 6.468750000000001e-05, |
| "loss": 0.9438, |
| "step": 12990 |
| }, |
| { |
| "epoch": 2.71, |
| "learning_rate": 6.458333333333334e-05, |
| "loss": 0.8659, |
| "step": 13000 |
| }, |
| { |
| "epoch": 2.71, |
| "eval_accuracy": 0.8205, |
| "eval_loss": 0.8448504209518433, |
| "eval_runtime": 60.7179, |
| "eval_samples_per_second": 98.818, |
| "eval_steps_per_second": 12.352, |
| "step": 13000 |
| }, |
| { |
| "epoch": 2.71, |
| "learning_rate": 6.447916666666666e-05, |
| "loss": 0.7991, |
| "step": 13010 |
| }, |
| { |
| "epoch": 2.71, |
| "learning_rate": 6.4375e-05, |
| "loss": 0.76, |
| "step": 13020 |
| }, |
| { |
| "epoch": 2.71, |
| "learning_rate": 6.427083333333333e-05, |
| "loss": 0.7993, |
| "step": 13030 |
| }, |
| { |
| "epoch": 2.72, |
| "learning_rate": 6.416666666666668e-05, |
| "loss": 0.9047, |
| "step": 13040 |
| }, |
| { |
| "epoch": 2.72, |
| "learning_rate": 6.40625e-05, |
| "loss": 0.8619, |
| "step": 13050 |
| }, |
| { |
| "epoch": 2.72, |
| "learning_rate": 6.395833333333333e-05, |
| "loss": 0.8026, |
| "step": 13060 |
| }, |
| { |
| "epoch": 2.72, |
| "learning_rate": 6.385416666666668e-05, |
| "loss": 0.8464, |
| "step": 13070 |
| }, |
| { |
| "epoch": 2.73, |
| "learning_rate": 6.375e-05, |
| "loss": 0.754, |
| "step": 13080 |
| }, |
| { |
| "epoch": 2.73, |
| "learning_rate": 6.364583333333333e-05, |
| "loss": 0.7715, |
| "step": 13090 |
| }, |
| { |
| "epoch": 2.73, |
| "learning_rate": 6.354166666666666e-05, |
| "loss": 0.9798, |
| "step": 13100 |
| }, |
| { |
| "epoch": 2.73, |
| "eval_accuracy": 0.8205, |
| "eval_loss": 0.8435203433036804, |
| "eval_runtime": 60.4746, |
| "eval_samples_per_second": 99.215, |
| "eval_steps_per_second": 12.402, |
| "step": 13100 |
| }, |
| { |
| "epoch": 2.73, |
| "learning_rate": 6.34375e-05, |
| "loss": 0.9559, |
| "step": 13110 |
| }, |
| { |
| "epoch": 2.73, |
| "learning_rate": 6.333333333333333e-05, |
| "loss": 0.8001, |
| "step": 13120 |
| }, |
| { |
| "epoch": 2.74, |
| "learning_rate": 6.322916666666667e-05, |
| "loss": 0.8173, |
| "step": 13130 |
| }, |
| { |
| "epoch": 2.74, |
| "learning_rate": 6.3125e-05, |
| "loss": 0.9619, |
| "step": 13140 |
| }, |
| { |
| "epoch": 2.74, |
| "learning_rate": 6.302083333333335e-05, |
| "loss": 1.0064, |
| "step": 13150 |
| }, |
| { |
| "epoch": 2.74, |
| "learning_rate": 6.291666666666667e-05, |
| "loss": 0.9892, |
| "step": 13160 |
| }, |
| { |
| "epoch": 2.74, |
| "learning_rate": 6.28125e-05, |
| "loss": 0.8422, |
| "step": 13170 |
| }, |
| { |
| "epoch": 2.75, |
| "learning_rate": 6.270833333333333e-05, |
| "loss": 0.7967, |
| "step": 13180 |
| }, |
| { |
| "epoch": 2.75, |
| "learning_rate": 6.260416666666667e-05, |
| "loss": 0.9294, |
| "step": 13190 |
| }, |
| { |
| "epoch": 2.75, |
| "learning_rate": 6.25e-05, |
| "loss": 0.7288, |
| "step": 13200 |
| }, |
| { |
| "epoch": 2.75, |
| "eval_accuracy": 0.8205, |
| "eval_loss": 0.8422872424125671, |
| "eval_runtime": 60.5218, |
| "eval_samples_per_second": 99.138, |
| "eval_steps_per_second": 12.392, |
| "step": 13200 |
| }, |
| { |
| "epoch": 2.75, |
| "learning_rate": 6.239583333333333e-05, |
| "loss": 0.9479, |
| "step": 13210 |
| }, |
| { |
| "epoch": 2.75, |
| "learning_rate": 6.229166666666667e-05, |
| "loss": 0.9116, |
| "step": 13220 |
| }, |
| { |
| "epoch": 2.76, |
| "learning_rate": 6.21875e-05, |
| "loss": 0.942, |
| "step": 13230 |
| }, |
| { |
| "epoch": 2.76, |
| "learning_rate": 6.208333333333334e-05, |
| "loss": 0.8499, |
| "step": 13240 |
| }, |
| { |
| "epoch": 2.76, |
| "learning_rate": 6.197916666666667e-05, |
| "loss": 0.9271, |
| "step": 13250 |
| }, |
| { |
| "epoch": 2.76, |
| "learning_rate": 6.1875e-05, |
| "loss": 0.931, |
| "step": 13260 |
| }, |
| { |
| "epoch": 2.76, |
| "learning_rate": 6.177083333333333e-05, |
| "loss": 0.9125, |
| "step": 13270 |
| }, |
| { |
| "epoch": 2.77, |
| "learning_rate": 6.166666666666667e-05, |
| "loss": 0.7709, |
| "step": 13280 |
| }, |
| { |
| "epoch": 2.77, |
| "learning_rate": 6.15625e-05, |
| "loss": 0.8586, |
| "step": 13290 |
| }, |
| { |
| "epoch": 2.77, |
| "learning_rate": 6.145833333333334e-05, |
| "loss": 0.9086, |
| "step": 13300 |
| }, |
| { |
| "epoch": 2.77, |
| "eval_accuracy": 0.821, |
| "eval_loss": 0.8410601615905762, |
| "eval_runtime": 61.0435, |
| "eval_samples_per_second": 98.291, |
| "eval_steps_per_second": 12.286, |
| "step": 13300 |
| }, |
| { |
| "epoch": 2.77, |
| "learning_rate": 6.135416666666667e-05, |
| "loss": 0.9257, |
| "step": 13310 |
| }, |
| { |
| "epoch": 2.77, |
| "learning_rate": 6.125000000000001e-05, |
| "loss": 1.0196, |
| "step": 13320 |
| }, |
| { |
| "epoch": 2.78, |
| "learning_rate": 6.114583333333334e-05, |
| "loss": 0.921, |
| "step": 13330 |
| }, |
| { |
| "epoch": 2.78, |
| "learning_rate": 6.104166666666667e-05, |
| "loss": 0.879, |
| "step": 13340 |
| }, |
| { |
| "epoch": 2.78, |
| "learning_rate": 6.0937500000000004e-05, |
| "loss": 0.8696, |
| "step": 13350 |
| }, |
| { |
| "epoch": 2.78, |
| "learning_rate": 6.083333333333333e-05, |
| "loss": 0.7828, |
| "step": 13360 |
| }, |
| { |
| "epoch": 2.79, |
| "learning_rate": 6.072916666666667e-05, |
| "loss": 0.8112, |
| "step": 13370 |
| }, |
| { |
| "epoch": 2.79, |
| "learning_rate": 6.0624999999999996e-05, |
| "loss": 0.8291, |
| "step": 13380 |
| }, |
| { |
| "epoch": 2.79, |
| "learning_rate": 6.052083333333334e-05, |
| "loss": 0.8757, |
| "step": 13390 |
| }, |
| { |
| "epoch": 2.79, |
| "learning_rate": 6.041666666666667e-05, |
| "loss": 0.7912, |
| "step": 13400 |
| }, |
| { |
| "epoch": 2.79, |
| "eval_accuracy": 0.8205, |
| "eval_loss": 0.8398057222366333, |
| "eval_runtime": 60.6934, |
| "eval_samples_per_second": 98.858, |
| "eval_steps_per_second": 12.357, |
| "step": 13400 |
| }, |
| { |
| "epoch": 2.79, |
| "learning_rate": 6.03125e-05, |
| "loss": 0.9187, |
| "step": 13410 |
| }, |
| { |
| "epoch": 2.8, |
| "learning_rate": 6.020833333333333e-05, |
| "loss": 0.9385, |
| "step": 13420 |
| }, |
| { |
| "epoch": 2.8, |
| "learning_rate": 6.010416666666667e-05, |
| "loss": 0.8672, |
| "step": 13430 |
| }, |
| { |
| "epoch": 2.8, |
| "learning_rate": 6e-05, |
| "loss": 0.894, |
| "step": 13440 |
| }, |
| { |
| "epoch": 2.8, |
| "learning_rate": 5.989583333333334e-05, |
| "loss": 0.8007, |
| "step": 13450 |
| }, |
| { |
| "epoch": 2.8, |
| "learning_rate": 5.9791666666666665e-05, |
| "loss": 0.7912, |
| "step": 13460 |
| }, |
| { |
| "epoch": 2.81, |
| "learning_rate": 5.968750000000001e-05, |
| "loss": 0.8162, |
| "step": 13470 |
| }, |
| { |
| "epoch": 2.81, |
| "learning_rate": 5.9583333333333336e-05, |
| "loss": 0.8789, |
| "step": 13480 |
| }, |
| { |
| "epoch": 2.81, |
| "learning_rate": 5.947916666666667e-05, |
| "loss": 0.7821, |
| "step": 13490 |
| }, |
| { |
| "epoch": 2.81, |
| "learning_rate": 5.9375e-05, |
| "loss": 0.8675, |
| "step": 13500 |
| }, |
| { |
| "epoch": 2.81, |
| "eval_accuracy": 0.8201666666666667, |
| "eval_loss": 0.8386116623878479, |
| "eval_runtime": 60.3181, |
| "eval_samples_per_second": 99.473, |
| "eval_steps_per_second": 12.434, |
| "step": 13500 |
| }, |
| { |
| "epoch": 2.81, |
| "learning_rate": 5.927083333333333e-05, |
| "loss": 0.8671, |
| "step": 13510 |
| }, |
| { |
| "epoch": 2.82, |
| "learning_rate": 5.916666666666667e-05, |
| "loss": 0.8958, |
| "step": 13520 |
| }, |
| { |
| "epoch": 2.82, |
| "learning_rate": 5.90625e-05, |
| "loss": 0.7163, |
| "step": 13530 |
| }, |
| { |
| "epoch": 2.82, |
| "learning_rate": 5.8958333333333334e-05, |
| "loss": 0.833, |
| "step": 13540 |
| }, |
| { |
| "epoch": 2.82, |
| "learning_rate": 5.885416666666666e-05, |
| "loss": 0.9433, |
| "step": 13550 |
| }, |
| { |
| "epoch": 2.83, |
| "learning_rate": 5.8750000000000005e-05, |
| "loss": 0.8122, |
| "step": 13560 |
| }, |
| { |
| "epoch": 2.83, |
| "learning_rate": 5.8645833333333334e-05, |
| "loss": 0.8385, |
| "step": 13570 |
| }, |
| { |
| "epoch": 2.83, |
| "learning_rate": 5.8541666666666676e-05, |
| "loss": 0.8386, |
| "step": 13580 |
| }, |
| { |
| "epoch": 2.83, |
| "learning_rate": 5.84375e-05, |
| "loss": 0.8443, |
| "step": 13590 |
| }, |
| { |
| "epoch": 2.83, |
| "learning_rate": 5.833333333333334e-05, |
| "loss": 0.8045, |
| "step": 13600 |
| }, |
| { |
| "epoch": 2.83, |
| "eval_accuracy": 0.8198333333333333, |
| "eval_loss": 0.837420642375946, |
| "eval_runtime": 60.5594, |
| "eval_samples_per_second": 99.076, |
| "eval_steps_per_second": 12.385, |
| "step": 13600 |
| }, |
| { |
| "epoch": 2.84, |
| "learning_rate": 5.822916666666667e-05, |
| "loss": 0.8022, |
| "step": 13610 |
| }, |
| { |
| "epoch": 2.84, |
| "learning_rate": 5.812500000000001e-05, |
| "loss": 0.9185, |
| "step": 13620 |
| }, |
| { |
| "epoch": 2.84, |
| "learning_rate": 5.802083333333334e-05, |
| "loss": 0.7499, |
| "step": 13630 |
| }, |
| { |
| "epoch": 2.84, |
| "learning_rate": 5.7916666666666674e-05, |
| "loss": 0.8283, |
| "step": 13640 |
| }, |
| { |
| "epoch": 2.84, |
| "learning_rate": 5.78125e-05, |
| "loss": 0.8382, |
| "step": 13650 |
| }, |
| { |
| "epoch": 2.85, |
| "learning_rate": 5.770833333333333e-05, |
| "loss": 0.776, |
| "step": 13660 |
| }, |
| { |
| "epoch": 2.85, |
| "learning_rate": 5.760416666666667e-05, |
| "loss": 0.912, |
| "step": 13670 |
| }, |
| { |
| "epoch": 2.85, |
| "learning_rate": 5.7499999999999995e-05, |
| "loss": 0.8961, |
| "step": 13680 |
| }, |
| { |
| "epoch": 2.85, |
| "learning_rate": 5.739583333333334e-05, |
| "loss": 0.8808, |
| "step": 13690 |
| }, |
| { |
| "epoch": 2.85, |
| "learning_rate": 5.7291666666666666e-05, |
| "loss": 0.8421, |
| "step": 13700 |
| }, |
| { |
| "epoch": 2.85, |
| "eval_accuracy": 0.8201666666666667, |
| "eval_loss": 0.8361889719963074, |
| "eval_runtime": 60.7653, |
| "eval_samples_per_second": 98.741, |
| "eval_steps_per_second": 12.343, |
| "step": 13700 |
| }, |
| { |
| "epoch": 2.86, |
| "learning_rate": 5.718750000000001e-05, |
| "loss": 0.8416, |
| "step": 13710 |
| }, |
| { |
| "epoch": 2.86, |
| "learning_rate": 5.7083333333333336e-05, |
| "loss": 0.8587, |
| "step": 13720 |
| }, |
| { |
| "epoch": 2.86, |
| "learning_rate": 5.697916666666667e-05, |
| "loss": 0.8995, |
| "step": 13730 |
| }, |
| { |
| "epoch": 2.86, |
| "learning_rate": 5.6875e-05, |
| "loss": 0.8408, |
| "step": 13740 |
| }, |
| { |
| "epoch": 2.86, |
| "learning_rate": 5.677083333333334e-05, |
| "loss": 0.7675, |
| "step": 13750 |
| }, |
| { |
| "epoch": 2.87, |
| "learning_rate": 5.666666666666667e-05, |
| "loss": 0.92, |
| "step": 13760 |
| }, |
| { |
| "epoch": 2.87, |
| "learning_rate": 5.6562500000000006e-05, |
| "loss": 0.7741, |
| "step": 13770 |
| }, |
| { |
| "epoch": 2.87, |
| "learning_rate": 5.6458333333333335e-05, |
| "loss": 0.8593, |
| "step": 13780 |
| }, |
| { |
| "epoch": 2.87, |
| "learning_rate": 5.635416666666668e-05, |
| "loss": 0.8111, |
| "step": 13790 |
| }, |
| { |
| "epoch": 2.88, |
| "learning_rate": 5.6250000000000005e-05, |
| "loss": 0.7453, |
| "step": 13800 |
| }, |
| { |
| "epoch": 2.88, |
| "eval_accuracy": 0.8201666666666667, |
| "eval_loss": 0.8350421786308289, |
| "eval_runtime": 61.0378, |
| "eval_samples_per_second": 98.3, |
| "eval_steps_per_second": 12.287, |
| "step": 13800 |
| }, |
| { |
| "epoch": 2.88, |
| "learning_rate": 5.6145833333333334e-05, |
| "loss": 0.8311, |
| "step": 13810 |
| }, |
| { |
| "epoch": 2.88, |
| "learning_rate": 5.604166666666667e-05, |
| "loss": 0.9279, |
| "step": 13820 |
| }, |
| { |
| "epoch": 2.88, |
| "learning_rate": 5.59375e-05, |
| "loss": 0.8462, |
| "step": 13830 |
| }, |
| { |
| "epoch": 2.88, |
| "learning_rate": 5.583333333333334e-05, |
| "loss": 0.8275, |
| "step": 13840 |
| }, |
| { |
| "epoch": 2.89, |
| "learning_rate": 5.572916666666667e-05, |
| "loss": 0.8998, |
| "step": 13850 |
| }, |
| { |
| "epoch": 2.89, |
| "learning_rate": 5.5625000000000004e-05, |
| "loss": 0.8697, |
| "step": 13860 |
| }, |
| { |
| "epoch": 2.89, |
| "learning_rate": 5.552083333333333e-05, |
| "loss": 0.8364, |
| "step": 13870 |
| }, |
| { |
| "epoch": 2.89, |
| "learning_rate": 5.5416666666666674e-05, |
| "loss": 0.8939, |
| "step": 13880 |
| }, |
| { |
| "epoch": 2.89, |
| "learning_rate": 5.53125e-05, |
| "loss": 0.7989, |
| "step": 13890 |
| }, |
| { |
| "epoch": 2.9, |
| "learning_rate": 5.520833333333334e-05, |
| "loss": 0.7348, |
| "step": 13900 |
| }, |
| { |
| "epoch": 2.9, |
| "eval_accuracy": 0.8203333333333334, |
| "eval_loss": 0.8339308500289917, |
| "eval_runtime": 60.4543, |
| "eval_samples_per_second": 99.249, |
| "eval_steps_per_second": 12.406, |
| "step": 13900 |
| }, |
| { |
| "epoch": 2.9, |
| "learning_rate": 5.510416666666667e-05, |
| "loss": 0.8432, |
| "step": 13910 |
| }, |
| { |
| "epoch": 2.9, |
| "learning_rate": 5.500000000000001e-05, |
| "loss": 0.9017, |
| "step": 13920 |
| }, |
| { |
| "epoch": 2.9, |
| "learning_rate": 5.489583333333334e-05, |
| "loss": 0.9451, |
| "step": 13930 |
| }, |
| { |
| "epoch": 2.9, |
| "learning_rate": 5.479166666666667e-05, |
| "loss": 0.9087, |
| "step": 13940 |
| }, |
| { |
| "epoch": 2.91, |
| "learning_rate": 5.46875e-05, |
| "loss": 1.0241, |
| "step": 13950 |
| }, |
| { |
| "epoch": 2.91, |
| "learning_rate": 5.458333333333333e-05, |
| "loss": 0.7801, |
| "step": 13960 |
| }, |
| { |
| "epoch": 2.91, |
| "learning_rate": 5.447916666666667e-05, |
| "loss": 0.919, |
| "step": 13970 |
| }, |
| { |
| "epoch": 2.91, |
| "learning_rate": 5.4375e-05, |
| "loss": 0.8727, |
| "step": 13980 |
| }, |
| { |
| "epoch": 2.91, |
| "learning_rate": 5.4270833333333336e-05, |
| "loss": 0.8151, |
| "step": 13990 |
| }, |
| { |
| "epoch": 2.92, |
| "learning_rate": 5.4166666666666664e-05, |
| "loss": 0.8977, |
| "step": 14000 |
| }, |
| { |
| "epoch": 2.92, |
| "eval_accuracy": 0.8205, |
| "eval_loss": 0.8328187465667725, |
| "eval_runtime": 60.5952, |
| "eval_samples_per_second": 99.018, |
| "eval_steps_per_second": 12.377, |
| "step": 14000 |
| }, |
| { |
| "epoch": 2.92, |
| "learning_rate": 5.4062500000000006e-05, |
| "loss": 0.9011, |
| "step": 14010 |
| }, |
| { |
| "epoch": 2.92, |
| "learning_rate": 5.3958333333333335e-05, |
| "loss": 0.9001, |
| "step": 14020 |
| }, |
| { |
| "epoch": 2.92, |
| "learning_rate": 5.385416666666667e-05, |
| "loss": 0.8429, |
| "step": 14030 |
| }, |
| { |
| "epoch": 2.92, |
| "learning_rate": 5.375e-05, |
| "loss": 0.8214, |
| "step": 14040 |
| }, |
| { |
| "epoch": 2.93, |
| "learning_rate": 5.364583333333334e-05, |
| "loss": 0.9626, |
| "step": 14050 |
| }, |
| { |
| "epoch": 2.93, |
| "learning_rate": 5.354166666666667e-05, |
| "loss": 0.9156, |
| "step": 14060 |
| }, |
| { |
| "epoch": 2.93, |
| "learning_rate": 5.3437500000000005e-05, |
| "loss": 0.9298, |
| "step": 14070 |
| }, |
| { |
| "epoch": 2.93, |
| "learning_rate": 5.333333333333333e-05, |
| "loss": 0.9029, |
| "step": 14080 |
| }, |
| { |
| "epoch": 2.94, |
| "learning_rate": 5.3229166666666675e-05, |
| "loss": 0.9126, |
| "step": 14090 |
| }, |
| { |
| "epoch": 2.94, |
| "learning_rate": 5.3125000000000004e-05, |
| "loss": 0.859, |
| "step": 14100 |
| }, |
| { |
| "epoch": 2.94, |
| "eval_accuracy": 0.821, |
| "eval_loss": 0.8318198323249817, |
| "eval_runtime": 60.1123, |
| "eval_samples_per_second": 99.813, |
| "eval_steps_per_second": 12.477, |
| "step": 14100 |
| }, |
| { |
| "epoch": 2.94, |
| "learning_rate": 5.302083333333333e-05, |
| "loss": 0.6739, |
| "step": 14110 |
| }, |
| { |
| "epoch": 2.94, |
| "learning_rate": 5.291666666666667e-05, |
| "loss": 0.8718, |
| "step": 14120 |
| }, |
| { |
| "epoch": 2.94, |
| "learning_rate": 5.2812499999999996e-05, |
| "loss": 0.8609, |
| "step": 14130 |
| }, |
| { |
| "epoch": 2.95, |
| "learning_rate": 5.270833333333334e-05, |
| "loss": 0.864, |
| "step": 14140 |
| }, |
| { |
| "epoch": 2.95, |
| "learning_rate": 5.260416666666667e-05, |
| "loss": 0.8994, |
| "step": 14150 |
| }, |
| { |
| "epoch": 2.95, |
| "learning_rate": 5.25e-05, |
| "loss": 0.89, |
| "step": 14160 |
| }, |
| { |
| "epoch": 2.95, |
| "learning_rate": 5.239583333333333e-05, |
| "loss": 0.7512, |
| "step": 14170 |
| }, |
| { |
| "epoch": 2.95, |
| "learning_rate": 5.229166666666667e-05, |
| "loss": 0.745, |
| "step": 14180 |
| }, |
| { |
| "epoch": 2.96, |
| "learning_rate": 5.21875e-05, |
| "loss": 0.885, |
| "step": 14190 |
| }, |
| { |
| "epoch": 2.96, |
| "learning_rate": 5.208333333333334e-05, |
| "loss": 0.8571, |
| "step": 14200 |
| }, |
| { |
| "epoch": 2.96, |
| "eval_accuracy": 0.8211666666666667, |
| "eval_loss": 0.830737292766571, |
| "eval_runtime": 59.3713, |
| "eval_samples_per_second": 101.059, |
| "eval_steps_per_second": 12.632, |
| "step": 14200 |
| }, |
| { |
| "epoch": 2.96, |
| "learning_rate": 5.1979166666666665e-05, |
| "loss": 0.752, |
| "step": 14210 |
| }, |
| { |
| "epoch": 2.96, |
| "learning_rate": 5.187500000000001e-05, |
| "loss": 0.7798, |
| "step": 14220 |
| }, |
| { |
| "epoch": 2.96, |
| "learning_rate": 5.1770833333333336e-05, |
| "loss": 0.8248, |
| "step": 14230 |
| }, |
| { |
| "epoch": 2.97, |
| "learning_rate": 5.166666666666667e-05, |
| "loss": 0.7945, |
| "step": 14240 |
| }, |
| { |
| "epoch": 2.97, |
| "learning_rate": 5.15625e-05, |
| "loss": 0.929, |
| "step": 14250 |
| }, |
| { |
| "epoch": 2.97, |
| "learning_rate": 5.145833333333333e-05, |
| "loss": 0.8347, |
| "step": 14260 |
| }, |
| { |
| "epoch": 2.97, |
| "learning_rate": 5.135416666666667e-05, |
| "loss": 0.8011, |
| "step": 14270 |
| }, |
| { |
| "epoch": 2.98, |
| "learning_rate": 5.125e-05, |
| "loss": 0.8441, |
| "step": 14280 |
| }, |
| { |
| "epoch": 2.98, |
| "learning_rate": 5.1145833333333334e-05, |
| "loss": 0.7134, |
| "step": 14290 |
| }, |
| { |
| "epoch": 2.98, |
| "learning_rate": 5.104166666666666e-05, |
| "loss": 0.8158, |
| "step": 14300 |
| }, |
| { |
| "epoch": 2.98, |
| "eval_accuracy": 0.8215, |
| "eval_loss": 0.8297010660171509, |
| "eval_runtime": 60.2479, |
| "eval_samples_per_second": 99.589, |
| "eval_steps_per_second": 12.449, |
| "step": 14300 |
| }, |
| { |
| "epoch": 2.98, |
| "learning_rate": 5.0937500000000005e-05, |
| "loss": 0.7375, |
| "step": 14310 |
| }, |
| { |
| "epoch": 2.98, |
| "learning_rate": 5.0833333333333333e-05, |
| "loss": 0.8676, |
| "step": 14320 |
| }, |
| { |
| "epoch": 2.99, |
| "learning_rate": 5.072916666666667e-05, |
| "loss": 0.8066, |
| "step": 14330 |
| }, |
| { |
| "epoch": 2.99, |
| "learning_rate": 5.0625e-05, |
| "loss": 0.8839, |
| "step": 14340 |
| }, |
| { |
| "epoch": 2.99, |
| "learning_rate": 5.052083333333334e-05, |
| "loss": 0.9262, |
| "step": 14350 |
| }, |
| { |
| "epoch": 2.99, |
| "learning_rate": 5.041666666666667e-05, |
| "loss": 0.8416, |
| "step": 14360 |
| }, |
| { |
| "epoch": 2.99, |
| "learning_rate": 5.031250000000001e-05, |
| "loss": 0.8169, |
| "step": 14370 |
| }, |
| { |
| "epoch": 3.0, |
| "learning_rate": 5.020833333333333e-05, |
| "loss": 0.8065, |
| "step": 14380 |
| }, |
| { |
| "epoch": 3.0, |
| "learning_rate": 5.0104166666666674e-05, |
| "loss": 0.8215, |
| "step": 14390 |
| }, |
| { |
| "epoch": 3.0, |
| "learning_rate": 5e-05, |
| "loss": 0.8635, |
| "step": 14400 |
| }, |
| { |
| "epoch": 3.0, |
| "eval_accuracy": 0.8215, |
| "eval_loss": 0.8286809921264648, |
| "eval_runtime": 60.4638, |
| "eval_samples_per_second": 99.233, |
| "eval_steps_per_second": 12.404, |
| "step": 14400 |
| }, |
| { |
| "epoch": 3.0, |
| "learning_rate": 4.989583333333334e-05, |
| "loss": 0.7426, |
| "step": 14410 |
| }, |
| { |
| "epoch": 3.0, |
| "learning_rate": 4.979166666666667e-05, |
| "loss": 0.9677, |
| "step": 14420 |
| }, |
| { |
| "epoch": 3.01, |
| "learning_rate": 4.96875e-05, |
| "loss": 0.9635, |
| "step": 14430 |
| }, |
| { |
| "epoch": 3.01, |
| "learning_rate": 4.958333333333334e-05, |
| "loss": 0.7461, |
| "step": 14440 |
| }, |
| { |
| "epoch": 3.01, |
| "learning_rate": 4.947916666666667e-05, |
| "loss": 0.9155, |
| "step": 14450 |
| }, |
| { |
| "epoch": 3.01, |
| "learning_rate": 4.937500000000001e-05, |
| "loss": 0.7194, |
| "step": 14460 |
| }, |
| { |
| "epoch": 3.01, |
| "learning_rate": 4.9270833333333336e-05, |
| "loss": 0.8671, |
| "step": 14470 |
| }, |
| { |
| "epoch": 3.02, |
| "learning_rate": 4.9166666666666665e-05, |
| "loss": 0.8405, |
| "step": 14480 |
| }, |
| { |
| "epoch": 3.02, |
| "learning_rate": 4.90625e-05, |
| "loss": 0.7855, |
| "step": 14490 |
| }, |
| { |
| "epoch": 3.02, |
| "learning_rate": 4.8958333333333335e-05, |
| "loss": 0.9095, |
| "step": 14500 |
| }, |
| { |
| "epoch": 3.02, |
| "eval_accuracy": 0.8215, |
| "eval_loss": 0.8277285099029541, |
| "eval_runtime": 59.7692, |
| "eval_samples_per_second": 100.386, |
| "eval_steps_per_second": 12.548, |
| "step": 14500 |
| }, |
| { |
| "epoch": 3.02, |
| "learning_rate": 4.885416666666667e-05, |
| "loss": 0.8657, |
| "step": 14510 |
| }, |
| { |
| "epoch": 3.02, |
| "learning_rate": 4.875e-05, |
| "loss": 0.7522, |
| "step": 14520 |
| }, |
| { |
| "epoch": 3.03, |
| "learning_rate": 4.8645833333333334e-05, |
| "loss": 0.7855, |
| "step": 14530 |
| }, |
| { |
| "epoch": 3.03, |
| "learning_rate": 4.854166666666667e-05, |
| "loss": 0.8542, |
| "step": 14540 |
| }, |
| { |
| "epoch": 3.03, |
| "learning_rate": 4.8437500000000005e-05, |
| "loss": 0.8989, |
| "step": 14550 |
| }, |
| { |
| "epoch": 3.03, |
| "learning_rate": 4.8333333333333334e-05, |
| "loss": 0.8292, |
| "step": 14560 |
| }, |
| { |
| "epoch": 3.04, |
| "learning_rate": 4.822916666666667e-05, |
| "loss": 0.8904, |
| "step": 14570 |
| }, |
| { |
| "epoch": 3.04, |
| "learning_rate": 4.8125000000000004e-05, |
| "loss": 0.7875, |
| "step": 14580 |
| }, |
| { |
| "epoch": 3.04, |
| "learning_rate": 4.802083333333334e-05, |
| "loss": 0.8307, |
| "step": 14590 |
| }, |
| { |
| "epoch": 3.04, |
| "learning_rate": 4.791666666666667e-05, |
| "loss": 0.8491, |
| "step": 14600 |
| }, |
| { |
| "epoch": 3.04, |
| "eval_accuracy": 0.8216666666666667, |
| "eval_loss": 0.8268113732337952, |
| "eval_runtime": 59.8668, |
| "eval_samples_per_second": 100.222, |
| "eval_steps_per_second": 12.528, |
| "step": 14600 |
| }, |
| { |
| "epoch": 3.04, |
| "learning_rate": 4.7812500000000003e-05, |
| "loss": 0.8636, |
| "step": 14610 |
| }, |
| { |
| "epoch": 3.05, |
| "learning_rate": 4.770833333333334e-05, |
| "loss": 0.8123, |
| "step": 14620 |
| }, |
| { |
| "epoch": 3.05, |
| "learning_rate": 4.760416666666667e-05, |
| "loss": 0.7534, |
| "step": 14630 |
| }, |
| { |
| "epoch": 3.05, |
| "learning_rate": 4.75e-05, |
| "loss": 0.723, |
| "step": 14640 |
| }, |
| { |
| "epoch": 3.05, |
| "learning_rate": 4.739583333333333e-05, |
| "loss": 0.7155, |
| "step": 14650 |
| }, |
| { |
| "epoch": 3.05, |
| "learning_rate": 4.7291666666666666e-05, |
| "loss": 0.8156, |
| "step": 14660 |
| }, |
| { |
| "epoch": 3.06, |
| "learning_rate": 4.71875e-05, |
| "loss": 0.6838, |
| "step": 14670 |
| }, |
| { |
| "epoch": 3.06, |
| "learning_rate": 4.708333333333334e-05, |
| "loss": 0.8484, |
| "step": 14680 |
| }, |
| { |
| "epoch": 3.06, |
| "learning_rate": 4.6979166666666666e-05, |
| "loss": 0.8796, |
| "step": 14690 |
| }, |
| { |
| "epoch": 3.06, |
| "learning_rate": 4.6875e-05, |
| "loss": 0.9136, |
| "step": 14700 |
| }, |
| { |
| "epoch": 3.06, |
| "eval_accuracy": 0.8223333333333334, |
| "eval_loss": 0.825864315032959, |
| "eval_runtime": 60.2693, |
| "eval_samples_per_second": 99.553, |
| "eval_steps_per_second": 12.444, |
| "step": 14700 |
| }, |
| { |
| "epoch": 3.06, |
| "learning_rate": 4.6770833333333336e-05, |
| "loss": 0.8411, |
| "step": 14710 |
| }, |
| { |
| "epoch": 3.07, |
| "learning_rate": 4.666666666666667e-05, |
| "loss": 0.7749, |
| "step": 14720 |
| }, |
| { |
| "epoch": 3.07, |
| "learning_rate": 4.65625e-05, |
| "loss": 0.7895, |
| "step": 14730 |
| }, |
| { |
| "epoch": 3.07, |
| "learning_rate": 4.6458333333333335e-05, |
| "loss": 0.8327, |
| "step": 14740 |
| }, |
| { |
| "epoch": 3.07, |
| "learning_rate": 4.635416666666667e-05, |
| "loss": 0.8346, |
| "step": 14750 |
| }, |
| { |
| "epoch": 3.08, |
| "learning_rate": 4.6250000000000006e-05, |
| "loss": 0.9015, |
| "step": 14760 |
| }, |
| { |
| "epoch": 3.08, |
| "learning_rate": 4.614583333333334e-05, |
| "loss": 0.7459, |
| "step": 14770 |
| }, |
| { |
| "epoch": 3.08, |
| "learning_rate": 4.604166666666666e-05, |
| "loss": 0.8458, |
| "step": 14780 |
| }, |
| { |
| "epoch": 3.08, |
| "learning_rate": 4.59375e-05, |
| "loss": 0.9445, |
| "step": 14790 |
| }, |
| { |
| "epoch": 3.08, |
| "learning_rate": 4.5833333333333334e-05, |
| "loss": 0.8652, |
| "step": 14800 |
| }, |
| { |
| "epoch": 3.08, |
| "eval_accuracy": 0.8218333333333333, |
| "eval_loss": 0.8250030875205994, |
| "eval_runtime": 58.896, |
| "eval_samples_per_second": 101.875, |
| "eval_steps_per_second": 12.734, |
| "step": 14800 |
| }, |
| { |
| "epoch": 3.09, |
| "learning_rate": 4.572916666666667e-05, |
| "loss": 0.8189, |
| "step": 14810 |
| }, |
| { |
| "epoch": 3.09, |
| "learning_rate": 4.5625e-05, |
| "loss": 0.9924, |
| "step": 14820 |
| }, |
| { |
| "epoch": 3.09, |
| "learning_rate": 4.552083333333333e-05, |
| "loss": 0.8688, |
| "step": 14830 |
| }, |
| { |
| "epoch": 3.09, |
| "learning_rate": 4.541666666666667e-05, |
| "loss": 0.8036, |
| "step": 14840 |
| }, |
| { |
| "epoch": 3.09, |
| "learning_rate": 4.5312500000000004e-05, |
| "loss": 0.9169, |
| "step": 14850 |
| }, |
| { |
| "epoch": 3.1, |
| "learning_rate": 4.520833333333334e-05, |
| "loss": 0.8695, |
| "step": 14860 |
| }, |
| { |
| "epoch": 3.1, |
| "learning_rate": 4.510416666666667e-05, |
| "loss": 0.899, |
| "step": 14870 |
| }, |
| { |
| "epoch": 3.1, |
| "learning_rate": 4.5e-05, |
| "loss": 0.6839, |
| "step": 14880 |
| }, |
| { |
| "epoch": 3.1, |
| "learning_rate": 4.489583333333334e-05, |
| "loss": 0.8397, |
| "step": 14890 |
| }, |
| { |
| "epoch": 3.1, |
| "learning_rate": 4.4791666666666673e-05, |
| "loss": 0.9299, |
| "step": 14900 |
| }, |
| { |
| "epoch": 3.1, |
| "eval_accuracy": 0.8215, |
| "eval_loss": 0.8241713643074036, |
| "eval_runtime": 59.812, |
| "eval_samples_per_second": 100.314, |
| "eval_steps_per_second": 12.539, |
| "step": 14900 |
| }, |
| { |
| "epoch": 3.11, |
| "learning_rate": 4.46875e-05, |
| "loss": 0.822, |
| "step": 14910 |
| }, |
| { |
| "epoch": 3.11, |
| "learning_rate": 4.458333333333334e-05, |
| "loss": 0.8561, |
| "step": 14920 |
| }, |
| { |
| "epoch": 3.11, |
| "learning_rate": 4.4479166666666666e-05, |
| "loss": 0.7726, |
| "step": 14930 |
| }, |
| { |
| "epoch": 3.11, |
| "learning_rate": 4.4375e-05, |
| "loss": 0.8381, |
| "step": 14940 |
| }, |
| { |
| "epoch": 3.11, |
| "learning_rate": 4.4270833333333337e-05, |
| "loss": 0.7793, |
| "step": 14950 |
| }, |
| { |
| "epoch": 3.12, |
| "learning_rate": 4.4166666666666665e-05, |
| "loss": 0.8728, |
| "step": 14960 |
| }, |
| { |
| "epoch": 3.12, |
| "learning_rate": 4.40625e-05, |
| "loss": 0.8357, |
| "step": 14970 |
| }, |
| { |
| "epoch": 3.12, |
| "learning_rate": 4.3958333333333336e-05, |
| "loss": 0.888, |
| "step": 14980 |
| }, |
| { |
| "epoch": 3.12, |
| "learning_rate": 4.385416666666667e-05, |
| "loss": 0.8429, |
| "step": 14990 |
| }, |
| { |
| "epoch": 3.12, |
| "learning_rate": 4.375e-05, |
| "loss": 0.8259, |
| "step": 15000 |
| }, |
| { |
| "epoch": 3.12, |
| "eval_accuracy": 0.8215, |
| "eval_loss": 0.8233299255371094, |
| "eval_runtime": 60.4227, |
| "eval_samples_per_second": 99.3, |
| "eval_steps_per_second": 12.413, |
| "step": 15000 |
| }, |
| { |
| "epoch": 3.13, |
| "learning_rate": 4.3645833333333335e-05, |
| "loss": 0.8382, |
| "step": 15010 |
| }, |
| { |
| "epoch": 3.13, |
| "learning_rate": 4.354166666666667e-05, |
| "loss": 0.9017, |
| "step": 15020 |
| }, |
| { |
| "epoch": 3.13, |
| "learning_rate": 4.3437500000000006e-05, |
| "loss": 0.8136, |
| "step": 15030 |
| }, |
| { |
| "epoch": 3.13, |
| "learning_rate": 4.3333333333333334e-05, |
| "loss": 0.8862, |
| "step": 15040 |
| }, |
| { |
| "epoch": 3.14, |
| "learning_rate": 4.322916666666667e-05, |
| "loss": 0.848, |
| "step": 15050 |
| }, |
| { |
| "epoch": 3.14, |
| "learning_rate": 4.3125000000000005e-05, |
| "loss": 0.8867, |
| "step": 15060 |
| }, |
| { |
| "epoch": 3.14, |
| "learning_rate": 4.302083333333334e-05, |
| "loss": 0.781, |
| "step": 15070 |
| }, |
| { |
| "epoch": 3.14, |
| "learning_rate": 4.291666666666667e-05, |
| "loss": 0.7428, |
| "step": 15080 |
| }, |
| { |
| "epoch": 3.14, |
| "learning_rate": 4.28125e-05, |
| "loss": 0.7926, |
| "step": 15090 |
| }, |
| { |
| "epoch": 3.15, |
| "learning_rate": 4.270833333333333e-05, |
| "loss": 0.775, |
| "step": 15100 |
| }, |
| { |
| "epoch": 3.15, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.822507381439209, |
| "eval_runtime": 60.4153, |
| "eval_samples_per_second": 99.313, |
| "eval_steps_per_second": 12.414, |
| "step": 15100 |
| }, |
| { |
| "epoch": 3.15, |
| "learning_rate": 4.260416666666667e-05, |
| "loss": 0.8412, |
| "step": 15110 |
| }, |
| { |
| "epoch": 3.15, |
| "learning_rate": 4.25e-05, |
| "loss": 0.8501, |
| "step": 15120 |
| }, |
| { |
| "epoch": 3.15, |
| "learning_rate": 4.239583333333333e-05, |
| "loss": 0.9718, |
| "step": 15130 |
| }, |
| { |
| "epoch": 3.15, |
| "learning_rate": 4.229166666666667e-05, |
| "loss": 0.7616, |
| "step": 15140 |
| }, |
| { |
| "epoch": 3.16, |
| "learning_rate": 4.21875e-05, |
| "loss": 0.73, |
| "step": 15150 |
| }, |
| { |
| "epoch": 3.16, |
| "learning_rate": 4.208333333333334e-05, |
| "loss": 0.884, |
| "step": 15160 |
| }, |
| { |
| "epoch": 3.16, |
| "learning_rate": 4.1979166666666666e-05, |
| "loss": 0.8743, |
| "step": 15170 |
| }, |
| { |
| "epoch": 3.16, |
| "learning_rate": 4.1875e-05, |
| "loss": 1.012, |
| "step": 15180 |
| }, |
| { |
| "epoch": 3.16, |
| "learning_rate": 4.177083333333334e-05, |
| "loss": 0.7694, |
| "step": 15190 |
| }, |
| { |
| "epoch": 3.17, |
| "learning_rate": 4.166666666666667e-05, |
| "loss": 0.801, |
| "step": 15200 |
| }, |
| { |
| "epoch": 3.17, |
| "eval_accuracy": 0.8216666666666667, |
| "eval_loss": 0.8217005133628845, |
| "eval_runtime": 59.7045, |
| "eval_samples_per_second": 100.495, |
| "eval_steps_per_second": 12.562, |
| "step": 15200 |
| }, |
| { |
| "epoch": 3.17, |
| "learning_rate": 4.156250000000001e-05, |
| "loss": 0.9325, |
| "step": 15210 |
| }, |
| { |
| "epoch": 3.17, |
| "learning_rate": 4.1458333333333336e-05, |
| "loss": 0.9169, |
| "step": 15220 |
| }, |
| { |
| "epoch": 3.17, |
| "learning_rate": 4.1354166666666664e-05, |
| "loss": 0.8569, |
| "step": 15230 |
| }, |
| { |
| "epoch": 3.17, |
| "learning_rate": 4.125e-05, |
| "loss": 0.8071, |
| "step": 15240 |
| }, |
| { |
| "epoch": 3.18, |
| "learning_rate": 4.1145833333333335e-05, |
| "loss": 0.8648, |
| "step": 15250 |
| }, |
| { |
| "epoch": 3.18, |
| "learning_rate": 4.104166666666667e-05, |
| "loss": 0.9592, |
| "step": 15260 |
| }, |
| { |
| "epoch": 3.18, |
| "learning_rate": 4.09375e-05, |
| "loss": 0.8476, |
| "step": 15270 |
| }, |
| { |
| "epoch": 3.18, |
| "learning_rate": 4.0833333333333334e-05, |
| "loss": 0.8816, |
| "step": 15280 |
| }, |
| { |
| "epoch": 3.19, |
| "learning_rate": 4.072916666666667e-05, |
| "loss": 0.8578, |
| "step": 15290 |
| }, |
| { |
| "epoch": 3.19, |
| "learning_rate": 4.0625000000000005e-05, |
| "loss": 0.8535, |
| "step": 15300 |
| }, |
| { |
| "epoch": 3.19, |
| "eval_accuracy": 0.8215, |
| "eval_loss": 0.8209204077720642, |
| "eval_runtime": 59.5914, |
| "eval_samples_per_second": 100.686, |
| "eval_steps_per_second": 12.586, |
| "step": 15300 |
| }, |
| { |
| "epoch": 3.19, |
| "learning_rate": 4.0520833333333333e-05, |
| "loss": 0.9478, |
| "step": 15310 |
| }, |
| { |
| "epoch": 3.19, |
| "learning_rate": 4.041666666666667e-05, |
| "loss": 0.7708, |
| "step": 15320 |
| }, |
| { |
| "epoch": 3.19, |
| "learning_rate": 4.0312500000000004e-05, |
| "loss": 0.7576, |
| "step": 15330 |
| }, |
| { |
| "epoch": 3.2, |
| "learning_rate": 4.020833333333334e-05, |
| "loss": 0.8541, |
| "step": 15340 |
| }, |
| { |
| "epoch": 3.2, |
| "learning_rate": 4.010416666666667e-05, |
| "loss": 0.9173, |
| "step": 15350 |
| }, |
| { |
| "epoch": 3.2, |
| "learning_rate": 4e-05, |
| "loss": 0.7979, |
| "step": 15360 |
| }, |
| { |
| "epoch": 3.2, |
| "learning_rate": 3.989583333333334e-05, |
| "loss": 0.8256, |
| "step": 15370 |
| }, |
| { |
| "epoch": 3.2, |
| "learning_rate": 3.979166666666667e-05, |
| "loss": 0.8224, |
| "step": 15380 |
| }, |
| { |
| "epoch": 3.21, |
| "learning_rate": 3.96875e-05, |
| "loss": 0.7518, |
| "step": 15390 |
| }, |
| { |
| "epoch": 3.21, |
| "learning_rate": 3.958333333333333e-05, |
| "loss": 0.7973, |
| "step": 15400 |
| }, |
| { |
| "epoch": 3.21, |
| "eval_accuracy": 0.8216666666666667, |
| "eval_loss": 0.8201759457588196, |
| "eval_runtime": 59.3057, |
| "eval_samples_per_second": 101.171, |
| "eval_steps_per_second": 12.646, |
| "step": 15400 |
| }, |
| { |
| "epoch": 3.21, |
| "learning_rate": 3.9479166666666666e-05, |
| "loss": 0.971, |
| "step": 15410 |
| }, |
| { |
| "epoch": 3.21, |
| "learning_rate": 3.9375e-05, |
| "loss": 0.7981, |
| "step": 15420 |
| }, |
| { |
| "epoch": 3.21, |
| "learning_rate": 3.927083333333334e-05, |
| "loss": 0.7946, |
| "step": 15430 |
| }, |
| { |
| "epoch": 3.22, |
| "learning_rate": 3.9166666666666665e-05, |
| "loss": 0.8467, |
| "step": 15440 |
| }, |
| { |
| "epoch": 3.22, |
| "learning_rate": 3.90625e-05, |
| "loss": 0.7529, |
| "step": 15450 |
| }, |
| { |
| "epoch": 3.22, |
| "learning_rate": 3.8958333333333336e-05, |
| "loss": 1.0008, |
| "step": 15460 |
| }, |
| { |
| "epoch": 3.22, |
| "learning_rate": 3.885416666666667e-05, |
| "loss": 0.878, |
| "step": 15470 |
| }, |
| { |
| "epoch": 3.23, |
| "learning_rate": 3.875e-05, |
| "loss": 0.8489, |
| "step": 15480 |
| }, |
| { |
| "epoch": 3.23, |
| "learning_rate": 3.8645833333333335e-05, |
| "loss": 0.878, |
| "step": 15490 |
| }, |
| { |
| "epoch": 3.23, |
| "learning_rate": 3.854166666666667e-05, |
| "loss": 0.8937, |
| "step": 15500 |
| }, |
| { |
| "epoch": 3.23, |
| "eval_accuracy": 0.8213333333333334, |
| "eval_loss": 0.8194625377655029, |
| "eval_runtime": 59.7077, |
| "eval_samples_per_second": 100.489, |
| "eval_steps_per_second": 12.561, |
| "step": 15500 |
| }, |
| { |
| "epoch": 3.23, |
| "learning_rate": 3.8437500000000006e-05, |
| "loss": 0.8264, |
| "step": 15510 |
| }, |
| { |
| "epoch": 3.23, |
| "learning_rate": 3.8333333333333334e-05, |
| "loss": 0.8799, |
| "step": 15520 |
| }, |
| { |
| "epoch": 3.24, |
| "learning_rate": 3.822916666666666e-05, |
| "loss": 0.8099, |
| "step": 15530 |
| }, |
| { |
| "epoch": 3.24, |
| "learning_rate": 3.8125e-05, |
| "loss": 0.839, |
| "step": 15540 |
| }, |
| { |
| "epoch": 3.24, |
| "learning_rate": 3.8020833333333334e-05, |
| "loss": 0.8351, |
| "step": 15550 |
| }, |
| { |
| "epoch": 3.24, |
| "learning_rate": 3.791666666666667e-05, |
| "loss": 0.8474, |
| "step": 15560 |
| }, |
| { |
| "epoch": 3.24, |
| "learning_rate": 3.78125e-05, |
| "loss": 0.8083, |
| "step": 15570 |
| }, |
| { |
| "epoch": 3.25, |
| "learning_rate": 3.770833333333333e-05, |
| "loss": 0.8576, |
| "step": 15580 |
| }, |
| { |
| "epoch": 3.25, |
| "learning_rate": 3.760416666666667e-05, |
| "loss": 0.8645, |
| "step": 15590 |
| }, |
| { |
| "epoch": 3.25, |
| "learning_rate": 3.7500000000000003e-05, |
| "loss": 0.7632, |
| "step": 15600 |
| }, |
| { |
| "epoch": 3.25, |
| "eval_accuracy": 0.821, |
| "eval_loss": 0.8187865614891052, |
| "eval_runtime": 59.7654, |
| "eval_samples_per_second": 100.393, |
| "eval_steps_per_second": 12.549, |
| "step": 15600 |
| }, |
| { |
| "epoch": 3.25, |
| "learning_rate": 3.739583333333334e-05, |
| "loss": 0.817, |
| "step": 15610 |
| }, |
| { |
| "epoch": 3.25, |
| "learning_rate": 3.729166666666667e-05, |
| "loss": 0.7605, |
| "step": 15620 |
| }, |
| { |
| "epoch": 3.26, |
| "learning_rate": 3.71875e-05, |
| "loss": 0.8974, |
| "step": 15630 |
| }, |
| { |
| "epoch": 3.26, |
| "learning_rate": 3.708333333333334e-05, |
| "loss": 0.7318, |
| "step": 15640 |
| }, |
| { |
| "epoch": 3.26, |
| "learning_rate": 3.697916666666667e-05, |
| "loss": 0.785, |
| "step": 15650 |
| }, |
| { |
| "epoch": 3.26, |
| "learning_rate": 3.6875e-05, |
| "loss": 0.8878, |
| "step": 15660 |
| }, |
| { |
| "epoch": 3.26, |
| "learning_rate": 3.677083333333334e-05, |
| "loss": 0.7953, |
| "step": 15670 |
| }, |
| { |
| "epoch": 3.27, |
| "learning_rate": 3.6666666666666666e-05, |
| "loss": 0.7904, |
| "step": 15680 |
| }, |
| { |
| "epoch": 3.27, |
| "learning_rate": 3.65625e-05, |
| "loss": 0.7932, |
| "step": 15690 |
| }, |
| { |
| "epoch": 3.27, |
| "learning_rate": 3.6458333333333336e-05, |
| "loss": 0.8117, |
| "step": 15700 |
| }, |
| { |
| "epoch": 3.27, |
| "eval_accuracy": 0.8211666666666667, |
| "eval_loss": 0.8181024789810181, |
| "eval_runtime": 59.7155, |
| "eval_samples_per_second": 100.476, |
| "eval_steps_per_second": 12.56, |
| "step": 15700 |
| }, |
| { |
| "epoch": 3.27, |
| "learning_rate": 3.6354166666666665e-05, |
| "loss": 0.8661, |
| "step": 15710 |
| }, |
| { |
| "epoch": 3.27, |
| "learning_rate": 3.625e-05, |
| "loss": 0.8423, |
| "step": 15720 |
| }, |
| { |
| "epoch": 3.28, |
| "learning_rate": 3.6145833333333336e-05, |
| "loss": 0.7212, |
| "step": 15730 |
| }, |
| { |
| "epoch": 3.28, |
| "learning_rate": 3.604166666666667e-05, |
| "loss": 0.7918, |
| "step": 15740 |
| }, |
| { |
| "epoch": 3.28, |
| "learning_rate": 3.59375e-05, |
| "loss": 0.9309, |
| "step": 15750 |
| }, |
| { |
| "epoch": 3.28, |
| "learning_rate": 3.5833333333333335e-05, |
| "loss": 0.7859, |
| "step": 15760 |
| }, |
| { |
| "epoch": 3.29, |
| "learning_rate": 3.572916666666667e-05, |
| "loss": 0.8898, |
| "step": 15770 |
| }, |
| { |
| "epoch": 3.29, |
| "learning_rate": 3.5625000000000005e-05, |
| "loss": 0.7942, |
| "step": 15780 |
| }, |
| { |
| "epoch": 3.29, |
| "learning_rate": 3.5520833333333334e-05, |
| "loss": 0.7845, |
| "step": 15790 |
| }, |
| { |
| "epoch": 3.29, |
| "learning_rate": 3.541666666666667e-05, |
| "loss": 0.8941, |
| "step": 15800 |
| }, |
| { |
| "epoch": 3.29, |
| "eval_accuracy": 0.8216666666666667, |
| "eval_loss": 0.817428708076477, |
| "eval_runtime": 60.0703, |
| "eval_samples_per_second": 99.883, |
| "eval_steps_per_second": 12.485, |
| "step": 15800 |
| }, |
| { |
| "epoch": 3.29, |
| "learning_rate": 3.5312500000000005e-05, |
| "loss": 0.7775, |
| "step": 15810 |
| }, |
| { |
| "epoch": 3.3, |
| "learning_rate": 3.520833333333334e-05, |
| "loss": 0.7979, |
| "step": 15820 |
| }, |
| { |
| "epoch": 3.3, |
| "learning_rate": 3.510416666666667e-05, |
| "loss": 0.7248, |
| "step": 15830 |
| }, |
| { |
| "epoch": 3.3, |
| "learning_rate": 3.5e-05, |
| "loss": 0.8413, |
| "step": 15840 |
| }, |
| { |
| "epoch": 3.3, |
| "learning_rate": 3.489583333333333e-05, |
| "loss": 0.7694, |
| "step": 15850 |
| }, |
| { |
| "epoch": 3.3, |
| "learning_rate": 3.479166666666667e-05, |
| "loss": 0.8478, |
| "step": 15860 |
| }, |
| { |
| "epoch": 3.31, |
| "learning_rate": 3.46875e-05, |
| "loss": 0.8505, |
| "step": 15870 |
| }, |
| { |
| "epoch": 3.31, |
| "learning_rate": 3.458333333333333e-05, |
| "loss": 0.7565, |
| "step": 15880 |
| }, |
| { |
| "epoch": 3.31, |
| "learning_rate": 3.447916666666667e-05, |
| "loss": 0.7952, |
| "step": 15890 |
| }, |
| { |
| "epoch": 3.31, |
| "learning_rate": 3.4375e-05, |
| "loss": 0.802, |
| "step": 15900 |
| }, |
| { |
| "epoch": 3.31, |
| "eval_accuracy": 0.8225, |
| "eval_loss": 0.8167559504508972, |
| "eval_runtime": 60.1415, |
| "eval_samples_per_second": 99.765, |
| "eval_steps_per_second": 12.471, |
| "step": 15900 |
| }, |
| { |
| "epoch": 3.31, |
| "learning_rate": 3.427083333333334e-05, |
| "loss": 0.7584, |
| "step": 15910 |
| }, |
| { |
| "epoch": 3.32, |
| "learning_rate": 3.4166666666666666e-05, |
| "loss": 0.76, |
| "step": 15920 |
| }, |
| { |
| "epoch": 3.32, |
| "learning_rate": 3.40625e-05, |
| "loss": 0.8018, |
| "step": 15930 |
| }, |
| { |
| "epoch": 3.32, |
| "learning_rate": 3.3958333333333337e-05, |
| "loss": 0.7459, |
| "step": 15940 |
| }, |
| { |
| "epoch": 3.32, |
| "learning_rate": 3.385416666666667e-05, |
| "loss": 0.8448, |
| "step": 15950 |
| }, |
| { |
| "epoch": 3.33, |
| "learning_rate": 3.375000000000001e-05, |
| "loss": 0.8478, |
| "step": 15960 |
| }, |
| { |
| "epoch": 3.33, |
| "learning_rate": 3.3645833333333336e-05, |
| "loss": 0.8187, |
| "step": 15970 |
| }, |
| { |
| "epoch": 3.33, |
| "learning_rate": 3.3541666666666664e-05, |
| "loss": 0.7829, |
| "step": 15980 |
| }, |
| { |
| "epoch": 3.33, |
| "learning_rate": 3.34375e-05, |
| "loss": 0.7943, |
| "step": 15990 |
| }, |
| { |
| "epoch": 3.33, |
| "learning_rate": 3.3333333333333335e-05, |
| "loss": 0.8303, |
| "step": 16000 |
| }, |
| { |
| "epoch": 3.33, |
| "eval_accuracy": 0.8216666666666667, |
| "eval_loss": 0.8160925507545471, |
| "eval_runtime": 59.5994, |
| "eval_samples_per_second": 100.672, |
| "eval_steps_per_second": 12.584, |
| "step": 16000 |
| }, |
| { |
| "epoch": 3.34, |
| "learning_rate": 3.3229166666666663e-05, |
| "loss": 0.9126, |
| "step": 16010 |
| }, |
| { |
| "epoch": 3.34, |
| "learning_rate": 3.3125e-05, |
| "loss": 0.7635, |
| "step": 16020 |
| }, |
| { |
| "epoch": 3.34, |
| "learning_rate": 3.3020833333333334e-05, |
| "loss": 0.7694, |
| "step": 16030 |
| }, |
| { |
| "epoch": 3.34, |
| "learning_rate": 3.291666666666667e-05, |
| "loss": 0.8027, |
| "step": 16040 |
| }, |
| { |
| "epoch": 3.34, |
| "learning_rate": 3.2812500000000005e-05, |
| "loss": 0.7577, |
| "step": 16050 |
| }, |
| { |
| "epoch": 3.35, |
| "learning_rate": 3.270833333333333e-05, |
| "loss": 0.7162, |
| "step": 16060 |
| }, |
| { |
| "epoch": 3.35, |
| "learning_rate": 3.260416666666667e-05, |
| "loss": 0.866, |
| "step": 16070 |
| }, |
| { |
| "epoch": 3.35, |
| "learning_rate": 3.2500000000000004e-05, |
| "loss": 0.7403, |
| "step": 16080 |
| }, |
| { |
| "epoch": 3.35, |
| "learning_rate": 3.239583333333334e-05, |
| "loss": 0.7915, |
| "step": 16090 |
| }, |
| { |
| "epoch": 3.35, |
| "learning_rate": 3.229166666666667e-05, |
| "loss": 0.8264, |
| "step": 16100 |
| }, |
| { |
| "epoch": 3.35, |
| "eval_accuracy": 0.8218333333333333, |
| "eval_loss": 0.8154905438423157, |
| "eval_runtime": 59.7466, |
| "eval_samples_per_second": 100.424, |
| "eval_steps_per_second": 12.553, |
| "step": 16100 |
| }, |
| { |
| "epoch": 3.36, |
| "learning_rate": 3.21875e-05, |
| "loss": 0.7279, |
| "step": 16110 |
| }, |
| { |
| "epoch": 3.36, |
| "learning_rate": 3.208333333333334e-05, |
| "loss": 0.8937, |
| "step": 16120 |
| }, |
| { |
| "epoch": 3.36, |
| "learning_rate": 3.197916666666667e-05, |
| "loss": 0.7487, |
| "step": 16130 |
| }, |
| { |
| "epoch": 3.36, |
| "learning_rate": 3.1875e-05, |
| "loss": 0.7935, |
| "step": 16140 |
| }, |
| { |
| "epoch": 3.36, |
| "learning_rate": 3.177083333333333e-05, |
| "loss": 0.7285, |
| "step": 16150 |
| }, |
| { |
| "epoch": 3.37, |
| "learning_rate": 3.1666666666666666e-05, |
| "loss": 0.7991, |
| "step": 16160 |
| }, |
| { |
| "epoch": 3.37, |
| "learning_rate": 3.15625e-05, |
| "loss": 0.7728, |
| "step": 16170 |
| }, |
| { |
| "epoch": 3.37, |
| "learning_rate": 3.145833333333334e-05, |
| "loss": 0.7066, |
| "step": 16180 |
| }, |
| { |
| "epoch": 3.37, |
| "learning_rate": 3.1354166666666665e-05, |
| "loss": 0.8155, |
| "step": 16190 |
| }, |
| { |
| "epoch": 3.38, |
| "learning_rate": 3.125e-05, |
| "loss": 0.8411, |
| "step": 16200 |
| }, |
| { |
| "epoch": 3.38, |
| "eval_accuracy": 0.8213333333333334, |
| "eval_loss": 0.8148880004882812, |
| "eval_runtime": 59.382, |
| "eval_samples_per_second": 101.041, |
| "eval_steps_per_second": 12.63, |
| "step": 16200 |
| }, |
| { |
| "epoch": 3.38, |
| "learning_rate": 3.1145833333333336e-05, |
| "loss": 0.9039, |
| "step": 16210 |
| }, |
| { |
| "epoch": 3.38, |
| "learning_rate": 3.104166666666667e-05, |
| "loss": 0.7993, |
| "step": 16220 |
| }, |
| { |
| "epoch": 3.38, |
| "learning_rate": 3.09375e-05, |
| "loss": 0.9335, |
| "step": 16230 |
| }, |
| { |
| "epoch": 3.38, |
| "learning_rate": 3.0833333333333335e-05, |
| "loss": 0.7494, |
| "step": 16240 |
| }, |
| { |
| "epoch": 3.39, |
| "learning_rate": 3.072916666666667e-05, |
| "loss": 0.7797, |
| "step": 16250 |
| }, |
| { |
| "epoch": 3.39, |
| "learning_rate": 3.0625000000000006e-05, |
| "loss": 0.8606, |
| "step": 16260 |
| }, |
| { |
| "epoch": 3.39, |
| "learning_rate": 3.0520833333333334e-05, |
| "loss": 0.8434, |
| "step": 16270 |
| }, |
| { |
| "epoch": 3.39, |
| "learning_rate": 3.0416666666666666e-05, |
| "loss": 0.7547, |
| "step": 16280 |
| }, |
| { |
| "epoch": 3.39, |
| "learning_rate": 3.0312499999999998e-05, |
| "loss": 0.8581, |
| "step": 16290 |
| }, |
| { |
| "epoch": 3.4, |
| "learning_rate": 3.0208333333333334e-05, |
| "loss": 0.9378, |
| "step": 16300 |
| }, |
| { |
| "epoch": 3.4, |
| "eval_accuracy": 0.8218333333333333, |
| "eval_loss": 0.8143389225006104, |
| "eval_runtime": 59.9238, |
| "eval_samples_per_second": 100.127, |
| "eval_steps_per_second": 12.516, |
| "step": 16300 |
| }, |
| { |
| "epoch": 3.4, |
| "learning_rate": 3.0104166666666665e-05, |
| "loss": 0.9282, |
| "step": 16310 |
| }, |
| { |
| "epoch": 3.4, |
| "learning_rate": 3e-05, |
| "loss": 0.7891, |
| "step": 16320 |
| }, |
| { |
| "epoch": 3.4, |
| "learning_rate": 2.9895833333333333e-05, |
| "loss": 0.94, |
| "step": 16330 |
| }, |
| { |
| "epoch": 3.4, |
| "learning_rate": 2.9791666666666668e-05, |
| "loss": 0.7915, |
| "step": 16340 |
| }, |
| { |
| "epoch": 3.41, |
| "learning_rate": 2.96875e-05, |
| "loss": 0.798, |
| "step": 16350 |
| }, |
| { |
| "epoch": 3.41, |
| "learning_rate": 2.9583333333333335e-05, |
| "loss": 0.7934, |
| "step": 16360 |
| }, |
| { |
| "epoch": 3.41, |
| "learning_rate": 2.9479166666666667e-05, |
| "loss": 0.8412, |
| "step": 16370 |
| }, |
| { |
| "epoch": 3.41, |
| "learning_rate": 2.9375000000000003e-05, |
| "loss": 0.8737, |
| "step": 16380 |
| }, |
| { |
| "epoch": 3.41, |
| "learning_rate": 2.9270833333333338e-05, |
| "loss": 0.9161, |
| "step": 16390 |
| }, |
| { |
| "epoch": 3.42, |
| "learning_rate": 2.916666666666667e-05, |
| "loss": 0.8514, |
| "step": 16400 |
| }, |
| { |
| "epoch": 3.42, |
| "eval_accuracy": 0.8216666666666667, |
| "eval_loss": 0.8137937784194946, |
| "eval_runtime": 60.1218, |
| "eval_samples_per_second": 99.797, |
| "eval_steps_per_second": 12.475, |
| "step": 16400 |
| }, |
| { |
| "epoch": 3.42, |
| "learning_rate": 2.9062500000000005e-05, |
| "loss": 0.8166, |
| "step": 16410 |
| }, |
| { |
| "epoch": 3.42, |
| "learning_rate": 2.8958333333333337e-05, |
| "loss": 0.793, |
| "step": 16420 |
| }, |
| { |
| "epoch": 3.42, |
| "learning_rate": 2.8854166666666666e-05, |
| "loss": 0.8099, |
| "step": 16430 |
| }, |
| { |
| "epoch": 3.42, |
| "learning_rate": 2.8749999999999997e-05, |
| "loss": 0.8728, |
| "step": 16440 |
| }, |
| { |
| "epoch": 3.43, |
| "learning_rate": 2.8645833333333333e-05, |
| "loss": 0.8193, |
| "step": 16450 |
| }, |
| { |
| "epoch": 3.43, |
| "learning_rate": 2.8541666666666668e-05, |
| "loss": 0.7807, |
| "step": 16460 |
| }, |
| { |
| "epoch": 3.43, |
| "learning_rate": 2.84375e-05, |
| "loss": 0.8598, |
| "step": 16470 |
| }, |
| { |
| "epoch": 3.43, |
| "learning_rate": 2.8333333333333335e-05, |
| "loss": 0.7956, |
| "step": 16480 |
| }, |
| { |
| "epoch": 3.44, |
| "learning_rate": 2.8229166666666667e-05, |
| "loss": 0.7803, |
| "step": 16490 |
| }, |
| { |
| "epoch": 3.44, |
| "learning_rate": 2.8125000000000003e-05, |
| "loss": 0.7313, |
| "step": 16500 |
| }, |
| { |
| "epoch": 3.44, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.8132685422897339, |
| "eval_runtime": 59.8369, |
| "eval_samples_per_second": 100.272, |
| "eval_steps_per_second": 12.534, |
| "step": 16500 |
| }, |
| { |
| "epoch": 3.44, |
| "learning_rate": 2.8020833333333335e-05, |
| "loss": 0.8131, |
| "step": 16510 |
| }, |
| { |
| "epoch": 3.44, |
| "learning_rate": 2.791666666666667e-05, |
| "loss": 0.7935, |
| "step": 16520 |
| }, |
| { |
| "epoch": 3.44, |
| "learning_rate": 2.7812500000000002e-05, |
| "loss": 0.7949, |
| "step": 16530 |
| }, |
| { |
| "epoch": 3.45, |
| "learning_rate": 2.7708333333333337e-05, |
| "loss": 0.874, |
| "step": 16540 |
| }, |
| { |
| "epoch": 3.45, |
| "learning_rate": 2.760416666666667e-05, |
| "loss": 0.7324, |
| "step": 16550 |
| }, |
| { |
| "epoch": 3.45, |
| "learning_rate": 2.7500000000000004e-05, |
| "loss": 0.7513, |
| "step": 16560 |
| }, |
| { |
| "epoch": 3.45, |
| "learning_rate": 2.7395833333333336e-05, |
| "loss": 0.7673, |
| "step": 16570 |
| }, |
| { |
| "epoch": 3.45, |
| "learning_rate": 2.7291666666666665e-05, |
| "loss": 0.8932, |
| "step": 16580 |
| }, |
| { |
| "epoch": 3.46, |
| "learning_rate": 2.71875e-05, |
| "loss": 0.8978, |
| "step": 16590 |
| }, |
| { |
| "epoch": 3.46, |
| "learning_rate": 2.7083333333333332e-05, |
| "loss": 0.8238, |
| "step": 16600 |
| }, |
| { |
| "epoch": 3.46, |
| "eval_accuracy": 0.8218333333333333, |
| "eval_loss": 0.8127702474594116, |
| "eval_runtime": 60.1679, |
| "eval_samples_per_second": 99.721, |
| "eval_steps_per_second": 12.465, |
| "step": 16600 |
| }, |
| { |
| "epoch": 3.46, |
| "learning_rate": 2.6979166666666667e-05, |
| "loss": 0.775, |
| "step": 16610 |
| }, |
| { |
| "epoch": 3.46, |
| "learning_rate": 2.6875e-05, |
| "loss": 0.8774, |
| "step": 16620 |
| }, |
| { |
| "epoch": 3.46, |
| "learning_rate": 2.6770833333333335e-05, |
| "loss": 0.7062, |
| "step": 16630 |
| }, |
| { |
| "epoch": 3.47, |
| "learning_rate": 2.6666666666666667e-05, |
| "loss": 0.7167, |
| "step": 16640 |
| }, |
| { |
| "epoch": 3.47, |
| "learning_rate": 2.6562500000000002e-05, |
| "loss": 0.8423, |
| "step": 16650 |
| }, |
| { |
| "epoch": 3.47, |
| "learning_rate": 2.6458333333333334e-05, |
| "loss": 0.8769, |
| "step": 16660 |
| }, |
| { |
| "epoch": 3.47, |
| "learning_rate": 2.635416666666667e-05, |
| "loss": 0.7845, |
| "step": 16670 |
| }, |
| { |
| "epoch": 3.48, |
| "learning_rate": 2.625e-05, |
| "loss": 0.8311, |
| "step": 16680 |
| }, |
| { |
| "epoch": 3.48, |
| "learning_rate": 2.6145833333333336e-05, |
| "loss": 0.7924, |
| "step": 16690 |
| }, |
| { |
| "epoch": 3.48, |
| "learning_rate": 2.604166666666667e-05, |
| "loss": 0.7876, |
| "step": 16700 |
| }, |
| { |
| "epoch": 3.48, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.8122752904891968, |
| "eval_runtime": 59.656, |
| "eval_samples_per_second": 100.577, |
| "eval_steps_per_second": 12.572, |
| "step": 16700 |
| }, |
| { |
| "epoch": 3.48, |
| "learning_rate": 2.5937500000000004e-05, |
| "loss": 0.8034, |
| "step": 16710 |
| }, |
| { |
| "epoch": 3.48, |
| "learning_rate": 2.5833333333333336e-05, |
| "loss": 0.8767, |
| "step": 16720 |
| }, |
| { |
| "epoch": 3.49, |
| "learning_rate": 2.5729166666666664e-05, |
| "loss": 0.9818, |
| "step": 16730 |
| }, |
| { |
| "epoch": 3.49, |
| "learning_rate": 2.5625e-05, |
| "loss": 0.8704, |
| "step": 16740 |
| }, |
| { |
| "epoch": 3.49, |
| "learning_rate": 2.552083333333333e-05, |
| "loss": 0.8333, |
| "step": 16750 |
| }, |
| { |
| "epoch": 3.49, |
| "learning_rate": 2.5416666666666667e-05, |
| "loss": 0.8042, |
| "step": 16760 |
| }, |
| { |
| "epoch": 3.49, |
| "learning_rate": 2.53125e-05, |
| "loss": 0.7806, |
| "step": 16770 |
| }, |
| { |
| "epoch": 3.5, |
| "learning_rate": 2.5208333333333334e-05, |
| "loss": 0.866, |
| "step": 16780 |
| }, |
| { |
| "epoch": 3.5, |
| "learning_rate": 2.5104166666666666e-05, |
| "loss": 0.7887, |
| "step": 16790 |
| }, |
| { |
| "epoch": 3.5, |
| "learning_rate": 2.5e-05, |
| "loss": 0.8364, |
| "step": 16800 |
| }, |
| { |
| "epoch": 3.5, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.8118352890014648, |
| "eval_runtime": 59.8646, |
| "eval_samples_per_second": 100.226, |
| "eval_steps_per_second": 12.528, |
| "step": 16800 |
| }, |
| { |
| "epoch": 3.5, |
| "learning_rate": 2.4895833333333337e-05, |
| "loss": 0.7938, |
| "step": 16810 |
| }, |
| { |
| "epoch": 3.5, |
| "learning_rate": 2.479166666666667e-05, |
| "loss": 0.73, |
| "step": 16820 |
| }, |
| { |
| "epoch": 3.51, |
| "learning_rate": 2.4687500000000004e-05, |
| "loss": 0.7867, |
| "step": 16830 |
| }, |
| { |
| "epoch": 3.51, |
| "learning_rate": 2.4583333333333332e-05, |
| "loss": 0.8375, |
| "step": 16840 |
| }, |
| { |
| "epoch": 3.51, |
| "learning_rate": 2.4479166666666668e-05, |
| "loss": 0.7919, |
| "step": 16850 |
| }, |
| { |
| "epoch": 3.51, |
| "learning_rate": 2.4375e-05, |
| "loss": 0.8528, |
| "step": 16860 |
| }, |
| { |
| "epoch": 3.51, |
| "learning_rate": 2.4270833333333335e-05, |
| "loss": 0.8271, |
| "step": 16870 |
| }, |
| { |
| "epoch": 3.52, |
| "learning_rate": 2.4166666666666667e-05, |
| "loss": 0.7255, |
| "step": 16880 |
| }, |
| { |
| "epoch": 3.52, |
| "learning_rate": 2.4062500000000002e-05, |
| "loss": 0.8332, |
| "step": 16890 |
| }, |
| { |
| "epoch": 3.52, |
| "learning_rate": 2.3958333333333334e-05, |
| "loss": 0.7049, |
| "step": 16900 |
| }, |
| { |
| "epoch": 3.52, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.8113714456558228, |
| "eval_runtime": 59.6338, |
| "eval_samples_per_second": 100.614, |
| "eval_steps_per_second": 12.577, |
| "step": 16900 |
| }, |
| { |
| "epoch": 3.52, |
| "learning_rate": 2.385416666666667e-05, |
| "loss": 0.777, |
| "step": 16910 |
| }, |
| { |
| "epoch": 3.52, |
| "learning_rate": 2.375e-05, |
| "loss": 0.8384, |
| "step": 16920 |
| }, |
| { |
| "epoch": 3.53, |
| "learning_rate": 2.3645833333333333e-05, |
| "loss": 0.854, |
| "step": 16930 |
| }, |
| { |
| "epoch": 3.53, |
| "learning_rate": 2.354166666666667e-05, |
| "loss": 0.8403, |
| "step": 16940 |
| }, |
| { |
| "epoch": 3.53, |
| "learning_rate": 2.34375e-05, |
| "loss": 0.8099, |
| "step": 16950 |
| }, |
| { |
| "epoch": 3.53, |
| "learning_rate": 2.3333333333333336e-05, |
| "loss": 0.8946, |
| "step": 16960 |
| }, |
| { |
| "epoch": 3.54, |
| "learning_rate": 2.3229166666666668e-05, |
| "loss": 0.7859, |
| "step": 16970 |
| }, |
| { |
| "epoch": 3.54, |
| "learning_rate": 2.3125000000000003e-05, |
| "loss": 0.7397, |
| "step": 16980 |
| }, |
| { |
| "epoch": 3.54, |
| "learning_rate": 2.302083333333333e-05, |
| "loss": 0.7624, |
| "step": 16990 |
| }, |
| { |
| "epoch": 3.54, |
| "learning_rate": 2.2916666666666667e-05, |
| "loss": 0.9101, |
| "step": 17000 |
| }, |
| { |
| "epoch": 3.54, |
| "eval_accuracy": 0.8218333333333333, |
| "eval_loss": 0.8109340667724609, |
| "eval_runtime": 60.1158, |
| "eval_samples_per_second": 99.807, |
| "eval_steps_per_second": 12.476, |
| "step": 17000 |
| }, |
| { |
| "epoch": 3.54, |
| "learning_rate": 2.28125e-05, |
| "loss": 0.8418, |
| "step": 17010 |
| }, |
| { |
| "epoch": 3.55, |
| "learning_rate": 2.2708333333333334e-05, |
| "loss": 0.7951, |
| "step": 17020 |
| }, |
| { |
| "epoch": 3.55, |
| "learning_rate": 2.260416666666667e-05, |
| "loss": 0.8587, |
| "step": 17030 |
| }, |
| { |
| "epoch": 3.55, |
| "learning_rate": 2.25e-05, |
| "loss": 0.8525, |
| "step": 17040 |
| }, |
| { |
| "epoch": 3.55, |
| "learning_rate": 2.2395833333333337e-05, |
| "loss": 0.9167, |
| "step": 17050 |
| }, |
| { |
| "epoch": 3.55, |
| "learning_rate": 2.229166666666667e-05, |
| "loss": 0.8887, |
| "step": 17060 |
| }, |
| { |
| "epoch": 3.56, |
| "learning_rate": 2.21875e-05, |
| "loss": 0.8728, |
| "step": 17070 |
| }, |
| { |
| "epoch": 3.56, |
| "learning_rate": 2.2083333333333333e-05, |
| "loss": 0.8633, |
| "step": 17080 |
| }, |
| { |
| "epoch": 3.56, |
| "learning_rate": 2.1979166666666668e-05, |
| "loss": 0.8855, |
| "step": 17090 |
| }, |
| { |
| "epoch": 3.56, |
| "learning_rate": 2.1875e-05, |
| "loss": 0.7984, |
| "step": 17100 |
| }, |
| { |
| "epoch": 3.56, |
| "eval_accuracy": 0.822, |
| "eval_loss": 0.8105219602584839, |
| "eval_runtime": 60.5884, |
| "eval_samples_per_second": 99.029, |
| "eval_steps_per_second": 12.379, |
| "step": 17100 |
| }, |
| { |
| "epoch": 3.56, |
| "learning_rate": 2.1770833333333335e-05, |
| "loss": 0.8834, |
| "step": 17110 |
| }, |
| { |
| "epoch": 3.57, |
| "learning_rate": 2.1666666666666667e-05, |
| "loss": 0.6941, |
| "step": 17120 |
| }, |
| { |
| "epoch": 3.57, |
| "learning_rate": 2.1562500000000002e-05, |
| "loss": 0.9005, |
| "step": 17130 |
| }, |
| { |
| "epoch": 3.57, |
| "learning_rate": 2.1458333333333334e-05, |
| "loss": 0.8964, |
| "step": 17140 |
| }, |
| { |
| "epoch": 3.57, |
| "learning_rate": 2.1354166666666666e-05, |
| "loss": 0.724, |
| "step": 17150 |
| }, |
| { |
| "epoch": 3.58, |
| "learning_rate": 2.125e-05, |
| "loss": 0.748, |
| "step": 17160 |
| }, |
| { |
| "epoch": 3.58, |
| "learning_rate": 2.1145833333333333e-05, |
| "loss": 0.8247, |
| "step": 17170 |
| }, |
| { |
| "epoch": 3.58, |
| "learning_rate": 2.104166666666667e-05, |
| "loss": 0.7963, |
| "step": 17180 |
| }, |
| { |
| "epoch": 3.58, |
| "learning_rate": 2.09375e-05, |
| "loss": 0.9445, |
| "step": 17190 |
| }, |
| { |
| "epoch": 3.58, |
| "learning_rate": 2.0833333333333336e-05, |
| "loss": 0.85, |
| "step": 17200 |
| }, |
| { |
| "epoch": 3.58, |
| "eval_accuracy": 0.8218333333333333, |
| "eval_loss": 0.810123860836029, |
| "eval_runtime": 59.6572, |
| "eval_samples_per_second": 100.575, |
| "eval_steps_per_second": 12.572, |
| "step": 17200 |
| }, |
| { |
| "epoch": 3.59, |
| "learning_rate": 2.0729166666666668e-05, |
| "loss": 0.7397, |
| "step": 17210 |
| }, |
| { |
| "epoch": 3.59, |
| "learning_rate": 2.0625e-05, |
| "loss": 0.8617, |
| "step": 17220 |
| }, |
| { |
| "epoch": 3.59, |
| "learning_rate": 2.0520833333333335e-05, |
| "loss": 0.9256, |
| "step": 17230 |
| }, |
| { |
| "epoch": 3.59, |
| "learning_rate": 2.0416666666666667e-05, |
| "loss": 0.7436, |
| "step": 17240 |
| }, |
| { |
| "epoch": 3.59, |
| "learning_rate": 2.0312500000000002e-05, |
| "loss": 0.7024, |
| "step": 17250 |
| }, |
| { |
| "epoch": 3.6, |
| "learning_rate": 2.0208333333333334e-05, |
| "loss": 0.7873, |
| "step": 17260 |
| }, |
| { |
| "epoch": 3.6, |
| "learning_rate": 2.010416666666667e-05, |
| "loss": 0.8991, |
| "step": 17270 |
| }, |
| { |
| "epoch": 3.6, |
| "learning_rate": 2e-05, |
| "loss": 0.8683, |
| "step": 17280 |
| }, |
| { |
| "epoch": 3.6, |
| "learning_rate": 1.9895833333333334e-05, |
| "loss": 0.7361, |
| "step": 17290 |
| }, |
| { |
| "epoch": 3.6, |
| "learning_rate": 1.9791666666666665e-05, |
| "loss": 0.8677, |
| "step": 17300 |
| }, |
| { |
| "epoch": 3.6, |
| "eval_accuracy": 0.822, |
| "eval_loss": 0.809762716293335, |
| "eval_runtime": 59.9978, |
| "eval_samples_per_second": 100.004, |
| "eval_steps_per_second": 12.5, |
| "step": 17300 |
| }, |
| { |
| "epoch": 3.61, |
| "learning_rate": 1.96875e-05, |
| "loss": 0.7574, |
| "step": 17310 |
| }, |
| { |
| "epoch": 3.61, |
| "learning_rate": 1.9583333333333333e-05, |
| "loss": 0.8212, |
| "step": 17320 |
| }, |
| { |
| "epoch": 3.61, |
| "learning_rate": 1.9479166666666668e-05, |
| "loss": 0.9015, |
| "step": 17330 |
| }, |
| { |
| "epoch": 3.61, |
| "learning_rate": 1.9375e-05, |
| "loss": 0.8751, |
| "step": 17340 |
| }, |
| { |
| "epoch": 3.61, |
| "learning_rate": 1.9270833333333335e-05, |
| "loss": 0.865, |
| "step": 17350 |
| }, |
| { |
| "epoch": 3.62, |
| "learning_rate": 1.9166666666666667e-05, |
| "loss": 0.763, |
| "step": 17360 |
| }, |
| { |
| "epoch": 3.62, |
| "learning_rate": 1.90625e-05, |
| "loss": 0.9046, |
| "step": 17370 |
| }, |
| { |
| "epoch": 3.62, |
| "learning_rate": 1.8958333333333334e-05, |
| "loss": 0.6976, |
| "step": 17380 |
| }, |
| { |
| "epoch": 3.62, |
| "learning_rate": 1.8854166666666666e-05, |
| "loss": 0.8137, |
| "step": 17390 |
| }, |
| { |
| "epoch": 3.62, |
| "learning_rate": 1.8750000000000002e-05, |
| "loss": 0.8797, |
| "step": 17400 |
| }, |
| { |
| "epoch": 3.62, |
| "eval_accuracy": 0.8218333333333333, |
| "eval_loss": 0.8094143867492676, |
| "eval_runtime": 60.2273, |
| "eval_samples_per_second": 99.623, |
| "eval_steps_per_second": 12.453, |
| "step": 17400 |
| }, |
| { |
| "epoch": 3.63, |
| "learning_rate": 1.8645833333333334e-05, |
| "loss": 0.8733, |
| "step": 17410 |
| }, |
| { |
| "epoch": 3.63, |
| "learning_rate": 1.854166666666667e-05, |
| "loss": 0.7766, |
| "step": 17420 |
| }, |
| { |
| "epoch": 3.63, |
| "learning_rate": 1.84375e-05, |
| "loss": 0.7928, |
| "step": 17430 |
| }, |
| { |
| "epoch": 3.63, |
| "learning_rate": 1.8333333333333333e-05, |
| "loss": 0.8895, |
| "step": 17440 |
| }, |
| { |
| "epoch": 3.64, |
| "learning_rate": 1.8229166666666668e-05, |
| "loss": 0.7917, |
| "step": 17450 |
| }, |
| { |
| "epoch": 3.64, |
| "learning_rate": 1.8125e-05, |
| "loss": 0.791, |
| "step": 17460 |
| }, |
| { |
| "epoch": 3.64, |
| "learning_rate": 1.8020833333333335e-05, |
| "loss": 0.8046, |
| "step": 17470 |
| }, |
| { |
| "epoch": 3.64, |
| "learning_rate": 1.7916666666666667e-05, |
| "loss": 0.8329, |
| "step": 17480 |
| }, |
| { |
| "epoch": 3.64, |
| "learning_rate": 1.7812500000000003e-05, |
| "loss": 0.9185, |
| "step": 17490 |
| }, |
| { |
| "epoch": 3.65, |
| "learning_rate": 1.7708333333333335e-05, |
| "loss": 0.7847, |
| "step": 17500 |
| }, |
| { |
| "epoch": 3.65, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.8090854287147522, |
| "eval_runtime": 60.0614, |
| "eval_samples_per_second": 99.898, |
| "eval_steps_per_second": 12.487, |
| "step": 17500 |
| }, |
| { |
| "epoch": 3.65, |
| "learning_rate": 1.760416666666667e-05, |
| "loss": 0.7401, |
| "step": 17510 |
| }, |
| { |
| "epoch": 3.65, |
| "learning_rate": 1.75e-05, |
| "loss": 0.8851, |
| "step": 17520 |
| }, |
| { |
| "epoch": 3.65, |
| "learning_rate": 1.7395833333333334e-05, |
| "loss": 0.8356, |
| "step": 17530 |
| }, |
| { |
| "epoch": 3.65, |
| "learning_rate": 1.7291666666666666e-05, |
| "loss": 0.7587, |
| "step": 17540 |
| }, |
| { |
| "epoch": 3.66, |
| "learning_rate": 1.71875e-05, |
| "loss": 0.8323, |
| "step": 17550 |
| }, |
| { |
| "epoch": 3.66, |
| "learning_rate": 1.7083333333333333e-05, |
| "loss": 0.7348, |
| "step": 17560 |
| }, |
| { |
| "epoch": 3.66, |
| "learning_rate": 1.6979166666666668e-05, |
| "loss": 0.893, |
| "step": 17570 |
| }, |
| { |
| "epoch": 3.66, |
| "learning_rate": 1.6875000000000004e-05, |
| "loss": 0.8019, |
| "step": 17580 |
| }, |
| { |
| "epoch": 3.66, |
| "learning_rate": 1.6770833333333332e-05, |
| "loss": 0.8539, |
| "step": 17590 |
| }, |
| { |
| "epoch": 3.67, |
| "learning_rate": 1.6666666666666667e-05, |
| "loss": 0.8415, |
| "step": 17600 |
| }, |
| { |
| "epoch": 3.67, |
| "eval_accuracy": 0.8218333333333333, |
| "eval_loss": 0.8087873458862305, |
| "eval_runtime": 60.2434, |
| "eval_samples_per_second": 99.596, |
| "eval_steps_per_second": 12.449, |
| "step": 17600 |
| }, |
| { |
| "epoch": 3.67, |
| "learning_rate": 1.65625e-05, |
| "loss": 0.8917, |
| "step": 17610 |
| }, |
| { |
| "epoch": 3.67, |
| "learning_rate": 1.6458333333333335e-05, |
| "loss": 0.8188, |
| "step": 17620 |
| }, |
| { |
| "epoch": 3.67, |
| "learning_rate": 1.6354166666666667e-05, |
| "loss": 0.7001, |
| "step": 17630 |
| }, |
| { |
| "epoch": 3.67, |
| "learning_rate": 1.6250000000000002e-05, |
| "loss": 0.8581, |
| "step": 17640 |
| }, |
| { |
| "epoch": 3.68, |
| "learning_rate": 1.6145833333333334e-05, |
| "loss": 0.8686, |
| "step": 17650 |
| }, |
| { |
| "epoch": 3.68, |
| "learning_rate": 1.604166666666667e-05, |
| "loss": 0.7487, |
| "step": 17660 |
| }, |
| { |
| "epoch": 3.68, |
| "learning_rate": 1.59375e-05, |
| "loss": 0.9107, |
| "step": 17670 |
| }, |
| { |
| "epoch": 3.68, |
| "learning_rate": 1.5833333333333333e-05, |
| "loss": 0.94, |
| "step": 17680 |
| }, |
| { |
| "epoch": 3.69, |
| "learning_rate": 1.572916666666667e-05, |
| "loss": 0.811, |
| "step": 17690 |
| }, |
| { |
| "epoch": 3.69, |
| "learning_rate": 1.5625e-05, |
| "loss": 0.8702, |
| "step": 17700 |
| }, |
| { |
| "epoch": 3.69, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.8085013031959534, |
| "eval_runtime": 59.7471, |
| "eval_samples_per_second": 100.423, |
| "eval_steps_per_second": 12.553, |
| "step": 17700 |
| }, |
| { |
| "epoch": 3.69, |
| "learning_rate": 1.5520833333333336e-05, |
| "loss": 0.8121, |
| "step": 17710 |
| }, |
| { |
| "epoch": 3.69, |
| "learning_rate": 1.5416666666666668e-05, |
| "loss": 0.8095, |
| "step": 17720 |
| }, |
| { |
| "epoch": 3.69, |
| "learning_rate": 1.5312500000000003e-05, |
| "loss": 0.7824, |
| "step": 17730 |
| }, |
| { |
| "epoch": 3.7, |
| "learning_rate": 1.5208333333333333e-05, |
| "loss": 0.7981, |
| "step": 17740 |
| }, |
| { |
| "epoch": 3.7, |
| "learning_rate": 1.5104166666666667e-05, |
| "loss": 0.6714, |
| "step": 17750 |
| }, |
| { |
| "epoch": 3.7, |
| "learning_rate": 1.5e-05, |
| "loss": 0.7527, |
| "step": 17760 |
| }, |
| { |
| "epoch": 3.7, |
| "learning_rate": 1.4895833333333334e-05, |
| "loss": 0.8401, |
| "step": 17770 |
| }, |
| { |
| "epoch": 3.7, |
| "learning_rate": 1.4791666666666668e-05, |
| "loss": 0.9295, |
| "step": 17780 |
| }, |
| { |
| "epoch": 3.71, |
| "learning_rate": 1.4687500000000001e-05, |
| "loss": 0.754, |
| "step": 17790 |
| }, |
| { |
| "epoch": 3.71, |
| "learning_rate": 1.4583333333333335e-05, |
| "loss": 0.8979, |
| "step": 17800 |
| }, |
| { |
| "epoch": 3.71, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.8082253336906433, |
| "eval_runtime": 59.8188, |
| "eval_samples_per_second": 100.303, |
| "eval_steps_per_second": 12.538, |
| "step": 17800 |
| }, |
| { |
| "epoch": 3.71, |
| "learning_rate": 1.4479166666666669e-05, |
| "loss": 0.8169, |
| "step": 17810 |
| }, |
| { |
| "epoch": 3.71, |
| "learning_rate": 1.4374999999999999e-05, |
| "loss": 0.8134, |
| "step": 17820 |
| }, |
| { |
| "epoch": 3.71, |
| "learning_rate": 1.4270833333333334e-05, |
| "loss": 0.7939, |
| "step": 17830 |
| }, |
| { |
| "epoch": 3.72, |
| "learning_rate": 1.4166666666666668e-05, |
| "loss": 0.8305, |
| "step": 17840 |
| }, |
| { |
| "epoch": 3.72, |
| "learning_rate": 1.4062500000000001e-05, |
| "loss": 0.8703, |
| "step": 17850 |
| }, |
| { |
| "epoch": 3.72, |
| "learning_rate": 1.3958333333333335e-05, |
| "loss": 0.8316, |
| "step": 17860 |
| }, |
| { |
| "epoch": 3.72, |
| "learning_rate": 1.3854166666666669e-05, |
| "loss": 0.8753, |
| "step": 17870 |
| }, |
| { |
| "epoch": 3.73, |
| "learning_rate": 1.3750000000000002e-05, |
| "loss": 0.7582, |
| "step": 17880 |
| }, |
| { |
| "epoch": 3.73, |
| "learning_rate": 1.3645833333333332e-05, |
| "loss": 0.7344, |
| "step": 17890 |
| }, |
| { |
| "epoch": 3.73, |
| "learning_rate": 1.3541666666666666e-05, |
| "loss": 0.8387, |
| "step": 17900 |
| }, |
| { |
| "epoch": 3.73, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.8079649806022644, |
| "eval_runtime": 59.9308, |
| "eval_samples_per_second": 100.115, |
| "eval_steps_per_second": 12.514, |
| "step": 17900 |
| }, |
| { |
| "epoch": 3.73, |
| "learning_rate": 1.34375e-05, |
| "loss": 0.8239, |
| "step": 17910 |
| }, |
| { |
| "epoch": 3.73, |
| "learning_rate": 1.3333333333333333e-05, |
| "loss": 0.8422, |
| "step": 17920 |
| }, |
| { |
| "epoch": 3.74, |
| "learning_rate": 1.3229166666666667e-05, |
| "loss": 0.8912, |
| "step": 17930 |
| }, |
| { |
| "epoch": 3.74, |
| "learning_rate": 1.3125e-05, |
| "loss": 0.7551, |
| "step": 17940 |
| }, |
| { |
| "epoch": 3.74, |
| "learning_rate": 1.3020833333333334e-05, |
| "loss": 0.776, |
| "step": 17950 |
| }, |
| { |
| "epoch": 3.74, |
| "learning_rate": 1.2916666666666668e-05, |
| "loss": 0.8423, |
| "step": 17960 |
| }, |
| { |
| "epoch": 3.74, |
| "learning_rate": 1.28125e-05, |
| "loss": 0.8377, |
| "step": 17970 |
| }, |
| { |
| "epoch": 3.75, |
| "learning_rate": 1.2708333333333333e-05, |
| "loss": 0.8124, |
| "step": 17980 |
| }, |
| { |
| "epoch": 3.75, |
| "learning_rate": 1.2604166666666667e-05, |
| "loss": 0.7737, |
| "step": 17990 |
| }, |
| { |
| "epoch": 3.75, |
| "learning_rate": 1.25e-05, |
| "loss": 0.8467, |
| "step": 18000 |
| }, |
| { |
| "epoch": 3.75, |
| "eval_accuracy": 0.822, |
| "eval_loss": 0.8077328205108643, |
| "eval_runtime": 60.1262, |
| "eval_samples_per_second": 99.79, |
| "eval_steps_per_second": 12.474, |
| "step": 18000 |
| }, |
| { |
| "epoch": 3.75, |
| "learning_rate": 1.2395833333333334e-05, |
| "loss": 0.8067, |
| "step": 18010 |
| }, |
| { |
| "epoch": 3.75, |
| "learning_rate": 1.2291666666666666e-05, |
| "loss": 0.9097, |
| "step": 18020 |
| }, |
| { |
| "epoch": 3.76, |
| "learning_rate": 1.21875e-05, |
| "loss": 0.7931, |
| "step": 18030 |
| }, |
| { |
| "epoch": 3.76, |
| "learning_rate": 1.2083333333333333e-05, |
| "loss": 0.8782, |
| "step": 18040 |
| }, |
| { |
| "epoch": 3.76, |
| "learning_rate": 1.1979166666666667e-05, |
| "loss": 0.8154, |
| "step": 18050 |
| }, |
| { |
| "epoch": 3.76, |
| "learning_rate": 1.1875e-05, |
| "loss": 0.8277, |
| "step": 18060 |
| }, |
| { |
| "epoch": 3.76, |
| "learning_rate": 1.1770833333333334e-05, |
| "loss": 0.7229, |
| "step": 18070 |
| }, |
| { |
| "epoch": 3.77, |
| "learning_rate": 1.1666666666666668e-05, |
| "loss": 0.7436, |
| "step": 18080 |
| }, |
| { |
| "epoch": 3.77, |
| "learning_rate": 1.1562500000000002e-05, |
| "loss": 0.8992, |
| "step": 18090 |
| }, |
| { |
| "epoch": 3.77, |
| "learning_rate": 1.1458333333333333e-05, |
| "loss": 0.8729, |
| "step": 18100 |
| }, |
| { |
| "epoch": 3.77, |
| "eval_accuracy": 0.822, |
| "eval_loss": 0.8075274229049683, |
| "eval_runtime": 60.3574, |
| "eval_samples_per_second": 99.408, |
| "eval_steps_per_second": 12.426, |
| "step": 18100 |
| }, |
| { |
| "epoch": 3.77, |
| "learning_rate": 1.1354166666666667e-05, |
| "loss": 0.779, |
| "step": 18110 |
| }, |
| { |
| "epoch": 3.77, |
| "learning_rate": 1.125e-05, |
| "loss": 0.7725, |
| "step": 18120 |
| }, |
| { |
| "epoch": 3.78, |
| "learning_rate": 1.1145833333333334e-05, |
| "loss": 0.8767, |
| "step": 18130 |
| }, |
| { |
| "epoch": 3.78, |
| "learning_rate": 1.1041666666666666e-05, |
| "loss": 0.6757, |
| "step": 18140 |
| }, |
| { |
| "epoch": 3.78, |
| "learning_rate": 1.09375e-05, |
| "loss": 0.828, |
| "step": 18150 |
| }, |
| { |
| "epoch": 3.78, |
| "learning_rate": 1.0833333333333334e-05, |
| "loss": 0.808, |
| "step": 18160 |
| }, |
| { |
| "epoch": 3.79, |
| "learning_rate": 1.0729166666666667e-05, |
| "loss": 0.7561, |
| "step": 18170 |
| }, |
| { |
| "epoch": 3.79, |
| "learning_rate": 1.0625e-05, |
| "loss": 0.8943, |
| "step": 18180 |
| }, |
| { |
| "epoch": 3.79, |
| "learning_rate": 1.0520833333333334e-05, |
| "loss": 0.9267, |
| "step": 18190 |
| }, |
| { |
| "epoch": 3.79, |
| "learning_rate": 1.0416666666666668e-05, |
| "loss": 0.8291, |
| "step": 18200 |
| }, |
| { |
| "epoch": 3.79, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.807325005531311, |
| "eval_runtime": 59.5743, |
| "eval_samples_per_second": 100.715, |
| "eval_steps_per_second": 12.589, |
| "step": 18200 |
| }, |
| { |
| "epoch": 3.79, |
| "learning_rate": 1.03125e-05, |
| "loss": 0.9722, |
| "step": 18210 |
| }, |
| { |
| "epoch": 3.8, |
| "learning_rate": 1.0208333333333334e-05, |
| "loss": 0.7455, |
| "step": 18220 |
| }, |
| { |
| "epoch": 3.8, |
| "learning_rate": 1.0104166666666667e-05, |
| "loss": 0.7488, |
| "step": 18230 |
| }, |
| { |
| "epoch": 3.8, |
| "learning_rate": 1e-05, |
| "loss": 0.8727, |
| "step": 18240 |
| }, |
| { |
| "epoch": 3.8, |
| "learning_rate": 9.895833333333333e-06, |
| "loss": 0.816, |
| "step": 18250 |
| }, |
| { |
| "epoch": 3.8, |
| "learning_rate": 9.791666666666666e-06, |
| "loss": 0.7305, |
| "step": 18260 |
| }, |
| { |
| "epoch": 3.81, |
| "learning_rate": 9.6875e-06, |
| "loss": 0.8706, |
| "step": 18270 |
| }, |
| { |
| "epoch": 3.81, |
| "learning_rate": 9.583333333333334e-06, |
| "loss": 0.8111, |
| "step": 18280 |
| }, |
| { |
| "epoch": 3.81, |
| "learning_rate": 9.479166666666667e-06, |
| "loss": 0.9864, |
| "step": 18290 |
| }, |
| { |
| "epoch": 3.81, |
| "learning_rate": 9.375000000000001e-06, |
| "loss": 0.7897, |
| "step": 18300 |
| }, |
| { |
| "epoch": 3.81, |
| "eval_accuracy": 0.8221666666666667, |
| "eval_loss": 0.807155430316925, |
| "eval_runtime": 60.0363, |
| "eval_samples_per_second": 99.94, |
| "eval_steps_per_second": 12.492, |
| "step": 18300 |
| }, |
| { |
| "epoch": 3.81, |
| "learning_rate": 9.270833333333334e-06, |
| "loss": 0.8352, |
| "step": 18310 |
| }, |
| { |
| "epoch": 3.82, |
| "learning_rate": 9.166666666666666e-06, |
| "loss": 0.8747, |
| "step": 18320 |
| }, |
| { |
| "epoch": 3.82, |
| "learning_rate": 9.0625e-06, |
| "loss": 0.8287, |
| "step": 18330 |
| }, |
| { |
| "epoch": 3.82, |
| "learning_rate": 8.958333333333334e-06, |
| "loss": 0.8502, |
| "step": 18340 |
| }, |
| { |
| "epoch": 3.82, |
| "learning_rate": 8.854166666666667e-06, |
| "loss": 0.68, |
| "step": 18350 |
| }, |
| { |
| "epoch": 3.83, |
| "learning_rate": 8.75e-06, |
| "loss": 0.872, |
| "step": 18360 |
| }, |
| { |
| "epoch": 3.83, |
| "learning_rate": 8.645833333333333e-06, |
| "loss": 0.8588, |
| "step": 18370 |
| }, |
| { |
| "epoch": 3.83, |
| "learning_rate": 8.541666666666666e-06, |
| "loss": 0.9115, |
| "step": 18380 |
| }, |
| { |
| "epoch": 3.83, |
| "learning_rate": 8.437500000000002e-06, |
| "loss": 0.8313, |
| "step": 18390 |
| }, |
| { |
| "epoch": 3.83, |
| "learning_rate": 8.333333333333334e-06, |
| "loss": 0.8039, |
| "step": 18400 |
| }, |
| { |
| "epoch": 3.83, |
| "eval_accuracy": 0.822, |
| "eval_loss": 0.8070062398910522, |
| "eval_runtime": 60.1875, |
| "eval_samples_per_second": 99.688, |
| "eval_steps_per_second": 12.461, |
| "step": 18400 |
| }, |
| { |
| "epoch": 3.84, |
| "learning_rate": 8.229166666666667e-06, |
| "loss": 0.7409, |
| "step": 18410 |
| }, |
| { |
| "epoch": 3.84, |
| "learning_rate": 8.125000000000001e-06, |
| "loss": 0.7446, |
| "step": 18420 |
| }, |
| { |
| "epoch": 3.84, |
| "learning_rate": 8.020833333333335e-06, |
| "loss": 0.8208, |
| "step": 18430 |
| }, |
| { |
| "epoch": 3.84, |
| "learning_rate": 7.916666666666667e-06, |
| "loss": 0.8917, |
| "step": 18440 |
| }, |
| { |
| "epoch": 3.84, |
| "learning_rate": 7.8125e-06, |
| "loss": 0.7485, |
| "step": 18450 |
| }, |
| { |
| "epoch": 3.85, |
| "learning_rate": 7.708333333333334e-06, |
| "loss": 0.8152, |
| "step": 18460 |
| }, |
| { |
| "epoch": 3.85, |
| "learning_rate": 7.6041666666666666e-06, |
| "loss": 0.7873, |
| "step": 18470 |
| }, |
| { |
| "epoch": 3.85, |
| "learning_rate": 7.5e-06, |
| "loss": 0.8258, |
| "step": 18480 |
| }, |
| { |
| "epoch": 3.85, |
| "learning_rate": 7.395833333333334e-06, |
| "loss": 0.7294, |
| "step": 18490 |
| }, |
| { |
| "epoch": 3.85, |
| "learning_rate": 7.2916666666666674e-06, |
| "loss": 0.771, |
| "step": 18500 |
| }, |
| { |
| "epoch": 3.85, |
| "eval_accuracy": 0.8223333333333334, |
| "eval_loss": 0.8068689703941345, |
| "eval_runtime": 60.2044, |
| "eval_samples_per_second": 99.66, |
| "eval_steps_per_second": 12.458, |
| "step": 18500 |
| }, |
| { |
| "epoch": 3.86, |
| "learning_rate": 7.187499999999999e-06, |
| "loss": 0.8016, |
| "step": 18510 |
| }, |
| { |
| "epoch": 3.86, |
| "learning_rate": 7.083333333333334e-06, |
| "loss": 0.8057, |
| "step": 18520 |
| }, |
| { |
| "epoch": 3.86, |
| "learning_rate": 6.9791666666666675e-06, |
| "loss": 0.7622, |
| "step": 18530 |
| }, |
| { |
| "epoch": 3.86, |
| "learning_rate": 6.875000000000001e-06, |
| "loss": 0.784, |
| "step": 18540 |
| }, |
| { |
| "epoch": 3.86, |
| "learning_rate": 6.770833333333333e-06, |
| "loss": 0.7631, |
| "step": 18550 |
| }, |
| { |
| "epoch": 3.87, |
| "learning_rate": 6.666666666666667e-06, |
| "loss": 0.8692, |
| "step": 18560 |
| }, |
| { |
| "epoch": 3.87, |
| "learning_rate": 6.5625e-06, |
| "loss": 0.8098, |
| "step": 18570 |
| }, |
| { |
| "epoch": 3.87, |
| "learning_rate": 6.458333333333334e-06, |
| "loss": 0.8233, |
| "step": 18580 |
| }, |
| { |
| "epoch": 3.87, |
| "learning_rate": 6.354166666666667e-06, |
| "loss": 0.8647, |
| "step": 18590 |
| }, |
| { |
| "epoch": 3.88, |
| "learning_rate": 6.25e-06, |
| "loss": 0.7704, |
| "step": 18600 |
| }, |
| { |
| "epoch": 3.88, |
| "eval_accuracy": 0.8223333333333334, |
| "eval_loss": 0.8067442178726196, |
| "eval_runtime": 60.2868, |
| "eval_samples_per_second": 99.524, |
| "eval_steps_per_second": 12.441, |
| "step": 18600 |
| }, |
| { |
| "epoch": 3.88, |
| "learning_rate": 6.145833333333333e-06, |
| "loss": 0.886, |
| "step": 18610 |
| }, |
| { |
| "epoch": 3.88, |
| "learning_rate": 6.041666666666667e-06, |
| "loss": 0.7848, |
| "step": 18620 |
| }, |
| { |
| "epoch": 3.88, |
| "learning_rate": 5.9375e-06, |
| "loss": 0.7116, |
| "step": 18630 |
| }, |
| { |
| "epoch": 3.88, |
| "learning_rate": 5.833333333333334e-06, |
| "loss": 0.798, |
| "step": 18640 |
| }, |
| { |
| "epoch": 3.89, |
| "learning_rate": 5.729166666666667e-06, |
| "loss": 0.7944, |
| "step": 18650 |
| }, |
| { |
| "epoch": 3.89, |
| "learning_rate": 5.625e-06, |
| "loss": 0.6975, |
| "step": 18660 |
| }, |
| { |
| "epoch": 3.89, |
| "learning_rate": 5.520833333333333e-06, |
| "loss": 0.8092, |
| "step": 18670 |
| }, |
| { |
| "epoch": 3.89, |
| "learning_rate": 5.416666666666667e-06, |
| "loss": 0.8547, |
| "step": 18680 |
| }, |
| { |
| "epoch": 3.89, |
| "learning_rate": 5.3125e-06, |
| "loss": 0.8734, |
| "step": 18690 |
| }, |
| { |
| "epoch": 3.9, |
| "learning_rate": 5.208333333333334e-06, |
| "loss": 0.7695, |
| "step": 18700 |
| }, |
| { |
| "epoch": 3.9, |
| "eval_accuracy": 0.8223333333333334, |
| "eval_loss": 0.8066417574882507, |
| "eval_runtime": 59.8725, |
| "eval_samples_per_second": 100.213, |
| "eval_steps_per_second": 12.527, |
| "step": 18700 |
| }, |
| { |
| "epoch": 3.9, |
| "learning_rate": 5.104166666666667e-06, |
| "loss": 0.8462, |
| "step": 18710 |
| }, |
| { |
| "epoch": 3.9, |
| "learning_rate": 5e-06, |
| "loss": 0.7186, |
| "step": 18720 |
| }, |
| { |
| "epoch": 3.9, |
| "learning_rate": 4.895833333333333e-06, |
| "loss": 0.8693, |
| "step": 18730 |
| }, |
| { |
| "epoch": 3.9, |
| "learning_rate": 4.791666666666667e-06, |
| "loss": 0.75, |
| "step": 18740 |
| }, |
| { |
| "epoch": 3.91, |
| "learning_rate": 4.6875000000000004e-06, |
| "loss": 0.7983, |
| "step": 18750 |
| }, |
| { |
| "epoch": 3.91, |
| "learning_rate": 4.583333333333333e-06, |
| "loss": 0.8552, |
| "step": 18760 |
| }, |
| { |
| "epoch": 3.91, |
| "learning_rate": 4.479166666666667e-06, |
| "loss": 0.8027, |
| "step": 18770 |
| }, |
| { |
| "epoch": 3.91, |
| "learning_rate": 4.375e-06, |
| "loss": 0.7105, |
| "step": 18780 |
| }, |
| { |
| "epoch": 3.91, |
| "learning_rate": 4.270833333333333e-06, |
| "loss": 0.8377, |
| "step": 18790 |
| }, |
| { |
| "epoch": 3.92, |
| "learning_rate": 4.166666666666667e-06, |
| "loss": 0.8958, |
| "step": 18800 |
| }, |
| { |
| "epoch": 3.92, |
| "eval_accuracy": 0.8223333333333334, |
| "eval_loss": 0.8065563440322876, |
| "eval_runtime": 60.0376, |
| "eval_samples_per_second": 99.937, |
| "eval_steps_per_second": 12.492, |
| "step": 18800 |
| }, |
| { |
| "epoch": 3.92, |
| "learning_rate": 4.0625000000000005e-06, |
| "loss": 0.8574, |
| "step": 18810 |
| }, |
| { |
| "epoch": 3.92, |
| "learning_rate": 3.958333333333333e-06, |
| "loss": 0.8074, |
| "step": 18820 |
| }, |
| { |
| "epoch": 3.92, |
| "learning_rate": 3.854166666666667e-06, |
| "loss": 0.8339, |
| "step": 18830 |
| }, |
| { |
| "epoch": 3.92, |
| "learning_rate": 3.75e-06, |
| "loss": 0.8494, |
| "step": 18840 |
| }, |
| { |
| "epoch": 3.93, |
| "learning_rate": 3.6458333333333337e-06, |
| "loss": 0.8277, |
| "step": 18850 |
| }, |
| { |
| "epoch": 3.93, |
| "learning_rate": 3.541666666666667e-06, |
| "loss": 0.8511, |
| "step": 18860 |
| }, |
| { |
| "epoch": 3.93, |
| "learning_rate": 3.4375000000000005e-06, |
| "loss": 0.7874, |
| "step": 18870 |
| }, |
| { |
| "epoch": 3.93, |
| "learning_rate": 3.3333333333333333e-06, |
| "loss": 0.885, |
| "step": 18880 |
| }, |
| { |
| "epoch": 3.94, |
| "learning_rate": 3.229166666666667e-06, |
| "loss": 0.8734, |
| "step": 18890 |
| }, |
| { |
| "epoch": 3.94, |
| "learning_rate": 3.125e-06, |
| "loss": 0.8342, |
| "step": 18900 |
| }, |
| { |
| "epoch": 3.94, |
| "eval_accuracy": 0.8223333333333334, |
| "eval_loss": 0.8064927458763123, |
| "eval_runtime": 60.0424, |
| "eval_samples_per_second": 99.929, |
| "eval_steps_per_second": 12.491, |
| "step": 18900 |
| }, |
| { |
| "epoch": 3.94, |
| "learning_rate": 3.0208333333333334e-06, |
| "loss": 0.859, |
| "step": 18910 |
| }, |
| { |
| "epoch": 3.94, |
| "learning_rate": 2.916666666666667e-06, |
| "loss": 0.7698, |
| "step": 18920 |
| }, |
| { |
| "epoch": 3.94, |
| "learning_rate": 2.8125e-06, |
| "loss": 0.9321, |
| "step": 18930 |
| }, |
| { |
| "epoch": 3.95, |
| "learning_rate": 2.7083333333333334e-06, |
| "loss": 0.8088, |
| "step": 18940 |
| }, |
| { |
| "epoch": 3.95, |
| "learning_rate": 2.604166666666667e-06, |
| "loss": 0.8441, |
| "step": 18950 |
| }, |
| { |
| "epoch": 3.95, |
| "learning_rate": 2.5e-06, |
| "loss": 0.8155, |
| "step": 18960 |
| }, |
| { |
| "epoch": 3.95, |
| "learning_rate": 2.3958333333333334e-06, |
| "loss": 0.8861, |
| "step": 18970 |
| }, |
| { |
| "epoch": 3.95, |
| "learning_rate": 2.2916666666666666e-06, |
| "loss": 0.862, |
| "step": 18980 |
| }, |
| { |
| "epoch": 3.96, |
| "learning_rate": 2.1875e-06, |
| "loss": 0.7503, |
| "step": 18990 |
| }, |
| { |
| "epoch": 3.96, |
| "learning_rate": 2.0833333333333334e-06, |
| "loss": 0.8725, |
| "step": 19000 |
| }, |
| { |
| "epoch": 3.96, |
| "eval_accuracy": 0.8225, |
| "eval_loss": 0.8064481019973755, |
| "eval_runtime": 60.021, |
| "eval_samples_per_second": 99.965, |
| "eval_steps_per_second": 12.496, |
| "step": 19000 |
| }, |
| { |
| "epoch": 3.96, |
| "learning_rate": 1.9791666666666666e-06, |
| "loss": 0.8692, |
| "step": 19010 |
| }, |
| { |
| "epoch": 3.96, |
| "learning_rate": 1.875e-06, |
| "loss": 0.73, |
| "step": 19020 |
| }, |
| { |
| "epoch": 3.96, |
| "learning_rate": 1.7708333333333335e-06, |
| "loss": 0.6945, |
| "step": 19030 |
| }, |
| { |
| "epoch": 3.97, |
| "learning_rate": 1.6666666666666667e-06, |
| "loss": 0.7785, |
| "step": 19040 |
| }, |
| { |
| "epoch": 3.97, |
| "learning_rate": 1.5625e-06, |
| "loss": 0.7192, |
| "step": 19050 |
| }, |
| { |
| "epoch": 3.97, |
| "learning_rate": 1.4583333333333335e-06, |
| "loss": 0.879, |
| "step": 19060 |
| }, |
| { |
| "epoch": 3.97, |
| "learning_rate": 1.3541666666666667e-06, |
| "loss": 0.9321, |
| "step": 19070 |
| }, |
| { |
| "epoch": 3.98, |
| "learning_rate": 1.25e-06, |
| "loss": 0.7998, |
| "step": 19080 |
| }, |
| { |
| "epoch": 3.98, |
| "learning_rate": 1.1458333333333333e-06, |
| "loss": 0.8346, |
| "step": 19090 |
| }, |
| { |
| "epoch": 3.98, |
| "learning_rate": 1.0416666666666667e-06, |
| "loss": 0.8657, |
| "step": 19100 |
| }, |
| { |
| "epoch": 3.98, |
| "eval_accuracy": 0.8225, |
| "eval_loss": 0.8064188361167908, |
| "eval_runtime": 60.3549, |
| "eval_samples_per_second": 99.412, |
| "eval_steps_per_second": 12.426, |
| "step": 19100 |
| }, |
| { |
| "epoch": 3.98, |
| "learning_rate": 9.375e-07, |
| "loss": 0.781, |
| "step": 19110 |
| }, |
| { |
| "epoch": 3.98, |
| "learning_rate": 8.333333333333333e-07, |
| "loss": 0.7806, |
| "step": 19120 |
| }, |
| { |
| "epoch": 3.99, |
| "learning_rate": 7.291666666666667e-07, |
| "loss": 0.8996, |
| "step": 19130 |
| }, |
| { |
| "epoch": 3.99, |
| "learning_rate": 6.25e-07, |
| "loss": 0.7965, |
| "step": 19140 |
| }, |
| { |
| "epoch": 3.99, |
| "learning_rate": 5.208333333333334e-07, |
| "loss": 0.8446, |
| "step": 19150 |
| }, |
| { |
| "epoch": 3.99, |
| "learning_rate": 4.1666666666666667e-07, |
| "loss": 0.8693, |
| "step": 19160 |
| }, |
| { |
| "epoch": 3.99, |
| "learning_rate": 3.125e-07, |
| "loss": 0.9884, |
| "step": 19170 |
| }, |
| { |
| "epoch": 4.0, |
| "learning_rate": 2.0833333333333333e-07, |
| "loss": 0.6687, |
| "step": 19180 |
| }, |
| { |
| "epoch": 4.0, |
| "learning_rate": 1.0416666666666667e-07, |
| "loss": 0.7632, |
| "step": 19190 |
| }, |
| { |
| "epoch": 4.0, |
| "learning_rate": 0.0, |
| "loss": 0.779, |
| "step": 19200 |
| }, |
| { |
| "epoch": 4.0, |
| "eval_accuracy": 0.8225, |
| "eval_loss": 0.8064092397689819, |
| "eval_runtime": 60.5888, |
| "eval_samples_per_second": 99.028, |
| "eval_steps_per_second": 12.379, |
| "step": 19200 |
| }, |
| { |
| "epoch": 4.0, |
| "step": 19200, |
| "total_flos": 435137090688000.0, |
| "train_loss": 1.0191231156388918, |
| "train_runtime": 13901.23, |
| "train_samples_per_second": 13.812, |
| "train_steps_per_second": 1.381 |
| } |
| ], |
| "logging_steps": 10, |
| "max_steps": 19200, |
| "num_train_epochs": 4, |
| "save_steps": 100, |
| "total_flos": 435137090688000.0, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|