| { |
| "best_metric": 0.24798691272735596, |
| "best_model_checkpoint": "./xlam_lora_new_ete_over_size_3epoch_multi_3000_zhtw/checkpoint-806", |
| "epoch": 4.96, |
| "eval_steps": 62, |
| "global_step": 930, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.05333333333333334, |
| "grad_norm": 0.4235735535621643, |
| "learning_rate": 3.0303030303030305e-06, |
| "loss": 0.6361, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.10666666666666667, |
| "grad_norm": 0.6050911545753479, |
| "learning_rate": 6.060606060606061e-06, |
| "loss": 0.662, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.16, |
| "grad_norm": 0.49475550651550293, |
| "learning_rate": 9.090909090909091e-06, |
| "loss": 0.6834, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.21333333333333335, |
| "grad_norm": 0.5867378115653992, |
| "learning_rate": 1.2121212121212122e-05, |
| "loss": 0.5942, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.26666666666666666, |
| "grad_norm": 0.5474593639373779, |
| "learning_rate": 1.5151515151515153e-05, |
| "loss": 0.5901, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.32, |
| "grad_norm": 0.40911629796028137, |
| "learning_rate": 1.8181818181818182e-05, |
| "loss": 0.5557, |
| "step": 60 |
| }, |
| { |
| "epoch": 0.33066666666666666, |
| "eval_loss": 0.46582701802253723, |
| "eval_runtime": 54.2447, |
| "eval_samples_per_second": 5.53, |
| "eval_steps_per_second": 5.53, |
| "step": 62 |
| }, |
| { |
| "epoch": 0.37333333333333335, |
| "grad_norm": 0.4435727894306183, |
| "learning_rate": 1.9998954455284204e-05, |
| "loss": 0.4781, |
| "step": 70 |
| }, |
| { |
| "epoch": 0.4266666666666667, |
| "grad_norm": 0.41196975111961365, |
| "learning_rate": 1.9987194587947592e-05, |
| "loss": 0.4138, |
| "step": 80 |
| }, |
| { |
| "epoch": 0.48, |
| "grad_norm": 0.42836371064186096, |
| "learning_rate": 1.9962383341550194e-05, |
| "loss": 0.4172, |
| "step": 90 |
| }, |
| { |
| "epoch": 0.5333333333333333, |
| "grad_norm": 0.37602734565734863, |
| "learning_rate": 1.9924553139709957e-05, |
| "loss": 0.4065, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.5866666666666667, |
| "grad_norm": 0.4275723993778229, |
| "learning_rate": 1.9873753419363336e-05, |
| "loss": 0.3744, |
| "step": 110 |
| }, |
| { |
| "epoch": 0.64, |
| "grad_norm": 0.42136824131011963, |
| "learning_rate": 1.981005056616053e-05, |
| "loss": 0.3873, |
| "step": 120 |
| }, |
| { |
| "epoch": 0.6613333333333333, |
| "eval_loss": 0.3491014242172241, |
| "eval_runtime": 54.1917, |
| "eval_samples_per_second": 5.536, |
| "eval_steps_per_second": 5.536, |
| "step": 124 |
| }, |
| { |
| "epoch": 0.6933333333333334, |
| "grad_norm": 0.5505813956260681, |
| "learning_rate": 1.9733527827711977e-05, |
| "loss": 0.3914, |
| "step": 130 |
| }, |
| { |
| "epoch": 0.7466666666666667, |
| "grad_norm": 0.512336790561676, |
| "learning_rate": 1.9644285204799424e-05, |
| "loss": 0.3669, |
| "step": 140 |
| }, |
| { |
| "epoch": 0.8, |
| "grad_norm": 0.4810221791267395, |
| "learning_rate": 1.954243932069377e-05, |
| "loss": 0.3437, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.8533333333333334, |
| "grad_norm": 0.4676913321018219, |
| "learning_rate": 1.9428123268750477e-05, |
| "loss": 0.3271, |
| "step": 160 |
| }, |
| { |
| "epoch": 0.9066666666666666, |
| "grad_norm": 0.5244799852371216, |
| "learning_rate": 1.9301486438481628e-05, |
| "loss": 0.3275, |
| "step": 170 |
| }, |
| { |
| "epoch": 0.96, |
| "grad_norm": 0.6460509896278381, |
| "learning_rate": 1.9162694320332047e-05, |
| "loss": 0.336, |
| "step": 180 |
| }, |
| { |
| "epoch": 0.992, |
| "eval_loss": 0.3109975755214691, |
| "eval_runtime": 54.2021, |
| "eval_samples_per_second": 5.535, |
| "eval_steps_per_second": 5.535, |
| "step": 186 |
| }, |
| { |
| "epoch": 1.0133333333333334, |
| "grad_norm": 0.6787670850753784, |
| "learning_rate": 1.9011928289414502e-05, |
| "loss": 0.3398, |
| "step": 190 |
| }, |
| { |
| "epoch": 1.0666666666666667, |
| "grad_norm": 0.6159510612487793, |
| "learning_rate": 1.884938536848665e-05, |
| "loss": 0.2954, |
| "step": 200 |
| }, |
| { |
| "epoch": 1.12, |
| "grad_norm": 0.7281141877174377, |
| "learning_rate": 1.8675277970479472e-05, |
| "loss": 0.2924, |
| "step": 210 |
| }, |
| { |
| "epoch": 1.1733333333333333, |
| "grad_norm": 0.616617739200592, |
| "learning_rate": 1.8489833620913644e-05, |
| "loss": 0.3035, |
| "step": 220 |
| }, |
| { |
| "epoch": 1.2266666666666666, |
| "grad_norm": 0.6845237016677856, |
| "learning_rate": 1.8293294660566593e-05, |
| "loss": 0.3086, |
| "step": 230 |
| }, |
| { |
| "epoch": 1.28, |
| "grad_norm": 0.742657482624054, |
| "learning_rate": 1.8085917928778856e-05, |
| "loss": 0.3105, |
| "step": 240 |
| }, |
| { |
| "epoch": 1.3226666666666667, |
| "eval_loss": 0.28988921642303467, |
| "eval_runtime": 54.2132, |
| "eval_samples_per_second": 5.534, |
| "eval_steps_per_second": 5.534, |
| "step": 248 |
| }, |
| { |
| "epoch": 1.3333333333333333, |
| "grad_norm": 0.6471216082572937, |
| "learning_rate": 1.786797442781349e-05, |
| "loss": 0.293, |
| "step": 250 |
| }, |
| { |
| "epoch": 1.3866666666666667, |
| "grad_norm": 0.6534147262573242, |
| "learning_rate": 1.763974896870726e-05, |
| "loss": 0.3092, |
| "step": 260 |
| }, |
| { |
| "epoch": 1.44, |
| "grad_norm": 0.7821707129478455, |
| "learning_rate": 1.7401539799076337e-05, |
| "loss": 0.2902, |
| "step": 270 |
| }, |
| { |
| "epoch": 1.4933333333333334, |
| "grad_norm": 0.8048843145370483, |
| "learning_rate": 1.715365821336294e-05, |
| "loss": 0.2705, |
| "step": 280 |
| }, |
| { |
| "epoch": 1.5466666666666666, |
| "grad_norm": 0.7110066413879395, |
| "learning_rate": 1.6896428146032234e-05, |
| "loss": 0.264, |
| "step": 290 |
| }, |
| { |
| "epoch": 1.6, |
| "grad_norm": 0.8438879251480103, |
| "learning_rate": 1.66301857482511e-05, |
| "loss": 0.3009, |
| "step": 300 |
| }, |
| { |
| "epoch": 1.6533333333333333, |
| "grad_norm": 0.9177027344703674, |
| "learning_rate": 1.6355278948601968e-05, |
| "loss": 0.2781, |
| "step": 310 |
| }, |
| { |
| "epoch": 1.6533333333333333, |
| "eval_loss": 0.2756989598274231, |
| "eval_runtime": 54.2092, |
| "eval_samples_per_second": 5.534, |
| "eval_steps_per_second": 5.534, |
| "step": 310 |
| }, |
| { |
| "epoch": 1.7066666666666666, |
| "grad_norm": 0.9365342855453491, |
| "learning_rate": 1.607206699840582e-05, |
| "loss": 0.3051, |
| "step": 320 |
| }, |
| { |
| "epoch": 1.76, |
| "grad_norm": 0.8810393214225769, |
| "learning_rate": 1.5780920002248484e-05, |
| "loss": 0.2981, |
| "step": 330 |
| }, |
| { |
| "epoch": 1.8133333333333335, |
| "grad_norm": 0.781434178352356, |
| "learning_rate": 1.5482218434323772e-05, |
| "loss": 0.274, |
| "step": 340 |
| }, |
| { |
| "epoch": 1.8666666666666667, |
| "grad_norm": 0.8649221062660217, |
| "learning_rate": 1.5176352641225482e-05, |
| "loss": 0.2895, |
| "step": 350 |
| }, |
| { |
| "epoch": 1.92, |
| "grad_norm": 0.8754165768623352, |
| "learning_rate": 1.4863722331838056e-05, |
| "loss": 0.2516, |
| "step": 360 |
| }, |
| { |
| "epoch": 1.9733333333333334, |
| "grad_norm": 0.8252100348472595, |
| "learning_rate": 1.4544736054992479e-05, |
| "loss": 0.2571, |
| "step": 370 |
| }, |
| { |
| "epoch": 1.984, |
| "eval_loss": 0.2665763199329376, |
| "eval_runtime": 54.2263, |
| "eval_samples_per_second": 5.532, |
| "eval_steps_per_second": 5.532, |
| "step": 372 |
| }, |
| { |
| "epoch": 2.026666666666667, |
| "grad_norm": 0.7680694460868835, |
| "learning_rate": 1.421981066557003e-05, |
| "loss": 0.2705, |
| "step": 380 |
| }, |
| { |
| "epoch": 2.08, |
| "grad_norm": 0.9581365585327148, |
| "learning_rate": 1.388937077975161e-05, |
| "loss": 0.256, |
| "step": 390 |
| }, |
| { |
| "epoch": 2.1333333333333333, |
| "grad_norm": 0.8508623838424683, |
| "learning_rate": 1.3553848220124497e-05, |
| "loss": 0.2489, |
| "step": 400 |
| }, |
| { |
| "epoch": 2.1866666666666665, |
| "grad_norm": 1.2500756978988647, |
| "learning_rate": 1.3213681451371697e-05, |
| "loss": 0.2592, |
| "step": 410 |
| }, |
| { |
| "epoch": 2.24, |
| "grad_norm": 1.1143897771835327, |
| "learning_rate": 1.2869315007281334e-05, |
| "loss": 0.2758, |
| "step": 420 |
| }, |
| { |
| "epoch": 2.2933333333333334, |
| "grad_norm": 1.0108174085617065, |
| "learning_rate": 1.2521198909824844e-05, |
| "loss": 0.2568, |
| "step": 430 |
| }, |
| { |
| "epoch": 2.3146666666666667, |
| "eval_loss": 0.2603953778743744, |
| "eval_runtime": 54.2271, |
| "eval_samples_per_second": 5.532, |
| "eval_steps_per_second": 5.532, |
| "step": 434 |
| }, |
| { |
| "epoch": 2.3466666666666667, |
| "grad_norm": 0.8171532154083252, |
| "learning_rate": 1.2169788081063181e-05, |
| "loss": 0.2641, |
| "step": 440 |
| }, |
| { |
| "epoch": 2.4, |
| "grad_norm": 0.8417274951934814, |
| "learning_rate": 1.1815541748649504e-05, |
| "loss": 0.253, |
| "step": 450 |
| }, |
| { |
| "epoch": 2.453333333333333, |
| "grad_norm": 1.0465962886810303, |
| "learning_rate": 1.1458922845705267e-05, |
| "loss": 0.2376, |
| "step": 460 |
| }, |
| { |
| "epoch": 2.506666666666667, |
| "grad_norm": 1.0968025922775269, |
| "learning_rate": 1.1100397405853988e-05, |
| "loss": 0.263, |
| "step": 470 |
| }, |
| { |
| "epoch": 2.56, |
| "grad_norm": 0.7435486316680908, |
| "learning_rate": 1.0740433954203215e-05, |
| "loss": 0.2712, |
| "step": 480 |
| }, |
| { |
| "epoch": 2.6133333333333333, |
| "grad_norm": 0.8800560235977173, |
| "learning_rate": 1.0379502895070615e-05, |
| "loss": 0.2429, |
| "step": 490 |
| }, |
| { |
| "epoch": 2.6453333333333333, |
| "eval_loss": 0.2555026710033417, |
| "eval_runtime": 54.2314, |
| "eval_samples_per_second": 5.532, |
| "eval_steps_per_second": 5.532, |
| "step": 496 |
| }, |
| { |
| "epoch": 2.6666666666666665, |
| "grad_norm": 0.8447176218032837, |
| "learning_rate": 1.0018075897254269e-05, |
| "loss": 0.2441, |
| "step": 500 |
| }, |
| { |
| "epoch": 2.7199999999999998, |
| "grad_norm": 1.1300873756408691, |
| "learning_rate": 9.656625277650558e-06, |
| "loss": 0.228, |
| "step": 510 |
| }, |
| { |
| "epoch": 2.7733333333333334, |
| "grad_norm": 1.0779595375061035, |
| "learning_rate": 9.295623384025081e-06, |
| "loss": 0.2115, |
| "step": 520 |
| }, |
| { |
| "epoch": 2.8266666666666667, |
| "grad_norm": 0.8979836106300354, |
| "learning_rate": 8.935541977743243e-06, |
| "loss": 0.2482, |
| "step": 530 |
| }, |
| { |
| "epoch": 2.88, |
| "grad_norm": 1.0708163976669312, |
| "learning_rate": 8.576851617267151e-06, |
| "loss": 0.2348, |
| "step": 540 |
| }, |
| { |
| "epoch": 2.9333333333333336, |
| "grad_norm": 0.9067320823669434, |
| "learning_rate": 8.2200210432245e-06, |
| "loss": 0.2583, |
| "step": 550 |
| }, |
| { |
| "epoch": 2.976, |
| "eval_loss": 0.25170889496803284, |
| "eval_runtime": 54.2153, |
| "eval_samples_per_second": 5.533, |
| "eval_steps_per_second": 5.533, |
| "step": 558 |
| }, |
| { |
| "epoch": 2.986666666666667, |
| "grad_norm": 0.9867958426475525, |
| "learning_rate": 7.865516565852993e-06, |
| "loss": 0.2237, |
| "step": 560 |
| }, |
| { |
| "epoch": 3.04, |
| "grad_norm": 1.0322318077087402, |
| "learning_rate": 7.513801455620847e-06, |
| "loss": 0.2312, |
| "step": 570 |
| }, |
| { |
| "epoch": 3.0933333333333333, |
| "grad_norm": 0.9287954568862915, |
| "learning_rate": 7.165335337819692e-06, |
| "loss": 0.2571, |
| "step": 580 |
| }, |
| { |
| "epoch": 3.1466666666666665, |
| "grad_norm": 1.0354498624801636, |
| "learning_rate": 6.820573591921029e-06, |
| "loss": 0.2329, |
| "step": 590 |
| }, |
| { |
| "epoch": 3.2, |
| "grad_norm": 1.151548147201538, |
| "learning_rate": 6.479966756481187e-06, |
| "loss": 0.2282, |
| "step": 600 |
| }, |
| { |
| "epoch": 3.2533333333333334, |
| "grad_norm": 1.203273892402649, |
| "learning_rate": 6.143959940372412e-06, |
| "loss": 0.2411, |
| "step": 610 |
| }, |
| { |
| "epoch": 3.3066666666666666, |
| "grad_norm": 1.1253547668457031, |
| "learning_rate": 5.812992241109578e-06, |
| "loss": 0.2333, |
| "step": 620 |
| }, |
| { |
| "epoch": 3.3066666666666666, |
| "eval_loss": 0.25101205706596375, |
| "eval_runtime": 54.2061, |
| "eval_samples_per_second": 5.534, |
| "eval_steps_per_second": 5.534, |
| "step": 620 |
| }, |
| { |
| "epoch": 3.36, |
| "grad_norm": 0.9425201416015625, |
| "learning_rate": 5.48749617103255e-06, |
| "loss": 0.2321, |
| "step": 630 |
| }, |
| { |
| "epoch": 3.413333333333333, |
| "grad_norm": 1.2458714246749878, |
| "learning_rate": 5.167897092094173e-06, |
| "loss": 0.2156, |
| "step": 640 |
| }, |
| { |
| "epoch": 3.466666666666667, |
| "grad_norm": 1.279915452003479, |
| "learning_rate": 4.854612659992443e-06, |
| "loss": 0.2249, |
| "step": 650 |
| }, |
| { |
| "epoch": 3.52, |
| "grad_norm": 1.2267746925354004, |
| "learning_rate": 4.548052278373327e-06, |
| "loss": 0.2348, |
| "step": 660 |
| }, |
| { |
| "epoch": 3.5733333333333333, |
| "grad_norm": 1.0411362648010254, |
| "learning_rate": 4.248616563817409e-06, |
| "loss": 0.2064, |
| "step": 670 |
| }, |
| { |
| "epoch": 3.626666666666667, |
| "grad_norm": 1.2344108819961548, |
| "learning_rate": 3.956696822309632e-06, |
| "loss": 0.2392, |
| "step": 680 |
| }, |
| { |
| "epoch": 3.6373333333333333, |
| "eval_loss": 0.24955469369888306, |
| "eval_runtime": 54.201, |
| "eval_samples_per_second": 5.535, |
| "eval_steps_per_second": 5.535, |
| "step": 682 |
| }, |
| { |
| "epoch": 3.68, |
| "grad_norm": 1.0226306915283203, |
| "learning_rate": 3.6726745378761885e-06, |
| "loss": 0.2169, |
| "step": 690 |
| }, |
| { |
| "epoch": 3.7333333333333334, |
| "grad_norm": 1.132111668586731, |
| "learning_rate": 3.3969208740568628e-06, |
| "loss": 0.223, |
| "step": 700 |
| }, |
| { |
| "epoch": 3.7866666666666666, |
| "grad_norm": 1.164300799369812, |
| "learning_rate": 3.129796188864336e-06, |
| "loss": 0.2247, |
| "step": 710 |
| }, |
| { |
| "epoch": 3.84, |
| "grad_norm": 1.1921504735946655, |
| "learning_rate": 2.871649563864224e-06, |
| "loss": 0.2433, |
| "step": 720 |
| }, |
| { |
| "epoch": 3.8933333333333335, |
| "grad_norm": 1.1919898986816406, |
| "learning_rate": 2.622818347991359e-06, |
| "loss": 0.2322, |
| "step": 730 |
| }, |
| { |
| "epoch": 3.9466666666666668, |
| "grad_norm": 1.1623626947402954, |
| "learning_rate": 2.3836277166983567e-06, |
| "loss": 0.2412, |
| "step": 740 |
| }, |
| { |
| "epoch": 3.968, |
| "eval_loss": 0.24801969528198242, |
| "eval_runtime": 54.2172, |
| "eval_samples_per_second": 5.533, |
| "eval_steps_per_second": 5.533, |
| "step": 744 |
| }, |
| { |
| "epoch": 4.0, |
| "grad_norm": 1.743503212928772, |
| "learning_rate": 2.1543902470126576e-06, |
| "loss": 0.2426, |
| "step": 750 |
| }, |
| { |
| "epoch": 4.053333333333334, |
| "grad_norm": 1.299652099609375, |
| "learning_rate": 1.9354055090573277e-06, |
| "loss": 0.232, |
| "step": 760 |
| }, |
| { |
| "epoch": 4.1066666666666665, |
| "grad_norm": 1.0157159566879272, |
| "learning_rate": 1.7269596745694295e-06, |
| "loss": 0.2286, |
| "step": 770 |
| }, |
| { |
| "epoch": 4.16, |
| "grad_norm": 1.1437900066375732, |
| "learning_rate": 1.5293251429275424e-06, |
| "loss": 0.2365, |
| "step": 780 |
| }, |
| { |
| "epoch": 4.213333333333333, |
| "grad_norm": 1.04501473903656, |
| "learning_rate": 1.342760185177181e-06, |
| "loss": 0.2262, |
| "step": 790 |
| }, |
| { |
| "epoch": 4.266666666666667, |
| "grad_norm": 1.1402639150619507, |
| "learning_rate": 1.1675086065192586e-06, |
| "loss": 0.2137, |
| "step": 800 |
| }, |
| { |
| "epoch": 4.298666666666667, |
| "eval_loss": 0.24798691272735596, |
| "eval_runtime": 54.2023, |
| "eval_samples_per_second": 5.535, |
| "eval_steps_per_second": 5.535, |
| "step": 806 |
| }, |
| { |
| "epoch": 4.32, |
| "grad_norm": 1.0015347003936768, |
| "learning_rate": 1.003799427702684e-06, |
| "loss": 0.2195, |
| "step": 810 |
| }, |
| { |
| "epoch": 4.373333333333333, |
| "grad_norm": 1.230886459350586, |
| "learning_rate": 8.518465857374636e-07, |
| "loss": 0.2204, |
| "step": 820 |
| }, |
| { |
| "epoch": 4.426666666666667, |
| "grad_norm": 1.1797746419906616, |
| "learning_rate": 7.118486543193781e-07, |
| "loss": 0.2199, |
| "step": 830 |
| }, |
| { |
| "epoch": 4.48, |
| "grad_norm": 1.0897029638290405, |
| "learning_rate": 5.839885843316439e-07, |
| "loss": 0.2284, |
| "step": 840 |
| }, |
| { |
| "epoch": 4.533333333333333, |
| "grad_norm": 1.0754568576812744, |
| "learning_rate": 4.6843346476260434e-07, |
| "loss": 0.2284, |
| "step": 850 |
| }, |
| { |
| "epoch": 4.586666666666667, |
| "grad_norm": 1.399537444114685, |
| "learning_rate": 3.653343043519686e-07, |
| "loss": 0.2364, |
| "step": 860 |
| }, |
| { |
| "epoch": 4.629333333333333, |
| "eval_loss": 0.24807001650333405, |
| "eval_runtime": 54.1702, |
| "eval_samples_per_second": 5.538, |
| "eval_steps_per_second": 5.538, |
| "step": 868 |
| }, |
| { |
| "epoch": 4.64, |
| "grad_norm": 1.1091139316558838, |
| "learning_rate": 2.748258342508614e-07, |
| "loss": 0.2276, |
| "step": 870 |
| }, |
| { |
| "epoch": 4.693333333333333, |
| "grad_norm": 1.0104506015777588, |
| "learning_rate": 1.9702633195363918e-07, |
| "loss": 0.2109, |
| "step": 880 |
| }, |
| { |
| "epoch": 4.746666666666667, |
| "grad_norm": 0.9876750111579895, |
| "learning_rate": 1.3203746673151497e-07, |
| "loss": 0.2179, |
| "step": 890 |
| }, |
| { |
| "epoch": 4.8, |
| "grad_norm": 1.1773096323013306, |
| "learning_rate": 7.994416677000405e-08, |
| "loss": 0.2083, |
| "step": 900 |
| }, |
| { |
| "epoch": 4.8533333333333335, |
| "grad_norm": 1.2676422595977783, |
| "learning_rate": 4.0814508183810716e-08, |
| "loss": 0.209, |
| "step": 910 |
| }, |
| { |
| "epoch": 4.906666666666666, |
| "grad_norm": 1.0502930879592896, |
| "learning_rate": 1.469962605418318e-08, |
| "loss": 0.2312, |
| "step": 920 |
| }, |
| { |
| "epoch": 4.96, |
| "grad_norm": 1.0051319599151611, |
| "learning_rate": 1.633647605020494e-09, |
| "loss": 0.2208, |
| "step": 930 |
| }, |
| { |
| "epoch": 4.96, |
| "eval_loss": 0.2480323761701584, |
| "eval_runtime": 54.1993, |
| "eval_samples_per_second": 5.535, |
| "eval_steps_per_second": 5.535, |
| "step": 930 |
| }, |
| { |
| "epoch": 4.96, |
| "step": 930, |
| "total_flos": 3.691258604647219e+17, |
| "train_loss": 0.2901810540947863, |
| "train_runtime": 9581.2941, |
| "train_samples_per_second": 1.566, |
| "train_steps_per_second": 0.098 |
| } |
| ], |
| "logging_steps": 10, |
| "max_steps": 935, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 5, |
| "save_steps": 62, |
| "stateful_callbacks": { |
| "EarlyStoppingCallback": { |
| "args": { |
| "early_stopping_patience": 2, |
| "early_stopping_threshold": 0.0 |
| }, |
| "attributes": { |
| "early_stopping_patience_counter": 2 |
| } |
| }, |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": true |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 3.691258604647219e+17, |
| "train_batch_size": 1, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|