{ "best_metric": null, "best_model_checkpoint": null, "epoch": 5.970666666666666, "eval_steps": 500, "global_step": 1122, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.05333333333333334, "grad_norm": 24.72922706604004, "learning_rate": 9.999039635236575e-05, "loss": 9.3592, "step": 10 }, { "epoch": 0.10666666666666667, "grad_norm": 15.090938568115234, "learning_rate": 9.99433669591504e-05, "loss": 8.1951, "step": 20 }, { "epoch": 0.16, "grad_norm": 11.75036334991455, "learning_rate": 9.985718470743917e-05, "loss": 8.0486, "step": 30 }, { "epoch": 0.21333333333333335, "grad_norm": Infinity, "learning_rate": 9.974620019358045e-05, "loss": 7.9758, "step": 40 }, { "epoch": 0.26666666666666666, "grad_norm": 11.149462699890137, "learning_rate": 9.958583897050699e-05, "loss": 8.0914, "step": 50 }, { "epoch": 0.32, "grad_norm": 10.258933067321777, "learning_rate": 9.93866051712574e-05, "loss": 8.068, "step": 60 }, { "epoch": 0.37333333333333335, "grad_norm": 11.847441673278809, "learning_rate": 9.91486549841951e-05, "loss": 8.0715, "step": 70 }, { "epoch": 0.4266666666666667, "grad_norm": 10.42148208618164, "learning_rate": 9.887217494920655e-05, "loss": 8.0495, "step": 80 }, { "epoch": 0.48, "grad_norm": 9.987250328063965, "learning_rate": 9.855738181146428e-05, "loss": 8.15, "step": 90 }, { "epoch": 0.5333333333333333, "grad_norm": 10.14989948272705, "learning_rate": 9.820452235151049e-05, "loss": 7.9533, "step": 100 }, { "epoch": 0.5866666666666667, "grad_norm": 10.510122299194336, "learning_rate": 9.781387319179466e-05, "loss": 8.0125, "step": 110 }, { "epoch": 0.64, "grad_norm": 10.167430877685547, "learning_rate": 9.738574057981678e-05, "loss": 7.867, "step": 120 }, { "epoch": 0.6933333333333334, "grad_norm": 10.005114555358887, "learning_rate": 9.69204601480461e-05, "loss": 8.0841, "step": 130 }, { "epoch": 0.7466666666666667, "grad_norm": 9.920500755310059, "learning_rate": 9.641839665080363e-05, "loss": 7.8963, "step": 140 }, { "epoch": 0.8, "grad_norm": 10.194422721862793, "learning_rate": 9.58799436783149e-05, "loss": 7.9465, "step": 150 }, { "epoch": 0.8533333333333334, "grad_norm": 9.244508743286133, "learning_rate": 9.53055233481567e-05, "loss": 7.8268, "step": 160 }, { "epoch": 0.9066666666666666, "grad_norm": 9.413444519042969, "learning_rate": 9.469558597434018e-05, "loss": 7.9496, "step": 170 }, { "epoch": 0.96, "grad_norm": 9.113428115844727, "learning_rate": 9.405060971428923e-05, "loss": 7.8761, "step": 180 }, { "epoch": 1.0106666666666666, "grad_norm": 10.662834167480469, "learning_rate": 9.337110019399149e-05, "loss": 7.0447, "step": 190 }, { "epoch": 1.064, "grad_norm": 9.262643814086914, "learning_rate": 9.265759011161519e-05, "loss": 5.604, "step": 200 }, { "epoch": 1.1173333333333333, "grad_norm": 10.475074768066406, "learning_rate": 9.191063881990308e-05, "loss": 5.5011, "step": 210 }, { "epoch": 1.1706666666666667, "grad_norm": 9.422979354858398, "learning_rate": 9.113083188767057e-05, "loss": 5.6094, "step": 220 }, { "epoch": 1.224, "grad_norm": 9.824627876281738, "learning_rate": 9.03187806407519e-05, "loss": 5.5714, "step": 230 }, { "epoch": 1.2773333333333334, "grad_norm": 9.943827629089355, "learning_rate": 8.947512168275429e-05, "loss": 5.6587, "step": 240 }, { "epoch": 1.3306666666666667, "grad_norm": 8.791569709777832, "learning_rate": 8.86005163959956e-05, "loss": 5.7327, "step": 250 }, { "epoch": 1.384, "grad_norm": 9.47322940826416, "learning_rate": 8.769565042301691e-05, "loss": 5.6468, "step": 260 }, { "epoch": 1.4373333333333334, "grad_norm": 9.704258918762207, "learning_rate": 8.676123312907642e-05, "loss": 5.7799, "step": 270 }, { "epoch": 1.4906666666666666, "grad_norm": 9.217696189880371, "learning_rate": 8.579799704604596e-05, "loss": 5.7282, "step": 280 }, { "epoch": 1.544, "grad_norm": 9.473422050476074, "learning_rate": 8.480669729814635e-05, "loss": 5.7854, "step": 290 }, { "epoch": 1.5973333333333333, "grad_norm": 9.128384590148926, "learning_rate": 8.378811100997123e-05, "loss": 5.824, "step": 300 }, { "epoch": 1.6506666666666665, "grad_norm": 9.525070190429688, "learning_rate": 8.274303669726426e-05, "loss": 5.8272, "step": 310 }, { "epoch": 1.704, "grad_norm": 9.38967227935791, "learning_rate": 8.167229364092647e-05, "loss": 5.8388, "step": 320 }, { "epoch": 1.7573333333333334, "grad_norm": 9.629057884216309, "learning_rate": 8.057672124474508e-05, "loss": 5.834, "step": 330 }, { "epoch": 1.8106666666666666, "grad_norm": 9.649420738220215, "learning_rate": 7.945717837734688e-05, "loss": 5.7878, "step": 340 }, { "epoch": 1.8639999999999999, "grad_norm": 10.08434009552002, "learning_rate": 7.831454269889251e-05, "loss": 5.7565, "step": 350 }, { "epoch": 1.9173333333333333, "grad_norm": 8.834407806396484, "learning_rate": 7.714970997303898e-05, "loss": 5.805, "step": 360 }, { "epoch": 1.9706666666666668, "grad_norm": 8.648845672607422, "learning_rate": 7.596359336471015e-05, "loss": 5.7674, "step": 370 }, { "epoch": 2.021333333333333, "grad_norm": 9.286345481872559, "learning_rate": 7.475712272422557e-05, "loss": 4.6739, "step": 380 }, { "epoch": 2.074666666666667, "grad_norm": 9.184532165527344, "learning_rate": 7.35312438583488e-05, "loss": 3.4263, "step": 390 }, { "epoch": 2.128, "grad_norm": 9.793543815612793, "learning_rate": 7.228691778882693e-05, "loss": 3.3865, "step": 400 }, { "epoch": 2.1813333333333333, "grad_norm": 9.974711418151855, "learning_rate": 7.102511999900213e-05, "loss": 3.4448, "step": 410 }, { "epoch": 2.2346666666666666, "grad_norm": 9.690023422241211, "learning_rate": 6.974683966908641e-05, "loss": 3.4652, "step": 420 }, { "epoch": 2.288, "grad_norm": 10.495637893676758, "learning_rate": 6.84530789006985e-05, "loss": 3.4585, "step": 430 }, { "epoch": 2.3413333333333335, "grad_norm": 9.875127792358398, "learning_rate": 6.714485193127126e-05, "loss": 3.4596, "step": 440 }, { "epoch": 2.3946666666666667, "grad_norm": 9.386152267456055, "learning_rate": 6.582318433894513e-05, "loss": 3.4094, "step": 450 }, { "epoch": 2.448, "grad_norm": 9.699738502502441, "learning_rate": 6.448911223857123e-05, "loss": 3.5483, "step": 460 }, { "epoch": 2.501333333333333, "grad_norm": 9.54281234741211, "learning_rate": 6.314368146945418e-05, "loss": 3.4739, "step": 470 }, { "epoch": 2.554666666666667, "grad_norm": 10.121294975280762, "learning_rate": 6.178794677547137e-05, "loss": 3.5686, "step": 480 }, { "epoch": 2.608, "grad_norm": 10.000744819641113, "learning_rate": 6.0422970978211834e-05, "loss": 3.4778, "step": 490 }, { "epoch": 2.6613333333333333, "grad_norm": 9.480353355407715, "learning_rate": 5.904982414378233e-05, "loss": 3.5983, "step": 500 }, { "epoch": 2.7146666666666666, "grad_norm": 10.401140213012695, "learning_rate": 5.7669582743934284e-05, "loss": 3.6008, "step": 510 }, { "epoch": 2.768, "grad_norm": 9.911478042602539, "learning_rate": 5.628332881216899e-05, "loss": 3.5318, "step": 520 }, { "epoch": 2.8213333333333335, "grad_norm": 9.741485595703125, "learning_rate": 5.4892149095482815e-05, "loss": 3.5949, "step": 530 }, { "epoch": 2.8746666666666667, "grad_norm": 9.522744178771973, "learning_rate": 5.3497134202417096e-05, "loss": 3.5776, "step": 540 }, { "epoch": 2.928, "grad_norm": 9.862764358520508, "learning_rate": 5.209937774808098e-05, "loss": 3.5341, "step": 550 }, { "epoch": 2.981333333333333, "grad_norm": 9.565387725830078, "learning_rate": 5.069997549681718e-05, "loss": 3.4962, "step": 560 }, { "epoch": 3.032, "grad_norm": 8.7464599609375, "learning_rate": 4.930002450318282e-05, "loss": 2.2876, "step": 570 }, { "epoch": 3.0853333333333333, "grad_norm": 7.954220294952393, "learning_rate": 4.790062225191902e-05, "loss": 1.6802, "step": 580 }, { "epoch": 3.1386666666666665, "grad_norm": 9.074536323547363, "learning_rate": 4.650286579758291e-05, "loss": 1.6187, "step": 590 }, { "epoch": 3.192, "grad_norm": 8.827848434448242, "learning_rate": 4.510785090451719e-05, "loss": 1.6036, "step": 600 }, { "epoch": 3.2453333333333334, "grad_norm": 8.552383422851562, "learning_rate": 4.371667118783101e-05, "loss": 1.6022, "step": 610 }, { "epoch": 3.2986666666666666, "grad_norm": 8.28974437713623, "learning_rate": 4.233041725606572e-05, "loss": 1.6742, "step": 620 }, { "epoch": 3.352, "grad_norm": 10.971680641174316, "learning_rate": 4.095017585621767e-05, "loss": 1.5802, "step": 630 }, { "epoch": 3.405333333333333, "grad_norm": 8.309553146362305, "learning_rate": 3.9577029021788164e-05, "loss": 1.6889, "step": 640 }, { "epoch": 3.458666666666667, "grad_norm": 8.555489540100098, "learning_rate": 3.821205322452863e-05, "loss": 1.6509, "step": 650 }, { "epoch": 3.512, "grad_norm": 9.02466869354248, "learning_rate": 3.685631853054583e-05, "loss": 1.6118, "step": 660 }, { "epoch": 3.5653333333333332, "grad_norm": 8.728509902954102, "learning_rate": 3.5510887761428765e-05, "loss": 1.6266, "step": 670 }, { "epoch": 3.618666666666667, "grad_norm": 8.970052719116211, "learning_rate": 3.4176815661054885e-05, "loss": 1.6069, "step": 680 }, { "epoch": 3.672, "grad_norm": 8.516586303710938, "learning_rate": 3.2855148068728756e-05, "loss": 1.6659, "step": 690 }, { "epoch": 3.7253333333333334, "grad_norm": 8.919830322265625, "learning_rate": 3.1546921099301506e-05, "loss": 1.6846, "step": 700 }, { "epoch": 3.7786666666666666, "grad_norm": 8.541778564453125, "learning_rate": 3.0253160330913598e-05, "loss": 1.6181, "step": 710 }, { "epoch": 3.832, "grad_norm": 8.83139419555664, "learning_rate": 2.8974880000997877e-05, "loss": 1.5836, "step": 720 }, { "epoch": 3.8853333333333335, "grad_norm": 8.658729553222656, "learning_rate": 2.771308221117309e-05, "loss": 1.7024, "step": 730 }, { "epoch": 3.9386666666666668, "grad_norm": 8.480195999145508, "learning_rate": 2.6468756141651206e-05, "loss": 1.6222, "step": 740 }, { "epoch": 3.992, "grad_norm": 8.250679016113281, "learning_rate": 2.5242877275774445e-05, "loss": 1.6467, "step": 750 }, { "epoch": 4.042666666666666, "grad_norm": 5.594525337219238, "learning_rate": 2.403640663528986e-05, "loss": 0.7207, "step": 760 }, { "epoch": 4.096, "grad_norm": 5.844119071960449, "learning_rate": 2.285029002696103e-05, "loss": 0.6291, "step": 770 }, { "epoch": 4.149333333333334, "grad_norm": 6.574643135070801, "learning_rate": 2.1685457301107504e-05, "loss": 0.5735, "step": 780 }, { "epoch": 4.2026666666666666, "grad_norm": 5.774216651916504, "learning_rate": 2.054282162265313e-05, "loss": 0.5888, "step": 790 }, { "epoch": 4.256, "grad_norm": 5.600583553314209, "learning_rate": 1.9423278755254932e-05, "loss": 0.5797, "step": 800 }, { "epoch": 4.309333333333333, "grad_norm": 6.131619453430176, "learning_rate": 1.8327706359073526e-05, "loss": 0.6167, "step": 810 }, { "epoch": 4.362666666666667, "grad_norm": 5.416571140289307, "learning_rate": 1.725696330273575e-05, "loss": 0.5787, "step": 820 }, { "epoch": 4.416, "grad_norm": 5.745408058166504, "learning_rate": 1.6211888990028785e-05, "loss": 0.5982, "step": 830 }, { "epoch": 4.469333333333333, "grad_norm": 6.464406967163086, "learning_rate": 1.5193302701853673e-05, "loss": 0.5994, "step": 840 }, { "epoch": 4.522666666666667, "grad_norm": 5.810715198516846, "learning_rate": 1.4202002953954041e-05, "loss": 0.5936, "step": 850 }, { "epoch": 4.576, "grad_norm": 5.5798516273498535, "learning_rate": 1.323876687092359e-05, "loss": 0.5807, "step": 860 }, { "epoch": 4.629333333333333, "grad_norm": 6.70074462890625, "learning_rate": 1.2304349576983093e-05, "loss": 0.5784, "step": 870 }, { "epoch": 4.682666666666667, "grad_norm": 6.038529396057129, "learning_rate": 1.1399483604004402e-05, "loss": 0.572, "step": 880 }, { "epoch": 4.736, "grad_norm": 5.514012813568115, "learning_rate": 1.0524878317245712e-05, "loss": 0.5582, "step": 890 }, { "epoch": 4.789333333333333, "grad_norm": 5.5417680740356445, "learning_rate": 9.681219359248106e-06, "loss": 0.5343, "step": 900 }, { "epoch": 4.842666666666666, "grad_norm": 5.650195121765137, "learning_rate": 8.869168112329441e-06, "loss": 0.5305, "step": 910 }, { "epoch": 4.896, "grad_norm": 5.692509174346924, "learning_rate": 8.089361180096927e-06, "loss": 0.5936, "step": 920 }, { "epoch": 4.949333333333334, "grad_norm": 5.946127891540527, "learning_rate": 7.342409888384816e-06, "loss": 0.5516, "step": 930 }, { "epoch": 5.0, "grad_norm": 3.735246419906616, "learning_rate": 6.628899806008515e-06, "loss": 0.5143, "step": 940 }, { "epoch": 5.053333333333334, "grad_norm": 3.113004207611084, "learning_rate": 5.949390285710776e-06, "loss": 0.2498, "step": 950 }, { "epoch": 5.1066666666666665, "grad_norm": 4.239569664001465, "learning_rate": 5.304414025659832e-06, "loss": 0.2392, "step": 960 }, { "epoch": 5.16, "grad_norm": 3.16518497467041, "learning_rate": 4.694476651843294e-06, "loss": 0.2241, "step": 970 }, { "epoch": 5.213333333333333, "grad_norm": 3.297945499420166, "learning_rate": 4.120056321685101e-06, "loss": 0.2332, "step": 980 }, { "epoch": 5.266666666666667, "grad_norm": 3.4214251041412354, "learning_rate": 3.581603349196372e-06, "loss": 0.22, "step": 990 }, { "epoch": 5.32, "grad_norm": 2.959951162338257, "learning_rate": 3.079539851953911e-06, "loss": 0.2192, "step": 1000 }, { "epoch": 5.373333333333333, "grad_norm": 2.8886938095092773, "learning_rate": 2.614259420183218e-06, "loss": 0.2244, "step": 1010 }, { "epoch": 5.426666666666667, "grad_norm": 3.0144460201263428, "learning_rate": 2.1861268082053466e-06, "loss": 0.2234, "step": 1020 }, { "epoch": 5.48, "grad_norm": 3.1671485900878906, "learning_rate": 1.7954776484895186e-06, "loss": 0.2178, "step": 1030 }, { "epoch": 5.533333333333333, "grad_norm": 2.926842451095581, "learning_rate": 1.4426181885357215e-06, "loss": 0.2222, "step": 1040 }, { "epoch": 5.586666666666667, "grad_norm": 3.4401443004608154, "learning_rate": 1.1278250507934518e-06, "loss": 0.2276, "step": 1050 }, { "epoch": 5.64, "grad_norm": 3.664684295654297, "learning_rate": 8.513450158049108e-07, "loss": 0.2316, "step": 1060 }, { "epoch": 5.693333333333333, "grad_norm": 3.684296131134033, "learning_rate": 6.133948287426028e-07, "loss": 0.2237, "step": 1070 }, { "epoch": 5.746666666666667, "grad_norm": 3.4764082431793213, "learning_rate": 4.141610294930043e-07, "loss": 0.2227, "step": 1080 }, { "epoch": 5.8, "grad_norm": 2.9150614738464355, "learning_rate": 2.537998064195579e-07, "loss": 0.2257, "step": 1090 }, { "epoch": 5.8533333333333335, "grad_norm": 3.013000011444092, "learning_rate": 1.324368739195281e-07, "loss": 0.2226, "step": 1100 }, { "epoch": 5.906666666666666, "grad_norm": 3.105398654937744, "learning_rate": 5.016737387085191e-08, "loss": 0.2171, "step": 1110 }, { "epoch": 5.96, "grad_norm": 3.3148136138916016, "learning_rate": 7.055801046113031e-09, "loss": 0.2126, "step": 1120 }, { "epoch": 5.970666666666666, "step": 1122, "total_flos": 6.092825392526131e+16, "train_loss": 3.2993942699436625, "train_runtime": 2130.8581, "train_samples_per_second": 16.892, "train_steps_per_second": 0.527 } ], "logging_steps": 10, "max_steps": 1122, "num_input_tokens_seen": 0, "num_train_epochs": 6, "save_steps": 2000, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 6.092825392526131e+16, "train_batch_size": 2, "trial_name": null, "trial_params": null }