jdqqjr's picture
Upload folder using huggingface_hub
92a99b7 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 5.970666666666666,
"eval_steps": 500,
"global_step": 1122,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.05333333333333334,
"grad_norm": 24.72922706604004,
"learning_rate": 9.999039635236575e-05,
"loss": 9.3592,
"step": 10
},
{
"epoch": 0.10666666666666667,
"grad_norm": 15.090938568115234,
"learning_rate": 9.99433669591504e-05,
"loss": 8.1951,
"step": 20
},
{
"epoch": 0.16,
"grad_norm": 11.75036334991455,
"learning_rate": 9.985718470743917e-05,
"loss": 8.0486,
"step": 30
},
{
"epoch": 0.21333333333333335,
"grad_norm": Infinity,
"learning_rate": 9.974620019358045e-05,
"loss": 7.9758,
"step": 40
},
{
"epoch": 0.26666666666666666,
"grad_norm": 11.149462699890137,
"learning_rate": 9.958583897050699e-05,
"loss": 8.0914,
"step": 50
},
{
"epoch": 0.32,
"grad_norm": 10.258933067321777,
"learning_rate": 9.93866051712574e-05,
"loss": 8.068,
"step": 60
},
{
"epoch": 0.37333333333333335,
"grad_norm": 11.847441673278809,
"learning_rate": 9.91486549841951e-05,
"loss": 8.0715,
"step": 70
},
{
"epoch": 0.4266666666666667,
"grad_norm": 10.42148208618164,
"learning_rate": 9.887217494920655e-05,
"loss": 8.0495,
"step": 80
},
{
"epoch": 0.48,
"grad_norm": 9.987250328063965,
"learning_rate": 9.855738181146428e-05,
"loss": 8.15,
"step": 90
},
{
"epoch": 0.5333333333333333,
"grad_norm": 10.14989948272705,
"learning_rate": 9.820452235151049e-05,
"loss": 7.9533,
"step": 100
},
{
"epoch": 0.5866666666666667,
"grad_norm": 10.510122299194336,
"learning_rate": 9.781387319179466e-05,
"loss": 8.0125,
"step": 110
},
{
"epoch": 0.64,
"grad_norm": 10.167430877685547,
"learning_rate": 9.738574057981678e-05,
"loss": 7.867,
"step": 120
},
{
"epoch": 0.6933333333333334,
"grad_norm": 10.005114555358887,
"learning_rate": 9.69204601480461e-05,
"loss": 8.0841,
"step": 130
},
{
"epoch": 0.7466666666666667,
"grad_norm": 9.920500755310059,
"learning_rate": 9.641839665080363e-05,
"loss": 7.8963,
"step": 140
},
{
"epoch": 0.8,
"grad_norm": 10.194422721862793,
"learning_rate": 9.58799436783149e-05,
"loss": 7.9465,
"step": 150
},
{
"epoch": 0.8533333333333334,
"grad_norm": 9.244508743286133,
"learning_rate": 9.53055233481567e-05,
"loss": 7.8268,
"step": 160
},
{
"epoch": 0.9066666666666666,
"grad_norm": 9.413444519042969,
"learning_rate": 9.469558597434018e-05,
"loss": 7.9496,
"step": 170
},
{
"epoch": 0.96,
"grad_norm": 9.113428115844727,
"learning_rate": 9.405060971428923e-05,
"loss": 7.8761,
"step": 180
},
{
"epoch": 1.0106666666666666,
"grad_norm": 10.662834167480469,
"learning_rate": 9.337110019399149e-05,
"loss": 7.0447,
"step": 190
},
{
"epoch": 1.064,
"grad_norm": 9.262643814086914,
"learning_rate": 9.265759011161519e-05,
"loss": 5.604,
"step": 200
},
{
"epoch": 1.1173333333333333,
"grad_norm": 10.475074768066406,
"learning_rate": 9.191063881990308e-05,
"loss": 5.5011,
"step": 210
},
{
"epoch": 1.1706666666666667,
"grad_norm": 9.422979354858398,
"learning_rate": 9.113083188767057e-05,
"loss": 5.6094,
"step": 220
},
{
"epoch": 1.224,
"grad_norm": 9.824627876281738,
"learning_rate": 9.03187806407519e-05,
"loss": 5.5714,
"step": 230
},
{
"epoch": 1.2773333333333334,
"grad_norm": 9.943827629089355,
"learning_rate": 8.947512168275429e-05,
"loss": 5.6587,
"step": 240
},
{
"epoch": 1.3306666666666667,
"grad_norm": 8.791569709777832,
"learning_rate": 8.86005163959956e-05,
"loss": 5.7327,
"step": 250
},
{
"epoch": 1.384,
"grad_norm": 9.47322940826416,
"learning_rate": 8.769565042301691e-05,
"loss": 5.6468,
"step": 260
},
{
"epoch": 1.4373333333333334,
"grad_norm": 9.704258918762207,
"learning_rate": 8.676123312907642e-05,
"loss": 5.7799,
"step": 270
},
{
"epoch": 1.4906666666666666,
"grad_norm": 9.217696189880371,
"learning_rate": 8.579799704604596e-05,
"loss": 5.7282,
"step": 280
},
{
"epoch": 1.544,
"grad_norm": 9.473422050476074,
"learning_rate": 8.480669729814635e-05,
"loss": 5.7854,
"step": 290
},
{
"epoch": 1.5973333333333333,
"grad_norm": 9.128384590148926,
"learning_rate": 8.378811100997123e-05,
"loss": 5.824,
"step": 300
},
{
"epoch": 1.6506666666666665,
"grad_norm": 9.525070190429688,
"learning_rate": 8.274303669726426e-05,
"loss": 5.8272,
"step": 310
},
{
"epoch": 1.704,
"grad_norm": 9.38967227935791,
"learning_rate": 8.167229364092647e-05,
"loss": 5.8388,
"step": 320
},
{
"epoch": 1.7573333333333334,
"grad_norm": 9.629057884216309,
"learning_rate": 8.057672124474508e-05,
"loss": 5.834,
"step": 330
},
{
"epoch": 1.8106666666666666,
"grad_norm": 9.649420738220215,
"learning_rate": 7.945717837734688e-05,
"loss": 5.7878,
"step": 340
},
{
"epoch": 1.8639999999999999,
"grad_norm": 10.08434009552002,
"learning_rate": 7.831454269889251e-05,
"loss": 5.7565,
"step": 350
},
{
"epoch": 1.9173333333333333,
"grad_norm": 8.834407806396484,
"learning_rate": 7.714970997303898e-05,
"loss": 5.805,
"step": 360
},
{
"epoch": 1.9706666666666668,
"grad_norm": 8.648845672607422,
"learning_rate": 7.596359336471015e-05,
"loss": 5.7674,
"step": 370
},
{
"epoch": 2.021333333333333,
"grad_norm": 9.286345481872559,
"learning_rate": 7.475712272422557e-05,
"loss": 4.6739,
"step": 380
},
{
"epoch": 2.074666666666667,
"grad_norm": 9.184532165527344,
"learning_rate": 7.35312438583488e-05,
"loss": 3.4263,
"step": 390
},
{
"epoch": 2.128,
"grad_norm": 9.793543815612793,
"learning_rate": 7.228691778882693e-05,
"loss": 3.3865,
"step": 400
},
{
"epoch": 2.1813333333333333,
"grad_norm": 9.974711418151855,
"learning_rate": 7.102511999900213e-05,
"loss": 3.4448,
"step": 410
},
{
"epoch": 2.2346666666666666,
"grad_norm": 9.690023422241211,
"learning_rate": 6.974683966908641e-05,
"loss": 3.4652,
"step": 420
},
{
"epoch": 2.288,
"grad_norm": 10.495637893676758,
"learning_rate": 6.84530789006985e-05,
"loss": 3.4585,
"step": 430
},
{
"epoch": 2.3413333333333335,
"grad_norm": 9.875127792358398,
"learning_rate": 6.714485193127126e-05,
"loss": 3.4596,
"step": 440
},
{
"epoch": 2.3946666666666667,
"grad_norm": 9.386152267456055,
"learning_rate": 6.582318433894513e-05,
"loss": 3.4094,
"step": 450
},
{
"epoch": 2.448,
"grad_norm": 9.699738502502441,
"learning_rate": 6.448911223857123e-05,
"loss": 3.5483,
"step": 460
},
{
"epoch": 2.501333333333333,
"grad_norm": 9.54281234741211,
"learning_rate": 6.314368146945418e-05,
"loss": 3.4739,
"step": 470
},
{
"epoch": 2.554666666666667,
"grad_norm": 10.121294975280762,
"learning_rate": 6.178794677547137e-05,
"loss": 3.5686,
"step": 480
},
{
"epoch": 2.608,
"grad_norm": 10.000744819641113,
"learning_rate": 6.0422970978211834e-05,
"loss": 3.4778,
"step": 490
},
{
"epoch": 2.6613333333333333,
"grad_norm": 9.480353355407715,
"learning_rate": 5.904982414378233e-05,
"loss": 3.5983,
"step": 500
},
{
"epoch": 2.7146666666666666,
"grad_norm": 10.401140213012695,
"learning_rate": 5.7669582743934284e-05,
"loss": 3.6008,
"step": 510
},
{
"epoch": 2.768,
"grad_norm": 9.911478042602539,
"learning_rate": 5.628332881216899e-05,
"loss": 3.5318,
"step": 520
},
{
"epoch": 2.8213333333333335,
"grad_norm": 9.741485595703125,
"learning_rate": 5.4892149095482815e-05,
"loss": 3.5949,
"step": 530
},
{
"epoch": 2.8746666666666667,
"grad_norm": 9.522744178771973,
"learning_rate": 5.3497134202417096e-05,
"loss": 3.5776,
"step": 540
},
{
"epoch": 2.928,
"grad_norm": 9.862764358520508,
"learning_rate": 5.209937774808098e-05,
"loss": 3.5341,
"step": 550
},
{
"epoch": 2.981333333333333,
"grad_norm": 9.565387725830078,
"learning_rate": 5.069997549681718e-05,
"loss": 3.4962,
"step": 560
},
{
"epoch": 3.032,
"grad_norm": 8.7464599609375,
"learning_rate": 4.930002450318282e-05,
"loss": 2.2876,
"step": 570
},
{
"epoch": 3.0853333333333333,
"grad_norm": 7.954220294952393,
"learning_rate": 4.790062225191902e-05,
"loss": 1.6802,
"step": 580
},
{
"epoch": 3.1386666666666665,
"grad_norm": 9.074536323547363,
"learning_rate": 4.650286579758291e-05,
"loss": 1.6187,
"step": 590
},
{
"epoch": 3.192,
"grad_norm": 8.827848434448242,
"learning_rate": 4.510785090451719e-05,
"loss": 1.6036,
"step": 600
},
{
"epoch": 3.2453333333333334,
"grad_norm": 8.552383422851562,
"learning_rate": 4.371667118783101e-05,
"loss": 1.6022,
"step": 610
},
{
"epoch": 3.2986666666666666,
"grad_norm": 8.28974437713623,
"learning_rate": 4.233041725606572e-05,
"loss": 1.6742,
"step": 620
},
{
"epoch": 3.352,
"grad_norm": 10.971680641174316,
"learning_rate": 4.095017585621767e-05,
"loss": 1.5802,
"step": 630
},
{
"epoch": 3.405333333333333,
"grad_norm": 8.309553146362305,
"learning_rate": 3.9577029021788164e-05,
"loss": 1.6889,
"step": 640
},
{
"epoch": 3.458666666666667,
"grad_norm": 8.555489540100098,
"learning_rate": 3.821205322452863e-05,
"loss": 1.6509,
"step": 650
},
{
"epoch": 3.512,
"grad_norm": 9.02466869354248,
"learning_rate": 3.685631853054583e-05,
"loss": 1.6118,
"step": 660
},
{
"epoch": 3.5653333333333332,
"grad_norm": 8.728509902954102,
"learning_rate": 3.5510887761428765e-05,
"loss": 1.6266,
"step": 670
},
{
"epoch": 3.618666666666667,
"grad_norm": 8.970052719116211,
"learning_rate": 3.4176815661054885e-05,
"loss": 1.6069,
"step": 680
},
{
"epoch": 3.672,
"grad_norm": 8.516586303710938,
"learning_rate": 3.2855148068728756e-05,
"loss": 1.6659,
"step": 690
},
{
"epoch": 3.7253333333333334,
"grad_norm": 8.919830322265625,
"learning_rate": 3.1546921099301506e-05,
"loss": 1.6846,
"step": 700
},
{
"epoch": 3.7786666666666666,
"grad_norm": 8.541778564453125,
"learning_rate": 3.0253160330913598e-05,
"loss": 1.6181,
"step": 710
},
{
"epoch": 3.832,
"grad_norm": 8.83139419555664,
"learning_rate": 2.8974880000997877e-05,
"loss": 1.5836,
"step": 720
},
{
"epoch": 3.8853333333333335,
"grad_norm": 8.658729553222656,
"learning_rate": 2.771308221117309e-05,
"loss": 1.7024,
"step": 730
},
{
"epoch": 3.9386666666666668,
"grad_norm": 8.480195999145508,
"learning_rate": 2.6468756141651206e-05,
"loss": 1.6222,
"step": 740
},
{
"epoch": 3.992,
"grad_norm": 8.250679016113281,
"learning_rate": 2.5242877275774445e-05,
"loss": 1.6467,
"step": 750
},
{
"epoch": 4.042666666666666,
"grad_norm": 5.594525337219238,
"learning_rate": 2.403640663528986e-05,
"loss": 0.7207,
"step": 760
},
{
"epoch": 4.096,
"grad_norm": 5.844119071960449,
"learning_rate": 2.285029002696103e-05,
"loss": 0.6291,
"step": 770
},
{
"epoch": 4.149333333333334,
"grad_norm": 6.574643135070801,
"learning_rate": 2.1685457301107504e-05,
"loss": 0.5735,
"step": 780
},
{
"epoch": 4.2026666666666666,
"grad_norm": 5.774216651916504,
"learning_rate": 2.054282162265313e-05,
"loss": 0.5888,
"step": 790
},
{
"epoch": 4.256,
"grad_norm": 5.600583553314209,
"learning_rate": 1.9423278755254932e-05,
"loss": 0.5797,
"step": 800
},
{
"epoch": 4.309333333333333,
"grad_norm": 6.131619453430176,
"learning_rate": 1.8327706359073526e-05,
"loss": 0.6167,
"step": 810
},
{
"epoch": 4.362666666666667,
"grad_norm": 5.416571140289307,
"learning_rate": 1.725696330273575e-05,
"loss": 0.5787,
"step": 820
},
{
"epoch": 4.416,
"grad_norm": 5.745408058166504,
"learning_rate": 1.6211888990028785e-05,
"loss": 0.5982,
"step": 830
},
{
"epoch": 4.469333333333333,
"grad_norm": 6.464406967163086,
"learning_rate": 1.5193302701853673e-05,
"loss": 0.5994,
"step": 840
},
{
"epoch": 4.522666666666667,
"grad_norm": 5.810715198516846,
"learning_rate": 1.4202002953954041e-05,
"loss": 0.5936,
"step": 850
},
{
"epoch": 4.576,
"grad_norm": 5.5798516273498535,
"learning_rate": 1.323876687092359e-05,
"loss": 0.5807,
"step": 860
},
{
"epoch": 4.629333333333333,
"grad_norm": 6.70074462890625,
"learning_rate": 1.2304349576983093e-05,
"loss": 0.5784,
"step": 870
},
{
"epoch": 4.682666666666667,
"grad_norm": 6.038529396057129,
"learning_rate": 1.1399483604004402e-05,
"loss": 0.572,
"step": 880
},
{
"epoch": 4.736,
"grad_norm": 5.514012813568115,
"learning_rate": 1.0524878317245712e-05,
"loss": 0.5582,
"step": 890
},
{
"epoch": 4.789333333333333,
"grad_norm": 5.5417680740356445,
"learning_rate": 9.681219359248106e-06,
"loss": 0.5343,
"step": 900
},
{
"epoch": 4.842666666666666,
"grad_norm": 5.650195121765137,
"learning_rate": 8.869168112329441e-06,
"loss": 0.5305,
"step": 910
},
{
"epoch": 4.896,
"grad_norm": 5.692509174346924,
"learning_rate": 8.089361180096927e-06,
"loss": 0.5936,
"step": 920
},
{
"epoch": 4.949333333333334,
"grad_norm": 5.946127891540527,
"learning_rate": 7.342409888384816e-06,
"loss": 0.5516,
"step": 930
},
{
"epoch": 5.0,
"grad_norm": 3.735246419906616,
"learning_rate": 6.628899806008515e-06,
"loss": 0.5143,
"step": 940
},
{
"epoch": 5.053333333333334,
"grad_norm": 3.113004207611084,
"learning_rate": 5.949390285710776e-06,
"loss": 0.2498,
"step": 950
},
{
"epoch": 5.1066666666666665,
"grad_norm": 4.239569664001465,
"learning_rate": 5.304414025659832e-06,
"loss": 0.2392,
"step": 960
},
{
"epoch": 5.16,
"grad_norm": 3.16518497467041,
"learning_rate": 4.694476651843294e-06,
"loss": 0.2241,
"step": 970
},
{
"epoch": 5.213333333333333,
"grad_norm": 3.297945499420166,
"learning_rate": 4.120056321685101e-06,
"loss": 0.2332,
"step": 980
},
{
"epoch": 5.266666666666667,
"grad_norm": 3.4214251041412354,
"learning_rate": 3.581603349196372e-06,
"loss": 0.22,
"step": 990
},
{
"epoch": 5.32,
"grad_norm": 2.959951162338257,
"learning_rate": 3.079539851953911e-06,
"loss": 0.2192,
"step": 1000
},
{
"epoch": 5.373333333333333,
"grad_norm": 2.8886938095092773,
"learning_rate": 2.614259420183218e-06,
"loss": 0.2244,
"step": 1010
},
{
"epoch": 5.426666666666667,
"grad_norm": 3.0144460201263428,
"learning_rate": 2.1861268082053466e-06,
"loss": 0.2234,
"step": 1020
},
{
"epoch": 5.48,
"grad_norm": 3.1671485900878906,
"learning_rate": 1.7954776484895186e-06,
"loss": 0.2178,
"step": 1030
},
{
"epoch": 5.533333333333333,
"grad_norm": 2.926842451095581,
"learning_rate": 1.4426181885357215e-06,
"loss": 0.2222,
"step": 1040
},
{
"epoch": 5.586666666666667,
"grad_norm": 3.4401443004608154,
"learning_rate": 1.1278250507934518e-06,
"loss": 0.2276,
"step": 1050
},
{
"epoch": 5.64,
"grad_norm": 3.664684295654297,
"learning_rate": 8.513450158049108e-07,
"loss": 0.2316,
"step": 1060
},
{
"epoch": 5.693333333333333,
"grad_norm": 3.684296131134033,
"learning_rate": 6.133948287426028e-07,
"loss": 0.2237,
"step": 1070
},
{
"epoch": 5.746666666666667,
"grad_norm": 3.4764082431793213,
"learning_rate": 4.141610294930043e-07,
"loss": 0.2227,
"step": 1080
},
{
"epoch": 5.8,
"grad_norm": 2.9150614738464355,
"learning_rate": 2.537998064195579e-07,
"loss": 0.2257,
"step": 1090
},
{
"epoch": 5.8533333333333335,
"grad_norm": 3.013000011444092,
"learning_rate": 1.324368739195281e-07,
"loss": 0.2226,
"step": 1100
},
{
"epoch": 5.906666666666666,
"grad_norm": 3.105398654937744,
"learning_rate": 5.016737387085191e-08,
"loss": 0.2171,
"step": 1110
},
{
"epoch": 5.96,
"grad_norm": 3.3148136138916016,
"learning_rate": 7.055801046113031e-09,
"loss": 0.2126,
"step": 1120
},
{
"epoch": 5.970666666666666,
"step": 1122,
"total_flos": 6.092825392526131e+16,
"train_loss": 3.2993942699436625,
"train_runtime": 2130.8581,
"train_samples_per_second": 16.892,
"train_steps_per_second": 0.527
}
],
"logging_steps": 10,
"max_steps": 1122,
"num_input_tokens_seen": 0,
"num_train_epochs": 6,
"save_steps": 2000,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 6.092825392526131e+16,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}