klora_2000_skill / 119 /trainer_state.json
RayDu0010's picture
Upload folder using huggingface_hub
458697c verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 1.0,
"eval_steps": 500,
"global_step": 375,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.013333333333333334,
"grad_norm": 1.1873884201049805,
"learning_rate": 1.276595744680851e-06,
"loss": 1.3954,
"step": 5
},
{
"epoch": 0.02666666666666667,
"grad_norm": 0.8903486132621765,
"learning_rate": 2.872340425531915e-06,
"loss": 1.3756,
"step": 10
},
{
"epoch": 0.04,
"grad_norm": 0.643500804901123,
"learning_rate": 4.468085106382979e-06,
"loss": 1.313,
"step": 15
},
{
"epoch": 0.05333333333333334,
"grad_norm": 0.5865189433097839,
"learning_rate": 6.063829787234042e-06,
"loss": 1.3469,
"step": 20
},
{
"epoch": 0.06666666666666667,
"grad_norm": 0.6047818064689636,
"learning_rate": 7.659574468085105e-06,
"loss": 1.3487,
"step": 25
},
{
"epoch": 0.08,
"grad_norm": 0.46647050976753235,
"learning_rate": 9.255319148936171e-06,
"loss": 1.2593,
"step": 30
},
{
"epoch": 0.09333333333333334,
"grad_norm": 0.6065091490745544,
"learning_rate": 1.0851063829787235e-05,
"loss": 1.3334,
"step": 35
},
{
"epoch": 0.10666666666666667,
"grad_norm": 0.4491764008998871,
"learning_rate": 1.2446808510638298e-05,
"loss": 1.3141,
"step": 40
},
{
"epoch": 0.12,
"grad_norm": 0.3911891579627991,
"learning_rate": 1.4042553191489362e-05,
"loss": 1.2826,
"step": 45
},
{
"epoch": 0.13333333333333333,
"grad_norm": 0.4808066487312317,
"learning_rate": 1.5638297872340426e-05,
"loss": 1.2585,
"step": 50
},
{
"epoch": 0.14666666666666667,
"grad_norm": 0.40155282616615295,
"learning_rate": 1.723404255319149e-05,
"loss": 1.192,
"step": 55
},
{
"epoch": 0.16,
"grad_norm": 0.4628130793571472,
"learning_rate": 1.8829787234042554e-05,
"loss": 1.2295,
"step": 60
},
{
"epoch": 0.17333333333333334,
"grad_norm": 0.4529360830783844,
"learning_rate": 2.0425531914893616e-05,
"loss": 1.2319,
"step": 65
},
{
"epoch": 0.18666666666666668,
"grad_norm": 0.6239895224571228,
"learning_rate": 2.2021276595744682e-05,
"loss": 1.232,
"step": 70
},
{
"epoch": 0.2,
"grad_norm": 0.5903899669647217,
"learning_rate": 2.3617021276595744e-05,
"loss": 1.2665,
"step": 75
},
{
"epoch": 0.21333333333333335,
"grad_norm": 0.4527699649333954,
"learning_rate": 2.521276595744681e-05,
"loss": 1.1546,
"step": 80
},
{
"epoch": 0.22666666666666666,
"grad_norm": 0.49846717715263367,
"learning_rate": 2.6808510638297873e-05,
"loss": 1.1586,
"step": 85
},
{
"epoch": 0.24,
"grad_norm": 0.4715147614479065,
"learning_rate": 2.8404255319148935e-05,
"loss": 1.1711,
"step": 90
},
{
"epoch": 0.25333333333333335,
"grad_norm": 0.5354335308074951,
"learning_rate": 3e-05,
"loss": 1.1757,
"step": 95
},
{
"epoch": 0.26666666666666666,
"grad_norm": 0.49804872274398804,
"learning_rate": 2.9999416594709276e-05,
"loss": 1.1606,
"step": 100
},
{
"epoch": 0.28,
"grad_norm": 0.5435463190078735,
"learning_rate": 2.9997666424218674e-05,
"loss": 1.1192,
"step": 105
},
{
"epoch": 0.29333333333333333,
"grad_norm": 0.5041693449020386,
"learning_rate": 2.999474962466935e-05,
"loss": 1.134,
"step": 110
},
{
"epoch": 0.30666666666666664,
"grad_norm": 0.5381893515586853,
"learning_rate": 2.9990666422951477e-05,
"loss": 1.1359,
"step": 115
},
{
"epoch": 0.32,
"grad_norm": 0.5110737681388855,
"learning_rate": 2.9985417136686593e-05,
"loss": 1.1662,
"step": 120
},
{
"epoch": 0.3333333333333333,
"grad_norm": 0.7246907949447632,
"learning_rate": 2.997900217420288e-05,
"loss": 1.0833,
"step": 125
},
{
"epoch": 0.3466666666666667,
"grad_norm": 0.4948385953903198,
"learning_rate": 2.9971422034503405e-05,
"loss": 1.0462,
"step": 130
},
{
"epoch": 0.36,
"grad_norm": 0.6109930872917175,
"learning_rate": 2.996267730722732e-05,
"loss": 1.0577,
"step": 135
},
{
"epoch": 0.37333333333333335,
"grad_norm": 0.5852648615837097,
"learning_rate": 2.995276867260398e-05,
"loss": 1.0255,
"step": 140
},
{
"epoch": 0.38666666666666666,
"grad_norm": 0.6550834774971008,
"learning_rate": 2.9941696901400036e-05,
"loss": 1.0767,
"step": 145
},
{
"epoch": 0.4,
"grad_norm": 0.6836133599281311,
"learning_rate": 2.992946285485947e-05,
"loss": 1.0477,
"step": 150
},
{
"epoch": 0.41333333333333333,
"grad_norm": 0.648569643497467,
"learning_rate": 2.991606748463661e-05,
"loss": 1.0385,
"step": 155
},
{
"epoch": 0.4266666666666667,
"grad_norm": 0.7410032153129578,
"learning_rate": 2.9901511832722107e-05,
"loss": 0.9911,
"step": 160
},
{
"epoch": 0.44,
"grad_norm": 0.5952932238578796,
"learning_rate": 2.9885797031361875e-05,
"loss": 1.004,
"step": 165
},
{
"epoch": 0.4533333333333333,
"grad_norm": 0.6980846524238586,
"learning_rate": 2.986892430296901e-05,
"loss": 0.9638,
"step": 170
},
{
"epoch": 0.4666666666666667,
"grad_norm": 0.680654764175415,
"learning_rate": 2.9850894960028724e-05,
"loss": 0.9867,
"step": 175
},
{
"epoch": 0.48,
"grad_norm": 0.6924946308135986,
"learning_rate": 2.9831710404996215e-05,
"loss": 0.9718,
"step": 180
},
{
"epoch": 0.49333333333333335,
"grad_norm": 0.8666315674781799,
"learning_rate": 2.9811372130187603e-05,
"loss": 1.0286,
"step": 185
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.9502836465835571,
"learning_rate": 2.9789881717663846e-05,
"loss": 0.9406,
"step": 190
},
{
"epoch": 0.52,
"grad_norm": 0.851487398147583,
"learning_rate": 2.976724083910765e-05,
"loss": 1.0015,
"step": 195
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.7808340787887573,
"learning_rate": 2.9743451255693467e-05,
"loss": 0.9528,
"step": 200
},
{
"epoch": 0.5466666666666666,
"grad_norm": 0.9110279679298401,
"learning_rate": 2.9718514817950476e-05,
"loss": 0.9515,
"step": 205
},
{
"epoch": 0.56,
"grad_norm": 0.7540078163146973,
"learning_rate": 2.969243346561863e-05,
"loss": 0.9393,
"step": 210
},
{
"epoch": 0.5733333333333334,
"grad_norm": 0.8756011128425598,
"learning_rate": 2.9665209227497796e-05,
"loss": 0.8917,
"step": 215
},
{
"epoch": 0.5866666666666667,
"grad_norm": 0.9746143817901611,
"learning_rate": 2.963684422128991e-05,
"loss": 0.869,
"step": 220
},
{
"epoch": 0.6,
"grad_norm": 0.8993617296218872,
"learning_rate": 2.9607340653434263e-05,
"loss": 0.9441,
"step": 225
},
{
"epoch": 0.6133333333333333,
"grad_norm": 1.0635089874267578,
"learning_rate": 2.9576700818935873e-05,
"loss": 0.8688,
"step": 230
},
{
"epoch": 0.6266666666666667,
"grad_norm": 0.9382509589195251,
"learning_rate": 2.9544927101186935e-05,
"loss": 0.8429,
"step": 235
},
{
"epoch": 0.64,
"grad_norm": 0.9952794909477234,
"learning_rate": 2.9512021971781468e-05,
"loss": 0.8249,
"step": 240
},
{
"epoch": 0.6533333333333333,
"grad_norm": 1.029767394065857,
"learning_rate": 2.9477987990323006e-05,
"loss": 0.8586,
"step": 245
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.9662622809410095,
"learning_rate": 2.9442827804225534e-05,
"loss": 0.8312,
"step": 250
},
{
"epoch": 0.68,
"grad_norm": 0.823400616645813,
"learning_rate": 2.940654414850754e-05,
"loss": 0.8654,
"step": 255
},
{
"epoch": 0.6933333333333334,
"grad_norm": 0.8656212091445923,
"learning_rate": 2.9369139845579235e-05,
"loss": 0.8169,
"step": 260
},
{
"epoch": 0.7066666666666667,
"grad_norm": 0.9329780340194702,
"learning_rate": 2.9330617805023054e-05,
"loss": 0.8236,
"step": 265
},
{
"epoch": 0.72,
"grad_norm": 0.8937081694602966,
"learning_rate": 2.9290981023367307e-05,
"loss": 0.8101,
"step": 270
},
{
"epoch": 0.7333333333333333,
"grad_norm": 0.9529876112937927,
"learning_rate": 2.925023258385307e-05,
"loss": 0.8102,
"step": 275
},
{
"epoch": 0.7466666666666667,
"grad_norm": 0.9750953316688538,
"learning_rate": 2.9208375656194372e-05,
"loss": 0.8044,
"step": 280
},
{
"epoch": 0.76,
"grad_norm": 0.9084525108337402,
"learning_rate": 2.9165413496331623e-05,
"loss": 0.7772,
"step": 285
},
{
"epoch": 0.7733333333333333,
"grad_norm": 0.9664527177810669,
"learning_rate": 2.9121349446178338e-05,
"loss": 0.7743,
"step": 290
},
{
"epoch": 0.7866666666666666,
"grad_norm": 1.1255749464035034,
"learning_rate": 2.9076186933361173e-05,
"loss": 0.7528,
"step": 295
},
{
"epoch": 0.8,
"grad_norm": 0.9466111063957214,
"learning_rate": 2.9029929470953328e-05,
"loss": 0.7652,
"step": 300
},
{
"epoch": 0.8133333333333334,
"grad_norm": 1.110765814781189,
"learning_rate": 2.898258065720124e-05,
"loss": 0.7658,
"step": 305
},
{
"epoch": 0.8266666666666667,
"grad_norm": 0.9727138876914978,
"learning_rate": 2.89341441752447e-05,
"loss": 0.7478,
"step": 310
},
{
"epoch": 0.84,
"grad_norm": 0.9796950221061707,
"learning_rate": 2.8884623792830358e-05,
"loss": 0.7302,
"step": 315
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.9211506843566895,
"learning_rate": 2.883402336201862e-05,
"loss": 0.7537,
"step": 320
},
{
"epoch": 0.8666666666666667,
"grad_norm": 1.1969343423843384,
"learning_rate": 2.8782346818884033e-05,
"loss": 0.7019,
"step": 325
},
{
"epoch": 0.88,
"grad_norm": 0.9560972452163696,
"learning_rate": 2.8729598183209088e-05,
"loss": 0.7469,
"step": 330
},
{
"epoch": 0.8933333333333333,
"grad_norm": 1.1036756038665771,
"learning_rate": 2.8675781558171526e-05,
"loss": 0.7244,
"step": 335
},
{
"epoch": 0.9066666666666666,
"grad_norm": 1.0091289281845093,
"learning_rate": 2.8620901130025194e-05,
"loss": 0.6958,
"step": 340
},
{
"epoch": 0.92,
"grad_norm": 1.0456799268722534,
"learning_rate": 2.8564961167774366e-05,
"loss": 0.6851,
"step": 345
},
{
"epoch": 0.9333333333333333,
"grad_norm": 1.0004171133041382,
"learning_rate": 2.8507966022841713e-05,
"loss": 0.7148,
"step": 350
},
{
"epoch": 0.9466666666666667,
"grad_norm": 0.9208289384841919,
"learning_rate": 2.8449920128729772e-05,
"loss": 0.687,
"step": 355
},
{
"epoch": 0.96,
"grad_norm": 1.2083231210708618,
"learning_rate": 2.839082800067611e-05,
"loss": 0.7099,
"step": 360
},
{
"epoch": 0.9733333333333334,
"grad_norm": 1.1177873611450195,
"learning_rate": 2.8330694235302083e-05,
"loss": 0.7127,
"step": 365
},
{
"epoch": 0.9866666666666667,
"grad_norm": 1.0038983821868896,
"learning_rate": 2.826952351025527e-05,
"loss": 0.6687,
"step": 370
},
{
"epoch": 1.0,
"grad_norm": 1.0586795806884766,
"learning_rate": 2.8207320583845623e-05,
"loss": 0.6812,
"step": 375
}
],
"logging_steps": 5,
"max_steps": 1875,
"num_input_tokens_seen": 0,
"num_train_epochs": 5,
"save_steps": 2000,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 5.326015223079895e+17,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}