gemmafischer-uci-lora / trainer_state.json
Dontbeafed69's picture
Upload folder using huggingface_hub
4810488 verified
{
"best_global_step": 800,
"best_metric": 0.7418414950370789,
"best_model_checkpoint": "checkpoints/lora_uci/checkpoint-800",
"epoch": 0.28444444444444444,
"eval_steps": 200,
"global_step": 800,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.00035555555555555557,
"grad_norm": 32.15512466430664,
"learning_rate": 0.0,
"loss": 4.3308,
"step": 1
},
{
"epoch": 0.0017777777777777779,
"grad_norm": 29.14179801940918,
"learning_rate": 1.6666666666666667e-06,
"loss": 4.2083,
"step": 5
},
{
"epoch": 0.0035555555555555557,
"grad_norm": 22.27640724182129,
"learning_rate": 3.75e-06,
"loss": 3.5173,
"step": 10
},
{
"epoch": 0.005333333333333333,
"grad_norm": 16.255199432373047,
"learning_rate": 5.833333333333334e-06,
"loss": 2.492,
"step": 15
},
{
"epoch": 0.0071111111111111115,
"grad_norm": 13.185359954833984,
"learning_rate": 7.916666666666667e-06,
"loss": 1.6992,
"step": 20
},
{
"epoch": 0.008888888888888889,
"grad_norm": 10.229533195495605,
"learning_rate": 1e-05,
"loss": 1.3879,
"step": 25
},
{
"epoch": 0.010666666666666666,
"grad_norm": 12.396824836730957,
"learning_rate": 1.2083333333333333e-05,
"loss": 1.2205,
"step": 30
},
{
"epoch": 0.012444444444444444,
"grad_norm": 34.271759033203125,
"learning_rate": 1.4166666666666668e-05,
"loss": 1.12,
"step": 35
},
{
"epoch": 0.014222222222222223,
"grad_norm": 16.109539031982422,
"learning_rate": 1.6250000000000002e-05,
"loss": 1.1309,
"step": 40
},
{
"epoch": 0.016,
"grad_norm": 14.91402816772461,
"learning_rate": 1.8333333333333333e-05,
"loss": 1.1121,
"step": 45
},
{
"epoch": 0.017777777777777778,
"grad_norm": 11.38852310180664,
"learning_rate": 2.0416666666666667e-05,
"loss": 1.0329,
"step": 50
},
{
"epoch": 0.019555555555555555,
"grad_norm": 13.237730979919434,
"learning_rate": 2.25e-05,
"loss": 1.0185,
"step": 55
},
{
"epoch": 0.021333333333333333,
"grad_norm": 29.64104461669922,
"learning_rate": 2.4583333333333332e-05,
"loss": 1.012,
"step": 60
},
{
"epoch": 0.02311111111111111,
"grad_norm": 9.474141120910645,
"learning_rate": 2.6666666666666667e-05,
"loss": 0.9874,
"step": 65
},
{
"epoch": 0.024888888888888887,
"grad_norm": 8.440736770629883,
"learning_rate": 2.8749999999999997e-05,
"loss": 0.9604,
"step": 70
},
{
"epoch": 0.02666666666666667,
"grad_norm": 6.6439900398254395,
"learning_rate": 3.0833333333333335e-05,
"loss": 0.9503,
"step": 75
},
{
"epoch": 0.028444444444444446,
"grad_norm": 7.365396499633789,
"learning_rate": 3.291666666666667e-05,
"loss": 0.9339,
"step": 80
},
{
"epoch": 0.030222222222222223,
"grad_norm": 8.67831802368164,
"learning_rate": 3.5e-05,
"loss": 0.919,
"step": 85
},
{
"epoch": 0.032,
"grad_norm": 9.373591423034668,
"learning_rate": 3.708333333333334e-05,
"loss": 0.9177,
"step": 90
},
{
"epoch": 0.033777777777777775,
"grad_norm": 6.998920440673828,
"learning_rate": 3.9166666666666665e-05,
"loss": 0.9053,
"step": 95
},
{
"epoch": 0.035555555555555556,
"grad_norm": 7.322479248046875,
"learning_rate": 4.125e-05,
"loss": 0.9217,
"step": 100
},
{
"epoch": 0.037333333333333336,
"grad_norm": 8.45313549041748,
"learning_rate": 4.3333333333333334e-05,
"loss": 0.9077,
"step": 105
},
{
"epoch": 0.03911111111111111,
"grad_norm": 10.838536262512207,
"learning_rate": 4.541666666666667e-05,
"loss": 0.9066,
"step": 110
},
{
"epoch": 0.04088888888888889,
"grad_norm": 9.282814979553223,
"learning_rate": 4.75e-05,
"loss": 0.8939,
"step": 115
},
{
"epoch": 0.042666666666666665,
"grad_norm": 5.256754398345947,
"learning_rate": 4.958333333333334e-05,
"loss": 0.8755,
"step": 120
},
{
"epoch": 0.044444444444444446,
"grad_norm": 6.6123552322387695,
"learning_rate": 5.166666666666667e-05,
"loss": 0.8843,
"step": 125
},
{
"epoch": 0.04622222222222222,
"grad_norm": 6.317594528198242,
"learning_rate": 5.375e-05,
"loss": 0.8802,
"step": 130
},
{
"epoch": 0.048,
"grad_norm": 4.420418739318848,
"learning_rate": 5.583333333333334e-05,
"loss": 0.8716,
"step": 135
},
{
"epoch": 0.049777777777777775,
"grad_norm": 7.11093282699585,
"learning_rate": 5.7916666666666674e-05,
"loss": 0.8944,
"step": 140
},
{
"epoch": 0.051555555555555556,
"grad_norm": 8.643278121948242,
"learning_rate": 6e-05,
"loss": 0.9049,
"step": 145
},
{
"epoch": 0.05333333333333334,
"grad_norm": 5.504462718963623,
"learning_rate": 6.208333333333334e-05,
"loss": 0.9215,
"step": 150
},
{
"epoch": 0.05511111111111111,
"grad_norm": 4.5625200271606445,
"learning_rate": 6.416666666666668e-05,
"loss": 0.8763,
"step": 155
},
{
"epoch": 0.05688888888888889,
"grad_norm": 4.5830397605896,
"learning_rate": 6.625e-05,
"loss": 0.8967,
"step": 160
},
{
"epoch": 0.058666666666666666,
"grad_norm": 5.370687961578369,
"learning_rate": 6.833333333333333e-05,
"loss": 0.868,
"step": 165
},
{
"epoch": 0.060444444444444446,
"grad_norm": 8.188835144042969,
"learning_rate": 7.041666666666668e-05,
"loss": 0.8853,
"step": 170
},
{
"epoch": 0.06222222222222222,
"grad_norm": 3.952087163925171,
"learning_rate": 7.25e-05,
"loss": 0.8724,
"step": 175
},
{
"epoch": 0.064,
"grad_norm": 4.194353103637695,
"learning_rate": 7.458333333333333e-05,
"loss": 0.8581,
"step": 180
},
{
"epoch": 0.06577777777777778,
"grad_norm": 2.985386610031128,
"learning_rate": 7.666666666666667e-05,
"loss": 0.8496,
"step": 185
},
{
"epoch": 0.06755555555555555,
"grad_norm": 5.666004657745361,
"learning_rate": 7.875e-05,
"loss": 0.8816,
"step": 190
},
{
"epoch": 0.06933333333333333,
"grad_norm": 3.95521879196167,
"learning_rate": 8.083333333333334e-05,
"loss": 0.8872,
"step": 195
},
{
"epoch": 0.07111111111111111,
"grad_norm": 4.558910369873047,
"learning_rate": 8.291666666666667e-05,
"loss": 0.8802,
"step": 200
},
{
"epoch": 0.07111111111111111,
"eval_loss": 0.8564087748527527,
"eval_runtime": 155.7786,
"eval_samples_per_second": 32.097,
"eval_steps_per_second": 4.012,
"step": 200
},
{
"epoch": 0.07288888888888889,
"grad_norm": 2.4701411724090576,
"learning_rate": 8.5e-05,
"loss": 0.8383,
"step": 205
},
{
"epoch": 0.07466666666666667,
"grad_norm": 4.364571571350098,
"learning_rate": 8.708333333333334e-05,
"loss": 0.8763,
"step": 210
},
{
"epoch": 0.07644444444444444,
"grad_norm": 4.059802532196045,
"learning_rate": 8.916666666666667e-05,
"loss": 0.8928,
"step": 215
},
{
"epoch": 0.07822222222222222,
"grad_norm": 7.405764579772949,
"learning_rate": 9.125e-05,
"loss": 0.8619,
"step": 220
},
{
"epoch": 0.08,
"grad_norm": 4.007632732391357,
"learning_rate": 9.333333333333334e-05,
"loss": 0.9656,
"step": 225
},
{
"epoch": 0.08177777777777778,
"grad_norm": 6.396026611328125,
"learning_rate": 9.541666666666668e-05,
"loss": 0.9084,
"step": 230
},
{
"epoch": 0.08355555555555555,
"grad_norm": 4.630360126495361,
"learning_rate": 9.75e-05,
"loss": 0.8617,
"step": 235
},
{
"epoch": 0.08533333333333333,
"grad_norm": 2.987304925918579,
"learning_rate": 9.958333333333335e-05,
"loss": 0.8696,
"step": 240
},
{
"epoch": 0.08711111111111111,
"grad_norm": 3.981341600418091,
"learning_rate": 9.999915384288722e-05,
"loss": 0.8412,
"step": 245
},
{
"epoch": 0.08888888888888889,
"grad_norm": 2.754917860031128,
"learning_rate": 9.999571637870036e-05,
"loss": 0.8526,
"step": 250
},
{
"epoch": 0.09066666666666667,
"grad_norm": 2.6841213703155518,
"learning_rate": 9.998963490426943e-05,
"loss": 0.853,
"step": 255
},
{
"epoch": 0.09244444444444444,
"grad_norm": 3.0342020988464355,
"learning_rate": 9.998090974121159e-05,
"loss": 0.8551,
"step": 260
},
{
"epoch": 0.09422222222222222,
"grad_norm": 3.418090343475342,
"learning_rate": 9.99695413509548e-05,
"loss": 0.8315,
"step": 265
},
{
"epoch": 0.096,
"grad_norm": 2.6049306392669678,
"learning_rate": 9.995553033471335e-05,
"loss": 0.8239,
"step": 270
},
{
"epoch": 0.09777777777777778,
"grad_norm": 4.258927345275879,
"learning_rate": 9.993887743345614e-05,
"loss": 0.84,
"step": 275
},
{
"epoch": 0.09955555555555555,
"grad_norm": 3.5856103897094727,
"learning_rate": 9.991958352786744e-05,
"loss": 0.8397,
"step": 280
},
{
"epoch": 0.10133333333333333,
"grad_norm": 4.18107271194458,
"learning_rate": 9.989764963830037e-05,
"loss": 0.8283,
"step": 285
},
{
"epoch": 0.10311111111111111,
"grad_norm": 2.9539637565612793,
"learning_rate": 9.987307692472287e-05,
"loss": 0.8315,
"step": 290
},
{
"epoch": 0.10488888888888889,
"grad_norm": 2.6121134757995605,
"learning_rate": 9.98458666866564e-05,
"loss": 0.8203,
"step": 295
},
{
"epoch": 0.10666666666666667,
"grad_norm": 3.4740283489227295,
"learning_rate": 9.98160203631072e-05,
"loss": 0.83,
"step": 300
},
{
"epoch": 0.10844444444444444,
"grad_norm": 3.486816167831421,
"learning_rate": 9.978353953249022e-05,
"loss": 0.8269,
"step": 305
},
{
"epoch": 0.11022222222222222,
"grad_norm": 2.7455246448516846,
"learning_rate": 9.974842591254558e-05,
"loss": 0.8332,
"step": 310
},
{
"epoch": 0.112,
"grad_norm": 2.8629767894744873,
"learning_rate": 9.971068136024781e-05,
"loss": 0.8305,
"step": 315
},
{
"epoch": 0.11377777777777778,
"grad_norm": 2.647754192352295,
"learning_rate": 9.967030787170757e-05,
"loss": 0.8213,
"step": 320
},
{
"epoch": 0.11555555555555555,
"grad_norm": 2.873353958129883,
"learning_rate": 9.962730758206611e-05,
"loss": 0.8269,
"step": 325
},
{
"epoch": 0.11733333333333333,
"grad_norm": 1.9501383304595947,
"learning_rate": 9.95816827653824e-05,
"loss": 0.8001,
"step": 330
},
{
"epoch": 0.11911111111111111,
"grad_norm": 2.3588831424713135,
"learning_rate": 9.95334358345128e-05,
"loss": 0.7965,
"step": 335
},
{
"epoch": 0.12088888888888889,
"grad_norm": 1.9669915437698364,
"learning_rate": 9.948256934098352e-05,
"loss": 0.7949,
"step": 340
},
{
"epoch": 0.12266666666666666,
"grad_norm": 2.3287253379821777,
"learning_rate": 9.942908597485558e-05,
"loss": 0.8312,
"step": 345
},
{
"epoch": 0.12444444444444444,
"grad_norm": 3.263697385787964,
"learning_rate": 9.93729885645827e-05,
"loss": 0.8305,
"step": 350
},
{
"epoch": 0.12622222222222224,
"grad_norm": 1.87248694896698,
"learning_rate": 9.931428007686158e-05,
"loss": 0.8292,
"step": 355
},
{
"epoch": 0.128,
"grad_norm": 2.7504541873931885,
"learning_rate": 9.925296361647504e-05,
"loss": 0.8285,
"step": 360
},
{
"epoch": 0.12977777777777777,
"grad_norm": 2.169858694076538,
"learning_rate": 9.918904242612795e-05,
"loss": 0.8166,
"step": 365
},
{
"epoch": 0.13155555555555556,
"grad_norm": 2.2024645805358887,
"learning_rate": 9.912251988627549e-05,
"loss": 0.7927,
"step": 370
},
{
"epoch": 0.13333333333333333,
"grad_norm": 2.103611946105957,
"learning_rate": 9.905339951494463e-05,
"loss": 0.8236,
"step": 375
},
{
"epoch": 0.1351111111111111,
"grad_norm": 2.265293836593628,
"learning_rate": 9.898168496754794e-05,
"loss": 0.7926,
"step": 380
},
{
"epoch": 0.1368888888888889,
"grad_norm": 1.8098556995391846,
"learning_rate": 9.890738003669029e-05,
"loss": 0.812,
"step": 385
},
{
"epoch": 0.13866666666666666,
"grad_norm": 1.6579197645187378,
"learning_rate": 9.88304886519683e-05,
"loss": 0.7933,
"step": 390
},
{
"epoch": 0.14044444444444446,
"grad_norm": 1.664461612701416,
"learning_rate": 9.875101487976253e-05,
"loss": 0.798,
"step": 395
},
{
"epoch": 0.14222222222222222,
"grad_norm": 1.6052963733673096,
"learning_rate": 9.866896292302243e-05,
"loss": 0.7937,
"step": 400
},
{
"epoch": 0.14222222222222222,
"eval_loss": 0.791572093963623,
"eval_runtime": 159.2149,
"eval_samples_per_second": 31.404,
"eval_steps_per_second": 3.926,
"step": 400
},
{
"epoch": 0.144,
"grad_norm": 2.126084566116333,
"learning_rate": 9.858433712104403e-05,
"loss": 0.8188,
"step": 405
},
{
"epoch": 0.14577777777777778,
"grad_norm": 3.2941622734069824,
"learning_rate": 9.849714194924046e-05,
"loss": 0.8067,
"step": 410
},
{
"epoch": 0.14755555555555555,
"grad_norm": 1.658234715461731,
"learning_rate": 9.84073820189054e-05,
"loss": 0.7953,
"step": 415
},
{
"epoch": 0.14933333333333335,
"grad_norm": 2.6132164001464844,
"learning_rate": 9.831506207696898e-05,
"loss": 0.8044,
"step": 420
},
{
"epoch": 0.1511111111111111,
"grad_norm": 1.6197243928909302,
"learning_rate": 9.822018700574695e-05,
"loss": 0.7818,
"step": 425
},
{
"epoch": 0.15288888888888888,
"grad_norm": 2.1293976306915283,
"learning_rate": 9.812276182268236e-05,
"loss": 0.7796,
"step": 430
},
{
"epoch": 0.15466666666666667,
"grad_norm": 2.590989589691162,
"learning_rate": 9.802279168008029e-05,
"loss": 0.7903,
"step": 435
},
{
"epoch": 0.15644444444444444,
"grad_norm": 1.674521803855896,
"learning_rate": 9.792028186483526e-05,
"loss": 0.7772,
"step": 440
},
{
"epoch": 0.1582222222222222,
"grad_norm": 2.3836069107055664,
"learning_rate": 9.781523779815179e-05,
"loss": 0.7934,
"step": 445
},
{
"epoch": 0.16,
"grad_norm": 2.3944199085235596,
"learning_rate": 9.770766503525754e-05,
"loss": 0.7932,
"step": 450
},
{
"epoch": 0.16177777777777777,
"grad_norm": 2.112563371658325,
"learning_rate": 9.759756926510965e-05,
"loss": 0.7873,
"step": 455
},
{
"epoch": 0.16355555555555557,
"grad_norm": 2.041534185409546,
"learning_rate": 9.748495631009386e-05,
"loss": 0.796,
"step": 460
},
{
"epoch": 0.16533333333333333,
"grad_norm": 1.7045772075653076,
"learning_rate": 9.736983212571646e-05,
"loss": 0.7791,
"step": 465
},
{
"epoch": 0.1671111111111111,
"grad_norm": 1.5439887046813965,
"learning_rate": 9.725220280028957e-05,
"loss": 0.7939,
"step": 470
},
{
"epoch": 0.1688888888888889,
"grad_norm": 1.459672451019287,
"learning_rate": 9.713207455460894e-05,
"loss": 0.7749,
"step": 475
},
{
"epoch": 0.17066666666666666,
"grad_norm": 3.114187240600586,
"learning_rate": 9.700945374162506e-05,
"loss": 0.7785,
"step": 480
},
{
"epoch": 0.17244444444444446,
"grad_norm": 1.7480342388153076,
"learning_rate": 9.688434684610726e-05,
"loss": 0.7653,
"step": 485
},
{
"epoch": 0.17422222222222222,
"grad_norm": 1.854999303817749,
"learning_rate": 9.67567604843006e-05,
"loss": 0.7878,
"step": 490
},
{
"epoch": 0.176,
"grad_norm": 2.006537437438965,
"learning_rate": 9.662670140357611e-05,
"loss": 0.7851,
"step": 495
},
{
"epoch": 0.17777777777777778,
"grad_norm": 1.9404226541519165,
"learning_rate": 9.649417648207388e-05,
"loss": 0.7719,
"step": 500
},
{
"epoch": 0.17955555555555555,
"grad_norm": 1.7404245138168335,
"learning_rate": 9.635919272833938e-05,
"loss": 0.775,
"step": 505
},
{
"epoch": 0.18133333333333335,
"grad_norm": 1.4806632995605469,
"learning_rate": 9.622175728095271e-05,
"loss": 0.7822,
"step": 510
},
{
"epoch": 0.1831111111111111,
"grad_norm": 1.607060432434082,
"learning_rate": 9.60818774081512e-05,
"loss": 0.7822,
"step": 515
},
{
"epoch": 0.18488888888888888,
"grad_norm": 1.6430386304855347,
"learning_rate": 9.593956050744492e-05,
"loss": 0.7711,
"step": 520
},
{
"epoch": 0.18666666666666668,
"grad_norm": 2.3202788829803467,
"learning_rate": 9.579481410522556e-05,
"loss": 0.7839,
"step": 525
},
{
"epoch": 0.18844444444444444,
"grad_norm": 2.160609722137451,
"learning_rate": 9.564764585636833e-05,
"loss": 0.7854,
"step": 530
},
{
"epoch": 0.1902222222222222,
"grad_norm": 1.7440357208251953,
"learning_rate": 9.549806354382717e-05,
"loss": 0.7806,
"step": 535
},
{
"epoch": 0.192,
"grad_norm": 1.8481121063232422,
"learning_rate": 9.534607507822313e-05,
"loss": 0.7701,
"step": 540
},
{
"epoch": 0.19377777777777777,
"grad_norm": 1.9447892904281616,
"learning_rate": 9.519168849742604e-05,
"loss": 0.772,
"step": 545
},
{
"epoch": 0.19555555555555557,
"grad_norm": 2.9007174968719482,
"learning_rate": 9.503491196612939e-05,
"loss": 0.7486,
"step": 550
},
{
"epoch": 0.19733333333333333,
"grad_norm": 1.5981870889663696,
"learning_rate": 9.487575377541864e-05,
"loss": 0.7713,
"step": 555
},
{
"epoch": 0.1991111111111111,
"grad_norm": 1.6032360792160034,
"learning_rate": 9.471422234233259e-05,
"loss": 0.7596,
"step": 560
},
{
"epoch": 0.2008888888888889,
"grad_norm": 1.7337145805358887,
"learning_rate": 9.45503262094184e-05,
"loss": 0.7725,
"step": 565
},
{
"epoch": 0.20266666666666666,
"grad_norm": 1.7922943830490112,
"learning_rate": 9.438407404427971e-05,
"loss": 0.7646,
"step": 570
},
{
"epoch": 0.20444444444444446,
"grad_norm": 1.2763404846191406,
"learning_rate": 9.421547463911835e-05,
"loss": 0.7744,
"step": 575
},
{
"epoch": 0.20622222222222222,
"grad_norm": 1.6107685565948486,
"learning_rate": 9.404453691026929e-05,
"loss": 0.7854,
"step": 580
},
{
"epoch": 0.208,
"grad_norm": 1.531690239906311,
"learning_rate": 9.38712698977291e-05,
"loss": 0.7765,
"step": 585
},
{
"epoch": 0.20977777777777779,
"grad_norm": 4.303262710571289,
"learning_rate": 9.369568276467797e-05,
"loss": 0.7451,
"step": 590
},
{
"epoch": 0.21155555555555555,
"grad_norm": 1.4451102018356323,
"learning_rate": 9.351778479699499e-05,
"loss": 0.767,
"step": 595
},
{
"epoch": 0.21333333333333335,
"grad_norm": 1.9426709413528442,
"learning_rate": 9.333758540276716e-05,
"loss": 0.7611,
"step": 600
},
{
"epoch": 0.21333333333333335,
"eval_loss": 0.7643172144889832,
"eval_runtime": 149.0272,
"eval_samples_per_second": 33.551,
"eval_steps_per_second": 4.194,
"step": 600
},
{
"epoch": 0.21511111111111111,
"grad_norm": 1.740432858467102,
"learning_rate": 9.315509411179182e-05,
"loss": 0.763,
"step": 605
},
{
"epoch": 0.21688888888888888,
"grad_norm": 2.1427745819091797,
"learning_rate": 9.297032057507264e-05,
"loss": 0.7717,
"step": 610
},
{
"epoch": 0.21866666666666668,
"grad_norm": 2.2643210887908936,
"learning_rate": 9.278327456430926e-05,
"loss": 0.7917,
"step": 615
},
{
"epoch": 0.22044444444444444,
"grad_norm": 1.9076204299926758,
"learning_rate": 9.259396597138052e-05,
"loss": 0.7637,
"step": 620
},
{
"epoch": 0.2222222222222222,
"grad_norm": 1.2893517017364502,
"learning_rate": 9.24024048078213e-05,
"loss": 0.7435,
"step": 625
},
{
"epoch": 0.224,
"grad_norm": 1.9294421672821045,
"learning_rate": 9.22086012042931e-05,
"loss": 0.7446,
"step": 630
},
{
"epoch": 0.22577777777777777,
"grad_norm": 1.516155481338501,
"learning_rate": 9.201256541004829e-05,
"loss": 0.7608,
"step": 635
},
{
"epoch": 0.22755555555555557,
"grad_norm": 1.4733030796051025,
"learning_rate": 9.181430779238797e-05,
"loss": 0.7708,
"step": 640
},
{
"epoch": 0.22933333333333333,
"grad_norm": 1.7201124429702759,
"learning_rate": 9.16138388361139e-05,
"loss": 0.7475,
"step": 645
},
{
"epoch": 0.2311111111111111,
"grad_norm": 1.573810338973999,
"learning_rate": 9.141116914297378e-05,
"loss": 0.7782,
"step": 650
},
{
"epoch": 0.2328888888888889,
"grad_norm": 1.3574259281158447,
"learning_rate": 9.120630943110077e-05,
"loss": 0.7406,
"step": 655
},
{
"epoch": 0.23466666666666666,
"grad_norm": 1.912653923034668,
"learning_rate": 9.099927053444662e-05,
"loss": 0.7462,
"step": 660
},
{
"epoch": 0.23644444444444446,
"grad_norm": 2.2716944217681885,
"learning_rate": 9.079006340220862e-05,
"loss": 0.7526,
"step": 665
},
{
"epoch": 0.23822222222222222,
"grad_norm": 1.625752329826355,
"learning_rate": 9.057869909825062e-05,
"loss": 0.762,
"step": 670
},
{
"epoch": 0.24,
"grad_norm": 1.2941769361495972,
"learning_rate": 9.0365188800518e-05,
"loss": 0.7544,
"step": 675
},
{
"epoch": 0.24177777777777779,
"grad_norm": 1.6075447797775269,
"learning_rate": 9.01495438004464e-05,
"loss": 0.7639,
"step": 680
},
{
"epoch": 0.24355555555555555,
"grad_norm": 1.671107292175293,
"learning_rate": 8.993177550236464e-05,
"loss": 0.7567,
"step": 685
},
{
"epoch": 0.24533333333333332,
"grad_norm": 1.3904489278793335,
"learning_rate": 8.971189542289162e-05,
"loss": 0.7633,
"step": 690
},
{
"epoch": 0.24711111111111111,
"grad_norm": 1.997207760810852,
"learning_rate": 8.948991519032716e-05,
"loss": 0.7403,
"step": 695
},
{
"epoch": 0.24888888888888888,
"grad_norm": 1.5448390245437622,
"learning_rate": 8.926584654403724e-05,
"loss": 0.7424,
"step": 700
},
{
"epoch": 0.25066666666666665,
"grad_norm": 1.760542392730713,
"learning_rate": 8.903970133383297e-05,
"loss": 0.7436,
"step": 705
},
{
"epoch": 0.25244444444444447,
"grad_norm": 1.6473764181137085,
"learning_rate": 8.881149151934398e-05,
"loss": 0.7569,
"step": 710
},
{
"epoch": 0.25422222222222224,
"grad_norm": 1.2679284811019897,
"learning_rate": 8.858122916938601e-05,
"loss": 0.7556,
"step": 715
},
{
"epoch": 0.256,
"grad_norm": 1.3798352479934692,
"learning_rate": 8.834892646132254e-05,
"loss": 0.7446,
"step": 720
},
{
"epoch": 0.2577777777777778,
"grad_norm": 1.692984700202942,
"learning_rate": 8.811459568042091e-05,
"loss": 0.7695,
"step": 725
},
{
"epoch": 0.25955555555555554,
"grad_norm": 1.6680200099945068,
"learning_rate": 8.787824921920249e-05,
"loss": 0.7462,
"step": 730
},
{
"epoch": 0.2613333333333333,
"grad_norm": 1.4423996210098267,
"learning_rate": 8.763989957678742e-05,
"loss": 0.7637,
"step": 735
},
{
"epoch": 0.26311111111111113,
"grad_norm": 1.6775215864181519,
"learning_rate": 8.739955935823351e-05,
"loss": 0.755,
"step": 740
},
{
"epoch": 0.2648888888888889,
"grad_norm": 1.6499780416488647,
"learning_rate": 8.715724127386972e-05,
"loss": 0.7468,
"step": 745
},
{
"epoch": 0.26666666666666666,
"grad_norm": 1.3906657695770264,
"learning_rate": 8.691295813862386e-05,
"loss": 0.7458,
"step": 750
},
{
"epoch": 0.26844444444444443,
"grad_norm": 1.3843157291412354,
"learning_rate": 8.666672287134494e-05,
"loss": 0.7461,
"step": 755
},
{
"epoch": 0.2702222222222222,
"grad_norm": 1.6778830289840698,
"learning_rate": 8.641854849412001e-05,
"loss": 0.7284,
"step": 760
},
{
"epoch": 0.272,
"grad_norm": 1.2424935102462769,
"learning_rate": 8.61684481315854e-05,
"loss": 0.7774,
"step": 765
},
{
"epoch": 0.2737777777777778,
"grad_norm": 1.291231393814087,
"learning_rate": 8.591643501023265e-05,
"loss": 0.7428,
"step": 770
},
{
"epoch": 0.27555555555555555,
"grad_norm": 1.12603759765625,
"learning_rate": 8.566252245770909e-05,
"loss": 0.7377,
"step": 775
},
{
"epoch": 0.2773333333333333,
"grad_norm": 1.348775029182434,
"learning_rate": 8.54067239021129e-05,
"loss": 0.762,
"step": 780
},
{
"epoch": 0.2791111111111111,
"grad_norm": 1.703519582748413,
"learning_rate": 8.51490528712831e-05,
"loss": 0.7533,
"step": 785
},
{
"epoch": 0.2808888888888889,
"grad_norm": 1.8479610681533813,
"learning_rate": 8.488952299208401e-05,
"loss": 0.7535,
"step": 790
},
{
"epoch": 0.2826666666666667,
"grad_norm": 1.1511187553405762,
"learning_rate": 8.462814798968472e-05,
"loss": 0.7555,
"step": 795
},
{
"epoch": 0.28444444444444444,
"grad_norm": 2.5522501468658447,
"learning_rate": 8.43649416868331e-05,
"loss": 0.741,
"step": 800
},
{
"epoch": 0.28444444444444444,
"eval_loss": 0.7418414950370789,
"eval_runtime": 169.2643,
"eval_samples_per_second": 29.54,
"eval_steps_per_second": 3.692,
"step": 800
}
],
"logging_steps": 5,
"max_steps": 2400,
"num_input_tokens_seen": 0,
"num_train_epochs": 1,
"save_steps": 200,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 775521753600000.0,
"train_batch_size": 4,
"trial_name": null,
"trial_params": null
}