rag-sampled / checkpoint-500 /trainer_state.json
nililba's picture
Upload folder using huggingface_hub
562cd8c verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 1.0,
"eval_steps": 500,
"global_step": 500,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.02,
"grad_norm": 70.61351013183594,
"learning_rate": 4.97e-05,
"loss": 4.2158,
"step": 10
},
{
"epoch": 0.04,
"grad_norm": 73.62928009033203,
"learning_rate": 4.936666666666667e-05,
"loss": 1.6566,
"step": 20
},
{
"epoch": 0.06,
"grad_norm": 108.96935272216797,
"learning_rate": 4.903333333333334e-05,
"loss": 1.7678,
"step": 30
},
{
"epoch": 0.08,
"grad_norm": 61.242454528808594,
"learning_rate": 4.87e-05,
"loss": 1.5158,
"step": 40
},
{
"epoch": 0.1,
"grad_norm": 131.24546813964844,
"learning_rate": 4.836666666666667e-05,
"loss": 2.0604,
"step": 50
},
{
"epoch": 0.12,
"grad_norm": 40.62075424194336,
"learning_rate": 4.803333333333333e-05,
"loss": 1.4759,
"step": 60
},
{
"epoch": 0.14,
"grad_norm": 68.39600372314453,
"learning_rate": 4.77e-05,
"loss": 1.6714,
"step": 70
},
{
"epoch": 0.16,
"grad_norm": 65.06390380859375,
"learning_rate": 4.736666666666667e-05,
"loss": 1.3931,
"step": 80
},
{
"epoch": 0.18,
"grad_norm": 91.259765625,
"learning_rate": 4.7033333333333336e-05,
"loss": 1.4381,
"step": 90
},
{
"epoch": 0.2,
"grad_norm": 114.90811920166016,
"learning_rate": 4.6700000000000003e-05,
"loss": 1.5654,
"step": 100
},
{
"epoch": 0.22,
"grad_norm": 54.1782341003418,
"learning_rate": 4.636666666666667e-05,
"loss": 2.0443,
"step": 110
},
{
"epoch": 0.24,
"grad_norm": 71.6166763305664,
"learning_rate": 4.603333333333333e-05,
"loss": 1.6087,
"step": 120
},
{
"epoch": 0.26,
"grad_norm": 74.20275115966797,
"learning_rate": 4.5700000000000006e-05,
"loss": 1.6605,
"step": 130
},
{
"epoch": 0.28,
"grad_norm": 77.95655059814453,
"learning_rate": 4.536666666666667e-05,
"loss": 1.5884,
"step": 140
},
{
"epoch": 0.3,
"grad_norm": 47.96751403808594,
"learning_rate": 4.5033333333333335e-05,
"loss": 2.4234,
"step": 150
},
{
"epoch": 0.32,
"grad_norm": 114.87418365478516,
"learning_rate": 4.47e-05,
"loss": 1.8465,
"step": 160
},
{
"epoch": 0.34,
"grad_norm": 64.47191619873047,
"learning_rate": 4.436666666666667e-05,
"loss": 1.6719,
"step": 170
},
{
"epoch": 0.36,
"grad_norm": 63.627681732177734,
"learning_rate": 4.403333333333334e-05,
"loss": 1.7967,
"step": 180
},
{
"epoch": 0.38,
"grad_norm": 30.865203857421875,
"learning_rate": 4.3700000000000005e-05,
"loss": 1.5015,
"step": 190
},
{
"epoch": 0.4,
"grad_norm": 12.00632095336914,
"learning_rate": 4.3366666666666666e-05,
"loss": 1.6298,
"step": 200
},
{
"epoch": 0.42,
"grad_norm": 83.26287841796875,
"learning_rate": 4.3033333333333334e-05,
"loss": 1.9531,
"step": 210
},
{
"epoch": 0.44,
"grad_norm": 43.74462127685547,
"learning_rate": 4.27e-05,
"loss": 1.4834,
"step": 220
},
{
"epoch": 0.46,
"grad_norm": 41.31574249267578,
"learning_rate": 4.236666666666667e-05,
"loss": 1.8548,
"step": 230
},
{
"epoch": 0.48,
"grad_norm": 66.2603759765625,
"learning_rate": 4.2033333333333336e-05,
"loss": 1.4464,
"step": 240
},
{
"epoch": 0.5,
"grad_norm": 18.777666091918945,
"learning_rate": 4.17e-05,
"loss": 1.3379,
"step": 250
},
{
"epoch": 0.52,
"grad_norm": 40.735050201416016,
"learning_rate": 4.136666666666667e-05,
"loss": 1.4589,
"step": 260
},
{
"epoch": 0.54,
"grad_norm": 89.99899291992188,
"learning_rate": 4.103333333333333e-05,
"loss": 1.6462,
"step": 270
},
{
"epoch": 0.56,
"grad_norm": 26.000844955444336,
"learning_rate": 4.07e-05,
"loss": 1.5459,
"step": 280
},
{
"epoch": 0.58,
"grad_norm": 72.94963836669922,
"learning_rate": 4.036666666666667e-05,
"loss": 1.3914,
"step": 290
},
{
"epoch": 0.6,
"grad_norm": 36.23366928100586,
"learning_rate": 4.0033333333333335e-05,
"loss": 1.7466,
"step": 300
},
{
"epoch": 0.62,
"grad_norm": 37.300697326660156,
"learning_rate": 3.97e-05,
"loss": 1.6585,
"step": 310
},
{
"epoch": 0.64,
"grad_norm": 48.120933532714844,
"learning_rate": 3.936666666666667e-05,
"loss": 1.7376,
"step": 320
},
{
"epoch": 0.66,
"grad_norm": 41.503997802734375,
"learning_rate": 3.903333333333333e-05,
"loss": 1.4676,
"step": 330
},
{
"epoch": 0.68,
"grad_norm": 13.966187477111816,
"learning_rate": 3.8700000000000006e-05,
"loss": 1.4801,
"step": 340
},
{
"epoch": 0.7,
"grad_norm": 55.511837005615234,
"learning_rate": 3.8366666666666666e-05,
"loss": 1.9258,
"step": 350
},
{
"epoch": 0.72,
"grad_norm": 46.56684494018555,
"learning_rate": 3.803333333333334e-05,
"loss": 1.4785,
"step": 360
},
{
"epoch": 0.74,
"grad_norm": 51.37467575073242,
"learning_rate": 3.77e-05,
"loss": 1.3089,
"step": 370
},
{
"epoch": 0.76,
"grad_norm": 63.84782409667969,
"learning_rate": 3.736666666666667e-05,
"loss": 2.0258,
"step": 380
},
{
"epoch": 0.78,
"grad_norm": 54.59080123901367,
"learning_rate": 3.703333333333334e-05,
"loss": 1.4266,
"step": 390
},
{
"epoch": 0.8,
"grad_norm": 27.919336318969727,
"learning_rate": 3.6700000000000004e-05,
"loss": 1.8133,
"step": 400
},
{
"epoch": 0.82,
"grad_norm": 43.32358169555664,
"learning_rate": 3.636666666666667e-05,
"loss": 1.4812,
"step": 410
},
{
"epoch": 0.84,
"grad_norm": 33.77085494995117,
"learning_rate": 3.603333333333333e-05,
"loss": 1.4177,
"step": 420
},
{
"epoch": 0.86,
"grad_norm": 53.14788055419922,
"learning_rate": 3.57e-05,
"loss": 1.4277,
"step": 430
},
{
"epoch": 0.88,
"grad_norm": 43.82292175292969,
"learning_rate": 3.536666666666667e-05,
"loss": 1.3996,
"step": 440
},
{
"epoch": 0.9,
"grad_norm": 74.1073989868164,
"learning_rate": 3.5033333333333336e-05,
"loss": 1.4942,
"step": 450
},
{
"epoch": 0.92,
"grad_norm": 67.50479888916016,
"learning_rate": 3.4699999999999996e-05,
"loss": 1.4433,
"step": 460
},
{
"epoch": 0.94,
"grad_norm": 44.51863479614258,
"learning_rate": 3.436666666666667e-05,
"loss": 1.3934,
"step": 470
},
{
"epoch": 0.96,
"grad_norm": 42.15129470825195,
"learning_rate": 3.403333333333333e-05,
"loss": 1.4448,
"step": 480
},
{
"epoch": 0.98,
"grad_norm": 59.780059814453125,
"learning_rate": 3.3700000000000006e-05,
"loss": 1.25,
"step": 490
},
{
"epoch": 1.0,
"grad_norm": 56.6463623046875,
"learning_rate": 3.336666666666667e-05,
"loss": 1.3204,
"step": 500
}
],
"logging_steps": 10,
"max_steps": 1500,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 2706232049664000.0,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}