eaglemap / checkpoint-100 /trainer_state.json
chenzju's picture
Upload 147 files
d0c849a verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 1.3333333333333333,
"eval_steps": 500,
"global_step": 100,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.013333333333333334,
"grad_norm": 1.0028682947158813,
"learning_rate": 2.2222222222222223e-05,
"loss": 1.43,
"step": 1
},
{
"epoch": 0.02666666666666667,
"grad_norm": 1.6397583484649658,
"learning_rate": 4.4444444444444447e-05,
"loss": 1.5374,
"step": 2
},
{
"epoch": 0.04,
"grad_norm": 1.2198785543441772,
"learning_rate": 6.666666666666667e-05,
"loss": 1.5106,
"step": 3
},
{
"epoch": 0.05333333333333334,
"grad_norm": 0.8468486070632935,
"learning_rate": 8.888888888888889e-05,
"loss": 1.447,
"step": 4
},
{
"epoch": 0.06666666666666667,
"grad_norm": 0.9268608689308167,
"learning_rate": 0.00011111111111111112,
"loss": 1.4743,
"step": 5
},
{
"epoch": 0.08,
"grad_norm": 1.0168085098266602,
"learning_rate": 0.00013333333333333334,
"loss": 1.3245,
"step": 6
},
{
"epoch": 0.09333333333333334,
"grad_norm": 0.6773934960365295,
"learning_rate": 0.00015555555555555556,
"loss": 1.3738,
"step": 7
},
{
"epoch": 0.10666666666666667,
"grad_norm": 0.6985631585121155,
"learning_rate": 0.00017777777777777779,
"loss": 1.3951,
"step": 8
},
{
"epoch": 0.12,
"grad_norm": 1.0221399068832397,
"learning_rate": 0.0002,
"loss": 1.3246,
"step": 9
},
{
"epoch": 0.13333333333333333,
"grad_norm": 0.6119747161865234,
"learning_rate": 0.00019999417253661235,
"loss": 1.2951,
"step": 10
},
{
"epoch": 0.14666666666666667,
"grad_norm": 0.6660990118980408,
"learning_rate": 0.00019997669082563597,
"loss": 1.2529,
"step": 11
},
{
"epoch": 0.16,
"grad_norm": 0.5874819755554199,
"learning_rate": 0.00019994755690455152,
"loss": 1.2252,
"step": 12
},
{
"epoch": 0.17333333333333334,
"grad_norm": 0.4818006157875061,
"learning_rate": 0.00019990677416889608,
"loss": 1.1708,
"step": 13
},
{
"epoch": 0.18666666666666668,
"grad_norm": 0.652045488357544,
"learning_rate": 0.0001998543473718677,
"loss": 0.9865,
"step": 14
},
{
"epoch": 0.2,
"grad_norm": 0.5517733693122864,
"learning_rate": 0.00019979028262377118,
"loss": 1.181,
"step": 15
},
{
"epoch": 0.21333333333333335,
"grad_norm": 0.47720542550086975,
"learning_rate": 0.00019971458739130598,
"loss": 1.0633,
"step": 16
},
{
"epoch": 0.22666666666666666,
"grad_norm": 0.7947096228599548,
"learning_rate": 0.000199627270496696,
"loss": 1.1458,
"step": 17
},
{
"epoch": 0.24,
"grad_norm": 0.5301257371902466,
"learning_rate": 0.0001995283421166614,
"loss": 1.2245,
"step": 18
},
{
"epoch": 0.25333333333333335,
"grad_norm": 0.9473271369934082,
"learning_rate": 0.00019941781378123244,
"loss": 1.0859,
"step": 19
},
{
"epoch": 0.26666666666666666,
"grad_norm": 1.1834161281585693,
"learning_rate": 0.00019929569837240564,
"loss": 1.1808,
"step": 20
},
{
"epoch": 0.28,
"grad_norm": 0.6784033179283142,
"learning_rate": 0.00019916201012264254,
"loss": 1.202,
"step": 21
},
{
"epoch": 0.29333333333333333,
"grad_norm": 0.7274785041809082,
"learning_rate": 0.00019901676461321068,
"loss": 1.2242,
"step": 22
},
{
"epoch": 0.30666666666666664,
"grad_norm": 0.7520783543586731,
"learning_rate": 0.00019885997877236788,
"loss": 1.173,
"step": 23
},
{
"epoch": 0.32,
"grad_norm": 0.8218541145324707,
"learning_rate": 0.00019869167087338907,
"loss": 1.0723,
"step": 24
},
{
"epoch": 0.3333333333333333,
"grad_norm": 0.6361420154571533,
"learning_rate": 0.00019851186053243666,
"loss": 1.1607,
"step": 25
},
{
"epoch": 0.3466666666666667,
"grad_norm": 0.6401374936103821,
"learning_rate": 0.00019832056870627417,
"loss": 1.1398,
"step": 26
},
{
"epoch": 0.36,
"grad_norm": 1.0995603799819946,
"learning_rate": 0.0001981178176898239,
"loss": 0.9475,
"step": 27
},
{
"epoch": 0.37333333333333335,
"grad_norm": 0.5122275948524475,
"learning_rate": 0.00019790363111356837,
"loss": 1.0125,
"step": 28
},
{
"epoch": 0.38666666666666666,
"grad_norm": 0.9316695332527161,
"learning_rate": 0.00019767803394079615,
"loss": 1.0554,
"step": 29
},
{
"epoch": 0.4,
"grad_norm": 0.6831843256950378,
"learning_rate": 0.00019744105246469263,
"loss": 1.027,
"step": 30
},
{
"epoch": 0.41333333333333333,
"grad_norm": 0.5529218912124634,
"learning_rate": 0.0001971927143052752,
"loss": 1.0218,
"step": 31
},
{
"epoch": 0.4266666666666667,
"grad_norm": 0.7164443135261536,
"learning_rate": 0.00019693304840617457,
"loss": 1.0901,
"step": 32
},
{
"epoch": 0.44,
"grad_norm": 0.7430665493011475,
"learning_rate": 0.00019666208503126112,
"loss": 1.125,
"step": 33
},
{
"epoch": 0.4533333333333333,
"grad_norm": 0.7198122143745422,
"learning_rate": 0.00019637985576111778,
"loss": 0.9926,
"step": 34
},
{
"epoch": 0.4666666666666667,
"grad_norm": 0.6613873839378357,
"learning_rate": 0.0001960863934893594,
"loss": 1.1925,
"step": 35
},
{
"epoch": 0.48,
"grad_norm": 1.2440484762191772,
"learning_rate": 0.00019578173241879872,
"loss": 0.8948,
"step": 36
},
{
"epoch": 0.49333333333333335,
"grad_norm": 0.6995570659637451,
"learning_rate": 0.00019546590805746052,
"loss": 0.9525,
"step": 37
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.6873968243598938,
"learning_rate": 0.00019513895721444286,
"loss": 0.9966,
"step": 38
},
{
"epoch": 0.52,
"grad_norm": 0.5394595861434937,
"learning_rate": 0.00019480091799562704,
"loss": 1.0787,
"step": 39
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.9196312427520752,
"learning_rate": 0.00019445182979923654,
"loss": 1.0559,
"step": 40
},
{
"epoch": 0.5466666666666666,
"grad_norm": 2.5954103469848633,
"learning_rate": 0.000194091733311245,
"loss": 0.9638,
"step": 41
},
{
"epoch": 0.56,
"grad_norm": 1.244681715965271,
"learning_rate": 0.00019372067050063438,
"loss": 0.9325,
"step": 42
},
{
"epoch": 0.5733333333333334,
"grad_norm": 0.613715410232544,
"learning_rate": 0.0001933386846145036,
"loss": 0.9428,
"step": 43
},
{
"epoch": 0.5866666666666667,
"grad_norm": 0.9604235291481018,
"learning_rate": 0.00019294582017302797,
"loss": 0.9486,
"step": 44
},
{
"epoch": 0.6,
"grad_norm": 0.7591239809989929,
"learning_rate": 0.00019254212296427044,
"loss": 1.0955,
"step": 45
},
{
"epoch": 0.6133333333333333,
"grad_norm": 0.5218423008918762,
"learning_rate": 0.0001921276400388451,
"loss": 1.0368,
"step": 46
},
{
"epoch": 0.6266666666666667,
"grad_norm": 0.5670755505561829,
"learning_rate": 0.00019170241970443343,
"loss": 0.9854,
"step": 47
},
{
"epoch": 0.64,
"grad_norm": 0.8089922070503235,
"learning_rate": 0.00019126651152015403,
"loss": 1.0396,
"step": 48
},
{
"epoch": 0.6533333333333333,
"grad_norm": 0.6459051966667175,
"learning_rate": 0.00019081996629078657,
"loss": 1.0156,
"step": 49
},
{
"epoch": 0.6666666666666666,
"grad_norm": 1.1918997764587402,
"learning_rate": 0.00019036283606085053,
"loss": 1.1542,
"step": 50
},
{
"epoch": 0.68,
"grad_norm": 0.6263722777366638,
"learning_rate": 0.00018989517410853955,
"loss": 1.1471,
"step": 51
},
{
"epoch": 0.6933333333333334,
"grad_norm": 0.534618616104126,
"learning_rate": 0.00018941703493951164,
"loss": 0.9055,
"step": 52
},
{
"epoch": 0.7066666666666667,
"grad_norm": 0.529036819934845,
"learning_rate": 0.00018892847428053693,
"loss": 0.9896,
"step": 53
},
{
"epoch": 0.72,
"grad_norm": 0.716572105884552,
"learning_rate": 0.00018842954907300236,
"loss": 1.0204,
"step": 54
},
{
"epoch": 0.7333333333333333,
"grad_norm": 0.832662045955658,
"learning_rate": 0.00018792031746627563,
"loss": 1.0263,
"step": 55
},
{
"epoch": 0.7466666666666667,
"grad_norm": 0.5659884810447693,
"learning_rate": 0.0001874008388109276,
"loss": 1.0529,
"step": 56
},
{
"epoch": 0.76,
"grad_norm": 0.4971260726451874,
"learning_rate": 0.00018687117365181512,
"loss": 1.0109,
"step": 57
},
{
"epoch": 0.7733333333333333,
"grad_norm": 0.5997689962387085,
"learning_rate": 0.00018633138372102468,
"loss": 1.0363,
"step": 58
},
{
"epoch": 0.7866666666666666,
"grad_norm": 0.42450904846191406,
"learning_rate": 0.00018578153193067745,
"loss": 1.0156,
"step": 59
},
{
"epoch": 0.8,
"grad_norm": 1.0025880336761475,
"learning_rate": 0.00018522168236559695,
"loss": 0.96,
"step": 60
},
{
"epoch": 0.8133333333333334,
"grad_norm": 0.47225672006607056,
"learning_rate": 0.00018465190027584005,
"loss": 1.0402,
"step": 61
},
{
"epoch": 0.8266666666666667,
"grad_norm": 0.6419042348861694,
"learning_rate": 0.00018407225206909208,
"loss": 0.9727,
"step": 62
},
{
"epoch": 0.84,
"grad_norm": 0.9594618082046509,
"learning_rate": 0.00018348280530292713,
"loss": 0.986,
"step": 63
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.5415605902671814,
"learning_rate": 0.00018288362867693414,
"loss": 1.019,
"step": 64
},
{
"epoch": 0.8666666666666667,
"grad_norm": 0.9662086367607117,
"learning_rate": 0.00018227479202471015,
"loss": 0.9531,
"step": 65
},
{
"epoch": 0.88,
"grad_norm": 0.7523136734962463,
"learning_rate": 0.0001816563663057211,
"loss": 1.0383,
"step": 66
},
{
"epoch": 0.8933333333333333,
"grad_norm": 0.7249945998191833,
"learning_rate": 0.00018102842359703176,
"loss": 1.1131,
"step": 67
},
{
"epoch": 0.9066666666666666,
"grad_norm": 0.4781404435634613,
"learning_rate": 0.000180391037084905,
"loss": 0.9701,
"step": 68
},
{
"epoch": 0.92,
"grad_norm": 0.5435504913330078,
"learning_rate": 0.00017974428105627208,
"loss": 1.2701,
"step": 69
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.48021838068962097,
"learning_rate": 0.00017908823089007457,
"loss": 0.9212,
"step": 70
},
{
"epoch": 0.9466666666666667,
"grad_norm": 0.7063950300216675,
"learning_rate": 0.00017842296304847893,
"loss": 1.0076,
"step": 71
},
{
"epoch": 0.96,
"grad_norm": 0.5694530606269836,
"learning_rate": 0.00017774855506796496,
"loss": 1.0417,
"step": 72
},
{
"epoch": 0.9733333333333334,
"grad_norm": 0.6120775938034058,
"learning_rate": 0.00017706508555028893,
"loss": 1.0501,
"step": 73
},
{
"epoch": 0.9866666666666667,
"grad_norm": 0.5728889107704163,
"learning_rate": 0.0001763726341533227,
"loss": 1.0024,
"step": 74
},
{
"epoch": 1.0,
"grad_norm": 0.8452621102333069,
"learning_rate": 0.00017567128158176953,
"loss": 1.0966,
"step": 75
},
{
"epoch": 1.0133333333333334,
"grad_norm": 0.5769606828689575,
"learning_rate": 0.0001749611095777581,
"loss": 0.8877,
"step": 76
},
{
"epoch": 1.0266666666666666,
"grad_norm": 0.9046480059623718,
"learning_rate": 0.00017424220091131535,
"loss": 0.752,
"step": 77
},
{
"epoch": 1.04,
"grad_norm": 0.4488053023815155,
"learning_rate": 0.00017351463937072004,
"loss": 0.7588,
"step": 78
},
{
"epoch": 1.0533333333333332,
"grad_norm": 0.41479629278182983,
"learning_rate": 0.00017277850975273696,
"loss": 0.779,
"step": 79
},
{
"epoch": 1.0666666666666667,
"grad_norm": 0.7192550301551819,
"learning_rate": 0.000172033897852734,
"loss": 0.7809,
"step": 80
},
{
"epoch": 1.08,
"grad_norm": 0.7553783655166626,
"learning_rate": 0.00017128089045468294,
"loss": 0.7421,
"step": 81
},
{
"epoch": 1.0933333333333333,
"grad_norm": 0.5650737881660461,
"learning_rate": 0.0001705195753210446,
"loss": 0.7044,
"step": 82
},
{
"epoch": 1.1066666666666667,
"grad_norm": 0.6692880988121033,
"learning_rate": 0.0001697500411825403,
"loss": 0.8415,
"step": 83
},
{
"epoch": 1.12,
"grad_norm": 0.6710836291313171,
"learning_rate": 0.00016897237772781044,
"loss": 0.7247,
"step": 84
},
{
"epoch": 1.1333333333333333,
"grad_norm": 0.5887194275856018,
"learning_rate": 0.0001681866755929612,
"loss": 0.7947,
"step": 85
},
{
"epoch": 1.1466666666666667,
"grad_norm": 0.5538906455039978,
"learning_rate": 0.00016739302635100108,
"loss": 0.7337,
"step": 86
},
{
"epoch": 1.16,
"grad_norm": 0.6018480062484741,
"learning_rate": 0.00016659152250116812,
"loss": 0.6801,
"step": 87
},
{
"epoch": 1.1733333333333333,
"grad_norm": 0.548251748085022,
"learning_rate": 0.00016578225745814907,
"loss": 0.6898,
"step": 88
},
{
"epoch": 1.1866666666666668,
"grad_norm": 0.49416568875312805,
"learning_rate": 0.00016496532554119214,
"loss": 0.719,
"step": 89
},
{
"epoch": 1.2,
"grad_norm": 0.6101306676864624,
"learning_rate": 0.000164140821963114,
"loss": 0.7917,
"step": 90
},
{
"epoch": 1.2133333333333334,
"grad_norm": 0.588020920753479,
"learning_rate": 0.000163308842819203,
"loss": 0.8035,
"step": 91
},
{
"epoch": 1.2266666666666666,
"grad_norm": 0.5376534461975098,
"learning_rate": 0.00016246948507601914,
"loss": 0.7816,
"step": 92
},
{
"epoch": 1.24,
"grad_norm": 0.549625813961029,
"learning_rate": 0.00016162284656009274,
"loss": 0.7245,
"step": 93
},
{
"epoch": 1.2533333333333334,
"grad_norm": 0.6054933667182922,
"learning_rate": 0.0001607690259465229,
"loss": 0.7484,
"step": 94
},
{
"epoch": 1.2666666666666666,
"grad_norm": 0.5613316297531128,
"learning_rate": 0.00015990812274747692,
"loss": 0.7369,
"step": 95
},
{
"epoch": 1.28,
"grad_norm": 0.5984250903129578,
"learning_rate": 0.00015904023730059228,
"loss": 0.891,
"step": 96
},
{
"epoch": 1.2933333333333334,
"grad_norm": 0.6490495204925537,
"learning_rate": 0.00015816547075728226,
"loss": 0.775,
"step": 97
},
{
"epoch": 1.3066666666666666,
"grad_norm": 0.6675053834915161,
"learning_rate": 0.000157283925070947,
"loss": 0.7565,
"step": 98
},
{
"epoch": 1.32,
"grad_norm": 0.5397291779518127,
"learning_rate": 0.00015639570298509064,
"loss": 0.6685,
"step": 99
},
{
"epoch": 1.3333333333333333,
"grad_norm": 0.5830179452896118,
"learning_rate": 0.000155500908021347,
"loss": 0.8132,
"step": 100
}
],
"logging_steps": 1.0,
"max_steps": 300,
"num_input_tokens_seen": 0,
"num_train_epochs": 4,
"save_steps": 50,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 2.904617129292595e+16,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}