eaglemap / trainer_state.json
chenzju's picture
Upload 147 files
d0c849a verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 4.0,
"eval_steps": 500,
"global_step": 300,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.013333333333333334,
"grad_norm": 1.0028682947158813,
"learning_rate": 2.2222222222222223e-05,
"loss": 1.43,
"step": 1
},
{
"epoch": 0.02666666666666667,
"grad_norm": 1.6397583484649658,
"learning_rate": 4.4444444444444447e-05,
"loss": 1.5374,
"step": 2
},
{
"epoch": 0.04,
"grad_norm": 1.2198785543441772,
"learning_rate": 6.666666666666667e-05,
"loss": 1.5106,
"step": 3
},
{
"epoch": 0.05333333333333334,
"grad_norm": 0.8468486070632935,
"learning_rate": 8.888888888888889e-05,
"loss": 1.447,
"step": 4
},
{
"epoch": 0.06666666666666667,
"grad_norm": 0.9268608689308167,
"learning_rate": 0.00011111111111111112,
"loss": 1.4743,
"step": 5
},
{
"epoch": 0.08,
"grad_norm": 1.0168085098266602,
"learning_rate": 0.00013333333333333334,
"loss": 1.3245,
"step": 6
},
{
"epoch": 0.09333333333333334,
"grad_norm": 0.6773934960365295,
"learning_rate": 0.00015555555555555556,
"loss": 1.3738,
"step": 7
},
{
"epoch": 0.10666666666666667,
"grad_norm": 0.6985631585121155,
"learning_rate": 0.00017777777777777779,
"loss": 1.3951,
"step": 8
},
{
"epoch": 0.12,
"grad_norm": 1.0221399068832397,
"learning_rate": 0.0002,
"loss": 1.3246,
"step": 9
},
{
"epoch": 0.13333333333333333,
"grad_norm": 0.6119747161865234,
"learning_rate": 0.00019999417253661235,
"loss": 1.2951,
"step": 10
},
{
"epoch": 0.14666666666666667,
"grad_norm": 0.6660990118980408,
"learning_rate": 0.00019997669082563597,
"loss": 1.2529,
"step": 11
},
{
"epoch": 0.16,
"grad_norm": 0.5874819755554199,
"learning_rate": 0.00019994755690455152,
"loss": 1.2252,
"step": 12
},
{
"epoch": 0.17333333333333334,
"grad_norm": 0.4818006157875061,
"learning_rate": 0.00019990677416889608,
"loss": 1.1708,
"step": 13
},
{
"epoch": 0.18666666666666668,
"grad_norm": 0.652045488357544,
"learning_rate": 0.0001998543473718677,
"loss": 0.9865,
"step": 14
},
{
"epoch": 0.2,
"grad_norm": 0.5517733693122864,
"learning_rate": 0.00019979028262377118,
"loss": 1.181,
"step": 15
},
{
"epoch": 0.21333333333333335,
"grad_norm": 0.47720542550086975,
"learning_rate": 0.00019971458739130598,
"loss": 1.0633,
"step": 16
},
{
"epoch": 0.22666666666666666,
"grad_norm": 0.7947096228599548,
"learning_rate": 0.000199627270496696,
"loss": 1.1458,
"step": 17
},
{
"epoch": 0.24,
"grad_norm": 0.5301257371902466,
"learning_rate": 0.0001995283421166614,
"loss": 1.2245,
"step": 18
},
{
"epoch": 0.25333333333333335,
"grad_norm": 0.9473271369934082,
"learning_rate": 0.00019941781378123244,
"loss": 1.0859,
"step": 19
},
{
"epoch": 0.26666666666666666,
"grad_norm": 1.1834161281585693,
"learning_rate": 0.00019929569837240564,
"loss": 1.1808,
"step": 20
},
{
"epoch": 0.28,
"grad_norm": 0.6784033179283142,
"learning_rate": 0.00019916201012264254,
"loss": 1.202,
"step": 21
},
{
"epoch": 0.29333333333333333,
"grad_norm": 0.7274785041809082,
"learning_rate": 0.00019901676461321068,
"loss": 1.2242,
"step": 22
},
{
"epoch": 0.30666666666666664,
"grad_norm": 0.7520783543586731,
"learning_rate": 0.00019885997877236788,
"loss": 1.173,
"step": 23
},
{
"epoch": 0.32,
"grad_norm": 0.8218541145324707,
"learning_rate": 0.00019869167087338907,
"loss": 1.0723,
"step": 24
},
{
"epoch": 0.3333333333333333,
"grad_norm": 0.6361420154571533,
"learning_rate": 0.00019851186053243666,
"loss": 1.1607,
"step": 25
},
{
"epoch": 0.3466666666666667,
"grad_norm": 0.6401374936103821,
"learning_rate": 0.00019832056870627417,
"loss": 1.1398,
"step": 26
},
{
"epoch": 0.36,
"grad_norm": 1.0995603799819946,
"learning_rate": 0.0001981178176898239,
"loss": 0.9475,
"step": 27
},
{
"epoch": 0.37333333333333335,
"grad_norm": 0.5122275948524475,
"learning_rate": 0.00019790363111356837,
"loss": 1.0125,
"step": 28
},
{
"epoch": 0.38666666666666666,
"grad_norm": 0.9316695332527161,
"learning_rate": 0.00019767803394079615,
"loss": 1.0554,
"step": 29
},
{
"epoch": 0.4,
"grad_norm": 0.6831843256950378,
"learning_rate": 0.00019744105246469263,
"loss": 1.027,
"step": 30
},
{
"epoch": 0.41333333333333333,
"grad_norm": 0.5529218912124634,
"learning_rate": 0.0001971927143052752,
"loss": 1.0218,
"step": 31
},
{
"epoch": 0.4266666666666667,
"grad_norm": 0.7164443135261536,
"learning_rate": 0.00019693304840617457,
"loss": 1.0901,
"step": 32
},
{
"epoch": 0.44,
"grad_norm": 0.7430665493011475,
"learning_rate": 0.00019666208503126112,
"loss": 1.125,
"step": 33
},
{
"epoch": 0.4533333333333333,
"grad_norm": 0.7198122143745422,
"learning_rate": 0.00019637985576111778,
"loss": 0.9926,
"step": 34
},
{
"epoch": 0.4666666666666667,
"grad_norm": 0.6613873839378357,
"learning_rate": 0.0001960863934893594,
"loss": 1.1925,
"step": 35
},
{
"epoch": 0.48,
"grad_norm": 1.2440484762191772,
"learning_rate": 0.00019578173241879872,
"loss": 0.8948,
"step": 36
},
{
"epoch": 0.49333333333333335,
"grad_norm": 0.6995570659637451,
"learning_rate": 0.00019546590805746052,
"loss": 0.9525,
"step": 37
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.6873968243598938,
"learning_rate": 0.00019513895721444286,
"loss": 0.9966,
"step": 38
},
{
"epoch": 0.52,
"grad_norm": 0.5394595861434937,
"learning_rate": 0.00019480091799562704,
"loss": 1.0787,
"step": 39
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.9196312427520752,
"learning_rate": 0.00019445182979923654,
"loss": 1.0559,
"step": 40
},
{
"epoch": 0.5466666666666666,
"grad_norm": 2.5954103469848633,
"learning_rate": 0.000194091733311245,
"loss": 0.9638,
"step": 41
},
{
"epoch": 0.56,
"grad_norm": 1.244681715965271,
"learning_rate": 0.00019372067050063438,
"loss": 0.9325,
"step": 42
},
{
"epoch": 0.5733333333333334,
"grad_norm": 0.613715410232544,
"learning_rate": 0.0001933386846145036,
"loss": 0.9428,
"step": 43
},
{
"epoch": 0.5866666666666667,
"grad_norm": 0.9604235291481018,
"learning_rate": 0.00019294582017302797,
"loss": 0.9486,
"step": 44
},
{
"epoch": 0.6,
"grad_norm": 0.7591239809989929,
"learning_rate": 0.00019254212296427044,
"loss": 1.0955,
"step": 45
},
{
"epoch": 0.6133333333333333,
"grad_norm": 0.5218423008918762,
"learning_rate": 0.0001921276400388451,
"loss": 1.0368,
"step": 46
},
{
"epoch": 0.6266666666666667,
"grad_norm": 0.5670755505561829,
"learning_rate": 0.00019170241970443343,
"loss": 0.9854,
"step": 47
},
{
"epoch": 0.64,
"grad_norm": 0.8089922070503235,
"learning_rate": 0.00019126651152015403,
"loss": 1.0396,
"step": 48
},
{
"epoch": 0.6533333333333333,
"grad_norm": 0.6459051966667175,
"learning_rate": 0.00019081996629078657,
"loss": 1.0156,
"step": 49
},
{
"epoch": 0.6666666666666666,
"grad_norm": 1.1918997764587402,
"learning_rate": 0.00019036283606085053,
"loss": 1.1542,
"step": 50
},
{
"epoch": 0.68,
"grad_norm": 0.6263722777366638,
"learning_rate": 0.00018989517410853955,
"loss": 1.1471,
"step": 51
},
{
"epoch": 0.6933333333333334,
"grad_norm": 0.534618616104126,
"learning_rate": 0.00018941703493951164,
"loss": 0.9055,
"step": 52
},
{
"epoch": 0.7066666666666667,
"grad_norm": 0.529036819934845,
"learning_rate": 0.00018892847428053693,
"loss": 0.9896,
"step": 53
},
{
"epoch": 0.72,
"grad_norm": 0.716572105884552,
"learning_rate": 0.00018842954907300236,
"loss": 1.0204,
"step": 54
},
{
"epoch": 0.7333333333333333,
"grad_norm": 0.832662045955658,
"learning_rate": 0.00018792031746627563,
"loss": 1.0263,
"step": 55
},
{
"epoch": 0.7466666666666667,
"grad_norm": 0.5659884810447693,
"learning_rate": 0.0001874008388109276,
"loss": 1.0529,
"step": 56
},
{
"epoch": 0.76,
"grad_norm": 0.4971260726451874,
"learning_rate": 0.00018687117365181512,
"loss": 1.0109,
"step": 57
},
{
"epoch": 0.7733333333333333,
"grad_norm": 0.5997689962387085,
"learning_rate": 0.00018633138372102468,
"loss": 1.0363,
"step": 58
},
{
"epoch": 0.7866666666666666,
"grad_norm": 0.42450904846191406,
"learning_rate": 0.00018578153193067745,
"loss": 1.0156,
"step": 59
},
{
"epoch": 0.8,
"grad_norm": 1.0025880336761475,
"learning_rate": 0.00018522168236559695,
"loss": 0.96,
"step": 60
},
{
"epoch": 0.8133333333333334,
"grad_norm": 0.47225672006607056,
"learning_rate": 0.00018465190027584005,
"loss": 1.0402,
"step": 61
},
{
"epoch": 0.8266666666666667,
"grad_norm": 0.6419042348861694,
"learning_rate": 0.00018407225206909208,
"loss": 0.9727,
"step": 62
},
{
"epoch": 0.84,
"grad_norm": 0.9594618082046509,
"learning_rate": 0.00018348280530292713,
"loss": 0.986,
"step": 63
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.5415605902671814,
"learning_rate": 0.00018288362867693414,
"loss": 1.019,
"step": 64
},
{
"epoch": 0.8666666666666667,
"grad_norm": 0.9662086367607117,
"learning_rate": 0.00018227479202471015,
"loss": 0.9531,
"step": 65
},
{
"epoch": 0.88,
"grad_norm": 0.7523136734962463,
"learning_rate": 0.0001816563663057211,
"loss": 1.0383,
"step": 66
},
{
"epoch": 0.8933333333333333,
"grad_norm": 0.7249945998191833,
"learning_rate": 0.00018102842359703176,
"loss": 1.1131,
"step": 67
},
{
"epoch": 0.9066666666666666,
"grad_norm": 0.4781404435634613,
"learning_rate": 0.000180391037084905,
"loss": 0.9701,
"step": 68
},
{
"epoch": 0.92,
"grad_norm": 0.5435504913330078,
"learning_rate": 0.00017974428105627208,
"loss": 1.2701,
"step": 69
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.48021838068962097,
"learning_rate": 0.00017908823089007457,
"loss": 0.9212,
"step": 70
},
{
"epoch": 0.9466666666666667,
"grad_norm": 0.7063950300216675,
"learning_rate": 0.00017842296304847893,
"loss": 1.0076,
"step": 71
},
{
"epoch": 0.96,
"grad_norm": 0.5694530606269836,
"learning_rate": 0.00017774855506796496,
"loss": 1.0417,
"step": 72
},
{
"epoch": 0.9733333333333334,
"grad_norm": 0.6120775938034058,
"learning_rate": 0.00017706508555028893,
"loss": 1.0501,
"step": 73
},
{
"epoch": 0.9866666666666667,
"grad_norm": 0.5728889107704163,
"learning_rate": 0.0001763726341533227,
"loss": 1.0024,
"step": 74
},
{
"epoch": 1.0,
"grad_norm": 0.8452621102333069,
"learning_rate": 0.00017567128158176953,
"loss": 1.0966,
"step": 75
},
{
"epoch": 1.0133333333333334,
"grad_norm": 0.5769606828689575,
"learning_rate": 0.0001749611095777581,
"loss": 0.8877,
"step": 76
},
{
"epoch": 1.0266666666666666,
"grad_norm": 0.9046480059623718,
"learning_rate": 0.00017424220091131535,
"loss": 0.752,
"step": 77
},
{
"epoch": 1.04,
"grad_norm": 0.4488053023815155,
"learning_rate": 0.00017351463937072004,
"loss": 0.7588,
"step": 78
},
{
"epoch": 1.0533333333333332,
"grad_norm": 0.41479629278182983,
"learning_rate": 0.00017277850975273696,
"loss": 0.779,
"step": 79
},
{
"epoch": 1.0666666666666667,
"grad_norm": 0.7192550301551819,
"learning_rate": 0.000172033897852734,
"loss": 0.7809,
"step": 80
},
{
"epoch": 1.08,
"grad_norm": 0.7553783655166626,
"learning_rate": 0.00017128089045468294,
"loss": 0.7421,
"step": 81
},
{
"epoch": 1.0933333333333333,
"grad_norm": 0.5650737881660461,
"learning_rate": 0.0001705195753210446,
"loss": 0.7044,
"step": 82
},
{
"epoch": 1.1066666666666667,
"grad_norm": 0.6692880988121033,
"learning_rate": 0.0001697500411825403,
"loss": 0.8415,
"step": 83
},
{
"epoch": 1.12,
"grad_norm": 0.6710836291313171,
"learning_rate": 0.00016897237772781044,
"loss": 0.7247,
"step": 84
},
{
"epoch": 1.1333333333333333,
"grad_norm": 0.5887194275856018,
"learning_rate": 0.0001681866755929612,
"loss": 0.7947,
"step": 85
},
{
"epoch": 1.1466666666666667,
"grad_norm": 0.5538906455039978,
"learning_rate": 0.00016739302635100108,
"loss": 0.7337,
"step": 86
},
{
"epoch": 1.16,
"grad_norm": 0.6018480062484741,
"learning_rate": 0.00016659152250116812,
"loss": 0.6801,
"step": 87
},
{
"epoch": 1.1733333333333333,
"grad_norm": 0.548251748085022,
"learning_rate": 0.00016578225745814907,
"loss": 0.6898,
"step": 88
},
{
"epoch": 1.1866666666666668,
"grad_norm": 0.49416568875312805,
"learning_rate": 0.00016496532554119214,
"loss": 0.719,
"step": 89
},
{
"epoch": 1.2,
"grad_norm": 0.6101306676864624,
"learning_rate": 0.000164140821963114,
"loss": 0.7917,
"step": 90
},
{
"epoch": 1.2133333333333334,
"grad_norm": 0.588020920753479,
"learning_rate": 0.000163308842819203,
"loss": 0.8035,
"step": 91
},
{
"epoch": 1.2266666666666666,
"grad_norm": 0.5376534461975098,
"learning_rate": 0.00016246948507601914,
"loss": 0.7816,
"step": 92
},
{
"epoch": 1.24,
"grad_norm": 0.549625813961029,
"learning_rate": 0.00016162284656009274,
"loss": 0.7245,
"step": 93
},
{
"epoch": 1.2533333333333334,
"grad_norm": 0.6054933667182922,
"learning_rate": 0.0001607690259465229,
"loss": 0.7484,
"step": 94
},
{
"epoch": 1.2666666666666666,
"grad_norm": 0.5613316297531128,
"learning_rate": 0.00015990812274747692,
"loss": 0.7369,
"step": 95
},
{
"epoch": 1.28,
"grad_norm": 0.5984250903129578,
"learning_rate": 0.00015904023730059228,
"loss": 0.891,
"step": 96
},
{
"epoch": 1.2933333333333334,
"grad_norm": 0.6490495204925537,
"learning_rate": 0.00015816547075728226,
"loss": 0.775,
"step": 97
},
{
"epoch": 1.3066666666666666,
"grad_norm": 0.6675053834915161,
"learning_rate": 0.000157283925070947,
"loss": 0.7565,
"step": 98
},
{
"epoch": 1.32,
"grad_norm": 0.5397291779518127,
"learning_rate": 0.00015639570298509064,
"loss": 0.6685,
"step": 99
},
{
"epoch": 1.3333333333333333,
"grad_norm": 0.5830179452896118,
"learning_rate": 0.000155500908021347,
"loss": 0.8132,
"step": 100
},
{
"epoch": 1.3466666666666667,
"grad_norm": 0.511802077293396,
"learning_rate": 0.00015459964446741382,
"loss": 0.7664,
"step": 101
},
{
"epoch": 1.3599999999999999,
"grad_norm": 1.350032091140747,
"learning_rate": 0.0001536920173648984,
"loss": 0.8179,
"step": 102
},
{
"epoch": 1.3733333333333333,
"grad_norm": 0.7308780550956726,
"learning_rate": 0.00015277813249707487,
"loss": 0.8401,
"step": 103
},
{
"epoch": 1.3866666666666667,
"grad_norm": 0.5292226076126099,
"learning_rate": 0.0001518580963765555,
"loss": 0.6367,
"step": 104
},
{
"epoch": 1.4,
"grad_norm": 0.6958481073379517,
"learning_rate": 0.00015093201623287631,
"loss": 0.7173,
"step": 105
},
{
"epoch": 1.4133333333333333,
"grad_norm": 0.7024071216583252,
"learning_rate": 0.00015000000000000001,
"loss": 0.5604,
"step": 106
},
{
"epoch": 1.4266666666666667,
"grad_norm": 0.5597444772720337,
"learning_rate": 0.00014906215630373606,
"loss": 0.6767,
"step": 107
},
{
"epoch": 1.44,
"grad_norm": 0.6003674864768982,
"learning_rate": 0.00014811859444908052,
"loss": 0.8149,
"step": 108
},
{
"epoch": 1.4533333333333334,
"grad_norm": 0.5815126895904541,
"learning_rate": 0.00014716942440747664,
"loss": 0.7801,
"step": 109
},
{
"epoch": 1.4666666666666668,
"grad_norm": 0.7836669683456421,
"learning_rate": 0.0001462147568039977,
"loss": 0.8452,
"step": 110
},
{
"epoch": 1.48,
"grad_norm": 0.8783419132232666,
"learning_rate": 0.00014525470290445392,
"loss": 0.8257,
"step": 111
},
{
"epoch": 1.4933333333333334,
"grad_norm": 0.46948131918907166,
"learning_rate": 0.00014428937460242417,
"loss": 0.7481,
"step": 112
},
{
"epoch": 1.5066666666666668,
"grad_norm": 0.5725980401039124,
"learning_rate": 0.00014331888440621533,
"loss": 0.8267,
"step": 113
},
{
"epoch": 1.52,
"grad_norm": 0.4418632686138153,
"learning_rate": 0.00014234334542574906,
"loss": 0.7631,
"step": 114
},
{
"epoch": 1.5333333333333332,
"grad_norm": 0.6430942416191101,
"learning_rate": 0.00014136287135937915,
"loss": 0.8817,
"step": 115
},
{
"epoch": 1.5466666666666666,
"grad_norm": 0.5670009255409241,
"learning_rate": 0.00014037757648064018,
"loss": 0.5991,
"step": 116
},
{
"epoch": 1.56,
"grad_norm": 0.5407504439353943,
"learning_rate": 0.00013938757562492873,
"loss": 0.6898,
"step": 117
},
{
"epoch": 1.5733333333333333,
"grad_norm": 0.5176808834075928,
"learning_rate": 0.00013839298417611963,
"loss": 0.731,
"step": 118
},
{
"epoch": 1.5866666666666667,
"grad_norm": 0.9752798080444336,
"learning_rate": 0.00013739391805311793,
"loss": 0.6736,
"step": 119
},
{
"epoch": 1.6,
"grad_norm": 0.7100059390068054,
"learning_rate": 0.00013639049369634876,
"loss": 0.7369,
"step": 120
},
{
"epoch": 1.6133333333333333,
"grad_norm": 0.6285961270332336,
"learning_rate": 0.0001353828280541861,
"loss": 0.721,
"step": 121
},
{
"epoch": 1.6266666666666667,
"grad_norm": 0.5981026291847229,
"learning_rate": 0.00013437103856932264,
"loss": 0.8094,
"step": 122
},
{
"epoch": 1.6400000000000001,
"grad_norm": 0.6587502360343933,
"learning_rate": 0.00013335524316508208,
"loss": 0.7646,
"step": 123
},
{
"epoch": 1.6533333333333333,
"grad_norm": 0.5544253587722778,
"learning_rate": 0.00013233556023167485,
"loss": 0.7165,
"step": 124
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.6012857556343079,
"learning_rate": 0.00013131210861240026,
"loss": 0.8104,
"step": 125
},
{
"epoch": 1.6800000000000002,
"grad_norm": 0.5157524347305298,
"learning_rate": 0.00013028500758979506,
"loss": 0.8585,
"step": 126
},
{
"epoch": 1.6933333333333334,
"grad_norm": 0.4888676702976227,
"learning_rate": 0.00012925437687173142,
"loss": 0.6579,
"step": 127
},
{
"epoch": 1.7066666666666666,
"grad_norm": 0.5127140879631042,
"learning_rate": 0.00012822033657746478,
"loss": 0.7432,
"step": 128
},
{
"epoch": 1.72,
"grad_norm": 0.6154641509056091,
"learning_rate": 0.0001271830072236343,
"loss": 0.7322,
"step": 129
},
{
"epoch": 1.7333333333333334,
"grad_norm": 0.5081548690795898,
"learning_rate": 0.00012614250971021657,
"loss": 0.7547,
"step": 130
},
{
"epoch": 1.7466666666666666,
"grad_norm": 0.6808217763900757,
"learning_rate": 0.00012509896530643488,
"loss": 0.6855,
"step": 131
},
{
"epoch": 1.76,
"grad_norm": 0.8672941327095032,
"learning_rate": 0.00012405249563662537,
"loss": 0.6332,
"step": 132
},
{
"epoch": 1.7733333333333334,
"grad_norm": 0.6130337119102478,
"learning_rate": 0.00012300322266606178,
"loss": 0.7453,
"step": 133
},
{
"epoch": 1.7866666666666666,
"grad_norm": 0.739959180355072,
"learning_rate": 0.00012195126868674051,
"loss": 0.687,
"step": 134
},
{
"epoch": 1.8,
"grad_norm": 0.5801121592521667,
"learning_rate": 0.00012089675630312754,
"loss": 0.7059,
"step": 135
},
{
"epoch": 1.8133333333333335,
"grad_norm": 0.5766938328742981,
"learning_rate": 0.000119839808417869,
"loss": 0.737,
"step": 136
},
{
"epoch": 1.8266666666666667,
"grad_norm": 0.6705268621444702,
"learning_rate": 0.00011878054821746703,
"loss": 0.7358,
"step": 137
},
{
"epoch": 1.8399999999999999,
"grad_norm": 0.7814889550209045,
"learning_rate": 0.0001177190991579223,
"loss": 0.7021,
"step": 138
},
{
"epoch": 1.8533333333333335,
"grad_norm": 0.6991515755653381,
"learning_rate": 0.00011665558495034546,
"loss": 0.7325,
"step": 139
},
{
"epoch": 1.8666666666666667,
"grad_norm": 0.8299288749694824,
"learning_rate": 0.00011559012954653865,
"loss": 0.7128,
"step": 140
},
{
"epoch": 1.88,
"grad_norm": 0.7293754816055298,
"learning_rate": 0.00011452285712454904,
"loss": 0.5813,
"step": 141
},
{
"epoch": 1.8933333333333333,
"grad_norm": 0.6560428738594055,
"learning_rate": 0.00011345389207419588,
"loss": 0.6352,
"step": 142
},
{
"epoch": 1.9066666666666667,
"grad_norm": 0.54889976978302,
"learning_rate": 0.00011238335898257304,
"loss": 0.7372,
"step": 143
},
{
"epoch": 1.92,
"grad_norm": 0.5890987515449524,
"learning_rate": 0.00011131138261952845,
"loss": 0.6402,
"step": 144
},
{
"epoch": 1.9333333333333333,
"grad_norm": 0.8450446128845215,
"learning_rate": 0.00011023808792312227,
"loss": 0.7152,
"step": 145
},
{
"epoch": 1.9466666666666668,
"grad_norm": 0.7649719715118408,
"learning_rate": 0.0001091635999850655,
"loss": 0.6831,
"step": 146
},
{
"epoch": 1.96,
"grad_norm": 0.6236613988876343,
"learning_rate": 0.00010808804403614043,
"loss": 0.6671,
"step": 147
},
{
"epoch": 1.9733333333333334,
"grad_norm": 0.6295299530029297,
"learning_rate": 0.00010701154543160541,
"loss": 0.8226,
"step": 148
},
{
"epoch": 1.9866666666666668,
"grad_norm": 0.641965389251709,
"learning_rate": 0.00010593422963658452,
"loss": 0.6567,
"step": 149
},
{
"epoch": 2.0,
"grad_norm": 0.779958188533783,
"learning_rate": 0.00010485622221144484,
"loss": 0.6346,
"step": 150
},
{
"epoch": 2.013333333333333,
"grad_norm": 0.6322675347328186,
"learning_rate": 0.00010377764879716234,
"loss": 0.5576,
"step": 151
},
{
"epoch": 2.026666666666667,
"grad_norm": 0.7052869200706482,
"learning_rate": 0.00010269863510067872,
"loss": 0.4362,
"step": 152
},
{
"epoch": 2.04,
"grad_norm": 0.4991523027420044,
"learning_rate": 0.00010161930688025017,
"loss": 0.4478,
"step": 153
},
{
"epoch": 2.0533333333333332,
"grad_norm": 0.4096013903617859,
"learning_rate": 0.00010053978993079045,
"loss": 0.5258,
"step": 154
},
{
"epoch": 2.066666666666667,
"grad_norm": 0.4861268103122711,
"learning_rate": 9.946021006920959e-05,
"loss": 0.5085,
"step": 155
},
{
"epoch": 2.08,
"grad_norm": 0.5277904272079468,
"learning_rate": 9.838069311974986e-05,
"loss": 0.4549,
"step": 156
},
{
"epoch": 2.0933333333333333,
"grad_norm": 0.640762209892273,
"learning_rate": 9.730136489932133e-05,
"loss": 0.5168,
"step": 157
},
{
"epoch": 2.1066666666666665,
"grad_norm": 0.6294235587120056,
"learning_rate": 9.622235120283769e-05,
"loss": 0.3587,
"step": 158
},
{
"epoch": 2.12,
"grad_norm": 0.6455483436584473,
"learning_rate": 9.514377778855521e-05,
"loss": 0.5013,
"step": 159
},
{
"epoch": 2.1333333333333333,
"grad_norm": 0.7052115201950073,
"learning_rate": 9.406577036341548e-05,
"loss": 0.458,
"step": 160
},
{
"epoch": 2.1466666666666665,
"grad_norm": 0.6517965197563171,
"learning_rate": 9.298845456839459e-05,
"loss": 0.4427,
"step": 161
},
{
"epoch": 2.16,
"grad_norm": 1.0105723142623901,
"learning_rate": 9.19119559638596e-05,
"loss": 0.5482,
"step": 162
},
{
"epoch": 2.1733333333333333,
"grad_norm": 0.6122080683708191,
"learning_rate": 9.083640001493454e-05,
"loss": 0.3708,
"step": 163
},
{
"epoch": 2.1866666666666665,
"grad_norm": 0.7772620320320129,
"learning_rate": 8.976191207687775e-05,
"loss": 0.4423,
"step": 164
},
{
"epoch": 2.2,
"grad_norm": 0.5697551965713501,
"learning_rate": 8.868861738047158e-05,
"loss": 0.4544,
"step": 165
},
{
"epoch": 2.2133333333333334,
"grad_norm": 0.6369841694831848,
"learning_rate": 8.7616641017427e-05,
"loss": 0.4458,
"step": 166
},
{
"epoch": 2.2266666666666666,
"grad_norm": 0.6867621541023254,
"learning_rate": 8.654610792580415e-05,
"loss": 0.3971,
"step": 167
},
{
"epoch": 2.24,
"grad_norm": 0.6379404067993164,
"learning_rate": 8.5477142875451e-05,
"loss": 0.409,
"step": 168
},
{
"epoch": 2.2533333333333334,
"grad_norm": 0.5854802131652832,
"learning_rate": 8.440987045346134e-05,
"loss": 0.4489,
"step": 169
},
{
"epoch": 2.2666666666666666,
"grad_norm": 0.6577348113059998,
"learning_rate": 8.334441504965455e-05,
"loss": 0.5224,
"step": 170
},
{
"epoch": 2.2800000000000002,
"grad_norm": 0.6020484566688538,
"learning_rate": 8.228090084207774e-05,
"loss": 0.3876,
"step": 171
},
{
"epoch": 2.2933333333333334,
"grad_norm": 0.5832955241203308,
"learning_rate": 8.1219451782533e-05,
"loss": 0.4096,
"step": 172
},
{
"epoch": 2.3066666666666666,
"grad_norm": 0.6917557716369629,
"learning_rate": 8.016019158213101e-05,
"loss": 0.3827,
"step": 173
},
{
"epoch": 2.32,
"grad_norm": 0.6793459057807922,
"learning_rate": 7.91032436968725e-05,
"loss": 0.3801,
"step": 174
},
{
"epoch": 2.3333333333333335,
"grad_norm": 0.5776801705360413,
"learning_rate": 7.804873131325954e-05,
"loss": 0.4567,
"step": 175
},
{
"epoch": 2.3466666666666667,
"grad_norm": 0.7591734528541565,
"learning_rate": 7.699677733393826e-05,
"loss": 0.4957,
"step": 176
},
{
"epoch": 2.36,
"grad_norm": 0.8160498142242432,
"learning_rate": 7.594750436337467e-05,
"loss": 0.4485,
"step": 177
},
{
"epoch": 2.3733333333333335,
"grad_norm": 0.5776082873344421,
"learning_rate": 7.490103469356513e-05,
"loss": 0.5212,
"step": 178
},
{
"epoch": 2.3866666666666667,
"grad_norm": 0.6858205795288086,
"learning_rate": 7.385749028978346e-05,
"loss": 0.3985,
"step": 179
},
{
"epoch": 2.4,
"grad_norm": 0.7106760740280151,
"learning_rate": 7.281699277636572e-05,
"loss": 0.447,
"step": 180
},
{
"epoch": 2.413333333333333,
"grad_norm": 0.5468612313270569,
"learning_rate": 7.177966342253524e-05,
"loss": 0.3429,
"step": 181
},
{
"epoch": 2.4266666666666667,
"grad_norm": 0.6179500222206116,
"learning_rate": 7.07456231282686e-05,
"loss": 0.4873,
"step": 182
},
{
"epoch": 2.44,
"grad_norm": 0.677168607711792,
"learning_rate": 6.971499241020495e-05,
"loss": 0.5149,
"step": 183
},
{
"epoch": 2.453333333333333,
"grad_norm": 0.7949701547622681,
"learning_rate": 6.868789138759976e-05,
"loss": 0.5183,
"step": 184
},
{
"epoch": 2.466666666666667,
"grad_norm": 0.631366491317749,
"learning_rate": 6.766443976832517e-05,
"loss": 0.3915,
"step": 185
},
{
"epoch": 2.48,
"grad_norm": 0.6317359805107117,
"learning_rate": 6.664475683491796e-05,
"loss": 0.4246,
"step": 186
},
{
"epoch": 2.493333333333333,
"grad_norm": 0.7377456426620483,
"learning_rate": 6.562896143067734e-05,
"loss": 0.3572,
"step": 187
},
{
"epoch": 2.506666666666667,
"grad_norm": 0.7473776340484619,
"learning_rate": 6.461717194581393e-05,
"loss": 0.4051,
"step": 188
},
{
"epoch": 2.52,
"grad_norm": 0.6155073046684265,
"learning_rate": 6.360950630365126e-05,
"loss": 0.4465,
"step": 189
},
{
"epoch": 2.533333333333333,
"grad_norm": 0.599367082118988,
"learning_rate": 6.260608194688206e-05,
"loss": 0.4863,
"step": 190
},
{
"epoch": 2.546666666666667,
"grad_norm": 0.6318126320838928,
"learning_rate": 6.160701582388038e-05,
"loss": 0.5023,
"step": 191
},
{
"epoch": 2.56,
"grad_norm": 0.6112634539604187,
"learning_rate": 6.061242437507131e-05,
"loss": 0.5643,
"step": 192
},
{
"epoch": 2.5733333333333333,
"grad_norm": 0.9118645787239075,
"learning_rate": 5.962242351935985e-05,
"loss": 0.4692,
"step": 193
},
{
"epoch": 2.586666666666667,
"grad_norm": 0.7344533801078796,
"learning_rate": 5.863712864062089e-05,
"loss": 0.4355,
"step": 194
},
{
"epoch": 2.6,
"grad_norm": 0.6159957051277161,
"learning_rate": 5.765665457425102e-05,
"loss": 0.5576,
"step": 195
},
{
"epoch": 2.6133333333333333,
"grad_norm": 0.632001519203186,
"learning_rate": 5.668111559378471e-05,
"loss": 0.5418,
"step": 196
},
{
"epoch": 2.626666666666667,
"grad_norm": 0.7217976450920105,
"learning_rate": 5.571062539757581e-05,
"loss": 0.5315,
"step": 197
},
{
"epoch": 2.64,
"grad_norm": 0.5802445411682129,
"learning_rate": 5.474529709554612e-05,
"loss": 0.5183,
"step": 198
},
{
"epoch": 2.6533333333333333,
"grad_norm": 0.8810819983482361,
"learning_rate": 5.378524319600231e-05,
"loss": 0.5234,
"step": 199
},
{
"epoch": 2.6666666666666665,
"grad_norm": 0.8704924583435059,
"learning_rate": 5.283057559252341e-05,
"loss": 0.4652,
"step": 200
},
{
"epoch": 2.68,
"grad_norm": 0.6765443682670593,
"learning_rate": 5.1881405550919493e-05,
"loss": 0.4305,
"step": 201
},
{
"epoch": 2.6933333333333334,
"grad_norm": 0.7338111400604248,
"learning_rate": 5.0937843696263966e-05,
"loss": 0.5201,
"step": 202
},
{
"epoch": 2.7066666666666666,
"grad_norm": 0.8355885744094849,
"learning_rate": 5.000000000000002e-05,
"loss": 0.3281,
"step": 203
},
{
"epoch": 2.7199999999999998,
"grad_norm": 0.6787794828414917,
"learning_rate": 4.9067983767123736e-05,
"loss": 0.5057,
"step": 204
},
{
"epoch": 2.7333333333333334,
"grad_norm": 0.6520538330078125,
"learning_rate": 4.814190362344454e-05,
"loss": 0.3988,
"step": 205
},
{
"epoch": 2.7466666666666666,
"grad_norm": 0.9957300424575806,
"learning_rate": 4.722186750292511e-05,
"loss": 0.4347,
"step": 206
},
{
"epoch": 2.76,
"grad_norm": 0.6702403426170349,
"learning_rate": 4.630798263510162e-05,
"loss": 0.4431,
"step": 207
},
{
"epoch": 2.7733333333333334,
"grad_norm": 0.6874341368675232,
"learning_rate": 4.540035553258619e-05,
"loss": 0.5117,
"step": 208
},
{
"epoch": 2.7866666666666666,
"grad_norm": 0.5381680727005005,
"learning_rate": 4.449909197865303e-05,
"loss": 0.4461,
"step": 209
},
{
"epoch": 2.8,
"grad_norm": 0.5413621068000793,
"learning_rate": 4.360429701490934e-05,
"loss": 0.5286,
"step": 210
},
{
"epoch": 2.8133333333333335,
"grad_norm": 0.5521364808082581,
"learning_rate": 4.271607492905303e-05,
"loss": 0.4846,
"step": 211
},
{
"epoch": 2.8266666666666667,
"grad_norm": 0.5857036709785461,
"learning_rate": 4.183452924271776e-05,
"loss": 0.4799,
"step": 212
},
{
"epoch": 2.84,
"grad_norm": 0.7210860848426819,
"learning_rate": 4.0959762699407766e-05,
"loss": 0.3214,
"step": 213
},
{
"epoch": 2.8533333333333335,
"grad_norm": 0.6596788763999939,
"learning_rate": 4.009187725252309e-05,
"loss": 0.4818,
"step": 214
},
{
"epoch": 2.8666666666666667,
"grad_norm": 0.6683171987533569,
"learning_rate": 3.9230974053477086e-05,
"loss": 0.4854,
"step": 215
},
{
"epoch": 2.88,
"grad_norm": 0.6668866872787476,
"learning_rate": 3.8377153439907266e-05,
"loss": 0.3712,
"step": 216
},
{
"epoch": 2.8933333333333335,
"grad_norm": 0.8019754886627197,
"learning_rate": 3.7530514923980884e-05,
"loss": 0.3826,
"step": 217
},
{
"epoch": 2.9066666666666667,
"grad_norm": 0.7723852396011353,
"learning_rate": 3.669115718079702e-05,
"loss": 0.3923,
"step": 218
},
{
"epoch": 2.92,
"grad_norm": 0.8932898044586182,
"learning_rate": 3.585917803688603e-05,
"loss": 0.4372,
"step": 219
},
{
"epoch": 2.9333333333333336,
"grad_norm": 0.8380217552185059,
"learning_rate": 3.503467445880789e-05,
"loss": 0.6057,
"step": 220
},
{
"epoch": 2.9466666666666668,
"grad_norm": 0.7885947227478027,
"learning_rate": 3.421774254185096e-05,
"loss": 0.4252,
"step": 221
},
{
"epoch": 2.96,
"grad_norm": 0.6929410099983215,
"learning_rate": 3.340847749883191e-05,
"loss": 0.4339,
"step": 222
},
{
"epoch": 2.9733333333333336,
"grad_norm": 0.5754182934761047,
"learning_rate": 3.2606973648998915e-05,
"loss": 0.5381,
"step": 223
},
{
"epoch": 2.986666666666667,
"grad_norm": 0.5466946363449097,
"learning_rate": 3.1813324407038825e-05,
"loss": 0.4699,
"step": 224
},
{
"epoch": 3.0,
"grad_norm": 0.6496762037277222,
"learning_rate": 3.102762227218957e-05,
"loss": 0.4392,
"step": 225
},
{
"epoch": 3.013333333333333,
"grad_norm": 0.5232837200164795,
"learning_rate": 3.0249958817459722e-05,
"loss": 0.3204,
"step": 226
},
{
"epoch": 3.026666666666667,
"grad_norm": 0.6648370623588562,
"learning_rate": 2.9480424678955443e-05,
"loss": 0.3054,
"step": 227
},
{
"epoch": 3.04,
"grad_norm": 0.5386692881584167,
"learning_rate": 2.8719109545317103e-05,
"loss": 0.3565,
"step": 228
},
{
"epoch": 3.0533333333333332,
"grad_norm": 0.5926947593688965,
"learning_rate": 2.7966102147265994e-05,
"loss": 0.298,
"step": 229
},
{
"epoch": 3.066666666666667,
"grad_norm": 0.5218151807785034,
"learning_rate": 2.722149024726307e-05,
"loss": 0.242,
"step": 230
},
{
"epoch": 3.08,
"grad_norm": 0.5256300568580627,
"learning_rate": 2.6485360629279987e-05,
"loss": 0.3497,
"step": 231
},
{
"epoch": 3.0933333333333333,
"grad_norm": 0.5321183204650879,
"learning_rate": 2.5757799088684654e-05,
"loss": 0.2814,
"step": 232
},
{
"epoch": 3.1066666666666665,
"grad_norm": 0.4942474663257599,
"learning_rate": 2.5038890422241958e-05,
"loss": 0.3361,
"step": 233
},
{
"epoch": 3.12,
"grad_norm": 0.6570059657096863,
"learning_rate": 2.432871841823047e-05,
"loss": 0.2742,
"step": 234
},
{
"epoch": 3.1333333333333333,
"grad_norm": 0.6714842319488525,
"learning_rate": 2.3627365846677306e-05,
"loss": 0.3261,
"step": 235
},
{
"epoch": 3.1466666666666665,
"grad_norm": 0.68682861328125,
"learning_rate": 2.2934914449711087e-05,
"loss": 0.2931,
"step": 236
},
{
"epoch": 3.16,
"grad_norm": 0.519067645072937,
"learning_rate": 2.2251444932035094e-05,
"loss": 0.323,
"step": 237
},
{
"epoch": 3.1733333333333333,
"grad_norm": 0.5991199612617493,
"learning_rate": 2.157703695152109e-05,
"loss": 0.2603,
"step": 238
},
{
"epoch": 3.1866666666666665,
"grad_norm": 0.7177437543869019,
"learning_rate": 2.091176910992545e-05,
"loss": 0.3499,
"step": 239
},
{
"epoch": 3.2,
"grad_norm": 0.6380268335342407,
"learning_rate": 2.025571894372794e-05,
"loss": 0.3064,
"step": 240
},
{
"epoch": 3.2133333333333334,
"grad_norm": 0.5707582235336304,
"learning_rate": 1.9608962915094996e-05,
"loss": 0.2747,
"step": 241
},
{
"epoch": 3.2266666666666666,
"grad_norm": 0.6281158328056335,
"learning_rate": 1.897157640296825e-05,
"loss": 0.2461,
"step": 242
},
{
"epoch": 3.24,
"grad_norm": 0.6357036232948303,
"learning_rate": 1.8343633694278895e-05,
"loss": 0.2846,
"step": 243
},
{
"epoch": 3.2533333333333334,
"grad_norm": 0.7706279754638672,
"learning_rate": 1.772520797528988e-05,
"loss": 0.2931,
"step": 244
},
{
"epoch": 3.2666666666666666,
"grad_norm": 0.5687737464904785,
"learning_rate": 1.7116371323065883e-05,
"loss": 0.2162,
"step": 245
},
{
"epoch": 3.2800000000000002,
"grad_norm": 0.5638925433158875,
"learning_rate": 1.65171946970729e-05,
"loss": 0.2219,
"step": 246
},
{
"epoch": 3.2933333333333334,
"grad_norm": 0.6213463544845581,
"learning_rate": 1.592774793090792e-05,
"loss": 0.3329,
"step": 247
},
{
"epoch": 3.3066666666666666,
"grad_norm": 0.6423382759094238,
"learning_rate": 1.534809972415998e-05,
"loss": 0.225,
"step": 248
},
{
"epoch": 3.32,
"grad_norm": 0.818946361541748,
"learning_rate": 1.4778317634403083e-05,
"loss": 0.2252,
"step": 249
},
{
"epoch": 3.3333333333333335,
"grad_norm": 0.5952211022377014,
"learning_rate": 1.4218468069322578e-05,
"loss": 0.2295,
"step": 250
},
{
"epoch": 3.3466666666666667,
"grad_norm": 0.5699911117553711,
"learning_rate": 1.3668616278975343e-05,
"loss": 0.3132,
"step": 251
},
{
"epoch": 3.36,
"grad_norm": 0.7674257755279541,
"learning_rate": 1.3128826348184887e-05,
"loss": 0.3487,
"step": 252
},
{
"epoch": 3.3733333333333335,
"grad_norm": 0.6047098636627197,
"learning_rate": 1.2599161189072427e-05,
"loss": 0.1991,
"step": 253
},
{
"epoch": 3.3866666666666667,
"grad_norm": 0.6673244833946228,
"learning_rate": 1.2079682533724379e-05,
"loss": 0.2233,
"step": 254
},
{
"epoch": 3.4,
"grad_norm": 0.7468060851097107,
"learning_rate": 1.1570450926997655e-05,
"loss": 0.2155,
"step": 255
},
{
"epoch": 3.413333333333333,
"grad_norm": 0.6119690537452698,
"learning_rate": 1.1071525719463095e-05,
"loss": 0.1624,
"step": 256
},
{
"epoch": 3.4266666666666667,
"grad_norm": 0.5702852606773376,
"learning_rate": 1.0582965060488359e-05,
"loss": 0.3134,
"step": 257
},
{
"epoch": 3.44,
"grad_norm": 0.9024640321731567,
"learning_rate": 1.010482589146048e-05,
"loss": 0.3316,
"step": 258
},
{
"epoch": 3.453333333333333,
"grad_norm": 0.6158623695373535,
"learning_rate": 9.637163939149485e-06,
"loss": 0.2637,
"step": 259
},
{
"epoch": 3.466666666666667,
"grad_norm": 0.5979247689247131,
"learning_rate": 9.180033709213454e-06,
"loss": 0.3148,
"step": 260
},
{
"epoch": 3.48,
"grad_norm": 0.5976862907409668,
"learning_rate": 8.733488479845997e-06,
"loss": 0.293,
"step": 261
},
{
"epoch": 3.493333333333333,
"grad_norm": 0.6761628985404968,
"learning_rate": 8.297580295566575e-06,
"loss": 0.2675,
"step": 262
},
{
"epoch": 3.506666666666667,
"grad_norm": 0.7228958606719971,
"learning_rate": 7.872359961154906e-06,
"loss": 0.3601,
"step": 263
},
{
"epoch": 3.52,
"grad_norm": 0.6675010919570923,
"learning_rate": 7.457877035729588e-06,
"loss": 0.2551,
"step": 264
},
{
"epoch": 3.533333333333333,
"grad_norm": 0.6560245752334595,
"learning_rate": 7.054179826972074e-06,
"loss": 0.1799,
"step": 265
},
{
"epoch": 3.546666666666667,
"grad_norm": 0.6431569457054138,
"learning_rate": 6.661315385496425e-06,
"loss": 0.2183,
"step": 266
},
{
"epoch": 3.56,
"grad_norm": 0.7804158329963684,
"learning_rate": 6.2793294993656494e-06,
"loss": 0.2438,
"step": 267
},
{
"epoch": 3.5733333333333333,
"grad_norm": 0.8433220982551575,
"learning_rate": 5.908266688755049e-06,
"loss": 0.2806,
"step": 268
},
{
"epoch": 3.586666666666667,
"grad_norm": 0.7814007997512817,
"learning_rate": 5.54817020076347e-06,
"loss": 0.2841,
"step": 269
},
{
"epoch": 3.6,
"grad_norm": 0.5926189422607422,
"learning_rate": 5.199082004372957e-06,
"loss": 0.2349,
"step": 270
},
{
"epoch": 3.6133333333333333,
"grad_norm": 0.7108579277992249,
"learning_rate": 4.861042785557146e-06,
"loss": 0.2771,
"step": 271
},
{
"epoch": 3.626666666666667,
"grad_norm": 0.8635604381561279,
"learning_rate": 4.534091942539475e-06,
"loss": 0.3572,
"step": 272
},
{
"epoch": 3.64,
"grad_norm": 0.7461998462677002,
"learning_rate": 4.2182675812012965e-06,
"loss": 0.3266,
"step": 273
},
{
"epoch": 3.6533333333333333,
"grad_norm": 0.6848060488700867,
"learning_rate": 3.913606510640644e-06,
"loss": 0.2782,
"step": 274
},
{
"epoch": 3.6666666666666665,
"grad_norm": 0.5404589176177979,
"learning_rate": 3.620144238882206e-06,
"loss": 0.2365,
"step": 275
},
{
"epoch": 3.68,
"grad_norm": 0.8409443497657776,
"learning_rate": 3.3379149687388867e-06,
"loss": 0.243,
"step": 276
},
{
"epoch": 3.6933333333333334,
"grad_norm": 0.6383155584335327,
"learning_rate": 3.06695159382544e-06,
"loss": 0.3358,
"step": 277
},
{
"epoch": 3.7066666666666666,
"grad_norm": 0.790045976638794,
"learning_rate": 2.8072856947248037e-06,
"loss": 0.2835,
"step": 278
},
{
"epoch": 3.7199999999999998,
"grad_norm": 0.6109788417816162,
"learning_rate": 2.5589475353073988e-06,
"loss": 0.3113,
"step": 279
},
{
"epoch": 3.7333333333333334,
"grad_norm": 0.5038023591041565,
"learning_rate": 2.3219660592038285e-06,
"loss": 0.1902,
"step": 280
},
{
"epoch": 3.7466666666666666,
"grad_norm": 0.5871134996414185,
"learning_rate": 2.0963688864316323e-06,
"loss": 0.3928,
"step": 281
},
{
"epoch": 3.76,
"grad_norm": 0.5895046591758728,
"learning_rate": 1.882182310176095e-06,
"loss": 0.2864,
"step": 282
},
{
"epoch": 3.7733333333333334,
"grad_norm": 1.456066608428955,
"learning_rate": 1.6794312937258417e-06,
"loss": 0.2669,
"step": 283
},
{
"epoch": 3.7866666666666666,
"grad_norm": 0.6652315855026245,
"learning_rate": 1.488139467563354e-06,
"loss": 0.2859,
"step": 284
},
{
"epoch": 3.8,
"grad_norm": 0.7242224812507629,
"learning_rate": 1.30832912661093e-06,
"loss": 0.1955,
"step": 285
},
{
"epoch": 3.8133333333333335,
"grad_norm": 0.5488805174827576,
"learning_rate": 1.1400212276321376e-06,
"loss": 0.2772,
"step": 286
},
{
"epoch": 3.8266666666666667,
"grad_norm": 0.9780620336532593,
"learning_rate": 9.832353867893386e-07,
"loss": 0.2286,
"step": 287
},
{
"epoch": 3.84,
"grad_norm": 0.6662778258323669,
"learning_rate": 8.379898773574924e-07,
"loss": 0.2704,
"step": 288
},
{
"epoch": 3.8533333333333335,
"grad_norm": 0.6265354156494141,
"learning_rate": 7.043016275943615e-07,
"loss": 0.2296,
"step": 289
},
{
"epoch": 3.8666666666666667,
"grad_norm": 0.6008942127227783,
"learning_rate": 5.821862187675775e-07,
"loss": 0.2374,
"step": 290
},
{
"epoch": 3.88,
"grad_norm": 0.7946692109107971,
"learning_rate": 4.7165788333860536e-07,
"loss": 0.1566,
"step": 291
},
{
"epoch": 3.8933333333333335,
"grad_norm": 0.7700130939483643,
"learning_rate": 3.727295033040035e-07,
"loss": 0.2748,
"step": 292
},
{
"epoch": 3.9066666666666667,
"grad_norm": 0.671159029006958,
"learning_rate": 2.854126086940356e-07,
"loss": 0.2345,
"step": 293
},
{
"epoch": 3.92,
"grad_norm": 0.591444194316864,
"learning_rate": 2.0971737622883515e-07,
"loss": 0.2364,
"step": 294
},
{
"epoch": 3.9333333333333336,
"grad_norm": 0.6508089900016785,
"learning_rate": 1.4565262813230894e-07,
"loss": 0.2455,
"step": 295
},
{
"epoch": 3.9466666666666668,
"grad_norm": 0.8111832737922668,
"learning_rate": 9.32258311039269e-08,
"loss": 0.2412,
"step": 296
},
{
"epoch": 3.96,
"grad_norm": 0.6243981122970581,
"learning_rate": 5.2443095448506674e-08,
"loss": 0.2991,
"step": 297
},
{
"epoch": 3.9733333333333336,
"grad_norm": 0.8096401691436768,
"learning_rate": 2.3309174364027907e-08,
"loss": 0.2848,
"step": 298
},
{
"epoch": 3.986666666666667,
"grad_norm": 0.6315991878509521,
"learning_rate": 5.827463387653165e-09,
"loss": 0.3048,
"step": 299
},
{
"epoch": 4.0,
"grad_norm": 0.6686562895774841,
"learning_rate": 0.0,
"loss": 0.266,
"step": 300
},
{
"epoch": 4.0,
"step": 300,
"total_flos": 8.62109265035264e+16,
"train_loss": 0.6437234182655811,
"train_runtime": 652.1258,
"train_samples_per_second": 7.361,
"train_steps_per_second": 0.46
}
],
"logging_steps": 1.0,
"max_steps": 300,
"num_input_tokens_seen": 0,
"num_train_epochs": 4,
"save_steps": 50,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 8.62109265035264e+16,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}