| { | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 4.0, | |
| "eval_steps": 500, | |
| "global_step": 300, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.013333333333333334, | |
| "grad_norm": 1.0028682947158813, | |
| "learning_rate": 2.2222222222222223e-05, | |
| "loss": 1.43, | |
| "step": 1 | |
| }, | |
| { | |
| "epoch": 0.02666666666666667, | |
| "grad_norm": 1.6397583484649658, | |
| "learning_rate": 4.4444444444444447e-05, | |
| "loss": 1.5374, | |
| "step": 2 | |
| }, | |
| { | |
| "epoch": 0.04, | |
| "grad_norm": 1.2198785543441772, | |
| "learning_rate": 6.666666666666667e-05, | |
| "loss": 1.5106, | |
| "step": 3 | |
| }, | |
| { | |
| "epoch": 0.05333333333333334, | |
| "grad_norm": 0.8468486070632935, | |
| "learning_rate": 8.888888888888889e-05, | |
| "loss": 1.447, | |
| "step": 4 | |
| }, | |
| { | |
| "epoch": 0.06666666666666667, | |
| "grad_norm": 0.9268608689308167, | |
| "learning_rate": 0.00011111111111111112, | |
| "loss": 1.4743, | |
| "step": 5 | |
| }, | |
| { | |
| "epoch": 0.08, | |
| "grad_norm": 1.0168085098266602, | |
| "learning_rate": 0.00013333333333333334, | |
| "loss": 1.3245, | |
| "step": 6 | |
| }, | |
| { | |
| "epoch": 0.09333333333333334, | |
| "grad_norm": 0.6773934960365295, | |
| "learning_rate": 0.00015555555555555556, | |
| "loss": 1.3738, | |
| "step": 7 | |
| }, | |
| { | |
| "epoch": 0.10666666666666667, | |
| "grad_norm": 0.6985631585121155, | |
| "learning_rate": 0.00017777777777777779, | |
| "loss": 1.3951, | |
| "step": 8 | |
| }, | |
| { | |
| "epoch": 0.12, | |
| "grad_norm": 1.0221399068832397, | |
| "learning_rate": 0.0002, | |
| "loss": 1.3246, | |
| "step": 9 | |
| }, | |
| { | |
| "epoch": 0.13333333333333333, | |
| "grad_norm": 0.6119747161865234, | |
| "learning_rate": 0.00019999417253661235, | |
| "loss": 1.2951, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.14666666666666667, | |
| "grad_norm": 0.6660990118980408, | |
| "learning_rate": 0.00019997669082563597, | |
| "loss": 1.2529, | |
| "step": 11 | |
| }, | |
| { | |
| "epoch": 0.16, | |
| "grad_norm": 0.5874819755554199, | |
| "learning_rate": 0.00019994755690455152, | |
| "loss": 1.2252, | |
| "step": 12 | |
| }, | |
| { | |
| "epoch": 0.17333333333333334, | |
| "grad_norm": 0.4818006157875061, | |
| "learning_rate": 0.00019990677416889608, | |
| "loss": 1.1708, | |
| "step": 13 | |
| }, | |
| { | |
| "epoch": 0.18666666666666668, | |
| "grad_norm": 0.652045488357544, | |
| "learning_rate": 0.0001998543473718677, | |
| "loss": 0.9865, | |
| "step": 14 | |
| }, | |
| { | |
| "epoch": 0.2, | |
| "grad_norm": 0.5517733693122864, | |
| "learning_rate": 0.00019979028262377118, | |
| "loss": 1.181, | |
| "step": 15 | |
| }, | |
| { | |
| "epoch": 0.21333333333333335, | |
| "grad_norm": 0.47720542550086975, | |
| "learning_rate": 0.00019971458739130598, | |
| "loss": 1.0633, | |
| "step": 16 | |
| }, | |
| { | |
| "epoch": 0.22666666666666666, | |
| "grad_norm": 0.7947096228599548, | |
| "learning_rate": 0.000199627270496696, | |
| "loss": 1.1458, | |
| "step": 17 | |
| }, | |
| { | |
| "epoch": 0.24, | |
| "grad_norm": 0.5301257371902466, | |
| "learning_rate": 0.0001995283421166614, | |
| "loss": 1.2245, | |
| "step": 18 | |
| }, | |
| { | |
| "epoch": 0.25333333333333335, | |
| "grad_norm": 0.9473271369934082, | |
| "learning_rate": 0.00019941781378123244, | |
| "loss": 1.0859, | |
| "step": 19 | |
| }, | |
| { | |
| "epoch": 0.26666666666666666, | |
| "grad_norm": 1.1834161281585693, | |
| "learning_rate": 0.00019929569837240564, | |
| "loss": 1.1808, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.28, | |
| "grad_norm": 0.6784033179283142, | |
| "learning_rate": 0.00019916201012264254, | |
| "loss": 1.202, | |
| "step": 21 | |
| }, | |
| { | |
| "epoch": 0.29333333333333333, | |
| "grad_norm": 0.7274785041809082, | |
| "learning_rate": 0.00019901676461321068, | |
| "loss": 1.2242, | |
| "step": 22 | |
| }, | |
| { | |
| "epoch": 0.30666666666666664, | |
| "grad_norm": 0.7520783543586731, | |
| "learning_rate": 0.00019885997877236788, | |
| "loss": 1.173, | |
| "step": 23 | |
| }, | |
| { | |
| "epoch": 0.32, | |
| "grad_norm": 0.8218541145324707, | |
| "learning_rate": 0.00019869167087338907, | |
| "loss": 1.0723, | |
| "step": 24 | |
| }, | |
| { | |
| "epoch": 0.3333333333333333, | |
| "grad_norm": 0.6361420154571533, | |
| "learning_rate": 0.00019851186053243666, | |
| "loss": 1.1607, | |
| "step": 25 | |
| }, | |
| { | |
| "epoch": 0.3466666666666667, | |
| "grad_norm": 0.6401374936103821, | |
| "learning_rate": 0.00019832056870627417, | |
| "loss": 1.1398, | |
| "step": 26 | |
| }, | |
| { | |
| "epoch": 0.36, | |
| "grad_norm": 1.0995603799819946, | |
| "learning_rate": 0.0001981178176898239, | |
| "loss": 0.9475, | |
| "step": 27 | |
| }, | |
| { | |
| "epoch": 0.37333333333333335, | |
| "grad_norm": 0.5122275948524475, | |
| "learning_rate": 0.00019790363111356837, | |
| "loss": 1.0125, | |
| "step": 28 | |
| }, | |
| { | |
| "epoch": 0.38666666666666666, | |
| "grad_norm": 0.9316695332527161, | |
| "learning_rate": 0.00019767803394079615, | |
| "loss": 1.0554, | |
| "step": 29 | |
| }, | |
| { | |
| "epoch": 0.4, | |
| "grad_norm": 0.6831843256950378, | |
| "learning_rate": 0.00019744105246469263, | |
| "loss": 1.027, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.41333333333333333, | |
| "grad_norm": 0.5529218912124634, | |
| "learning_rate": 0.0001971927143052752, | |
| "loss": 1.0218, | |
| "step": 31 | |
| }, | |
| { | |
| "epoch": 0.4266666666666667, | |
| "grad_norm": 0.7164443135261536, | |
| "learning_rate": 0.00019693304840617457, | |
| "loss": 1.0901, | |
| "step": 32 | |
| }, | |
| { | |
| "epoch": 0.44, | |
| "grad_norm": 0.7430665493011475, | |
| "learning_rate": 0.00019666208503126112, | |
| "loss": 1.125, | |
| "step": 33 | |
| }, | |
| { | |
| "epoch": 0.4533333333333333, | |
| "grad_norm": 0.7198122143745422, | |
| "learning_rate": 0.00019637985576111778, | |
| "loss": 0.9926, | |
| "step": 34 | |
| }, | |
| { | |
| "epoch": 0.4666666666666667, | |
| "grad_norm": 0.6613873839378357, | |
| "learning_rate": 0.0001960863934893594, | |
| "loss": 1.1925, | |
| "step": 35 | |
| }, | |
| { | |
| "epoch": 0.48, | |
| "grad_norm": 1.2440484762191772, | |
| "learning_rate": 0.00019578173241879872, | |
| "loss": 0.8948, | |
| "step": 36 | |
| }, | |
| { | |
| "epoch": 0.49333333333333335, | |
| "grad_norm": 0.6995570659637451, | |
| "learning_rate": 0.00019546590805746052, | |
| "loss": 0.9525, | |
| "step": 37 | |
| }, | |
| { | |
| "epoch": 0.5066666666666667, | |
| "grad_norm": 0.6873968243598938, | |
| "learning_rate": 0.00019513895721444286, | |
| "loss": 0.9966, | |
| "step": 38 | |
| }, | |
| { | |
| "epoch": 0.52, | |
| "grad_norm": 0.5394595861434937, | |
| "learning_rate": 0.00019480091799562704, | |
| "loss": 1.0787, | |
| "step": 39 | |
| }, | |
| { | |
| "epoch": 0.5333333333333333, | |
| "grad_norm": 0.9196312427520752, | |
| "learning_rate": 0.00019445182979923654, | |
| "loss": 1.0559, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 0.5466666666666666, | |
| "grad_norm": 2.5954103469848633, | |
| "learning_rate": 0.000194091733311245, | |
| "loss": 0.9638, | |
| "step": 41 | |
| }, | |
| { | |
| "epoch": 0.56, | |
| "grad_norm": 1.244681715965271, | |
| "learning_rate": 0.00019372067050063438, | |
| "loss": 0.9325, | |
| "step": 42 | |
| }, | |
| { | |
| "epoch": 0.5733333333333334, | |
| "grad_norm": 0.613715410232544, | |
| "learning_rate": 0.0001933386846145036, | |
| "loss": 0.9428, | |
| "step": 43 | |
| }, | |
| { | |
| "epoch": 0.5866666666666667, | |
| "grad_norm": 0.9604235291481018, | |
| "learning_rate": 0.00019294582017302797, | |
| "loss": 0.9486, | |
| "step": 44 | |
| }, | |
| { | |
| "epoch": 0.6, | |
| "grad_norm": 0.7591239809989929, | |
| "learning_rate": 0.00019254212296427044, | |
| "loss": 1.0955, | |
| "step": 45 | |
| }, | |
| { | |
| "epoch": 0.6133333333333333, | |
| "grad_norm": 0.5218423008918762, | |
| "learning_rate": 0.0001921276400388451, | |
| "loss": 1.0368, | |
| "step": 46 | |
| }, | |
| { | |
| "epoch": 0.6266666666666667, | |
| "grad_norm": 0.5670755505561829, | |
| "learning_rate": 0.00019170241970443343, | |
| "loss": 0.9854, | |
| "step": 47 | |
| }, | |
| { | |
| "epoch": 0.64, | |
| "grad_norm": 0.8089922070503235, | |
| "learning_rate": 0.00019126651152015403, | |
| "loss": 1.0396, | |
| "step": 48 | |
| }, | |
| { | |
| "epoch": 0.6533333333333333, | |
| "grad_norm": 0.6459051966667175, | |
| "learning_rate": 0.00019081996629078657, | |
| "loss": 1.0156, | |
| "step": 49 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "grad_norm": 1.1918997764587402, | |
| "learning_rate": 0.00019036283606085053, | |
| "loss": 1.1542, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.68, | |
| "grad_norm": 0.6263722777366638, | |
| "learning_rate": 0.00018989517410853955, | |
| "loss": 1.1471, | |
| "step": 51 | |
| }, | |
| { | |
| "epoch": 0.6933333333333334, | |
| "grad_norm": 0.534618616104126, | |
| "learning_rate": 0.00018941703493951164, | |
| "loss": 0.9055, | |
| "step": 52 | |
| }, | |
| { | |
| "epoch": 0.7066666666666667, | |
| "grad_norm": 0.529036819934845, | |
| "learning_rate": 0.00018892847428053693, | |
| "loss": 0.9896, | |
| "step": 53 | |
| }, | |
| { | |
| "epoch": 0.72, | |
| "grad_norm": 0.716572105884552, | |
| "learning_rate": 0.00018842954907300236, | |
| "loss": 1.0204, | |
| "step": 54 | |
| }, | |
| { | |
| "epoch": 0.7333333333333333, | |
| "grad_norm": 0.832662045955658, | |
| "learning_rate": 0.00018792031746627563, | |
| "loss": 1.0263, | |
| "step": 55 | |
| }, | |
| { | |
| "epoch": 0.7466666666666667, | |
| "grad_norm": 0.5659884810447693, | |
| "learning_rate": 0.0001874008388109276, | |
| "loss": 1.0529, | |
| "step": 56 | |
| }, | |
| { | |
| "epoch": 0.76, | |
| "grad_norm": 0.4971260726451874, | |
| "learning_rate": 0.00018687117365181512, | |
| "loss": 1.0109, | |
| "step": 57 | |
| }, | |
| { | |
| "epoch": 0.7733333333333333, | |
| "grad_norm": 0.5997689962387085, | |
| "learning_rate": 0.00018633138372102468, | |
| "loss": 1.0363, | |
| "step": 58 | |
| }, | |
| { | |
| "epoch": 0.7866666666666666, | |
| "grad_norm": 0.42450904846191406, | |
| "learning_rate": 0.00018578153193067745, | |
| "loss": 1.0156, | |
| "step": 59 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "grad_norm": 1.0025880336761475, | |
| "learning_rate": 0.00018522168236559695, | |
| "loss": 0.96, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.8133333333333334, | |
| "grad_norm": 0.47225672006607056, | |
| "learning_rate": 0.00018465190027584005, | |
| "loss": 1.0402, | |
| "step": 61 | |
| }, | |
| { | |
| "epoch": 0.8266666666666667, | |
| "grad_norm": 0.6419042348861694, | |
| "learning_rate": 0.00018407225206909208, | |
| "loss": 0.9727, | |
| "step": 62 | |
| }, | |
| { | |
| "epoch": 0.84, | |
| "grad_norm": 0.9594618082046509, | |
| "learning_rate": 0.00018348280530292713, | |
| "loss": 0.986, | |
| "step": 63 | |
| }, | |
| { | |
| "epoch": 0.8533333333333334, | |
| "grad_norm": 0.5415605902671814, | |
| "learning_rate": 0.00018288362867693414, | |
| "loss": 1.019, | |
| "step": 64 | |
| }, | |
| { | |
| "epoch": 0.8666666666666667, | |
| "grad_norm": 0.9662086367607117, | |
| "learning_rate": 0.00018227479202471015, | |
| "loss": 0.9531, | |
| "step": 65 | |
| }, | |
| { | |
| "epoch": 0.88, | |
| "grad_norm": 0.7523136734962463, | |
| "learning_rate": 0.0001816563663057211, | |
| "loss": 1.0383, | |
| "step": 66 | |
| }, | |
| { | |
| "epoch": 0.8933333333333333, | |
| "grad_norm": 0.7249945998191833, | |
| "learning_rate": 0.00018102842359703176, | |
| "loss": 1.1131, | |
| "step": 67 | |
| }, | |
| { | |
| "epoch": 0.9066666666666666, | |
| "grad_norm": 0.4781404435634613, | |
| "learning_rate": 0.000180391037084905, | |
| "loss": 0.9701, | |
| "step": 68 | |
| }, | |
| { | |
| "epoch": 0.92, | |
| "grad_norm": 0.5435504913330078, | |
| "learning_rate": 0.00017974428105627208, | |
| "loss": 1.2701, | |
| "step": 69 | |
| }, | |
| { | |
| "epoch": 0.9333333333333333, | |
| "grad_norm": 0.48021838068962097, | |
| "learning_rate": 0.00017908823089007457, | |
| "loss": 0.9212, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 0.9466666666666667, | |
| "grad_norm": 0.7063950300216675, | |
| "learning_rate": 0.00017842296304847893, | |
| "loss": 1.0076, | |
| "step": 71 | |
| }, | |
| { | |
| "epoch": 0.96, | |
| "grad_norm": 0.5694530606269836, | |
| "learning_rate": 0.00017774855506796496, | |
| "loss": 1.0417, | |
| "step": 72 | |
| }, | |
| { | |
| "epoch": 0.9733333333333334, | |
| "grad_norm": 0.6120775938034058, | |
| "learning_rate": 0.00017706508555028893, | |
| "loss": 1.0501, | |
| "step": 73 | |
| }, | |
| { | |
| "epoch": 0.9866666666666667, | |
| "grad_norm": 0.5728889107704163, | |
| "learning_rate": 0.0001763726341533227, | |
| "loss": 1.0024, | |
| "step": 74 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "grad_norm": 0.8452621102333069, | |
| "learning_rate": 0.00017567128158176953, | |
| "loss": 1.0966, | |
| "step": 75 | |
| }, | |
| { | |
| "epoch": 1.0133333333333334, | |
| "grad_norm": 0.5769606828689575, | |
| "learning_rate": 0.0001749611095777581, | |
| "loss": 0.8877, | |
| "step": 76 | |
| }, | |
| { | |
| "epoch": 1.0266666666666666, | |
| "grad_norm": 0.9046480059623718, | |
| "learning_rate": 0.00017424220091131535, | |
| "loss": 0.752, | |
| "step": 77 | |
| }, | |
| { | |
| "epoch": 1.04, | |
| "grad_norm": 0.4488053023815155, | |
| "learning_rate": 0.00017351463937072004, | |
| "loss": 0.7588, | |
| "step": 78 | |
| }, | |
| { | |
| "epoch": 1.0533333333333332, | |
| "grad_norm": 0.41479629278182983, | |
| "learning_rate": 0.00017277850975273696, | |
| "loss": 0.779, | |
| "step": 79 | |
| }, | |
| { | |
| "epoch": 1.0666666666666667, | |
| "grad_norm": 0.7192550301551819, | |
| "learning_rate": 0.000172033897852734, | |
| "loss": 0.7809, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 1.08, | |
| "grad_norm": 0.7553783655166626, | |
| "learning_rate": 0.00017128089045468294, | |
| "loss": 0.7421, | |
| "step": 81 | |
| }, | |
| { | |
| "epoch": 1.0933333333333333, | |
| "grad_norm": 0.5650737881660461, | |
| "learning_rate": 0.0001705195753210446, | |
| "loss": 0.7044, | |
| "step": 82 | |
| }, | |
| { | |
| "epoch": 1.1066666666666667, | |
| "grad_norm": 0.6692880988121033, | |
| "learning_rate": 0.0001697500411825403, | |
| "loss": 0.8415, | |
| "step": 83 | |
| }, | |
| { | |
| "epoch": 1.12, | |
| "grad_norm": 0.6710836291313171, | |
| "learning_rate": 0.00016897237772781044, | |
| "loss": 0.7247, | |
| "step": 84 | |
| }, | |
| { | |
| "epoch": 1.1333333333333333, | |
| "grad_norm": 0.5887194275856018, | |
| "learning_rate": 0.0001681866755929612, | |
| "loss": 0.7947, | |
| "step": 85 | |
| }, | |
| { | |
| "epoch": 1.1466666666666667, | |
| "grad_norm": 0.5538906455039978, | |
| "learning_rate": 0.00016739302635100108, | |
| "loss": 0.7337, | |
| "step": 86 | |
| }, | |
| { | |
| "epoch": 1.16, | |
| "grad_norm": 0.6018480062484741, | |
| "learning_rate": 0.00016659152250116812, | |
| "loss": 0.6801, | |
| "step": 87 | |
| }, | |
| { | |
| "epoch": 1.1733333333333333, | |
| "grad_norm": 0.548251748085022, | |
| "learning_rate": 0.00016578225745814907, | |
| "loss": 0.6898, | |
| "step": 88 | |
| }, | |
| { | |
| "epoch": 1.1866666666666668, | |
| "grad_norm": 0.49416568875312805, | |
| "learning_rate": 0.00016496532554119214, | |
| "loss": 0.719, | |
| "step": 89 | |
| }, | |
| { | |
| "epoch": 1.2, | |
| "grad_norm": 0.6101306676864624, | |
| "learning_rate": 0.000164140821963114, | |
| "loss": 0.7917, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 1.2133333333333334, | |
| "grad_norm": 0.588020920753479, | |
| "learning_rate": 0.000163308842819203, | |
| "loss": 0.8035, | |
| "step": 91 | |
| }, | |
| { | |
| "epoch": 1.2266666666666666, | |
| "grad_norm": 0.5376534461975098, | |
| "learning_rate": 0.00016246948507601914, | |
| "loss": 0.7816, | |
| "step": 92 | |
| }, | |
| { | |
| "epoch": 1.24, | |
| "grad_norm": 0.549625813961029, | |
| "learning_rate": 0.00016162284656009274, | |
| "loss": 0.7245, | |
| "step": 93 | |
| }, | |
| { | |
| "epoch": 1.2533333333333334, | |
| "grad_norm": 0.6054933667182922, | |
| "learning_rate": 0.0001607690259465229, | |
| "loss": 0.7484, | |
| "step": 94 | |
| }, | |
| { | |
| "epoch": 1.2666666666666666, | |
| "grad_norm": 0.5613316297531128, | |
| "learning_rate": 0.00015990812274747692, | |
| "loss": 0.7369, | |
| "step": 95 | |
| }, | |
| { | |
| "epoch": 1.28, | |
| "grad_norm": 0.5984250903129578, | |
| "learning_rate": 0.00015904023730059228, | |
| "loss": 0.891, | |
| "step": 96 | |
| }, | |
| { | |
| "epoch": 1.2933333333333334, | |
| "grad_norm": 0.6490495204925537, | |
| "learning_rate": 0.00015816547075728226, | |
| "loss": 0.775, | |
| "step": 97 | |
| }, | |
| { | |
| "epoch": 1.3066666666666666, | |
| "grad_norm": 0.6675053834915161, | |
| "learning_rate": 0.000157283925070947, | |
| "loss": 0.7565, | |
| "step": 98 | |
| }, | |
| { | |
| "epoch": 1.32, | |
| "grad_norm": 0.5397291779518127, | |
| "learning_rate": 0.00015639570298509064, | |
| "loss": 0.6685, | |
| "step": 99 | |
| }, | |
| { | |
| "epoch": 1.3333333333333333, | |
| "grad_norm": 0.5830179452896118, | |
| "learning_rate": 0.000155500908021347, | |
| "loss": 0.8132, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 1.3466666666666667, | |
| "grad_norm": 0.511802077293396, | |
| "learning_rate": 0.00015459964446741382, | |
| "loss": 0.7664, | |
| "step": 101 | |
| }, | |
| { | |
| "epoch": 1.3599999999999999, | |
| "grad_norm": 1.350032091140747, | |
| "learning_rate": 0.0001536920173648984, | |
| "loss": 0.8179, | |
| "step": 102 | |
| }, | |
| { | |
| "epoch": 1.3733333333333333, | |
| "grad_norm": 0.7308780550956726, | |
| "learning_rate": 0.00015277813249707487, | |
| "loss": 0.8401, | |
| "step": 103 | |
| }, | |
| { | |
| "epoch": 1.3866666666666667, | |
| "grad_norm": 0.5292226076126099, | |
| "learning_rate": 0.0001518580963765555, | |
| "loss": 0.6367, | |
| "step": 104 | |
| }, | |
| { | |
| "epoch": 1.4, | |
| "grad_norm": 0.6958481073379517, | |
| "learning_rate": 0.00015093201623287631, | |
| "loss": 0.7173, | |
| "step": 105 | |
| }, | |
| { | |
| "epoch": 1.4133333333333333, | |
| "grad_norm": 0.7024071216583252, | |
| "learning_rate": 0.00015000000000000001, | |
| "loss": 0.5604, | |
| "step": 106 | |
| }, | |
| { | |
| "epoch": 1.4266666666666667, | |
| "grad_norm": 0.5597444772720337, | |
| "learning_rate": 0.00014906215630373606, | |
| "loss": 0.6767, | |
| "step": 107 | |
| }, | |
| { | |
| "epoch": 1.44, | |
| "grad_norm": 0.6003674864768982, | |
| "learning_rate": 0.00014811859444908052, | |
| "loss": 0.8149, | |
| "step": 108 | |
| }, | |
| { | |
| "epoch": 1.4533333333333334, | |
| "grad_norm": 0.5815126895904541, | |
| "learning_rate": 0.00014716942440747664, | |
| "loss": 0.7801, | |
| "step": 109 | |
| }, | |
| { | |
| "epoch": 1.4666666666666668, | |
| "grad_norm": 0.7836669683456421, | |
| "learning_rate": 0.0001462147568039977, | |
| "loss": 0.8452, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 1.48, | |
| "grad_norm": 0.8783419132232666, | |
| "learning_rate": 0.00014525470290445392, | |
| "loss": 0.8257, | |
| "step": 111 | |
| }, | |
| { | |
| "epoch": 1.4933333333333334, | |
| "grad_norm": 0.46948131918907166, | |
| "learning_rate": 0.00014428937460242417, | |
| "loss": 0.7481, | |
| "step": 112 | |
| }, | |
| { | |
| "epoch": 1.5066666666666668, | |
| "grad_norm": 0.5725980401039124, | |
| "learning_rate": 0.00014331888440621533, | |
| "loss": 0.8267, | |
| "step": 113 | |
| }, | |
| { | |
| "epoch": 1.52, | |
| "grad_norm": 0.4418632686138153, | |
| "learning_rate": 0.00014234334542574906, | |
| "loss": 0.7631, | |
| "step": 114 | |
| }, | |
| { | |
| "epoch": 1.5333333333333332, | |
| "grad_norm": 0.6430942416191101, | |
| "learning_rate": 0.00014136287135937915, | |
| "loss": 0.8817, | |
| "step": 115 | |
| }, | |
| { | |
| "epoch": 1.5466666666666666, | |
| "grad_norm": 0.5670009255409241, | |
| "learning_rate": 0.00014037757648064018, | |
| "loss": 0.5991, | |
| "step": 116 | |
| }, | |
| { | |
| "epoch": 1.56, | |
| "grad_norm": 0.5407504439353943, | |
| "learning_rate": 0.00013938757562492873, | |
| "loss": 0.6898, | |
| "step": 117 | |
| }, | |
| { | |
| "epoch": 1.5733333333333333, | |
| "grad_norm": 0.5176808834075928, | |
| "learning_rate": 0.00013839298417611963, | |
| "loss": 0.731, | |
| "step": 118 | |
| }, | |
| { | |
| "epoch": 1.5866666666666667, | |
| "grad_norm": 0.9752798080444336, | |
| "learning_rate": 0.00013739391805311793, | |
| "loss": 0.6736, | |
| "step": 119 | |
| }, | |
| { | |
| "epoch": 1.6, | |
| "grad_norm": 0.7100059390068054, | |
| "learning_rate": 0.00013639049369634876, | |
| "loss": 0.7369, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 1.6133333333333333, | |
| "grad_norm": 0.6285961270332336, | |
| "learning_rate": 0.0001353828280541861, | |
| "loss": 0.721, | |
| "step": 121 | |
| }, | |
| { | |
| "epoch": 1.6266666666666667, | |
| "grad_norm": 0.5981026291847229, | |
| "learning_rate": 0.00013437103856932264, | |
| "loss": 0.8094, | |
| "step": 122 | |
| }, | |
| { | |
| "epoch": 1.6400000000000001, | |
| "grad_norm": 0.6587502360343933, | |
| "learning_rate": 0.00013335524316508208, | |
| "loss": 0.7646, | |
| "step": 123 | |
| }, | |
| { | |
| "epoch": 1.6533333333333333, | |
| "grad_norm": 0.5544253587722778, | |
| "learning_rate": 0.00013233556023167485, | |
| "loss": 0.7165, | |
| "step": 124 | |
| }, | |
| { | |
| "epoch": 1.6666666666666665, | |
| "grad_norm": 0.6012857556343079, | |
| "learning_rate": 0.00013131210861240026, | |
| "loss": 0.8104, | |
| "step": 125 | |
| }, | |
| { | |
| "epoch": 1.6800000000000002, | |
| "grad_norm": 0.5157524347305298, | |
| "learning_rate": 0.00013028500758979506, | |
| "loss": 0.8585, | |
| "step": 126 | |
| }, | |
| { | |
| "epoch": 1.6933333333333334, | |
| "grad_norm": 0.4888676702976227, | |
| "learning_rate": 0.00012925437687173142, | |
| "loss": 0.6579, | |
| "step": 127 | |
| }, | |
| { | |
| "epoch": 1.7066666666666666, | |
| "grad_norm": 0.5127140879631042, | |
| "learning_rate": 0.00012822033657746478, | |
| "loss": 0.7432, | |
| "step": 128 | |
| }, | |
| { | |
| "epoch": 1.72, | |
| "grad_norm": 0.6154641509056091, | |
| "learning_rate": 0.0001271830072236343, | |
| "loss": 0.7322, | |
| "step": 129 | |
| }, | |
| { | |
| "epoch": 1.7333333333333334, | |
| "grad_norm": 0.5081548690795898, | |
| "learning_rate": 0.00012614250971021657, | |
| "loss": 0.7547, | |
| "step": 130 | |
| }, | |
| { | |
| "epoch": 1.7466666666666666, | |
| "grad_norm": 0.6808217763900757, | |
| "learning_rate": 0.00012509896530643488, | |
| "loss": 0.6855, | |
| "step": 131 | |
| }, | |
| { | |
| "epoch": 1.76, | |
| "grad_norm": 0.8672941327095032, | |
| "learning_rate": 0.00012405249563662537, | |
| "loss": 0.6332, | |
| "step": 132 | |
| }, | |
| { | |
| "epoch": 1.7733333333333334, | |
| "grad_norm": 0.6130337119102478, | |
| "learning_rate": 0.00012300322266606178, | |
| "loss": 0.7453, | |
| "step": 133 | |
| }, | |
| { | |
| "epoch": 1.7866666666666666, | |
| "grad_norm": 0.739959180355072, | |
| "learning_rate": 0.00012195126868674051, | |
| "loss": 0.687, | |
| "step": 134 | |
| }, | |
| { | |
| "epoch": 1.8, | |
| "grad_norm": 0.5801121592521667, | |
| "learning_rate": 0.00012089675630312754, | |
| "loss": 0.7059, | |
| "step": 135 | |
| }, | |
| { | |
| "epoch": 1.8133333333333335, | |
| "grad_norm": 0.5766938328742981, | |
| "learning_rate": 0.000119839808417869, | |
| "loss": 0.737, | |
| "step": 136 | |
| }, | |
| { | |
| "epoch": 1.8266666666666667, | |
| "grad_norm": 0.6705268621444702, | |
| "learning_rate": 0.00011878054821746703, | |
| "loss": 0.7358, | |
| "step": 137 | |
| }, | |
| { | |
| "epoch": 1.8399999999999999, | |
| "grad_norm": 0.7814889550209045, | |
| "learning_rate": 0.0001177190991579223, | |
| "loss": 0.7021, | |
| "step": 138 | |
| }, | |
| { | |
| "epoch": 1.8533333333333335, | |
| "grad_norm": 0.6991515755653381, | |
| "learning_rate": 0.00011665558495034546, | |
| "loss": 0.7325, | |
| "step": 139 | |
| }, | |
| { | |
| "epoch": 1.8666666666666667, | |
| "grad_norm": 0.8299288749694824, | |
| "learning_rate": 0.00011559012954653865, | |
| "loss": 0.7128, | |
| "step": 140 | |
| }, | |
| { | |
| "epoch": 1.88, | |
| "grad_norm": 0.7293754816055298, | |
| "learning_rate": 0.00011452285712454904, | |
| "loss": 0.5813, | |
| "step": 141 | |
| }, | |
| { | |
| "epoch": 1.8933333333333333, | |
| "grad_norm": 0.6560428738594055, | |
| "learning_rate": 0.00011345389207419588, | |
| "loss": 0.6352, | |
| "step": 142 | |
| }, | |
| { | |
| "epoch": 1.9066666666666667, | |
| "grad_norm": 0.54889976978302, | |
| "learning_rate": 0.00011238335898257304, | |
| "loss": 0.7372, | |
| "step": 143 | |
| }, | |
| { | |
| "epoch": 1.92, | |
| "grad_norm": 0.5890987515449524, | |
| "learning_rate": 0.00011131138261952845, | |
| "loss": 0.6402, | |
| "step": 144 | |
| }, | |
| { | |
| "epoch": 1.9333333333333333, | |
| "grad_norm": 0.8450446128845215, | |
| "learning_rate": 0.00011023808792312227, | |
| "loss": 0.7152, | |
| "step": 145 | |
| }, | |
| { | |
| "epoch": 1.9466666666666668, | |
| "grad_norm": 0.7649719715118408, | |
| "learning_rate": 0.0001091635999850655, | |
| "loss": 0.6831, | |
| "step": 146 | |
| }, | |
| { | |
| "epoch": 1.96, | |
| "grad_norm": 0.6236613988876343, | |
| "learning_rate": 0.00010808804403614043, | |
| "loss": 0.6671, | |
| "step": 147 | |
| }, | |
| { | |
| "epoch": 1.9733333333333334, | |
| "grad_norm": 0.6295299530029297, | |
| "learning_rate": 0.00010701154543160541, | |
| "loss": 0.8226, | |
| "step": 148 | |
| }, | |
| { | |
| "epoch": 1.9866666666666668, | |
| "grad_norm": 0.641965389251709, | |
| "learning_rate": 0.00010593422963658452, | |
| "loss": 0.6567, | |
| "step": 149 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "grad_norm": 0.779958188533783, | |
| "learning_rate": 0.00010485622221144484, | |
| "loss": 0.6346, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 2.013333333333333, | |
| "grad_norm": 0.6322675347328186, | |
| "learning_rate": 0.00010377764879716234, | |
| "loss": 0.5576, | |
| "step": 151 | |
| }, | |
| { | |
| "epoch": 2.026666666666667, | |
| "grad_norm": 0.7052869200706482, | |
| "learning_rate": 0.00010269863510067872, | |
| "loss": 0.4362, | |
| "step": 152 | |
| }, | |
| { | |
| "epoch": 2.04, | |
| "grad_norm": 0.4991523027420044, | |
| "learning_rate": 0.00010161930688025017, | |
| "loss": 0.4478, | |
| "step": 153 | |
| }, | |
| { | |
| "epoch": 2.0533333333333332, | |
| "grad_norm": 0.4096013903617859, | |
| "learning_rate": 0.00010053978993079045, | |
| "loss": 0.5258, | |
| "step": 154 | |
| }, | |
| { | |
| "epoch": 2.066666666666667, | |
| "grad_norm": 0.4861268103122711, | |
| "learning_rate": 9.946021006920959e-05, | |
| "loss": 0.5085, | |
| "step": 155 | |
| }, | |
| { | |
| "epoch": 2.08, | |
| "grad_norm": 0.5277904272079468, | |
| "learning_rate": 9.838069311974986e-05, | |
| "loss": 0.4549, | |
| "step": 156 | |
| }, | |
| { | |
| "epoch": 2.0933333333333333, | |
| "grad_norm": 0.640762209892273, | |
| "learning_rate": 9.730136489932133e-05, | |
| "loss": 0.5168, | |
| "step": 157 | |
| }, | |
| { | |
| "epoch": 2.1066666666666665, | |
| "grad_norm": 0.6294235587120056, | |
| "learning_rate": 9.622235120283769e-05, | |
| "loss": 0.3587, | |
| "step": 158 | |
| }, | |
| { | |
| "epoch": 2.12, | |
| "grad_norm": 0.6455483436584473, | |
| "learning_rate": 9.514377778855521e-05, | |
| "loss": 0.5013, | |
| "step": 159 | |
| }, | |
| { | |
| "epoch": 2.1333333333333333, | |
| "grad_norm": 0.7052115201950073, | |
| "learning_rate": 9.406577036341548e-05, | |
| "loss": 0.458, | |
| "step": 160 | |
| }, | |
| { | |
| "epoch": 2.1466666666666665, | |
| "grad_norm": 0.6517965197563171, | |
| "learning_rate": 9.298845456839459e-05, | |
| "loss": 0.4427, | |
| "step": 161 | |
| }, | |
| { | |
| "epoch": 2.16, | |
| "grad_norm": 1.0105723142623901, | |
| "learning_rate": 9.19119559638596e-05, | |
| "loss": 0.5482, | |
| "step": 162 | |
| }, | |
| { | |
| "epoch": 2.1733333333333333, | |
| "grad_norm": 0.6122080683708191, | |
| "learning_rate": 9.083640001493454e-05, | |
| "loss": 0.3708, | |
| "step": 163 | |
| }, | |
| { | |
| "epoch": 2.1866666666666665, | |
| "grad_norm": 0.7772620320320129, | |
| "learning_rate": 8.976191207687775e-05, | |
| "loss": 0.4423, | |
| "step": 164 | |
| }, | |
| { | |
| "epoch": 2.2, | |
| "grad_norm": 0.5697551965713501, | |
| "learning_rate": 8.868861738047158e-05, | |
| "loss": 0.4544, | |
| "step": 165 | |
| }, | |
| { | |
| "epoch": 2.2133333333333334, | |
| "grad_norm": 0.6369841694831848, | |
| "learning_rate": 8.7616641017427e-05, | |
| "loss": 0.4458, | |
| "step": 166 | |
| }, | |
| { | |
| "epoch": 2.2266666666666666, | |
| "grad_norm": 0.6867621541023254, | |
| "learning_rate": 8.654610792580415e-05, | |
| "loss": 0.3971, | |
| "step": 167 | |
| }, | |
| { | |
| "epoch": 2.24, | |
| "grad_norm": 0.6379404067993164, | |
| "learning_rate": 8.5477142875451e-05, | |
| "loss": 0.409, | |
| "step": 168 | |
| }, | |
| { | |
| "epoch": 2.2533333333333334, | |
| "grad_norm": 0.5854802131652832, | |
| "learning_rate": 8.440987045346134e-05, | |
| "loss": 0.4489, | |
| "step": 169 | |
| }, | |
| { | |
| "epoch": 2.2666666666666666, | |
| "grad_norm": 0.6577348113059998, | |
| "learning_rate": 8.334441504965455e-05, | |
| "loss": 0.5224, | |
| "step": 170 | |
| }, | |
| { | |
| "epoch": 2.2800000000000002, | |
| "grad_norm": 0.6020484566688538, | |
| "learning_rate": 8.228090084207774e-05, | |
| "loss": 0.3876, | |
| "step": 171 | |
| }, | |
| { | |
| "epoch": 2.2933333333333334, | |
| "grad_norm": 0.5832955241203308, | |
| "learning_rate": 8.1219451782533e-05, | |
| "loss": 0.4096, | |
| "step": 172 | |
| }, | |
| { | |
| "epoch": 2.3066666666666666, | |
| "grad_norm": 0.6917557716369629, | |
| "learning_rate": 8.016019158213101e-05, | |
| "loss": 0.3827, | |
| "step": 173 | |
| }, | |
| { | |
| "epoch": 2.32, | |
| "grad_norm": 0.6793459057807922, | |
| "learning_rate": 7.91032436968725e-05, | |
| "loss": 0.3801, | |
| "step": 174 | |
| }, | |
| { | |
| "epoch": 2.3333333333333335, | |
| "grad_norm": 0.5776801705360413, | |
| "learning_rate": 7.804873131325954e-05, | |
| "loss": 0.4567, | |
| "step": 175 | |
| }, | |
| { | |
| "epoch": 2.3466666666666667, | |
| "grad_norm": 0.7591734528541565, | |
| "learning_rate": 7.699677733393826e-05, | |
| "loss": 0.4957, | |
| "step": 176 | |
| }, | |
| { | |
| "epoch": 2.36, | |
| "grad_norm": 0.8160498142242432, | |
| "learning_rate": 7.594750436337467e-05, | |
| "loss": 0.4485, | |
| "step": 177 | |
| }, | |
| { | |
| "epoch": 2.3733333333333335, | |
| "grad_norm": 0.5776082873344421, | |
| "learning_rate": 7.490103469356513e-05, | |
| "loss": 0.5212, | |
| "step": 178 | |
| }, | |
| { | |
| "epoch": 2.3866666666666667, | |
| "grad_norm": 0.6858205795288086, | |
| "learning_rate": 7.385749028978346e-05, | |
| "loss": 0.3985, | |
| "step": 179 | |
| }, | |
| { | |
| "epoch": 2.4, | |
| "grad_norm": 0.7106760740280151, | |
| "learning_rate": 7.281699277636572e-05, | |
| "loss": 0.447, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 2.413333333333333, | |
| "grad_norm": 0.5468612313270569, | |
| "learning_rate": 7.177966342253524e-05, | |
| "loss": 0.3429, | |
| "step": 181 | |
| }, | |
| { | |
| "epoch": 2.4266666666666667, | |
| "grad_norm": 0.6179500222206116, | |
| "learning_rate": 7.07456231282686e-05, | |
| "loss": 0.4873, | |
| "step": 182 | |
| }, | |
| { | |
| "epoch": 2.44, | |
| "grad_norm": 0.677168607711792, | |
| "learning_rate": 6.971499241020495e-05, | |
| "loss": 0.5149, | |
| "step": 183 | |
| }, | |
| { | |
| "epoch": 2.453333333333333, | |
| "grad_norm": 0.7949701547622681, | |
| "learning_rate": 6.868789138759976e-05, | |
| "loss": 0.5183, | |
| "step": 184 | |
| }, | |
| { | |
| "epoch": 2.466666666666667, | |
| "grad_norm": 0.631366491317749, | |
| "learning_rate": 6.766443976832517e-05, | |
| "loss": 0.3915, | |
| "step": 185 | |
| }, | |
| { | |
| "epoch": 2.48, | |
| "grad_norm": 0.6317359805107117, | |
| "learning_rate": 6.664475683491796e-05, | |
| "loss": 0.4246, | |
| "step": 186 | |
| }, | |
| { | |
| "epoch": 2.493333333333333, | |
| "grad_norm": 0.7377456426620483, | |
| "learning_rate": 6.562896143067734e-05, | |
| "loss": 0.3572, | |
| "step": 187 | |
| }, | |
| { | |
| "epoch": 2.506666666666667, | |
| "grad_norm": 0.7473776340484619, | |
| "learning_rate": 6.461717194581393e-05, | |
| "loss": 0.4051, | |
| "step": 188 | |
| }, | |
| { | |
| "epoch": 2.52, | |
| "grad_norm": 0.6155073046684265, | |
| "learning_rate": 6.360950630365126e-05, | |
| "loss": 0.4465, | |
| "step": 189 | |
| }, | |
| { | |
| "epoch": 2.533333333333333, | |
| "grad_norm": 0.599367082118988, | |
| "learning_rate": 6.260608194688206e-05, | |
| "loss": 0.4863, | |
| "step": 190 | |
| }, | |
| { | |
| "epoch": 2.546666666666667, | |
| "grad_norm": 0.6318126320838928, | |
| "learning_rate": 6.160701582388038e-05, | |
| "loss": 0.5023, | |
| "step": 191 | |
| }, | |
| { | |
| "epoch": 2.56, | |
| "grad_norm": 0.6112634539604187, | |
| "learning_rate": 6.061242437507131e-05, | |
| "loss": 0.5643, | |
| "step": 192 | |
| }, | |
| { | |
| "epoch": 2.5733333333333333, | |
| "grad_norm": 0.9118645787239075, | |
| "learning_rate": 5.962242351935985e-05, | |
| "loss": 0.4692, | |
| "step": 193 | |
| }, | |
| { | |
| "epoch": 2.586666666666667, | |
| "grad_norm": 0.7344533801078796, | |
| "learning_rate": 5.863712864062089e-05, | |
| "loss": 0.4355, | |
| "step": 194 | |
| }, | |
| { | |
| "epoch": 2.6, | |
| "grad_norm": 0.6159957051277161, | |
| "learning_rate": 5.765665457425102e-05, | |
| "loss": 0.5576, | |
| "step": 195 | |
| }, | |
| { | |
| "epoch": 2.6133333333333333, | |
| "grad_norm": 0.632001519203186, | |
| "learning_rate": 5.668111559378471e-05, | |
| "loss": 0.5418, | |
| "step": 196 | |
| }, | |
| { | |
| "epoch": 2.626666666666667, | |
| "grad_norm": 0.7217976450920105, | |
| "learning_rate": 5.571062539757581e-05, | |
| "loss": 0.5315, | |
| "step": 197 | |
| }, | |
| { | |
| "epoch": 2.64, | |
| "grad_norm": 0.5802445411682129, | |
| "learning_rate": 5.474529709554612e-05, | |
| "loss": 0.5183, | |
| "step": 198 | |
| }, | |
| { | |
| "epoch": 2.6533333333333333, | |
| "grad_norm": 0.8810819983482361, | |
| "learning_rate": 5.378524319600231e-05, | |
| "loss": 0.5234, | |
| "step": 199 | |
| }, | |
| { | |
| "epoch": 2.6666666666666665, | |
| "grad_norm": 0.8704924583435059, | |
| "learning_rate": 5.283057559252341e-05, | |
| "loss": 0.4652, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 2.68, | |
| "grad_norm": 0.6765443682670593, | |
| "learning_rate": 5.1881405550919493e-05, | |
| "loss": 0.4305, | |
| "step": 201 | |
| }, | |
| { | |
| "epoch": 2.6933333333333334, | |
| "grad_norm": 0.7338111400604248, | |
| "learning_rate": 5.0937843696263966e-05, | |
| "loss": 0.5201, | |
| "step": 202 | |
| }, | |
| { | |
| "epoch": 2.7066666666666666, | |
| "grad_norm": 0.8355885744094849, | |
| "learning_rate": 5.000000000000002e-05, | |
| "loss": 0.3281, | |
| "step": 203 | |
| }, | |
| { | |
| "epoch": 2.7199999999999998, | |
| "grad_norm": 0.6787794828414917, | |
| "learning_rate": 4.9067983767123736e-05, | |
| "loss": 0.5057, | |
| "step": 204 | |
| }, | |
| { | |
| "epoch": 2.7333333333333334, | |
| "grad_norm": 0.6520538330078125, | |
| "learning_rate": 4.814190362344454e-05, | |
| "loss": 0.3988, | |
| "step": 205 | |
| }, | |
| { | |
| "epoch": 2.7466666666666666, | |
| "grad_norm": 0.9957300424575806, | |
| "learning_rate": 4.722186750292511e-05, | |
| "loss": 0.4347, | |
| "step": 206 | |
| }, | |
| { | |
| "epoch": 2.76, | |
| "grad_norm": 0.6702403426170349, | |
| "learning_rate": 4.630798263510162e-05, | |
| "loss": 0.4431, | |
| "step": 207 | |
| }, | |
| { | |
| "epoch": 2.7733333333333334, | |
| "grad_norm": 0.6874341368675232, | |
| "learning_rate": 4.540035553258619e-05, | |
| "loss": 0.5117, | |
| "step": 208 | |
| }, | |
| { | |
| "epoch": 2.7866666666666666, | |
| "grad_norm": 0.5381680727005005, | |
| "learning_rate": 4.449909197865303e-05, | |
| "loss": 0.4461, | |
| "step": 209 | |
| }, | |
| { | |
| "epoch": 2.8, | |
| "grad_norm": 0.5413621068000793, | |
| "learning_rate": 4.360429701490934e-05, | |
| "loss": 0.5286, | |
| "step": 210 | |
| }, | |
| { | |
| "epoch": 2.8133333333333335, | |
| "grad_norm": 0.5521364808082581, | |
| "learning_rate": 4.271607492905303e-05, | |
| "loss": 0.4846, | |
| "step": 211 | |
| }, | |
| { | |
| "epoch": 2.8266666666666667, | |
| "grad_norm": 0.5857036709785461, | |
| "learning_rate": 4.183452924271776e-05, | |
| "loss": 0.4799, | |
| "step": 212 | |
| }, | |
| { | |
| "epoch": 2.84, | |
| "grad_norm": 0.7210860848426819, | |
| "learning_rate": 4.0959762699407766e-05, | |
| "loss": 0.3214, | |
| "step": 213 | |
| }, | |
| { | |
| "epoch": 2.8533333333333335, | |
| "grad_norm": 0.6596788763999939, | |
| "learning_rate": 4.009187725252309e-05, | |
| "loss": 0.4818, | |
| "step": 214 | |
| }, | |
| { | |
| "epoch": 2.8666666666666667, | |
| "grad_norm": 0.6683171987533569, | |
| "learning_rate": 3.9230974053477086e-05, | |
| "loss": 0.4854, | |
| "step": 215 | |
| }, | |
| { | |
| "epoch": 2.88, | |
| "grad_norm": 0.6668866872787476, | |
| "learning_rate": 3.8377153439907266e-05, | |
| "loss": 0.3712, | |
| "step": 216 | |
| }, | |
| { | |
| "epoch": 2.8933333333333335, | |
| "grad_norm": 0.8019754886627197, | |
| "learning_rate": 3.7530514923980884e-05, | |
| "loss": 0.3826, | |
| "step": 217 | |
| }, | |
| { | |
| "epoch": 2.9066666666666667, | |
| "grad_norm": 0.7723852396011353, | |
| "learning_rate": 3.669115718079702e-05, | |
| "loss": 0.3923, | |
| "step": 218 | |
| }, | |
| { | |
| "epoch": 2.92, | |
| "grad_norm": 0.8932898044586182, | |
| "learning_rate": 3.585917803688603e-05, | |
| "loss": 0.4372, | |
| "step": 219 | |
| }, | |
| { | |
| "epoch": 2.9333333333333336, | |
| "grad_norm": 0.8380217552185059, | |
| "learning_rate": 3.503467445880789e-05, | |
| "loss": 0.6057, | |
| "step": 220 | |
| }, | |
| { | |
| "epoch": 2.9466666666666668, | |
| "grad_norm": 0.7885947227478027, | |
| "learning_rate": 3.421774254185096e-05, | |
| "loss": 0.4252, | |
| "step": 221 | |
| }, | |
| { | |
| "epoch": 2.96, | |
| "grad_norm": 0.6929410099983215, | |
| "learning_rate": 3.340847749883191e-05, | |
| "loss": 0.4339, | |
| "step": 222 | |
| }, | |
| { | |
| "epoch": 2.9733333333333336, | |
| "grad_norm": 0.5754182934761047, | |
| "learning_rate": 3.2606973648998915e-05, | |
| "loss": 0.5381, | |
| "step": 223 | |
| }, | |
| { | |
| "epoch": 2.986666666666667, | |
| "grad_norm": 0.5466946363449097, | |
| "learning_rate": 3.1813324407038825e-05, | |
| "loss": 0.4699, | |
| "step": 224 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "grad_norm": 0.6496762037277222, | |
| "learning_rate": 3.102762227218957e-05, | |
| "loss": 0.4392, | |
| "step": 225 | |
| }, | |
| { | |
| "epoch": 3.013333333333333, | |
| "grad_norm": 0.5232837200164795, | |
| "learning_rate": 3.0249958817459722e-05, | |
| "loss": 0.3204, | |
| "step": 226 | |
| }, | |
| { | |
| "epoch": 3.026666666666667, | |
| "grad_norm": 0.6648370623588562, | |
| "learning_rate": 2.9480424678955443e-05, | |
| "loss": 0.3054, | |
| "step": 227 | |
| }, | |
| { | |
| "epoch": 3.04, | |
| "grad_norm": 0.5386692881584167, | |
| "learning_rate": 2.8719109545317103e-05, | |
| "loss": 0.3565, | |
| "step": 228 | |
| }, | |
| { | |
| "epoch": 3.0533333333333332, | |
| "grad_norm": 0.5926947593688965, | |
| "learning_rate": 2.7966102147265994e-05, | |
| "loss": 0.298, | |
| "step": 229 | |
| }, | |
| { | |
| "epoch": 3.066666666666667, | |
| "grad_norm": 0.5218151807785034, | |
| "learning_rate": 2.722149024726307e-05, | |
| "loss": 0.242, | |
| "step": 230 | |
| }, | |
| { | |
| "epoch": 3.08, | |
| "grad_norm": 0.5256300568580627, | |
| "learning_rate": 2.6485360629279987e-05, | |
| "loss": 0.3497, | |
| "step": 231 | |
| }, | |
| { | |
| "epoch": 3.0933333333333333, | |
| "grad_norm": 0.5321183204650879, | |
| "learning_rate": 2.5757799088684654e-05, | |
| "loss": 0.2814, | |
| "step": 232 | |
| }, | |
| { | |
| "epoch": 3.1066666666666665, | |
| "grad_norm": 0.4942474663257599, | |
| "learning_rate": 2.5038890422241958e-05, | |
| "loss": 0.3361, | |
| "step": 233 | |
| }, | |
| { | |
| "epoch": 3.12, | |
| "grad_norm": 0.6570059657096863, | |
| "learning_rate": 2.432871841823047e-05, | |
| "loss": 0.2742, | |
| "step": 234 | |
| }, | |
| { | |
| "epoch": 3.1333333333333333, | |
| "grad_norm": 0.6714842319488525, | |
| "learning_rate": 2.3627365846677306e-05, | |
| "loss": 0.3261, | |
| "step": 235 | |
| }, | |
| { | |
| "epoch": 3.1466666666666665, | |
| "grad_norm": 0.68682861328125, | |
| "learning_rate": 2.2934914449711087e-05, | |
| "loss": 0.2931, | |
| "step": 236 | |
| }, | |
| { | |
| "epoch": 3.16, | |
| "grad_norm": 0.519067645072937, | |
| "learning_rate": 2.2251444932035094e-05, | |
| "loss": 0.323, | |
| "step": 237 | |
| }, | |
| { | |
| "epoch": 3.1733333333333333, | |
| "grad_norm": 0.5991199612617493, | |
| "learning_rate": 2.157703695152109e-05, | |
| "loss": 0.2603, | |
| "step": 238 | |
| }, | |
| { | |
| "epoch": 3.1866666666666665, | |
| "grad_norm": 0.7177437543869019, | |
| "learning_rate": 2.091176910992545e-05, | |
| "loss": 0.3499, | |
| "step": 239 | |
| }, | |
| { | |
| "epoch": 3.2, | |
| "grad_norm": 0.6380268335342407, | |
| "learning_rate": 2.025571894372794e-05, | |
| "loss": 0.3064, | |
| "step": 240 | |
| }, | |
| { | |
| "epoch": 3.2133333333333334, | |
| "grad_norm": 0.5707582235336304, | |
| "learning_rate": 1.9608962915094996e-05, | |
| "loss": 0.2747, | |
| "step": 241 | |
| }, | |
| { | |
| "epoch": 3.2266666666666666, | |
| "grad_norm": 0.6281158328056335, | |
| "learning_rate": 1.897157640296825e-05, | |
| "loss": 0.2461, | |
| "step": 242 | |
| }, | |
| { | |
| "epoch": 3.24, | |
| "grad_norm": 0.6357036232948303, | |
| "learning_rate": 1.8343633694278895e-05, | |
| "loss": 0.2846, | |
| "step": 243 | |
| }, | |
| { | |
| "epoch": 3.2533333333333334, | |
| "grad_norm": 0.7706279754638672, | |
| "learning_rate": 1.772520797528988e-05, | |
| "loss": 0.2931, | |
| "step": 244 | |
| }, | |
| { | |
| "epoch": 3.2666666666666666, | |
| "grad_norm": 0.5687737464904785, | |
| "learning_rate": 1.7116371323065883e-05, | |
| "loss": 0.2162, | |
| "step": 245 | |
| }, | |
| { | |
| "epoch": 3.2800000000000002, | |
| "grad_norm": 0.5638925433158875, | |
| "learning_rate": 1.65171946970729e-05, | |
| "loss": 0.2219, | |
| "step": 246 | |
| }, | |
| { | |
| "epoch": 3.2933333333333334, | |
| "grad_norm": 0.6213463544845581, | |
| "learning_rate": 1.592774793090792e-05, | |
| "loss": 0.3329, | |
| "step": 247 | |
| }, | |
| { | |
| "epoch": 3.3066666666666666, | |
| "grad_norm": 0.6423382759094238, | |
| "learning_rate": 1.534809972415998e-05, | |
| "loss": 0.225, | |
| "step": 248 | |
| }, | |
| { | |
| "epoch": 3.32, | |
| "grad_norm": 0.818946361541748, | |
| "learning_rate": 1.4778317634403083e-05, | |
| "loss": 0.2252, | |
| "step": 249 | |
| }, | |
| { | |
| "epoch": 3.3333333333333335, | |
| "grad_norm": 0.5952211022377014, | |
| "learning_rate": 1.4218468069322578e-05, | |
| "loss": 0.2295, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 3.3466666666666667, | |
| "grad_norm": 0.5699911117553711, | |
| "learning_rate": 1.3668616278975343e-05, | |
| "loss": 0.3132, | |
| "step": 251 | |
| }, | |
| { | |
| "epoch": 3.36, | |
| "grad_norm": 0.7674257755279541, | |
| "learning_rate": 1.3128826348184887e-05, | |
| "loss": 0.3487, | |
| "step": 252 | |
| }, | |
| { | |
| "epoch": 3.3733333333333335, | |
| "grad_norm": 0.6047098636627197, | |
| "learning_rate": 1.2599161189072427e-05, | |
| "loss": 0.1991, | |
| "step": 253 | |
| }, | |
| { | |
| "epoch": 3.3866666666666667, | |
| "grad_norm": 0.6673244833946228, | |
| "learning_rate": 1.2079682533724379e-05, | |
| "loss": 0.2233, | |
| "step": 254 | |
| }, | |
| { | |
| "epoch": 3.4, | |
| "grad_norm": 0.7468060851097107, | |
| "learning_rate": 1.1570450926997655e-05, | |
| "loss": 0.2155, | |
| "step": 255 | |
| }, | |
| { | |
| "epoch": 3.413333333333333, | |
| "grad_norm": 0.6119690537452698, | |
| "learning_rate": 1.1071525719463095e-05, | |
| "loss": 0.1624, | |
| "step": 256 | |
| }, | |
| { | |
| "epoch": 3.4266666666666667, | |
| "grad_norm": 0.5702852606773376, | |
| "learning_rate": 1.0582965060488359e-05, | |
| "loss": 0.3134, | |
| "step": 257 | |
| }, | |
| { | |
| "epoch": 3.44, | |
| "grad_norm": 0.9024640321731567, | |
| "learning_rate": 1.010482589146048e-05, | |
| "loss": 0.3316, | |
| "step": 258 | |
| }, | |
| { | |
| "epoch": 3.453333333333333, | |
| "grad_norm": 0.6158623695373535, | |
| "learning_rate": 9.637163939149485e-06, | |
| "loss": 0.2637, | |
| "step": 259 | |
| }, | |
| { | |
| "epoch": 3.466666666666667, | |
| "grad_norm": 0.5979247689247131, | |
| "learning_rate": 9.180033709213454e-06, | |
| "loss": 0.3148, | |
| "step": 260 | |
| }, | |
| { | |
| "epoch": 3.48, | |
| "grad_norm": 0.5976862907409668, | |
| "learning_rate": 8.733488479845997e-06, | |
| "loss": 0.293, | |
| "step": 261 | |
| }, | |
| { | |
| "epoch": 3.493333333333333, | |
| "grad_norm": 0.6761628985404968, | |
| "learning_rate": 8.297580295566575e-06, | |
| "loss": 0.2675, | |
| "step": 262 | |
| }, | |
| { | |
| "epoch": 3.506666666666667, | |
| "grad_norm": 0.7228958606719971, | |
| "learning_rate": 7.872359961154906e-06, | |
| "loss": 0.3601, | |
| "step": 263 | |
| }, | |
| { | |
| "epoch": 3.52, | |
| "grad_norm": 0.6675010919570923, | |
| "learning_rate": 7.457877035729588e-06, | |
| "loss": 0.2551, | |
| "step": 264 | |
| }, | |
| { | |
| "epoch": 3.533333333333333, | |
| "grad_norm": 0.6560245752334595, | |
| "learning_rate": 7.054179826972074e-06, | |
| "loss": 0.1799, | |
| "step": 265 | |
| }, | |
| { | |
| "epoch": 3.546666666666667, | |
| "grad_norm": 0.6431569457054138, | |
| "learning_rate": 6.661315385496425e-06, | |
| "loss": 0.2183, | |
| "step": 266 | |
| }, | |
| { | |
| "epoch": 3.56, | |
| "grad_norm": 0.7804158329963684, | |
| "learning_rate": 6.2793294993656494e-06, | |
| "loss": 0.2438, | |
| "step": 267 | |
| }, | |
| { | |
| "epoch": 3.5733333333333333, | |
| "grad_norm": 0.8433220982551575, | |
| "learning_rate": 5.908266688755049e-06, | |
| "loss": 0.2806, | |
| "step": 268 | |
| }, | |
| { | |
| "epoch": 3.586666666666667, | |
| "grad_norm": 0.7814007997512817, | |
| "learning_rate": 5.54817020076347e-06, | |
| "loss": 0.2841, | |
| "step": 269 | |
| }, | |
| { | |
| "epoch": 3.6, | |
| "grad_norm": 0.5926189422607422, | |
| "learning_rate": 5.199082004372957e-06, | |
| "loss": 0.2349, | |
| "step": 270 | |
| }, | |
| { | |
| "epoch": 3.6133333333333333, | |
| "grad_norm": 0.7108579277992249, | |
| "learning_rate": 4.861042785557146e-06, | |
| "loss": 0.2771, | |
| "step": 271 | |
| }, | |
| { | |
| "epoch": 3.626666666666667, | |
| "grad_norm": 0.8635604381561279, | |
| "learning_rate": 4.534091942539475e-06, | |
| "loss": 0.3572, | |
| "step": 272 | |
| }, | |
| { | |
| "epoch": 3.64, | |
| "grad_norm": 0.7461998462677002, | |
| "learning_rate": 4.2182675812012965e-06, | |
| "loss": 0.3266, | |
| "step": 273 | |
| }, | |
| { | |
| "epoch": 3.6533333333333333, | |
| "grad_norm": 0.6848060488700867, | |
| "learning_rate": 3.913606510640644e-06, | |
| "loss": 0.2782, | |
| "step": 274 | |
| }, | |
| { | |
| "epoch": 3.6666666666666665, | |
| "grad_norm": 0.5404589176177979, | |
| "learning_rate": 3.620144238882206e-06, | |
| "loss": 0.2365, | |
| "step": 275 | |
| }, | |
| { | |
| "epoch": 3.68, | |
| "grad_norm": 0.8409443497657776, | |
| "learning_rate": 3.3379149687388867e-06, | |
| "loss": 0.243, | |
| "step": 276 | |
| }, | |
| { | |
| "epoch": 3.6933333333333334, | |
| "grad_norm": 0.6383155584335327, | |
| "learning_rate": 3.06695159382544e-06, | |
| "loss": 0.3358, | |
| "step": 277 | |
| }, | |
| { | |
| "epoch": 3.7066666666666666, | |
| "grad_norm": 0.790045976638794, | |
| "learning_rate": 2.8072856947248037e-06, | |
| "loss": 0.2835, | |
| "step": 278 | |
| }, | |
| { | |
| "epoch": 3.7199999999999998, | |
| "grad_norm": 0.6109788417816162, | |
| "learning_rate": 2.5589475353073988e-06, | |
| "loss": 0.3113, | |
| "step": 279 | |
| }, | |
| { | |
| "epoch": 3.7333333333333334, | |
| "grad_norm": 0.5038023591041565, | |
| "learning_rate": 2.3219660592038285e-06, | |
| "loss": 0.1902, | |
| "step": 280 | |
| }, | |
| { | |
| "epoch": 3.7466666666666666, | |
| "grad_norm": 0.5871134996414185, | |
| "learning_rate": 2.0963688864316323e-06, | |
| "loss": 0.3928, | |
| "step": 281 | |
| }, | |
| { | |
| "epoch": 3.76, | |
| "grad_norm": 0.5895046591758728, | |
| "learning_rate": 1.882182310176095e-06, | |
| "loss": 0.2864, | |
| "step": 282 | |
| }, | |
| { | |
| "epoch": 3.7733333333333334, | |
| "grad_norm": 1.456066608428955, | |
| "learning_rate": 1.6794312937258417e-06, | |
| "loss": 0.2669, | |
| "step": 283 | |
| }, | |
| { | |
| "epoch": 3.7866666666666666, | |
| "grad_norm": 0.6652315855026245, | |
| "learning_rate": 1.488139467563354e-06, | |
| "loss": 0.2859, | |
| "step": 284 | |
| }, | |
| { | |
| "epoch": 3.8, | |
| "grad_norm": 0.7242224812507629, | |
| "learning_rate": 1.30832912661093e-06, | |
| "loss": 0.1955, | |
| "step": 285 | |
| }, | |
| { | |
| "epoch": 3.8133333333333335, | |
| "grad_norm": 0.5488805174827576, | |
| "learning_rate": 1.1400212276321376e-06, | |
| "loss": 0.2772, | |
| "step": 286 | |
| }, | |
| { | |
| "epoch": 3.8266666666666667, | |
| "grad_norm": 0.9780620336532593, | |
| "learning_rate": 9.832353867893386e-07, | |
| "loss": 0.2286, | |
| "step": 287 | |
| }, | |
| { | |
| "epoch": 3.84, | |
| "grad_norm": 0.6662778258323669, | |
| "learning_rate": 8.379898773574924e-07, | |
| "loss": 0.2704, | |
| "step": 288 | |
| }, | |
| { | |
| "epoch": 3.8533333333333335, | |
| "grad_norm": 0.6265354156494141, | |
| "learning_rate": 7.043016275943615e-07, | |
| "loss": 0.2296, | |
| "step": 289 | |
| }, | |
| { | |
| "epoch": 3.8666666666666667, | |
| "grad_norm": 0.6008942127227783, | |
| "learning_rate": 5.821862187675775e-07, | |
| "loss": 0.2374, | |
| "step": 290 | |
| }, | |
| { | |
| "epoch": 3.88, | |
| "grad_norm": 0.7946692109107971, | |
| "learning_rate": 4.7165788333860536e-07, | |
| "loss": 0.1566, | |
| "step": 291 | |
| }, | |
| { | |
| "epoch": 3.8933333333333335, | |
| "grad_norm": 0.7700130939483643, | |
| "learning_rate": 3.727295033040035e-07, | |
| "loss": 0.2748, | |
| "step": 292 | |
| }, | |
| { | |
| "epoch": 3.9066666666666667, | |
| "grad_norm": 0.671159029006958, | |
| "learning_rate": 2.854126086940356e-07, | |
| "loss": 0.2345, | |
| "step": 293 | |
| }, | |
| { | |
| "epoch": 3.92, | |
| "grad_norm": 0.591444194316864, | |
| "learning_rate": 2.0971737622883515e-07, | |
| "loss": 0.2364, | |
| "step": 294 | |
| }, | |
| { | |
| "epoch": 3.9333333333333336, | |
| "grad_norm": 0.6508089900016785, | |
| "learning_rate": 1.4565262813230894e-07, | |
| "loss": 0.2455, | |
| "step": 295 | |
| }, | |
| { | |
| "epoch": 3.9466666666666668, | |
| "grad_norm": 0.8111832737922668, | |
| "learning_rate": 9.32258311039269e-08, | |
| "loss": 0.2412, | |
| "step": 296 | |
| }, | |
| { | |
| "epoch": 3.96, | |
| "grad_norm": 0.6243981122970581, | |
| "learning_rate": 5.2443095448506674e-08, | |
| "loss": 0.2991, | |
| "step": 297 | |
| }, | |
| { | |
| "epoch": 3.9733333333333336, | |
| "grad_norm": 0.8096401691436768, | |
| "learning_rate": 2.3309174364027907e-08, | |
| "loss": 0.2848, | |
| "step": 298 | |
| }, | |
| { | |
| "epoch": 3.986666666666667, | |
| "grad_norm": 0.6315991878509521, | |
| "learning_rate": 5.827463387653165e-09, | |
| "loss": 0.3048, | |
| "step": 299 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "grad_norm": 0.6686562895774841, | |
| "learning_rate": 0.0, | |
| "loss": 0.266, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "step": 300, | |
| "total_flos": 8.62109265035264e+16, | |
| "train_loss": 0.6437234182655811, | |
| "train_runtime": 652.1258, | |
| "train_samples_per_second": 7.361, | |
| "train_steps_per_second": 0.46 | |
| } | |
| ], | |
| "logging_steps": 1.0, | |
| "max_steps": 300, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 4, | |
| "save_steps": 50, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 8.62109265035264e+16, | |
| "train_batch_size": 2, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |