{ "best_metric": null, "best_model_checkpoint": null, "epoch": 2.0, "eval_steps": 500, "global_step": 150, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.013333333333333334, "grad_norm": 1.0028682947158813, "learning_rate": 2.2222222222222223e-05, "loss": 1.43, "step": 1 }, { "epoch": 0.02666666666666667, "grad_norm": 1.6397583484649658, "learning_rate": 4.4444444444444447e-05, "loss": 1.5374, "step": 2 }, { "epoch": 0.04, "grad_norm": 1.2198785543441772, "learning_rate": 6.666666666666667e-05, "loss": 1.5106, "step": 3 }, { "epoch": 0.05333333333333334, "grad_norm": 0.8468486070632935, "learning_rate": 8.888888888888889e-05, "loss": 1.447, "step": 4 }, { "epoch": 0.06666666666666667, "grad_norm": 0.9268608689308167, "learning_rate": 0.00011111111111111112, "loss": 1.4743, "step": 5 }, { "epoch": 0.08, "grad_norm": 1.0168085098266602, "learning_rate": 0.00013333333333333334, "loss": 1.3245, "step": 6 }, { "epoch": 0.09333333333333334, "grad_norm": 0.6773934960365295, "learning_rate": 0.00015555555555555556, "loss": 1.3738, "step": 7 }, { "epoch": 0.10666666666666667, "grad_norm": 0.6985631585121155, "learning_rate": 0.00017777777777777779, "loss": 1.3951, "step": 8 }, { "epoch": 0.12, "grad_norm": 1.0221399068832397, "learning_rate": 0.0002, "loss": 1.3246, "step": 9 }, { "epoch": 0.13333333333333333, "grad_norm": 0.6119747161865234, "learning_rate": 0.00019999417253661235, "loss": 1.2951, "step": 10 }, { "epoch": 0.14666666666666667, "grad_norm": 0.6660990118980408, "learning_rate": 0.00019997669082563597, "loss": 1.2529, "step": 11 }, { "epoch": 0.16, "grad_norm": 0.5874819755554199, "learning_rate": 0.00019994755690455152, "loss": 1.2252, "step": 12 }, { "epoch": 0.17333333333333334, "grad_norm": 0.4818006157875061, "learning_rate": 0.00019990677416889608, "loss": 1.1708, "step": 13 }, { "epoch": 0.18666666666666668, "grad_norm": 0.652045488357544, "learning_rate": 0.0001998543473718677, "loss": 0.9865, "step": 14 }, { "epoch": 0.2, "grad_norm": 0.5517733693122864, "learning_rate": 0.00019979028262377118, "loss": 1.181, "step": 15 }, { "epoch": 0.21333333333333335, "grad_norm": 0.47720542550086975, "learning_rate": 0.00019971458739130598, "loss": 1.0633, "step": 16 }, { "epoch": 0.22666666666666666, "grad_norm": 0.7947096228599548, "learning_rate": 0.000199627270496696, "loss": 1.1458, "step": 17 }, { "epoch": 0.24, "grad_norm": 0.5301257371902466, "learning_rate": 0.0001995283421166614, "loss": 1.2245, "step": 18 }, { "epoch": 0.25333333333333335, "grad_norm": 0.9473271369934082, "learning_rate": 0.00019941781378123244, "loss": 1.0859, "step": 19 }, { "epoch": 0.26666666666666666, "grad_norm": 1.1834161281585693, "learning_rate": 0.00019929569837240564, "loss": 1.1808, "step": 20 }, { "epoch": 0.28, "grad_norm": 0.6784033179283142, "learning_rate": 0.00019916201012264254, "loss": 1.202, "step": 21 }, { "epoch": 0.29333333333333333, "grad_norm": 0.7274785041809082, "learning_rate": 0.00019901676461321068, "loss": 1.2242, "step": 22 }, { "epoch": 0.30666666666666664, "grad_norm": 0.7520783543586731, "learning_rate": 0.00019885997877236788, "loss": 1.173, "step": 23 }, { "epoch": 0.32, "grad_norm": 0.8218541145324707, "learning_rate": 0.00019869167087338907, "loss": 1.0723, "step": 24 }, { "epoch": 0.3333333333333333, "grad_norm": 0.6361420154571533, "learning_rate": 0.00019851186053243666, "loss": 1.1607, "step": 25 }, { "epoch": 0.3466666666666667, "grad_norm": 0.6401374936103821, "learning_rate": 0.00019832056870627417, "loss": 1.1398, "step": 26 }, { "epoch": 0.36, "grad_norm": 1.0995603799819946, "learning_rate": 0.0001981178176898239, "loss": 0.9475, "step": 27 }, { "epoch": 0.37333333333333335, "grad_norm": 0.5122275948524475, "learning_rate": 0.00019790363111356837, "loss": 1.0125, "step": 28 }, { "epoch": 0.38666666666666666, "grad_norm": 0.9316695332527161, "learning_rate": 0.00019767803394079615, "loss": 1.0554, "step": 29 }, { "epoch": 0.4, "grad_norm": 0.6831843256950378, "learning_rate": 0.00019744105246469263, "loss": 1.027, "step": 30 }, { "epoch": 0.41333333333333333, "grad_norm": 0.5529218912124634, "learning_rate": 0.0001971927143052752, "loss": 1.0218, "step": 31 }, { "epoch": 0.4266666666666667, "grad_norm": 0.7164443135261536, "learning_rate": 0.00019693304840617457, "loss": 1.0901, "step": 32 }, { "epoch": 0.44, "grad_norm": 0.7430665493011475, "learning_rate": 0.00019666208503126112, "loss": 1.125, "step": 33 }, { "epoch": 0.4533333333333333, "grad_norm": 0.7198122143745422, "learning_rate": 0.00019637985576111778, "loss": 0.9926, "step": 34 }, { "epoch": 0.4666666666666667, "grad_norm": 0.6613873839378357, "learning_rate": 0.0001960863934893594, "loss": 1.1925, "step": 35 }, { "epoch": 0.48, "grad_norm": 1.2440484762191772, "learning_rate": 0.00019578173241879872, "loss": 0.8948, "step": 36 }, { "epoch": 0.49333333333333335, "grad_norm": 0.6995570659637451, "learning_rate": 0.00019546590805746052, "loss": 0.9525, "step": 37 }, { "epoch": 0.5066666666666667, "grad_norm": 0.6873968243598938, "learning_rate": 0.00019513895721444286, "loss": 0.9966, "step": 38 }, { "epoch": 0.52, "grad_norm": 0.5394595861434937, "learning_rate": 0.00019480091799562704, "loss": 1.0787, "step": 39 }, { "epoch": 0.5333333333333333, "grad_norm": 0.9196312427520752, "learning_rate": 0.00019445182979923654, "loss": 1.0559, "step": 40 }, { "epoch": 0.5466666666666666, "grad_norm": 2.5954103469848633, "learning_rate": 0.000194091733311245, "loss": 0.9638, "step": 41 }, { "epoch": 0.56, "grad_norm": 1.244681715965271, "learning_rate": 0.00019372067050063438, "loss": 0.9325, "step": 42 }, { "epoch": 0.5733333333333334, "grad_norm": 0.613715410232544, "learning_rate": 0.0001933386846145036, "loss": 0.9428, "step": 43 }, { "epoch": 0.5866666666666667, "grad_norm": 0.9604235291481018, "learning_rate": 0.00019294582017302797, "loss": 0.9486, "step": 44 }, { "epoch": 0.6, "grad_norm": 0.7591239809989929, "learning_rate": 0.00019254212296427044, "loss": 1.0955, "step": 45 }, { "epoch": 0.6133333333333333, "grad_norm": 0.5218423008918762, "learning_rate": 0.0001921276400388451, "loss": 1.0368, "step": 46 }, { "epoch": 0.6266666666666667, "grad_norm": 0.5670755505561829, "learning_rate": 0.00019170241970443343, "loss": 0.9854, "step": 47 }, { "epoch": 0.64, "grad_norm": 0.8089922070503235, "learning_rate": 0.00019126651152015403, "loss": 1.0396, "step": 48 }, { "epoch": 0.6533333333333333, "grad_norm": 0.6459051966667175, "learning_rate": 0.00019081996629078657, "loss": 1.0156, "step": 49 }, { "epoch": 0.6666666666666666, "grad_norm": 1.1918997764587402, "learning_rate": 0.00019036283606085053, "loss": 1.1542, "step": 50 }, { "epoch": 0.68, "grad_norm": 0.6263722777366638, "learning_rate": 0.00018989517410853955, "loss": 1.1471, "step": 51 }, { "epoch": 0.6933333333333334, "grad_norm": 0.534618616104126, "learning_rate": 0.00018941703493951164, "loss": 0.9055, "step": 52 }, { "epoch": 0.7066666666666667, "grad_norm": 0.529036819934845, "learning_rate": 0.00018892847428053693, "loss": 0.9896, "step": 53 }, { "epoch": 0.72, "grad_norm": 0.716572105884552, "learning_rate": 0.00018842954907300236, "loss": 1.0204, "step": 54 }, { "epoch": 0.7333333333333333, "grad_norm": 0.832662045955658, "learning_rate": 0.00018792031746627563, "loss": 1.0263, "step": 55 }, { "epoch": 0.7466666666666667, "grad_norm": 0.5659884810447693, "learning_rate": 0.0001874008388109276, "loss": 1.0529, "step": 56 }, { "epoch": 0.76, "grad_norm": 0.4971260726451874, "learning_rate": 0.00018687117365181512, "loss": 1.0109, "step": 57 }, { "epoch": 0.7733333333333333, "grad_norm": 0.5997689962387085, "learning_rate": 0.00018633138372102468, "loss": 1.0363, "step": 58 }, { "epoch": 0.7866666666666666, "grad_norm": 0.42450904846191406, "learning_rate": 0.00018578153193067745, "loss": 1.0156, "step": 59 }, { "epoch": 0.8, "grad_norm": 1.0025880336761475, "learning_rate": 0.00018522168236559695, "loss": 0.96, "step": 60 }, { "epoch": 0.8133333333333334, "grad_norm": 0.47225672006607056, "learning_rate": 0.00018465190027584005, "loss": 1.0402, "step": 61 }, { "epoch": 0.8266666666666667, "grad_norm": 0.6419042348861694, "learning_rate": 0.00018407225206909208, "loss": 0.9727, "step": 62 }, { "epoch": 0.84, "grad_norm": 0.9594618082046509, "learning_rate": 0.00018348280530292713, "loss": 0.986, "step": 63 }, { "epoch": 0.8533333333333334, "grad_norm": 0.5415605902671814, "learning_rate": 0.00018288362867693414, "loss": 1.019, "step": 64 }, { "epoch": 0.8666666666666667, "grad_norm": 0.9662086367607117, "learning_rate": 0.00018227479202471015, "loss": 0.9531, "step": 65 }, { "epoch": 0.88, "grad_norm": 0.7523136734962463, "learning_rate": 0.0001816563663057211, "loss": 1.0383, "step": 66 }, { "epoch": 0.8933333333333333, "grad_norm": 0.7249945998191833, "learning_rate": 0.00018102842359703176, "loss": 1.1131, "step": 67 }, { "epoch": 0.9066666666666666, "grad_norm": 0.4781404435634613, "learning_rate": 0.000180391037084905, "loss": 0.9701, "step": 68 }, { "epoch": 0.92, "grad_norm": 0.5435504913330078, "learning_rate": 0.00017974428105627208, "loss": 1.2701, "step": 69 }, { "epoch": 0.9333333333333333, "grad_norm": 0.48021838068962097, "learning_rate": 0.00017908823089007457, "loss": 0.9212, "step": 70 }, { "epoch": 0.9466666666666667, "grad_norm": 0.7063950300216675, "learning_rate": 0.00017842296304847893, "loss": 1.0076, "step": 71 }, { "epoch": 0.96, "grad_norm": 0.5694530606269836, "learning_rate": 0.00017774855506796496, "loss": 1.0417, "step": 72 }, { "epoch": 0.9733333333333334, "grad_norm": 0.6120775938034058, "learning_rate": 0.00017706508555028893, "loss": 1.0501, "step": 73 }, { "epoch": 0.9866666666666667, "grad_norm": 0.5728889107704163, "learning_rate": 0.0001763726341533227, "loss": 1.0024, "step": 74 }, { "epoch": 1.0, "grad_norm": 0.8452621102333069, "learning_rate": 0.00017567128158176953, "loss": 1.0966, "step": 75 }, { "epoch": 1.0133333333333334, "grad_norm": 0.5769606828689575, "learning_rate": 0.0001749611095777581, "loss": 0.8877, "step": 76 }, { "epoch": 1.0266666666666666, "grad_norm": 0.9046480059623718, "learning_rate": 0.00017424220091131535, "loss": 0.752, "step": 77 }, { "epoch": 1.04, "grad_norm": 0.4488053023815155, "learning_rate": 0.00017351463937072004, "loss": 0.7588, "step": 78 }, { "epoch": 1.0533333333333332, "grad_norm": 0.41479629278182983, "learning_rate": 0.00017277850975273696, "loss": 0.779, "step": 79 }, { "epoch": 1.0666666666666667, "grad_norm": 0.7192550301551819, "learning_rate": 0.000172033897852734, "loss": 0.7809, "step": 80 }, { "epoch": 1.08, "grad_norm": 0.7553783655166626, "learning_rate": 0.00017128089045468294, "loss": 0.7421, "step": 81 }, { "epoch": 1.0933333333333333, "grad_norm": 0.5650737881660461, "learning_rate": 0.0001705195753210446, "loss": 0.7044, "step": 82 }, { "epoch": 1.1066666666666667, "grad_norm": 0.6692880988121033, "learning_rate": 0.0001697500411825403, "loss": 0.8415, "step": 83 }, { "epoch": 1.12, "grad_norm": 0.6710836291313171, "learning_rate": 0.00016897237772781044, "loss": 0.7247, "step": 84 }, { "epoch": 1.1333333333333333, "grad_norm": 0.5887194275856018, "learning_rate": 0.0001681866755929612, "loss": 0.7947, "step": 85 }, { "epoch": 1.1466666666666667, "grad_norm": 0.5538906455039978, "learning_rate": 0.00016739302635100108, "loss": 0.7337, "step": 86 }, { "epoch": 1.16, "grad_norm": 0.6018480062484741, "learning_rate": 0.00016659152250116812, "loss": 0.6801, "step": 87 }, { "epoch": 1.1733333333333333, "grad_norm": 0.548251748085022, "learning_rate": 0.00016578225745814907, "loss": 0.6898, "step": 88 }, { "epoch": 1.1866666666666668, "grad_norm": 0.49416568875312805, "learning_rate": 0.00016496532554119214, "loss": 0.719, "step": 89 }, { "epoch": 1.2, "grad_norm": 0.6101306676864624, "learning_rate": 0.000164140821963114, "loss": 0.7917, "step": 90 }, { "epoch": 1.2133333333333334, "grad_norm": 0.588020920753479, "learning_rate": 0.000163308842819203, "loss": 0.8035, "step": 91 }, { "epoch": 1.2266666666666666, "grad_norm": 0.5376534461975098, "learning_rate": 0.00016246948507601914, "loss": 0.7816, "step": 92 }, { "epoch": 1.24, "grad_norm": 0.549625813961029, "learning_rate": 0.00016162284656009274, "loss": 0.7245, "step": 93 }, { "epoch": 1.2533333333333334, "grad_norm": 0.6054933667182922, "learning_rate": 0.0001607690259465229, "loss": 0.7484, "step": 94 }, { "epoch": 1.2666666666666666, "grad_norm": 0.5613316297531128, "learning_rate": 0.00015990812274747692, "loss": 0.7369, "step": 95 }, { "epoch": 1.28, "grad_norm": 0.5984250903129578, "learning_rate": 0.00015904023730059228, "loss": 0.891, "step": 96 }, { "epoch": 1.2933333333333334, "grad_norm": 0.6490495204925537, "learning_rate": 0.00015816547075728226, "loss": 0.775, "step": 97 }, { "epoch": 1.3066666666666666, "grad_norm": 0.6675053834915161, "learning_rate": 0.000157283925070947, "loss": 0.7565, "step": 98 }, { "epoch": 1.32, "grad_norm": 0.5397291779518127, "learning_rate": 0.00015639570298509064, "loss": 0.6685, "step": 99 }, { "epoch": 1.3333333333333333, "grad_norm": 0.5830179452896118, "learning_rate": 0.000155500908021347, "loss": 0.8132, "step": 100 }, { "epoch": 1.3466666666666667, "grad_norm": 0.511802077293396, "learning_rate": 0.00015459964446741382, "loss": 0.7664, "step": 101 }, { "epoch": 1.3599999999999999, "grad_norm": 1.350032091140747, "learning_rate": 0.0001536920173648984, "loss": 0.8179, "step": 102 }, { "epoch": 1.3733333333333333, "grad_norm": 0.7308780550956726, "learning_rate": 0.00015277813249707487, "loss": 0.8401, "step": 103 }, { "epoch": 1.3866666666666667, "grad_norm": 0.5292226076126099, "learning_rate": 0.0001518580963765555, "loss": 0.6367, "step": 104 }, { "epoch": 1.4, "grad_norm": 0.6958481073379517, "learning_rate": 0.00015093201623287631, "loss": 0.7173, "step": 105 }, { "epoch": 1.4133333333333333, "grad_norm": 0.7024071216583252, "learning_rate": 0.00015000000000000001, "loss": 0.5604, "step": 106 }, { "epoch": 1.4266666666666667, "grad_norm": 0.5597444772720337, "learning_rate": 0.00014906215630373606, "loss": 0.6767, "step": 107 }, { "epoch": 1.44, "grad_norm": 0.6003674864768982, "learning_rate": 0.00014811859444908052, "loss": 0.8149, "step": 108 }, { "epoch": 1.4533333333333334, "grad_norm": 0.5815126895904541, "learning_rate": 0.00014716942440747664, "loss": 0.7801, "step": 109 }, { "epoch": 1.4666666666666668, "grad_norm": 0.7836669683456421, "learning_rate": 0.0001462147568039977, "loss": 0.8452, "step": 110 }, { "epoch": 1.48, "grad_norm": 0.8783419132232666, "learning_rate": 0.00014525470290445392, "loss": 0.8257, "step": 111 }, { "epoch": 1.4933333333333334, "grad_norm": 0.46948131918907166, "learning_rate": 0.00014428937460242417, "loss": 0.7481, "step": 112 }, { "epoch": 1.5066666666666668, "grad_norm": 0.5725980401039124, "learning_rate": 0.00014331888440621533, "loss": 0.8267, "step": 113 }, { "epoch": 1.52, "grad_norm": 0.4418632686138153, "learning_rate": 0.00014234334542574906, "loss": 0.7631, "step": 114 }, { "epoch": 1.5333333333333332, "grad_norm": 0.6430942416191101, "learning_rate": 0.00014136287135937915, "loss": 0.8817, "step": 115 }, { "epoch": 1.5466666666666666, "grad_norm": 0.5670009255409241, "learning_rate": 0.00014037757648064018, "loss": 0.5991, "step": 116 }, { "epoch": 1.56, "grad_norm": 0.5407504439353943, "learning_rate": 0.00013938757562492873, "loss": 0.6898, "step": 117 }, { "epoch": 1.5733333333333333, "grad_norm": 0.5176808834075928, "learning_rate": 0.00013839298417611963, "loss": 0.731, "step": 118 }, { "epoch": 1.5866666666666667, "grad_norm": 0.9752798080444336, "learning_rate": 0.00013739391805311793, "loss": 0.6736, "step": 119 }, { "epoch": 1.6, "grad_norm": 0.7100059390068054, "learning_rate": 0.00013639049369634876, "loss": 0.7369, "step": 120 }, { "epoch": 1.6133333333333333, "grad_norm": 0.6285961270332336, "learning_rate": 0.0001353828280541861, "loss": 0.721, "step": 121 }, { "epoch": 1.6266666666666667, "grad_norm": 0.5981026291847229, "learning_rate": 0.00013437103856932264, "loss": 0.8094, "step": 122 }, { "epoch": 1.6400000000000001, "grad_norm": 0.6587502360343933, "learning_rate": 0.00013335524316508208, "loss": 0.7646, "step": 123 }, { "epoch": 1.6533333333333333, "grad_norm": 0.5544253587722778, "learning_rate": 0.00013233556023167485, "loss": 0.7165, "step": 124 }, { "epoch": 1.6666666666666665, "grad_norm": 0.6012857556343079, "learning_rate": 0.00013131210861240026, "loss": 0.8104, "step": 125 }, { "epoch": 1.6800000000000002, "grad_norm": 0.5157524347305298, "learning_rate": 0.00013028500758979506, "loss": 0.8585, "step": 126 }, { "epoch": 1.6933333333333334, "grad_norm": 0.4888676702976227, "learning_rate": 0.00012925437687173142, "loss": 0.6579, "step": 127 }, { "epoch": 1.7066666666666666, "grad_norm": 0.5127140879631042, "learning_rate": 0.00012822033657746478, "loss": 0.7432, "step": 128 }, { "epoch": 1.72, "grad_norm": 0.6154641509056091, "learning_rate": 0.0001271830072236343, "loss": 0.7322, "step": 129 }, { "epoch": 1.7333333333333334, "grad_norm": 0.5081548690795898, "learning_rate": 0.00012614250971021657, "loss": 0.7547, "step": 130 }, { "epoch": 1.7466666666666666, "grad_norm": 0.6808217763900757, "learning_rate": 0.00012509896530643488, "loss": 0.6855, "step": 131 }, { "epoch": 1.76, "grad_norm": 0.8672941327095032, "learning_rate": 0.00012405249563662537, "loss": 0.6332, "step": 132 }, { "epoch": 1.7733333333333334, "grad_norm": 0.6130337119102478, "learning_rate": 0.00012300322266606178, "loss": 0.7453, "step": 133 }, { "epoch": 1.7866666666666666, "grad_norm": 0.739959180355072, "learning_rate": 0.00012195126868674051, "loss": 0.687, "step": 134 }, { "epoch": 1.8, "grad_norm": 0.5801121592521667, "learning_rate": 0.00012089675630312754, "loss": 0.7059, "step": 135 }, { "epoch": 1.8133333333333335, "grad_norm": 0.5766938328742981, "learning_rate": 0.000119839808417869, "loss": 0.737, "step": 136 }, { "epoch": 1.8266666666666667, "grad_norm": 0.6705268621444702, "learning_rate": 0.00011878054821746703, "loss": 0.7358, "step": 137 }, { "epoch": 1.8399999999999999, "grad_norm": 0.7814889550209045, "learning_rate": 0.0001177190991579223, "loss": 0.7021, "step": 138 }, { "epoch": 1.8533333333333335, "grad_norm": 0.6991515755653381, "learning_rate": 0.00011665558495034546, "loss": 0.7325, "step": 139 }, { "epoch": 1.8666666666666667, "grad_norm": 0.8299288749694824, "learning_rate": 0.00011559012954653865, "loss": 0.7128, "step": 140 }, { "epoch": 1.88, "grad_norm": 0.7293754816055298, "learning_rate": 0.00011452285712454904, "loss": 0.5813, "step": 141 }, { "epoch": 1.8933333333333333, "grad_norm": 0.6560428738594055, "learning_rate": 0.00011345389207419588, "loss": 0.6352, "step": 142 }, { "epoch": 1.9066666666666667, "grad_norm": 0.54889976978302, "learning_rate": 0.00011238335898257304, "loss": 0.7372, "step": 143 }, { "epoch": 1.92, "grad_norm": 0.5890987515449524, "learning_rate": 0.00011131138261952845, "loss": 0.6402, "step": 144 }, { "epoch": 1.9333333333333333, "grad_norm": 0.8450446128845215, "learning_rate": 0.00011023808792312227, "loss": 0.7152, "step": 145 }, { "epoch": 1.9466666666666668, "grad_norm": 0.7649719715118408, "learning_rate": 0.0001091635999850655, "loss": 0.6831, "step": 146 }, { "epoch": 1.96, "grad_norm": 0.6236613988876343, "learning_rate": 0.00010808804403614043, "loss": 0.6671, "step": 147 }, { "epoch": 1.9733333333333334, "grad_norm": 0.6295299530029297, "learning_rate": 0.00010701154543160541, "loss": 0.8226, "step": 148 }, { "epoch": 1.9866666666666668, "grad_norm": 0.641965389251709, "learning_rate": 0.00010593422963658452, "loss": 0.6567, "step": 149 }, { "epoch": 2.0, "grad_norm": 0.779958188533783, "learning_rate": 0.00010485622221144484, "loss": 0.6346, "step": 150 } ], "logging_steps": 1.0, "max_steps": 300, "num_input_tokens_seen": 0, "num_train_epochs": 4, "save_steps": 50, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": false }, "attributes": {} } }, "total_flos": 4.29731846511657e+16, "train_batch_size": 2, "trial_name": null, "trial_params": null }