| { |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 1.0661333333333334, |
| "eval_steps": 50, |
| "global_step": 1000, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.0010666666666666667, |
| "grad_norm": 7.340938305754196, |
| "learning_rate": 7.092198581560283e-09, |
| "loss": 0.1541, |
| "step": 1 |
| }, |
| { |
| "epoch": 0.0021333333333333334, |
| "grad_norm": 10.456284265762507, |
| "learning_rate": 1.4184397163120567e-08, |
| "loss": 0.2166, |
| "step": 2 |
| }, |
| { |
| "epoch": 0.0032, |
| "grad_norm": 3.3262532882195073, |
| "learning_rate": 2.127659574468085e-08, |
| "loss": 0.125, |
| "step": 3 |
| }, |
| { |
| "epoch": 0.004266666666666667, |
| "grad_norm": 11.460851747410167, |
| "learning_rate": 2.8368794326241133e-08, |
| "loss": 0.2258, |
| "step": 4 |
| }, |
| { |
| "epoch": 0.005333333333333333, |
| "grad_norm": 8.441501897479922, |
| "learning_rate": 3.546099290780142e-08, |
| "loss": 0.153, |
| "step": 5 |
| }, |
| { |
| "epoch": 0.0064, |
| "grad_norm": 5.414631894804662, |
| "learning_rate": 4.25531914893617e-08, |
| "loss": 0.1217, |
| "step": 6 |
| }, |
| { |
| "epoch": 0.007466666666666667, |
| "grad_norm": 6.8055262034936135, |
| "learning_rate": 4.964539007092199e-08, |
| "loss": 0.2203, |
| "step": 7 |
| }, |
| { |
| "epoch": 0.008533333333333334, |
| "grad_norm": 6.03157130162322, |
| "learning_rate": 5.673758865248227e-08, |
| "loss": 0.1271, |
| "step": 8 |
| }, |
| { |
| "epoch": 0.0096, |
| "grad_norm": 15.918639711164598, |
| "learning_rate": 6.382978723404254e-08, |
| "loss": 0.2446, |
| "step": 9 |
| }, |
| { |
| "epoch": 0.010666666666666666, |
| "grad_norm": 5.407971560881396, |
| "learning_rate": 7.092198581560284e-08, |
| "loss": 0.0969, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.011733333333333333, |
| "grad_norm": 6.038181425779358, |
| "learning_rate": 7.801418439716311e-08, |
| "loss": 0.1582, |
| "step": 11 |
| }, |
| { |
| "epoch": 0.0128, |
| "grad_norm": 6.82290309727894, |
| "learning_rate": 8.51063829787234e-08, |
| "loss": 0.1788, |
| "step": 12 |
| }, |
| { |
| "epoch": 0.013866666666666666, |
| "grad_norm": 10.744951629042818, |
| "learning_rate": 9.219858156028367e-08, |
| "loss": 0.2034, |
| "step": 13 |
| }, |
| { |
| "epoch": 0.014933333333333333, |
| "grad_norm": 5.776379057599028, |
| "learning_rate": 9.929078014184397e-08, |
| "loss": 0.1466, |
| "step": 14 |
| }, |
| { |
| "epoch": 0.016, |
| "grad_norm": 6.451686862431702, |
| "learning_rate": 1.0638297872340425e-07, |
| "loss": 0.2048, |
| "step": 15 |
| }, |
| { |
| "epoch": 0.017066666666666667, |
| "grad_norm": 8.87773427933643, |
| "learning_rate": 1.1347517730496453e-07, |
| "loss": 0.1916, |
| "step": 16 |
| }, |
| { |
| "epoch": 0.018133333333333335, |
| "grad_norm": 3.3723817508202414, |
| "learning_rate": 1.205673758865248e-07, |
| "loss": 0.102, |
| "step": 17 |
| }, |
| { |
| "epoch": 0.0192, |
| "grad_norm": 5.582474730267361, |
| "learning_rate": 1.2765957446808508e-07, |
| "loss": 0.1072, |
| "step": 18 |
| }, |
| { |
| "epoch": 0.020266666666666665, |
| "grad_norm": 9.981766121447329, |
| "learning_rate": 1.3475177304964538e-07, |
| "loss": 0.2441, |
| "step": 19 |
| }, |
| { |
| "epoch": 0.021333333333333333, |
| "grad_norm": 6.916457694714178, |
| "learning_rate": 1.4184397163120568e-07, |
| "loss": 0.155, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.0224, |
| "grad_norm": 15.903970541009066, |
| "learning_rate": 1.4893617021276595e-07, |
| "loss": 0.1844, |
| "step": 21 |
| }, |
| { |
| "epoch": 0.023466666666666667, |
| "grad_norm": 3.435640900507597, |
| "learning_rate": 1.5602836879432623e-07, |
| "loss": 0.1177, |
| "step": 22 |
| }, |
| { |
| "epoch": 0.024533333333333334, |
| "grad_norm": 5.983239337047582, |
| "learning_rate": 1.6312056737588653e-07, |
| "loss": 0.1839, |
| "step": 23 |
| }, |
| { |
| "epoch": 0.0256, |
| "grad_norm": 3.4918264067734004, |
| "learning_rate": 1.702127659574468e-07, |
| "loss": 0.0885, |
| "step": 24 |
| }, |
| { |
| "epoch": 0.02666666666666667, |
| "grad_norm": 2.159145413848388, |
| "learning_rate": 1.773049645390071e-07, |
| "loss": 0.0758, |
| "step": 25 |
| }, |
| { |
| "epoch": 0.027733333333333332, |
| "grad_norm": 7.402773228692812, |
| "learning_rate": 1.8439716312056735e-07, |
| "loss": 0.1488, |
| "step": 26 |
| }, |
| { |
| "epoch": 0.0288, |
| "grad_norm": 15.895667142159159, |
| "learning_rate": 1.9148936170212765e-07, |
| "loss": 0.2433, |
| "step": 27 |
| }, |
| { |
| "epoch": 0.029866666666666666, |
| "grad_norm": 4.312780260039735, |
| "learning_rate": 1.9858156028368795e-07, |
| "loss": 0.106, |
| "step": 28 |
| }, |
| { |
| "epoch": 0.030933333333333334, |
| "grad_norm": 3.1997236304738403, |
| "learning_rate": 2.0567375886524822e-07, |
| "loss": 0.1183, |
| "step": 29 |
| }, |
| { |
| "epoch": 0.032, |
| "grad_norm": 6.243317780451787, |
| "learning_rate": 2.127659574468085e-07, |
| "loss": 0.1075, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.03306666666666667, |
| "grad_norm": 6.347714245131809, |
| "learning_rate": 2.198581560283688e-07, |
| "loss": 0.1556, |
| "step": 31 |
| }, |
| { |
| "epoch": 0.034133333333333335, |
| "grad_norm": 4.243462801533408, |
| "learning_rate": 2.2695035460992907e-07, |
| "loss": 0.0963, |
| "step": 32 |
| }, |
| { |
| "epoch": 0.0352, |
| "grad_norm": 6.623461538070349, |
| "learning_rate": 2.3404255319148937e-07, |
| "loss": 0.135, |
| "step": 33 |
| }, |
| { |
| "epoch": 0.03626666666666667, |
| "grad_norm": 6.484847083021655, |
| "learning_rate": 2.411347517730496e-07, |
| "loss": 0.1279, |
| "step": 34 |
| }, |
| { |
| "epoch": 0.037333333333333336, |
| "grad_norm": 3.2077021923002986, |
| "learning_rate": 2.482269503546099e-07, |
| "loss": 0.0771, |
| "step": 35 |
| }, |
| { |
| "epoch": 0.0384, |
| "grad_norm": 4.116737651211225, |
| "learning_rate": 2.5531914893617016e-07, |
| "loss": 0.1264, |
| "step": 36 |
| }, |
| { |
| "epoch": 0.039466666666666664, |
| "grad_norm": 4.345662195274936, |
| "learning_rate": 2.6241134751773046e-07, |
| "loss": 0.1542, |
| "step": 37 |
| }, |
| { |
| "epoch": 0.04053333333333333, |
| "grad_norm": 7.406376789679956, |
| "learning_rate": 2.6950354609929076e-07, |
| "loss": 0.1548, |
| "step": 38 |
| }, |
| { |
| "epoch": 0.0416, |
| "grad_norm": 3.0054390693138946, |
| "learning_rate": 2.7659574468085106e-07, |
| "loss": 0.1181, |
| "step": 39 |
| }, |
| { |
| "epoch": 0.042666666666666665, |
| "grad_norm": 5.020408793541103, |
| "learning_rate": 2.8368794326241136e-07, |
| "loss": 0.1504, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.04373333333333333, |
| "grad_norm": 3.246192355933568, |
| "learning_rate": 2.907801418439716e-07, |
| "loss": 0.1346, |
| "step": 41 |
| }, |
| { |
| "epoch": 0.0448, |
| "grad_norm": 2.6805112095912067, |
| "learning_rate": 2.978723404255319e-07, |
| "loss": 0.1224, |
| "step": 42 |
| }, |
| { |
| "epoch": 0.04586666666666667, |
| "grad_norm": 5.576722725427941, |
| "learning_rate": 3.049645390070922e-07, |
| "loss": 0.0652, |
| "step": 43 |
| }, |
| { |
| "epoch": 0.046933333333333334, |
| "grad_norm": 3.841014006155635, |
| "learning_rate": 3.1205673758865245e-07, |
| "loss": 0.0845, |
| "step": 44 |
| }, |
| { |
| "epoch": 0.048, |
| "grad_norm": 3.3854913012232064, |
| "learning_rate": 3.1914893617021275e-07, |
| "loss": 0.0733, |
| "step": 45 |
| }, |
| { |
| "epoch": 0.04906666666666667, |
| "grad_norm": 9.677172849129757, |
| "learning_rate": 3.2624113475177305e-07, |
| "loss": 0.1341, |
| "step": 46 |
| }, |
| { |
| "epoch": 0.050133333333333335, |
| "grad_norm": 3.8894108779685492, |
| "learning_rate": 3.333333333333333e-07, |
| "loss": 0.0818, |
| "step": 47 |
| }, |
| { |
| "epoch": 0.0512, |
| "grad_norm": 6.158435704247057, |
| "learning_rate": 3.404255319148936e-07, |
| "loss": 0.1103, |
| "step": 48 |
| }, |
| { |
| "epoch": 0.05226666666666667, |
| "grad_norm": 4.194471824532617, |
| "learning_rate": 3.475177304964539e-07, |
| "loss": 0.1676, |
| "step": 49 |
| }, |
| { |
| "epoch": 0.05333333333333334, |
| "grad_norm": 6.6972614887244335, |
| "learning_rate": 3.546099290780142e-07, |
| "loss": 0.0954, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.05333333333333334, |
| "eval_loss": 0.08882835507392883, |
| "eval_runtime": 9.0554, |
| "eval_samples_per_second": 11.043, |
| "eval_steps_per_second": 5.522, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.0544, |
| "grad_norm": 4.889268413654233, |
| "learning_rate": 3.617021276595745e-07, |
| "loss": 0.111, |
| "step": 51 |
| }, |
| { |
| "epoch": 0.055466666666666664, |
| "grad_norm": 5.574322058931982, |
| "learning_rate": 3.687943262411347e-07, |
| "loss": 0.1313, |
| "step": 52 |
| }, |
| { |
| "epoch": 0.05653333333333333, |
| "grad_norm": 1.674771584469475, |
| "learning_rate": 3.75886524822695e-07, |
| "loss": 0.0604, |
| "step": 53 |
| }, |
| { |
| "epoch": 0.0576, |
| "grad_norm": 5.566372795256964, |
| "learning_rate": 3.829787234042553e-07, |
| "loss": 0.1418, |
| "step": 54 |
| }, |
| { |
| "epoch": 0.058666666666666666, |
| "grad_norm": 3.749599784286942, |
| "learning_rate": 3.900709219858156e-07, |
| "loss": 0.1704, |
| "step": 55 |
| }, |
| { |
| "epoch": 0.05973333333333333, |
| "grad_norm": 3.5747273894868847, |
| "learning_rate": 3.971631205673759e-07, |
| "loss": 0.079, |
| "step": 56 |
| }, |
| { |
| "epoch": 0.0608, |
| "grad_norm": 5.499639290770769, |
| "learning_rate": 4.0425531914893614e-07, |
| "loss": 0.0561, |
| "step": 57 |
| }, |
| { |
| "epoch": 0.06186666666666667, |
| "grad_norm": 5.886058851630259, |
| "learning_rate": 4.1134751773049644e-07, |
| "loss": 0.1697, |
| "step": 58 |
| }, |
| { |
| "epoch": 0.06293333333333333, |
| "grad_norm": 4.675421646825889, |
| "learning_rate": 4.184397163120567e-07, |
| "loss": 0.0879, |
| "step": 59 |
| }, |
| { |
| "epoch": 0.064, |
| "grad_norm": 2.9609033041262407, |
| "learning_rate": 4.25531914893617e-07, |
| "loss": 0.0599, |
| "step": 60 |
| }, |
| { |
| "epoch": 0.06506666666666666, |
| "grad_norm": 4.8304638212349165, |
| "learning_rate": 4.326241134751773e-07, |
| "loss": 0.0717, |
| "step": 61 |
| }, |
| { |
| "epoch": 0.06613333333333334, |
| "grad_norm": 6.6163194002583845, |
| "learning_rate": 4.397163120567376e-07, |
| "loss": 0.0819, |
| "step": 62 |
| }, |
| { |
| "epoch": 0.0672, |
| "grad_norm": 6.790998305599636, |
| "learning_rate": 4.4680851063829783e-07, |
| "loss": 0.1505, |
| "step": 63 |
| }, |
| { |
| "epoch": 0.06826666666666667, |
| "grad_norm": 2.650894150253927, |
| "learning_rate": 4.5390070921985813e-07, |
| "loss": 0.0607, |
| "step": 64 |
| }, |
| { |
| "epoch": 0.06933333333333333, |
| "grad_norm": 4.408808753479698, |
| "learning_rate": 4.6099290780141843e-07, |
| "loss": 0.065, |
| "step": 65 |
| }, |
| { |
| "epoch": 0.0704, |
| "grad_norm": 2.951479505537457, |
| "learning_rate": 4.6808510638297873e-07, |
| "loss": 0.0691, |
| "step": 66 |
| }, |
| { |
| "epoch": 0.07146666666666666, |
| "grad_norm": 2.2831307650993438, |
| "learning_rate": 4.75177304964539e-07, |
| "loss": 0.0597, |
| "step": 67 |
| }, |
| { |
| "epoch": 0.07253333333333334, |
| "grad_norm": 4.755633341091047, |
| "learning_rate": 4.822695035460992e-07, |
| "loss": 0.0864, |
| "step": 68 |
| }, |
| { |
| "epoch": 0.0736, |
| "grad_norm": 4.554930100975794, |
| "learning_rate": 4.893617021276595e-07, |
| "loss": 0.0763, |
| "step": 69 |
| }, |
| { |
| "epoch": 0.07466666666666667, |
| "grad_norm": 2.6442276802850855, |
| "learning_rate": 4.964539007092198e-07, |
| "loss": 0.0824, |
| "step": 70 |
| }, |
| { |
| "epoch": 0.07573333333333333, |
| "grad_norm": 2.5741437746448783, |
| "learning_rate": 5.0354609929078e-07, |
| "loss": 0.0579, |
| "step": 71 |
| }, |
| { |
| "epoch": 0.0768, |
| "grad_norm": 3.595530272135639, |
| "learning_rate": 5.106382978723403e-07, |
| "loss": 0.0643, |
| "step": 72 |
| }, |
| { |
| "epoch": 0.07786666666666667, |
| "grad_norm": 5.477870680617374, |
| "learning_rate": 5.177304964539006e-07, |
| "loss": 0.0869, |
| "step": 73 |
| }, |
| { |
| "epoch": 0.07893333333333333, |
| "grad_norm": 7.221540857358708, |
| "learning_rate": 5.248226950354609e-07, |
| "loss": 0.1179, |
| "step": 74 |
| }, |
| { |
| "epoch": 0.08, |
| "grad_norm": 3.113022269373061, |
| "learning_rate": 5.319148936170212e-07, |
| "loss": 0.079, |
| "step": 75 |
| }, |
| { |
| "epoch": 0.08106666666666666, |
| "grad_norm": 2.41642137337109, |
| "learning_rate": 5.390070921985815e-07, |
| "loss": 0.0647, |
| "step": 76 |
| }, |
| { |
| "epoch": 0.08213333333333334, |
| "grad_norm": 4.730547946277124, |
| "learning_rate": 5.460992907801418e-07, |
| "loss": 0.0656, |
| "step": 77 |
| }, |
| { |
| "epoch": 0.0832, |
| "grad_norm": 2.703988101964762, |
| "learning_rate": 5.531914893617021e-07, |
| "loss": 0.0707, |
| "step": 78 |
| }, |
| { |
| "epoch": 0.08426666666666667, |
| "grad_norm": 4.7268623347309235, |
| "learning_rate": 5.602836879432624e-07, |
| "loss": 0.1377, |
| "step": 79 |
| }, |
| { |
| "epoch": 0.08533333333333333, |
| "grad_norm": 1.2076954307731242, |
| "learning_rate": 5.673758865248227e-07, |
| "loss": 0.0274, |
| "step": 80 |
| }, |
| { |
| "epoch": 0.0864, |
| "grad_norm": 4.6689012165897825, |
| "learning_rate": 5.74468085106383e-07, |
| "loss": 0.0487, |
| "step": 81 |
| }, |
| { |
| "epoch": 0.08746666666666666, |
| "grad_norm": 2.770738253589274, |
| "learning_rate": 5.815602836879432e-07, |
| "loss": 0.0512, |
| "step": 82 |
| }, |
| { |
| "epoch": 0.08853333333333334, |
| "grad_norm": 3.6483172234190966, |
| "learning_rate": 5.886524822695035e-07, |
| "loss": 0.0995, |
| "step": 83 |
| }, |
| { |
| "epoch": 0.0896, |
| "grad_norm": 3.739966939654011, |
| "learning_rate": 5.957446808510638e-07, |
| "loss": 0.0934, |
| "step": 84 |
| }, |
| { |
| "epoch": 0.09066666666666667, |
| "grad_norm": 1.608577977472446, |
| "learning_rate": 6.028368794326241e-07, |
| "loss": 0.0385, |
| "step": 85 |
| }, |
| { |
| "epoch": 0.09173333333333333, |
| "grad_norm": 3.8617195954418406, |
| "learning_rate": 6.099290780141844e-07, |
| "loss": 0.0569, |
| "step": 86 |
| }, |
| { |
| "epoch": 0.0928, |
| "grad_norm": 2.081952515100534, |
| "learning_rate": 6.170212765957446e-07, |
| "loss": 0.0482, |
| "step": 87 |
| }, |
| { |
| "epoch": 0.09386666666666667, |
| "grad_norm": 2.388775033154843, |
| "learning_rate": 6.241134751773049e-07, |
| "loss": 0.0524, |
| "step": 88 |
| }, |
| { |
| "epoch": 0.09493333333333333, |
| "grad_norm": 3.007951500761127, |
| "learning_rate": 6.312056737588652e-07, |
| "loss": 0.0203, |
| "step": 89 |
| }, |
| { |
| "epoch": 0.096, |
| "grad_norm": 6.522690069132942, |
| "learning_rate": 6.382978723404255e-07, |
| "loss": 0.0809, |
| "step": 90 |
| }, |
| { |
| "epoch": 0.09706666666666666, |
| "grad_norm": 3.471639318133103, |
| "learning_rate": 6.453900709219858e-07, |
| "loss": 0.046, |
| "step": 91 |
| }, |
| { |
| "epoch": 0.09813333333333334, |
| "grad_norm": 3.5195736847771695, |
| "learning_rate": 6.524822695035461e-07, |
| "loss": 0.0408, |
| "step": 92 |
| }, |
| { |
| "epoch": 0.0992, |
| "grad_norm": 1.6266036572427804, |
| "learning_rate": 6.595744680851063e-07, |
| "loss": 0.0458, |
| "step": 93 |
| }, |
| { |
| "epoch": 0.10026666666666667, |
| "grad_norm": 2.913848756075948, |
| "learning_rate": 6.666666666666666e-07, |
| "loss": 0.0609, |
| "step": 94 |
| }, |
| { |
| "epoch": 0.10133333333333333, |
| "grad_norm": 3.639917136914541, |
| "learning_rate": 6.737588652482269e-07, |
| "loss": 0.0649, |
| "step": 95 |
| }, |
| { |
| "epoch": 0.1024, |
| "grad_norm": 2.731695042035598, |
| "learning_rate": 6.808510638297872e-07, |
| "loss": 0.033, |
| "step": 96 |
| }, |
| { |
| "epoch": 0.10346666666666667, |
| "grad_norm": 9.817120143278682, |
| "learning_rate": 6.879432624113475e-07, |
| "loss": 0.0736, |
| "step": 97 |
| }, |
| { |
| "epoch": 0.10453333333333334, |
| "grad_norm": 8.957707046031748, |
| "learning_rate": 6.950354609929078e-07, |
| "loss": 0.1436, |
| "step": 98 |
| }, |
| { |
| "epoch": 0.1056, |
| "grad_norm": 3.7249541410034217, |
| "learning_rate": 7.021276595744681e-07, |
| "loss": 0.1571, |
| "step": 99 |
| }, |
| { |
| "epoch": 0.10666666666666667, |
| "grad_norm": 2.1810107595999826, |
| "learning_rate": 7.092198581560284e-07, |
| "loss": 0.0234, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.10666666666666667, |
| "eval_loss": 0.06481269001960754, |
| "eval_runtime": 8.2247, |
| "eval_samples_per_second": 12.158, |
| "eval_steps_per_second": 6.079, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.10773333333333333, |
| "grad_norm": 1.1960831433119428, |
| "learning_rate": 7.163120567375887e-07, |
| "loss": 0.0091, |
| "step": 101 |
| }, |
| { |
| "epoch": 0.1088, |
| "grad_norm": 7.88812174005162, |
| "learning_rate": 7.23404255319149e-07, |
| "loss": 0.0639, |
| "step": 102 |
| }, |
| { |
| "epoch": 0.10986666666666667, |
| "grad_norm": 1.7897229106298904, |
| "learning_rate": 7.304964539007092e-07, |
| "loss": 0.0272, |
| "step": 103 |
| }, |
| { |
| "epoch": 0.11093333333333333, |
| "grad_norm": 2.740100759064914, |
| "learning_rate": 7.375886524822694e-07, |
| "loss": 0.044, |
| "step": 104 |
| }, |
| { |
| "epoch": 0.112, |
| "grad_norm": 5.0893894072651324, |
| "learning_rate": 7.446808510638297e-07, |
| "loss": 0.0409, |
| "step": 105 |
| }, |
| { |
| "epoch": 0.11306666666666666, |
| "grad_norm": 2.568188070153663, |
| "learning_rate": 7.5177304964539e-07, |
| "loss": 0.0485, |
| "step": 106 |
| }, |
| { |
| "epoch": 0.11413333333333334, |
| "grad_norm": 8.001505274552581, |
| "learning_rate": 7.588652482269503e-07, |
| "loss": 0.1164, |
| "step": 107 |
| }, |
| { |
| "epoch": 0.1152, |
| "grad_norm": 9.975541818451585, |
| "learning_rate": 7.659574468085106e-07, |
| "loss": 0.1097, |
| "step": 108 |
| }, |
| { |
| "epoch": 0.11626666666666667, |
| "grad_norm": 6.831232611992033, |
| "learning_rate": 7.730496453900709e-07, |
| "loss": 0.0999, |
| "step": 109 |
| }, |
| { |
| "epoch": 0.11733333333333333, |
| "grad_norm": 4.659876893891191, |
| "learning_rate": 7.801418439716312e-07, |
| "loss": 0.0495, |
| "step": 110 |
| }, |
| { |
| "epoch": 0.1184, |
| "grad_norm": 3.2805986727535767, |
| "learning_rate": 7.872340425531915e-07, |
| "loss": 0.0549, |
| "step": 111 |
| }, |
| { |
| "epoch": 0.11946666666666667, |
| "grad_norm": 2.9331360611303827, |
| "learning_rate": 7.943262411347518e-07, |
| "loss": 0.0259, |
| "step": 112 |
| }, |
| { |
| "epoch": 0.12053333333333334, |
| "grad_norm": 5.955971751835239, |
| "learning_rate": 8.014184397163121e-07, |
| "loss": 0.0543, |
| "step": 113 |
| }, |
| { |
| "epoch": 0.1216, |
| "grad_norm": 4.113357400085846, |
| "learning_rate": 8.085106382978723e-07, |
| "loss": 0.0886, |
| "step": 114 |
| }, |
| { |
| "epoch": 0.12266666666666666, |
| "grad_norm": 4.2115598224554915, |
| "learning_rate": 8.156028368794326e-07, |
| "loss": 0.0447, |
| "step": 115 |
| }, |
| { |
| "epoch": 0.12373333333333333, |
| "grad_norm": 5.438624632240716, |
| "learning_rate": 8.226950354609929e-07, |
| "loss": 0.0402, |
| "step": 116 |
| }, |
| { |
| "epoch": 0.1248, |
| "grad_norm": 4.86723071794748, |
| "learning_rate": 8.297872340425532e-07, |
| "loss": 0.0717, |
| "step": 117 |
| }, |
| { |
| "epoch": 0.12586666666666665, |
| "grad_norm": 2.467742405372819, |
| "learning_rate": 8.368794326241134e-07, |
| "loss": 0.0416, |
| "step": 118 |
| }, |
| { |
| "epoch": 0.12693333333333334, |
| "grad_norm": 7.610907063462189, |
| "learning_rate": 8.439716312056737e-07, |
| "loss": 0.0901, |
| "step": 119 |
| }, |
| { |
| "epoch": 0.128, |
| "grad_norm": 4.686021668274038, |
| "learning_rate": 8.51063829787234e-07, |
| "loss": 0.1223, |
| "step": 120 |
| }, |
| { |
| "epoch": 0.12906666666666666, |
| "grad_norm": 2.0727614732992907, |
| "learning_rate": 8.581560283687943e-07, |
| "loss": 0.0174, |
| "step": 121 |
| }, |
| { |
| "epoch": 0.13013333333333332, |
| "grad_norm": 5.32405840348475, |
| "learning_rate": 8.652482269503546e-07, |
| "loss": 0.0808, |
| "step": 122 |
| }, |
| { |
| "epoch": 0.1312, |
| "grad_norm": 2.426088323541015, |
| "learning_rate": 8.723404255319149e-07, |
| "loss": 0.0619, |
| "step": 123 |
| }, |
| { |
| "epoch": 0.13226666666666667, |
| "grad_norm": 3.233558168729233, |
| "learning_rate": 8.794326241134752e-07, |
| "loss": 0.0301, |
| "step": 124 |
| }, |
| { |
| "epoch": 0.13333333333333333, |
| "grad_norm": 4.0896756561304315, |
| "learning_rate": 8.865248226950354e-07, |
| "loss": 0.065, |
| "step": 125 |
| }, |
| { |
| "epoch": 0.1344, |
| "grad_norm": 1.6818444665396033, |
| "learning_rate": 8.936170212765957e-07, |
| "loss": 0.0333, |
| "step": 126 |
| }, |
| { |
| "epoch": 0.13546666666666668, |
| "grad_norm": 2.728458267778592, |
| "learning_rate": 9.00709219858156e-07, |
| "loss": 0.0363, |
| "step": 127 |
| }, |
| { |
| "epoch": 0.13653333333333334, |
| "grad_norm": 6.345498454995162, |
| "learning_rate": 9.078014184397163e-07, |
| "loss": 0.1187, |
| "step": 128 |
| }, |
| { |
| "epoch": 0.1376, |
| "grad_norm": 4.328408872797893, |
| "learning_rate": 9.148936170212766e-07, |
| "loss": 0.0419, |
| "step": 129 |
| }, |
| { |
| "epoch": 0.13866666666666666, |
| "grad_norm": 10.015435899692932, |
| "learning_rate": 9.219858156028369e-07, |
| "loss": 0.0964, |
| "step": 130 |
| }, |
| { |
| "epoch": 0.13973333333333332, |
| "grad_norm": 1.6723221742745367, |
| "learning_rate": 9.290780141843972e-07, |
| "loss": 0.035, |
| "step": 131 |
| }, |
| { |
| "epoch": 0.1408, |
| "grad_norm": 3.5841880533579973, |
| "learning_rate": 9.361702127659575e-07, |
| "loss": 0.0394, |
| "step": 132 |
| }, |
| { |
| "epoch": 0.14186666666666667, |
| "grad_norm": 4.261342222841079, |
| "learning_rate": 9.432624113475178e-07, |
| "loss": 0.0669, |
| "step": 133 |
| }, |
| { |
| "epoch": 0.14293333333333333, |
| "grad_norm": 6.098751164731887, |
| "learning_rate": 9.50354609929078e-07, |
| "loss": 0.1115, |
| "step": 134 |
| }, |
| { |
| "epoch": 0.144, |
| "grad_norm": 1.2897369793688551, |
| "learning_rate": 9.574468085106384e-07, |
| "loss": 0.0097, |
| "step": 135 |
| }, |
| { |
| "epoch": 0.14506666666666668, |
| "grad_norm": 4.544123029340591, |
| "learning_rate": 9.645390070921985e-07, |
| "loss": 0.0969, |
| "step": 136 |
| }, |
| { |
| "epoch": 0.14613333333333334, |
| "grad_norm": 1.5628401890628374, |
| "learning_rate": 9.716312056737588e-07, |
| "loss": 0.0403, |
| "step": 137 |
| }, |
| { |
| "epoch": 0.1472, |
| "grad_norm": 1.7549153917413034, |
| "learning_rate": 9.78723404255319e-07, |
| "loss": 0.0467, |
| "step": 138 |
| }, |
| { |
| "epoch": 0.14826666666666666, |
| "grad_norm": 2.320989852451606, |
| "learning_rate": 9.858156028368794e-07, |
| "loss": 0.0193, |
| "step": 139 |
| }, |
| { |
| "epoch": 0.14933333333333335, |
| "grad_norm": 2.346049286050555, |
| "learning_rate": 9.929078014184397e-07, |
| "loss": 0.0372, |
| "step": 140 |
| }, |
| { |
| "epoch": 0.1504, |
| "grad_norm": 1.5488644076712703, |
| "learning_rate": 1e-06, |
| "loss": 0.0221, |
| "step": 141 |
| }, |
| { |
| "epoch": 0.15146666666666667, |
| "grad_norm": 4.969297825110415, |
| "learning_rate": 1.00709219858156e-06, |
| "loss": 0.0628, |
| "step": 142 |
| }, |
| { |
| "epoch": 0.15253333333333333, |
| "grad_norm": 7.149276868869306, |
| "learning_rate": 1.0141843971631206e-06, |
| "loss": 0.1116, |
| "step": 143 |
| }, |
| { |
| "epoch": 0.1536, |
| "grad_norm": 0.2675005720455285, |
| "learning_rate": 1.0212765957446806e-06, |
| "loss": 0.0037, |
| "step": 144 |
| }, |
| { |
| "epoch": 0.15466666666666667, |
| "grad_norm": 5.3616860538847, |
| "learning_rate": 1.0283687943262412e-06, |
| "loss": 0.0766, |
| "step": 145 |
| }, |
| { |
| "epoch": 0.15573333333333333, |
| "grad_norm": 6.013894600480369, |
| "learning_rate": 1.0354609929078012e-06, |
| "loss": 0.0593, |
| "step": 146 |
| }, |
| { |
| "epoch": 0.1568, |
| "grad_norm": 1.4495595799620324, |
| "learning_rate": 1.0425531914893618e-06, |
| "loss": 0.012, |
| "step": 147 |
| }, |
| { |
| "epoch": 0.15786666666666666, |
| "grad_norm": 4.233815449703168, |
| "learning_rate": 1.0496453900709218e-06, |
| "loss": 0.0294, |
| "step": 148 |
| }, |
| { |
| "epoch": 0.15893333333333334, |
| "grad_norm": 2.451426369798809, |
| "learning_rate": 1.0567375886524824e-06, |
| "loss": 0.0173, |
| "step": 149 |
| }, |
| { |
| "epoch": 0.16, |
| "grad_norm": 4.632800200399283, |
| "learning_rate": 1.0638297872340424e-06, |
| "loss": 0.0968, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.16, |
| "eval_loss": 0.06421443819999695, |
| "eval_runtime": 8.2805, |
| "eval_samples_per_second": 12.077, |
| "eval_steps_per_second": 6.038, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.16106666666666666, |
| "grad_norm": 2.856107152285347, |
| "learning_rate": 1.070921985815603e-06, |
| "loss": 0.0483, |
| "step": 151 |
| }, |
| { |
| "epoch": 0.16213333333333332, |
| "grad_norm": 0.08185139161633281, |
| "learning_rate": 1.078014184397163e-06, |
| "loss": 0.0008, |
| "step": 152 |
| }, |
| { |
| "epoch": 0.1632, |
| "grad_norm": 5.278258913229691, |
| "learning_rate": 1.0851063829787233e-06, |
| "loss": 0.1142, |
| "step": 153 |
| }, |
| { |
| "epoch": 0.16426666666666667, |
| "grad_norm": 7.501273081001087, |
| "learning_rate": 1.0921985815602836e-06, |
| "loss": 0.097, |
| "step": 154 |
| }, |
| { |
| "epoch": 0.16533333333333333, |
| "grad_norm": 2.004995420525806, |
| "learning_rate": 1.099290780141844e-06, |
| "loss": 0.0186, |
| "step": 155 |
| }, |
| { |
| "epoch": 0.1664, |
| "grad_norm": 4.220058789565755, |
| "learning_rate": 1.1063829787234042e-06, |
| "loss": 0.0803, |
| "step": 156 |
| }, |
| { |
| "epoch": 0.16746666666666668, |
| "grad_norm": 2.249509514015917, |
| "learning_rate": 1.1134751773049643e-06, |
| "loss": 0.0225, |
| "step": 157 |
| }, |
| { |
| "epoch": 0.16853333333333334, |
| "grad_norm": 3.8638590825276617, |
| "learning_rate": 1.1205673758865248e-06, |
| "loss": 0.0911, |
| "step": 158 |
| }, |
| { |
| "epoch": 0.1696, |
| "grad_norm": 1.412533711588782, |
| "learning_rate": 1.127659574468085e-06, |
| "loss": 0.0139, |
| "step": 159 |
| }, |
| { |
| "epoch": 0.17066666666666666, |
| "grad_norm": 2.82343360057798, |
| "learning_rate": 1.1347517730496454e-06, |
| "loss": 0.0851, |
| "step": 160 |
| }, |
| { |
| "epoch": 0.17173333333333332, |
| "grad_norm": 1.7495393166443622, |
| "learning_rate": 1.1418439716312055e-06, |
| "loss": 0.0308, |
| "step": 161 |
| }, |
| { |
| "epoch": 0.1728, |
| "grad_norm": 3.6302290317483297, |
| "learning_rate": 1.148936170212766e-06, |
| "loss": 0.0736, |
| "step": 162 |
| }, |
| { |
| "epoch": 0.17386666666666667, |
| "grad_norm": 4.896254754620509, |
| "learning_rate": 1.1560283687943261e-06, |
| "loss": 0.0554, |
| "step": 163 |
| }, |
| { |
| "epoch": 0.17493333333333333, |
| "grad_norm": 4.111273140347231, |
| "learning_rate": 1.1631205673758864e-06, |
| "loss": 0.0741, |
| "step": 164 |
| }, |
| { |
| "epoch": 0.176, |
| "grad_norm": 3.1818646079754496, |
| "learning_rate": 1.1702127659574467e-06, |
| "loss": 0.0934, |
| "step": 165 |
| }, |
| { |
| "epoch": 0.17706666666666668, |
| "grad_norm": 4.419859251526752, |
| "learning_rate": 1.177304964539007e-06, |
| "loss": 0.0778, |
| "step": 166 |
| }, |
| { |
| "epoch": 0.17813333333333334, |
| "grad_norm": 4.56044687337971, |
| "learning_rate": 1.1843971631205673e-06, |
| "loss": 0.0706, |
| "step": 167 |
| }, |
| { |
| "epoch": 0.1792, |
| "grad_norm": 1.2936041090561832, |
| "learning_rate": 1.1914893617021276e-06, |
| "loss": 0.012, |
| "step": 168 |
| }, |
| { |
| "epoch": 0.18026666666666666, |
| "grad_norm": 6.909726597822846, |
| "learning_rate": 1.198581560283688e-06, |
| "loss": 0.1474, |
| "step": 169 |
| }, |
| { |
| "epoch": 0.18133333333333335, |
| "grad_norm": 0.8563591336490418, |
| "learning_rate": 1.2056737588652482e-06, |
| "loss": 0.0135, |
| "step": 170 |
| }, |
| { |
| "epoch": 0.1824, |
| "grad_norm": 3.3164997831647023, |
| "learning_rate": 1.2127659574468085e-06, |
| "loss": 0.0786, |
| "step": 171 |
| }, |
| { |
| "epoch": 0.18346666666666667, |
| "grad_norm": 2.8146626483351707, |
| "learning_rate": 1.2198581560283688e-06, |
| "loss": 0.0521, |
| "step": 172 |
| }, |
| { |
| "epoch": 0.18453333333333333, |
| "grad_norm": 2.8830483742154582, |
| "learning_rate": 1.2269503546099291e-06, |
| "loss": 0.0286, |
| "step": 173 |
| }, |
| { |
| "epoch": 0.1856, |
| "grad_norm": 1.9820766581104607, |
| "learning_rate": 1.2340425531914892e-06, |
| "loss": 0.0337, |
| "step": 174 |
| }, |
| { |
| "epoch": 0.18666666666666668, |
| "grad_norm": 1.2778034782738863, |
| "learning_rate": 1.2411347517730495e-06, |
| "loss": 0.0308, |
| "step": 175 |
| }, |
| { |
| "epoch": 0.18773333333333334, |
| "grad_norm": 1.462555534851203, |
| "learning_rate": 1.2482269503546098e-06, |
| "loss": 0.0454, |
| "step": 176 |
| }, |
| { |
| "epoch": 0.1888, |
| "grad_norm": 4.565414819418628, |
| "learning_rate": 1.2553191489361701e-06, |
| "loss": 0.1228, |
| "step": 177 |
| }, |
| { |
| "epoch": 0.18986666666666666, |
| "grad_norm": 2.3313756348264234, |
| "learning_rate": 1.2624113475177304e-06, |
| "loss": 0.0318, |
| "step": 178 |
| }, |
| { |
| "epoch": 0.19093333333333334, |
| "grad_norm": 3.7670309246458347, |
| "learning_rate": 1.2695035460992907e-06, |
| "loss": 0.0699, |
| "step": 179 |
| }, |
| { |
| "epoch": 0.192, |
| "grad_norm": 1.7487010839053967, |
| "learning_rate": 1.276595744680851e-06, |
| "loss": 0.0486, |
| "step": 180 |
| }, |
| { |
| "epoch": 0.19306666666666666, |
| "grad_norm": 1.1340373154975194, |
| "learning_rate": 1.2836879432624113e-06, |
| "loss": 0.0177, |
| "step": 181 |
| }, |
| { |
| "epoch": 0.19413333333333332, |
| "grad_norm": 1.6584782594569225, |
| "learning_rate": 1.2907801418439716e-06, |
| "loss": 0.0208, |
| "step": 182 |
| }, |
| { |
| "epoch": 0.1952, |
| "grad_norm": 1.134470635269048, |
| "learning_rate": 1.297872340425532e-06, |
| "loss": 0.0161, |
| "step": 183 |
| }, |
| { |
| "epoch": 0.19626666666666667, |
| "grad_norm": 1.5565427530107756, |
| "learning_rate": 1.3049645390070922e-06, |
| "loss": 0.0264, |
| "step": 184 |
| }, |
| { |
| "epoch": 0.19733333333333333, |
| "grad_norm": 3.349937714357119, |
| "learning_rate": 1.3120567375886525e-06, |
| "loss": 0.0426, |
| "step": 185 |
| }, |
| { |
| "epoch": 0.1984, |
| "grad_norm": 3.437101265121438, |
| "learning_rate": 1.3191489361702126e-06, |
| "loss": 0.0512, |
| "step": 186 |
| }, |
| { |
| "epoch": 0.19946666666666665, |
| "grad_norm": 1.5534578823823257, |
| "learning_rate": 1.3262411347517731e-06, |
| "loss": 0.0512, |
| "step": 187 |
| }, |
| { |
| "epoch": 0.20053333333333334, |
| "grad_norm": 3.577731738050452, |
| "learning_rate": 1.3333333333333332e-06, |
| "loss": 0.0509, |
| "step": 188 |
| }, |
| { |
| "epoch": 0.2016, |
| "grad_norm": 0.8955687373362503, |
| "learning_rate": 1.3404255319148935e-06, |
| "loss": 0.0148, |
| "step": 189 |
| }, |
| { |
| "epoch": 0.20266666666666666, |
| "grad_norm": 2.2424497514910415, |
| "learning_rate": 1.3475177304964538e-06, |
| "loss": 0.0458, |
| "step": 190 |
| }, |
| { |
| "epoch": 0.20373333333333332, |
| "grad_norm": 3.0547659131465204, |
| "learning_rate": 1.354609929078014e-06, |
| "loss": 0.0414, |
| "step": 191 |
| }, |
| { |
| "epoch": 0.2048, |
| "grad_norm": 2.7613386920774126, |
| "learning_rate": 1.3617021276595744e-06, |
| "loss": 0.0254, |
| "step": 192 |
| }, |
| { |
| "epoch": 0.20586666666666667, |
| "grad_norm": 1.8247270325842186, |
| "learning_rate": 1.3687943262411347e-06, |
| "loss": 0.0219, |
| "step": 193 |
| }, |
| { |
| "epoch": 0.20693333333333333, |
| "grad_norm": 0.9745378819375361, |
| "learning_rate": 1.375886524822695e-06, |
| "loss": 0.006, |
| "step": 194 |
| }, |
| { |
| "epoch": 0.208, |
| "grad_norm": 2.2394688913221863, |
| "learning_rate": 1.3829787234042553e-06, |
| "loss": 0.0103, |
| "step": 195 |
| }, |
| { |
| "epoch": 0.20906666666666668, |
| "grad_norm": 2.745981240625009, |
| "learning_rate": 1.3900709219858156e-06, |
| "loss": 0.0324, |
| "step": 196 |
| }, |
| { |
| "epoch": 0.21013333333333334, |
| "grad_norm": 1.819255867549425, |
| "learning_rate": 1.3971631205673757e-06, |
| "loss": 0.0499, |
| "step": 197 |
| }, |
| { |
| "epoch": 0.2112, |
| "grad_norm": 2.244330878993336, |
| "learning_rate": 1.4042553191489362e-06, |
| "loss": 0.0525, |
| "step": 198 |
| }, |
| { |
| "epoch": 0.21226666666666666, |
| "grad_norm": 2.4420486660479517, |
| "learning_rate": 1.4113475177304963e-06, |
| "loss": 0.0456, |
| "step": 199 |
| }, |
| { |
| "epoch": 0.21333333333333335, |
| "grad_norm": 3.0961362752080106, |
| "learning_rate": 1.4184397163120568e-06, |
| "loss": 0.0819, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.21333333333333335, |
| "eval_loss": 0.04034098610281944, |
| "eval_runtime": 8.5631, |
| "eval_samples_per_second": 11.678, |
| "eval_steps_per_second": 5.839, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.2144, |
| "grad_norm": 0.44759408047365645, |
| "learning_rate": 1.4255319148936169e-06, |
| "loss": 0.0054, |
| "step": 201 |
| }, |
| { |
| "epoch": 0.21546666666666667, |
| "grad_norm": 0.42272894381608905, |
| "learning_rate": 1.4326241134751774e-06, |
| "loss": 0.0058, |
| "step": 202 |
| }, |
| { |
| "epoch": 0.21653333333333333, |
| "grad_norm": 0.3201232486606026, |
| "learning_rate": 1.4397163120567375e-06, |
| "loss": 0.0027, |
| "step": 203 |
| }, |
| { |
| "epoch": 0.2176, |
| "grad_norm": 1.8690764660164247, |
| "learning_rate": 1.446808510638298e-06, |
| "loss": 0.0656, |
| "step": 204 |
| }, |
| { |
| "epoch": 0.21866666666666668, |
| "grad_norm": 3.2454931850225903, |
| "learning_rate": 1.453900709219858e-06, |
| "loss": 0.0371, |
| "step": 205 |
| }, |
| { |
| "epoch": 0.21973333333333334, |
| "grad_norm": 1.3719630571760064, |
| "learning_rate": 1.4609929078014184e-06, |
| "loss": 0.0195, |
| "step": 206 |
| }, |
| { |
| "epoch": 0.2208, |
| "grad_norm": 4.690223152603984, |
| "learning_rate": 1.4680851063829787e-06, |
| "loss": 0.1838, |
| "step": 207 |
| }, |
| { |
| "epoch": 0.22186666666666666, |
| "grad_norm": 0.7280526453294364, |
| "learning_rate": 1.4751773049645388e-06, |
| "loss": 0.0113, |
| "step": 208 |
| }, |
| { |
| "epoch": 0.22293333333333334, |
| "grad_norm": 2.1942258546982, |
| "learning_rate": 1.4822695035460993e-06, |
| "loss": 0.0375, |
| "step": 209 |
| }, |
| { |
| "epoch": 0.224, |
| "grad_norm": 2.2700526093435385, |
| "learning_rate": 1.4893617021276594e-06, |
| "loss": 0.0225, |
| "step": 210 |
| }, |
| { |
| "epoch": 0.22506666666666666, |
| "grad_norm": 3.4887713183278706, |
| "learning_rate": 1.4964539007092199e-06, |
| "loss": 0.0354, |
| "step": 211 |
| }, |
| { |
| "epoch": 0.22613333333333333, |
| "grad_norm": 1.3287581441040275, |
| "learning_rate": 1.50354609929078e-06, |
| "loss": 0.0478, |
| "step": 212 |
| }, |
| { |
| "epoch": 0.2272, |
| "grad_norm": 0.706172015872483, |
| "learning_rate": 1.5106382978723405e-06, |
| "loss": 0.0071, |
| "step": 213 |
| }, |
| { |
| "epoch": 0.22826666666666667, |
| "grad_norm": 3.3176110506984555, |
| "learning_rate": 1.5177304964539006e-06, |
| "loss": 0.0872, |
| "step": 214 |
| }, |
| { |
| "epoch": 0.22933333333333333, |
| "grad_norm": 1.2584019241467503, |
| "learning_rate": 1.524822695035461e-06, |
| "loss": 0.0141, |
| "step": 215 |
| }, |
| { |
| "epoch": 0.2304, |
| "grad_norm": 3.3428962741186514, |
| "learning_rate": 1.5319148936170212e-06, |
| "loss": 0.0469, |
| "step": 216 |
| }, |
| { |
| "epoch": 0.23146666666666665, |
| "grad_norm": 5.630841551653268, |
| "learning_rate": 1.5390070921985815e-06, |
| "loss": 0.1787, |
| "step": 217 |
| }, |
| { |
| "epoch": 0.23253333333333334, |
| "grad_norm": 3.1064693364930704, |
| "learning_rate": 1.5460992907801418e-06, |
| "loss": 0.0461, |
| "step": 218 |
| }, |
| { |
| "epoch": 0.2336, |
| "grad_norm": 6.955897478479723, |
| "learning_rate": 1.5531914893617019e-06, |
| "loss": 0.1266, |
| "step": 219 |
| }, |
| { |
| "epoch": 0.23466666666666666, |
| "grad_norm": 6.6141804145859675, |
| "learning_rate": 1.5602836879432624e-06, |
| "loss": 0.1013, |
| "step": 220 |
| }, |
| { |
| "epoch": 0.23573333333333332, |
| "grad_norm": 1.5187752417644704, |
| "learning_rate": 1.5673758865248225e-06, |
| "loss": 0.0219, |
| "step": 221 |
| }, |
| { |
| "epoch": 0.2368, |
| "grad_norm": 0.7602007659688867, |
| "learning_rate": 1.574468085106383e-06, |
| "loss": 0.0163, |
| "step": 222 |
| }, |
| { |
| "epoch": 0.23786666666666667, |
| "grad_norm": 1.2922825373649611, |
| "learning_rate": 1.581560283687943e-06, |
| "loss": 0.0126, |
| "step": 223 |
| }, |
| { |
| "epoch": 0.23893333333333333, |
| "grad_norm": 1.564285880714171, |
| "learning_rate": 1.5886524822695036e-06, |
| "loss": 0.0274, |
| "step": 224 |
| }, |
| { |
| "epoch": 0.24, |
| "grad_norm": 1.8256861393160675, |
| "learning_rate": 1.5957446808510637e-06, |
| "loss": 0.0801, |
| "step": 225 |
| }, |
| { |
| "epoch": 0.24106666666666668, |
| "grad_norm": 5.626390458824275, |
| "learning_rate": 1.6028368794326242e-06, |
| "loss": 0.1175, |
| "step": 226 |
| }, |
| { |
| "epoch": 0.24213333333333334, |
| "grad_norm": 0.3639992497542339, |
| "learning_rate": 1.6099290780141843e-06, |
| "loss": 0.0042, |
| "step": 227 |
| }, |
| { |
| "epoch": 0.2432, |
| "grad_norm": 0.9623642386925754, |
| "learning_rate": 1.6170212765957446e-06, |
| "loss": 0.0303, |
| "step": 228 |
| }, |
| { |
| "epoch": 0.24426666666666666, |
| "grad_norm": 4.786039455247629, |
| "learning_rate": 1.6241134751773049e-06, |
| "loss": 0.1451, |
| "step": 229 |
| }, |
| { |
| "epoch": 0.24533333333333332, |
| "grad_norm": 1.7940933903892, |
| "learning_rate": 1.6312056737588652e-06, |
| "loss": 0.0242, |
| "step": 230 |
| }, |
| { |
| "epoch": 0.2464, |
| "grad_norm": 1.1872990094484728, |
| "learning_rate": 1.6382978723404255e-06, |
| "loss": 0.0142, |
| "step": 231 |
| }, |
| { |
| "epoch": 0.24746666666666667, |
| "grad_norm": 3.6465271365421694, |
| "learning_rate": 1.6453900709219858e-06, |
| "loss": 0.1327, |
| "step": 232 |
| }, |
| { |
| "epoch": 0.24853333333333333, |
| "grad_norm": 3.4606007899724736, |
| "learning_rate": 1.652482269503546e-06, |
| "loss": 0.0752, |
| "step": 233 |
| }, |
| { |
| "epoch": 0.2496, |
| "grad_norm": 1.7829502544111206, |
| "learning_rate": 1.6595744680851064e-06, |
| "loss": 0.0551, |
| "step": 234 |
| }, |
| { |
| "epoch": 0.25066666666666665, |
| "grad_norm": 0.4291699362420302, |
| "learning_rate": 1.6666666666666667e-06, |
| "loss": 0.0119, |
| "step": 235 |
| }, |
| { |
| "epoch": 0.2517333333333333, |
| "grad_norm": 1.536096095556399, |
| "learning_rate": 1.6737588652482267e-06, |
| "loss": 0.0207, |
| "step": 236 |
| }, |
| { |
| "epoch": 0.2528, |
| "grad_norm": 1.4834886851834983, |
| "learning_rate": 1.6808510638297873e-06, |
| "loss": 0.024, |
| "step": 237 |
| }, |
| { |
| "epoch": 0.2538666666666667, |
| "grad_norm": 0.5910974696060286, |
| "learning_rate": 1.6879432624113473e-06, |
| "loss": 0.0103, |
| "step": 238 |
| }, |
| { |
| "epoch": 0.25493333333333335, |
| "grad_norm": 1.0554413983828212, |
| "learning_rate": 1.6950354609929076e-06, |
| "loss": 0.0132, |
| "step": 239 |
| }, |
| { |
| "epoch": 0.256, |
| "grad_norm": 1.724598949331031, |
| "learning_rate": 1.702127659574468e-06, |
| "loss": 0.0934, |
| "step": 240 |
| }, |
| { |
| "epoch": 0.25706666666666667, |
| "grad_norm": 1.7576821288165476, |
| "learning_rate": 1.7092198581560282e-06, |
| "loss": 0.0391, |
| "step": 241 |
| }, |
| { |
| "epoch": 0.2581333333333333, |
| "grad_norm": 1.035363958245626, |
| "learning_rate": 1.7163120567375885e-06, |
| "loss": 0.0141, |
| "step": 242 |
| }, |
| { |
| "epoch": 0.2592, |
| "grad_norm": 0.2419170209059454, |
| "learning_rate": 1.7234042553191488e-06, |
| "loss": 0.0029, |
| "step": 243 |
| }, |
| { |
| "epoch": 0.26026666666666665, |
| "grad_norm": 1.458905410047098, |
| "learning_rate": 1.7304964539007091e-06, |
| "loss": 0.0254, |
| "step": 244 |
| }, |
| { |
| "epoch": 0.2613333333333333, |
| "grad_norm": 0.2573364956038529, |
| "learning_rate": 1.7375886524822694e-06, |
| "loss": 0.0041, |
| "step": 245 |
| }, |
| { |
| "epoch": 0.2624, |
| "grad_norm": 2.339489703214308, |
| "learning_rate": 1.7446808510638297e-06, |
| "loss": 0.0455, |
| "step": 246 |
| }, |
| { |
| "epoch": 0.2634666666666667, |
| "grad_norm": 2.252526531061772, |
| "learning_rate": 1.75177304964539e-06, |
| "loss": 0.0456, |
| "step": 247 |
| }, |
| { |
| "epoch": 0.26453333333333334, |
| "grad_norm": 0.4833353487456936, |
| "learning_rate": 1.7588652482269503e-06, |
| "loss": 0.0049, |
| "step": 248 |
| }, |
| { |
| "epoch": 0.2656, |
| "grad_norm": 1.537116413342212, |
| "learning_rate": 1.7659574468085106e-06, |
| "loss": 0.0164, |
| "step": 249 |
| }, |
| { |
| "epoch": 0.26666666666666666, |
| "grad_norm": 3.76154579366514, |
| "learning_rate": 1.7730496453900707e-06, |
| "loss": 0.1398, |
| "step": 250 |
| }, |
| { |
| "epoch": 0.26666666666666666, |
| "eval_loss": 0.06543993949890137, |
| "eval_runtime": 9.6094, |
| "eval_samples_per_second": 10.406, |
| "eval_steps_per_second": 5.203, |
| "step": 250 |
| }, |
| { |
| "epoch": 0.2677333333333333, |
| "grad_norm": 4.958054469705704, |
| "learning_rate": 1.780141843971631e-06, |
| "loss": 0.1019, |
| "step": 251 |
| }, |
| { |
| "epoch": 0.2688, |
| "grad_norm": 1.6609198738553164, |
| "learning_rate": 1.7872340425531913e-06, |
| "loss": 0.0499, |
| "step": 252 |
| }, |
| { |
| "epoch": 0.26986666666666664, |
| "grad_norm": 1.6026871476203264, |
| "learning_rate": 1.7943262411347516e-06, |
| "loss": 0.0324, |
| "step": 253 |
| }, |
| { |
| "epoch": 0.27093333333333336, |
| "grad_norm": 0.814342996956287, |
| "learning_rate": 1.801418439716312e-06, |
| "loss": 0.0158, |
| "step": 254 |
| }, |
| { |
| "epoch": 0.272, |
| "grad_norm": 0.21604099963633955, |
| "learning_rate": 1.8085106382978722e-06, |
| "loss": 0.0042, |
| "step": 255 |
| }, |
| { |
| "epoch": 0.2730666666666667, |
| "grad_norm": 0.6624516019158352, |
| "learning_rate": 1.8156028368794325e-06, |
| "loss": 0.0088, |
| "step": 256 |
| }, |
| { |
| "epoch": 0.27413333333333334, |
| "grad_norm": 1.694938724635794, |
| "learning_rate": 1.8226950354609928e-06, |
| "loss": 0.023, |
| "step": 257 |
| }, |
| { |
| "epoch": 0.2752, |
| "grad_norm": 0.4835610610426178, |
| "learning_rate": 1.8297872340425531e-06, |
| "loss": 0.0064, |
| "step": 258 |
| }, |
| { |
| "epoch": 0.27626666666666666, |
| "grad_norm": 1.6087706175732222, |
| "learning_rate": 1.8368794326241134e-06, |
| "loss": 0.024, |
| "step": 259 |
| }, |
| { |
| "epoch": 0.2773333333333333, |
| "grad_norm": 1.174005945770529, |
| "learning_rate": 1.8439716312056737e-06, |
| "loss": 0.0416, |
| "step": 260 |
| }, |
| { |
| "epoch": 0.2784, |
| "grad_norm": 2.0036309118637416, |
| "learning_rate": 1.8510638297872338e-06, |
| "loss": 0.0148, |
| "step": 261 |
| }, |
| { |
| "epoch": 0.27946666666666664, |
| "grad_norm": 0.27542881905219085, |
| "learning_rate": 1.8581560283687943e-06, |
| "loss": 0.0037, |
| "step": 262 |
| }, |
| { |
| "epoch": 0.28053333333333336, |
| "grad_norm": 0.10627036820200016, |
| "learning_rate": 1.8652482269503544e-06, |
| "loss": 0.0016, |
| "step": 263 |
| }, |
| { |
| "epoch": 0.2816, |
| "grad_norm": 1.0016746248189468, |
| "learning_rate": 1.872340425531915e-06, |
| "loss": 0.0128, |
| "step": 264 |
| }, |
| { |
| "epoch": 0.2826666666666667, |
| "grad_norm": 0.982894777786423, |
| "learning_rate": 1.879432624113475e-06, |
| "loss": 0.0173, |
| "step": 265 |
| }, |
| { |
| "epoch": 0.28373333333333334, |
| "grad_norm": 2.235584985951457, |
| "learning_rate": 1.8865248226950355e-06, |
| "loss": 0.0273, |
| "step": 266 |
| }, |
| { |
| "epoch": 0.2848, |
| "grad_norm": 1.9321006724531127, |
| "learning_rate": 1.8936170212765956e-06, |
| "loss": 0.0575, |
| "step": 267 |
| }, |
| { |
| "epoch": 0.28586666666666666, |
| "grad_norm": 2.446015384106489, |
| "learning_rate": 1.900709219858156e-06, |
| "loss": 0.0695, |
| "step": 268 |
| }, |
| { |
| "epoch": 0.2869333333333333, |
| "grad_norm": 1.0664504757410167, |
| "learning_rate": 1.907801418439716e-06, |
| "loss": 0.0103, |
| "step": 269 |
| }, |
| { |
| "epoch": 0.288, |
| "grad_norm": 0.6720506342995207, |
| "learning_rate": 1.9148936170212767e-06, |
| "loss": 0.0052, |
| "step": 270 |
| }, |
| { |
| "epoch": 0.2890666666666667, |
| "grad_norm": 1.9536878981901187, |
| "learning_rate": 1.9219858156028366e-06, |
| "loss": 0.0357, |
| "step": 271 |
| }, |
| { |
| "epoch": 0.29013333333333335, |
| "grad_norm": 0.07505605660652574, |
| "learning_rate": 1.929078014184397e-06, |
| "loss": 0.0015, |
| "step": 272 |
| }, |
| { |
| "epoch": 0.2912, |
| "grad_norm": 0.22146530578795007, |
| "learning_rate": 1.936170212765957e-06, |
| "loss": 0.0018, |
| "step": 273 |
| }, |
| { |
| "epoch": 0.2922666666666667, |
| "grad_norm": 4.705908517665693, |
| "learning_rate": 1.9432624113475175e-06, |
| "loss": 0.1119, |
| "step": 274 |
| }, |
| { |
| "epoch": 0.29333333333333333, |
| "grad_norm": 4.923995204775593, |
| "learning_rate": 1.950354609929078e-06, |
| "loss": 0.136, |
| "step": 275 |
| }, |
| { |
| "epoch": 0.2944, |
| "grad_norm": 3.900812289245892, |
| "learning_rate": 1.957446808510638e-06, |
| "loss": 0.1045, |
| "step": 276 |
| }, |
| { |
| "epoch": 0.29546666666666666, |
| "grad_norm": 1.785174875347817, |
| "learning_rate": 1.9645390070921984e-06, |
| "loss": 0.0623, |
| "step": 277 |
| }, |
| { |
| "epoch": 0.2965333333333333, |
| "grad_norm": 1.2213002904218435, |
| "learning_rate": 1.9716312056737587e-06, |
| "loss": 0.0377, |
| "step": 278 |
| }, |
| { |
| "epoch": 0.2976, |
| "grad_norm": 0.2923059693481855, |
| "learning_rate": 1.978723404255319e-06, |
| "loss": 0.003, |
| "step": 279 |
| }, |
| { |
| "epoch": 0.2986666666666667, |
| "grad_norm": 3.1731457409440336, |
| "learning_rate": 1.9858156028368793e-06, |
| "loss": 0.088, |
| "step": 280 |
| }, |
| { |
| "epoch": 0.29973333333333335, |
| "grad_norm": 2.7525901886363915, |
| "learning_rate": 1.9929078014184396e-06, |
| "loss": 0.0582, |
| "step": 281 |
| }, |
| { |
| "epoch": 0.3008, |
| "grad_norm": 1.8230031551732802, |
| "learning_rate": 2e-06, |
| "loss": 0.0199, |
| "step": 282 |
| }, |
| { |
| "epoch": 0.30186666666666667, |
| "grad_norm": 1.3865631804560594, |
| "learning_rate": 1.999999228435859e-06, |
| "loss": 0.031, |
| "step": 283 |
| }, |
| { |
| "epoch": 0.30293333333333333, |
| "grad_norm": 4.165055076177555, |
| "learning_rate": 1.999996913744627e-06, |
| "loss": 0.0733, |
| "step": 284 |
| }, |
| { |
| "epoch": 0.304, |
| "grad_norm": 1.9754801877369055, |
| "learning_rate": 1.9999930559298764e-06, |
| "loss": 0.0301, |
| "step": 285 |
| }, |
| { |
| "epoch": 0.30506666666666665, |
| "grad_norm": 0.7925560455697181, |
| "learning_rate": 1.999987654997559e-06, |
| "loss": 0.0283, |
| "step": 286 |
| }, |
| { |
| "epoch": 0.3061333333333333, |
| "grad_norm": 0.5194694957615784, |
| "learning_rate": 1.9999807109560105e-06, |
| "loss": 0.0091, |
| "step": 287 |
| }, |
| { |
| "epoch": 0.3072, |
| "grad_norm": 3.345098829097061, |
| "learning_rate": 1.9999722238159456e-06, |
| "loss": 0.0856, |
| "step": 288 |
| }, |
| { |
| "epoch": 0.3082666666666667, |
| "grad_norm": 0.3547716864050005, |
| "learning_rate": 1.9999621935904615e-06, |
| "loss": 0.0069, |
| "step": 289 |
| }, |
| { |
| "epoch": 0.30933333333333335, |
| "grad_norm": 4.251478368782789, |
| "learning_rate": 1.9999506202950355e-06, |
| "loss": 0.0626, |
| "step": 290 |
| }, |
| { |
| "epoch": 0.3104, |
| "grad_norm": 0.854574365002302, |
| "learning_rate": 1.9999375039475274e-06, |
| "loss": 0.0289, |
| "step": 291 |
| }, |
| { |
| "epoch": 0.31146666666666667, |
| "grad_norm": 1.8930472157492912, |
| "learning_rate": 1.999922844568177e-06, |
| "loss": 0.0288, |
| "step": 292 |
| }, |
| { |
| "epoch": 0.31253333333333333, |
| "grad_norm": 0.6582644815371133, |
| "learning_rate": 1.9999066421796056e-06, |
| "loss": 0.0112, |
| "step": 293 |
| }, |
| { |
| "epoch": 0.3136, |
| "grad_norm": 0.41981956976674956, |
| "learning_rate": 1.999888896806816e-06, |
| "loss": 0.0101, |
| "step": 294 |
| }, |
| { |
| "epoch": 0.31466666666666665, |
| "grad_norm": 0.9804299420337502, |
| "learning_rate": 1.999869608477191e-06, |
| "loss": 0.0166, |
| "step": 295 |
| }, |
| { |
| "epoch": 0.3157333333333333, |
| "grad_norm": 2.238920439094032, |
| "learning_rate": 1.999848777220495e-06, |
| "loss": 0.1084, |
| "step": 296 |
| }, |
| { |
| "epoch": 0.3168, |
| "grad_norm": 2.546894901254014, |
| "learning_rate": 1.999826403068874e-06, |
| "loss": 0.0631, |
| "step": 297 |
| }, |
| { |
| "epoch": 0.3178666666666667, |
| "grad_norm": 3.102610204113791, |
| "learning_rate": 1.999802486056853e-06, |
| "loss": 0.1098, |
| "step": 298 |
| }, |
| { |
| "epoch": 0.31893333333333335, |
| "grad_norm": 0.6112172433808437, |
| "learning_rate": 1.9997770262213405e-06, |
| "loss": 0.0077, |
| "step": 299 |
| }, |
| { |
| "epoch": 0.32, |
| "grad_norm": 0.6002667369893008, |
| "learning_rate": 1.999750023601623e-06, |
| "loss": 0.0054, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.32, |
| "eval_loss": 0.04478977993130684, |
| "eval_runtime": 8.2194, |
| "eval_samples_per_second": 12.166, |
| "eval_steps_per_second": 6.083, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.32106666666666667, |
| "grad_norm": 0.6384928870379522, |
| "learning_rate": 1.9997214782393697e-06, |
| "loss": 0.0064, |
| "step": 301 |
| }, |
| { |
| "epoch": 0.3221333333333333, |
| "grad_norm": 4.121954582585253, |
| "learning_rate": 1.9996913901786295e-06, |
| "loss": 0.0282, |
| "step": 302 |
| }, |
| { |
| "epoch": 0.3232, |
| "grad_norm": 2.170473758627147, |
| "learning_rate": 1.9996597594658325e-06, |
| "loss": 0.0371, |
| "step": 303 |
| }, |
| { |
| "epoch": 0.32426666666666665, |
| "grad_norm": 3.277640099123368, |
| "learning_rate": 1.9996265861497884e-06, |
| "loss": 0.0826, |
| "step": 304 |
| }, |
| { |
| "epoch": 0.3253333333333333, |
| "grad_norm": 1.223126645672684, |
| "learning_rate": 1.9995918702816883e-06, |
| "loss": 0.0029, |
| "step": 305 |
| }, |
| { |
| "epoch": 0.3264, |
| "grad_norm": 3.2655619174791357, |
| "learning_rate": 1.999555611915103e-06, |
| "loss": 0.0666, |
| "step": 306 |
| }, |
| { |
| "epoch": 0.3274666666666667, |
| "grad_norm": 3.4156903549207605, |
| "learning_rate": 1.9995178111059837e-06, |
| "loss": 0.104, |
| "step": 307 |
| }, |
| { |
| "epoch": 0.32853333333333334, |
| "grad_norm": 2.658454045776883, |
| "learning_rate": 1.9994784679126623e-06, |
| "loss": 0.0456, |
| "step": 308 |
| }, |
| { |
| "epoch": 0.3296, |
| "grad_norm": 0.19585429109140384, |
| "learning_rate": 1.99943758239585e-06, |
| "loss": 0.0016, |
| "step": 309 |
| }, |
| { |
| "epoch": 0.33066666666666666, |
| "grad_norm": 1.679735095539774, |
| "learning_rate": 1.999395154618639e-06, |
| "loss": 0.0609, |
| "step": 310 |
| }, |
| { |
| "epoch": 0.3317333333333333, |
| "grad_norm": 2.1430824974971925, |
| "learning_rate": 1.9993511846465e-06, |
| "loss": 0.078, |
| "step": 311 |
| }, |
| { |
| "epoch": 0.3328, |
| "grad_norm": 2.696363876494053, |
| "learning_rate": 1.9993056725472844e-06, |
| "loss": 0.0453, |
| "step": 312 |
| }, |
| { |
| "epoch": 0.33386666666666664, |
| "grad_norm": 0.09424756079491534, |
| "learning_rate": 1.9992586183912243e-06, |
| "loss": 0.0012, |
| "step": 313 |
| }, |
| { |
| "epoch": 0.33493333333333336, |
| "grad_norm": 0.3035530404585692, |
| "learning_rate": 1.999210022250929e-06, |
| "loss": 0.0032, |
| "step": 314 |
| }, |
| { |
| "epoch": 0.336, |
| "grad_norm": 1.578602700124216, |
| "learning_rate": 1.999159884201389e-06, |
| "loss": 0.0679, |
| "step": 315 |
| }, |
| { |
| "epoch": 0.3370666666666667, |
| "grad_norm": 2.017282984994957, |
| "learning_rate": 1.9991082043199736e-06, |
| "loss": 0.0559, |
| "step": 316 |
| }, |
| { |
| "epoch": 0.33813333333333334, |
| "grad_norm": 0.2549750442731066, |
| "learning_rate": 1.999054982686432e-06, |
| "loss": 0.004, |
| "step": 317 |
| }, |
| { |
| "epoch": 0.3392, |
| "grad_norm": 0.4719506296789255, |
| "learning_rate": 1.9990002193828922e-06, |
| "loss": 0.0067, |
| "step": 318 |
| }, |
| { |
| "epoch": 0.34026666666666666, |
| "grad_norm": 1.2214945707365839, |
| "learning_rate": 1.99894391449386e-06, |
| "loss": 0.023, |
| "step": 319 |
| }, |
| { |
| "epoch": 0.3413333333333333, |
| "grad_norm": 0.7302116345834218, |
| "learning_rate": 1.9988860681062216e-06, |
| "loss": 0.0098, |
| "step": 320 |
| }, |
| { |
| "epoch": 0.3424, |
| "grad_norm": 0.13466607550767162, |
| "learning_rate": 1.9988266803092416e-06, |
| "loss": 0.0031, |
| "step": 321 |
| }, |
| { |
| "epoch": 0.34346666666666664, |
| "grad_norm": 1.0469671642701126, |
| "learning_rate": 1.9987657511945624e-06, |
| "loss": 0.0165, |
| "step": 322 |
| }, |
| { |
| "epoch": 0.34453333333333336, |
| "grad_norm": 2.2440378487977406, |
| "learning_rate": 1.998703280856206e-06, |
| "loss": 0.0466, |
| "step": 323 |
| }, |
| { |
| "epoch": 0.3456, |
| "grad_norm": 2.1387794205897053, |
| "learning_rate": 1.9986392693905722e-06, |
| "loss": 0.0777, |
| "step": 324 |
| }, |
| { |
| "epoch": 0.3466666666666667, |
| "grad_norm": 1.2931875478250596, |
| "learning_rate": 1.9985737168964384e-06, |
| "loss": 0.0327, |
| "step": 325 |
| }, |
| { |
| "epoch": 0.34773333333333334, |
| "grad_norm": 0.7580208065267147, |
| "learning_rate": 1.9985066234749606e-06, |
| "loss": 0.0177, |
| "step": 326 |
| }, |
| { |
| "epoch": 0.3488, |
| "grad_norm": 0.0888189129076451, |
| "learning_rate": 1.998437989229673e-06, |
| "loss": 0.002, |
| "step": 327 |
| }, |
| { |
| "epoch": 0.34986666666666666, |
| "grad_norm": 1.2397194295081706, |
| "learning_rate": 1.9983678142664864e-06, |
| "loss": 0.0378, |
| "step": 328 |
| }, |
| { |
| "epoch": 0.3509333333333333, |
| "grad_norm": 1.202705168617386, |
| "learning_rate": 1.9982960986936908e-06, |
| "loss": 0.0895, |
| "step": 329 |
| }, |
| { |
| "epoch": 0.352, |
| "grad_norm": 0.14800273449305595, |
| "learning_rate": 1.9982228426219516e-06, |
| "loss": 0.0023, |
| "step": 330 |
| }, |
| { |
| "epoch": 0.35306666666666664, |
| "grad_norm": 1.0116996136565781, |
| "learning_rate": 1.9981480461643125e-06, |
| "loss": 0.0202, |
| "step": 331 |
| }, |
| { |
| "epoch": 0.35413333333333336, |
| "grad_norm": 1.1189127410717563, |
| "learning_rate": 1.9980717094361938e-06, |
| "loss": 0.0132, |
| "step": 332 |
| }, |
| { |
| "epoch": 0.3552, |
| "grad_norm": 2.750035640024511, |
| "learning_rate": 1.9979938325553934e-06, |
| "loss": 0.0557, |
| "step": 333 |
| }, |
| { |
| "epoch": 0.3562666666666667, |
| "grad_norm": 0.5674290503062867, |
| "learning_rate": 1.997914415642085e-06, |
| "loss": 0.016, |
| "step": 334 |
| }, |
| { |
| "epoch": 0.35733333333333334, |
| "grad_norm": 1.9870605095700231, |
| "learning_rate": 1.9978334588188193e-06, |
| "loss": 0.0617, |
| "step": 335 |
| }, |
| { |
| "epoch": 0.3584, |
| "grad_norm": 1.7840308480554663, |
| "learning_rate": 1.997750962210523e-06, |
| "loss": 0.0266, |
| "step": 336 |
| }, |
| { |
| "epoch": 0.35946666666666666, |
| "grad_norm": 1.2398964245336912, |
| "learning_rate": 1.997666925944499e-06, |
| "loss": 0.0165, |
| "step": 337 |
| }, |
| { |
| "epoch": 0.3605333333333333, |
| "grad_norm": 0.6167879821088218, |
| "learning_rate": 1.997581350150426e-06, |
| "loss": 0.0078, |
| "step": 338 |
| }, |
| { |
| "epoch": 0.3616, |
| "grad_norm": 1.3178080807296553, |
| "learning_rate": 1.997494234960358e-06, |
| "loss": 0.0221, |
| "step": 339 |
| }, |
| { |
| "epoch": 0.3626666666666667, |
| "grad_norm": 0.2936607290692452, |
| "learning_rate": 1.997405580508725e-06, |
| "loss": 0.0033, |
| "step": 340 |
| }, |
| { |
| "epoch": 0.36373333333333335, |
| "grad_norm": 2.463257834805897, |
| "learning_rate": 1.997315386932333e-06, |
| "loss": 0.0674, |
| "step": 341 |
| }, |
| { |
| "epoch": 0.3648, |
| "grad_norm": 0.6291180686569299, |
| "learning_rate": 1.9972236543703615e-06, |
| "loss": 0.0068, |
| "step": 342 |
| }, |
| { |
| "epoch": 0.3658666666666667, |
| "grad_norm": 1.9765666525777088, |
| "learning_rate": 1.997130382964366e-06, |
| "loss": 0.0353, |
| "step": 343 |
| }, |
| { |
| "epoch": 0.36693333333333333, |
| "grad_norm": 1.140272021599622, |
| "learning_rate": 1.997035572858276e-06, |
| "loss": 0.0095, |
| "step": 344 |
| }, |
| { |
| "epoch": 0.368, |
| "grad_norm": 0.7125188701024316, |
| "learning_rate": 1.9969392241983957e-06, |
| "loss": 0.0088, |
| "step": 345 |
| }, |
| { |
| "epoch": 0.36906666666666665, |
| "grad_norm": 0.4454568829686679, |
| "learning_rate": 1.9968413371334035e-06, |
| "loss": 0.0031, |
| "step": 346 |
| }, |
| { |
| "epoch": 0.3701333333333333, |
| "grad_norm": 2.8279184660148524, |
| "learning_rate": 1.9967419118143514e-06, |
| "loss": 0.0873, |
| "step": 347 |
| }, |
| { |
| "epoch": 0.3712, |
| "grad_norm": 0.31255079659825663, |
| "learning_rate": 1.996640948394666e-06, |
| "loss": 0.0051, |
| "step": 348 |
| }, |
| { |
| "epoch": 0.3722666666666667, |
| "grad_norm": 1.2215171116516321, |
| "learning_rate": 1.9965384470301464e-06, |
| "loss": 0.0265, |
| "step": 349 |
| }, |
| { |
| "epoch": 0.37333333333333335, |
| "grad_norm": 1.7159754593735572, |
| "learning_rate": 1.9964344078789653e-06, |
| "loss": 0.1093, |
| "step": 350 |
| }, |
| { |
| "epoch": 0.37333333333333335, |
| "eval_loss": 0.1534903347492218, |
| "eval_runtime": 8.3094, |
| "eval_samples_per_second": 12.035, |
| "eval_steps_per_second": 6.017, |
| "step": 350 |
| }, |
| { |
| "epoch": 0.3744, |
| "grad_norm": 2.0559468510888554, |
| "learning_rate": 1.996328831101669e-06, |
| "loss": 0.0241, |
| "step": 351 |
| }, |
| { |
| "epoch": 0.37546666666666667, |
| "grad_norm": 0.5971180546425459, |
| "learning_rate": 1.9962217168611755e-06, |
| "loss": 0.0049, |
| "step": 352 |
| }, |
| { |
| "epoch": 0.37653333333333333, |
| "grad_norm": 4.688206875294817, |
| "learning_rate": 1.996113065322776e-06, |
| "loss": 0.1433, |
| "step": 353 |
| }, |
| { |
| "epoch": 0.3776, |
| "grad_norm": 0.2870089749889556, |
| "learning_rate": 1.9960028766541334e-06, |
| "loss": 0.0034, |
| "step": 354 |
| }, |
| { |
| "epoch": 0.37866666666666665, |
| "grad_norm": 1.6375079216434894, |
| "learning_rate": 1.9958911510252835e-06, |
| "loss": 0.0232, |
| "step": 355 |
| }, |
| { |
| "epoch": 0.3797333333333333, |
| "grad_norm": 4.593636878430014, |
| "learning_rate": 1.995777888608633e-06, |
| "loss": 0.093, |
| "step": 356 |
| }, |
| { |
| "epoch": 0.3808, |
| "grad_norm": 2.8184656478976904, |
| "learning_rate": 1.99566308957896e-06, |
| "loss": 0.0779, |
| "step": 357 |
| }, |
| { |
| "epoch": 0.3818666666666667, |
| "grad_norm": 0.2485439291403493, |
| "learning_rate": 1.995546754113415e-06, |
| "loss": 0.003, |
| "step": 358 |
| }, |
| { |
| "epoch": 0.38293333333333335, |
| "grad_norm": 2.2437059110982585, |
| "learning_rate": 1.9954288823915176e-06, |
| "loss": 0.0414, |
| "step": 359 |
| }, |
| { |
| "epoch": 0.384, |
| "grad_norm": 2.001140187003796, |
| "learning_rate": 1.9953094745951597e-06, |
| "loss": 0.035, |
| "step": 360 |
| }, |
| { |
| "epoch": 0.38506666666666667, |
| "grad_norm": 1.4093011606412311, |
| "learning_rate": 1.9951885309086026e-06, |
| "loss": 0.0184, |
| "step": 361 |
| }, |
| { |
| "epoch": 0.38613333333333333, |
| "grad_norm": 2.1138012491304408, |
| "learning_rate": 1.9950660515184777e-06, |
| "loss": 0.0315, |
| "step": 362 |
| }, |
| { |
| "epoch": 0.3872, |
| "grad_norm": 0.11796660855631759, |
| "learning_rate": 1.994942036613787e-06, |
| "loss": 0.0018, |
| "step": 363 |
| }, |
| { |
| "epoch": 0.38826666666666665, |
| "grad_norm": 0.7892341561868786, |
| "learning_rate": 1.9948164863859004e-06, |
| "loss": 0.0146, |
| "step": 364 |
| }, |
| { |
| "epoch": 0.3893333333333333, |
| "grad_norm": 0.6568964569346487, |
| "learning_rate": 1.994689401028559e-06, |
| "loss": 0.0131, |
| "step": 365 |
| }, |
| { |
| "epoch": 0.3904, |
| "grad_norm": 1.633661113619997, |
| "learning_rate": 1.9945607807378715e-06, |
| "loss": 0.0329, |
| "step": 366 |
| }, |
| { |
| "epoch": 0.3914666666666667, |
| "grad_norm": 1.126467308042084, |
| "learning_rate": 1.9944306257123157e-06, |
| "loss": 0.0446, |
| "step": 367 |
| }, |
| { |
| "epoch": 0.39253333333333335, |
| "grad_norm": 2.0843407882687908, |
| "learning_rate": 1.9942989361527366e-06, |
| "loss": 0.0428, |
| "step": 368 |
| }, |
| { |
| "epoch": 0.3936, |
| "grad_norm": 2.2219389663095814, |
| "learning_rate": 1.994165712262349e-06, |
| "loss": 0.0564, |
| "step": 369 |
| }, |
| { |
| "epoch": 0.39466666666666667, |
| "grad_norm": 2.7775942987619797, |
| "learning_rate": 1.9940309542467345e-06, |
| "loss": 0.0689, |
| "step": 370 |
| }, |
| { |
| "epoch": 0.3957333333333333, |
| "grad_norm": 1.8350062571764503, |
| "learning_rate": 1.993894662313841e-06, |
| "loss": 0.0694, |
| "step": 371 |
| }, |
| { |
| "epoch": 0.3968, |
| "grad_norm": 1.029665838458409, |
| "learning_rate": 1.993756836673986e-06, |
| "loss": 0.0173, |
| "step": 372 |
| }, |
| { |
| "epoch": 0.39786666666666665, |
| "grad_norm": 0.571214571115293, |
| "learning_rate": 1.9936174775398506e-06, |
| "loss": 0.0053, |
| "step": 373 |
| }, |
| { |
| "epoch": 0.3989333333333333, |
| "grad_norm": 1.3213872708985888, |
| "learning_rate": 1.9934765851264846e-06, |
| "loss": 0.0695, |
| "step": 374 |
| }, |
| { |
| "epoch": 0.4, |
| "grad_norm": 0.23510781603507086, |
| "learning_rate": 1.993334159651303e-06, |
| "loss": 0.0054, |
| "step": 375 |
| }, |
| { |
| "epoch": 0.4010666666666667, |
| "grad_norm": 1.1060879217421968, |
| "learning_rate": 1.9931902013340865e-06, |
| "loss": 0.0189, |
| "step": 376 |
| }, |
| { |
| "epoch": 0.40213333333333334, |
| "grad_norm": 0.3710399547602498, |
| "learning_rate": 1.9930447103969815e-06, |
| "loss": 0.0046, |
| "step": 377 |
| }, |
| { |
| "epoch": 0.4032, |
| "grad_norm": 1.622717686078824, |
| "learning_rate": 1.992897687064499e-06, |
| "loss": 0.0247, |
| "step": 378 |
| }, |
| { |
| "epoch": 0.40426666666666666, |
| "grad_norm": 2.2476983489121847, |
| "learning_rate": 1.992749131563514e-06, |
| "loss": 0.0818, |
| "step": 379 |
| }, |
| { |
| "epoch": 0.4053333333333333, |
| "grad_norm": 1.315470500355049, |
| "learning_rate": 1.9925990441232684e-06, |
| "loss": 0.0322, |
| "step": 380 |
| }, |
| { |
| "epoch": 0.4064, |
| "grad_norm": 2.5737294966668522, |
| "learning_rate": 1.9924474249753655e-06, |
| "loss": 0.0836, |
| "step": 381 |
| }, |
| { |
| "epoch": 0.40746666666666664, |
| "grad_norm": 0.9394492979525191, |
| "learning_rate": 1.9922942743537724e-06, |
| "loss": 0.0297, |
| "step": 382 |
| }, |
| { |
| "epoch": 0.40853333333333336, |
| "grad_norm": 0.8069382855063404, |
| "learning_rate": 1.9921395924948214e-06, |
| "loss": 0.0166, |
| "step": 383 |
| }, |
| { |
| "epoch": 0.4096, |
| "grad_norm": 1.4306192080840419, |
| "learning_rate": 1.991983379637206e-06, |
| "loss": 0.0296, |
| "step": 384 |
| }, |
| { |
| "epoch": 0.4106666666666667, |
| "grad_norm": 1.3969683122099108, |
| "learning_rate": 1.991825636021982e-06, |
| "loss": 0.0203, |
| "step": 385 |
| }, |
| { |
| "epoch": 0.41173333333333334, |
| "grad_norm": 1.825285692623069, |
| "learning_rate": 1.991666361892569e-06, |
| "loss": 0.0872, |
| "step": 386 |
| }, |
| { |
| "epoch": 0.4128, |
| "grad_norm": 0.8975216401244392, |
| "learning_rate": 1.991505557494747e-06, |
| "loss": 0.0316, |
| "step": 387 |
| }, |
| { |
| "epoch": 0.41386666666666666, |
| "grad_norm": 1.921594655691583, |
| "learning_rate": 1.9913432230766574e-06, |
| "loss": 0.0398, |
| "step": 388 |
| }, |
| { |
| "epoch": 0.4149333333333333, |
| "grad_norm": 1.8453404863459837, |
| "learning_rate": 1.9911793588888043e-06, |
| "loss": 0.0538, |
| "step": 389 |
| }, |
| { |
| "epoch": 0.416, |
| "grad_norm": 1.0578785118600522, |
| "learning_rate": 1.9910139651840495e-06, |
| "loss": 0.0152, |
| "step": 390 |
| }, |
| { |
| "epoch": 0.41706666666666664, |
| "grad_norm": 0.1293043522954174, |
| "learning_rate": 1.9908470422176183e-06, |
| "loss": 0.0032, |
| "step": 391 |
| }, |
| { |
| "epoch": 0.41813333333333336, |
| "grad_norm": 0.8193852729764006, |
| "learning_rate": 1.990678590247093e-06, |
| "loss": 0.0252, |
| "step": 392 |
| }, |
| { |
| "epoch": 0.4192, |
| "grad_norm": 0.8114012251103345, |
| "learning_rate": 1.990508609532417e-06, |
| "loss": 0.0125, |
| "step": 393 |
| }, |
| { |
| "epoch": 0.4202666666666667, |
| "grad_norm": 2.818291734468121, |
| "learning_rate": 1.9903371003358928e-06, |
| "loss": 0.0189, |
| "step": 394 |
| }, |
| { |
| "epoch": 0.42133333333333334, |
| "grad_norm": 0.9204435003254485, |
| "learning_rate": 1.9901640629221803e-06, |
| "loss": 0.0329, |
| "step": 395 |
| }, |
| { |
| "epoch": 0.4224, |
| "grad_norm": 0.08712425359694305, |
| "learning_rate": 1.9899894975582992e-06, |
| "loss": 0.0011, |
| "step": 396 |
| }, |
| { |
| "epoch": 0.42346666666666666, |
| "grad_norm": 0.03241923575638935, |
| "learning_rate": 1.989813404513626e-06, |
| "loss": 0.0006, |
| "step": 397 |
| }, |
| { |
| "epoch": 0.4245333333333333, |
| "grad_norm": 1.6779979572184394, |
| "learning_rate": 1.9896357840598943e-06, |
| "loss": 0.0961, |
| "step": 398 |
| }, |
| { |
| "epoch": 0.4256, |
| "grad_norm": 0.050696178342396175, |
| "learning_rate": 1.9894566364711964e-06, |
| "loss": 0.001, |
| "step": 399 |
| }, |
| { |
| "epoch": 0.4266666666666667, |
| "grad_norm": 1.4891393117145435, |
| "learning_rate": 1.9892759620239787e-06, |
| "loss": 0.0906, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.4266666666666667, |
| "eval_loss": 0.07928112149238586, |
| "eval_runtime": 8.2676, |
| "eval_samples_per_second": 12.095, |
| "eval_steps_per_second": 6.048, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.42773333333333335, |
| "grad_norm": 0.2825199528851997, |
| "learning_rate": 1.989093760997046e-06, |
| "loss": 0.0034, |
| "step": 401 |
| }, |
| { |
| "epoch": 0.4288, |
| "grad_norm": 0.06701874009051513, |
| "learning_rate": 1.9889100336715574e-06, |
| "loss": 0.0014, |
| "step": 402 |
| }, |
| { |
| "epoch": 0.4298666666666667, |
| "grad_norm": 1.1540056838329342, |
| "learning_rate": 1.9887247803310275e-06, |
| "loss": 0.0344, |
| "step": 403 |
| }, |
| { |
| "epoch": 0.43093333333333333, |
| "grad_norm": 0.17492470261185009, |
| "learning_rate": 1.988538001261327e-06, |
| "loss": 0.0023, |
| "step": 404 |
| }, |
| { |
| "epoch": 0.432, |
| "grad_norm": 1.842060768202244, |
| "learning_rate": 1.9883496967506787e-06, |
| "loss": 0.0277, |
| "step": 405 |
| }, |
| { |
| "epoch": 0.43306666666666666, |
| "grad_norm": 1.5947437342416269, |
| "learning_rate": 1.9881598670896615e-06, |
| "loss": 0.042, |
| "step": 406 |
| }, |
| { |
| "epoch": 0.4341333333333333, |
| "grad_norm": 0.9161274283634603, |
| "learning_rate": 1.9879685125712064e-06, |
| "loss": 0.0367, |
| "step": 407 |
| }, |
| { |
| "epoch": 0.4352, |
| "grad_norm": 2.360301377480192, |
| "learning_rate": 1.9877756334905984e-06, |
| "loss": 0.0682, |
| "step": 408 |
| }, |
| { |
| "epoch": 0.4362666666666667, |
| "grad_norm": 2.8033256381176845, |
| "learning_rate": 1.9875812301454742e-06, |
| "loss": 0.0215, |
| "step": 409 |
| }, |
| { |
| "epoch": 0.43733333333333335, |
| "grad_norm": 1.5583202561269525, |
| "learning_rate": 1.987385302835824e-06, |
| "loss": 0.0363, |
| "step": 410 |
| }, |
| { |
| "epoch": 0.4384, |
| "grad_norm": 2.781896561969346, |
| "learning_rate": 1.9871878518639875e-06, |
| "loss": 0.068, |
| "step": 411 |
| }, |
| { |
| "epoch": 0.43946666666666667, |
| "grad_norm": 0.21642280193886335, |
| "learning_rate": 1.9869888775346573e-06, |
| "loss": 0.0036, |
| "step": 412 |
| }, |
| { |
| "epoch": 0.44053333333333333, |
| "grad_norm": 1.6029255115528245, |
| "learning_rate": 1.986788380154877e-06, |
| "loss": 0.0647, |
| "step": 413 |
| }, |
| { |
| "epoch": 0.4416, |
| "grad_norm": 0.5806042371514701, |
| "learning_rate": 1.986586360034039e-06, |
| "loss": 0.0132, |
| "step": 414 |
| }, |
| { |
| "epoch": 0.44266666666666665, |
| "grad_norm": 0.9908273749386388, |
| "learning_rate": 1.9863828174838866e-06, |
| "loss": 0.0415, |
| "step": 415 |
| }, |
| { |
| "epoch": 0.4437333333333333, |
| "grad_norm": 0.6290093251213951, |
| "learning_rate": 1.9861777528185124e-06, |
| "loss": 0.0105, |
| "step": 416 |
| }, |
| { |
| "epoch": 0.4448, |
| "grad_norm": 0.14553068803017533, |
| "learning_rate": 1.985971166354357e-06, |
| "loss": 0.004, |
| "step": 417 |
| }, |
| { |
| "epoch": 0.4458666666666667, |
| "grad_norm": 1.3506786155965647, |
| "learning_rate": 1.9857630584102097e-06, |
| "loss": 0.0751, |
| "step": 418 |
| }, |
| { |
| "epoch": 0.44693333333333335, |
| "grad_norm": 0.5584989326737009, |
| "learning_rate": 1.985553429307208e-06, |
| "loss": 0.014, |
| "step": 419 |
| }, |
| { |
| "epoch": 0.448, |
| "grad_norm": 1.6294250896843834, |
| "learning_rate": 1.9853422793688367e-06, |
| "loss": 0.0636, |
| "step": 420 |
| }, |
| { |
| "epoch": 0.44906666666666667, |
| "grad_norm": 0.5596353903671426, |
| "learning_rate": 1.985129608920927e-06, |
| "loss": 0.0098, |
| "step": 421 |
| }, |
| { |
| "epoch": 0.45013333333333333, |
| "grad_norm": 1.3728856599421018, |
| "learning_rate": 1.9849154182916564e-06, |
| "loss": 0.0406, |
| "step": 422 |
| }, |
| { |
| "epoch": 0.4512, |
| "grad_norm": 1.4539828782817406, |
| "learning_rate": 1.984699707811549e-06, |
| "loss": 0.0425, |
| "step": 423 |
| }, |
| { |
| "epoch": 0.45226666666666665, |
| "grad_norm": 1.1916004180696034, |
| "learning_rate": 1.9844824778134736e-06, |
| "loss": 0.0306, |
| "step": 424 |
| }, |
| { |
| "epoch": 0.4533333333333333, |
| "grad_norm": 1.419985849067304, |
| "learning_rate": 1.9842637286326438e-06, |
| "loss": 0.0551, |
| "step": 425 |
| }, |
| { |
| "epoch": 0.4544, |
| "grad_norm": 1.3883049129527003, |
| "learning_rate": 1.984043460606618e-06, |
| "loss": 0.0513, |
| "step": 426 |
| }, |
| { |
| "epoch": 0.4554666666666667, |
| "grad_norm": 0.1278745223052872, |
| "learning_rate": 1.9838216740752974e-06, |
| "loss": 0.0052, |
| "step": 427 |
| }, |
| { |
| "epoch": 0.45653333333333335, |
| "grad_norm": 0.6233977796404779, |
| "learning_rate": 1.983598369380928e-06, |
| "loss": 0.0342, |
| "step": 428 |
| }, |
| { |
| "epoch": 0.4576, |
| "grad_norm": 0.39517621879791065, |
| "learning_rate": 1.9833735468680964e-06, |
| "loss": 0.01, |
| "step": 429 |
| }, |
| { |
| "epoch": 0.45866666666666667, |
| "grad_norm": 0.4211386313113123, |
| "learning_rate": 1.9831472068837337e-06, |
| "loss": 0.0135, |
| "step": 430 |
| }, |
| { |
| "epoch": 0.4597333333333333, |
| "grad_norm": 1.8464041929380612, |
| "learning_rate": 1.9829193497771107e-06, |
| "loss": 0.0597, |
| "step": 431 |
| }, |
| { |
| "epoch": 0.4608, |
| "grad_norm": 1.3803065563385135, |
| "learning_rate": 1.9826899758998406e-06, |
| "loss": 0.0403, |
| "step": 432 |
| }, |
| { |
| "epoch": 0.46186666666666665, |
| "grad_norm": 0.7417135247038509, |
| "learning_rate": 1.982459085605877e-06, |
| "loss": 0.016, |
| "step": 433 |
| }, |
| { |
| "epoch": 0.4629333333333333, |
| "grad_norm": 1.39451525357249, |
| "learning_rate": 1.9822266792515126e-06, |
| "loss": 0.0182, |
| "step": 434 |
| }, |
| { |
| "epoch": 0.464, |
| "grad_norm": 2.8641679197940273, |
| "learning_rate": 1.98199275719538e-06, |
| "loss": 0.1259, |
| "step": 435 |
| }, |
| { |
| "epoch": 0.4650666666666667, |
| "grad_norm": 0.5715361958864581, |
| "learning_rate": 1.981757319798452e-06, |
| "loss": 0.0088, |
| "step": 436 |
| }, |
| { |
| "epoch": 0.46613333333333334, |
| "grad_norm": 2.4227706234953055, |
| "learning_rate": 1.981520367424038e-06, |
| "loss": 0.0455, |
| "step": 437 |
| }, |
| { |
| "epoch": 0.4672, |
| "grad_norm": 2.930333077963303, |
| "learning_rate": 1.981281900437786e-06, |
| "loss": 0.1153, |
| "step": 438 |
| }, |
| { |
| "epoch": 0.46826666666666666, |
| "grad_norm": 2.8810723377913883, |
| "learning_rate": 1.9810419192076813e-06, |
| "loss": 0.1719, |
| "step": 439 |
| }, |
| { |
| "epoch": 0.4693333333333333, |
| "grad_norm": 1.2033125300206557, |
| "learning_rate": 1.9808004241040453e-06, |
| "loss": 0.0335, |
| "step": 440 |
| }, |
| { |
| "epoch": 0.4704, |
| "grad_norm": 1.5784293247380277, |
| "learning_rate": 1.9805574154995368e-06, |
| "loss": 0.0241, |
| "step": 441 |
| }, |
| { |
| "epoch": 0.47146666666666665, |
| "grad_norm": 0.331053930672315, |
| "learning_rate": 1.980312893769148e-06, |
| "loss": 0.0059, |
| "step": 442 |
| }, |
| { |
| "epoch": 0.47253333333333336, |
| "grad_norm": 0.3750843000391053, |
| "learning_rate": 1.9800668592902084e-06, |
| "loss": 0.0116, |
| "step": 443 |
| }, |
| { |
| "epoch": 0.4736, |
| "grad_norm": 1.7511119092314256, |
| "learning_rate": 1.97981931244238e-06, |
| "loss": 0.0325, |
| "step": 444 |
| }, |
| { |
| "epoch": 0.4746666666666667, |
| "grad_norm": 0.8672178018929745, |
| "learning_rate": 1.97957025360766e-06, |
| "loss": 0.015, |
| "step": 445 |
| }, |
| { |
| "epoch": 0.47573333333333334, |
| "grad_norm": 1.1316891807624356, |
| "learning_rate": 1.979319683170378e-06, |
| "loss": 0.0247, |
| "step": 446 |
| }, |
| { |
| "epoch": 0.4768, |
| "grad_norm": 1.7458341470636687, |
| "learning_rate": 1.9790676015171957e-06, |
| "loss": 0.0645, |
| "step": 447 |
| }, |
| { |
| "epoch": 0.47786666666666666, |
| "grad_norm": 2.1936196357092346, |
| "learning_rate": 1.978814009037108e-06, |
| "loss": 0.0451, |
| "step": 448 |
| }, |
| { |
| "epoch": 0.4789333333333333, |
| "grad_norm": 0.8697055179908226, |
| "learning_rate": 1.9785589061214406e-06, |
| "loss": 0.0213, |
| "step": 449 |
| }, |
| { |
| "epoch": 0.48, |
| "grad_norm": 0.22437585040149477, |
| "learning_rate": 1.97830229316385e-06, |
| "loss": 0.0054, |
| "step": 450 |
| }, |
| { |
| "epoch": 0.48, |
| "eval_loss": 0.059111062437295914, |
| "eval_runtime": 8.3864, |
| "eval_samples_per_second": 11.924, |
| "eval_steps_per_second": 5.962, |
| "step": 450 |
| }, |
| { |
| "epoch": 0.48106666666666664, |
| "grad_norm": 0.10636278575330274, |
| "learning_rate": 1.9780441705603223e-06, |
| "loss": 0.0021, |
| "step": 451 |
| }, |
| { |
| "epoch": 0.48213333333333336, |
| "grad_norm": 2.5573873105038434, |
| "learning_rate": 1.977784538709175e-06, |
| "loss": 0.1313, |
| "step": 452 |
| }, |
| { |
| "epoch": 0.4832, |
| "grad_norm": 1.663012931362963, |
| "learning_rate": 1.977523398011052e-06, |
| "loss": 0.0691, |
| "step": 453 |
| }, |
| { |
| "epoch": 0.4842666666666667, |
| "grad_norm": 0.7219317225159716, |
| "learning_rate": 1.977260748868928e-06, |
| "loss": 0.0096, |
| "step": 454 |
| }, |
| { |
| "epoch": 0.48533333333333334, |
| "grad_norm": 0.7982966573390478, |
| "learning_rate": 1.976996591688104e-06, |
| "loss": 0.0137, |
| "step": 455 |
| }, |
| { |
| "epoch": 0.4864, |
| "grad_norm": 0.20970702399928798, |
| "learning_rate": 1.976730926876208e-06, |
| "loss": 0.0046, |
| "step": 456 |
| }, |
| { |
| "epoch": 0.48746666666666666, |
| "grad_norm": 0.28803719058990657, |
| "learning_rate": 1.976463754843195e-06, |
| "loss": 0.005, |
| "step": 457 |
| }, |
| { |
| "epoch": 0.4885333333333333, |
| "grad_norm": 0.7919194276555528, |
| "learning_rate": 1.9761950760013465e-06, |
| "loss": 0.0282, |
| "step": 458 |
| }, |
| { |
| "epoch": 0.4896, |
| "grad_norm": 1.4705813607789455, |
| "learning_rate": 1.975924890765268e-06, |
| "loss": 0.0579, |
| "step": 459 |
| }, |
| { |
| "epoch": 0.49066666666666664, |
| "grad_norm": 0.0892978502279876, |
| "learning_rate": 1.975653199551889e-06, |
| "loss": 0.002, |
| "step": 460 |
| }, |
| { |
| "epoch": 0.49173333333333336, |
| "grad_norm": 0.2924517573264484, |
| "learning_rate": 1.975380002780465e-06, |
| "loss": 0.0054, |
| "step": 461 |
| }, |
| { |
| "epoch": 0.4928, |
| "grad_norm": 0.13984323661447734, |
| "learning_rate": 1.9751053008725736e-06, |
| "loss": 0.0048, |
| "step": 462 |
| }, |
| { |
| "epoch": 0.4938666666666667, |
| "grad_norm": 0.9708483997669436, |
| "learning_rate": 1.9748290942521147e-06, |
| "loss": 0.0206, |
| "step": 463 |
| }, |
| { |
| "epoch": 0.49493333333333334, |
| "grad_norm": 1.2833574509895846, |
| "learning_rate": 1.974551383345311e-06, |
| "loss": 0.0296, |
| "step": 464 |
| }, |
| { |
| "epoch": 0.496, |
| "grad_norm": 0.8281324977406651, |
| "learning_rate": 1.974272168580705e-06, |
| "loss": 0.0278, |
| "step": 465 |
| }, |
| { |
| "epoch": 0.49706666666666666, |
| "grad_norm": 0.044148734591724956, |
| "learning_rate": 1.9739914503891623e-06, |
| "loss": 0.0015, |
| "step": 466 |
| }, |
| { |
| "epoch": 0.4981333333333333, |
| "grad_norm": 0.12615582529209052, |
| "learning_rate": 1.9737092292038666e-06, |
| "loss": 0.0029, |
| "step": 467 |
| }, |
| { |
| "epoch": 0.4992, |
| "grad_norm": 0.2572697580666658, |
| "learning_rate": 1.973425505460321e-06, |
| "loss": 0.0083, |
| "step": 468 |
| }, |
| { |
| "epoch": 0.5002666666666666, |
| "grad_norm": 0.1241476180135192, |
| "learning_rate": 1.9731402795963475e-06, |
| "loss": 0.0029, |
| "step": 469 |
| }, |
| { |
| "epoch": 0.5013333333333333, |
| "grad_norm": 0.2062065751894674, |
| "learning_rate": 1.972853552052087e-06, |
| "loss": 0.0042, |
| "step": 470 |
| }, |
| { |
| "epoch": 0.5024, |
| "grad_norm": 0.2666525204106077, |
| "learning_rate": 1.972565323269996e-06, |
| "loss": 0.0065, |
| "step": 471 |
| }, |
| { |
| "epoch": 0.5034666666666666, |
| "grad_norm": 0.81144616074266, |
| "learning_rate": 1.9722755936948495e-06, |
| "loss": 0.025, |
| "step": 472 |
| }, |
| { |
| "epoch": 0.5045333333333333, |
| "grad_norm": 1.444231248641308, |
| "learning_rate": 1.9719843637737363e-06, |
| "loss": 0.0291, |
| "step": 473 |
| }, |
| { |
| "epoch": 0.5056, |
| "grad_norm": 0.4874177855432997, |
| "learning_rate": 1.9716916339560623e-06, |
| "loss": 0.0074, |
| "step": 474 |
| }, |
| { |
| "epoch": 0.5066666666666667, |
| "grad_norm": 0.07849556590261975, |
| "learning_rate": 1.971397404693547e-06, |
| "loss": 0.002, |
| "step": 475 |
| }, |
| { |
| "epoch": 0.5077333333333334, |
| "grad_norm": 0.5517723930132947, |
| "learning_rate": 1.9711016764402236e-06, |
| "loss": 0.0097, |
| "step": 476 |
| }, |
| { |
| "epoch": 0.5088, |
| "grad_norm": 0.7299515657510972, |
| "learning_rate": 1.970804449652439e-06, |
| "loss": 0.0209, |
| "step": 477 |
| }, |
| { |
| "epoch": 0.5098666666666667, |
| "grad_norm": 0.870187254255976, |
| "learning_rate": 1.9705057247888524e-06, |
| "loss": 0.0274, |
| "step": 478 |
| }, |
| { |
| "epoch": 0.5109333333333334, |
| "grad_norm": 0.4378815653508658, |
| "learning_rate": 1.9702055023104342e-06, |
| "loss": 0.0067, |
| "step": 479 |
| }, |
| { |
| "epoch": 0.512, |
| "grad_norm": 0.19791484072606055, |
| "learning_rate": 1.9699037826804664e-06, |
| "loss": 0.0028, |
| "step": 480 |
| }, |
| { |
| "epoch": 0.5130666666666667, |
| "grad_norm": 0.33265027100392863, |
| "learning_rate": 1.9696005663645413e-06, |
| "loss": 0.0046, |
| "step": 481 |
| }, |
| { |
| "epoch": 0.5141333333333333, |
| "grad_norm": 0.5850664754775464, |
| "learning_rate": 1.9692958538305603e-06, |
| "loss": 0.0074, |
| "step": 482 |
| }, |
| { |
| "epoch": 0.5152, |
| "grad_norm": 1.424929398925143, |
| "learning_rate": 1.9689896455487335e-06, |
| "loss": 0.1158, |
| "step": 483 |
| }, |
| { |
| "epoch": 0.5162666666666667, |
| "grad_norm": 0.13577194866828218, |
| "learning_rate": 1.9686819419915807e-06, |
| "loss": 0.0015, |
| "step": 484 |
| }, |
| { |
| "epoch": 0.5173333333333333, |
| "grad_norm": 0.41803441824249704, |
| "learning_rate": 1.968372743633927e-06, |
| "loss": 0.008, |
| "step": 485 |
| }, |
| { |
| "epoch": 0.5184, |
| "grad_norm": 4.12682235282853, |
| "learning_rate": 1.9680620509529057e-06, |
| "loss": 0.0162, |
| "step": 486 |
| }, |
| { |
| "epoch": 0.5194666666666666, |
| "grad_norm": 1.503044654721969, |
| "learning_rate": 1.9677498644279548e-06, |
| "loss": 0.0422, |
| "step": 487 |
| }, |
| { |
| "epoch": 0.5205333333333333, |
| "grad_norm": 0.7689074004737195, |
| "learning_rate": 1.9674361845408186e-06, |
| "loss": 0.0094, |
| "step": 488 |
| }, |
| { |
| "epoch": 0.5216, |
| "grad_norm": 0.06909875982015076, |
| "learning_rate": 1.9671210117755453e-06, |
| "loss": 0.0007, |
| "step": 489 |
| }, |
| { |
| "epoch": 0.5226666666666666, |
| "grad_norm": 1.2206766665571167, |
| "learning_rate": 1.966804346618487e-06, |
| "loss": 0.1015, |
| "step": 490 |
| }, |
| { |
| "epoch": 0.5237333333333334, |
| "grad_norm": 1.1789396464075375, |
| "learning_rate": 1.9664861895582992e-06, |
| "loss": 0.0854, |
| "step": 491 |
| }, |
| { |
| "epoch": 0.5248, |
| "grad_norm": 0.21039611614928425, |
| "learning_rate": 1.9661665410859383e-06, |
| "loss": 0.0026, |
| "step": 492 |
| }, |
| { |
| "epoch": 0.5258666666666667, |
| "grad_norm": 0.054725892737321646, |
| "learning_rate": 1.9658454016946625e-06, |
| "loss": 0.0013, |
| "step": 493 |
| }, |
| { |
| "epoch": 0.5269333333333334, |
| "grad_norm": 1.1777205041840952, |
| "learning_rate": 1.9655227718800323e-06, |
| "loss": 0.0185, |
| "step": 494 |
| }, |
| { |
| "epoch": 0.528, |
| "grad_norm": 1.0317741265994544, |
| "learning_rate": 1.965198652139906e-06, |
| "loss": 0.0587, |
| "step": 495 |
| }, |
| { |
| "epoch": 0.5290666666666667, |
| "grad_norm": 0.891353426464908, |
| "learning_rate": 1.964873042974442e-06, |
| "loss": 0.0401, |
| "step": 496 |
| }, |
| { |
| "epoch": 0.5301333333333333, |
| "grad_norm": 1.30587203863953, |
| "learning_rate": 1.9645459448860975e-06, |
| "loss": 0.0309, |
| "step": 497 |
| }, |
| { |
| "epoch": 0.5312, |
| "grad_norm": 1.3596410335486893, |
| "learning_rate": 1.9642173583796264e-06, |
| "loss": 0.0413, |
| "step": 498 |
| }, |
| { |
| "epoch": 0.5322666666666667, |
| "grad_norm": 1.895269444451895, |
| "learning_rate": 1.96388728396208e-06, |
| "loss": 0.0832, |
| "step": 499 |
| }, |
| { |
| "epoch": 0.5333333333333333, |
| "grad_norm": 0.8616463910896954, |
| "learning_rate": 1.9635557221428053e-06, |
| "loss": 0.0282, |
| "step": 500 |
| }, |
| { |
| "epoch": 0.5333333333333333, |
| "eval_loss": 0.0750061422586441, |
| "eval_runtime": 8.263, |
| "eval_samples_per_second": 12.102, |
| "eval_steps_per_second": 6.051, |
| "step": 500 |
| }, |
| { |
| "epoch": 0.5344, |
| "grad_norm": 1.0484027260920663, |
| "learning_rate": 1.963222673433445e-06, |
| "loss": 0.0384, |
| "step": 501 |
| }, |
| { |
| "epoch": 0.5354666666666666, |
| "grad_norm": 0.7655681891587585, |
| "learning_rate": 1.9628881383479356e-06, |
| "loss": 0.0143, |
| "step": 502 |
| }, |
| { |
| "epoch": 0.5365333333333333, |
| "grad_norm": 1.0787203352903525, |
| "learning_rate": 1.962552117402508e-06, |
| "loss": 0.0252, |
| "step": 503 |
| }, |
| { |
| "epoch": 0.5376, |
| "grad_norm": 0.4951788218638876, |
| "learning_rate": 1.9622146111156854e-06, |
| "loss": 0.0167, |
| "step": 504 |
| }, |
| { |
| "epoch": 0.5386666666666666, |
| "grad_norm": 1.0190831345745026, |
| "learning_rate": 1.9618756200082834e-06, |
| "loss": 0.0209, |
| "step": 505 |
| }, |
| { |
| "epoch": 0.5397333333333333, |
| "grad_norm": 1.5762111962709655, |
| "learning_rate": 1.9615351446034087e-06, |
| "loss": 0.0548, |
| "step": 506 |
| }, |
| { |
| "epoch": 0.5408, |
| "grad_norm": 0.4583231105242901, |
| "learning_rate": 1.9611931854264588e-06, |
| "loss": 0.011, |
| "step": 507 |
| }, |
| { |
| "epoch": 0.5418666666666667, |
| "grad_norm": 0.5862500686640746, |
| "learning_rate": 1.96084974300512e-06, |
| "loss": 0.0077, |
| "step": 508 |
| }, |
| { |
| "epoch": 0.5429333333333334, |
| "grad_norm": 0.8574568627565791, |
| "learning_rate": 1.960504817869369e-06, |
| "loss": 0.0373, |
| "step": 509 |
| }, |
| { |
| "epoch": 0.544, |
| "grad_norm": 1.2010733201915198, |
| "learning_rate": 1.960158410551468e-06, |
| "loss": 0.0447, |
| "step": 510 |
| }, |
| { |
| "epoch": 0.5450666666666667, |
| "grad_norm": 0.8555492767495577, |
| "learning_rate": 1.9598105215859696e-06, |
| "loss": 0.0466, |
| "step": 511 |
| }, |
| { |
| "epoch": 0.5461333333333334, |
| "grad_norm": 0.10178459528093674, |
| "learning_rate": 1.95946115150971e-06, |
| "loss": 0.0021, |
| "step": 512 |
| }, |
| { |
| "epoch": 0.5472, |
| "grad_norm": 0.800504235107064, |
| "learning_rate": 1.9591103008618125e-06, |
| "loss": 0.0274, |
| "step": 513 |
| }, |
| { |
| "epoch": 0.5482666666666667, |
| "grad_norm": 0.5316447147161468, |
| "learning_rate": 1.9587579701836846e-06, |
| "loss": 0.0079, |
| "step": 514 |
| }, |
| { |
| "epoch": 0.5493333333333333, |
| "grad_norm": 1.736227171167706, |
| "learning_rate": 1.9584041600190176e-06, |
| "loss": 0.0368, |
| "step": 515 |
| }, |
| { |
| "epoch": 0.5504, |
| "grad_norm": 0.733523786009821, |
| "learning_rate": 1.958048870913786e-06, |
| "loss": 0.0135, |
| "step": 516 |
| }, |
| { |
| "epoch": 0.5514666666666667, |
| "grad_norm": 0.5321584802143156, |
| "learning_rate": 1.9576921034162466e-06, |
| "loss": 0.0211, |
| "step": 517 |
| }, |
| { |
| "epoch": 0.5525333333333333, |
| "grad_norm": 0.9700623063668581, |
| "learning_rate": 1.9573338580769374e-06, |
| "loss": 0.0213, |
| "step": 518 |
| }, |
| { |
| "epoch": 0.5536, |
| "grad_norm": 1.5444464892245888, |
| "learning_rate": 1.9569741354486763e-06, |
| "loss": 0.064, |
| "step": 519 |
| }, |
| { |
| "epoch": 0.5546666666666666, |
| "grad_norm": 0.9917141522432631, |
| "learning_rate": 1.9566129360865625e-06, |
| "loss": 0.0233, |
| "step": 520 |
| }, |
| { |
| "epoch": 0.5557333333333333, |
| "grad_norm": 0.1624747704143236, |
| "learning_rate": 1.956250260547972e-06, |
| "loss": 0.0054, |
| "step": 521 |
| }, |
| { |
| "epoch": 0.5568, |
| "grad_norm": 0.020676204559768888, |
| "learning_rate": 1.955886109392561e-06, |
| "loss": 0.0006, |
| "step": 522 |
| }, |
| { |
| "epoch": 0.5578666666666666, |
| "grad_norm": 2.9044828339315623, |
| "learning_rate": 1.95552048318226e-06, |
| "loss": 0.0408, |
| "step": 523 |
| }, |
| { |
| "epoch": 0.5589333333333333, |
| "grad_norm": 0.5831891601240735, |
| "learning_rate": 1.9551533824812774e-06, |
| "loss": 0.0097, |
| "step": 524 |
| }, |
| { |
| "epoch": 0.56, |
| "grad_norm": 0.5857357629454975, |
| "learning_rate": 1.9547848078560974e-06, |
| "loss": 0.0139, |
| "step": 525 |
| }, |
| { |
| "epoch": 0.5610666666666667, |
| "grad_norm": 0.21217825118743366, |
| "learning_rate": 1.9544147598754773e-06, |
| "loss": 0.0032, |
| "step": 526 |
| }, |
| { |
| "epoch": 0.5621333333333334, |
| "grad_norm": 2.4670392982236082, |
| "learning_rate": 1.954043239110449e-06, |
| "loss": 0.0316, |
| "step": 527 |
| }, |
| { |
| "epoch": 0.5632, |
| "grad_norm": 0.5406170478676595, |
| "learning_rate": 1.9536702461343164e-06, |
| "loss": 0.0224, |
| "step": 528 |
| }, |
| { |
| "epoch": 0.5642666666666667, |
| "grad_norm": 0.055518527171553374, |
| "learning_rate": 1.953295781522656e-06, |
| "loss": 0.002, |
| "step": 529 |
| }, |
| { |
| "epoch": 0.5653333333333334, |
| "grad_norm": 1.3934912347870063, |
| "learning_rate": 1.9529198458533144e-06, |
| "loss": 0.0398, |
| "step": 530 |
| }, |
| { |
| "epoch": 0.5664, |
| "grad_norm": 0.4045943505474674, |
| "learning_rate": 1.952542439706408e-06, |
| "loss": 0.0058, |
| "step": 531 |
| }, |
| { |
| "epoch": 0.5674666666666667, |
| "grad_norm": 1.7864041111845064, |
| "learning_rate": 1.9521635636643235e-06, |
| "loss": 0.0444, |
| "step": 532 |
| }, |
| { |
| "epoch": 0.5685333333333333, |
| "grad_norm": 1.2920646109126186, |
| "learning_rate": 1.9517832183117157e-06, |
| "loss": 0.0388, |
| "step": 533 |
| }, |
| { |
| "epoch": 0.5696, |
| "grad_norm": 0.7948792055347192, |
| "learning_rate": 1.9514014042355057e-06, |
| "loss": 0.0168, |
| "step": 534 |
| }, |
| { |
| "epoch": 0.5706666666666667, |
| "grad_norm": 1.6705131453586166, |
| "learning_rate": 1.951018122024881e-06, |
| "loss": 0.1448, |
| "step": 535 |
| }, |
| { |
| "epoch": 0.5717333333333333, |
| "grad_norm": 1.1168431435244262, |
| "learning_rate": 1.950633372271296e-06, |
| "loss": 0.0415, |
| "step": 536 |
| }, |
| { |
| "epoch": 0.5728, |
| "grad_norm": 0.6514860220679357, |
| "learning_rate": 1.9502471555684693e-06, |
| "loss": 0.0099, |
| "step": 537 |
| }, |
| { |
| "epoch": 0.5738666666666666, |
| "grad_norm": 1.2822333127340622, |
| "learning_rate": 1.949859472512382e-06, |
| "loss": 0.0334, |
| "step": 538 |
| }, |
| { |
| "epoch": 0.5749333333333333, |
| "grad_norm": 0.05784985500576959, |
| "learning_rate": 1.9494703237012795e-06, |
| "loss": 0.002, |
| "step": 539 |
| }, |
| { |
| "epoch": 0.576, |
| "grad_norm": 0.9322715943880168, |
| "learning_rate": 1.9490797097356673e-06, |
| "loss": 0.0382, |
| "step": 540 |
| }, |
| { |
| "epoch": 0.5770666666666666, |
| "grad_norm": 1.195879018881952, |
| "learning_rate": 1.9486876312183136e-06, |
| "loss": 0.0307, |
| "step": 541 |
| }, |
| { |
| "epoch": 0.5781333333333334, |
| "grad_norm": 0.508657257504912, |
| "learning_rate": 1.9482940887542458e-06, |
| "loss": 0.0095, |
| "step": 542 |
| }, |
| { |
| "epoch": 0.5792, |
| "grad_norm": 0.06695661372207187, |
| "learning_rate": 1.9478990829507503e-06, |
| "loss": 0.0016, |
| "step": 543 |
| }, |
| { |
| "epoch": 0.5802666666666667, |
| "grad_norm": 0.6717175414997428, |
| "learning_rate": 1.947502614417372e-06, |
| "loss": 0.0143, |
| "step": 544 |
| }, |
| { |
| "epoch": 0.5813333333333334, |
| "grad_norm": 0.3243179957792768, |
| "learning_rate": 1.9471046837659123e-06, |
| "loss": 0.0112, |
| "step": 545 |
| }, |
| { |
| "epoch": 0.5824, |
| "grad_norm": 0.7631675841259196, |
| "learning_rate": 1.9467052916104297e-06, |
| "loss": 0.0276, |
| "step": 546 |
| }, |
| { |
| "epoch": 0.5834666666666667, |
| "grad_norm": 2.0144599920001727, |
| "learning_rate": 1.946304438567237e-06, |
| "loss": 0.0921, |
| "step": 547 |
| }, |
| { |
| "epoch": 0.5845333333333333, |
| "grad_norm": 1.0636321610949848, |
| "learning_rate": 1.945902125254902e-06, |
| "loss": 0.0187, |
| "step": 548 |
| }, |
| { |
| "epoch": 0.5856, |
| "grad_norm": 0.35874953906327267, |
| "learning_rate": 1.945498352294246e-06, |
| "loss": 0.0073, |
| "step": 549 |
| }, |
| { |
| "epoch": 0.5866666666666667, |
| "grad_norm": 0.11859155797457026, |
| "learning_rate": 1.9450931203083423e-06, |
| "loss": 0.004, |
| "step": 550 |
| }, |
| { |
| "epoch": 0.5866666666666667, |
| "eval_loss": 0.0564335361123085, |
| "eval_runtime": 8.2114, |
| "eval_samples_per_second": 12.178, |
| "eval_steps_per_second": 6.089, |
| "step": 550 |
| }, |
| { |
| "epoch": 0.5877333333333333, |
| "grad_norm": 0.9039799412688934, |
| "learning_rate": 1.9446864299225154e-06, |
| "loss": 0.0333, |
| "step": 551 |
| }, |
| { |
| "epoch": 0.5888, |
| "grad_norm": 0.7538502138841161, |
| "learning_rate": 1.9442782817643423e-06, |
| "loss": 0.0563, |
| "step": 552 |
| }, |
| { |
| "epoch": 0.5898666666666667, |
| "grad_norm": 0.1358781642223268, |
| "learning_rate": 1.943868676463646e-06, |
| "loss": 0.0025, |
| "step": 553 |
| }, |
| { |
| "epoch": 0.5909333333333333, |
| "grad_norm": 1.48617799274998, |
| "learning_rate": 1.943457614652501e-06, |
| "loss": 0.047, |
| "step": 554 |
| }, |
| { |
| "epoch": 0.592, |
| "grad_norm": 1.1293466674581456, |
| "learning_rate": 1.9430450969652287e-06, |
| "loss": 0.0385, |
| "step": 555 |
| }, |
| { |
| "epoch": 0.5930666666666666, |
| "grad_norm": 0.8012169267070843, |
| "learning_rate": 1.9426311240383965e-06, |
| "loss": 0.013, |
| "step": 556 |
| }, |
| { |
| "epoch": 0.5941333333333333, |
| "grad_norm": 0.6572329690288506, |
| "learning_rate": 1.9422156965108168e-06, |
| "loss": 0.0306, |
| "step": 557 |
| }, |
| { |
| "epoch": 0.5952, |
| "grad_norm": 0.19306800078152603, |
| "learning_rate": 1.9417988150235494e-06, |
| "loss": 0.0038, |
| "step": 558 |
| }, |
| { |
| "epoch": 0.5962666666666666, |
| "grad_norm": 1.3017265451514113, |
| "learning_rate": 1.9413804802198945e-06, |
| "loss": 0.0476, |
| "step": 559 |
| }, |
| { |
| "epoch": 0.5973333333333334, |
| "grad_norm": 0.8375105380873863, |
| "learning_rate": 1.9409606927453965e-06, |
| "loss": 0.014, |
| "step": 560 |
| }, |
| { |
| "epoch": 0.5984, |
| "grad_norm": 0.8885298874629408, |
| "learning_rate": 1.940539453247842e-06, |
| "loss": 0.0151, |
| "step": 561 |
| }, |
| { |
| "epoch": 0.5994666666666667, |
| "grad_norm": 1.5102673561210778, |
| "learning_rate": 1.9401167623772573e-06, |
| "loss": 0.0374, |
| "step": 562 |
| }, |
| { |
| "epoch": 0.6005333333333334, |
| "grad_norm": 1.987721672034343, |
| "learning_rate": 1.9396926207859082e-06, |
| "loss": 0.0953, |
| "step": 563 |
| }, |
| { |
| "epoch": 0.6016, |
| "grad_norm": 0.22000547641573698, |
| "learning_rate": 1.9392670291283e-06, |
| "loss": 0.0046, |
| "step": 564 |
| }, |
| { |
| "epoch": 0.6026666666666667, |
| "grad_norm": 0.8882455389638617, |
| "learning_rate": 1.9388399880611754e-06, |
| "loss": 0.0229, |
| "step": 565 |
| }, |
| { |
| "epoch": 0.6037333333333333, |
| "grad_norm": 0.5255035590758061, |
| "learning_rate": 1.938411498243513e-06, |
| "loss": 0.0228, |
| "step": 566 |
| }, |
| { |
| "epoch": 0.6048, |
| "grad_norm": 0.343214637954108, |
| "learning_rate": 1.9379815603365282e-06, |
| "loss": 0.012, |
| "step": 567 |
| }, |
| { |
| "epoch": 0.6058666666666667, |
| "grad_norm": 0.6053924697986651, |
| "learning_rate": 1.93755017500367e-06, |
| "loss": 0.0145, |
| "step": 568 |
| }, |
| { |
| "epoch": 0.6069333333333333, |
| "grad_norm": 0.9254674234883058, |
| "learning_rate": 1.937117342910621e-06, |
| "loss": 0.0216, |
| "step": 569 |
| }, |
| { |
| "epoch": 0.608, |
| "grad_norm": 0.8523880140703605, |
| "learning_rate": 1.936683064725297e-06, |
| "loss": 0.0221, |
| "step": 570 |
| }, |
| { |
| "epoch": 0.6090666666666666, |
| "grad_norm": 0.9347656082249436, |
| "learning_rate": 1.936247341117845e-06, |
| "loss": 0.0188, |
| "step": 571 |
| }, |
| { |
| "epoch": 0.6101333333333333, |
| "grad_norm": 0.8541104243225714, |
| "learning_rate": 1.935810172760642e-06, |
| "loss": 0.0473, |
| "step": 572 |
| }, |
| { |
| "epoch": 0.6112, |
| "grad_norm": 0.8791764463094474, |
| "learning_rate": 1.9353715603282955e-06, |
| "loss": 0.0532, |
| "step": 573 |
| }, |
| { |
| "epoch": 0.6122666666666666, |
| "grad_norm": 2.699319257248717, |
| "learning_rate": 1.93493150449764e-06, |
| "loss": 0.0537, |
| "step": 574 |
| }, |
| { |
| "epoch": 0.6133333333333333, |
| "grad_norm": 0.1353088356819775, |
| "learning_rate": 1.9344900059477396e-06, |
| "loss": 0.0037, |
| "step": 575 |
| }, |
| { |
| "epoch": 0.6144, |
| "grad_norm": 0.34618338498092704, |
| "learning_rate": 1.934047065359881e-06, |
| "loss": 0.0062, |
| "step": 576 |
| }, |
| { |
| "epoch": 0.6154666666666667, |
| "grad_norm": 1.7078634001380137, |
| "learning_rate": 1.9336026834175797e-06, |
| "loss": 0.0771, |
| "step": 577 |
| }, |
| { |
| "epoch": 0.6165333333333334, |
| "grad_norm": 0.14844162026860286, |
| "learning_rate": 1.933156860806574e-06, |
| "loss": 0.0031, |
| "step": 578 |
| }, |
| { |
| "epoch": 0.6176, |
| "grad_norm": 1.2154534323817083, |
| "learning_rate": 1.9327095982148254e-06, |
| "loss": 0.0239, |
| "step": 579 |
| }, |
| { |
| "epoch": 0.6186666666666667, |
| "grad_norm": 0.3272739540580518, |
| "learning_rate": 1.932260896332517e-06, |
| "loss": 0.007, |
| "step": 580 |
| }, |
| { |
| "epoch": 0.6197333333333334, |
| "grad_norm": 0.10198673028774524, |
| "learning_rate": 1.9318107558520538e-06, |
| "loss": 0.0019, |
| "step": 581 |
| }, |
| { |
| "epoch": 0.6208, |
| "grad_norm": 0.16913851829841492, |
| "learning_rate": 1.9313591774680597e-06, |
| "loss": 0.0038, |
| "step": 582 |
| }, |
| { |
| "epoch": 0.6218666666666667, |
| "grad_norm": 0.07959301608009922, |
| "learning_rate": 1.9309061618773786e-06, |
| "loss": 0.0024, |
| "step": 583 |
| }, |
| { |
| "epoch": 0.6229333333333333, |
| "grad_norm": 1.0893009664541993, |
| "learning_rate": 1.9304517097790717e-06, |
| "loss": 0.0407, |
| "step": 584 |
| }, |
| { |
| "epoch": 0.624, |
| "grad_norm": 1.2631392794129843, |
| "learning_rate": 1.929995821874417e-06, |
| "loss": 0.0352, |
| "step": 585 |
| }, |
| { |
| "epoch": 0.6250666666666667, |
| "grad_norm": 1.3997694152883324, |
| "learning_rate": 1.9295384988669073e-06, |
| "loss": 0.0393, |
| "step": 586 |
| }, |
| { |
| "epoch": 0.6261333333333333, |
| "grad_norm": 1.6978660405005055, |
| "learning_rate": 1.9290797414622513e-06, |
| "loss": 0.0352, |
| "step": 587 |
| }, |
| { |
| "epoch": 0.6272, |
| "grad_norm": 0.6308822438288059, |
| "learning_rate": 1.928619550368371e-06, |
| "loss": 0.0132, |
| "step": 588 |
| }, |
| { |
| "epoch": 0.6282666666666666, |
| "grad_norm": 0.1371164881678459, |
| "learning_rate": 1.9281579262953986e-06, |
| "loss": 0.0025, |
| "step": 589 |
| }, |
| { |
| "epoch": 0.6293333333333333, |
| "grad_norm": 0.6370240527064276, |
| "learning_rate": 1.9276948699556807e-06, |
| "loss": 0.0112, |
| "step": 590 |
| }, |
| { |
| "epoch": 0.6304, |
| "grad_norm": 0.3056363205998125, |
| "learning_rate": 1.9272303820637725e-06, |
| "loss": 0.0058, |
| "step": 591 |
| }, |
| { |
| "epoch": 0.6314666666666666, |
| "grad_norm": 0.55831070154103, |
| "learning_rate": 1.926764463336438e-06, |
| "loss": 0.01, |
| "step": 592 |
| }, |
| { |
| "epoch": 0.6325333333333333, |
| "grad_norm": 0.8262080377150349, |
| "learning_rate": 1.9262971144926496e-06, |
| "loss": 0.0245, |
| "step": 593 |
| }, |
| { |
| "epoch": 0.6336, |
| "grad_norm": 0.7226875150679721, |
| "learning_rate": 1.9258283362535866e-06, |
| "loss": 0.0097, |
| "step": 594 |
| }, |
| { |
| "epoch": 0.6346666666666667, |
| "grad_norm": 0.042475954479241414, |
| "learning_rate": 1.925358129342634e-06, |
| "loss": 0.0006, |
| "step": 595 |
| }, |
| { |
| "epoch": 0.6357333333333334, |
| "grad_norm": 0.859032501597276, |
| "learning_rate": 1.9248864944853816e-06, |
| "loss": 0.0378, |
| "step": 596 |
| }, |
| { |
| "epoch": 0.6368, |
| "grad_norm": 1.3244307530631885, |
| "learning_rate": 1.9244134324096223e-06, |
| "loss": 0.0517, |
| "step": 597 |
| }, |
| { |
| "epoch": 0.6378666666666667, |
| "grad_norm": 0.5857618506011136, |
| "learning_rate": 1.9239389438453514e-06, |
| "loss": 0.003, |
| "step": 598 |
| }, |
| { |
| "epoch": 0.6389333333333334, |
| "grad_norm": 1.575917222926197, |
| "learning_rate": 1.9234630295247656e-06, |
| "loss": 0.0524, |
| "step": 599 |
| }, |
| { |
| "epoch": 0.64, |
| "grad_norm": 0.03170525562888107, |
| "learning_rate": 1.922985690182262e-06, |
| "loss": 0.0008, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.64, |
| "eval_loss": 0.08799741417169571, |
| "eval_runtime": 8.2278, |
| "eval_samples_per_second": 12.154, |
| "eval_steps_per_second": 6.077, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.6410666666666667, |
| "grad_norm": 0.009690918488452322, |
| "learning_rate": 1.922506926554436e-06, |
| "loss": 0.0003, |
| "step": 601 |
| }, |
| { |
| "epoch": 0.6421333333333333, |
| "grad_norm": 1.7933818506504124, |
| "learning_rate": 1.922026739380082e-06, |
| "loss": 0.0453, |
| "step": 602 |
| }, |
| { |
| "epoch": 0.6432, |
| "grad_norm": 0.6728832662063972, |
| "learning_rate": 1.92154512940019e-06, |
| "loss": 0.0127, |
| "step": 603 |
| }, |
| { |
| "epoch": 0.6442666666666667, |
| "grad_norm": 2.0454536910248007, |
| "learning_rate": 1.921062097357946e-06, |
| "loss": 0.0386, |
| "step": 604 |
| }, |
| { |
| "epoch": 0.6453333333333333, |
| "grad_norm": 0.5798489601175519, |
| "learning_rate": 1.920577643998731e-06, |
| "loss": 0.0071, |
| "step": 605 |
| }, |
| { |
| "epoch": 0.6464, |
| "grad_norm": 0.2394641534653747, |
| "learning_rate": 1.9200917700701174e-06, |
| "loss": 0.0036, |
| "step": 606 |
| }, |
| { |
| "epoch": 0.6474666666666666, |
| "grad_norm": 0.9346485691984059, |
| "learning_rate": 1.9196044763218716e-06, |
| "loss": 0.0109, |
| "step": 607 |
| }, |
| { |
| "epoch": 0.6485333333333333, |
| "grad_norm": 0.20767795476182135, |
| "learning_rate": 1.919115763505951e-06, |
| "loss": 0.0032, |
| "step": 608 |
| }, |
| { |
| "epoch": 0.6496, |
| "grad_norm": 0.9746443826052226, |
| "learning_rate": 1.9186256323765014e-06, |
| "loss": 0.044, |
| "step": 609 |
| }, |
| { |
| "epoch": 0.6506666666666666, |
| "grad_norm": 0.03632552447261078, |
| "learning_rate": 1.9181340836898583e-06, |
| "loss": 0.0008, |
| "step": 610 |
| }, |
| { |
| "epoch": 0.6517333333333334, |
| "grad_norm": 0.016034323467636072, |
| "learning_rate": 1.9176411182045444e-06, |
| "loss": 0.0005, |
| "step": 611 |
| }, |
| { |
| "epoch": 0.6528, |
| "grad_norm": 1.2072262713544197, |
| "learning_rate": 1.9171467366812685e-06, |
| "loss": 0.0396, |
| "step": 612 |
| }, |
| { |
| "epoch": 0.6538666666666667, |
| "grad_norm": 0.06082727387699129, |
| "learning_rate": 1.9166509398829245e-06, |
| "loss": 0.0012, |
| "step": 613 |
| }, |
| { |
| "epoch": 0.6549333333333334, |
| "grad_norm": 0.3879482512495693, |
| "learning_rate": 1.9161537285745914e-06, |
| "loss": 0.0039, |
| "step": 614 |
| }, |
| { |
| "epoch": 0.656, |
| "grad_norm": 0.638808482088454, |
| "learning_rate": 1.915655103523529e-06, |
| "loss": 0.0074, |
| "step": 615 |
| }, |
| { |
| "epoch": 0.6570666666666667, |
| "grad_norm": 0.8138491050409327, |
| "learning_rate": 1.91515506549918e-06, |
| "loss": 0.0132, |
| "step": 616 |
| }, |
| { |
| "epoch": 0.6581333333333333, |
| "grad_norm": 0.540067462167089, |
| "learning_rate": 1.9146536152731677e-06, |
| "loss": 0.0172, |
| "step": 617 |
| }, |
| { |
| "epoch": 0.6592, |
| "grad_norm": 0.6745443836623596, |
| "learning_rate": 1.914150753619294e-06, |
| "loss": 0.0127, |
| "step": 618 |
| }, |
| { |
| "epoch": 0.6602666666666667, |
| "grad_norm": 0.0571756718504632, |
| "learning_rate": 1.9136464813135383e-06, |
| "loss": 0.0013, |
| "step": 619 |
| }, |
| { |
| "epoch": 0.6613333333333333, |
| "grad_norm": 1.0696688251669149, |
| "learning_rate": 1.9131407991340576e-06, |
| "loss": 0.0191, |
| "step": 620 |
| }, |
| { |
| "epoch": 0.6624, |
| "grad_norm": 0.9286743366557831, |
| "learning_rate": 1.9126337078611853e-06, |
| "loss": 0.0155, |
| "step": 621 |
| }, |
| { |
| "epoch": 0.6634666666666666, |
| "grad_norm": 0.7214214892481057, |
| "learning_rate": 1.9121252082774273e-06, |
| "loss": 0.0122, |
| "step": 622 |
| }, |
| { |
| "epoch": 0.6645333333333333, |
| "grad_norm": 1.0342887383390953, |
| "learning_rate": 1.911615301167464e-06, |
| "loss": 0.0183, |
| "step": 623 |
| }, |
| { |
| "epoch": 0.6656, |
| "grad_norm": 1.158658852177621, |
| "learning_rate": 1.9111039873181477e-06, |
| "loss": 0.0208, |
| "step": 624 |
| }, |
| { |
| "epoch": 0.6666666666666666, |
| "grad_norm": 0.933991719728494, |
| "learning_rate": 1.910591267518501e-06, |
| "loss": 0.0447, |
| "step": 625 |
| }, |
| { |
| "epoch": 0.6677333333333333, |
| "grad_norm": 2.6089665241843285, |
| "learning_rate": 1.910077142559716e-06, |
| "loss": 0.0638, |
| "step": 626 |
| }, |
| { |
| "epoch": 0.6688, |
| "grad_norm": 2.250722631227982, |
| "learning_rate": 1.909561613235154e-06, |
| "loss": 0.0592, |
| "step": 627 |
| }, |
| { |
| "epoch": 0.6698666666666667, |
| "grad_norm": 0.08631342544886995, |
| "learning_rate": 1.909044680340343e-06, |
| "loss": 0.0031, |
| "step": 628 |
| }, |
| { |
| "epoch": 0.6709333333333334, |
| "grad_norm": 0.15542900973082988, |
| "learning_rate": 1.9085263446729764e-06, |
| "loss": 0.0028, |
| "step": 629 |
| }, |
| { |
| "epoch": 0.672, |
| "grad_norm": 1.022068539031681, |
| "learning_rate": 1.908006607032913e-06, |
| "loss": 0.0189, |
| "step": 630 |
| }, |
| { |
| "epoch": 0.6730666666666667, |
| "grad_norm": 0.15157861026738817, |
| "learning_rate": 1.907485468222174e-06, |
| "loss": 0.0033, |
| "step": 631 |
| }, |
| { |
| "epoch": 0.6741333333333334, |
| "grad_norm": 0.7061085215681796, |
| "learning_rate": 1.906962929044944e-06, |
| "loss": 0.0353, |
| "step": 632 |
| }, |
| { |
| "epoch": 0.6752, |
| "grad_norm": 1.7929133283068759, |
| "learning_rate": 1.9064389903075675e-06, |
| "loss": 0.097, |
| "step": 633 |
| }, |
| { |
| "epoch": 0.6762666666666667, |
| "grad_norm": 0.8589919170763982, |
| "learning_rate": 1.9059136528185498e-06, |
| "loss": 0.0157, |
| "step": 634 |
| }, |
| { |
| "epoch": 0.6773333333333333, |
| "grad_norm": 0.36494696901420853, |
| "learning_rate": 1.9053869173885536e-06, |
| "loss": 0.0067, |
| "step": 635 |
| }, |
| { |
| "epoch": 0.6784, |
| "grad_norm": 0.6532318752374391, |
| "learning_rate": 1.9048587848303995e-06, |
| "loss": 0.0202, |
| "step": 636 |
| }, |
| { |
| "epoch": 0.6794666666666667, |
| "grad_norm": 0.8657373525057245, |
| "learning_rate": 1.9043292559590633e-06, |
| "loss": 0.027, |
| "step": 637 |
| }, |
| { |
| "epoch": 0.6805333333333333, |
| "grad_norm": 0.5189799148758188, |
| "learning_rate": 1.9037983315916765e-06, |
| "loss": 0.0137, |
| "step": 638 |
| }, |
| { |
| "epoch": 0.6816, |
| "grad_norm": 0.04327467414717054, |
| "learning_rate": 1.9032660125475236e-06, |
| "loss": 0.0008, |
| "step": 639 |
| }, |
| { |
| "epoch": 0.6826666666666666, |
| "grad_norm": 0.28806340514043643, |
| "learning_rate": 1.9027322996480405e-06, |
| "loss": 0.0057, |
| "step": 640 |
| }, |
| { |
| "epoch": 0.6837333333333333, |
| "grad_norm": 0.7926939670917631, |
| "learning_rate": 1.9021971937168152e-06, |
| "loss": 0.0159, |
| "step": 641 |
| }, |
| { |
| "epoch": 0.6848, |
| "grad_norm": 0.10089339697782138, |
| "learning_rate": 1.9016606955795846e-06, |
| "loss": 0.0022, |
| "step": 642 |
| }, |
| { |
| "epoch": 0.6858666666666666, |
| "grad_norm": 1.4015949919911506, |
| "learning_rate": 1.9011228060642346e-06, |
| "loss": 0.0423, |
| "step": 643 |
| }, |
| { |
| "epoch": 0.6869333333333333, |
| "grad_norm": 0.2377784994817877, |
| "learning_rate": 1.9005835260007969e-06, |
| "loss": 0.0037, |
| "step": 644 |
| }, |
| { |
| "epoch": 0.688, |
| "grad_norm": 0.41763550718320475, |
| "learning_rate": 1.9000428562214505e-06, |
| "loss": 0.0066, |
| "step": 645 |
| }, |
| { |
| "epoch": 0.6890666666666667, |
| "grad_norm": 0.16240431871680872, |
| "learning_rate": 1.899500797560518e-06, |
| "loss": 0.0048, |
| "step": 646 |
| }, |
| { |
| "epoch": 0.6901333333333334, |
| "grad_norm": 0.36944281047610233, |
| "learning_rate": 1.8989573508544653e-06, |
| "loss": 0.0044, |
| "step": 647 |
| }, |
| { |
| "epoch": 0.6912, |
| "grad_norm": 0.048698287672728456, |
| "learning_rate": 1.8984125169419006e-06, |
| "loss": 0.001, |
| "step": 648 |
| }, |
| { |
| "epoch": 0.6922666666666667, |
| "grad_norm": 1.1741308042050045, |
| "learning_rate": 1.8978662966635724e-06, |
| "loss": 0.0275, |
| "step": 649 |
| }, |
| { |
| "epoch": 0.6933333333333334, |
| "grad_norm": 1.3558362474002168, |
| "learning_rate": 1.8973186908623685e-06, |
| "loss": 0.0205, |
| "step": 650 |
| }, |
| { |
| "epoch": 0.6933333333333334, |
| "eval_loss": 0.07789424806833267, |
| "eval_runtime": 8.3568, |
| "eval_samples_per_second": 11.966, |
| "eval_steps_per_second": 5.983, |
| "step": 650 |
| }, |
| { |
| "epoch": 0.6944, |
| "grad_norm": 1.7482459975039009, |
| "learning_rate": 1.8967697003833154e-06, |
| "loss": 0.0648, |
| "step": 651 |
| }, |
| { |
| "epoch": 0.6954666666666667, |
| "grad_norm": 0.9838146620076734, |
| "learning_rate": 1.8962193260735756e-06, |
| "loss": 0.0363, |
| "step": 652 |
| }, |
| { |
| "epoch": 0.6965333333333333, |
| "grad_norm": 0.21390240495670962, |
| "learning_rate": 1.895667568782447e-06, |
| "loss": 0.0024, |
| "step": 653 |
| }, |
| { |
| "epoch": 0.6976, |
| "grad_norm": 0.8151337293902924, |
| "learning_rate": 1.8951144293613618e-06, |
| "loss": 0.0148, |
| "step": 654 |
| }, |
| { |
| "epoch": 0.6986666666666667, |
| "grad_norm": 0.5162306807123138, |
| "learning_rate": 1.8945599086638854e-06, |
| "loss": 0.0171, |
| "step": 655 |
| }, |
| { |
| "epoch": 0.6997333333333333, |
| "grad_norm": 0.38429318683486613, |
| "learning_rate": 1.894004007545715e-06, |
| "loss": 0.0079, |
| "step": 656 |
| }, |
| { |
| "epoch": 0.7008, |
| "grad_norm": 0.2911510256599981, |
| "learning_rate": 1.8934467268646758e-06, |
| "loss": 0.0072, |
| "step": 657 |
| }, |
| { |
| "epoch": 0.7018666666666666, |
| "grad_norm": 0.6637191436854831, |
| "learning_rate": 1.892888067480725e-06, |
| "loss": 0.0258, |
| "step": 658 |
| }, |
| { |
| "epoch": 0.7029333333333333, |
| "grad_norm": 0.8101059665578735, |
| "learning_rate": 1.8923280302559442e-06, |
| "loss": 0.015, |
| "step": 659 |
| }, |
| { |
| "epoch": 0.704, |
| "grad_norm": 0.09007455887002334, |
| "learning_rate": 1.8917666160545443e-06, |
| "loss": 0.0015, |
| "step": 660 |
| }, |
| { |
| "epoch": 0.7050666666666666, |
| "grad_norm": 0.4166713394320213, |
| "learning_rate": 1.891203825742858e-06, |
| "loss": 0.0066, |
| "step": 661 |
| }, |
| { |
| "epoch": 0.7061333333333333, |
| "grad_norm": 1.140005754244955, |
| "learning_rate": 1.8906396601893432e-06, |
| "loss": 0.0296, |
| "step": 662 |
| }, |
| { |
| "epoch": 0.7072, |
| "grad_norm": 0.7125664873819846, |
| "learning_rate": 1.8900741202645807e-06, |
| "loss": 0.0105, |
| "step": 663 |
| }, |
| { |
| "epoch": 0.7082666666666667, |
| "grad_norm": 1.162278687098443, |
| "learning_rate": 1.8895072068412701e-06, |
| "loss": 0.0136, |
| "step": 664 |
| }, |
| { |
| "epoch": 0.7093333333333334, |
| "grad_norm": 0.12850306398178354, |
| "learning_rate": 1.8889389207942319e-06, |
| "loss": 0.0019, |
| "step": 665 |
| }, |
| { |
| "epoch": 0.7104, |
| "grad_norm": 0.9709033474128045, |
| "learning_rate": 1.8883692630004044e-06, |
| "loss": 0.0346, |
| "step": 666 |
| }, |
| { |
| "epoch": 0.7114666666666667, |
| "grad_norm": 0.1236617961891707, |
| "learning_rate": 1.8877982343388427e-06, |
| "loss": 0.0019, |
| "step": 667 |
| }, |
| { |
| "epoch": 0.7125333333333334, |
| "grad_norm": 0.4869541092375322, |
| "learning_rate": 1.8872258356907174e-06, |
| "loss": 0.0161, |
| "step": 668 |
| }, |
| { |
| "epoch": 0.7136, |
| "grad_norm": 0.050618181244294486, |
| "learning_rate": 1.8866520679393125e-06, |
| "loss": 0.0006, |
| "step": 669 |
| }, |
| { |
| "epoch": 0.7146666666666667, |
| "grad_norm": 1.4761081938136003, |
| "learning_rate": 1.8860769319700258e-06, |
| "loss": 0.1135, |
| "step": 670 |
| }, |
| { |
| "epoch": 0.7157333333333333, |
| "grad_norm": 0.6252382856366319, |
| "learning_rate": 1.8855004286703657e-06, |
| "loss": 0.0104, |
| "step": 671 |
| }, |
| { |
| "epoch": 0.7168, |
| "grad_norm": 0.6439559554870532, |
| "learning_rate": 1.8849225589299507e-06, |
| "loss": 0.0094, |
| "step": 672 |
| }, |
| { |
| "epoch": 0.7178666666666667, |
| "grad_norm": 0.28214655901364616, |
| "learning_rate": 1.8843433236405077e-06, |
| "loss": 0.0061, |
| "step": 673 |
| }, |
| { |
| "epoch": 0.7189333333333333, |
| "grad_norm": 0.5128291981023604, |
| "learning_rate": 1.8837627236958715e-06, |
| "loss": 0.033, |
| "step": 674 |
| }, |
| { |
| "epoch": 0.72, |
| "grad_norm": 0.7869181765904392, |
| "learning_rate": 1.8831807599919823e-06, |
| "loss": 0.0308, |
| "step": 675 |
| }, |
| { |
| "epoch": 0.7210666666666666, |
| "grad_norm": 0.006353292310558568, |
| "learning_rate": 1.8825974334268842e-06, |
| "loss": 0.0002, |
| "step": 676 |
| }, |
| { |
| "epoch": 0.7221333333333333, |
| "grad_norm": 0.014967788496948244, |
| "learning_rate": 1.8820127449007255e-06, |
| "loss": 0.0004, |
| "step": 677 |
| }, |
| { |
| "epoch": 0.7232, |
| "grad_norm": 0.21859308512940928, |
| "learning_rate": 1.8814266953157553e-06, |
| "loss": 0.0055, |
| "step": 678 |
| }, |
| { |
| "epoch": 0.7242666666666666, |
| "grad_norm": 1.2461213147088943, |
| "learning_rate": 1.8808392855763235e-06, |
| "loss": 0.0371, |
| "step": 679 |
| }, |
| { |
| "epoch": 0.7253333333333334, |
| "grad_norm": 0.10500248158730184, |
| "learning_rate": 1.8802505165888784e-06, |
| "loss": 0.0017, |
| "step": 680 |
| }, |
| { |
| "epoch": 0.7264, |
| "grad_norm": 1.8198780794585319, |
| "learning_rate": 1.8796603892619665e-06, |
| "loss": 0.0656, |
| "step": 681 |
| }, |
| { |
| "epoch": 0.7274666666666667, |
| "grad_norm": 0.6129129603289553, |
| "learning_rate": 1.8790689045062297e-06, |
| "loss": 0.0097, |
| "step": 682 |
| }, |
| { |
| "epoch": 0.7285333333333334, |
| "grad_norm": 2.0670625892250705, |
| "learning_rate": 1.8784760632344043e-06, |
| "loss": 0.0618, |
| "step": 683 |
| }, |
| { |
| "epoch": 0.7296, |
| "grad_norm": 0.040040852797923, |
| "learning_rate": 1.8778818663613215e-06, |
| "loss": 0.0006, |
| "step": 684 |
| }, |
| { |
| "epoch": 0.7306666666666667, |
| "grad_norm": 0.3734802415610818, |
| "learning_rate": 1.8772863148039026e-06, |
| "loss": 0.0086, |
| "step": 685 |
| }, |
| { |
| "epoch": 0.7317333333333333, |
| "grad_norm": 2.3829205537157403, |
| "learning_rate": 1.8766894094811602e-06, |
| "loss": 0.0727, |
| "step": 686 |
| }, |
| { |
| "epoch": 0.7328, |
| "grad_norm": 0.07598476564118967, |
| "learning_rate": 1.876091151314196e-06, |
| "loss": 0.0015, |
| "step": 687 |
| }, |
| { |
| "epoch": 0.7338666666666667, |
| "grad_norm": 0.8020548938183406, |
| "learning_rate": 1.8754915412261989e-06, |
| "loss": 0.0464, |
| "step": 688 |
| }, |
| { |
| "epoch": 0.7349333333333333, |
| "grad_norm": 0.9189831756888492, |
| "learning_rate": 1.8748905801424442e-06, |
| "loss": 0.0097, |
| "step": 689 |
| }, |
| { |
| "epoch": 0.736, |
| "grad_norm": 0.8698201134779201, |
| "learning_rate": 1.8742882689902916e-06, |
| "loss": 0.0387, |
| "step": 690 |
| }, |
| { |
| "epoch": 0.7370666666666666, |
| "grad_norm": 0.3837850280105085, |
| "learning_rate": 1.8736846086991853e-06, |
| "loss": 0.0041, |
| "step": 691 |
| }, |
| { |
| "epoch": 0.7381333333333333, |
| "grad_norm": 0.08376766362596819, |
| "learning_rate": 1.8730796002006498e-06, |
| "loss": 0.0013, |
| "step": 692 |
| }, |
| { |
| "epoch": 0.7392, |
| "grad_norm": 0.8243964566185918, |
| "learning_rate": 1.8724732444282914e-06, |
| "loss": 0.0272, |
| "step": 693 |
| }, |
| { |
| "epoch": 0.7402666666666666, |
| "grad_norm": 0.06561835665780034, |
| "learning_rate": 1.8718655423177942e-06, |
| "loss": 0.0012, |
| "step": 694 |
| }, |
| { |
| "epoch": 0.7413333333333333, |
| "grad_norm": 1.9770659144069223, |
| "learning_rate": 1.8712564948069212e-06, |
| "loss": 0.1281, |
| "step": 695 |
| }, |
| { |
| "epoch": 0.7424, |
| "grad_norm": 0.6808221729580057, |
| "learning_rate": 1.8706461028355102e-06, |
| "loss": 0.0278, |
| "step": 696 |
| }, |
| { |
| "epoch": 0.7434666666666667, |
| "grad_norm": 0.2805141264349283, |
| "learning_rate": 1.8700343673454748e-06, |
| "loss": 0.0057, |
| "step": 697 |
| }, |
| { |
| "epoch": 0.7445333333333334, |
| "grad_norm": 1.3630696487065848, |
| "learning_rate": 1.869421289280801e-06, |
| "loss": 0.0482, |
| "step": 698 |
| }, |
| { |
| "epoch": 0.7456, |
| "grad_norm": 0.45934846960562553, |
| "learning_rate": 1.8688068695875474e-06, |
| "loss": 0.0195, |
| "step": 699 |
| }, |
| { |
| "epoch": 0.7466666666666667, |
| "grad_norm": 0.8478316453189086, |
| "learning_rate": 1.8681911092138417e-06, |
| "loss": 0.022, |
| "step": 700 |
| }, |
| { |
| "epoch": 0.7466666666666667, |
| "eval_loss": 0.14599137008190155, |
| "eval_runtime": 8.3463, |
| "eval_samples_per_second": 11.981, |
| "eval_steps_per_second": 5.991, |
| "step": 700 |
| }, |
| { |
| "epoch": 0.7477333333333334, |
| "grad_norm": 1.6537827342230196, |
| "learning_rate": 1.8675740091098817e-06, |
| "loss": 0.0361, |
| "step": 701 |
| }, |
| { |
| "epoch": 0.7488, |
| "grad_norm": 1.3526954464708587, |
| "learning_rate": 1.8669555702279318e-06, |
| "loss": 0.0278, |
| "step": 702 |
| }, |
| { |
| "epoch": 0.7498666666666667, |
| "grad_norm": 1.15397568692622, |
| "learning_rate": 1.8663357935223228e-06, |
| "loss": 0.0287, |
| "step": 703 |
| }, |
| { |
| "epoch": 0.7509333333333333, |
| "grad_norm": 0.4320899696852264, |
| "learning_rate": 1.865714679949449e-06, |
| "loss": 0.0265, |
| "step": 704 |
| }, |
| { |
| "epoch": 0.752, |
| "grad_norm": 0.21985410834860744, |
| "learning_rate": 1.865092230467769e-06, |
| "loss": 0.0081, |
| "step": 705 |
| }, |
| { |
| "epoch": 0.7530666666666667, |
| "grad_norm": 0.64197353580112, |
| "learning_rate": 1.8644684460378018e-06, |
| "loss": 0.0168, |
| "step": 706 |
| }, |
| { |
| "epoch": 0.7541333333333333, |
| "grad_norm": 0.49761728799072774, |
| "learning_rate": 1.863843327622127e-06, |
| "loss": 0.0396, |
| "step": 707 |
| }, |
| { |
| "epoch": 0.7552, |
| "grad_norm": 1.283299911113395, |
| "learning_rate": 1.8632168761853823e-06, |
| "loss": 0.0178, |
| "step": 708 |
| }, |
| { |
| "epoch": 0.7562666666666666, |
| "grad_norm": 2.118132944346098, |
| "learning_rate": 1.8625890926942631e-06, |
| "loss": 0.1543, |
| "step": 709 |
| }, |
| { |
| "epoch": 0.7573333333333333, |
| "grad_norm": 0.2694109746423913, |
| "learning_rate": 1.8619599781175195e-06, |
| "loss": 0.0049, |
| "step": 710 |
| }, |
| { |
| "epoch": 0.7584, |
| "grad_norm": 0.7318430595449652, |
| "learning_rate": 1.8613295334259559e-06, |
| "loss": 0.0307, |
| "step": 711 |
| }, |
| { |
| "epoch": 0.7594666666666666, |
| "grad_norm": 0.1500358076950247, |
| "learning_rate": 1.8606977595924293e-06, |
| "loss": 0.0027, |
| "step": 712 |
| }, |
| { |
| "epoch": 0.7605333333333333, |
| "grad_norm": 0.4718961665735485, |
| "learning_rate": 1.8600646575918484e-06, |
| "loss": 0.0138, |
| "step": 713 |
| }, |
| { |
| "epoch": 0.7616, |
| "grad_norm": 0.8864599535171884, |
| "learning_rate": 1.85943022840117e-06, |
| "loss": 0.0442, |
| "step": 714 |
| }, |
| { |
| "epoch": 0.7626666666666667, |
| "grad_norm": 0.2217109209467052, |
| "learning_rate": 1.8587944729994002e-06, |
| "loss": 0.0045, |
| "step": 715 |
| }, |
| { |
| "epoch": 0.7637333333333334, |
| "grad_norm": 0.1856112558053254, |
| "learning_rate": 1.8581573923675906e-06, |
| "loss": 0.0035, |
| "step": 716 |
| }, |
| { |
| "epoch": 0.7648, |
| "grad_norm": 0.5109471217029353, |
| "learning_rate": 1.8575189874888392e-06, |
| "loss": 0.0099, |
| "step": 717 |
| }, |
| { |
| "epoch": 0.7658666666666667, |
| "grad_norm": 1.774273478868457, |
| "learning_rate": 1.856879259348286e-06, |
| "loss": 0.0653, |
| "step": 718 |
| }, |
| { |
| "epoch": 0.7669333333333334, |
| "grad_norm": 0.6357577238575974, |
| "learning_rate": 1.856238208933114e-06, |
| "loss": 0.0194, |
| "step": 719 |
| }, |
| { |
| "epoch": 0.768, |
| "grad_norm": 1.2519081954903675, |
| "learning_rate": 1.8555958372325456e-06, |
| "loss": 0.0445, |
| "step": 720 |
| }, |
| { |
| "epoch": 0.7690666666666667, |
| "grad_norm": 0.13216131308199502, |
| "learning_rate": 1.8549521452378434e-06, |
| "loss": 0.0027, |
| "step": 721 |
| }, |
| { |
| "epoch": 0.7701333333333333, |
| "grad_norm": 2.2932859639163157, |
| "learning_rate": 1.8543071339423063e-06, |
| "loss": 0.1572, |
| "step": 722 |
| }, |
| { |
| "epoch": 0.7712, |
| "grad_norm": 0.8892398942439078, |
| "learning_rate": 1.8536608043412696e-06, |
| "loss": 0.0215, |
| "step": 723 |
| }, |
| { |
| "epoch": 0.7722666666666667, |
| "grad_norm": 1.1044212758824195, |
| "learning_rate": 1.853013157432103e-06, |
| "loss": 0.0206, |
| "step": 724 |
| }, |
| { |
| "epoch": 0.7733333333333333, |
| "grad_norm": 0.04737647613454427, |
| "learning_rate": 1.8523641942142082e-06, |
| "loss": 0.0014, |
| "step": 725 |
| }, |
| { |
| "epoch": 0.7744, |
| "grad_norm": 1.8740445566312973, |
| "learning_rate": 1.8517139156890193e-06, |
| "loss": 0.057, |
| "step": 726 |
| }, |
| { |
| "epoch": 0.7754666666666666, |
| "grad_norm": 0.5827727755530225, |
| "learning_rate": 1.8510623228599994e-06, |
| "loss": 0.0112, |
| "step": 727 |
| }, |
| { |
| "epoch": 0.7765333333333333, |
| "grad_norm": 0.9932722718227635, |
| "learning_rate": 1.8504094167326394e-06, |
| "loss": 0.0462, |
| "step": 728 |
| }, |
| { |
| "epoch": 0.7776, |
| "grad_norm": 0.2981346688194257, |
| "learning_rate": 1.8497551983144576e-06, |
| "loss": 0.0054, |
| "step": 729 |
| }, |
| { |
| "epoch": 0.7786666666666666, |
| "grad_norm": 0.48501496823240203, |
| "learning_rate": 1.8490996686149966e-06, |
| "loss": 0.0145, |
| "step": 730 |
| }, |
| { |
| "epoch": 0.7797333333333333, |
| "grad_norm": 0.785772938987278, |
| "learning_rate": 1.8484428286458233e-06, |
| "loss": 0.0135, |
| "step": 731 |
| }, |
| { |
| "epoch": 0.7808, |
| "grad_norm": 0.23910637165939902, |
| "learning_rate": 1.8477846794205257e-06, |
| "loss": 0.0049, |
| "step": 732 |
| }, |
| { |
| "epoch": 0.7818666666666667, |
| "grad_norm": 0.2177932327400783, |
| "learning_rate": 1.8471252219547124e-06, |
| "loss": 0.0088, |
| "step": 733 |
| }, |
| { |
| "epoch": 0.7829333333333334, |
| "grad_norm": 1.1800699679193265, |
| "learning_rate": 1.8464644572660113e-06, |
| "loss": 0.0452, |
| "step": 734 |
| }, |
| { |
| "epoch": 0.784, |
| "grad_norm": 2.025992908145484, |
| "learning_rate": 1.8458023863740666e-06, |
| "loss": 0.0565, |
| "step": 735 |
| }, |
| { |
| "epoch": 0.7850666666666667, |
| "grad_norm": 0.3597458532138365, |
| "learning_rate": 1.845139010300539e-06, |
| "loss": 0.0052, |
| "step": 736 |
| }, |
| { |
| "epoch": 0.7861333333333334, |
| "grad_norm": 0.23447688879389122, |
| "learning_rate": 1.8444743300691026e-06, |
| "loss": 0.0041, |
| "step": 737 |
| }, |
| { |
| "epoch": 0.7872, |
| "grad_norm": 1.0217974031018804, |
| "learning_rate": 1.8438083467054442e-06, |
| "loss": 0.0174, |
| "step": 738 |
| }, |
| { |
| "epoch": 0.7882666666666667, |
| "grad_norm": 0.4407473823580305, |
| "learning_rate": 1.8431410612372617e-06, |
| "loss": 0.0065, |
| "step": 739 |
| }, |
| { |
| "epoch": 0.7893333333333333, |
| "grad_norm": 0.32606365652237235, |
| "learning_rate": 1.8424724746942623e-06, |
| "loss": 0.0072, |
| "step": 740 |
| }, |
| { |
| "epoch": 0.7904, |
| "grad_norm": 1.3835298162527605, |
| "learning_rate": 1.841802588108161e-06, |
| "loss": 0.012, |
| "step": 741 |
| }, |
| { |
| "epoch": 0.7914666666666667, |
| "grad_norm": 0.27234435434149745, |
| "learning_rate": 1.8411314025126782e-06, |
| "loss": 0.0043, |
| "step": 742 |
| }, |
| { |
| "epoch": 0.7925333333333333, |
| "grad_norm": 0.9264895282601704, |
| "learning_rate": 1.8404589189435393e-06, |
| "loss": 0.0177, |
| "step": 743 |
| }, |
| { |
| "epoch": 0.7936, |
| "grad_norm": 0.8074935065238816, |
| "learning_rate": 1.8397851384384734e-06, |
| "loss": 0.0196, |
| "step": 744 |
| }, |
| { |
| "epoch": 0.7946666666666666, |
| "grad_norm": 0.1043654508508842, |
| "learning_rate": 1.8391100620372097e-06, |
| "loss": 0.0016, |
| "step": 745 |
| }, |
| { |
| "epoch": 0.7957333333333333, |
| "grad_norm": 0.294338685689348, |
| "learning_rate": 1.8384336907814782e-06, |
| "loss": 0.0038, |
| "step": 746 |
| }, |
| { |
| "epoch": 0.7968, |
| "grad_norm": 1.877458111911435, |
| "learning_rate": 1.8377560257150058e-06, |
| "loss": 0.1197, |
| "step": 747 |
| }, |
| { |
| "epoch": 0.7978666666666666, |
| "grad_norm": 0.28728205490269343, |
| "learning_rate": 1.8370770678835173e-06, |
| "loss": 0.0032, |
| "step": 748 |
| }, |
| { |
| "epoch": 0.7989333333333334, |
| "grad_norm": 0.13587158370211505, |
| "learning_rate": 1.8363968183347311e-06, |
| "loss": 0.0018, |
| "step": 749 |
| }, |
| { |
| "epoch": 0.8, |
| "grad_norm": 0.012187216319295395, |
| "learning_rate": 1.8357152781183601e-06, |
| "loss": 0.0004, |
| "step": 750 |
| }, |
| { |
| "epoch": 0.8, |
| "eval_loss": 0.12575645744800568, |
| "eval_runtime": 8.3279, |
| "eval_samples_per_second": 12.008, |
| "eval_steps_per_second": 6.004, |
| "step": 750 |
| }, |
| { |
| "epoch": 0.8010666666666667, |
| "grad_norm": 0.5959272862031918, |
| "learning_rate": 1.8350324482861082e-06, |
| "loss": 0.0089, |
| "step": 751 |
| }, |
| { |
| "epoch": 0.8021333333333334, |
| "grad_norm": 0.8599561461029128, |
| "learning_rate": 1.834348329891669e-06, |
| "loss": 0.0735, |
| "step": 752 |
| }, |
| { |
| "epoch": 0.8032, |
| "grad_norm": 0.3736642755602307, |
| "learning_rate": 1.8336629239907253e-06, |
| "loss": 0.0051, |
| "step": 753 |
| }, |
| { |
| "epoch": 0.8042666666666667, |
| "grad_norm": 2.1960910655785706, |
| "learning_rate": 1.8329762316409464e-06, |
| "loss": 0.0474, |
| "step": 754 |
| }, |
| { |
| "epoch": 0.8053333333333333, |
| "grad_norm": 0.23486155369972542, |
| "learning_rate": 1.8322882539019862e-06, |
| "loss": 0.0026, |
| "step": 755 |
| }, |
| { |
| "epoch": 0.8064, |
| "grad_norm": 0.4135277646156687, |
| "learning_rate": 1.831598991835483e-06, |
| "loss": 0.0038, |
| "step": 756 |
| }, |
| { |
| "epoch": 0.8074666666666667, |
| "grad_norm": 1.165467690491739, |
| "learning_rate": 1.8309084465050568e-06, |
| "loss": 0.0176, |
| "step": 757 |
| }, |
| { |
| "epoch": 0.8085333333333333, |
| "grad_norm": 2.02646027680192, |
| "learning_rate": 1.8302166189763071e-06, |
| "loss": 0.0831, |
| "step": 758 |
| }, |
| { |
| "epoch": 0.8096, |
| "grad_norm": 1.6085867863054608, |
| "learning_rate": 1.829523510316813e-06, |
| "loss": 0.0424, |
| "step": 759 |
| }, |
| { |
| "epoch": 0.8106666666666666, |
| "grad_norm": 0.08394023384907391, |
| "learning_rate": 1.8288291215961298e-06, |
| "loss": 0.0011, |
| "step": 760 |
| }, |
| { |
| "epoch": 0.8117333333333333, |
| "grad_norm": 1.5549433129437507, |
| "learning_rate": 1.8281334538857881e-06, |
| "loss": 0.0543, |
| "step": 761 |
| }, |
| { |
| "epoch": 0.8128, |
| "grad_norm": 1.1958564233447515, |
| "learning_rate": 1.827436508259293e-06, |
| "loss": 0.1382, |
| "step": 762 |
| }, |
| { |
| "epoch": 0.8138666666666666, |
| "grad_norm": 1.8875089670264504, |
| "learning_rate": 1.8267382857921207e-06, |
| "loss": 0.1114, |
| "step": 763 |
| }, |
| { |
| "epoch": 0.8149333333333333, |
| "grad_norm": 0.8482532923040282, |
| "learning_rate": 1.8260387875617183e-06, |
| "loss": 0.0223, |
| "step": 764 |
| }, |
| { |
| "epoch": 0.816, |
| "grad_norm": 0.33106328286533665, |
| "learning_rate": 1.8253380146475007e-06, |
| "loss": 0.0047, |
| "step": 765 |
| }, |
| { |
| "epoch": 0.8170666666666667, |
| "grad_norm": 0.7790924737666333, |
| "learning_rate": 1.8246359681308512e-06, |
| "loss": 0.0542, |
| "step": 766 |
| }, |
| { |
| "epoch": 0.8181333333333334, |
| "grad_norm": 1.2138816360719327, |
| "learning_rate": 1.8239326490951171e-06, |
| "loss": 0.0637, |
| "step": 767 |
| }, |
| { |
| "epoch": 0.8192, |
| "grad_norm": 0.7481846968226915, |
| "learning_rate": 1.82322805862561e-06, |
| "loss": 0.0241, |
| "step": 768 |
| }, |
| { |
| "epoch": 0.8202666666666667, |
| "grad_norm": 0.49646729395998357, |
| "learning_rate": 1.822522197809603e-06, |
| "loss": 0.0119, |
| "step": 769 |
| }, |
| { |
| "epoch": 0.8213333333333334, |
| "grad_norm": 0.6802325293844261, |
| "learning_rate": 1.8218150677363308e-06, |
| "loss": 0.0157, |
| "step": 770 |
| }, |
| { |
| "epoch": 0.8224, |
| "grad_norm": 0.3203206951174304, |
| "learning_rate": 1.8211066694969851e-06, |
| "loss": 0.0053, |
| "step": 771 |
| }, |
| { |
| "epoch": 0.8234666666666667, |
| "grad_norm": 0.7237727939102068, |
| "learning_rate": 1.8203970041847156e-06, |
| "loss": 0.0196, |
| "step": 772 |
| }, |
| { |
| "epoch": 0.8245333333333333, |
| "grad_norm": 0.5815456038630266, |
| "learning_rate": 1.8196860728946267e-06, |
| "loss": 0.0192, |
| "step": 773 |
| }, |
| { |
| "epoch": 0.8256, |
| "grad_norm": 0.7384144199958987, |
| "learning_rate": 1.8189738767237765e-06, |
| "loss": 0.0167, |
| "step": 774 |
| }, |
| { |
| "epoch": 0.8266666666666667, |
| "grad_norm": 0.8452498499854597, |
| "learning_rate": 1.8182604167711754e-06, |
| "loss": 0.0321, |
| "step": 775 |
| }, |
| { |
| "epoch": 0.8277333333333333, |
| "grad_norm": 1.1155855351659207, |
| "learning_rate": 1.8175456941377836e-06, |
| "loss": 0.0908, |
| "step": 776 |
| }, |
| { |
| "epoch": 0.8288, |
| "grad_norm": 0.5831585770270585, |
| "learning_rate": 1.8168297099265092e-06, |
| "loss": 0.0178, |
| "step": 777 |
| }, |
| { |
| "epoch": 0.8298666666666666, |
| "grad_norm": 0.5159803955898651, |
| "learning_rate": 1.8161124652422087e-06, |
| "loss": 0.0509, |
| "step": 778 |
| }, |
| { |
| "epoch": 0.8309333333333333, |
| "grad_norm": 0.39455087113487614, |
| "learning_rate": 1.8153939611916815e-06, |
| "loss": 0.0202, |
| "step": 779 |
| }, |
| { |
| "epoch": 0.832, |
| "grad_norm": 0.4893148909516496, |
| "learning_rate": 1.8146741988836724e-06, |
| "loss": 0.0126, |
| "step": 780 |
| }, |
| { |
| "epoch": 0.8330666666666666, |
| "grad_norm": 0.3944238669973449, |
| "learning_rate": 1.8139531794288668e-06, |
| "loss": 0.0089, |
| "step": 781 |
| }, |
| { |
| "epoch": 0.8341333333333333, |
| "grad_norm": 1.3203783416668555, |
| "learning_rate": 1.8132309039398898e-06, |
| "loss": 0.044, |
| "step": 782 |
| }, |
| { |
| "epoch": 0.8352, |
| "grad_norm": 0.3733033862606873, |
| "learning_rate": 1.8125073735313056e-06, |
| "loss": 0.0119, |
| "step": 783 |
| }, |
| { |
| "epoch": 0.8362666666666667, |
| "grad_norm": 0.4157990871864292, |
| "learning_rate": 1.8117825893196143e-06, |
| "loss": 0.0171, |
| "step": 784 |
| }, |
| { |
| "epoch": 0.8373333333333334, |
| "grad_norm": 0.9873948651016035, |
| "learning_rate": 1.8110565524232508e-06, |
| "loss": 0.0418, |
| "step": 785 |
| }, |
| { |
| "epoch": 0.8384, |
| "grad_norm": 0.373128353176687, |
| "learning_rate": 1.8103292639625835e-06, |
| "loss": 0.0082, |
| "step": 786 |
| }, |
| { |
| "epoch": 0.8394666666666667, |
| "grad_norm": 0.4700397236766773, |
| "learning_rate": 1.8096007250599113e-06, |
| "loss": 0.0094, |
| "step": 787 |
| }, |
| { |
| "epoch": 0.8405333333333334, |
| "grad_norm": 1.1544212720503313, |
| "learning_rate": 1.8088709368394634e-06, |
| "loss": 0.0306, |
| "step": 788 |
| }, |
| { |
| "epoch": 0.8416, |
| "grad_norm": 0.31405851779047433, |
| "learning_rate": 1.808139900427397e-06, |
| "loss": 0.0078, |
| "step": 789 |
| }, |
| { |
| "epoch": 0.8426666666666667, |
| "grad_norm": 1.7290262085984993, |
| "learning_rate": 1.8074076169517943e-06, |
| "loss": 0.055, |
| "step": 790 |
| }, |
| { |
| "epoch": 0.8437333333333333, |
| "grad_norm": 1.4623456102740366, |
| "learning_rate": 1.8066740875426634e-06, |
| "loss": 0.0607, |
| "step": 791 |
| }, |
| { |
| "epoch": 0.8448, |
| "grad_norm": 0.4213527888839155, |
| "learning_rate": 1.805939313331934e-06, |
| "loss": 0.0078, |
| "step": 792 |
| }, |
| { |
| "epoch": 0.8458666666666667, |
| "grad_norm": 0.8697053625190254, |
| "learning_rate": 1.8052032954534564e-06, |
| "loss": 0.0447, |
| "step": 793 |
| }, |
| { |
| "epoch": 0.8469333333333333, |
| "grad_norm": 0.07002893438915347, |
| "learning_rate": 1.8044660350430017e-06, |
| "loss": 0.0017, |
| "step": 794 |
| }, |
| { |
| "epoch": 0.848, |
| "grad_norm": 0.4633257884238649, |
| "learning_rate": 1.8037275332382564e-06, |
| "loss": 0.0084, |
| "step": 795 |
| }, |
| { |
| "epoch": 0.8490666666666666, |
| "grad_norm": 1.3124423563701477, |
| "learning_rate": 1.8029877911788241e-06, |
| "loss": 0.0251, |
| "step": 796 |
| }, |
| { |
| "epoch": 0.8501333333333333, |
| "grad_norm": 1.1207872973331625, |
| "learning_rate": 1.802246810006221e-06, |
| "loss": 0.0292, |
| "step": 797 |
| }, |
| { |
| "epoch": 0.8512, |
| "grad_norm": 0.49388843139638594, |
| "learning_rate": 1.8015045908638768e-06, |
| "loss": 0.0416, |
| "step": 798 |
| }, |
| { |
| "epoch": 0.8522666666666666, |
| "grad_norm": 0.35403955364230993, |
| "learning_rate": 1.8007611348971307e-06, |
| "loss": 0.0127, |
| "step": 799 |
| }, |
| { |
| "epoch": 0.8533333333333334, |
| "grad_norm": 0.5034914729242231, |
| "learning_rate": 1.8000164432532304e-06, |
| "loss": 0.012, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.8533333333333334, |
| "eval_loss": 0.053370095789432526, |
| "eval_runtime": 8.3092, |
| "eval_samples_per_second": 12.035, |
| "eval_steps_per_second": 6.017, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.8544, |
| "grad_norm": 0.36895224014402334, |
| "learning_rate": 1.7992705170813306e-06, |
| "loss": 0.0078, |
| "step": 801 |
| }, |
| { |
| "epoch": 0.8554666666666667, |
| "grad_norm": 0.8252968745608963, |
| "learning_rate": 1.7985233575324914e-06, |
| "loss": 0.0272, |
| "step": 802 |
| }, |
| { |
| "epoch": 0.8565333333333334, |
| "grad_norm": 1.1763097545031713, |
| "learning_rate": 1.7977749657596758e-06, |
| "loss": 0.0344, |
| "step": 803 |
| }, |
| { |
| "epoch": 0.8576, |
| "grad_norm": 0.5414117222730287, |
| "learning_rate": 1.7970253429177476e-06, |
| "loss": 0.0099, |
| "step": 804 |
| }, |
| { |
| "epoch": 0.8586666666666667, |
| "grad_norm": 1.2355141437660309, |
| "learning_rate": 1.796274490163472e-06, |
| "loss": 0.0879, |
| "step": 805 |
| }, |
| { |
| "epoch": 0.8597333333333333, |
| "grad_norm": 0.5127741675009583, |
| "learning_rate": 1.7955224086555105e-06, |
| "loss": 0.0078, |
| "step": 806 |
| }, |
| { |
| "epoch": 0.8608, |
| "grad_norm": 1.8632872491399184, |
| "learning_rate": 1.7947690995544216e-06, |
| "loss": 0.1231, |
| "step": 807 |
| }, |
| { |
| "epoch": 0.8618666666666667, |
| "grad_norm": 0.3007814403727227, |
| "learning_rate": 1.7940145640226581e-06, |
| "loss": 0.0044, |
| "step": 808 |
| }, |
| { |
| "epoch": 0.8629333333333333, |
| "grad_norm": 0.10168799783835121, |
| "learning_rate": 1.7932588032245643e-06, |
| "loss": 0.0017, |
| "step": 809 |
| }, |
| { |
| "epoch": 0.864, |
| "grad_norm": 0.307820320152951, |
| "learning_rate": 1.7925018183263769e-06, |
| "loss": 0.0074, |
| "step": 810 |
| }, |
| { |
| "epoch": 0.8650666666666667, |
| "grad_norm": 0.5182017885407396, |
| "learning_rate": 1.7917436104962204e-06, |
| "loss": 0.01, |
| "step": 811 |
| }, |
| { |
| "epoch": 0.8661333333333333, |
| "grad_norm": 0.32253536427501683, |
| "learning_rate": 1.7909841809041065e-06, |
| "loss": 0.0187, |
| "step": 812 |
| }, |
| { |
| "epoch": 0.8672, |
| "grad_norm": 0.34005533079953526, |
| "learning_rate": 1.790223530721933e-06, |
| "loss": 0.0057, |
| "step": 813 |
| }, |
| { |
| "epoch": 0.8682666666666666, |
| "grad_norm": 0.1909316693569716, |
| "learning_rate": 1.7894616611234806e-06, |
| "loss": 0.0043, |
| "step": 814 |
| }, |
| { |
| "epoch": 0.8693333333333333, |
| "grad_norm": 1.478335175372691, |
| "learning_rate": 1.7886985732844114e-06, |
| "loss": 0.0501, |
| "step": 815 |
| }, |
| { |
| "epoch": 0.8704, |
| "grad_norm": 1.1716937815295259, |
| "learning_rate": 1.787934268382268e-06, |
| "loss": 0.0335, |
| "step": 816 |
| }, |
| { |
| "epoch": 0.8714666666666666, |
| "grad_norm": 0.05439033142980008, |
| "learning_rate": 1.7871687475964711e-06, |
| "loss": 0.0013, |
| "step": 817 |
| }, |
| { |
| "epoch": 0.8725333333333334, |
| "grad_norm": 0.536222083547284, |
| "learning_rate": 1.7864020121083171e-06, |
| "loss": 0.0138, |
| "step": 818 |
| }, |
| { |
| "epoch": 0.8736, |
| "grad_norm": 1.3458359629286443, |
| "learning_rate": 1.785634063100978e-06, |
| "loss": 0.0385, |
| "step": 819 |
| }, |
| { |
| "epoch": 0.8746666666666667, |
| "grad_norm": 1.3649235702755, |
| "learning_rate": 1.784864901759497e-06, |
| "loss": 0.0339, |
| "step": 820 |
| }, |
| { |
| "epoch": 0.8757333333333334, |
| "grad_norm": 0.30027259568249803, |
| "learning_rate": 1.7840945292707885e-06, |
| "loss": 0.0072, |
| "step": 821 |
| }, |
| { |
| "epoch": 0.8768, |
| "grad_norm": 1.3243107032449952, |
| "learning_rate": 1.7833229468236366e-06, |
| "loss": 0.1008, |
| "step": 822 |
| }, |
| { |
| "epoch": 0.8778666666666667, |
| "grad_norm": 0.13681447172171157, |
| "learning_rate": 1.7825501556086917e-06, |
| "loss": 0.0036, |
| "step": 823 |
| }, |
| { |
| "epoch": 0.8789333333333333, |
| "grad_norm": 0.5040166624199399, |
| "learning_rate": 1.78177615681847e-06, |
| "loss": 0.0099, |
| "step": 824 |
| }, |
| { |
| "epoch": 0.88, |
| "grad_norm": 0.8191446395314659, |
| "learning_rate": 1.7810009516473508e-06, |
| "loss": 0.0528, |
| "step": 825 |
| }, |
| { |
| "epoch": 0.8810666666666667, |
| "grad_norm": 0.6656923642458409, |
| "learning_rate": 1.780224541291575e-06, |
| "loss": 0.0058, |
| "step": 826 |
| }, |
| { |
| "epoch": 0.8821333333333333, |
| "grad_norm": 0.07523140261740402, |
| "learning_rate": 1.779446926949244e-06, |
| "loss": 0.0028, |
| "step": 827 |
| }, |
| { |
| "epoch": 0.8832, |
| "grad_norm": 0.7327408060072352, |
| "learning_rate": 1.7786681098203155e-06, |
| "loss": 0.0243, |
| "step": 828 |
| }, |
| { |
| "epoch": 0.8842666666666666, |
| "grad_norm": 0.5688924217563622, |
| "learning_rate": 1.7778880911066047e-06, |
| "loss": 0.0283, |
| "step": 829 |
| }, |
| { |
| "epoch": 0.8853333333333333, |
| "grad_norm": 0.20295904776689908, |
| "learning_rate": 1.7771068720117808e-06, |
| "loss": 0.0038, |
| "step": 830 |
| }, |
| { |
| "epoch": 0.8864, |
| "grad_norm": 0.15585420550276582, |
| "learning_rate": 1.7763244537413649e-06, |
| "loss": 0.0028, |
| "step": 831 |
| }, |
| { |
| "epoch": 0.8874666666666666, |
| "grad_norm": 0.9312786557049378, |
| "learning_rate": 1.7755408375027284e-06, |
| "loss": 0.0131, |
| "step": 832 |
| }, |
| { |
| "epoch": 0.8885333333333333, |
| "grad_norm": 1.292940050593777, |
| "learning_rate": 1.7747560245050926e-06, |
| "loss": 0.0547, |
| "step": 833 |
| }, |
| { |
| "epoch": 0.8896, |
| "grad_norm": 0.47924657994827013, |
| "learning_rate": 1.7739700159595234e-06, |
| "loss": 0.0109, |
| "step": 834 |
| }, |
| { |
| "epoch": 0.8906666666666667, |
| "grad_norm": 0.6959830731874318, |
| "learning_rate": 1.7731828130789338e-06, |
| "loss": 0.0117, |
| "step": 835 |
| }, |
| { |
| "epoch": 0.8917333333333334, |
| "grad_norm": 0.08123142159922864, |
| "learning_rate": 1.772394417078078e-06, |
| "loss": 0.003, |
| "step": 836 |
| }, |
| { |
| "epoch": 0.8928, |
| "grad_norm": 0.07894197690380898, |
| "learning_rate": 1.7716048291735532e-06, |
| "loss": 0.0029, |
| "step": 837 |
| }, |
| { |
| "epoch": 0.8938666666666667, |
| "grad_norm": 0.26682915515866196, |
| "learning_rate": 1.7708140505837942e-06, |
| "loss": 0.0041, |
| "step": 838 |
| }, |
| { |
| "epoch": 0.8949333333333334, |
| "grad_norm": 0.7307717914383901, |
| "learning_rate": 1.7700220825290733e-06, |
| "loss": 0.0593, |
| "step": 839 |
| }, |
| { |
| "epoch": 0.896, |
| "grad_norm": 0.5459164968650944, |
| "learning_rate": 1.7692289262314999e-06, |
| "loss": 0.0078, |
| "step": 840 |
| }, |
| { |
| "epoch": 0.8970666666666667, |
| "grad_norm": 0.6136665907387636, |
| "learning_rate": 1.7684345829150151e-06, |
| "loss": 0.0143, |
| "step": 841 |
| }, |
| { |
| "epoch": 0.8981333333333333, |
| "grad_norm": 0.029118313370510067, |
| "learning_rate": 1.767639053805393e-06, |
| "loss": 0.0008, |
| "step": 842 |
| }, |
| { |
| "epoch": 0.8992, |
| "grad_norm": 0.13813382275007977, |
| "learning_rate": 1.7668423401302369e-06, |
| "loss": 0.003, |
| "step": 843 |
| }, |
| { |
| "epoch": 0.9002666666666667, |
| "grad_norm": 0.6157084116148966, |
| "learning_rate": 1.766044443118978e-06, |
| "loss": 0.044, |
| "step": 844 |
| }, |
| { |
| "epoch": 0.9013333333333333, |
| "grad_norm": 2.062922045507839, |
| "learning_rate": 1.765245364002874e-06, |
| "loss": 0.0558, |
| "step": 845 |
| }, |
| { |
| "epoch": 0.9024, |
| "grad_norm": 0.7371080849477383, |
| "learning_rate": 1.7644451040150066e-06, |
| "loss": 0.0132, |
| "step": 846 |
| }, |
| { |
| "epoch": 0.9034666666666666, |
| "grad_norm": 0.7773691013862728, |
| "learning_rate": 1.7636436643902793e-06, |
| "loss": 0.0205, |
| "step": 847 |
| }, |
| { |
| "epoch": 0.9045333333333333, |
| "grad_norm": 1.6905175037093625, |
| "learning_rate": 1.7628410463654163e-06, |
| "loss": 0.0389, |
| "step": 848 |
| }, |
| { |
| "epoch": 0.9056, |
| "grad_norm": 0.06391501037524207, |
| "learning_rate": 1.7620372511789604e-06, |
| "loss": 0.0016, |
| "step": 849 |
| }, |
| { |
| "epoch": 0.9066666666666666, |
| "grad_norm": 0.23754507243207357, |
| "learning_rate": 1.7612322800712704e-06, |
| "loss": 0.0043, |
| "step": 850 |
| }, |
| { |
| "epoch": 0.9066666666666666, |
| "eval_loss": 0.06493183970451355, |
| "eval_runtime": 9.2558, |
| "eval_samples_per_second": 10.804, |
| "eval_steps_per_second": 5.402, |
| "step": 850 |
| }, |
| { |
| "epoch": 0.9077333333333333, |
| "grad_norm": 0.11522491154504028, |
| "learning_rate": 1.7604261342845205e-06, |
| "loss": 0.0033, |
| "step": 851 |
| }, |
| { |
| "epoch": 0.9088, |
| "grad_norm": 0.10544553514498471, |
| "learning_rate": 1.7596188150626963e-06, |
| "loss": 0.0031, |
| "step": 852 |
| }, |
| { |
| "epoch": 0.9098666666666667, |
| "grad_norm": 0.7103429756853613, |
| "learning_rate": 1.7588103236515954e-06, |
| "loss": 0.0361, |
| "step": 853 |
| }, |
| { |
| "epoch": 0.9109333333333334, |
| "grad_norm": 0.7428779821661828, |
| "learning_rate": 1.7580006612988238e-06, |
| "loss": 0.0604, |
| "step": 854 |
| }, |
| { |
| "epoch": 0.912, |
| "grad_norm": 1.3285680107698499, |
| "learning_rate": 1.7571898292537943e-06, |
| "loss": 0.0248, |
| "step": 855 |
| }, |
| { |
| "epoch": 0.9130666666666667, |
| "grad_norm": 0.2700284204147992, |
| "learning_rate": 1.7563778287677247e-06, |
| "loss": 0.0047, |
| "step": 856 |
| }, |
| { |
| "epoch": 0.9141333333333334, |
| "grad_norm": 0.4285906295736961, |
| "learning_rate": 1.7555646610936357e-06, |
| "loss": 0.0132, |
| "step": 857 |
| }, |
| { |
| "epoch": 0.9152, |
| "grad_norm": 0.817481863958403, |
| "learning_rate": 1.7547503274863496e-06, |
| "loss": 0.0393, |
| "step": 858 |
| }, |
| { |
| "epoch": 0.9162666666666667, |
| "grad_norm": 0.8000548344661702, |
| "learning_rate": 1.7539348292024878e-06, |
| "loss": 0.0146, |
| "step": 859 |
| }, |
| { |
| "epoch": 0.9173333333333333, |
| "grad_norm": 0.5004377055556393, |
| "learning_rate": 1.7531181675004683e-06, |
| "loss": 0.0094, |
| "step": 860 |
| }, |
| { |
| "epoch": 0.9184, |
| "grad_norm": 0.4818274803342577, |
| "learning_rate": 1.7523003436405054e-06, |
| "loss": 0.0088, |
| "step": 861 |
| }, |
| { |
| "epoch": 0.9194666666666667, |
| "grad_norm": 0.07482480348938156, |
| "learning_rate": 1.7514813588846059e-06, |
| "loss": 0.0032, |
| "step": 862 |
| }, |
| { |
| "epoch": 0.9205333333333333, |
| "grad_norm": 0.481044423432111, |
| "learning_rate": 1.750661214496568e-06, |
| "loss": 0.0144, |
| "step": 863 |
| }, |
| { |
| "epoch": 0.9216, |
| "grad_norm": 0.4984826627914621, |
| "learning_rate": 1.7498399117419807e-06, |
| "loss": 0.0224, |
| "step": 864 |
| }, |
| { |
| "epoch": 0.9226666666666666, |
| "grad_norm": 1.1474206429314626, |
| "learning_rate": 1.7490174518882186e-06, |
| "loss": 0.0526, |
| "step": 865 |
| }, |
| { |
| "epoch": 0.9237333333333333, |
| "grad_norm": 0.9434708879125293, |
| "learning_rate": 1.7481938362044428e-06, |
| "loss": 0.0311, |
| "step": 866 |
| }, |
| { |
| "epoch": 0.9248, |
| "grad_norm": 0.3535353322476962, |
| "learning_rate": 1.7473690659615985e-06, |
| "loss": 0.0083, |
| "step": 867 |
| }, |
| { |
| "epoch": 0.9258666666666666, |
| "grad_norm": 0.9233610937074402, |
| "learning_rate": 1.7465431424324115e-06, |
| "loss": 0.021, |
| "step": 868 |
| }, |
| { |
| "epoch": 0.9269333333333334, |
| "grad_norm": 0.0381949887798563, |
| "learning_rate": 1.7457160668913882e-06, |
| "loss": 0.0008, |
| "step": 869 |
| }, |
| { |
| "epoch": 0.928, |
| "grad_norm": 0.10475509463522734, |
| "learning_rate": 1.744887840614812e-06, |
| "loss": 0.0042, |
| "step": 870 |
| }, |
| { |
| "epoch": 0.9290666666666667, |
| "grad_norm": 1.097369465053356, |
| "learning_rate": 1.7440584648807422e-06, |
| "loss": 0.0226, |
| "step": 871 |
| }, |
| { |
| "epoch": 0.9301333333333334, |
| "grad_norm": 0.8034539747593563, |
| "learning_rate": 1.743227940969012e-06, |
| "loss": 0.0139, |
| "step": 872 |
| }, |
| { |
| "epoch": 0.9312, |
| "grad_norm": 1.5098893310606223, |
| "learning_rate": 1.7423962701612264e-06, |
| "loss": 0.0494, |
| "step": 873 |
| }, |
| { |
| "epoch": 0.9322666666666667, |
| "grad_norm": 1.183787985459629, |
| "learning_rate": 1.7415634537407602e-06, |
| "loss": 0.0324, |
| "step": 874 |
| }, |
| { |
| "epoch": 0.9333333333333333, |
| "grad_norm": 0.9869556179312732, |
| "learning_rate": 1.7407294929927558e-06, |
| "loss": 0.0293, |
| "step": 875 |
| }, |
| { |
| "epoch": 0.9344, |
| "grad_norm": 1.307413794562261, |
| "learning_rate": 1.739894389204122e-06, |
| "loss": 0.0174, |
| "step": 876 |
| }, |
| { |
| "epoch": 0.9354666666666667, |
| "grad_norm": 0.6586306424965217, |
| "learning_rate": 1.7390581436635308e-06, |
| "loss": 0.0197, |
| "step": 877 |
| }, |
| { |
| "epoch": 0.9365333333333333, |
| "grad_norm": 0.4043924214860192, |
| "learning_rate": 1.738220757661416e-06, |
| "loss": 0.0054, |
| "step": 878 |
| }, |
| { |
| "epoch": 0.9376, |
| "grad_norm": 0.5088216345136679, |
| "learning_rate": 1.7373822324899724e-06, |
| "loss": 0.0155, |
| "step": 879 |
| }, |
| { |
| "epoch": 0.9386666666666666, |
| "grad_norm": 2.1231817727610176, |
| "learning_rate": 1.736542569443151e-06, |
| "loss": 0.0648, |
| "step": 880 |
| }, |
| { |
| "epoch": 0.9397333333333333, |
| "grad_norm": 0.844118384711583, |
| "learning_rate": 1.7357017698166604e-06, |
| "loss": 0.0302, |
| "step": 881 |
| }, |
| { |
| "epoch": 0.9408, |
| "grad_norm": 0.06773963213315144, |
| "learning_rate": 1.7348598349079616e-06, |
| "loss": 0.0026, |
| "step": 882 |
| }, |
| { |
| "epoch": 0.9418666666666666, |
| "grad_norm": 0.520985003208029, |
| "learning_rate": 1.734016766016269e-06, |
| "loss": 0.01, |
| "step": 883 |
| }, |
| { |
| "epoch": 0.9429333333333333, |
| "grad_norm": 0.6766732414862024, |
| "learning_rate": 1.7331725644425453e-06, |
| "loss": 0.0227, |
| "step": 884 |
| }, |
| { |
| "epoch": 0.944, |
| "grad_norm": 0.19169654682905016, |
| "learning_rate": 1.732327231489502e-06, |
| "loss": 0.0069, |
| "step": 885 |
| }, |
| { |
| "epoch": 0.9450666666666667, |
| "grad_norm": 0.5739250700621576, |
| "learning_rate": 1.7314807684615965e-06, |
| "loss": 0.0113, |
| "step": 886 |
| }, |
| { |
| "epoch": 0.9461333333333334, |
| "grad_norm": 2.589012811817353, |
| "learning_rate": 1.7306331766650298e-06, |
| "loss": 0.0453, |
| "step": 887 |
| }, |
| { |
| "epoch": 0.9472, |
| "grad_norm": 2.3283272194877607, |
| "learning_rate": 1.7297844574077445e-06, |
| "loss": 0.0512, |
| "step": 888 |
| }, |
| { |
| "epoch": 0.9482666666666667, |
| "grad_norm": 0.08031806368889559, |
| "learning_rate": 1.7289346119994234e-06, |
| "loss": 0.0021, |
| "step": 889 |
| }, |
| { |
| "epoch": 0.9493333333333334, |
| "grad_norm": 0.8282674805029137, |
| "learning_rate": 1.7280836417514873e-06, |
| "loss": 0.0229, |
| "step": 890 |
| }, |
| { |
| "epoch": 0.9504, |
| "grad_norm": 0.5500672651045168, |
| "learning_rate": 1.7272315479770923e-06, |
| "loss": 0.015, |
| "step": 891 |
| }, |
| { |
| "epoch": 0.9514666666666667, |
| "grad_norm": 0.7803183849599556, |
| "learning_rate": 1.7263783319911282e-06, |
| "loss": 0.0176, |
| "step": 892 |
| }, |
| { |
| "epoch": 0.9525333333333333, |
| "grad_norm": 0.8919164411124452, |
| "learning_rate": 1.7255239951102167e-06, |
| "loss": 0.09, |
| "step": 893 |
| }, |
| { |
| "epoch": 0.9536, |
| "grad_norm": 0.8799607735287165, |
| "learning_rate": 1.7246685386527096e-06, |
| "loss": 0.0235, |
| "step": 894 |
| }, |
| { |
| "epoch": 0.9546666666666667, |
| "grad_norm": 0.5384817024411757, |
| "learning_rate": 1.7238119639386855e-06, |
| "loss": 0.0121, |
| "step": 895 |
| }, |
| { |
| "epoch": 0.9557333333333333, |
| "grad_norm": 0.12014693936874205, |
| "learning_rate": 1.7229542722899493e-06, |
| "loss": 0.0024, |
| "step": 896 |
| }, |
| { |
| "epoch": 0.9568, |
| "grad_norm": 0.827858735368603, |
| "learning_rate": 1.7220954650300292e-06, |
| "loss": 0.0617, |
| "step": 897 |
| }, |
| { |
| "epoch": 0.9578666666666666, |
| "grad_norm": 0.6525540756770545, |
| "learning_rate": 1.721235543484175e-06, |
| "loss": 0.0242, |
| "step": 898 |
| }, |
| { |
| "epoch": 0.9589333333333333, |
| "grad_norm": 0.44614571143621745, |
| "learning_rate": 1.720374508979356e-06, |
| "loss": 0.0112, |
| "step": 899 |
| }, |
| { |
| "epoch": 0.96, |
| "grad_norm": 0.7043329837387845, |
| "learning_rate": 1.7195123628442587e-06, |
| "loss": 0.0198, |
| "step": 900 |
| }, |
| { |
| "epoch": 0.96, |
| "eval_loss": 0.06702824681997299, |
| "eval_runtime": 8.4156, |
| "eval_samples_per_second": 11.883, |
| "eval_steps_per_second": 5.941, |
| "step": 900 |
| }, |
| { |
| "epoch": 0.9610666666666666, |
| "grad_norm": 0.7201943038229085, |
| "learning_rate": 1.7186491064092855e-06, |
| "loss": 0.0453, |
| "step": 901 |
| }, |
| { |
| "epoch": 0.9621333333333333, |
| "grad_norm": 1.6075880142157002, |
| "learning_rate": 1.7177847410065513e-06, |
| "loss": 0.0521, |
| "step": 902 |
| }, |
| { |
| "epoch": 0.9632, |
| "grad_norm": 0.4452359083266732, |
| "learning_rate": 1.7169192679698834e-06, |
| "loss": 0.0125, |
| "step": 903 |
| }, |
| { |
| "epoch": 0.9642666666666667, |
| "grad_norm": 0.44141821014464877, |
| "learning_rate": 1.7160526886348174e-06, |
| "loss": 0.0168, |
| "step": 904 |
| }, |
| { |
| "epoch": 0.9653333333333334, |
| "grad_norm": 0.3041218639469686, |
| "learning_rate": 1.7151850043385965e-06, |
| "loss": 0.0092, |
| "step": 905 |
| }, |
| { |
| "epoch": 0.9664, |
| "grad_norm": 0.847915323435404, |
| "learning_rate": 1.7143162164201686e-06, |
| "loss": 0.0368, |
| "step": 906 |
| }, |
| { |
| "epoch": 0.9674666666666667, |
| "grad_norm": 1.6488620050289835, |
| "learning_rate": 1.7134463262201853e-06, |
| "loss": 0.0506, |
| "step": 907 |
| }, |
| { |
| "epoch": 0.9685333333333334, |
| "grad_norm": 1.4437731473777529, |
| "learning_rate": 1.7125753350809987e-06, |
| "loss": 0.0512, |
| "step": 908 |
| }, |
| { |
| "epoch": 0.9696, |
| "grad_norm": 3.4417556394185813, |
| "learning_rate": 1.7117032443466592e-06, |
| "loss": 0.1375, |
| "step": 909 |
| }, |
| { |
| "epoch": 0.9706666666666667, |
| "grad_norm": 1.393607964551126, |
| "learning_rate": 1.7108300553629156e-06, |
| "loss": 0.0404, |
| "step": 910 |
| }, |
| { |
| "epoch": 0.9717333333333333, |
| "grad_norm": 0.21196540619952392, |
| "learning_rate": 1.7099557694772102e-06, |
| "loss": 0.0061, |
| "step": 911 |
| }, |
| { |
| "epoch": 0.9728, |
| "grad_norm": 0.6223387116095862, |
| "learning_rate": 1.7090803880386782e-06, |
| "loss": 0.0252, |
| "step": 912 |
| }, |
| { |
| "epoch": 0.9738666666666667, |
| "grad_norm": 0.07423684189600925, |
| "learning_rate": 1.7082039123981453e-06, |
| "loss": 0.0033, |
| "step": 913 |
| }, |
| { |
| "epoch": 0.9749333333333333, |
| "grad_norm": 0.05354461119851362, |
| "learning_rate": 1.707326343908126e-06, |
| "loss": 0.0014, |
| "step": 914 |
| }, |
| { |
| "epoch": 0.976, |
| "grad_norm": 0.17654795092403208, |
| "learning_rate": 1.7064476839228212e-06, |
| "loss": 0.0079, |
| "step": 915 |
| }, |
| { |
| "epoch": 0.9770666666666666, |
| "grad_norm": 1.1560415348836615, |
| "learning_rate": 1.705567933798116e-06, |
| "loss": 0.0709, |
| "step": 916 |
| }, |
| { |
| "epoch": 0.9781333333333333, |
| "grad_norm": 0.6343824883733383, |
| "learning_rate": 1.7046870948915775e-06, |
| "loss": 0.0127, |
| "step": 917 |
| }, |
| { |
| "epoch": 0.9792, |
| "grad_norm": 0.1494249398692408, |
| "learning_rate": 1.7038051685624527e-06, |
| "loss": 0.005, |
| "step": 918 |
| }, |
| { |
| "epoch": 0.9802666666666666, |
| "grad_norm": 0.6696530221859195, |
| "learning_rate": 1.702922156171668e-06, |
| "loss": 0.0106, |
| "step": 919 |
| }, |
| { |
| "epoch": 0.9813333333333333, |
| "grad_norm": 0.14314344177076077, |
| "learning_rate": 1.702038059081824e-06, |
| "loss": 0.0032, |
| "step": 920 |
| }, |
| { |
| "epoch": 0.9824, |
| "grad_norm": 0.32484865198159396, |
| "learning_rate": 1.7011528786571966e-06, |
| "loss": 0.0086, |
| "step": 921 |
| }, |
| { |
| "epoch": 0.9834666666666667, |
| "grad_norm": 0.8822743257829567, |
| "learning_rate": 1.7002666162637325e-06, |
| "loss": 0.0313, |
| "step": 922 |
| }, |
| { |
| "epoch": 0.9845333333333334, |
| "grad_norm": 0.7756855471213663, |
| "learning_rate": 1.6993792732690478e-06, |
| "loss": 0.018, |
| "step": 923 |
| }, |
| { |
| "epoch": 0.9856, |
| "grad_norm": 0.7609762590097283, |
| "learning_rate": 1.698490851042427e-06, |
| "loss": 0.0671, |
| "step": 924 |
| }, |
| { |
| "epoch": 0.9866666666666667, |
| "grad_norm": 1.2735635481734564, |
| "learning_rate": 1.6976013509548195e-06, |
| "loss": 0.0286, |
| "step": 925 |
| }, |
| { |
| "epoch": 0.9877333333333334, |
| "grad_norm": 1.4346762691717854, |
| "learning_rate": 1.6967107743788384e-06, |
| "loss": 0.1199, |
| "step": 926 |
| }, |
| { |
| "epoch": 0.9888, |
| "grad_norm": 0.790669534924756, |
| "learning_rate": 1.6958191226887566e-06, |
| "loss": 0.0269, |
| "step": 927 |
| }, |
| { |
| "epoch": 0.9898666666666667, |
| "grad_norm": 0.06747991177904396, |
| "learning_rate": 1.6949263972605082e-06, |
| "loss": 0.0017, |
| "step": 928 |
| }, |
| { |
| "epoch": 0.9909333333333333, |
| "grad_norm": 0.20496814720380593, |
| "learning_rate": 1.694032599471682e-06, |
| "loss": 0.0049, |
| "step": 929 |
| }, |
| { |
| "epoch": 0.992, |
| "grad_norm": 1.276497227455641, |
| "learning_rate": 1.6931377307015237e-06, |
| "loss": 0.0543, |
| "step": 930 |
| }, |
| { |
| "epoch": 0.9930666666666667, |
| "grad_norm": 0.5302394338714648, |
| "learning_rate": 1.6922417923309297e-06, |
| "loss": 0.0265, |
| "step": 931 |
| }, |
| { |
| "epoch": 0.9941333333333333, |
| "grad_norm": 0.22701284188681078, |
| "learning_rate": 1.6913447857424485e-06, |
| "loss": 0.008, |
| "step": 932 |
| }, |
| { |
| "epoch": 0.9952, |
| "grad_norm": 0.5967580489510217, |
| "learning_rate": 1.690446712320276e-06, |
| "loss": 0.0104, |
| "step": 933 |
| }, |
| { |
| "epoch": 0.9962666666666666, |
| "grad_norm": 0.3878277040856282, |
| "learning_rate": 1.689547573450255e-06, |
| "loss": 0.0103, |
| "step": 934 |
| }, |
| { |
| "epoch": 0.9973333333333333, |
| "grad_norm": 0.32365680427814997, |
| "learning_rate": 1.6886473705198715e-06, |
| "loss": 0.0058, |
| "step": 935 |
| }, |
| { |
| "epoch": 0.9984, |
| "grad_norm": 1.3705000469682167, |
| "learning_rate": 1.6877461049182546e-06, |
| "loss": 0.0396, |
| "step": 936 |
| }, |
| { |
| "epoch": 0.9994666666666666, |
| "grad_norm": 0.5429930585759183, |
| "learning_rate": 1.6868437780361726e-06, |
| "loss": 0.028, |
| "step": 937 |
| }, |
| { |
| "epoch": 1.0, |
| "grad_norm": 0.5429930585759183, |
| "learning_rate": 1.6859403912660318e-06, |
| "loss": 0.0096, |
| "step": 938 |
| }, |
| { |
| "epoch": 1.0010666666666668, |
| "grad_norm": 0.4916829789703387, |
| "learning_rate": 1.6850359460018735e-06, |
| "loss": 0.0044, |
| "step": 939 |
| }, |
| { |
| "epoch": 1.0021333333333333, |
| "grad_norm": 0.2979310166282705, |
| "learning_rate": 1.6841304436393732e-06, |
| "loss": 0.0165, |
| "step": 940 |
| }, |
| { |
| "epoch": 1.0032, |
| "grad_norm": 0.8370743670659195, |
| "learning_rate": 1.6832238855758367e-06, |
| "loss": 0.0339, |
| "step": 941 |
| }, |
| { |
| "epoch": 1.0042666666666666, |
| "grad_norm": 0.16192307827765665, |
| "learning_rate": 1.6823162732102e-06, |
| "loss": 0.0037, |
| "step": 942 |
| }, |
| { |
| "epoch": 1.0053333333333334, |
| "grad_norm": 0.25394307806042143, |
| "learning_rate": 1.681407607943025e-06, |
| "loss": 0.0057, |
| "step": 943 |
| }, |
| { |
| "epoch": 1.0064, |
| "grad_norm": 0.5039087022497899, |
| "learning_rate": 1.6804978911764987e-06, |
| "loss": 0.0247, |
| "step": 944 |
| }, |
| { |
| "epoch": 1.0074666666666667, |
| "grad_norm": 0.04841683509251501, |
| "learning_rate": 1.679587124314431e-06, |
| "loss": 0.0168, |
| "step": 945 |
| }, |
| { |
| "epoch": 1.0085333333333333, |
| "grad_norm": 0.7702555161572083, |
| "learning_rate": 1.678675308762252e-06, |
| "loss": 0.0078, |
| "step": 946 |
| }, |
| { |
| "epoch": 1.0096, |
| "grad_norm": 0.5228406163032586, |
| "learning_rate": 1.6777624459270099e-06, |
| "loss": 0.0096, |
| "step": 947 |
| }, |
| { |
| "epoch": 1.0106666666666666, |
| "grad_norm": 0.07932404354364939, |
| "learning_rate": 1.6768485372173696e-06, |
| "loss": 0.001, |
| "step": 948 |
| }, |
| { |
| "epoch": 1.0117333333333334, |
| "grad_norm": 0.7272162639399672, |
| "learning_rate": 1.6759335840436088e-06, |
| "loss": 0.0338, |
| "step": 949 |
| }, |
| { |
| "epoch": 1.0128, |
| "grad_norm": 0.1325222502866181, |
| "learning_rate": 1.675017587817618e-06, |
| "loss": 0.006, |
| "step": 950 |
| }, |
| { |
| "epoch": 1.0128, |
| "eval_loss": 0.05511786788702011, |
| "eval_runtime": 8.3359, |
| "eval_samples_per_second": 11.996, |
| "eval_steps_per_second": 5.998, |
| "step": 950 |
| }, |
| { |
| "epoch": 1.0138666666666667, |
| "grad_norm": 0.2851585922035912, |
| "learning_rate": 1.674100549952897e-06, |
| "loss": 0.003, |
| "step": 951 |
| }, |
| { |
| "epoch": 1.0149333333333332, |
| "grad_norm": 0.1635246987897608, |
| "learning_rate": 1.6731824718645523e-06, |
| "loss": 0.0123, |
| "step": 952 |
| }, |
| { |
| "epoch": 1.016, |
| "grad_norm": 0.9554459164625243, |
| "learning_rate": 1.672263354969297e-06, |
| "loss": 0.0239, |
| "step": 953 |
| }, |
| { |
| "epoch": 1.0170666666666666, |
| "grad_norm": 0.6049818674300176, |
| "learning_rate": 1.671343200685446e-06, |
| "loss": 0.0368, |
| "step": 954 |
| }, |
| { |
| "epoch": 1.0181333333333333, |
| "grad_norm": 1.2174111129081242, |
| "learning_rate": 1.6704220104329153e-06, |
| "loss": 0.0089, |
| "step": 955 |
| }, |
| { |
| "epoch": 1.0192, |
| "grad_norm": 0.09893112075059436, |
| "learning_rate": 1.6694997856332194e-06, |
| "loss": 0.0023, |
| "step": 956 |
| }, |
| { |
| "epoch": 1.0202666666666667, |
| "grad_norm": 0.09001324637021094, |
| "learning_rate": 1.6685765277094698e-06, |
| "loss": 0.014, |
| "step": 957 |
| }, |
| { |
| "epoch": 1.0213333333333334, |
| "grad_norm": 0.6901973285139684, |
| "learning_rate": 1.6676522380863718e-06, |
| "loss": 0.0026, |
| "step": 958 |
| }, |
| { |
| "epoch": 1.0224, |
| "grad_norm": 0.059717251369744574, |
| "learning_rate": 1.6667269181902234e-06, |
| "loss": 0.0059, |
| "step": 959 |
| }, |
| { |
| "epoch": 1.0234666666666667, |
| "grad_norm": 0.3083472218723695, |
| "learning_rate": 1.6658005694489108e-06, |
| "loss": 0.0044, |
| "step": 960 |
| }, |
| { |
| "epoch": 1.0245333333333333, |
| "grad_norm": 1.2387887367525359, |
| "learning_rate": 1.66487319329191e-06, |
| "loss": 0.067, |
| "step": 961 |
| }, |
| { |
| "epoch": 1.0256, |
| "grad_norm": 0.05958218523488344, |
| "learning_rate": 1.6639447911502806e-06, |
| "loss": 0.0038, |
| "step": 962 |
| }, |
| { |
| "epoch": 1.0266666666666666, |
| "grad_norm": 0.25803312922414584, |
| "learning_rate": 1.6630153644566666e-06, |
| "loss": 0.0022, |
| "step": 963 |
| }, |
| { |
| "epoch": 1.0277333333333334, |
| "grad_norm": 0.13407512286627216, |
| "learning_rate": 1.6620849146452928e-06, |
| "loss": 0.0014, |
| "step": 964 |
| }, |
| { |
| "epoch": 1.0288, |
| "grad_norm": 0.9967498197509435, |
| "learning_rate": 1.6611534431519622e-06, |
| "loss": 0.0098, |
| "step": 965 |
| }, |
| { |
| "epoch": 1.0298666666666667, |
| "grad_norm": 0.04855423463199995, |
| "learning_rate": 1.6602209514140548e-06, |
| "loss": 0.0021, |
| "step": 966 |
| }, |
| { |
| "epoch": 1.0309333333333333, |
| "grad_norm": 0.9190388514477494, |
| "learning_rate": 1.6592874408705253e-06, |
| "loss": 0.0249, |
| "step": 967 |
| }, |
| { |
| "epoch": 1.032, |
| "grad_norm": 0.15521259953012823, |
| "learning_rate": 1.6583529129619003e-06, |
| "loss": 0.0035, |
| "step": 968 |
| }, |
| { |
| "epoch": 1.0330666666666666, |
| "grad_norm": 0.0739501147905464, |
| "learning_rate": 1.6574173691302758e-06, |
| "loss": 0.0207, |
| "step": 969 |
| }, |
| { |
| "epoch": 1.0341333333333333, |
| "grad_norm": 0.48810685041497015, |
| "learning_rate": 1.6564808108193163e-06, |
| "loss": 0.0007, |
| "step": 970 |
| }, |
| { |
| "epoch": 1.0352, |
| "grad_norm": 0.07637320025474216, |
| "learning_rate": 1.6555432394742511e-06, |
| "loss": 0.0064, |
| "step": 971 |
| }, |
| { |
| "epoch": 1.0362666666666667, |
| "grad_norm": 0.39526147128400013, |
| "learning_rate": 1.6546046565418732e-06, |
| "loss": 0.0022, |
| "step": 972 |
| }, |
| { |
| "epoch": 1.0373333333333334, |
| "grad_norm": 0.33979283542891386, |
| "learning_rate": 1.6536650634705365e-06, |
| "loss": 0.0076, |
| "step": 973 |
| }, |
| { |
| "epoch": 1.0384, |
| "grad_norm": 1.8339909658885087, |
| "learning_rate": 1.6527244617101537e-06, |
| "loss": 0.0351, |
| "step": 974 |
| }, |
| { |
| "epoch": 1.0394666666666668, |
| "grad_norm": 0.32217927046265177, |
| "learning_rate": 1.651782852712194e-06, |
| "loss": 0.0006, |
| "step": 975 |
| }, |
| { |
| "epoch": 1.0405333333333333, |
| "grad_norm": 0.28508392541225847, |
| "learning_rate": 1.6508402379296808e-06, |
| "loss": 0.0043, |
| "step": 976 |
| }, |
| { |
| "epoch": 1.0416, |
| "grad_norm": 0.037354972250637136, |
| "learning_rate": 1.6498966188171895e-06, |
| "loss": 0.0031, |
| "step": 977 |
| }, |
| { |
| "epoch": 1.0426666666666666, |
| "grad_norm": 0.7166489206167719, |
| "learning_rate": 1.6489519968308457e-06, |
| "loss": 0.0641, |
| "step": 978 |
| }, |
| { |
| "epoch": 1.0437333333333334, |
| "grad_norm": 1.0515466328685, |
| "learning_rate": 1.648006373428322e-06, |
| "loss": 0.01, |
| "step": 979 |
| }, |
| { |
| "epoch": 1.0448, |
| "grad_norm": 0.936126382450395, |
| "learning_rate": 1.6470597500688369e-06, |
| "loss": 0.0066, |
| "step": 980 |
| }, |
| { |
| "epoch": 1.0458666666666667, |
| "grad_norm": 0.06579766473780263, |
| "learning_rate": 1.6461121282131516e-06, |
| "loss": 0.0022, |
| "step": 981 |
| }, |
| { |
| "epoch": 1.0469333333333333, |
| "grad_norm": 0.09021244626430282, |
| "learning_rate": 1.6451635093235683e-06, |
| "loss": 0.0011, |
| "step": 982 |
| }, |
| { |
| "epoch": 1.048, |
| "grad_norm": 0.01025702341477458, |
| "learning_rate": 1.644213894863927e-06, |
| "loss": 0.0003, |
| "step": 983 |
| }, |
| { |
| "epoch": 1.0490666666666666, |
| "grad_norm": 1.3151879642844628, |
| "learning_rate": 1.6432632862996055e-06, |
| "loss": 0.0263, |
| "step": 984 |
| }, |
| { |
| "epoch": 1.0501333333333334, |
| "grad_norm": 0.9276898564205044, |
| "learning_rate": 1.6423116850975145e-06, |
| "loss": 0.0079, |
| "step": 985 |
| }, |
| { |
| "epoch": 1.0512, |
| "grad_norm": 0.02947729014406564, |
| "learning_rate": 1.641359092726096e-06, |
| "loss": 0.0018, |
| "step": 986 |
| }, |
| { |
| "epoch": 1.0522666666666667, |
| "grad_norm": 0.19598979775248843, |
| "learning_rate": 1.6404055106553234e-06, |
| "loss": 0.0009, |
| "step": 987 |
| }, |
| { |
| "epoch": 1.0533333333333332, |
| "grad_norm": 1.8171369166805973, |
| "learning_rate": 1.6394509403566952e-06, |
| "loss": 0.0308, |
| "step": 988 |
| }, |
| { |
| "epoch": 1.0544, |
| "grad_norm": 0.7848075693667415, |
| "learning_rate": 1.6384953833032367e-06, |
| "loss": 0.0279, |
| "step": 989 |
| }, |
| { |
| "epoch": 1.0554666666666668, |
| "grad_norm": 0.04284710379550343, |
| "learning_rate": 1.637538840969494e-06, |
| "loss": 0.0005, |
| "step": 990 |
| }, |
| { |
| "epoch": 1.0565333333333333, |
| "grad_norm": 0.03007223360486748, |
| "learning_rate": 1.6365813148315355e-06, |
| "loss": 0.0007, |
| "step": 991 |
| }, |
| { |
| "epoch": 1.0576, |
| "grad_norm": 0.01899139669637451, |
| "learning_rate": 1.6356228063669465e-06, |
| "loss": 0.0005, |
| "step": 992 |
| }, |
| { |
| "epoch": 1.0586666666666666, |
| "grad_norm": 0.11346226457614883, |
| "learning_rate": 1.6346633170548287e-06, |
| "loss": 0.0014, |
| "step": 993 |
| }, |
| { |
| "epoch": 1.0597333333333334, |
| "grad_norm": 0.04943624657920941, |
| "learning_rate": 1.6337028483757966e-06, |
| "loss": 0.0009, |
| "step": 994 |
| }, |
| { |
| "epoch": 1.0608, |
| "grad_norm": 0.015138645630175255, |
| "learning_rate": 1.6327414018119774e-06, |
| "loss": 0.0009, |
| "step": 995 |
| }, |
| { |
| "epoch": 1.0618666666666667, |
| "grad_norm": 1.4799218601071658, |
| "learning_rate": 1.631778978847006e-06, |
| "loss": 0.014, |
| "step": 996 |
| }, |
| { |
| "epoch": 1.0629333333333333, |
| "grad_norm": 1.2249010640123865, |
| "learning_rate": 1.6308155809660247e-06, |
| "loss": 0.0121, |
| "step": 997 |
| }, |
| { |
| "epoch": 1.064, |
| "grad_norm": 1.021197338464407, |
| "learning_rate": 1.6298512096556795e-06, |
| "loss": 0.0632, |
| "step": 998 |
| }, |
| { |
| "epoch": 1.0650666666666666, |
| "grad_norm": 0.4954690700310796, |
| "learning_rate": 1.6288858664041198e-06, |
| "loss": 0.0003, |
| "step": 999 |
| }, |
| { |
| "epoch": 1.0661333333333334, |
| "grad_norm": 0.20535195318024518, |
| "learning_rate": 1.6279195527009938e-06, |
| "loss": 0.0203, |
| "step": 1000 |
| }, |
| { |
| "epoch": 1.0661333333333334, |
| "eval_loss": 0.09908830374479294, |
| "eval_runtime": 8.2885, |
| "eval_samples_per_second": 12.065, |
| "eval_steps_per_second": 6.032, |
| "step": 1000 |
| } |
| ], |
| "logging_steps": 1, |
| "max_steps": 2811, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 3, |
| "save_steps": 250, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": false |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 2259115302912.0, |
| "train_batch_size": 2, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|