b2_code_embedding / trainer_state.json
neginr's picture
End of training
a19c8c3 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 5.0,
"eval_steps": 500,
"global_step": 1200,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.004166666666666667,
"grad_norm": 6.832746617212501,
"learning_rate": 3.3333333333333335e-07,
"loss": 1.0708,
"step": 1
},
{
"epoch": 0.008333333333333333,
"grad_norm": 6.722005165892311,
"learning_rate": 6.666666666666667e-07,
"loss": 1.0439,
"step": 2
},
{
"epoch": 0.0125,
"grad_norm": 6.592513139645599,
"learning_rate": 1.0000000000000002e-06,
"loss": 1.0359,
"step": 3
},
{
"epoch": 0.016666666666666666,
"grad_norm": 6.400449551473129,
"learning_rate": 1.3333333333333334e-06,
"loss": 1.0264,
"step": 4
},
{
"epoch": 0.020833333333333332,
"grad_norm": 6.141935206476066,
"learning_rate": 1.6666666666666667e-06,
"loss": 1.0219,
"step": 5
},
{
"epoch": 0.025,
"grad_norm": 6.144188614406256,
"learning_rate": 2.0000000000000003e-06,
"loss": 1.0423,
"step": 6
},
{
"epoch": 0.029166666666666667,
"grad_norm": 4.723936973082147,
"learning_rate": 2.3333333333333336e-06,
"loss": 0.9905,
"step": 7
},
{
"epoch": 0.03333333333333333,
"grad_norm": 4.404721433571438,
"learning_rate": 2.666666666666667e-06,
"loss": 0.9999,
"step": 8
},
{
"epoch": 0.0375,
"grad_norm": 2.8556986560850834,
"learning_rate": 3e-06,
"loss": 0.9511,
"step": 9
},
{
"epoch": 0.041666666666666664,
"grad_norm": 2.645937958339345,
"learning_rate": 3.3333333333333333e-06,
"loss": 0.9576,
"step": 10
},
{
"epoch": 0.04583333333333333,
"grad_norm": 2.5264859541553673,
"learning_rate": 3.6666666666666666e-06,
"loss": 0.9467,
"step": 11
},
{
"epoch": 0.05,
"grad_norm": 4.249945414605477,
"learning_rate": 4.000000000000001e-06,
"loss": 0.923,
"step": 12
},
{
"epoch": 0.05416666666666667,
"grad_norm": 4.438511276924439,
"learning_rate": 4.333333333333334e-06,
"loss": 0.9284,
"step": 13
},
{
"epoch": 0.058333333333333334,
"grad_norm": 4.350535532893484,
"learning_rate": 4.666666666666667e-06,
"loss": 0.9276,
"step": 14
},
{
"epoch": 0.0625,
"grad_norm": 3.837878669737464,
"learning_rate": 5e-06,
"loss": 0.9148,
"step": 15
},
{
"epoch": 0.06666666666666667,
"grad_norm": 3.096451437357516,
"learning_rate": 5.333333333333334e-06,
"loss": 0.8751,
"step": 16
},
{
"epoch": 0.07083333333333333,
"grad_norm": 2.8188767114680444,
"learning_rate": 5.666666666666667e-06,
"loss": 0.8635,
"step": 17
},
{
"epoch": 0.075,
"grad_norm": 2.263860832111962,
"learning_rate": 6e-06,
"loss": 0.8441,
"step": 18
},
{
"epoch": 0.07916666666666666,
"grad_norm": 1.6832918244958086,
"learning_rate": 6.333333333333333e-06,
"loss": 0.8396,
"step": 19
},
{
"epoch": 0.08333333333333333,
"grad_norm": 1.3015547810704755,
"learning_rate": 6.666666666666667e-06,
"loss": 0.8143,
"step": 20
},
{
"epoch": 0.0875,
"grad_norm": 1.325993130595308,
"learning_rate": 7e-06,
"loss": 0.8114,
"step": 21
},
{
"epoch": 0.09166666666666666,
"grad_norm": 1.361193673338303,
"learning_rate": 7.333333333333333e-06,
"loss": 0.8006,
"step": 22
},
{
"epoch": 0.09583333333333334,
"grad_norm": 1.122439118254614,
"learning_rate": 7.666666666666667e-06,
"loss": 0.7868,
"step": 23
},
{
"epoch": 0.1,
"grad_norm": 0.916710349802209,
"learning_rate": 8.000000000000001e-06,
"loss": 0.7731,
"step": 24
},
{
"epoch": 0.10416666666666667,
"grad_norm": 0.9193543079053559,
"learning_rate": 8.333333333333334e-06,
"loss": 0.7738,
"step": 25
},
{
"epoch": 0.10833333333333334,
"grad_norm": 0.9146646422133236,
"learning_rate": 8.666666666666668e-06,
"loss": 0.7583,
"step": 26
},
{
"epoch": 0.1125,
"grad_norm": 0.7990361061623279,
"learning_rate": 9e-06,
"loss": 0.7399,
"step": 27
},
{
"epoch": 0.11666666666666667,
"grad_norm": 0.7768592276111252,
"learning_rate": 9.333333333333334e-06,
"loss": 0.7457,
"step": 28
},
{
"epoch": 0.12083333333333333,
"grad_norm": 0.8435019115381818,
"learning_rate": 9.666666666666667e-06,
"loss": 0.742,
"step": 29
},
{
"epoch": 0.125,
"grad_norm": 0.8088610628833126,
"learning_rate": 1e-05,
"loss": 0.7327,
"step": 30
},
{
"epoch": 0.12916666666666668,
"grad_norm": 0.8244906434691093,
"learning_rate": 1.0333333333333335e-05,
"loss": 0.7368,
"step": 31
},
{
"epoch": 0.13333333333333333,
"grad_norm": 0.6349527593388378,
"learning_rate": 1.0666666666666667e-05,
"loss": 0.7302,
"step": 32
},
{
"epoch": 0.1375,
"grad_norm": 0.7242668613698263,
"learning_rate": 1.1000000000000001e-05,
"loss": 0.7265,
"step": 33
},
{
"epoch": 0.14166666666666666,
"grad_norm": 0.6934236067516485,
"learning_rate": 1.1333333333333334e-05,
"loss": 0.7121,
"step": 34
},
{
"epoch": 0.14583333333333334,
"grad_norm": 0.6230632857377315,
"learning_rate": 1.1666666666666668e-05,
"loss": 0.722,
"step": 35
},
{
"epoch": 0.15,
"grad_norm": 0.6057998943730727,
"learning_rate": 1.2e-05,
"loss": 0.7071,
"step": 36
},
{
"epoch": 0.15416666666666667,
"grad_norm": 0.7154466695410022,
"learning_rate": 1.2333333333333334e-05,
"loss": 0.7115,
"step": 37
},
{
"epoch": 0.15833333333333333,
"grad_norm": 0.583085961426423,
"learning_rate": 1.2666666666666667e-05,
"loss": 0.7029,
"step": 38
},
{
"epoch": 0.1625,
"grad_norm": 0.6637301966327246,
"learning_rate": 1.3000000000000001e-05,
"loss": 0.7006,
"step": 39
},
{
"epoch": 0.16666666666666666,
"grad_norm": 0.6570162295776591,
"learning_rate": 1.3333333333333333e-05,
"loss": 0.7006,
"step": 40
},
{
"epoch": 0.17083333333333334,
"grad_norm": 1.6249295445681182,
"learning_rate": 1.3666666666666667e-05,
"loss": 0.7444,
"step": 41
},
{
"epoch": 0.175,
"grad_norm": 0.6711937521500816,
"learning_rate": 1.4e-05,
"loss": 0.681,
"step": 42
},
{
"epoch": 0.17916666666666667,
"grad_norm": 0.593977893755728,
"learning_rate": 1.4333333333333334e-05,
"loss": 0.6917,
"step": 43
},
{
"epoch": 0.18333333333333332,
"grad_norm": 0.5683636125066719,
"learning_rate": 1.4666666666666666e-05,
"loss": 0.6949,
"step": 44
},
{
"epoch": 0.1875,
"grad_norm": 0.6547304924994687,
"learning_rate": 1.5000000000000002e-05,
"loss": 0.6754,
"step": 45
},
{
"epoch": 0.19166666666666668,
"grad_norm": 0.7057244148349102,
"learning_rate": 1.5333333333333334e-05,
"loss": 0.6694,
"step": 46
},
{
"epoch": 0.19583333333333333,
"grad_norm": 0.5428808928110224,
"learning_rate": 1.5666666666666667e-05,
"loss": 0.6691,
"step": 47
},
{
"epoch": 0.2,
"grad_norm": 0.6611089292468514,
"learning_rate": 1.6000000000000003e-05,
"loss": 0.6866,
"step": 48
},
{
"epoch": 0.20416666666666666,
"grad_norm": 0.6437372302287256,
"learning_rate": 1.6333333333333335e-05,
"loss": 0.6857,
"step": 49
},
{
"epoch": 0.20833333333333334,
"grad_norm": 0.6242998695394557,
"learning_rate": 1.6666666666666667e-05,
"loss": 0.6718,
"step": 50
},
{
"epoch": 0.2125,
"grad_norm": 0.6614584849659777,
"learning_rate": 1.7e-05,
"loss": 0.651,
"step": 51
},
{
"epoch": 0.21666666666666667,
"grad_norm": 0.7075875910735387,
"learning_rate": 1.7333333333333336e-05,
"loss": 0.6701,
"step": 52
},
{
"epoch": 0.22083333333333333,
"grad_norm": 0.7746688794934284,
"learning_rate": 1.7666666666666668e-05,
"loss": 0.6612,
"step": 53
},
{
"epoch": 0.225,
"grad_norm": 0.6528458565370922,
"learning_rate": 1.8e-05,
"loss": 0.6612,
"step": 54
},
{
"epoch": 0.22916666666666666,
"grad_norm": 0.8854520187882521,
"learning_rate": 1.8333333333333333e-05,
"loss": 0.6698,
"step": 55
},
{
"epoch": 0.23333333333333334,
"grad_norm": 0.8249936321934339,
"learning_rate": 1.866666666666667e-05,
"loss": 0.6617,
"step": 56
},
{
"epoch": 0.2375,
"grad_norm": 0.5756591220496925,
"learning_rate": 1.9e-05,
"loss": 0.6677,
"step": 57
},
{
"epoch": 0.24166666666666667,
"grad_norm": 0.8391486543945865,
"learning_rate": 1.9333333333333333e-05,
"loss": 0.6706,
"step": 58
},
{
"epoch": 0.24583333333333332,
"grad_norm": 0.62922500152976,
"learning_rate": 1.9666666666666666e-05,
"loss": 0.6566,
"step": 59
},
{
"epoch": 0.25,
"grad_norm": 0.6497012856342578,
"learning_rate": 2e-05,
"loss": 0.6574,
"step": 60
},
{
"epoch": 0.25416666666666665,
"grad_norm": 0.7545979639769097,
"learning_rate": 2.0333333333333334e-05,
"loss": 0.6621,
"step": 61
},
{
"epoch": 0.25833333333333336,
"grad_norm": 0.8814596289446414,
"learning_rate": 2.066666666666667e-05,
"loss": 0.6586,
"step": 62
},
{
"epoch": 0.2625,
"grad_norm": 0.7700986600044052,
"learning_rate": 2.1000000000000002e-05,
"loss": 0.658,
"step": 63
},
{
"epoch": 0.26666666666666666,
"grad_norm": 0.9615923023054905,
"learning_rate": 2.1333333333333335e-05,
"loss": 0.6642,
"step": 64
},
{
"epoch": 0.2708333333333333,
"grad_norm": 0.8182385944675528,
"learning_rate": 2.1666666666666667e-05,
"loss": 0.6381,
"step": 65
},
{
"epoch": 0.275,
"grad_norm": 1.051267871370525,
"learning_rate": 2.2000000000000003e-05,
"loss": 0.6583,
"step": 66
},
{
"epoch": 0.2791666666666667,
"grad_norm": 1.2421800485008891,
"learning_rate": 2.2333333333333335e-05,
"loss": 0.6542,
"step": 67
},
{
"epoch": 0.2833333333333333,
"grad_norm": 0.6126955289728726,
"learning_rate": 2.2666666666666668e-05,
"loss": 0.6405,
"step": 68
},
{
"epoch": 0.2875,
"grad_norm": 1.3065782386729479,
"learning_rate": 2.3e-05,
"loss": 0.6495,
"step": 69
},
{
"epoch": 0.2916666666666667,
"grad_norm": 0.7369647940897622,
"learning_rate": 2.3333333333333336e-05,
"loss": 0.6528,
"step": 70
},
{
"epoch": 0.29583333333333334,
"grad_norm": 1.0013990364301564,
"learning_rate": 2.3666666666666668e-05,
"loss": 0.6464,
"step": 71
},
{
"epoch": 0.3,
"grad_norm": 0.7251342067519649,
"learning_rate": 2.4e-05,
"loss": 0.6532,
"step": 72
},
{
"epoch": 0.30416666666666664,
"grad_norm": 0.8534756592984158,
"learning_rate": 2.4333333333333333e-05,
"loss": 0.6456,
"step": 73
},
{
"epoch": 0.30833333333333335,
"grad_norm": 1.2829910855808402,
"learning_rate": 2.466666666666667e-05,
"loss": 0.6456,
"step": 74
},
{
"epoch": 0.3125,
"grad_norm": 1.236903958770797,
"learning_rate": 2.5e-05,
"loss": 0.6513,
"step": 75
},
{
"epoch": 0.31666666666666665,
"grad_norm": 0.5131185359463901,
"learning_rate": 2.5333333333333334e-05,
"loss": 0.6372,
"step": 76
},
{
"epoch": 0.32083333333333336,
"grad_norm": 2.3385091984770368,
"learning_rate": 2.566666666666667e-05,
"loss": 0.6548,
"step": 77
},
{
"epoch": 0.325,
"grad_norm": 0.8092584972470216,
"learning_rate": 2.6000000000000002e-05,
"loss": 0.6259,
"step": 78
},
{
"epoch": 0.32916666666666666,
"grad_norm": 1.1480450227714387,
"learning_rate": 2.6333333333333334e-05,
"loss": 0.6471,
"step": 79
},
{
"epoch": 0.3333333333333333,
"grad_norm": 1.3446863157735278,
"learning_rate": 2.6666666666666667e-05,
"loss": 0.6327,
"step": 80
},
{
"epoch": 0.3375,
"grad_norm": 0.9457919638742119,
"learning_rate": 2.7000000000000002e-05,
"loss": 0.6384,
"step": 81
},
{
"epoch": 0.3416666666666667,
"grad_norm": 1.3685610850125536,
"learning_rate": 2.7333333333333335e-05,
"loss": 0.6439,
"step": 82
},
{
"epoch": 0.3458333333333333,
"grad_norm": 0.927016131784247,
"learning_rate": 2.7666666666666667e-05,
"loss": 0.6346,
"step": 83
},
{
"epoch": 0.35,
"grad_norm": 1.7296485345201886,
"learning_rate": 2.8e-05,
"loss": 0.6144,
"step": 84
},
{
"epoch": 0.3541666666666667,
"grad_norm": 1.1192559744753852,
"learning_rate": 2.833333333333334e-05,
"loss": 0.6345,
"step": 85
},
{
"epoch": 0.35833333333333334,
"grad_norm": 1.9746537864549802,
"learning_rate": 2.8666666666666668e-05,
"loss": 0.6389,
"step": 86
},
{
"epoch": 0.3625,
"grad_norm": 1.5806534536841268,
"learning_rate": 2.9e-05,
"loss": 0.6421,
"step": 87
},
{
"epoch": 0.36666666666666664,
"grad_norm": 1.7605886971256688,
"learning_rate": 2.9333333333333333e-05,
"loss": 0.6361,
"step": 88
},
{
"epoch": 0.37083333333333335,
"grad_norm": 1.6811946573872856,
"learning_rate": 2.9666666666666672e-05,
"loss": 0.6314,
"step": 89
},
{
"epoch": 0.375,
"grad_norm": 1.3081097753931652,
"learning_rate": 3.0000000000000004e-05,
"loss": 0.6353,
"step": 90
},
{
"epoch": 0.37916666666666665,
"grad_norm": 1.5049824569727834,
"learning_rate": 3.0333333333333333e-05,
"loss": 0.6317,
"step": 91
},
{
"epoch": 0.38333333333333336,
"grad_norm": 1.3597412965849915,
"learning_rate": 3.066666666666667e-05,
"loss": 0.6308,
"step": 92
},
{
"epoch": 0.3875,
"grad_norm": 1.1246511962005503,
"learning_rate": 3.1e-05,
"loss": 0.6301,
"step": 93
},
{
"epoch": 0.39166666666666666,
"grad_norm": 1.3514034216556179,
"learning_rate": 3.1333333333333334e-05,
"loss": 0.6173,
"step": 94
},
{
"epoch": 0.3958333333333333,
"grad_norm": 0.8233867898594832,
"learning_rate": 3.1666666666666666e-05,
"loss": 0.6374,
"step": 95
},
{
"epoch": 0.4,
"grad_norm": 1.2477454499494327,
"learning_rate": 3.2000000000000005e-05,
"loss": 0.6276,
"step": 96
},
{
"epoch": 0.4041666666666667,
"grad_norm": 1.6817621692909872,
"learning_rate": 3.233333333333334e-05,
"loss": 0.6266,
"step": 97
},
{
"epoch": 0.4083333333333333,
"grad_norm": 0.9690166971983942,
"learning_rate": 3.266666666666667e-05,
"loss": 0.6115,
"step": 98
},
{
"epoch": 0.4125,
"grad_norm": 2.056378981841651,
"learning_rate": 3.3e-05,
"loss": 0.6411,
"step": 99
},
{
"epoch": 0.4166666666666667,
"grad_norm": 1.4524599154878437,
"learning_rate": 3.3333333333333335e-05,
"loss": 0.6296,
"step": 100
},
{
"epoch": 0.42083333333333334,
"grad_norm": 1.7764216839712343,
"learning_rate": 3.366666666666667e-05,
"loss": 0.6306,
"step": 101
},
{
"epoch": 0.425,
"grad_norm": 1.2833543049437115,
"learning_rate": 3.4e-05,
"loss": 0.6332,
"step": 102
},
{
"epoch": 0.42916666666666664,
"grad_norm": 1.5878349617582599,
"learning_rate": 3.433333333333333e-05,
"loss": 0.6239,
"step": 103
},
{
"epoch": 0.43333333333333335,
"grad_norm": 1.2599519265097134,
"learning_rate": 3.466666666666667e-05,
"loss": 0.6329,
"step": 104
},
{
"epoch": 0.4375,
"grad_norm": 1.4043098221264916,
"learning_rate": 3.5000000000000004e-05,
"loss": 0.628,
"step": 105
},
{
"epoch": 0.44166666666666665,
"grad_norm": 1.3695734550327043,
"learning_rate": 3.5333333333333336e-05,
"loss": 0.6242,
"step": 106
},
{
"epoch": 0.44583333333333336,
"grad_norm": 1.8927604495720616,
"learning_rate": 3.566666666666667e-05,
"loss": 0.6293,
"step": 107
},
{
"epoch": 0.45,
"grad_norm": 1.545056158668806,
"learning_rate": 3.6e-05,
"loss": 0.6314,
"step": 108
},
{
"epoch": 0.45416666666666666,
"grad_norm": 1.3545906617804928,
"learning_rate": 3.633333333333333e-05,
"loss": 0.6141,
"step": 109
},
{
"epoch": 0.4583333333333333,
"grad_norm": 1.2952086169381063,
"learning_rate": 3.6666666666666666e-05,
"loss": 0.6278,
"step": 110
},
{
"epoch": 0.4625,
"grad_norm": 1.3901722627101962,
"learning_rate": 3.7000000000000005e-05,
"loss": 0.6282,
"step": 111
},
{
"epoch": 0.4666666666666667,
"grad_norm": 1.3427286533742586,
"learning_rate": 3.733333333333334e-05,
"loss": 0.6462,
"step": 112
},
{
"epoch": 0.4708333333333333,
"grad_norm": 1.346385132452033,
"learning_rate": 3.766666666666667e-05,
"loss": 0.6271,
"step": 113
},
{
"epoch": 0.475,
"grad_norm": 0.7296460808724746,
"learning_rate": 3.8e-05,
"loss": 0.6216,
"step": 114
},
{
"epoch": 0.4791666666666667,
"grad_norm": 1.3372849398246114,
"learning_rate": 3.833333333333334e-05,
"loss": 0.6232,
"step": 115
},
{
"epoch": 0.48333333333333334,
"grad_norm": 1.1792019780697154,
"learning_rate": 3.866666666666667e-05,
"loss": 0.6221,
"step": 116
},
{
"epoch": 0.4875,
"grad_norm": 0.9733165096843328,
"learning_rate": 3.9e-05,
"loss": 0.6091,
"step": 117
},
{
"epoch": 0.49166666666666664,
"grad_norm": 3.070797337467993,
"learning_rate": 3.933333333333333e-05,
"loss": 0.6217,
"step": 118
},
{
"epoch": 0.49583333333333335,
"grad_norm": 1.815790495636315,
"learning_rate": 3.966666666666667e-05,
"loss": 0.6359,
"step": 119
},
{
"epoch": 0.5,
"grad_norm": 1.2390089256852326,
"learning_rate": 4e-05,
"loss": 0.6169,
"step": 120
},
{
"epoch": 0.5041666666666667,
"grad_norm": 1.2315486946506111,
"learning_rate": 3.999991538410973e-05,
"loss": 0.6164,
"step": 121
},
{
"epoch": 0.5083333333333333,
"grad_norm": 1.1701554198658328,
"learning_rate": 3.999966153715489e-05,
"loss": 0.6193,
"step": 122
},
{
"epoch": 0.5125,
"grad_norm": 1.170132178403549,
"learning_rate": 3.999923846128343e-05,
"loss": 0.6262,
"step": 123
},
{
"epoch": 0.5166666666666667,
"grad_norm": 0.924658478726418,
"learning_rate": 3.999864616007525e-05,
"loss": 0.6212,
"step": 124
},
{
"epoch": 0.5208333333333334,
"grad_norm": 1.3858534997900562,
"learning_rate": 3.999788463854215e-05,
"loss": 0.6233,
"step": 125
},
{
"epoch": 0.525,
"grad_norm": 1.2657158164721372,
"learning_rate": 3.999695390312783e-05,
"loss": 0.616,
"step": 126
},
{
"epoch": 0.5291666666666667,
"grad_norm": 0.9216763016227539,
"learning_rate": 3.999585396170777e-05,
"loss": 0.614,
"step": 127
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.8360006381611302,
"learning_rate": 3.999458482358924e-05,
"loss": 0.6153,
"step": 128
},
{
"epoch": 0.5375,
"grad_norm": 0.7839786158921856,
"learning_rate": 3.9993146499511146e-05,
"loss": 0.6009,
"step": 129
},
{
"epoch": 0.5416666666666666,
"grad_norm": 0.844641037367548,
"learning_rate": 3.9991539001644015e-05,
"loss": 0.6212,
"step": 130
},
{
"epoch": 0.5458333333333333,
"grad_norm": 1.0382957024566257,
"learning_rate": 3.998976234358982e-05,
"loss": 0.5999,
"step": 131
},
{
"epoch": 0.55,
"grad_norm": 1.6242521962961614,
"learning_rate": 3.998781654038192e-05,
"loss": 0.6096,
"step": 132
},
{
"epoch": 0.5541666666666667,
"grad_norm": 0.757093292258469,
"learning_rate": 3.9985701608484896e-05,
"loss": 0.5941,
"step": 133
},
{
"epoch": 0.5583333333333333,
"grad_norm": 1.320612616681096,
"learning_rate": 3.998341756579443e-05,
"loss": 0.6203,
"step": 134
},
{
"epoch": 0.5625,
"grad_norm": 1.0193798832099399,
"learning_rate": 3.998096443163716e-05,
"loss": 0.5934,
"step": 135
},
{
"epoch": 0.5666666666666667,
"grad_norm": 1.2908818567365226,
"learning_rate": 3.99783422267705e-05,
"loss": 0.6207,
"step": 136
},
{
"epoch": 0.5708333333333333,
"grad_norm": 0.8168141068726303,
"learning_rate": 3.9975550973382454e-05,
"loss": 0.6041,
"step": 137
},
{
"epoch": 0.575,
"grad_norm": 1.226295133247973,
"learning_rate": 3.9972590695091476e-05,
"loss": 0.6185,
"step": 138
},
{
"epoch": 0.5791666666666667,
"grad_norm": 0.8072529028243578,
"learning_rate": 3.9969461416946226e-05,
"loss": 0.6129,
"step": 139
},
{
"epoch": 0.5833333333333334,
"grad_norm": 0.9164338574256401,
"learning_rate": 3.996616316542537e-05,
"loss": 0.6096,
"step": 140
},
{
"epoch": 0.5875,
"grad_norm": 0.6469959513500211,
"learning_rate": 3.996269596843734e-05,
"loss": 0.6054,
"step": 141
},
{
"epoch": 0.5916666666666667,
"grad_norm": 0.7039330048055549,
"learning_rate": 3.995905985532015e-05,
"loss": 0.6099,
"step": 142
},
{
"epoch": 0.5958333333333333,
"grad_norm": 2.860385292654008,
"learning_rate": 3.995525485684109e-05,
"loss": 0.6421,
"step": 143
},
{
"epoch": 0.6,
"grad_norm": 1.29306335703376,
"learning_rate": 3.9951281005196486e-05,
"loss": 0.6136,
"step": 144
},
{
"epoch": 0.6041666666666666,
"grad_norm": 1.0424569923889895,
"learning_rate": 3.994713833401145e-05,
"loss": 0.61,
"step": 145
},
{
"epoch": 0.6083333333333333,
"grad_norm": 0.8181795724051063,
"learning_rate": 3.9942826878339554e-05,
"loss": 0.6207,
"step": 146
},
{
"epoch": 0.6125,
"grad_norm": 0.9973579708540373,
"learning_rate": 3.9938346674662565e-05,
"loss": 0.6077,
"step": 147
},
{
"epoch": 0.6166666666666667,
"grad_norm": 0.9616324528943014,
"learning_rate": 3.993369776089012e-05,
"loss": 0.5942,
"step": 148
},
{
"epoch": 0.6208333333333333,
"grad_norm": 0.7398130298674523,
"learning_rate": 3.992888017635944e-05,
"loss": 0.603,
"step": 149
},
{
"epoch": 0.625,
"grad_norm": 1.0467599824887701,
"learning_rate": 3.9923893961834914e-05,
"loss": 0.6195,
"step": 150
},
{
"epoch": 0.6291666666666667,
"grad_norm": 0.6645550535908764,
"learning_rate": 3.991873915950786e-05,
"loss": 0.6009,
"step": 151
},
{
"epoch": 0.6333333333333333,
"grad_norm": 0.9702680008326658,
"learning_rate": 3.991341581299609e-05,
"loss": 0.6069,
"step": 152
},
{
"epoch": 0.6375,
"grad_norm": 0.8185881298517128,
"learning_rate": 3.9907923967343583e-05,
"loss": 0.5993,
"step": 153
},
{
"epoch": 0.6416666666666667,
"grad_norm": 0.8221931733724522,
"learning_rate": 3.990226366902007e-05,
"loss": 0.6061,
"step": 154
},
{
"epoch": 0.6458333333333334,
"grad_norm": 0.9078682479987112,
"learning_rate": 3.989643496592067e-05,
"loss": 0.6047,
"step": 155
},
{
"epoch": 0.65,
"grad_norm": 0.9292043332159131,
"learning_rate": 3.989043790736547e-05,
"loss": 0.6163,
"step": 156
},
{
"epoch": 0.6541666666666667,
"grad_norm": 0.6420744015708145,
"learning_rate": 3.9884272544099126e-05,
"loss": 0.6064,
"step": 157
},
{
"epoch": 0.6583333333333333,
"grad_norm": 0.9300016754772198,
"learning_rate": 3.98779389282904e-05,
"loss": 0.61,
"step": 158
},
{
"epoch": 0.6625,
"grad_norm": 0.7116085686707454,
"learning_rate": 3.9871437113531757e-05,
"loss": 0.6001,
"step": 159
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.6506607966868728,
"learning_rate": 3.9864767154838864e-05,
"loss": 0.6013,
"step": 160
},
{
"epoch": 0.6708333333333333,
"grad_norm": 0.5244776504731719,
"learning_rate": 3.9857929108650186e-05,
"loss": 0.6115,
"step": 161
},
{
"epoch": 0.675,
"grad_norm": 0.5265289462591022,
"learning_rate": 3.985092303282645e-05,
"loss": 0.5974,
"step": 162
},
{
"epoch": 0.6791666666666667,
"grad_norm": 0.6913443137294888,
"learning_rate": 3.9843748986650185e-05,
"loss": 0.6027,
"step": 163
},
{
"epoch": 0.6833333333333333,
"grad_norm": 0.8952111006978029,
"learning_rate": 3.983640703082523e-05,
"loss": 0.6093,
"step": 164
},
{
"epoch": 0.6875,
"grad_norm": 0.8808092276456894,
"learning_rate": 3.982889722747621e-05,
"loss": 0.604,
"step": 165
},
{
"epoch": 0.6916666666666667,
"grad_norm": 1.0124872467980413,
"learning_rate": 3.982121964014797e-05,
"loss": 0.6017,
"step": 166
},
{
"epoch": 0.6958333333333333,
"grad_norm": 1.0141756140919487,
"learning_rate": 3.981337433380512e-05,
"loss": 0.6043,
"step": 167
},
{
"epoch": 0.7,
"grad_norm": 0.7940035583599523,
"learning_rate": 3.980536137483141e-05,
"loss": 0.603,
"step": 168
},
{
"epoch": 0.7041666666666667,
"grad_norm": 0.6815397720273677,
"learning_rate": 3.97971808310292e-05,
"loss": 0.6033,
"step": 169
},
{
"epoch": 0.7083333333333334,
"grad_norm": 0.5692713098104114,
"learning_rate": 3.978883277161889e-05,
"loss": 0.6129,
"step": 170
},
{
"epoch": 0.7125,
"grad_norm": 0.8949397237934722,
"learning_rate": 3.978031726723834e-05,
"loss": 0.602,
"step": 171
},
{
"epoch": 0.7166666666666667,
"grad_norm": 0.8439068707146551,
"learning_rate": 3.977163438994223e-05,
"loss": 0.6022,
"step": 172
},
{
"epoch": 0.7208333333333333,
"grad_norm": 0.6537749129209305,
"learning_rate": 3.976278421320152e-05,
"loss": 0.6046,
"step": 173
},
{
"epoch": 0.725,
"grad_norm": 0.5719443319621762,
"learning_rate": 3.9753766811902756e-05,
"loss": 0.5952,
"step": 174
},
{
"epoch": 0.7291666666666666,
"grad_norm": 0.5335331999127876,
"learning_rate": 3.9744582262347486e-05,
"loss": 0.5924,
"step": 175
},
{
"epoch": 0.7333333333333333,
"grad_norm": 0.5315711772829829,
"learning_rate": 3.973523064225159e-05,
"loss": 0.6038,
"step": 176
},
{
"epoch": 0.7375,
"grad_norm": 5.833689240074311,
"learning_rate": 3.972571203074463e-05,
"loss": 0.6138,
"step": 177
},
{
"epoch": 0.7416666666666667,
"grad_norm": 1.1180970011488844,
"learning_rate": 3.9716026508369193e-05,
"loss": 0.6115,
"step": 178
},
{
"epoch": 0.7458333333333333,
"grad_norm": 1.6810215498208934,
"learning_rate": 3.970617415708019e-05,
"loss": 0.5983,
"step": 179
},
{
"epoch": 0.75,
"grad_norm": 0.7611713210374506,
"learning_rate": 3.9696155060244166e-05,
"loss": 0.6102,
"step": 180
},
{
"epoch": 0.7541666666666667,
"grad_norm": 2.0108424942557246,
"learning_rate": 3.96859693026386e-05,
"loss": 0.6058,
"step": 181
},
{
"epoch": 0.7583333333333333,
"grad_norm": 1.2496496213454418,
"learning_rate": 3.967561697045118e-05,
"loss": 0.6251,
"step": 182
},
{
"epoch": 0.7625,
"grad_norm": 2.2604311300328663,
"learning_rate": 3.96650981512791e-05,
"loss": 0.6186,
"step": 183
},
{
"epoch": 0.7666666666666667,
"grad_norm": 1.9309829509381906,
"learning_rate": 3.965441293412827e-05,
"loss": 0.6222,
"step": 184
},
{
"epoch": 0.7708333333333334,
"grad_norm": 1.5275380908225737,
"learning_rate": 3.964356140941262e-05,
"loss": 0.6142,
"step": 185
},
{
"epoch": 0.775,
"grad_norm": 1.6402801417918575,
"learning_rate": 3.9632543668953284e-05,
"loss": 0.6074,
"step": 186
},
{
"epoch": 0.7791666666666667,
"grad_norm": 1.4018197992605743,
"learning_rate": 3.962135980597786e-05,
"loss": 0.6092,
"step": 187
},
{
"epoch": 0.7833333333333333,
"grad_norm": 1.57474479862592,
"learning_rate": 3.961000991511959e-05,
"loss": 0.5987,
"step": 188
},
{
"epoch": 0.7875,
"grad_norm": 0.9332683903563855,
"learning_rate": 3.9598494092416594e-05,
"loss": 0.6006,
"step": 189
},
{
"epoch": 0.7916666666666666,
"grad_norm": 6.4262698284657285,
"learning_rate": 3.958681243531103e-05,
"loss": 0.6427,
"step": 190
},
{
"epoch": 0.7958333333333333,
"grad_norm": 2.031731227747491,
"learning_rate": 3.957496504264828e-05,
"loss": 0.6164,
"step": 191
},
{
"epoch": 0.8,
"grad_norm": 1.0255549765691543,
"learning_rate": 3.9562952014676116e-05,
"loss": 0.5982,
"step": 192
},
{
"epoch": 0.8041666666666667,
"grad_norm": 1.7950123558844988,
"learning_rate": 3.955077345304383e-05,
"loss": 0.6145,
"step": 193
},
{
"epoch": 0.8083333333333333,
"grad_norm": 1.6661107778405753,
"learning_rate": 3.953842946080142e-05,
"loss": 0.6139,
"step": 194
},
{
"epoch": 0.8125,
"grad_norm": 1.255537604337782,
"learning_rate": 3.952592014239867e-05,
"loss": 0.6156,
"step": 195
},
{
"epoch": 0.8166666666666667,
"grad_norm": 1.0157832236691309,
"learning_rate": 3.951324560368429e-05,
"loss": 0.6147,
"step": 196
},
{
"epoch": 0.8208333333333333,
"grad_norm": 1.0705014177371002,
"learning_rate": 3.950040595190502e-05,
"loss": 0.6109,
"step": 197
},
{
"epoch": 0.825,
"grad_norm": 0.8720346538745792,
"learning_rate": 3.948740129570471e-05,
"loss": 0.604,
"step": 198
},
{
"epoch": 0.8291666666666667,
"grad_norm": 0.9108778498246244,
"learning_rate": 3.9474231745123425e-05,
"loss": 0.5978,
"step": 199
},
{
"epoch": 0.8333333333333334,
"grad_norm": 0.6858303735878576,
"learning_rate": 3.946089741159648e-05,
"loss": 0.6025,
"step": 200
},
{
"epoch": 0.8375,
"grad_norm": 0.8093276888050045,
"learning_rate": 3.9447398407953536e-05,
"loss": 0.6052,
"step": 201
},
{
"epoch": 0.8416666666666667,
"grad_norm": 0.5387365454899715,
"learning_rate": 3.943373484841761e-05,
"loss": 0.5951,
"step": 202
},
{
"epoch": 0.8458333333333333,
"grad_norm": 0.6523938284137194,
"learning_rate": 3.941990684860412e-05,
"loss": 0.5983,
"step": 203
},
{
"epoch": 0.85,
"grad_norm": 0.5930411495149569,
"learning_rate": 3.940591452551993e-05,
"loss": 0.6085,
"step": 204
},
{
"epoch": 0.8541666666666666,
"grad_norm": 0.6501507887091976,
"learning_rate": 3.9391757997562323e-05,
"loss": 0.591,
"step": 205
},
{
"epoch": 0.8583333333333333,
"grad_norm": 0.6330658290793114,
"learning_rate": 3.9377437384518014e-05,
"loss": 0.5937,
"step": 206
},
{
"epoch": 0.8625,
"grad_norm": 0.6849294359909535,
"learning_rate": 3.936295280756216e-05,
"loss": 0.6022,
"step": 207
},
{
"epoch": 0.8666666666666667,
"grad_norm": 0.9148446915969376,
"learning_rate": 3.934830438925728e-05,
"loss": 0.6108,
"step": 208
},
{
"epoch": 0.8708333333333333,
"grad_norm": 0.5414127308524658,
"learning_rate": 3.933349225355228e-05,
"loss": 0.5914,
"step": 209
},
{
"epoch": 0.875,
"grad_norm": 0.6807208332138882,
"learning_rate": 3.931851652578137e-05,
"loss": 0.5779,
"step": 210
},
{
"epoch": 0.8791666666666667,
"grad_norm": 0.5116956086012243,
"learning_rate": 3.930337733266299e-05,
"loss": 0.5859,
"step": 211
},
{
"epoch": 0.8833333333333333,
"grad_norm": 0.6464602536360001,
"learning_rate": 3.928807480229878e-05,
"loss": 0.5968,
"step": 212
},
{
"epoch": 0.8875,
"grad_norm": 0.5445816251083418,
"learning_rate": 3.927260906417246e-05,
"loss": 0.5865,
"step": 213
},
{
"epoch": 0.8916666666666667,
"grad_norm": 0.5331557945158678,
"learning_rate": 3.925698024914876e-05,
"loss": 0.5919,
"step": 214
},
{
"epoch": 0.8958333333333334,
"grad_norm": 0.4500416131513844,
"learning_rate": 3.9241188489472266e-05,
"loss": 0.6017,
"step": 215
},
{
"epoch": 0.9,
"grad_norm": 0.5131283210508815,
"learning_rate": 3.922523391876638e-05,
"loss": 0.5913,
"step": 216
},
{
"epoch": 0.9041666666666667,
"grad_norm": 0.434716603766219,
"learning_rate": 3.920911667203211e-05,
"loss": 0.6077,
"step": 217
},
{
"epoch": 0.9083333333333333,
"grad_norm": 0.5173179366442318,
"learning_rate": 3.919283688564699e-05,
"loss": 0.5913,
"step": 218
},
{
"epoch": 0.9125,
"grad_norm": 0.4041240210095621,
"learning_rate": 3.917639469736386e-05,
"loss": 0.589,
"step": 219
},
{
"epoch": 0.9166666666666666,
"grad_norm": 0.39317734578321195,
"learning_rate": 3.915979024630978e-05,
"loss": 0.582,
"step": 220
},
{
"epoch": 0.9208333333333333,
"grad_norm": 0.45574417962886826,
"learning_rate": 3.914302367298478e-05,
"loss": 0.5905,
"step": 221
},
{
"epoch": 0.925,
"grad_norm": 0.46494202536514745,
"learning_rate": 3.912609511926071e-05,
"loss": 0.6087,
"step": 222
},
{
"epoch": 0.9291666666666667,
"grad_norm": 0.34877093481702964,
"learning_rate": 3.910900472838004e-05,
"loss": 0.5858,
"step": 223
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.4465679019806231,
"learning_rate": 3.909175264495464e-05,
"loss": 0.601,
"step": 224
},
{
"epoch": 0.9375,
"grad_norm": 0.4484295111435038,
"learning_rate": 3.907433901496454e-05,
"loss": 0.5961,
"step": 225
},
{
"epoch": 0.9416666666666667,
"grad_norm": 0.3737784566652126,
"learning_rate": 3.9056763985756724e-05,
"loss": 0.5832,
"step": 226
},
{
"epoch": 0.9458333333333333,
"grad_norm": 0.5549965681657777,
"learning_rate": 3.903902770604386e-05,
"loss": 0.5935,
"step": 227
},
{
"epoch": 0.95,
"grad_norm": 0.39219086903022765,
"learning_rate": 3.9021130325903076e-05,
"loss": 0.5871,
"step": 228
},
{
"epoch": 0.9541666666666667,
"grad_norm": 0.4326134130395831,
"learning_rate": 3.900307199677462e-05,
"loss": 0.5869,
"step": 229
},
{
"epoch": 0.9583333333333334,
"grad_norm": 0.3878340710100633,
"learning_rate": 3.898485287146068e-05,
"loss": 0.5792,
"step": 230
},
{
"epoch": 0.9625,
"grad_norm": 0.491588750881979,
"learning_rate": 3.896647310412399e-05,
"loss": 0.5875,
"step": 231
},
{
"epoch": 0.9666666666666667,
"grad_norm": 0.47167566982740994,
"learning_rate": 3.8947932850286585e-05,
"loss": 0.5884,
"step": 232
},
{
"epoch": 0.9708333333333333,
"grad_norm": 0.40037721633670603,
"learning_rate": 3.892923226682849e-05,
"loss": 0.5829,
"step": 233
},
{
"epoch": 0.975,
"grad_norm": 0.45656296290139076,
"learning_rate": 3.891037151198634e-05,
"loss": 0.5735,
"step": 234
},
{
"epoch": 0.9791666666666666,
"grad_norm": 0.4209143206597181,
"learning_rate": 3.88913507453521e-05,
"loss": 0.5798,
"step": 235
},
{
"epoch": 0.9833333333333333,
"grad_norm": 0.4440792761438726,
"learning_rate": 3.887217012787167e-05,
"loss": 0.5786,
"step": 236
},
{
"epoch": 0.9875,
"grad_norm": 0.4053025555601259,
"learning_rate": 3.885282982184357e-05,
"loss": 0.591,
"step": 237
},
{
"epoch": 0.9916666666666667,
"grad_norm": 0.4480467695908802,
"learning_rate": 3.883332999091751e-05,
"loss": 0.582,
"step": 238
},
{
"epoch": 0.9958333333333333,
"grad_norm": 0.38550322094656303,
"learning_rate": 3.8813670800093046e-05,
"loss": 0.5841,
"step": 239
},
{
"epoch": 1.0,
"grad_norm": 0.3452238821589659,
"learning_rate": 3.879385241571817e-05,
"loss": 0.5872,
"step": 240
},
{
"epoch": 1.0041666666666667,
"grad_norm": 0.4406010955303967,
"learning_rate": 3.877387500548791e-05,
"loss": 0.5473,
"step": 241
},
{
"epoch": 1.0083333333333333,
"grad_norm": 0.4196619562165898,
"learning_rate": 3.87537387384429e-05,
"loss": 0.5601,
"step": 242
},
{
"epoch": 1.0125,
"grad_norm": 0.4781544548132093,
"learning_rate": 3.873344378496795e-05,
"loss": 0.543,
"step": 243
},
{
"epoch": 1.0166666666666666,
"grad_norm": 0.5015649231577988,
"learning_rate": 3.8712990316790633e-05,
"loss": 0.548,
"step": 244
},
{
"epoch": 1.0208333333333333,
"grad_norm": 0.45896771388250757,
"learning_rate": 3.8692378506979775e-05,
"loss": 0.5424,
"step": 245
},
{
"epoch": 1.025,
"grad_norm": 0.46992886856713934,
"learning_rate": 3.8671608529944035e-05,
"loss": 0.5459,
"step": 246
},
{
"epoch": 1.0291666666666666,
"grad_norm": 0.475481875853481,
"learning_rate": 3.8650680561430444e-05,
"loss": 0.5367,
"step": 247
},
{
"epoch": 1.0333333333333334,
"grad_norm": 0.38513999120173803,
"learning_rate": 3.862959477852285e-05,
"loss": 0.5559,
"step": 248
},
{
"epoch": 1.0375,
"grad_norm": 0.42911051850784293,
"learning_rate": 3.860835135964049e-05,
"loss": 0.5328,
"step": 249
},
{
"epoch": 1.0416666666666667,
"grad_norm": 0.38439411540736046,
"learning_rate": 3.858695048453645e-05,
"loss": 0.5365,
"step": 250
},
{
"epoch": 1.0458333333333334,
"grad_norm": 0.4556082309066422,
"learning_rate": 3.8565392334296135e-05,
"loss": 0.5463,
"step": 251
},
{
"epoch": 1.05,
"grad_norm": 0.37563339606917695,
"learning_rate": 3.854367709133575e-05,
"loss": 0.5442,
"step": 252
},
{
"epoch": 1.0541666666666667,
"grad_norm": 0.42796480491292316,
"learning_rate": 3.852180493940076e-05,
"loss": 0.5323,
"step": 253
},
{
"epoch": 1.0583333333333333,
"grad_norm": 0.45795521696408836,
"learning_rate": 3.849977606356432e-05,
"loss": 0.5545,
"step": 254
},
{
"epoch": 1.0625,
"grad_norm": 0.5434892586255291,
"learning_rate": 3.8477590650225735e-05,
"loss": 0.5475,
"step": 255
},
{
"epoch": 1.0666666666666667,
"grad_norm": 0.5281205108015046,
"learning_rate": 3.845524888710885e-05,
"loss": 0.5305,
"step": 256
},
{
"epoch": 1.0708333333333333,
"grad_norm": 0.4370969266096491,
"learning_rate": 3.843275096326048e-05,
"loss": 0.5573,
"step": 257
},
{
"epoch": 1.075,
"grad_norm": 0.5780691860713271,
"learning_rate": 3.841009706904881e-05,
"loss": 0.5487,
"step": 258
},
{
"epoch": 1.0791666666666666,
"grad_norm": 0.6207487195598114,
"learning_rate": 3.8387287396161784e-05,
"loss": 0.5353,
"step": 259
},
{
"epoch": 1.0833333333333333,
"grad_norm": 0.431876399456736,
"learning_rate": 3.8364322137605484e-05,
"loss": 0.5397,
"step": 260
},
{
"epoch": 1.0875,
"grad_norm": 0.5804160168692262,
"learning_rate": 3.834120148770248e-05,
"loss": 0.532,
"step": 261
},
{
"epoch": 1.0916666666666666,
"grad_norm": 0.6680196534577321,
"learning_rate": 3.8317925642090225e-05,
"loss": 0.5473,
"step": 262
},
{
"epoch": 1.0958333333333334,
"grad_norm": 0.5454194856383294,
"learning_rate": 3.829449479771935e-05,
"loss": 0.5567,
"step": 263
},
{
"epoch": 1.1,
"grad_norm": 0.40571905557902443,
"learning_rate": 3.827090915285202e-05,
"loss": 0.5544,
"step": 264
},
{
"epoch": 1.1041666666666667,
"grad_norm": 0.5235345680353714,
"learning_rate": 3.824716890706029e-05,
"loss": 0.5444,
"step": 265
},
{
"epoch": 1.1083333333333334,
"grad_norm": 0.5700836568044627,
"learning_rate": 3.8223274261224344e-05,
"loss": 0.5453,
"step": 266
},
{
"epoch": 1.1125,
"grad_norm": 0.4188022120925585,
"learning_rate": 3.8199225417530865e-05,
"loss": 0.5414,
"step": 267
},
{
"epoch": 1.1166666666666667,
"grad_norm": 0.7690176283666269,
"learning_rate": 3.817502257947129e-05,
"loss": 0.556,
"step": 268
},
{
"epoch": 1.1208333333333333,
"grad_norm": 0.5572958616235794,
"learning_rate": 3.815066595184007e-05,
"loss": 0.5428,
"step": 269
},
{
"epoch": 1.125,
"grad_norm": 0.391475640768384,
"learning_rate": 3.812615574073301e-05,
"loss": 0.5432,
"step": 270
},
{
"epoch": 1.1291666666666667,
"grad_norm": 0.5234766948965066,
"learning_rate": 3.81014921535454e-05,
"loss": 0.5349,
"step": 271
},
{
"epoch": 1.1333333333333333,
"grad_norm": 0.4394439696375235,
"learning_rate": 3.807667539897041e-05,
"loss": 0.5453,
"step": 272
},
{
"epoch": 1.1375,
"grad_norm": 0.4285560305810143,
"learning_rate": 3.805170568699722e-05,
"loss": 0.5395,
"step": 273
},
{
"epoch": 1.1416666666666666,
"grad_norm": 0.4359544909786749,
"learning_rate": 3.8026583228909244e-05,
"loss": 0.5534,
"step": 274
},
{
"epoch": 1.1458333333333333,
"grad_norm": 0.4300470633162109,
"learning_rate": 3.800130823728242e-05,
"loss": 0.55,
"step": 275
},
{
"epoch": 1.15,
"grad_norm": 0.3912020945403841,
"learning_rate": 3.7975880925983345e-05,
"loss": 0.5348,
"step": 276
},
{
"epoch": 1.1541666666666668,
"grad_norm": 0.4788065319423428,
"learning_rate": 3.795030151016746e-05,
"loss": 0.5193,
"step": 277
},
{
"epoch": 1.1583333333333332,
"grad_norm": 0.5122579098660471,
"learning_rate": 3.7924570206277274e-05,
"loss": 0.54,
"step": 278
},
{
"epoch": 1.1625,
"grad_norm": 0.3892443444552306,
"learning_rate": 3.78986872320405e-05,
"loss": 0.5562,
"step": 279
},
{
"epoch": 1.1666666666666667,
"grad_norm": 0.3757068038324186,
"learning_rate": 3.787265280646825e-05,
"loss": 0.5475,
"step": 280
},
{
"epoch": 1.1708333333333334,
"grad_norm": 0.4002637376745568,
"learning_rate": 3.784646714985311e-05,
"loss": 0.5446,
"step": 281
},
{
"epoch": 1.175,
"grad_norm": 0.6434613018830029,
"learning_rate": 3.782013048376736e-05,
"loss": 0.5423,
"step": 282
},
{
"epoch": 1.1791666666666667,
"grad_norm": 0.4802579423585243,
"learning_rate": 3.779364303106104e-05,
"loss": 0.5551,
"step": 283
},
{
"epoch": 1.1833333333333333,
"grad_norm": 0.34320293525448575,
"learning_rate": 3.776700501586009e-05,
"loss": 0.5371,
"step": 284
},
{
"epoch": 1.1875,
"grad_norm": 0.37243144250715815,
"learning_rate": 3.774021666356444e-05,
"loss": 0.5441,
"step": 285
},
{
"epoch": 1.1916666666666667,
"grad_norm": 0.47943818705729785,
"learning_rate": 3.7713278200846125e-05,
"loss": 0.553,
"step": 286
},
{
"epoch": 1.1958333333333333,
"grad_norm": 0.48019468557764794,
"learning_rate": 3.768618985564734e-05,
"loss": 0.5364,
"step": 287
},
{
"epoch": 1.2,
"grad_norm": 0.3737355351361219,
"learning_rate": 3.7658951857178544e-05,
"loss": 0.5381,
"step": 288
},
{
"epoch": 1.2041666666666666,
"grad_norm": 0.4316833796281385,
"learning_rate": 3.763156443591647e-05,
"loss": 0.5526,
"step": 289
},
{
"epoch": 1.2083333333333333,
"grad_norm": 0.5367694193809566,
"learning_rate": 3.760402782360222e-05,
"loss": 0.5402,
"step": 290
},
{
"epoch": 1.2125,
"grad_norm": 0.5054159315871245,
"learning_rate": 3.757634225323931e-05,
"loss": 0.5447,
"step": 291
},
{
"epoch": 1.2166666666666668,
"grad_norm": 0.37465922664626905,
"learning_rate": 3.754850795909164e-05,
"loss": 0.5464,
"step": 292
},
{
"epoch": 1.2208333333333332,
"grad_norm": 0.4667280578857415,
"learning_rate": 3.7520525176681575e-05,
"loss": 0.5443,
"step": 293
},
{
"epoch": 1.225,
"grad_norm": 0.41038515137599035,
"learning_rate": 3.749239414278792e-05,
"loss": 0.5391,
"step": 294
},
{
"epoch": 1.2291666666666667,
"grad_norm": 0.4872872931948412,
"learning_rate": 3.7464115095443924e-05,
"loss": 0.5498,
"step": 295
},
{
"epoch": 1.2333333333333334,
"grad_norm": 0.3714350455253727,
"learning_rate": 3.743568827393525e-05,
"loss": 0.5438,
"step": 296
},
{
"epoch": 1.2375,
"grad_norm": 0.5352847539446225,
"learning_rate": 3.7407113918797995e-05,
"loss": 0.5554,
"step": 297
},
{
"epoch": 1.2416666666666667,
"grad_norm": 0.37054802860531405,
"learning_rate": 3.7378392271816606e-05,
"loss": 0.5335,
"step": 298
},
{
"epoch": 1.2458333333333333,
"grad_norm": 0.48597193778007786,
"learning_rate": 3.734952357602185e-05,
"loss": 0.5437,
"step": 299
},
{
"epoch": 1.25,
"grad_norm": 0.38678763041126857,
"learning_rate": 3.732050807568878e-05,
"loss": 0.5462,
"step": 300
},
{
"epoch": 1.2541666666666667,
"grad_norm": 0.3876114600715386,
"learning_rate": 3.7291346016334616e-05,
"loss": 0.5418,
"step": 301
},
{
"epoch": 1.2583333333333333,
"grad_norm": 0.40139068236775927,
"learning_rate": 3.726203764471673e-05,
"loss": 0.5476,
"step": 302
},
{
"epoch": 1.2625,
"grad_norm": 0.39993072044779654,
"learning_rate": 3.723258320883052e-05,
"loss": 0.5476,
"step": 303
},
{
"epoch": 1.2666666666666666,
"grad_norm": 0.4777404763468545,
"learning_rate": 3.720298295790732e-05,
"loss": 0.5369,
"step": 304
},
{
"epoch": 1.2708333333333333,
"grad_norm": 0.3836987377047922,
"learning_rate": 3.7173237142412266e-05,
"loss": 0.5294,
"step": 305
},
{
"epoch": 1.275,
"grad_norm": 0.3874760875383913,
"learning_rate": 3.714334601404225e-05,
"loss": 0.5475,
"step": 306
},
{
"epoch": 1.2791666666666668,
"grad_norm": 0.4939800332038625,
"learning_rate": 3.7113309825723706e-05,
"loss": 0.5477,
"step": 307
},
{
"epoch": 1.2833333333333332,
"grad_norm": 0.5384604306792786,
"learning_rate": 3.708312883161052e-05,
"loss": 0.5476,
"step": 308
},
{
"epoch": 1.2875,
"grad_norm": 0.38400202597605726,
"learning_rate": 3.705280328708185e-05,
"loss": 0.5388,
"step": 309
},
{
"epoch": 1.2916666666666667,
"grad_norm": 0.7635101023152292,
"learning_rate": 3.702233344873999e-05,
"loss": 0.5441,
"step": 310
},
{
"epoch": 1.2958333333333334,
"grad_norm": 0.4749517009016558,
"learning_rate": 3.6991719574408216e-05,
"loss": 0.5457,
"step": 311
},
{
"epoch": 1.3,
"grad_norm": 0.6186036408886622,
"learning_rate": 3.696096192312852e-05,
"loss": 0.5336,
"step": 312
},
{
"epoch": 1.3041666666666667,
"grad_norm": 0.6039600691439416,
"learning_rate": 3.693006075515952e-05,
"loss": 0.5457,
"step": 313
},
{
"epoch": 1.3083333333333333,
"grad_norm": 0.44510838255318347,
"learning_rate": 3.689901633197421e-05,
"loss": 0.5425,
"step": 314
},
{
"epoch": 1.3125,
"grad_norm": 0.5281284436574588,
"learning_rate": 3.686782891625772e-05,
"loss": 0.5225,
"step": 315
},
{
"epoch": 1.3166666666666667,
"grad_norm": 0.4383316355693497,
"learning_rate": 3.683649877190515e-05,
"loss": 0.5501,
"step": 316
},
{
"epoch": 1.3208333333333333,
"grad_norm": 0.49956813129428346,
"learning_rate": 3.680502616401932e-05,
"loss": 0.5359,
"step": 317
},
{
"epoch": 1.325,
"grad_norm": 0.5515987870342378,
"learning_rate": 3.6773411358908486e-05,
"loss": 0.5339,
"step": 318
},
{
"epoch": 1.3291666666666666,
"grad_norm": 0.4345037680070084,
"learning_rate": 3.674165462408415e-05,
"loss": 0.5336,
"step": 319
},
{
"epoch": 1.3333333333333333,
"grad_norm": 0.4400948719090633,
"learning_rate": 3.6709756228258735e-05,
"loss": 0.5455,
"step": 320
},
{
"epoch": 1.3375,
"grad_norm": 0.5395972581738513,
"learning_rate": 3.6677716441343366e-05,
"loss": 0.5524,
"step": 321
},
{
"epoch": 1.3416666666666668,
"grad_norm": 0.5392777298500487,
"learning_rate": 3.664553553444556e-05,
"loss": 0.5413,
"step": 322
},
{
"epoch": 1.3458333333333332,
"grad_norm": 0.4462815897326446,
"learning_rate": 3.661321377986691e-05,
"loss": 0.5455,
"step": 323
},
{
"epoch": 1.35,
"grad_norm": 0.408044981134378,
"learning_rate": 3.658075145110083e-05,
"loss": 0.5359,
"step": 324
},
{
"epoch": 1.3541666666666667,
"grad_norm": 2.6517110892639804,
"learning_rate": 3.654814882283021e-05,
"loss": 0.5599,
"step": 325
},
{
"epoch": 1.3583333333333334,
"grad_norm": 0.6426062801390939,
"learning_rate": 3.6515406170925085e-05,
"loss": 0.5451,
"step": 326
},
{
"epoch": 1.3625,
"grad_norm": 0.7569615680173203,
"learning_rate": 3.648252377244031e-05,
"loss": 0.5511,
"step": 327
},
{
"epoch": 1.3666666666666667,
"grad_norm": 0.5615222121177936,
"learning_rate": 3.644950190561325e-05,
"loss": 0.5353,
"step": 328
},
{
"epoch": 1.3708333333333333,
"grad_norm": 3.908446658444029,
"learning_rate": 3.641634084986135e-05,
"loss": 0.5363,
"step": 329
},
{
"epoch": 1.375,
"grad_norm": 0.86056567015776,
"learning_rate": 3.638304088577984e-05,
"loss": 0.5337,
"step": 330
},
{
"epoch": 1.3791666666666667,
"grad_norm": 0.968674440323784,
"learning_rate": 3.6349602295139334e-05,
"loss": 0.5349,
"step": 331
},
{
"epoch": 1.3833333333333333,
"grad_norm": 0.7662941534325669,
"learning_rate": 3.631602536088345e-05,
"loss": 0.5493,
"step": 332
},
{
"epoch": 1.3875,
"grad_norm": 0.6489821024054829,
"learning_rate": 3.628231036712639e-05,
"loss": 0.551,
"step": 333
},
{
"epoch": 1.3916666666666666,
"grad_norm": 0.6768400112848093,
"learning_rate": 3.624845759915059e-05,
"loss": 0.5506,
"step": 334
},
{
"epoch": 1.3958333333333333,
"grad_norm": 0.6300666456353369,
"learning_rate": 3.6214467343404247e-05,
"loss": 0.5492,
"step": 335
},
{
"epoch": 1.4,
"grad_norm": 0.5258555208327108,
"learning_rate": 3.6180339887498953e-05,
"loss": 0.5508,
"step": 336
},
{
"epoch": 1.4041666666666668,
"grad_norm": 0.5524501054068902,
"learning_rate": 3.61460755202072e-05,
"loss": 0.5435,
"step": 337
},
{
"epoch": 1.4083333333333332,
"grad_norm": 0.5625403333344081,
"learning_rate": 3.611167453145999e-05,
"loss": 0.5515,
"step": 338
},
{
"epoch": 1.4125,
"grad_norm": 0.5913598318371671,
"learning_rate": 3.6077137212344345e-05,
"loss": 0.5534,
"step": 339
},
{
"epoch": 1.4166666666666667,
"grad_norm": 0.5062091818940291,
"learning_rate": 3.604246385510088e-05,
"loss": 0.5454,
"step": 340
},
{
"epoch": 1.4208333333333334,
"grad_norm": 0.7149264594412322,
"learning_rate": 3.600765475312128e-05,
"loss": 0.526,
"step": 341
},
{
"epoch": 1.425,
"grad_norm": 0.48134148469588334,
"learning_rate": 3.597271020094586e-05,
"loss": 0.5324,
"step": 342
},
{
"epoch": 1.4291666666666667,
"grad_norm": 0.5417590266608151,
"learning_rate": 3.593763049426107e-05,
"loss": 0.5575,
"step": 343
},
{
"epoch": 1.4333333333333333,
"grad_norm": 0.5591822618770105,
"learning_rate": 3.590241592989696e-05,
"loss": 0.5503,
"step": 344
},
{
"epoch": 1.4375,
"grad_norm": 0.5257518162521898,
"learning_rate": 3.586706680582471e-05,
"loss": 0.5445,
"step": 345
},
{
"epoch": 1.4416666666666667,
"grad_norm": 0.4634408909849689,
"learning_rate": 3.583158342115407e-05,
"loss": 0.5406,
"step": 346
},
{
"epoch": 1.4458333333333333,
"grad_norm": 0.49613445514198684,
"learning_rate": 3.579596607613087e-05,
"loss": 0.5465,
"step": 347
},
{
"epoch": 1.45,
"grad_norm": 0.5672027866995051,
"learning_rate": 3.576021507213444e-05,
"loss": 0.553,
"step": 348
},
{
"epoch": 1.4541666666666666,
"grad_norm": 0.4941824109882221,
"learning_rate": 3.5724330711675085e-05,
"loss": 0.5349,
"step": 349
},
{
"epoch": 1.4583333333333333,
"grad_norm": 0.5669200741703913,
"learning_rate": 3.568831329839152e-05,
"loss": 0.558,
"step": 350
},
{
"epoch": 1.4625,
"grad_norm": 0.6336248661527731,
"learning_rate": 3.565216313704828e-05,
"loss": 0.5214,
"step": 351
},
{
"epoch": 1.4666666666666668,
"grad_norm": 0.4862325834076314,
"learning_rate": 3.561588053353319e-05,
"loss": 0.5326,
"step": 352
},
{
"epoch": 1.4708333333333332,
"grad_norm": 50.599831096867604,
"learning_rate": 3.557946579485472e-05,
"loss": 0.5274,
"step": 353
},
{
"epoch": 1.475,
"grad_norm": 10.910060517204235,
"learning_rate": 3.554291922913942e-05,
"loss": 0.6153,
"step": 354
},
{
"epoch": 1.4791666666666667,
"grad_norm": 1.074406038442234,
"learning_rate": 3.550624114562932e-05,
"loss": 0.5439,
"step": 355
},
{
"epoch": 1.4833333333333334,
"grad_norm": 1.0370534681055068,
"learning_rate": 3.5469431854679284e-05,
"loss": 0.557,
"step": 356
},
{
"epoch": 1.4875,
"grad_norm": 0.8216011964637442,
"learning_rate": 3.5432491667754404e-05,
"loss": 0.5478,
"step": 357
},
{
"epoch": 1.4916666666666667,
"grad_norm": 0.8134009163833327,
"learning_rate": 3.539542089742736e-05,
"loss": 0.542,
"step": 358
},
{
"epoch": 1.4958333333333333,
"grad_norm": 0.8750034828796878,
"learning_rate": 3.535821985737578e-05,
"loss": 0.5527,
"step": 359
},
{
"epoch": 1.5,
"grad_norm": 0.6744505015229905,
"learning_rate": 3.532088886237956e-05,
"loss": 0.5531,
"step": 360
},
{
"epoch": 1.5041666666666667,
"grad_norm": 0.544924446215458,
"learning_rate": 3.5283428228318265e-05,
"loss": 0.5491,
"step": 361
},
{
"epoch": 1.5083333333333333,
"grad_norm": 0.6751247516552488,
"learning_rate": 3.524583827216837e-05,
"loss": 0.5466,
"step": 362
},
{
"epoch": 1.5125,
"grad_norm": 0.3674962335666127,
"learning_rate": 3.520811931200063e-05,
"loss": 0.5438,
"step": 363
},
{
"epoch": 1.5166666666666666,
"grad_norm": 0.6309369607091287,
"learning_rate": 3.5170271666977383e-05,
"loss": 0.5433,
"step": 364
},
{
"epoch": 1.5208333333333335,
"grad_norm": 0.499517179632754,
"learning_rate": 3.513229565734986e-05,
"loss": 0.5398,
"step": 365
},
{
"epoch": 1.525,
"grad_norm": 0.515334408837096,
"learning_rate": 3.5094191604455446e-05,
"loss": 0.5361,
"step": 366
},
{
"epoch": 1.5291666666666668,
"grad_norm": 0.4723797383914561,
"learning_rate": 3.505595983071497e-05,
"loss": 0.5394,
"step": 367
},
{
"epoch": 1.5333333333333332,
"grad_norm": 0.5793396713598776,
"learning_rate": 3.5017600659629986e-05,
"loss": 0.5438,
"step": 368
},
{
"epoch": 1.5375,
"grad_norm": 2.5464060896803797,
"learning_rate": 3.497911441578005e-05,
"loss": 0.5528,
"step": 369
},
{
"epoch": 1.5416666666666665,
"grad_norm": 0.8887207215422138,
"learning_rate": 3.4940501424819927e-05,
"loss": 0.5388,
"step": 370
},
{
"epoch": 1.5458333333333334,
"grad_norm": 0.6433041354795661,
"learning_rate": 3.490176201347688e-05,
"loss": 0.5455,
"step": 371
},
{
"epoch": 1.55,
"grad_norm": 2.263023677021183,
"learning_rate": 3.4862896509547886e-05,
"loss": 0.5386,
"step": 372
},
{
"epoch": 1.5541666666666667,
"grad_norm": 0.6011992934825787,
"learning_rate": 3.482390524189687e-05,
"loss": 0.5453,
"step": 373
},
{
"epoch": 1.5583333333333333,
"grad_norm": 0.7611855558373163,
"learning_rate": 3.478478854045192e-05,
"loss": 0.5397,
"step": 374
},
{
"epoch": 1.5625,
"grad_norm": 0.4847408846399714,
"learning_rate": 3.474554673620248e-05,
"loss": 0.5374,
"step": 375
},
{
"epoch": 1.5666666666666667,
"grad_norm": 0.6917296997816444,
"learning_rate": 3.470618016119658e-05,
"loss": 0.5317,
"step": 376
},
{
"epoch": 1.5708333333333333,
"grad_norm": 0.4894917757184793,
"learning_rate": 3.4666689148537976e-05,
"loss": 0.5447,
"step": 377
},
{
"epoch": 1.575,
"grad_norm": 0.5536289373283173,
"learning_rate": 3.462707403238341e-05,
"loss": 0.5486,
"step": 378
},
{
"epoch": 1.5791666666666666,
"grad_norm": 0.5209679404299189,
"learning_rate": 3.458733514793971e-05,
"loss": 0.5387,
"step": 379
},
{
"epoch": 1.5833333333333335,
"grad_norm": 0.41294624066206936,
"learning_rate": 3.4547472831460976e-05,
"loss": 0.536,
"step": 380
},
{
"epoch": 1.5875,
"grad_norm": 0.4776106205291494,
"learning_rate": 3.450748742024575e-05,
"loss": 0.5299,
"step": 381
},
{
"epoch": 1.5916666666666668,
"grad_norm": 0.4408073207618328,
"learning_rate": 3.446737925263416e-05,
"loss": 0.5513,
"step": 382
},
{
"epoch": 1.5958333333333332,
"grad_norm": 1.011039352548808,
"learning_rate": 3.442714866800503e-05,
"loss": 0.5373,
"step": 383
},
{
"epoch": 1.6,
"grad_norm": 0.4728935369610765,
"learning_rate": 3.438679600677303e-05,
"loss": 0.5573,
"step": 384
},
{
"epoch": 1.6041666666666665,
"grad_norm": 0.44203385402051665,
"learning_rate": 3.434632161038579e-05,
"loss": 0.5476,
"step": 385
},
{
"epoch": 1.6083333333333334,
"grad_norm": 0.44675782958431953,
"learning_rate": 3.430572582132103e-05,
"loss": 0.5318,
"step": 386
},
{
"epoch": 1.6125,
"grad_norm": 0.40337499189073334,
"learning_rate": 3.426500898308364e-05,
"loss": 0.546,
"step": 387
},
{
"epoch": 1.6166666666666667,
"grad_norm": 3.887202940437168,
"learning_rate": 3.422417144020274e-05,
"loss": 0.5556,
"step": 388
},
{
"epoch": 1.6208333333333333,
"grad_norm": 0.722313529945089,
"learning_rate": 3.4183213538228876e-05,
"loss": 0.5369,
"step": 389
},
{
"epoch": 1.625,
"grad_norm": 0.6188201178714671,
"learning_rate": 3.4142135623730954e-05,
"loss": 0.5333,
"step": 390
},
{
"epoch": 1.6291666666666667,
"grad_norm": 8.0133358740126,
"learning_rate": 3.410093804429341e-05,
"loss": 0.6215,
"step": 391
},
{
"epoch": 1.6333333333333333,
"grad_norm": 0.7859856462540775,
"learning_rate": 3.405962114851324e-05,
"loss": 0.5418,
"step": 392
},
{
"epoch": 1.6375,
"grad_norm": 0.5405499807694932,
"learning_rate": 3.401818528599702e-05,
"loss": 0.5347,
"step": 393
},
{
"epoch": 1.6416666666666666,
"grad_norm": 0.5714313002014001,
"learning_rate": 3.3976630807358e-05,
"loss": 0.5541,
"step": 394
},
{
"epoch": 1.6458333333333335,
"grad_norm": 0.5882264280306395,
"learning_rate": 3.3934958064213105e-05,
"loss": 0.5365,
"step": 395
},
{
"epoch": 1.65,
"grad_norm": 0.6292291165942625,
"learning_rate": 3.3893167409179945e-05,
"loss": 0.5332,
"step": 396
},
{
"epoch": 1.6541666666666668,
"grad_norm": 0.5061325980182686,
"learning_rate": 3.385125919587389e-05,
"loss": 0.5256,
"step": 397
},
{
"epoch": 1.6583333333333332,
"grad_norm": 0.5896622141204226,
"learning_rate": 3.3809233778904995e-05,
"loss": 0.5365,
"step": 398
},
{
"epoch": 1.6625,
"grad_norm": 0.42991753010476663,
"learning_rate": 3.376709151387508e-05,
"loss": 0.5419,
"step": 399
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.5320307698753223,
"learning_rate": 3.372483275737468e-05,
"loss": 0.5355,
"step": 400
},
{
"epoch": 1.6708333333333334,
"grad_norm": 0.4362313241457944,
"learning_rate": 3.368245786698e-05,
"loss": 0.5359,
"step": 401
},
{
"epoch": 1.675,
"grad_norm": 0.5090533209283697,
"learning_rate": 3.363996720124997e-05,
"loss": 0.5468,
"step": 402
},
{
"epoch": 1.6791666666666667,
"grad_norm": 0.41335826704940476,
"learning_rate": 3.3597361119723145e-05,
"loss": 0.5351,
"step": 403
},
{
"epoch": 1.6833333333333333,
"grad_norm": 0.5078274330938815,
"learning_rate": 3.355463998291465e-05,
"loss": 0.5348,
"step": 404
},
{
"epoch": 1.6875,
"grad_norm": 0.3804915040214098,
"learning_rate": 3.351180415231321e-05,
"loss": 0.5279,
"step": 405
},
{
"epoch": 1.6916666666666667,
"grad_norm": 0.47013384517847556,
"learning_rate": 3.3468853990378005e-05,
"loss": 0.5285,
"step": 406
},
{
"epoch": 1.6958333333333333,
"grad_norm": 0.40689934674421463,
"learning_rate": 3.342578986053567e-05,
"loss": 0.5277,
"step": 407
},
{
"epoch": 1.7,
"grad_norm": 0.4448533400141461,
"learning_rate": 3.3382612127177166e-05,
"loss": 0.5334,
"step": 408
},
{
"epoch": 1.7041666666666666,
"grad_norm": 0.47219175452122747,
"learning_rate": 3.3339321155654723e-05,
"loss": 0.5315,
"step": 409
},
{
"epoch": 1.7083333333333335,
"grad_norm": 1.1226303581586898,
"learning_rate": 3.3295917312278754e-05,
"loss": 0.5582,
"step": 410
},
{
"epoch": 1.7125,
"grad_norm": 1.1384407299842498,
"learning_rate": 3.3252400964314756e-05,
"loss": 0.5497,
"step": 411
},
{
"epoch": 1.7166666666666668,
"grad_norm": 1.0300242288581747,
"learning_rate": 3.3208772479980154e-05,
"loss": 0.6032,
"step": 412
},
{
"epoch": 1.7208333333333332,
"grad_norm": 0.30687240316764763,
"learning_rate": 3.316503222844128e-05,
"loss": 0.5289,
"step": 413
},
{
"epoch": 1.725,
"grad_norm": 0.3582513272424745,
"learning_rate": 3.312118057981015e-05,
"loss": 0.5379,
"step": 414
},
{
"epoch": 1.7291666666666665,
"grad_norm": 0.3291272208159582,
"learning_rate": 3.3077217905141395e-05,
"loss": 0.532,
"step": 415
},
{
"epoch": 1.7333333333333334,
"grad_norm": 0.30850616340598214,
"learning_rate": 3.303314457642911e-05,
"loss": 0.546,
"step": 416
},
{
"epoch": 1.7375,
"grad_norm": 0.386781836944319,
"learning_rate": 3.298896096660367e-05,
"loss": 0.5269,
"step": 417
},
{
"epoch": 1.7416666666666667,
"grad_norm": 0.33791320712541995,
"learning_rate": 3.294466744952865e-05,
"loss": 0.5487,
"step": 418
},
{
"epoch": 1.7458333333333333,
"grad_norm": 0.3836471909857469,
"learning_rate": 3.290026439999757e-05,
"loss": 0.5364,
"step": 419
},
{
"epoch": 1.75,
"grad_norm": 0.3409114081935661,
"learning_rate": 3.285575219373079e-05,
"loss": 0.5351,
"step": 420
},
{
"epoch": 1.7541666666666667,
"grad_norm": 0.4038423945266767,
"learning_rate": 3.281113120737231e-05,
"loss": 0.5316,
"step": 421
},
{
"epoch": 1.7583333333333333,
"grad_norm": 0.447896853158445,
"learning_rate": 3.276640181848657e-05,
"loss": 0.5347,
"step": 422
},
{
"epoch": 1.7625,
"grad_norm": 0.39772425809590717,
"learning_rate": 3.272156440555528e-05,
"loss": 0.533,
"step": 423
},
{
"epoch": 1.7666666666666666,
"grad_norm": 0.49904113747582496,
"learning_rate": 3.26766193479742e-05,
"loss": 0.5384,
"step": 424
},
{
"epoch": 1.7708333333333335,
"grad_norm": 0.4127689853333455,
"learning_rate": 3.2631567026049954e-05,
"loss": 0.538,
"step": 425
},
{
"epoch": 1.775,
"grad_norm": 0.46507484347333206,
"learning_rate": 3.258640782099675e-05,
"loss": 0.5377,
"step": 426
},
{
"epoch": 1.7791666666666668,
"grad_norm": 0.40509094921794664,
"learning_rate": 3.254114211493324e-05,
"loss": 0.5312,
"step": 427
},
{
"epoch": 1.7833333333333332,
"grad_norm": 4.0203588633843825,
"learning_rate": 3.2495770290879204e-05,
"loss": 0.5602,
"step": 428
},
{
"epoch": 1.7875,
"grad_norm": 0.6620483623851753,
"learning_rate": 3.2450292732752395e-05,
"loss": 0.5388,
"step": 429
},
{
"epoch": 1.7916666666666665,
"grad_norm": 0.6221145466142196,
"learning_rate": 3.2404709825365204e-05,
"loss": 0.5411,
"step": 430
},
{
"epoch": 1.7958333333333334,
"grad_norm": 0.4939363274260579,
"learning_rate": 3.235902195442147e-05,
"loss": 0.5474,
"step": 431
},
{
"epoch": 1.8,
"grad_norm": 0.6538538086125941,
"learning_rate": 3.2313229506513167e-05,
"loss": 0.5382,
"step": 432
},
{
"epoch": 1.8041666666666667,
"grad_norm": 0.46231434195977417,
"learning_rate": 3.2267332869117186e-05,
"loss": 0.5378,
"step": 433
},
{
"epoch": 1.8083333333333333,
"grad_norm": 0.48393570230931093,
"learning_rate": 3.2221332430592e-05,
"loss": 0.5339,
"step": 434
},
{
"epoch": 1.8125,
"grad_norm": 0.4731624643118013,
"learning_rate": 3.217522858017442e-05,
"loss": 0.5321,
"step": 435
},
{
"epoch": 1.8166666666666667,
"grad_norm": 0.3951340592928766,
"learning_rate": 3.2129021707976274e-05,
"loss": 0.5269,
"step": 436
},
{
"epoch": 1.8208333333333333,
"grad_norm": 0.4241328181614359,
"learning_rate": 3.208271220498113e-05,
"loss": 0.5452,
"step": 437
},
{
"epoch": 1.825,
"grad_norm": 0.385964971839393,
"learning_rate": 3.203630046304097e-05,
"loss": 0.5413,
"step": 438
},
{
"epoch": 1.8291666666666666,
"grad_norm": 0.32637856355400724,
"learning_rate": 3.198978687487288e-05,
"loss": 0.5401,
"step": 439
},
{
"epoch": 1.8333333333333335,
"grad_norm": 0.626582631847551,
"learning_rate": 3.194317183405573e-05,
"loss": 0.5377,
"step": 440
},
{
"epoch": 1.8375,
"grad_norm": 0.3603921671355549,
"learning_rate": 3.189645573502683e-05,
"loss": 0.523,
"step": 441
},
{
"epoch": 1.8416666666666668,
"grad_norm": 0.42659135886403154,
"learning_rate": 3.184963897307862e-05,
"loss": 0.5312,
"step": 442
},
{
"epoch": 1.8458333333333332,
"grad_norm": 0.32166388456083606,
"learning_rate": 3.1802721944355295e-05,
"loss": 0.545,
"step": 443
},
{
"epoch": 1.85,
"grad_norm": 0.36067229289591707,
"learning_rate": 3.1755705045849465e-05,
"loss": 0.5286,
"step": 444
},
{
"epoch": 1.8541666666666665,
"grad_norm": 0.2956763484410633,
"learning_rate": 3.1708588675398814e-05,
"loss": 0.5209,
"step": 445
},
{
"epoch": 1.8583333333333334,
"grad_norm": 1.1731313817904956,
"learning_rate": 3.1661373231682696e-05,
"loss": 0.548,
"step": 446
},
{
"epoch": 1.8625,
"grad_norm": 0.3227064853360421,
"learning_rate": 3.1614059114218795e-05,
"loss": 0.5357,
"step": 447
},
{
"epoch": 1.8666666666666667,
"grad_norm": 0.36709296331463204,
"learning_rate": 3.156664672335973e-05,
"loss": 0.5434,
"step": 448
},
{
"epoch": 1.8708333333333333,
"grad_norm": 0.3363593683628134,
"learning_rate": 3.151913646028967e-05,
"loss": 0.5379,
"step": 449
},
{
"epoch": 1.875,
"grad_norm": 0.40281837434158557,
"learning_rate": 3.147152872702092e-05,
"loss": 0.538,
"step": 450
},
{
"epoch": 1.8791666666666667,
"grad_norm": 0.31351522785056457,
"learning_rate": 3.1423823926390575e-05,
"loss": 0.5353,
"step": 451
},
{
"epoch": 1.8833333333333333,
"grad_norm": 0.39324055047755585,
"learning_rate": 3.137602246205704e-05,
"loss": 0.5266,
"step": 452
},
{
"epoch": 1.8875,
"grad_norm": 0.3664580431628436,
"learning_rate": 3.132812473849666e-05,
"loss": 0.5366,
"step": 453
},
{
"epoch": 1.8916666666666666,
"grad_norm": 0.41704352937571465,
"learning_rate": 3.128013116100029e-05,
"loss": 0.5285,
"step": 454
},
{
"epoch": 1.8958333333333335,
"grad_norm": 0.39282335707785704,
"learning_rate": 3.123204213566986e-05,
"loss": 0.5426,
"step": 455
},
{
"epoch": 1.9,
"grad_norm": 0.36218214273512056,
"learning_rate": 3.1183858069414936e-05,
"loss": 0.5482,
"step": 456
},
{
"epoch": 1.9041666666666668,
"grad_norm": 0.39771815020451934,
"learning_rate": 3.113557936994929e-05,
"loss": 0.5349,
"step": 457
},
{
"epoch": 1.9083333333333332,
"grad_norm": 0.37776725153082563,
"learning_rate": 3.1087206445787436e-05,
"loss": 0.5321,
"step": 458
},
{
"epoch": 1.9125,
"grad_norm": 0.3413941460478657,
"learning_rate": 3.103873970624117e-05,
"loss": 0.5452,
"step": 459
},
{
"epoch": 1.9166666666666665,
"grad_norm": 0.36909470454931836,
"learning_rate": 3.0990179561416124e-05,
"loss": 0.5328,
"step": 460
},
{
"epoch": 1.9208333333333334,
"grad_norm": 0.26521618628019933,
"learning_rate": 3.094152642220829e-05,
"loss": 0.5389,
"step": 461
},
{
"epoch": 1.925,
"grad_norm": 0.34325211349261603,
"learning_rate": 3.0892780700300544e-05,
"loss": 0.541,
"step": 462
},
{
"epoch": 1.9291666666666667,
"grad_norm": 4.811603499350673,
"learning_rate": 3.084394280815914e-05,
"loss": 0.5755,
"step": 463
},
{
"epoch": 1.9333333333333333,
"grad_norm": 0.4786137584045623,
"learning_rate": 3.079501315903026e-05,
"loss": 0.53,
"step": 464
},
{
"epoch": 1.9375,
"grad_norm": 0.41344035214790137,
"learning_rate": 3.0745992166936484e-05,
"loss": 0.5321,
"step": 465
},
{
"epoch": 1.9416666666666667,
"grad_norm": 0.3320667262805005,
"learning_rate": 3.0696880246673293e-05,
"loss": 0.5313,
"step": 466
},
{
"epoch": 1.9458333333333333,
"grad_norm": 0.5393309931610712,
"learning_rate": 3.064767781380558e-05,
"loss": 0.5345,
"step": 467
},
{
"epoch": 1.95,
"grad_norm": 0.36344810477596545,
"learning_rate": 3.05983852846641e-05,
"loss": 0.5341,
"step": 468
},
{
"epoch": 1.9541666666666666,
"grad_norm": 0.37782531754913795,
"learning_rate": 3.0549003076342e-05,
"loss": 0.526,
"step": 469
},
{
"epoch": 1.9583333333333335,
"grad_norm": 0.37027854117681785,
"learning_rate": 3.0499531606691204e-05,
"loss": 0.5382,
"step": 470
},
{
"epoch": 1.9625,
"grad_norm": 0.3759462692918367,
"learning_rate": 3.0449971294318977e-05,
"loss": 0.5321,
"step": 471
},
{
"epoch": 1.9666666666666668,
"grad_norm": 0.843520724044957,
"learning_rate": 3.0400322558584308e-05,
"loss": 0.5437,
"step": 472
},
{
"epoch": 1.9708333333333332,
"grad_norm": 0.3915495912006152,
"learning_rate": 3.0350585819594402e-05,
"loss": 0.526,
"step": 473
},
{
"epoch": 1.975,
"grad_norm": 0.34332380102586857,
"learning_rate": 3.030076149820109e-05,
"loss": 0.5261,
"step": 474
},
{
"epoch": 1.9791666666666665,
"grad_norm": 0.38262503583227475,
"learning_rate": 3.0250850015997307e-05,
"loss": 0.5229,
"step": 475
},
{
"epoch": 1.9833333333333334,
"grad_norm": 0.3460892043692767,
"learning_rate": 3.020085179531351e-05,
"loss": 0.5239,
"step": 476
},
{
"epoch": 1.9875,
"grad_norm": 0.3156293867995891,
"learning_rate": 3.0150767259214087e-05,
"loss": 0.5388,
"step": 477
},
{
"epoch": 1.9916666666666667,
"grad_norm": 0.33013269777276694,
"learning_rate": 3.0100596831493806e-05,
"loss": 0.5253,
"step": 478
},
{
"epoch": 1.9958333333333333,
"grad_norm": 0.33797798159952824,
"learning_rate": 3.0050340936674202e-05,
"loss": 0.5383,
"step": 479
},
{
"epoch": 2.0,
"grad_norm": 0.386842030161799,
"learning_rate": 3.0000000000000004e-05,
"loss": 0.5302,
"step": 480
},
{
"epoch": 2.004166666666667,
"grad_norm": 0.4886159342930222,
"learning_rate": 2.9949574447435533e-05,
"loss": 0.4922,
"step": 481
},
{
"epoch": 2.0083333333333333,
"grad_norm": 0.36231983910258553,
"learning_rate": 2.9899064705661086e-05,
"loss": 0.4804,
"step": 482
},
{
"epoch": 2.0125,
"grad_norm": 0.642614800738087,
"learning_rate": 2.9848471202069347e-05,
"loss": 0.4851,
"step": 483
},
{
"epoch": 2.0166666666666666,
"grad_norm": 0.42808250895072036,
"learning_rate": 2.9797794364761743e-05,
"loss": 0.4761,
"step": 484
},
{
"epoch": 2.0208333333333335,
"grad_norm": 0.48344163286053543,
"learning_rate": 2.974703462254485e-05,
"loss": 0.4931,
"step": 485
},
{
"epoch": 2.025,
"grad_norm": 0.43795264872636147,
"learning_rate": 2.9696192404926747e-05,
"loss": 0.484,
"step": 486
},
{
"epoch": 2.029166666666667,
"grad_norm": 0.41290565168811605,
"learning_rate": 2.964526814211338e-05,
"loss": 0.485,
"step": 487
},
{
"epoch": 2.033333333333333,
"grad_norm": 0.4356828882854518,
"learning_rate": 2.959426226500493e-05,
"loss": 0.4809,
"step": 488
},
{
"epoch": 2.0375,
"grad_norm": 0.47840529952039423,
"learning_rate": 2.954317520519217e-05,
"loss": 0.4661,
"step": 489
},
{
"epoch": 2.0416666666666665,
"grad_norm": 0.39630661023736297,
"learning_rate": 2.9492007394952812e-05,
"loss": 0.483,
"step": 490
},
{
"epoch": 2.0458333333333334,
"grad_norm": 0.4498881048188075,
"learning_rate": 2.9440759267247828e-05,
"loss": 0.4672,
"step": 491
},
{
"epoch": 2.05,
"grad_norm": 0.38435953428018615,
"learning_rate": 2.938943125571782e-05,
"loss": 0.4781,
"step": 492
},
{
"epoch": 2.0541666666666667,
"grad_norm": 0.3805953549515372,
"learning_rate": 2.933802379467932e-05,
"loss": 0.4736,
"step": 493
},
{
"epoch": 2.058333333333333,
"grad_norm": 0.3971953776801394,
"learning_rate": 2.9286537319121143e-05,
"loss": 0.4795,
"step": 494
},
{
"epoch": 2.0625,
"grad_norm": 1.3716827159292087,
"learning_rate": 2.9234972264700687e-05,
"loss": 0.5018,
"step": 495
},
{
"epoch": 2.066666666666667,
"grad_norm": 0.3993347299586712,
"learning_rate": 2.9183329067740235e-05,
"loss": 0.4698,
"step": 496
},
{
"epoch": 2.0708333333333333,
"grad_norm": 0.9163296799211197,
"learning_rate": 2.9131608165223313e-05,
"loss": 0.4755,
"step": 497
},
{
"epoch": 2.075,
"grad_norm": 2.135437266520834,
"learning_rate": 2.9079809994790937e-05,
"loss": 0.5212,
"step": 498
},
{
"epoch": 2.0791666666666666,
"grad_norm": 0.48648387390989906,
"learning_rate": 2.902793499473794e-05,
"loss": 0.4897,
"step": 499
},
{
"epoch": 2.0833333333333335,
"grad_norm": 0.4170170937467103,
"learning_rate": 2.897598360400925e-05,
"loss": 0.4785,
"step": 500
},
{
"epoch": 2.0875,
"grad_norm": 0.4091898520641542,
"learning_rate": 2.8923956262196178e-05,
"loss": 0.4776,
"step": 501
},
{
"epoch": 2.091666666666667,
"grad_norm": 1.9001726189022239,
"learning_rate": 2.8871853409532727e-05,
"loss": 0.5005,
"step": 502
},
{
"epoch": 2.095833333333333,
"grad_norm": 0.40030925906512504,
"learning_rate": 2.88196754868918e-05,
"loss": 0.4657,
"step": 503
},
{
"epoch": 2.1,
"grad_norm": 0.5070798940030533,
"learning_rate": 2.876742293578155e-05,
"loss": 0.4723,
"step": 504
},
{
"epoch": 2.1041666666666665,
"grad_norm": 0.3373194429400813,
"learning_rate": 2.871509619834159e-05,
"loss": 0.4727,
"step": 505
},
{
"epoch": 2.1083333333333334,
"grad_norm": 0.5029763550394912,
"learning_rate": 2.8662695717339263e-05,
"loss": 0.4715,
"step": 506
},
{
"epoch": 2.1125,
"grad_norm": 0.3160338581031689,
"learning_rate": 2.8610221936165906e-05,
"loss": 0.482,
"step": 507
},
{
"epoch": 2.1166666666666667,
"grad_norm": 0.4239598480395657,
"learning_rate": 2.8557675298833086e-05,
"loss": 0.485,
"step": 508
},
{
"epoch": 2.120833333333333,
"grad_norm": 0.4505317331014363,
"learning_rate": 2.8505056249968864e-05,
"loss": 0.4873,
"step": 509
},
{
"epoch": 2.125,
"grad_norm": 0.35674874414132907,
"learning_rate": 2.8452365234813992e-05,
"loss": 0.4823,
"step": 510
},
{
"epoch": 2.129166666666667,
"grad_norm": 0.3584842873122445,
"learning_rate": 2.8399602699218194e-05,
"loss": 0.4914,
"step": 511
},
{
"epoch": 2.1333333333333333,
"grad_norm": 0.45393019871536366,
"learning_rate": 2.834676908963636e-05,
"loss": 0.4818,
"step": 512
},
{
"epoch": 2.1375,
"grad_norm": 0.3280287194393449,
"learning_rate": 2.8293864853124783e-05,
"loss": 0.4661,
"step": 513
},
{
"epoch": 2.1416666666666666,
"grad_norm": 0.8727083767597136,
"learning_rate": 2.8240890437337373e-05,
"loss": 0.4712,
"step": 514
},
{
"epoch": 2.1458333333333335,
"grad_norm": 0.3355338663269697,
"learning_rate": 2.8187846290521852e-05,
"loss": 0.4785,
"step": 515
},
{
"epoch": 2.15,
"grad_norm": 0.35543276922208744,
"learning_rate": 2.813473286151601e-05,
"loss": 0.4756,
"step": 516
},
{
"epoch": 2.154166666666667,
"grad_norm": 0.379520013404558,
"learning_rate": 2.8081550599743835e-05,
"loss": 0.475,
"step": 517
},
{
"epoch": 2.158333333333333,
"grad_norm": 0.36729339199772665,
"learning_rate": 2.8028299955211785e-05,
"loss": 0.4827,
"step": 518
},
{
"epoch": 2.1625,
"grad_norm": 0.33712245862059337,
"learning_rate": 2.7974981378504926e-05,
"loss": 0.4774,
"step": 519
},
{
"epoch": 2.1666666666666665,
"grad_norm": 0.3538163894156368,
"learning_rate": 2.792159532078314e-05,
"loss": 0.4865,
"step": 520
},
{
"epoch": 2.1708333333333334,
"grad_norm": 0.349953200583264,
"learning_rate": 2.7868142233777305e-05,
"loss": 0.4804,
"step": 521
},
{
"epoch": 2.175,
"grad_norm": 0.4504984747532693,
"learning_rate": 2.7814622569785474e-05,
"loss": 0.473,
"step": 522
},
{
"epoch": 2.1791666666666667,
"grad_norm": 0.36475798074586124,
"learning_rate": 2.776103678166906e-05,
"loss": 0.4804,
"step": 523
},
{
"epoch": 2.183333333333333,
"grad_norm": 0.35154700117924165,
"learning_rate": 2.770738532284897e-05,
"loss": 0.481,
"step": 524
},
{
"epoch": 2.1875,
"grad_norm": 0.31920708112097607,
"learning_rate": 2.7653668647301797e-05,
"loss": 0.486,
"step": 525
},
{
"epoch": 2.191666666666667,
"grad_norm": 0.33469857140235026,
"learning_rate": 2.7599887209555986e-05,
"loss": 0.4704,
"step": 526
},
{
"epoch": 2.1958333333333333,
"grad_norm": 0.3123705103605502,
"learning_rate": 2.7546041464687942e-05,
"loss": 0.4735,
"step": 527
},
{
"epoch": 2.2,
"grad_norm": 0.31620822768657053,
"learning_rate": 2.7492131868318247e-05,
"loss": 0.4906,
"step": 528
},
{
"epoch": 2.2041666666666666,
"grad_norm": 0.3237998625926402,
"learning_rate": 2.7438158876607732e-05,
"loss": 0.478,
"step": 529
},
{
"epoch": 2.2083333333333335,
"grad_norm": 0.35055598074469685,
"learning_rate": 2.738412294625369e-05,
"loss": 0.4926,
"step": 530
},
{
"epoch": 2.2125,
"grad_norm": 0.306146932881888,
"learning_rate": 2.7330024534485948e-05,
"loss": 0.4726,
"step": 531
},
{
"epoch": 2.216666666666667,
"grad_norm": 0.3562224476164066,
"learning_rate": 2.7275864099063033e-05,
"loss": 0.4732,
"step": 532
},
{
"epoch": 2.220833333333333,
"grad_norm": 0.3566436235010374,
"learning_rate": 2.7221642098268292e-05,
"loss": 0.4946,
"step": 533
},
{
"epoch": 2.225,
"grad_norm": 0.31114253338918896,
"learning_rate": 2.7167358990906e-05,
"loss": 0.4831,
"step": 534
},
{
"epoch": 2.2291666666666665,
"grad_norm": 0.3436461920189891,
"learning_rate": 2.7113015236297537e-05,
"loss": 0.477,
"step": 535
},
{
"epoch": 2.2333333333333334,
"grad_norm": 0.30580165869202075,
"learning_rate": 2.7058611294277378e-05,
"loss": 0.4698,
"step": 536
},
{
"epoch": 2.2375,
"grad_norm": 0.3102715492300113,
"learning_rate": 2.7004147625189353e-05,
"loss": 0.4719,
"step": 537
},
{
"epoch": 2.2416666666666667,
"grad_norm": 0.3080035358302375,
"learning_rate": 2.694962468988263e-05,
"loss": 0.4898,
"step": 538
},
{
"epoch": 2.245833333333333,
"grad_norm": 0.2848422958925151,
"learning_rate": 2.6895042949707886e-05,
"loss": 0.4922,
"step": 539
},
{
"epoch": 2.25,
"grad_norm": 0.30926455577430995,
"learning_rate": 2.684040286651338e-05,
"loss": 0.4862,
"step": 540
},
{
"epoch": 2.2541666666666664,
"grad_norm": 0.3111976209215279,
"learning_rate": 2.6785704902641024e-05,
"loss": 0.4751,
"step": 541
},
{
"epoch": 2.2583333333333333,
"grad_norm": 0.873839818408244,
"learning_rate": 2.673094952092253e-05,
"loss": 0.4719,
"step": 542
},
{
"epoch": 2.2625,
"grad_norm": 0.33204149695565766,
"learning_rate": 2.667613718467542e-05,
"loss": 0.4807,
"step": 543
},
{
"epoch": 2.2666666666666666,
"grad_norm": 0.30632882956124574,
"learning_rate": 2.6621268357699165e-05,
"loss": 0.4706,
"step": 544
},
{
"epoch": 2.2708333333333335,
"grad_norm": 0.2961072711355155,
"learning_rate": 2.6566343504271227e-05,
"loss": 0.4708,
"step": 545
},
{
"epoch": 2.275,
"grad_norm": 0.30704392710398426,
"learning_rate": 2.6511363089143137e-05,
"loss": 0.4791,
"step": 546
},
{
"epoch": 2.279166666666667,
"grad_norm": 0.2712205518719514,
"learning_rate": 2.645632757753658e-05,
"loss": 0.4773,
"step": 547
},
{
"epoch": 2.283333333333333,
"grad_norm": 0.3315405168045059,
"learning_rate": 2.640123743513943e-05,
"loss": 0.4782,
"step": 548
},
{
"epoch": 2.2875,
"grad_norm": 0.292396395388033,
"learning_rate": 2.6346093128101847e-05,
"loss": 0.4904,
"step": 549
},
{
"epoch": 2.2916666666666665,
"grad_norm": 0.3188557649620602,
"learning_rate": 2.6290895123032277e-05,
"loss": 0.4737,
"step": 550
},
{
"epoch": 2.2958333333333334,
"grad_norm": 0.30424659204927196,
"learning_rate": 2.623564388699356e-05,
"loss": 0.4717,
"step": 551
},
{
"epoch": 2.3,
"grad_norm": 0.31138223815754884,
"learning_rate": 2.618033988749895e-05,
"loss": 0.4958,
"step": 552
},
{
"epoch": 2.3041666666666667,
"grad_norm": 0.30916556586063254,
"learning_rate": 2.6124983592508164e-05,
"loss": 0.4863,
"step": 553
},
{
"epoch": 2.3083333333333336,
"grad_norm": 0.2814754830068476,
"learning_rate": 2.6069575470423417e-05,
"loss": 0.4751,
"step": 554
},
{
"epoch": 2.3125,
"grad_norm": 0.3050857927796688,
"learning_rate": 2.601411599008546e-05,
"loss": 0.4857,
"step": 555
},
{
"epoch": 2.3166666666666664,
"grad_norm": 0.6697455437225489,
"learning_rate": 2.595860562076964e-05,
"loss": 0.4971,
"step": 556
},
{
"epoch": 2.3208333333333333,
"grad_norm": 0.2961077434019537,
"learning_rate": 2.590304483218188e-05,
"loss": 0.4771,
"step": 557
},
{
"epoch": 2.325,
"grad_norm": 0.30687641453285824,
"learning_rate": 2.5847434094454737e-05,
"loss": 0.4678,
"step": 558
},
{
"epoch": 2.3291666666666666,
"grad_norm": 0.3265943888762366,
"learning_rate": 2.5791773878143423e-05,
"loss": 0.4874,
"step": 559
},
{
"epoch": 2.3333333333333335,
"grad_norm": 0.27371615641543545,
"learning_rate": 2.5736064654221808e-05,
"loss": 0.4846,
"step": 560
},
{
"epoch": 2.3375,
"grad_norm": 0.2850078562359186,
"learning_rate": 2.568030689407846e-05,
"loss": 0.4717,
"step": 561
},
{
"epoch": 2.341666666666667,
"grad_norm": 0.33065075323146403,
"learning_rate": 2.5624501069512614e-05,
"loss": 0.4896,
"step": 562
},
{
"epoch": 2.345833333333333,
"grad_norm": 0.29663809900661076,
"learning_rate": 2.556864765273024e-05,
"loss": 0.4793,
"step": 563
},
{
"epoch": 2.35,
"grad_norm": 0.33466439648780866,
"learning_rate": 2.5512747116339985e-05,
"loss": 0.4728,
"step": 564
},
{
"epoch": 2.3541666666666665,
"grad_norm": 0.3069432487995425,
"learning_rate": 2.5456799933349224e-05,
"loss": 0.4858,
"step": 565
},
{
"epoch": 2.3583333333333334,
"grad_norm": 0.29228368662647797,
"learning_rate": 2.540080657716002e-05,
"loss": 0.4756,
"step": 566
},
{
"epoch": 2.3625,
"grad_norm": 0.31414622680486587,
"learning_rate": 2.534476752156514e-05,
"loss": 0.4834,
"step": 567
},
{
"epoch": 2.3666666666666667,
"grad_norm": 0.2817331987878316,
"learning_rate": 2.528868324074405e-05,
"loss": 0.4726,
"step": 568
},
{
"epoch": 2.3708333333333336,
"grad_norm": 0.3380976895995865,
"learning_rate": 2.523255420925887e-05,
"loss": 0.4878,
"step": 569
},
{
"epoch": 2.375,
"grad_norm": 0.3105825248790639,
"learning_rate": 2.5176380902050418e-05,
"loss": 0.4842,
"step": 570
},
{
"epoch": 2.3791666666666664,
"grad_norm": 0.3446065634556075,
"learning_rate": 2.512016379443412e-05,
"loss": 0.4676,
"step": 571
},
{
"epoch": 2.3833333333333333,
"grad_norm": 0.3031685646264204,
"learning_rate": 2.506390336209604e-05,
"loss": 0.4777,
"step": 572
},
{
"epoch": 2.3875,
"grad_norm": 0.3190633563175478,
"learning_rate": 2.5007600081088833e-05,
"loss": 0.472,
"step": 573
},
{
"epoch": 2.3916666666666666,
"grad_norm": 0.30317278906178724,
"learning_rate": 2.4951254427827723e-05,
"loss": 0.4939,
"step": 574
},
{
"epoch": 2.3958333333333335,
"grad_norm": 0.33341565510429794,
"learning_rate": 2.4894866879086478e-05,
"loss": 0.4677,
"step": 575
},
{
"epoch": 2.4,
"grad_norm": 0.2866935477908003,
"learning_rate": 2.4838437911993355e-05,
"loss": 0.4809,
"step": 576
},
{
"epoch": 2.404166666666667,
"grad_norm": 0.35012731057688545,
"learning_rate": 2.478196800402709e-05,
"loss": 0.4875,
"step": 577
},
{
"epoch": 2.408333333333333,
"grad_norm": 0.2857732158533012,
"learning_rate": 2.4725457633012836e-05,
"loss": 0.4786,
"step": 578
},
{
"epoch": 2.4125,
"grad_norm": 0.2922696264209706,
"learning_rate": 2.4668907277118114e-05,
"loss": 0.4742,
"step": 579
},
{
"epoch": 2.4166666666666665,
"grad_norm": 0.2727927566881546,
"learning_rate": 2.4612317414848804e-05,
"loss": 0.494,
"step": 580
},
{
"epoch": 2.4208333333333334,
"grad_norm": 0.29570114731198865,
"learning_rate": 2.455568852504507e-05,
"loss": 0.4741,
"step": 581
},
{
"epoch": 2.425,
"grad_norm": 0.3708837715005484,
"learning_rate": 2.4499021086877304e-05,
"loss": 0.4887,
"step": 582
},
{
"epoch": 2.4291666666666667,
"grad_norm": 0.2914145818910581,
"learning_rate": 2.4442315579842068e-05,
"loss": 0.4777,
"step": 583
},
{
"epoch": 2.4333333333333336,
"grad_norm": 0.27994366238168417,
"learning_rate": 2.4385572483758066e-05,
"loss": 0.4984,
"step": 584
},
{
"epoch": 2.4375,
"grad_norm": 0.3139348955681916,
"learning_rate": 2.4328792278762058e-05,
"loss": 0.4779,
"step": 585
},
{
"epoch": 2.4416666666666664,
"grad_norm": 0.27424589280548484,
"learning_rate": 2.4271975445304806e-05,
"loss": 0.4771,
"step": 586
},
{
"epoch": 2.4458333333333333,
"grad_norm": 0.32738262546874447,
"learning_rate": 2.4215122464146996e-05,
"loss": 0.4708,
"step": 587
},
{
"epoch": 2.45,
"grad_norm": 0.2843471029941453,
"learning_rate": 2.4158233816355185e-05,
"loss": 0.4797,
"step": 588
},
{
"epoch": 2.4541666666666666,
"grad_norm": 0.3486283991456439,
"learning_rate": 2.4101309983297757e-05,
"loss": 0.4921,
"step": 589
},
{
"epoch": 2.4583333333333335,
"grad_norm": 0.2931710908645017,
"learning_rate": 2.4044351446640763e-05,
"loss": 0.4783,
"step": 590
},
{
"epoch": 2.4625,
"grad_norm": 0.3772039960998048,
"learning_rate": 2.3987358688343946e-05,
"loss": 0.4876,
"step": 591
},
{
"epoch": 2.466666666666667,
"grad_norm": 0.34693662887064003,
"learning_rate": 2.3930332190656604e-05,
"loss": 0.4796,
"step": 592
},
{
"epoch": 2.470833333333333,
"grad_norm": 0.32582379868897454,
"learning_rate": 2.3873272436113525e-05,
"loss": 0.4913,
"step": 593
},
{
"epoch": 2.475,
"grad_norm": 0.34143930489491536,
"learning_rate": 2.38161799075309e-05,
"loss": 0.473,
"step": 594
},
{
"epoch": 2.4791666666666665,
"grad_norm": 0.3015093958025492,
"learning_rate": 2.375905508800224e-05,
"loss": 0.4784,
"step": 595
},
{
"epoch": 2.4833333333333334,
"grad_norm": 0.32483312747413107,
"learning_rate": 2.370189846089429e-05,
"loss": 0.4756,
"step": 596
},
{
"epoch": 2.4875,
"grad_norm": 0.30399694525041737,
"learning_rate": 2.3644710509842956e-05,
"loss": 0.4809,
"step": 597
},
{
"epoch": 2.4916666666666667,
"grad_norm": 0.29199630583002084,
"learning_rate": 2.358749171874915e-05,
"loss": 0.4953,
"step": 598
},
{
"epoch": 2.4958333333333336,
"grad_norm": 0.28833627252516764,
"learning_rate": 2.3530242571774787e-05,
"loss": 0.4902,
"step": 599
},
{
"epoch": 2.5,
"grad_norm": 0.2731371512874426,
"learning_rate": 2.3472963553338614e-05,
"loss": 0.4934,
"step": 600
},
{
"epoch": 2.5041666666666664,
"grad_norm": 0.2812643292598403,
"learning_rate": 2.341565514811214e-05,
"loss": 0.4834,
"step": 601
},
{
"epoch": 2.5083333333333333,
"grad_norm": 0.2728818767616976,
"learning_rate": 2.3358317841015547e-05,
"loss": 0.4942,
"step": 602
},
{
"epoch": 2.5125,
"grad_norm": 0.2835734026581958,
"learning_rate": 2.3300952117213552e-05,
"loss": 0.4884,
"step": 603
},
{
"epoch": 2.5166666666666666,
"grad_norm": 0.27950979825189903,
"learning_rate": 2.3243558462111354e-05,
"loss": 0.4823,
"step": 604
},
{
"epoch": 2.5208333333333335,
"grad_norm": 0.32855079628815703,
"learning_rate": 2.3186137361350455e-05,
"loss": 0.4809,
"step": 605
},
{
"epoch": 2.525,
"grad_norm": 0.2865668790848711,
"learning_rate": 2.312868930080462e-05,
"loss": 0.4833,
"step": 606
},
{
"epoch": 2.529166666666667,
"grad_norm": 0.362397932363514,
"learning_rate": 2.3071214766575722e-05,
"loss": 0.4882,
"step": 607
},
{
"epoch": 2.533333333333333,
"grad_norm": 0.27359911997882985,
"learning_rate": 2.3013714244989665e-05,
"loss": 0.4704,
"step": 608
},
{
"epoch": 2.5375,
"grad_norm": 0.411023294567305,
"learning_rate": 2.2956188222592218e-05,
"loss": 0.474,
"step": 609
},
{
"epoch": 2.5416666666666665,
"grad_norm": 0.30896571731498135,
"learning_rate": 2.2898637186144935e-05,
"loss": 0.4877,
"step": 610
},
{
"epoch": 2.5458333333333334,
"grad_norm": 0.37291302446089014,
"learning_rate": 2.2841061622621052e-05,
"loss": 0.4804,
"step": 611
},
{
"epoch": 2.55,
"grad_norm": 0.30780547512469386,
"learning_rate": 2.278346201920131e-05,
"loss": 0.4834,
"step": 612
},
{
"epoch": 2.5541666666666667,
"grad_norm": 0.38234307930546974,
"learning_rate": 2.2725838863269894e-05,
"loss": 0.4658,
"step": 613
},
{
"epoch": 2.5583333333333336,
"grad_norm": 0.29580812288782055,
"learning_rate": 2.2668192642410257e-05,
"loss": 0.4819,
"step": 614
},
{
"epoch": 2.5625,
"grad_norm": 0.2954304255659645,
"learning_rate": 2.261052384440104e-05,
"loss": 0.4885,
"step": 615
},
{
"epoch": 2.5666666666666664,
"grad_norm": 0.2864840321894157,
"learning_rate": 2.25528329572119e-05,
"loss": 0.4803,
"step": 616
},
{
"epoch": 2.5708333333333333,
"grad_norm": 0.3038019951115472,
"learning_rate": 2.249512046899941e-05,
"loss": 0.4904,
"step": 617
},
{
"epoch": 2.575,
"grad_norm": 0.3018523128168798,
"learning_rate": 2.243738686810295e-05,
"loss": 0.481,
"step": 618
},
{
"epoch": 2.5791666666666666,
"grad_norm": 0.3064640894185579,
"learning_rate": 2.237963264304051e-05,
"loss": 0.4826,
"step": 619
},
{
"epoch": 2.5833333333333335,
"grad_norm": 0.33390959627026834,
"learning_rate": 2.2321858282504606e-05,
"loss": 0.4962,
"step": 620
},
{
"epoch": 2.5875,
"grad_norm": 0.33593338556580077,
"learning_rate": 2.226406427535814e-05,
"loss": 0.4878,
"step": 621
},
{
"epoch": 2.591666666666667,
"grad_norm": 0.36493331594003126,
"learning_rate": 2.220625111063024e-05,
"loss": 0.4862,
"step": 622
},
{
"epoch": 2.595833333333333,
"grad_norm": 0.3421217275923928,
"learning_rate": 2.214841927751215e-05,
"loss": 0.4743,
"step": 623
},
{
"epoch": 2.6,
"grad_norm": 0.3645361104855795,
"learning_rate": 2.209056926535307e-05,
"loss": 0.4823,
"step": 624
},
{
"epoch": 2.6041666666666665,
"grad_norm": 0.31849245941437065,
"learning_rate": 2.203270156365604e-05,
"loss": 0.4932,
"step": 625
},
{
"epoch": 2.6083333333333334,
"grad_norm": 0.30986398369115403,
"learning_rate": 2.1974816662073758e-05,
"loss": 0.4956,
"step": 626
},
{
"epoch": 2.6125,
"grad_norm": 0.2985332744172327,
"learning_rate": 2.1916915050404482e-05,
"loss": 0.4814,
"step": 627
},
{
"epoch": 2.6166666666666667,
"grad_norm": 0.28107318743495113,
"learning_rate": 2.185899721858785e-05,
"loss": 0.4851,
"step": 628
},
{
"epoch": 2.6208333333333336,
"grad_norm": 0.28571519193262973,
"learning_rate": 2.1801063656700747e-05,
"loss": 0.4821,
"step": 629
},
{
"epoch": 2.625,
"grad_norm": 0.2711978932752102,
"learning_rate": 2.174311485495317e-05,
"loss": 0.4954,
"step": 630
},
{
"epoch": 2.6291666666666664,
"grad_norm": 0.29656648394449375,
"learning_rate": 2.168515130368406e-05,
"loss": 0.4781,
"step": 631
},
{
"epoch": 2.6333333333333333,
"grad_norm": 0.3104422675510097,
"learning_rate": 2.1627173493357167e-05,
"loss": 0.4803,
"step": 632
},
{
"epoch": 2.6375,
"grad_norm": 0.36965495278596316,
"learning_rate": 2.1569181914556904e-05,
"loss": 0.4826,
"step": 633
},
{
"epoch": 2.6416666666666666,
"grad_norm": 0.3223492852763015,
"learning_rate": 2.1511177057984164e-05,
"loss": 0.4779,
"step": 634
},
{
"epoch": 2.6458333333333335,
"grad_norm": 0.34318985783201117,
"learning_rate": 2.1453159414452216e-05,
"loss": 0.4884,
"step": 635
},
{
"epoch": 2.65,
"grad_norm": 0.362660355217092,
"learning_rate": 2.1395129474882507e-05,
"loss": 0.4851,
"step": 636
},
{
"epoch": 2.654166666666667,
"grad_norm": 0.3849296701995083,
"learning_rate": 2.133708773030055e-05,
"loss": 0.4781,
"step": 637
},
{
"epoch": 2.658333333333333,
"grad_norm": 0.345196788673683,
"learning_rate": 2.1279034671831714e-05,
"loss": 0.4784,
"step": 638
},
{
"epoch": 2.6625,
"grad_norm": 0.32279802778936617,
"learning_rate": 2.1220970790697142e-05,
"loss": 0.4917,
"step": 639
},
{
"epoch": 2.6666666666666665,
"grad_norm": 0.3409858710595207,
"learning_rate": 2.1162896578209517e-05,
"loss": 0.4719,
"step": 640
},
{
"epoch": 2.6708333333333334,
"grad_norm": 0.28185884498274283,
"learning_rate": 2.1104812525768974e-05,
"loss": 0.4868,
"step": 641
},
{
"epoch": 2.675,
"grad_norm": 0.3499626677709927,
"learning_rate": 2.1046719124858882e-05,
"loss": 0.4861,
"step": 642
},
{
"epoch": 2.6791666666666667,
"grad_norm": 0.32050661825638865,
"learning_rate": 2.0988616867041724e-05,
"loss": 0.4894,
"step": 643
},
{
"epoch": 2.6833333333333336,
"grad_norm": 0.31129138266135237,
"learning_rate": 2.093050624395494e-05,
"loss": 0.4804,
"step": 644
},
{
"epoch": 2.6875,
"grad_norm": 0.30995162670378557,
"learning_rate": 2.0872387747306725e-05,
"loss": 0.4846,
"step": 645
},
{
"epoch": 2.6916666666666664,
"grad_norm": 0.30657951578221276,
"learning_rate": 2.081426186887192e-05,
"loss": 0.4799,
"step": 646
},
{
"epoch": 2.6958333333333333,
"grad_norm": 0.28010159120030614,
"learning_rate": 2.0756129100487824e-05,
"loss": 0.48,
"step": 647
},
{
"epoch": 2.7,
"grad_norm": 0.3218333829986327,
"learning_rate": 2.0697989934050025e-05,
"loss": 0.4907,
"step": 648
},
{
"epoch": 2.7041666666666666,
"grad_norm": 0.306173405304901,
"learning_rate": 2.063984486150826e-05,
"loss": 0.4734,
"step": 649
},
{
"epoch": 2.7083333333333335,
"grad_norm": 0.3130124259185629,
"learning_rate": 2.058169437486223e-05,
"loss": 0.4947,
"step": 650
},
{
"epoch": 2.7125,
"grad_norm": 0.3322990379420207,
"learning_rate": 2.0523538966157467e-05,
"loss": 0.4835,
"step": 651
},
{
"epoch": 2.716666666666667,
"grad_norm": 0.29992494239908996,
"learning_rate": 2.0465379127481127e-05,
"loss": 0.4772,
"step": 652
},
{
"epoch": 2.720833333333333,
"grad_norm": 0.3178162321643254,
"learning_rate": 2.0407215350957874e-05,
"loss": 0.4683,
"step": 653
},
{
"epoch": 2.725,
"grad_norm": 0.2867051833726081,
"learning_rate": 2.0349048128745673e-05,
"loss": 0.4803,
"step": 654
},
{
"epoch": 2.7291666666666665,
"grad_norm": 0.35847920749443224,
"learning_rate": 2.029087795303166e-05,
"loss": 0.478,
"step": 655
},
{
"epoch": 2.7333333333333334,
"grad_norm": 0.33294952908394987,
"learning_rate": 2.0232705316027946e-05,
"loss": 0.4652,
"step": 656
},
{
"epoch": 2.7375,
"grad_norm": 0.38266650139915515,
"learning_rate": 2.017453070996748e-05,
"loss": 0.4826,
"step": 657
},
{
"epoch": 2.7416666666666667,
"grad_norm": 0.30795152276985793,
"learning_rate": 2.011635462709988e-05,
"loss": 0.477,
"step": 658
},
{
"epoch": 2.7458333333333336,
"grad_norm": 0.38585790311584595,
"learning_rate": 2.0058177559687243e-05,
"loss": 0.478,
"step": 659
},
{
"epoch": 2.75,
"grad_norm": 0.27355684507598177,
"learning_rate": 2e-05,
"loss": 0.4815,
"step": 660
},
{
"epoch": 2.7541666666666664,
"grad_norm": 0.36938965074944063,
"learning_rate": 1.9941822440312767e-05,
"loss": 0.481,
"step": 661
},
{
"epoch": 2.7583333333333333,
"grad_norm": 0.30838872545055446,
"learning_rate": 1.9883645372900123e-05,
"loss": 0.4768,
"step": 662
},
{
"epoch": 2.7625,
"grad_norm": 0.32239571777232606,
"learning_rate": 1.9825469290032525e-05,
"loss": 0.4805,
"step": 663
},
{
"epoch": 2.7666666666666666,
"grad_norm": 0.31003015928588906,
"learning_rate": 1.9767294683972064e-05,
"loss": 0.4722,
"step": 664
},
{
"epoch": 2.7708333333333335,
"grad_norm": 0.2864026736524577,
"learning_rate": 1.9709122046968347e-05,
"loss": 0.4831,
"step": 665
},
{
"epoch": 2.775,
"grad_norm": 0.31752753580075455,
"learning_rate": 1.965095187125433e-05,
"loss": 0.4719,
"step": 666
},
{
"epoch": 2.779166666666667,
"grad_norm": 0.24935376161786096,
"learning_rate": 1.9592784649042126e-05,
"loss": 0.4816,
"step": 667
},
{
"epoch": 2.783333333333333,
"grad_norm": 0.30819566169829543,
"learning_rate": 1.9534620872518877e-05,
"loss": 0.4698,
"step": 668
},
{
"epoch": 2.7875,
"grad_norm": 0.2717547936152192,
"learning_rate": 1.9476461033842543e-05,
"loss": 0.4726,
"step": 669
},
{
"epoch": 2.7916666666666665,
"grad_norm": 0.2779824399041734,
"learning_rate": 1.9418305625137773e-05,
"loss": 0.4741,
"step": 670
},
{
"epoch": 2.7958333333333334,
"grad_norm": 0.2607959193113493,
"learning_rate": 1.936015513849175e-05,
"loss": 0.4943,
"step": 671
},
{
"epoch": 2.8,
"grad_norm": 0.26176751100628287,
"learning_rate": 1.930201006594999e-05,
"loss": 0.473,
"step": 672
},
{
"epoch": 2.8041666666666667,
"grad_norm": 0.3139692117589432,
"learning_rate": 1.9243870899512183e-05,
"loss": 0.4751,
"step": 673
},
{
"epoch": 2.8083333333333336,
"grad_norm": 0.24642201352931178,
"learning_rate": 1.9185738131128085e-05,
"loss": 0.4835,
"step": 674
},
{
"epoch": 2.8125,
"grad_norm": 0.2942248041458852,
"learning_rate": 1.9127612252693285e-05,
"loss": 0.4795,
"step": 675
},
{
"epoch": 2.8166666666666664,
"grad_norm": 0.31530719934076834,
"learning_rate": 1.9069493756045066e-05,
"loss": 0.4897,
"step": 676
},
{
"epoch": 2.8208333333333333,
"grad_norm": 0.2856546329064761,
"learning_rate": 1.9011383132958283e-05,
"loss": 0.4822,
"step": 677
},
{
"epoch": 2.825,
"grad_norm": 0.3142632497311166,
"learning_rate": 1.8953280875141125e-05,
"loss": 0.4808,
"step": 678
},
{
"epoch": 2.8291666666666666,
"grad_norm": 0.2683101120621211,
"learning_rate": 1.8895187474231033e-05,
"loss": 0.4628,
"step": 679
},
{
"epoch": 2.8333333333333335,
"grad_norm": 0.2985836933034999,
"learning_rate": 1.8837103421790486e-05,
"loss": 0.4849,
"step": 680
},
{
"epoch": 2.8375,
"grad_norm": 0.289427551706044,
"learning_rate": 1.877902920930286e-05,
"loss": 0.482,
"step": 681
},
{
"epoch": 2.841666666666667,
"grad_norm": 0.3177527556022089,
"learning_rate": 1.872096532816829e-05,
"loss": 0.4791,
"step": 682
},
{
"epoch": 2.845833333333333,
"grad_norm": 0.29906446929376074,
"learning_rate": 1.866291226969946e-05,
"loss": 0.4795,
"step": 683
},
{
"epoch": 2.85,
"grad_norm": 0.48825763612085826,
"learning_rate": 1.8604870525117496e-05,
"loss": 0.4725,
"step": 684
},
{
"epoch": 2.8541666666666665,
"grad_norm": 0.2604887835947638,
"learning_rate": 1.854684058554779e-05,
"loss": 0.4892,
"step": 685
},
{
"epoch": 2.8583333333333334,
"grad_norm": 0.2891297457749367,
"learning_rate": 1.8488822942015846e-05,
"loss": 0.4796,
"step": 686
},
{
"epoch": 2.8625,
"grad_norm": 0.29497307175926024,
"learning_rate": 1.8430818085443106e-05,
"loss": 0.4825,
"step": 687
},
{
"epoch": 2.8666666666666667,
"grad_norm": 0.27568988832284147,
"learning_rate": 1.837282650664284e-05,
"loss": 0.4716,
"step": 688
},
{
"epoch": 2.8708333333333336,
"grad_norm": 0.28164760335757116,
"learning_rate": 1.8314848696315944e-05,
"loss": 0.4727,
"step": 689
},
{
"epoch": 2.875,
"grad_norm": 0.32781527439873553,
"learning_rate": 1.8256885145046837e-05,
"loss": 0.4749,
"step": 690
},
{
"epoch": 2.8791666666666664,
"grad_norm": 0.26859929264606247,
"learning_rate": 1.8198936343299263e-05,
"loss": 0.4904,
"step": 691
},
{
"epoch": 2.8833333333333333,
"grad_norm": 0.31235195321834397,
"learning_rate": 1.814100278141216e-05,
"loss": 0.4783,
"step": 692
},
{
"epoch": 2.8875,
"grad_norm": 0.28349927090727645,
"learning_rate": 1.808308494959552e-05,
"loss": 0.4787,
"step": 693
},
{
"epoch": 2.8916666666666666,
"grad_norm": 0.3421647684660964,
"learning_rate": 1.8025183337926246e-05,
"loss": 0.4798,
"step": 694
},
{
"epoch": 2.8958333333333335,
"grad_norm": 0.2796701862031352,
"learning_rate": 1.7967298436343962e-05,
"loss": 0.476,
"step": 695
},
{
"epoch": 2.9,
"grad_norm": 0.3220797111739836,
"learning_rate": 1.7909430734646936e-05,
"loss": 0.4811,
"step": 696
},
{
"epoch": 2.904166666666667,
"grad_norm": 0.31274151995402216,
"learning_rate": 1.785158072248786e-05,
"loss": 0.4785,
"step": 697
},
{
"epoch": 2.908333333333333,
"grad_norm": 0.29229999279295854,
"learning_rate": 1.7793748889369765e-05,
"loss": 0.48,
"step": 698
},
{
"epoch": 2.9125,
"grad_norm": 0.26620249138371865,
"learning_rate": 1.773593572464187e-05,
"loss": 0.4748,
"step": 699
},
{
"epoch": 2.9166666666666665,
"grad_norm": 0.30555341782514805,
"learning_rate": 1.7678141717495394e-05,
"loss": 0.4818,
"step": 700
},
{
"epoch": 2.9208333333333334,
"grad_norm": 0.27904991140839297,
"learning_rate": 1.7620367356959496e-05,
"loss": 0.4799,
"step": 701
},
{
"epoch": 2.925,
"grad_norm": 0.2589424115631256,
"learning_rate": 1.7562613131897056e-05,
"loss": 0.4911,
"step": 702
},
{
"epoch": 2.9291666666666667,
"grad_norm": 0.28711426353147407,
"learning_rate": 1.7504879531000586e-05,
"loss": 0.4773,
"step": 703
},
{
"epoch": 2.9333333333333336,
"grad_norm": 0.2797634301160334,
"learning_rate": 1.7447167042788108e-05,
"loss": 0.4742,
"step": 704
},
{
"epoch": 2.9375,
"grad_norm": 0.2789026208242064,
"learning_rate": 1.7389476155598974e-05,
"loss": 0.4785,
"step": 705
},
{
"epoch": 2.9416666666666664,
"grad_norm": 0.27941490608839914,
"learning_rate": 1.7331807357589746e-05,
"loss": 0.484,
"step": 706
},
{
"epoch": 2.9458333333333333,
"grad_norm": 0.24980148239002167,
"learning_rate": 1.7274161136730113e-05,
"loss": 0.4859,
"step": 707
},
{
"epoch": 2.95,
"grad_norm": 0.29075679978363583,
"learning_rate": 1.72165379807987e-05,
"loss": 0.4841,
"step": 708
},
{
"epoch": 2.9541666666666666,
"grad_norm": 0.254138267404262,
"learning_rate": 1.715893837737895e-05,
"loss": 0.4693,
"step": 709
},
{
"epoch": 2.9583333333333335,
"grad_norm": 0.2644078856477545,
"learning_rate": 1.7101362813855068e-05,
"loss": 0.4841,
"step": 710
},
{
"epoch": 2.9625,
"grad_norm": 0.2707508309415384,
"learning_rate": 1.704381177740779e-05,
"loss": 0.4746,
"step": 711
},
{
"epoch": 2.966666666666667,
"grad_norm": 0.302779665861668,
"learning_rate": 1.698628575501034e-05,
"loss": 0.4927,
"step": 712
},
{
"epoch": 2.970833333333333,
"grad_norm": 0.2818587997112645,
"learning_rate": 1.692878523342428e-05,
"loss": 0.49,
"step": 713
},
{
"epoch": 2.975,
"grad_norm": 0.25255173004270365,
"learning_rate": 1.687131069919538e-05,
"loss": 0.4819,
"step": 714
},
{
"epoch": 2.9791666666666665,
"grad_norm": 0.24769380833714336,
"learning_rate": 1.6813862638649552e-05,
"loss": 0.4665,
"step": 715
},
{
"epoch": 2.9833333333333334,
"grad_norm": 0.8186960857739186,
"learning_rate": 1.6756441537888656e-05,
"loss": 0.4891,
"step": 716
},
{
"epoch": 2.9875,
"grad_norm": 0.23989546466267106,
"learning_rate": 1.6699047882786448e-05,
"loss": 0.4724,
"step": 717
},
{
"epoch": 2.9916666666666667,
"grad_norm": 0.26822524599446873,
"learning_rate": 1.664168215898446e-05,
"loss": 0.4761,
"step": 718
},
{
"epoch": 2.9958333333333336,
"grad_norm": 0.25864883818718637,
"learning_rate": 1.658434485188787e-05,
"loss": 0.4938,
"step": 719
},
{
"epoch": 3.0,
"grad_norm": 0.9863608439121576,
"learning_rate": 1.6527036446661396e-05,
"loss": 0.4882,
"step": 720
},
{
"epoch": 3.004166666666667,
"grad_norm": 0.4553215419190219,
"learning_rate": 1.6469757428225223e-05,
"loss": 0.442,
"step": 721
},
{
"epoch": 3.0083333333333333,
"grad_norm": 0.3346547609393649,
"learning_rate": 1.641250828125085e-05,
"loss": 0.4253,
"step": 722
},
{
"epoch": 3.0125,
"grad_norm": 0.7617402105553378,
"learning_rate": 1.635528949015705e-05,
"loss": 0.4277,
"step": 723
},
{
"epoch": 3.0166666666666666,
"grad_norm": 0.44764472631015995,
"learning_rate": 1.6298101539105712e-05,
"loss": 0.43,
"step": 724
},
{
"epoch": 3.0208333333333335,
"grad_norm": 0.39211024119181387,
"learning_rate": 1.6240944911997765e-05,
"loss": 0.4256,
"step": 725
},
{
"epoch": 3.025,
"grad_norm": 0.5406087803487221,
"learning_rate": 1.6183820092469103e-05,
"loss": 0.4304,
"step": 726
},
{
"epoch": 3.029166666666667,
"grad_norm": 0.334633304360574,
"learning_rate": 1.6126727563886485e-05,
"loss": 0.437,
"step": 727
},
{
"epoch": 3.033333333333333,
"grad_norm": 0.41880295084448826,
"learning_rate": 1.6069667809343396e-05,
"loss": 0.4282,
"step": 728
},
{
"epoch": 3.0375,
"grad_norm": 0.34875255135420846,
"learning_rate": 1.601264131165606e-05,
"loss": 0.44,
"step": 729
},
{
"epoch": 3.0416666666666665,
"grad_norm": 0.4073496235886376,
"learning_rate": 1.5955648553359247e-05,
"loss": 0.4316,
"step": 730
},
{
"epoch": 3.0458333333333334,
"grad_norm": 0.34421342187075615,
"learning_rate": 1.5898690016702253e-05,
"loss": 0.4341,
"step": 731
},
{
"epoch": 3.05,
"grad_norm": 0.38375536775928965,
"learning_rate": 1.584176618364482e-05,
"loss": 0.4333,
"step": 732
},
{
"epoch": 3.0541666666666667,
"grad_norm": 0.3366285058229145,
"learning_rate": 1.5784877535853014e-05,
"loss": 0.4268,
"step": 733
},
{
"epoch": 3.058333333333333,
"grad_norm": 0.3362729482038323,
"learning_rate": 1.5728024554695204e-05,
"loss": 0.4389,
"step": 734
},
{
"epoch": 3.0625,
"grad_norm": 0.2998832004248903,
"learning_rate": 1.5671207721237945e-05,
"loss": 0.4442,
"step": 735
},
{
"epoch": 3.066666666666667,
"grad_norm": 0.34966088213714075,
"learning_rate": 1.561442751624193e-05,
"loss": 0.4384,
"step": 736
},
{
"epoch": 3.0708333333333333,
"grad_norm": 0.27872667923184025,
"learning_rate": 1.555768442015794e-05,
"loss": 0.4284,
"step": 737
},
{
"epoch": 3.075,
"grad_norm": 0.3236550012052647,
"learning_rate": 1.5500978913122702e-05,
"loss": 0.422,
"step": 738
},
{
"epoch": 3.0791666666666666,
"grad_norm": 0.3117885050543731,
"learning_rate": 1.5444311474954932e-05,
"loss": 0.4191,
"step": 739
},
{
"epoch": 3.0833333333333335,
"grad_norm": 0.33789730280824243,
"learning_rate": 1.53876825851512e-05,
"loss": 0.4337,
"step": 740
},
{
"epoch": 3.0875,
"grad_norm": 0.285944847478769,
"learning_rate": 1.53310927228819e-05,
"loss": 0.4263,
"step": 741
},
{
"epoch": 3.091666666666667,
"grad_norm": 0.3510496778017806,
"learning_rate": 1.5274542366987174e-05,
"loss": 0.417,
"step": 742
},
{
"epoch": 3.095833333333333,
"grad_norm": 0.27600185930574017,
"learning_rate": 1.5218031995972917e-05,
"loss": 0.4251,
"step": 743
},
{
"epoch": 3.1,
"grad_norm": 0.309855102830333,
"learning_rate": 1.5161562088006649e-05,
"loss": 0.4315,
"step": 744
},
{
"epoch": 3.1041666666666665,
"grad_norm": 0.2835345622257406,
"learning_rate": 1.5105133120913524e-05,
"loss": 0.415,
"step": 745
},
{
"epoch": 3.1083333333333334,
"grad_norm": 0.2904891286285475,
"learning_rate": 1.5048745572172286e-05,
"loss": 0.4263,
"step": 746
},
{
"epoch": 3.1125,
"grad_norm": 0.3020768138294881,
"learning_rate": 1.4992399918911168e-05,
"loss": 0.4254,
"step": 747
},
{
"epoch": 3.1166666666666667,
"grad_norm": 0.2567339425896942,
"learning_rate": 1.4936096637903967e-05,
"loss": 0.4177,
"step": 748
},
{
"epoch": 3.120833333333333,
"grad_norm": 0.31943536839494713,
"learning_rate": 1.4879836205565887e-05,
"loss": 0.4216,
"step": 749
},
{
"epoch": 3.125,
"grad_norm": 0.28340540020844907,
"learning_rate": 1.4823619097949584e-05,
"loss": 0.4281,
"step": 750
},
{
"epoch": 3.129166666666667,
"grad_norm": 0.3233306102663907,
"learning_rate": 1.4767445790741133e-05,
"loss": 0.4169,
"step": 751
},
{
"epoch": 3.1333333333333333,
"grad_norm": 0.26943204536316995,
"learning_rate": 1.4711316759255963e-05,
"loss": 0.4394,
"step": 752
},
{
"epoch": 3.1375,
"grad_norm": 0.30734781387088517,
"learning_rate": 1.4655232478434864e-05,
"loss": 0.4275,
"step": 753
},
{
"epoch": 3.1416666666666666,
"grad_norm": 0.26633436967378,
"learning_rate": 1.4599193422839987e-05,
"loss": 0.4347,
"step": 754
},
{
"epoch": 3.1458333333333335,
"grad_norm": 0.2795592273551353,
"learning_rate": 1.4543200066650786e-05,
"loss": 0.4293,
"step": 755
},
{
"epoch": 3.15,
"grad_norm": 0.27470260185672285,
"learning_rate": 1.4487252883660019e-05,
"loss": 0.4202,
"step": 756
},
{
"epoch": 3.154166666666667,
"grad_norm": 0.2685587568717203,
"learning_rate": 1.4431352347269769e-05,
"loss": 0.4327,
"step": 757
},
{
"epoch": 3.158333333333333,
"grad_norm": 0.2681429889390549,
"learning_rate": 1.4375498930487388e-05,
"loss": 0.4311,
"step": 758
},
{
"epoch": 3.1625,
"grad_norm": 0.2520461067626849,
"learning_rate": 1.4319693105921548e-05,
"loss": 0.4422,
"step": 759
},
{
"epoch": 3.1666666666666665,
"grad_norm": 0.2863268941620605,
"learning_rate": 1.4263935345778202e-05,
"loss": 0.4241,
"step": 760
},
{
"epoch": 3.1708333333333334,
"grad_norm": 0.26592210134274163,
"learning_rate": 1.4208226121856586e-05,
"loss": 0.4322,
"step": 761
},
{
"epoch": 3.175,
"grad_norm": 0.2553802812490062,
"learning_rate": 1.4152565905545268e-05,
"loss": 0.4213,
"step": 762
},
{
"epoch": 3.1791666666666667,
"grad_norm": 0.29370502446501184,
"learning_rate": 1.4096955167818128e-05,
"loss": 0.431,
"step": 763
},
{
"epoch": 3.183333333333333,
"grad_norm": 0.23575752597155059,
"learning_rate": 1.404139437923036e-05,
"loss": 0.422,
"step": 764
},
{
"epoch": 3.1875,
"grad_norm": 0.2759050484039525,
"learning_rate": 1.3985884009914542e-05,
"loss": 0.4131,
"step": 765
},
{
"epoch": 3.191666666666667,
"grad_norm": 0.23810740961350238,
"learning_rate": 1.3930424529576593e-05,
"loss": 0.4289,
"step": 766
},
{
"epoch": 3.1958333333333333,
"grad_norm": 0.26673988400154236,
"learning_rate": 1.387501640749184e-05,
"loss": 0.4241,
"step": 767
},
{
"epoch": 3.2,
"grad_norm": 0.2536148256121875,
"learning_rate": 1.3819660112501054e-05,
"loss": 0.4338,
"step": 768
},
{
"epoch": 3.2041666666666666,
"grad_norm": 0.2632214245807616,
"learning_rate": 1.3764356113006441e-05,
"loss": 0.4337,
"step": 769
},
{
"epoch": 3.2083333333333335,
"grad_norm": 0.26270674933237137,
"learning_rate": 1.3709104876967732e-05,
"loss": 0.4209,
"step": 770
},
{
"epoch": 3.2125,
"grad_norm": 0.2831481416442291,
"learning_rate": 1.3653906871898161e-05,
"loss": 0.444,
"step": 771
},
{
"epoch": 3.216666666666667,
"grad_norm": 0.24154882652104262,
"learning_rate": 1.3598762564860569e-05,
"loss": 0.4355,
"step": 772
},
{
"epoch": 3.220833333333333,
"grad_norm": 0.2833447223640067,
"learning_rate": 1.3543672422463426e-05,
"loss": 0.4168,
"step": 773
},
{
"epoch": 3.225,
"grad_norm": 0.2628323532399339,
"learning_rate": 1.3488636910856871e-05,
"loss": 0.4406,
"step": 774
},
{
"epoch": 3.2291666666666665,
"grad_norm": 0.25655483692387615,
"learning_rate": 1.3433656495728781e-05,
"loss": 0.4341,
"step": 775
},
{
"epoch": 3.2333333333333334,
"grad_norm": 2.2837855068570425,
"learning_rate": 1.3378731642300841e-05,
"loss": 0.4186,
"step": 776
},
{
"epoch": 3.2375,
"grad_norm": 0.2920682106864273,
"learning_rate": 1.3323862815324585e-05,
"loss": 0.4331,
"step": 777
},
{
"epoch": 3.2416666666666667,
"grad_norm": 0.23551369094510202,
"learning_rate": 1.3269050479077472e-05,
"loss": 0.4301,
"step": 778
},
{
"epoch": 3.245833333333333,
"grad_norm": 0.2656958070325992,
"learning_rate": 1.321429509735898e-05,
"loss": 0.4279,
"step": 779
},
{
"epoch": 3.25,
"grad_norm": 0.2991749649137243,
"learning_rate": 1.3159597133486628e-05,
"loss": 0.4294,
"step": 780
},
{
"epoch": 3.2541666666666664,
"grad_norm": 0.2434578439510396,
"learning_rate": 1.3104957050292117e-05,
"loss": 0.4412,
"step": 781
},
{
"epoch": 3.2583333333333333,
"grad_norm": 0.2535855586410148,
"learning_rate": 1.3050375310117374e-05,
"loss": 0.4332,
"step": 782
},
{
"epoch": 3.2625,
"grad_norm": 0.23582886808116976,
"learning_rate": 1.2995852374810652e-05,
"loss": 0.4411,
"step": 783
},
{
"epoch": 3.2666666666666666,
"grad_norm": 0.24057762054402668,
"learning_rate": 1.2941388705722627e-05,
"loss": 0.4269,
"step": 784
},
{
"epoch": 3.2708333333333335,
"grad_norm": 0.2770818398433449,
"learning_rate": 1.2886984763702474e-05,
"loss": 0.4364,
"step": 785
},
{
"epoch": 3.275,
"grad_norm": 0.24059727378628445,
"learning_rate": 1.2832641009093995e-05,
"loss": 0.427,
"step": 786
},
{
"epoch": 3.279166666666667,
"grad_norm": 0.24592557304712342,
"learning_rate": 1.2778357901731714e-05,
"loss": 0.436,
"step": 787
},
{
"epoch": 3.283333333333333,
"grad_norm": 0.28077647477255835,
"learning_rate": 1.2724135900936979e-05,
"loss": 0.4284,
"step": 788
},
{
"epoch": 3.2875,
"grad_norm": 0.2729231049928039,
"learning_rate": 1.2669975465514057e-05,
"loss": 0.4289,
"step": 789
},
{
"epoch": 3.2916666666666665,
"grad_norm": 0.25905198604864066,
"learning_rate": 1.2615877053746315e-05,
"loss": 0.432,
"step": 790
},
{
"epoch": 3.2958333333333334,
"grad_norm": 0.29199121007908796,
"learning_rate": 1.2561841123392266e-05,
"loss": 0.4295,
"step": 791
},
{
"epoch": 3.3,
"grad_norm": 0.28210773206628265,
"learning_rate": 1.250786813168176e-05,
"loss": 0.4289,
"step": 792
},
{
"epoch": 3.3041666666666667,
"grad_norm": 0.2850450125076269,
"learning_rate": 1.2453958535312064e-05,
"loss": 0.418,
"step": 793
},
{
"epoch": 3.3083333333333336,
"grad_norm": 0.27146762199853464,
"learning_rate": 1.2400112790444024e-05,
"loss": 0.423,
"step": 794
},
{
"epoch": 3.3125,
"grad_norm": 0.29140255218967065,
"learning_rate": 1.2346331352698206e-05,
"loss": 0.4415,
"step": 795
},
{
"epoch": 3.3166666666666664,
"grad_norm": 0.2577245277320008,
"learning_rate": 1.2292614677151038e-05,
"loss": 0.44,
"step": 796
},
{
"epoch": 3.3208333333333333,
"grad_norm": 0.2596945100873493,
"learning_rate": 1.2238963218330944e-05,
"loss": 0.4293,
"step": 797
},
{
"epoch": 3.325,
"grad_norm": 0.27660509793874966,
"learning_rate": 1.218537743021453e-05,
"loss": 0.424,
"step": 798
},
{
"epoch": 3.3291666666666666,
"grad_norm": 0.24668112612335116,
"learning_rate": 1.2131857766222703e-05,
"loss": 0.4257,
"step": 799
},
{
"epoch": 3.3333333333333335,
"grad_norm": 0.2460564650786363,
"learning_rate": 1.2078404679216864e-05,
"loss": 0.4325,
"step": 800
},
{
"epoch": 3.3375,
"grad_norm": 0.2669782203339851,
"learning_rate": 1.2025018621495077e-05,
"loss": 0.4223,
"step": 801
},
{
"epoch": 3.341666666666667,
"grad_norm": 0.2720653092416133,
"learning_rate": 1.1971700044788213e-05,
"loss": 0.4262,
"step": 802
},
{
"epoch": 3.345833333333333,
"grad_norm": 0.23667898731846967,
"learning_rate": 1.191844940025617e-05,
"loss": 0.434,
"step": 803
},
{
"epoch": 3.35,
"grad_norm": 0.26350049401274,
"learning_rate": 1.1865267138484e-05,
"loss": 0.4309,
"step": 804
},
{
"epoch": 3.3541666666666665,
"grad_norm": 0.28265933764713735,
"learning_rate": 1.1812153709478149e-05,
"loss": 0.4369,
"step": 805
},
{
"epoch": 3.3583333333333334,
"grad_norm": 0.2624729901644893,
"learning_rate": 1.1759109562662633e-05,
"loss": 0.4325,
"step": 806
},
{
"epoch": 3.3625,
"grad_norm": 0.25993858855087854,
"learning_rate": 1.1706135146875224e-05,
"loss": 0.4351,
"step": 807
},
{
"epoch": 3.3666666666666667,
"grad_norm": 0.2508735416582612,
"learning_rate": 1.1653230910363645e-05,
"loss": 0.4115,
"step": 808
},
{
"epoch": 3.3708333333333336,
"grad_norm": 0.2791637047434572,
"learning_rate": 1.1600397300781811e-05,
"loss": 0.4041,
"step": 809
},
{
"epoch": 3.375,
"grad_norm": 0.24766768453306345,
"learning_rate": 1.1547634765186016e-05,
"loss": 0.4322,
"step": 810
},
{
"epoch": 3.3791666666666664,
"grad_norm": 0.2648317054434943,
"learning_rate": 1.1494943750031144e-05,
"loss": 0.4313,
"step": 811
},
{
"epoch": 3.3833333333333333,
"grad_norm": 0.2794648606575172,
"learning_rate": 1.144232470116692e-05,
"loss": 0.4216,
"step": 812
},
{
"epoch": 3.3875,
"grad_norm": 0.2587543354259146,
"learning_rate": 1.1389778063834094e-05,
"loss": 0.431,
"step": 813
},
{
"epoch": 3.3916666666666666,
"grad_norm": 0.26279148603900554,
"learning_rate": 1.1337304282660746e-05,
"loss": 0.4521,
"step": 814
},
{
"epoch": 3.3958333333333335,
"grad_norm": 0.2758234109789757,
"learning_rate": 1.1284903801658418e-05,
"loss": 0.437,
"step": 815
},
{
"epoch": 3.4,
"grad_norm": 0.4967781086358191,
"learning_rate": 1.123257706421845e-05,
"loss": 0.4372,
"step": 816
},
{
"epoch": 3.404166666666667,
"grad_norm": 0.278277793413537,
"learning_rate": 1.1180324513108203e-05,
"loss": 0.448,
"step": 817
},
{
"epoch": 3.408333333333333,
"grad_norm": 0.2730409852860853,
"learning_rate": 1.112814659046729e-05,
"loss": 0.4445,
"step": 818
},
{
"epoch": 3.4125,
"grad_norm": 0.24090889416159056,
"learning_rate": 1.1076043737803825e-05,
"loss": 0.429,
"step": 819
},
{
"epoch": 3.4166666666666665,
"grad_norm": 0.2613977673243055,
"learning_rate": 1.1024016395990758e-05,
"loss": 0.4517,
"step": 820
},
{
"epoch": 3.4208333333333334,
"grad_norm": 0.2723830432750871,
"learning_rate": 1.0972065005262067e-05,
"loss": 0.4271,
"step": 821
},
{
"epoch": 3.425,
"grad_norm": 0.23431381796229808,
"learning_rate": 1.0920190005209066e-05,
"loss": 0.4173,
"step": 822
},
{
"epoch": 3.4291666666666667,
"grad_norm": 0.25130503185627423,
"learning_rate": 1.086839183477669e-05,
"loss": 0.4364,
"step": 823
},
{
"epoch": 3.4333333333333336,
"grad_norm": 0.24352887204404178,
"learning_rate": 1.0816670932259763e-05,
"loss": 0.432,
"step": 824
},
{
"epoch": 3.4375,
"grad_norm": 0.24499362422587945,
"learning_rate": 1.0765027735299327e-05,
"loss": 0.4209,
"step": 825
},
{
"epoch": 3.4416666666666664,
"grad_norm": 0.2597047330102018,
"learning_rate": 1.0713462680878864e-05,
"loss": 0.4218,
"step": 826
},
{
"epoch": 3.4458333333333333,
"grad_norm": 0.2543222339251796,
"learning_rate": 1.066197620532068e-05,
"loss": 0.4343,
"step": 827
},
{
"epoch": 3.45,
"grad_norm": 0.27914449181031836,
"learning_rate": 1.061056874428219e-05,
"loss": 0.4268,
"step": 828
},
{
"epoch": 3.4541666666666666,
"grad_norm": 0.24727420683509194,
"learning_rate": 1.055924073275218e-05,
"loss": 0.4262,
"step": 829
},
{
"epoch": 3.4583333333333335,
"grad_norm": 0.23817092527660053,
"learning_rate": 1.0507992605047193e-05,
"loss": 0.4351,
"step": 830
},
{
"epoch": 3.4625,
"grad_norm": 0.269226319761995,
"learning_rate": 1.0456824794807832e-05,
"loss": 0.4159,
"step": 831
},
{
"epoch": 3.466666666666667,
"grad_norm": 0.22706118135597111,
"learning_rate": 1.0405737734995083e-05,
"loss": 0.417,
"step": 832
},
{
"epoch": 3.470833333333333,
"grad_norm": 0.248229884622277,
"learning_rate": 1.0354731857886628e-05,
"loss": 0.4268,
"step": 833
},
{
"epoch": 3.475,
"grad_norm": 0.2579919126995357,
"learning_rate": 1.0303807595073262e-05,
"loss": 0.4295,
"step": 834
},
{
"epoch": 3.4791666666666665,
"grad_norm": 0.24699636117410342,
"learning_rate": 1.0252965377455155e-05,
"loss": 0.4367,
"step": 835
},
{
"epoch": 3.4833333333333334,
"grad_norm": 0.28296160575255175,
"learning_rate": 1.0202205635238263e-05,
"loss": 0.4212,
"step": 836
},
{
"epoch": 3.4875,
"grad_norm": 0.253903070062746,
"learning_rate": 1.0151528797930662e-05,
"loss": 0.428,
"step": 837
},
{
"epoch": 3.4916666666666667,
"grad_norm": 0.2678111364930371,
"learning_rate": 1.010093529433892e-05,
"loss": 0.4333,
"step": 838
},
{
"epoch": 3.4958333333333336,
"grad_norm": 0.28569613441522584,
"learning_rate": 1.0050425552564475e-05,
"loss": 0.444,
"step": 839
},
{
"epoch": 3.5,
"grad_norm": 0.2616699443490625,
"learning_rate": 1.0000000000000006e-05,
"loss": 0.4275,
"step": 840
},
{
"epoch": 3.5041666666666664,
"grad_norm": 0.23991683310829567,
"learning_rate": 9.949659063325801e-06,
"loss": 0.4354,
"step": 841
},
{
"epoch": 3.5083333333333333,
"grad_norm": 0.25333441281428676,
"learning_rate": 9.899403168506206e-06,
"loss": 0.425,
"step": 842
},
{
"epoch": 3.5125,
"grad_norm": 0.2583901795256148,
"learning_rate": 9.849232740785923e-06,
"loss": 0.4165,
"step": 843
},
{
"epoch": 3.5166666666666666,
"grad_norm": 0.258766827716537,
"learning_rate": 9.799148204686495e-06,
"loss": 0.4222,
"step": 844
},
{
"epoch": 3.5208333333333335,
"grad_norm": 0.23361767765149088,
"learning_rate": 9.749149984002697e-06,
"loss": 0.4313,
"step": 845
},
{
"epoch": 3.525,
"grad_norm": 0.24494316775289982,
"learning_rate": 9.699238501798916e-06,
"loss": 0.4349,
"step": 846
},
{
"epoch": 3.529166666666667,
"grad_norm": 0.2277772919248126,
"learning_rate": 9.649414180405605e-06,
"loss": 0.4308,
"step": 847
},
{
"epoch": 3.533333333333333,
"grad_norm": 0.23059503527650352,
"learning_rate": 9.599677441415694e-06,
"loss": 0.4305,
"step": 848
},
{
"epoch": 3.5375,
"grad_norm": 0.2437852407069819,
"learning_rate": 9.550028705681024e-06,
"loss": 0.4181,
"step": 849
},
{
"epoch": 3.5416666666666665,
"grad_norm": 0.21980744804832897,
"learning_rate": 9.5004683933088e-06,
"loss": 0.4336,
"step": 850
},
{
"epoch": 3.5458333333333334,
"grad_norm": 0.23586799114244095,
"learning_rate": 9.450996923658011e-06,
"loss": 0.424,
"step": 851
},
{
"epoch": 3.55,
"grad_norm": 0.23101549640713356,
"learning_rate": 9.401614715335905e-06,
"loss": 0.4414,
"step": 852
},
{
"epoch": 3.5541666666666667,
"grad_norm": 0.2543015217067435,
"learning_rate": 9.352322186194434e-06,
"loss": 0.4207,
"step": 853
},
{
"epoch": 3.5583333333333336,
"grad_norm": 0.2474455410573432,
"learning_rate": 9.30311975332672e-06,
"loss": 0.4302,
"step": 854
},
{
"epoch": 3.5625,
"grad_norm": 0.2467040597988035,
"learning_rate": 9.254007833063521e-06,
"loss": 0.4169,
"step": 855
},
{
"epoch": 3.5666666666666664,
"grad_norm": 0.22445148715022797,
"learning_rate": 9.204986840969749e-06,
"loss": 0.4377,
"step": 856
},
{
"epoch": 3.5708333333333333,
"grad_norm": 0.22532670015641615,
"learning_rate": 9.15605719184086e-06,
"loss": 0.4379,
"step": 857
},
{
"epoch": 3.575,
"grad_norm": 0.22679892582526776,
"learning_rate": 9.107219299699459e-06,
"loss": 0.4266,
"step": 858
},
{
"epoch": 3.5791666666666666,
"grad_norm": 0.23628320554221474,
"learning_rate": 9.058473577791708e-06,
"loss": 0.4213,
"step": 859
},
{
"epoch": 3.5833333333333335,
"grad_norm": 0.2469267203793668,
"learning_rate": 9.009820438583881e-06,
"loss": 0.4235,
"step": 860
},
{
"epoch": 3.5875,
"grad_norm": 0.23285142636796569,
"learning_rate": 8.961260293758838e-06,
"loss": 0.4254,
"step": 861
},
{
"epoch": 3.591666666666667,
"grad_norm": 0.2596335466780474,
"learning_rate": 8.912793554212571e-06,
"loss": 0.4277,
"step": 862
},
{
"epoch": 3.595833333333333,
"grad_norm": 0.23540907434240832,
"learning_rate": 8.864420630050713e-06,
"loss": 0.4254,
"step": 863
},
{
"epoch": 3.6,
"grad_norm": 0.24066382679579734,
"learning_rate": 8.816141930585067e-06,
"loss": 0.4348,
"step": 864
},
{
"epoch": 3.6041666666666665,
"grad_norm": 0.24659185351071644,
"learning_rate": 8.767957864330145e-06,
"loss": 0.423,
"step": 865
},
{
"epoch": 3.6083333333333334,
"grad_norm": 0.26254276874801447,
"learning_rate": 8.719868838999717e-06,
"loss": 0.4223,
"step": 866
},
{
"epoch": 3.6125,
"grad_norm": 0.24175527998522886,
"learning_rate": 8.67187526150335e-06,
"loss": 0.4177,
"step": 867
},
{
"epoch": 3.6166666666666667,
"grad_norm": 0.26234486140683905,
"learning_rate": 8.623977537942969e-06,
"loss": 0.432,
"step": 868
},
{
"epoch": 3.6208333333333336,
"grad_norm": 0.25245766823427906,
"learning_rate": 8.576176073609425e-06,
"loss": 0.4222,
"step": 869
},
{
"epoch": 3.625,
"grad_norm": 0.2452184009190872,
"learning_rate": 8.528471272979083e-06,
"loss": 0.4249,
"step": 870
},
{
"epoch": 3.6291666666666664,
"grad_norm": 0.239440094128956,
"learning_rate": 8.480863539710333e-06,
"loss": 0.4339,
"step": 871
},
{
"epoch": 3.6333333333333333,
"grad_norm": 0.24943013686847895,
"learning_rate": 8.43335327664027e-06,
"loss": 0.4245,
"step": 872
},
{
"epoch": 3.6375,
"grad_norm": 0.39400852388150026,
"learning_rate": 8.385940885781205e-06,
"loss": 0.4611,
"step": 873
},
{
"epoch": 3.6416666666666666,
"grad_norm": 0.29124766926499246,
"learning_rate": 8.338626768317306e-06,
"loss": 0.4273,
"step": 874
},
{
"epoch": 3.6458333333333335,
"grad_norm": 0.24491084112074304,
"learning_rate": 8.291411324601191e-06,
"loss": 0.4035,
"step": 875
},
{
"epoch": 3.65,
"grad_norm": 0.2513834105330395,
"learning_rate": 8.24429495415054e-06,
"loss": 0.4294,
"step": 876
},
{
"epoch": 3.654166666666667,
"grad_norm": 0.26844357127395707,
"learning_rate": 8.197278055644715e-06,
"loss": 0.4251,
"step": 877
},
{
"epoch": 3.658333333333333,
"grad_norm": 0.2508877367249821,
"learning_rate": 8.15036102692139e-06,
"loss": 0.4321,
"step": 878
},
{
"epoch": 3.6625,
"grad_norm": 0.24094131399966962,
"learning_rate": 8.103544264973178e-06,
"loss": 0.4295,
"step": 879
},
{
"epoch": 3.6666666666666665,
"grad_norm": 0.2614406740434721,
"learning_rate": 8.056828165944282e-06,
"loss": 0.4304,
"step": 880
},
{
"epoch": 3.6708333333333334,
"grad_norm": 0.23834900075133839,
"learning_rate": 8.010213125127128e-06,
"loss": 0.4192,
"step": 881
},
{
"epoch": 3.675,
"grad_norm": 0.22299294306987325,
"learning_rate": 7.963699536959032e-06,
"loss": 0.4334,
"step": 882
},
{
"epoch": 3.6791666666666667,
"grad_norm": 0.2256000897526422,
"learning_rate": 7.917287795018874e-06,
"loss": 0.4464,
"step": 883
},
{
"epoch": 3.6833333333333336,
"grad_norm": 0.22392205740979662,
"learning_rate": 7.870978292023739e-06,
"loss": 0.4391,
"step": 884
},
{
"epoch": 3.6875,
"grad_norm": 0.23834812496767688,
"learning_rate": 7.824771419825588e-06,
"loss": 0.4327,
"step": 885
},
{
"epoch": 3.6916666666666664,
"grad_norm": 0.2463708325287563,
"learning_rate": 7.778667569408006e-06,
"loss": 0.4364,
"step": 886
},
{
"epoch": 3.6958333333333333,
"grad_norm": 0.21688651846886733,
"learning_rate": 7.732667130882819e-06,
"loss": 0.4414,
"step": 887
},
{
"epoch": 3.7,
"grad_norm": 0.23064416958505793,
"learning_rate": 7.686770493486835e-06,
"loss": 0.4397,
"step": 888
},
{
"epoch": 3.7041666666666666,
"grad_norm": 0.25497031875444703,
"learning_rate": 7.640978045578538e-06,
"loss": 0.4185,
"step": 889
},
{
"epoch": 3.7083333333333335,
"grad_norm": 0.22100035998281425,
"learning_rate": 7.595290174634802e-06,
"loss": 0.4196,
"step": 890
},
{
"epoch": 3.7125,
"grad_norm": 0.22105067844828485,
"learning_rate": 7.549707267247612e-06,
"loss": 0.4223,
"step": 891
},
{
"epoch": 3.716666666666667,
"grad_norm": 0.24503314108692023,
"learning_rate": 7.504229709120801e-06,
"loss": 0.4331,
"step": 892
},
{
"epoch": 3.720833333333333,
"grad_norm": 0.22209625191416615,
"learning_rate": 7.4588578850667634e-06,
"loss": 0.4293,
"step": 893
},
{
"epoch": 3.725,
"grad_norm": 0.24234070134789545,
"learning_rate": 7.413592179003255e-06,
"loss": 0.4328,
"step": 894
},
{
"epoch": 3.7291666666666665,
"grad_norm": 0.2140413352351075,
"learning_rate": 7.368432973950053e-06,
"loss": 0.4374,
"step": 895
},
{
"epoch": 3.7333333333333334,
"grad_norm": 0.23879336084801975,
"learning_rate": 7.323380652025794e-06,
"loss": 0.4214,
"step": 896
},
{
"epoch": 3.7375,
"grad_norm": 0.23592626929402383,
"learning_rate": 7.278435594444719e-06,
"loss": 0.43,
"step": 897
},
{
"epoch": 3.7416666666666667,
"grad_norm": 0.2345359756660939,
"learning_rate": 7.2335981815134415e-06,
"loss": 0.4115,
"step": 898
},
{
"epoch": 3.7458333333333336,
"grad_norm": 0.24922576785520345,
"learning_rate": 7.1888687926276965e-06,
"loss": 0.4338,
"step": 899
},
{
"epoch": 3.75,
"grad_norm": 0.23563712437289872,
"learning_rate": 7.1442478062692135e-06,
"loss": 0.4365,
"step": 900
},
{
"epoch": 3.7541666666666664,
"grad_norm": 0.23204116311133044,
"learning_rate": 7.09973560000244e-06,
"loss": 0.4277,
"step": 901
},
{
"epoch": 3.7583333333333333,
"grad_norm": 0.2500533119033598,
"learning_rate": 7.055332550471354e-06,
"loss": 0.4257,
"step": 902
},
{
"epoch": 3.7625,
"grad_norm": 0.23811588657787597,
"learning_rate": 7.01103903339633e-06,
"loss": 0.4346,
"step": 903
},
{
"epoch": 3.7666666666666666,
"grad_norm": 0.23319149311553752,
"learning_rate": 6.966855423570898e-06,
"loss": 0.4261,
"step": 904
},
{
"epoch": 3.7708333333333335,
"grad_norm": 0.243303595800742,
"learning_rate": 6.922782094858609e-06,
"loss": 0.4227,
"step": 905
},
{
"epoch": 3.775,
"grad_norm": 0.2293147079077228,
"learning_rate": 6.878819420189857e-06,
"loss": 0.4283,
"step": 906
},
{
"epoch": 3.779166666666667,
"grad_norm": 0.24610219555593746,
"learning_rate": 6.834967771558722e-06,
"loss": 0.4268,
"step": 907
},
{
"epoch": 3.783333333333333,
"grad_norm": 0.25544617866033675,
"learning_rate": 6.7912275200198496e-06,
"loss": 0.4179,
"step": 908
},
{
"epoch": 3.7875,
"grad_norm": 0.21822949545272996,
"learning_rate": 6.747599035685255e-06,
"loss": 0.4276,
"step": 909
},
{
"epoch": 3.7916666666666665,
"grad_norm": 0.2258871101267118,
"learning_rate": 6.704082687721243e-06,
"loss": 0.4103,
"step": 910
},
{
"epoch": 3.7958333333333334,
"grad_norm": 0.2298634023122789,
"learning_rate": 6.660678844345276e-06,
"loss": 0.4278,
"step": 911
},
{
"epoch": 3.8,
"grad_norm": 0.22583037467377118,
"learning_rate": 6.617387872822842e-06,
"loss": 0.4394,
"step": 912
},
{
"epoch": 3.8041666666666667,
"grad_norm": 0.231504314682934,
"learning_rate": 6.57421013946433e-06,
"loss": 0.4272,
"step": 913
},
{
"epoch": 3.8083333333333336,
"grad_norm": 0.217721449055829,
"learning_rate": 6.531146009621994e-06,
"loss": 0.4245,
"step": 914
},
{
"epoch": 3.8125,
"grad_norm": 0.24686896945491654,
"learning_rate": 6.488195847686795e-06,
"loss": 0.4293,
"step": 915
},
{
"epoch": 3.8166666666666664,
"grad_norm": 0.24394910830023703,
"learning_rate": 6.445360017085356e-06,
"loss": 0.4271,
"step": 916
},
{
"epoch": 3.8208333333333333,
"grad_norm": 0.22546110556129695,
"learning_rate": 6.402638880276868e-06,
"loss": 0.4181,
"step": 917
},
{
"epoch": 3.825,
"grad_norm": 0.21360331942939714,
"learning_rate": 6.360032798750033e-06,
"loss": 0.4288,
"step": 918
},
{
"epoch": 3.8291666666666666,
"grad_norm": 0.23044679859994988,
"learning_rate": 6.317542133020005e-06,
"loss": 0.4369,
"step": 919
},
{
"epoch": 3.8333333333333335,
"grad_norm": 0.2142549292405246,
"learning_rate": 6.275167242625331e-06,
"loss": 0.4305,
"step": 920
},
{
"epoch": 3.8375,
"grad_norm": 0.23085656291488818,
"learning_rate": 6.232908486124918e-06,
"loss": 0.4298,
"step": 921
},
{
"epoch": 3.841666666666667,
"grad_norm": 0.21895688860005502,
"learning_rate": 6.190766221095013e-06,
"loss": 0.4209,
"step": 922
},
{
"epoch": 3.845833333333333,
"grad_norm": 0.21366531215478982,
"learning_rate": 6.148740804126121e-06,
"loss": 0.4318,
"step": 923
},
{
"epoch": 3.85,
"grad_norm": 0.22258877815977224,
"learning_rate": 6.106832590820053e-06,
"loss": 0.4278,
"step": 924
},
{
"epoch": 3.8541666666666665,
"grad_norm": 0.22089277710807653,
"learning_rate": 6.065041935786906e-06,
"loss": 0.4278,
"step": 925
},
{
"epoch": 3.8583333333333334,
"grad_norm": 0.22319456528557838,
"learning_rate": 6.023369192641999e-06,
"loss": 0.4248,
"step": 926
},
{
"epoch": 3.8625,
"grad_norm": 0.21897558941519973,
"learning_rate": 5.981814714002982e-06,
"loss": 0.43,
"step": 927
},
{
"epoch": 3.8666666666666667,
"grad_norm": 0.21422416122397145,
"learning_rate": 5.940378851486766e-06,
"loss": 0.4237,
"step": 928
},
{
"epoch": 3.8708333333333336,
"grad_norm": 0.21900360541063163,
"learning_rate": 5.899061955706593e-06,
"loss": 0.4277,
"step": 929
},
{
"epoch": 3.875,
"grad_norm": 0.210003067591564,
"learning_rate": 5.857864376269051e-06,
"loss": 0.4254,
"step": 930
},
{
"epoch": 3.8791666666666664,
"grad_norm": 0.22066947148305144,
"learning_rate": 5.816786461771129e-06,
"loss": 0.4413,
"step": 931
},
{
"epoch": 3.8833333333333333,
"grad_norm": 0.21685958637696298,
"learning_rate": 5.7758285597972585e-06,
"loss": 0.419,
"step": 932
},
{
"epoch": 3.8875,
"grad_norm": 0.2060613916060785,
"learning_rate": 5.734991016916372e-06,
"loss": 0.4263,
"step": 933
},
{
"epoch": 3.8916666666666666,
"grad_norm": 0.2162918716912764,
"learning_rate": 5.694274178678973e-06,
"loss": 0.428,
"step": 934
},
{
"epoch": 3.8958333333333335,
"grad_norm": 0.21558418484475533,
"learning_rate": 5.65367838961421e-06,
"loss": 0.4297,
"step": 935
},
{
"epoch": 3.9,
"grad_norm": 0.21814958677433785,
"learning_rate": 5.613203993226981e-06,
"loss": 0.4234,
"step": 936
},
{
"epoch": 3.904166666666667,
"grad_norm": 0.21859762848857897,
"learning_rate": 5.5728513319949725e-06,
"loss": 0.427,
"step": 937
},
{
"epoch": 3.908333333333333,
"grad_norm": 0.22930949993022515,
"learning_rate": 5.53262074736584e-06,
"loss": 0.4224,
"step": 938
},
{
"epoch": 3.9125,
"grad_norm": 0.22615742593623198,
"learning_rate": 5.492512579754252e-06,
"loss": 0.4247,
"step": 939
},
{
"epoch": 3.9166666666666665,
"grad_norm": 0.22731711264029844,
"learning_rate": 5.452527168539026e-06,
"loss": 0.4276,
"step": 940
},
{
"epoch": 3.9208333333333334,
"grad_norm": 0.22227411839471797,
"learning_rate": 5.412664852060294e-06,
"loss": 0.4276,
"step": 941
},
{
"epoch": 3.925,
"grad_norm": 0.220050201248189,
"learning_rate": 5.372925967616591e-06,
"loss": 0.4306,
"step": 942
},
{
"epoch": 3.9291666666666667,
"grad_norm": 0.23910550940898795,
"learning_rate": 5.333310851462026e-06,
"loss": 0.4333,
"step": 943
},
{
"epoch": 3.9333333333333336,
"grad_norm": 0.22964992393684255,
"learning_rate": 5.293819838803429e-06,
"loss": 0.435,
"step": 944
},
{
"epoch": 3.9375,
"grad_norm": 0.2175795175465382,
"learning_rate": 5.254453263797521e-06,
"loss": 0.4233,
"step": 945
},
{
"epoch": 3.9416666666666664,
"grad_norm": 0.22660951988566233,
"learning_rate": 5.215211459548082e-06,
"loss": 0.4266,
"step": 946
},
{
"epoch": 3.9458333333333333,
"grad_norm": 0.21564446999892425,
"learning_rate": 5.17609475810313e-06,
"loss": 0.4168,
"step": 947
},
{
"epoch": 3.95,
"grad_norm": 0.21169356207180387,
"learning_rate": 5.137103490452113e-06,
"loss": 0.4417,
"step": 948
},
{
"epoch": 3.9541666666666666,
"grad_norm": 0.21719735857467676,
"learning_rate": 5.098237986523129e-06,
"loss": 0.4159,
"step": 949
},
{
"epoch": 3.9583333333333335,
"grad_norm": 0.21160534846897155,
"learning_rate": 5.059498575180084e-06,
"loss": 0.4222,
"step": 950
},
{
"epoch": 3.9625,
"grad_norm": 0.2197272683782191,
"learning_rate": 5.0208855842199565e-06,
"loss": 0.4249,
"step": 951
},
{
"epoch": 3.966666666666667,
"grad_norm": 0.223363088864906,
"learning_rate": 4.982399340370017e-06,
"loss": 0.402,
"step": 952
},
{
"epoch": 3.970833333333333,
"grad_norm": 0.21486379212960513,
"learning_rate": 4.944040169285043e-06,
"loss": 0.4386,
"step": 953
},
{
"epoch": 3.975,
"grad_norm": 0.2272666417317846,
"learning_rate": 4.90580839554456e-06,
"loss": 0.4287,
"step": 954
},
{
"epoch": 3.9791666666666665,
"grad_norm": 0.22903404440686784,
"learning_rate": 4.867704342650143e-06,
"loss": 0.4003,
"step": 955
},
{
"epoch": 3.9833333333333334,
"grad_norm": 0.23496766221544205,
"learning_rate": 4.829728333022623e-06,
"loss": 0.4319,
"step": 956
},
{
"epoch": 3.9875,
"grad_norm": 0.21677980128239738,
"learning_rate": 4.791880687999382e-06,
"loss": 0.4149,
"step": 957
},
{
"epoch": 3.9916666666666667,
"grad_norm": 0.21845329270600405,
"learning_rate": 4.754161727831643e-06,
"loss": 0.4033,
"step": 958
},
{
"epoch": 3.9958333333333336,
"grad_norm": 0.23104346223691857,
"learning_rate": 4.716571771681737e-06,
"loss": 0.4175,
"step": 959
},
{
"epoch": 4.0,
"grad_norm": 0.22342631089160764,
"learning_rate": 4.679111137620442e-06,
"loss": 0.4229,
"step": 960
},
{
"epoch": 4.004166666666666,
"grad_norm": 0.32099563972920414,
"learning_rate": 4.641780142624231e-06,
"loss": 0.3881,
"step": 961
},
{
"epoch": 4.008333333333334,
"grad_norm": 0.25218535881654675,
"learning_rate": 4.604579102572641e-06,
"loss": 0.4078,
"step": 962
},
{
"epoch": 4.0125,
"grad_norm": 0.2382490612282618,
"learning_rate": 4.567508332245605e-06,
"loss": 0.4066,
"step": 963
},
{
"epoch": 4.016666666666667,
"grad_norm": 0.28796604902334555,
"learning_rate": 4.530568145320724e-06,
"loss": 0.3988,
"step": 964
},
{
"epoch": 4.020833333333333,
"grad_norm": 0.3224951699224033,
"learning_rate": 4.493758854370682e-06,
"loss": 0.3932,
"step": 965
},
{
"epoch": 4.025,
"grad_norm": 0.2627925858138936,
"learning_rate": 4.4570807708605825e-06,
"loss": 0.3679,
"step": 966
},
{
"epoch": 4.029166666666667,
"grad_norm": 0.28483312358473356,
"learning_rate": 4.420534205145293e-06,
"loss": 0.3851,
"step": 967
},
{
"epoch": 4.033333333333333,
"grad_norm": 0.2806262720150311,
"learning_rate": 4.384119466466816e-06,
"loss": 0.3817,
"step": 968
},
{
"epoch": 4.0375,
"grad_norm": 0.24015412530818528,
"learning_rate": 4.347836862951722e-06,
"loss": 0.3786,
"step": 969
},
{
"epoch": 4.041666666666667,
"grad_norm": 0.23997908525085326,
"learning_rate": 4.311686701608486e-06,
"loss": 0.4043,
"step": 970
},
{
"epoch": 4.045833333333333,
"grad_norm": 0.2621190604739965,
"learning_rate": 4.2756692883249176e-06,
"loss": 0.3808,
"step": 971
},
{
"epoch": 4.05,
"grad_norm": 0.27077743658389225,
"learning_rate": 4.239784927865562e-06,
"loss": 0.3893,
"step": 972
},
{
"epoch": 4.054166666666666,
"grad_norm": 0.226478557440062,
"learning_rate": 4.204033923869135e-06,
"loss": 0.3974,
"step": 973
},
{
"epoch": 4.058333333333334,
"grad_norm": 0.23644580918175637,
"learning_rate": 4.168416578845936e-06,
"loss": 0.3689,
"step": 974
},
{
"epoch": 4.0625,
"grad_norm": 0.2517699959074949,
"learning_rate": 4.132933194175299e-06,
"loss": 0.3874,
"step": 975
},
{
"epoch": 4.066666666666666,
"grad_norm": 0.22938905026855594,
"learning_rate": 4.097584070103042e-06,
"loss": 0.4063,
"step": 976
},
{
"epoch": 4.070833333333334,
"grad_norm": 0.23204661332089185,
"learning_rate": 4.0623695057389415e-06,
"loss": 0.3971,
"step": 977
},
{
"epoch": 4.075,
"grad_norm": 0.23415795910429496,
"learning_rate": 4.027289799054148e-06,
"loss": 0.3813,
"step": 978
},
{
"epoch": 4.079166666666667,
"grad_norm": 0.23826924959135237,
"learning_rate": 3.992345246878726e-06,
"loss": 0.39,
"step": 979
},
{
"epoch": 4.083333333333333,
"grad_norm": 0.24314389100797407,
"learning_rate": 3.957536144899123e-06,
"loss": 0.4023,
"step": 980
},
{
"epoch": 4.0875,
"grad_norm": 0.2358395776669894,
"learning_rate": 3.922862787655654e-06,
"loss": 0.3952,
"step": 981
},
{
"epoch": 4.091666666666667,
"grad_norm": 0.23699744528215083,
"learning_rate": 3.888325468540013e-06,
"loss": 0.3868,
"step": 982
},
{
"epoch": 4.095833333333333,
"grad_norm": 0.22707008440356913,
"learning_rate": 3.853924479792803e-06,
"loss": 0.393,
"step": 983
},
{
"epoch": 4.1,
"grad_norm": 0.23544858725647322,
"learning_rate": 3.819660112501053e-06,
"loss": 0.3889,
"step": 984
},
{
"epoch": 4.104166666666667,
"grad_norm": 0.22519226316896881,
"learning_rate": 3.7855326565957563e-06,
"loss": 0.3945,
"step": 985
},
{
"epoch": 4.108333333333333,
"grad_norm": 0.2331815938886045,
"learning_rate": 3.7515424008494195e-06,
"loss": 0.3921,
"step": 986
},
{
"epoch": 4.1125,
"grad_norm": 0.2343405014370539,
"learning_rate": 3.717689632873618e-06,
"loss": 0.383,
"step": 987
},
{
"epoch": 4.116666666666666,
"grad_norm": 0.22236066121031534,
"learning_rate": 3.683974639116563e-06,
"loss": 0.4101,
"step": 988
},
{
"epoch": 4.120833333333334,
"grad_norm": 0.21787732312760535,
"learning_rate": 3.650397704860673e-06,
"loss": 0.4102,
"step": 989
},
{
"epoch": 4.125,
"grad_norm": 0.22034450231640743,
"learning_rate": 3.616959114220162e-06,
"loss": 0.385,
"step": 990
},
{
"epoch": 4.129166666666666,
"grad_norm": 0.21643950582225363,
"learning_rate": 3.583659150138661e-06,
"loss": 0.381,
"step": 991
},
{
"epoch": 4.133333333333334,
"grad_norm": 0.21379399368418622,
"learning_rate": 3.5504980943867538e-06,
"loss": 0.3873,
"step": 992
},
{
"epoch": 4.1375,
"grad_norm": 0.2257712470531673,
"learning_rate": 3.5174762275596864e-06,
"loss": 0.3894,
"step": 993
},
{
"epoch": 4.141666666666667,
"grad_norm": 0.22737390834729226,
"learning_rate": 3.484593829074918e-06,
"loss": 0.3906,
"step": 994
},
{
"epoch": 4.145833333333333,
"grad_norm": 0.22149731221362098,
"learning_rate": 3.451851177169789e-06,
"loss": 0.4021,
"step": 995
},
{
"epoch": 4.15,
"grad_norm": 0.22723836033248954,
"learning_rate": 3.419248548899168e-06,
"loss": 0.3866,
"step": 996
},
{
"epoch": 4.154166666666667,
"grad_norm": 0.23247761417468857,
"learning_rate": 3.3867862201330916e-06,
"loss": 0.3692,
"step": 997
},
{
"epoch": 4.158333333333333,
"grad_norm": 0.20971614067207828,
"learning_rate": 3.354464465554448e-06,
"loss": 0.3906,
"step": 998
},
{
"epoch": 4.1625,
"grad_norm": 0.22235442240009948,
"learning_rate": 3.3222835586566384e-06,
"loss": 0.3938,
"step": 999
},
{
"epoch": 4.166666666666667,
"grad_norm": 0.21787528828369473,
"learning_rate": 3.290243771741275e-06,
"loss": 0.3988,
"step": 1000
},
{
"epoch": 4.170833333333333,
"grad_norm": 0.2267628934757855,
"learning_rate": 3.2583453759158634e-06,
"loss": 0.3951,
"step": 1001
},
{
"epoch": 4.175,
"grad_norm": 0.20988780404069562,
"learning_rate": 3.2265886410915214e-06,
"loss": 0.3935,
"step": 1002
},
{
"epoch": 4.179166666666666,
"grad_norm": 0.2272042353627666,
"learning_rate": 3.1949738359806905e-06,
"loss": 0.3829,
"step": 1003
},
{
"epoch": 4.183333333333334,
"grad_norm": 0.21976659742361207,
"learning_rate": 3.1635012280948496e-06,
"loss": 0.3947,
"step": 1004
},
{
"epoch": 4.1875,
"grad_norm": 0.21095624430703588,
"learning_rate": 3.13217108374229e-06,
"loss": 0.4171,
"step": 1005
},
{
"epoch": 4.191666666666666,
"grad_norm": 0.21399379180371467,
"learning_rate": 3.1009836680257965e-06,
"loss": 0.3934,
"step": 1006
},
{
"epoch": 4.195833333333334,
"grad_norm": 0.21481261956534103,
"learning_rate": 3.0699392448404787e-06,
"loss": 0.3857,
"step": 1007
},
{
"epoch": 4.2,
"grad_norm": 0.22887690984784917,
"learning_rate": 3.039038076871481e-06,
"loss": 0.3959,
"step": 1008
},
{
"epoch": 4.204166666666667,
"grad_norm": 0.21527551915593382,
"learning_rate": 3.00828042559179e-06,
"loss": 0.3966,
"step": 1009
},
{
"epoch": 4.208333333333333,
"grad_norm": 0.2154608675883479,
"learning_rate": 2.9776665512600054e-06,
"loss": 0.397,
"step": 1010
},
{
"epoch": 4.2125,
"grad_norm": 0.21165402376707582,
"learning_rate": 2.947196712918157e-06,
"loss": 0.397,
"step": 1011
},
{
"epoch": 4.216666666666667,
"grad_norm": 0.22067807108484216,
"learning_rate": 2.9168711683894903e-06,
"loss": 0.3964,
"step": 1012
},
{
"epoch": 4.220833333333333,
"grad_norm": 0.2358786614780987,
"learning_rate": 2.886690174276301e-06,
"loss": 0.3973,
"step": 1013
},
{
"epoch": 4.225,
"grad_norm": 0.2173598996607937,
"learning_rate": 2.8566539859577558e-06,
"loss": 0.3999,
"step": 1014
},
{
"epoch": 4.229166666666667,
"grad_norm": 0.21150679969144226,
"learning_rate": 2.8267628575877414e-06,
"loss": 0.3836,
"step": 1015
},
{
"epoch": 4.233333333333333,
"grad_norm": 0.22343466713449373,
"learning_rate": 2.7970170420926957e-06,
"loss": 0.3838,
"step": 1016
},
{
"epoch": 4.2375,
"grad_norm": 0.22243030164068567,
"learning_rate": 2.7674167911694837e-06,
"loss": 0.3882,
"step": 1017
},
{
"epoch": 4.241666666666666,
"grad_norm": 0.2312325216447369,
"learning_rate": 2.737962355283272e-06,
"loss": 0.3927,
"step": 1018
},
{
"epoch": 4.245833333333334,
"grad_norm": 0.21670440623185597,
"learning_rate": 2.7086539836653923e-06,
"loss": 0.398,
"step": 1019
},
{
"epoch": 4.25,
"grad_norm": 0.21710913582363692,
"learning_rate": 2.679491924311226e-06,
"loss": 0.3984,
"step": 1020
},
{
"epoch": 4.254166666666666,
"grad_norm": 0.22568166353478622,
"learning_rate": 2.65047642397815e-06,
"loss": 0.3887,
"step": 1021
},
{
"epoch": 4.258333333333334,
"grad_norm": 0.2139020280225805,
"learning_rate": 2.6216077281833976e-06,
"loss": 0.3893,
"step": 1022
},
{
"epoch": 4.2625,
"grad_norm": 0.21261695437241654,
"learning_rate": 2.5928860812020063e-06,
"loss": 0.3929,
"step": 1023
},
{
"epoch": 4.266666666666667,
"grad_norm": 0.2052973230937153,
"learning_rate": 2.564311726064754e-06,
"loss": 0.3846,
"step": 1024
},
{
"epoch": 4.270833333333333,
"grad_norm": 0.21592919820852863,
"learning_rate": 2.535884904556085e-06,
"loss": 0.3758,
"step": 1025
},
{
"epoch": 4.275,
"grad_norm": 0.22277092529351133,
"learning_rate": 2.5076058572120855e-06,
"loss": 0.3927,
"step": 1026
},
{
"epoch": 4.279166666666667,
"grad_norm": 0.21609789902866755,
"learning_rate": 2.4794748233184285e-06,
"loss": 0.3877,
"step": 1027
},
{
"epoch": 4.283333333333333,
"grad_norm": 0.2241692121126774,
"learning_rate": 2.4514920409083586e-06,
"loss": 0.3892,
"step": 1028
},
{
"epoch": 4.2875,
"grad_norm": 0.21983550359330953,
"learning_rate": 2.423657746760695e-06,
"loss": 0.3848,
"step": 1029
},
{
"epoch": 4.291666666666667,
"grad_norm": 0.2084715463094627,
"learning_rate": 2.3959721763977805e-06,
"loss": 0.4155,
"step": 1030
},
{
"epoch": 4.295833333333333,
"grad_norm": 0.21810353545912545,
"learning_rate": 2.3684355640835334e-06,
"loss": 0.3843,
"step": 1031
},
{
"epoch": 4.3,
"grad_norm": 0.21909939505718,
"learning_rate": 2.3410481428214602e-06,
"loss": 0.3884,
"step": 1032
},
{
"epoch": 4.304166666666666,
"grad_norm": 0.22305255373823385,
"learning_rate": 2.313810144352664e-06,
"loss": 0.3806,
"step": 1033
},
{
"epoch": 4.308333333333334,
"grad_norm": 0.21399493848562365,
"learning_rate": 2.2867217991538793e-06,
"loss": 0.3886,
"step": 1034
},
{
"epoch": 4.3125,
"grad_norm": 0.22139692881508155,
"learning_rate": 2.259783336435566e-06,
"loss": 0.3943,
"step": 1035
},
{
"epoch": 4.316666666666666,
"grad_norm": 0.22110568056896807,
"learning_rate": 2.2329949841399223e-06,
"loss": 0.3876,
"step": 1036
},
{
"epoch": 4.320833333333334,
"grad_norm": 0.2192791391563689,
"learning_rate": 2.206356968938965e-06,
"loss": 0.3901,
"step": 1037
},
{
"epoch": 4.325,
"grad_norm": 0.22086408115831563,
"learning_rate": 2.1798695162326444e-06,
"loss": 0.3963,
"step": 1038
},
{
"epoch": 4.329166666666667,
"grad_norm": 0.21376558371836413,
"learning_rate": 2.1535328501468935e-06,
"loss": 0.3935,
"step": 1039
},
{
"epoch": 4.333333333333333,
"grad_norm": 0.20388552790911735,
"learning_rate": 2.127347193531757e-06,
"loss": 0.4077,
"step": 1040
},
{
"epoch": 4.3375,
"grad_norm": 0.21740059155182548,
"learning_rate": 2.1013127679595002e-06,
"loss": 0.395,
"step": 1041
},
{
"epoch": 4.341666666666667,
"grad_norm": 0.212638977373075,
"learning_rate": 2.0754297937227317e-06,
"loss": 0.3948,
"step": 1042
},
{
"epoch": 4.345833333333333,
"grad_norm": 0.20432801583148202,
"learning_rate": 2.04969848983255e-06,
"loss": 0.4002,
"step": 1043
},
{
"epoch": 4.35,
"grad_norm": 0.20105838367708312,
"learning_rate": 2.024119074016664e-06,
"loss": 0.3981,
"step": 1044
},
{
"epoch": 4.354166666666667,
"grad_norm": 0.20591122191976494,
"learning_rate": 1.998691762717577e-06,
"loss": 0.3999,
"step": 1045
},
{
"epoch": 4.358333333333333,
"grad_norm": 0.21007702037482343,
"learning_rate": 1.973416771090755e-06,
"loss": 0.3878,
"step": 1046
},
{
"epoch": 4.3625,
"grad_norm": 0.21965241039293862,
"learning_rate": 1.948294313002792e-06,
"loss": 0.3888,
"step": 1047
},
{
"epoch": 4.366666666666666,
"grad_norm": 0.20871328585848617,
"learning_rate": 1.9233246010295903e-06,
"loss": 0.3849,
"step": 1048
},
{
"epoch": 4.370833333333334,
"grad_norm": 0.22344246010872826,
"learning_rate": 1.8985078464546002e-06,
"loss": 0.3745,
"step": 1049
},
{
"epoch": 4.375,
"grad_norm": 0.21888618878255753,
"learning_rate": 1.8738442592670014e-06,
"loss": 0.3843,
"step": 1050
},
{
"epoch": 4.379166666666666,
"grad_norm": 0.20645694980867452,
"learning_rate": 1.8493340481599275e-06,
"loss": 0.3816,
"step": 1051
},
{
"epoch": 4.383333333333334,
"grad_norm": 0.20886523332501278,
"learning_rate": 1.8249774205287151e-06,
"loss": 0.3805,
"step": 1052
},
{
"epoch": 4.3875,
"grad_norm": 0.21299747624517915,
"learning_rate": 1.800774582469138e-06,
"loss": 0.3851,
"step": 1053
},
{
"epoch": 4.391666666666667,
"grad_norm": 0.2101030130754341,
"learning_rate": 1.7767257387756599e-06,
"loss": 0.4012,
"step": 1054
},
{
"epoch": 4.395833333333333,
"grad_norm": 0.2084000285475629,
"learning_rate": 1.7528310929397196e-06,
"loss": 0.3834,
"step": 1055
},
{
"epoch": 4.4,
"grad_norm": 0.20310838723566754,
"learning_rate": 1.7290908471479805e-06,
"loss": 0.3883,
"step": 1056
},
{
"epoch": 4.404166666666667,
"grad_norm": 0.20641426226550538,
"learning_rate": 1.7055052022806595e-06,
"loss": 0.3889,
"step": 1057
},
{
"epoch": 4.408333333333333,
"grad_norm": 0.20716143550372132,
"learning_rate": 1.682074357909782e-06,
"loss": 0.3762,
"step": 1058
},
{
"epoch": 4.4125,
"grad_norm": 0.20650503280054486,
"learning_rate": 1.6587985122975193e-06,
"loss": 0.3817,
"step": 1059
},
{
"epoch": 4.416666666666667,
"grad_norm": 0.2061135382309316,
"learning_rate": 1.6356778623945223e-06,
"loss": 0.384,
"step": 1060
},
{
"epoch": 4.420833333333333,
"grad_norm": 0.19625695351801264,
"learning_rate": 1.612712603838218e-06,
"loss": 0.3908,
"step": 1061
},
{
"epoch": 4.425,
"grad_norm": 0.22603414259689372,
"learning_rate": 1.5899029309511926e-06,
"loss": 0.3861,
"step": 1062
},
{
"epoch": 4.429166666666666,
"grad_norm": 0.20502145009105738,
"learning_rate": 1.5672490367395244e-06,
"loss": 0.3828,
"step": 1063
},
{
"epoch": 4.433333333333334,
"grad_norm": 0.20667781053884668,
"learning_rate": 1.5447511128911542e-06,
"loss": 0.4043,
"step": 1064
},
{
"epoch": 4.4375,
"grad_norm": 0.21931277278673314,
"learning_rate": 1.5224093497742654e-06,
"loss": 0.3782,
"step": 1065
},
{
"epoch": 4.441666666666666,
"grad_norm": 0.20661232798322296,
"learning_rate": 1.5002239364356784e-06,
"loss": 0.3973,
"step": 1066
},
{
"epoch": 4.445833333333334,
"grad_norm": 0.20561646814251938,
"learning_rate": 1.4781950605992434e-06,
"loss": 0.3862,
"step": 1067
},
{
"epoch": 4.45,
"grad_norm": 0.20709387122468778,
"learning_rate": 1.4563229086642538e-06,
"loss": 0.3909,
"step": 1068
},
{
"epoch": 4.454166666666667,
"grad_norm": 0.20894230163276878,
"learning_rate": 1.4346076657038689e-06,
"loss": 0.3883,
"step": 1069
},
{
"epoch": 4.458333333333333,
"grad_norm": 0.2138093730895906,
"learning_rate": 1.4130495154635494e-06,
"loss": 0.3832,
"step": 1070
},
{
"epoch": 4.4625,
"grad_norm": 0.21495693996906673,
"learning_rate": 1.3916486403595108e-06,
"loss": 0.3681,
"step": 1071
},
{
"epoch": 4.466666666666667,
"grad_norm": 0.20257256679051186,
"learning_rate": 1.3704052214771513e-06,
"loss": 0.3782,
"step": 1072
},
{
"epoch": 4.470833333333333,
"grad_norm": 0.20124849268912157,
"learning_rate": 1.3493194385695608e-06,
"loss": 0.3876,
"step": 1073
},
{
"epoch": 4.475,
"grad_norm": 0.212851429442179,
"learning_rate": 1.3283914700559675e-06,
"loss": 0.3909,
"step": 1074
},
{
"epoch": 4.479166666666667,
"grad_norm": 0.21873572396661103,
"learning_rate": 1.3076214930202324e-06,
"loss": 0.3777,
"step": 1075
},
{
"epoch": 4.483333333333333,
"grad_norm": 0.2041131837033637,
"learning_rate": 1.2870096832093726e-06,
"loss": 0.3833,
"step": 1076
},
{
"epoch": 4.4875,
"grad_norm": 0.2088455027749406,
"learning_rate": 1.2665562150320487e-06,
"loss": 0.3909,
"step": 1077
},
{
"epoch": 4.491666666666666,
"grad_norm": 0.20515071811952848,
"learning_rate": 1.2462612615571046e-06,
"loss": 0.4034,
"step": 1078
},
{
"epoch": 4.495833333333334,
"grad_norm": 0.20549966734220215,
"learning_rate": 1.2261249945120922e-06,
"loss": 0.3979,
"step": 1079
},
{
"epoch": 4.5,
"grad_norm": 0.25504437848899186,
"learning_rate": 1.2061475842818337e-06,
"loss": 0.4179,
"step": 1080
},
{
"epoch": 4.504166666666666,
"grad_norm": 0.21497318054578451,
"learning_rate": 1.1863291999069592e-06,
"loss": 0.3716,
"step": 1081
},
{
"epoch": 4.508333333333333,
"grad_norm": 0.20380853760441292,
"learning_rate": 1.1666700090824956e-06,
"loss": 0.388,
"step": 1082
},
{
"epoch": 4.5125,
"grad_norm": 0.19834027441431143,
"learning_rate": 1.1471701781564316e-06,
"loss": 0.3931,
"step": 1083
},
{
"epoch": 4.516666666666667,
"grad_norm": 0.20911548672338867,
"learning_rate": 1.12782987212833e-06,
"loss": 0.3958,
"step": 1084
},
{
"epoch": 4.520833333333333,
"grad_norm": 0.2012388741839505,
"learning_rate": 1.1086492546479065e-06,
"loss": 0.3921,
"step": 1085
},
{
"epoch": 4.525,
"grad_norm": 0.2079229548369675,
"learning_rate": 1.0896284880136632e-06,
"loss": 0.3716,
"step": 1086
},
{
"epoch": 4.529166666666667,
"grad_norm": 0.20424381766082045,
"learning_rate": 1.070767733171514e-06,
"loss": 0.3964,
"step": 1087
},
{
"epoch": 4.533333333333333,
"grad_norm": 0.21255632877710418,
"learning_rate": 1.052067149713416e-06,
"loss": 0.3982,
"step": 1088
},
{
"epoch": 4.5375,
"grad_norm": 0.20434569177173742,
"learning_rate": 1.0335268958760135e-06,
"loss": 0.3895,
"step": 1089
},
{
"epoch": 4.541666666666667,
"grad_norm": 0.18798901633494672,
"learning_rate": 1.0151471285393223e-06,
"loss": 0.3962,
"step": 1090
},
{
"epoch": 4.545833333333333,
"grad_norm": 0.1936049963564169,
"learning_rate": 9.96928003225377e-07,
"loss": 0.4045,
"step": 1091
},
{
"epoch": 4.55,
"grad_norm": 0.20203295728983378,
"learning_rate": 9.788696740969295e-07,
"loss": 0.3936,
"step": 1092
},
{
"epoch": 4.554166666666667,
"grad_norm": 0.21075047963997542,
"learning_rate": 9.609722939561373e-07,
"loss": 0.4077,
"step": 1093
},
{
"epoch": 4.558333333333334,
"grad_norm": 0.20025213485931265,
"learning_rate": 9.432360142432761e-07,
"loss": 0.3984,
"step": 1094
},
{
"epoch": 4.5625,
"grad_norm": 0.20861624138450827,
"learning_rate": 9.256609850354636e-07,
"loss": 0.385,
"step": 1095
},
{
"epoch": 4.566666666666666,
"grad_norm": 0.1986348913181751,
"learning_rate": 9.082473550453619e-07,
"loss": 0.3945,
"step": 1096
},
{
"epoch": 4.570833333333333,
"grad_norm": 0.2040299883665947,
"learning_rate": 8.909952716199566e-07,
"loss": 0.3908,
"step": 1097
},
{
"epoch": 4.575,
"grad_norm": 0.20925989787685903,
"learning_rate": 8.739048807392913e-07,
"loss": 0.3889,
"step": 1098
},
{
"epoch": 4.579166666666667,
"grad_norm": 0.21260259806578902,
"learning_rate": 8.569763270152265e-07,
"loss": 0.3844,
"step": 1099
},
{
"epoch": 4.583333333333333,
"grad_norm": 0.1999448636556535,
"learning_rate": 8.402097536902221e-07,
"loss": 0.3863,
"step": 1100
},
{
"epoch": 4.5875,
"grad_norm": 0.21406689943428772,
"learning_rate": 8.23605302636139e-07,
"loss": 0.382,
"step": 1101
},
{
"epoch": 4.591666666666667,
"grad_norm": 0.20643842033200374,
"learning_rate": 8.071631143530178e-07,
"loss": 0.3861,
"step": 1102
},
{
"epoch": 4.595833333333333,
"grad_norm": 0.21371253059525183,
"learning_rate": 7.908833279678885e-07,
"loss": 0.3838,
"step": 1103
},
{
"epoch": 4.6,
"grad_norm": 0.19898835007608578,
"learning_rate": 7.747660812336221e-07,
"loss": 0.4004,
"step": 1104
},
{
"epoch": 4.604166666666667,
"grad_norm": 0.2178163266712195,
"learning_rate": 7.588115105277372e-07,
"loss": 0.3785,
"step": 1105
},
{
"epoch": 4.608333333333333,
"grad_norm": 0.2071669502158122,
"learning_rate": 7.430197508512482e-07,
"loss": 0.384,
"step": 1106
},
{
"epoch": 4.6125,
"grad_norm": 0.21176605958557895,
"learning_rate": 7.273909358275411e-07,
"loss": 0.381,
"step": 1107
},
{
"epoch": 4.616666666666667,
"grad_norm": 0.2095391326166993,
"learning_rate": 7.11925197701222e-07,
"loss": 0.3796,
"step": 1108
},
{
"epoch": 4.620833333333334,
"grad_norm": 0.20430319127354743,
"learning_rate": 6.966226673370125e-07,
"loss": 0.3811,
"step": 1109
},
{
"epoch": 4.625,
"grad_norm": 0.1993122226870442,
"learning_rate": 6.814834742186361e-07,
"loss": 0.3971,
"step": 1110
},
{
"epoch": 4.629166666666666,
"grad_norm": 0.21274137971906087,
"learning_rate": 6.665077464477198e-07,
"loss": 0.381,
"step": 1111
},
{
"epoch": 4.633333333333333,
"grad_norm": 0.2045319580112074,
"learning_rate": 6.516956107427241e-07,
"loss": 0.4016,
"step": 1112
},
{
"epoch": 4.6375,
"grad_norm": 0.209883369872557,
"learning_rate": 6.370471924378474e-07,
"loss": 0.3776,
"step": 1113
},
{
"epoch": 4.641666666666667,
"grad_norm": 0.1974962395249034,
"learning_rate": 6.225626154819852e-07,
"loss": 0.3808,
"step": 1114
},
{
"epoch": 4.645833333333333,
"grad_norm": 0.1953773456186481,
"learning_rate": 6.082420024376801e-07,
"loss": 0.397,
"step": 1115
},
{
"epoch": 4.65,
"grad_norm": 0.1989701101330788,
"learning_rate": 5.940854744800706e-07,
"loss": 0.3919,
"step": 1116
},
{
"epoch": 4.654166666666667,
"grad_norm": 0.1847503976930448,
"learning_rate": 5.800931513958796e-07,
"loss": 0.4142,
"step": 1117
},
{
"epoch": 4.658333333333333,
"grad_norm": 0.22025459641944659,
"learning_rate": 5.66265151582397e-07,
"loss": 0.3872,
"step": 1118
},
{
"epoch": 4.6625,
"grad_norm": 0.19558599631116597,
"learning_rate": 5.526015920464689e-07,
"loss": 0.4013,
"step": 1119
},
{
"epoch": 4.666666666666667,
"grad_norm": 0.2117082081755805,
"learning_rate": 5.391025884035239e-07,
"loss": 0.3826,
"step": 1120
},
{
"epoch": 4.670833333333333,
"grad_norm": 0.19995363575332048,
"learning_rate": 5.257682548765841e-07,
"loss": 0.3813,
"step": 1121
},
{
"epoch": 4.675,
"grad_norm": 0.20626949875404163,
"learning_rate": 5.125987042952973e-07,
"loss": 0.3879,
"step": 1122
},
{
"epoch": 4.679166666666667,
"grad_norm": 0.2119702885500929,
"learning_rate": 4.99594048094989e-07,
"loss": 0.3768,
"step": 1123
},
{
"epoch": 4.683333333333334,
"grad_norm": 0.1917072830112516,
"learning_rate": 4.867543963157162e-07,
"loss": 0.4001,
"step": 1124
},
{
"epoch": 4.6875,
"grad_norm": 0.26874753769966464,
"learning_rate": 4.740798576013328e-07,
"loss": 0.398,
"step": 1125
},
{
"epoch": 4.691666666666666,
"grad_norm": 0.20128968969089236,
"learning_rate": 4.615705391985814e-07,
"loss": 0.3934,
"step": 1126
},
{
"epoch": 4.695833333333333,
"grad_norm": 0.19269748187606345,
"learning_rate": 4.492265469561696e-07,
"loss": 0.3996,
"step": 1127
},
{
"epoch": 4.7,
"grad_norm": 0.2064375540922556,
"learning_rate": 4.3704798532388624e-07,
"loss": 0.3907,
"step": 1128
},
{
"epoch": 4.704166666666667,
"grad_norm": 0.20691554687976574,
"learning_rate": 4.2503495735171987e-07,
"loss": 0.4026,
"step": 1129
},
{
"epoch": 4.708333333333333,
"grad_norm": 0.20822981358466697,
"learning_rate": 4.1318756468897047e-07,
"loss": 0.3891,
"step": 1130
},
{
"epoch": 4.7125,
"grad_norm": 0.20897013043342189,
"learning_rate": 4.0150590758340826e-07,
"loss": 0.3795,
"step": 1131
},
{
"epoch": 4.716666666666667,
"grad_norm": 0.1968064393363428,
"learning_rate": 3.899900848804139e-07,
"loss": 0.383,
"step": 1132
},
{
"epoch": 4.720833333333333,
"grad_norm": 0.20907077481732236,
"learning_rate": 3.7864019402214845e-07,
"loss": 0.3852,
"step": 1133
},
{
"epoch": 4.725,
"grad_norm": 0.20181098073312845,
"learning_rate": 3.674563310467205e-07,
"loss": 0.3958,
"step": 1134
},
{
"epoch": 4.729166666666667,
"grad_norm": 0.19666844511533138,
"learning_rate": 3.5643859058738686e-07,
"loss": 0.4072,
"step": 1135
},
{
"epoch": 4.733333333333333,
"grad_norm": 0.21497564996763077,
"learning_rate": 3.455870658717353e-07,
"loss": 0.3698,
"step": 1136
},
{
"epoch": 4.7375,
"grad_norm": 0.20684729753862982,
"learning_rate": 3.349018487209099e-07,
"loss": 0.3898,
"step": 1137
},
{
"epoch": 4.741666666666667,
"grad_norm": 0.20865385580669296,
"learning_rate": 3.2438302954882486e-07,
"loss": 0.3901,
"step": 1138
},
{
"epoch": 4.745833333333334,
"grad_norm": 0.19782644507072714,
"learning_rate": 3.1403069736140715e-07,
"loss": 0.3812,
"step": 1139
},
{
"epoch": 4.75,
"grad_norm": 0.19833433006240347,
"learning_rate": 3.038449397558396e-07,
"loss": 0.3938,
"step": 1140
},
{
"epoch": 4.754166666666666,
"grad_norm": 0.20925531033059472,
"learning_rate": 2.9382584291981265e-07,
"loss": 0.4035,
"step": 1141
},
{
"epoch": 4.758333333333333,
"grad_norm": 0.19412494052968784,
"learning_rate": 2.839734916308068e-07,
"loss": 0.3984,
"step": 1142
},
{
"epoch": 4.7625,
"grad_norm": 0.20482762766790866,
"learning_rate": 2.7428796925537127e-07,
"loss": 0.3836,
"step": 1143
},
{
"epoch": 4.766666666666667,
"grad_norm": 0.21061627000621963,
"learning_rate": 2.647693577484156e-07,
"loss": 0.3972,
"step": 1144
},
{
"epoch": 4.770833333333333,
"grad_norm": 0.19599019840579426,
"learning_rate": 2.554177376525191e-07,
"loss": 0.3904,
"step": 1145
},
{
"epoch": 4.775,
"grad_norm": 0.19316239172992322,
"learning_rate": 2.462331880972468e-07,
"loss": 0.3911,
"step": 1146
},
{
"epoch": 4.779166666666667,
"grad_norm": 0.19835247649994242,
"learning_rate": 2.3721578679848146e-07,
"loss": 0.3998,
"step": 1147
},
{
"epoch": 4.783333333333333,
"grad_norm": 0.20298068455378282,
"learning_rate": 2.2836561005776803e-07,
"loss": 0.3965,
"step": 1148
},
{
"epoch": 4.7875,
"grad_norm": 0.20252255197368563,
"learning_rate": 2.1968273276166352e-07,
"loss": 0.3813,
"step": 1149
},
{
"epoch": 4.791666666666667,
"grad_norm": 0.19602812185693308,
"learning_rate": 2.111672283811106e-07,
"loss": 0.4015,
"step": 1150
},
{
"epoch": 4.795833333333333,
"grad_norm": 0.19757644835561847,
"learning_rate": 2.0281916897080477e-07,
"loss": 0.3849,
"step": 1151
},
{
"epoch": 4.8,
"grad_norm": 0.20288132300797618,
"learning_rate": 1.9463862516859277e-07,
"loss": 0.399,
"step": 1152
},
{
"epoch": 4.804166666666667,
"grad_norm": 0.19453468645995778,
"learning_rate": 1.8662566619487954e-07,
"loss": 0.4107,
"step": 1153
},
{
"epoch": 4.808333333333334,
"grad_norm": 0.21201523746540965,
"learning_rate": 1.7878035985202657e-07,
"loss": 0.39,
"step": 1154
},
{
"epoch": 4.8125,
"grad_norm": 0.19081726845878005,
"learning_rate": 1.7110277252379238e-07,
"loss": 0.4039,
"step": 1155
},
{
"epoch": 4.816666666666666,
"grad_norm": 0.20237658844604547,
"learning_rate": 1.6359296917476619e-07,
"loss": 0.3935,
"step": 1156
},
{
"epoch": 4.820833333333333,
"grad_norm": 0.2184959014302634,
"learning_rate": 1.5625101334981742e-07,
"loss": 0.3855,
"step": 1157
},
{
"epoch": 4.825,
"grad_norm": 0.20778549428603435,
"learning_rate": 1.4907696717356035e-07,
"loss": 0.3853,
"step": 1158
},
{
"epoch": 4.829166666666667,
"grad_norm": 0.19149205793816979,
"learning_rate": 1.4207089134982143e-07,
"loss": 0.3882,
"step": 1159
},
{
"epoch": 4.833333333333333,
"grad_norm": 0.20518165977415728,
"learning_rate": 1.3523284516113955e-07,
"loss": 0.384,
"step": 1160
},
{
"epoch": 4.8375,
"grad_norm": 0.19504892497211884,
"learning_rate": 1.2856288646825087e-07,
"loss": 0.3811,
"step": 1161
},
{
"epoch": 4.841666666666667,
"grad_norm": 0.203712165452829,
"learning_rate": 1.2206107170960046e-07,
"loss": 0.3898,
"step": 1162
},
{
"epoch": 4.845833333333333,
"grad_norm": 0.1959107836796987,
"learning_rate": 1.1572745590087586e-07,
"loss": 0.3892,
"step": 1163
},
{
"epoch": 4.85,
"grad_norm": 0.1932746680712934,
"learning_rate": 1.0956209263453421e-07,
"loss": 0.3982,
"step": 1164
},
{
"epoch": 4.854166666666667,
"grad_norm": 0.1942598007482467,
"learning_rate": 1.0356503407934038e-07,
"loss": 0.3941,
"step": 1165
},
{
"epoch": 4.858333333333333,
"grad_norm": 0.19547774310726718,
"learning_rate": 9.77363309799384e-08,
"loss": 0.3991,
"step": 1166
},
{
"epoch": 4.8625,
"grad_norm": 0.2069145818345087,
"learning_rate": 9.207603265642296e-08,
"loss": 0.3826,
"step": 1167
},
{
"epoch": 4.866666666666667,
"grad_norm": 0.19859952239582304,
"learning_rate": 8.658418700391302e-08,
"loss": 0.3966,
"step": 1168
},
{
"epoch": 4.870833333333334,
"grad_norm": 0.2002877890108048,
"learning_rate": 8.126084049214334e-08,
"loss": 0.3961,
"step": 1169
},
{
"epoch": 4.875,
"grad_norm": 0.1994720798464499,
"learning_rate": 7.61060381650891e-08,
"loss": 0.3845,
"step": 1170
},
{
"epoch": 4.879166666666666,
"grad_norm": 0.2021687724899969,
"learning_rate": 7.111982364056857e-08,
"loss": 0.3805,
"step": 1171
},
{
"epoch": 4.883333333333333,
"grad_norm": 0.19145575266553533,
"learning_rate": 6.630223910987887e-08,
"loss": 0.3994,
"step": 1172
},
{
"epoch": 4.8875,
"grad_norm": 0.2062532325132557,
"learning_rate": 6.165332533744072e-08,
"loss": 0.3735,
"step": 1173
},
{
"epoch": 4.891666666666667,
"grad_norm": 0.19814071565964073,
"learning_rate": 5.717312166045208e-08,
"loss": 0.4078,
"step": 1174
},
{
"epoch": 4.895833333333333,
"grad_norm": 0.19071689046769358,
"learning_rate": 5.286166598855502e-08,
"loss": 0.4021,
"step": 1175
},
{
"epoch": 4.9,
"grad_norm": 0.19930971556082247,
"learning_rate": 4.871899480351605e-08,
"loss": 0.3907,
"step": 1176
},
{
"epoch": 4.904166666666667,
"grad_norm": 0.19832556680555688,
"learning_rate": 4.474514315891299e-08,
"loss": 0.4049,
"step": 1177
},
{
"epoch": 4.908333333333333,
"grad_norm": 0.1901957292417606,
"learning_rate": 4.0940144679852963e-08,
"loss": 0.3998,
"step": 1178
},
{
"epoch": 4.9125,
"grad_norm": 0.2064164716597623,
"learning_rate": 3.73040315626616e-08,
"loss": 0.3884,
"step": 1179
},
{
"epoch": 4.916666666666667,
"grad_norm": 0.1931001665012475,
"learning_rate": 3.383683457463649e-08,
"loss": 0.4044,
"step": 1180
},
{
"epoch": 4.920833333333333,
"grad_norm": 0.1903418187956716,
"learning_rate": 3.053858305377411e-08,
"loss": 0.3987,
"step": 1181
},
{
"epoch": 4.925,
"grad_norm": 0.1939799623343075,
"learning_rate": 2.740930490852334e-08,
"loss": 0.3925,
"step": 1182
},
{
"epoch": 4.929166666666667,
"grad_norm": 0.19189458642729995,
"learning_rate": 2.4449026617547887e-08,
"loss": 0.4001,
"step": 1183
},
{
"epoch": 4.933333333333334,
"grad_norm": 0.20218100414574042,
"learning_rate": 2.1657773229508684e-08,
"loss": 0.3888,
"step": 1184
},
{
"epoch": 4.9375,
"grad_norm": 0.20461781766636453,
"learning_rate": 1.9035568362844037e-08,
"loss": 0.3909,
"step": 1185
},
{
"epoch": 4.941666666666666,
"grad_norm": 0.18999406466543975,
"learning_rate": 1.658243420557426e-08,
"loss": 0.4057,
"step": 1186
},
{
"epoch": 4.945833333333333,
"grad_norm": 0.20130098863174897,
"learning_rate": 1.42983915151107e-08,
"loss": 0.3865,
"step": 1187
},
{
"epoch": 4.95,
"grad_norm": 0.198222739286373,
"learning_rate": 1.2183459618084759e-08,
"loss": 0.3896,
"step": 1188
},
{
"epoch": 4.954166666666667,
"grad_norm": 0.20258128719704255,
"learning_rate": 1.0237656410181374e-08,
"loss": 0.3893,
"step": 1189
},
{
"epoch": 4.958333333333333,
"grad_norm": 0.18787114374679498,
"learning_rate": 8.460998355988014e-09,
"loss": 0.4016,
"step": 1190
},
{
"epoch": 4.9625,
"grad_norm": 0.19551146693242125,
"learning_rate": 6.853500488854803e-09,
"loss": 0.3937,
"step": 1191
},
{
"epoch": 4.966666666666667,
"grad_norm": 0.19986871599429382,
"learning_rate": 5.415176410765721e-09,
"loss": 0.3893,
"step": 1192
},
{
"epoch": 4.970833333333333,
"grad_norm": 0.1938529642818471,
"learning_rate": 4.1460382922320355e-09,
"loss": 0.3935,
"step": 1193
},
{
"epoch": 4.975,
"grad_norm": 0.1968794371510558,
"learning_rate": 3.0460968721746086e-09,
"loss": 0.386,
"step": 1194
},
{
"epoch": 4.979166666666667,
"grad_norm": 0.19892683279876672,
"learning_rate": 2.1153614578506286e-09,
"loss": 0.3837,
"step": 1195
},
{
"epoch": 4.983333333333333,
"grad_norm": 0.19296848309206177,
"learning_rate": 1.3538399247559064e-09,
"loss": 0.4026,
"step": 1196
},
{
"epoch": 4.9875,
"grad_norm": 0.20733749638655838,
"learning_rate": 7.615387165738065e-10,
"loss": 0.3893,
"step": 1197
},
{
"epoch": 4.991666666666667,
"grad_norm": 0.20107927929139305,
"learning_rate": 3.384628451152949e-10,
"loss": 0.3933,
"step": 1198
},
{
"epoch": 4.995833333333334,
"grad_norm": 0.19991479070961304,
"learning_rate": 8.461589027453087e-11,
"loss": 0.3833,
"step": 1199
},
{
"epoch": 5.0,
"grad_norm": 0.2048210414699777,
"learning_rate": 0.0,
"loss": 0.3754,
"step": 1200
},
{
"epoch": 5.0,
"step": 1200,
"total_flos": 4.616590531240133e+18,
"train_loss": 0.5000174347062906,
"train_runtime": 28765.5268,
"train_samples_per_second": 5.337,
"train_steps_per_second": 0.042
}
],
"logging_steps": 1,
"max_steps": 1200,
"num_input_tokens_seen": 0,
"num_train_epochs": 5,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 4.616590531240133e+18,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}