Image-Text-to-Text
Transformers
Safetensors
visgym_model / sliding_block /trainer_state.json
Junyi42's picture
Upload sliding_block from zwcolin/gym
b116cbd verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 1.1373333333333333,
"eval_steps": 500,
"global_step": 1500,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.006666666666666667,
"grad_norm": 5.234960556030273,
"learning_rate": 6.000000000000001e-07,
"loss": 0.2523,
"step": 10
},
{
"epoch": 0.013333333333333334,
"grad_norm": 2.4586009979248047,
"learning_rate": 1.2666666666666669e-06,
"loss": 0.1858,
"step": 20
},
{
"epoch": 0.02,
"grad_norm": 3.0108866691589355,
"learning_rate": 1.9333333333333336e-06,
"loss": 0.1323,
"step": 30
},
{
"epoch": 0.02666666666666667,
"grad_norm": 1.274425983428955,
"learning_rate": 2.6e-06,
"loss": 0.0953,
"step": 40
},
{
"epoch": 0.03333333333333333,
"grad_norm": 0.8511235117912292,
"learning_rate": 3.266666666666667e-06,
"loss": 0.0717,
"step": 50
},
{
"epoch": 0.04,
"grad_norm": 1.2359228134155273,
"learning_rate": 3.9333333333333335e-06,
"loss": 0.0571,
"step": 60
},
{
"epoch": 0.04666666666666667,
"grad_norm": 0.858824610710144,
"learning_rate": 4.600000000000001e-06,
"loss": 0.0493,
"step": 70
},
{
"epoch": 0.05333333333333334,
"grad_norm": 0.7833631634712219,
"learning_rate": 5.2666666666666665e-06,
"loss": 0.0456,
"step": 80
},
{
"epoch": 0.06,
"grad_norm": 0.6132113933563232,
"learning_rate": 5.933333333333335e-06,
"loss": 0.0436,
"step": 90
},
{
"epoch": 0.06666666666666667,
"grad_norm": 0.5802624821662903,
"learning_rate": 6.600000000000001e-06,
"loss": 0.0413,
"step": 100
},
{
"epoch": 0.07333333333333333,
"grad_norm": 0.35474246740341187,
"learning_rate": 7.266666666666668e-06,
"loss": 0.0397,
"step": 110
},
{
"epoch": 0.08,
"grad_norm": 0.5320606827735901,
"learning_rate": 7.933333333333334e-06,
"loss": 0.0368,
"step": 120
},
{
"epoch": 0.08666666666666667,
"grad_norm": 0.48437240719795227,
"learning_rate": 8.6e-06,
"loss": 0.0357,
"step": 130
},
{
"epoch": 0.09333333333333334,
"grad_norm": 0.47771838307380676,
"learning_rate": 9.266666666666667e-06,
"loss": 0.0355,
"step": 140
},
{
"epoch": 0.1,
"grad_norm": 0.4612067937850952,
"learning_rate": 9.933333333333334e-06,
"loss": 0.0352,
"step": 150
},
{
"epoch": 0.10666666666666667,
"grad_norm": 0.2791973948478699,
"learning_rate": 9.998903417374228e-06,
"loss": 0.0342,
"step": 160
},
{
"epoch": 0.11333333333333333,
"grad_norm": 0.4042704701423645,
"learning_rate": 9.995113378907791e-06,
"loss": 0.0336,
"step": 170
},
{
"epoch": 0.12,
"grad_norm": 0.27445995807647705,
"learning_rate": 9.988618398427495e-06,
"loss": 0.0318,
"step": 180
},
{
"epoch": 0.12666666666666668,
"grad_norm": 0.4659740626811981,
"learning_rate": 9.979421993079853e-06,
"loss": 0.0335,
"step": 190
},
{
"epoch": 0.13333333333333333,
"grad_norm": 0.5997518301010132,
"learning_rate": 9.967529142880592e-06,
"loss": 0.0339,
"step": 200
},
{
"epoch": 0.14,
"grad_norm": 0.3627311885356903,
"learning_rate": 9.952946288017899e-06,
"loss": 0.0327,
"step": 210
},
{
"epoch": 0.14666666666666667,
"grad_norm": 0.25868934392929077,
"learning_rate": 9.93568132536494e-06,
"loss": 0.0322,
"step": 220
},
{
"epoch": 0.15333333333333332,
"grad_norm": 0.2951168417930603,
"learning_rate": 9.915743604203563e-06,
"loss": 0.0311,
"step": 230
},
{
"epoch": 0.16,
"grad_norm": 0.3337659537792206,
"learning_rate": 9.893143921161501e-06,
"loss": 0.0317,
"step": 240
},
{
"epoch": 0.16666666666666666,
"grad_norm": 0.27367573976516724,
"learning_rate": 9.867894514365802e-06,
"loss": 0.0306,
"step": 250
},
{
"epoch": 0.17333333333333334,
"grad_norm": 0.28687962889671326,
"learning_rate": 9.840009056815674e-06,
"loss": 0.0303,
"step": 260
},
{
"epoch": 0.18,
"grad_norm": 0.23084785044193268,
"learning_rate": 9.809502648978311e-06,
"loss": 0.0312,
"step": 270
},
{
"epoch": 0.18666666666666668,
"grad_norm": 0.38457003235816956,
"learning_rate": 9.776391810611719e-06,
"loss": 0.0303,
"step": 280
},
{
"epoch": 0.19333333333333333,
"grad_norm": 0.2903217077255249,
"learning_rate": 9.740694471818988e-06,
"loss": 0.0297,
"step": 290
},
{
"epoch": 0.2,
"grad_norm": 0.26213157176971436,
"learning_rate": 9.702429963338812e-06,
"loss": 0.0289,
"step": 300
},
{
"epoch": 0.20666666666666667,
"grad_norm": 0.2715766131877899,
"learning_rate": 9.661619006077562e-06,
"loss": 0.0285,
"step": 310
},
{
"epoch": 0.21333333333333335,
"grad_norm": 0.20788423717021942,
"learning_rate": 9.618283699888543e-06,
"loss": 0.029,
"step": 320
},
{
"epoch": 0.22,
"grad_norm": 0.1543346643447876,
"learning_rate": 9.572447511604536e-06,
"loss": 0.0298,
"step": 330
},
{
"epoch": 0.22666666666666666,
"grad_norm": 0.2608855068683624,
"learning_rate": 9.524135262330098e-06,
"loss": 0.0298,
"step": 340
},
{
"epoch": 0.23333333333333334,
"grad_norm": 0.26449450850486755,
"learning_rate": 9.473373114000493e-06,
"loss": 0.0287,
"step": 350
},
{
"epoch": 0.24,
"grad_norm": 0.16612136363983154,
"learning_rate": 9.420188555214537e-06,
"loss": 0.0281,
"step": 360
},
{
"epoch": 0.24666666666666667,
"grad_norm": 0.29909491539001465,
"learning_rate": 9.364610386349048e-06,
"loss": 0.0306,
"step": 370
},
{
"epoch": 0.25333333333333335,
"grad_norm": 0.19966456294059753,
"learning_rate": 9.306668703962927e-06,
"loss": 0.029,
"step": 380
},
{
"epoch": 0.26,
"grad_norm": 0.15102192759513855,
"learning_rate": 9.246394884499334e-06,
"loss": 0.0279,
"step": 390
},
{
"epoch": 0.26666666666666666,
"grad_norm": 0.14891450107097626,
"learning_rate": 9.18382156729481e-06,
"loss": 0.0289,
"step": 400
},
{
"epoch": 0.2733333333333333,
"grad_norm": 0.18456150591373444,
"learning_rate": 9.118982636904476e-06,
"loss": 0.0289,
"step": 410
},
{
"epoch": 0.28,
"grad_norm": 0.21652130782604218,
"learning_rate": 9.051913204752972e-06,
"loss": 0.0282,
"step": 420
},
{
"epoch": 0.2866666666666667,
"grad_norm": 0.20596565306186676,
"learning_rate": 8.982649590120982e-06,
"loss": 0.0279,
"step": 430
},
{
"epoch": 0.29333333333333333,
"grad_norm": 0.1709621101617813,
"learning_rate": 8.911229300477716e-06,
"loss": 0.0289,
"step": 440
},
{
"epoch": 0.3,
"grad_norm": 0.21974503993988037,
"learning_rate": 8.837691011169944e-06,
"loss": 0.0286,
"step": 450
},
{
"epoch": 0.30666666666666664,
"grad_norm": 0.1668318808078766,
"learning_rate": 8.762074544478622e-06,
"loss": 0.0289,
"step": 460
},
{
"epoch": 0.31333333333333335,
"grad_norm": 0.24894751608371735,
"learning_rate": 8.68442084805442e-06,
"loss": 0.0273,
"step": 470
},
{
"epoch": 0.32,
"grad_norm": 0.20935484766960144,
"learning_rate": 8.604771972743848e-06,
"loss": 0.0278,
"step": 480
},
{
"epoch": 0.32666666666666666,
"grad_norm": 0.22819101810455322,
"learning_rate": 8.523171049817974e-06,
"loss": 0.0279,
"step": 490
},
{
"epoch": 0.3333333333333333,
"grad_norm": 0.189545139670372,
"learning_rate": 8.439662267616093e-06,
"loss": 0.0286,
"step": 500
},
{
"epoch": 0.34,
"grad_norm": 0.22775457799434662,
"learning_rate": 8.354290847616954e-06,
"loss": 0.0273,
"step": 510
},
{
"epoch": 0.3466666666666667,
"grad_norm": 0.15195752680301666,
"learning_rate": 8.267103019950529e-06,
"loss": 0.0281,
"step": 520
},
{
"epoch": 0.35333333333333333,
"grad_norm": 0.1726960837841034,
"learning_rate": 8.178145998363585e-06,
"loss": 0.0287,
"step": 530
},
{
"epoch": 0.36,
"grad_norm": 0.2208917737007141,
"learning_rate": 8.087467954652608e-06,
"loss": 0.0274,
"step": 540
},
{
"epoch": 0.36666666666666664,
"grad_norm": 0.42369166016578674,
"learning_rate": 7.99511799257793e-06,
"loss": 0.0283,
"step": 550
},
{
"epoch": 0.37333333333333335,
"grad_norm": 0.17445319890975952,
"learning_rate": 7.901146121273165e-06,
"loss": 0.0286,
"step": 560
},
{
"epoch": 0.38,
"grad_norm": 0.24755573272705078,
"learning_rate": 7.80560322816439e-06,
"loss": 0.0284,
"step": 570
},
{
"epoch": 0.38666666666666666,
"grad_norm": 0.16139942407608032,
"learning_rate": 7.7085410514137e-06,
"loss": 0.0281,
"step": 580
},
{
"epoch": 0.3933333333333333,
"grad_norm": 0.14722169935703278,
"learning_rate": 7.610012151902091e-06,
"loss": 0.0288,
"step": 590
},
{
"epoch": 0.4,
"grad_norm": 0.19121955335140228,
"learning_rate": 7.510069884766802e-06,
"loss": 0.0269,
"step": 600
},
{
"epoch": 0.4066666666666667,
"grad_norm": 0.4560883939266205,
"learning_rate": 7.408768370508577e-06,
"loss": 0.0279,
"step": 610
},
{
"epoch": 0.41333333333333333,
"grad_norm": 0.17142727971076965,
"learning_rate": 7.3061624656844544e-06,
"loss": 0.0278,
"step": 620
},
{
"epoch": 0.42,
"grad_norm": 0.20494040846824646,
"learning_rate": 7.2023077332019755e-06,
"loss": 0.0276,
"step": 630
},
{
"epoch": 0.4266666666666667,
"grad_norm": 0.17237113416194916,
"learning_rate": 7.0972604122308865e-06,
"loss": 0.0265,
"step": 640
},
{
"epoch": 0.43333333333333335,
"grad_norm": 0.10688260942697525,
"learning_rate": 6.991077387748643e-06,
"loss": 0.0277,
"step": 650
},
{
"epoch": 0.44,
"grad_norm": 0.2260720580816269,
"learning_rate": 6.883816159736187e-06,
"loss": 0.0278,
"step": 660
},
{
"epoch": 0.44666666666666666,
"grad_norm": 0.1664057970046997,
"learning_rate": 6.775534812040686e-06,
"loss": 0.0267,
"step": 670
},
{
"epoch": 0.4533333333333333,
"grad_norm": 0.13374029099941254,
"learning_rate": 6.666291980922122e-06,
"loss": 0.0272,
"step": 680
},
{
"epoch": 0.46,
"grad_norm": 0.11895390599966049,
"learning_rate": 6.556146823300701e-06,
"loss": 0.028,
"step": 690
},
{
"epoch": 0.4666666666666667,
"grad_norm": 0.12667301297187805,
"learning_rate": 6.445158984722358e-06,
"loss": 0.0272,
"step": 700
},
{
"epoch": 0.47333333333333333,
"grad_norm": 0.33054879307746887,
"learning_rate": 6.3333885670596285e-06,
"loss": 0.0272,
"step": 710
},
{
"epoch": 0.48,
"grad_norm": 0.20602670311927795,
"learning_rate": 6.220896095965428e-06,
"loss": 0.0266,
"step": 720
},
{
"epoch": 0.4866666666666667,
"grad_norm": 0.1334441602230072,
"learning_rate": 6.107742488097338e-06,
"loss": 0.0278,
"step": 730
},
{
"epoch": 0.49333333333333335,
"grad_norm": 0.1716829240322113,
"learning_rate": 5.993989018130173e-06,
"loss": 0.0276,
"step": 740
},
{
"epoch": 0.5,
"grad_norm": 0.17173507809638977,
"learning_rate": 5.879697285574655e-06,
"loss": 0.027,
"step": 750
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.13854774832725525,
"learning_rate": 5.764929181420191e-06,
"loss": 0.027,
"step": 760
},
{
"epoch": 0.5133333333333333,
"grad_norm": 0.18937619030475616,
"learning_rate": 5.649746854619814e-06,
"loss": 0.0273,
"step": 770
},
{
"epoch": 0.52,
"grad_norm": 0.17703093588352203,
"learning_rate": 5.5342126784354265e-06,
"loss": 0.028,
"step": 780
},
{
"epoch": 0.5266666666666666,
"grad_norm": 0.1360723078250885,
"learning_rate": 5.41838921666158e-06,
"loss": 0.026,
"step": 790
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.16010494530200958,
"learning_rate": 5.3023391897460715e-06,
"loss": 0.0263,
"step": 800
},
{
"epoch": 0.54,
"grad_norm": 0.1728169471025467,
"learning_rate": 5.18612544082573e-06,
"loss": 0.0267,
"step": 810
},
{
"epoch": 0.5466666666666666,
"grad_norm": 0.1610235720872879,
"learning_rate": 5.069810901695727e-06,
"loss": 0.0271,
"step": 820
},
{
"epoch": 0.5533333333333333,
"grad_norm": 0.13934388756752014,
"learning_rate": 4.953458558730917e-06,
"loss": 0.0269,
"step": 830
},
{
"epoch": 0.56,
"grad_norm": 0.1595052182674408,
"learning_rate": 4.837131418777595e-06,
"loss": 0.0285,
"step": 840
},
{
"epoch": 0.5666666666666667,
"grad_norm": 0.20196989178657532,
"learning_rate": 4.720892475034181e-06,
"loss": 0.0268,
"step": 850
},
{
"epoch": 0.5733333333333334,
"grad_norm": 0.0952686294913292,
"learning_rate": 4.604804672939295e-06,
"loss": 0.0279,
"step": 860
},
{
"epoch": 0.58,
"grad_norm": 0.13534852862358093,
"learning_rate": 4.4889308760856826e-06,
"loss": 0.0263,
"step": 870
},
{
"epoch": 0.5866666666666667,
"grad_norm": 0.15479381382465363,
"learning_rate": 4.373333832178478e-06,
"loss": 0.0266,
"step": 880
},
{
"epoch": 0.5933333333333334,
"grad_norm": 0.1572863906621933,
"learning_rate": 4.258076139056217e-06,
"loss": 0.0257,
"step": 890
},
{
"epoch": 0.6,
"grad_norm": 0.10794276744127274,
"learning_rate": 4.143220210792993e-06,
"loss": 0.0268,
"step": 900
},
{
"epoch": 0.6066666666666667,
"grad_norm": 0.12649226188659668,
"learning_rate": 4.028828243900141e-06,
"loss": 0.0273,
"step": 910
},
{
"epoch": 0.6133333333333333,
"grad_norm": 0.11261267960071564,
"learning_rate": 3.914962183645733e-06,
"loss": 0.0273,
"step": 920
},
{
"epoch": 0.62,
"grad_norm": 0.12402400374412537,
"learning_rate": 3.8016836905101157e-06,
"loss": 0.027,
"step": 930
},
{
"epoch": 0.6266666666666667,
"grad_norm": 0.15580758452415466,
"learning_rate": 3.6890541067956775e-06,
"loss": 0.0275,
"step": 940
},
{
"epoch": 0.6333333333333333,
"grad_norm": 0.16109588742256165,
"learning_rate": 3.577134423408906e-06,
"loss": 0.0264,
"step": 950
},
{
"epoch": 0.64,
"grad_norm": 0.22473324835300446,
"learning_rate": 3.465985246832739e-06,
"loss": 0.027,
"step": 960
},
{
"epoch": 0.6466666666666666,
"grad_norm": 0.21857620775699615,
"learning_rate": 3.355666766307084e-06,
"loss": 0.0276,
"step": 970
},
{
"epoch": 0.6533333333333333,
"grad_norm": 0.09758365899324417,
"learning_rate": 3.246238721235283e-06,
"loss": 0.027,
"step": 980
},
{
"epoch": 0.66,
"grad_norm": 0.1262107789516449,
"learning_rate": 3.137760368834169e-06,
"loss": 0.0273,
"step": 990
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.09402887523174286,
"learning_rate": 3.030290452045245e-06,
"loss": 0.0262,
"step": 1000
},
{
"epoch": 0.6733333333333333,
"grad_norm": 0.10381755977869034,
"learning_rate": 2.9238871677243354e-06,
"loss": 0.0275,
"step": 1010
},
{
"epoch": 0.68,
"grad_norm": 0.12168723344802856,
"learning_rate": 2.818608135126967e-06,
"loss": 0.0258,
"step": 1020
},
{
"epoch": 0.6866666666666666,
"grad_norm": 0.1692776083946228,
"learning_rate": 2.714510364706531e-06,
"loss": 0.0258,
"step": 1030
},
{
"epoch": 0.6933333333333334,
"grad_norm": 0.18947234749794006,
"learning_rate": 2.611650227242102e-06,
"loss": 0.0276,
"step": 1040
},
{
"epoch": 0.7,
"grad_norm": 0.1725011169910431,
"learning_rate": 2.5100834233126827e-06,
"loss": 0.0266,
"step": 1050
},
{
"epoch": 0.7066666666666667,
"grad_norm": 0.10584762692451477,
"learning_rate": 2.40986495313435e-06,
"loss": 0.0266,
"step": 1060
},
{
"epoch": 0.7133333333333334,
"grad_norm": 0.11202681064605713,
"learning_rate": 2.3110490867766644e-06,
"loss": 0.0271,
"step": 1070
},
{
"epoch": 0.72,
"grad_norm": 0.09831184148788452,
"learning_rate": 2.213689334774479e-06,
"loss": 0.0278,
"step": 1080
},
{
"epoch": 0.7266666666666667,
"grad_norm": 0.12705865502357483,
"learning_rate": 2.1178384191510344e-06,
"loss": 0.0269,
"step": 1090
},
{
"epoch": 0.7333333333333333,
"grad_norm": 0.18815581500530243,
"learning_rate": 2.023548244868051e-06,
"loss": 0.027,
"step": 1100
},
{
"epoch": 0.74,
"grad_norm": 0.24343350529670715,
"learning_rate": 1.9308698717182874e-06,
"loss": 0.0272,
"step": 1110
},
{
"epoch": 0.7466666666666667,
"grad_norm": 0.09869104623794556,
"learning_rate": 1.8398534866757455e-06,
"loss": 0.0271,
"step": 1120
},
{
"epoch": 0.7533333333333333,
"grad_norm": 0.11589930206537247,
"learning_rate": 1.7505483767185583e-06,
"loss": 0.0267,
"step": 1130
},
{
"epoch": 0.76,
"grad_norm": 0.13498885929584503,
"learning_rate": 1.6630029021392007e-06,
"loss": 0.0271,
"step": 1140
},
{
"epoch": 0.7666666666666667,
"grad_norm": 0.1283062994480133,
"learning_rate": 1.5772644703565564e-06,
"loss": 0.0267,
"step": 1150
},
{
"epoch": 0.7733333333333333,
"grad_norm": 0.16730868816375732,
"learning_rate": 1.4933795102439558e-06,
"loss": 0.0266,
"step": 1160
},
{
"epoch": 0.78,
"grad_norm": 0.12701842188835144,
"learning_rate": 1.4113934469871166e-06,
"loss": 0.0258,
"step": 1170
},
{
"epoch": 0.7866666666666666,
"grad_norm": 0.0999382808804512,
"learning_rate": 1.3313506774856177e-06,
"loss": 0.025,
"step": 1180
},
{
"epoch": 0.7933333333333333,
"grad_norm": 0.1926984041929245,
"learning_rate": 1.2532945463111856e-06,
"loss": 0.0273,
"step": 1190
},
{
"epoch": 0.8,
"grad_norm": 0.09554208815097809,
"learning_rate": 1.1772673222358421e-06,
"loss": 0.0264,
"step": 1200
},
{
"epoch": 0.8066666666666666,
"grad_norm": 0.11885914206504822,
"learning_rate": 1.1033101753426285e-06,
"loss": 0.0262,
"step": 1210
},
{
"epoch": 0.8133333333333334,
"grad_norm": 0.15456905961036682,
"learning_rate": 1.0314631547312738e-06,
"loss": 0.0267,
"step": 1220
},
{
"epoch": 0.82,
"grad_norm": 0.2736993134021759,
"learning_rate": 9.617651668308914e-07,
"loss": 0.0277,
"step": 1230
},
{
"epoch": 0.8266666666666667,
"grad_norm": 0.18778415024280548,
"learning_rate": 8.942539543314799e-07,
"loss": 0.027,
"step": 1240
},
{
"epoch": 0.8333333333333334,
"grad_norm": 0.11048292368650436,
"learning_rate": 8.289660757455803e-07,
"loss": 0.0267,
"step": 1250
},
{
"epoch": 0.84,
"grad_norm": 0.17376090586185455,
"learning_rate": 7.659368856111926e-07,
"loss": 0.0252,
"step": 1260
},
{
"epoch": 0.8466666666666667,
"grad_norm": 0.10457020252943039,
"learning_rate": 7.052005153466779e-07,
"loss": 0.0259,
"step": 1270
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.14782173931598663,
"learning_rate": 6.467898547679913e-07,
"loss": 0.0263,
"step": 1280
},
{
"epoch": 0.86,
"grad_norm": 0.10234915465116501,
"learning_rate": 5.9073653427826e-07,
"loss": 0.0268,
"step": 1290
},
{
"epoch": 1.004,
"grad_norm": 0.16457466781139374,
"learning_rate": 5.370709077393721e-07,
"loss": 0.0286,
"step": 1300
},
{
"epoch": 1.0106666666666666,
"grad_norm": 0.12019941955804825,
"learning_rate": 4.858220360348187e-07,
"loss": 0.0262,
"step": 1310
},
{
"epoch": 1.0173333333333334,
"grad_norm": 0.14211136102676392,
"learning_rate": 4.370176713327118e-07,
"loss": 0.026,
"step": 1320
},
{
"epoch": 1.024,
"grad_norm": 0.11359744518995285,
"learning_rate": 3.90684242057498e-07,
"loss": 0.0266,
"step": 1330
},
{
"epoch": 1.0306666666666666,
"grad_norm": 0.11327305436134338,
"learning_rate": 3.468468385785023e-07,
"loss": 0.0274,
"step": 1340
},
{
"epoch": 1.0373333333333334,
"grad_norm": 0.10707303881645203,
"learning_rate": 3.055291996230492e-07,
"loss": 0.0259,
"step": 1350
},
{
"epoch": 1.044,
"grad_norm": 0.10647109150886536,
"learning_rate": 2.6675369942151864e-07,
"loss": 0.026,
"step": 1360
},
{
"epoch": 1.0506666666666666,
"grad_norm": 0.19219855964183807,
"learning_rate": 2.3054133559131163e-07,
"loss": 0.0275,
"step": 1370
},
{
"epoch": 1.0573333333333332,
"grad_norm": 0.17916028201580048,
"learning_rate": 1.9691171776626882e-07,
"loss": 0.0261,
"step": 1380
},
{
"epoch": 1.064,
"grad_norm": 0.14635035395622253,
"learning_rate": 1.6588305697770313e-07,
"loss": 0.0271,
"step": 1390
},
{
"epoch": 1.0706666666666667,
"grad_norm": 0.12044422328472137,
"learning_rate": 1.374721557928116e-07,
"loss": 0.0264,
"step": 1400
},
{
"epoch": 1.0773333333333333,
"grad_norm": 0.10537119954824448,
"learning_rate": 1.1169439921578485e-07,
"loss": 0.0262,
"step": 1410
},
{
"epoch": 1.084,
"grad_norm": 0.1695001721382141,
"learning_rate": 8.856374635655696e-08,
"loss": 0.0267,
"step": 1420
},
{
"epoch": 1.0906666666666667,
"grad_norm": 0.20581750571727753,
"learning_rate": 6.809272287169988e-08,
"loss": 0.0265,
"step": 1430
},
{
"epoch": 1.0973333333333333,
"grad_norm": 0.14110663533210754,
"learning_rate": 5.029241418156139e-08,
"loss": 0.0256,
"step": 1440
},
{
"epoch": 1.104,
"grad_norm": 0.1277492642402649,
"learning_rate": 3.517245946731529e-08,
"loss": 0.0252,
"step": 1450
},
{
"epoch": 1.1106666666666667,
"grad_norm": 0.17467160522937775,
"learning_rate": 2.27410464511707e-08,
"loss": 0.0268,
"step": 1460
},
{
"epoch": 1.1173333333333333,
"grad_norm": 0.14059223234653473,
"learning_rate": 1.3004906962578723e-08,
"loss": 0.0262,
"step": 1470
},
{
"epoch": 1.124,
"grad_norm": 0.11744212359189987,
"learning_rate": 5.969313292830126e-09,
"loss": 0.0276,
"step": 1480
},
{
"epoch": 1.1306666666666667,
"grad_norm": 0.12303502857685089,
"learning_rate": 1.638075340010814e-09,
"loss": 0.0265,
"step": 1490
},
{
"epoch": 1.1373333333333333,
"grad_norm": 0.1259213238954544,
"learning_rate": 1.3538545881042198e-11,
"loss": 0.0275,
"step": 1500
}
],
"logging_steps": 10,
"max_steps": 1500,
"num_input_tokens_seen": 0,
"num_train_epochs": 9223372036854775807,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 1.2131899331082977e+19,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}