TCS_MLM_SaProt / last-checkpoint /trainer_state.json
mgh6's picture
Training in progress, step 15000, checkpoint
5addef3 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 29.995313232307453,
"eval_steps": 500,
"global_step": 15000,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.19996875488204968,
"grad_norm": 0.06800929456949234,
"learning_rate": 9.933333333333334e-05,
"loss": 1.66,
"step": 100
},
{
"epoch": 0.39993750976409936,
"grad_norm": 0.07075967639684677,
"learning_rate": 9.866666666666668e-05,
"loss": 1.4581,
"step": 200
},
{
"epoch": 0.599906264646149,
"grad_norm": 0.08595048636198044,
"learning_rate": 9.8e-05,
"loss": 1.4002,
"step": 300
},
{
"epoch": 0.7998750195281987,
"grad_norm": 0.0898224264383316,
"learning_rate": 9.733333333333335e-05,
"loss": 1.3804,
"step": 400
},
{
"epoch": 0.9998437744102484,
"grad_norm": 0.09610690176486969,
"learning_rate": 9.666666666666667e-05,
"loss": 1.3666,
"step": 500
},
{
"epoch": 0.9998437744102484,
"eval_loss": 1.2211335897445679,
"eval_runtime": 781.18,
"eval_samples_per_second": 19.87,
"eval_steps_per_second": 2.485,
"step": 500
},
{
"epoch": 1.199812529292298,
"grad_norm": 0.10176929831504822,
"learning_rate": 9.6e-05,
"loss": 1.3505,
"step": 600
},
{
"epoch": 1.3997812841743478,
"grad_norm": 0.10571713745594025,
"learning_rate": 9.533333333333334e-05,
"loss": 1.3431,
"step": 700
},
{
"epoch": 1.5997500390563975,
"grad_norm": 0.11078939586877823,
"learning_rate": 9.466666666666667e-05,
"loss": 1.3325,
"step": 800
},
{
"epoch": 1.7997187939384471,
"grad_norm": 0.11473137885332108,
"learning_rate": 9.4e-05,
"loss": 1.3273,
"step": 900
},
{
"epoch": 1.9996875488204968,
"grad_norm": 0.11462998390197754,
"learning_rate": 9.333333333333334e-05,
"loss": 1.3257,
"step": 1000
},
{
"epoch": 1.9996875488204968,
"eval_loss": 1.1889395713806152,
"eval_runtime": 780.6658,
"eval_samples_per_second": 19.883,
"eval_steps_per_second": 2.486,
"step": 1000
},
{
"epoch": 2.1996563037025463,
"grad_norm": 0.1258271187543869,
"learning_rate": 9.266666666666666e-05,
"loss": 1.3204,
"step": 1100
},
{
"epoch": 2.399625058584596,
"grad_norm": 0.12556926906108856,
"learning_rate": 9.200000000000001e-05,
"loss": 1.3134,
"step": 1200
},
{
"epoch": 2.5995938134666456,
"grad_norm": 0.12833993136882782,
"learning_rate": 9.133333333333334e-05,
"loss": 1.3161,
"step": 1300
},
{
"epoch": 2.7995625683486955,
"grad_norm": 0.13487331569194794,
"learning_rate": 9.066666666666667e-05,
"loss": 1.3047,
"step": 1400
},
{
"epoch": 2.9995313232307454,
"grad_norm": 0.13826213777065277,
"learning_rate": 9e-05,
"loss": 1.3061,
"step": 1500
},
{
"epoch": 2.9995313232307454,
"eval_loss": 1.1681571006774902,
"eval_runtime": 781.2456,
"eval_samples_per_second": 19.868,
"eval_steps_per_second": 2.484,
"step": 1500
},
{
"epoch": 3.199500078112795,
"grad_norm": 0.1341802030801773,
"learning_rate": 8.933333333333334e-05,
"loss": 1.3093,
"step": 1600
},
{
"epoch": 3.3994688329948444,
"grad_norm": 0.13981318473815918,
"learning_rate": 8.866666666666668e-05,
"loss": 1.3045,
"step": 1700
},
{
"epoch": 3.5994375878768943,
"grad_norm": 0.1482376754283905,
"learning_rate": 8.800000000000001e-05,
"loss": 1.2961,
"step": 1800
},
{
"epoch": 3.799406342758944,
"grad_norm": 0.13838326930999756,
"learning_rate": 8.733333333333333e-05,
"loss": 1.2946,
"step": 1900
},
{
"epoch": 3.9993750976409936,
"grad_norm": 0.14230142533779144,
"learning_rate": 8.666666666666667e-05,
"loss": 1.2953,
"step": 2000
},
{
"epoch": 3.9993750976409936,
"eval_loss": 1.1589070558547974,
"eval_runtime": 780.349,
"eval_samples_per_second": 19.891,
"eval_steps_per_second": 2.487,
"step": 2000
},
{
"epoch": 4.199343852523043,
"grad_norm": 0.14762505888938904,
"learning_rate": 8.6e-05,
"loss": 1.2963,
"step": 2100
},
{
"epoch": 4.399312607405093,
"grad_norm": 0.15457451343536377,
"learning_rate": 8.533333333333334e-05,
"loss": 1.294,
"step": 2200
},
{
"epoch": 4.599281362287143,
"grad_norm": 0.16069631278514862,
"learning_rate": 8.466666666666667e-05,
"loss": 1.2912,
"step": 2300
},
{
"epoch": 4.799250117169192,
"grad_norm": 0.15591269731521606,
"learning_rate": 8.4e-05,
"loss": 1.2801,
"step": 2400
},
{
"epoch": 4.999218872051242,
"grad_norm": 0.14972414076328278,
"learning_rate": 8.333333333333334e-05,
"loss": 1.2854,
"step": 2500
},
{
"epoch": 4.999218872051242,
"eval_loss": 1.1568653583526611,
"eval_runtime": 780.3841,
"eval_samples_per_second": 19.89,
"eval_steps_per_second": 2.487,
"step": 2500
},
{
"epoch": 5.199187626933291,
"grad_norm": 0.1629934012889862,
"learning_rate": 8.266666666666667e-05,
"loss": 1.2835,
"step": 2600
},
{
"epoch": 5.399156381815342,
"grad_norm": 0.1629839390516281,
"learning_rate": 8.2e-05,
"loss": 1.2805,
"step": 2700
},
{
"epoch": 5.599125136697391,
"grad_norm": 0.15919053554534912,
"learning_rate": 8.133333333333334e-05,
"loss": 1.279,
"step": 2800
},
{
"epoch": 5.7990938915794406,
"grad_norm": 0.17068877816200256,
"learning_rate": 8.066666666666667e-05,
"loss": 1.2726,
"step": 2900
},
{
"epoch": 5.99906264646149,
"grad_norm": 0.16409236192703247,
"learning_rate": 8e-05,
"loss": 1.2727,
"step": 3000
},
{
"epoch": 5.99906264646149,
"eval_loss": 1.1620852947235107,
"eval_runtime": 779.854,
"eval_samples_per_second": 19.904,
"eval_steps_per_second": 2.489,
"step": 3000
},
{
"epoch": 6.19903140134354,
"grad_norm": 0.1689419448375702,
"learning_rate": 7.933333333333334e-05,
"loss": 1.2739,
"step": 3100
},
{
"epoch": 6.39900015622559,
"grad_norm": 0.18602177500724792,
"learning_rate": 7.866666666666666e-05,
"loss": 1.2743,
"step": 3200
},
{
"epoch": 6.598968911107639,
"grad_norm": 0.16894273459911346,
"learning_rate": 7.800000000000001e-05,
"loss": 1.2662,
"step": 3300
},
{
"epoch": 6.798937665989689,
"grad_norm": 0.1722390055656433,
"learning_rate": 7.733333333333333e-05,
"loss": 1.2685,
"step": 3400
},
{
"epoch": 6.998906420871739,
"grad_norm": 0.16717413067817688,
"learning_rate": 7.666666666666667e-05,
"loss": 1.2713,
"step": 3500
},
{
"epoch": 6.998906420871739,
"eval_loss": 1.1368179321289062,
"eval_runtime": 780.0179,
"eval_samples_per_second": 19.9,
"eval_steps_per_second": 2.488,
"step": 3500
},
{
"epoch": 7.1988751757537885,
"grad_norm": 0.17379523813724518,
"learning_rate": 7.6e-05,
"loss": 1.2688,
"step": 3600
},
{
"epoch": 7.398843930635838,
"grad_norm": 0.18176878988742828,
"learning_rate": 7.533333333333334e-05,
"loss": 1.2622,
"step": 3700
},
{
"epoch": 7.5988126855178875,
"grad_norm": 0.17899934947490692,
"learning_rate": 7.466666666666667e-05,
"loss": 1.266,
"step": 3800
},
{
"epoch": 7.798781440399938,
"grad_norm": 0.17816804349422455,
"learning_rate": 7.4e-05,
"loss": 1.2611,
"step": 3900
},
{
"epoch": 7.998750195281987,
"grad_norm": 0.18334655463695526,
"learning_rate": 7.333333333333333e-05,
"loss": 1.2651,
"step": 4000
},
{
"epoch": 7.998750195281987,
"eval_loss": 1.1447893381118774,
"eval_runtime": 781.963,
"eval_samples_per_second": 19.85,
"eval_steps_per_second": 2.482,
"step": 4000
},
{
"epoch": 8.198718950164038,
"grad_norm": 0.18043838441371918,
"learning_rate": 7.266666666666667e-05,
"loss": 1.2639,
"step": 4100
},
{
"epoch": 8.398687705046086,
"grad_norm": 0.184415802359581,
"learning_rate": 7.2e-05,
"loss": 1.2657,
"step": 4200
},
{
"epoch": 8.598656459928137,
"grad_norm": 0.26178649067878723,
"learning_rate": 7.133333333333334e-05,
"loss": 1.2594,
"step": 4300
},
{
"epoch": 8.798625214810185,
"grad_norm": 0.19417451322078705,
"learning_rate": 7.066666666666667e-05,
"loss": 1.2548,
"step": 4400
},
{
"epoch": 8.998593969692235,
"grad_norm": 0.19095982611179352,
"learning_rate": 7e-05,
"loss": 1.2566,
"step": 4500
},
{
"epoch": 8.998593969692235,
"eval_loss": 1.1331112384796143,
"eval_runtime": 782.1504,
"eval_samples_per_second": 19.845,
"eval_steps_per_second": 2.482,
"step": 4500
},
{
"epoch": 9.198562724574286,
"grad_norm": 0.189661905169487,
"learning_rate": 6.933333333333334e-05,
"loss": 1.2599,
"step": 4600
},
{
"epoch": 9.398531479456334,
"grad_norm": 0.19702570140361786,
"learning_rate": 6.866666666666666e-05,
"loss": 1.2603,
"step": 4700
},
{
"epoch": 9.598500234338385,
"grad_norm": 0.18435333669185638,
"learning_rate": 6.800000000000001e-05,
"loss": 1.2519,
"step": 4800
},
{
"epoch": 9.798468989220435,
"grad_norm": 0.18754470348358154,
"learning_rate": 6.733333333333333e-05,
"loss": 1.2581,
"step": 4900
},
{
"epoch": 9.998437744102484,
"grad_norm": 0.1944326013326645,
"learning_rate": 6.666666666666667e-05,
"loss": 1.2515,
"step": 5000
},
{
"epoch": 9.998437744102484,
"eval_loss": 1.1215333938598633,
"eval_runtime": 779.443,
"eval_samples_per_second": 19.914,
"eval_steps_per_second": 2.49,
"step": 5000
},
{
"epoch": 10.198406498984534,
"grad_norm": 0.19540326297283173,
"learning_rate": 6.6e-05,
"loss": 1.2515,
"step": 5100
},
{
"epoch": 10.398375253866583,
"grad_norm": 0.19390232861042023,
"learning_rate": 6.533333333333334e-05,
"loss": 1.2466,
"step": 5200
},
{
"epoch": 10.598344008748633,
"grad_norm": 0.19761793315410614,
"learning_rate": 6.466666666666666e-05,
"loss": 1.2471,
"step": 5300
},
{
"epoch": 10.798312763630683,
"grad_norm": 0.20083682239055634,
"learning_rate": 6.400000000000001e-05,
"loss": 1.2461,
"step": 5400
},
{
"epoch": 10.998281518512732,
"grad_norm": 0.20144224166870117,
"learning_rate": 6.333333333333333e-05,
"loss": 1.2468,
"step": 5500
},
{
"epoch": 10.998281518512732,
"eval_loss": 1.112711787223816,
"eval_runtime": 780.4643,
"eval_samples_per_second": 19.888,
"eval_steps_per_second": 2.487,
"step": 5500
},
{
"epoch": 11.198250273394782,
"grad_norm": 0.20055556297302246,
"learning_rate": 6.266666666666667e-05,
"loss": 1.2421,
"step": 5600
},
{
"epoch": 11.398219028276833,
"grad_norm": 0.20075921714305878,
"learning_rate": 6.2e-05,
"loss": 1.2485,
"step": 5700
},
{
"epoch": 11.598187783158881,
"grad_norm": 0.20710080862045288,
"learning_rate": 6.133333333333334e-05,
"loss": 1.2441,
"step": 5800
},
{
"epoch": 11.798156538040931,
"grad_norm": 0.19492241740226746,
"learning_rate": 6.066666666666667e-05,
"loss": 1.25,
"step": 5900
},
{
"epoch": 11.99812529292298,
"grad_norm": 0.20437301695346832,
"learning_rate": 6e-05,
"loss": 1.2491,
"step": 6000
},
{
"epoch": 11.99812529292298,
"eval_loss": 1.128514289855957,
"eval_runtime": 781.5324,
"eval_samples_per_second": 19.861,
"eval_steps_per_second": 2.484,
"step": 6000
},
{
"epoch": 12.19809404780503,
"grad_norm": 0.20758041739463806,
"learning_rate": 5.9333333333333343e-05,
"loss": 1.2475,
"step": 6100
},
{
"epoch": 12.39806280268708,
"grad_norm": 0.21070446074008942,
"learning_rate": 5.866666666666667e-05,
"loss": 1.2458,
"step": 6200
},
{
"epoch": 12.59803155756913,
"grad_norm": 0.1970139741897583,
"learning_rate": 5.8e-05,
"loss": 1.2423,
"step": 6300
},
{
"epoch": 12.79800031245118,
"grad_norm": 0.2171526849269867,
"learning_rate": 5.7333333333333336e-05,
"loss": 1.2384,
"step": 6400
},
{
"epoch": 12.99796906733323,
"grad_norm": 0.21207907795906067,
"learning_rate": 5.666666666666667e-05,
"loss": 1.2415,
"step": 6500
},
{
"epoch": 12.99796906733323,
"eval_loss": 1.1073068380355835,
"eval_runtime": 779.3448,
"eval_samples_per_second": 19.917,
"eval_steps_per_second": 2.491,
"step": 6500
},
{
"epoch": 13.197937822215279,
"grad_norm": 0.20639556646347046,
"learning_rate": 5.6000000000000006e-05,
"loss": 1.2461,
"step": 6600
},
{
"epoch": 13.397906577097329,
"grad_norm": 0.2096029669046402,
"learning_rate": 5.5333333333333334e-05,
"loss": 1.2431,
"step": 6700
},
{
"epoch": 13.597875331979377,
"grad_norm": 0.20601199567317963,
"learning_rate": 5.466666666666666e-05,
"loss": 1.2365,
"step": 6800
},
{
"epoch": 13.797844086861428,
"grad_norm": 0.20576031506061554,
"learning_rate": 5.4000000000000005e-05,
"loss": 1.236,
"step": 6900
},
{
"epoch": 13.997812841743478,
"grad_norm": 0.22089041769504547,
"learning_rate": 5.333333333333333e-05,
"loss": 1.242,
"step": 7000
},
{
"epoch": 13.997812841743478,
"eval_loss": 1.1090010404586792,
"eval_runtime": 781.1131,
"eval_samples_per_second": 19.872,
"eval_steps_per_second": 2.485,
"step": 7000
},
{
"epoch": 14.197781596625527,
"grad_norm": 0.21237194538116455,
"learning_rate": 5.266666666666666e-05,
"loss": 1.2406,
"step": 7100
},
{
"epoch": 14.397750351507577,
"grad_norm": 0.22387249767780304,
"learning_rate": 5.2000000000000004e-05,
"loss": 1.2395,
"step": 7200
},
{
"epoch": 14.597719106389627,
"grad_norm": 0.2192169427871704,
"learning_rate": 5.133333333333333e-05,
"loss": 1.2374,
"step": 7300
},
{
"epoch": 14.797687861271676,
"grad_norm": 0.21324670314788818,
"learning_rate": 5.0666666666666674e-05,
"loss": 1.2382,
"step": 7400
},
{
"epoch": 14.997656616153726,
"grad_norm": 0.21565145254135132,
"learning_rate": 5e-05,
"loss": 1.2337,
"step": 7500
},
{
"epoch": 14.997656616153726,
"eval_loss": 1.102397084236145,
"eval_runtime": 781.6511,
"eval_samples_per_second": 19.858,
"eval_steps_per_second": 2.483,
"step": 7500
},
{
"epoch": 15.197625371035775,
"grad_norm": 0.20735445618629456,
"learning_rate": 4.933333333333334e-05,
"loss": 1.2353,
"step": 7600
},
{
"epoch": 15.397594125917825,
"grad_norm": 0.2148446887731552,
"learning_rate": 4.866666666666667e-05,
"loss": 1.2372,
"step": 7700
},
{
"epoch": 15.597562880799876,
"grad_norm": 0.22396279871463776,
"learning_rate": 4.8e-05,
"loss": 1.234,
"step": 7800
},
{
"epoch": 15.797531635681924,
"grad_norm": 0.22062599658966064,
"learning_rate": 4.7333333333333336e-05,
"loss": 1.2317,
"step": 7900
},
{
"epoch": 15.997500390563975,
"grad_norm": 0.22215193510055542,
"learning_rate": 4.666666666666667e-05,
"loss": 1.2302,
"step": 8000
},
{
"epoch": 15.997500390563975,
"eval_loss": 1.1039363145828247,
"eval_runtime": 781.5664,
"eval_samples_per_second": 19.86,
"eval_steps_per_second": 2.483,
"step": 8000
},
{
"epoch": 16.197469145446025,
"grad_norm": 0.21470457315444946,
"learning_rate": 4.600000000000001e-05,
"loss": 1.2356,
"step": 8100
},
{
"epoch": 16.397437900328075,
"grad_norm": 0.23483353853225708,
"learning_rate": 4.5333333333333335e-05,
"loss": 1.2298,
"step": 8200
},
{
"epoch": 16.597406655210122,
"grad_norm": 0.22766882181167603,
"learning_rate": 4.466666666666667e-05,
"loss": 1.2344,
"step": 8300
},
{
"epoch": 16.797375410092172,
"grad_norm": 0.21805354952812195,
"learning_rate": 4.4000000000000006e-05,
"loss": 1.2349,
"step": 8400
},
{
"epoch": 16.997344164974223,
"grad_norm": 0.22797927260398865,
"learning_rate": 4.3333333333333334e-05,
"loss": 1.2311,
"step": 8500
},
{
"epoch": 16.997344164974223,
"eval_loss": 1.1013116836547852,
"eval_runtime": 780.8183,
"eval_samples_per_second": 19.879,
"eval_steps_per_second": 2.486,
"step": 8500
},
{
"epoch": 17.197312919856273,
"grad_norm": 0.2302340865135193,
"learning_rate": 4.266666666666667e-05,
"loss": 1.2303,
"step": 8600
},
{
"epoch": 17.397281674738323,
"grad_norm": 0.23100897669792175,
"learning_rate": 4.2e-05,
"loss": 1.2371,
"step": 8700
},
{
"epoch": 17.59725042962037,
"grad_norm": 0.23766712844371796,
"learning_rate": 4.133333333333333e-05,
"loss": 1.2307,
"step": 8800
},
{
"epoch": 17.79721918450242,
"grad_norm": 0.23070693016052246,
"learning_rate": 4.066666666666667e-05,
"loss": 1.2278,
"step": 8900
},
{
"epoch": 17.99718793938447,
"grad_norm": 0.22143380343914032,
"learning_rate": 4e-05,
"loss": 1.229,
"step": 9000
},
{
"epoch": 17.99718793938447,
"eval_loss": 1.1009384393692017,
"eval_runtime": 781.433,
"eval_samples_per_second": 19.864,
"eval_steps_per_second": 2.484,
"step": 9000
},
{
"epoch": 18.19715669426652,
"grad_norm": 0.21790316700935364,
"learning_rate": 3.933333333333333e-05,
"loss": 1.2269,
"step": 9100
},
{
"epoch": 18.39712544914857,
"grad_norm": 0.21506337821483612,
"learning_rate": 3.866666666666667e-05,
"loss": 1.2289,
"step": 9200
},
{
"epoch": 18.59709420403062,
"grad_norm": 0.23324058949947357,
"learning_rate": 3.8e-05,
"loss": 1.2308,
"step": 9300
},
{
"epoch": 18.79706295891267,
"grad_norm": 0.23792578279972076,
"learning_rate": 3.733333333333334e-05,
"loss": 1.2278,
"step": 9400
},
{
"epoch": 18.99703171379472,
"grad_norm": 0.2299690842628479,
"learning_rate": 3.6666666666666666e-05,
"loss": 1.223,
"step": 9500
},
{
"epoch": 18.99703171379472,
"eval_loss": 1.1021497249603271,
"eval_runtime": 781.5015,
"eval_samples_per_second": 19.862,
"eval_steps_per_second": 2.484,
"step": 9500
},
{
"epoch": 19.19700046867677,
"grad_norm": 0.23651447892189026,
"learning_rate": 3.6e-05,
"loss": 1.2228,
"step": 9600
},
{
"epoch": 19.39696922355882,
"grad_norm": 0.24351443350315094,
"learning_rate": 3.5333333333333336e-05,
"loss": 1.227,
"step": 9700
},
{
"epoch": 19.59693797844087,
"grad_norm": 0.2371227890253067,
"learning_rate": 3.466666666666667e-05,
"loss": 1.2268,
"step": 9800
},
{
"epoch": 19.796906733322917,
"grad_norm": 0.2173725664615631,
"learning_rate": 3.4000000000000007e-05,
"loss": 1.2232,
"step": 9900
},
{
"epoch": 19.996875488204967,
"grad_norm": 0.24202196300029755,
"learning_rate": 3.3333333333333335e-05,
"loss": 1.2213,
"step": 10000
},
{
"epoch": 19.996875488204967,
"eval_loss": 1.0894185304641724,
"eval_runtime": 781.2073,
"eval_samples_per_second": 19.869,
"eval_steps_per_second": 2.485,
"step": 10000
},
{
"epoch": 20.196844243087018,
"grad_norm": 0.23550644516944885,
"learning_rate": 3.266666666666667e-05,
"loss": 1.2207,
"step": 10100
},
{
"epoch": 20.396812997969068,
"grad_norm": 0.22665788233280182,
"learning_rate": 3.2000000000000005e-05,
"loss": 1.2271,
"step": 10200
},
{
"epoch": 20.59678175285112,
"grad_norm": 0.23765605688095093,
"learning_rate": 3.1333333333333334e-05,
"loss": 1.2212,
"step": 10300
},
{
"epoch": 20.796750507733165,
"grad_norm": 0.22791534662246704,
"learning_rate": 3.066666666666667e-05,
"loss": 1.2268,
"step": 10400
},
{
"epoch": 20.996719262615215,
"grad_norm": 0.23103660345077515,
"learning_rate": 3e-05,
"loss": 1.2219,
"step": 10500
},
{
"epoch": 20.996719262615215,
"eval_loss": 1.1070313453674316,
"eval_runtime": 781.5944,
"eval_samples_per_second": 19.859,
"eval_steps_per_second": 2.483,
"step": 10500
},
{
"epoch": 21.196688017497266,
"grad_norm": 0.2408709079027176,
"learning_rate": 2.9333333333333336e-05,
"loss": 1.2215,
"step": 10600
},
{
"epoch": 21.396656772379316,
"grad_norm": 0.2331283688545227,
"learning_rate": 2.8666666666666668e-05,
"loss": 1.2249,
"step": 10700
},
{
"epoch": 21.596625527261367,
"grad_norm": 0.2316213697195053,
"learning_rate": 2.8000000000000003e-05,
"loss": 1.2222,
"step": 10800
},
{
"epoch": 21.796594282143417,
"grad_norm": 0.2397545576095581,
"learning_rate": 2.733333333333333e-05,
"loss": 1.2294,
"step": 10900
},
{
"epoch": 21.996563037025464,
"grad_norm": 0.245674729347229,
"learning_rate": 2.6666666666666667e-05,
"loss": 1.2217,
"step": 11000
},
{
"epoch": 21.996563037025464,
"eval_loss": 1.092257022857666,
"eval_runtime": 780.2283,
"eval_samples_per_second": 19.894,
"eval_steps_per_second": 2.488,
"step": 11000
},
{
"epoch": 22.196531791907514,
"grad_norm": 0.24070052802562714,
"learning_rate": 2.6000000000000002e-05,
"loss": 1.2256,
"step": 11100
},
{
"epoch": 22.396500546789564,
"grad_norm": 0.24903209507465363,
"learning_rate": 2.5333333333333337e-05,
"loss": 1.2206,
"step": 11200
},
{
"epoch": 22.596469301671615,
"grad_norm": 0.22408048808574677,
"learning_rate": 2.466666666666667e-05,
"loss": 1.2219,
"step": 11300
},
{
"epoch": 22.796438056553665,
"grad_norm": 0.23605312407016754,
"learning_rate": 2.4e-05,
"loss": 1.2221,
"step": 11400
},
{
"epoch": 22.996406811435712,
"grad_norm": 0.24230831861495972,
"learning_rate": 2.3333333333333336e-05,
"loss": 1.2226,
"step": 11500
},
{
"epoch": 22.996406811435712,
"eval_loss": 1.1027547121047974,
"eval_runtime": 779.9282,
"eval_samples_per_second": 19.902,
"eval_steps_per_second": 2.489,
"step": 11500
},
{
"epoch": 23.196375566317762,
"grad_norm": 0.2390895038843155,
"learning_rate": 2.2666666666666668e-05,
"loss": 1.224,
"step": 11600
},
{
"epoch": 23.396344321199813,
"grad_norm": 0.23398549854755402,
"learning_rate": 2.2000000000000003e-05,
"loss": 1.2218,
"step": 11700
},
{
"epoch": 23.596313076081863,
"grad_norm": 0.2434803992509842,
"learning_rate": 2.1333333333333335e-05,
"loss": 1.224,
"step": 11800
},
{
"epoch": 23.796281830963913,
"grad_norm": 0.244966521859169,
"learning_rate": 2.0666666666666666e-05,
"loss": 1.2247,
"step": 11900
},
{
"epoch": 23.99625058584596,
"grad_norm": 0.2477530688047409,
"learning_rate": 2e-05,
"loss": 1.2161,
"step": 12000
},
{
"epoch": 23.99625058584596,
"eval_loss": 1.0947577953338623,
"eval_runtime": 781.3136,
"eval_samples_per_second": 19.867,
"eval_steps_per_second": 2.484,
"step": 12000
},
{
"epoch": 24.19621934072801,
"grad_norm": 0.24265432357788086,
"learning_rate": 1.9333333333333333e-05,
"loss": 1.22,
"step": 12100
},
{
"epoch": 24.39618809561006,
"grad_norm": 0.23374997079372406,
"learning_rate": 1.866666666666667e-05,
"loss": 1.2256,
"step": 12200
},
{
"epoch": 24.59615685049211,
"grad_norm": 0.24531888961791992,
"learning_rate": 1.8e-05,
"loss": 1.2227,
"step": 12300
},
{
"epoch": 24.79612560537416,
"grad_norm": 0.23044925928115845,
"learning_rate": 1.7333333333333336e-05,
"loss": 1.2215,
"step": 12400
},
{
"epoch": 24.99609436025621,
"grad_norm": 0.24221302568912506,
"learning_rate": 1.6666666666666667e-05,
"loss": 1.2257,
"step": 12500
},
{
"epoch": 24.99609436025621,
"eval_loss": 1.1003334522247314,
"eval_runtime": 782.6561,
"eval_samples_per_second": 19.832,
"eval_steps_per_second": 2.48,
"step": 12500
},
{
"epoch": 25.19606311513826,
"grad_norm": 0.2269056737422943,
"learning_rate": 1.6000000000000003e-05,
"loss": 1.2214,
"step": 12600
},
{
"epoch": 25.39603187002031,
"grad_norm": 0.23873771727085114,
"learning_rate": 1.5333333333333334e-05,
"loss": 1.2228,
"step": 12700
},
{
"epoch": 25.59600062490236,
"grad_norm": 0.23447927832603455,
"learning_rate": 1.4666666666666668e-05,
"loss": 1.2125,
"step": 12800
},
{
"epoch": 25.79596937978441,
"grad_norm": 0.23669584095478058,
"learning_rate": 1.4000000000000001e-05,
"loss": 1.2223,
"step": 12900
},
{
"epoch": 25.99593813466646,
"grad_norm": 0.25148263573646545,
"learning_rate": 1.3333333333333333e-05,
"loss": 1.2142,
"step": 13000
},
{
"epoch": 25.99593813466646,
"eval_loss": 1.0822358131408691,
"eval_runtime": 781.57,
"eval_samples_per_second": 19.86,
"eval_steps_per_second": 2.483,
"step": 13000
},
{
"epoch": 26.195906889548507,
"grad_norm": 0.2401517629623413,
"learning_rate": 1.2666666666666668e-05,
"loss": 1.2183,
"step": 13100
},
{
"epoch": 26.395875644430557,
"grad_norm": 0.2405146360397339,
"learning_rate": 1.2e-05,
"loss": 1.2179,
"step": 13200
},
{
"epoch": 26.595844399312607,
"grad_norm": 0.25216609239578247,
"learning_rate": 1.1333333333333334e-05,
"loss": 1.2237,
"step": 13300
},
{
"epoch": 26.795813154194658,
"grad_norm": 0.24814079701900482,
"learning_rate": 1.0666666666666667e-05,
"loss": 1.2186,
"step": 13400
},
{
"epoch": 26.995781909076708,
"grad_norm": 0.24657221138477325,
"learning_rate": 1e-05,
"loss": 1.2211,
"step": 13500
},
{
"epoch": 26.995781909076708,
"eval_loss": 1.0853413343429565,
"eval_runtime": 779.9076,
"eval_samples_per_second": 19.902,
"eval_steps_per_second": 2.489,
"step": 13500
},
{
"epoch": 27.195750663958755,
"grad_norm": 0.2545396685600281,
"learning_rate": 9.333333333333334e-06,
"loss": 1.2217,
"step": 13600
},
{
"epoch": 27.395719418840805,
"grad_norm": 0.25391411781311035,
"learning_rate": 8.666666666666668e-06,
"loss": 1.2178,
"step": 13700
},
{
"epoch": 27.595688173722856,
"grad_norm": 0.24631735682487488,
"learning_rate": 8.000000000000001e-06,
"loss": 1.2223,
"step": 13800
},
{
"epoch": 27.795656928604906,
"grad_norm": 0.24099507927894592,
"learning_rate": 7.333333333333334e-06,
"loss": 1.2157,
"step": 13900
},
{
"epoch": 27.995625683486956,
"grad_norm": 0.2475418895483017,
"learning_rate": 6.666666666666667e-06,
"loss": 1.2175,
"step": 14000
},
{
"epoch": 27.995625683486956,
"eval_loss": 1.0951762199401855,
"eval_runtime": 781.5447,
"eval_samples_per_second": 19.861,
"eval_steps_per_second": 2.484,
"step": 14000
},
{
"epoch": 28.195594438369003,
"grad_norm": 0.2455308735370636,
"learning_rate": 6e-06,
"loss": 1.2172,
"step": 14100
},
{
"epoch": 28.395563193251053,
"grad_norm": 0.2334292083978653,
"learning_rate": 5.333333333333334e-06,
"loss": 1.2236,
"step": 14200
},
{
"epoch": 28.595531948133104,
"grad_norm": 0.23820115625858307,
"learning_rate": 4.666666666666667e-06,
"loss": 1.2149,
"step": 14300
},
{
"epoch": 28.795500703015154,
"grad_norm": 0.25057491660118103,
"learning_rate": 4.000000000000001e-06,
"loss": 1.2207,
"step": 14400
},
{
"epoch": 28.995469457897205,
"grad_norm": 0.24009475111961365,
"learning_rate": 3.3333333333333333e-06,
"loss": 1.2157,
"step": 14500
},
{
"epoch": 28.995469457897205,
"eval_loss": 1.0933923721313477,
"eval_runtime": 779.8849,
"eval_samples_per_second": 19.903,
"eval_steps_per_second": 2.489,
"step": 14500
},
{
"epoch": 29.195438212779255,
"grad_norm": 0.24403980374336243,
"learning_rate": 2.666666666666667e-06,
"loss": 1.2162,
"step": 14600
},
{
"epoch": 29.3954069676613,
"grad_norm": 0.2399660050868988,
"learning_rate": 2.0000000000000003e-06,
"loss": 1.2179,
"step": 14700
},
{
"epoch": 29.595375722543352,
"grad_norm": 0.23738054931163788,
"learning_rate": 1.3333333333333334e-06,
"loss": 1.2181,
"step": 14800
},
{
"epoch": 29.795344477425402,
"grad_norm": 0.24452446401119232,
"learning_rate": 6.666666666666667e-07,
"loss": 1.2187,
"step": 14900
},
{
"epoch": 29.995313232307453,
"grad_norm": 0.2524297833442688,
"learning_rate": 0.0,
"loss": 1.2169,
"step": 15000
},
{
"epoch": 29.995313232307453,
"eval_loss": 1.1003856658935547,
"eval_runtime": 781.9983,
"eval_samples_per_second": 19.849,
"eval_steps_per_second": 2.482,
"step": 15000
}
],
"logging_steps": 100,
"max_steps": 15000,
"num_input_tokens_seen": 0,
"num_train_epochs": 30,
"save_steps": 100,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 2.341098012898702e+19,
"train_batch_size": 8,
"trial_name": null,
"trial_params": null
}