| { | |
| "best_global_step": null, | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 1.2326666666666666, | |
| "eval_steps": 500, | |
| "global_step": 1500, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.006666666666666667, | |
| "grad_norm": 6.203003406524658, | |
| "learning_rate": 6.000000000000001e-07, | |
| "loss": 0.1821, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.013333333333333334, | |
| "grad_norm": 1.7948269844055176, | |
| "learning_rate": 1.2666666666666669e-06, | |
| "loss": 0.1093, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.02, | |
| "grad_norm": 1.1236943006515503, | |
| "learning_rate": 1.9333333333333336e-06, | |
| "loss": 0.0536, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.02666666666666667, | |
| "grad_norm": 0.6979029774665833, | |
| "learning_rate": 2.6e-06, | |
| "loss": 0.0324, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 0.03333333333333333, | |
| "grad_norm": 0.6550009250640869, | |
| "learning_rate": 3.266666666666667e-06, | |
| "loss": 0.028, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.04, | |
| "grad_norm": 0.64484041929245, | |
| "learning_rate": 3.9333333333333335e-06, | |
| "loss": 0.0272, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.04666666666666667, | |
| "grad_norm": 0.5267894864082336, | |
| "learning_rate": 4.600000000000001e-06, | |
| "loss": 0.0274, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 0.05333333333333334, | |
| "grad_norm": 0.7408329248428345, | |
| "learning_rate": 5.2666666666666665e-06, | |
| "loss": 0.0251, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 0.06, | |
| "grad_norm": 0.96554034948349, | |
| "learning_rate": 5.933333333333335e-06, | |
| "loss": 0.0239, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 0.06666666666666667, | |
| "grad_norm": 0.5757883191108704, | |
| "learning_rate": 6.600000000000001e-06, | |
| "loss": 0.0216, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.07333333333333333, | |
| "grad_norm": 0.7756351232528687, | |
| "learning_rate": 7.266666666666668e-06, | |
| "loss": 0.0189, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 0.08, | |
| "grad_norm": 0.9746313095092773, | |
| "learning_rate": 7.933333333333334e-06, | |
| "loss": 0.0182, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 0.08666666666666667, | |
| "grad_norm": 0.5941735506057739, | |
| "learning_rate": 8.6e-06, | |
| "loss": 0.0189, | |
| "step": 130 | |
| }, | |
| { | |
| "epoch": 0.09333333333333334, | |
| "grad_norm": 0.823971688747406, | |
| "learning_rate": 9.266666666666667e-06, | |
| "loss": 0.0165, | |
| "step": 140 | |
| }, | |
| { | |
| "epoch": 0.1, | |
| "grad_norm": 0.5583502650260925, | |
| "learning_rate": 9.933333333333334e-06, | |
| "loss": 0.0148, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 0.10666666666666667, | |
| "grad_norm": 0.33550503849983215, | |
| "learning_rate": 9.998903417374228e-06, | |
| "loss": 0.0121, | |
| "step": 160 | |
| }, | |
| { | |
| "epoch": 0.11333333333333333, | |
| "grad_norm": 0.4242702126502991, | |
| "learning_rate": 9.995113378907791e-06, | |
| "loss": 0.0119, | |
| "step": 170 | |
| }, | |
| { | |
| "epoch": 0.12, | |
| "grad_norm": 0.3900003731250763, | |
| "learning_rate": 9.988618398427495e-06, | |
| "loss": 0.0116, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 0.12666666666666668, | |
| "grad_norm": 0.2774970531463623, | |
| "learning_rate": 9.979421993079853e-06, | |
| "loss": 0.0095, | |
| "step": 190 | |
| }, | |
| { | |
| "epoch": 0.13333333333333333, | |
| "grad_norm": 0.4535629451274872, | |
| "learning_rate": 9.967529142880592e-06, | |
| "loss": 0.0094, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 0.14, | |
| "grad_norm": 0.4653874933719635, | |
| "learning_rate": 9.952946288017899e-06, | |
| "loss": 0.0098, | |
| "step": 210 | |
| }, | |
| { | |
| "epoch": 0.14666666666666667, | |
| "grad_norm": 0.4078308939933777, | |
| "learning_rate": 9.93568132536494e-06, | |
| "loss": 0.0091, | |
| "step": 220 | |
| }, | |
| { | |
| "epoch": 0.15333333333333332, | |
| "grad_norm": 0.18449494242668152, | |
| "learning_rate": 9.915743604203563e-06, | |
| "loss": 0.0087, | |
| "step": 230 | |
| }, | |
| { | |
| "epoch": 0.16, | |
| "grad_norm": 0.199789360165596, | |
| "learning_rate": 9.893143921161501e-06, | |
| "loss": 0.0083, | |
| "step": 240 | |
| }, | |
| { | |
| "epoch": 0.16666666666666666, | |
| "grad_norm": 0.33356139063835144, | |
| "learning_rate": 9.867894514365802e-06, | |
| "loss": 0.0082, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 0.17333333333333334, | |
| "grad_norm": 0.3274407684803009, | |
| "learning_rate": 9.840009056815674e-06, | |
| "loss": 0.0073, | |
| "step": 260 | |
| }, | |
| { | |
| "epoch": 0.18, | |
| "grad_norm": 0.30138537287712097, | |
| "learning_rate": 9.809502648978311e-06, | |
| "loss": 0.0076, | |
| "step": 270 | |
| }, | |
| { | |
| "epoch": 0.18666666666666668, | |
| "grad_norm": 0.25775179266929626, | |
| "learning_rate": 9.776391810611719e-06, | |
| "loss": 0.007, | |
| "step": 280 | |
| }, | |
| { | |
| "epoch": 0.19333333333333333, | |
| "grad_norm": 0.16850200295448303, | |
| "learning_rate": 9.740694471818988e-06, | |
| "loss": 0.0078, | |
| "step": 290 | |
| }, | |
| { | |
| "epoch": 0.2, | |
| "grad_norm": 0.1555694341659546, | |
| "learning_rate": 9.702429963338812e-06, | |
| "loss": 0.007, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 0.20666666666666667, | |
| "grad_norm": 0.2765127718448639, | |
| "learning_rate": 9.661619006077562e-06, | |
| "loss": 0.0068, | |
| "step": 310 | |
| }, | |
| { | |
| "epoch": 0.21333333333333335, | |
| "grad_norm": 0.22472700476646423, | |
| "learning_rate": 9.618283699888543e-06, | |
| "loss": 0.0073, | |
| "step": 320 | |
| }, | |
| { | |
| "epoch": 0.22, | |
| "grad_norm": 0.2309114784002304, | |
| "learning_rate": 9.572447511604536e-06, | |
| "loss": 0.0075, | |
| "step": 330 | |
| }, | |
| { | |
| "epoch": 0.22666666666666666, | |
| "grad_norm": 0.21356935799121857, | |
| "learning_rate": 9.524135262330098e-06, | |
| "loss": 0.007, | |
| "step": 340 | |
| }, | |
| { | |
| "epoch": 0.23333333333333334, | |
| "grad_norm": 0.12999677658081055, | |
| "learning_rate": 9.473373114000493e-06, | |
| "loss": 0.0072, | |
| "step": 350 | |
| }, | |
| { | |
| "epoch": 0.24, | |
| "grad_norm": 0.22963768243789673, | |
| "learning_rate": 9.420188555214537e-06, | |
| "loss": 0.0073, | |
| "step": 360 | |
| }, | |
| { | |
| "epoch": 0.24666666666666667, | |
| "grad_norm": 0.4281196892261505, | |
| "learning_rate": 9.364610386349048e-06, | |
| "loss": 0.0081, | |
| "step": 370 | |
| }, | |
| { | |
| "epoch": 0.25333333333333335, | |
| "grad_norm": 0.34558340907096863, | |
| "learning_rate": 9.306668703962927e-06, | |
| "loss": 0.0063, | |
| "step": 380 | |
| }, | |
| { | |
| "epoch": 0.26, | |
| "grad_norm": 0.2100982815027237, | |
| "learning_rate": 9.246394884499334e-06, | |
| "loss": 0.0066, | |
| "step": 390 | |
| }, | |
| { | |
| "epoch": 0.26666666666666666, | |
| "grad_norm": 0.25500863790512085, | |
| "learning_rate": 9.18382156729481e-06, | |
| "loss": 0.0066, | |
| "step": 400 | |
| }, | |
| { | |
| "epoch": 0.2733333333333333, | |
| "grad_norm": 0.2128761261701584, | |
| "learning_rate": 9.118982636904476e-06, | |
| "loss": 0.0063, | |
| "step": 410 | |
| }, | |
| { | |
| "epoch": 0.28, | |
| "grad_norm": 0.18737247586250305, | |
| "learning_rate": 9.051913204752972e-06, | |
| "loss": 0.007, | |
| "step": 420 | |
| }, | |
| { | |
| "epoch": 0.2866666666666667, | |
| "grad_norm": 0.14447563886642456, | |
| "learning_rate": 8.982649590120982e-06, | |
| "loss": 0.0067, | |
| "step": 430 | |
| }, | |
| { | |
| "epoch": 0.29333333333333333, | |
| "grad_norm": 0.23479776084423065, | |
| "learning_rate": 8.911229300477716e-06, | |
| "loss": 0.0058, | |
| "step": 440 | |
| }, | |
| { | |
| "epoch": 0.3, | |
| "grad_norm": 0.3247714936733246, | |
| "learning_rate": 8.837691011169944e-06, | |
| "loss": 0.0065, | |
| "step": 450 | |
| }, | |
| { | |
| "epoch": 0.30666666666666664, | |
| "grad_norm": 0.2081669718027115, | |
| "learning_rate": 8.762074544478622e-06, | |
| "loss": 0.0063, | |
| "step": 460 | |
| }, | |
| { | |
| "epoch": 0.31333333333333335, | |
| "grad_norm": 0.5186413526535034, | |
| "learning_rate": 8.68442084805442e-06, | |
| "loss": 0.0068, | |
| "step": 470 | |
| }, | |
| { | |
| "epoch": 0.32, | |
| "grad_norm": 0.24358269572257996, | |
| "learning_rate": 8.604771972743848e-06, | |
| "loss": 0.0068, | |
| "step": 480 | |
| }, | |
| { | |
| "epoch": 0.32666666666666666, | |
| "grad_norm": 0.1915241926908493, | |
| "learning_rate": 8.523171049817974e-06, | |
| "loss": 0.0061, | |
| "step": 490 | |
| }, | |
| { | |
| "epoch": 0.3333333333333333, | |
| "grad_norm": 0.3544493019580841, | |
| "learning_rate": 8.439662267616093e-06, | |
| "loss": 0.0065, | |
| "step": 500 | |
| }, | |
| { | |
| "epoch": 0.34, | |
| "grad_norm": 0.20867733657360077, | |
| "learning_rate": 8.354290847616954e-06, | |
| "loss": 0.0062, | |
| "step": 510 | |
| }, | |
| { | |
| "epoch": 0.3466666666666667, | |
| "grad_norm": 0.3348722457885742, | |
| "learning_rate": 8.267103019950529e-06, | |
| "loss": 0.006, | |
| "step": 520 | |
| }, | |
| { | |
| "epoch": 0.35333333333333333, | |
| "grad_norm": 0.14975030720233917, | |
| "learning_rate": 8.178145998363585e-06, | |
| "loss": 0.006, | |
| "step": 530 | |
| }, | |
| { | |
| "epoch": 0.36, | |
| "grad_norm": 0.20441463589668274, | |
| "learning_rate": 8.087467954652608e-06, | |
| "loss": 0.0061, | |
| "step": 540 | |
| }, | |
| { | |
| "epoch": 0.36666666666666664, | |
| "grad_norm": 0.17158298194408417, | |
| "learning_rate": 7.99511799257793e-06, | |
| "loss": 0.0059, | |
| "step": 550 | |
| }, | |
| { | |
| "epoch": 0.37333333333333335, | |
| "grad_norm": 0.12603940069675446, | |
| "learning_rate": 7.901146121273165e-06, | |
| "loss": 0.0055, | |
| "step": 560 | |
| }, | |
| { | |
| "epoch": 0.38, | |
| "grad_norm": 0.1505148708820343, | |
| "learning_rate": 7.80560322816439e-06, | |
| "loss": 0.0062, | |
| "step": 570 | |
| }, | |
| { | |
| "epoch": 0.38666666666666666, | |
| "grad_norm": 0.20914286375045776, | |
| "learning_rate": 7.7085410514137e-06, | |
| "loss": 0.0058, | |
| "step": 580 | |
| }, | |
| { | |
| "epoch": 0.3933333333333333, | |
| "grad_norm": 0.14092352986335754, | |
| "learning_rate": 7.610012151902091e-06, | |
| "loss": 0.0054, | |
| "step": 590 | |
| }, | |
| { | |
| "epoch": 0.4, | |
| "grad_norm": 0.13804371654987335, | |
| "learning_rate": 7.510069884766802e-06, | |
| "loss": 0.0054, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 0.4066666666666667, | |
| "grad_norm": 0.13913190364837646, | |
| "learning_rate": 7.408768370508577e-06, | |
| "loss": 0.0054, | |
| "step": 610 | |
| }, | |
| { | |
| "epoch": 0.41333333333333333, | |
| "grad_norm": 0.1063983216881752, | |
| "learning_rate": 7.3061624656844544e-06, | |
| "loss": 0.0058, | |
| "step": 620 | |
| }, | |
| { | |
| "epoch": 0.42, | |
| "grad_norm": 0.17551790177822113, | |
| "learning_rate": 7.2023077332019755e-06, | |
| "loss": 0.0056, | |
| "step": 630 | |
| }, | |
| { | |
| "epoch": 0.4266666666666667, | |
| "grad_norm": 0.1765536069869995, | |
| "learning_rate": 7.0972604122308865e-06, | |
| "loss": 0.0052, | |
| "step": 640 | |
| }, | |
| { | |
| "epoch": 0.43333333333333335, | |
| "grad_norm": 0.1851435899734497, | |
| "learning_rate": 6.991077387748643e-06, | |
| "loss": 0.0054, | |
| "step": 650 | |
| }, | |
| { | |
| "epoch": 0.44, | |
| "grad_norm": 0.09965207427740097, | |
| "learning_rate": 6.883816159736187e-06, | |
| "loss": 0.0052, | |
| "step": 660 | |
| }, | |
| { | |
| "epoch": 0.44666666666666666, | |
| "grad_norm": 0.15776997804641724, | |
| "learning_rate": 6.775534812040686e-06, | |
| "loss": 0.0053, | |
| "step": 670 | |
| }, | |
| { | |
| "epoch": 0.4533333333333333, | |
| "grad_norm": 0.10462780296802521, | |
| "learning_rate": 6.666291980922122e-06, | |
| "loss": 0.0057, | |
| "step": 680 | |
| }, | |
| { | |
| "epoch": 0.46, | |
| "grad_norm": 0.11106210947036743, | |
| "learning_rate": 6.556146823300701e-06, | |
| "loss": 0.005, | |
| "step": 690 | |
| }, | |
| { | |
| "epoch": 0.4666666666666667, | |
| "grad_norm": 0.17219480872154236, | |
| "learning_rate": 6.445158984722358e-06, | |
| "loss": 0.0054, | |
| "step": 700 | |
| }, | |
| { | |
| "epoch": 0.47333333333333333, | |
| "grad_norm": 0.1051650419831276, | |
| "learning_rate": 6.3333885670596285e-06, | |
| "loss": 0.0056, | |
| "step": 710 | |
| }, | |
| { | |
| "epoch": 0.48, | |
| "grad_norm": 0.1256069540977478, | |
| "learning_rate": 6.220896095965428e-06, | |
| "loss": 0.005, | |
| "step": 720 | |
| }, | |
| { | |
| "epoch": 0.4866666666666667, | |
| "grad_norm": 0.15647602081298828, | |
| "learning_rate": 6.107742488097338e-06, | |
| "loss": 0.005, | |
| "step": 730 | |
| }, | |
| { | |
| "epoch": 0.49333333333333335, | |
| "grad_norm": 0.12142946571111679, | |
| "learning_rate": 5.993989018130173e-06, | |
| "loss": 0.0048, | |
| "step": 740 | |
| }, | |
| { | |
| "epoch": 0.5, | |
| "grad_norm": 0.11997466534376144, | |
| "learning_rate": 5.879697285574655e-06, | |
| "loss": 0.0047, | |
| "step": 750 | |
| }, | |
| { | |
| "epoch": 0.5066666666666667, | |
| "grad_norm": 0.1639082431793213, | |
| "learning_rate": 5.764929181420191e-06, | |
| "loss": 0.0052, | |
| "step": 760 | |
| }, | |
| { | |
| "epoch": 0.5133333333333333, | |
| "grad_norm": 0.13975323736667633, | |
| "learning_rate": 5.649746854619814e-06, | |
| "loss": 0.0053, | |
| "step": 770 | |
| }, | |
| { | |
| "epoch": 0.52, | |
| "grad_norm": 0.12413784116506577, | |
| "learning_rate": 5.5342126784354265e-06, | |
| "loss": 0.0048, | |
| "step": 780 | |
| }, | |
| { | |
| "epoch": 0.5266666666666666, | |
| "grad_norm": 0.15883666276931763, | |
| "learning_rate": 5.41838921666158e-06, | |
| "loss": 0.005, | |
| "step": 790 | |
| }, | |
| { | |
| "epoch": 0.5333333333333333, | |
| "grad_norm": 0.32062482833862305, | |
| "learning_rate": 5.3023391897460715e-06, | |
| "loss": 0.0046, | |
| "step": 800 | |
| }, | |
| { | |
| "epoch": 0.54, | |
| "grad_norm": 0.1388690024614334, | |
| "learning_rate": 5.18612544082573e-06, | |
| "loss": 0.0046, | |
| "step": 810 | |
| }, | |
| { | |
| "epoch": 0.5466666666666666, | |
| "grad_norm": 0.20216096937656403, | |
| "learning_rate": 5.069810901695727e-06, | |
| "loss": 0.0051, | |
| "step": 820 | |
| }, | |
| { | |
| "epoch": 0.5533333333333333, | |
| "grad_norm": 0.25560617446899414, | |
| "learning_rate": 4.953458558730917e-06, | |
| "loss": 0.0051, | |
| "step": 830 | |
| }, | |
| { | |
| "epoch": 0.56, | |
| "grad_norm": 0.1692255735397339, | |
| "learning_rate": 4.837131418777595e-06, | |
| "loss": 0.005, | |
| "step": 840 | |
| }, | |
| { | |
| "epoch": 0.5666666666666667, | |
| "grad_norm": 0.1533062905073166, | |
| "learning_rate": 4.720892475034181e-06, | |
| "loss": 0.0049, | |
| "step": 850 | |
| }, | |
| { | |
| "epoch": 0.5733333333333334, | |
| "grad_norm": 0.30720391869544983, | |
| "learning_rate": 4.604804672939295e-06, | |
| "loss": 0.0044, | |
| "step": 860 | |
| }, | |
| { | |
| "epoch": 0.58, | |
| "grad_norm": 0.1744144707918167, | |
| "learning_rate": 4.4889308760856826e-06, | |
| "loss": 0.0048, | |
| "step": 870 | |
| }, | |
| { | |
| "epoch": 0.5866666666666667, | |
| "grad_norm": 0.10267126560211182, | |
| "learning_rate": 4.373333832178478e-06, | |
| "loss": 0.0044, | |
| "step": 880 | |
| }, | |
| { | |
| "epoch": 0.5933333333333334, | |
| "grad_norm": 0.11942702531814575, | |
| "learning_rate": 4.258076139056217e-06, | |
| "loss": 0.005, | |
| "step": 890 | |
| }, | |
| { | |
| "epoch": 0.6, | |
| "grad_norm": 0.11804202944040298, | |
| "learning_rate": 4.143220210792993e-06, | |
| "loss": 0.0047, | |
| "step": 900 | |
| }, | |
| { | |
| "epoch": 0.6066666666666667, | |
| "grad_norm": 0.10239852964878082, | |
| "learning_rate": 4.028828243900141e-06, | |
| "loss": 0.0048, | |
| "step": 910 | |
| }, | |
| { | |
| "epoch": 0.6133333333333333, | |
| "grad_norm": 0.11266035586595535, | |
| "learning_rate": 3.914962183645733e-06, | |
| "loss": 0.0043, | |
| "step": 920 | |
| }, | |
| { | |
| "epoch": 0.62, | |
| "grad_norm": 0.1284233033657074, | |
| "learning_rate": 3.8016836905101157e-06, | |
| "loss": 0.0045, | |
| "step": 930 | |
| }, | |
| { | |
| "epoch": 0.6266666666666667, | |
| "grad_norm": 0.19732366502285004, | |
| "learning_rate": 3.6890541067956775e-06, | |
| "loss": 0.0043, | |
| "step": 940 | |
| }, | |
| { | |
| "epoch": 0.6333333333333333, | |
| "grad_norm": 0.11873602122068405, | |
| "learning_rate": 3.577134423408906e-06, | |
| "loss": 0.0045, | |
| "step": 950 | |
| }, | |
| { | |
| "epoch": 0.64, | |
| "grad_norm": 0.1326642781496048, | |
| "learning_rate": 3.465985246832739e-06, | |
| "loss": 0.005, | |
| "step": 960 | |
| }, | |
| { | |
| "epoch": 0.6466666666666666, | |
| "grad_norm": 0.14678043127059937, | |
| "learning_rate": 3.355666766307084e-06, | |
| "loss": 0.0039, | |
| "step": 970 | |
| }, | |
| { | |
| "epoch": 0.6533333333333333, | |
| "grad_norm": 0.12000418454408646, | |
| "learning_rate": 3.246238721235283e-06, | |
| "loss": 0.0042, | |
| "step": 980 | |
| }, | |
| { | |
| "epoch": 0.66, | |
| "grad_norm": 0.19870968163013458, | |
| "learning_rate": 3.137760368834169e-06, | |
| "loss": 0.0043, | |
| "step": 990 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "grad_norm": 0.09272909164428711, | |
| "learning_rate": 3.030290452045245e-06, | |
| "loss": 0.0044, | |
| "step": 1000 | |
| }, | |
| { | |
| "epoch": 0.6733333333333333, | |
| "grad_norm": 0.1275554746389389, | |
| "learning_rate": 2.9238871677243354e-06, | |
| "loss": 0.0046, | |
| "step": 1010 | |
| }, | |
| { | |
| "epoch": 0.68, | |
| "grad_norm": 0.12832292914390564, | |
| "learning_rate": 2.818608135126967e-06, | |
| "loss": 0.0043, | |
| "step": 1020 | |
| }, | |
| { | |
| "epoch": 0.6866666666666666, | |
| "grad_norm": 0.13131223618984222, | |
| "learning_rate": 2.714510364706531e-06, | |
| "loss": 0.0042, | |
| "step": 1030 | |
| }, | |
| { | |
| "epoch": 0.6933333333333334, | |
| "grad_norm": 0.23032841086387634, | |
| "learning_rate": 2.611650227242102e-06, | |
| "loss": 0.0041, | |
| "step": 1040 | |
| }, | |
| { | |
| "epoch": 0.7, | |
| "grad_norm": 0.15346947312355042, | |
| "learning_rate": 2.5100834233126827e-06, | |
| "loss": 0.0043, | |
| "step": 1050 | |
| }, | |
| { | |
| "epoch": 0.7066666666666667, | |
| "grad_norm": 0.14897286891937256, | |
| "learning_rate": 2.40986495313435e-06, | |
| "loss": 0.0045, | |
| "step": 1060 | |
| }, | |
| { | |
| "epoch": 0.7133333333333334, | |
| "grad_norm": 0.2891519367694855, | |
| "learning_rate": 2.3110490867766644e-06, | |
| "loss": 0.0044, | |
| "step": 1070 | |
| }, | |
| { | |
| "epoch": 0.72, | |
| "grad_norm": 0.23509995639324188, | |
| "learning_rate": 2.213689334774479e-06, | |
| "loss": 0.0039, | |
| "step": 1080 | |
| }, | |
| { | |
| "epoch": 0.7266666666666667, | |
| "grad_norm": 0.08416521549224854, | |
| "learning_rate": 2.1178384191510344e-06, | |
| "loss": 0.0038, | |
| "step": 1090 | |
| }, | |
| { | |
| "epoch": 0.7333333333333333, | |
| "grad_norm": 0.1474093496799469, | |
| "learning_rate": 2.023548244868051e-06, | |
| "loss": 0.0039, | |
| "step": 1100 | |
| }, | |
| { | |
| "epoch": 0.74, | |
| "grad_norm": 0.12262577563524246, | |
| "learning_rate": 1.9308698717182874e-06, | |
| "loss": 0.0038, | |
| "step": 1110 | |
| }, | |
| { | |
| "epoch": 0.7466666666666667, | |
| "grad_norm": 0.140113964676857, | |
| "learning_rate": 1.8398534866757455e-06, | |
| "loss": 0.0038, | |
| "step": 1120 | |
| }, | |
| { | |
| "epoch": 0.7533333333333333, | |
| "grad_norm": 0.11513128876686096, | |
| "learning_rate": 1.7505483767185583e-06, | |
| "loss": 0.0037, | |
| "step": 1130 | |
| }, | |
| { | |
| "epoch": 0.76, | |
| "grad_norm": 0.12616294622421265, | |
| "learning_rate": 1.6630029021392007e-06, | |
| "loss": 0.0042, | |
| "step": 1140 | |
| }, | |
| { | |
| "epoch": 0.7666666666666667, | |
| "grad_norm": 0.22035591304302216, | |
| "learning_rate": 1.5772644703565564e-06, | |
| "loss": 0.0043, | |
| "step": 1150 | |
| }, | |
| { | |
| "epoch": 1.006, | |
| "grad_norm": 0.1307288408279419, | |
| "learning_rate": 1.4933795102439558e-06, | |
| "loss": 0.0041, | |
| "step": 1160 | |
| }, | |
| { | |
| "epoch": 1.0126666666666666, | |
| "grad_norm": 0.10403138399124146, | |
| "learning_rate": 1.4113934469871166e-06, | |
| "loss": 0.004, | |
| "step": 1170 | |
| }, | |
| { | |
| "epoch": 1.0193333333333334, | |
| "grad_norm": 0.08693425357341766, | |
| "learning_rate": 1.3313506774856177e-06, | |
| "loss": 0.0039, | |
| "step": 1180 | |
| }, | |
| { | |
| "epoch": 1.026, | |
| "grad_norm": 0.17643886804580688, | |
| "learning_rate": 1.2532945463111856e-06, | |
| "loss": 0.0039, | |
| "step": 1190 | |
| }, | |
| { | |
| "epoch": 1.0326666666666666, | |
| "grad_norm": 0.11108499765396118, | |
| "learning_rate": 1.1772673222358421e-06, | |
| "loss": 0.0036, | |
| "step": 1200 | |
| }, | |
| { | |
| "epoch": 1.0393333333333334, | |
| "grad_norm": 0.15255087614059448, | |
| "learning_rate": 1.1033101753426285e-06, | |
| "loss": 0.004, | |
| "step": 1210 | |
| }, | |
| { | |
| "epoch": 1.046, | |
| "grad_norm": 0.18010929226875305, | |
| "learning_rate": 1.0314631547312738e-06, | |
| "loss": 0.0038, | |
| "step": 1220 | |
| }, | |
| { | |
| "epoch": 1.0526666666666666, | |
| "grad_norm": 0.08688977360725403, | |
| "learning_rate": 9.617651668308914e-07, | |
| "loss": 0.0039, | |
| "step": 1230 | |
| }, | |
| { | |
| "epoch": 1.0593333333333332, | |
| "grad_norm": 0.07467509061098099, | |
| "learning_rate": 8.942539543314799e-07, | |
| "loss": 0.0036, | |
| "step": 1240 | |
| }, | |
| { | |
| "epoch": 1.066, | |
| "grad_norm": 0.10169578343629837, | |
| "learning_rate": 8.289660757455803e-07, | |
| "loss": 0.004, | |
| "step": 1250 | |
| }, | |
| { | |
| "epoch": 1.0726666666666667, | |
| "grad_norm": 0.16021907329559326, | |
| "learning_rate": 7.659368856111926e-07, | |
| "loss": 0.0039, | |
| "step": 1260 | |
| }, | |
| { | |
| "epoch": 1.0793333333333333, | |
| "grad_norm": 0.22307100892066956, | |
| "learning_rate": 7.052005153466779e-07, | |
| "loss": 0.0035, | |
| "step": 1270 | |
| }, | |
| { | |
| "epoch": 1.086, | |
| "grad_norm": 0.14644736051559448, | |
| "learning_rate": 6.467898547679913e-07, | |
| "loss": 0.0041, | |
| "step": 1280 | |
| }, | |
| { | |
| "epoch": 1.0926666666666667, | |
| "grad_norm": 0.1397707611322403, | |
| "learning_rate": 5.9073653427826e-07, | |
| "loss": 0.0038, | |
| "step": 1290 | |
| }, | |
| { | |
| "epoch": 1.0993333333333333, | |
| "grad_norm": 0.07635867595672607, | |
| "learning_rate": 5.370709077393721e-07, | |
| "loss": 0.0036, | |
| "step": 1300 | |
| }, | |
| { | |
| "epoch": 1.106, | |
| "grad_norm": 0.09411203861236572, | |
| "learning_rate": 4.858220360348187e-07, | |
| "loss": 0.0035, | |
| "step": 1310 | |
| }, | |
| { | |
| "epoch": 1.1126666666666667, | |
| "grad_norm": 0.0843476727604866, | |
| "learning_rate": 4.370176713327118e-07, | |
| "loss": 0.004, | |
| "step": 1320 | |
| }, | |
| { | |
| "epoch": 1.1193333333333333, | |
| "grad_norm": 0.1618175208568573, | |
| "learning_rate": 3.90684242057498e-07, | |
| "loss": 0.0033, | |
| "step": 1330 | |
| }, | |
| { | |
| "epoch": 1.126, | |
| "grad_norm": 0.14085407555103302, | |
| "learning_rate": 3.468468385785023e-07, | |
| "loss": 0.0034, | |
| "step": 1340 | |
| }, | |
| { | |
| "epoch": 1.1326666666666667, | |
| "grad_norm": 0.07618981599807739, | |
| "learning_rate": 3.055291996230492e-07, | |
| "loss": 0.0035, | |
| "step": 1350 | |
| }, | |
| { | |
| "epoch": 1.1393333333333333, | |
| "grad_norm": 0.1039813682436943, | |
| "learning_rate": 2.6675369942151864e-07, | |
| "loss": 0.0036, | |
| "step": 1360 | |
| }, | |
| { | |
| "epoch": 1.146, | |
| "grad_norm": 0.11963555961847305, | |
| "learning_rate": 2.3054133559131163e-07, | |
| "loss": 0.0035, | |
| "step": 1370 | |
| }, | |
| { | |
| "epoch": 1.1526666666666667, | |
| "grad_norm": 0.0936531350016594, | |
| "learning_rate": 1.9691171776626882e-07, | |
| "loss": 0.0035, | |
| "step": 1380 | |
| }, | |
| { | |
| "epoch": 1.1593333333333333, | |
| "grad_norm": 0.07366503030061722, | |
| "learning_rate": 1.6588305697770313e-07, | |
| "loss": 0.0031, | |
| "step": 1390 | |
| }, | |
| { | |
| "epoch": 1.166, | |
| "grad_norm": 0.09187215566635132, | |
| "learning_rate": 1.374721557928116e-07, | |
| "loss": 0.0031, | |
| "step": 1400 | |
| }, | |
| { | |
| "epoch": 1.1726666666666667, | |
| "grad_norm": 0.5144683718681335, | |
| "learning_rate": 1.1169439921578485e-07, | |
| "loss": 0.0035, | |
| "step": 1410 | |
| }, | |
| { | |
| "epoch": 1.1793333333333333, | |
| "grad_norm": 0.20097510516643524, | |
| "learning_rate": 8.856374635655696e-08, | |
| "loss": 0.0035, | |
| "step": 1420 | |
| }, | |
| { | |
| "epoch": 1.186, | |
| "grad_norm": 0.09183371067047119, | |
| "learning_rate": 6.809272287169988e-08, | |
| "loss": 0.003, | |
| "step": 1430 | |
| }, | |
| { | |
| "epoch": 1.1926666666666668, | |
| "grad_norm": 0.11482365429401398, | |
| "learning_rate": 5.029241418156139e-08, | |
| "loss": 0.0031, | |
| "step": 1440 | |
| }, | |
| { | |
| "epoch": 1.1993333333333334, | |
| "grad_norm": 0.14329113066196442, | |
| "learning_rate": 3.517245946731529e-08, | |
| "loss": 0.0036, | |
| "step": 1450 | |
| }, | |
| { | |
| "epoch": 1.206, | |
| "grad_norm": 0.10597661137580872, | |
| "learning_rate": 2.27410464511707e-08, | |
| "loss": 0.0035, | |
| "step": 1460 | |
| }, | |
| { | |
| "epoch": 1.2126666666666668, | |
| "grad_norm": 0.09808115661144257, | |
| "learning_rate": 1.3004906962578723e-08, | |
| "loss": 0.0033, | |
| "step": 1470 | |
| }, | |
| { | |
| "epoch": 1.2193333333333334, | |
| "grad_norm": 0.10720200836658478, | |
| "learning_rate": 5.969313292830126e-09, | |
| "loss": 0.0034, | |
| "step": 1480 | |
| }, | |
| { | |
| "epoch": 1.226, | |
| "grad_norm": 0.07476802915334702, | |
| "learning_rate": 1.638075340010814e-09, | |
| "loss": 0.0034, | |
| "step": 1490 | |
| }, | |
| { | |
| "epoch": 1.2326666666666666, | |
| "grad_norm": 0.12817278504371643, | |
| "learning_rate": 1.3538545881042198e-11, | |
| "loss": 0.0033, | |
| "step": 1500 | |
| } | |
| ], | |
| "logging_steps": 10, | |
| "max_steps": 1500, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 9223372036854775807, | |
| "save_steps": 500, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 1.508192429867742e+19, | |
| "train_batch_size": 1, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |