| { | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 0.04842052922056642, | |
| "global_step": 8265, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 8.78775484946759e-05, | |
| "learning_rate": 2.34375e-05, | |
| "loss": 10.2, | |
| "step": 15 | |
| }, | |
| { | |
| "epoch": 0.0001757550969893518, | |
| "learning_rate": 4.6875e-05, | |
| "loss": 9.733333333333333, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.0002636326454840277, | |
| "learning_rate": 7.031250000000001e-05, | |
| "loss": 8.433333333333334, | |
| "step": 45 | |
| }, | |
| { | |
| "epoch": 0.0003515101939787036, | |
| "learning_rate": 9.375e-05, | |
| "loss": 8.266666666666667, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.0004393877424733795, | |
| "learning_rate": 0.0001171875, | |
| "loss": 8.066666666666666, | |
| "step": 75 | |
| }, | |
| { | |
| "epoch": 0.0005272652909680554, | |
| "learning_rate": 0.00014062500000000002, | |
| "loss": 7.933333333333334, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 0.0006151428394627313, | |
| "learning_rate": 0.0001640625, | |
| "loss": 7.866666666666666, | |
| "step": 105 | |
| }, | |
| { | |
| "epoch": 0.0007030203879574072, | |
| "learning_rate": 0.0001875, | |
| "loss": 7.866666666666666, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 0.0007908979364520831, | |
| "learning_rate": 0.0002109375, | |
| "loss": 7.8, | |
| "step": 135 | |
| }, | |
| { | |
| "epoch": 0.000878775484946759, | |
| "learning_rate": 0.000234375, | |
| "loss": 7.8, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 0.0009666530334414349, | |
| "learning_rate": 0.0002578125, | |
| "loss": 7.733333333333333, | |
| "step": 165 | |
| }, | |
| { | |
| "epoch": 0.0010545305819361108, | |
| "learning_rate": 0.00028125000000000003, | |
| "loss": 7.766666666666667, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 0.0011424081304307868, | |
| "learning_rate": 0.0003046875, | |
| "loss": 7.7, | |
| "step": 195 | |
| }, | |
| { | |
| "epoch": 0.0012302856789254625, | |
| "learning_rate": 0.000328125, | |
| "loss": 7.733333333333333, | |
| "step": 210 | |
| }, | |
| { | |
| "epoch": 0.0013181632274201385, | |
| "learning_rate": 0.0003515625, | |
| "loss": 7.7, | |
| "step": 225 | |
| }, | |
| { | |
| "epoch": 0.0014060407759148145, | |
| "learning_rate": 0.000375, | |
| "loss": 7.633333333333334, | |
| "step": 240 | |
| }, | |
| { | |
| "epoch": 0.0014939183244094903, | |
| "learning_rate": 0.00039843750000000003, | |
| "loss": 7.566666666666666, | |
| "step": 255 | |
| }, | |
| { | |
| "epoch": 0.0015817958729041663, | |
| "learning_rate": 0.000421875, | |
| "loss": 7.6, | |
| "step": 270 | |
| }, | |
| { | |
| "epoch": 0.0016696734213988422, | |
| "learning_rate": 0.0004453125, | |
| "loss": 7.5, | |
| "step": 285 | |
| }, | |
| { | |
| "epoch": 0.001757550969893518, | |
| "learning_rate": 0.00046875, | |
| "loss": 7.533333333333333, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 0.001845428518388194, | |
| "learning_rate": 0.0004921875, | |
| "loss": 7.533333333333333, | |
| "step": 315 | |
| }, | |
| { | |
| "epoch": 0.0019333060668828698, | |
| "learning_rate": 0.0004999902297188503, | |
| "loss": 7.5, | |
| "step": 330 | |
| }, | |
| { | |
| "epoch": 0.0020211836153775455, | |
| "learning_rate": 0.000499975574297126, | |
| "loss": 7.433333333333334, | |
| "step": 345 | |
| }, | |
| { | |
| "epoch": 0.0021090611638722215, | |
| "learning_rate": 0.0004999609188754016, | |
| "loss": 7.5, | |
| "step": 360 | |
| }, | |
| { | |
| "epoch": 0.0021969387123668975, | |
| "learning_rate": 0.0004999462634536772, | |
| "loss": 7.333333333333333, | |
| "step": 375 | |
| }, | |
| { | |
| "epoch": 0.0022848162608615735, | |
| "learning_rate": 0.0004999316080319527, | |
| "loss": 7.2, | |
| "step": 390 | |
| }, | |
| { | |
| "epoch": 0.0023726938093562495, | |
| "learning_rate": 0.0004999169526102283, | |
| "loss": 6.866666666666666, | |
| "step": 405 | |
| }, | |
| { | |
| "epoch": 0.002460571357850925, | |
| "learning_rate": 0.0004999022971885039, | |
| "loss": 6.533333333333333, | |
| "step": 420 | |
| }, | |
| { | |
| "epoch": 0.002548448906345601, | |
| "learning_rate": 0.0004998876417667794, | |
| "loss": 6.2, | |
| "step": 435 | |
| }, | |
| { | |
| "epoch": 0.002636326454840277, | |
| "learning_rate": 0.0004998729863450551, | |
| "loss": 5.7, | |
| "step": 450 | |
| }, | |
| { | |
| "epoch": 0.002724204003334953, | |
| "learning_rate": 0.0004998583309233307, | |
| "loss": 5.4, | |
| "step": 465 | |
| }, | |
| { | |
| "epoch": 0.002812081551829629, | |
| "learning_rate": 0.0004998436755016063, | |
| "loss": 5.166666666666667, | |
| "step": 480 | |
| }, | |
| { | |
| "epoch": 0.002899959100324305, | |
| "learning_rate": 0.0004998290200798818, | |
| "loss": 5.133333333333334, | |
| "step": 495 | |
| }, | |
| { | |
| "epoch": 0.0029878366488189805, | |
| "learning_rate": 0.0004998143646581574, | |
| "loss": 5.0, | |
| "step": 510 | |
| }, | |
| { | |
| "epoch": 0.0030757141973136565, | |
| "learning_rate": 0.000499799709236433, | |
| "loss": 4.8, | |
| "step": 525 | |
| }, | |
| { | |
| "epoch": 0.0031635917458083325, | |
| "learning_rate": 0.0004997850538147085, | |
| "loss": 4.733333333333333, | |
| "step": 540 | |
| }, | |
| { | |
| "epoch": 0.0032514692943030085, | |
| "learning_rate": 0.0004997703983929842, | |
| "loss": 4.6, | |
| "step": 555 | |
| }, | |
| { | |
| "epoch": 0.0033393468427976845, | |
| "learning_rate": 0.0004997557429712598, | |
| "loss": 4.6, | |
| "step": 570 | |
| }, | |
| { | |
| "epoch": 0.00342722439129236, | |
| "learning_rate": 0.0004997410875495354, | |
| "loss": 4.5, | |
| "step": 585 | |
| }, | |
| { | |
| "epoch": 0.003515101939787036, | |
| "learning_rate": 0.0004997264321278109, | |
| "loss": 4.5, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 0.003602979488281712, | |
| "learning_rate": 0.0004997117767060865, | |
| "loss": 4.533333333333333, | |
| "step": 615 | |
| }, | |
| { | |
| "epoch": 0.003690857036776388, | |
| "learning_rate": 0.000499697121284362, | |
| "loss": 4.4, | |
| "step": 630 | |
| }, | |
| { | |
| "epoch": 0.003778734585271064, | |
| "learning_rate": 0.0004996824658626376, | |
| "loss": 4.25, | |
| "step": 645 | |
| }, | |
| { | |
| "epoch": 0.0038666121337657395, | |
| "learning_rate": 0.0004996678104409132, | |
| "loss": 4.233333333333333, | |
| "step": 660 | |
| }, | |
| { | |
| "epoch": 0.003954489682260416, | |
| "learning_rate": 0.0004996531550191889, | |
| "loss": 4.25, | |
| "step": 675 | |
| }, | |
| { | |
| "epoch": 0.004042367230755091, | |
| "learning_rate": 0.0004996384995974645, | |
| "loss": 4.25, | |
| "step": 690 | |
| }, | |
| { | |
| "epoch": 0.004130244779249767, | |
| "learning_rate": 0.00049962384417574, | |
| "loss": 4.216666666666667, | |
| "step": 705 | |
| }, | |
| { | |
| "epoch": 0.004218122327744443, | |
| "learning_rate": 0.0004996091887540156, | |
| "loss": 4.2, | |
| "step": 720 | |
| }, | |
| { | |
| "epoch": 0.004305999876239119, | |
| "learning_rate": 0.0004995945333322911, | |
| "loss": 4.2, | |
| "step": 735 | |
| }, | |
| { | |
| "epoch": 0.004393877424733795, | |
| "learning_rate": 0.0004995798779105667, | |
| "loss": 4.15, | |
| "step": 750 | |
| }, | |
| { | |
| "epoch": 0.004481754973228471, | |
| "learning_rate": 0.0004995652224888423, | |
| "loss": 4.15, | |
| "step": 765 | |
| }, | |
| { | |
| "epoch": 0.004569632521723147, | |
| "learning_rate": 0.000499550567067118, | |
| "loss": 4.133333333333334, | |
| "step": 780 | |
| }, | |
| { | |
| "epoch": 0.004657510070217823, | |
| "learning_rate": 0.0004995359116453936, | |
| "loss": 4.15, | |
| "step": 795 | |
| }, | |
| { | |
| "epoch": 0.004745387618712499, | |
| "learning_rate": 0.0004995212562236691, | |
| "loss": 4.133333333333334, | |
| "step": 810 | |
| }, | |
| { | |
| "epoch": 0.004833265167207175, | |
| "learning_rate": 0.0004995066008019447, | |
| "loss": 4.133333333333334, | |
| "step": 825 | |
| }, | |
| { | |
| "epoch": 0.00492114271570185, | |
| "learning_rate": 0.0004994919453802202, | |
| "loss": 4.083333333333333, | |
| "step": 840 | |
| }, | |
| { | |
| "epoch": 0.005009020264196526, | |
| "learning_rate": 0.0004994772899584958, | |
| "loss": 4.133333333333334, | |
| "step": 855 | |
| }, | |
| { | |
| "epoch": 0.005096897812691202, | |
| "learning_rate": 0.0004994626345367714, | |
| "loss": 4.083333333333333, | |
| "step": 870 | |
| }, | |
| { | |
| "epoch": 0.005184775361185878, | |
| "learning_rate": 0.000499447979115047, | |
| "loss": 4.066666666666666, | |
| "step": 885 | |
| }, | |
| { | |
| "epoch": 0.005272652909680554, | |
| "learning_rate": 0.0004994333236933227, | |
| "loss": 4.1, | |
| "step": 900 | |
| }, | |
| { | |
| "epoch": 0.00536053045817523, | |
| "learning_rate": 0.0004994186682715982, | |
| "loss": 4.1, | |
| "step": 915 | |
| }, | |
| { | |
| "epoch": 0.005448408006669906, | |
| "learning_rate": 0.0004994040128498738, | |
| "loss": 4.066666666666666, | |
| "step": 930 | |
| }, | |
| { | |
| "epoch": 0.005536285555164582, | |
| "learning_rate": 0.0004993893574281493, | |
| "loss": 4.066666666666666, | |
| "step": 945 | |
| }, | |
| { | |
| "epoch": 0.005624163103659258, | |
| "learning_rate": 0.0004993747020064249, | |
| "loss": 4.066666666666666, | |
| "step": 960 | |
| }, | |
| { | |
| "epoch": 0.005712040652153934, | |
| "learning_rate": 0.0004993600465847005, | |
| "loss": 4.016666666666667, | |
| "step": 975 | |
| }, | |
| { | |
| "epoch": 0.00579991820064861, | |
| "learning_rate": 0.0004993453911629761, | |
| "loss": 4.066666666666666, | |
| "step": 990 | |
| }, | |
| { | |
| "epoch": 0.005887795749143285, | |
| "learning_rate": 0.0004993307357412518, | |
| "loss": 4.033333333333333, | |
| "step": 1005 | |
| }, | |
| { | |
| "epoch": 0.005975673297637961, | |
| "learning_rate": 0.0004993160803195273, | |
| "loss": 4.0, | |
| "step": 1020 | |
| }, | |
| { | |
| "epoch": 0.006063550846132637, | |
| "learning_rate": 0.0004993014248978029, | |
| "loss": 4.066666666666666, | |
| "step": 1035 | |
| }, | |
| { | |
| "epoch": 0.006151428394627313, | |
| "learning_rate": 0.0004992867694760784, | |
| "loss": 4.0, | |
| "step": 1050 | |
| }, | |
| { | |
| "epoch": 0.006239305943121989, | |
| "learning_rate": 0.000499272114054354, | |
| "loss": 4.0, | |
| "step": 1065 | |
| }, | |
| { | |
| "epoch": 0.006327183491616665, | |
| "learning_rate": 0.0004992574586326296, | |
| "loss": 4.016666666666667, | |
| "step": 1080 | |
| }, | |
| { | |
| "epoch": 0.006415061040111341, | |
| "learning_rate": 0.0004992428032109052, | |
| "loss": 4.016666666666667, | |
| "step": 1095 | |
| }, | |
| { | |
| "epoch": 0.006502938588606017, | |
| "learning_rate": 0.0004992281477891808, | |
| "loss": 4.0, | |
| "step": 1110 | |
| }, | |
| { | |
| "epoch": 0.006590816137100693, | |
| "learning_rate": 0.0004992134923674564, | |
| "loss": 3.9833333333333334, | |
| "step": 1125 | |
| }, | |
| { | |
| "epoch": 0.006678693685595369, | |
| "learning_rate": 0.000499198836945732, | |
| "loss": 4.0, | |
| "step": 1140 | |
| }, | |
| { | |
| "epoch": 0.006766571234090044, | |
| "learning_rate": 0.0004991841815240075, | |
| "loss": 3.9833333333333334, | |
| "step": 1155 | |
| }, | |
| { | |
| "epoch": 0.00685444878258472, | |
| "learning_rate": 0.0004991695261022831, | |
| "loss": 3.9833333333333334, | |
| "step": 1170 | |
| }, | |
| { | |
| "epoch": 0.006942326331079396, | |
| "learning_rate": 0.0004991548706805587, | |
| "loss": 4.0, | |
| "step": 1185 | |
| }, | |
| { | |
| "epoch": 0.007030203879574072, | |
| "learning_rate": 0.0004991402152588343, | |
| "loss": 3.95, | |
| "step": 1200 | |
| }, | |
| { | |
| "epoch": 0.007118081428068748, | |
| "learning_rate": 0.0004991255598371099, | |
| "loss": 3.9833333333333334, | |
| "step": 1215 | |
| }, | |
| { | |
| "epoch": 0.007205958976563424, | |
| "learning_rate": 0.0004991109044153854, | |
| "loss": 3.9833333333333334, | |
| "step": 1230 | |
| }, | |
| { | |
| "epoch": 0.0072938365250581, | |
| "learning_rate": 0.0004990962489936611, | |
| "loss": 3.966666666666667, | |
| "step": 1245 | |
| }, | |
| { | |
| "epoch": 0.007381714073552776, | |
| "learning_rate": 0.0004990815935719366, | |
| "loss": 3.966666666666667, | |
| "step": 1260 | |
| }, | |
| { | |
| "epoch": 0.007469591622047452, | |
| "learning_rate": 0.0004990669381502122, | |
| "loss": 3.933333333333333, | |
| "step": 1275 | |
| }, | |
| { | |
| "epoch": 0.007557469170542128, | |
| "learning_rate": 0.0004990522827284878, | |
| "loss": 3.966666666666667, | |
| "step": 1290 | |
| }, | |
| { | |
| "epoch": 0.007645346719036803, | |
| "learning_rate": 0.0004990376273067634, | |
| "loss": 3.9833333333333334, | |
| "step": 1305 | |
| }, | |
| { | |
| "epoch": 0.007733224267531479, | |
| "learning_rate": 0.0004990229718850389, | |
| "loss": 3.933333333333333, | |
| "step": 1320 | |
| }, | |
| { | |
| "epoch": 0.007821101816026155, | |
| "learning_rate": 0.0004990083164633145, | |
| "loss": 3.95, | |
| "step": 1335 | |
| }, | |
| { | |
| "epoch": 0.007908979364520832, | |
| "learning_rate": 0.0004989936610415902, | |
| "loss": 3.933333333333333, | |
| "step": 1350 | |
| }, | |
| { | |
| "epoch": 0.007996856913015507, | |
| "learning_rate": 0.0004989790056198657, | |
| "loss": 3.9, | |
| "step": 1365 | |
| }, | |
| { | |
| "epoch": 0.008084734461510182, | |
| "learning_rate": 0.0004989643501981413, | |
| "loss": 3.95, | |
| "step": 1380 | |
| }, | |
| { | |
| "epoch": 0.008172612010004859, | |
| "learning_rate": 0.0004989496947764169, | |
| "loss": 3.933333333333333, | |
| "step": 1395 | |
| }, | |
| { | |
| "epoch": 0.008260489558499534, | |
| "learning_rate": 0.0004989350393546925, | |
| "loss": 3.9166666666666665, | |
| "step": 1410 | |
| }, | |
| { | |
| "epoch": 0.008348367106994211, | |
| "learning_rate": 0.000498920383932968, | |
| "loss": 3.9166666666666665, | |
| "step": 1425 | |
| }, | |
| { | |
| "epoch": 0.008436244655488886, | |
| "learning_rate": 0.0004989057285112436, | |
| "loss": 3.933333333333333, | |
| "step": 1440 | |
| }, | |
| { | |
| "epoch": 0.008524122203983563, | |
| "learning_rate": 0.0004988910730895193, | |
| "loss": 3.9, | |
| "step": 1455 | |
| }, | |
| { | |
| "epoch": 0.008611999752478238, | |
| "learning_rate": 0.0004988764176677949, | |
| "loss": 3.8833333333333333, | |
| "step": 1470 | |
| }, | |
| { | |
| "epoch": 0.008699877300972915, | |
| "learning_rate": 0.0004988617622460704, | |
| "loss": 3.933333333333333, | |
| "step": 1485 | |
| }, | |
| { | |
| "epoch": 0.00878775484946759, | |
| "learning_rate": 0.000498847106824346, | |
| "loss": 3.8666666666666667, | |
| "step": 1500 | |
| }, | |
| { | |
| "epoch": 0.008875632397962267, | |
| "learning_rate": 0.0004988324514026216, | |
| "loss": 3.9, | |
| "step": 1515 | |
| }, | |
| { | |
| "epoch": 0.008963509946456942, | |
| "learning_rate": 0.0004988177959808971, | |
| "loss": 3.8833333333333333, | |
| "step": 1530 | |
| }, | |
| { | |
| "epoch": 0.009051387494951617, | |
| "learning_rate": 0.0004988031405591727, | |
| "loss": 3.9166666666666665, | |
| "step": 1545 | |
| }, | |
| { | |
| "epoch": 0.009139265043446294, | |
| "learning_rate": 0.0004987884851374483, | |
| "loss": 3.8833333333333333, | |
| "step": 1560 | |
| }, | |
| { | |
| "epoch": 0.00922714259194097, | |
| "learning_rate": 0.000498773829715724, | |
| "loss": 3.8666666666666667, | |
| "step": 1575 | |
| }, | |
| { | |
| "epoch": 0.009315020140435646, | |
| "learning_rate": 0.0004987591742939995, | |
| "loss": 3.8833333333333333, | |
| "step": 1590 | |
| }, | |
| { | |
| "epoch": 0.009402897688930321, | |
| "learning_rate": 0.0004987445188722751, | |
| "loss": 3.85, | |
| "step": 1605 | |
| }, | |
| { | |
| "epoch": 0.009490775237424998, | |
| "learning_rate": 0.0004987298634505507, | |
| "loss": 3.8666666666666667, | |
| "step": 1620 | |
| }, | |
| { | |
| "epoch": 0.009578652785919673, | |
| "learning_rate": 0.0004987152080288262, | |
| "loss": 3.8666666666666667, | |
| "step": 1635 | |
| }, | |
| { | |
| "epoch": 0.00966653033441435, | |
| "learning_rate": 0.0004987005526071018, | |
| "loss": 3.8333333333333335, | |
| "step": 1650 | |
| }, | |
| { | |
| "epoch": 0.009754407882909025, | |
| "learning_rate": 0.0004986858971853774, | |
| "loss": 3.8333333333333335, | |
| "step": 1665 | |
| }, | |
| { | |
| "epoch": 0.0098422854314037, | |
| "learning_rate": 0.000498671241763653, | |
| "loss": 3.8666666666666667, | |
| "step": 1680 | |
| }, | |
| { | |
| "epoch": 0.009930162979898377, | |
| "learning_rate": 0.0004986565863419286, | |
| "loss": 3.85, | |
| "step": 1695 | |
| }, | |
| { | |
| "epoch": 0.010018040528393052, | |
| "learning_rate": 0.0004986419309202042, | |
| "loss": 3.8833333333333333, | |
| "step": 1710 | |
| }, | |
| { | |
| "epoch": 0.010105918076887729, | |
| "learning_rate": 0.0004986272754984798, | |
| "loss": 3.816666666666667, | |
| "step": 1725 | |
| }, | |
| { | |
| "epoch": 0.010193795625382404, | |
| "learning_rate": 0.0004986126200767553, | |
| "loss": 3.8, | |
| "step": 1740 | |
| }, | |
| { | |
| "epoch": 0.010281673173877081, | |
| "learning_rate": 0.0004985979646550309, | |
| "loss": 3.8333333333333335, | |
| "step": 1755 | |
| }, | |
| { | |
| "epoch": 0.010369550722371756, | |
| "learning_rate": 0.0004985833092333065, | |
| "loss": 3.816666666666667, | |
| "step": 1770 | |
| }, | |
| { | |
| "epoch": 0.010457428270866433, | |
| "learning_rate": 0.0004985686538115821, | |
| "loss": 3.8333333333333335, | |
| "step": 1785 | |
| }, | |
| { | |
| "epoch": 0.010545305819361108, | |
| "learning_rate": 0.0004985539983898577, | |
| "loss": 3.8333333333333335, | |
| "step": 1800 | |
| }, | |
| { | |
| "epoch": 0.010633183367855785, | |
| "learning_rate": 0.0004985393429681333, | |
| "loss": 3.816666666666667, | |
| "step": 1815 | |
| }, | |
| { | |
| "epoch": 0.01072106091635046, | |
| "learning_rate": 0.0004985246875464089, | |
| "loss": 3.7666666666666666, | |
| "step": 1830 | |
| }, | |
| { | |
| "epoch": 0.010808938464845135, | |
| "learning_rate": 0.0004985100321246844, | |
| "loss": 3.8, | |
| "step": 1845 | |
| }, | |
| { | |
| "epoch": 0.010896816013339812, | |
| "learning_rate": 0.00049849537670296, | |
| "loss": 3.85, | |
| "step": 1860 | |
| }, | |
| { | |
| "epoch": 0.010984693561834487, | |
| "learning_rate": 0.0004984807212812356, | |
| "loss": 3.816666666666667, | |
| "step": 1875 | |
| }, | |
| { | |
| "epoch": 0.011072571110329164, | |
| "learning_rate": 0.0004984660658595112, | |
| "loss": 3.75, | |
| "step": 1890 | |
| }, | |
| { | |
| "epoch": 0.011160448658823839, | |
| "learning_rate": 0.0004984514104377867, | |
| "loss": 3.783333333333333, | |
| "step": 1905 | |
| }, | |
| { | |
| "epoch": 0.011248326207318516, | |
| "learning_rate": 0.0004984367550160624, | |
| "loss": 3.75, | |
| "step": 1920 | |
| }, | |
| { | |
| "epoch": 0.011336203755813191, | |
| "learning_rate": 0.000498422099594338, | |
| "loss": 3.75, | |
| "step": 1935 | |
| }, | |
| { | |
| "epoch": 0.011424081304307868, | |
| "learning_rate": 0.0004984074441726135, | |
| "loss": 3.8, | |
| "step": 1950 | |
| }, | |
| { | |
| "epoch": 0.011511958852802543, | |
| "learning_rate": 0.0004983927887508891, | |
| "loss": 3.8333333333333335, | |
| "step": 1965 | |
| }, | |
| { | |
| "epoch": 0.01159983640129722, | |
| "learning_rate": 0.0004983781333291647, | |
| "loss": 3.783333333333333, | |
| "step": 1980 | |
| }, | |
| { | |
| "epoch": 0.011687713949791895, | |
| "learning_rate": 0.0004983634779074403, | |
| "loss": 3.7666666666666666, | |
| "step": 1995 | |
| }, | |
| { | |
| "epoch": 0.01177559149828657, | |
| "learning_rate": 0.0004983488224857158, | |
| "loss": 3.783333333333333, | |
| "step": 2010 | |
| }, | |
| { | |
| "epoch": 0.011863469046781247, | |
| "learning_rate": 0.0004983341670639915, | |
| "loss": 3.8, | |
| "step": 2025 | |
| }, | |
| { | |
| "epoch": 0.011951346595275922, | |
| "learning_rate": 0.0004983195116422671, | |
| "loss": 3.7, | |
| "step": 2040 | |
| }, | |
| { | |
| "epoch": 0.012039224143770599, | |
| "learning_rate": 0.0004983048562205426, | |
| "loss": 3.7333333333333334, | |
| "step": 2055 | |
| }, | |
| { | |
| "epoch": 0.012127101692265274, | |
| "learning_rate": 0.0004982902007988182, | |
| "loss": 3.75, | |
| "step": 2070 | |
| }, | |
| { | |
| "epoch": 0.012214979240759951, | |
| "learning_rate": 0.0004982755453770938, | |
| "loss": 3.7666666666666666, | |
| "step": 2085 | |
| }, | |
| { | |
| "epoch": 0.012302856789254626, | |
| "learning_rate": 0.0004982608899553694, | |
| "loss": 3.783333333333333, | |
| "step": 2100 | |
| }, | |
| { | |
| "epoch": 0.012390734337749303, | |
| "learning_rate": 0.0004982462345336449, | |
| "loss": 3.7333333333333334, | |
| "step": 2115 | |
| }, | |
| { | |
| "epoch": 0.012478611886243978, | |
| "learning_rate": 0.0004982315791119205, | |
| "loss": 3.783333333333333, | |
| "step": 2130 | |
| }, | |
| { | |
| "epoch": 0.012566489434738653, | |
| "learning_rate": 0.0004982169236901962, | |
| "loss": 3.7333333333333334, | |
| "step": 2145 | |
| }, | |
| { | |
| "epoch": 0.01265436698323333, | |
| "learning_rate": 0.0004982022682684717, | |
| "loss": 3.7333333333333334, | |
| "step": 2160 | |
| }, | |
| { | |
| "epoch": 0.012742244531728005, | |
| "learning_rate": 0.0004981876128467473, | |
| "loss": 3.6666666666666665, | |
| "step": 2175 | |
| }, | |
| { | |
| "epoch": 0.012830122080222682, | |
| "learning_rate": 0.0004981729574250229, | |
| "loss": 3.716666666666667, | |
| "step": 2190 | |
| }, | |
| { | |
| "epoch": 0.012917999628717357, | |
| "learning_rate": 0.0004981583020032985, | |
| "loss": 3.7, | |
| "step": 2205 | |
| }, | |
| { | |
| "epoch": 0.013005877177212034, | |
| "learning_rate": 0.000498143646581574, | |
| "loss": 3.7, | |
| "step": 2220 | |
| }, | |
| { | |
| "epoch": 0.013093754725706709, | |
| "learning_rate": 0.0004981289911598496, | |
| "loss": 3.683333333333333, | |
| "step": 2235 | |
| }, | |
| { | |
| "epoch": 0.013181632274201386, | |
| "learning_rate": 0.0004981143357381251, | |
| "loss": 3.7333333333333334, | |
| "step": 2250 | |
| }, | |
| { | |
| "epoch": 0.013269509822696061, | |
| "learning_rate": 0.0004980996803164008, | |
| "loss": 3.683333333333333, | |
| "step": 2265 | |
| }, | |
| { | |
| "epoch": 0.013357387371190738, | |
| "learning_rate": 0.0004980850248946764, | |
| "loss": 3.6666666666666665, | |
| "step": 2280 | |
| }, | |
| { | |
| "epoch": 0.013445264919685413, | |
| "learning_rate": 0.000498070369472952, | |
| "loss": 3.6666666666666665, | |
| "step": 2295 | |
| }, | |
| { | |
| "epoch": 0.013533142468180088, | |
| "learning_rate": 0.0004980557140512276, | |
| "loss": 3.716666666666667, | |
| "step": 2310 | |
| }, | |
| { | |
| "epoch": 0.013621020016674765, | |
| "learning_rate": 0.0004980410586295031, | |
| "loss": 3.7333333333333334, | |
| "step": 2325 | |
| }, | |
| { | |
| "epoch": 0.01370889756516944, | |
| "learning_rate": 0.0004980264032077787, | |
| "loss": 3.716666666666667, | |
| "step": 2340 | |
| }, | |
| { | |
| "epoch": 0.013796775113664117, | |
| "learning_rate": 0.0004980117477860542, | |
| "loss": 3.7, | |
| "step": 2355 | |
| }, | |
| { | |
| "epoch": 0.013884652662158792, | |
| "learning_rate": 0.0004979970923643299, | |
| "loss": 3.6666666666666665, | |
| "step": 2370 | |
| }, | |
| { | |
| "epoch": 0.013972530210653469, | |
| "learning_rate": 0.0004979824369426055, | |
| "loss": 3.65, | |
| "step": 2385 | |
| }, | |
| { | |
| "epoch": 0.014060407759148144, | |
| "learning_rate": 0.0004979677815208811, | |
| "loss": 3.716666666666667, | |
| "step": 2400 | |
| }, | |
| { | |
| "epoch": 0.014148285307642821, | |
| "learning_rate": 0.0004979531260991567, | |
| "loss": 3.683333333333333, | |
| "step": 2415 | |
| }, | |
| { | |
| "epoch": 0.014236162856137496, | |
| "learning_rate": 0.0004979384706774322, | |
| "loss": 3.683333333333333, | |
| "step": 2430 | |
| }, | |
| { | |
| "epoch": 0.014324040404632171, | |
| "learning_rate": 0.0004979238152557078, | |
| "loss": 3.6333333333333333, | |
| "step": 2445 | |
| }, | |
| { | |
| "epoch": 0.014411917953126848, | |
| "learning_rate": 0.0004979091598339833, | |
| "loss": 3.6666666666666665, | |
| "step": 2460 | |
| }, | |
| { | |
| "epoch": 0.014499795501621523, | |
| "learning_rate": 0.000497894504412259, | |
| "loss": 3.65, | |
| "step": 2475 | |
| }, | |
| { | |
| "epoch": 0.0145876730501162, | |
| "learning_rate": 0.0004978798489905346, | |
| "loss": 3.6666666666666665, | |
| "step": 2490 | |
| }, | |
| { | |
| "epoch": 0.014675550598610875, | |
| "learning_rate": 0.0004978651935688102, | |
| "loss": 3.683333333333333, | |
| "step": 2505 | |
| }, | |
| { | |
| "epoch": 0.014763428147105552, | |
| "learning_rate": 0.0004978505381470858, | |
| "loss": 3.683333333333333, | |
| "step": 2520 | |
| }, | |
| { | |
| "epoch": 0.014851305695600227, | |
| "learning_rate": 0.0004978358827253613, | |
| "loss": 3.6666666666666665, | |
| "step": 2535 | |
| }, | |
| { | |
| "epoch": 0.014939183244094904, | |
| "learning_rate": 0.0004978212273036369, | |
| "loss": 3.6666666666666665, | |
| "step": 2550 | |
| }, | |
| { | |
| "epoch": 0.015027060792589579, | |
| "learning_rate": 0.0004978065718819124, | |
| "loss": 3.6, | |
| "step": 2565 | |
| }, | |
| { | |
| "epoch": 0.015114938341084256, | |
| "learning_rate": 0.000497791916460188, | |
| "loss": 3.6333333333333333, | |
| "step": 2580 | |
| }, | |
| { | |
| "epoch": 0.015202815889578931, | |
| "learning_rate": 0.0004977772610384637, | |
| "loss": 3.5833333333333335, | |
| "step": 2595 | |
| }, | |
| { | |
| "epoch": 0.015290693438073606, | |
| "learning_rate": 0.0004977626056167393, | |
| "loss": 3.65, | |
| "step": 2610 | |
| }, | |
| { | |
| "epoch": 0.015378570986568283, | |
| "learning_rate": 0.0004977479501950149, | |
| "loss": 3.566666666666667, | |
| "step": 2625 | |
| }, | |
| { | |
| "epoch": 0.015466448535062958, | |
| "learning_rate": 0.0004977332947732904, | |
| "loss": 3.6, | |
| "step": 2640 | |
| }, | |
| { | |
| "epoch": 0.015554326083557635, | |
| "learning_rate": 0.000497718639351566, | |
| "loss": 3.6166666666666667, | |
| "step": 2655 | |
| }, | |
| { | |
| "epoch": 0.01564220363205231, | |
| "learning_rate": 0.0004977039839298415, | |
| "loss": 3.533333333333333, | |
| "step": 2670 | |
| }, | |
| { | |
| "epoch": 0.015730081180546987, | |
| "learning_rate": 0.0004976893285081171, | |
| "loss": 3.566666666666667, | |
| "step": 2685 | |
| }, | |
| { | |
| "epoch": 0.015817958729041664, | |
| "learning_rate": 0.0004976746730863928, | |
| "loss": 3.7, | |
| "step": 2700 | |
| }, | |
| { | |
| "epoch": 0.015905836277536337, | |
| "learning_rate": 0.0004976600176646684, | |
| "loss": 3.566666666666667, | |
| "step": 2715 | |
| }, | |
| { | |
| "epoch": 0.015993713826031014, | |
| "learning_rate": 0.000497645362242944, | |
| "loss": 3.55, | |
| "step": 2730 | |
| }, | |
| { | |
| "epoch": 0.01608159137452569, | |
| "learning_rate": 0.0004976307068212195, | |
| "loss": 3.6, | |
| "step": 2745 | |
| }, | |
| { | |
| "epoch": 0.016169468923020364, | |
| "learning_rate": 0.0004976160513994951, | |
| "loss": 3.5833333333333335, | |
| "step": 2760 | |
| }, | |
| { | |
| "epoch": 0.01625734647151504, | |
| "learning_rate": 0.0004976013959777706, | |
| "loss": 3.533333333333333, | |
| "step": 2775 | |
| }, | |
| { | |
| "epoch": 0.016345224020009718, | |
| "learning_rate": 0.0004975867405560462, | |
| "loss": 3.55, | |
| "step": 2790 | |
| }, | |
| { | |
| "epoch": 0.016433101568504395, | |
| "learning_rate": 0.0004975720851343218, | |
| "loss": 3.5166666666666666, | |
| "step": 2805 | |
| }, | |
| { | |
| "epoch": 0.01652097911699907, | |
| "learning_rate": 0.0004975574297125975, | |
| "loss": 3.566666666666667, | |
| "step": 2820 | |
| }, | |
| { | |
| "epoch": 0.016608856665493745, | |
| "learning_rate": 0.0004975427742908731, | |
| "loss": 3.6166666666666667, | |
| "step": 2835 | |
| }, | |
| { | |
| "epoch": 0.016696734213988422, | |
| "learning_rate": 0.0004975281188691486, | |
| "loss": 3.5166666666666666, | |
| "step": 2850 | |
| }, | |
| { | |
| "epoch": 0.0167846117624831, | |
| "learning_rate": 0.0004975134634474242, | |
| "loss": 3.5, | |
| "step": 2865 | |
| }, | |
| { | |
| "epoch": 0.016872489310977772, | |
| "learning_rate": 0.0004974988080256997, | |
| "loss": 3.4833333333333334, | |
| "step": 2880 | |
| }, | |
| { | |
| "epoch": 0.01696036685947245, | |
| "learning_rate": 0.0004974841526039753, | |
| "loss": 3.5, | |
| "step": 2895 | |
| }, | |
| { | |
| "epoch": 0.017048244407967126, | |
| "learning_rate": 0.0004974694971822509, | |
| "loss": 3.5166666666666666, | |
| "step": 2910 | |
| }, | |
| { | |
| "epoch": 0.0171361219564618, | |
| "learning_rate": 0.0004974548417605266, | |
| "loss": 3.55, | |
| "step": 2925 | |
| }, | |
| { | |
| "epoch": 0.017223999504956476, | |
| "learning_rate": 0.0004974401863388021, | |
| "loss": 3.4833333333333334, | |
| "step": 2940 | |
| }, | |
| { | |
| "epoch": 0.017311877053451153, | |
| "learning_rate": 0.0004974255309170777, | |
| "loss": 3.533333333333333, | |
| "step": 2955 | |
| }, | |
| { | |
| "epoch": 0.01739975460194583, | |
| "learning_rate": 0.0004974108754953533, | |
| "loss": 3.6666666666666665, | |
| "step": 2970 | |
| }, | |
| { | |
| "epoch": 0.017487632150440503, | |
| "learning_rate": 0.0004973962200736288, | |
| "loss": 3.566666666666667, | |
| "step": 2985 | |
| }, | |
| { | |
| "epoch": 0.01757550969893518, | |
| "learning_rate": 0.0004973815646519044, | |
| "loss": 3.55, | |
| "step": 3000 | |
| }, | |
| { | |
| "epoch": 0.017663387247429857, | |
| "learning_rate": 0.00049736690923018, | |
| "loss": 3.533333333333333, | |
| "step": 3015 | |
| }, | |
| { | |
| "epoch": 0.017751264795924534, | |
| "learning_rate": 0.0004973522538084556, | |
| "loss": 3.433333333333333, | |
| "step": 3030 | |
| }, | |
| { | |
| "epoch": 0.017839142344419207, | |
| "learning_rate": 0.0004973375983867312, | |
| "loss": 3.5, | |
| "step": 3045 | |
| }, | |
| { | |
| "epoch": 0.017927019892913884, | |
| "learning_rate": 0.0004973229429650068, | |
| "loss": 3.466666666666667, | |
| "step": 3060 | |
| }, | |
| { | |
| "epoch": 0.01801489744140856, | |
| "learning_rate": 0.0004973082875432824, | |
| "loss": 3.4833333333333334, | |
| "step": 3075 | |
| }, | |
| { | |
| "epoch": 0.018102774989903234, | |
| "learning_rate": 0.0004972936321215579, | |
| "loss": 3.55, | |
| "step": 3090 | |
| }, | |
| { | |
| "epoch": 0.01819065253839791, | |
| "learning_rate": 0.0004972789766998335, | |
| "loss": 3.433333333333333, | |
| "step": 3105 | |
| }, | |
| { | |
| "epoch": 0.018278530086892588, | |
| "learning_rate": 0.0004972643212781091, | |
| "loss": 3.533333333333333, | |
| "step": 3120 | |
| }, | |
| { | |
| "epoch": 0.018366407635387265, | |
| "learning_rate": 0.0004972496658563847, | |
| "loss": 3.4166666666666665, | |
| "step": 3135 | |
| }, | |
| { | |
| "epoch": 0.01845428518388194, | |
| "learning_rate": 0.0004972350104346602, | |
| "loss": 3.433333333333333, | |
| "step": 3150 | |
| }, | |
| { | |
| "epoch": 0.018542162732376615, | |
| "learning_rate": 0.0004972203550129359, | |
| "loss": 3.45, | |
| "step": 3165 | |
| }, | |
| { | |
| "epoch": 0.018630040280871292, | |
| "learning_rate": 0.0004972056995912114, | |
| "loss": 3.566666666666667, | |
| "step": 3180 | |
| }, | |
| { | |
| "epoch": 0.01871791782936597, | |
| "learning_rate": 0.000497191044169487, | |
| "loss": 3.533333333333333, | |
| "step": 3195 | |
| }, | |
| { | |
| "epoch": 0.018805795377860642, | |
| "learning_rate": 0.0004971763887477626, | |
| "loss": 3.55, | |
| "step": 3210 | |
| }, | |
| { | |
| "epoch": 0.01889367292635532, | |
| "learning_rate": 0.0004971617333260382, | |
| "loss": 3.4833333333333334, | |
| "step": 3225 | |
| }, | |
| { | |
| "epoch": 0.018981550474849996, | |
| "learning_rate": 0.0004971470779043138, | |
| "loss": 3.4833333333333334, | |
| "step": 3240 | |
| }, | |
| { | |
| "epoch": 0.01906942802334467, | |
| "learning_rate": 0.0004971324224825893, | |
| "loss": 3.466666666666667, | |
| "step": 3255 | |
| }, | |
| { | |
| "epoch": 0.019157305571839346, | |
| "learning_rate": 0.000497117767060865, | |
| "loss": 3.5, | |
| "step": 3270 | |
| }, | |
| { | |
| "epoch": 0.019245183120334023, | |
| "learning_rate": 0.0004971031116391405, | |
| "loss": 3.433333333333333, | |
| "step": 3285 | |
| }, | |
| { | |
| "epoch": 0.0193330606688287, | |
| "learning_rate": 0.0004970884562174161, | |
| "loss": 3.4833333333333334, | |
| "step": 3300 | |
| }, | |
| { | |
| "epoch": 0.019420938217323373, | |
| "learning_rate": 0.0004970738007956917, | |
| "loss": 3.5, | |
| "step": 3315 | |
| }, | |
| { | |
| "epoch": 0.01950881576581805, | |
| "learning_rate": 0.0004970591453739673, | |
| "loss": 3.4833333333333334, | |
| "step": 3330 | |
| }, | |
| { | |
| "epoch": 0.019596693314312727, | |
| "learning_rate": 0.0004970444899522429, | |
| "loss": 3.433333333333333, | |
| "step": 3345 | |
| }, | |
| { | |
| "epoch": 0.0196845708628074, | |
| "learning_rate": 0.0004970298345305184, | |
| "loss": 3.433333333333333, | |
| "step": 3360 | |
| }, | |
| { | |
| "epoch": 0.019772448411302077, | |
| "learning_rate": 0.000497015179108794, | |
| "loss": 3.533333333333333, | |
| "step": 3375 | |
| }, | |
| { | |
| "epoch": 0.019860325959796754, | |
| "learning_rate": 0.0004970005236870696, | |
| "loss": 3.3666666666666667, | |
| "step": 3390 | |
| }, | |
| { | |
| "epoch": 0.01994820350829143, | |
| "learning_rate": 0.0004969858682653452, | |
| "loss": 3.45, | |
| "step": 3405 | |
| }, | |
| { | |
| "epoch": 0.020036081056786104, | |
| "learning_rate": 0.0004969712128436208, | |
| "loss": 3.4166666666666665, | |
| "step": 3420 | |
| }, | |
| { | |
| "epoch": 0.02012395860528078, | |
| "learning_rate": 0.0004969565574218964, | |
| "loss": 3.4, | |
| "step": 3435 | |
| }, | |
| { | |
| "epoch": 0.020211836153775458, | |
| "learning_rate": 0.000496941902000172, | |
| "loss": 3.316666666666667, | |
| "step": 3450 | |
| }, | |
| { | |
| "epoch": 0.020299713702270135, | |
| "learning_rate": 0.0004969272465784475, | |
| "loss": 3.4833333333333334, | |
| "step": 3465 | |
| }, | |
| { | |
| "epoch": 0.02038759125076481, | |
| "learning_rate": 0.0004969125911567231, | |
| "loss": 3.433333333333333, | |
| "step": 3480 | |
| }, | |
| { | |
| "epoch": 0.020475468799259485, | |
| "learning_rate": 0.0004968979357349987, | |
| "loss": 3.466666666666667, | |
| "step": 3495 | |
| }, | |
| { | |
| "epoch": 0.020563346347754162, | |
| "learning_rate": 0.0004968832803132743, | |
| "loss": 3.3666666666666667, | |
| "step": 3510 | |
| }, | |
| { | |
| "epoch": 0.020651223896248835, | |
| "learning_rate": 0.0004968686248915499, | |
| "loss": 3.45, | |
| "step": 3525 | |
| }, | |
| { | |
| "epoch": 0.020739101444743512, | |
| "learning_rate": 0.0004968539694698255, | |
| "loss": 3.4, | |
| "step": 3540 | |
| }, | |
| { | |
| "epoch": 0.02082697899323819, | |
| "learning_rate": 0.0004968393140481011, | |
| "loss": 3.4166666666666665, | |
| "step": 3555 | |
| }, | |
| { | |
| "epoch": 0.020914856541732866, | |
| "learning_rate": 0.0004968246586263766, | |
| "loss": 3.433333333333333, | |
| "step": 3570 | |
| }, | |
| { | |
| "epoch": 0.02100273409022754, | |
| "learning_rate": 0.0004968100032046522, | |
| "loss": 3.35, | |
| "step": 3585 | |
| }, | |
| { | |
| "epoch": 0.021090611638722216, | |
| "learning_rate": 0.0004967953477829277, | |
| "loss": 3.5, | |
| "step": 3600 | |
| }, | |
| { | |
| "epoch": 0.021178489187216893, | |
| "learning_rate": 0.0004967806923612034, | |
| "loss": 3.3833333333333333, | |
| "step": 3615 | |
| }, | |
| { | |
| "epoch": 0.02126636673571157, | |
| "learning_rate": 0.000496766036939479, | |
| "loss": 3.4166666666666665, | |
| "step": 3630 | |
| }, | |
| { | |
| "epoch": 0.021354244284206243, | |
| "learning_rate": 0.0004967513815177546, | |
| "loss": 3.466666666666667, | |
| "step": 3645 | |
| }, | |
| { | |
| "epoch": 0.02144212183270092, | |
| "learning_rate": 0.0004967367260960302, | |
| "loss": 3.3833333333333333, | |
| "step": 3660 | |
| }, | |
| { | |
| "epoch": 0.021529999381195597, | |
| "learning_rate": 0.0004967220706743057, | |
| "loss": 3.4166666666666665, | |
| "step": 3675 | |
| }, | |
| { | |
| "epoch": 0.02161787692969027, | |
| "learning_rate": 0.0004967074152525813, | |
| "loss": 3.4, | |
| "step": 3690 | |
| }, | |
| { | |
| "epoch": 0.021705754478184947, | |
| "learning_rate": 0.0004966927598308568, | |
| "loss": 3.3666666666666667, | |
| "step": 3705 | |
| }, | |
| { | |
| "epoch": 0.021793632026679624, | |
| "learning_rate": 0.0004966781044091325, | |
| "loss": 3.35, | |
| "step": 3720 | |
| }, | |
| { | |
| "epoch": 0.0218815095751743, | |
| "learning_rate": 0.0004966634489874081, | |
| "loss": 3.3833333333333333, | |
| "step": 3735 | |
| }, | |
| { | |
| "epoch": 0.021969387123668974, | |
| "learning_rate": 0.0004966487935656837, | |
| "loss": 3.316666666666667, | |
| "step": 3750 | |
| }, | |
| { | |
| "epoch": 0.02205726467216365, | |
| "learning_rate": 0.0004966341381439593, | |
| "loss": 3.3333333333333335, | |
| "step": 3765 | |
| }, | |
| { | |
| "epoch": 0.022145142220658328, | |
| "learning_rate": 0.0004966194827222348, | |
| "loss": 3.35, | |
| "step": 3780 | |
| }, | |
| { | |
| "epoch": 0.022233019769153005, | |
| "learning_rate": 0.0004966048273005104, | |
| "loss": 3.3333333333333335, | |
| "step": 3795 | |
| }, | |
| { | |
| "epoch": 0.022320897317647678, | |
| "learning_rate": 0.0004965901718787859, | |
| "loss": 3.2666666666666666, | |
| "step": 3810 | |
| }, | |
| { | |
| "epoch": 0.022408774866142355, | |
| "learning_rate": 0.0004965755164570615, | |
| "loss": 3.3666666666666667, | |
| "step": 3825 | |
| }, | |
| { | |
| "epoch": 0.022496652414637032, | |
| "learning_rate": 0.0004965608610353372, | |
| "loss": 3.283333333333333, | |
| "step": 3840 | |
| }, | |
| { | |
| "epoch": 0.022584529963131705, | |
| "learning_rate": 0.0004965462056136128, | |
| "loss": 3.3666666666666667, | |
| "step": 3855 | |
| }, | |
| { | |
| "epoch": 0.022672407511626382, | |
| "learning_rate": 0.0004965315501918883, | |
| "loss": 3.3833333333333333, | |
| "step": 3870 | |
| }, | |
| { | |
| "epoch": 0.02276028506012106, | |
| "learning_rate": 0.0004965168947701639, | |
| "loss": 3.283333333333333, | |
| "step": 3885 | |
| }, | |
| { | |
| "epoch": 0.022848162608615736, | |
| "learning_rate": 0.0004965022393484395, | |
| "loss": 3.3333333333333335, | |
| "step": 3900 | |
| }, | |
| { | |
| "epoch": 0.02293604015711041, | |
| "learning_rate": 0.000496487583926715, | |
| "loss": 3.4166666666666665, | |
| "step": 3915 | |
| }, | |
| { | |
| "epoch": 0.023023917705605086, | |
| "learning_rate": 0.0004964729285049906, | |
| "loss": 3.3666666666666667, | |
| "step": 3930 | |
| }, | |
| { | |
| "epoch": 0.023111795254099763, | |
| "learning_rate": 0.0004964582730832663, | |
| "loss": 3.3666666666666667, | |
| "step": 3945 | |
| }, | |
| { | |
| "epoch": 0.02319967280259444, | |
| "learning_rate": 0.0004964436176615419, | |
| "loss": 3.3, | |
| "step": 3960 | |
| }, | |
| { | |
| "epoch": 0.023287550351089113, | |
| "learning_rate": 0.0004964289622398174, | |
| "loss": 3.3833333333333333, | |
| "step": 3975 | |
| }, | |
| { | |
| "epoch": 0.02337542789958379, | |
| "learning_rate": 0.000496414306818093, | |
| "loss": 3.3666666666666667, | |
| "step": 3990 | |
| }, | |
| { | |
| "epoch": 0.023463305448078467, | |
| "learning_rate": 0.0004963996513963686, | |
| "loss": 3.3666666666666667, | |
| "step": 4005 | |
| }, | |
| { | |
| "epoch": 0.02355118299657314, | |
| "learning_rate": 0.0004963849959746441, | |
| "loss": 3.283333333333333, | |
| "step": 4020 | |
| }, | |
| { | |
| "epoch": 0.023639060545067817, | |
| "learning_rate": 0.0004963703405529197, | |
| "loss": 3.35, | |
| "step": 4035 | |
| }, | |
| { | |
| "epoch": 0.023726938093562494, | |
| "learning_rate": 0.0004963556851311953, | |
| "loss": 3.316666666666667, | |
| "step": 4050 | |
| }, | |
| { | |
| "epoch": 0.02381481564205717, | |
| "learning_rate": 0.000496341029709471, | |
| "loss": 3.2333333333333334, | |
| "step": 4065 | |
| }, | |
| { | |
| "epoch": 0.023902693190551844, | |
| "learning_rate": 0.0004963263742877465, | |
| "loss": 3.3, | |
| "step": 4080 | |
| }, | |
| { | |
| "epoch": 0.02399057073904652, | |
| "learning_rate": 0.0004963117188660221, | |
| "loss": 3.1666666666666665, | |
| "step": 4095 | |
| }, | |
| { | |
| "epoch": 0.024078448287541198, | |
| "learning_rate": 0.0004962970634442977, | |
| "loss": 3.2666666666666666, | |
| "step": 4110 | |
| }, | |
| { | |
| "epoch": 0.02416632583603587, | |
| "learning_rate": 0.0004962824080225733, | |
| "loss": 3.316666666666667, | |
| "step": 4125 | |
| }, | |
| { | |
| "epoch": 0.024254203384530548, | |
| "learning_rate": 0.0004962677526008488, | |
| "loss": 3.316666666666667, | |
| "step": 4140 | |
| }, | |
| { | |
| "epoch": 0.024342080933025225, | |
| "learning_rate": 0.0004962530971791244, | |
| "loss": 3.2333333333333334, | |
| "step": 4155 | |
| }, | |
| { | |
| "epoch": 0.024429958481519902, | |
| "learning_rate": 0.0004962384417574001, | |
| "loss": 3.283333333333333, | |
| "step": 4170 | |
| }, | |
| { | |
| "epoch": 0.024517836030014575, | |
| "learning_rate": 0.0004962237863356756, | |
| "loss": 3.2666666666666666, | |
| "step": 4185 | |
| }, | |
| { | |
| "epoch": 0.024605713578509252, | |
| "learning_rate": 0.0004962091309139512, | |
| "loss": 3.283333333333333, | |
| "step": 4200 | |
| }, | |
| { | |
| "epoch": 0.02469359112700393, | |
| "learning_rate": 0.0004961944754922268, | |
| "loss": 3.3833333333333333, | |
| "step": 4215 | |
| }, | |
| { | |
| "epoch": 0.024781468675498606, | |
| "learning_rate": 0.0004961798200705024, | |
| "loss": 3.3, | |
| "step": 4230 | |
| }, | |
| { | |
| "epoch": 0.02486934622399328, | |
| "learning_rate": 0.0004961651646487779, | |
| "loss": 3.283333333333333, | |
| "step": 4245 | |
| }, | |
| { | |
| "epoch": 0.024957223772487956, | |
| "learning_rate": 0.0004961505092270535, | |
| "loss": 3.316666666666667, | |
| "step": 4260 | |
| }, | |
| { | |
| "epoch": 0.025045101320982633, | |
| "learning_rate": 0.0004961358538053292, | |
| "loss": 3.283333333333333, | |
| "step": 4275 | |
| }, | |
| { | |
| "epoch": 0.025132978869477306, | |
| "learning_rate": 0.0004961211983836047, | |
| "loss": 3.283333333333333, | |
| "step": 4290 | |
| }, | |
| { | |
| "epoch": 0.025220856417971983, | |
| "learning_rate": 0.0004961065429618803, | |
| "loss": 3.2333333333333334, | |
| "step": 4305 | |
| }, | |
| { | |
| "epoch": 0.02530873396646666, | |
| "learning_rate": 0.0004960918875401559, | |
| "loss": 3.2333333333333334, | |
| "step": 4320 | |
| }, | |
| { | |
| "epoch": 0.025396611514961337, | |
| "learning_rate": 0.0004960772321184315, | |
| "loss": 3.283333333333333, | |
| "step": 4335 | |
| }, | |
| { | |
| "epoch": 0.02548448906345601, | |
| "learning_rate": 0.000496062576696707, | |
| "loss": 3.2, | |
| "step": 4350 | |
| }, | |
| { | |
| "epoch": 0.025572366611950687, | |
| "learning_rate": 0.0004960479212749826, | |
| "loss": 3.25, | |
| "step": 4365 | |
| }, | |
| { | |
| "epoch": 0.025660244160445364, | |
| "learning_rate": 0.0004960332658532582, | |
| "loss": 3.2666666666666666, | |
| "step": 4380 | |
| }, | |
| { | |
| "epoch": 0.02574812170894004, | |
| "learning_rate": 0.0004960186104315338, | |
| "loss": 3.2666666666666666, | |
| "step": 4395 | |
| }, | |
| { | |
| "epoch": 0.025835999257434714, | |
| "learning_rate": 0.0004960039550098094, | |
| "loss": 3.25, | |
| "step": 4410 | |
| }, | |
| { | |
| "epoch": 0.02592387680592939, | |
| "learning_rate": 0.000495989299588085, | |
| "loss": 3.216666666666667, | |
| "step": 4425 | |
| }, | |
| { | |
| "epoch": 0.026011754354424068, | |
| "learning_rate": 0.0004959746441663606, | |
| "loss": 3.25, | |
| "step": 4440 | |
| }, | |
| { | |
| "epoch": 0.02609963190291874, | |
| "learning_rate": 0.0004959599887446361, | |
| "loss": 3.183333333333333, | |
| "step": 4455 | |
| }, | |
| { | |
| "epoch": 0.026187509451413418, | |
| "learning_rate": 0.0004959453333229117, | |
| "loss": 3.15, | |
| "step": 4470 | |
| }, | |
| { | |
| "epoch": 0.026275386999908095, | |
| "learning_rate": 0.0004959306779011873, | |
| "loss": 3.2333333333333334, | |
| "step": 4485 | |
| }, | |
| { | |
| "epoch": 0.026363264548402772, | |
| "learning_rate": 0.0004959160224794628, | |
| "loss": 3.2333333333333334, | |
| "step": 4500 | |
| }, | |
| { | |
| "epoch": 0.026451142096897445, | |
| "learning_rate": 0.0004959013670577385, | |
| "loss": 3.2666666666666666, | |
| "step": 4515 | |
| }, | |
| { | |
| "epoch": 0.026539019645392122, | |
| "learning_rate": 0.0004958867116360141, | |
| "loss": 3.1333333333333333, | |
| "step": 4530 | |
| }, | |
| { | |
| "epoch": 0.0266268971938868, | |
| "learning_rate": 0.0004958720562142897, | |
| "loss": 3.25, | |
| "step": 4545 | |
| }, | |
| { | |
| "epoch": 0.026714774742381476, | |
| "learning_rate": 0.0004958574007925652, | |
| "loss": 3.216666666666667, | |
| "step": 4560 | |
| }, | |
| { | |
| "epoch": 0.02680265229087615, | |
| "learning_rate": 0.0004958427453708408, | |
| "loss": 3.25, | |
| "step": 4575 | |
| }, | |
| { | |
| "epoch": 0.026890529839370826, | |
| "learning_rate": 0.0004958280899491164, | |
| "loss": 3.25, | |
| "step": 4590 | |
| }, | |
| { | |
| "epoch": 0.026978407387865503, | |
| "learning_rate": 0.0004958134345273919, | |
| "loss": 3.316666666666667, | |
| "step": 4605 | |
| }, | |
| { | |
| "epoch": 0.027066284936360176, | |
| "learning_rate": 0.0004957987791056676, | |
| "loss": 3.3, | |
| "step": 4620 | |
| }, | |
| { | |
| "epoch": 0.027154162484854853, | |
| "learning_rate": 0.0004957841236839432, | |
| "loss": 3.25, | |
| "step": 4635 | |
| }, | |
| { | |
| "epoch": 0.02724204003334953, | |
| "learning_rate": 0.0004957694682622188, | |
| "loss": 3.2333333333333334, | |
| "step": 4650 | |
| }, | |
| { | |
| "epoch": 0.027329917581844207, | |
| "learning_rate": 0.0004957548128404943, | |
| "loss": 3.05, | |
| "step": 4665 | |
| }, | |
| { | |
| "epoch": 0.02741779513033888, | |
| "learning_rate": 0.0004957401574187699, | |
| "loss": 3.25, | |
| "step": 4680 | |
| }, | |
| { | |
| "epoch": 0.027505672678833557, | |
| "learning_rate": 0.0004957255019970455, | |
| "loss": 3.183333333333333, | |
| "step": 4695 | |
| }, | |
| { | |
| "epoch": 0.027593550227328234, | |
| "learning_rate": 0.000495710846575321, | |
| "loss": 3.15, | |
| "step": 4710 | |
| }, | |
| { | |
| "epoch": 0.02768142777582291, | |
| "learning_rate": 0.0004956961911535966, | |
| "loss": 3.1333333333333333, | |
| "step": 4725 | |
| }, | |
| { | |
| "epoch": 0.027769305324317584, | |
| "learning_rate": 0.0004956815357318723, | |
| "loss": 3.1166666666666667, | |
| "step": 4740 | |
| }, | |
| { | |
| "epoch": 0.02785718287281226, | |
| "learning_rate": 0.0004956668803101479, | |
| "loss": 3.1666666666666665, | |
| "step": 4755 | |
| }, | |
| { | |
| "epoch": 0.027945060421306938, | |
| "learning_rate": 0.0004956522248884234, | |
| "loss": 3.1666666666666665, | |
| "step": 4770 | |
| }, | |
| { | |
| "epoch": 0.02803293796980161, | |
| "learning_rate": 0.000495637569466699, | |
| "loss": 3.3, | |
| "step": 4785 | |
| }, | |
| { | |
| "epoch": 0.028120815518296288, | |
| "learning_rate": 0.0004956229140449745, | |
| "loss": 3.183333333333333, | |
| "step": 4800 | |
| }, | |
| { | |
| "epoch": 0.028208693066790965, | |
| "learning_rate": 0.0004956082586232501, | |
| "loss": 3.2333333333333334, | |
| "step": 4815 | |
| }, | |
| { | |
| "epoch": 0.028296570615285642, | |
| "learning_rate": 0.0004955936032015257, | |
| "loss": 3.216666666666667, | |
| "step": 4830 | |
| }, | |
| { | |
| "epoch": 0.028384448163780315, | |
| "learning_rate": 0.0004955789477798014, | |
| "loss": 3.05, | |
| "step": 4845 | |
| }, | |
| { | |
| "epoch": 0.028472325712274992, | |
| "learning_rate": 0.000495564292358077, | |
| "loss": 3.183333333333333, | |
| "step": 4860 | |
| }, | |
| { | |
| "epoch": 0.02856020326076967, | |
| "learning_rate": 0.0004955496369363525, | |
| "loss": 3.0833333333333335, | |
| "step": 4875 | |
| }, | |
| { | |
| "epoch": 0.028648080809264342, | |
| "learning_rate": 0.0004955349815146281, | |
| "loss": 3.1666666666666665, | |
| "step": 4890 | |
| }, | |
| { | |
| "epoch": 0.02873595835775902, | |
| "learning_rate": 0.0004955203260929036, | |
| "loss": 3.25, | |
| "step": 4905 | |
| }, | |
| { | |
| "epoch": 0.028823835906253696, | |
| "learning_rate": 0.0004955056706711792, | |
| "loss": 3.033333333333333, | |
| "step": 4920 | |
| }, | |
| { | |
| "epoch": 0.028911713454748373, | |
| "learning_rate": 0.0004954910152494548, | |
| "loss": 3.183333333333333, | |
| "step": 4935 | |
| }, | |
| { | |
| "epoch": 0.028999591003243046, | |
| "learning_rate": 0.0004954763598277304, | |
| "loss": 3.15, | |
| "step": 4950 | |
| }, | |
| { | |
| "epoch": 0.029087468551737723, | |
| "learning_rate": 0.0004954617044060061, | |
| "loss": 3.05, | |
| "step": 4965 | |
| }, | |
| { | |
| "epoch": 0.0291753461002324, | |
| "learning_rate": 0.0004954470489842816, | |
| "loss": 3.183333333333333, | |
| "step": 4980 | |
| }, | |
| { | |
| "epoch": 0.029263223648727077, | |
| "learning_rate": 0.0004954323935625572, | |
| "loss": 3.15, | |
| "step": 4995 | |
| }, | |
| { | |
| "epoch": 0.02935110119722175, | |
| "learning_rate": 0.0004954177381408327, | |
| "loss": 3.1166666666666667, | |
| "step": 5010 | |
| }, | |
| { | |
| "epoch": 0.029438978745716427, | |
| "learning_rate": 0.0004954030827191083, | |
| "loss": 3.066666666666667, | |
| "step": 5025 | |
| }, | |
| { | |
| "epoch": 0.029526856294211104, | |
| "learning_rate": 0.0004953884272973839, | |
| "loss": 3.1333333333333333, | |
| "step": 5040 | |
| }, | |
| { | |
| "epoch": 0.029614733842705777, | |
| "learning_rate": 0.0004953737718756595, | |
| "loss": 3.25, | |
| "step": 5055 | |
| }, | |
| { | |
| "epoch": 0.029702611391200454, | |
| "learning_rate": 0.0004953591164539352, | |
| "loss": 3.1166666666666667, | |
| "step": 5070 | |
| }, | |
| { | |
| "epoch": 0.02979048893969513, | |
| "learning_rate": 0.0004953444610322107, | |
| "loss": 3.1, | |
| "step": 5085 | |
| }, | |
| { | |
| "epoch": 0.029878366488189808, | |
| "learning_rate": 0.0004953298056104863, | |
| "loss": 3.15, | |
| "step": 5100 | |
| }, | |
| { | |
| "epoch": 0.02996624403668448, | |
| "learning_rate": 0.0004953151501887618, | |
| "loss": 3.1666666666666665, | |
| "step": 5115 | |
| }, | |
| { | |
| "epoch": 0.030054121585179158, | |
| "learning_rate": 0.0004953004947670374, | |
| "loss": 3.15, | |
| "step": 5130 | |
| }, | |
| { | |
| "epoch": 0.030141999133673835, | |
| "learning_rate": 0.000495285839345313, | |
| "loss": 3.1666666666666665, | |
| "step": 5145 | |
| }, | |
| { | |
| "epoch": 0.030229876682168512, | |
| "learning_rate": 0.0004952711839235886, | |
| "loss": 3.2, | |
| "step": 5160 | |
| }, | |
| { | |
| "epoch": 0.030317754230663185, | |
| "learning_rate": 0.0004952565285018643, | |
| "loss": 3.1666666666666665, | |
| "step": 5175 | |
| }, | |
| { | |
| "epoch": 0.030405631779157862, | |
| "learning_rate": 0.0004952418730801398, | |
| "loss": 3.066666666666667, | |
| "step": 5190 | |
| }, | |
| { | |
| "epoch": 0.03049350932765254, | |
| "learning_rate": 0.0004952272176584154, | |
| "loss": 3.066666666666667, | |
| "step": 5205 | |
| }, | |
| { | |
| "epoch": 0.030581386876147212, | |
| "learning_rate": 0.0004952125622366909, | |
| "loss": 3.1, | |
| "step": 5220 | |
| }, | |
| { | |
| "epoch": 0.03066926442464189, | |
| "learning_rate": 0.0004951979068149665, | |
| "loss": 3.066666666666667, | |
| "step": 5235 | |
| }, | |
| { | |
| "epoch": 0.030757141973136566, | |
| "learning_rate": 0.0004951832513932421, | |
| "loss": 3.1333333333333333, | |
| "step": 5250 | |
| }, | |
| { | |
| "epoch": 0.030845019521631243, | |
| "learning_rate": 0.0004951685959715177, | |
| "loss": 3.1333333333333333, | |
| "step": 5265 | |
| }, | |
| { | |
| "epoch": 0.030932897070125916, | |
| "learning_rate": 0.0004951539405497933, | |
| "loss": 3.066666666666667, | |
| "step": 5280 | |
| }, | |
| { | |
| "epoch": 0.031020774618620593, | |
| "learning_rate": 0.0004951392851280689, | |
| "loss": 3.1166666666666667, | |
| "step": 5295 | |
| }, | |
| { | |
| "epoch": 0.03110865216711527, | |
| "learning_rate": 0.0004951246297063445, | |
| "loss": 3.1333333333333333, | |
| "step": 5310 | |
| }, | |
| { | |
| "epoch": 0.031196529715609947, | |
| "learning_rate": 0.00049510997428462, | |
| "loss": 3.1166666666666667, | |
| "step": 5325 | |
| }, | |
| { | |
| "epoch": 0.03128440726410462, | |
| "learning_rate": 0.0004950953188628956, | |
| "loss": 3.1333333333333333, | |
| "step": 5340 | |
| }, | |
| { | |
| "epoch": 0.031372284812599294, | |
| "learning_rate": 0.0004950806634411712, | |
| "loss": 3.066666666666667, | |
| "step": 5355 | |
| }, | |
| { | |
| "epoch": 0.031460162361093974, | |
| "learning_rate": 0.0004950660080194468, | |
| "loss": 3.1166666666666667, | |
| "step": 5370 | |
| }, | |
| { | |
| "epoch": 0.03154803990958865, | |
| "learning_rate": 0.0004950513525977223, | |
| "loss": 3.0833333333333335, | |
| "step": 5385 | |
| }, | |
| { | |
| "epoch": 0.03163591745808333, | |
| "learning_rate": 0.0004950366971759979, | |
| "loss": 3.1, | |
| "step": 5400 | |
| }, | |
| { | |
| "epoch": 0.031723795006578, | |
| "learning_rate": 0.0004950220417542736, | |
| "loss": 3.15, | |
| "step": 5415 | |
| }, | |
| { | |
| "epoch": 0.031811672555072674, | |
| "learning_rate": 0.0004950073863325491, | |
| "loss": 3.183333333333333, | |
| "step": 5430 | |
| }, | |
| { | |
| "epoch": 0.031899550103567355, | |
| "learning_rate": 0.0004949927309108247, | |
| "loss": 3.1166666666666667, | |
| "step": 5445 | |
| }, | |
| { | |
| "epoch": 0.03198742765206203, | |
| "learning_rate": 0.0004949780754891003, | |
| "loss": 3.1333333333333333, | |
| "step": 5460 | |
| }, | |
| { | |
| "epoch": 0.0320753052005567, | |
| "learning_rate": 0.0004949634200673759, | |
| "loss": 3.183333333333333, | |
| "step": 5475 | |
| }, | |
| { | |
| "epoch": 0.03216318274905138, | |
| "learning_rate": 0.0004949487646456514, | |
| "loss": 3.1333333333333333, | |
| "step": 5490 | |
| }, | |
| { | |
| "epoch": 0.032251060297546055, | |
| "learning_rate": 0.000494934109223927, | |
| "loss": 3.05, | |
| "step": 5505 | |
| }, | |
| { | |
| "epoch": 0.03233893784604073, | |
| "learning_rate": 0.0004949194538022027, | |
| "loss": 3.1, | |
| "step": 5520 | |
| }, | |
| { | |
| "epoch": 0.03242681539453541, | |
| "learning_rate": 0.0004949047983804782, | |
| "loss": 3.15, | |
| "step": 5535 | |
| }, | |
| { | |
| "epoch": 0.03251469294303008, | |
| "learning_rate": 0.0004948901429587538, | |
| "loss": 3.0833333333333335, | |
| "step": 5550 | |
| }, | |
| { | |
| "epoch": 0.03260257049152476, | |
| "learning_rate": 0.0004948754875370294, | |
| "loss": 3.1166666666666667, | |
| "step": 5565 | |
| }, | |
| { | |
| "epoch": 0.032690448040019436, | |
| "learning_rate": 0.000494860832115305, | |
| "loss": 3.066666666666667, | |
| "step": 5580 | |
| }, | |
| { | |
| "epoch": 0.03277832558851411, | |
| "learning_rate": 0.0004948461766935805, | |
| "loss": 3.05, | |
| "step": 5595 | |
| }, | |
| { | |
| "epoch": 0.03286620313700879, | |
| "learning_rate": 0.0004948315212718561, | |
| "loss": 2.95, | |
| "step": 5610 | |
| }, | |
| { | |
| "epoch": 0.03295408068550346, | |
| "learning_rate": 0.0004948168658501317, | |
| "loss": 3.0833333333333335, | |
| "step": 5625 | |
| }, | |
| { | |
| "epoch": 0.03304195823399814, | |
| "learning_rate": 0.0004948022104284073, | |
| "loss": 2.9833333333333334, | |
| "step": 5640 | |
| }, | |
| { | |
| "epoch": 0.03312983578249282, | |
| "learning_rate": 0.0004947875550066829, | |
| "loss": 3.1166666666666667, | |
| "step": 5655 | |
| }, | |
| { | |
| "epoch": 0.03321771333098749, | |
| "learning_rate": 0.0004947728995849585, | |
| "loss": 3.0, | |
| "step": 5670 | |
| }, | |
| { | |
| "epoch": 0.033305590879482164, | |
| "learning_rate": 0.0004947582441632341, | |
| "loss": 3.0833333333333335, | |
| "step": 5685 | |
| }, | |
| { | |
| "epoch": 0.033393468427976844, | |
| "learning_rate": 0.0004947435887415096, | |
| "loss": 2.966666666666667, | |
| "step": 5700 | |
| }, | |
| { | |
| "epoch": 0.03348134597647152, | |
| "learning_rate": 0.0004947289333197852, | |
| "loss": 3.066666666666667, | |
| "step": 5715 | |
| }, | |
| { | |
| "epoch": 0.0335692235249662, | |
| "learning_rate": 0.0004947142778980607, | |
| "loss": 3.1333333333333333, | |
| "step": 5730 | |
| }, | |
| { | |
| "epoch": 0.03365710107346087, | |
| "learning_rate": 0.0004946996224763363, | |
| "loss": 3.0166666666666666, | |
| "step": 5745 | |
| }, | |
| { | |
| "epoch": 0.033744978621955544, | |
| "learning_rate": 0.000494684967054612, | |
| "loss": 3.066666666666667, | |
| "step": 5760 | |
| }, | |
| { | |
| "epoch": 0.033832856170450225, | |
| "learning_rate": 0.0004946703116328876, | |
| "loss": 2.9833333333333334, | |
| "step": 5775 | |
| }, | |
| { | |
| "epoch": 0.0339207337189449, | |
| "learning_rate": 0.0004946556562111632, | |
| "loss": 3.066666666666667, | |
| "step": 5790 | |
| }, | |
| { | |
| "epoch": 0.03400861126743957, | |
| "learning_rate": 0.0004946410007894387, | |
| "loss": 3.066666666666667, | |
| "step": 5805 | |
| }, | |
| { | |
| "epoch": 0.03409648881593425, | |
| "learning_rate": 0.0004946263453677143, | |
| "loss": 3.0, | |
| "step": 5820 | |
| }, | |
| { | |
| "epoch": 0.034184366364428925, | |
| "learning_rate": 0.0004946116899459898, | |
| "loss": 3.15, | |
| "step": 5835 | |
| }, | |
| { | |
| "epoch": 0.0342722439129236, | |
| "learning_rate": 0.0004945970345242654, | |
| "loss": 3.066666666666667, | |
| "step": 5850 | |
| }, | |
| { | |
| "epoch": 0.03436012146141828, | |
| "learning_rate": 0.0004945823791025411, | |
| "loss": 2.9833333333333334, | |
| "step": 5865 | |
| }, | |
| { | |
| "epoch": 0.03444799900991295, | |
| "learning_rate": 0.0004945677236808167, | |
| "loss": 3.1, | |
| "step": 5880 | |
| }, | |
| { | |
| "epoch": 0.03453587655840763, | |
| "learning_rate": 0.0004945530682590923, | |
| "loss": 3.05, | |
| "step": 5895 | |
| }, | |
| { | |
| "epoch": 0.034623754106902306, | |
| "learning_rate": 0.0004945384128373678, | |
| "loss": 3.1166666666666667, | |
| "step": 5910 | |
| }, | |
| { | |
| "epoch": 0.03471163165539698, | |
| "learning_rate": 0.0004945237574156434, | |
| "loss": 2.933333333333333, | |
| "step": 5925 | |
| }, | |
| { | |
| "epoch": 0.03479950920389166, | |
| "learning_rate": 0.0004945091019939189, | |
| "loss": 3.1166666666666667, | |
| "step": 5940 | |
| }, | |
| { | |
| "epoch": 0.03488738675238633, | |
| "learning_rate": 0.0004944944465721945, | |
| "loss": 2.8833333333333333, | |
| "step": 5955 | |
| }, | |
| { | |
| "epoch": 0.03497526430088101, | |
| "learning_rate": 0.0004944797911504701, | |
| "loss": 3.05, | |
| "step": 5970 | |
| }, | |
| { | |
| "epoch": 0.03506314184937569, | |
| "learning_rate": 0.0004944651357287458, | |
| "loss": 3.1333333333333333, | |
| "step": 5985 | |
| }, | |
| { | |
| "epoch": 0.03515101939787036, | |
| "learning_rate": 0.0004944504803070214, | |
| "loss": 3.1166666666666667, | |
| "step": 6000 | |
| }, | |
| { | |
| "epoch": 0.035238896946365034, | |
| "learning_rate": 0.0004944358248852969, | |
| "loss": 3.1, | |
| "step": 6015 | |
| }, | |
| { | |
| "epoch": 0.035326774494859714, | |
| "learning_rate": 0.0004944211694635725, | |
| "loss": 2.95, | |
| "step": 6030 | |
| }, | |
| { | |
| "epoch": 0.03541465204335439, | |
| "learning_rate": 0.000494406514041848, | |
| "loss": 3.0833333333333335, | |
| "step": 6045 | |
| }, | |
| { | |
| "epoch": 0.03550252959184907, | |
| "learning_rate": 0.0004943918586201236, | |
| "loss": 2.95, | |
| "step": 6060 | |
| }, | |
| { | |
| "epoch": 0.03559040714034374, | |
| "learning_rate": 0.0004943772031983992, | |
| "loss": 3.0166666666666666, | |
| "step": 6075 | |
| }, | |
| { | |
| "epoch": 0.035678284688838414, | |
| "learning_rate": 0.0004943625477766749, | |
| "loss": 3.066666666666667, | |
| "step": 6090 | |
| }, | |
| { | |
| "epoch": 0.035766162237333095, | |
| "learning_rate": 0.0004943478923549505, | |
| "loss": 3.033333333333333, | |
| "step": 6105 | |
| }, | |
| { | |
| "epoch": 0.03585403978582777, | |
| "learning_rate": 0.000494333236933226, | |
| "loss": 3.0166666666666666, | |
| "step": 6120 | |
| }, | |
| { | |
| "epoch": 0.03594191733432244, | |
| "learning_rate": 0.0004943185815115016, | |
| "loss": 3.0166666666666666, | |
| "step": 6135 | |
| }, | |
| { | |
| "epoch": 0.03602979488281712, | |
| "learning_rate": 0.0004943039260897771, | |
| "loss": 2.8666666666666667, | |
| "step": 6150 | |
| }, | |
| { | |
| "epoch": 0.036117672431311795, | |
| "learning_rate": 0.0004942892706680527, | |
| "loss": 2.95, | |
| "step": 6165 | |
| }, | |
| { | |
| "epoch": 0.03620554997980647, | |
| "learning_rate": 0.0004942746152463283, | |
| "loss": 2.9833333333333334, | |
| "step": 6180 | |
| }, | |
| { | |
| "epoch": 0.03629342752830115, | |
| "learning_rate": 0.000494259959824604, | |
| "loss": 2.9833333333333334, | |
| "step": 6195 | |
| }, | |
| { | |
| "epoch": 0.03638130507679582, | |
| "learning_rate": 0.0004942453044028796, | |
| "loss": 2.9833333333333334, | |
| "step": 6210 | |
| }, | |
| { | |
| "epoch": 0.0364691826252905, | |
| "learning_rate": 0.0004942306489811551, | |
| "loss": 3.0166666666666666, | |
| "step": 6225 | |
| }, | |
| { | |
| "epoch": 0.036557060173785176, | |
| "learning_rate": 0.0004942159935594307, | |
| "loss": 2.95, | |
| "step": 6240 | |
| }, | |
| { | |
| "epoch": 0.03664493772227985, | |
| "learning_rate": 0.0004942013381377062, | |
| "loss": 3.0, | |
| "step": 6255 | |
| }, | |
| { | |
| "epoch": 0.03673281527077453, | |
| "learning_rate": 0.0004941866827159818, | |
| "loss": 3.0166666666666666, | |
| "step": 6270 | |
| }, | |
| { | |
| "epoch": 0.0368206928192692, | |
| "learning_rate": 0.0004941720272942574, | |
| "loss": 3.0, | |
| "step": 6285 | |
| }, | |
| { | |
| "epoch": 0.03690857036776388, | |
| "learning_rate": 0.000494157371872533, | |
| "loss": 3.0, | |
| "step": 6300 | |
| }, | |
| { | |
| "epoch": 0.03699644791625856, | |
| "learning_rate": 0.0004941427164508086, | |
| "loss": 3.05, | |
| "step": 6315 | |
| }, | |
| { | |
| "epoch": 0.03708432546475323, | |
| "learning_rate": 0.0004941280610290842, | |
| "loss": 3.0, | |
| "step": 6330 | |
| }, | |
| { | |
| "epoch": 0.037172203013247904, | |
| "learning_rate": 0.0004941134056073598, | |
| "loss": 3.1, | |
| "step": 6345 | |
| }, | |
| { | |
| "epoch": 0.037260080561742584, | |
| "learning_rate": 0.0004940987501856353, | |
| "loss": 2.966666666666667, | |
| "step": 6360 | |
| }, | |
| { | |
| "epoch": 0.03734795811023726, | |
| "learning_rate": 0.0004940840947639109, | |
| "loss": 2.933333333333333, | |
| "step": 6375 | |
| }, | |
| { | |
| "epoch": 0.03743583565873194, | |
| "learning_rate": 0.0004940694393421865, | |
| "loss": 3.1666666666666665, | |
| "step": 6390 | |
| }, | |
| { | |
| "epoch": 0.03752371320722661, | |
| "learning_rate": 0.0004940547839204621, | |
| "loss": 2.85, | |
| "step": 6405 | |
| }, | |
| { | |
| "epoch": 0.037611590755721284, | |
| "learning_rate": 0.0004940401284987376, | |
| "loss": 2.933333333333333, | |
| "step": 6420 | |
| }, | |
| { | |
| "epoch": 0.037699468304215965, | |
| "learning_rate": 0.0004940254730770133, | |
| "loss": 3.0, | |
| "step": 6435 | |
| }, | |
| { | |
| "epoch": 0.03778734585271064, | |
| "learning_rate": 0.0004940108176552889, | |
| "loss": 2.966666666666667, | |
| "step": 6450 | |
| }, | |
| { | |
| "epoch": 0.03787522340120531, | |
| "learning_rate": 0.0004939961622335644, | |
| "loss": 3.066666666666667, | |
| "step": 6465 | |
| }, | |
| { | |
| "epoch": 0.03796310094969999, | |
| "learning_rate": 0.00049398150681184, | |
| "loss": 2.9, | |
| "step": 6480 | |
| }, | |
| { | |
| "epoch": 0.038050978498194665, | |
| "learning_rate": 0.0004939668513901156, | |
| "loss": 2.9833333333333334, | |
| "step": 6495 | |
| }, | |
| { | |
| "epoch": 0.03813885604668934, | |
| "learning_rate": 0.0004939521959683912, | |
| "loss": 3.0166666666666666, | |
| "step": 6510 | |
| }, | |
| { | |
| "epoch": 0.03822673359518402, | |
| "learning_rate": 0.0004939375405466667, | |
| "loss": 2.9166666666666665, | |
| "step": 6525 | |
| }, | |
| { | |
| "epoch": 0.03831461114367869, | |
| "learning_rate": 0.0004939228851249424, | |
| "loss": 3.0166666666666666, | |
| "step": 6540 | |
| }, | |
| { | |
| "epoch": 0.03840248869217337, | |
| "learning_rate": 0.000493908229703218, | |
| "loss": 2.9833333333333334, | |
| "step": 6555 | |
| }, | |
| { | |
| "epoch": 0.038490366240668046, | |
| "learning_rate": 0.0004938935742814935, | |
| "loss": 3.033333333333333, | |
| "step": 6570 | |
| }, | |
| { | |
| "epoch": 0.03857824378916272, | |
| "learning_rate": 0.0004938789188597691, | |
| "loss": 2.9833333333333334, | |
| "step": 6585 | |
| }, | |
| { | |
| "epoch": 0.0386661213376574, | |
| "learning_rate": 0.0004938642634380447, | |
| "loss": 2.8833333333333333, | |
| "step": 6600 | |
| }, | |
| { | |
| "epoch": 0.03875399888615207, | |
| "learning_rate": 0.0004938496080163203, | |
| "loss": 2.95, | |
| "step": 6615 | |
| }, | |
| { | |
| "epoch": 0.03884187643464675, | |
| "learning_rate": 0.0004938349525945958, | |
| "loss": 2.95, | |
| "step": 6630 | |
| }, | |
| { | |
| "epoch": 0.03892975398314143, | |
| "learning_rate": 0.0004938202971728714, | |
| "loss": 2.9833333333333334, | |
| "step": 6645 | |
| }, | |
| { | |
| "epoch": 0.0390176315316361, | |
| "learning_rate": 0.0004938056417511471, | |
| "loss": 2.9166666666666665, | |
| "step": 6660 | |
| }, | |
| { | |
| "epoch": 0.039105509080130774, | |
| "learning_rate": 0.0004937909863294227, | |
| "loss": 2.95, | |
| "step": 6675 | |
| }, | |
| { | |
| "epoch": 0.039193386628625454, | |
| "learning_rate": 0.0004937763309076982, | |
| "loss": 2.95, | |
| "step": 6690 | |
| }, | |
| { | |
| "epoch": 0.03928126417712013, | |
| "learning_rate": 0.0004937616754859738, | |
| "loss": 2.9166666666666665, | |
| "step": 6705 | |
| }, | |
| { | |
| "epoch": 0.0393691417256148, | |
| "learning_rate": 0.0004937470200642494, | |
| "loss": 3.0, | |
| "step": 6720 | |
| }, | |
| { | |
| "epoch": 0.03945701927410948, | |
| "learning_rate": 0.0004937323646425249, | |
| "loss": 2.9, | |
| "step": 6735 | |
| }, | |
| { | |
| "epoch": 0.039544896822604154, | |
| "learning_rate": 0.0004937177092208005, | |
| "loss": 2.8833333333333333, | |
| "step": 6750 | |
| }, | |
| { | |
| "epoch": 0.039632774371098835, | |
| "learning_rate": 0.0004937030537990762, | |
| "loss": 2.933333333333333, | |
| "step": 6765 | |
| }, | |
| { | |
| "epoch": 0.03972065191959351, | |
| "learning_rate": 0.0004936883983773518, | |
| "loss": 2.966666666666667, | |
| "step": 6780 | |
| }, | |
| { | |
| "epoch": 0.03980852946808818, | |
| "learning_rate": 0.0004936737429556273, | |
| "loss": 3.0166666666666666, | |
| "step": 6795 | |
| }, | |
| { | |
| "epoch": 0.03989640701658286, | |
| "learning_rate": 0.0004936590875339029, | |
| "loss": 2.933333333333333, | |
| "step": 6810 | |
| }, | |
| { | |
| "epoch": 0.039984284565077535, | |
| "learning_rate": 0.0004936444321121785, | |
| "loss": 2.966666666666667, | |
| "step": 6825 | |
| }, | |
| { | |
| "epoch": 0.04007216211357221, | |
| "learning_rate": 0.000493629776690454, | |
| "loss": 2.95, | |
| "step": 6840 | |
| }, | |
| { | |
| "epoch": 0.04016003966206689, | |
| "learning_rate": 0.0004936151212687296, | |
| "loss": 2.933333333333333, | |
| "step": 6855 | |
| }, | |
| { | |
| "epoch": 0.04024791721056156, | |
| "learning_rate": 0.0004936004658470052, | |
| "loss": 2.85, | |
| "step": 6870 | |
| }, | |
| { | |
| "epoch": 0.040335794759056236, | |
| "learning_rate": 0.0004935858104252809, | |
| "loss": 2.95, | |
| "step": 6885 | |
| }, | |
| { | |
| "epoch": 0.040423672307550916, | |
| "learning_rate": 0.0004935711550035564, | |
| "loss": 2.85, | |
| "step": 6900 | |
| }, | |
| { | |
| "epoch": 0.04051154985604559, | |
| "learning_rate": 0.000493556499581832, | |
| "loss": 2.9166666666666665, | |
| "step": 6915 | |
| }, | |
| { | |
| "epoch": 0.04059942740454027, | |
| "learning_rate": 0.0004935418441601076, | |
| "loss": 2.95, | |
| "step": 6930 | |
| }, | |
| { | |
| "epoch": 0.04068730495303494, | |
| "learning_rate": 0.0004935271887383831, | |
| "loss": 3.0166666666666666, | |
| "step": 6945 | |
| }, | |
| { | |
| "epoch": 0.04077518250152962, | |
| "learning_rate": 0.0004935125333166587, | |
| "loss": 2.9166666666666665, | |
| "step": 6960 | |
| }, | |
| { | |
| "epoch": 0.0408630600500243, | |
| "learning_rate": 0.0004934978778949343, | |
| "loss": 2.8833333333333333, | |
| "step": 6975 | |
| }, | |
| { | |
| "epoch": 0.04095093759851897, | |
| "learning_rate": 0.00049348322247321, | |
| "loss": 2.8833333333333333, | |
| "step": 6990 | |
| }, | |
| { | |
| "epoch": 0.041038815147013644, | |
| "learning_rate": 0.0004934685670514855, | |
| "loss": 2.966666666666667, | |
| "step": 7005 | |
| }, | |
| { | |
| "epoch": 0.041126692695508324, | |
| "learning_rate": 0.0004934539116297611, | |
| "loss": 2.95, | |
| "step": 7020 | |
| }, | |
| { | |
| "epoch": 0.041214570244003, | |
| "learning_rate": 0.0004934392562080367, | |
| "loss": 2.933333333333333, | |
| "step": 7035 | |
| }, | |
| { | |
| "epoch": 0.04130244779249767, | |
| "learning_rate": 0.0004934246007863122, | |
| "loss": 2.933333333333333, | |
| "step": 7050 | |
| }, | |
| { | |
| "epoch": 0.04139032534099235, | |
| "learning_rate": 0.0004934099453645878, | |
| "loss": 2.8833333333333333, | |
| "step": 7065 | |
| }, | |
| { | |
| "epoch": 0.041478202889487024, | |
| "learning_rate": 0.0004933952899428634, | |
| "loss": 2.95, | |
| "step": 7080 | |
| }, | |
| { | |
| "epoch": 0.041566080437981705, | |
| "learning_rate": 0.000493380634521139, | |
| "loss": 2.9, | |
| "step": 7095 | |
| }, | |
| { | |
| "epoch": 0.04165395798647638, | |
| "learning_rate": 0.0004933659790994146, | |
| "loss": 2.933333333333333, | |
| "step": 7110 | |
| }, | |
| { | |
| "epoch": 0.04174183553497105, | |
| "learning_rate": 0.0004933513236776902, | |
| "loss": 2.9, | |
| "step": 7125 | |
| }, | |
| { | |
| "epoch": 0.04182971308346573, | |
| "learning_rate": 0.0004933366682559658, | |
| "loss": 2.85, | |
| "step": 7140 | |
| }, | |
| { | |
| "epoch": 0.041917590631960405, | |
| "learning_rate": 0.0004933220128342413, | |
| "loss": 2.8333333333333335, | |
| "step": 7155 | |
| }, | |
| { | |
| "epoch": 0.04200546818045508, | |
| "learning_rate": 0.0004933073574125169, | |
| "loss": 2.933333333333333, | |
| "step": 7170 | |
| }, | |
| { | |
| "epoch": 0.04209334572894976, | |
| "learning_rate": 0.0004932927019907925, | |
| "loss": 2.9166666666666665, | |
| "step": 7185 | |
| }, | |
| { | |
| "epoch": 0.04218122327744443, | |
| "learning_rate": 0.0004932780465690681, | |
| "loss": 2.933333333333333, | |
| "step": 7200 | |
| }, | |
| { | |
| "epoch": 0.042269100825939106, | |
| "learning_rate": 0.0004932633911473437, | |
| "loss": 2.8, | |
| "step": 7215 | |
| }, | |
| { | |
| "epoch": 0.042356978374433786, | |
| "learning_rate": 0.0004932487357256193, | |
| "loss": 2.85, | |
| "step": 7230 | |
| }, | |
| { | |
| "epoch": 0.04244485592292846, | |
| "learning_rate": 0.0004932340803038948, | |
| "loss": 2.85, | |
| "step": 7245 | |
| }, | |
| { | |
| "epoch": 0.04253273347142314, | |
| "learning_rate": 0.0004932194248821704, | |
| "loss": 2.8666666666666667, | |
| "step": 7260 | |
| }, | |
| { | |
| "epoch": 0.04262061101991781, | |
| "learning_rate": 0.000493204769460446, | |
| "loss": 2.85, | |
| "step": 7275 | |
| }, | |
| { | |
| "epoch": 0.042708488568412487, | |
| "learning_rate": 0.0004931901140387216, | |
| "loss": 2.966666666666667, | |
| "step": 7290 | |
| }, | |
| { | |
| "epoch": 0.04279636611690717, | |
| "learning_rate": 0.0004931754586169972, | |
| "loss": 2.816666666666667, | |
| "step": 7305 | |
| }, | |
| { | |
| "epoch": 0.04288424366540184, | |
| "learning_rate": 0.0004931608031952727, | |
| "loss": 3.0166666666666666, | |
| "step": 7320 | |
| }, | |
| { | |
| "epoch": 0.042972121213896514, | |
| "learning_rate": 0.0004931461477735484, | |
| "loss": 2.9166666666666665, | |
| "step": 7335 | |
| }, | |
| { | |
| "epoch": 0.043059998762391194, | |
| "learning_rate": 0.0004931314923518239, | |
| "loss": 2.9166666666666665, | |
| "step": 7350 | |
| }, | |
| { | |
| "epoch": 0.04314787631088587, | |
| "learning_rate": 0.0004931168369300995, | |
| "loss": 2.966666666666667, | |
| "step": 7365 | |
| }, | |
| { | |
| "epoch": 0.04323575385938054, | |
| "learning_rate": 0.0004931021815083751, | |
| "loss": 2.95, | |
| "step": 7380 | |
| }, | |
| { | |
| "epoch": 0.04332363140787522, | |
| "learning_rate": 0.0004930875260866507, | |
| "loss": 2.966666666666667, | |
| "step": 7395 | |
| }, | |
| { | |
| "epoch": 0.043411508956369894, | |
| "learning_rate": 0.0004930728706649263, | |
| "loss": 2.8333333333333335, | |
| "step": 7410 | |
| }, | |
| { | |
| "epoch": 0.043499386504864575, | |
| "learning_rate": 0.0004930582152432018, | |
| "loss": 3.0166666666666666, | |
| "step": 7425 | |
| }, | |
| { | |
| "epoch": 0.04358726405335925, | |
| "learning_rate": 0.0004930435598214775, | |
| "loss": 2.933333333333333, | |
| "step": 7440 | |
| }, | |
| { | |
| "epoch": 0.04367514160185392, | |
| "learning_rate": 0.000493028904399753, | |
| "loss": 2.9166666666666665, | |
| "step": 7455 | |
| }, | |
| { | |
| "epoch": 0.0437630191503486, | |
| "learning_rate": 0.0004930142489780286, | |
| "loss": 2.8333333333333335, | |
| "step": 7470 | |
| }, | |
| { | |
| "epoch": 0.043850896698843275, | |
| "learning_rate": 0.0004929995935563042, | |
| "loss": 2.95, | |
| "step": 7485 | |
| }, | |
| { | |
| "epoch": 0.04393877424733795, | |
| "learning_rate": 0.0004929849381345798, | |
| "loss": 2.9166666666666665, | |
| "step": 7500 | |
| }, | |
| { | |
| "epoch": 0.04402665179583263, | |
| "learning_rate": 0.0004929702827128554, | |
| "loss": 2.933333333333333, | |
| "step": 7515 | |
| }, | |
| { | |
| "epoch": 0.0441145293443273, | |
| "learning_rate": 0.0004929556272911309, | |
| "loss": 2.816666666666667, | |
| "step": 7530 | |
| }, | |
| { | |
| "epoch": 0.044202406892821976, | |
| "learning_rate": 0.0004929409718694065, | |
| "loss": 2.966666666666667, | |
| "step": 7545 | |
| }, | |
| { | |
| "epoch": 0.044290284441316656, | |
| "learning_rate": 0.000492926316447682, | |
| "loss": 2.9, | |
| "step": 7560 | |
| }, | |
| { | |
| "epoch": 0.04437816198981133, | |
| "learning_rate": 0.0004929116610259577, | |
| "loss": 2.85, | |
| "step": 7575 | |
| }, | |
| { | |
| "epoch": 0.04446603953830601, | |
| "learning_rate": 0.0004928970056042333, | |
| "loss": 2.816666666666667, | |
| "step": 7590 | |
| }, | |
| { | |
| "epoch": 0.04455391708680068, | |
| "learning_rate": 0.0004928823501825089, | |
| "loss": 2.8666666666666667, | |
| "step": 7605 | |
| }, | |
| { | |
| "epoch": 0.044641794635295357, | |
| "learning_rate": 0.0004928676947607845, | |
| "loss": 2.8833333333333333, | |
| "step": 7620 | |
| }, | |
| { | |
| "epoch": 0.04472967218379004, | |
| "learning_rate": 0.00049285303933906, | |
| "loss": 2.9166666666666665, | |
| "step": 7635 | |
| }, | |
| { | |
| "epoch": 0.04481754973228471, | |
| "learning_rate": 0.0004928383839173356, | |
| "loss": 2.8, | |
| "step": 7650 | |
| }, | |
| { | |
| "epoch": 0.044905427280779384, | |
| "learning_rate": 0.0004928237284956111, | |
| "loss": 2.85, | |
| "step": 7665 | |
| }, | |
| { | |
| "epoch": 0.044993304829274064, | |
| "learning_rate": 0.0004928090730738868, | |
| "loss": 2.8, | |
| "step": 7680 | |
| }, | |
| { | |
| "epoch": 0.04508118237776874, | |
| "learning_rate": 0.0004927944176521624, | |
| "loss": 2.8333333333333335, | |
| "step": 7695 | |
| }, | |
| { | |
| "epoch": 0.04516905992626341, | |
| "learning_rate": 0.000492779762230438, | |
| "loss": 2.85, | |
| "step": 7710 | |
| }, | |
| { | |
| "epoch": 0.04525693747475809, | |
| "learning_rate": 0.0004927651068087136, | |
| "loss": 2.8833333333333333, | |
| "step": 7725 | |
| }, | |
| { | |
| "epoch": 0.045344815023252764, | |
| "learning_rate": 0.0004927504513869891, | |
| "loss": 2.7, | |
| "step": 7740 | |
| }, | |
| { | |
| "epoch": 0.045432692571747445, | |
| "learning_rate": 0.0004927357959652647, | |
| "loss": 2.9166666666666665, | |
| "step": 7755 | |
| }, | |
| { | |
| "epoch": 0.04552057012024212, | |
| "learning_rate": 0.0004927211405435402, | |
| "loss": 2.8666666666666667, | |
| "step": 7770 | |
| }, | |
| { | |
| "epoch": 0.04560844766873679, | |
| "learning_rate": 0.0004927064851218159, | |
| "loss": 2.7666666666666666, | |
| "step": 7785 | |
| }, | |
| { | |
| "epoch": 0.04569632521723147, | |
| "learning_rate": 0.0004926918297000915, | |
| "loss": 2.9, | |
| "step": 7800 | |
| }, | |
| { | |
| "epoch": 0.045784202765726145, | |
| "learning_rate": 0.0004926771742783671, | |
| "loss": 2.75, | |
| "step": 7815 | |
| }, | |
| { | |
| "epoch": 0.04587208031422082, | |
| "learning_rate": 0.0004926625188566427, | |
| "loss": 2.9, | |
| "step": 7830 | |
| }, | |
| { | |
| "epoch": 0.0459599578627155, | |
| "learning_rate": 0.0004926478634349182, | |
| "loss": 2.933333333333333, | |
| "step": 7845 | |
| }, | |
| { | |
| "epoch": 0.04604783541121017, | |
| "learning_rate": 0.0004926332080131938, | |
| "loss": 2.8666666666666667, | |
| "step": 7860 | |
| }, | |
| { | |
| "epoch": 0.046135712959704846, | |
| "learning_rate": 0.0004926185525914693, | |
| "loss": 2.933333333333333, | |
| "step": 7875 | |
| }, | |
| { | |
| "epoch": 0.046223590508199526, | |
| "learning_rate": 0.000492603897169745, | |
| "loss": 2.9, | |
| "step": 7890 | |
| }, | |
| { | |
| "epoch": 0.0463114680566942, | |
| "learning_rate": 0.0004925892417480206, | |
| "loss": 2.8, | |
| "step": 7905 | |
| }, | |
| { | |
| "epoch": 0.04639934560518888, | |
| "learning_rate": 0.0004925745863262962, | |
| "loss": 2.6666666666666665, | |
| "step": 7920 | |
| }, | |
| { | |
| "epoch": 0.04648722315368355, | |
| "learning_rate": 0.0004925599309045717, | |
| "loss": 2.8333333333333335, | |
| "step": 7935 | |
| }, | |
| { | |
| "epoch": 0.046575100702178227, | |
| "learning_rate": 0.0004925452754828473, | |
| "loss": 2.816666666666667, | |
| "step": 7950 | |
| }, | |
| { | |
| "epoch": 0.04666297825067291, | |
| "learning_rate": 0.0004925306200611229, | |
| "loss": 2.8833333333333333, | |
| "step": 7965 | |
| }, | |
| { | |
| "epoch": 0.04675085579916758, | |
| "learning_rate": 0.0004925159646393984, | |
| "loss": 2.9166666666666665, | |
| "step": 7980 | |
| }, | |
| { | |
| "epoch": 0.046838733347662254, | |
| "learning_rate": 0.000492501309217674, | |
| "loss": 2.8833333333333333, | |
| "step": 7995 | |
| }, | |
| { | |
| "epoch": 0.046926610896156934, | |
| "learning_rate": 0.0004924866537959497, | |
| "loss": 2.8666666666666667, | |
| "step": 8010 | |
| }, | |
| { | |
| "epoch": 0.04701448844465161, | |
| "learning_rate": 0.0004924719983742253, | |
| "loss": 2.85, | |
| "step": 8025 | |
| }, | |
| { | |
| "epoch": 0.04710236599314628, | |
| "learning_rate": 0.0004924573429525008, | |
| "loss": 2.783333333333333, | |
| "step": 8040 | |
| }, | |
| { | |
| "epoch": 0.04719024354164096, | |
| "learning_rate": 0.0004924426875307764, | |
| "loss": 2.8333333333333335, | |
| "step": 8055 | |
| }, | |
| { | |
| "epoch": 0.047278121090135634, | |
| "learning_rate": 0.000492428032109052, | |
| "loss": 2.8333333333333335, | |
| "step": 8070 | |
| }, | |
| { | |
| "epoch": 0.04736599863863031, | |
| "learning_rate": 0.0004924133766873275, | |
| "loss": 2.8833333333333333, | |
| "step": 8085 | |
| }, | |
| { | |
| "epoch": 0.04745387618712499, | |
| "learning_rate": 0.0004923987212656031, | |
| "loss": 2.75, | |
| "step": 8100 | |
| }, | |
| { | |
| "epoch": 0.04754175373561966, | |
| "learning_rate": 0.0004923840658438788, | |
| "loss": 2.716666666666667, | |
| "step": 8115 | |
| }, | |
| { | |
| "epoch": 0.04762963128411434, | |
| "learning_rate": 0.0004923694104221544, | |
| "loss": 2.8666666666666667, | |
| "step": 8130 | |
| }, | |
| { | |
| "epoch": 0.047717508832609015, | |
| "learning_rate": 0.0004923547550004299, | |
| "loss": 2.816666666666667, | |
| "step": 8145 | |
| }, | |
| { | |
| "epoch": 0.04780538638110369, | |
| "learning_rate": 0.0004923400995787055, | |
| "loss": 2.7333333333333334, | |
| "step": 8160 | |
| }, | |
| { | |
| "epoch": 0.04789326392959837, | |
| "learning_rate": 0.000492325444156981, | |
| "loss": 2.7333333333333334, | |
| "step": 8175 | |
| }, | |
| { | |
| "epoch": 0.04798114147809304, | |
| "learning_rate": 0.0004923107887352566, | |
| "loss": 2.8, | |
| "step": 8190 | |
| }, | |
| { | |
| "epoch": 0.048069019026587716, | |
| "learning_rate": 0.0004922961333135322, | |
| "loss": 2.8, | |
| "step": 8205 | |
| }, | |
| { | |
| "epoch": 0.048156896575082396, | |
| "learning_rate": 0.0004922814778918078, | |
| "loss": 2.85, | |
| "step": 8220 | |
| }, | |
| { | |
| "epoch": 0.04824477412357707, | |
| "learning_rate": 0.0004922668224700835, | |
| "loss": 2.75, | |
| "step": 8235 | |
| }, | |
| { | |
| "epoch": 0.04833265167207174, | |
| "learning_rate": 0.000492252167048359, | |
| "loss": 2.8333333333333335, | |
| "step": 8250 | |
| }, | |
| { | |
| "epoch": 0.04842052922056642, | |
| "learning_rate": 0.0004922375116266346, | |
| "loss": 2.783333333333333, | |
| "step": 8265 | |
| } | |
| ], | |
| "max_steps": 512076, | |
| "num_train_epochs": 3, | |
| "total_flos": 1079104548938711040, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |