| { | |
| "best_global_step": null, | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 3.0, | |
| "eval_steps": 100, | |
| "global_step": 114, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.13333333333333333, | |
| "grad_norm": 0.14584249258041382, | |
| "learning_rate": 0.00016666666666666666, | |
| "loss": 0.9293, | |
| "step": 5 | |
| }, | |
| { | |
| "epoch": 0.26666666666666666, | |
| "grad_norm": 0.1325272023677826, | |
| "learning_rate": 0.000375, | |
| "loss": 0.8556, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.4, | |
| "grad_norm": 0.15272639691829681, | |
| "learning_rate": 0.0004995258321842611, | |
| "loss": 0.8414, | |
| "step": 15 | |
| }, | |
| { | |
| "epoch": 0.5333333333333333, | |
| "grad_norm": 0.1267966479063034, | |
| "learning_rate": 0.0004942120794399002, | |
| "loss": 0.7606, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "grad_norm": 0.13581494987010956, | |
| "learning_rate": 0.00048311805735108893, | |
| "loss": 0.7522, | |
| "step": 25 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "grad_norm": 0.12239090353250504, | |
| "learning_rate": 0.00046650635094610973, | |
| "loss": 0.7444, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.9333333333333333, | |
| "grad_norm": 0.12692460417747498, | |
| "learning_rate": 0.0004447701436314176, | |
| "loss": 0.6762, | |
| "step": 35 | |
| }, | |
| { | |
| "epoch": 1.0533333333333332, | |
| "grad_norm": 0.12733194231987, | |
| "learning_rate": 0.0004184239109116393, | |
| "loss": 0.7014, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 1.1866666666666668, | |
| "grad_norm": 0.13756456971168518, | |
| "learning_rate": 0.00038809124324012647, | |
| "loss": 0.6655, | |
| "step": 45 | |
| }, | |
| { | |
| "epoch": 1.32, | |
| "grad_norm": 0.14693589508533478, | |
| "learning_rate": 0.00035449008622169586, | |
| "loss": 0.6315, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 1.4533333333333334, | |
| "grad_norm": 0.16421127319335938, | |
| "learning_rate": 0.0003184157475180208, | |
| "loss": 0.6525, | |
| "step": 55 | |
| }, | |
| { | |
| "epoch": 1.5866666666666667, | |
| "grad_norm": 0.1636400669813156, | |
| "learning_rate": 0.00028072207266617854, | |
| "loss": 0.6398, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 1.72, | |
| "grad_norm": 0.16314196586608887, | |
| "learning_rate": 0.00024230123536095747, | |
| "loss": 0.6836, | |
| "step": 65 | |
| }, | |
| { | |
| "epoch": 1.8533333333333335, | |
| "grad_norm": 0.1881810426712036, | |
| "learning_rate": 0.0002040626205458574, | |
| "loss": 0.6227, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 1.9866666666666668, | |
| "grad_norm": 0.1938481628894806, | |
| "learning_rate": 0.00016691130013008512, | |
| "loss": 0.6343, | |
| "step": 75 | |
| }, | |
| { | |
| "epoch": 2.1066666666666665, | |
| "grad_norm": 0.18422311544418335, | |
| "learning_rate": 0.0001317266107909975, | |
| "loss": 0.6193, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 2.24, | |
| "grad_norm": 0.19134873151779175, | |
| "learning_rate": 9.934134090518593e-05, | |
| "loss": 0.5563, | |
| "step": 85 | |
| }, | |
| { | |
| "epoch": 2.3733333333333335, | |
| "grad_norm": 0.19149252772331238, | |
| "learning_rate": 7.052201923388955e-05, | |
| "loss": 0.5774, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 2.506666666666667, | |
| "grad_norm": 0.2055027186870575, | |
| "learning_rate": 4.59507719109446e-05, | |
| "loss": 0.5472, | |
| "step": 95 | |
| }, | |
| { | |
| "epoch": 2.64, | |
| "grad_norm": 0.20931023359298706, | |
| "learning_rate": 2.6209177161234443e-05, | |
| "loss": 0.5133, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 2.64, | |
| "eval_loss": 0.8378572463989258, | |
| "eval_runtime": 6.3722, | |
| "eval_samples_per_second": 2.668, | |
| "eval_steps_per_second": 2.668, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 2.7733333333333334, | |
| "grad_norm": 0.19245073199272156, | |
| "learning_rate": 1.1764499893210877e-05, | |
| "loss": 0.5179, | |
| "step": 105 | |
| }, | |
| { | |
| "epoch": 2.9066666666666667, | |
| "grad_norm": 0.20502211153507233, | |
| "learning_rate": 2.9586319796851556e-06, | |
| "loss": 0.525, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "step": 114, | |
| "total_flos": 7347762207129600.0, | |
| "train_loss": 0.6599949598312378, | |
| "train_runtime": 1100.6114, | |
| "train_samples_per_second": 0.818, | |
| "train_steps_per_second": 0.104 | |
| } | |
| ], | |
| "logging_steps": 5, | |
| "max_steps": 114, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 3, | |
| "save_steps": 40, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 7347762207129600.0, | |
| "train_batch_size": 1, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |