{ "best_metric": null, "best_model_checkpoint": null, "epoch": 3.0, "eval_steps": 500, "global_step": 225, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.13333333333333333, "grad_norm": 12.684171676635742, "learning_rate": 8e-05, "loss": 1.2281, "step": 10 }, { "epoch": 0.26666666666666666, "grad_norm": 5.992891788482666, "learning_rate": 8e-05, "loss": 0.8559, "step": 20 }, { "epoch": 0.4, "grad_norm": 4.8018574714660645, "learning_rate": 8e-05, "loss": 0.662, "step": 30 }, { "epoch": 0.5333333333333333, "grad_norm": 6.7871413230896, "learning_rate": 8e-05, "loss": 0.5638, "step": 40 }, { "epoch": 0.6666666666666666, "grad_norm": 7.326993942260742, "learning_rate": 8e-05, "loss": 0.4855, "step": 50 }, { "epoch": 0.8, "grad_norm": 3.8792343139648438, "learning_rate": 8e-05, "loss": 0.4623, "step": 60 }, { "epoch": 0.9333333333333333, "grad_norm": 3.895263671875, "learning_rate": 8e-05, "loss": 0.536, "step": 70 }, { "epoch": 1.0666666666666667, "grad_norm": 3.9079606533050537, "learning_rate": 8e-05, "loss": 0.4769, "step": 80 }, { "epoch": 1.2, "grad_norm": 2.4843099117279053, "learning_rate": 8e-05, "loss": 0.3534, "step": 90 }, { "epoch": 1.3333333333333333, "grad_norm": 1.9975205659866333, "learning_rate": 8e-05, "loss": 0.2728, "step": 100 }, { "epoch": 1.4666666666666668, "grad_norm": 1.805734395980835, "learning_rate": 8e-05, "loss": 0.2845, "step": 110 }, { "epoch": 1.6, "grad_norm": 2.8298110961914062, "learning_rate": 8e-05, "loss": 0.325, "step": 120 }, { "epoch": 1.7333333333333334, "grad_norm": 2.404350996017456, "learning_rate": 8e-05, "loss": 0.1876, "step": 130 }, { "epoch": 1.8666666666666667, "grad_norm": 2.800565481185913, "learning_rate": 8e-05, "loss": 0.3403, "step": 140 }, { "epoch": 2.0, "grad_norm": 3.3671960830688477, "learning_rate": 8e-05, "loss": 0.2958, "step": 150 }, { "epoch": 2.1333333333333333, "grad_norm": 3.240291118621826, "learning_rate": 8e-05, "loss": 0.1964, "step": 160 }, { "epoch": 2.2666666666666666, "grad_norm": 1.1050523519515991, "learning_rate": 8e-05, "loss": 0.1256, "step": 170 }, { "epoch": 2.4, "grad_norm": 2.640699863433838, "learning_rate": 8e-05, "loss": 0.15, "step": 180 }, { "epoch": 2.533333333333333, "grad_norm": 3.566378116607666, "learning_rate": 8e-05, "loss": 0.1707, "step": 190 }, { "epoch": 2.6666666666666665, "grad_norm": 1.9662597179412842, "learning_rate": 8e-05, "loss": 0.1709, "step": 200 }, { "epoch": 2.8, "grad_norm": 3.1075780391693115, "learning_rate": 8e-05, "loss": 0.1547, "step": 210 }, { "epoch": 2.9333333333333336, "grad_norm": 1.8456004858016968, "learning_rate": 8e-05, "loss": 0.1095, "step": 220 }, { "epoch": 3.0, "step": 225, "total_flos": 1.05836359974912e+16, "train_loss": 0.37946837372250025, "train_runtime": 508.6697, "train_samples_per_second": 0.442, "train_steps_per_second": 0.442 } ], "logging_steps": 10, "max_steps": 225, "num_input_tokens_seen": 0, "num_train_epochs": 3, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 1.05836359974912e+16, "train_batch_size": 1, "trial_name": null, "trial_params": null }