| { | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 5.0, | |
| "global_step": 18750, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.13, | |
| "learning_rate": 1.9733333333333336e-05, | |
| "loss": 2.5525, | |
| "step": 500 | |
| }, | |
| { | |
| "epoch": 0.27, | |
| "learning_rate": 1.9466666666666668e-05, | |
| "loss": 2.3435, | |
| "step": 1000 | |
| }, | |
| { | |
| "epoch": 0.4, | |
| "learning_rate": 1.9200000000000003e-05, | |
| "loss": 2.2863, | |
| "step": 1500 | |
| }, | |
| { | |
| "epoch": 0.53, | |
| "learning_rate": 1.8933333333333334e-05, | |
| "loss": 2.1898, | |
| "step": 2000 | |
| }, | |
| { | |
| "epoch": 0.67, | |
| "learning_rate": 1.866666666666667e-05, | |
| "loss": 2.1592, | |
| "step": 2500 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "learning_rate": 1.8400000000000003e-05, | |
| "loss": 2.118, | |
| "step": 3000 | |
| }, | |
| { | |
| "epoch": 0.93, | |
| "learning_rate": 1.8133333333333335e-05, | |
| "loss": 2.1194, | |
| "step": 3500 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "eval_loss": 2.167937755584717, | |
| "eval_runtime": 5.4656, | |
| "eval_samples_per_second": 216.811, | |
| "step": 3750 | |
| }, | |
| { | |
| "epoch": 1.07, | |
| "learning_rate": 1.7866666666666666e-05, | |
| "loss": 2.0226, | |
| "step": 4000 | |
| }, | |
| { | |
| "epoch": 1.2, | |
| "learning_rate": 1.76e-05, | |
| "loss": 1.9416, | |
| "step": 4500 | |
| }, | |
| { | |
| "epoch": 1.33, | |
| "learning_rate": 1.7333333333333336e-05, | |
| "loss": 1.9142, | |
| "step": 5000 | |
| }, | |
| { | |
| "epoch": 1.47, | |
| "learning_rate": 1.706666666666667e-05, | |
| "loss": 1.9465, | |
| "step": 5500 | |
| }, | |
| { | |
| "epoch": 1.6, | |
| "learning_rate": 1.6800000000000002e-05, | |
| "loss": 1.9171, | |
| "step": 6000 | |
| }, | |
| { | |
| "epoch": 1.73, | |
| "learning_rate": 1.6533333333333333e-05, | |
| "loss": 1.9979, | |
| "step": 6500 | |
| }, | |
| { | |
| "epoch": 1.87, | |
| "learning_rate": 1.6266666666666668e-05, | |
| "loss": 1.963, | |
| "step": 7000 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "learning_rate": 1.6000000000000003e-05, | |
| "loss": 1.8565, | |
| "step": 7500 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "eval_loss": 1.9571301937103271, | |
| "eval_runtime": 5.653, | |
| "eval_samples_per_second": 209.624, | |
| "step": 7500 | |
| }, | |
| { | |
| "epoch": 2.13, | |
| "learning_rate": 1.5733333333333334e-05, | |
| "loss": 1.824, | |
| "step": 8000 | |
| }, | |
| { | |
| "epoch": 2.27, | |
| "learning_rate": 1.546666666666667e-05, | |
| "loss": 1.7946, | |
| "step": 8500 | |
| }, | |
| { | |
| "epoch": 2.4, | |
| "learning_rate": 1.5200000000000002e-05, | |
| "loss": 1.7443, | |
| "step": 9000 | |
| }, | |
| { | |
| "epoch": 2.53, | |
| "learning_rate": 1.4933333333333335e-05, | |
| "loss": 1.7903, | |
| "step": 9500 | |
| }, | |
| { | |
| "epoch": 2.67, | |
| "learning_rate": 1.4666666666666666e-05, | |
| "loss": 1.8024, | |
| "step": 10000 | |
| }, | |
| { | |
| "epoch": 2.8, | |
| "learning_rate": 1.4400000000000001e-05, | |
| "loss": 1.8127, | |
| "step": 10500 | |
| }, | |
| { | |
| "epoch": 2.93, | |
| "learning_rate": 1.4133333333333334e-05, | |
| "loss": 1.8099, | |
| "step": 11000 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "eval_loss": 1.874105453491211, | |
| "eval_runtime": 5.6378, | |
| "eval_samples_per_second": 210.188, | |
| "step": 11250 | |
| }, | |
| { | |
| "epoch": 3.07, | |
| "learning_rate": 1.3866666666666669e-05, | |
| "loss": 1.8065, | |
| "step": 11500 | |
| }, | |
| { | |
| "epoch": 3.2, | |
| "learning_rate": 1.3600000000000002e-05, | |
| "loss": 1.7176, | |
| "step": 12000 | |
| }, | |
| { | |
| "epoch": 3.33, | |
| "learning_rate": 1.3333333333333333e-05, | |
| "loss": 1.7245, | |
| "step": 12500 | |
| }, | |
| { | |
| "epoch": 3.47, | |
| "learning_rate": 1.3066666666666668e-05, | |
| "loss": 1.6684, | |
| "step": 13000 | |
| }, | |
| { | |
| "epoch": 3.6, | |
| "learning_rate": 1.2800000000000001e-05, | |
| "loss": 1.7295, | |
| "step": 13500 | |
| }, | |
| { | |
| "epoch": 3.73, | |
| "learning_rate": 1.2533333333333336e-05, | |
| "loss": 1.6837, | |
| "step": 14000 | |
| }, | |
| { | |
| "epoch": 3.87, | |
| "learning_rate": 1.2266666666666667e-05, | |
| "loss": 1.6656, | |
| "step": 14500 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "learning_rate": 1.2e-05, | |
| "loss": 1.6573, | |
| "step": 15000 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "eval_loss": 1.8567960262298584, | |
| "eval_runtime": 5.4744, | |
| "eval_samples_per_second": 216.461, | |
| "step": 15000 | |
| }, | |
| { | |
| "epoch": 4.13, | |
| "learning_rate": 1.1733333333333335e-05, | |
| "loss": 1.5965, | |
| "step": 15500 | |
| }, | |
| { | |
| "epoch": 4.27, | |
| "learning_rate": 1.1466666666666668e-05, | |
| "loss": 1.6115, | |
| "step": 16000 | |
| }, | |
| { | |
| "epoch": 4.4, | |
| "learning_rate": 1.1200000000000001e-05, | |
| "loss": 1.5584, | |
| "step": 16500 | |
| }, | |
| { | |
| "epoch": 4.53, | |
| "learning_rate": 1.0933333333333334e-05, | |
| "loss": 1.587, | |
| "step": 17000 | |
| }, | |
| { | |
| "epoch": 4.67, | |
| "learning_rate": 1.0666666666666667e-05, | |
| "loss": 1.5693, | |
| "step": 17500 | |
| }, | |
| { | |
| "epoch": 4.8, | |
| "learning_rate": 1.04e-05, | |
| "loss": 1.4976, | |
| "step": 18000 | |
| }, | |
| { | |
| "epoch": 4.93, | |
| "learning_rate": 1.0133333333333335e-05, | |
| "loss": 1.5615, | |
| "step": 18500 | |
| }, | |
| { | |
| "epoch": 5.0, | |
| "eval_loss": 1.836472988128662, | |
| "eval_runtime": 5.4044, | |
| "eval_samples_per_second": 219.268, | |
| "step": 18750 | |
| } | |
| ], | |
| "max_steps": 37500, | |
| "num_train_epochs": 10, | |
| "total_flos": 876612801138408.0, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |