| { | |
| "best_metric": 39.360351975632454, | |
| "best_model_checkpoint": "./whisper-small-sindhi/checkpoint-1200", | |
| "epoch": 153.8148148148148, | |
| "global_step": 2000, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 1.89, | |
| "learning_rate": 4.6000000000000004e-07, | |
| "loss": 4.8757, | |
| "step": 25 | |
| }, | |
| { | |
| "epoch": 3.81, | |
| "learning_rate": 9.400000000000001e-07, | |
| "loss": 3.5797, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 5.74, | |
| "learning_rate": 1.44e-06, | |
| "loss": 2.2742, | |
| "step": 75 | |
| }, | |
| { | |
| "epoch": 7.67, | |
| "learning_rate": 1.94e-06, | |
| "loss": 1.5112, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 9.59, | |
| "learning_rate": 2.4400000000000004e-06, | |
| "loss": 1.0623, | |
| "step": 125 | |
| }, | |
| { | |
| "epoch": 11.52, | |
| "learning_rate": 2.9400000000000002e-06, | |
| "loss": 0.7752, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 13.44, | |
| "learning_rate": 3.44e-06, | |
| "loss": 0.5789, | |
| "step": 175 | |
| }, | |
| { | |
| "epoch": 15.37, | |
| "learning_rate": 3.94e-06, | |
| "loss": 0.4169, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 17.3, | |
| "learning_rate": 4.440000000000001e-06, | |
| "loss": 0.2976, | |
| "step": 225 | |
| }, | |
| { | |
| "epoch": 19.22, | |
| "learning_rate": 4.94e-06, | |
| "loss": 0.1947, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 21.15, | |
| "learning_rate": 5.4400000000000004e-06, | |
| "loss": 0.126, | |
| "step": 275 | |
| }, | |
| { | |
| "epoch": 23.07, | |
| "learning_rate": 5.94e-06, | |
| "loss": 0.0729, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 24.96, | |
| "learning_rate": 6.440000000000001e-06, | |
| "loss": 0.0448, | |
| "step": 325 | |
| }, | |
| { | |
| "epoch": 26.89, | |
| "learning_rate": 6.9400000000000005e-06, | |
| "loss": 0.0274, | |
| "step": 350 | |
| }, | |
| { | |
| "epoch": 28.81, | |
| "learning_rate": 7.440000000000001e-06, | |
| "loss": 0.0187, | |
| "step": 375 | |
| }, | |
| { | |
| "epoch": 30.74, | |
| "learning_rate": 7.94e-06, | |
| "loss": 0.0125, | |
| "step": 400 | |
| }, | |
| { | |
| "epoch": 30.74, | |
| "eval_loss": 0.7638983130455017, | |
| "eval_runtime": 422.6921, | |
| "eval_samples_per_second": 2.318, | |
| "eval_steps_per_second": 0.038, | |
| "eval_wer": 43.54852356375328, | |
| "step": 400 | |
| }, | |
| { | |
| "epoch": 32.67, | |
| "learning_rate": 8.44e-06, | |
| "loss": 0.0083, | |
| "step": 425 | |
| }, | |
| { | |
| "epoch": 34.59, | |
| "learning_rate": 8.94e-06, | |
| "loss": 0.0072, | |
| "step": 450 | |
| }, | |
| { | |
| "epoch": 36.52, | |
| "learning_rate": 9.440000000000001e-06, | |
| "loss": 0.0079, | |
| "step": 475 | |
| }, | |
| { | |
| "epoch": 38.44, | |
| "learning_rate": 9.940000000000001e-06, | |
| "loss": 0.0099, | |
| "step": 500 | |
| }, | |
| { | |
| "epoch": 40.37, | |
| "learning_rate": 9.853333333333334e-06, | |
| "loss": 0.0082, | |
| "step": 525 | |
| }, | |
| { | |
| "epoch": 42.3, | |
| "learning_rate": 9.686666666666668e-06, | |
| "loss": 0.006, | |
| "step": 550 | |
| }, | |
| { | |
| "epoch": 44.22, | |
| "learning_rate": 9.52e-06, | |
| "loss": 0.0063, | |
| "step": 575 | |
| }, | |
| { | |
| "epoch": 46.15, | |
| "learning_rate": 9.353333333333334e-06, | |
| "loss": 0.0053, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 48.07, | |
| "learning_rate": 9.186666666666666e-06, | |
| "loss": 0.0046, | |
| "step": 625 | |
| }, | |
| { | |
| "epoch": 49.96, | |
| "learning_rate": 9.020000000000002e-06, | |
| "loss": 0.0032, | |
| "step": 650 | |
| }, | |
| { | |
| "epoch": 51.89, | |
| "learning_rate": 8.853333333333334e-06, | |
| "loss": 0.0029, | |
| "step": 675 | |
| }, | |
| { | |
| "epoch": 53.81, | |
| "learning_rate": 8.686666666666668e-06, | |
| "loss": 0.0022, | |
| "step": 700 | |
| }, | |
| { | |
| "epoch": 55.74, | |
| "learning_rate": 8.52e-06, | |
| "loss": 0.0015, | |
| "step": 725 | |
| }, | |
| { | |
| "epoch": 57.67, | |
| "learning_rate": 8.353333333333335e-06, | |
| "loss": 0.0013, | |
| "step": 750 | |
| }, | |
| { | |
| "epoch": 59.59, | |
| "learning_rate": 8.186666666666667e-06, | |
| "loss": 0.0009, | |
| "step": 775 | |
| }, | |
| { | |
| "epoch": 61.52, | |
| "learning_rate": 8.020000000000001e-06, | |
| "loss": 0.0007, | |
| "step": 800 | |
| }, | |
| { | |
| "epoch": 61.52, | |
| "eval_loss": 0.8300725221633911, | |
| "eval_runtime": 435.4274, | |
| "eval_samples_per_second": 2.251, | |
| "eval_steps_per_second": 0.037, | |
| "eval_wer": 39.48726626618157, | |
| "step": 800 | |
| }, | |
| { | |
| "epoch": 63.44, | |
| "learning_rate": 7.853333333333333e-06, | |
| "loss": 0.0006, | |
| "step": 825 | |
| }, | |
| { | |
| "epoch": 65.37, | |
| "learning_rate": 7.686666666666667e-06, | |
| "loss": 0.0005, | |
| "step": 850 | |
| }, | |
| { | |
| "epoch": 67.3, | |
| "learning_rate": 7.520000000000001e-06, | |
| "loss": 0.0005, | |
| "step": 875 | |
| }, | |
| { | |
| "epoch": 69.22, | |
| "learning_rate": 7.353333333333334e-06, | |
| "loss": 0.0005, | |
| "step": 900 | |
| }, | |
| { | |
| "epoch": 71.15, | |
| "learning_rate": 7.186666666666668e-06, | |
| "loss": 0.0004, | |
| "step": 925 | |
| }, | |
| { | |
| "epoch": 73.07, | |
| "learning_rate": 7.0200000000000006e-06, | |
| "loss": 0.0004, | |
| "step": 950 | |
| }, | |
| { | |
| "epoch": 74.96, | |
| "learning_rate": 6.853333333333334e-06, | |
| "loss": 0.0004, | |
| "step": 975 | |
| }, | |
| { | |
| "epoch": 76.89, | |
| "learning_rate": 6.6866666666666665e-06, | |
| "loss": 0.0004, | |
| "step": 1000 | |
| }, | |
| { | |
| "epoch": 78.81, | |
| "learning_rate": 6.520000000000001e-06, | |
| "loss": 0.0004, | |
| "step": 1025 | |
| }, | |
| { | |
| "epoch": 80.74, | |
| "learning_rate": 6.353333333333333e-06, | |
| "loss": 0.0004, | |
| "step": 1050 | |
| }, | |
| { | |
| "epoch": 82.67, | |
| "learning_rate": 6.186666666666668e-06, | |
| "loss": 0.0003, | |
| "step": 1075 | |
| }, | |
| { | |
| "epoch": 84.59, | |
| "learning_rate": 6.02e-06, | |
| "loss": 0.0003, | |
| "step": 1100 | |
| }, | |
| { | |
| "epoch": 86.52, | |
| "learning_rate": 5.853333333333335e-06, | |
| "loss": 0.0003, | |
| "step": 1125 | |
| }, | |
| { | |
| "epoch": 88.44, | |
| "learning_rate": 5.686666666666667e-06, | |
| "loss": 0.0003, | |
| "step": 1150 | |
| }, | |
| { | |
| "epoch": 90.37, | |
| "learning_rate": 5.5200000000000005e-06, | |
| "loss": 0.0003, | |
| "step": 1175 | |
| }, | |
| { | |
| "epoch": 92.3, | |
| "learning_rate": 5.3533333333333335e-06, | |
| "loss": 0.0003, | |
| "step": 1200 | |
| }, | |
| { | |
| "epoch": 92.3, | |
| "eval_loss": 0.8760834336280823, | |
| "eval_runtime": 421.2316, | |
| "eval_samples_per_second": 2.327, | |
| "eval_steps_per_second": 0.038, | |
| "eval_wer": 39.360351975632454, | |
| "step": 1200 | |
| }, | |
| { | |
| "epoch": 94.22, | |
| "learning_rate": 5.186666666666667e-06, | |
| "loss": 0.0003, | |
| "step": 1225 | |
| }, | |
| { | |
| "epoch": 96.15, | |
| "learning_rate": 5.02e-06, | |
| "loss": 0.0003, | |
| "step": 1250 | |
| }, | |
| { | |
| "epoch": 98.07, | |
| "learning_rate": 4.853333333333334e-06, | |
| "loss": 0.0003, | |
| "step": 1275 | |
| }, | |
| { | |
| "epoch": 99.96, | |
| "learning_rate": 4.686666666666667e-06, | |
| "loss": 0.0003, | |
| "step": 1300 | |
| }, | |
| { | |
| "epoch": 101.89, | |
| "learning_rate": 4.520000000000001e-06, | |
| "loss": 0.0003, | |
| "step": 1325 | |
| }, | |
| { | |
| "epoch": 103.81, | |
| "learning_rate": 4.353333333333334e-06, | |
| "loss": 0.0002, | |
| "step": 1350 | |
| }, | |
| { | |
| "epoch": 105.74, | |
| "learning_rate": 4.1866666666666675e-06, | |
| "loss": 0.0002, | |
| "step": 1375 | |
| }, | |
| { | |
| "epoch": 107.67, | |
| "learning_rate": 4.0200000000000005e-06, | |
| "loss": 0.0002, | |
| "step": 1400 | |
| }, | |
| { | |
| "epoch": 109.59, | |
| "learning_rate": 3.853333333333334e-06, | |
| "loss": 0.0002, | |
| "step": 1425 | |
| }, | |
| { | |
| "epoch": 111.52, | |
| "learning_rate": 3.686666666666667e-06, | |
| "loss": 0.0002, | |
| "step": 1450 | |
| }, | |
| { | |
| "epoch": 113.44, | |
| "learning_rate": 3.52e-06, | |
| "loss": 0.0002, | |
| "step": 1475 | |
| }, | |
| { | |
| "epoch": 115.37, | |
| "learning_rate": 3.3533333333333336e-06, | |
| "loss": 0.0002, | |
| "step": 1500 | |
| }, | |
| { | |
| "epoch": 117.3, | |
| "learning_rate": 3.186666666666667e-06, | |
| "loss": 0.0002, | |
| "step": 1525 | |
| }, | |
| { | |
| "epoch": 119.22, | |
| "learning_rate": 3.0200000000000003e-06, | |
| "loss": 0.0002, | |
| "step": 1550 | |
| }, | |
| { | |
| "epoch": 121.15, | |
| "learning_rate": 2.8533333333333337e-06, | |
| "loss": 0.0002, | |
| "step": 1575 | |
| }, | |
| { | |
| "epoch": 123.07, | |
| "learning_rate": 2.686666666666667e-06, | |
| "loss": 0.0002, | |
| "step": 1600 | |
| }, | |
| { | |
| "epoch": 123.07, | |
| "eval_loss": 0.8949396014213562, | |
| "eval_runtime": 422.8822, | |
| "eval_samples_per_second": 2.317, | |
| "eval_steps_per_second": 0.038, | |
| "eval_wer": 39.360351975632454, | |
| "step": 1600 | |
| }, | |
| { | |
| "epoch": 124.96, | |
| "learning_rate": 2.52e-06, | |
| "loss": 0.0002, | |
| "step": 1625 | |
| }, | |
| { | |
| "epoch": 126.89, | |
| "learning_rate": 2.3533333333333334e-06, | |
| "loss": 0.0002, | |
| "step": 1650 | |
| }, | |
| { | |
| "epoch": 128.81, | |
| "learning_rate": 2.1866666666666668e-06, | |
| "loss": 0.0002, | |
| "step": 1675 | |
| }, | |
| { | |
| "epoch": 130.74, | |
| "learning_rate": 2.02e-06, | |
| "loss": 0.0002, | |
| "step": 1700 | |
| }, | |
| { | |
| "epoch": 132.67, | |
| "learning_rate": 1.8533333333333333e-06, | |
| "loss": 0.0002, | |
| "step": 1725 | |
| }, | |
| { | |
| "epoch": 134.59, | |
| "learning_rate": 1.6866666666666667e-06, | |
| "loss": 0.0002, | |
| "step": 1750 | |
| }, | |
| { | |
| "epoch": 136.52, | |
| "learning_rate": 1.52e-06, | |
| "loss": 0.0002, | |
| "step": 1775 | |
| }, | |
| { | |
| "epoch": 138.44, | |
| "learning_rate": 1.3533333333333334e-06, | |
| "loss": 0.0002, | |
| "step": 1800 | |
| }, | |
| { | |
| "epoch": 140.37, | |
| "learning_rate": 1.1866666666666668e-06, | |
| "loss": 0.0002, | |
| "step": 1825 | |
| }, | |
| { | |
| "epoch": 142.3, | |
| "learning_rate": 1.02e-06, | |
| "loss": 0.0002, | |
| "step": 1850 | |
| }, | |
| { | |
| "epoch": 144.22, | |
| "learning_rate": 8.533333333333334e-07, | |
| "loss": 0.0002, | |
| "step": 1875 | |
| }, | |
| { | |
| "epoch": 146.15, | |
| "learning_rate": 6.866666666666667e-07, | |
| "loss": 0.0002, | |
| "step": 1900 | |
| }, | |
| { | |
| "epoch": 148.07, | |
| "learning_rate": 5.2e-07, | |
| "loss": 0.0002, | |
| "step": 1925 | |
| }, | |
| { | |
| "epoch": 149.96, | |
| "learning_rate": 3.533333333333334e-07, | |
| "loss": 0.0002, | |
| "step": 1950 | |
| }, | |
| { | |
| "epoch": 151.89, | |
| "learning_rate": 1.866666666666667e-07, | |
| "loss": 0.0002, | |
| "step": 1975 | |
| }, | |
| { | |
| "epoch": 153.81, | |
| "learning_rate": 2e-08, | |
| "loss": 0.0002, | |
| "step": 2000 | |
| }, | |
| { | |
| "epoch": 153.81, | |
| "eval_loss": 0.9013298749923706, | |
| "eval_runtime": 422.7374, | |
| "eval_samples_per_second": 2.318, | |
| "eval_steps_per_second": 0.038, | |
| "eval_wer": 39.41957864455537, | |
| "step": 2000 | |
| }, | |
| { | |
| "epoch": 153.81, | |
| "step": 2000, | |
| "total_flos": 3.764538831508026e+19, | |
| "train_loss": 0.19947650250117294, | |
| "train_runtime": 5578.5005, | |
| "train_samples_per_second": 22.945, | |
| "train_steps_per_second": 0.359 | |
| } | |
| ], | |
| "max_steps": 2000, | |
| "num_train_epochs": 154, | |
| "total_flos": 3.764538831508026e+19, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |