File size: 4,024 Bytes
6ee7f72 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 |
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 2.6666666666666665,
"eval_steps": 500,
"global_step": 21,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.13333333333333333,
"grad_norm": 0.7760282158851624,
"learning_rate": 4e-05,
"loss": 2.4255,
"step": 1
},
{
"epoch": 0.26666666666666666,
"grad_norm": 0.6971071362495422,
"learning_rate": 8e-05,
"loss": 2.2546,
"step": 2
},
{
"epoch": 0.4,
"grad_norm": 0.6924021244049072,
"learning_rate": 0.00012,
"loss": 2.1517,
"step": 3
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.7497952580451965,
"learning_rate": 0.00016,
"loss": 2.1843,
"step": 4
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.9423450827598572,
"learning_rate": 0.0002,
"loss": 2.1773,
"step": 5
},
{
"epoch": 0.8,
"grad_norm": 0.8574029803276062,
"learning_rate": 0.0001875,
"loss": 2.0386,
"step": 6
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.7094879150390625,
"learning_rate": 0.000175,
"loss": 1.963,
"step": 7
},
{
"epoch": 1.0,
"grad_norm": 0.839087963104248,
"learning_rate": 0.00016250000000000002,
"loss": 1.8407,
"step": 8
},
{
"epoch": 1.1333333333333333,
"grad_norm": 0.7493893504142761,
"learning_rate": 0.00015000000000000001,
"loss": 1.7438,
"step": 9
},
{
"epoch": 1.2666666666666666,
"grad_norm": 0.844124972820282,
"learning_rate": 0.0001375,
"loss": 1.8293,
"step": 10
},
{
"epoch": 1.4,
"grad_norm": 0.7927814722061157,
"learning_rate": 0.000125,
"loss": 1.6803,
"step": 11
},
{
"epoch": 1.5333333333333332,
"grad_norm": 0.6678964495658875,
"learning_rate": 0.00011250000000000001,
"loss": 1.6468,
"step": 12
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.6242199540138245,
"learning_rate": 0.0001,
"loss": 1.5887,
"step": 13
},
{
"epoch": 1.8,
"grad_norm": 0.6190734505653381,
"learning_rate": 8.75e-05,
"loss": 1.5116,
"step": 14
},
{
"epoch": 1.9333333333333333,
"grad_norm": 0.581552267074585,
"learning_rate": 7.500000000000001e-05,
"loss": 1.6632,
"step": 15
},
{
"epoch": 2.0,
"grad_norm": 0.6555101275444031,
"learning_rate": 6.25e-05,
"loss": 1.5115,
"step": 16
},
{
"epoch": 2.1333333333333333,
"grad_norm": 0.49273815751075745,
"learning_rate": 5e-05,
"loss": 1.4565,
"step": 17
},
{
"epoch": 2.2666666666666666,
"grad_norm": 0.53055340051651,
"learning_rate": 3.7500000000000003e-05,
"loss": 1.5671,
"step": 18
},
{
"epoch": 2.4,
"grad_norm": 0.5079814791679382,
"learning_rate": 2.5e-05,
"loss": 1.468,
"step": 19
},
{
"epoch": 2.533333333333333,
"grad_norm": 0.46492019295692444,
"learning_rate": 1.25e-05,
"loss": 1.4266,
"step": 20
},
{
"epoch": 2.6666666666666665,
"grad_norm": 0.4864268898963928,
"learning_rate": 0.0,
"loss": 1.3944,
"step": 21
}
],
"logging_steps": 1,
"max_steps": 21,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 2989284113252352.0,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}
|