robertou2's picture
Upload folder using huggingface_hub
1416eb1 verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 27.0,
"eval_steps": 500,
"global_step": 270,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.5333333333333333,
"grad_norm": 0.3464358448982239,
"learning_rate": 7.142857142857143e-05,
"loss": 0.7933,
"step": 5
},
{
"epoch": 1.0,
"grad_norm": 0.2775850296020508,
"learning_rate": 0.00014285714285714287,
"loss": 0.6763,
"step": 10
},
{
"epoch": 1.5333333333333332,
"grad_norm": 0.20196351408958435,
"learning_rate": 0.00019999247018391447,
"loss": 0.612,
"step": 15
},
{
"epoch": 2.0,
"grad_norm": 0.20944692194461823,
"learning_rate": 0.00019972904566786903,
"loss": 0.593,
"step": 20
},
{
"epoch": 2.533333333333333,
"grad_norm": 0.1796199381351471,
"learning_rate": 0.000199090263542778,
"loss": 0.528,
"step": 25
},
{
"epoch": 3.0,
"grad_norm": 0.3253108859062195,
"learning_rate": 0.00019807852804032305,
"loss": 0.4901,
"step": 30
},
{
"epoch": 3.533333333333333,
"grad_norm": 0.2155134528875351,
"learning_rate": 0.00019669764710448522,
"loss": 0.4385,
"step": 35
},
{
"epoch": 4.0,
"grad_norm": 0.40249642729759216,
"learning_rate": 0.00019495281805930367,
"loss": 0.4146,
"step": 40
},
{
"epoch": 4.533333333333333,
"grad_norm": 0.21931566298007965,
"learning_rate": 0.00019285060804732158,
"loss": 0.3422,
"step": 45
},
{
"epoch": 5.0,
"grad_norm": 0.47045040130615234,
"learning_rate": 0.00019039892931234435,
"loss": 0.334,
"step": 50
},
{
"epoch": 5.533333333333333,
"grad_norm": 0.33896583318710327,
"learning_rate": 0.00018760700941954065,
"loss": 0.3055,
"step": 55
},
{
"epoch": 6.0,
"grad_norm": 0.6106130480766296,
"learning_rate": 0.00018448535652497073,
"loss": 0.2364,
"step": 60
},
{
"epoch": 6.533333333333333,
"grad_norm": 0.34181615710258484,
"learning_rate": 0.0001810457198252595,
"loss": 0.19,
"step": 65
},
{
"epoch": 7.0,
"grad_norm": 0.8446937799453735,
"learning_rate": 0.0001773010453362737,
"loss": 0.1965,
"step": 70
},
{
"epoch": 7.533333333333333,
"grad_norm": 0.5083507299423218,
"learning_rate": 0.00017326542716724128,
"loss": 0.1207,
"step": 75
},
{
"epoch": 8.0,
"grad_norm": 0.7833607196807861,
"learning_rate": 0.0001689540544737067,
"loss": 0.1283,
"step": 80
},
{
"epoch": 8.533333333333333,
"grad_norm": 0.3553655743598938,
"learning_rate": 0.00016438315428897915,
"loss": 0.0811,
"step": 85
},
{
"epoch": 9.0,
"grad_norm": 0.7091866135597229,
"learning_rate": 0.00015956993044924334,
"loss": 0.0802,
"step": 90
},
{
"epoch": 9.533333333333333,
"grad_norm": 0.43794405460357666,
"learning_rate": 0.00015453249884220464,
"loss": 0.0492,
"step": 95
},
{
"epoch": 10.0,
"grad_norm": 0.5798842310905457,
"learning_rate": 0.00014928981922297842,
"loss": 0.0524,
"step": 100
},
{
"epoch": 10.533333333333333,
"grad_norm": 0.3912927210330963,
"learning_rate": 0.00014386162385385278,
"loss": 0.0302,
"step": 105
},
{
"epoch": 11.0,
"grad_norm": 0.4159412682056427,
"learning_rate": 0.000138268343236509,
"loss": 0.0328,
"step": 110
},
{
"epoch": 11.533333333333333,
"grad_norm": 0.24435237050056458,
"learning_rate": 0.0001325310292162263,
"loss": 0.0239,
"step": 115
},
{
"epoch": 12.0,
"grad_norm": 0.24223262071609497,
"learning_rate": 0.00012667127574748986,
"loss": 0.0171,
"step": 120
},
{
"epoch": 12.533333333333333,
"grad_norm": 0.1762484759092331,
"learning_rate": 0.00012071113761922186,
"loss": 0.0135,
"step": 125
},
{
"epoch": 13.0,
"grad_norm": 0.28046339750289917,
"learning_rate": 0.00011467304744553618,
"loss": 0.0143,
"step": 130
},
{
"epoch": 13.533333333333333,
"grad_norm": 0.28064408898353577,
"learning_rate": 0.000108579731234444,
"loss": 0.0128,
"step": 135
},
{
"epoch": 14.0,
"grad_norm": 0.19103752076625824,
"learning_rate": 0.00010245412285229124,
"loss": 0.0101,
"step": 140
},
{
"epoch": 14.533333333333333,
"grad_norm": 0.2761705815792084,
"learning_rate": 9.631927770586412e-05,
"loss": 0.0096,
"step": 145
},
{
"epoch": 15.0,
"grad_norm": 0.3451383709907532,
"learning_rate": 9.019828596704394e-05,
"loss": 0.0084,
"step": 150
},
{
"epoch": 15.533333333333333,
"grad_norm": 0.22912859916687012,
"learning_rate": 8.411418566661388e-05,
"loss": 0.0087,
"step": 155
},
{
"epoch": 16.0,
"grad_norm": 0.2961307466030121,
"learning_rate": 7.808987598431303e-05,
"loss": 0.0054,
"step": 160
},
{
"epoch": 16.533333333333335,
"grad_norm": 0.05174371972680092,
"learning_rate": 7.21480310614947e-05,
"loss": 0.0037,
"step": 165
},
{
"epoch": 17.0,
"grad_norm": 0.6668692827224731,
"learning_rate": 6.6311014660778e-05,
"loss": 0.0086,
"step": 170
},
{
"epoch": 17.533333333333335,
"grad_norm": 0.0423920676112175,
"learning_rate": 6.060079599389521e-05,
"loss": 0.0046,
"step": 175
},
{
"epoch": 18.0,
"grad_norm": 0.048323437571525574,
"learning_rate": 5.503886703453933e-05,
"loss": 0.005,
"step": 180
},
{
"epoch": 18.533333333333335,
"grad_norm": 0.14866454899311066,
"learning_rate": 4.964616162742826e-05,
"loss": 0.0039,
"step": 185
},
{
"epoch": 19.0,
"grad_norm": 0.04198712110519409,
"learning_rate": 4.444297669803981e-05,
"loss": 0.0033,
"step": 190
},
{
"epoch": 19.533333333333335,
"grad_norm": 0.037916265428066254,
"learning_rate": 3.944889585956746e-05,
"loss": 0.0075,
"step": 195
},
{
"epoch": 20.0,
"grad_norm": 0.031426794826984406,
"learning_rate": 3.468271570462235e-05,
"loss": 0.0036,
"step": 200
},
{
"epoch": 20.533333333333335,
"grad_norm": 0.1819785088300705,
"learning_rate": 3.016237505910272e-05,
"loss": 0.0062,
"step": 205
},
{
"epoch": 21.0,
"grad_norm": 0.09462948143482208,
"learning_rate": 2.5904887464504114e-05,
"loss": 0.0034,
"step": 210
},
{
"epoch": 21.533333333333335,
"grad_norm": 0.11672957241535187,
"learning_rate": 2.1926277142790552e-05,
"loss": 0.0025,
"step": 215
},
{
"epoch": 22.0,
"grad_norm": 0.04571106657385826,
"learning_rate": 1.824151868484164e-05,
"loss": 0.0042,
"step": 220
},
{
"epoch": 22.533333333333335,
"grad_norm": 0.019737839698791504,
"learning_rate": 1.486448068947348e-05,
"loss": 0.0021,
"step": 225
},
{
"epoch": 23.0,
"grad_norm": 0.03002820909023285,
"learning_rate": 1.1807873565164506e-05,
"loss": 0.0049,
"step": 230
},
{
"epoch": 23.533333333333335,
"grad_norm": 0.24355602264404297,
"learning_rate": 9.083201690947763e-06,
"loss": 0.004,
"step": 235
},
{
"epoch": 24.0,
"grad_norm": 0.035868410021066666,
"learning_rate": 6.700720116526116e-06,
"loss": 0.0024,
"step": 240
},
{
"epoch": 24.533333333333335,
"grad_norm": 0.029756512492895126,
"learning_rate": 4.669395964580614e-06,
"loss": 0.0025,
"step": 245
},
{
"epoch": 25.0,
"grad_norm": 0.2836012542247772,
"learning_rate": 2.996874680545603e-06,
"loss": 0.0059,
"step": 250
},
{
"epoch": 25.533333333333335,
"grad_norm": 0.2209901213645935,
"learning_rate": 1.6894512568783716e-06,
"loss": 0.004,
"step": 255
},
{
"epoch": 26.0,
"grad_norm": 0.023770242929458618,
"learning_rate": 7.520465401290033e-07,
"loss": 0.0033,
"step": 260
},
{
"epoch": 26.533333333333335,
"grad_norm": 0.02641889452934265,
"learning_rate": 1.8818870998508208e-07,
"loss": 0.0032,
"step": 265
},
{
"epoch": 27.0,
"grad_norm": 0.03176680952310562,
"learning_rate": 0.0,
"loss": 0.0025,
"step": 270
}
],
"logging_steps": 5,
"max_steps": 270,
"num_input_tokens_seen": 0,
"num_train_epochs": 30,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 1.3785203655910195e+17,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}