robertou2 commited on
Commit
15078df
·
verified ·
1 Parent(s): 6da6070

Upload folder using huggingface_hub

Browse files
adapter_config.json CHANGED
@@ -12,14 +12,14 @@
12
  "layers_pattern": null,
13
  "layers_to_transform": null,
14
  "loftq_config": {},
15
- "lora_alpha": 64,
16
  "lora_bias": false,
17
  "lora_dropout": 0.1,
18
  "megatron_config": null,
19
  "megatron_core": "megatron.core",
20
  "modules_to_save": null,
21
  "peft_type": "LORA",
22
- "r": 32,
23
  "rank_pattern": {},
24
  "revision": null,
25
  "target_modules": [
 
12
  "layers_pattern": null,
13
  "layers_to_transform": null,
14
  "loftq_config": {},
15
+ "lora_alpha": 32,
16
  "lora_bias": false,
17
  "lora_dropout": 0.1,
18
  "megatron_config": null,
19
  "megatron_core": "megatron.core",
20
  "modules_to_save": null,
21
  "peft_type": "LORA",
22
+ "r": 16,
23
  "rank_pattern": {},
24
  "revision": null,
25
  "target_modules": [
adapter_model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:af620e3460c9a12310e5913dae8c6346d6cc62987891e6f33169a3d7a2ca51d8
3
- size 239536272
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6ba8e8c80803d2a11a70df9d4dacb77457eed010f3898a3e490266b2b1d0f304
3
+ size 119801528
optimizer.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:c7a957c9bc520a79279d849473378928e78b29011f2356d2c0e6b3407f5b6ff0
3
- size 479363147
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e175f62ebf7fe247327e70639ff1cd0a6113e616d2b57e42eb7b074ff5565e78
3
+ size 239893323
trainer_state.json CHANGED
@@ -11,198 +11,198 @@
11
  "log_history": [
12
  {
13
  "epoch": 0.12121212121212122,
14
- "grad_norm": 2.5308644771575928,
15
  "learning_rate": 0.0,
16
  "loss": 2.5573,
17
  "step": 1
18
  },
19
  {
20
  "epoch": 0.24242424242424243,
21
- "grad_norm": 2.872847557067871,
22
  "learning_rate": 3.3333333333333335e-05,
23
  "loss": 2.1189,
24
  "step": 2
25
  },
26
  {
27
  "epoch": 0.36363636363636365,
28
- "grad_norm": 1.4297473430633545,
29
  "learning_rate": 6.666666666666667e-05,
30
- "loss": 1.7812,
31
  "step": 3
32
  },
33
  {
34
  "epoch": 0.48484848484848486,
35
- "grad_norm": 1.3863275051116943,
36
  "learning_rate": 0.0001,
37
- "loss": 2.0268,
38
  "step": 4
39
  },
40
  {
41
  "epoch": 0.6060606060606061,
42
- "grad_norm": 1.301163911819458,
43
  "learning_rate": 0.00013333333333333334,
44
- "loss": 1.8453,
45
  "step": 5
46
  },
47
  {
48
  "epoch": 0.7272727272727273,
49
- "grad_norm": 1.2446081638336182,
50
  "learning_rate": 0.00016666666666666666,
51
- "loss": 1.8696,
52
  "step": 6
53
  },
54
  {
55
  "epoch": 0.8484848484848485,
56
- "grad_norm": 0.5551737546920776,
57
  "learning_rate": 0.0002,
58
- "loss": 1.5345,
59
  "step": 7
60
  },
61
  {
62
  "epoch": 0.9696969696969697,
63
- "grad_norm": 0.662405252456665,
64
  "learning_rate": 0.00023333333333333333,
65
- "loss": 1.6014,
66
  "step": 8
67
  },
68
  {
69
  "epoch": 1.0,
70
- "grad_norm": 1.045662760734558,
71
  "learning_rate": 0.0002666666666666667,
72
- "loss": 1.9489,
73
  "step": 9
74
  },
75
  {
76
  "epoch": 1.121212121212121,
77
- "grad_norm": 2.387998342514038,
78
  "learning_rate": 0.0003,
79
- "loss": 1.7234,
80
  "step": 10
81
  },
82
  {
83
  "epoch": 1.2424242424242424,
84
- "grad_norm": 0.8213406801223755,
85
  "learning_rate": 0.0003333333333333333,
86
- "loss": 1.5385,
87
  "step": 11
88
  },
89
  {
90
  "epoch": 1.3636363636363638,
91
- "grad_norm": 0.8873594999313354,
92
  "learning_rate": 0.00036666666666666667,
93
- "loss": 1.2518,
94
  "step": 12
95
  },
96
  {
97
  "epoch": 1.4848484848484849,
98
- "grad_norm": 7.101565361022949,
99
  "learning_rate": 0.0004,
100
- "loss": 1.219,
101
  "step": 13
102
  },
103
  {
104
  "epoch": 1.606060606060606,
105
- "grad_norm": 2.5379955768585205,
106
  "learning_rate": 0.00043333333333333337,
107
- "loss": 1.3358,
108
  "step": 14
109
  },
110
  {
111
  "epoch": 1.7272727272727273,
112
- "grad_norm": 7.031259536743164,
113
  "learning_rate": 0.00046666666666666666,
114
- "loss": 1.4813,
115
  "step": 15
116
  },
117
  {
118
  "epoch": 1.8484848484848486,
119
- "grad_norm": 2.496732711791992,
120
  "learning_rate": 0.0005,
121
- "loss": 1.2563,
122
  "step": 16
123
  },
124
  {
125
  "epoch": 1.9696969696969697,
126
- "grad_norm": 1.208024263381958,
127
  "learning_rate": 0.0004986304738420684,
128
- "loss": 1.7684,
129
  "step": 17
130
  },
131
  {
132
  "epoch": 2.0,
133
- "grad_norm": 2.3959779739379883,
134
  "learning_rate": 0.0004945369001834514,
135
- "loss": 1.0189,
136
  "step": 18
137
  },
138
  {
139
  "epoch": 2.121212121212121,
140
- "grad_norm": 1.176888346672058,
141
  "learning_rate": 0.0004877641290737884,
142
- "loss": 1.196,
143
  "step": 19
144
  },
145
  {
146
  "epoch": 2.242424242424242,
147
- "grad_norm": 2.4621543884277344,
148
  "learning_rate": 0.0004783863644106502,
149
- "loss": 0.9208,
150
  "step": 20
151
  },
152
  {
153
  "epoch": 2.3636363636363638,
154
- "grad_norm": 2.5817689895629883,
155
  "learning_rate": 0.00046650635094610973,
156
- "loss": 1.2624,
157
  "step": 21
158
  },
159
  {
160
  "epoch": 2.484848484848485,
161
- "grad_norm": 1.394972324371338,
162
  "learning_rate": 0.0004522542485937369,
163
- "loss": 1.0047,
164
  "step": 22
165
  },
166
  {
167
  "epoch": 2.606060606060606,
168
- "grad_norm": 0.9446749091148376,
169
  "learning_rate": 0.00043578620636934855,
170
- "loss": 0.8517,
171
  "step": 23
172
  },
173
  {
174
  "epoch": 2.7272727272727275,
175
- "grad_norm": 1.0814933776855469,
176
  "learning_rate": 0.0004172826515897146,
177
- "loss": 0.8246,
178
  "step": 24
179
  },
180
  {
181
  "epoch": 2.8484848484848486,
182
- "grad_norm": 1.8725590705871582,
183
  "learning_rate": 0.0003969463130731183,
184
- "loss": 0.9131,
185
  "step": 25
186
  },
187
  {
188
  "epoch": 2.9696969696969697,
189
- "grad_norm": 1.1195790767669678,
190
  "learning_rate": 0.000375,
191
- "loss": 0.6881,
192
  "step": 26
193
  },
194
  {
195
  "epoch": 3.0,
196
- "grad_norm": 1.709831953048706,
197
  "learning_rate": 0.0003516841607689501,
198
- "loss": 0.9601,
199
  "step": 27
200
  },
201
  {
202
  "epoch": 3.121212121212121,
203
- "grad_norm": 0.9859489798545837,
204
  "learning_rate": 0.00032725424859373687,
205
- "loss": 0.425,
206
  "step": 28
207
  }
208
  ],
@@ -223,7 +223,7 @@
223
  "attributes": {}
224
  }
225
  },
226
- "total_flos": 1434067506413568.0,
227
  "train_batch_size": 2,
228
  "trial_name": null,
229
  "trial_params": null
 
11
  "log_history": [
12
  {
13
  "epoch": 0.12121212121212122,
14
+ "grad_norm": 1.8328726291656494,
15
  "learning_rate": 0.0,
16
  "loss": 2.5573,
17
  "step": 1
18
  },
19
  {
20
  "epoch": 0.24242424242424243,
21
+ "grad_norm": 2.0915732383728027,
22
  "learning_rate": 3.3333333333333335e-05,
23
  "loss": 2.1189,
24
  "step": 2
25
  },
26
  {
27
  "epoch": 0.36363636363636365,
28
+ "grad_norm": 1.0810253620147705,
29
  "learning_rate": 6.666666666666667e-05,
30
+ "loss": 1.7979,
31
  "step": 3
32
  },
33
  {
34
  "epoch": 0.48484848484848486,
35
+ "grad_norm": 1.1273187398910522,
36
  "learning_rate": 0.0001,
37
+ "loss": 2.0746,
38
  "step": 4
39
  },
40
  {
41
  "epoch": 0.6060606060606061,
42
+ "grad_norm": 1.1481099128723145,
43
  "learning_rate": 0.00013333333333333334,
44
+ "loss": 1.9376,
45
  "step": 5
46
  },
47
  {
48
  "epoch": 0.7272727272727273,
49
+ "grad_norm": 1.120679259300232,
50
  "learning_rate": 0.00016666666666666666,
51
+ "loss": 1.9616,
52
  "step": 6
53
  },
54
  {
55
  "epoch": 0.8484848484848485,
56
+ "grad_norm": 0.42956575751304626,
57
  "learning_rate": 0.0002,
58
+ "loss": 1.5583,
59
  "step": 7
60
  },
61
  {
62
  "epoch": 0.9696969696969697,
63
+ "grad_norm": 0.5541684031486511,
64
  "learning_rate": 0.00023333333333333333,
65
+ "loss": 1.6371,
66
  "step": 8
67
  },
68
  {
69
  "epoch": 1.0,
70
+ "grad_norm": 0.8354697823524475,
71
  "learning_rate": 0.0002666666666666667,
72
+ "loss": 1.9758,
73
  "step": 9
74
  },
75
  {
76
  "epoch": 1.121212121212121,
77
+ "grad_norm": 0.8120695352554321,
78
  "learning_rate": 0.0003,
79
+ "loss": 1.8198,
80
  "step": 10
81
  },
82
  {
83
  "epoch": 1.2424242424242424,
84
+ "grad_norm": 0.595156729221344,
85
  "learning_rate": 0.0003333333333333333,
86
+ "loss": 1.649,
87
  "step": 11
88
  },
89
  {
90
  "epoch": 1.3636363636363638,
91
+ "grad_norm": 0.4005779027938843,
92
  "learning_rate": 0.00036666666666666667,
93
+ "loss": 1.3083,
94
  "step": 12
95
  },
96
  {
97
  "epoch": 1.4848484848484849,
98
+ "grad_norm": 0.8254678845405579,
99
  "learning_rate": 0.0004,
100
+ "loss": 1.2479,
101
  "step": 13
102
  },
103
  {
104
  "epoch": 1.606060606060606,
105
+ "grad_norm": 0.582369863986969,
106
  "learning_rate": 0.00043333333333333337,
107
+ "loss": 1.4063,
108
  "step": 14
109
  },
110
  {
111
  "epoch": 1.7272727272727273,
112
+ "grad_norm": 0.7945718765258789,
113
  "learning_rate": 0.00046666666666666666,
114
+ "loss": 1.4941,
115
  "step": 15
116
  },
117
  {
118
  "epoch": 1.8484848484848486,
119
+ "grad_norm": 0.7387524843215942,
120
  "learning_rate": 0.0005,
121
+ "loss": 1.3542,
122
  "step": 16
123
  },
124
  {
125
  "epoch": 1.9696969696969697,
126
+ "grad_norm": 0.6516833305358887,
127
  "learning_rate": 0.0004986304738420684,
128
+ "loss": 1.8561,
129
  "step": 17
130
  },
131
  {
132
  "epoch": 2.0,
133
+ "grad_norm": 2.1795907020568848,
134
  "learning_rate": 0.0004945369001834514,
135
+ "loss": 1.1684,
136
  "step": 18
137
  },
138
  {
139
  "epoch": 2.121212121212121,
140
+ "grad_norm": 2.144760847091675,
141
  "learning_rate": 0.0004877641290737884,
142
+ "loss": 1.3242,
143
  "step": 19
144
  },
145
  {
146
  "epoch": 2.242424242424242,
147
+ "grad_norm": 1.0639714002609253,
148
  "learning_rate": 0.0004783863644106502,
149
+ "loss": 1.116,
150
  "step": 20
151
  },
152
  {
153
  "epoch": 2.3636363636363638,
154
+ "grad_norm": 2.3435370922088623,
155
  "learning_rate": 0.00046650635094610973,
156
+ "loss": 1.4533,
157
  "step": 21
158
  },
159
  {
160
  "epoch": 2.484848484848485,
161
+ "grad_norm": 0.9590378999710083,
162
  "learning_rate": 0.0004522542485937369,
163
+ "loss": 1.0565,
164
  "step": 22
165
  },
166
  {
167
  "epoch": 2.606060606060606,
168
+ "grad_norm": 0.8274413347244263,
169
  "learning_rate": 0.00043578620636934855,
170
+ "loss": 1.0777,
171
  "step": 23
172
  },
173
  {
174
  "epoch": 2.7272727272727275,
175
+ "grad_norm": 0.7866584062576294,
176
  "learning_rate": 0.0004172826515897146,
177
+ "loss": 0.9818,
178
  "step": 24
179
  },
180
  {
181
  "epoch": 2.8484848484848486,
182
+ "grad_norm": 1.3257405757904053,
183
  "learning_rate": 0.0003969463130731183,
184
+ "loss": 0.9458,
185
  "step": 25
186
  },
187
  {
188
  "epoch": 2.9696969696969697,
189
+ "grad_norm": 0.7941730618476868,
190
  "learning_rate": 0.000375,
191
+ "loss": 0.8782,
192
  "step": 26
193
  },
194
  {
195
  "epoch": 3.0,
196
+ "grad_norm": 1.2293105125427246,
197
  "learning_rate": 0.0003516841607689501,
198
+ "loss": 0.9678,
199
  "step": 27
200
  },
201
  {
202
  "epoch": 3.121212121212121,
203
+ "grad_norm": 0.9322613477706909,
204
  "learning_rate": 0.00032725424859373687,
205
+ "loss": 0.5318,
206
  "step": 28
207
  }
208
  ],
 
223
  "attributes": {}
224
  }
225
  },
226
+ "total_flos": 1418923874893824.0,
227
  "train_batch_size": 2,
228
  "trial_name": null,
229
  "trial_params": null
training_args.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:d218cb1147c6cb300dc7d91e574075fd0a3ba2cbb8375f70368500238df0d4cc
3
  size 6033
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6c740dd598c601f59387c76e234e8e490cd7c6f982d6844d5212ef0c066e5f45
3
  size 6033