Pamreth commited on
Commit
b0f5eeb
·
verified ·
1 Parent(s): 84c7b8a

🍻 cheers

Browse files
README.md CHANGED
@@ -3,6 +3,7 @@ library_name: transformers
3
  license: apache-2.0
4
  base_model: facebook/deit-base-distilled-patch16-224
5
  tags:
 
6
  - generated_from_trainer
7
  metrics:
8
  - accuracy
@@ -16,7 +17,7 @@ should probably proofread and complete it, then remove this comment. -->
16
 
17
  # deit-ena24
18
 
19
- This model is a fine-tuned version of [facebook/deit-base-distilled-patch16-224](https://huggingface.co/facebook/deit-base-distilled-patch16-224) on an unknown dataset.
20
  It achieves the following results on the evaluation set:
21
  - Loss: 0.1831
22
  - Accuracy: 0.9542
 
3
  license: apache-2.0
4
  base_model: facebook/deit-base-distilled-patch16-224
5
  tags:
6
+ - image-classification
7
  - generated_from_trainer
8
  metrics:
9
  - accuracy
 
17
 
18
  # deit-ena24
19
 
20
+ This model is a fine-tuned version of [facebook/deit-base-distilled-patch16-224](https://huggingface.co/facebook/deit-base-distilled-patch16-224) on the ena24 dataset.
21
  It achieves the following results on the evaluation set:
22
  - Loss: 0.1831
23
  - Accuracy: 0.9542
all_results.json ADDED
@@ -0,0 +1,13 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 1.0,
3
+ "eval_accuracy": 0.9541984732824428,
4
+ "eval_loss": 0.18305547535419464,
5
+ "eval_runtime": 81.3613,
6
+ "eval_samples_per_second": 16.101,
7
+ "eval_steps_per_second": 2.016,
8
+ "total_flos": 4.7604963762671616e+17,
9
+ "train_loss": 0.6042932469863445,
10
+ "train_runtime": 1047.5566,
11
+ "train_samples_per_second": 5.863,
12
+ "train_steps_per_second": 0.733
13
+ }
eval_results.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 1.0,
3
+ "eval_accuracy": 0.9541984732824428,
4
+ "eval_loss": 0.18305547535419464,
5
+ "eval_runtime": 81.3613,
6
+ "eval_samples_per_second": 16.101,
7
+ "eval_steps_per_second": 2.016
8
+ }
runs/Apr14_20-15-49_bc86745a494f/events.out.tfevents.1744662920.bc86745a494f.673.1 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:87dd78ed4e27d82a4ea913c49b6cddeae6d86198986ad4da96542c19f96ca334
3
+ size 411
train_results.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 1.0,
3
+ "total_flos": 4.7604963762671616e+17,
4
+ "train_loss": 0.6042932469863445,
5
+ "train_runtime": 1047.5566,
6
+ "train_samples_per_second": 5.863,
7
+ "train_steps_per_second": 0.733
8
+ }
trainer_state.json ADDED
@@ -0,0 +1,638 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_global_step": 700,
3
+ "best_metric": 0.18305547535419464,
4
+ "best_model_checkpoint": "./deit-ena24/checkpoint-700",
5
+ "epoch": 1.0,
6
+ "eval_steps": 100,
7
+ "global_step": 768,
8
+ "is_hyper_param_search": false,
9
+ "is_local_process_zero": true,
10
+ "is_world_process_zero": true,
11
+ "log_history": [
12
+ {
13
+ "epoch": 0.013020833333333334,
14
+ "grad_norm": 13.260034561157227,
15
+ "learning_rate": 0.0001979166666666667,
16
+ "loss": 2.8732,
17
+ "step": 10
18
+ },
19
+ {
20
+ "epoch": 0.026041666666666668,
21
+ "grad_norm": 9.820590019226074,
22
+ "learning_rate": 0.0001953125,
23
+ "loss": 2.4629,
24
+ "step": 20
25
+ },
26
+ {
27
+ "epoch": 0.0390625,
28
+ "grad_norm": 10.095938682556152,
29
+ "learning_rate": 0.00019270833333333333,
30
+ "loss": 2.0921,
31
+ "step": 30
32
+ },
33
+ {
34
+ "epoch": 0.052083333333333336,
35
+ "grad_norm": 12.057257652282715,
36
+ "learning_rate": 0.00019010416666666668,
37
+ "loss": 1.8719,
38
+ "step": 40
39
+ },
40
+ {
41
+ "epoch": 0.06510416666666667,
42
+ "grad_norm": 13.049660682678223,
43
+ "learning_rate": 0.0001875,
44
+ "loss": 1.5668,
45
+ "step": 50
46
+ },
47
+ {
48
+ "epoch": 0.078125,
49
+ "grad_norm": 11.265847206115723,
50
+ "learning_rate": 0.00018515625000000002,
51
+ "loss": 1.3715,
52
+ "step": 60
53
+ },
54
+ {
55
+ "epoch": 0.09114583333333333,
56
+ "grad_norm": 9.338308334350586,
57
+ "learning_rate": 0.00018255208333333334,
58
+ "loss": 1.0822,
59
+ "step": 70
60
+ },
61
+ {
62
+ "epoch": 0.10416666666666667,
63
+ "grad_norm": 9.89381217956543,
64
+ "learning_rate": 0.0001799479166666667,
65
+ "loss": 1.0687,
66
+ "step": 80
67
+ },
68
+ {
69
+ "epoch": 0.1171875,
70
+ "grad_norm": 11.900596618652344,
71
+ "learning_rate": 0.00017734375,
72
+ "loss": 1.23,
73
+ "step": 90
74
+ },
75
+ {
76
+ "epoch": 0.13020833333333334,
77
+ "grad_norm": 11.67223072052002,
78
+ "learning_rate": 0.00017473958333333333,
79
+ "loss": 1.3013,
80
+ "step": 100
81
+ },
82
+ {
83
+ "epoch": 0.13020833333333334,
84
+ "eval_accuracy": 0.7145038167938931,
85
+ "eval_loss": 0.9782444834709167,
86
+ "eval_runtime": 82.9835,
87
+ "eval_samples_per_second": 15.786,
88
+ "eval_steps_per_second": 1.976,
89
+ "step": 100
90
+ },
91
+ {
92
+ "epoch": 0.14322916666666666,
93
+ "grad_norm": 4.8917670249938965,
94
+ "learning_rate": 0.00017213541666666668,
95
+ "loss": 0.7945,
96
+ "step": 110
97
+ },
98
+ {
99
+ "epoch": 0.15625,
100
+ "grad_norm": 5.368461608886719,
101
+ "learning_rate": 0.00016953125,
102
+ "loss": 0.9363,
103
+ "step": 120
104
+ },
105
+ {
106
+ "epoch": 0.16927083333333334,
107
+ "grad_norm": 12.348027229309082,
108
+ "learning_rate": 0.00016692708333333333,
109
+ "loss": 1.0411,
110
+ "step": 130
111
+ },
112
+ {
113
+ "epoch": 0.18229166666666666,
114
+ "grad_norm": 8.018155097961426,
115
+ "learning_rate": 0.00016432291666666668,
116
+ "loss": 1.1303,
117
+ "step": 140
118
+ },
119
+ {
120
+ "epoch": 0.1953125,
121
+ "grad_norm": 8.59954833984375,
122
+ "learning_rate": 0.00016171875,
123
+ "loss": 0.9403,
124
+ "step": 150
125
+ },
126
+ {
127
+ "epoch": 0.20833333333333334,
128
+ "grad_norm": 7.333462715148926,
129
+ "learning_rate": 0.00015911458333333335,
130
+ "loss": 1.0405,
131
+ "step": 160
132
+ },
133
+ {
134
+ "epoch": 0.22135416666666666,
135
+ "grad_norm": 9.870811462402344,
136
+ "learning_rate": 0.00015651041666666667,
137
+ "loss": 0.8883,
138
+ "step": 170
139
+ },
140
+ {
141
+ "epoch": 0.234375,
142
+ "grad_norm": 12.272759437561035,
143
+ "learning_rate": 0.00015390625000000002,
144
+ "loss": 0.8909,
145
+ "step": 180
146
+ },
147
+ {
148
+ "epoch": 0.24739583333333334,
149
+ "grad_norm": 11.775607109069824,
150
+ "learning_rate": 0.00015130208333333334,
151
+ "loss": 0.865,
152
+ "step": 190
153
+ },
154
+ {
155
+ "epoch": 0.2604166666666667,
156
+ "grad_norm": 6.171130180358887,
157
+ "learning_rate": 0.0001486979166666667,
158
+ "loss": 0.8173,
159
+ "step": 200
160
+ },
161
+ {
162
+ "epoch": 0.2604166666666667,
163
+ "eval_accuracy": 0.8557251908396947,
164
+ "eval_loss": 0.5562589168548584,
165
+ "eval_runtime": 74.7249,
166
+ "eval_samples_per_second": 17.531,
167
+ "eval_steps_per_second": 2.195,
168
+ "step": 200
169
+ },
170
+ {
171
+ "epoch": 0.2734375,
172
+ "grad_norm": 6.6932806968688965,
173
+ "learning_rate": 0.00014609375,
174
+ "loss": 0.5124,
175
+ "step": 210
176
+ },
177
+ {
178
+ "epoch": 0.2864583333333333,
179
+ "grad_norm": 16.43584442138672,
180
+ "learning_rate": 0.00014348958333333333,
181
+ "loss": 0.9,
182
+ "step": 220
183
+ },
184
+ {
185
+ "epoch": 0.2994791666666667,
186
+ "grad_norm": 7.73850679397583,
187
+ "learning_rate": 0.00014088541666666668,
188
+ "loss": 0.521,
189
+ "step": 230
190
+ },
191
+ {
192
+ "epoch": 0.3125,
193
+ "grad_norm": 9.52759838104248,
194
+ "learning_rate": 0.00013828125,
195
+ "loss": 0.4835,
196
+ "step": 240
197
+ },
198
+ {
199
+ "epoch": 0.3255208333333333,
200
+ "grad_norm": 11.618107795715332,
201
+ "learning_rate": 0.00013567708333333333,
202
+ "loss": 0.7698,
203
+ "step": 250
204
+ },
205
+ {
206
+ "epoch": 0.3385416666666667,
207
+ "grad_norm": 8.700807571411133,
208
+ "learning_rate": 0.00013307291666666667,
209
+ "loss": 0.6306,
210
+ "step": 260
211
+ },
212
+ {
213
+ "epoch": 0.3515625,
214
+ "grad_norm": 4.3553032875061035,
215
+ "learning_rate": 0.00013046875,
216
+ "loss": 0.7666,
217
+ "step": 270
218
+ },
219
+ {
220
+ "epoch": 0.3645833333333333,
221
+ "grad_norm": 12.448610305786133,
222
+ "learning_rate": 0.00012786458333333332,
223
+ "loss": 0.5738,
224
+ "step": 280
225
+ },
226
+ {
227
+ "epoch": 0.3776041666666667,
228
+ "grad_norm": 9.840099334716797,
229
+ "learning_rate": 0.00012526041666666667,
230
+ "loss": 0.8134,
231
+ "step": 290
232
+ },
233
+ {
234
+ "epoch": 0.390625,
235
+ "grad_norm": 7.528562545776367,
236
+ "learning_rate": 0.00012265625000000002,
237
+ "loss": 0.3854,
238
+ "step": 300
239
+ },
240
+ {
241
+ "epoch": 0.390625,
242
+ "eval_accuracy": 0.8290076335877863,
243
+ "eval_loss": 0.5590693950653076,
244
+ "eval_runtime": 74.2435,
245
+ "eval_samples_per_second": 17.645,
246
+ "eval_steps_per_second": 2.209,
247
+ "step": 300
248
+ },
249
+ {
250
+ "epoch": 0.4036458333333333,
251
+ "grad_norm": 15.404702186584473,
252
+ "learning_rate": 0.00012005208333333333,
253
+ "loss": 0.3826,
254
+ "step": 310
255
+ },
256
+ {
257
+ "epoch": 0.4166666666666667,
258
+ "grad_norm": 12.3324556350708,
259
+ "learning_rate": 0.00011744791666666667,
260
+ "loss": 0.671,
261
+ "step": 320
262
+ },
263
+ {
264
+ "epoch": 0.4296875,
265
+ "grad_norm": 7.279428482055664,
266
+ "learning_rate": 0.00011484375000000001,
267
+ "loss": 0.6104,
268
+ "step": 330
269
+ },
270
+ {
271
+ "epoch": 0.4427083333333333,
272
+ "grad_norm": 4.391035556793213,
273
+ "learning_rate": 0.00011223958333333333,
274
+ "loss": 0.2654,
275
+ "step": 340
276
+ },
277
+ {
278
+ "epoch": 0.4557291666666667,
279
+ "grad_norm": 8.39172077178955,
280
+ "learning_rate": 0.00010963541666666668,
281
+ "loss": 0.3805,
282
+ "step": 350
283
+ },
284
+ {
285
+ "epoch": 0.46875,
286
+ "grad_norm": 12.371193885803223,
287
+ "learning_rate": 0.00010703125,
288
+ "loss": 0.6499,
289
+ "step": 360
290
+ },
291
+ {
292
+ "epoch": 0.4817708333333333,
293
+ "grad_norm": 12.96164608001709,
294
+ "learning_rate": 0.00010442708333333332,
295
+ "loss": 0.479,
296
+ "step": 370
297
+ },
298
+ {
299
+ "epoch": 0.4947916666666667,
300
+ "grad_norm": 7.882753849029541,
301
+ "learning_rate": 0.00010182291666666667,
302
+ "loss": 0.4378,
303
+ "step": 380
304
+ },
305
+ {
306
+ "epoch": 0.5078125,
307
+ "grad_norm": 8.277647018432617,
308
+ "learning_rate": 9.921875000000001e-05,
309
+ "loss": 0.2082,
310
+ "step": 390
311
+ },
312
+ {
313
+ "epoch": 0.5208333333333334,
314
+ "grad_norm": 0.7365554571151733,
315
+ "learning_rate": 9.661458333333335e-05,
316
+ "loss": 0.4819,
317
+ "step": 400
318
+ },
319
+ {
320
+ "epoch": 0.5208333333333334,
321
+ "eval_accuracy": 0.8916030534351145,
322
+ "eval_loss": 0.42133229970932007,
323
+ "eval_runtime": 73.4397,
324
+ "eval_samples_per_second": 17.838,
325
+ "eval_steps_per_second": 2.233,
326
+ "step": 400
327
+ },
328
+ {
329
+ "epoch": 0.5338541666666666,
330
+ "grad_norm": 0.28731444478034973,
331
+ "learning_rate": 9.401041666666667e-05,
332
+ "loss": 0.3491,
333
+ "step": 410
334
+ },
335
+ {
336
+ "epoch": 0.546875,
337
+ "grad_norm": 3.7821755409240723,
338
+ "learning_rate": 9.140625e-05,
339
+ "loss": 0.1838,
340
+ "step": 420
341
+ },
342
+ {
343
+ "epoch": 0.5598958333333334,
344
+ "grad_norm": 3.5339951515197754,
345
+ "learning_rate": 8.880208333333334e-05,
346
+ "loss": 0.3314,
347
+ "step": 430
348
+ },
349
+ {
350
+ "epoch": 0.5729166666666666,
351
+ "grad_norm": 6.025645732879639,
352
+ "learning_rate": 8.619791666666667e-05,
353
+ "loss": 0.1585,
354
+ "step": 440
355
+ },
356
+ {
357
+ "epoch": 0.5859375,
358
+ "grad_norm": 0.45756229758262634,
359
+ "learning_rate": 8.359375000000001e-05,
360
+ "loss": 0.2913,
361
+ "step": 450
362
+ },
363
+ {
364
+ "epoch": 0.5989583333333334,
365
+ "grad_norm": 0.4419526755809784,
366
+ "learning_rate": 8.098958333333334e-05,
367
+ "loss": 0.5086,
368
+ "step": 460
369
+ },
370
+ {
371
+ "epoch": 0.6119791666666666,
372
+ "grad_norm": 2.3669064044952393,
373
+ "learning_rate": 7.838541666666667e-05,
374
+ "loss": 0.3715,
375
+ "step": 470
376
+ },
377
+ {
378
+ "epoch": 0.625,
379
+ "grad_norm": 5.0602335929870605,
380
+ "learning_rate": 7.578125e-05,
381
+ "loss": 0.1702,
382
+ "step": 480
383
+ },
384
+ {
385
+ "epoch": 0.6380208333333334,
386
+ "grad_norm": 1.94741690158844,
387
+ "learning_rate": 7.317708333333334e-05,
388
+ "loss": 0.1096,
389
+ "step": 490
390
+ },
391
+ {
392
+ "epoch": 0.6510416666666666,
393
+ "grad_norm": 0.24792739748954773,
394
+ "learning_rate": 7.057291666666666e-05,
395
+ "loss": 0.5078,
396
+ "step": 500
397
+ },
398
+ {
399
+ "epoch": 0.6510416666666666,
400
+ "eval_accuracy": 0.9145038167938931,
401
+ "eval_loss": 0.30997681617736816,
402
+ "eval_runtime": 73.9129,
403
+ "eval_samples_per_second": 17.724,
404
+ "eval_steps_per_second": 2.219,
405
+ "step": 500
406
+ },
407
+ {
408
+ "epoch": 0.6640625,
409
+ "grad_norm": 0.9492112398147583,
410
+ "learning_rate": 6.796875000000001e-05,
411
+ "loss": 0.2944,
412
+ "step": 510
413
+ },
414
+ {
415
+ "epoch": 0.6770833333333334,
416
+ "grad_norm": 12.045668601989746,
417
+ "learning_rate": 6.536458333333334e-05,
418
+ "loss": 0.4413,
419
+ "step": 520
420
+ },
421
+ {
422
+ "epoch": 0.6901041666666666,
423
+ "grad_norm": 1.8837093114852905,
424
+ "learning_rate": 6.276041666666667e-05,
425
+ "loss": 0.5431,
426
+ "step": 530
427
+ },
428
+ {
429
+ "epoch": 0.703125,
430
+ "grad_norm": 7.727165222167969,
431
+ "learning_rate": 6.015625e-05,
432
+ "loss": 0.1183,
433
+ "step": 540
434
+ },
435
+ {
436
+ "epoch": 0.7161458333333334,
437
+ "grad_norm": 8.092196464538574,
438
+ "learning_rate": 5.755208333333334e-05,
439
+ "loss": 0.2362,
440
+ "step": 550
441
+ },
442
+ {
443
+ "epoch": 0.7291666666666666,
444
+ "grad_norm": 15.029434204101562,
445
+ "learning_rate": 5.4947916666666666e-05,
446
+ "loss": 0.4467,
447
+ "step": 560
448
+ },
449
+ {
450
+ "epoch": 0.7421875,
451
+ "grad_norm": 4.014970302581787,
452
+ "learning_rate": 5.234375e-05,
453
+ "loss": 0.2989,
454
+ "step": 570
455
+ },
456
+ {
457
+ "epoch": 0.7552083333333334,
458
+ "grad_norm": 4.193512916564941,
459
+ "learning_rate": 4.973958333333333e-05,
460
+ "loss": 0.1541,
461
+ "step": 580
462
+ },
463
+ {
464
+ "epoch": 0.7682291666666666,
465
+ "grad_norm": 13.539695739746094,
466
+ "learning_rate": 4.713541666666667e-05,
467
+ "loss": 0.1179,
468
+ "step": 590
469
+ },
470
+ {
471
+ "epoch": 0.78125,
472
+ "grad_norm": 19.648563385009766,
473
+ "learning_rate": 4.453125e-05,
474
+ "loss": 0.3561,
475
+ "step": 600
476
+ },
477
+ {
478
+ "epoch": 0.78125,
479
+ "eval_accuracy": 0.9358778625954198,
480
+ "eval_loss": 0.23049861192703247,
481
+ "eval_runtime": 74.509,
482
+ "eval_samples_per_second": 17.582,
483
+ "eval_steps_per_second": 2.201,
484
+ "step": 600
485
+ },
486
+ {
487
+ "epoch": 0.7942708333333334,
488
+ "grad_norm": 0.04181066155433655,
489
+ "learning_rate": 4.192708333333333e-05,
490
+ "loss": 0.0591,
491
+ "step": 610
492
+ },
493
+ {
494
+ "epoch": 0.8072916666666666,
495
+ "grad_norm": 11.094377517700195,
496
+ "learning_rate": 3.932291666666667e-05,
497
+ "loss": 0.2947,
498
+ "step": 620
499
+ },
500
+ {
501
+ "epoch": 0.8203125,
502
+ "grad_norm": 7.612452983856201,
503
+ "learning_rate": 3.671875e-05,
504
+ "loss": 0.2272,
505
+ "step": 630
506
+ },
507
+ {
508
+ "epoch": 0.8333333333333334,
509
+ "grad_norm": 0.9280955791473389,
510
+ "learning_rate": 3.411458333333333e-05,
511
+ "loss": 0.2866,
512
+ "step": 640
513
+ },
514
+ {
515
+ "epoch": 0.8463541666666666,
516
+ "grad_norm": 13.93165111541748,
517
+ "learning_rate": 3.151041666666667e-05,
518
+ "loss": 0.2116,
519
+ "step": 650
520
+ },
521
+ {
522
+ "epoch": 0.859375,
523
+ "grad_norm": 1.5849241018295288,
524
+ "learning_rate": 2.890625e-05,
525
+ "loss": 0.1249,
526
+ "step": 660
527
+ },
528
+ {
529
+ "epoch": 0.8723958333333334,
530
+ "grad_norm": 2.543943166732788,
531
+ "learning_rate": 2.6302083333333333e-05,
532
+ "loss": 0.1475,
533
+ "step": 670
534
+ },
535
+ {
536
+ "epoch": 0.8854166666666666,
537
+ "grad_norm": 9.006084442138672,
538
+ "learning_rate": 2.3697916666666666e-05,
539
+ "loss": 0.2498,
540
+ "step": 680
541
+ },
542
+ {
543
+ "epoch": 0.8984375,
544
+ "grad_norm": 6.0855488777160645,
545
+ "learning_rate": 2.109375e-05,
546
+ "loss": 0.1729,
547
+ "step": 690
548
+ },
549
+ {
550
+ "epoch": 0.9114583333333334,
551
+ "grad_norm": 3.486813545227051,
552
+ "learning_rate": 1.8489583333333337e-05,
553
+ "loss": 0.1739,
554
+ "step": 700
555
+ },
556
+ {
557
+ "epoch": 0.9114583333333334,
558
+ "eval_accuracy": 0.9541984732824428,
559
+ "eval_loss": 0.18305547535419464,
560
+ "eval_runtime": 74.4827,
561
+ "eval_samples_per_second": 17.588,
562
+ "eval_steps_per_second": 2.202,
563
+ "step": 700
564
+ },
565
+ {
566
+ "epoch": 0.9244791666666666,
567
+ "grad_norm": 9.733048439025879,
568
+ "learning_rate": 1.5885416666666665e-05,
569
+ "loss": 0.3438,
570
+ "step": 710
571
+ },
572
+ {
573
+ "epoch": 0.9375,
574
+ "grad_norm": 8.05999755859375,
575
+ "learning_rate": 1.3281250000000001e-05,
576
+ "loss": 0.2341,
577
+ "step": 720
578
+ },
579
+ {
580
+ "epoch": 0.9505208333333334,
581
+ "grad_norm": 1.3342446088790894,
582
+ "learning_rate": 1.0677083333333333e-05,
583
+ "loss": 0.0848,
584
+ "step": 730
585
+ },
586
+ {
587
+ "epoch": 0.9635416666666666,
588
+ "grad_norm": 1.0999221801757812,
589
+ "learning_rate": 8.072916666666667e-06,
590
+ "loss": 0.2429,
591
+ "step": 740
592
+ },
593
+ {
594
+ "epoch": 0.9765625,
595
+ "grad_norm": 0.9648075699806213,
596
+ "learning_rate": 5.46875e-06,
597
+ "loss": 0.046,
598
+ "step": 750
599
+ },
600
+ {
601
+ "epoch": 0.9895833333333334,
602
+ "grad_norm": 6.7523956298828125,
603
+ "learning_rate": 2.8645833333333334e-06,
604
+ "loss": 0.1141,
605
+ "step": 760
606
+ },
607
+ {
608
+ "epoch": 1.0,
609
+ "step": 768,
610
+ "total_flos": 4.7604963762671616e+17,
611
+ "train_loss": 0.6042932469863445,
612
+ "train_runtime": 1047.5566,
613
+ "train_samples_per_second": 5.863,
614
+ "train_steps_per_second": 0.733
615
+ }
616
+ ],
617
+ "logging_steps": 10,
618
+ "max_steps": 768,
619
+ "num_input_tokens_seen": 0,
620
+ "num_train_epochs": 1,
621
+ "save_steps": 100,
622
+ "stateful_callbacks": {
623
+ "TrainerControl": {
624
+ "args": {
625
+ "should_epoch_stop": false,
626
+ "should_evaluate": false,
627
+ "should_log": false,
628
+ "should_save": true,
629
+ "should_training_stop": true
630
+ },
631
+ "attributes": {}
632
+ }
633
+ },
634
+ "total_flos": 4.7604963762671616e+17,
635
+ "train_batch_size": 8,
636
+ "trial_name": null,
637
+ "trial_params": null
638
+ }