AbstractPhil commited on
Commit
0b13076
·
verified ·
1 Parent(s): b0ec070

Update training_history.json - Run 20251013_004438

Browse files
weights/David-decoupled-deep_efficiency/20251013_004438/training_history.json CHANGED
@@ -4,28 +4,32 @@
4
  2,
5
  3,
6
  4,
7
- 5
 
8
  ],
9
  "train_loss": [
10
  4.900288952114611,
11
  4.0311296205286915,
12
  3.872760212415066,
13
  3.772298225203155,
14
- 3.694623793321019
 
15
  ],
16
  "train_acc": [
17
  51.657460216609806,
18
  56.824520144524485,
19
  57.987626385423084,
20
  58.73678711154231,
21
- 59.30749074866899
 
22
  ],
23
  "val_acc": [
24
  58.398666666666664,
25
  60.18533333333333,
26
  60.89533333333333,
27
  61.468666666666664,
28
- 61.802
 
29
  ],
30
  "scale_accs": {
31
  "128": [
@@ -33,63 +37,72 @@
33
  60.18533333333333,
34
  60.89533333333333,
35
  61.468666666666664,
36
- 61.802
 
37
  ],
38
  "256": [
39
  67.03133333333334,
40
  68.56666666666666,
41
  69.374,
42
  69.826,
43
- 70.146
 
44
  ],
45
  "384": [
46
  69.55466666666666,
47
  71.02133333333333,
48
  71.764,
49
  72.25133333333333,
50
- 72.66
 
51
  ],
52
  "448": [
53
  70.34333333333333,
54
  71.97066666666667,
55
  72.66733333333333,
56
  73.1,
57
- 73.44666666666667
 
58
  ],
59
  "512": [
60
  70.83533333333334,
61
  72.43066666666667,
62
  73.07733333333333,
63
  73.59866666666667,
64
- 73.876
 
65
  ],
66
  "576": [
67
  71.29266666666666,
68
  72.69866666666667,
69
  73.488,
70
  73.876,
71
- 74.25133333333333
 
72
  ],
73
  "640": [
74
  71.60266666666666,
75
  73.09866666666667,
76
  73.69266666666667,
77
  74.18333333333334,
78
- 74.45733333333334
 
79
  ],
80
  "768": [
81
  72.03333333333333,
82
  73.37733333333334,
83
  74.138,
84
  74.52333333333333,
85
- 74.82
 
86
  ],
87
  "896": [
88
  72.252,
89
  73.866,
90
  74.37,
91
  75.06266666666667,
92
- 75.262
 
93
  ]
94
  },
95
  "lr": [
@@ -97,6 +110,7 @@
97
  0.00904518046337755,
98
  0.00793913236883622,
99
  0.00654543046337755,
100
- 0.005000500000000001
 
101
  ]
102
  }
 
4
  2,
5
  3,
6
  4,
7
+ 5,
8
+ 6
9
  ],
10
  "train_loss": [
11
  4.900288952114611,
12
  4.0311296205286915,
13
  3.872760212415066,
14
  3.772298225203155,
15
+ 3.694623793321019,
16
+ 3.6294693627380346
17
  ],
18
  "train_acc": [
19
  51.657460216609806,
20
  56.824520144524485,
21
  57.987626385423084,
22
  58.73678711154231,
23
+ 59.30749074866899,
24
+ 59.79954213619302
25
  ],
26
  "val_acc": [
27
  58.398666666666664,
28
  60.18533333333333,
29
  60.89533333333333,
30
  61.468666666666664,
31
+ 61.802,
32
+ 62.246
33
  ],
34
  "scale_accs": {
35
  "128": [
 
37
  60.18533333333333,
38
  60.89533333333333,
39
  61.468666666666664,
40
+ 61.802,
41
+ 62.246
42
  ],
43
  "256": [
44
  67.03133333333334,
45
  68.56666666666666,
46
  69.374,
47
  69.826,
48
+ 70.146,
49
+ 70.442
50
  ],
51
  "384": [
52
  69.55466666666666,
53
  71.02133333333333,
54
  71.764,
55
  72.25133333333333,
56
+ 72.66,
57
+ 72.89
58
  ],
59
  "448": [
60
  70.34333333333333,
61
  71.97066666666667,
62
  72.66733333333333,
63
  73.1,
64
+ 73.44666666666667,
65
+ 73.616
66
  ],
67
  "512": [
68
  70.83533333333334,
69
  72.43066666666667,
70
  73.07733333333333,
71
  73.59866666666667,
72
+ 73.876,
73
+ 74.13
74
  ],
75
  "576": [
76
  71.29266666666666,
77
  72.69866666666667,
78
  73.488,
79
  73.876,
80
+ 74.25133333333333,
81
+ 74.53733333333334
82
  ],
83
  "640": [
84
  71.60266666666666,
85
  73.09866666666667,
86
  73.69266666666667,
87
  74.18333333333334,
88
+ 74.45733333333334,
89
+ 74.72066666666667
90
  ],
91
  "768": [
92
  72.03333333333333,
93
  73.37733333333334,
94
  74.138,
95
  74.52333333333333,
96
+ 74.82,
97
+ 75.086
98
  ],
99
  "896": [
100
  72.252,
101
  73.866,
102
  74.37,
103
  75.06266666666667,
104
+ 75.262,
105
+ 75.43733333333333
106
  ]
107
  },
108
  "lr": [
 
110
  0.00904518046337755,
111
  0.00793913236883622,
112
  0.00654543046337755,
113
+ 0.005000500000000001,
114
+ 0.0034555695366224513
115
  ]
116
  }