AbstractPhil commited on
Commit
002a576
·
verified ·
1 Parent(s): 901a053

Update training_history.json - Run 20251013_004438

Browse files
weights/David-decoupled-deep_efficiency/20251013_004438/training_history.json CHANGED
@@ -8,7 +8,8 @@
8
  6,
9
  7,
10
  8,
11
- 9
 
12
  ],
13
  "train_loss": [
14
  4.900288952114611,
@@ -19,7 +20,8 @@
19
  3.6294693627380346,
20
  3.5741883491542534,
21
  3.5266703713365737,
22
- 3.490817522837497
 
23
  ],
24
  "train_acc": [
25
  51.657460216609806,
@@ -30,7 +32,8 @@
30
  59.79954213619302,
31
  60.232454733327764,
32
  60.59530100291375,
33
- 60.873484877459376
 
34
  ],
35
  "val_acc": [
36
  58.398666666666664,
@@ -41,7 +44,8 @@
41
  62.246,
42
  62.55133333333333,
43
  62.774,
44
- 62.92066666666667
 
45
  ],
46
  "scale_accs": {
47
  "128": [
@@ -53,7 +57,8 @@
53
  62.246,
54
  62.55133333333333,
55
  62.774,
56
- 62.92066666666667
 
57
  ],
58
  "256": [
59
  67.03133333333334,
@@ -64,7 +69,8 @@
64
  70.442,
65
  70.74533333333333,
66
  70.86466666666666,
67
- 71.04133333333333
 
68
  ],
69
  "384": [
70
  69.55466666666666,
@@ -75,7 +81,8 @@
75
  72.89,
76
  73.12933333333334,
77
  73.318,
78
- 73.38066666666667
 
79
  ],
80
  "448": [
81
  70.34333333333333,
@@ -86,7 +93,8 @@
86
  73.616,
87
  73.936,
88
  74.12333333333333,
89
- 74.20933333333333
 
90
  ],
91
  "512": [
92
  70.83533333333334,
@@ -97,7 +105,8 @@
97
  74.13,
98
  74.29866666666666,
99
  74.48333333333333,
100
- 74.59066666666666
 
101
  ],
102
  "576": [
103
  71.29266666666666,
@@ -108,7 +117,8 @@
108
  74.53733333333334,
109
  74.74466666666666,
110
  74.91666666666667,
111
- 75.03266666666667
 
112
  ],
113
  "640": [
114
  71.60266666666666,
@@ -119,7 +129,8 @@
119
  74.72066666666667,
120
  74.906,
121
  75.04866666666666,
122
- 75.182
 
123
  ],
124
  "768": [
125
  72.03333333333333,
@@ -130,7 +141,8 @@
130
  75.086,
131
  75.31,
132
  75.43866666666666,
133
- 75.57266666666666
 
134
  ],
135
  "896": [
136
  72.252,
@@ -141,7 +153,8 @@
141
  75.43733333333333,
142
  75.59266666666667,
143
  75.78266666666667,
144
- 75.86
 
145
  ]
146
  },
147
  "lr": [
@@ -153,6 +166,7 @@
153
  0.0034555695366224513,
154
  0.0020618676311637816,
155
  0.0009558195366224509,
156
- 0.00024569294678237997
 
157
  ]
158
  }
 
8
  6,
9
  7,
10
  8,
11
+ 9,
12
+ 10
13
  ],
14
  "train_loss": [
15
  4.900288952114611,
 
20
  3.6294693627380346,
21
  3.5741883491542534,
22
  3.5266703713365737,
23
+ 3.490817522837497,
24
+ 3.4686684005744417
25
  ],
26
  "train_acc": [
27
  51.657460216609806,
 
32
  59.79954213619302,
33
  60.232454733327764,
34
  60.59530100291375,
35
+ 60.873484877459376,
36
+ 61.07410925611831
37
  ],
38
  "val_acc": [
39
  58.398666666666664,
 
44
  62.246,
45
  62.55133333333333,
46
  62.774,
47
+ 62.92066666666667,
48
+ 62.938
49
  ],
50
  "scale_accs": {
51
  "128": [
 
57
  62.246,
58
  62.55133333333333,
59
  62.774,
60
+ 62.92066666666667,
61
+ 62.938
62
  ],
63
  "256": [
64
  67.03133333333334,
 
69
  70.442,
70
  70.74533333333333,
71
  70.86466666666666,
72
+ 71.04133333333333,
73
+ 71.08266666666667
74
  ],
75
  "384": [
76
  69.55466666666666,
 
81
  72.89,
82
  73.12933333333334,
83
  73.318,
84
+ 73.38066666666667,
85
+ 73.44466666666666
86
  ],
87
  "448": [
88
  70.34333333333333,
 
93
  73.616,
94
  73.936,
95
  74.12333333333333,
96
+ 74.20933333333333,
97
+ 74.28533333333333
98
  ],
99
  "512": [
100
  70.83533333333334,
 
105
  74.13,
106
  74.29866666666666,
107
  74.48333333333333,
108
+ 74.59066666666666,
109
+ 74.61
110
  ],
111
  "576": [
112
  71.29266666666666,
 
117
  74.53733333333334,
118
  74.74466666666666,
119
  74.91666666666667,
120
+ 75.03266666666667,
121
+ 75.04333333333334
122
  ],
123
  "640": [
124
  71.60266666666666,
 
129
  74.72066666666667,
130
  74.906,
131
  75.04866666666666,
132
+ 75.182,
133
+ 75.17533333333333
134
  ],
135
  "768": [
136
  72.03333333333333,
 
141
  75.086,
142
  75.31,
143
  75.43866666666666,
144
+ 75.57266666666666,
145
+ 75.57533333333333
146
  ],
147
  "896": [
148
  72.252,
 
153
  75.43733333333333,
154
  75.59266666666667,
155
  75.78266666666667,
156
+ 75.86,
157
+ 75.904
158
  ]
159
  },
160
  "lr": [
 
166
  0.0034555695366224513,
167
  0.0020618676311637816,
168
  0.0009558195366224509,
169
+ 0.00024569294678237997,
170
+ 0.01
171
  ]
172
  }