AbstractPhil commited on
Commit
b28b1dc
·
verified ·
1 Parent(s): 35b198a

Update training_history.json - Run 20251013_004438

Browse files
weights/David-decoupled-deep_efficiency/20251013_004438/training_history.json CHANGED
@@ -5,7 +5,8 @@
5
  3,
6
  4,
7
  5,
8
- 6
 
9
  ],
10
  "train_loss": [
11
  4.900288952114611,
@@ -13,7 +14,8 @@
13
  3.872760212415066,
14
  3.772298225203155,
15
  3.694623793321019,
16
- 3.6294693627380346
 
17
  ],
18
  "train_acc": [
19
  51.657460216609806,
@@ -21,7 +23,8 @@
21
  57.987626385423084,
22
  58.73678711154231,
23
  59.30749074866899,
24
- 59.79954213619302
 
25
  ],
26
  "val_acc": [
27
  58.398666666666664,
@@ -29,7 +32,8 @@
29
  60.89533333333333,
30
  61.468666666666664,
31
  61.802,
32
- 62.246
 
33
  ],
34
  "scale_accs": {
35
  "128": [
@@ -38,7 +42,8 @@
38
  60.89533333333333,
39
  61.468666666666664,
40
  61.802,
41
- 62.246
 
42
  ],
43
  "256": [
44
  67.03133333333334,
@@ -46,7 +51,8 @@
46
  69.374,
47
  69.826,
48
  70.146,
49
- 70.442
 
50
  ],
51
  "384": [
52
  69.55466666666666,
@@ -54,7 +60,8 @@
54
  71.764,
55
  72.25133333333333,
56
  72.66,
57
- 72.89
 
58
  ],
59
  "448": [
60
  70.34333333333333,
@@ -62,7 +69,8 @@
62
  72.66733333333333,
63
  73.1,
64
  73.44666666666667,
65
- 73.616
 
66
  ],
67
  "512": [
68
  70.83533333333334,
@@ -70,7 +78,8 @@
70
  73.07733333333333,
71
  73.59866666666667,
72
  73.876,
73
- 74.13
 
74
  ],
75
  "576": [
76
  71.29266666666666,
@@ -78,7 +87,8 @@
78
  73.488,
79
  73.876,
80
  74.25133333333333,
81
- 74.53733333333334
 
82
  ],
83
  "640": [
84
  71.60266666666666,
@@ -86,7 +96,8 @@
86
  73.69266666666667,
87
  74.18333333333334,
88
  74.45733333333334,
89
- 74.72066666666667
 
90
  ],
91
  "768": [
92
  72.03333333333333,
@@ -94,7 +105,8 @@
94
  74.138,
95
  74.52333333333333,
96
  74.82,
97
- 75.086
 
98
  ],
99
  "896": [
100
  72.252,
@@ -102,7 +114,8 @@
102
  74.37,
103
  75.06266666666667,
104
  75.262,
105
- 75.43733333333333
 
106
  ]
107
  },
108
  "lr": [
@@ -111,6 +124,7 @@
111
  0.00793913236883622,
112
  0.00654543046337755,
113
  0.005000500000000001,
114
- 0.0034555695366224513
 
115
  ]
116
  }
 
5
  3,
6
  4,
7
  5,
8
+ 6,
9
+ 7
10
  ],
11
  "train_loss": [
12
  4.900288952114611,
 
14
  3.872760212415066,
15
  3.772298225203155,
16
  3.694623793321019,
17
+ 3.6294693627380346,
18
+ 3.5741883491542534
19
  ],
20
  "train_acc": [
21
  51.657460216609806,
 
23
  57.987626385423084,
24
  58.73678711154231,
25
  59.30749074866899,
26
+ 59.79954213619302,
27
+ 60.232454733327764
28
  ],
29
  "val_acc": [
30
  58.398666666666664,
 
32
  60.89533333333333,
33
  61.468666666666664,
34
  61.802,
35
+ 62.246,
36
+ 62.55133333333333
37
  ],
38
  "scale_accs": {
39
  "128": [
 
42
  60.89533333333333,
43
  61.468666666666664,
44
  61.802,
45
+ 62.246,
46
+ 62.55133333333333
47
  ],
48
  "256": [
49
  67.03133333333334,
 
51
  69.374,
52
  69.826,
53
  70.146,
54
+ 70.442,
55
+ 70.74533333333333
56
  ],
57
  "384": [
58
  69.55466666666666,
 
60
  71.764,
61
  72.25133333333333,
62
  72.66,
63
+ 72.89,
64
+ 73.12933333333334
65
  ],
66
  "448": [
67
  70.34333333333333,
 
69
  72.66733333333333,
70
  73.1,
71
  73.44666666666667,
72
+ 73.616,
73
+ 73.936
74
  ],
75
  "512": [
76
  70.83533333333334,
 
78
  73.07733333333333,
79
  73.59866666666667,
80
  73.876,
81
+ 74.13,
82
+ 74.29866666666666
83
  ],
84
  "576": [
85
  71.29266666666666,
 
87
  73.488,
88
  73.876,
89
  74.25133333333333,
90
+ 74.53733333333334,
91
+ 74.74466666666666
92
  ],
93
  "640": [
94
  71.60266666666666,
 
96
  73.69266666666667,
97
  74.18333333333334,
98
  74.45733333333334,
99
+ 74.72066666666667,
100
+ 74.906
101
  ],
102
  "768": [
103
  72.03333333333333,
 
105
  74.138,
106
  74.52333333333333,
107
  74.82,
108
+ 75.086,
109
+ 75.31
110
  ],
111
  "896": [
112
  72.252,
 
114
  74.37,
115
  75.06266666666667,
116
  75.262,
117
+ 75.43733333333333,
118
+ 75.59266666666667
119
  ]
120
  },
121
  "lr": [
 
124
  0.00793913236883622,
125
  0.00654543046337755,
126
  0.005000500000000001,
127
+ 0.0034555695366224513,
128
+ 0.0020618676311637816
129
  ]
130
  }