helcig commited on
Commit
bb1c0b1
·
verified ·
1 Parent(s): a52ebb8

Delete files missing locally

Browse files
Llama-3.1-8B-Instruct/ll_bsearch_kl0.01_lin_bw7.00_4-8bit/quantization_config.txt DELETED
@@ -1,249 +0,0 @@
1
- # Model: meta-llama/Llama-3.1-8B-Instruct
2
- # Layer directory: /nfs/scistore19/alistgrp/mhelcig/local/data/search/4_5_6_7_8bit_asym_g128/Llama-3.1-8B-Instruct/6bit/
3
- # Sensitivity method: linear
4
- # Estimation method: linear
5
- # Available bitwidths: [4, 8]
6
- # Bitwidth map: {4: 4.3125, 5: 5.3125, 6: 6.3125, 7: 7.3125, 8: 8.3125}
7
- #
8
- # Mode: binary_search_constraint
9
- # Constraint max_kl: 0.01
10
- # Weights: nll=0.0, kl=0.0, eap=1.0
11
- #
12
- # Average bitwidth: 7.0000
13
- # Total params: 6979321856
14
- # Total bits: 48855252992
15
- # Final KL: 0.009516
16
- # Final EAP: 0.971353
17
- # Final ETL: 0.028647
18
- # Satisfies constraints: True
19
- # Solver calls: 6
20
- # Evaluations: 6
21
- #
22
- # Bitwidth distribution:
23
- # 8-bit: 185 layers (82.6%)
24
- # 4-bit: 39 layers (17.4%)
25
- #
26
- model.layers.0.self_attn.q_proj: 8
27
- model.layers.0.self_attn.k_proj: 8
28
- model.layers.0.self_attn.v_proj: 8
29
- model.layers.0.self_attn.o_proj: 8
30
- model.layers.0.mlp.gate_proj: 4
31
- model.layers.0.mlp.up_proj: 4
32
- model.layers.0.mlp.down_proj: 8
33
- model.layers.1.self_attn.q_proj: 8
34
- model.layers.1.self_attn.k_proj: 8
35
- model.layers.1.self_attn.v_proj: 8
36
- model.layers.1.self_attn.o_proj: 8
37
- model.layers.1.mlp.gate_proj: 8
38
- model.layers.1.mlp.up_proj: 8
39
- model.layers.1.mlp.down_proj: 8
40
- model.layers.2.self_attn.q_proj: 8
41
- model.layers.2.self_attn.k_proj: 8
42
- model.layers.2.self_attn.v_proj: 8
43
- model.layers.2.self_attn.o_proj: 8
44
- model.layers.2.mlp.gate_proj: 8
45
- model.layers.2.mlp.up_proj: 8
46
- model.layers.2.mlp.down_proj: 4
47
- model.layers.3.self_attn.q_proj: 8
48
- model.layers.3.self_attn.k_proj: 8
49
- model.layers.3.self_attn.v_proj: 8
50
- model.layers.3.self_attn.o_proj: 8
51
- model.layers.3.mlp.gate_proj: 8
52
- model.layers.3.mlp.up_proj: 8
53
- model.layers.3.mlp.down_proj: 4
54
- model.layers.4.self_attn.q_proj: 8
55
- model.layers.4.self_attn.k_proj: 8
56
- model.layers.4.self_attn.v_proj: 8
57
- model.layers.4.self_attn.o_proj: 8
58
- model.layers.4.mlp.gate_proj: 8
59
- model.layers.4.mlp.up_proj: 8
60
- model.layers.4.mlp.down_proj: 8
61
- model.layers.5.self_attn.q_proj: 8
62
- model.layers.5.self_attn.k_proj: 8
63
- model.layers.5.self_attn.v_proj: 8
64
- model.layers.5.self_attn.o_proj: 8
65
- model.layers.5.mlp.gate_proj: 8
66
- model.layers.5.mlp.up_proj: 8
67
- model.layers.5.mlp.down_proj: 8
68
- model.layers.6.self_attn.q_proj: 8
69
- model.layers.6.self_attn.k_proj: 8
70
- model.layers.6.self_attn.v_proj: 8
71
- model.layers.6.self_attn.o_proj: 8
72
- model.layers.6.mlp.gate_proj: 8
73
- model.layers.6.mlp.up_proj: 8
74
- model.layers.6.mlp.down_proj: 8
75
- model.layers.7.self_attn.q_proj: 8
76
- model.layers.7.self_attn.k_proj: 8
77
- model.layers.7.self_attn.v_proj: 8
78
- model.layers.7.self_attn.o_proj: 8
79
- model.layers.7.mlp.gate_proj: 8
80
- model.layers.7.mlp.up_proj: 8
81
- model.layers.7.mlp.down_proj: 8
82
- model.layers.8.self_attn.q_proj: 8
83
- model.layers.8.self_attn.k_proj: 8
84
- model.layers.8.self_attn.v_proj: 8
85
- model.layers.8.self_attn.o_proj: 8
86
- model.layers.8.mlp.gate_proj: 8
87
- model.layers.8.mlp.up_proj: 8
88
- model.layers.8.mlp.down_proj: 4
89
- model.layers.9.self_attn.q_proj: 8
90
- model.layers.9.self_attn.k_proj: 8
91
- model.layers.9.self_attn.v_proj: 8
92
- model.layers.9.self_attn.o_proj: 8
93
- model.layers.9.mlp.gate_proj: 8
94
- model.layers.9.mlp.up_proj: 8
95
- model.layers.9.mlp.down_proj: 8
96
- model.layers.10.self_attn.q_proj: 8
97
- model.layers.10.self_attn.k_proj: 8
98
- model.layers.10.self_attn.v_proj: 8
99
- model.layers.10.self_attn.o_proj: 8
100
- model.layers.10.mlp.gate_proj: 8
101
- model.layers.10.mlp.up_proj: 8
102
- model.layers.10.mlp.down_proj: 4
103
- model.layers.11.self_attn.q_proj: 8
104
- model.layers.11.self_attn.k_proj: 8
105
- model.layers.11.self_attn.v_proj: 8
106
- model.layers.11.self_attn.o_proj: 8
107
- model.layers.11.mlp.gate_proj: 8
108
- model.layers.11.mlp.up_proj: 8
109
- model.layers.11.mlp.down_proj: 4
110
- model.layers.12.self_attn.q_proj: 8
111
- model.layers.12.self_attn.k_proj: 8
112
- model.layers.12.self_attn.v_proj: 8
113
- model.layers.12.self_attn.o_proj: 8
114
- model.layers.12.mlp.gate_proj: 8
115
- model.layers.12.mlp.up_proj: 8
116
- model.layers.12.mlp.down_proj: 8
117
- model.layers.13.self_attn.q_proj: 8
118
- model.layers.13.self_attn.k_proj: 8
119
- model.layers.13.self_attn.v_proj: 8
120
- model.layers.13.self_attn.o_proj: 8
121
- model.layers.13.mlp.gate_proj: 8
122
- model.layers.13.mlp.up_proj: 8
123
- model.layers.13.mlp.down_proj: 8
124
- model.layers.14.self_attn.q_proj: 8
125
- model.layers.14.self_attn.k_proj: 8
126
- model.layers.14.self_attn.v_proj: 8
127
- model.layers.14.self_attn.o_proj: 8
128
- model.layers.14.mlp.gate_proj: 8
129
- model.layers.14.mlp.up_proj: 8
130
- model.layers.14.mlp.down_proj: 8
131
- model.layers.15.self_attn.q_proj: 8
132
- model.layers.15.self_attn.k_proj: 8
133
- model.layers.15.self_attn.v_proj: 8
134
- model.layers.15.self_attn.o_proj: 8
135
- model.layers.15.mlp.gate_proj: 8
136
- model.layers.15.mlp.up_proj: 8
137
- model.layers.15.mlp.down_proj: 8
138
- model.layers.16.self_attn.q_proj: 8
139
- model.layers.16.self_attn.k_proj: 8
140
- model.layers.16.self_attn.v_proj: 8
141
- model.layers.16.self_attn.o_proj: 8
142
- model.layers.16.mlp.gate_proj: 8
143
- model.layers.16.mlp.up_proj: 8
144
- model.layers.16.mlp.down_proj: 8
145
- model.layers.17.self_attn.q_proj: 8
146
- model.layers.17.self_attn.k_proj: 8
147
- model.layers.17.self_attn.v_proj: 8
148
- model.layers.17.self_attn.o_proj: 8
149
- model.layers.17.mlp.gate_proj: 8
150
- model.layers.17.mlp.up_proj: 8
151
- model.layers.17.mlp.down_proj: 8
152
- model.layers.18.self_attn.q_proj: 8
153
- model.layers.18.self_attn.k_proj: 8
154
- model.layers.18.self_attn.v_proj: 8
155
- model.layers.18.self_attn.o_proj: 8
156
- model.layers.18.mlp.gate_proj: 8
157
- model.layers.18.mlp.up_proj: 8
158
- model.layers.18.mlp.down_proj: 4
159
- model.layers.19.self_attn.q_proj: 8
160
- model.layers.19.self_attn.k_proj: 8
161
- model.layers.19.self_attn.v_proj: 8
162
- model.layers.19.self_attn.o_proj: 8
163
- model.layers.19.mlp.gate_proj: 8
164
- model.layers.19.mlp.up_proj: 8
165
- model.layers.19.mlp.down_proj: 4
166
- model.layers.20.self_attn.q_proj: 8
167
- model.layers.20.self_attn.k_proj: 8
168
- model.layers.20.self_attn.v_proj: 8
169
- model.layers.20.self_attn.o_proj: 8
170
- model.layers.20.mlp.gate_proj: 4
171
- model.layers.20.mlp.up_proj: 4
172
- model.layers.20.mlp.down_proj: 4
173
- model.layers.21.self_attn.q_proj: 8
174
- model.layers.21.self_attn.k_proj: 8
175
- model.layers.21.self_attn.v_proj: 8
176
- model.layers.21.self_attn.o_proj: 8
177
- model.layers.21.mlp.gate_proj: 4
178
- model.layers.21.mlp.up_proj: 4
179
- model.layers.21.mlp.down_proj: 4
180
- model.layers.22.self_attn.q_proj: 8
181
- model.layers.22.self_attn.k_proj: 8
182
- model.layers.22.self_attn.v_proj: 8
183
- model.layers.22.self_attn.o_proj: 8
184
- model.layers.22.mlp.gate_proj: 4
185
- model.layers.22.mlp.up_proj: 4
186
- model.layers.22.mlp.down_proj: 4
187
- model.layers.23.self_attn.q_proj: 8
188
- model.layers.23.self_attn.k_proj: 8
189
- model.layers.23.self_attn.v_proj: 8
190
- model.layers.23.self_attn.o_proj: 8
191
- model.layers.23.mlp.gate_proj: 4
192
- model.layers.23.mlp.up_proj: 4
193
- model.layers.23.mlp.down_proj: 4
194
- model.layers.24.self_attn.q_proj: 8
195
- model.layers.24.self_attn.k_proj: 8
196
- model.layers.24.self_attn.v_proj: 8
197
- model.layers.24.self_attn.o_proj: 8
198
- model.layers.24.mlp.gate_proj: 4
199
- model.layers.24.mlp.up_proj: 4
200
- model.layers.24.mlp.down_proj: 4
201
- model.layers.25.self_attn.q_proj: 8
202
- model.layers.25.self_attn.k_proj: 8
203
- model.layers.25.self_attn.v_proj: 8
204
- model.layers.25.self_attn.o_proj: 8
205
- model.layers.25.mlp.gate_proj: 4
206
- model.layers.25.mlp.up_proj: 4
207
- model.layers.25.mlp.down_proj: 4
208
- model.layers.26.self_attn.q_proj: 8
209
- model.layers.26.self_attn.k_proj: 8
210
- model.layers.26.self_attn.v_proj: 8
211
- model.layers.26.self_attn.o_proj: 8
212
- model.layers.26.mlp.gate_proj: 4
213
- model.layers.26.mlp.up_proj: 4
214
- model.layers.26.mlp.down_proj: 4
215
- model.layers.27.self_attn.q_proj: 8
216
- model.layers.27.self_attn.k_proj: 8
217
- model.layers.27.self_attn.v_proj: 8
218
- model.layers.27.self_attn.o_proj: 8
219
- model.layers.27.mlp.gate_proj: 4
220
- model.layers.27.mlp.up_proj: 4
221
- model.layers.27.mlp.down_proj: 4
222
- model.layers.28.self_attn.q_proj: 8
223
- model.layers.28.self_attn.k_proj: 8
224
- model.layers.28.self_attn.v_proj: 8
225
- model.layers.28.self_attn.o_proj: 8
226
- model.layers.28.mlp.gate_proj: 4
227
- model.layers.28.mlp.up_proj: 4
228
- model.layers.28.mlp.down_proj: 4
229
- model.layers.29.self_attn.q_proj: 8
230
- model.layers.29.self_attn.k_proj: 8
231
- model.layers.29.self_attn.v_proj: 8
232
- model.layers.29.self_attn.o_proj: 8
233
- model.layers.29.mlp.gate_proj: 4
234
- model.layers.29.mlp.up_proj: 4
235
- model.layers.29.mlp.down_proj: 4
236
- model.layers.30.self_attn.q_proj: 8
237
- model.layers.30.self_attn.k_proj: 8
238
- model.layers.30.self_attn.v_proj: 8
239
- model.layers.30.self_attn.o_proj: 8
240
- model.layers.30.mlp.gate_proj: 8
241
- model.layers.30.mlp.up_proj: 8
242
- model.layers.30.mlp.down_proj: 8
243
- model.layers.31.self_attn.q_proj: 8
244
- model.layers.31.self_attn.k_proj: 8
245
- model.layers.31.self_attn.v_proj: 8
246
- model.layers.31.self_attn.o_proj: 8
247
- model.layers.31.mlp.gate_proj: 8
248
- model.layers.31.mlp.up_proj: 8
249
- model.layers.31.mlp.down_proj: 8