helcig commited on
Commit
45aca8a
·
verified ·
1 Parent(s): ef9144f

Delete files missing locally

Browse files
Llama-3.1-8B-Instruct/ll_bsearch_kl0.01_sha_bw5.31_4-5-6-7-8bit/quantization_config.txt DELETED
@@ -1,252 +0,0 @@
1
- # Model: meta-llama/Llama-3.1-8B-Instruct
2
- # Layer directory: /nfs/scistore19/alistgrp/mhelcig/local/data/search/4_5_6_7_8bit_asym_g128/Llama-3.1-8B-Instruct/6bit/
3
- # Sensitivity method: shapley
4
- # Estimation method: permutation_separate
5
- # Available bitwidths: [4, 5, 6, 7, 8]
6
- # Bitwidth map: {4: 4.3125, 5: 5.3125, 6: 6.3125, 7: 7.3125, 8: 8.3125}
7
- #
8
- # Mode: binary_search_constraint
9
- # Constraint max_kl: 0.01
10
- # Weights: nll=0.0, kl=0.0, eap=1.0
11
- #
12
- # Average bitwidth: 5.3125
13
- # Total params: 6979321856
14
- # Total bits: 37077647360
15
- # Final KL: 0.009869
16
- # Final EAP: 0.965837
17
- # Final ETL: 0.034163
18
- # Satisfies constraints: True
19
- # Solver calls: 6
20
- # Evaluations: 6
21
- #
22
- # Bitwidth distribution:
23
- # 8-bit: 60 layers (26.8%)
24
- # 7-bit: 10 layers (4.5%)
25
- # 6-bit: 44 layers (19.6%)
26
- # 5-bit: 77 layers (34.4%)
27
- # 4-bit: 33 layers (14.7%)
28
- #
29
- model.layers.0.self_attn.q_proj: 6
30
- model.layers.0.self_attn.k_proj: 7
31
- model.layers.0.self_attn.v_proj: 7
32
- model.layers.0.self_attn.o_proj: 5
33
- model.layers.0.mlp.gate_proj: 4
34
- model.layers.0.mlp.up_proj: 4
35
- model.layers.0.mlp.down_proj: 5
36
- model.layers.1.self_attn.q_proj: 7
37
- model.layers.1.self_attn.k_proj: 8
38
- model.layers.1.self_attn.v_proj: 8
39
- model.layers.1.self_attn.o_proj: 6
40
- model.layers.1.mlp.gate_proj: 5
41
- model.layers.1.mlp.up_proj: 5
42
- model.layers.1.mlp.down_proj: 7
43
- model.layers.2.self_attn.q_proj: 7
44
- model.layers.2.self_attn.k_proj: 8
45
- model.layers.2.self_attn.v_proj: 8
46
- model.layers.2.self_attn.o_proj: 5
47
- model.layers.2.mlp.gate_proj: 5
48
- model.layers.2.mlp.up_proj: 5
49
- model.layers.2.mlp.down_proj: 4
50
- model.layers.3.self_attn.q_proj: 6
51
- model.layers.3.self_attn.k_proj: 8
52
- model.layers.3.self_attn.v_proj: 8
53
- model.layers.3.self_attn.o_proj: 6
54
- model.layers.3.mlp.gate_proj: 5
55
- model.layers.3.mlp.up_proj: 5
56
- model.layers.3.mlp.down_proj: 5
57
- model.layers.4.self_attn.q_proj: 6
58
- model.layers.4.self_attn.k_proj: 8
59
- model.layers.4.self_attn.v_proj: 8
60
- model.layers.4.self_attn.o_proj: 6
61
- model.layers.4.mlp.gate_proj: 5
62
- model.layers.4.mlp.up_proj: 5
63
- model.layers.4.mlp.down_proj: 4
64
- model.layers.5.self_attn.q_proj: 6
65
- model.layers.5.self_attn.k_proj: 7
66
- model.layers.5.self_attn.v_proj: 7
67
- model.layers.5.self_attn.o_proj: 5
68
- model.layers.5.mlp.gate_proj: 5
69
- model.layers.5.mlp.up_proj: 5
70
- model.layers.5.mlp.down_proj: 4
71
- model.layers.6.self_attn.q_proj: 6
72
- model.layers.6.self_attn.k_proj: 8
73
- model.layers.6.self_attn.v_proj: 8
74
- model.layers.6.self_attn.o_proj: 6
75
- model.layers.6.mlp.gate_proj: 5
76
- model.layers.6.mlp.up_proj: 5
77
- model.layers.6.mlp.down_proj: 5
78
- model.layers.7.self_attn.q_proj: 6
79
- model.layers.7.self_attn.k_proj: 8
80
- model.layers.7.self_attn.v_proj: 8
81
- model.layers.7.self_attn.o_proj: 6
82
- model.layers.7.mlp.gate_proj: 5
83
- model.layers.7.mlp.up_proj: 5
84
- model.layers.7.mlp.down_proj: 4
85
- model.layers.8.self_attn.q_proj: 6
86
- model.layers.8.self_attn.k_proj: 8
87
- model.layers.8.self_attn.v_proj: 8
88
- model.layers.8.self_attn.o_proj: 6
89
- model.layers.8.mlp.gate_proj: 5
90
- model.layers.8.mlp.up_proj: 5
91
- model.layers.8.mlp.down_proj: 4
92
- model.layers.9.self_attn.q_proj: 7
93
- model.layers.9.self_attn.k_proj: 8
94
- model.layers.9.self_attn.v_proj: 8
95
- model.layers.9.self_attn.o_proj: 6
96
- model.layers.9.mlp.gate_proj: 4
97
- model.layers.9.mlp.up_proj: 4
98
- model.layers.9.mlp.down_proj: 4
99
- model.layers.10.self_attn.q_proj: 6
100
- model.layers.10.self_attn.k_proj: 8
101
- model.layers.10.self_attn.v_proj: 8
102
- model.layers.10.self_attn.o_proj: 6
103
- model.layers.10.mlp.gate_proj: 5
104
- model.layers.10.mlp.up_proj: 5
105
- model.layers.10.mlp.down_proj: 4
106
- model.layers.11.self_attn.q_proj: 6
107
- model.layers.11.self_attn.k_proj: 8
108
- model.layers.11.self_attn.v_proj: 8
109
- model.layers.11.self_attn.o_proj: 6
110
- model.layers.11.mlp.gate_proj: 5
111
- model.layers.11.mlp.up_proj: 5
112
- model.layers.11.mlp.down_proj: 4
113
- model.layers.12.self_attn.q_proj: 6
114
- model.layers.12.self_attn.k_proj: 8
115
- model.layers.12.self_attn.v_proj: 8
116
- model.layers.12.self_attn.o_proj: 6
117
- model.layers.12.mlp.gate_proj: 4
118
- model.layers.12.mlp.up_proj: 4
119
- model.layers.12.mlp.down_proj: 4
120
- model.layers.13.self_attn.q_proj: 6
121
- model.layers.13.self_attn.k_proj: 8
122
- model.layers.13.self_attn.v_proj: 8
123
- model.layers.13.self_attn.o_proj: 5
124
- model.layers.13.mlp.gate_proj: 4
125
- model.layers.13.mlp.up_proj: 4
126
- model.layers.13.mlp.down_proj: 5
127
- model.layers.14.self_attn.q_proj: 7
128
- model.layers.14.self_attn.k_proj: 8
129
- model.layers.14.self_attn.v_proj: 8
130
- model.layers.14.self_attn.o_proj: 6
131
- model.layers.14.mlp.gate_proj: 5
132
- model.layers.14.mlp.up_proj: 5
133
- model.layers.14.mlp.down_proj: 5
134
- model.layers.15.self_attn.q_proj: 7
135
- model.layers.15.self_attn.k_proj: 8
136
- model.layers.15.self_attn.v_proj: 8
137
- model.layers.15.self_attn.o_proj: 5
138
- model.layers.15.mlp.gate_proj: 5
139
- model.layers.15.mlp.up_proj: 5
140
- model.layers.15.mlp.down_proj: 5
141
- model.layers.16.self_attn.q_proj: 6
142
- model.layers.16.self_attn.k_proj: 8
143
- model.layers.16.self_attn.v_proj: 8
144
- model.layers.16.self_attn.o_proj: 6
145
- model.layers.16.mlp.gate_proj: 5
146
- model.layers.16.mlp.up_proj: 5
147
- model.layers.16.mlp.down_proj: 4
148
- model.layers.17.self_attn.q_proj: 6
149
- model.layers.17.self_attn.k_proj: 8
150
- model.layers.17.self_attn.v_proj: 8
151
- model.layers.17.self_attn.o_proj: 6
152
- model.layers.17.mlp.gate_proj: 5
153
- model.layers.17.mlp.up_proj: 5
154
- model.layers.17.mlp.down_proj: 5
155
- model.layers.18.self_attn.q_proj: 6
156
- model.layers.18.self_attn.k_proj: 8
157
- model.layers.18.self_attn.v_proj: 8
158
- model.layers.18.self_attn.o_proj: 6
159
- model.layers.18.mlp.gate_proj: 5
160
- model.layers.18.mlp.up_proj: 5
161
- model.layers.18.mlp.down_proj: 5
162
- model.layers.19.self_attn.q_proj: 6
163
- model.layers.19.self_attn.k_proj: 8
164
- model.layers.19.self_attn.v_proj: 8
165
- model.layers.19.self_attn.o_proj: 5
166
- model.layers.19.mlp.gate_proj: 5
167
- model.layers.19.mlp.up_proj: 5
168
- model.layers.19.mlp.down_proj: 4
169
- model.layers.20.self_attn.q_proj: 6
170
- model.layers.20.self_attn.k_proj: 8
171
- model.layers.20.self_attn.v_proj: 8
172
- model.layers.20.self_attn.o_proj: 5
173
- model.layers.20.mlp.gate_proj: 5
174
- model.layers.20.mlp.up_proj: 5
175
- model.layers.20.mlp.down_proj: 5
176
- model.layers.21.self_attn.q_proj: 6
177
- model.layers.21.self_attn.k_proj: 8
178
- model.layers.21.self_attn.v_proj: 8
179
- model.layers.21.self_attn.o_proj: 5
180
- model.layers.21.mlp.gate_proj: 4
181
- model.layers.21.mlp.up_proj: 4
182
- model.layers.21.mlp.down_proj: 5
183
- model.layers.22.self_attn.q_proj: 6
184
- model.layers.22.self_attn.k_proj: 8
185
- model.layers.22.self_attn.v_proj: 8
186
- model.layers.22.self_attn.o_proj: 5
187
- model.layers.22.mlp.gate_proj: 5
188
- model.layers.22.mlp.up_proj: 5
189
- model.layers.22.mlp.down_proj: 5
190
- model.layers.23.self_attn.q_proj: 6
191
- model.layers.23.self_attn.k_proj: 8
192
- model.layers.23.self_attn.v_proj: 8
193
- model.layers.23.self_attn.o_proj: 5
194
- model.layers.23.mlp.gate_proj: 5
195
- model.layers.23.mlp.up_proj: 5
196
- model.layers.23.mlp.down_proj: 4
197
- model.layers.24.self_attn.q_proj: 6
198
- model.layers.24.self_attn.k_proj: 8
199
- model.layers.24.self_attn.v_proj: 8
200
- model.layers.24.self_attn.o_proj: 5
201
- model.layers.24.mlp.gate_proj: 5
202
- model.layers.24.mlp.up_proj: 5
203
- model.layers.24.mlp.down_proj: 4
204
- model.layers.25.self_attn.q_proj: 6
205
- model.layers.25.self_attn.k_proj: 8
206
- model.layers.25.self_attn.v_proj: 8
207
- model.layers.25.self_attn.o_proj: 5
208
- model.layers.25.mlp.gate_proj: 4
209
- model.layers.25.mlp.up_proj: 4
210
- model.layers.25.mlp.down_proj: 4
211
- model.layers.26.self_attn.q_proj: 6
212
- model.layers.26.self_attn.k_proj: 8
213
- model.layers.26.self_attn.v_proj: 8
214
- model.layers.26.self_attn.o_proj: 5
215
- model.layers.26.mlp.gate_proj: 5
216
- model.layers.26.mlp.up_proj: 5
217
- model.layers.26.mlp.down_proj: 4
218
- model.layers.27.self_attn.q_proj: 6
219
- model.layers.27.self_attn.k_proj: 8
220
- model.layers.27.self_attn.v_proj: 8
221
- model.layers.27.self_attn.o_proj: 5
222
- model.layers.27.mlp.gate_proj: 5
223
- model.layers.27.mlp.up_proj: 5
224
- model.layers.27.mlp.down_proj: 4
225
- model.layers.28.self_attn.q_proj: 6
226
- model.layers.28.self_attn.k_proj: 8
227
- model.layers.28.self_attn.v_proj: 8
228
- model.layers.28.self_attn.o_proj: 5
229
- model.layers.28.mlp.gate_proj: 4
230
- model.layers.28.mlp.up_proj: 4
231
- model.layers.28.mlp.down_proj: 4
232
- model.layers.29.self_attn.q_proj: 6
233
- model.layers.29.self_attn.k_proj: 8
234
- model.layers.29.self_attn.v_proj: 8
235
- model.layers.29.self_attn.o_proj: 5
236
- model.layers.29.mlp.gate_proj: 5
237
- model.layers.29.mlp.up_proj: 5
238
- model.layers.29.mlp.down_proj: 4
239
- model.layers.30.self_attn.q_proj: 6
240
- model.layers.30.self_attn.k_proj: 8
241
- model.layers.30.self_attn.v_proj: 8
242
- model.layers.30.self_attn.o_proj: 5
243
- model.layers.30.mlp.gate_proj: 5
244
- model.layers.30.mlp.up_proj: 5
245
- model.layers.30.mlp.down_proj: 4
246
- model.layers.31.self_attn.q_proj: 6
247
- model.layers.31.self_attn.k_proj: 8
248
- model.layers.31.self_attn.v_proj: 8
249
- model.layers.31.self_attn.o_proj: 5
250
- model.layers.31.mlp.gate_proj: 6
251
- model.layers.31.mlp.up_proj: 6
252
- model.layers.31.mlp.down_proj: 6