bqbbao6 commited on
Commit
d35e401
·
verified ·
1 Parent(s): 131cd7c
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,952 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - vi
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - dense
10
+ - generated_from_trainer
11
+ - dataset_size:25860
12
+ - loss:MatryoshkaLoss
13
+ - loss:MultipleNegativesRankingLoss
14
+ base_model: bkai-foundation-models/vietnamese-bi-encoder
15
+ widget:
16
+ - source_sentence: Công ty tôi phê duyệt tổng mức đầu tư dự án ngày 26/10/2015 khi
17
+ Thông tư số09/2016/TT-BTCchưa ban hành nên chi phí kiểm toán và thẩm tra, phê
18
+ duyệt quyết toán vẫn áp dụng hệ số theo Thông tư số19/2011/TT-BTC. Công ty tôi
19
+ còn gói thầu kiểm toán và thẩm tra, phê duyệt quyết toán chưa thực hiện. Công
20
+ ty tôi thực hiện tiếp 2 gói thầu này thì phải áp dụng hệ số cho chi phí kiểm toán
21
+ và thẩm tra, phê duyệt quyết toán theo Thông tư số 09/2016/TT-BTC, như vậy tổng
22
+ mức đầu tư thay đổi. Dự án của công ty vẫn còn chi phí dự phòng, xin hỏi, công
23
+ ty tôi có được sử dụng chi phí dự phòng này không hay phải làm thủ tục điều chỉnh
24
+ tổng mức đầu tư? Nếu phải điều chỉnh tổng mức đầu tư thì công ty tôi phải làm
25
+ thủ tục như thế nào?Bộ Xây dựng trả lời vấn đề này như sau:Khi quyết toán dự án,
26
+ việc sử dụng chi phí dự phòng để bổ sung cho chi phí kiểm toán và chi phí thẩm
27
+ tra, phê duyệt quyết toán do Nhà nước thay đổi Thông tư số19/2011/TT-BTCbằng Thông
28
+ tư số09/2016/TT-BTCngày 18/1/2016 quy định về quyết toán dự án hoàn thành thuộc
29
+ nguồn vốn Nhà nước là phù hợp.
30
+ sentences:
31
+ - Điều 2 Quyết định 3138/QĐ-BKHCN 2019 đính chính Thông tư đo lường đối với phương
32
+ tiện đo nhóm 2
33
+ - Trường hợp nào được sử dụng chi phí dự phòng?
34
+ - Nếu không ký kết hợp đồng lao động mới, hợp đồng đã giao kết trở thành hợp đồng
35
+ lao động gì?
36
+ - source_sentence: 'Điều 1 Thông tư 172/2009/TT-BTC sửa đổi 81/2006/TT-BTC kiểm soát
37
+ chi đơn vị sự nghiệp công lập có nội dung như sau:
38
+
39
+
40
+ Điều 1. Sửa đổi gạch đầu dòng thứ 2 và thứ 3 tiết 2.5.2, điểm 2.5, khoản 2 mục
41
+ II Thông tư số 81/2006/TT-BTC như sau:
42
+
43
+ - Trong năm, căn cứ vào mức chênh lệch thu lớn hơn chi hàng quý xác định được;
44
+ đơn vị lập giấy rút dự toán ngân sách nhà nước (thanh toán) để chi trả thu nhập
45
+ tăng thêm cho cán bộ, công chức trong đơn vị theo quý gửi Kho bạc Nhà nước. Kho
46
+ bạc Nhà nước thanh toán theo mức thủ trưởng đơn vị đề nghị đảm bảo trong phạm
47
+ vi dự toán được giao nhưng tối đa không quá 60% số chênh lệch thu lớn hơn chi
48
+ đơn vị xác định được theo quý và thực hiện hạch toán thực chi mục 6400 (tiểu mục
49
+ 6404 chi chênh lệch thu nhập thực tế so với lương ngạch bậc, chức vụ).
50
+
51
+ - Kết thúc năm ngân sách, trước ngày 31/01 năm sau, đơn vị sự nghiệp thực hiện
52
+ chế độ tự chủ, tự chịu trách nhiệm về tài chính tự xác định số chênh lệch thu
53
+ lớn hơn chi và kinh phí chi thu nhập tăng thêm của năm trước theo quy chế chi
54
+ tiêu nội bộ của đơn vị gửi Kho bạc Nhà nước nơi giao dịch đề nghị thanh toán tiếp
55
+ thu nhập tăng thêm cho người lao động. Trên cơ sở văn bản đề nghị của đơn vị,
56
+ Kho bạc Nhà nước làm thủ tục thanh toán phần chi thu nhập tăng thêm cho đơn vị
57
+ đảm bảo không vượt quá mức thu nhập tăng thêm đối với từng loại đơn vị sự nghiệp
58
+ quy định tại Nghị định số 43/2006/NĐ-CP ngày 25/4/2006 của Chính phủ và Thông
59
+ tư số 71/2006/TT-BTC ngày 09/08/2006 của Bộ Tài chính hướng dẫn thực hiện Nghị
60
+ định số 43/2006/NĐ-CP ngày 25/04/2006 của Chính phủ.
61
+
62
+ Sau khi quyết toán của đơn vị được cấp có thẩm quyền phê duyệt:
63
+
64
+ - Trường hợp số chênh lệch thu lớn hơn chi dành để chi trả thu nhập tăng thêm
65
+ cho người lao động cao hơn số đơn vị tự xác định, căn cứ vào quy chế chi tiêu
66
+ nội bộ và đề nghị của đơn vị, Kho bạc Nhà nước thanh toán tiếp phần chi trả thu
67
+ nhập tăng thêm cho người lao động của đơn vị và thực hiện hạch toán vào niên độ
68
+ ngân sách năm sau.
69
+
70
+ - Trường hợp số chênh lệch thu lớn hơn chi dành để chi trả thu nhập tăng thêm
71
+ cho người lao động thấp hơn số đơn vị tự xác định thì số đã chi trả thu nhập tăng
72
+ thêm vượt so với số quyết toán được cơ quan có thẩm quyền duyệt, đơn vị phải sử
73
+ dụng Quỹ dự phòng ổn định thu nhập (nếu có) để bù đắp, trường hợp sau khi dùng
74
+ quỹ dự phòng ổn định thu nhập để bù đắp vẫn còn thiết hụt thì trừ vào chênh lệch
75
+ thu lớn hơn chi phần dành để chi trả thu nhập tăng thêm của năm sau, trường hợp
76
+ năm sau không có chênh lệch thu lớn hơn chi thì trừ vào quỹ tiền lương của đơn
77
+ vị.'
78
+ sentences:
79
+ - Bố trí người phụ trách kế toán tối đa là 12 tháng
80
+ - Quy định về ngày cấp giấy chứng nhận nghỉ việc hưởng BHXH
81
+ - Điều 1 Thông tư 172/2009/TT-BTC sửa đổi 81/2006/TT-BTC kiểm soát chi đơn vị sự
82
+ nghiệp công lập
83
+ - source_sentence: Người lao động làm việc trong điều kiện bình thường, cứ 12 tháng
84
+ làm việc thì được nghỉ phép 12 ngày làm việc hưởng nguyên lương. Người làm công
85
+ việc nặng nhọc, độc hại, nguy hiểm hoặc làm việc ở nơi có điều kiện sinh hoạt
86
+ đặc biệt khó khăn thì được nghỉ phép 14 ngày làm việc hưởng nguyên lương. Người
87
+ làm công việc đặc biệt nặng nhọc, độc hại, nguy hiểm thì được nghỉ phép 16 ngày
88
+ làm việc hưởng nguyên lương.
89
+ sentences:
90
+ - Người lao động làm việc trong điều kiện bình thường được nghỉ phép bao nhiêu ngày
91
+ làm việc hưởng nguyên lương?
92
+ - Vi phạm quy định về bầu cử có thể bị phạt tù
93
+ - Điều 24 Nghị định 30/2015/NĐ-CP hướng dẫn Luật Đấu thầu về lựa chọn nhà đầu tư
94
+ - source_sentence: 'Điều 3 Quyết định 1970/QĐ-BCT 2023 nhiệm vụ Chương trình phát
95
+ triển thương mại miền núi vùng sâu 2024 có nội dung như sau:
96
+
97
+
98
+ Điều 3. Giao Vụ Thị trường trong nước chủ trì, phối hợp với các cơ quan liên quan
99
+ triển khai thực hiện nhiệm vụ năm 2024 của Bộ Công Thương thuộc Chương trình phát
100
+ triển thương mại miền núi, vùng sâu, vùng xa và hải đảo giai đoạn 2021 -2025.'
101
+ sentences:
102
+ - Người lao động làm việc từ đủ bao nhiêu năm trở lên cho một người sử dụng lao
103
+ động thì được nghỉ thêm 1 ngày phép hưởng nguyên lương?
104
+ - Điều 3 Quyết định 1970/QĐ-BCT 2023 nhiệm vụ Chương trình phát triển thương mại
105
+ miền núi vùng sâu 2024
106
+ - Báo cáo nào cần được thẩm định an ninh mạng?
107
+ - source_sentence: 'Điều 3 Quyết định 22/2010/QĐ-UBND quản lý sử dụng Hệ thống giao
108
+ ban điện tử Lào Cai có nội dung như sau:
109
+
110
+
111
+ Điều 3. Chánh Văn phòng UBND tỉnh; Giám đốc Sở Thông tin và Truyền thông; Thủ
112
+ trưởng các sở, ban, ngành, đơn vị; Chủ tịch UBND các huyện, thành phố; Giám đốc
113
+ Doanh nghiệp cung cấp dịch vụ viễn thông và các tổ chức, cá nhân có liên quan
114
+ chịu trách nhiệm thi hành Quyết định này'
115
+ sentences:
116
+ - Điều 3 Quyết định 22/2010/QĐ-UBND quản lý sử dụng Hệ thống giao ban điện tử Lào
117
+ Cai
118
+ - Đối tượng nào được hưởng chế độ công tác phí theo tháng?
119
+ - Điều 1 Nghị định 65/2007/NĐ-CP điều chỉnh địa giới hành chính thị xã Cam Ranh
120
+ Trường Sa Cam Nghĩa huyện Diên Khánh lập huyện xã tỉnh khánh Hòa mới nhất
121
+ pipeline_tag: sentence-similarity
122
+ library_name: sentence-transformers
123
+ metrics:
124
+ - cosine_accuracy@1
125
+ - cosine_accuracy@3
126
+ - cosine_accuracy@5
127
+ - cosine_accuracy@10
128
+ - cosine_precision@1
129
+ - cosine_precision@3
130
+ - cosine_precision@5
131
+ - cosine_precision@10
132
+ - cosine_recall@1
133
+ - cosine_recall@3
134
+ - cosine_recall@5
135
+ - cosine_recall@10
136
+ - cosine_ndcg@10
137
+ - cosine_mrr@10
138
+ - cosine_map@100
139
+ model-index:
140
+ - name: bkai-fine-tuned-legal
141
+ results:
142
+ - task:
143
+ type: information-retrieval
144
+ name: Information Retrieval
145
+ dataset:
146
+ name: dim 768
147
+ type: dim_768
148
+ metrics:
149
+ - type: cosine_accuracy@1
150
+ value: 0.6073638613861386
151
+ name: Cosine Accuracy@1
152
+ - type: cosine_accuracy@3
153
+ value: 0.7004950495049505
154
+ name: Cosine Accuracy@3
155
+ - type: cosine_accuracy@5
156
+ value: 0.7419554455445545
157
+ name: Cosine Accuracy@5
158
+ - type: cosine_accuracy@10
159
+ value: 0.7920792079207921
160
+ name: Cosine Accuracy@10
161
+ - type: cosine_precision@1
162
+ value: 0.6073638613861386
163
+ name: Cosine Precision@1
164
+ - type: cosine_precision@3
165
+ value: 0.2334983498349835
166
+ name: Cosine Precision@3
167
+ - type: cosine_precision@5
168
+ value: 0.1483910891089109
169
+ name: Cosine Precision@5
170
+ - type: cosine_precision@10
171
+ value: 0.0792079207920792
172
+ name: Cosine Precision@10
173
+ - type: cosine_recall@1
174
+ value: 0.6073638613861386
175
+ name: Cosine Recall@1
176
+ - type: cosine_recall@3
177
+ value: 0.7004950495049505
178
+ name: Cosine Recall@3
179
+ - type: cosine_recall@5
180
+ value: 0.7419554455445545
181
+ name: Cosine Recall@5
182
+ - type: cosine_recall@10
183
+ value: 0.7920792079207921
184
+ name: Cosine Recall@10
185
+ - type: cosine_ndcg@10
186
+ value: 0.6953201867128341
187
+ name: Cosine Ndcg@10
188
+ - type: cosine_mrr@10
189
+ value: 0.6648522218293257
190
+ name: Cosine Mrr@10
191
+ - type: cosine_map@100
192
+ value: 0.6707577379319669
193
+ name: Cosine Map@100
194
+ - task:
195
+ type: information-retrieval
196
+ name: Information Retrieval
197
+ dataset:
198
+ name: dim 512
199
+ type: dim_512
200
+ metrics:
201
+ - type: cosine_accuracy@1
202
+ value: 0.6045792079207921
203
+ name: Cosine Accuracy@1
204
+ - type: cosine_accuracy@3
205
+ value: 0.6955445544554455
206
+ name: Cosine Accuracy@3
207
+ - type: cosine_accuracy@5
208
+ value: 0.7413366336633663
209
+ name: Cosine Accuracy@5
210
+ - type: cosine_accuracy@10
211
+ value: 0.7892945544554455
212
+ name: Cosine Accuracy@10
213
+ - type: cosine_precision@1
214
+ value: 0.6045792079207921
215
+ name: Cosine Precision@1
216
+ - type: cosine_precision@3
217
+ value: 0.23184818481848182
218
+ name: Cosine Precision@3
219
+ - type: cosine_precision@5
220
+ value: 0.14826732673267323
221
+ name: Cosine Precision@5
222
+ - type: cosine_precision@10
223
+ value: 0.07892945544554454
224
+ name: Cosine Precision@10
225
+ - type: cosine_recall@1
226
+ value: 0.6045792079207921
227
+ name: Cosine Recall@1
228
+ - type: cosine_recall@3
229
+ value: 0.6955445544554455
230
+ name: Cosine Recall@3
231
+ - type: cosine_recall@5
232
+ value: 0.7413366336633663
233
+ name: Cosine Recall@5
234
+ - type: cosine_recall@10
235
+ value: 0.7892945544554455
236
+ name: Cosine Recall@10
237
+ - type: cosine_ndcg@10
238
+ value: 0.6923022700361329
239
+ name: Cosine Ndcg@10
240
+ - type: cosine_mrr@10
241
+ value: 0.6617676164937917
242
+ name: Cosine Mrr@10
243
+ - type: cosine_map@100
244
+ value: 0.6678128035277444
245
+ name: Cosine Map@100
246
+ - task:
247
+ type: information-retrieval
248
+ name: Information Retrieval
249
+ dataset:
250
+ name: dim 256
251
+ type: dim_256
252
+ metrics:
253
+ - type: cosine_accuracy@1
254
+ value: 0.6036509900990099
255
+ name: Cosine Accuracy@1
256
+ - type: cosine_accuracy@3
257
+ value: 0.693069306930693
258
+ name: Cosine Accuracy@3
259
+ - type: cosine_accuracy@5
260
+ value: 0.7345297029702971
261
+ name: Cosine Accuracy@5
262
+ - type: cosine_accuracy@10
263
+ value: 0.7874381188118812
264
+ name: Cosine Accuracy@10
265
+ - type: cosine_precision@1
266
+ value: 0.6036509900990099
267
+ name: Cosine Precision@1
268
+ - type: cosine_precision@3
269
+ value: 0.23102310231023104
270
+ name: Cosine Precision@3
271
+ - type: cosine_precision@5
272
+ value: 0.1469059405940594
273
+ name: Cosine Precision@5
274
+ - type: cosine_precision@10
275
+ value: 0.0787438118811881
276
+ name: Cosine Precision@10
277
+ - type: cosine_recall@1
278
+ value: 0.6036509900990099
279
+ name: Cosine Recall@1
280
+ - type: cosine_recall@3
281
+ value: 0.693069306930693
282
+ name: Cosine Recall@3
283
+ - type: cosine_recall@5
284
+ value: 0.7345297029702971
285
+ name: Cosine Recall@5
286
+ - type: cosine_recall@10
287
+ value: 0.7874381188118812
288
+ name: Cosine Recall@10
289
+ - type: cosine_ndcg@10
290
+ value: 0.6899985182895687
291
+ name: Cosine Ndcg@10
292
+ - type: cosine_mrr@10
293
+ value: 0.6594872210435324
294
+ name: Cosine Mrr@10
295
+ - type: cosine_map@100
296
+ value: 0.6654213269021221
297
+ name: Cosine Map@100
298
+ - task:
299
+ type: information-retrieval
300
+ name: Information Retrieval
301
+ dataset:
302
+ name: dim 128
303
+ type: dim_128
304
+ metrics:
305
+ - type: cosine_accuracy@1
306
+ value: 0.5915841584158416
307
+ name: Cosine Accuracy@1
308
+ - type: cosine_accuracy@3
309
+ value: 0.6763613861386139
310
+ name: Cosine Accuracy@3
311
+ - type: cosine_accuracy@5
312
+ value: 0.7230816831683168
313
+ name: Cosine Accuracy@5
314
+ - type: cosine_accuracy@10
315
+ value: 0.7738242574257426
316
+ name: Cosine Accuracy@10
317
+ - type: cosine_precision@1
318
+ value: 0.5915841584158416
319
+ name: Cosine Precision@1
320
+ - type: cosine_precision@3
321
+ value: 0.22545379537953794
322
+ name: Cosine Precision@3
323
+ - type: cosine_precision@5
324
+ value: 0.14461633663366336
325
+ name: Cosine Precision@5
326
+ - type: cosine_precision@10
327
+ value: 0.07738242574257424
328
+ name: Cosine Precision@10
329
+ - type: cosine_recall@1
330
+ value: 0.5915841584158416
331
+ name: Cosine Recall@1
332
+ - type: cosine_recall@3
333
+ value: 0.6763613861386139
334
+ name: Cosine Recall@3
335
+ - type: cosine_recall@5
336
+ value: 0.7230816831683168
337
+ name: Cosine Recall@5
338
+ - type: cosine_recall@10
339
+ value: 0.7738242574257426
340
+ name: Cosine Recall@10
341
+ - type: cosine_ndcg@10
342
+ value: 0.6768923401788021
343
+ name: Cosine Ndcg@10
344
+ - type: cosine_mrr@10
345
+ value: 0.6465193059484518
346
+ name: Cosine Mrr@10
347
+ - type: cosine_map@100
348
+ value: 0.6528103079926022
349
+ name: Cosine Map@100
350
+ - task:
351
+ type: information-retrieval
352
+ name: Information Retrieval
353
+ dataset:
354
+ name: dim 64
355
+ type: dim_64
356
+ metrics:
357
+ - type: cosine_accuracy@1
358
+ value: 0.5770420792079208
359
+ name: Cosine Accuracy@1
360
+ - type: cosine_accuracy@3
361
+ value: 0.6593440594059405
362
+ name: Cosine Accuracy@3
363
+ - type: cosine_accuracy@5
364
+ value: 0.6989480198019802
365
+ name: Cosine Accuracy@5
366
+ - type: cosine_accuracy@10
367
+ value: 0.755569306930693
368
+ name: Cosine Accuracy@10
369
+ - type: cosine_precision@1
370
+ value: 0.5770420792079208
371
+ name: Cosine Precision@1
372
+ - type: cosine_precision@3
373
+ value: 0.2197813531353135
374
+ name: Cosine Precision@3
375
+ - type: cosine_precision@5
376
+ value: 0.13978960396039602
377
+ name: Cosine Precision@5
378
+ - type: cosine_precision@10
379
+ value: 0.0755569306930693
380
+ name: Cosine Precision@10
381
+ - type: cosine_recall@1
382
+ value: 0.5770420792079208
383
+ name: Cosine Recall@1
384
+ - type: cosine_recall@3
385
+ value: 0.6593440594059405
386
+ name: Cosine Recall@3
387
+ - type: cosine_recall@5
388
+ value: 0.6989480198019802
389
+ name: Cosine Recall@5
390
+ - type: cosine_recall@10
391
+ value: 0.755569306930693
392
+ name: Cosine Recall@10
393
+ - type: cosine_ndcg@10
394
+ value: 0.6604592325341517
395
+ name: Cosine Ndcg@10
396
+ - type: cosine_mrr@10
397
+ value: 0.6308034486484356
398
+ name: Cosine Mrr@10
399
+ - type: cosine_map@100
400
+ value: 0.6369596779835216
401
+ name: Cosine Map@100
402
+ ---
403
+
404
+ # bkai-fine-tuned-legal
405
+
406
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
407
+
408
+ ## Model Details
409
+
410
+ ### Model Description
411
+ - **Model Type:** Sentence Transformer
412
+ - **Base model:** [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) <!-- at revision 84f9d9ada0d1a3c37557398b9ae9fcedcdf40be0 -->
413
+ - **Maximum Sequence Length:** 256 tokens
414
+ - **Output Dimensionality:** 768 dimensions
415
+ - **Similarity Function:** Cosine Similarity
416
+ - **Training Dataset:**
417
+ - json
418
+ - **Language:** vi
419
+ - **License:** apache-2.0
420
+
421
+ ### Model Sources
422
+
423
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
424
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
425
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
426
+
427
+ ### Full Model Architecture
428
+
429
+ ```
430
+ SentenceTransformer(
431
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False, 'architecture': 'RobertaModel'})
432
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
433
+ )
434
+ ```
435
+
436
+ ## Usage
437
+
438
+ ### Direct Usage (Sentence Transformers)
439
+
440
+ First install the Sentence Transformers library:
441
+
442
+ ```bash
443
+ pip install -U sentence-transformers
444
+ ```
445
+
446
+ Then you can load this model and run inference.
447
+ ```python
448
+ from sentence_transformers import SentenceTransformer
449
+
450
+ # Download from the 🤗 Hub
451
+ model = SentenceTransformer("sentence_transformers_model_id")
452
+ # Run inference
453
+ sentences = [
454
+ 'Điều 3 Quyết định 22/2010/QĐ-UBND quản lý sử dụng Hệ thống giao ban điện tử Lào Cai có nội dung như sau:\n\nĐiều 3. Chánh Văn phòng UBND tỉnh; Giám đốc Sở Thông tin và Truyền thông; Thủ trưởng các sở, ban, ngành, đơn vị; Chủ tịch UBND các huyện, thành phố; Giám đốc Doanh nghiệp cung cấp dịch vụ viễn thông và các tổ chức, cá nhân có liên quan chịu trách nhiệm thi hành Quyết định này',
455
+ 'Điều 3 Quyết định 22/2010/QĐ-UBND quản lý sử dụng Hệ thống giao ban điện tử Lào Cai',
456
+ 'Điều 1 Nghị định 65/2007/NĐ-CP điều chỉnh địa giới hành chính thị xã Cam Ranh Trường Sa Cam Nghĩa huyện Diên Khánh lập huyện xã tỉnh khánh Hòa mới nhất',
457
+ ]
458
+ embeddings = model.encode(sentences)
459
+ print(embeddings.shape)
460
+ # [3, 768]
461
+
462
+ # Get the similarity scores for the embeddings
463
+ similarities = model.similarity(embeddings, embeddings)
464
+ print(similarities)
465
+ # tensor([[1.0000, 0.9331, 0.1638],
466
+ # [0.9331, 1.0000, 0.1802],
467
+ # [0.1638, 0.1802, 1.0000]])
468
+ ```
469
+
470
+ <!--
471
+ ### Direct Usage (Transformers)
472
+
473
+ <details><summary>Click to see the direct usage in Transformers</summary>
474
+
475
+ </details>
476
+ -->
477
+
478
+ <!--
479
+ ### Downstream Usage (Sentence Transformers)
480
+
481
+ You can finetune this model on your own dataset.
482
+
483
+ <details><summary>Click to expand</summary>
484
+
485
+ </details>
486
+ -->
487
+
488
+ <!--
489
+ ### Out-of-Scope Use
490
+
491
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
492
+ -->
493
+
494
+ ## Evaluation
495
+
496
+ ### Metrics
497
+
498
+ #### Information Retrieval
499
+
500
+ * Dataset: `dim_768`
501
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
502
+ ```json
503
+ {
504
+ "truncate_dim": 768
505
+ }
506
+ ```
507
+
508
+ | Metric | Value |
509
+ |:--------------------|:-----------|
510
+ | cosine_accuracy@1 | 0.6074 |
511
+ | cosine_accuracy@3 | 0.7005 |
512
+ | cosine_accuracy@5 | 0.742 |
513
+ | cosine_accuracy@10 | 0.7921 |
514
+ | cosine_precision@1 | 0.6074 |
515
+ | cosine_precision@3 | 0.2335 |
516
+ | cosine_precision@5 | 0.1484 |
517
+ | cosine_precision@10 | 0.0792 |
518
+ | cosine_recall@1 | 0.6074 |
519
+ | cosine_recall@3 | 0.7005 |
520
+ | cosine_recall@5 | 0.742 |
521
+ | cosine_recall@10 | 0.7921 |
522
+ | **cosine_ndcg@10** | **0.6953** |
523
+ | cosine_mrr@10 | 0.6649 |
524
+ | cosine_map@100 | 0.6708 |
525
+
526
+ #### Information Retrieval
527
+
528
+ * Dataset: `dim_512`
529
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
530
+ ```json
531
+ {
532
+ "truncate_dim": 512
533
+ }
534
+ ```
535
+
536
+ | Metric | Value |
537
+ |:--------------------|:-----------|
538
+ | cosine_accuracy@1 | 0.6046 |
539
+ | cosine_accuracy@3 | 0.6955 |
540
+ | cosine_accuracy@5 | 0.7413 |
541
+ | cosine_accuracy@10 | 0.7893 |
542
+ | cosine_precision@1 | 0.6046 |
543
+ | cosine_precision@3 | 0.2318 |
544
+ | cosine_precision@5 | 0.1483 |
545
+ | cosine_precision@10 | 0.0789 |
546
+ | cosine_recall@1 | 0.6046 |
547
+ | cosine_recall@3 | 0.6955 |
548
+ | cosine_recall@5 | 0.7413 |
549
+ | cosine_recall@10 | 0.7893 |
550
+ | **cosine_ndcg@10** | **0.6923** |
551
+ | cosine_mrr@10 | 0.6618 |
552
+ | cosine_map@100 | 0.6678 |
553
+
554
+ #### Information Retrieval
555
+
556
+ * Dataset: `dim_256`
557
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
558
+ ```json
559
+ {
560
+ "truncate_dim": 256
561
+ }
562
+ ```
563
+
564
+ | Metric | Value |
565
+ |:--------------------|:---------|
566
+ | cosine_accuracy@1 | 0.6037 |
567
+ | cosine_accuracy@3 | 0.6931 |
568
+ | cosine_accuracy@5 | 0.7345 |
569
+ | cosine_accuracy@10 | 0.7874 |
570
+ | cosine_precision@1 | 0.6037 |
571
+ | cosine_precision@3 | 0.231 |
572
+ | cosine_precision@5 | 0.1469 |
573
+ | cosine_precision@10 | 0.0787 |
574
+ | cosine_recall@1 | 0.6037 |
575
+ | cosine_recall@3 | 0.6931 |
576
+ | cosine_recall@5 | 0.7345 |
577
+ | cosine_recall@10 | 0.7874 |
578
+ | **cosine_ndcg@10** | **0.69** |
579
+ | cosine_mrr@10 | 0.6595 |
580
+ | cosine_map@100 | 0.6654 |
581
+
582
+ #### Information Retrieval
583
+
584
+ * Dataset: `dim_128`
585
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
586
+ ```json
587
+ {
588
+ "truncate_dim": 128
589
+ }
590
+ ```
591
+
592
+ | Metric | Value |
593
+ |:--------------------|:-----------|
594
+ | cosine_accuracy@1 | 0.5916 |
595
+ | cosine_accuracy@3 | 0.6764 |
596
+ | cosine_accuracy@5 | 0.7231 |
597
+ | cosine_accuracy@10 | 0.7738 |
598
+ | cosine_precision@1 | 0.5916 |
599
+ | cosine_precision@3 | 0.2255 |
600
+ | cosine_precision@5 | 0.1446 |
601
+ | cosine_precision@10 | 0.0774 |
602
+ | cosine_recall@1 | 0.5916 |
603
+ | cosine_recall@3 | 0.6764 |
604
+ | cosine_recall@5 | 0.7231 |
605
+ | cosine_recall@10 | 0.7738 |
606
+ | **cosine_ndcg@10** | **0.6769** |
607
+ | cosine_mrr@10 | 0.6465 |
608
+ | cosine_map@100 | 0.6528 |
609
+
610
+ #### Information Retrieval
611
+
612
+ * Dataset: `dim_64`
613
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
614
+ ```json
615
+ {
616
+ "truncate_dim": 64
617
+ }
618
+ ```
619
+
620
+ | Metric | Value |
621
+ |:--------------------|:-----------|
622
+ | cosine_accuracy@1 | 0.577 |
623
+ | cosine_accuracy@3 | 0.6593 |
624
+ | cosine_accuracy@5 | 0.6989 |
625
+ | cosine_accuracy@10 | 0.7556 |
626
+ | cosine_precision@1 | 0.577 |
627
+ | cosine_precision@3 | 0.2198 |
628
+ | cosine_precision@5 | 0.1398 |
629
+ | cosine_precision@10 | 0.0756 |
630
+ | cosine_recall@1 | 0.577 |
631
+ | cosine_recall@3 | 0.6593 |
632
+ | cosine_recall@5 | 0.6989 |
633
+ | cosine_recall@10 | 0.7556 |
634
+ | **cosine_ndcg@10** | **0.6605** |
635
+ | cosine_mrr@10 | 0.6308 |
636
+ | cosine_map@100 | 0.637 |
637
+
638
+ <!--
639
+ ## Bias, Risks and Limitations
640
+
641
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
642
+ -->
643
+
644
+ <!--
645
+ ### Recommendations
646
+
647
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
648
+ -->
649
+
650
+ ## Training Details
651
+
652
+ ### Training Dataset
653
+
654
+ #### json
655
+
656
+ * Dataset: json
657
+ * Size: 25,860 training samples
658
+ * Columns: <code>positive</code> and <code>anchor</code>
659
+ * Approximate statistics based on the first 1000 samples:
660
+ | | positive | anchor |
661
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
662
+ | type | string | string |
663
+ | details | <ul><li>min: 19 tokens</li><li>mean: 178.76 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 20.25 tokens</li><li>max: 59 tokens</li></ul> |
664
+ * Samples:
665
+ | positive | anchor |
666
+ |:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------|
667
+ | <code>Điều 475. Trách nhiệm của người sử dụng lao động trong việc giải quyết tranh chấp lao động khi sa thải người lao động. 1. Người sử dụng lao động có trách nhiệm giải quyết tranh chấp lao động khi sa thải người lao động theo quy định của pháp luật. 2. Người sử dụng lao động có nghĩa vụ bồi thường thiệt hại cho người lao động nếu sa thải trái pháp luật.</code> | <code>Người sử dụng lao động có trách nhiệm gì trong việc giải quyết tranh chấp lao động khi sa thải người lao động?</code> |
668
+ | <code>Điều 69 Nghị định 154/2005/NĐ-CP thủ tục hải quan, kiểm tra, giám sát hải quan hướng dẫn Luật Hải quan có nội dung như sau:<br><br>Điều 69. Xử lý kết quả kiểm tra<br>1. Kết quả kiểm tra được cập nhật vào hệ thống thông tin hải quan để phân tích, đánh giá việc chấp hành pháp luật của chủ hàng, mức độ rủi ro vi phạm pháp luật, làm căn cứ cho việc kiểm tra khi làm thủ tục hải quan, xác định doanh nghiệp có quá trình chấp hành tốt pháp luật hải quan và phục vụ cho hoạt động của cơ quan hải quan trong công tác chống buôn lậu.<br>2. Kết luận kiểm tra, giải trình của đơn vị được kiểm tra (nếu có), biên bản vi phạm pháp luật đối với đơn vị được kiểm tra là căn cứ để cơ quan hải quan quyết định việc truy thu thuế, hoàn thuế, xử lý vi phạm pháp luật về thuế theo quy định của pháp luật.<br>3. Việc truy thu thuế, hoàn thuế, xử lý vi phạm pháp luật về thuế thực hiện theo quy định của pháp luật về thuế và pháp luật có liên quan.</code> | <code>Điều 69 Nghị định 154/2005/NĐ-CP thủ tục hải quan, kiểm tra, giám sát hải quan hướng dẫn Luật Hải quan</code> |
669
+ | <code>Điều 4 Quyết định 15/2008/QĐ-UBND thành lập Phòng Quản lý đô thị quận Tân Bình có nội dung như sau:<br><br>Điều 4. Quyết định này có hiệu lực thi hành sau 7 ngày, kể từ ngày ký và thay thế các quyết định trước đây trái với Quyết định này.</code> | <code>Điều 4 Quyết định 15/2008/QĐ-UBND thành lập Phòng Quản lý đô thị quận Tân Bình</code> |
670
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
671
+ ```json
672
+ {
673
+ "loss": "MultipleNegativesRankingLoss",
674
+ "matryoshka_dims": [
675
+ 768,
676
+ 512,
677
+ 256,
678
+ 128,
679
+ 64
680
+ ],
681
+ "matryoshka_weights": [
682
+ 1,
683
+ 1,
684
+ 1,
685
+ 1,
686
+ 1
687
+ ],
688
+ "n_dims_per_step": -1
689
+ }
690
+ ```
691
+
692
+ ### Evaluation Dataset
693
+
694
+ #### json
695
+
696
+ * Dataset: json
697
+ * Size: 3,233 evaluation samples
698
+ * Columns: <code>positive</code> and <code>anchor</code>
699
+ * Approximate statistics based on the first 1000 samples:
700
+ | | positive | anchor |
701
+ |:--------|:------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
702
+ | type | string | string |
703
+ | details | <ul><li>min: 26 tokens</li><li>mean: 179.0 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 20.02 tokens</li><li>max: 45 tokens</li></ul> |
704
+ * Samples:
705
+ | positive | anchor |
706
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------|
707
+ | <code>Điều 1 Quyết định 1791/QĐ-BKHCN 2021 tiếp nhận xử lý văn bản điện tử trên Hệ thống quản lý văn bản có nội dung như sau:<br><br>Điều 1. Ban hành kèm theo Quyết định này Quy chế tiếp nhận, xử lý, phát hành và quản lý văn bản điện tử trên Hệ thống quản lý văn bản và điều hành của Bộ Khoa học và Công nghệ.</code> | <code>Điều 1 Quyết định 1791/QĐ-BKHCN 2021 tiếp nhận xử lý văn bản điện tử trên Hệ thống quản lý văn bản</code> |
708
+ | <code>Tôi xin hỏi, việc hủy thầu trong trường hợp hồ sơ dự thầu của các nhà thầu tham gia dự thầu không đáp ứng hồ sơ mời thầu thì có phải thẩm định kết quả lựa chọn nhà thầu không?Bộ Kế hoạch và Đầu tư trả lời vấn đề này như sau:Khoản 5 và Khoản 2, Điều 20 Nghị định số63/2014/NĐ-CPcủa Chính phủ quy định kết quả lựa chọn nhà thầu phải được thẩm định theo quy định tại Khoản 1 và Khoản 4, Điều 106 của Nghị định này trước khi phê duyệt.Trường hợp hủy thầu theo quy định tại Khoản 1, Điều 17 củaLuật Đấu thầu, trong văn bản phê duyệt kết quả lựa chọn nhà thầu hoặc văn bản quyết định hủy thầu phải nêu rõ lý do hủy thầu và trách nhiệm của các bên liên quan khi hủy thầu.Đối với vấn đề của ông Tường, việc hủy thầu được thực hiện theo quy định nêu trên.</code> | <code>Hủy thầu thực hiện thế nào?</code> |
709
+ | <code>Tôi xin hỏi, theo phương án thi năm nay thì thí sinh có thể đăng ký nhiều ngành trong cùng một trường được không?Bộ Giáo dục và Đào tạo trả lời vấn đề này như sau:Theo quy định của Quy chế tuyển sinh đại học hệ chính quy: Thí sinh có thể đăng ký không hạn chế nguyện vọng và phải sắp xếp nguyện vọng theo thứ tự ưu tiên từ cao xuống thấp. Mỗi nguyện vọng thí sinh phải đăng ký mã trường, mã ngành, mã tổ hợp để xét tuyển. Như vậy, thí sinh có thể đăng ký nhiều ngành trong một trường.</code> | <code>Thí sinh được đăng ký nhiều ngành trong một trường</code> |
710
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
711
+ ```json
712
+ {
713
+ "loss": "MultipleNegativesRankingLoss",
714
+ "matryoshka_dims": [
715
+ 768,
716
+ 512,
717
+ 256,
718
+ 128,
719
+ 64
720
+ ],
721
+ "matryoshka_weights": [
722
+ 1,
723
+ 1,
724
+ 1,
725
+ 1,
726
+ 1
727
+ ],
728
+ "n_dims_per_step": -1
729
+ }
730
+ ```
731
+
732
+ ### Training Hyperparameters
733
+ #### Non-Default Hyperparameters
734
+
735
+ - `eval_strategy`: epoch
736
+ - `per_device_train_batch_size`: 64
737
+ - `per_device_eval_batch_size`: 64
738
+ - `gradient_accumulation_steps`: 12
739
+ - `learning_rate`: 3e-05
740
+ - `weight_decay`: 0.2
741
+ - `max_grad_norm`: 0.65
742
+ - `num_train_epochs`: 5
743
+ - `lr_scheduler_type`: cosine
744
+ - `warmup_ratio`: 0.15
745
+ - `fp16`: True
746
+ - `load_best_model_at_end`: True
747
+ - `group_by_length`: True
748
+ - `batch_sampler`: no_duplicates
749
+
750
+ #### All Hyperparameters
751
+ <details><summary>Click to expand</summary>
752
+
753
+ - `overwrite_output_dir`: False
754
+ - `do_predict`: False
755
+ - `eval_strategy`: epoch
756
+ - `prediction_loss_only`: True
757
+ - `per_device_train_batch_size`: 64
758
+ - `per_device_eval_batch_size`: 64
759
+ - `per_gpu_train_batch_size`: None
760
+ - `per_gpu_eval_batch_size`: None
761
+ - `gradient_accumulation_steps`: 12
762
+ - `eval_accumulation_steps`: None
763
+ - `torch_empty_cache_steps`: None
764
+ - `learning_rate`: 3e-05
765
+ - `weight_decay`: 0.2
766
+ - `adam_beta1`: 0.9
767
+ - `adam_beta2`: 0.999
768
+ - `adam_epsilon`: 1e-08
769
+ - `max_grad_norm`: 0.65
770
+ - `num_train_epochs`: 5
771
+ - `max_steps`: -1
772
+ - `lr_scheduler_type`: cosine
773
+ - `lr_scheduler_kwargs`: {}
774
+ - `warmup_ratio`: 0.15
775
+ - `warmup_steps`: 0
776
+ - `log_level`: passive
777
+ - `log_level_replica`: warning
778
+ - `log_on_each_node`: True
779
+ - `logging_nan_inf_filter`: True
780
+ - `save_safetensors`: True
781
+ - `save_on_each_node`: False
782
+ - `save_only_model`: False
783
+ - `restore_callback_states_from_checkpoint`: False
784
+ - `no_cuda`: False
785
+ - `use_cpu`: False
786
+ - `use_mps_device`: False
787
+ - `seed`: 42
788
+ - `data_seed`: None
789
+ - `jit_mode_eval`: False
790
+ - `bf16`: False
791
+ - `fp16`: True
792
+ - `fp16_opt_level`: O1
793
+ - `half_precision_backend`: auto
794
+ - `bf16_full_eval`: False
795
+ - `fp16_full_eval`: False
796
+ - `tf32`: None
797
+ - `local_rank`: 0
798
+ - `ddp_backend`: None
799
+ - `tpu_num_cores`: None
800
+ - `tpu_metrics_debug`: False
801
+ - `debug`: []
802
+ - `dataloader_drop_last`: False
803
+ - `dataloader_num_workers`: 0
804
+ - `dataloader_prefetch_factor`: None
805
+ - `past_index`: -1
806
+ - `disable_tqdm`: False
807
+ - `remove_unused_columns`: True
808
+ - `label_names`: None
809
+ - `load_best_model_at_end`: True
810
+ - `ignore_data_skip`: False
811
+ - `fsdp`: []
812
+ - `fsdp_min_num_params`: 0
813
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
814
+ - `fsdp_transformer_layer_cls_to_wrap`: None
815
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
816
+ - `parallelism_config`: None
817
+ - `deepspeed`: None
818
+ - `label_smoothing_factor`: 0.0
819
+ - `optim`: adamw_torch_fused
820
+ - `optim_args`: None
821
+ - `adafactor`: False
822
+ - `group_by_length`: True
823
+ - `length_column_name`: length
824
+ - `project`: huggingface
825
+ - `trackio_space_id`: trackio
826
+ - `ddp_find_unused_parameters`: None
827
+ - `ddp_bucket_cap_mb`: None
828
+ - `ddp_broadcast_buffers`: False
829
+ - `dataloader_pin_memory`: True
830
+ - `dataloader_persistent_workers`: False
831
+ - `skip_memory_metrics`: True
832
+ - `use_legacy_prediction_loop`: False
833
+ - `push_to_hub`: False
834
+ - `resume_from_checkpoint`: None
835
+ - `hub_model_id`: None
836
+ - `hub_strategy`: every_save
837
+ - `hub_private_repo`: None
838
+ - `hub_always_push`: False
839
+ - `hub_revision`: None
840
+ - `gradient_checkpointing`: False
841
+ - `gradient_checkpointing_kwargs`: None
842
+ - `include_inputs_for_metrics`: False
843
+ - `include_for_metrics`: []
844
+ - `eval_do_concat_batches`: True
845
+ - `fp16_backend`: auto
846
+ - `push_to_hub_model_id`: None
847
+ - `push_to_hub_organization`: None
848
+ - `mp_parameters`:
849
+ - `auto_find_batch_size`: False
850
+ - `full_determinism`: False
851
+ - `torchdynamo`: None
852
+ - `ray_scope`: last
853
+ - `ddp_timeout`: 1800
854
+ - `torch_compile`: False
855
+ - `torch_compile_backend`: None
856
+ - `torch_compile_mode`: None
857
+ - `include_tokens_per_second`: False
858
+ - `include_num_input_tokens_seen`: no
859
+ - `neftune_noise_alpha`: None
860
+ - `optim_target_modules`: None
861
+ - `batch_eval_metrics`: False
862
+ - `eval_on_start`: False
863
+ - `use_liger_kernel`: False
864
+ - `liger_kernel_config`: None
865
+ - `eval_use_gather_object`: False
866
+ - `average_tokens_across_devices`: True
867
+ - `prompts`: None
868
+ - `batch_sampler`: no_duplicates
869
+ - `multi_dataset_batch_sampler`: proportional
870
+ - `router_mapping`: {}
871
+ - `learning_rate_mapping`: {}
872
+
873
+ </details>
874
+
875
+ ### Training Logs
876
+ | Epoch | Step | Training Loss | Validation Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
877
+ |:-------:|:-------:|:-------------:|:---------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
878
+ | 1.0 | 34 | 1.6861 | 0.6655 | 0.6172 | 0.6148 | 0.6059 | 0.5862 | 0.5547 |
879
+ | 2.0 | 68 | 0.5426 | 0.4693 | 0.6877 | 0.6889 | 0.6830 | 0.6684 | 0.6508 |
880
+ | 3.0 | 102 | 0.3528 | 0.4305 | 0.6939 | 0.6919 | 0.6855 | 0.6752 | 0.6595 |
881
+ | 4.0 | 136 | 0.268 | 0.4048 | 0.6953 | 0.6921 | 0.6898 | 0.6767 | 0.6607 |
882
+ | **5.0** | **170** | **0.2341** | **0.4039** | **0.6953** | **0.6923** | **0.69** | **0.6769** | **0.6605** |
883
+
884
+ * The bold row denotes the saved checkpoint.
885
+
886
+ ### Framework Versions
887
+ - Python: 3.12.12
888
+ - Sentence Transformers: 5.1.2
889
+ - Transformers: 4.57.3
890
+ - PyTorch: 2.9.0+cu126
891
+ - Accelerate: 1.12.0
892
+ - Datasets: 4.0.0
893
+ - Tokenizers: 0.22.1
894
+
895
+ ## Citation
896
+
897
+ ### BibTeX
898
+
899
+ #### Sentence Transformers
900
+ ```bibtex
901
+ @inproceedings{reimers-2019-sentence-bert,
902
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
903
+ author = "Reimers, Nils and Gurevych, Iryna",
904
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
905
+ month = "11",
906
+ year = "2019",
907
+ publisher = "Association for Computational Linguistics",
908
+ url = "https://arxiv.org/abs/1908.10084",
909
+ }
910
+ ```
911
+
912
+ #### MatryoshkaLoss
913
+ ```bibtex
914
+ @misc{kusupati2024matryoshka,
915
+ title={Matryoshka Representation Learning},
916
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
917
+ year={2024},
918
+ eprint={2205.13147},
919
+ archivePrefix={arXiv},
920
+ primaryClass={cs.LG}
921
+ }
922
+ ```
923
+
924
+ #### MultipleNegativesRankingLoss
925
+ ```bibtex
926
+ @misc{henderson2017efficient,
927
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
928
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
929
+ year={2017},
930
+ eprint={1705.00652},
931
+ archivePrefix={arXiv},
932
+ primaryClass={cs.CL}
933
+ }
934
+ ```
935
+
936
+ <!--
937
+ ## Glossary
938
+
939
+ *Clearly define terms in order to be accessible across audiences.*
940
+ -->
941
+
942
+ <!--
943
+ ## Model Card Authors
944
+
945
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
946
+ -->
947
+
948
+ <!--
949
+ ## Model Card Contact
950
+
951
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
952
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
checkpoint-170/1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
checkpoint-170/README.md ADDED
@@ -0,0 +1,951 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - vi
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - dense
10
+ - generated_from_trainer
11
+ - dataset_size:25860
12
+ - loss:MatryoshkaLoss
13
+ - loss:MultipleNegativesRankingLoss
14
+ base_model: bkai-foundation-models/vietnamese-bi-encoder
15
+ widget:
16
+ - source_sentence: Công ty tôi phê duyệt tổng mức đầu tư dự án ngày 26/10/2015 khi
17
+ Thông tư số09/2016/TT-BTCchưa ban hành nên chi phí kiểm toán và thẩm tra, phê
18
+ duyệt quyết toán vẫn áp dụng hệ số theo Thông tư số19/2011/TT-BTC. Công ty tôi
19
+ còn gói thầu kiểm toán và thẩm tra, phê duyệt quyết toán chưa thực hiện. Công
20
+ ty tôi thực hiện tiếp 2 gói thầu này thì phải áp dụng hệ số cho chi phí kiểm toán
21
+ và thẩm tra, phê duyệt quyết toán theo Thông tư số 09/2016/TT-BTC, như vậy tổng
22
+ mức đầu tư thay đổi. Dự án của công ty vẫn còn chi phí dự phòng, xin hỏi, công
23
+ ty tôi có được sử dụng chi phí dự phòng này không hay phải làm thủ tục điều chỉnh
24
+ tổng mức đầu tư? Nếu phải điều chỉnh tổng mức đầu tư thì công ty tôi phải làm
25
+ thủ tục như thế nào?Bộ Xây dựng trả lời vấn đề này như sau:Khi quyết toán dự án,
26
+ việc sử dụng chi phí dự phòng để bổ sung cho chi phí kiểm toán và chi phí thẩm
27
+ tra, phê duyệt quyết toán do Nhà nước thay đổi Thông tư số19/2011/TT-BTCbằng Thông
28
+ tư số09/2016/TT-BTCngày 18/1/2016 quy định về quyết toán dự án hoàn thành thuộc
29
+ nguồn vốn Nhà nước là phù hợp.
30
+ sentences:
31
+ - Điều 2 Quyết định 3138/QĐ-BKHCN 2019 đính chính Thông tư đo lường đối với phương
32
+ tiện đo nhóm 2
33
+ - Trường hợp nào được sử dụng chi phí dự phòng?
34
+ - Nếu không ký kết hợp đồng lao động mới, hợp đồng đã giao kết trở thành hợp đồng
35
+ lao động gì?
36
+ - source_sentence: 'Điều 1 Thông tư 172/2009/TT-BTC sửa đổi 81/2006/TT-BTC kiểm soát
37
+ chi đơn vị sự nghiệp công lập có nội dung như sau:
38
+
39
+
40
+ Điều 1. Sửa đổi gạch đầu dòng thứ 2 và thứ 3 tiết 2.5.2, điểm 2.5, khoản 2 mục
41
+ II Thông tư số 81/2006/TT-BTC như sau:
42
+
43
+ - Trong năm, căn cứ vào mức chênh lệch thu lớn hơn chi hàng quý xác định được;
44
+ đơn vị lập giấy rút dự toán ngân sách nhà nước (thanh toán) để chi trả thu nhập
45
+ tăng thêm cho cán bộ, công chức trong đơn vị theo quý gửi Kho bạc Nhà nước. Kho
46
+ bạc Nhà nước thanh toán theo mức thủ trưởng đơn vị đề nghị đảm bảo trong phạm
47
+ vi dự toán được giao nhưng tối đa không quá 60% số chênh lệch thu lớn hơn chi
48
+ đơn vị xác định được theo quý và thực hiện hạch toán thực chi mục 6400 (tiểu mục
49
+ 6404 chi chênh lệch thu nhập thực tế so với lương ngạch bậc, chức vụ).
50
+
51
+ - Kết thúc năm ngân sách, trước ngày 31/01 năm sau, đơn vị sự nghiệp thực hiện
52
+ chế độ tự chủ, tự chịu trách nhiệm về tài chính tự xác định số chênh lệch thu
53
+ lớn hơn chi và kinh phí chi thu nhập tăng thêm của năm trước theo quy chế chi
54
+ tiêu nội bộ của đơn vị gửi Kho bạc Nhà nước nơi giao dịch đề nghị thanh toán tiếp
55
+ thu nhập tăng thêm cho người lao động. Trên cơ sở văn bản đề nghị của đơn vị,
56
+ Kho bạc Nhà nước làm thủ tục thanh toán phần chi thu nhập tăng thêm cho đơn vị
57
+ đảm bảo không vượt quá mức thu nhập tăng thêm đối với từng loại đơn vị sự nghiệp
58
+ quy định tại Nghị định số 43/2006/NĐ-CP ngày 25/4/2006 của Chính phủ và Thông
59
+ tư số 71/2006/TT-BTC ngày 09/08/2006 của Bộ Tài chính hướng dẫn thực hiện Nghị
60
+ định số 43/2006/NĐ-CP ngày 25/04/2006 của Chính phủ.
61
+
62
+ Sau khi quyết toán của đơn vị được cấp có thẩm quyền phê duyệt:
63
+
64
+ - Trường hợp số chênh lệch thu lớn hơn chi dành để chi trả thu nhập tăng thêm
65
+ cho người lao động cao hơn số đơn vị tự xác định, căn cứ vào quy chế chi tiêu
66
+ nội bộ và đề nghị của đơn vị, Kho bạc Nhà nước thanh toán tiếp phần chi trả thu
67
+ nhập tăng thêm cho người lao động của đơn vị và thực hiện hạch toán vào niên độ
68
+ ngân sách năm sau.
69
+
70
+ - Trường hợp số chênh lệch thu lớn hơn chi dành để chi trả thu nhập tăng thêm
71
+ cho người lao động thấp hơn số đơn vị tự xác định thì số đã chi trả thu nhập tăng
72
+ thêm vượt so với số quyết toán được cơ quan có thẩm quyền duyệt, đơn vị phải sử
73
+ dụng Quỹ dự phòng ổn định thu nhập (nếu có) để bù đắp, trường hợp sau khi dùng
74
+ quỹ dự phòng ổn định thu nhập để bù đắp vẫn còn thiết hụt thì trừ vào chênh lệch
75
+ thu lớn hơn chi phần dành để chi trả thu nhập tăng thêm của năm sau, trường hợp
76
+ năm sau không có chênh lệch thu lớn hơn chi thì trừ vào quỹ tiền lương của đơn
77
+ vị.'
78
+ sentences:
79
+ - Bố trí người phụ trách kế toán tối đa là 12 tháng
80
+ - Quy định về ngày cấp giấy chứng nhận nghỉ việc hưởng BHXH
81
+ - Điều 1 Thông tư 172/2009/TT-BTC sửa đổi 81/2006/TT-BTC kiểm soát chi đơn vị sự
82
+ nghiệp công lập
83
+ - source_sentence: Người lao động làm việc trong điều kiện bình thường, cứ 12 tháng
84
+ làm việc thì được nghỉ phép 12 ngày làm việc hưởng nguyên lương. Người làm công
85
+ việc nặng nhọc, độc hại, nguy hiểm hoặc làm việc ở nơi có điều kiện sinh hoạt
86
+ đặc biệt khó khăn thì được nghỉ phép 14 ngày làm việc hưởng nguyên lương. Người
87
+ làm công việc đặc biệt nặng nhọc, độc hại, nguy hiểm thì được nghỉ phép 16 ngày
88
+ làm việc hưởng nguyên lương.
89
+ sentences:
90
+ - Người lao động làm việc trong điều kiện bình thường được nghỉ phép bao nhiêu ngày
91
+ làm việc hưởng nguyên lương?
92
+ - Vi phạm quy định về bầu cử có thể bị phạt tù
93
+ - Điều 24 Nghị định 30/2015/NĐ-CP hướng dẫn Luật Đấu thầu về lựa chọn nhà đầu tư
94
+ - source_sentence: 'Điều 3 Quyết định 1970/QĐ-BCT 2023 nhiệm vụ Chương trình phát
95
+ triển thương mại miền núi vùng sâu 2024 có nội dung như sau:
96
+
97
+
98
+ Điều 3. Giao Vụ Thị trường trong nước chủ trì, phối hợp với các cơ quan liên quan
99
+ triển khai thực hiện nhiệm vụ năm 2024 của Bộ Công Thương thuộc Chương trình phát
100
+ triển thương mại miền núi, vùng sâu, vùng xa và hải đảo giai đoạn 2021 -2025.'
101
+ sentences:
102
+ - Người lao động làm việc từ đủ bao nhiêu năm trở lên cho một người sử dụng lao
103
+ động thì được nghỉ thêm 1 ngày phép hưởng nguyên lương?
104
+ - Điều 3 Quyết định 1970/QĐ-BCT 2023 nhiệm vụ Chương trình phát triển thương mại
105
+ miền núi vùng sâu 2024
106
+ - Báo cáo nào cần được thẩm định an ninh mạng?
107
+ - source_sentence: 'Điều 3 Quyết định 22/2010/QĐ-UBND quản lý sử dụng Hệ thống giao
108
+ ban điện tử Lào Cai có nội dung như sau:
109
+
110
+
111
+ Điều 3. Chánh Văn phòng UBND tỉnh; Giám đốc Sở Thông tin và Truyền thông; Thủ
112
+ trưởng các sở, ban, ngành, đơn vị; Chủ tịch UBND các huyện, thành phố; Giám đốc
113
+ Doanh nghiệp cung cấp dịch vụ viễn thông và các tổ chức, cá nhân có liên quan
114
+ chịu trách nhiệm thi hành Quyết định này'
115
+ sentences:
116
+ - Điều 3 Quyết định 22/2010/QĐ-UBND quản lý sử dụng Hệ thống giao ban điện tử Lào
117
+ Cai
118
+ - Đối tượng nào được hưởng chế độ công tác phí theo tháng?
119
+ - Điều 1 Nghị định 65/2007/NĐ-CP điều chỉnh địa giới hành chính thị xã Cam Ranh
120
+ Trường Sa Cam Nghĩa huyện Diên Khánh lập huyện xã tỉnh khánh Hòa mới nhất
121
+ pipeline_tag: sentence-similarity
122
+ library_name: sentence-transformers
123
+ metrics:
124
+ - cosine_accuracy@1
125
+ - cosine_accuracy@3
126
+ - cosine_accuracy@5
127
+ - cosine_accuracy@10
128
+ - cosine_precision@1
129
+ - cosine_precision@3
130
+ - cosine_precision@5
131
+ - cosine_precision@10
132
+ - cosine_recall@1
133
+ - cosine_recall@3
134
+ - cosine_recall@5
135
+ - cosine_recall@10
136
+ - cosine_ndcg@10
137
+ - cosine_mrr@10
138
+ - cosine_map@100
139
+ model-index:
140
+ - name: bkai-fine-tuned-legal
141
+ results:
142
+ - task:
143
+ type: information-retrieval
144
+ name: Information Retrieval
145
+ dataset:
146
+ name: dim 768
147
+ type: dim_768
148
+ metrics:
149
+ - type: cosine_accuracy@1
150
+ value: 0.6073638613861386
151
+ name: Cosine Accuracy@1
152
+ - type: cosine_accuracy@3
153
+ value: 0.7004950495049505
154
+ name: Cosine Accuracy@3
155
+ - type: cosine_accuracy@5
156
+ value: 0.7419554455445545
157
+ name: Cosine Accuracy@5
158
+ - type: cosine_accuracy@10
159
+ value: 0.7920792079207921
160
+ name: Cosine Accuracy@10
161
+ - type: cosine_precision@1
162
+ value: 0.6073638613861386
163
+ name: Cosine Precision@1
164
+ - type: cosine_precision@3
165
+ value: 0.2334983498349835
166
+ name: Cosine Precision@3
167
+ - type: cosine_precision@5
168
+ value: 0.1483910891089109
169
+ name: Cosine Precision@5
170
+ - type: cosine_precision@10
171
+ value: 0.0792079207920792
172
+ name: Cosine Precision@10
173
+ - type: cosine_recall@1
174
+ value: 0.6073638613861386
175
+ name: Cosine Recall@1
176
+ - type: cosine_recall@3
177
+ value: 0.7004950495049505
178
+ name: Cosine Recall@3
179
+ - type: cosine_recall@5
180
+ value: 0.7419554455445545
181
+ name: Cosine Recall@5
182
+ - type: cosine_recall@10
183
+ value: 0.7920792079207921
184
+ name: Cosine Recall@10
185
+ - type: cosine_ndcg@10
186
+ value: 0.6953201867128341
187
+ name: Cosine Ndcg@10
188
+ - type: cosine_mrr@10
189
+ value: 0.6648522218293257
190
+ name: Cosine Mrr@10
191
+ - type: cosine_map@100
192
+ value: 0.6707577379319669
193
+ name: Cosine Map@100
194
+ - task:
195
+ type: information-retrieval
196
+ name: Information Retrieval
197
+ dataset:
198
+ name: dim 512
199
+ type: dim_512
200
+ metrics:
201
+ - type: cosine_accuracy@1
202
+ value: 0.6045792079207921
203
+ name: Cosine Accuracy@1
204
+ - type: cosine_accuracy@3
205
+ value: 0.6955445544554455
206
+ name: Cosine Accuracy@3
207
+ - type: cosine_accuracy@5
208
+ value: 0.7413366336633663
209
+ name: Cosine Accuracy@5
210
+ - type: cosine_accuracy@10
211
+ value: 0.7892945544554455
212
+ name: Cosine Accuracy@10
213
+ - type: cosine_precision@1
214
+ value: 0.6045792079207921
215
+ name: Cosine Precision@1
216
+ - type: cosine_precision@3
217
+ value: 0.23184818481848182
218
+ name: Cosine Precision@3
219
+ - type: cosine_precision@5
220
+ value: 0.14826732673267323
221
+ name: Cosine Precision@5
222
+ - type: cosine_precision@10
223
+ value: 0.07892945544554454
224
+ name: Cosine Precision@10
225
+ - type: cosine_recall@1
226
+ value: 0.6045792079207921
227
+ name: Cosine Recall@1
228
+ - type: cosine_recall@3
229
+ value: 0.6955445544554455
230
+ name: Cosine Recall@3
231
+ - type: cosine_recall@5
232
+ value: 0.7413366336633663
233
+ name: Cosine Recall@5
234
+ - type: cosine_recall@10
235
+ value: 0.7892945544554455
236
+ name: Cosine Recall@10
237
+ - type: cosine_ndcg@10
238
+ value: 0.6923022700361329
239
+ name: Cosine Ndcg@10
240
+ - type: cosine_mrr@10
241
+ value: 0.6617676164937917
242
+ name: Cosine Mrr@10
243
+ - type: cosine_map@100
244
+ value: 0.6678128035277444
245
+ name: Cosine Map@100
246
+ - task:
247
+ type: information-retrieval
248
+ name: Information Retrieval
249
+ dataset:
250
+ name: dim 256
251
+ type: dim_256
252
+ metrics:
253
+ - type: cosine_accuracy@1
254
+ value: 0.6036509900990099
255
+ name: Cosine Accuracy@1
256
+ - type: cosine_accuracy@3
257
+ value: 0.693069306930693
258
+ name: Cosine Accuracy@3
259
+ - type: cosine_accuracy@5
260
+ value: 0.7345297029702971
261
+ name: Cosine Accuracy@5
262
+ - type: cosine_accuracy@10
263
+ value: 0.7874381188118812
264
+ name: Cosine Accuracy@10
265
+ - type: cosine_precision@1
266
+ value: 0.6036509900990099
267
+ name: Cosine Precision@1
268
+ - type: cosine_precision@3
269
+ value: 0.23102310231023104
270
+ name: Cosine Precision@3
271
+ - type: cosine_precision@5
272
+ value: 0.1469059405940594
273
+ name: Cosine Precision@5
274
+ - type: cosine_precision@10
275
+ value: 0.0787438118811881
276
+ name: Cosine Precision@10
277
+ - type: cosine_recall@1
278
+ value: 0.6036509900990099
279
+ name: Cosine Recall@1
280
+ - type: cosine_recall@3
281
+ value: 0.693069306930693
282
+ name: Cosine Recall@3
283
+ - type: cosine_recall@5
284
+ value: 0.7345297029702971
285
+ name: Cosine Recall@5
286
+ - type: cosine_recall@10
287
+ value: 0.7874381188118812
288
+ name: Cosine Recall@10
289
+ - type: cosine_ndcg@10
290
+ value: 0.6899985182895687
291
+ name: Cosine Ndcg@10
292
+ - type: cosine_mrr@10
293
+ value: 0.6594872210435324
294
+ name: Cosine Mrr@10
295
+ - type: cosine_map@100
296
+ value: 0.6654213269021221
297
+ name: Cosine Map@100
298
+ - task:
299
+ type: information-retrieval
300
+ name: Information Retrieval
301
+ dataset:
302
+ name: dim 128
303
+ type: dim_128
304
+ metrics:
305
+ - type: cosine_accuracy@1
306
+ value: 0.5915841584158416
307
+ name: Cosine Accuracy@1
308
+ - type: cosine_accuracy@3
309
+ value: 0.6763613861386139
310
+ name: Cosine Accuracy@3
311
+ - type: cosine_accuracy@5
312
+ value: 0.7230816831683168
313
+ name: Cosine Accuracy@5
314
+ - type: cosine_accuracy@10
315
+ value: 0.7738242574257426
316
+ name: Cosine Accuracy@10
317
+ - type: cosine_precision@1
318
+ value: 0.5915841584158416
319
+ name: Cosine Precision@1
320
+ - type: cosine_precision@3
321
+ value: 0.22545379537953794
322
+ name: Cosine Precision@3
323
+ - type: cosine_precision@5
324
+ value: 0.14461633663366336
325
+ name: Cosine Precision@5
326
+ - type: cosine_precision@10
327
+ value: 0.07738242574257424
328
+ name: Cosine Precision@10
329
+ - type: cosine_recall@1
330
+ value: 0.5915841584158416
331
+ name: Cosine Recall@1
332
+ - type: cosine_recall@3
333
+ value: 0.6763613861386139
334
+ name: Cosine Recall@3
335
+ - type: cosine_recall@5
336
+ value: 0.7230816831683168
337
+ name: Cosine Recall@5
338
+ - type: cosine_recall@10
339
+ value: 0.7738242574257426
340
+ name: Cosine Recall@10
341
+ - type: cosine_ndcg@10
342
+ value: 0.6768923401788021
343
+ name: Cosine Ndcg@10
344
+ - type: cosine_mrr@10
345
+ value: 0.6465193059484518
346
+ name: Cosine Mrr@10
347
+ - type: cosine_map@100
348
+ value: 0.6528103079926022
349
+ name: Cosine Map@100
350
+ - task:
351
+ type: information-retrieval
352
+ name: Information Retrieval
353
+ dataset:
354
+ name: dim 64
355
+ type: dim_64
356
+ metrics:
357
+ - type: cosine_accuracy@1
358
+ value: 0.5770420792079208
359
+ name: Cosine Accuracy@1
360
+ - type: cosine_accuracy@3
361
+ value: 0.6593440594059405
362
+ name: Cosine Accuracy@3
363
+ - type: cosine_accuracy@5
364
+ value: 0.6989480198019802
365
+ name: Cosine Accuracy@5
366
+ - type: cosine_accuracy@10
367
+ value: 0.755569306930693
368
+ name: Cosine Accuracy@10
369
+ - type: cosine_precision@1
370
+ value: 0.5770420792079208
371
+ name: Cosine Precision@1
372
+ - type: cosine_precision@3
373
+ value: 0.2197813531353135
374
+ name: Cosine Precision@3
375
+ - type: cosine_precision@5
376
+ value: 0.13978960396039602
377
+ name: Cosine Precision@5
378
+ - type: cosine_precision@10
379
+ value: 0.0755569306930693
380
+ name: Cosine Precision@10
381
+ - type: cosine_recall@1
382
+ value: 0.5770420792079208
383
+ name: Cosine Recall@1
384
+ - type: cosine_recall@3
385
+ value: 0.6593440594059405
386
+ name: Cosine Recall@3
387
+ - type: cosine_recall@5
388
+ value: 0.6989480198019802
389
+ name: Cosine Recall@5
390
+ - type: cosine_recall@10
391
+ value: 0.755569306930693
392
+ name: Cosine Recall@10
393
+ - type: cosine_ndcg@10
394
+ value: 0.6604592325341517
395
+ name: Cosine Ndcg@10
396
+ - type: cosine_mrr@10
397
+ value: 0.6308034486484356
398
+ name: Cosine Mrr@10
399
+ - type: cosine_map@100
400
+ value: 0.6369596779835216
401
+ name: Cosine Map@100
402
+ ---
403
+
404
+ # bkai-fine-tuned-legal
405
+
406
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
407
+
408
+ ## Model Details
409
+
410
+ ### Model Description
411
+ - **Model Type:** Sentence Transformer
412
+ - **Base model:** [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) <!-- at revision 84f9d9ada0d1a3c37557398b9ae9fcedcdf40be0 -->
413
+ - **Maximum Sequence Length:** 256 tokens
414
+ - **Output Dimensionality:** 768 dimensions
415
+ - **Similarity Function:** Cosine Similarity
416
+ - **Training Dataset:**
417
+ - json
418
+ - **Language:** vi
419
+ - **License:** apache-2.0
420
+
421
+ ### Model Sources
422
+
423
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
424
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
425
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
426
+
427
+ ### Full Model Architecture
428
+
429
+ ```
430
+ SentenceTransformer(
431
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False, 'architecture': 'RobertaModel'})
432
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
433
+ )
434
+ ```
435
+
436
+ ## Usage
437
+
438
+ ### Direct Usage (Sentence Transformers)
439
+
440
+ First install the Sentence Transformers library:
441
+
442
+ ```bash
443
+ pip install -U sentence-transformers
444
+ ```
445
+
446
+ Then you can load this model and run inference.
447
+ ```python
448
+ from sentence_transformers import SentenceTransformer
449
+
450
+ # Download from the 🤗 Hub
451
+ model = SentenceTransformer("sentence_transformers_model_id")
452
+ # Run inference
453
+ sentences = [
454
+ 'Điều 3 Quyết định 22/2010/QĐ-UBND quản lý sử dụng Hệ thống giao ban điện tử Lào Cai có nội dung như sau:\n\nĐiều 3. Chánh Văn phòng UBND tỉnh; Giám đốc Sở Thông tin và Truyền thông; Thủ trưởng các sở, ban, ngành, đơn vị; Chủ tịch UBND các huyện, thành phố; Giám đốc Doanh nghiệp cung cấp dịch vụ viễn thông và các tổ chức, cá nhân có liên quan chịu trách nhiệm thi hành Quyết định này',
455
+ 'Điều 3 Quyết định 22/2010/QĐ-UBND quản lý sử dụng Hệ thống giao ban điện tử Lào Cai',
456
+ 'Điều 1 Nghị định 65/2007/NĐ-CP điều chỉnh địa giới hành chính thị xã Cam Ranh Trường Sa Cam Nghĩa huyện Diên Khánh lập huyện xã tỉnh khánh Hòa mới nhất',
457
+ ]
458
+ embeddings = model.encode(sentences)
459
+ print(embeddings.shape)
460
+ # [3, 768]
461
+
462
+ # Get the similarity scores for the embeddings
463
+ similarities = model.similarity(embeddings, embeddings)
464
+ print(similarities)
465
+ # tensor([[1.0000, 0.9331, 0.1638],
466
+ # [0.9331, 1.0000, 0.1802],
467
+ # [0.1638, 0.1802, 1.0000]])
468
+ ```
469
+
470
+ <!--
471
+ ### Direct Usage (Transformers)
472
+
473
+ <details><summary>Click to see the direct usage in Transformers</summary>
474
+
475
+ </details>
476
+ -->
477
+
478
+ <!--
479
+ ### Downstream Usage (Sentence Transformers)
480
+
481
+ You can finetune this model on your own dataset.
482
+
483
+ <details><summary>Click to expand</summary>
484
+
485
+ </details>
486
+ -->
487
+
488
+ <!--
489
+ ### Out-of-Scope Use
490
+
491
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
492
+ -->
493
+
494
+ ## Evaluation
495
+
496
+ ### Metrics
497
+
498
+ #### Information Retrieval
499
+
500
+ * Dataset: `dim_768`
501
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
502
+ ```json
503
+ {
504
+ "truncate_dim": 768
505
+ }
506
+ ```
507
+
508
+ | Metric | Value |
509
+ |:--------------------|:-----------|
510
+ | cosine_accuracy@1 | 0.6074 |
511
+ | cosine_accuracy@3 | 0.7005 |
512
+ | cosine_accuracy@5 | 0.742 |
513
+ | cosine_accuracy@10 | 0.7921 |
514
+ | cosine_precision@1 | 0.6074 |
515
+ | cosine_precision@3 | 0.2335 |
516
+ | cosine_precision@5 | 0.1484 |
517
+ | cosine_precision@10 | 0.0792 |
518
+ | cosine_recall@1 | 0.6074 |
519
+ | cosine_recall@3 | 0.7005 |
520
+ | cosine_recall@5 | 0.742 |
521
+ | cosine_recall@10 | 0.7921 |
522
+ | **cosine_ndcg@10** | **0.6953** |
523
+ | cosine_mrr@10 | 0.6649 |
524
+ | cosine_map@100 | 0.6708 |
525
+
526
+ #### Information Retrieval
527
+
528
+ * Dataset: `dim_512`
529
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
530
+ ```json
531
+ {
532
+ "truncate_dim": 512
533
+ }
534
+ ```
535
+
536
+ | Metric | Value |
537
+ |:--------------------|:-----------|
538
+ | cosine_accuracy@1 | 0.6046 |
539
+ | cosine_accuracy@3 | 0.6955 |
540
+ | cosine_accuracy@5 | 0.7413 |
541
+ | cosine_accuracy@10 | 0.7893 |
542
+ | cosine_precision@1 | 0.6046 |
543
+ | cosine_precision@3 | 0.2318 |
544
+ | cosine_precision@5 | 0.1483 |
545
+ | cosine_precision@10 | 0.0789 |
546
+ | cosine_recall@1 | 0.6046 |
547
+ | cosine_recall@3 | 0.6955 |
548
+ | cosine_recall@5 | 0.7413 |
549
+ | cosine_recall@10 | 0.7893 |
550
+ | **cosine_ndcg@10** | **0.6923** |
551
+ | cosine_mrr@10 | 0.6618 |
552
+ | cosine_map@100 | 0.6678 |
553
+
554
+ #### Information Retrieval
555
+
556
+ * Dataset: `dim_256`
557
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
558
+ ```json
559
+ {
560
+ "truncate_dim": 256
561
+ }
562
+ ```
563
+
564
+ | Metric | Value |
565
+ |:--------------------|:---------|
566
+ | cosine_accuracy@1 | 0.6037 |
567
+ | cosine_accuracy@3 | 0.6931 |
568
+ | cosine_accuracy@5 | 0.7345 |
569
+ | cosine_accuracy@10 | 0.7874 |
570
+ | cosine_precision@1 | 0.6037 |
571
+ | cosine_precision@3 | 0.231 |
572
+ | cosine_precision@5 | 0.1469 |
573
+ | cosine_precision@10 | 0.0787 |
574
+ | cosine_recall@1 | 0.6037 |
575
+ | cosine_recall@3 | 0.6931 |
576
+ | cosine_recall@5 | 0.7345 |
577
+ | cosine_recall@10 | 0.7874 |
578
+ | **cosine_ndcg@10** | **0.69** |
579
+ | cosine_mrr@10 | 0.6595 |
580
+ | cosine_map@100 | 0.6654 |
581
+
582
+ #### Information Retrieval
583
+
584
+ * Dataset: `dim_128`
585
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
586
+ ```json
587
+ {
588
+ "truncate_dim": 128
589
+ }
590
+ ```
591
+
592
+ | Metric | Value |
593
+ |:--------------------|:-----------|
594
+ | cosine_accuracy@1 | 0.5916 |
595
+ | cosine_accuracy@3 | 0.6764 |
596
+ | cosine_accuracy@5 | 0.7231 |
597
+ | cosine_accuracy@10 | 0.7738 |
598
+ | cosine_precision@1 | 0.5916 |
599
+ | cosine_precision@3 | 0.2255 |
600
+ | cosine_precision@5 | 0.1446 |
601
+ | cosine_precision@10 | 0.0774 |
602
+ | cosine_recall@1 | 0.5916 |
603
+ | cosine_recall@3 | 0.6764 |
604
+ | cosine_recall@5 | 0.7231 |
605
+ | cosine_recall@10 | 0.7738 |
606
+ | **cosine_ndcg@10** | **0.6769** |
607
+ | cosine_mrr@10 | 0.6465 |
608
+ | cosine_map@100 | 0.6528 |
609
+
610
+ #### Information Retrieval
611
+
612
+ * Dataset: `dim_64`
613
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
614
+ ```json
615
+ {
616
+ "truncate_dim": 64
617
+ }
618
+ ```
619
+
620
+ | Metric | Value |
621
+ |:--------------------|:-----------|
622
+ | cosine_accuracy@1 | 0.577 |
623
+ | cosine_accuracy@3 | 0.6593 |
624
+ | cosine_accuracy@5 | 0.6989 |
625
+ | cosine_accuracy@10 | 0.7556 |
626
+ | cosine_precision@1 | 0.577 |
627
+ | cosine_precision@3 | 0.2198 |
628
+ | cosine_precision@5 | 0.1398 |
629
+ | cosine_precision@10 | 0.0756 |
630
+ | cosine_recall@1 | 0.577 |
631
+ | cosine_recall@3 | 0.6593 |
632
+ | cosine_recall@5 | 0.6989 |
633
+ | cosine_recall@10 | 0.7556 |
634
+ | **cosine_ndcg@10** | **0.6605** |
635
+ | cosine_mrr@10 | 0.6308 |
636
+ | cosine_map@100 | 0.637 |
637
+
638
+ <!--
639
+ ## Bias, Risks and Limitations
640
+
641
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
642
+ -->
643
+
644
+ <!--
645
+ ### Recommendations
646
+
647
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
648
+ -->
649
+
650
+ ## Training Details
651
+
652
+ ### Training Dataset
653
+
654
+ #### json
655
+
656
+ * Dataset: json
657
+ * Size: 25,860 training samples
658
+ * Columns: <code>positive</code> and <code>anchor</code>
659
+ * Approximate statistics based on the first 1000 samples:
660
+ | | positive | anchor |
661
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
662
+ | type | string | string |
663
+ | details | <ul><li>min: 19 tokens</li><li>mean: 178.76 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 20.25 tokens</li><li>max: 59 tokens</li></ul> |
664
+ * Samples:
665
+ | positive | anchor |
666
+ |:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------|
667
+ | <code>Điều 475. Trách nhiệm của người sử dụng lao động trong việc giải quyết tranh chấp lao động khi sa thải người lao động. 1. Người sử dụng lao động có trách nhiệm giải quyết tranh chấp lao động khi sa thải người lao động theo quy định của pháp luật. 2. Người sử dụng lao động có nghĩa vụ bồi thường thiệt hại cho người lao động nếu sa thải trái pháp luật.</code> | <code>Người sử dụng lao động có trách nhiệm gì trong việc giải quyết tranh chấp lao động khi sa thải người lao động?</code> |
668
+ | <code>Điều 69 Nghị định 154/2005/NĐ-CP thủ tục hải quan, kiểm tra, giám sát hải quan hướng dẫn Luật Hải quan có nội dung như sau:<br><br>Điều 69. Xử lý kết quả kiểm tra<br>1. Kết quả kiểm tra được cập nhật vào hệ thống thông tin hải quan để phân tích, đánh giá việc chấp hành pháp luật của chủ hàng, mức độ rủi ro vi phạm pháp luật, làm căn cứ cho việc kiểm tra khi làm thủ tục hải quan, xác định doanh nghiệp có quá trình chấp hành tốt pháp luật hải quan và phục vụ cho hoạt động của cơ quan hải quan trong công tác chống buôn lậu.<br>2. Kết luận kiểm tra, giải trình của đơn vị được kiểm tra (nếu có), biên bản vi phạm pháp luật đối với đơn vị được kiểm tra là căn cứ để cơ quan hải quan quyết định việc truy thu thuế, hoàn thuế, xử lý vi phạm pháp luật về thuế theo quy định của pháp luật.<br>3. Việc truy thu thuế, hoàn thuế, xử lý vi phạm pháp luật về thuế thực hiện theo quy định của pháp luật về thuế và pháp luật có liên quan.</code> | <code>Điều 69 Nghị định 154/2005/NĐ-CP thủ tục hải quan, kiểm tra, giám sát hải quan hướng dẫn Luật Hải quan</code> |
669
+ | <code>Điều 4 Quyết định 15/2008/QĐ-UBND thành lập Phòng Quản lý đô thị quận Tân Bình có nội dung như sau:<br><br>Điều 4. Quyết định này có hiệu lực thi hành sau 7 ngày, kể từ ngày ký và thay thế các quyết định trước đây trái với Quyết định này.</code> | <code>Điều 4 Quyết định 15/2008/QĐ-UBND thành lập Phòng Quản lý đô thị quận Tân Bình</code> |
670
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
671
+ ```json
672
+ {
673
+ "loss": "MultipleNegativesRankingLoss",
674
+ "matryoshka_dims": [
675
+ 768,
676
+ 512,
677
+ 256,
678
+ 128,
679
+ 64
680
+ ],
681
+ "matryoshka_weights": [
682
+ 1,
683
+ 1,
684
+ 1,
685
+ 1,
686
+ 1
687
+ ],
688
+ "n_dims_per_step": -1
689
+ }
690
+ ```
691
+
692
+ ### Evaluation Dataset
693
+
694
+ #### json
695
+
696
+ * Dataset: json
697
+ * Size: 3,233 evaluation samples
698
+ * Columns: <code>positive</code> and <code>anchor</code>
699
+ * Approximate statistics based on the first 1000 samples:
700
+ | | positive | anchor |
701
+ |:--------|:------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
702
+ | type | string | string |
703
+ | details | <ul><li>min: 26 tokens</li><li>mean: 179.0 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 20.02 tokens</li><li>max: 45 tokens</li></ul> |
704
+ * Samples:
705
+ | positive | anchor |
706
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------|
707
+ | <code>Điều 1 Quyết định 1791/QĐ-BKHCN 2021 tiếp nhận xử lý văn bản điện tử trên Hệ thống quản lý văn bản có nội dung như sau:<br><br>Điều 1. Ban hành kèm theo Quyết định này Quy chế tiếp nhận, xử lý, phát hành và quản lý văn bản điện tử trên Hệ thống quản lý văn bản và điều hành của Bộ Khoa học và Công nghệ.</code> | <code>Điều 1 Quyết định 1791/QĐ-BKHCN 2021 tiếp nhận xử lý văn bản điện tử trên Hệ thống quản lý văn bản</code> |
708
+ | <code>Tôi xin hỏi, việc hủy thầu trong trường hợp hồ sơ dự thầu của các nhà thầu tham gia dự thầu không đáp ứng hồ sơ mời thầu thì có phải thẩm định kết quả lựa chọn nhà thầu không?Bộ Kế hoạch và Đầu tư trả lời vấn đề này như sau:Khoản 5 và Khoản 2, Điều 20 Nghị định số63/2014/NĐ-CPcủa Chính phủ quy định kết quả lựa chọn nhà thầu phải được thẩm định theo quy định tại Khoản 1 và Khoản 4, Điều 106 của Nghị định này trước khi phê duyệt.Trường hợp hủy thầu theo quy định tại Khoản 1, Điều 17 củaLuật Đấu thầu, trong văn bản phê duyệt kết quả lựa chọn nhà thầu hoặc văn bản quyết định hủy thầu phải nêu rõ lý do hủy thầu và trách nhiệm của các bên liên quan khi hủy thầu.Đối với vấn đề của ông Tường, việc hủy thầu được thực hiện theo quy định nêu trên.</code> | <code>Hủy thầu thực hiện thế nào?</code> |
709
+ | <code>Tôi xin hỏi, theo phương án thi năm nay thì thí sinh có thể đăng ký nhiều ngành trong cùng một trường được không?Bộ Giáo dục và Đào tạo trả lời vấn đề này như sau:Theo quy định của Quy chế tuyển sinh đại học hệ chính quy: Thí sinh có thể đăng ký không hạn chế nguyện vọng và phải sắp xếp nguyện vọng theo thứ tự ưu tiên từ cao xuống thấp. Mỗi nguyện vọng thí sinh phải đăng ký mã trường, mã ngành, mã tổ hợp để xét tuyển. Như vậy, thí sinh có thể đăng ký nhiều ngành trong một trường.</code> | <code>Thí sinh được đăng ký nhiều ngành trong một trường</code> |
710
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
711
+ ```json
712
+ {
713
+ "loss": "MultipleNegativesRankingLoss",
714
+ "matryoshka_dims": [
715
+ 768,
716
+ 512,
717
+ 256,
718
+ 128,
719
+ 64
720
+ ],
721
+ "matryoshka_weights": [
722
+ 1,
723
+ 1,
724
+ 1,
725
+ 1,
726
+ 1
727
+ ],
728
+ "n_dims_per_step": -1
729
+ }
730
+ ```
731
+
732
+ ### Training Hyperparameters
733
+ #### Non-Default Hyperparameters
734
+
735
+ - `eval_strategy`: epoch
736
+ - `per_device_train_batch_size`: 64
737
+ - `per_device_eval_batch_size`: 64
738
+ - `gradient_accumulation_steps`: 12
739
+ - `learning_rate`: 3e-05
740
+ - `weight_decay`: 0.2
741
+ - `max_grad_norm`: 0.65
742
+ - `num_train_epochs`: 5
743
+ - `lr_scheduler_type`: cosine
744
+ - `warmup_ratio`: 0.15
745
+ - `fp16`: True
746
+ - `load_best_model_at_end`: True
747
+ - `group_by_length`: True
748
+ - `batch_sampler`: no_duplicates
749
+
750
+ #### All Hyperparameters
751
+ <details><summary>Click to expand</summary>
752
+
753
+ - `overwrite_output_dir`: False
754
+ - `do_predict`: False
755
+ - `eval_strategy`: epoch
756
+ - `prediction_loss_only`: True
757
+ - `per_device_train_batch_size`: 64
758
+ - `per_device_eval_batch_size`: 64
759
+ - `per_gpu_train_batch_size`: None
760
+ - `per_gpu_eval_batch_size`: None
761
+ - `gradient_accumulation_steps`: 12
762
+ - `eval_accumulation_steps`: None
763
+ - `torch_empty_cache_steps`: None
764
+ - `learning_rate`: 3e-05
765
+ - `weight_decay`: 0.2
766
+ - `adam_beta1`: 0.9
767
+ - `adam_beta2`: 0.999
768
+ - `adam_epsilon`: 1e-08
769
+ - `max_grad_norm`: 0.65
770
+ - `num_train_epochs`: 5
771
+ - `max_steps`: -1
772
+ - `lr_scheduler_type`: cosine
773
+ - `lr_scheduler_kwargs`: {}
774
+ - `warmup_ratio`: 0.15
775
+ - `warmup_steps`: 0
776
+ - `log_level`: passive
777
+ - `log_level_replica`: warning
778
+ - `log_on_each_node`: True
779
+ - `logging_nan_inf_filter`: True
780
+ - `save_safetensors`: True
781
+ - `save_on_each_node`: False
782
+ - `save_only_model`: False
783
+ - `restore_callback_states_from_checkpoint`: False
784
+ - `no_cuda`: False
785
+ - `use_cpu`: False
786
+ - `use_mps_device`: False
787
+ - `seed`: 42
788
+ - `data_seed`: None
789
+ - `jit_mode_eval`: False
790
+ - `bf16`: False
791
+ - `fp16`: True
792
+ - `fp16_opt_level`: O1
793
+ - `half_precision_backend`: auto
794
+ - `bf16_full_eval`: False
795
+ - `fp16_full_eval`: False
796
+ - `tf32`: None
797
+ - `local_rank`: 0
798
+ - `ddp_backend`: None
799
+ - `tpu_num_cores`: None
800
+ - `tpu_metrics_debug`: False
801
+ - `debug`: []
802
+ - `dataloader_drop_last`: False
803
+ - `dataloader_num_workers`: 0
804
+ - `dataloader_prefetch_factor`: None
805
+ - `past_index`: -1
806
+ - `disable_tqdm`: False
807
+ - `remove_unused_columns`: True
808
+ - `label_names`: None
809
+ - `load_best_model_at_end`: True
810
+ - `ignore_data_skip`: False
811
+ - `fsdp`: []
812
+ - `fsdp_min_num_params`: 0
813
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
814
+ - `fsdp_transformer_layer_cls_to_wrap`: None
815
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
816
+ - `parallelism_config`: None
817
+ - `deepspeed`: None
818
+ - `label_smoothing_factor`: 0.0
819
+ - `optim`: adamw_torch_fused
820
+ - `optim_args`: None
821
+ - `adafactor`: False
822
+ - `group_by_length`: True
823
+ - `length_column_name`: length
824
+ - `project`: huggingface
825
+ - `trackio_space_id`: trackio
826
+ - `ddp_find_unused_parameters`: None
827
+ - `ddp_bucket_cap_mb`: None
828
+ - `ddp_broadcast_buffers`: False
829
+ - `dataloader_pin_memory`: True
830
+ - `dataloader_persistent_workers`: False
831
+ - `skip_memory_metrics`: True
832
+ - `use_legacy_prediction_loop`: False
833
+ - `push_to_hub`: False
834
+ - `resume_from_checkpoint`: None
835
+ - `hub_model_id`: None
836
+ - `hub_strategy`: every_save
837
+ - `hub_private_repo`: None
838
+ - `hub_always_push`: False
839
+ - `hub_revision`: None
840
+ - `gradient_checkpointing`: False
841
+ - `gradient_checkpointing_kwargs`: None
842
+ - `include_inputs_for_metrics`: False
843
+ - `include_for_metrics`: []
844
+ - `eval_do_concat_batches`: True
845
+ - `fp16_backend`: auto
846
+ - `push_to_hub_model_id`: None
847
+ - `push_to_hub_organization`: None
848
+ - `mp_parameters`:
849
+ - `auto_find_batch_size`: False
850
+ - `full_determinism`: False
851
+ - `torchdynamo`: None
852
+ - `ray_scope`: last
853
+ - `ddp_timeout`: 1800
854
+ - `torch_compile`: False
855
+ - `torch_compile_backend`: None
856
+ - `torch_compile_mode`: None
857
+ - `include_tokens_per_second`: False
858
+ - `include_num_input_tokens_seen`: no
859
+ - `neftune_noise_alpha`: None
860
+ - `optim_target_modules`: None
861
+ - `batch_eval_metrics`: False
862
+ - `eval_on_start`: False
863
+ - `use_liger_kernel`: False
864
+ - `liger_kernel_config`: None
865
+ - `eval_use_gather_object`: False
866
+ - `average_tokens_across_devices`: True
867
+ - `prompts`: None
868
+ - `batch_sampler`: no_duplicates
869
+ - `multi_dataset_batch_sampler`: proportional
870
+ - `router_mapping`: {}
871
+ - `learning_rate_mapping`: {}
872
+
873
+ </details>
874
+
875
+ ### Training Logs
876
+ | Epoch | Step | Training Loss | Validation Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
877
+ |:-----:|:----:|:-------------:|:---------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
878
+ | 1.0 | 34 | 1.6861 | 0.6655 | 0.6172 | 0.6148 | 0.6059 | 0.5862 | 0.5547 |
879
+ | 2.0 | 68 | 0.5426 | 0.4693 | 0.6877 | 0.6889 | 0.6830 | 0.6684 | 0.6508 |
880
+ | 3.0 | 102 | 0.3528 | 0.4305 | 0.6939 | 0.6919 | 0.6855 | 0.6752 | 0.6595 |
881
+ | 4.0 | 136 | 0.268 | 0.4048 | 0.6953 | 0.6921 | 0.6898 | 0.6767 | 0.6607 |
882
+ | 5.0 | 170 | 0.2341 | 0.4039 | 0.6953 | 0.6923 | 0.6900 | 0.6769 | 0.6605 |
883
+
884
+
885
+ ### Framework Versions
886
+ - Python: 3.12.12
887
+ - Sentence Transformers: 5.1.2
888
+ - Transformers: 4.57.3
889
+ - PyTorch: 2.9.0+cu126
890
+ - Accelerate: 1.12.0
891
+ - Datasets: 4.0.0
892
+ - Tokenizers: 0.22.1
893
+
894
+ ## Citation
895
+
896
+ ### BibTeX
897
+
898
+ #### Sentence Transformers
899
+ ```bibtex
900
+ @inproceedings{reimers-2019-sentence-bert,
901
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
902
+ author = "Reimers, Nils and Gurevych, Iryna",
903
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
904
+ month = "11",
905
+ year = "2019",
906
+ publisher = "Association for Computational Linguistics",
907
+ url = "https://arxiv.org/abs/1908.10084",
908
+ }
909
+ ```
910
+
911
+ #### MatryoshkaLoss
912
+ ```bibtex
913
+ @misc{kusupati2024matryoshka,
914
+ title={Matryoshka Representation Learning},
915
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
916
+ year={2024},
917
+ eprint={2205.13147},
918
+ archivePrefix={arXiv},
919
+ primaryClass={cs.LG}
920
+ }
921
+ ```
922
+
923
+ #### MultipleNegativesRankingLoss
924
+ ```bibtex
925
+ @misc{henderson2017efficient,
926
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
927
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
928
+ year={2017},
929
+ eprint={1705.00652},
930
+ archivePrefix={arXiv},
931
+ primaryClass={cs.CL}
932
+ }
933
+ ```
934
+
935
+ <!--
936
+ ## Glossary
937
+
938
+ *Clearly define terms in order to be accessible across audiences.*
939
+ -->
940
+
941
+ <!--
942
+ ## Model Card Authors
943
+
944
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
945
+ -->
946
+
947
+ <!--
948
+ ## Model Card Contact
949
+
950
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
951
+ -->
checkpoint-170/added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
checkpoint-170/bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
checkpoint-170/config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "RobertaModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "dtype": "float32",
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "transformers_version": "4.57.3",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 64001
27
+ }
checkpoint-170/config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "5.1.2",
4
+ "transformers": "4.57.3",
5
+ "pytorch": "2.9.0+cu126"
6
+ },
7
+ "model_type": "SentenceTransformer",
8
+ "prompts": {
9
+ "query": "",
10
+ "document": ""
11
+ },
12
+ "default_prompt_name": null,
13
+ "similarity_fn_name": "cosine"
14
+ }
checkpoint-170/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e6d41c4c58085e4e1604e7afe85b8fc156d096c92d65878e5f4f21420b9785f5
3
+ size 540015464
checkpoint-170/modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
checkpoint-170/optimizer.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e0f327e86f20ab01ed0060a3cb2c031c457c254900a4625527ddd418f1f85851
3
+ size 1075427873
checkpoint-170/rng_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:089f72f608fab9a633637fbf09a893f3cead41c4222617b444c5b946a5005ca4
3
+ size 14565
checkpoint-170/scaler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:24cd50b9d335119411f6cce3285a6f2a06ea076ed78119ca40ae52bcf892d4dd
3
+ size 1389
checkpoint-170/scheduler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b114b2674de8b2bb8c01dd0d6f0541e81f4797c4835b3ac8d81d3e9918d73fe5
3
+ size 1453
checkpoint-170/sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
checkpoint-170/special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
checkpoint-170/tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "model_max_length": 256,
51
+ "pad_token": "<pad>",
52
+ "sep_token": "</s>",
53
+ "tokenizer_class": "PhobertTokenizer",
54
+ "unk_token": "<unk>"
55
+ }
checkpoint-170/trainer_state.json ADDED
@@ -0,0 +1,498 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_global_step": 170,
3
+ "best_metric": 0.40385201573371887,
4
+ "best_model_checkpoint": "/content/drive/MyDrive/NLP/\u0110o\u0302 a\u0301n/model_embedding_legal/checkpoint-170",
5
+ "epoch": 5.0,
6
+ "eval_steps": 500,
7
+ "global_step": 170,
8
+ "is_hyper_param_search": false,
9
+ "is_local_process_zero": true,
10
+ "is_world_process_zero": true,
11
+ "log_history": [
12
+ {
13
+ "epoch": 1.0,
14
+ "grad_norm": 6.90657901763916,
15
+ "learning_rate": 2.982542265701641e-05,
16
+ "loss": 1.6861,
17
+ "step": 34
18
+ },
19
+ {
20
+ "epoch": 1.0,
21
+ "eval_dim_128_cosine_accuracy@1": 0.4124381188118812,
22
+ "eval_dim_128_cosine_accuracy@10": 0.750309405940594,
23
+ "eval_dim_128_cosine_accuracy@3": 0.6330445544554455,
24
+ "eval_dim_128_cosine_accuracy@5": 0.6933787128712872,
25
+ "eval_dim_128_cosine_map@100": 0.5390741765753619,
26
+ "eval_dim_128_cosine_mrr@10": 0.5330007219471937,
27
+ "eval_dim_128_cosine_ndcg@10": 0.5861805571411892,
28
+ "eval_dim_128_cosine_precision@1": 0.4124381188118812,
29
+ "eval_dim_128_cosine_precision@10": 0.0750309405940594,
30
+ "eval_dim_128_cosine_precision@3": 0.2110148514851485,
31
+ "eval_dim_128_cosine_precision@5": 0.1386757425742574,
32
+ "eval_dim_128_cosine_recall@1": 0.4124381188118812,
33
+ "eval_dim_128_cosine_recall@10": 0.750309405940594,
34
+ "eval_dim_128_cosine_recall@3": 0.6330445544554455,
35
+ "eval_dim_128_cosine_recall@5": 0.6933787128712872,
36
+ "eval_dim_256_cosine_accuracy@1": 0.4368811881188119,
37
+ "eval_dim_256_cosine_accuracy@10": 0.7676361386138614,
38
+ "eval_dim_256_cosine_accuracy@3": 0.6534653465346535,
39
+ "eval_dim_256_cosine_accuracy@5": 0.7085396039603961,
40
+ "eval_dim_256_cosine_map@100": 0.5592759707659912,
41
+ "eval_dim_256_cosine_mrr@10": 0.5535645528838586,
42
+ "eval_dim_256_cosine_ndcg@10": 0.605897792319333,
43
+ "eval_dim_256_cosine_precision@1": 0.4368811881188119,
44
+ "eval_dim_256_cosine_precision@10": 0.07676361386138612,
45
+ "eval_dim_256_cosine_precision@3": 0.21782178217821782,
46
+ "eval_dim_256_cosine_precision@5": 0.1417079207920792,
47
+ "eval_dim_256_cosine_recall@1": 0.4368811881188119,
48
+ "eval_dim_256_cosine_recall@10": 0.7676361386138614,
49
+ "eval_dim_256_cosine_recall@3": 0.6534653465346535,
50
+ "eval_dim_256_cosine_recall@5": 0.7085396039603961,
51
+ "eval_dim_512_cosine_accuracy@1": 0.45142326732673266,
52
+ "eval_dim_512_cosine_accuracy@10": 0.7716584158415841,
53
+ "eval_dim_512_cosine_accuracy@3": 0.6596534653465347,
54
+ "eval_dim_512_cosine_accuracy@5": 0.713180693069307,
55
+ "eval_dim_512_cosine_map@100": 0.5698535530932649,
56
+ "eval_dim_512_cosine_mrr@10": 0.5641202066635224,
57
+ "eval_dim_512_cosine_ndcg@10": 0.6147827472397471,
58
+ "eval_dim_512_cosine_precision@1": 0.45142326732673266,
59
+ "eval_dim_512_cosine_precision@10": 0.07716584158415841,
60
+ "eval_dim_512_cosine_precision@3": 0.21988448844884487,
61
+ "eval_dim_512_cosine_precision@5": 0.14263613861386137,
62
+ "eval_dim_512_cosine_recall@1": 0.45142326732673266,
63
+ "eval_dim_512_cosine_recall@10": 0.7716584158415841,
64
+ "eval_dim_512_cosine_recall@3": 0.6596534653465347,
65
+ "eval_dim_512_cosine_recall@5": 0.713180693069307,
66
+ "eval_dim_64_cosine_accuracy@1": 0.37902227722772275,
67
+ "eval_dim_64_cosine_accuracy@10": 0.719059405940594,
68
+ "eval_dim_64_cosine_accuracy@3": 0.6070544554455446,
69
+ "eval_dim_64_cosine_accuracy@5": 0.661819306930693,
70
+ "eval_dim_64_cosine_map@100": 0.5078663720617047,
71
+ "eval_dim_64_cosine_mrr@10": 0.5013101868222527,
72
+ "eval_dim_64_cosine_ndcg@10": 0.5546728174754348,
73
+ "eval_dim_64_cosine_precision@1": 0.37902227722772275,
74
+ "eval_dim_64_cosine_precision@10": 0.0719059405940594,
75
+ "eval_dim_64_cosine_precision@3": 0.20235148514851486,
76
+ "eval_dim_64_cosine_precision@5": 0.1323638613861386,
77
+ "eval_dim_64_cosine_recall@1": 0.37902227722772275,
78
+ "eval_dim_64_cosine_recall@10": 0.719059405940594,
79
+ "eval_dim_64_cosine_recall@3": 0.6070544554455446,
80
+ "eval_dim_64_cosine_recall@5": 0.661819306930693,
81
+ "eval_dim_768_cosine_accuracy@1": 0.4498762376237624,
82
+ "eval_dim_768_cosine_accuracy@10": 0.7766089108910891,
83
+ "eval_dim_768_cosine_accuracy@3": 0.6636757425742574,
84
+ "eval_dim_768_cosine_accuracy@5": 0.718440594059406,
85
+ "eval_dim_768_cosine_map@100": 0.5711039325345794,
86
+ "eval_dim_768_cosine_mrr@10": 0.5655928316045877,
87
+ "eval_dim_768_cosine_ndcg@10": 0.6171865359941737,
88
+ "eval_dim_768_cosine_precision@1": 0.4498762376237624,
89
+ "eval_dim_768_cosine_precision@10": 0.0776608910891089,
90
+ "eval_dim_768_cosine_precision@3": 0.22122524752475248,
91
+ "eval_dim_768_cosine_precision@5": 0.14368811881188118,
92
+ "eval_dim_768_cosine_recall@1": 0.4498762376237624,
93
+ "eval_dim_768_cosine_recall@10": 0.7766089108910891,
94
+ "eval_dim_768_cosine_recall@3": 0.6636757425742574,
95
+ "eval_dim_768_cosine_recall@5": 0.718440594059406,
96
+ "eval_loss": 0.6655384302139282,
97
+ "eval_runtime": 496.2527,
98
+ "eval_samples_per_second": 6.515,
99
+ "eval_sequential_score": 0.5546728174754348,
100
+ "eval_steps_per_second": 0.103,
101
+ "step": 34
102
+ },
103
+ {
104
+ "epoch": 2.0,
105
+ "grad_norm": 6.398759365081787,
106
+ "learning_rate": 2.4388852082760887e-05,
107
+ "loss": 0.5426,
108
+ "step": 68
109
+ },
110
+ {
111
+ "epoch": 2.0,
112
+ "eval_dim_128_cosine_accuracy@1": 0.5795173267326733,
113
+ "eval_dim_128_cosine_accuracy@10": 0.7633044554455446,
114
+ "eval_dim_128_cosine_accuracy@3": 0.6741955445544554,
115
+ "eval_dim_128_cosine_accuracy@5": 0.713490099009901,
116
+ "eval_dim_128_cosine_map@100": 0.6450664283037013,
117
+ "eval_dim_128_cosine_mrr@10": 0.6384666480040855,
118
+ "eval_dim_128_cosine_ndcg@10": 0.6684418951354488,
119
+ "eval_dim_128_cosine_precision@1": 0.5795173267326733,
120
+ "eval_dim_128_cosine_precision@10": 0.07633044554455444,
121
+ "eval_dim_128_cosine_precision@3": 0.22473184818481845,
122
+ "eval_dim_128_cosine_precision@5": 0.14269801980198019,
123
+ "eval_dim_128_cosine_recall@1": 0.5795173267326733,
124
+ "eval_dim_128_cosine_recall@10": 0.7633044554455446,
125
+ "eval_dim_128_cosine_recall@3": 0.6741955445544554,
126
+ "eval_dim_128_cosine_recall@5": 0.713490099009901,
127
+ "eval_dim_256_cosine_accuracy@1": 0.5931311881188119,
128
+ "eval_dim_256_cosine_accuracy@10": 0.7831064356435643,
129
+ "eval_dim_256_cosine_accuracy@3": 0.687809405940594,
130
+ "eval_dim_256_cosine_accuracy@5": 0.7261757425742574,
131
+ "eval_dim_256_cosine_map@100": 0.6575604388902454,
132
+ "eval_dim_256_cosine_mrr@10": 0.6516103842527105,
133
+ "eval_dim_256_cosine_ndcg@10": 0.6829713329028779,
134
+ "eval_dim_256_cosine_precision@1": 0.5931311881188119,
135
+ "eval_dim_256_cosine_precision@10": 0.07831064356435644,
136
+ "eval_dim_256_cosine_precision@3": 0.22926980198019803,
137
+ "eval_dim_256_cosine_precision@5": 0.14523514851485148,
138
+ "eval_dim_256_cosine_recall@1": 0.5931311881188119,
139
+ "eval_dim_256_cosine_recall@10": 0.7831064356435643,
140
+ "eval_dim_256_cosine_recall@3": 0.687809405940594,
141
+ "eval_dim_256_cosine_recall@5": 0.7261757425742574,
142
+ "eval_dim_512_cosine_accuracy@1": 0.6014851485148515,
143
+ "eval_dim_512_cosine_accuracy@10": 0.786200495049505,
144
+ "eval_dim_512_cosine_accuracy@3": 0.6902846534653465,
145
+ "eval_dim_512_cosine_accuracy@5": 0.7323638613861386,
146
+ "eval_dim_512_cosine_map@100": 0.6642318800504701,
147
+ "eval_dim_512_cosine_mrr@10": 0.658349171970768,
148
+ "eval_dim_512_cosine_ndcg@10": 0.6888741353339312,
149
+ "eval_dim_512_cosine_precision@1": 0.6014851485148515,
150
+ "eval_dim_512_cosine_precision@10": 0.07862004950495048,
151
+ "eval_dim_512_cosine_precision@3": 0.23009488448844886,
152
+ "eval_dim_512_cosine_precision@5": 0.14647277227722771,
153
+ "eval_dim_512_cosine_recall@1": 0.6014851485148515,
154
+ "eval_dim_512_cosine_recall@10": 0.786200495049505,
155
+ "eval_dim_512_cosine_recall@3": 0.6902846534653465,
156
+ "eval_dim_512_cosine_recall@5": 0.7323638613861386,
157
+ "eval_dim_64_cosine_accuracy@1": 0.5637376237623762,
158
+ "eval_dim_64_cosine_accuracy@10": 0.745049504950495,
159
+ "eval_dim_64_cosine_accuracy@3": 0.6574876237623762,
160
+ "eval_dim_64_cosine_accuracy@5": 0.6958539603960396,
161
+ "eval_dim_64_cosine_map@100": 0.6276111030423622,
162
+ "eval_dim_64_cosine_mrr@10": 0.621153666705955,
163
+ "eval_dim_64_cosine_ndcg@10": 0.6508362012533989,
164
+ "eval_dim_64_cosine_precision@1": 0.5637376237623762,
165
+ "eval_dim_64_cosine_precision@10": 0.0745049504950495,
166
+ "eval_dim_64_cosine_precision@3": 0.21916254125412538,
167
+ "eval_dim_64_cosine_precision@5": 0.1391707920792079,
168
+ "eval_dim_64_cosine_recall@1": 0.5637376237623762,
169
+ "eval_dim_64_cosine_recall@10": 0.745049504950495,
170
+ "eval_dim_64_cosine_recall@3": 0.6574876237623762,
171
+ "eval_dim_64_cosine_recall@5": 0.6958539603960396,
172
+ "eval_dim_768_cosine_accuracy@1": 0.5974628712871287,
173
+ "eval_dim_768_cosine_accuracy@10": 0.7852722772277227,
174
+ "eval_dim_768_cosine_accuracy@3": 0.6943069306930693,
175
+ "eval_dim_768_cosine_accuracy@5": 0.7351485148514851,
176
+ "eval_dim_768_cosine_map@100": 0.6630474427615004,
177
+ "eval_dim_768_cosine_mrr@10": 0.656933517012415,
178
+ "eval_dim_768_cosine_ndcg@10": 0.6877247613199143,
179
+ "eval_dim_768_cosine_precision@1": 0.5974628712871287,
180
+ "eval_dim_768_cosine_precision@10": 0.07852722772277228,
181
+ "eval_dim_768_cosine_precision@3": 0.23143564356435645,
182
+ "eval_dim_768_cosine_precision@5": 0.14702970297029702,
183
+ "eval_dim_768_cosine_recall@1": 0.5974628712871287,
184
+ "eval_dim_768_cosine_recall@10": 0.7852722772277227,
185
+ "eval_dim_768_cosine_recall@3": 0.6943069306930693,
186
+ "eval_dim_768_cosine_recall@5": 0.7351485148514851,
187
+ "eval_loss": 0.46934831142425537,
188
+ "eval_runtime": 491.2435,
189
+ "eval_samples_per_second": 6.581,
190
+ "eval_sequential_score": 0.6508362012533989,
191
+ "eval_steps_per_second": 0.104,
192
+ "step": 68
193
+ },
194
+ {
195
+ "epoch": 3.0,
196
+ "grad_norm": 4.690380573272705,
197
+ "learning_rate": 1.4018953061547854e-05,
198
+ "loss": 0.3528,
199
+ "step": 102
200
+ },
201
+ {
202
+ "epoch": 3.0,
203
+ "eval_dim_128_cosine_accuracy@1": 0.588799504950495,
204
+ "eval_dim_128_cosine_accuracy@10": 0.7735148514851485,
205
+ "eval_dim_128_cosine_accuracy@3": 0.6735767326732673,
206
+ "eval_dim_128_cosine_accuracy@5": 0.7196782178217822,
207
+ "eval_dim_128_cosine_map@100": 0.6505516720307649,
208
+ "eval_dim_128_cosine_mrr@10": 0.6444403926999842,
209
+ "eval_dim_128_cosine_ndcg@10": 0.6752041805385901,
210
+ "eval_dim_128_cosine_precision@1": 0.588799504950495,
211
+ "eval_dim_128_cosine_precision@10": 0.07735148514851485,
212
+ "eval_dim_128_cosine_precision@3": 0.22452557755775576,
213
+ "eval_dim_128_cosine_precision@5": 0.14393564356435642,
214
+ "eval_dim_128_cosine_recall@1": 0.588799504950495,
215
+ "eval_dim_128_cosine_recall@10": 0.7735148514851485,
216
+ "eval_dim_128_cosine_recall@3": 0.6735767326732673,
217
+ "eval_dim_128_cosine_recall@5": 0.7196782178217822,
218
+ "eval_dim_256_cosine_accuracy@1": 0.598700495049505,
219
+ "eval_dim_256_cosine_accuracy@10": 0.7827970297029703,
220
+ "eval_dim_256_cosine_accuracy@3": 0.6868811881188119,
221
+ "eval_dim_256_cosine_accuracy@5": 0.7317450495049505,
222
+ "eval_dim_256_cosine_map@100": 0.6609633297873007,
223
+ "eval_dim_256_cosine_mrr@10": 0.6549405498585567,
224
+ "eval_dim_256_cosine_ndcg@10": 0.6854719862198021,
225
+ "eval_dim_256_cosine_precision@1": 0.598700495049505,
226
+ "eval_dim_256_cosine_precision@10": 0.07827970297029702,
227
+ "eval_dim_256_cosine_precision@3": 0.22896039603960397,
228
+ "eval_dim_256_cosine_precision@5": 0.1463490099009901,
229
+ "eval_dim_256_cosine_recall@1": 0.598700495049505,
230
+ "eval_dim_256_cosine_recall@10": 0.7827970297029703,
231
+ "eval_dim_256_cosine_recall@3": 0.6868811881188119,
232
+ "eval_dim_256_cosine_recall@5": 0.7317450495049505,
233
+ "eval_dim_512_cosine_accuracy@1": 0.6061262376237624,
234
+ "eval_dim_512_cosine_accuracy@10": 0.7886757425742574,
235
+ "eval_dim_512_cosine_accuracy@3": 0.6921410891089109,
236
+ "eval_dim_512_cosine_accuracy@5": 0.739480198019802,
237
+ "eval_dim_512_cosine_map@100": 0.6674689768675662,
238
+ "eval_dim_512_cosine_mrr@10": 0.6616048100345742,
239
+ "eval_dim_512_cosine_ndcg@10": 0.6919295866827898,
240
+ "eval_dim_512_cosine_precision@1": 0.6061262376237624,
241
+ "eval_dim_512_cosine_precision@10": 0.07886757425742573,
242
+ "eval_dim_512_cosine_precision@3": 0.23071369636963696,
243
+ "eval_dim_512_cosine_precision@5": 0.1478960396039604,
244
+ "eval_dim_512_cosine_recall@1": 0.6061262376237624,
245
+ "eval_dim_512_cosine_recall@10": 0.7886757425742574,
246
+ "eval_dim_512_cosine_recall@3": 0.6921410891089109,
247
+ "eval_dim_512_cosine_recall@5": 0.739480198019802,
248
+ "eval_dim_64_cosine_accuracy@1": 0.5779702970297029,
249
+ "eval_dim_64_cosine_accuracy@10": 0.7546410891089109,
250
+ "eval_dim_64_cosine_accuracy@3": 0.6571782178217822,
251
+ "eval_dim_64_cosine_accuracy@5": 0.6967821782178217,
252
+ "eval_dim_64_cosine_map@100": 0.6359739450990423,
253
+ "eval_dim_64_cosine_mrr@10": 0.6299013829954415,
254
+ "eval_dim_64_cosine_ndcg@10": 0.6594783681667493,
255
+ "eval_dim_64_cosine_precision@1": 0.5779702970297029,
256
+ "eval_dim_64_cosine_precision@10": 0.07546410891089109,
257
+ "eval_dim_64_cosine_precision@3": 0.21905940594059406,
258
+ "eval_dim_64_cosine_precision@5": 0.13935643564356434,
259
+ "eval_dim_64_cosine_recall@1": 0.5779702970297029,
260
+ "eval_dim_64_cosine_recall@10": 0.7546410891089109,
261
+ "eval_dim_64_cosine_recall@3": 0.6571782178217822,
262
+ "eval_dim_64_cosine_recall@5": 0.6967821782178217,
263
+ "eval_dim_768_cosine_accuracy@1": 0.6079826732673267,
264
+ "eval_dim_768_cosine_accuracy@10": 0.7899133663366337,
265
+ "eval_dim_768_cosine_accuracy@3": 0.6958539603960396,
266
+ "eval_dim_768_cosine_accuracy@5": 0.7422648514851485,
267
+ "eval_dim_768_cosine_map@100": 0.6694799794360519,
268
+ "eval_dim_768_cosine_mrr@10": 0.6637049642464244,
269
+ "eval_dim_768_cosine_ndcg@10": 0.6938587875325103,
270
+ "eval_dim_768_cosine_precision@1": 0.6079826732673267,
271
+ "eval_dim_768_cosine_precision@10": 0.07899133663366337,
272
+ "eval_dim_768_cosine_precision@3": 0.2319513201320132,
273
+ "eval_dim_768_cosine_precision@5": 0.1484529702970297,
274
+ "eval_dim_768_cosine_recall@1": 0.6079826732673267,
275
+ "eval_dim_768_cosine_recall@10": 0.7899133663366337,
276
+ "eval_dim_768_cosine_recall@3": 0.6958539603960396,
277
+ "eval_dim_768_cosine_recall@5": 0.7422648514851485,
278
+ "eval_loss": 0.43045657873153687,
279
+ "eval_runtime": 491.1449,
280
+ "eval_samples_per_second": 6.583,
281
+ "eval_sequential_score": 0.6594783681667493,
282
+ "eval_steps_per_second": 0.104,
283
+ "step": 102
284
+ },
285
+ {
286
+ "epoch": 4.0,
287
+ "grad_norm": 3.85292387008667,
288
+ "learning_rate": 4.164540569103667e-06,
289
+ "loss": 0.268,
290
+ "step": 136
291
+ },
292
+ {
293
+ "epoch": 4.0,
294
+ "eval_dim_128_cosine_accuracy@1": 0.5909653465346535,
295
+ "eval_dim_128_cosine_accuracy@10": 0.7747524752475248,
296
+ "eval_dim_128_cosine_accuracy@3": 0.6754331683168316,
297
+ "eval_dim_128_cosine_accuracy@5": 0.7206064356435643,
298
+ "eval_dim_128_cosine_map@100": 0.6521863637339076,
299
+ "eval_dim_128_cosine_mrr@10": 0.646089329915134,
300
+ "eval_dim_128_cosine_ndcg@10": 0.6767471876748526,
301
+ "eval_dim_128_cosine_precision@1": 0.5909653465346535,
302
+ "eval_dim_128_cosine_precision@10": 0.07747524752475247,
303
+ "eval_dim_128_cosine_precision@3": 0.2251443894389439,
304
+ "eval_dim_128_cosine_precision@5": 0.14412128712871286,
305
+ "eval_dim_128_cosine_recall@1": 0.5909653465346535,
306
+ "eval_dim_128_cosine_recall@10": 0.7747524752475248,
307
+ "eval_dim_128_cosine_recall@3": 0.6754331683168316,
308
+ "eval_dim_128_cosine_recall@5": 0.7206064356435643,
309
+ "eval_dim_256_cosine_accuracy@1": 0.6017945544554455,
310
+ "eval_dim_256_cosine_accuracy@10": 0.7886757425742574,
311
+ "eval_dim_256_cosine_accuracy@3": 0.6933787128712872,
312
+ "eval_dim_256_cosine_accuracy@5": 0.7323638613861386,
313
+ "eval_dim_256_cosine_map@100": 0.6646453380799541,
314
+ "eval_dim_256_cosine_mrr@10": 0.6588266639163911,
315
+ "eval_dim_256_cosine_ndcg@10": 0.689763722191061,
316
+ "eval_dim_256_cosine_precision@1": 0.6017945544554455,
317
+ "eval_dim_256_cosine_precision@10": 0.07886757425742573,
318
+ "eval_dim_256_cosine_precision@3": 0.2311262376237624,
319
+ "eval_dim_256_cosine_precision@5": 0.14647277227722771,
320
+ "eval_dim_256_cosine_recall@1": 0.6017945544554455,
321
+ "eval_dim_256_cosine_recall@10": 0.7886757425742574,
322
+ "eval_dim_256_cosine_recall@3": 0.6933787128712872,
323
+ "eval_dim_256_cosine_recall@5": 0.7323638613861386,
324
+ "eval_dim_512_cosine_accuracy@1": 0.6033415841584159,
325
+ "eval_dim_512_cosine_accuracy@10": 0.7911509900990099,
326
+ "eval_dim_512_cosine_accuracy@3": 0.6955445544554455,
327
+ "eval_dim_512_cosine_accuracy@5": 0.7410272277227723,
328
+ "eval_dim_512_cosine_map@100": 0.666779697385627,
329
+ "eval_dim_512_cosine_mrr@10": 0.6609851386924402,
330
+ "eval_dim_512_cosine_ndcg@10": 0.6921184985693198,
331
+ "eval_dim_512_cosine_precision@1": 0.6033415841584159,
332
+ "eval_dim_512_cosine_precision@10": 0.07911509900990099,
333
+ "eval_dim_512_cosine_precision@3": 0.23184818481848185,
334
+ "eval_dim_512_cosine_precision@5": 0.14820544554455445,
335
+ "eval_dim_512_cosine_recall@1": 0.6033415841584159,
336
+ "eval_dim_512_cosine_recall@10": 0.7911509900990099,
337
+ "eval_dim_512_cosine_recall@3": 0.6955445544554455,
338
+ "eval_dim_512_cosine_recall@5": 0.7410272277227723,
339
+ "eval_dim_64_cosine_accuracy@1": 0.5764232673267327,
340
+ "eval_dim_64_cosine_accuracy@10": 0.7568069306930693,
341
+ "eval_dim_64_cosine_accuracy@3": 0.6596534653465347,
342
+ "eval_dim_64_cosine_accuracy@5": 0.698019801980198,
343
+ "eval_dim_64_cosine_map@100": 0.636912211423935,
344
+ "eval_dim_64_cosine_mrr@10": 0.6308043081093817,
345
+ "eval_dim_64_cosine_ndcg@10": 0.6607288131349602,
346
+ "eval_dim_64_cosine_precision@1": 0.5764232673267327,
347
+ "eval_dim_64_cosine_precision@10": 0.07568069306930691,
348
+ "eval_dim_64_cosine_precision@3": 0.21988448844884487,
349
+ "eval_dim_64_cosine_precision@5": 0.1396039603960396,
350
+ "eval_dim_64_cosine_recall@1": 0.5764232673267327,
351
+ "eval_dim_64_cosine_recall@10": 0.7568069306930693,
352
+ "eval_dim_64_cosine_recall@3": 0.6596534653465347,
353
+ "eval_dim_64_cosine_recall@5": 0.698019801980198,
354
+ "eval_dim_768_cosine_accuracy@1": 0.6061262376237624,
355
+ "eval_dim_768_cosine_accuracy@10": 0.7939356435643564,
356
+ "eval_dim_768_cosine_accuracy@3": 0.7008044554455446,
357
+ "eval_dim_768_cosine_accuracy@5": 0.7419554455445545,
358
+ "eval_dim_768_cosine_map@100": 0.669943476319759,
359
+ "eval_dim_768_cosine_mrr@10": 0.6643359313609929,
360
+ "eval_dim_768_cosine_ndcg@10": 0.6953383284750302,
361
+ "eval_dim_768_cosine_precision@1": 0.6061262376237624,
362
+ "eval_dim_768_cosine_precision@10": 0.07939356435643563,
363
+ "eval_dim_768_cosine_precision@3": 0.23360148514851486,
364
+ "eval_dim_768_cosine_precision@5": 0.14839108910891088,
365
+ "eval_dim_768_cosine_recall@1": 0.6061262376237624,
366
+ "eval_dim_768_cosine_recall@10": 0.7939356435643564,
367
+ "eval_dim_768_cosine_recall@3": 0.7008044554455446,
368
+ "eval_dim_768_cosine_recall@5": 0.7419554455445545,
369
+ "eval_loss": 0.4047935903072357,
370
+ "eval_runtime": 492.2642,
371
+ "eval_samples_per_second": 6.568,
372
+ "eval_sequential_score": 0.6607288131349602,
373
+ "eval_steps_per_second": 0.104,
374
+ "step": 136
375
+ },
376
+ {
377
+ "epoch": 5.0,
378
+ "grad_norm": 4.619815349578857,
379
+ "learning_rate": 3.5695938013630136e-09,
380
+ "loss": 0.2341,
381
+ "step": 170
382
+ },
383
+ {
384
+ "epoch": 5.0,
385
+ "eval_dim_128_cosine_accuracy@1": 0.5915841584158416,
386
+ "eval_dim_128_cosine_accuracy@10": 0.7738242574257426,
387
+ "eval_dim_128_cosine_accuracy@3": 0.6763613861386139,
388
+ "eval_dim_128_cosine_accuracy@5": 0.7230816831683168,
389
+ "eval_dim_128_cosine_map@100": 0.6528103079926022,
390
+ "eval_dim_128_cosine_mrr@10": 0.6465193059484518,
391
+ "eval_dim_128_cosine_ndcg@10": 0.6768923401788021,
392
+ "eval_dim_128_cosine_precision@1": 0.5915841584158416,
393
+ "eval_dim_128_cosine_precision@10": 0.07738242574257424,
394
+ "eval_dim_128_cosine_precision@3": 0.22545379537953794,
395
+ "eval_dim_128_cosine_precision@5": 0.14461633663366336,
396
+ "eval_dim_128_cosine_recall@1": 0.5915841584158416,
397
+ "eval_dim_128_cosine_recall@10": 0.7738242574257426,
398
+ "eval_dim_128_cosine_recall@3": 0.6763613861386139,
399
+ "eval_dim_128_cosine_recall@5": 0.7230816831683168,
400
+ "eval_dim_256_cosine_accuracy@1": 0.6036509900990099,
401
+ "eval_dim_256_cosine_accuracy@10": 0.7874381188118812,
402
+ "eval_dim_256_cosine_accuracy@3": 0.693069306930693,
403
+ "eval_dim_256_cosine_accuracy@5": 0.7345297029702971,
404
+ "eval_dim_256_cosine_map@100": 0.6654213269021221,
405
+ "eval_dim_256_cosine_mrr@10": 0.6594872210435324,
406
+ "eval_dim_256_cosine_ndcg@10": 0.6899985182895687,
407
+ "eval_dim_256_cosine_precision@1": 0.6036509900990099,
408
+ "eval_dim_256_cosine_precision@10": 0.0787438118811881,
409
+ "eval_dim_256_cosine_precision@3": 0.23102310231023104,
410
+ "eval_dim_256_cosine_precision@5": 0.1469059405940594,
411
+ "eval_dim_256_cosine_recall@1": 0.6036509900990099,
412
+ "eval_dim_256_cosine_recall@10": 0.7874381188118812,
413
+ "eval_dim_256_cosine_recall@3": 0.693069306930693,
414
+ "eval_dim_256_cosine_recall@5": 0.7345297029702971,
415
+ "eval_dim_512_cosine_accuracy@1": 0.6045792079207921,
416
+ "eval_dim_512_cosine_accuracy@10": 0.7892945544554455,
417
+ "eval_dim_512_cosine_accuracy@3": 0.6955445544554455,
418
+ "eval_dim_512_cosine_accuracy@5": 0.7413366336633663,
419
+ "eval_dim_512_cosine_map@100": 0.6678128035277444,
420
+ "eval_dim_512_cosine_mrr@10": 0.6617676164937917,
421
+ "eval_dim_512_cosine_ndcg@10": 0.6923022700361329,
422
+ "eval_dim_512_cosine_precision@1": 0.6045792079207921,
423
+ "eval_dim_512_cosine_precision@10": 0.07892945544554454,
424
+ "eval_dim_512_cosine_precision@3": 0.23184818481848182,
425
+ "eval_dim_512_cosine_precision@5": 0.14826732673267323,
426
+ "eval_dim_512_cosine_recall@1": 0.6045792079207921,
427
+ "eval_dim_512_cosine_recall@10": 0.7892945544554455,
428
+ "eval_dim_512_cosine_recall@3": 0.6955445544554455,
429
+ "eval_dim_512_cosine_recall@5": 0.7413366336633663,
430
+ "eval_dim_64_cosine_accuracy@1": 0.5770420792079208,
431
+ "eval_dim_64_cosine_accuracy@10": 0.755569306930693,
432
+ "eval_dim_64_cosine_accuracy@3": 0.6593440594059405,
433
+ "eval_dim_64_cosine_accuracy@5": 0.6989480198019802,
434
+ "eval_dim_64_cosine_map@100": 0.6369596779835216,
435
+ "eval_dim_64_cosine_mrr@10": 0.6308034486484356,
436
+ "eval_dim_64_cosine_ndcg@10": 0.6604592325341517,
437
+ "eval_dim_64_cosine_precision@1": 0.5770420792079208,
438
+ "eval_dim_64_cosine_precision@10": 0.0755569306930693,
439
+ "eval_dim_64_cosine_precision@3": 0.2197813531353135,
440
+ "eval_dim_64_cosine_precision@5": 0.13978960396039602,
441
+ "eval_dim_64_cosine_recall@1": 0.5770420792079208,
442
+ "eval_dim_64_cosine_recall@10": 0.755569306930693,
443
+ "eval_dim_64_cosine_recall@3": 0.6593440594059405,
444
+ "eval_dim_64_cosine_recall@5": 0.6989480198019802,
445
+ "eval_dim_768_cosine_accuracy@1": 0.6073638613861386,
446
+ "eval_dim_768_cosine_accuracy@10": 0.7920792079207921,
447
+ "eval_dim_768_cosine_accuracy@3": 0.7004950495049505,
448
+ "eval_dim_768_cosine_accuracy@5": 0.7419554455445545,
449
+ "eval_dim_768_cosine_map@100": 0.6707577379319669,
450
+ "eval_dim_768_cosine_mrr@10": 0.6648522218293257,
451
+ "eval_dim_768_cosine_ndcg@10": 0.6953201867128341,
452
+ "eval_dim_768_cosine_precision@1": 0.6073638613861386,
453
+ "eval_dim_768_cosine_precision@10": 0.0792079207920792,
454
+ "eval_dim_768_cosine_precision@3": 0.2334983498349835,
455
+ "eval_dim_768_cosine_precision@5": 0.1483910891089109,
456
+ "eval_dim_768_cosine_recall@1": 0.6073638613861386,
457
+ "eval_dim_768_cosine_recall@10": 0.7920792079207921,
458
+ "eval_dim_768_cosine_recall@3": 0.7004950495049505,
459
+ "eval_dim_768_cosine_recall@5": 0.7419554455445545,
460
+ "eval_loss": 0.40385201573371887,
461
+ "eval_runtime": 492.2835,
462
+ "eval_samples_per_second": 6.567,
463
+ "eval_sequential_score": 0.6604592325341517,
464
+ "eval_steps_per_second": 0.104,
465
+ "step": 170
466
+ }
467
+ ],
468
+ "logging_steps": 500,
469
+ "max_steps": 170,
470
+ "num_input_tokens_seen": 0,
471
+ "num_train_epochs": 5,
472
+ "save_steps": 500,
473
+ "stateful_callbacks": {
474
+ "EarlyStoppingCallback": {
475
+ "args": {
476
+ "early_stopping_patience": 1,
477
+ "early_stopping_threshold": 0.001
478
+ },
479
+ "attributes": {
480
+ "early_stopping_patience_counter": 1
481
+ }
482
+ },
483
+ "TrainerControl": {
484
+ "args": {
485
+ "should_epoch_stop": false,
486
+ "should_evaluate": false,
487
+ "should_log": false,
488
+ "should_save": true,
489
+ "should_training_stop": true
490
+ },
491
+ "attributes": {}
492
+ }
493
+ },
494
+ "total_flos": 0.0,
495
+ "train_batch_size": 64,
496
+ "trial_name": null,
497
+ "trial_params": null
498
+ }
checkpoint-170/training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:fc988e097dacfd51c49a922b0fc9a5072904df17b21671216c9b070d9ae65a37
3
+ size 6189
checkpoint-170/vocab.txt ADDED
The diff for this file is too large to render. See raw diff
 
config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "RobertaModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "dtype": "float32",
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "transformers_version": "4.57.3",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 64001
27
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "5.1.2",
4
+ "transformers": "4.57.3",
5
+ "pytorch": "2.9.0+cu126"
6
+ },
7
+ "model_type": "SentenceTransformer",
8
+ "prompts": {
9
+ "query": "",
10
+ "document": ""
11
+ },
12
+ "default_prompt_name": null,
13
+ "similarity_fn_name": "cosine"
14
+ }
eval/Information-Retrieval_evaluation_dim_128_results.csv ADDED
@@ -0,0 +1,6 @@
 
 
 
 
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 1.0,34,0.4124381188118812,0.6330445544554455,0.6933787128712872,0.750309405940594,0.4124381188118812,0.4124381188118812,0.2110148514851485,0.6330445544554455,0.1386757425742574,0.6933787128712872,0.0750309405940594,0.750309405940594,0.5330007219471937,0.5861805571411892,0.5390741765753619
3
+ 2.0,68,0.5795173267326733,0.6741955445544554,0.713490099009901,0.7633044554455446,0.5795173267326733,0.5795173267326733,0.22473184818481845,0.6741955445544554,0.14269801980198019,0.713490099009901,0.07633044554455444,0.7633044554455446,0.6384666480040855,0.6684418951354488,0.6450664283037013
4
+ 3.0,102,0.588799504950495,0.6735767326732673,0.7196782178217822,0.7735148514851485,0.588799504950495,0.588799504950495,0.22452557755775576,0.6735767326732673,0.14393564356435642,0.7196782178217822,0.07735148514851485,0.7735148514851485,0.6444403926999842,0.6752041805385901,0.6505516720307649
5
+ 4.0,136,0.5909653465346535,0.6754331683168316,0.7206064356435643,0.7747524752475248,0.5909653465346535,0.5909653465346535,0.2251443894389439,0.6754331683168316,0.14412128712871286,0.7206064356435643,0.07747524752475247,0.7747524752475248,0.646089329915134,0.6767471876748526,0.6521863637339076
6
+ 5.0,170,0.5915841584158416,0.6763613861386139,0.7230816831683168,0.7738242574257426,0.5915841584158416,0.5915841584158416,0.22545379537953794,0.6763613861386139,0.14461633663366336,0.7230816831683168,0.07738242574257424,0.7738242574257426,0.6465193059484518,0.6768923401788021,0.6528103079926022
eval/Information-Retrieval_evaluation_dim_256_results.csv ADDED
@@ -0,0 +1,6 @@
 
 
 
 
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 1.0,34,0.4368811881188119,0.6534653465346535,0.7085396039603961,0.7676361386138614,0.4368811881188119,0.4368811881188119,0.21782178217821782,0.6534653465346535,0.1417079207920792,0.7085396039603961,0.07676361386138612,0.7676361386138614,0.5535645528838586,0.605897792319333,0.5592759707659912
3
+ 2.0,68,0.5931311881188119,0.687809405940594,0.7261757425742574,0.7831064356435643,0.5931311881188119,0.5931311881188119,0.22926980198019803,0.687809405940594,0.14523514851485148,0.7261757425742574,0.07831064356435644,0.7831064356435643,0.6516103842527105,0.6829713329028779,0.6575604388902454
4
+ 3.0,102,0.598700495049505,0.6868811881188119,0.7317450495049505,0.7827970297029703,0.598700495049505,0.598700495049505,0.22896039603960397,0.6868811881188119,0.1463490099009901,0.7317450495049505,0.07827970297029702,0.7827970297029703,0.6549405498585567,0.6854719862198021,0.6609633297873007
5
+ 4.0,136,0.6017945544554455,0.6933787128712872,0.7323638613861386,0.7886757425742574,0.6017945544554455,0.6017945544554455,0.2311262376237624,0.6933787128712872,0.14647277227722771,0.7323638613861386,0.07886757425742573,0.7886757425742574,0.6588266639163911,0.689763722191061,0.6646453380799541
6
+ 5.0,170,0.6036509900990099,0.693069306930693,0.7345297029702971,0.7874381188118812,0.6036509900990099,0.6036509900990099,0.23102310231023104,0.693069306930693,0.1469059405940594,0.7345297029702971,0.0787438118811881,0.7874381188118812,0.6594872210435324,0.6899985182895687,0.6654213269021221
eval/Information-Retrieval_evaluation_dim_512_results.csv ADDED
@@ -0,0 +1,6 @@
 
 
 
 
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 1.0,34,0.45142326732673266,0.6596534653465347,0.713180693069307,0.7716584158415841,0.45142326732673266,0.45142326732673266,0.21988448844884487,0.6596534653465347,0.14263613861386137,0.713180693069307,0.07716584158415841,0.7716584158415841,0.5641202066635224,0.6147827472397471,0.5698535530932649
3
+ 2.0,68,0.6014851485148515,0.6902846534653465,0.7323638613861386,0.786200495049505,0.6014851485148515,0.6014851485148515,0.23009488448844886,0.6902846534653465,0.14647277227722771,0.7323638613861386,0.07862004950495048,0.786200495049505,0.658349171970768,0.6888741353339312,0.6642318800504701
4
+ 3.0,102,0.6061262376237624,0.6921410891089109,0.739480198019802,0.7886757425742574,0.6061262376237624,0.6061262376237624,0.23071369636963696,0.6921410891089109,0.1478960396039604,0.739480198019802,0.07886757425742573,0.7886757425742574,0.6616048100345742,0.6919295866827898,0.6674689768675662
5
+ 4.0,136,0.6033415841584159,0.6955445544554455,0.7410272277227723,0.7911509900990099,0.6033415841584159,0.6033415841584159,0.23184818481848185,0.6955445544554455,0.14820544554455445,0.7410272277227723,0.07911509900990099,0.7911509900990099,0.6609851386924402,0.6921184985693198,0.666779697385627
6
+ 5.0,170,0.6045792079207921,0.6955445544554455,0.7413366336633663,0.7892945544554455,0.6045792079207921,0.6045792079207921,0.23184818481848182,0.6955445544554455,0.14826732673267323,0.7413366336633663,0.07892945544554454,0.7892945544554455,0.6617676164937917,0.6923022700361329,0.6678128035277444
eval/Information-Retrieval_evaluation_dim_64_results.csv ADDED
@@ -0,0 +1,6 @@
 
 
 
 
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 1.0,34,0.37902227722772275,0.6070544554455446,0.661819306930693,0.719059405940594,0.37902227722772275,0.37902227722772275,0.20235148514851486,0.6070544554455446,0.1323638613861386,0.661819306930693,0.0719059405940594,0.719059405940594,0.5013101868222527,0.5546728174754348,0.5078663720617047
3
+ 2.0,68,0.5637376237623762,0.6574876237623762,0.6958539603960396,0.745049504950495,0.5637376237623762,0.5637376237623762,0.21916254125412538,0.6574876237623762,0.1391707920792079,0.6958539603960396,0.0745049504950495,0.745049504950495,0.621153666705955,0.6508362012533989,0.6276111030423622
4
+ 3.0,102,0.5779702970297029,0.6571782178217822,0.6967821782178217,0.7546410891089109,0.5779702970297029,0.5779702970297029,0.21905940594059406,0.6571782178217822,0.13935643564356434,0.6967821782178217,0.07546410891089109,0.7546410891089109,0.6299013829954415,0.6594783681667493,0.6359739450990423
5
+ 4.0,136,0.5764232673267327,0.6596534653465347,0.698019801980198,0.7568069306930693,0.5764232673267327,0.5764232673267327,0.21988448844884487,0.6596534653465347,0.1396039603960396,0.698019801980198,0.07568069306930691,0.7568069306930693,0.6308043081093817,0.6607288131349602,0.636912211423935
6
+ 5.0,170,0.5770420792079208,0.6593440594059405,0.6989480198019802,0.755569306930693,0.5770420792079208,0.5770420792079208,0.2197813531353135,0.6593440594059405,0.13978960396039602,0.6989480198019802,0.0755569306930693,0.755569306930693,0.6308034486484356,0.6604592325341517,0.6369596779835216
eval/Information-Retrieval_evaluation_dim_768_results.csv ADDED
@@ -0,0 +1,6 @@
 
 
 
 
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@3,cosine-Accuracy@5,cosine-Accuracy@10,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 1.0,34,0.4498762376237624,0.6636757425742574,0.718440594059406,0.7766089108910891,0.4498762376237624,0.4498762376237624,0.22122524752475248,0.6636757425742574,0.14368811881188118,0.718440594059406,0.0776608910891089,0.7766089108910891,0.5655928316045877,0.6171865359941737,0.5711039325345794
3
+ 2.0,68,0.5974628712871287,0.6943069306930693,0.7351485148514851,0.7852722772277227,0.5974628712871287,0.5974628712871287,0.23143564356435645,0.6943069306930693,0.14702970297029702,0.7351485148514851,0.07852722772277228,0.7852722772277227,0.656933517012415,0.6877247613199143,0.6630474427615004
4
+ 3.0,102,0.6079826732673267,0.6958539603960396,0.7422648514851485,0.7899133663366337,0.6079826732673267,0.6079826732673267,0.2319513201320132,0.6958539603960396,0.1484529702970297,0.7422648514851485,0.07899133663366337,0.7899133663366337,0.6637049642464244,0.6938587875325103,0.6694799794360519
5
+ 4.0,136,0.6061262376237624,0.7008044554455446,0.7419554455445545,0.7939356435643564,0.6061262376237624,0.6061262376237624,0.23360148514851486,0.7008044554455446,0.14839108910891088,0.7419554455445545,0.07939356435643563,0.7939356435643564,0.6643359313609929,0.6953383284750302,0.669943476319759
6
+ 5.0,170,0.6073638613861386,0.7004950495049505,0.7419554455445545,0.7920792079207921,0.6073638613861386,0.6073638613861386,0.2334983498349835,0.7004950495049505,0.1483910891089109,0.7419554455445545,0.0792079207920792,0.7920792079207921,0.6648522218293257,0.6953201867128341,0.6707577379319669
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "model_max_length": 256,
51
+ "pad_token": "<pad>",
52
+ "sep_token": "</s>",
53
+ "tokenizer_class": "PhobertTokenizer",
54
+ "unk_token": "<unk>"
55
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:fc988e097dacfd51c49a922b0fc9a5072904df17b21671216c9b070d9ae65a37
3
+ size 6189
vocab.txt ADDED
The diff for this file is too large to render. See raw diff