AlexanderAA commited on
Commit
0906b06
·
verified ·
1 Parent(s): 18743c2

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,5 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
37
+ unigram.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 384,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,779 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - dense
7
+ - generated_from_trainer
8
+ - dataset_size:361260
9
+ - loss:CosineSimilarityLoss
10
+ widget:
11
+ - source_sentence: когда и кем был объявлен еретическим культ Астральных Ножей?
12
+ sentences:
13
+ - 'Вороные Мечи (англ. Sable Swords ) — орден Адептус Астартес неизвестного происхождения
14
+ и Основания [ 1 ] .
15
+
16
+
17
+ ИСТОРИЯ [ ]'
18
+ - 'Ракетная пусковая установка «Циклон» — специально разработана для использования
19
+ с тактическим доспехом дредноута . Позволяет быстро запускать ракеты с двойных
20
+ стеллажей, эта ракетная система также компенсирует некоторую негибкость терминатора
21
+ , предоставляя больше возможностей в бою. Каждый из ракетных отсеков установки
22
+ может быть загружен любым видом ракеты, позволяя носителю решать, каким типом
23
+ ракеты стрелять.
24
+
25
+ Одноразовый ракетомёт — пользуется популярностью у СПО , поскольку он прост в
26
+ использовании и не требует зарядки или перезарядки. Это оружие обычно поставляется
27
+ с предварительно заряженной фраг- или крак-ракетой.
28
+
29
+ Пусковая установка «Коготь Дрейка» — примитивная пусковая установка стреляет тонкоствольной
30
+ боеголовкой и названа в честь вольного торговца , который издевался над ее диковинным
31
+ внешним видом. Прямой урон минимален, но, как обнаружил Дрейк, взрывоопасный груз
32
+ разбивается на смертельные осколки, которые ужасны при удалении.'
33
+ - Записи, касающиеся событий мученической смерти Катерины, крайне скудны и порой
34
+ противоречивы, причем самый старый и надежный отчёт содержится в обугленном фрагменте
35
+ пергамента, известном как Свиток Канделы . Разборчивый почерк на этом свитке гласит,
36
+ что Катерина встретила свой конец, когда была убита культом ведьм Мнестей, но
37
+ нет никаких указаний на то, что это был за культ или как им удалось убить почитаемого
38
+ воина.Записи Экклезиархии гласят, что известие о кончине Екатерины вызвало волну
39
+ скорби по всей Адепта Сороритас, и многие ордена проводили недельные молитвенные
40
+ бдения, дабы почтить смерть святой. Её сестры из ордена Огненного Сердца, в свою
41
+ очередь, так скорьели по потере Катерины, что переименовали свой орден в орден
42
+ Пресвятой Девы-Мученицы.
43
+ - source_sentence: что такое шпилевая стража и какие силы её составляли?
44
+ sentences:
45
+ - 'ЧУМА НЕВЕРИЯ [ ]
46
+
47
+
48
+ Из числа многих ересей и восстаний, что ознаменовали Эру Отступничества, одной
49
+ из самых заметных стала «Чума Неверия». Вдохновлённая кардиналом Бухарисом, она
50
+ служит для Экклезиархии и её духовенства постоянным напоминанием того, что власть
51
+ может развратить тех, кто ею обладает. Экклезиархии остаётся только горько сожалеть
52
+ о том, что фанатичная вера, упорство и смелость Бухариса были направлены не на
53
+ пользу человечеству, а на удовлетворение собственных амбиций кардинала.
54
+
55
+
56
+ КАРДИНАЛ-ВЕРООТСТУПНИК [ ]'
57
+ - И тогда Магнус сдался. Не в силах больше смотреть на гибель своих детей и мира,
58
+ он ринулся навстречу Руссу. Поединок циклопа и берсерка в разрушенном сердце Тизки
59
+ был яростней всей предшествовавшей ему битвы, однако в итоге победил Русс. Сломав
60
+ Магнусу спину, он поднял свой морозный меч «Мьялнар» для решающего удара. Но прежде,
61
+ чем тот успел опустить клинок, Алый Король прошептал слово силы и исчез, воспарив
62
+ в варпе. Там он узрел спасение, скрывавшееся от него — само воплощение колдовства.
63
+ Осознав своё бесповоротное положение, Магнус Красный отринул Императора и полностью
64
+ отдался тёмному богу Тзинчу. В то же мгновение Тизка и Тысяча Сынов исчезли с
65
+ лица Просперо.
66
+ - 'КОМАНДОВАНИЕ [ ]
67
+
68
+
69
+ Департаменто Муниторум может быть представлен в совете Высших Лордов Терры следующими
70
+ людьми:
71
+
72
+ лорд-командующий милитант Имперской Гвардии
73
+
74
+ Канцлер имущества Империума
75
+
76
+ Магистр Администратума
77
+
78
+
79
+ ГЛАВНЫЕ СЛУЖБЫ [ ]'
80
+ - source_sentence: какая неформальная метка была у сержанта Калена?
81
+ sentences:
82
+ - Действуя в качестве поддержки для команд Воинов Огня, эскадроны дронов вооружены
83
+ спаренными импульсными карабинами. Используя свое оружие, дроны заставляют противника
84
+ залегать, давая командам воинов Огня и «Кризисов» больше времени на применение
85
+ своей подавляющей огневой мощи. Наблюдатель и дроны оснащены генератором маскировочного
86
+ поля и прицельными матрицами. Наблюдатель оснащен контролирующим устройством для
87
+ дронов, сетевым целеуказателем и несет импульсный пистолет. Каждый дрон вооружен
88
+ электромагнитной винтовкой и имеет сопроводитель цели.
89
+ - Скрывающие свою скорбь под богато украшенными орденскими масками и скованные клятвой
90
+ Эрелимы вместе со своими братьями пронеслись по планете багровым приливом. Любого,
91
+ кто поднимал против них оружие, ждала только смерть, ибо это уже не было битвой,
92
+ противостоянием разумов и клинков в честном бою — это была бойня. Кровавые Ангелы
93
+ задействовали оружие и боеприпасы, использовать которые Сангвиний позволял лишь
94
+ в исключительных случаях — ужас, известный как фосфекс, и ненавистное, проклятое
95
+ рад-оружие. Города превращались в могильники обезображенных мертвецов, леса и
96
+ поля обращались прахом и пеплом, а крепости — открытыми почерневшими ранами. Анактор
97
+ Централис был не просто завоёван — он был разрушен. Не уцелел ни один вооружённый
98
+ человек, легионеры не оставили камня на камне, а немногочисленные уцелевшие стали
99
+ рабами в недрах легионных кораблей или на отдалённых мануфакториях.
100
+ - 'СНАРЯЖЕНИЕ: [ ]
101
+
102
+
103
+ Болтган модели «Умбра».
104
+
105
+ Плазменный пистолет «Плюющееся солнце» модели «Риза»: выдается линейным офицерам
106
+ со статусом ветерана.
107
+
108
+
109
+ ПРИМЕЧАНИЯ [ ]
110
+
111
+
112
+ На силовых доспехах сержанта Калена изображён символ легиона Гвардии Ворона, а
113
+ также знак молнии, свидетельствующий о том, что он служит в разведывательном отделении
114
+ легиона — белая личина считалась неформальной меткой сержанта отделения. Порядковый
115
+ номер на нагруднике указывает на принадлежность воина ко 2-му ордену, и, кроме
116
+ того, у него имеется ветеранская награда «Корвус Калвариам».
117
+
118
+
119
+ ИСТОЧНИК [ ]
120
+
121
+
122
+ Ересь Хоруса, книга 3 — Истребление'
123
+ - source_sentence: каким образом кристаллические существа воспринимают окружающий
124
+ мир?
125
+ sentences:
126
+ - В конечном счёте выживших космодесантников, которых превосходили и числом, и огневой
127
+ мощью, загнали в главную оружейную. Здесь Гесперакс встретилась с Враксом в поединке,
128
+ с издёвкой пообещав даровать свободу лорду Хаоса и его бойцам, если ему удастся
129
+ победить её. С демонической силой, пылающей в венах, и выкованным в преисподней
130
+ палашом опытный мечник двинулся на свою стройную противницу. Гесперакс, по обыкновению
131
+ вышедшая на бой с обычным ножом в каждой руке, в ответ только слегка скривила
132
+ уголок своих прелестных губ, что можно было расценить как усмешку. Последовавшая
133
+ за этим битва походила на вихрь клинков, которые мелькали так быстро, что за ними
134
+ было не уследить, и уже спустя считанные мгновения меч Вракса ударился об пол,
135
+ сжимаемый отрезанными руками. На упругой коже нагой Лелит не виднелось ни единой
136
+ царапинки, только капли крови её противника. Но на этом она не остановилась. Ловко
137
+ укоротив ему руки и ноги, ведьма оставила противника беспомощно реветь от ярости.
138
+ Когда военачальник Хаоса пал, её последовательницы сомкнули кольцо вокруг остальных
139
+ космодесантников. В тот день всего один Альфа-Легионер покинул цитадель живым.
140
+ Его лишённое конечностей тело по-прежнему стонет в бесконечной агонии над Ониксовыми
141
+ вратами дворца Векта.
142
+ - С того момента, как Робаут оказался в Мальстриме и впервые услышал шёпот великого
143
+ демона, Судьбоплёт внедрял в его подсознание различные ловушки. Это давалось непросто,
144
+ ведь разум примарха был идеальной крепостью порядка и здравомыслия с внушительными
145
+ ментальными укреплениями. Но, действуя аккуратно и неторопливо, Кайрос добился
146
+ своего. Он выманил наружу чувство вины Жиллимана, его гнев и разочарование тем,
147
+ что осталось от Империума, его страх перед будущим. Изначально Оракул хотел лишить
148
+ примарха рассудка перед тем, как провести обряд, но вмешательство назойливых эльдар
149
+ заставило его поторопиться. Судьбоплёт надеялся, что проделанной работы хватит,
150
+ иначе Робаут наверняка изгонит его в варп и спасётся из шторма.
151
+ - Все кристаллы, кажется, созданы из полупрозрачного, молочно-белого вещества. Поверхность
152
+ многих покрывают узоры из трещин и сколов. Наблюдатели – по крайней мере, те,
153
+ что сохранили воспоминания об увиденном – докладывают, что эти узоры на кристаллах
154
+ постоянно меняются. Это может быть видимостью, вызванной свечением или вращением,
155
+ но нельзя исключать и того, что эти узоры действительно меняются. Легенды говорят,
156
+ что эти конструкты записывают на своей поверхности все поглощённые мысли, и видимые
157
+ внешние изменения кристалла отражают колебания последних полученных воспоминаний.
158
+ - source_sentence: какие именно ордена космодесанта были созданы после Ереси Хоруса?
159
+ sentences:
160
+ - 'Ваул был богом-кузнецом, который существовал в пантеоне эльдар , брат Короля-Феникса
161
+ Азуриана .
162
+
163
+
164
+ ИСТОРИЯ [ ]'
165
+ - 'Поэтому, когда армии командующего боевой группой достигли Мезмоха, многие звездолёты
166
+ людей получили серьёзные повреждения, а несколько даже были уничтожены. Ранее
167
+ спокойная планета теперь горела зловещим светом: раскрывшие себя системы орбитальной
168
+ обороны вели огонь с земли. Вспыхивающие энергощитами и пылающие имперские шаттлы
169
+ тем не менее изрыгнули реки пехоты на поверхность планеты. Возглавившие наступление
170
+ Ультрамарины, пылкие Чёрные Храмовники и несколько истребительных групп Караула
171
+ Смерти организовали плацдармы на севере и на востоке от пилона. Следом высадились
172
+ целых 6 пехотных и бронетанковых полков Астра Милитарум, и прямо посреди них с
173
+ грохотом приземлился громадный челнок, перевозящий титана класса «Полководец»
174
+ «Деус Редемптор».'
175
+ - 'Астартес Презес — ордены космодесанта , которым поручено охранять области Империума
176
+ вокруг Ока Ужаса .
177
+
178
+ Древний фолиант, известный как « Мифос Ангелика Мортис », упоминает о двадцати
179
+ орденах космодесанта, созданных после Ереси Хоруса из геносемени примархов , не
180
+ обратившихся к Хаосу . Первоочередной задачей вновь созданных орденов была определена
181
+ защита имперских секторов вокруг Ока Ужаса и поддержка в случае необходимости
182
+ СПО Кадии и сил Инквизиции . Изначально эта группа состояла из 20 орденов; позже
183
+ один из этих орденов был признан уничтоженным, а ещё два объявлены Экскоммуникат
184
+ Трайторис .
185
+
186
+
187
+ ИЗВЕСТНЫЕ ОРДЕНА [ ]'
188
+ pipeline_tag: sentence-similarity
189
+ library_name: sentence-transformers
190
+ metrics:
191
+ - pearson_cosine
192
+ - spearman_cosine
193
+ model-index:
194
+ - name: SentenceTransformer
195
+ results:
196
+ - task:
197
+ type: semantic-similarity
198
+ name: Semantic Similarity
199
+ dataset:
200
+ name: warhammer test
201
+ type: warhammer-test
202
+ metrics:
203
+ - type: pearson_cosine
204
+ value: 0.6253327879288649
205
+ name: Pearson Cosine
206
+ - type: spearman_cosine
207
+ value: 0.5965594084521391
208
+ name: Spearman Cosine
209
+ ---
210
+
211
+ # SentenceTransformer
212
+
213
+ This is a [sentence-transformers](https://www.SBERT.net) model trained. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
214
+
215
+ ## Model Details
216
+
217
+ ### Model Description
218
+ - **Model Type:** Sentence Transformer
219
+ <!-- - **Base model:** [Unknown](https://huggingface.co/unknown) -->
220
+ - **Maximum Sequence Length:** 128 tokens
221
+ - **Output Dimensionality:** 384 dimensions
222
+ - **Similarity Function:** Cosine Similarity
223
+ <!-- - **Training Dataset:** Unknown -->
224
+ <!-- - **Language:** Unknown -->
225
+ <!-- - **License:** Unknown -->
226
+
227
+ ### Model Sources
228
+
229
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
230
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
231
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
232
+
233
+ ### Full Model Architecture
234
+
235
+ ```
236
+ SentenceTransformer(
237
+ (0): Transformer({'max_seq_length': 128, 'do_lower_case': False, 'architecture': 'BertModel'})
238
+ (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
239
+ )
240
+ ```
241
+
242
+ ## Usage
243
+
244
+ ### Direct Usage (Sentence Transformers)
245
+
246
+ First install the Sentence Transformers library:
247
+
248
+ ```bash
249
+ pip install -U sentence-transformers
250
+ ```
251
+
252
+ Then you can load this model and run inference.
253
+ ```python
254
+ from sentence_transformers import SentenceTransformer
255
+
256
+ # Download from the 🤗 Hub
257
+ model = SentenceTransformer("AlexanderAA/wh_sentence_model_ft")
258
+ # Run inference
259
+ sentences = [
260
+ 'какие именно ордена космодесанта были созданы после Ереси Хоруса?',
261
+ 'Астартес Презес — ордены космодесанта , которым поручено охранять области Империума вокруг Ока Ужаса .\nДревний фолиант, известный как « Мифос Ангелика Мортис », упоминает о двадцати орденах космодесанта, созданных после Ереси Хоруса из геносемени примархов , не обратившихся к Хаосу . Первоочередной задачей вновь созданных орденов была определена защита имперских секторов вокруг Ока Ужаса и поддержка в случае необходимости СПО Кадии и сил Инквизиции . Изначально эта группа состояла из 20 орденов; позже один из этих орденов был признан уничтоженным, а ещё два объявлены Экскоммуникат Трайторис .\n\nИЗВЕСТНЫЕ ОРДЕНА [ ]',
262
+ 'Ваул был богом-кузнецом, который существовал в пантеоне эльдар , брат Короля-Феникса Азуриана .\n\nИСТОРИЯ [ ]',
263
+ ]
264
+ embeddings = model.encode(sentences)
265
+ print(embeddings.shape)
266
+ # [3, 384]
267
+
268
+ # Get the similarity scores for the embeddings
269
+ similarities = model.similarity(embeddings, embeddings)
270
+ print(similarities)
271
+ # tensor([[1.0000, 0.6150, 0.0683],
272
+ # [0.6150, 1.0000, 0.2699],
273
+ # [0.0683, 0.2699, 1.0000]])
274
+ ```
275
+
276
+ <!--
277
+ ### Direct Usage (Transformers)
278
+
279
+ <details><summary>Click to see the direct usage in Transformers</summary>
280
+
281
+ </details>
282
+ -->
283
+
284
+ <!--
285
+ ### Downstream Usage (Sentence Transformers)
286
+
287
+ You can finetune this model on your own dataset.
288
+
289
+ <details><summary>Click to expand</summary>
290
+
291
+ </details>
292
+ -->
293
+
294
+ <!--
295
+ ### Out-of-Scope Use
296
+
297
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
298
+ -->
299
+
300
+ ## Evaluation
301
+
302
+ ### Metrics
303
+
304
+ #### Semantic Similarity
305
+
306
+ * Dataset: `warhammer-test`
307
+ * Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
308
+
309
+ | Metric | Value |
310
+ |:--------------------|:-----------|
311
+ | pearson_cosine | 0.6253 |
312
+ | **spearman_cosine** | **0.5966** |
313
+
314
+ <!--
315
+ ## Bias, Risks and Limitations
316
+
317
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
318
+ -->
319
+
320
+ <!--
321
+ ### Recommendations
322
+
323
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
324
+ -->
325
+
326
+ ## Training Details
327
+
328
+ ### Training Dataset
329
+
330
+ #### Unnamed Dataset
331
+
332
+ * Size: 361,260 training samples
333
+ * Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
334
+ * Approximate statistics based on the first 1000 samples:
335
+ | | sentence_0 | sentence_1 | label |
336
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:---------------------------------------------------------------|
337
+ | type | string | string | float |
338
+ | details | <ul><li>min: 8 tokens</li><li>mean: 18.64 tokens</li><li>max: 41 tokens</li></ul> | <ul><li>min: 36 tokens</li><li>mean: 123.93 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.33</li><li>max: 1.0</li></ul> |
339
+ * Samples:
340
+ | sentence_0 | sentence_1 | label |
341
+ |:---------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
342
+ | <code>почему большое количество быстро движущихся транспортов сложно остановить перед боем?</code> | <code>Однако уже давно ни одному племени не удаётся стать главным: климат и география мира делают почти невозможной защиту больше одного поселения. Терзающие поверхность песчаные бури могут длиться неделями и способны уничтожить целые крепости, разорвав стены и за мгновения ободрав до костей даже орков. Особенно разрушительны три бесконечных бури, известных оркам как Улг, Бур и Ззук. Эти многокилометровой ширины бури мчатся по поверхности Берина, часто сталкиваются и разрушают всё на своём пути. Орочьи псайкеры, известные как чудилы, испытывают странный интерес к штормам и верят, что в их сердцах крадутся демоны, которые разрывают орков и оставляют странного вида послания.</code> | <code>0.0</code> |
343
+ | <code>что значит 'смертный приговор, смягчённый до тех пор, пока они были полезны'?</code> | <code>В штрафные легионы попадают гвардейцы, чья высшая мера наказания за преступления была заменена пожизненной службой. Это дикие банды отчаянных головорезов, одна часть которых сошла с ума от ярости, а другая — от раскаяния. Выпущенные из камер смертников из-за своих способностей или животного инстинкта, эти подонки составляют самую несдержанную, яростную и взрывную армию во всей Имперской Гвардии.</code> | <code>0.0</code> |
344
+ | <code>что символизирует внешний вид врат вечности и какая сила охраняет проход после них?</code> | <code>Врата Вечности — последние ворота в символическое сердце Царства Человечества — Санктум Империалис, самое священное место для людей во всей Галактике. К самим дверям ведёт двухкилометровая широкая дорога, на которой рядами выставлены тысячи развёрнутых знамён самых разных форм и расцветок. Эти древние и потрепанные флаги когда-то принадлежали самым великим и доблестным армиям и героям, которые когда-либо сражались за Человечество — Дорн Непоколебимый, Малкадор Герой , Солар Махарий , и тысячи других флагов полков Имперской Гвардии , орденов Адептус Астартес и линейных флотов . Подобно тому, как верные слуги чтили Императора доблестью и самопожертвованием, так и Он воздаёт им хвалу. В конце этой дороги славы находятся сами Врата — две огромные двери из прочного адамантия и керамита . Внешняя поверхность дверей покрыта сверкающим золотом, на котором вырезано изображение Императора на пике своей славы — с мечом и щитом Он повергает змееподобную тварь, воплощение зла и раздора. Два титана ...</code> | <code>1.0</code> |
345
+ * Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
346
+ ```json
347
+ {
348
+ "loss_fct": "torch.nn.modules.loss.MSELoss"
349
+ }
350
+ ```
351
+
352
+ ### Training Hyperparameters
353
+ #### Non-Default Hyperparameters
354
+
355
+ - `eval_strategy`: steps
356
+ - `per_device_train_batch_size`: 32
357
+ - `per_device_eval_batch_size`: 32
358
+ - `num_train_epochs`: 6
359
+ - `multi_dataset_batch_sampler`: round_robin
360
+
361
+ #### All Hyperparameters
362
+ <details><summary>Click to expand</summary>
363
+
364
+ - `overwrite_output_dir`: False
365
+ - `do_predict`: False
366
+ - `eval_strategy`: steps
367
+ - `prediction_loss_only`: True
368
+ - `per_device_train_batch_size`: 32
369
+ - `per_device_eval_batch_size`: 32
370
+ - `per_gpu_train_batch_size`: None
371
+ - `per_gpu_eval_batch_size`: None
372
+ - `gradient_accumulation_steps`: 1
373
+ - `eval_accumulation_steps`: None
374
+ - `torch_empty_cache_steps`: None
375
+ - `learning_rate`: 5e-05
376
+ - `weight_decay`: 0.0
377
+ - `adam_beta1`: 0.9
378
+ - `adam_beta2`: 0.999
379
+ - `adam_epsilon`: 1e-08
380
+ - `max_grad_norm`: 1
381
+ - `num_train_epochs`: 6
382
+ - `max_steps`: -1
383
+ - `lr_scheduler_type`: linear
384
+ - `lr_scheduler_kwargs`: {}
385
+ - `warmup_ratio`: 0.0
386
+ - `warmup_steps`: 0
387
+ - `log_level`: passive
388
+ - `log_level_replica`: warning
389
+ - `log_on_each_node`: True
390
+ - `logging_nan_inf_filter`: True
391
+ - `save_safetensors`: True
392
+ - `save_on_each_node`: False
393
+ - `save_only_model`: False
394
+ - `restore_callback_states_from_checkpoint`: False
395
+ - `no_cuda`: False
396
+ - `use_cpu`: False
397
+ - `use_mps_device`: False
398
+ - `seed`: 42
399
+ - `data_seed`: None
400
+ - `jit_mode_eval`: False
401
+ - `use_ipex`: False
402
+ - `bf16`: False
403
+ - `fp16`: False
404
+ - `fp16_opt_level`: O1
405
+ - `half_precision_backend`: auto
406
+ - `bf16_full_eval`: False
407
+ - `fp16_full_eval`: False
408
+ - `tf32`: None
409
+ - `local_rank`: 0
410
+ - `ddp_backend`: None
411
+ - `tpu_num_cores`: None
412
+ - `tpu_metrics_debug`: False
413
+ - `debug`: []
414
+ - `dataloader_drop_last`: False
415
+ - `dataloader_num_workers`: 0
416
+ - `dataloader_prefetch_factor`: None
417
+ - `past_index`: -1
418
+ - `disable_tqdm`: False
419
+ - `remove_unused_columns`: True
420
+ - `label_names`: None
421
+ - `load_best_model_at_end`: False
422
+ - `ignore_data_skip`: False
423
+ - `fsdp`: []
424
+ - `fsdp_min_num_params`: 0
425
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
426
+ - `fsdp_transformer_layer_cls_to_wrap`: None
427
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
428
+ - `deepspeed`: None
429
+ - `label_smoothing_factor`: 0.0
430
+ - `optim`: adamw_torch
431
+ - `optim_args`: None
432
+ - `adafactor`: False
433
+ - `group_by_length`: False
434
+ - `length_column_name`: length
435
+ - `ddp_find_unused_parameters`: None
436
+ - `ddp_bucket_cap_mb`: None
437
+ - `ddp_broadcast_buffers`: False
438
+ - `dataloader_pin_memory`: True
439
+ - `dataloader_persistent_workers`: False
440
+ - `skip_memory_metrics`: True
441
+ - `use_legacy_prediction_loop`: False
442
+ - `push_to_hub`: False
443
+ - `resume_from_checkpoint`: None
444
+ - `hub_model_id`: None
445
+ - `hub_strategy`: every_save
446
+ - `hub_private_repo`: None
447
+ - `hub_always_push`: False
448
+ - `hub_revision`: None
449
+ - `gradient_checkpointing`: False
450
+ - `gradient_checkpointing_kwargs`: None
451
+ - `include_inputs_for_metrics`: False
452
+ - `include_for_metrics`: []
453
+ - `eval_do_concat_batches`: True
454
+ - `fp16_backend`: auto
455
+ - `push_to_hub_model_id`: None
456
+ - `push_to_hub_organization`: None
457
+ - `mp_parameters`:
458
+ - `auto_find_batch_size`: False
459
+ - `full_determinism`: False
460
+ - `torchdynamo`: None
461
+ - `ray_scope`: last
462
+ - `ddp_timeout`: 1800
463
+ - `torch_compile`: False
464
+ - `torch_compile_backend`: None
465
+ - `torch_compile_mode`: None
466
+ - `include_tokens_per_second`: False
467
+ - `include_num_input_tokens_seen`: False
468
+ - `neftune_noise_alpha`: None
469
+ - `optim_target_modules`: None
470
+ - `batch_eval_metrics`: False
471
+ - `eval_on_start`: False
472
+ - `use_liger_kernel`: False
473
+ - `liger_kernel_config`: None
474
+ - `eval_use_gather_object`: False
475
+ - `average_tokens_across_devices`: False
476
+ - `prompts`: None
477
+ - `batch_sampler`: batch_sampler
478
+ - `multi_dataset_batch_sampler`: round_robin
479
+ - `router_mapping`: {}
480
+ - `learning_rate_mapping`: {}
481
+
482
+ </details>
483
+
484
+ ### Training Logs
485
+ <details><summary>Click to expand</summary>
486
+
487
+ | Epoch | Step | Training Loss | warhammer-test_spearman_cosine |
488
+ |:------:|:-----:|:-------------:|:------------------------------:|
489
+ | 0.0443 | 500 | 0.1603 | - |
490
+ | 0.0886 | 1000 | 0.1627 | - |
491
+ | 0.1329 | 1500 | 0.1596 | - |
492
+ | 0.1771 | 2000 | 0.1627 | - |
493
+ | 0.2214 | 2500 | 0.1612 | 0.5293 |
494
+ | 0.2657 | 3000 | 0.16 | - |
495
+ | 0.3100 | 3500 | 0.1609 | - |
496
+ | 0.3543 | 4000 | 0.158 | - |
497
+ | 0.3986 | 4500 | 0.1575 | - |
498
+ | 0.4429 | 5000 | 0.156 | 0.5508 |
499
+ | 0.0443 | 500 | 0.1462 | - |
500
+ | 0.0886 | 1000 | 0.148 | - |
501
+ | 0.1329 | 1500 | 0.1492 | - |
502
+ | 0.1771 | 2000 | 0.1505 | - |
503
+ | 0.2214 | 2500 | 0.1498 | 0.5457 |
504
+ | 0.2657 | 3000 | 0.1488 | - |
505
+ | 0.3100 | 3500 | 0.1489 | - |
506
+ | 0.3543 | 4000 | 0.1495 | - |
507
+ | 0.3986 | 4500 | 0.1454 | - |
508
+ | 0.4429 | 5000 | 0.1476 | 0.5637 |
509
+ | 0.4872 | 5500 | 0.147 | - |
510
+ | 0.5314 | 6000 | 0.1462 | - |
511
+ | 0.5757 | 6500 | 0.1447 | - |
512
+ | 0.6200 | 7000 | 0.1459 | - |
513
+ | 0.6643 | 7500 | 0.148 | 0.5674 |
514
+ | 0.7086 | 8000 | 0.1464 | - |
515
+ | 0.7529 | 8500 | 0.1457 | - |
516
+ | 0.7972 | 9000 | 0.1468 | - |
517
+ | 0.8415 | 9500 | 0.1475 | - |
518
+ | 0.8857 | 10000 | 0.1457 | 0.5789 |
519
+ | 0.9300 | 10500 | 0.1456 | - |
520
+ | 0.9743 | 11000 | 0.1443 | - |
521
+ | 1.0 | 11290 | - | 0.5856 |
522
+ | 1.0186 | 11500 | 0.1382 | - |
523
+ | 1.0629 | 12000 | 0.1298 | - |
524
+ | 1.1072 | 12500 | 0.1307 | 0.5780 |
525
+ | 1.1515 | 13000 | 0.127 | - |
526
+ | 1.1957 | 13500 | 0.1277 | - |
527
+ | 1.2400 | 14000 | 0.129 | - |
528
+ | 1.2843 | 14500 | 0.1305 | - |
529
+ | 1.3286 | 15000 | 0.1311 | 0.5810 |
530
+ | 1.3729 | 15500 | 0.1308 | - |
531
+ | 1.4172 | 16000 | 0.1271 | - |
532
+ | 1.4615 | 16500 | 0.1314 | - |
533
+ | 1.5058 | 17000 | 0.1312 | - |
534
+ | 1.5500 | 17500 | 0.1313 | 0.5880 |
535
+ | 1.5943 | 18000 | 0.1337 | - |
536
+ | 1.6386 | 18500 | 0.1308 | - |
537
+ | 1.6829 | 19000 | 0.1298 | - |
538
+ | 1.7272 | 19500 | 0.129 | - |
539
+ | 1.7715 | 20000 | 0.1299 | 0.5890 |
540
+ | 1.8158 | 20500 | 0.13 | - |
541
+ | 1.8601 | 21000 | 0.133 | - |
542
+ | 1.9043 | 21500 | 0.129 | - |
543
+ | 1.9486 | 22000 | 0.1323 | - |
544
+ | 1.9929 | 22500 | 0.1316 | 0.5925 |
545
+ | 2.0 | 22580 | - | 0.5942 |
546
+ | 2.0372 | 23000 | 0.1168 | - |
547
+ | 2.0815 | 23500 | 0.1181 | - |
548
+ | 2.1258 | 24000 | 0.1173 | - |
549
+ | 2.1701 | 24500 | 0.1173 | - |
550
+ | 2.2143 | 25000 | 0.1163 | 0.5852 |
551
+ | 2.2586 | 25500 | 0.1173 | - |
552
+ | 2.3029 | 26000 | 0.1186 | - |
553
+ | 2.3472 | 26500 | 0.1188 | - |
554
+ | 2.3915 | 27000 | 0.1171 | - |
555
+ | 2.4358 | 27500 | 0.1161 | 0.5835 |
556
+ | 2.4801 | 28000 | 0.1176 | - |
557
+ | 2.5244 | 28500 | 0.1161 | - |
558
+ | 2.5686 | 29000 | 0.1197 | - |
559
+ | 2.6129 | 29500 | 0.1185 | - |
560
+ | 2.6572 | 30000 | 0.1186 | 0.5904 |
561
+ | 2.7015 | 30500 | 0.1198 | - |
562
+ | 2.7458 | 31000 | 0.1189 | - |
563
+ | 2.7901 | 31500 | 0.1189 | - |
564
+ | 2.8344 | 32000 | 0.1205 | - |
565
+ | 2.8787 | 32500 | 0.1186 | 0.5926 |
566
+ | 2.9229 | 33000 | 0.1166 | - |
567
+ | 2.9672 | 33500 | 0.1192 | - |
568
+ | 3.0 | 33870 | - | 0.5974 |
569
+ | 3.0115 | 34000 | 0.1124 | - |
570
+ | 3.0558 | 34500 | 0.1071 | - |
571
+ | 3.1001 | 35000 | 0.1064 | 0.5907 |
572
+ | 3.1444 | 35500 | 0.1077 | - |
573
+ | 3.1887 | 36000 | 0.1068 | - |
574
+ | 3.2329 | 36500 | 0.1065 | - |
575
+ | 3.2772 | 37000 | 0.1092 | - |
576
+ | 3.3215 | 37500 | 0.1098 | 0.5880 |
577
+ | 3.3658 | 38000 | 0.1086 | - |
578
+ | 3.4101 | 38500 | 0.1086 | - |
579
+ | 3.4544 | 39000 | 0.1085 | - |
580
+ | 3.4987 | 39500 | 0.1077 | - |
581
+ | 3.5430 | 40000 | 0.1085 | 0.5904 |
582
+ | 3.5872 | 40500 | 0.1093 | - |
583
+ | 3.6315 | 41000 | 0.1086 | - |
584
+ | 3.6758 | 41500 | 0.1084 | - |
585
+ | 3.7201 | 42000 | 0.1083 | - |
586
+ | 3.7644 | 42500 | 0.1108 | 0.5904 |
587
+ | 3.8087 | 43000 | 0.1131 | - |
588
+ | 3.8530 | 43500 | 0.1112 | - |
589
+ | 3.8973 | 44000 | 0.1089 | - |
590
+ | 3.9415 | 44500 | 0.1083 | - |
591
+ | 3.9858 | 45000 | 0.1086 | 0.5990 |
592
+ | 4.0 | 45160 | - | 0.5993 |
593
+ | 4.0301 | 45500 | 0.1023 | - |
594
+ | 4.0744 | 46000 | 0.0996 | - |
595
+ | 4.1187 | 46500 | 0.1006 | - |
596
+ | 4.1630 | 47000 | 0.0994 | - |
597
+ | 4.2073 | 47500 | 0.0995 | 0.5943 |
598
+ | 4.2516 | 48000 | 0.1009 | - |
599
+ | 4.2958 | 48500 | 0.1015 | - |
600
+ | 4.3401 | 49000 | 0.1024 | - |
601
+ | 4.3844 | 49500 | 0.1004 | - |
602
+ | 4.4287 | 50000 | 0.1015 | 0.5929 |
603
+ | 4.4730 | 50500 | 0.1018 | - |
604
+ | 4.5173 | 51000 | 0.1028 | - |
605
+ | 4.5616 | 51500 | 0.1025 | - |
606
+ | 4.6058 | 52000 | 0.1021 | - |
607
+ | 4.6501 | 52500 | 0.1014 | 0.5972 |
608
+ | 4.6944 | 53000 | 0.1011 | - |
609
+ | 4.7387 | 53500 | 0.1031 | - |
610
+ | 4.7830 | 54000 | 0.1019 | - |
611
+ | 4.8273 | 54500 | 0.1029 | - |
612
+ | 4.8716 | 55000 | 0.1027 | 0.5964 |
613
+ | 4.9159 | 55500 | 0.1015 | - |
614
+ | 4.9601 | 56000 | 0.1003 | - |
615
+ | 5.0 | 56450 | - | 0.5951 |
616
+ | 5.0044 | 56500 | 0.1017 | - |
617
+ | 5.0487 | 57000 | 0.0958 | - |
618
+ | 5.0930 | 57500 | 0.0958 | 0.5939 |
619
+ | 5.1373 | 58000 | 0.0941 | - |
620
+ | 5.1816 | 58500 | 0.0945 | - |
621
+ | 5.2259 | 59000 | 0.0981 | - |
622
+ | 5.2702 | 59500 | 0.095 | - |
623
+ | 5.3144 | 60000 | 0.0958 | 0.5939 |
624
+ | 5.3587 | 60500 | 0.0964 | - |
625
+ | 5.4030 | 61000 | 0.0955 | - |
626
+ | 5.4473 | 61500 | 0.0982 | - |
627
+ | 5.4916 | 62000 | 0.0962 | - |
628
+ | 5.5359 | 62500 | 0.0953 | 0.5942 |
629
+ | 5.5802 | 63000 | 0.0966 | - |
630
+ | 5.6244 | 63500 | 0.0979 | - |
631
+ | 5.6687 | 64000 | 0.0931 | - |
632
+ | 5.7130 | 64500 | 0.0966 | - |
633
+ | 5.7573 | 65000 | 0.0938 | 0.5948 |
634
+ | 5.8016 | 65500 | 0.0959 | - |
635
+ | 5.8459 | 66000 | 0.0948 | - |
636
+ | 5.8902 | 66500 | 0.0963 | - |
637
+ | 5.9345 | 67000 | 0.0941 | - |
638
+ | 5.9787 | 67500 | 0.0962 | 0.5952 |
639
+ | 6.0 | 67740 | - | 0.5952 |
640
+ | 0.0443 | 500 | 0.0975 | - |
641
+ | 0.0886 | 1000 | 0.101 | - |
642
+ | 0.1329 | 1500 | 0.1018 | - |
643
+ | 0.1771 | 2000 | 0.1028 | - |
644
+ | 0.2214 | 2500 | 0.1039 | 0.5804 |
645
+ | 0.2657 | 3000 | 0.1069 | - |
646
+ | 0.3100 | 3500 | 0.1053 | - |
647
+ | 0.3543 | 4000 | 0.1056 | - |
648
+ | 0.3986 | 4500 | 0.1081 | - |
649
+ | 0.4429 | 5000 | 0.1089 | 0.5831 |
650
+ | 0.4872 | 5500 | 0.106 | - |
651
+ | 0.5314 | 6000 | 0.1087 | - |
652
+ | 0.5757 | 6500 | 0.1083 | - |
653
+ | 0.6200 | 7000 | 0.1109 | - |
654
+ | 0.6643 | 7500 | 0.1093 | 0.5903 |
655
+ | 0.7086 | 8000 | 0.1091 | - |
656
+ | 0.7529 | 8500 | 0.1077 | - |
657
+ | 0.7972 | 9000 | 0.1086 | - |
658
+ | 0.8415 | 9500 | 0.1107 | - |
659
+ | 0.8857 | 10000 | 0.1115 | 0.5928 |
660
+ | 0.9300 | 10500 | 0.1102 | - |
661
+ | 0.9743 | 11000 | 0.1097 | - |
662
+ | 1.0 | 11290 | - | 0.5961 |
663
+ | 1.0186 | 11500 | 0.1048 | - |
664
+ | 1.0629 | 12000 | 0.0948 | - |
665
+ | 1.1072 | 12500 | 0.0954 | 0.5894 |
666
+ | 1.1515 | 13000 | 0.0991 | - |
667
+ | 1.1957 | 13500 | 0.0971 | - |
668
+ | 1.2400 | 14000 | 0.0998 | - |
669
+ | 1.2843 | 14500 | 0.0975 | - |
670
+ | 1.3286 | 15000 | 0.0961 | 0.5859 |
671
+ | 1.3729 | 15500 | 0.0998 | - |
672
+ | 1.4172 | 16000 | 0.0986 | - |
673
+ | 1.4615 | 16500 | 0.0985 | - |
674
+ | 1.5058 | 17000 | 0.098 | - |
675
+ | 1.5500 | 17500 | 0.1 | 0.5844 |
676
+ | 1.5943 | 18000 | 0.0992 | - |
677
+ | 1.6386 | 18500 | 0.1001 | - |
678
+ | 1.6829 | 19000 | 0.1008 | - |
679
+ | 1.7272 | 19500 | 0.0996 | - |
680
+ | 1.7715 | 20000 | 0.1012 | 0.5909 |
681
+ | 1.8158 | 20500 | 0.1017 | - |
682
+ | 1.8601 | 21000 | 0.1022 | - |
683
+ | 1.9043 | 21500 | 0.1008 | - |
684
+ | 1.9486 | 22000 | 0.101 | - |
685
+ | 1.9929 | 22500 | 0.1021 | 0.5935 |
686
+ | 2.0 | 22580 | - | 0.5960 |
687
+ | 2.0372 | 23000 | 0.0894 | - |
688
+ | 2.0815 | 23500 | 0.0881 | - |
689
+ | 2.1258 | 24000 | 0.0885 | - |
690
+ | 2.1701 | 24500 | 0.0903 | - |
691
+ | 2.2143 | 25000 | 0.0891 | 0.5887 |
692
+ | 2.2586 | 25500 | 0.0893 | - |
693
+ | 2.3029 | 26000 | 0.0918 | - |
694
+ | 2.3472 | 26500 | 0.089 | - |
695
+ | 2.3915 | 27000 | 0.0913 | - |
696
+ | 2.4358 | 27500 | 0.0926 | 0.5897 |
697
+ | 2.4801 | 28000 | 0.091 | - |
698
+ | 2.5244 | 28500 | 0.092 | - |
699
+ | 2.5686 | 29000 | 0.0923 | - |
700
+ | 2.6129 | 29500 | 0.0933 | - |
701
+ | 2.6572 | 30000 | 0.0927 | 0.5919 |
702
+ | 2.7015 | 30500 | 0.092 | - |
703
+ | 2.7458 | 31000 | 0.095 | - |
704
+ | 2.7901 | 31500 | 0.0914 | - |
705
+ | 2.8344 | 32000 | 0.0932 | - |
706
+ | 2.8787 | 32500 | 0.0929 | 0.5908 |
707
+ | 2.9229 | 33000 | 0.0922 | - |
708
+ | 2.9672 | 33500 | 0.0929 | - |
709
+ | 3.0 | 33870 | - | 0.5960 |
710
+ | 3.0115 | 34000 | 0.0883 | - |
711
+ | 3.0558 | 34500 | 0.0813 | - |
712
+ | 3.1001 | 35000 | 0.082 | 0.5914 |
713
+ | 3.1444 | 35500 | 0.0827 | - |
714
+ | 3.1887 | 36000 | 0.0823 | - |
715
+ | 3.2329 | 36500 | 0.0823 | - |
716
+ | 3.2772 | 37000 | 0.0831 | - |
717
+ | 3.3215 | 37500 | 0.0824 | 0.5873 |
718
+ | 3.3658 | 38000 | 0.084 | - |
719
+ | 3.4101 | 38500 | 0.0836 | - |
720
+ | 3.4544 | 39000 | 0.0851 | - |
721
+ | 3.4987 | 39500 | 0.0859 | - |
722
+ | 3.5430 | 40000 | 0.086 | 0.5899 |
723
+ | 3.5872 | 40500 | 0.0867 | - |
724
+ | 3.6315 | 41000 | 0.0833 | - |
725
+ | 3.6758 | 41500 | 0.0856 | - |
726
+ | 3.7201 | 42000 | 0.0857 | - |
727
+ | 3.7644 | 42500 | 0.086 | 0.5909 |
728
+ | 3.8087 | 43000 | 0.0854 | - |
729
+ | 3.8530 | 43500 | 0.0849 | - |
730
+ | 3.8973 | 44000 | 0.0849 | - |
731
+ | 3.9415 | 44500 | 0.0858 | - |
732
+ | 3.9858 | 45000 | 0.0867 | 0.5949 |
733
+ | 4.0 | 45160 | - | 0.5966 |
734
+
735
+ </details>
736
+
737
+ ### Framework Versions
738
+ - Python: 3.10.12
739
+ - Sentence Transformers: 5.1.0
740
+ - Transformers: 4.55.4
741
+ - PyTorch: 2.3.1+cu121
742
+ - Accelerate: 1.10.1
743
+ - Datasets: 4.0.0
744
+ - Tokenizers: 0.21.4
745
+
746
+ ## Citation
747
+
748
+ ### BibTeX
749
+
750
+ #### Sentence Transformers
751
+ ```bibtex
752
+ @inproceedings{reimers-2019-sentence-bert,
753
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
754
+ author = "Reimers, Nils and Gurevych, Iryna",
755
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
756
+ month = "11",
757
+ year = "2019",
758
+ publisher = "Association for Computational Linguistics",
759
+ url = "https://arxiv.org/abs/1908.10084",
760
+ }
761
+ ```
762
+
763
+ <!--
764
+ ## Glossary
765
+
766
+ *Clearly define terms in order to be accessible across audiences.*
767
+ -->
768
+
769
+ <!--
770
+ ## Model Card Authors
771
+
772
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
773
+ -->
774
+
775
+ <!--
776
+ ## Model Card Contact
777
+
778
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
779
+ -->
config.json ADDED
@@ -0,0 +1,25 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "BertModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "classifier_dropout": null,
7
+ "gradient_checkpointing": false,
8
+ "hidden_act": "gelu",
9
+ "hidden_dropout_prob": 0.1,
10
+ "hidden_size": 384,
11
+ "initializer_range": 0.02,
12
+ "intermediate_size": 1536,
13
+ "layer_norm_eps": 1e-12,
14
+ "max_position_embeddings": 512,
15
+ "model_type": "bert",
16
+ "num_attention_heads": 12,
17
+ "num_hidden_layers": 12,
18
+ "pad_token_id": 0,
19
+ "position_embedding_type": "absolute",
20
+ "torch_dtype": "float32",
21
+ "transformers_version": "4.55.4",
22
+ "type_vocab_size": 2,
23
+ "use_cache": true,
24
+ "vocab_size": 250037
25
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "5.1.0",
4
+ "transformers": "4.55.4",
5
+ "pytorch": "2.3.1+cu121"
6
+ },
7
+ "model_type": "SentenceTransformer",
8
+ "prompts": {
9
+ "query": "",
10
+ "document": ""
11
+ },
12
+ "default_prompt_name": null,
13
+ "similarity_fn_name": "cosine"
14
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4d2cba6f182a921f291a3e09128aa095ba3a23792653863c296156ac53914b81
3
+ size 470637416
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 128,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cad551d5600a84242d0973327029452a1e3672ba6313c2a3c3d69c4310e12719
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,65 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": false,
46
+ "cls_token": "<s>",
47
+ "do_lower_case": true,
48
+ "eos_token": "</s>",
49
+ "extra_special_tokens": {},
50
+ "mask_token": "<mask>",
51
+ "max_length": 128,
52
+ "model_max_length": 128,
53
+ "pad_to_multiple_of": null,
54
+ "pad_token": "<pad>",
55
+ "pad_token_type_id": 0,
56
+ "padding_side": "right",
57
+ "sep_token": "</s>",
58
+ "stride": 0,
59
+ "strip_accents": null,
60
+ "tokenize_chinese_chars": true,
61
+ "tokenizer_class": "BertTokenizer",
62
+ "truncation_side": "right",
63
+ "truncation_strategy": "longest_first",
64
+ "unk_token": "<unk>"
65
+ }
unigram.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:da145b5e7700ae40f16691ec32a0b1fdc1ee3298db22a31ea55f57a966c4a65d
3
+ size 14763260