dertyu1 commited on
Commit
86ba659
·
verified ·
1 Parent(s): 33a4e06

Upload folder using huggingface_hub

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 312,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,527 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - dense
7
+ - generated_from_trainer
8
+ - dataset_size:6669
9
+ - loss:MultipleNegativesRankingLoss
10
+ base_model: sergeyzh/rubert-mini-frida
11
+ widget:
12
+ - source_sentence: 'Товар: Напольный обогреватель-увлажнитель с технологией PTC, эффектом
13
+ реалистичного пламени и интеллектуальным управлением. Описание: Напольный обогреватель-увлажнитель
14
+ с технологией PTC, эффектом реалистичного пламени и интеллектуальным управлением.
15
+ Этот напольный обогреватель-увлажнитель оснащен технологией PTC, которая обеспечивает
16
+ быстрый нагрев и равномерное распределение тепла. Благодаря этому, вы сможете
17
+ быстро создать ком.'
18
+ sentences:
19
+ - 'Товар: Форсунка душевая. Категория: Боковой душ. Бренд: Jiemiwl. Артикул: Jiemiwl-3.24-xs60ybd67306.
20
+ Описание: Лейка душа для парикмахерской мойки подходит для всех типов парикмахерской
21
+ мойки В комплектации лейка, шланг и суппорт Красивые продукты.'
22
+ - 'Товар: Комплект утягивающих трусиков с высокой талией. Категория: Женский. Бренд:
23
+ BodyShape. Артикул: 1916615096-e2e6. Описание: Эти женские утягивающие трусики
24
+ с высокой талией создадут идеальный силуэт, подчёркивая ваши формы и обеспечивая
25
+ комфорт в течение всего дня. Изготовленные из эластичного хлопка с добавлением
26
+ спандекса, они отлично облегают тело и не сковывают движения. Модель доступна
27
+ в нескольких размерах и цвета.'
28
+ - 'Товар: Напольный обогреватель-увлажнитель с керамическим нагревателем, эффектом
29
+ пламени и удалённым управлением. Бренд: ComfortHeat. Описание: Напольный обогреватель-увлажнитель
30
+ с керамическим нагревателем, эффектом пламени и удалённым управлением. Этот напольный
31
+ обогреватель-увлажнитель использует керамическую технологию, которая обеспечивает
32
+ эффективный и быстрый нагрев. Площадь обогрева составляет до 30 квадратных метров,
33
+ что позволяет.'
34
+ - source_sentence: 'Товар: Сменные насадки для аэрографа 0,3 мм для аксессуаров для
35
+ аэрографов, точная посадка, легкость очистки и замены. Категория: Аксессуары для
36
+ краскопультов, аэрографов. Описание: Обновите свой аэрограф с помощью нашего сменного
37
+ набора насадок и игл премиум-класса, искусно изготовленного из высококачественной
38
+ нержавеющей стали и медного покрытия, обеспечивающего превосходную долговечность
39
+ и производительность. Этот набор создан, чтобы вдохнуть новую жизнь в ваш старый
40
+ аэрогра.'
41
+ sentences:
42
+ - 'Товар: Подрозетник круглый. Категория: Подрозетники. Бренд: ElectraPro. Артикул:
43
+ Jiemiwl-genmaiWOYYUSHKOQDTKKybd131337. Описание: Монтажная коробка наружная круглая
44
+ для терморегулятора, переключателя. Этот подрозетник идеально подходит для ваших
45
+ электроустановок. Круглая форма и светло-серый цвет делают его универсальным для
46
+ различных интерьеров. Изготовлен из ударопрочного и термостойкого пластика, подрозетник
47
+ не нагревае.'
48
+ - 'Товар: Складной Парус Для Каноэ И Байдарки. Категория: Гик для виндсерфинга.
49
+ Бренд: WindMate. Артикул: f6749ea6a74546ec. Описание: Компактный и легкий этот
50
+ парус складывается в удобную сумку размером 40 40 см, что делает его идеальным
51
+ для транспортировки и хранения. Быстрая установка и развертывание в любом месте
52
+ будут большим плюсом для вашего путешествия. Прозрачное окно благодаря продуманной
53
+ конструкции с прозрачным.'
54
+ - 'Товар: Сменные насадки для аэрографа 0,5 мм, аксессуары для аэрографов, высокая
55
+ точность и легкость замены. Категория: Аксессуары для краскопультов, аэрографов.
56
+ Бренд: AirMaster. Описание: Обновите свой аэрограф с помощью нашего нового набора
57
+ насадок и игл, созданного из прочного алюминия с анодированным покрытием, обеспечивающего
58
+ надежность и долговечность. Этот набор идеально подходит для тех, кто хочет улучшить
59
+ качество своих работ и обеспечить легкость в обслуживании. В комплект в.'
60
+ - source_sentence: 'Товар: Серьги. Категория: Мужской. Бренд: PANDORA. Артикул: E529425098024C64A97105E888F9FCFB.
61
+ Описание: С помощью короткого меча Игла в Силовых играх он выражает свою любовь
62
+ к семье Старков. Вдохновение для дизайна почерпнуто из классической заглушки,
63
+ которую Арья Старк получила от Джона Сноу. Кольца расположены под углом. На ножнах
64
+ выгравирована надпись NOT TODAY , которая призвана стать сокровищ.'
65
+ sentences:
66
+ - 'Товар: Сырорезка Кубики, Соломка, Ломтики , алюминиевый сплав, цвет серебряный.
67
+ Описание: Сырорезка для дома Кубики, Соломка, Ломтики Сыр Хлеб Сырорезка для дома
68
+ предназначена для нарезки сыра и хлеба в виде кубиков, соломок и ломтиков. Это
69
+ удобное и практичное приспособление, которое значительно облегчит процесс приготовления
70
+ и подачи ваших любимых блюд. Сырорезка изготовлена из.'
71
+ - 'Товар: Лыжи для сноуборда. Категория: Круизеры. Бренд: SnowRider. Артикул: Jiemiwl-3.25-ftcdybd68522.
72
+ Описание: Эти лыжи для сноуборда идеальный выбор для любителей зимних видов спорта
73
+ Изготовлены из высококачественного морозостойкого ПВХ , они обеспечивают отличную
74
+ прочность и долговечность. Уникальный дизайн с аэродинамической формой и удобным
75
+ сиденьем позволяет легко управлять направлением движени.'
76
+ - 'Товар: Серьги Символ Старков. Категория: Женский. Бренд: Fantasy Jewelry. Артикул:
77
+ E529425098024C64A97105E888F9FCFB. Описание: Эти уникальные серьги созданы для
78
+ поклонников Игры престолов . Они выполнены в виде узнаваемого символа семьи Старков,
79
+ который олицетворяет силу и честь. Серьги изготовлены из стерлингового серебра
80
+ и имеют качественную гравировку. Характеристики Материал стерлинговое серебро
81
+ 925 пробы Ра.'
82
+ - source_sentence: 'Товар: Портативная Алмазная бутылка для воды, термос из нержавеющей
83
+ стали, термос со стразами, изолированный шиком. Категория: Ручки для посуды. Описание:
84
+ Функции Оставайтесь гидратированными с помощью этой практичной и блестящей бутылки
85
+ с водой-термоса Diamond. Яркий внешний вид и сохранение тепла от 6 до 12 часов
86
+ делают его идеальным выбором для любого сезона. Изготовленный из нержавеющей стали
87
+ 304, этот термос, украшенный стразами, не только краси.'
88
+ sentences:
89
+ - 'Товар: Встраиваемый морозильник LG GN-B422PL. Категория: Встраиваемый холодильник.
90
+ Бренд: LG. Описание: Тип Морозильная камера Объем общий полезный 230 л Тип компрессора
91
+ Инверторный Класс энергопотребления E Система размораживания Холодильная камера
92
+ No Frost Объем морозильной камеры 230 л Система размораживания Морозильная камера
93
+ No Frost.'
94
+ - 'Товар: Портативный термос для напитков, с эффектом блеска, из нержавеющей стали.
95
+ Категория: Ручки для посуды. Бренд: No brand. Описание: Функции Оставайтесь гидратированными
96
+ с помощью современного термоса, который сочетает в себе стиль и функциональность.
97
+ Эффектный внешний вид и способность поддерживать температуру от 10 до 15 часов
98
+ делают его идеальным для путешествий и повседневного использования. Изготовленный
99
+ из высококачественн.'
100
+ - 'Товар: Заколка-краб для волос. Заколка-банан. Гладкая. Категория: Женский. Бренд:
101
+ No brand. Артикул: mz-25102113-740526. Описание: Заколка-краб для волос в форме
102
+ банана, выполненная из прочного пластика. Идеально подходит для создания различных
103
+ причесок. Гладкая поверхность предотвращает повреждение волос. Размер 15 см в
104
+ длину, доступна в нескольких цветах, включая красный и синий. Отличный аксессуар
105
+ для повседневного использо.'
106
+ - source_sentence: 'Товар: Режущий плоттер G1351 ABJ Полная атуо-контурная резка.
107
+ Бренд: YGTech. Описание: Режущий плоттер G1351 ABJ - это идеальное решение для
108
+ тех, кто любит работать с бумагой и хочет получить высокое качество резки. Этот
109
+ плоттер оснащен современной системой автосканирования, которая позволяет быстро
110
+ и точно настраивать параметры резки. Режущий плоттер G1351 ABJ имеет высокую скорость.'
111
+ sentences:
112
+ - 'Товар: Режущий плоттер G2000 PRO Полная авто-контурная резка. Бренд: CutMaster.
113
+ Описание: Режущий плоттер G2000 PRO - это современное решение для профессионалов
114
+ в области дизайна и резки материалов. Оснащен высокоточной системой автосканирования,
115
+ он гарантирует идеальные результаты резки каждый раз. Скорость резки достигает
116
+ 1000 мм с, что позволяет быстро справляться с большими объемами.'
117
+ - 'Товар: Набор для изучения света с линзами и фильтрами. Категория: Чертежные принадлежности.
118
+ Бренд: LightLab. Артикул: HzZHZnhyjP. Описание: Размер 25 15 4 см 9,84 5,91 1,57
119
+ дюйма Питание одна 9V батарейка батарейка в комплект не входит Материал продукта
120
+ пластик стекло Применимые люди 8 Цвет как показано на рисунке Внимание 1. Аксессуары
121
+ могут поставляться в случайных цветах. 2. Содержит мелкие детали, детям нео.'
122
+ - 'Товар: Детская мочалка для купания, Панда белая. Категория: Мочалки детские.
123
+ Бренд: Jiemiwl. Артикул: Jiemiwl-10.14-ulbm. Описание: Особенности Эта губка для
124
+ купания, изготовленная из мягкой ткани, обеспечивает бережный уход за нежной кожей
125
+ вашего малыша. Она имеет приятный дизайн, обладает высокой впитывающей способностью,
126
+ легко моется и долговечна без деформации, что делает ее практичным выбором для
127
+ ежедневного использовани.'
128
+ pipeline_tag: sentence-similarity
129
+ library_name: sentence-transformers
130
+ metrics:
131
+ - cosine_accuracy@1
132
+ - cosine_accuracy@5
133
+ - cosine_precision@1
134
+ - cosine_precision@3
135
+ - cosine_precision@5
136
+ - cosine_precision@10
137
+ - cosine_recall@1
138
+ - cosine_recall@3
139
+ - cosine_recall@5
140
+ - cosine_recall@10
141
+ - cosine_ndcg@10
142
+ - cosine_mrr@10
143
+ - cosine_map@100
144
+ model-index:
145
+ - name: SentenceTransformer based on sergeyzh/rubert-mini-frida
146
+ results:
147
+ - task:
148
+ type: information-retrieval
149
+ name: Information Retrieval
150
+ dataset:
151
+ name: agi val
152
+ type: agi_val
153
+ metrics:
154
+ - type: cosine_accuracy@1
155
+ value: 0.5211950970377937
156
+ name: Cosine Accuracy@1
157
+ - type: cosine_accuracy@5
158
+ value: 0.6455566905005107
159
+ name: Cosine Accuracy@5
160
+ - type: cosine_precision@1
161
+ value: 0.5211950970377937
162
+ name: Cosine Precision@1
163
+ - type: cosine_precision@3
164
+ value: 0.3486550902281239
165
+ name: Cosine Precision@3
166
+ - type: cosine_precision@5
167
+ value: 0.2366700715015322
168
+ name: Cosine Precision@5
169
+ - type: cosine_precision@10
170
+ value: 0.13258426966292136
171
+ name: Cosine Precision@10
172
+ - type: cosine_recall@1
173
+ value: 0.33060946544092606
174
+ name: Cosine Recall@1
175
+ - type: cosine_recall@3
176
+ value: 0.538134150493701
177
+ name: Cosine Recall@3
178
+ - type: cosine_recall@5
179
+ value: 0.5994637385086823
180
+ name: Cosine Recall@5
181
+ - type: cosine_recall@10
182
+ value: 0.6679860401770513
183
+ name: Cosine Recall@10
184
+ - type: cosine_ndcg@10
185
+ value: 0.5854577521519662
186
+ name: Cosine Ndcg@10
187
+ - type: cosine_mrr@10
188
+ value: 0.5732822810772243
189
+ name: Cosine Mrr@10
190
+ - type: cosine_map@100
191
+ value: 0.5547846223674521
192
+ name: Cosine Map@100
193
+ ---
194
+
195
+ # SentenceTransformer based on sergeyzh/rubert-mini-frida
196
+
197
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sergeyzh/rubert-mini-frida](https://huggingface.co/sergeyzh/rubert-mini-frida). It maps sentences & paragraphs to a 312-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
198
+
199
+ ## Model Details
200
+
201
+ ### Model Description
202
+ - **Model Type:** Sentence Transformer
203
+ - **Base model:** [sergeyzh/rubert-mini-frida](https://huggingface.co/sergeyzh/rubert-mini-frida) <!-- at revision 32a82388a9f99c99eca74494731f7ee6e9a9fe3a -->
204
+ - **Maximum Sequence Length:** 2048 tokens
205
+ - **Output Dimensionality:** 312 dimensions
206
+ - **Similarity Function:** Cosine Similarity
207
+ <!-- - **Training Dataset:** Unknown -->
208
+ <!-- - **Language:** Unknown -->
209
+ <!-- - **License:** Unknown -->
210
+
211
+ ### Model Sources
212
+
213
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
214
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
215
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
216
+
217
+ ### Full Model Architecture
218
+
219
+ ```
220
+ SentenceTransformer(
221
+ (0): Transformer({'max_seq_length': 2048, 'do_lower_case': False, 'architecture': 'BertModel'})
222
+ (1): Pooling({'word_embedding_dimension': 312, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
223
+ (2): Normalize()
224
+ )
225
+ ```
226
+
227
+ ## Usage
228
+
229
+ ### Direct Usage (Sentence Transformers)
230
+
231
+ First install the Sentence Transformers library:
232
+
233
+ ```bash
234
+ pip install -U sentence-transformers
235
+ ```
236
+
237
+ Then you can load this model and run inference.
238
+ ```python
239
+ from sentence_transformers import SentenceTransformer
240
+
241
+ # Download from the 🤗 Hub
242
+ model = SentenceTransformer("sentence_transformers_model_id")
243
+ # Run inference
244
+ queries = [
245
+ "\u0422\u043e\u0432\u0430\u0440: \u0420\u0435\u0436\u0443\u0449\u0438\u0439 \u043f\u043b\u043e\u0442\u0442\u0435\u0440 G1351 ABJ \u041f\u043e\u043b\u043d\u0430\u044f \u0430\u0442\u0443\u043e-\u043a\u043e\u043d\u0442\u0443\u0440\u043d\u0430\u044f \u0440\u0435\u0437\u043a\u0430. \u0411\u0440\u0435\u043d\u0434: YGTech. \u041e\u043f\u0438\u0441\u0430\u043d\u0438\u0435: \u0420\u0435\u0436\u0443\u0449\u0438\u0439 \u043f\u043b\u043e\u0442\u0442\u0435\u0440 G1351 ABJ - \u044d\u0442\u043e \u0438\u0434\u0435\u0430\u043b\u044c\u043d\u043e\u0435 \u0440\u0435\u0448\u0435\u043d\u0438\u0435 \u0434\u043b\u044f \u0442\u0435\u0445, \u043a\u0442\u043e \u043b\u044e\u0431\u0438\u0442 \u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u0441 \u0431\u0443\u043c\u0430\u0433\u043e\u0439 \u0438 \u0445\u043e\u0447\u0435\u0442 \u043f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0432\u044b\u0441\u043e\u043a\u043e\u0435 \u043a\u0430\u0447\u0435\u0441\u0442\u0432\u043e \u0440\u0435\u0437\u043a\u0438. \u042d\u0442\u043e\u0442 \u043f\u043b\u043e\u0442\u0442\u0435\u0440 \u043e\u0441\u043d\u0430\u0449\u0435\u043d \u0441\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u043e\u0439 \u0441\u0438\u0441\u0442\u0435\u043c\u043e\u0439 \u0430\u0432\u0442\u043e\u0441\u043a\u0430\u043d\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0430\u044f \u043f\u043e\u0437\u0432\u043e\u043b\u044f\u0435\u0442 \u0431\u044b\u0441\u0442\u0440\u043e \u0438 \u0442\u043e\u0447\u043d\u043e \u043d\u0430\u0441\u0442\u0440\u0430\u0438\u0432\u0430\u0442\u044c \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u044b \u0440\u0435\u0437\u043a\u0438. \u0420\u0435\u0436\u0443\u0449\u0438\u0439 \u043f\u043b\u043e\u0442\u0442\u0435\u0440 G1351 ABJ \u0438\u043c\u0435\u0435\u0442 \u0432\u044b\u0441\u043e\u043a\u0443\u044e \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c.",
246
+ ]
247
+ documents = [
248
+ 'Товар: Режущий плоттер G2000 PRO Полная авто-контурная резка. Бренд: CutMaster. Описание: Режущий плоттер G2000 PRO - это современное решение для профессионалов в области дизайна и резки материалов. Оснащен высокоточной системой автосканирования, он гарантирует идеальные результаты резки каждый раз. Скорость резки достигает 1000 мм с, что позволяет быстро справляться с большими объемами.',
249
+ 'Товар: Детская мочалка для купания, Панда белая. Категория: Мочалки детские. Бренд: Jiemiwl. Артикул: Jiemiwl-10.14-ulbm. Описание: Особенности Эта губка для купания, изготовленная из мягкой ткани, обеспечивает бережный уход за нежной кожей вашего малыша. Она имеет приятный дизайн, обладает высокой впитывающей способностью, легко моется и долговечна без деформации, что делает ее практичным выбором для ежедневного использовани.',
250
+ 'Товар: Набор для изучения света с линзами и фильтрами. Категория: Чертежные принадлежности. Бренд: LightLab. Артикул: HzZHZnhyjP. Описание: Размер 25 15 4 см 9,84 5,91 1,57 дюйма Питание одна 9V батарейка батарейка в комплект не входит Материал продукта пластик стекло Применимые люди 8 Цвет как показано на рисунке Внимание 1. Аксессуары могут поставляться в случайных цветах. 2. Содержит мелкие детали, детям нео.',
251
+ ]
252
+ query_embeddings = model.encode_query(queries)
253
+ document_embeddings = model.encode_document(documents)
254
+ print(query_embeddings.shape, document_embeddings.shape)
255
+ # [1, 312] [3, 312]
256
+
257
+ # Get the similarity scores for the embeddings
258
+ similarities = model.similarity(query_embeddings, document_embeddings)
259
+ print(similarities)
260
+ # tensor([[0.7727, 0.0935, 0.2062]])
261
+ ```
262
+
263
+ <!--
264
+ ### Direct Usage (Transformers)
265
+
266
+ <details><summary>Click to see the direct usage in Transformers</summary>
267
+
268
+ </details>
269
+ -->
270
+
271
+ <!--
272
+ ### Downstream Usage (Sentence Transformers)
273
+
274
+ You can finetune this model on your own dataset.
275
+
276
+ <details><summary>Click to expand</summary>
277
+
278
+ </details>
279
+ -->
280
+
281
+ <!--
282
+ ### Out-of-Scope Use
283
+
284
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
285
+ -->
286
+
287
+ ## Evaluation
288
+
289
+ ### Metrics
290
+
291
+ #### Information Retrieval
292
+
293
+ * Dataset: `agi_val`
294
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
295
+
296
+ | Metric | Value |
297
+ |:--------------------|:-----------|
298
+ | cosine_accuracy@1 | 0.5212 |
299
+ | cosine_accuracy@5 | 0.6456 |
300
+ | cosine_precision@1 | 0.5212 |
301
+ | cosine_precision@3 | 0.3487 |
302
+ | cosine_precision@5 | 0.2367 |
303
+ | cosine_precision@10 | 0.1326 |
304
+ | cosine_recall@1 | 0.3306 |
305
+ | cosine_recall@3 | 0.5381 |
306
+ | cosine_recall@5 | 0.5995 |
307
+ | cosine_recall@10 | 0.668 |
308
+ | **cosine_ndcg@10** | **0.5855** |
309
+ | cosine_mrr@10 | 0.5733 |
310
+ | cosine_map@100 | 0.5548 |
311
+
312
+ <!--
313
+ ## Bias, Risks and Limitations
314
+
315
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
316
+ -->
317
+
318
+ <!--
319
+ ### Recommendations
320
+
321
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
322
+ -->
323
+
324
+ ## Training Details
325
+
326
+ ### Training Dataset
327
+
328
+ #### Unnamed Dataset
329
+
330
+ * Size: 6,669 training samples
331
+ * Columns: <code>sentence_0</code> and <code>sentence_1</code>
332
+ * Approximate statistics based on the first 1000 samples:
333
+ | | sentence_0 | sentence_1 |
334
+ |:--------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
335
+ | type | string | string |
336
+ | details | <ul><li>min: 11 tokens</li><li>mean: 94.32 tokens</li><li>max: 298 tokens</li></ul> | <ul><li>min: 18 tokens</li><li>mean: 100.12 tokens</li><li>max: 183 tokens</li></ul> |
337
+ * Samples:
338
+ | sentence_0 | sentence_1 |
339
+ |:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
340
+ | <code>Товар: Аэрография MR.HOBBY PS270 самоцентрирующееся сопло 0,2 ммDM. Категория: Сопла для краскопультов и аэрографов. Бренд: jiemi. Артикул: jiemi20251010-kcwr. Описание: тонкие линии и распыление контролируют тень от объекта. Регулировка объема воздуха в корпусе ручки очень помогает при создании контуров. Ручка для рисования емкостью 10 куб.см имеет диаметр 0,2 мм, что подходит для детального изображения модели. Модель PS270 Калибр 0,2 мм Особенности PS270 распол.</code> | <code>Товар: Аэрография MR.HOBBY PS270 самоцентрирующееся сопло 0,2 ммDM. Категория: Сопла для краскопультов и аэрографов. Бренд: jiemi. Артикул: jiemi20251010-kcwr. Описание: тонкие линии и распыление контролируют тень от объекта. Регулировка объема воздуха в корпусе ручки очень помогает при создании контуров. Ручка для рисования емкостью 10 куб.см имеет диаметр 0,2 мм, что подходит для детального изображения модели. Модель PS270 Калибр 0,2 мм Особенности PS270 распол.</code> |
341
+ | <code>Товар: Машина для производства мороженого, компрессорная, красная, 2.2 кг. Категория: Мороженицы. Описание: Любите натуральный домашний мороженый без лишних добавок Эта автоматическая мороженое-машина с ��омпрессором станет вашим незаменимым помощником в кухне Тип и функциональность Это автоматическое оборудование с компрессором оно самостоятельно управляет процессом приготовления достаточно.</code> | <code>Товар: Машина для производства мороженого, компрессорная, красная, 2.2 кг. Категория: Мороженицы. Описание: Любите натуральный домашний мороженый без лишних добавок Эта автоматическая мороженое-машина с компрессором станет вашим незаменимым помощником в кухне Тип и функциональность Это автоматическое оборудование с компрессором оно самостоятельно управляет процессом приготовления достаточно.</code> |
342
+ | <code>Товар: Крепёж для затеняющей и фасадной сетки 100 шт. Категория: Садовый декор и теплицы. Артикул: 1640915493-qrg4. Описание: Надежно защитите свой солнцезащитный козырек Эти пластиковые зажимы для солнцезащитного козырька изготовлены из высококачественного пластика и выдерживают сильный ветер и суровые погодные условия, чтобы надежно закрепить ваш солнцезащитный козырек на месте. Простота установки Регулируемая кон.</code> | <code>Товар: Крепёж для затеняющей и фасадной сетки 50 шт. Категория: Садовый декор и теплицы. Бренд: GardenPro. Артикул: 1640915493-qrg4. Описание: Устойчивость к неблагоприятным условиям Эти зажимы для солнцезащитных козырьков изготовлены из прочного полипропилена и способны выдерживать сильный ветер и дождь, обеспечивая надежное удержание вашего покрытия на месте. Легкость установки Уникальная конструкция позволяет быстро устанавливать.</code> |
343
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
344
+ ```json
345
+ {
346
+ "scale": 20.0,
347
+ "similarity_fct": "cos_sim",
348
+ "gather_across_devices": false
349
+ }
350
+ ```
351
+
352
+ ### Training Hyperparameters
353
+ #### Non-Default Hyperparameters
354
+
355
+ - `per_device_train_batch_size`: 128
356
+ - `per_device_eval_batch_size`: 128
357
+ - `num_train_epochs`: 10
358
+ - `multi_dataset_batch_sampler`: round_robin
359
+
360
+ #### All Hyperparameters
361
+ <details><summary>Click to expand</summary>
362
+
363
+ - `do_predict`: False
364
+ - `eval_strategy`: no
365
+ - `prediction_loss_only`: True
366
+ - `per_device_train_batch_size`: 128
367
+ - `per_device_eval_batch_size`: 128
368
+ - `gradient_accumulation_steps`: 1
369
+ - `eval_accumulation_steps`: None
370
+ - `torch_empty_cache_steps`: None
371
+ - `learning_rate`: 5e-05
372
+ - `weight_decay`: 0.0
373
+ - `adam_beta1`: 0.9
374
+ - `adam_beta2`: 0.999
375
+ - `adam_epsilon`: 1e-08
376
+ - `max_grad_norm`: 1
377
+ - `num_train_epochs`: 10
378
+ - `max_steps`: -1
379
+ - `lr_scheduler_type`: linear
380
+ - `lr_scheduler_kwargs`: None
381
+ - `warmup_ratio`: None
382
+ - `warmup_steps`: 0
383
+ - `log_level`: passive
384
+ - `log_level_replica`: warning
385
+ - `log_on_each_node`: True
386
+ - `logging_nan_inf_filter`: True
387
+ - `enable_jit_checkpoint`: False
388
+ - `save_on_each_node`: False
389
+ - `save_only_model`: False
390
+ - `restore_callback_states_from_checkpoint`: False
391
+ - `use_cpu`: False
392
+ - `seed`: 42
393
+ - `data_seed`: None
394
+ - `bf16`: False
395
+ - `fp16`: False
396
+ - `bf16_full_eval`: False
397
+ - `fp16_full_eval`: False
398
+ - `tf32`: None
399
+ - `local_rank`: -1
400
+ - `ddp_backend`: None
401
+ - `debug`: []
402
+ - `dataloader_drop_last`: False
403
+ - `dataloader_num_workers`: 0
404
+ - `dataloader_prefetch_factor`: None
405
+ - `disable_tqdm`: False
406
+ - `remove_unused_columns`: True
407
+ - `label_names`: None
408
+ - `load_best_model_at_end`: False
409
+ - `ignore_data_skip`: False
410
+ - `fsdp`: []
411
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
412
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
413
+ - `parallelism_config`: None
414
+ - `deepspeed`: None
415
+ - `label_smoothing_factor`: 0.0
416
+ - `optim`: adamw_torch_fused
417
+ - `optim_args`: None
418
+ - `group_by_length`: False
419
+ - `length_column_name`: length
420
+ - `project`: huggingface
421
+ - `trackio_space_id`: trackio
422
+ - `ddp_find_unused_parameters`: None
423
+ - `ddp_bucket_cap_mb`: None
424
+ - `ddp_broadcast_buffers`: False
425
+ - `dataloader_pin_memory`: True
426
+ - `dataloader_persistent_workers`: False
427
+ - `skip_memory_metrics`: True
428
+ - `push_to_hub`: False
429
+ - `resume_from_checkpoint`: None
430
+ - `hub_model_id`: None
431
+ - `hub_strategy`: every_save
432
+ - `hub_private_repo`: None
433
+ - `hub_always_push`: False
434
+ - `hub_revision`: None
435
+ - `gradient_checkpointing`: False
436
+ - `gradient_checkpointing_kwargs`: None
437
+ - `include_for_metrics`: []
438
+ - `eval_do_concat_batches`: True
439
+ - `auto_find_batch_size`: False
440
+ - `full_determinism`: False
441
+ - `ddp_timeout`: 1800
442
+ - `torch_compile`: False
443
+ - `torch_compile_backend`: None
444
+ - `torch_compile_mode`: None
445
+ - `include_num_input_tokens_seen`: no
446
+ - `neftune_noise_alpha`: None
447
+ - `optim_target_modules`: None
448
+ - `batch_eval_metrics`: False
449
+ - `eval_on_start`: False
450
+ - `use_liger_kernel`: False
451
+ - `liger_kernel_config`: None
452
+ - `eval_use_gather_object`: False
453
+ - `average_tokens_across_devices`: True
454
+ - `use_cache`: False
455
+ - `prompts`: None
456
+ - `batch_sampler`: batch_sampler
457
+ - `multi_dataset_batch_sampler`: round_robin
458
+ - `router_mapping`: {}
459
+ - `learning_rate_mapping`: {}
460
+
461
+ </details>
462
+
463
+ ### Training Logs
464
+ | Epoch | Step | agi_val_cosine_ndcg@10 |
465
+ |:-----:|:----:|:----------------------:|
466
+ | 1.0 | 53 | 0.5327 |
467
+ | 2.0 | 106 | 0.5589 |
468
+ | 3.0 | 159 | 0.5764 |
469
+ | 4.0 | 212 | 0.5837 |
470
+ | 5.0 | 265 | 0.5855 |
471
+
472
+
473
+ ### Framework Versions
474
+ - Python: 3.12.12
475
+ - Sentence Transformers: 5.2.3
476
+ - Transformers: 5.0.0
477
+ - PyTorch: 2.10.0+cu128
478
+ - Accelerate: 1.12.0
479
+ - Datasets: 4.0.0
480
+ - Tokenizers: 0.22.2
481
+
482
+ ## Citation
483
+
484
+ ### BibTeX
485
+
486
+ #### Sentence Transformers
487
+ ```bibtex
488
+ @inproceedings{reimers-2019-sentence-bert,
489
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
490
+ author = "Reimers, Nils and Gurevych, Iryna",
491
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
492
+ month = "11",
493
+ year = "2019",
494
+ publisher = "Association for Computational Linguistics",
495
+ url = "https://arxiv.org/abs/1908.10084",
496
+ }
497
+ ```
498
+
499
+ #### MultipleNegativesRankingLoss
500
+ ```bibtex
501
+ @misc{henderson2017efficient,
502
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
503
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
504
+ year={2017},
505
+ eprint={1705.00652},
506
+ archivePrefix={arXiv},
507
+ primaryClass={cs.CL}
508
+ }
509
+ ```
510
+
511
+ <!--
512
+ ## Glossary
513
+
514
+ *Clearly define terms in order to be accessible across audiences.*
515
+ -->
516
+
517
+ <!--
518
+ ## Model Card Authors
519
+
520
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
521
+ -->
522
+
523
+ <!--
524
+ ## Model Card Contact
525
+
526
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
527
+ -->
config.json ADDED
@@ -0,0 +1,31 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_cross_attention": false,
3
+ "architectures": [
4
+ "BertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": null,
8
+ "classifier_dropout": null,
9
+ "dtype": "float32",
10
+ "emb_size": 312,
11
+ "eos_token_id": null,
12
+ "gradient_checkpointing": false,
13
+ "hidden_act": "gelu",
14
+ "hidden_dropout_prob": 0.1,
15
+ "hidden_size": 312,
16
+ "initializer_range": 0.02,
17
+ "intermediate_size": 600,
18
+ "is_decoder": false,
19
+ "layer_norm_eps": 1e-12,
20
+ "max_position_embeddings": 2048,
21
+ "model_type": "bert",
22
+ "num_attention_heads": 12,
23
+ "num_hidden_layers": 7,
24
+ "pad_token_id": 0,
25
+ "position_embedding_type": "absolute",
26
+ "tie_word_embeddings": true,
27
+ "transformers_version": "5.0.0",
28
+ "type_vocab_size": 2,
29
+ "use_cache": true,
30
+ "vocab_size": 83828
31
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,38 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "5.2.3",
4
+ "transformers": "5.0.0",
5
+ "pytorch": "2.10.0+cu128"
6
+ },
7
+ "prompts": {
8
+ "query": "search_query: ",
9
+ "document": "",
10
+ "passage": "search_document: ",
11
+ "CEDRClassification": "categorize_sentiment: ",
12
+ "GeoreviewClassification": "categorize_entailment: ",
13
+ "GeoreviewClusteringP2P": "paraphrase: ",
14
+ "HeadlineClassification": "categorize_topic: ",
15
+ "InappropriatenessClassification": "categorize_topic: ",
16
+ "KinopoiskClassification": "categorize_sentiment: ",
17
+ "MassiveIntentClassification": "categorize_entailment: ",
18
+ "MassiveScenarioClassification": "categorize_entailment: ",
19
+ "RuReviewsClassification": "categorize_entailment: ",
20
+ "RUParaPhraserSTS": "paraphrase: ",
21
+ "RuSTSBenchmarkSTS": "search_query: ",
22
+ "STS22": "paraphrase: ",
23
+ "RuSciBenchGRNTIClassification": "categorize_topic: ",
24
+ "RuSciBenchGRNTIClusteringP2P": "categorize_topic: ",
25
+ "RuSciBenchOECDClassification": "categorize_topic: ",
26
+ "RuSciBenchOECDClusteringP2P": "categorize_topic: ",
27
+ "SensitiveTopicsClassification": "categorize_topic: ",
28
+ "TERRa": "categorize_entailment: ",
29
+ "Classification": "categorize: ",
30
+ "MultilabelClassification": "categorize: ",
31
+ "Clustering": "categorize: ",
32
+ "PairClassification": "categorize: ",
33
+ "STS": "paraphrase: "
34
+ },
35
+ "default_prompt_name": "Classification",
36
+ "similarity_fn_name": "cosine",
37
+ "model_type": "SentenceTransformer"
38
+ }
eval/Information-Retrieval_evaluation_agi_val_results.csv ADDED
@@ -0,0 +1,11 @@
 
 
 
 
 
 
 
 
 
 
 
 
1
+ epoch,steps,cosine-Accuracy@1,cosine-Accuracy@5,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
2
+ 1.0,53,0.4729315628192033,0.6026557711950971,0.4729315628192033,0.29885938032005444,0.3112019067075246,0.486976506639428,0.21353421859039837,0.5451140619679946,0.12116956077630235,0.6116360231528771,0.5288113883619493,0.5326810532921324,0.5007881830597034
3
+ 2.0,106,0.4966802860061287,0.6281920326864147,0.4966802860061287,0.31337248893428665,0.32754511406196796,0.5081716036772217,0.22563840653728298,0.5743530813755534,0.1272727272727273,0.6419816138917263,0.5510185117628933,0.5588839088845168,0.5268968070992618
4
+ 3.0,159,0.5137895812053116,0.643003064351379,0.5137895812053116,0.32448076268300985,0.34065372829417767,0.526685393258427,0.23304392236976507,0.5915900578821927,0.13043922369765068,0.6582822608103506,0.5672360644973004,0.5763975067883865,0.5454432192278258
5
+ 4.0,212,0.5188968335035751,0.6473442288049029,0.5188968335035751,0.3281835205992509,0.34610146407899217,0.5341760299625468,0.2362104187946885,0.598953013278856,0.1322267620020429,0.6669220292815798,0.5725246039852782,0.5837191691956342,0.5524877199542978
6
+ 5.0,265,0.5211950970377937,0.6455566905005107,0.5211950970377937,0.33060946544092606,0.3486550902281239,0.538134150493701,0.2366700715015322,0.5994637385086823,0.13258426966292136,0.6679860401770513,0.5732822810772243,0.5854577521519662,0.5547846223674521
7
+ 6.0,318,0.5171092951991828,0.6447906026557712,0.5171092951991828,0.32852400408580185,0.3478038815117467,0.5368998978549541,0.23575076608784476,0.5987402110997616,0.13217568947906028,0.6664964249233912,0.5702044522269235,0.5835099127726168,0.5529098757342483
8
+ 7.0,371,0.5107252298263534,0.640194075587334,0.5107252298263534,0.32499148791283616,0.3438883214164113,0.5299625468164794,0.2346782431052094,0.5955056179775281,0.1310520939734423,0.6614742934967653,0.563822514875885,0.5782425888718564,0.5481070555911298
9
+ 8.0,424,0.5051072522982636,0.6350868232890705,0.5051072522982636,0.3222250595846101,0.34056860742253997,0.5245573714674839,0.23237997957099082,0.5897599591419816,0.12936670071501533,0.6513449097718761,0.557533602477422,0.5713920722868071,0.542695976976738
10
+ 9.0,477,0.5020429009193054,0.6287027579162411,0.5020429009193054,0.3208631256384065,0.33869594824651,0.5216632618318011,0.2301838610827375,0.5842696629213483,0.12867722165474976,0.6470463057541709,0.5543204922418399,0.5679974561969781,0.5395764032016417
11
+ 10.0,530,0.5022982635342186,0.6266598569969356,0.5022982635342186,0.32128872999659513,0.33750425604358186,0.5202587674497786,0.22951991828396326,0.5827374872318692,0.1284473953013279,0.6463227783452502,0.5537186674124871,0.5674126195061074,0.5390747116108625
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:802b3f88009ebecd98513bed48082f119a2918cf3037bde078b7afae32eac54a
3
+ size 129063312
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 2048,
3
+ "do_lower_case": false
4
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,17 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "backend": "tokenizers",
3
+ "clean_up_tokenization_spaces": true,
4
+ "cls_token": "[CLS]",
5
+ "do_basic_tokenize": true,
6
+ "do_lower_case": false,
7
+ "is_local": false,
8
+ "mask_token": "[MASK]",
9
+ "model_max_length": 2048,
10
+ "never_split": null,
11
+ "pad_token": "[PAD]",
12
+ "sep_token": "[SEP]",
13
+ "strip_accents": null,
14
+ "tokenize_chinese_chars": true,
15
+ "tokenizer_class": "BertTokenizer",
16
+ "unk_token": "[UNK]"
17
+ }