Upload folder using huggingface_hub
Browse files- 1_Pooling/config.json +10 -0
- README.md +527 -0
- config.json +31 -0
- config_sentence_transformers.json +38 -0
- eval/Information-Retrieval_evaluation_agi_val_results.csv +11 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- tokenizer.json +0 -0
- tokenizer_config.json +17 -0
1_Pooling/config.json
ADDED
|
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"word_embedding_dimension": 312,
|
| 3 |
+
"pooling_mode_cls_token": false,
|
| 4 |
+
"pooling_mode_mean_tokens": true,
|
| 5 |
+
"pooling_mode_max_tokens": false,
|
| 6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
| 7 |
+
"pooling_mode_weightedmean_tokens": false,
|
| 8 |
+
"pooling_mode_lasttoken": false,
|
| 9 |
+
"include_prompt": true
|
| 10 |
+
}
|
README.md
ADDED
|
@@ -0,0 +1,527 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
tags:
|
| 3 |
+
- sentence-transformers
|
| 4 |
+
- sentence-similarity
|
| 5 |
+
- feature-extraction
|
| 6 |
+
- dense
|
| 7 |
+
- generated_from_trainer
|
| 8 |
+
- dataset_size:6669
|
| 9 |
+
- loss:MultipleNegativesRankingLoss
|
| 10 |
+
base_model: sergeyzh/rubert-mini-frida
|
| 11 |
+
widget:
|
| 12 |
+
- source_sentence: 'Товар: Напольный обогреватель-увлажнитель с технологией PTC, эффектом
|
| 13 |
+
реалистичного пламени и интеллектуальным управлением. Описание: Напольный обогреватель-увлажнитель
|
| 14 |
+
с технологией PTC, эффектом реалистичного пламени и интеллектуальным управлением.
|
| 15 |
+
Этот напольный обогреватель-увлажнитель оснащен технологией PTC, которая обеспечивает
|
| 16 |
+
быстрый нагрев и равномерное распределение тепла. Благодаря этому, вы сможете
|
| 17 |
+
быстро создать ком.'
|
| 18 |
+
sentences:
|
| 19 |
+
- 'Товар: Форсунка душевая. Категория: Боковой душ. Бренд: Jiemiwl. Артикул: Jiemiwl-3.24-xs60ybd67306.
|
| 20 |
+
Описание: Лейка душа для парикмахерской мойки подходит для всех типов парикмахерской
|
| 21 |
+
мойки В комплектации лейка, шланг и суппорт Красивые продукты.'
|
| 22 |
+
- 'Товар: Комплект утягивающих трусиков с высокой талией. Категория: Женский. Бренд:
|
| 23 |
+
BodyShape. Артикул: 1916615096-e2e6. Описание: Эти женские утягивающие трусики
|
| 24 |
+
с высокой талией создадут идеальный силуэт, подчёркивая ваши формы и обеспечивая
|
| 25 |
+
комфорт в течение всего дня. Изготовленные из эластичного хлопка с добавлением
|
| 26 |
+
спандекса, они отлично облегают тело и не сковывают движения. Модель доступна
|
| 27 |
+
в нескольких размерах и цвета.'
|
| 28 |
+
- 'Товар: Напольный обогреватель-увлажнитель с керамическим нагревателем, эффектом
|
| 29 |
+
пламени и удалённым управлением. Бренд: ComfortHeat. Описание: Напольный обогреватель-увлажнитель
|
| 30 |
+
с керамическим нагревателем, эффектом пламени и удалённым управлением. Этот напольный
|
| 31 |
+
обогреватель-увлажнитель использует керамическую технологию, которая обеспечивает
|
| 32 |
+
эффективный и быстрый нагрев. Площадь обогрева составляет до 30 квадратных метров,
|
| 33 |
+
что позволяет.'
|
| 34 |
+
- source_sentence: 'Товар: Сменные насадки для аэрографа 0,3 мм для аксессуаров для
|
| 35 |
+
аэрографов, точная посадка, легкость очистки и замены. Категория: Аксессуары для
|
| 36 |
+
краскопультов, аэрографов. Описание: Обновите свой аэрограф с помощью нашего сменного
|
| 37 |
+
набора насадок и игл премиум-класса, искусно изготовленного из высококачественной
|
| 38 |
+
нержавеющей стали и медного покрытия, обеспечивающего превосходную долговечность
|
| 39 |
+
и производительность. Этот набор создан, чтобы вдохнуть новую жизнь в ваш старый
|
| 40 |
+
аэрогра.'
|
| 41 |
+
sentences:
|
| 42 |
+
- 'Товар: Подрозетник круглый. Категория: Подрозетники. Бренд: ElectraPro. Артикул:
|
| 43 |
+
Jiemiwl-genmaiWOYYUSHKOQDTKKybd131337. Описание: Монтажная коробка наружная круглая
|
| 44 |
+
для терморегулятора, переключателя. Этот подрозетник идеально подходит для ваших
|
| 45 |
+
электроустановок. Круглая форма и светло-серый цвет делают его универсальным для
|
| 46 |
+
различных интерьеров. Изготовлен из ударопрочного и термостойкого пластика, подрозетник
|
| 47 |
+
не нагревае.'
|
| 48 |
+
- 'Товар: Складной Парус Для Каноэ И Байдарки. Категория: Гик для виндсерфинга.
|
| 49 |
+
Бренд: WindMate. Артикул: f6749ea6a74546ec. Описание: Компактный и легкий этот
|
| 50 |
+
парус складывается в удобную сумку размером 40 40 см, что делает его идеальным
|
| 51 |
+
для транспортировки и хранения. Быстрая установка и развертывание в любом месте
|
| 52 |
+
будут большим плюсом для вашего путешествия. Прозрачное окно благодаря продуманной
|
| 53 |
+
конструкции с прозрачным.'
|
| 54 |
+
- 'Товар: Сменные насадки для аэрографа 0,5 мм, аксессуары для аэрографов, высокая
|
| 55 |
+
точность и легкость замены. Категория: Аксессуары для краскопультов, аэрографов.
|
| 56 |
+
Бренд: AirMaster. Описание: Обновите свой аэрограф с помощью нашего нового набора
|
| 57 |
+
насадок и игл, созданного из прочного алюминия с анодированным покрытием, обеспечивающего
|
| 58 |
+
надежность и долговечность. Этот набор идеально подходит для тех, кто хочет улучшить
|
| 59 |
+
качество своих работ и обеспечить легкость в обслуживании. В комплект в.'
|
| 60 |
+
- source_sentence: 'Товар: Серьги. Категория: Мужской. Бренд: PANDORA. Артикул: E529425098024C64A97105E888F9FCFB.
|
| 61 |
+
Описание: С помощью короткого меча Игла в Силовых играх он выражает свою любовь
|
| 62 |
+
к семье Старков. Вдохновение для дизайна почерпнуто из классической заглушки,
|
| 63 |
+
которую Арья Старк получила от Джона Сноу. Кольца расположены под углом. На ножнах
|
| 64 |
+
выгравирована надпись NOT TODAY , которая призвана стать сокровищ.'
|
| 65 |
+
sentences:
|
| 66 |
+
- 'Товар: Сырорезка Кубики, Соломка, Ломтики , алюминиевый сплав, цвет серебряный.
|
| 67 |
+
Описание: Сырорезка для дома Кубики, Соломка, Ломтики Сыр Хлеб Сырорезка для дома
|
| 68 |
+
предназначена для нарезки сыра и хлеба в виде кубиков, соломок и ломтиков. Это
|
| 69 |
+
удобное и практичное приспособление, которое значительно облегчит процесс приготовления
|
| 70 |
+
и подачи ваших любимых блюд. Сырорезка изготовлена из.'
|
| 71 |
+
- 'Товар: Лыжи для сноуборда. Категория: Круизеры. Бренд: SnowRider. Артикул: Jiemiwl-3.25-ftcdybd68522.
|
| 72 |
+
Описание: Эти лыжи для сноуборда идеальный выбор для любителей зимних видов спорта
|
| 73 |
+
Изготовлены из высококачественного морозостойкого ПВХ , они обеспечивают отличную
|
| 74 |
+
прочность и долговечность. Уникальный дизайн с аэродинамической формой и удобным
|
| 75 |
+
сиденьем позволяет легко управлять направлением движени.'
|
| 76 |
+
- 'Товар: Серьги Символ Старков. Категория: Женский. Бренд: Fantasy Jewelry. Артикул:
|
| 77 |
+
E529425098024C64A97105E888F9FCFB. Описание: Эти уникальные серьги созданы для
|
| 78 |
+
поклонников Игры престолов . Они выполнены в виде узнаваемого символа семьи Старков,
|
| 79 |
+
который олицетворяет силу и честь. Серьги изготовлены из стерлингового серебра
|
| 80 |
+
и имеют качественную гравировку. Характеристики Материал стерлинговое серебро
|
| 81 |
+
925 пробы Ра.'
|
| 82 |
+
- source_sentence: 'Товар: Портативная Алмазная бутылка для воды, термос из нержавеющей
|
| 83 |
+
стали, термос со стразами, изолированный шиком. Категория: Ручки для посуды. Описание:
|
| 84 |
+
Функции Оставайтесь гидратированными с помощью этой практичной и блестящей бутылки
|
| 85 |
+
с водой-термоса Diamond. Яркий внешний вид и сохранение тепла от 6 до 12 часов
|
| 86 |
+
делают его идеальным выбором для любого сезона. Изготовленный из нержавеющей стали
|
| 87 |
+
304, этот термос, украшенный стразами, не только краси.'
|
| 88 |
+
sentences:
|
| 89 |
+
- 'Товар: Встраиваемый морозильник LG GN-B422PL. Категория: Встраиваемый холодильник.
|
| 90 |
+
Бренд: LG. Описание: Тип Морозильная камера Объем общий полезный 230 л Тип компрессора
|
| 91 |
+
Инверторный Класс энергопотребления E Система размораживания Холодильная камера
|
| 92 |
+
No Frost Объем морозильной камеры 230 л Система размораживания Морозильная камера
|
| 93 |
+
No Frost.'
|
| 94 |
+
- 'Товар: Портативный термос для напитков, с эффектом блеска, из нержавеющей стали.
|
| 95 |
+
Категория: Ручки для посуды. Бренд: No brand. Описание: Функции Оставайтесь гидратированными
|
| 96 |
+
с помощью современного термоса, который сочетает в себе стиль и функциональность.
|
| 97 |
+
Эффектный внешний вид и способность поддерживать температуру от 10 до 15 часов
|
| 98 |
+
делают его идеальным для путешествий и повседневного использования. Изготовленный
|
| 99 |
+
из высококачественн.'
|
| 100 |
+
- 'Товар: Заколка-краб для волос. Заколка-банан. Гладкая. Категория: Женский. Бренд:
|
| 101 |
+
No brand. Артикул: mz-25102113-740526. Описание: Заколка-краб для волос в форме
|
| 102 |
+
банана, выполненная из прочного пластика. Идеально подходит для создания различных
|
| 103 |
+
причесок. Гладкая поверхность предотвращает повреждение волос. Размер 15 см в
|
| 104 |
+
длину, доступна в нескольких цветах, включая красный и синий. Отличный аксессуар
|
| 105 |
+
для повседневного использо.'
|
| 106 |
+
- source_sentence: 'Товар: Режущий плоттер G1351 ABJ Полная атуо-контурная резка.
|
| 107 |
+
Бренд: YGTech. Описание: Режущий плоттер G1351 ABJ - это идеальное решение для
|
| 108 |
+
тех, кто любит работать с бумагой и хочет получить высокое качество резки. Этот
|
| 109 |
+
плоттер оснащен современной системой автосканирования, которая позволяет быстро
|
| 110 |
+
и точно настраивать параметры резки. Режущий плоттер G1351 ABJ имеет высокую скорость.'
|
| 111 |
+
sentences:
|
| 112 |
+
- 'Товар: Режущий плоттер G2000 PRO Полная авто-контурная резка. Бренд: CutMaster.
|
| 113 |
+
Описание: Режущий плоттер G2000 PRO - это современное решение для профессионалов
|
| 114 |
+
в области дизайна и резки материалов. Оснащен высокоточной системой автосканирования,
|
| 115 |
+
он гарантирует идеальные результаты резки каждый раз. Скорость резки достигает
|
| 116 |
+
1000 мм с, что позволяет быстро справляться с большими объемами.'
|
| 117 |
+
- 'Товар: Набор для изучения света с линзами и фильтрами. Категория: Чертежные принадлежности.
|
| 118 |
+
Бренд: LightLab. Артикул: HzZHZnhyjP. Описание: Размер 25 15 4 см 9,84 5,91 1,57
|
| 119 |
+
дюйма Питание одна 9V батарейка батарейка в комплект не входит Материал продукта
|
| 120 |
+
пластик стекло Применимые люди 8 Цвет как показано на рисунке Внимание 1. Аксессуары
|
| 121 |
+
могут поставляться в случайных цветах. 2. Содержит мелкие детали, детям нео.'
|
| 122 |
+
- 'Товар: Детская мочалка для купания, Панда белая. Категория: Мочалки детские.
|
| 123 |
+
Бренд: Jiemiwl. Артикул: Jiemiwl-10.14-ulbm. Описание: Особенности Эта губка для
|
| 124 |
+
купания, изготовленная из мягкой ткани, обеспечивает бережный уход за нежной кожей
|
| 125 |
+
вашего малыша. Она имеет приятный дизайн, обладает высокой впитывающей способностью,
|
| 126 |
+
легко моется и долговечна без деформации, что делает ее практичным выбором для
|
| 127 |
+
ежедневного использовани.'
|
| 128 |
+
pipeline_tag: sentence-similarity
|
| 129 |
+
library_name: sentence-transformers
|
| 130 |
+
metrics:
|
| 131 |
+
- cosine_accuracy@1
|
| 132 |
+
- cosine_accuracy@5
|
| 133 |
+
- cosine_precision@1
|
| 134 |
+
- cosine_precision@3
|
| 135 |
+
- cosine_precision@5
|
| 136 |
+
- cosine_precision@10
|
| 137 |
+
- cosine_recall@1
|
| 138 |
+
- cosine_recall@3
|
| 139 |
+
- cosine_recall@5
|
| 140 |
+
- cosine_recall@10
|
| 141 |
+
- cosine_ndcg@10
|
| 142 |
+
- cosine_mrr@10
|
| 143 |
+
- cosine_map@100
|
| 144 |
+
model-index:
|
| 145 |
+
- name: SentenceTransformer based on sergeyzh/rubert-mini-frida
|
| 146 |
+
results:
|
| 147 |
+
- task:
|
| 148 |
+
type: information-retrieval
|
| 149 |
+
name: Information Retrieval
|
| 150 |
+
dataset:
|
| 151 |
+
name: agi val
|
| 152 |
+
type: agi_val
|
| 153 |
+
metrics:
|
| 154 |
+
- type: cosine_accuracy@1
|
| 155 |
+
value: 0.5211950970377937
|
| 156 |
+
name: Cosine Accuracy@1
|
| 157 |
+
- type: cosine_accuracy@5
|
| 158 |
+
value: 0.6455566905005107
|
| 159 |
+
name: Cosine Accuracy@5
|
| 160 |
+
- type: cosine_precision@1
|
| 161 |
+
value: 0.5211950970377937
|
| 162 |
+
name: Cosine Precision@1
|
| 163 |
+
- type: cosine_precision@3
|
| 164 |
+
value: 0.3486550902281239
|
| 165 |
+
name: Cosine Precision@3
|
| 166 |
+
- type: cosine_precision@5
|
| 167 |
+
value: 0.2366700715015322
|
| 168 |
+
name: Cosine Precision@5
|
| 169 |
+
- type: cosine_precision@10
|
| 170 |
+
value: 0.13258426966292136
|
| 171 |
+
name: Cosine Precision@10
|
| 172 |
+
- type: cosine_recall@1
|
| 173 |
+
value: 0.33060946544092606
|
| 174 |
+
name: Cosine Recall@1
|
| 175 |
+
- type: cosine_recall@3
|
| 176 |
+
value: 0.538134150493701
|
| 177 |
+
name: Cosine Recall@3
|
| 178 |
+
- type: cosine_recall@5
|
| 179 |
+
value: 0.5994637385086823
|
| 180 |
+
name: Cosine Recall@5
|
| 181 |
+
- type: cosine_recall@10
|
| 182 |
+
value: 0.6679860401770513
|
| 183 |
+
name: Cosine Recall@10
|
| 184 |
+
- type: cosine_ndcg@10
|
| 185 |
+
value: 0.5854577521519662
|
| 186 |
+
name: Cosine Ndcg@10
|
| 187 |
+
- type: cosine_mrr@10
|
| 188 |
+
value: 0.5732822810772243
|
| 189 |
+
name: Cosine Mrr@10
|
| 190 |
+
- type: cosine_map@100
|
| 191 |
+
value: 0.5547846223674521
|
| 192 |
+
name: Cosine Map@100
|
| 193 |
+
---
|
| 194 |
+
|
| 195 |
+
# SentenceTransformer based on sergeyzh/rubert-mini-frida
|
| 196 |
+
|
| 197 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sergeyzh/rubert-mini-frida](https://huggingface.co/sergeyzh/rubert-mini-frida). It maps sentences & paragraphs to a 312-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
| 198 |
+
|
| 199 |
+
## Model Details
|
| 200 |
+
|
| 201 |
+
### Model Description
|
| 202 |
+
- **Model Type:** Sentence Transformer
|
| 203 |
+
- **Base model:** [sergeyzh/rubert-mini-frida](https://huggingface.co/sergeyzh/rubert-mini-frida) <!-- at revision 32a82388a9f99c99eca74494731f7ee6e9a9fe3a -->
|
| 204 |
+
- **Maximum Sequence Length:** 2048 tokens
|
| 205 |
+
- **Output Dimensionality:** 312 dimensions
|
| 206 |
+
- **Similarity Function:** Cosine Similarity
|
| 207 |
+
<!-- - **Training Dataset:** Unknown -->
|
| 208 |
+
<!-- - **Language:** Unknown -->
|
| 209 |
+
<!-- - **License:** Unknown -->
|
| 210 |
+
|
| 211 |
+
### Model Sources
|
| 212 |
+
|
| 213 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
| 214 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
|
| 215 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
| 216 |
+
|
| 217 |
+
### Full Model Architecture
|
| 218 |
+
|
| 219 |
+
```
|
| 220 |
+
SentenceTransformer(
|
| 221 |
+
(0): Transformer({'max_seq_length': 2048, 'do_lower_case': False, 'architecture': 'BertModel'})
|
| 222 |
+
(1): Pooling({'word_embedding_dimension': 312, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
| 223 |
+
(2): Normalize()
|
| 224 |
+
)
|
| 225 |
+
```
|
| 226 |
+
|
| 227 |
+
## Usage
|
| 228 |
+
|
| 229 |
+
### Direct Usage (Sentence Transformers)
|
| 230 |
+
|
| 231 |
+
First install the Sentence Transformers library:
|
| 232 |
+
|
| 233 |
+
```bash
|
| 234 |
+
pip install -U sentence-transformers
|
| 235 |
+
```
|
| 236 |
+
|
| 237 |
+
Then you can load this model and run inference.
|
| 238 |
+
```python
|
| 239 |
+
from sentence_transformers import SentenceTransformer
|
| 240 |
+
|
| 241 |
+
# Download from the 🤗 Hub
|
| 242 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
| 243 |
+
# Run inference
|
| 244 |
+
queries = [
|
| 245 |
+
"\u0422\u043e\u0432\u0430\u0440: \u0420\u0435\u0436\u0443\u0449\u0438\u0439 \u043f\u043b\u043e\u0442\u0442\u0435\u0440 G1351 ABJ \u041f\u043e\u043b\u043d\u0430\u044f \u0430\u0442\u0443\u043e-\u043a\u043e\u043d\u0442\u0443\u0440\u043d\u0430\u044f \u0440\u0435\u0437\u043a\u0430. \u0411\u0440\u0435\u043d\u0434: YGTech. \u041e\u043f\u0438\u0441\u0430\u043d\u0438\u0435: \u0420\u0435\u0436\u0443\u0449\u0438\u0439 \u043f\u043b\u043e\u0442\u0442\u0435\u0440 G1351 ABJ - \u044d\u0442\u043e \u0438\u0434\u0435\u0430\u043b\u044c\u043d\u043e\u0435 \u0440\u0435\u0448\u0435\u043d\u0438\u0435 \u0434\u043b\u044f \u0442\u0435\u0445, \u043a\u0442\u043e \u043b\u044e\u0431\u0438\u0442 \u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u0441 \u0431\u0443\u043c\u0430\u0433\u043e\u0439 \u0438 \u0445\u043e\u0447\u0435\u0442 \u043f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0432\u044b\u0441\u043e\u043a\u043e\u0435 \u043a\u0430\u0447\u0435\u0441\u0442\u0432\u043e \u0440\u0435\u0437\u043a\u0438. \u042d\u0442\u043e\u0442 \u043f\u043b\u043e\u0442\u0442\u0435\u0440 \u043e\u0441\u043d\u0430\u0449\u0435\u043d \u0441\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u043e\u0439 \u0441\u0438\u0441\u0442\u0435\u043c\u043e\u0439 \u0430\u0432\u0442\u043e\u0441\u043a\u0430\u043d\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0430\u044f \u043f\u043e\u0437\u0432\u043e\u043b\u044f\u0435\u0442 \u0431\u044b\u0441\u0442\u0440\u043e \u0438 \u0442\u043e\u0447\u043d\u043e \u043d\u0430\u0441\u0442\u0440\u0430\u0438\u0432\u0430\u0442\u044c \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u044b \u0440\u0435\u0437\u043a\u0438. \u0420\u0435\u0436\u0443\u0449\u0438\u0439 \u043f\u043b\u043e\u0442\u0442\u0435\u0440 G1351 ABJ \u0438\u043c\u0435\u0435\u0442 \u0432\u044b\u0441\u043e\u043a\u0443\u044e \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c.",
|
| 246 |
+
]
|
| 247 |
+
documents = [
|
| 248 |
+
'Товар: Режущий плоттер G2000 PRO Полная авто-контурная резка. Бренд: CutMaster. Описание: Режущий плоттер G2000 PRO - это современное решение для профессионалов в области дизайна и резки материалов. Оснащен высокоточной системой автосканирования, он гарантирует идеальные результаты резки каждый раз. Скорость резки достигает 1000 мм с, что позволяет быстро справляться с большими объемами.',
|
| 249 |
+
'Товар: Детская мочалка для купания, Панда белая. Категория: Мочалки детские. Бренд: Jiemiwl. Артикул: Jiemiwl-10.14-ulbm. Описание: Особенности Эта губка для купания, изготовленная из мягкой ткани, обеспечивает бережный уход за нежной кожей вашего малыша. Она имеет приятный дизайн, обладает высокой впитывающей способностью, легко моется и долговечна без деформации, что делает ее практичным выбором для ежедневного использовани.',
|
| 250 |
+
'Товар: Набор для изучения света с линзами и фильтрами. Категория: Чертежные принадлежности. Бренд: LightLab. Артикул: HzZHZnhyjP. Описание: Размер 25 15 4 см 9,84 5,91 1,57 дюйма Питание одна 9V батарейка батарейка в комплект не входит Материал продукта пластик стекло Применимые люди 8 Цвет как показано на рисунке Внимание 1. Аксессуары могут поставляться в случайных цветах. 2. Содержит мелкие детали, детям нео.',
|
| 251 |
+
]
|
| 252 |
+
query_embeddings = model.encode_query(queries)
|
| 253 |
+
document_embeddings = model.encode_document(documents)
|
| 254 |
+
print(query_embeddings.shape, document_embeddings.shape)
|
| 255 |
+
# [1, 312] [3, 312]
|
| 256 |
+
|
| 257 |
+
# Get the similarity scores for the embeddings
|
| 258 |
+
similarities = model.similarity(query_embeddings, document_embeddings)
|
| 259 |
+
print(similarities)
|
| 260 |
+
# tensor([[0.7727, 0.0935, 0.2062]])
|
| 261 |
+
```
|
| 262 |
+
|
| 263 |
+
<!--
|
| 264 |
+
### Direct Usage (Transformers)
|
| 265 |
+
|
| 266 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
| 267 |
+
|
| 268 |
+
</details>
|
| 269 |
+
-->
|
| 270 |
+
|
| 271 |
+
<!--
|
| 272 |
+
### Downstream Usage (Sentence Transformers)
|
| 273 |
+
|
| 274 |
+
You can finetune this model on your own dataset.
|
| 275 |
+
|
| 276 |
+
<details><summary>Click to expand</summary>
|
| 277 |
+
|
| 278 |
+
</details>
|
| 279 |
+
-->
|
| 280 |
+
|
| 281 |
+
<!--
|
| 282 |
+
### Out-of-Scope Use
|
| 283 |
+
|
| 284 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
| 285 |
+
-->
|
| 286 |
+
|
| 287 |
+
## Evaluation
|
| 288 |
+
|
| 289 |
+
### Metrics
|
| 290 |
+
|
| 291 |
+
#### Information Retrieval
|
| 292 |
+
|
| 293 |
+
* Dataset: `agi_val`
|
| 294 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
|
| 295 |
+
|
| 296 |
+
| Metric | Value |
|
| 297 |
+
|:--------------------|:-----------|
|
| 298 |
+
| cosine_accuracy@1 | 0.5212 |
|
| 299 |
+
| cosine_accuracy@5 | 0.6456 |
|
| 300 |
+
| cosine_precision@1 | 0.5212 |
|
| 301 |
+
| cosine_precision@3 | 0.3487 |
|
| 302 |
+
| cosine_precision@5 | 0.2367 |
|
| 303 |
+
| cosine_precision@10 | 0.1326 |
|
| 304 |
+
| cosine_recall@1 | 0.3306 |
|
| 305 |
+
| cosine_recall@3 | 0.5381 |
|
| 306 |
+
| cosine_recall@5 | 0.5995 |
|
| 307 |
+
| cosine_recall@10 | 0.668 |
|
| 308 |
+
| **cosine_ndcg@10** | **0.5855** |
|
| 309 |
+
| cosine_mrr@10 | 0.5733 |
|
| 310 |
+
| cosine_map@100 | 0.5548 |
|
| 311 |
+
|
| 312 |
+
<!--
|
| 313 |
+
## Bias, Risks and Limitations
|
| 314 |
+
|
| 315 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
| 316 |
+
-->
|
| 317 |
+
|
| 318 |
+
<!--
|
| 319 |
+
### Recommendations
|
| 320 |
+
|
| 321 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
| 322 |
+
-->
|
| 323 |
+
|
| 324 |
+
## Training Details
|
| 325 |
+
|
| 326 |
+
### Training Dataset
|
| 327 |
+
|
| 328 |
+
#### Unnamed Dataset
|
| 329 |
+
|
| 330 |
+
* Size: 6,669 training samples
|
| 331 |
+
* Columns: <code>sentence_0</code> and <code>sentence_1</code>
|
| 332 |
+
* Approximate statistics based on the first 1000 samples:
|
| 333 |
+
| | sentence_0 | sentence_1 |
|
| 334 |
+
|:--------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
| 335 |
+
| type | string | string |
|
| 336 |
+
| details | <ul><li>min: 11 tokens</li><li>mean: 94.32 tokens</li><li>max: 298 tokens</li></ul> | <ul><li>min: 18 tokens</li><li>mean: 100.12 tokens</li><li>max: 183 tokens</li></ul> |
|
| 337 |
+
* Samples:
|
| 338 |
+
| sentence_0 | sentence_1 |
|
| 339 |
+
|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
| 340 |
+
| <code>Товар: Аэрография MR.HOBBY PS270 самоцентрирующееся сопло 0,2 ммDM. Категория: Сопла для краскопультов и аэрографов. Бренд: jiemi. Артикул: jiemi20251010-kcwr. Описание: тонкие линии и распыление контролируют тень от объекта. Регулировка объема воздуха в корпусе ручки очень помогает при создании контуров. Ручка для рисования емкостью 10 куб.см имеет диаметр 0,2 мм, что подходит для детального изображения модели. Модель PS270 Калибр 0,2 мм Особенности PS270 распол.</code> | <code>Товар: Аэрография MR.HOBBY PS270 самоцентрирующееся сопло 0,2 ммDM. Категория: Сопла для краскопультов и аэрографов. Бренд: jiemi. Артикул: jiemi20251010-kcwr. Описание: тонкие линии и распыление контролируют тень от объекта. Регулировка объема воздуха в корпусе ручки очень помогает при создании контуров. Ручка для рисования емкостью 10 куб.см имеет диаметр 0,2 мм, что подходит для детального изображения модели. Модель PS270 Калибр 0,2 мм Особенности PS270 распол.</code> |
|
| 341 |
+
| <code>Товар: Машина для производства мороженого, компрессорная, красная, 2.2 кг. Категория: Мороженицы. Описание: Любите натуральный домашний мороженый без лишних добавок Эта автоматическая мороженое-машина с ��омпрессором станет вашим незаменимым помощником в кухне Тип и функциональность Это автоматическое оборудование с компрессором оно самостоятельно управляет процессом приготовления достаточно.</code> | <code>Товар: Машина для производства мороженого, компрессорная, красная, 2.2 кг. Категория: Мороженицы. Описание: Любите натуральный домашний мороженый без лишних добавок Эта автоматическая мороженое-машина с компрессором станет вашим незаменимым помощником в кухне Тип и функциональность Это автоматическое оборудование с компрессором оно самостоятельно управляет процессом приготовления достаточно.</code> |
|
| 342 |
+
| <code>Товар: Крепёж для затеняющей и фасадной сетки 100 шт. Категория: Садовый декор и теплицы. Артикул: 1640915493-qrg4. Описание: Надежно защитите свой солнцезащитный козырек Эти пластиковые зажимы для солнцезащитного козырька изготовлены из высококачественного пластика и выдерживают сильный ветер и суровые погодные условия, чтобы надежно закрепить ваш солнцезащитный козырек на месте. Простота установки Регулируемая кон.</code> | <code>Товар: Крепёж для затеняющей и фасадной сетки 50 шт. Категория: Садовый декор и теплицы. Бренд: GardenPro. Артикул: 1640915493-qrg4. Описание: Устойчивость к неблагоприятным условиям Эти зажимы для солнцезащитных козырьков изготовлены из прочного полипропилена и способны выдерживать сильный ветер и дождь, обеспечивая надежное удержание вашего покрытия на месте. Легкость установки Уникальная конструкция позволяет быстро устанавливать.</code> |
|
| 343 |
+
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
| 344 |
+
```json
|
| 345 |
+
{
|
| 346 |
+
"scale": 20.0,
|
| 347 |
+
"similarity_fct": "cos_sim",
|
| 348 |
+
"gather_across_devices": false
|
| 349 |
+
}
|
| 350 |
+
```
|
| 351 |
+
|
| 352 |
+
### Training Hyperparameters
|
| 353 |
+
#### Non-Default Hyperparameters
|
| 354 |
+
|
| 355 |
+
- `per_device_train_batch_size`: 128
|
| 356 |
+
- `per_device_eval_batch_size`: 128
|
| 357 |
+
- `num_train_epochs`: 10
|
| 358 |
+
- `multi_dataset_batch_sampler`: round_robin
|
| 359 |
+
|
| 360 |
+
#### All Hyperparameters
|
| 361 |
+
<details><summary>Click to expand</summary>
|
| 362 |
+
|
| 363 |
+
- `do_predict`: False
|
| 364 |
+
- `eval_strategy`: no
|
| 365 |
+
- `prediction_loss_only`: True
|
| 366 |
+
- `per_device_train_batch_size`: 128
|
| 367 |
+
- `per_device_eval_batch_size`: 128
|
| 368 |
+
- `gradient_accumulation_steps`: 1
|
| 369 |
+
- `eval_accumulation_steps`: None
|
| 370 |
+
- `torch_empty_cache_steps`: None
|
| 371 |
+
- `learning_rate`: 5e-05
|
| 372 |
+
- `weight_decay`: 0.0
|
| 373 |
+
- `adam_beta1`: 0.9
|
| 374 |
+
- `adam_beta2`: 0.999
|
| 375 |
+
- `adam_epsilon`: 1e-08
|
| 376 |
+
- `max_grad_norm`: 1
|
| 377 |
+
- `num_train_epochs`: 10
|
| 378 |
+
- `max_steps`: -1
|
| 379 |
+
- `lr_scheduler_type`: linear
|
| 380 |
+
- `lr_scheduler_kwargs`: None
|
| 381 |
+
- `warmup_ratio`: None
|
| 382 |
+
- `warmup_steps`: 0
|
| 383 |
+
- `log_level`: passive
|
| 384 |
+
- `log_level_replica`: warning
|
| 385 |
+
- `log_on_each_node`: True
|
| 386 |
+
- `logging_nan_inf_filter`: True
|
| 387 |
+
- `enable_jit_checkpoint`: False
|
| 388 |
+
- `save_on_each_node`: False
|
| 389 |
+
- `save_only_model`: False
|
| 390 |
+
- `restore_callback_states_from_checkpoint`: False
|
| 391 |
+
- `use_cpu`: False
|
| 392 |
+
- `seed`: 42
|
| 393 |
+
- `data_seed`: None
|
| 394 |
+
- `bf16`: False
|
| 395 |
+
- `fp16`: False
|
| 396 |
+
- `bf16_full_eval`: False
|
| 397 |
+
- `fp16_full_eval`: False
|
| 398 |
+
- `tf32`: None
|
| 399 |
+
- `local_rank`: -1
|
| 400 |
+
- `ddp_backend`: None
|
| 401 |
+
- `debug`: []
|
| 402 |
+
- `dataloader_drop_last`: False
|
| 403 |
+
- `dataloader_num_workers`: 0
|
| 404 |
+
- `dataloader_prefetch_factor`: None
|
| 405 |
+
- `disable_tqdm`: False
|
| 406 |
+
- `remove_unused_columns`: True
|
| 407 |
+
- `label_names`: None
|
| 408 |
+
- `load_best_model_at_end`: False
|
| 409 |
+
- `ignore_data_skip`: False
|
| 410 |
+
- `fsdp`: []
|
| 411 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
| 412 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
| 413 |
+
- `parallelism_config`: None
|
| 414 |
+
- `deepspeed`: None
|
| 415 |
+
- `label_smoothing_factor`: 0.0
|
| 416 |
+
- `optim`: adamw_torch_fused
|
| 417 |
+
- `optim_args`: None
|
| 418 |
+
- `group_by_length`: False
|
| 419 |
+
- `length_column_name`: length
|
| 420 |
+
- `project`: huggingface
|
| 421 |
+
- `trackio_space_id`: trackio
|
| 422 |
+
- `ddp_find_unused_parameters`: None
|
| 423 |
+
- `ddp_bucket_cap_mb`: None
|
| 424 |
+
- `ddp_broadcast_buffers`: False
|
| 425 |
+
- `dataloader_pin_memory`: True
|
| 426 |
+
- `dataloader_persistent_workers`: False
|
| 427 |
+
- `skip_memory_metrics`: True
|
| 428 |
+
- `push_to_hub`: False
|
| 429 |
+
- `resume_from_checkpoint`: None
|
| 430 |
+
- `hub_model_id`: None
|
| 431 |
+
- `hub_strategy`: every_save
|
| 432 |
+
- `hub_private_repo`: None
|
| 433 |
+
- `hub_always_push`: False
|
| 434 |
+
- `hub_revision`: None
|
| 435 |
+
- `gradient_checkpointing`: False
|
| 436 |
+
- `gradient_checkpointing_kwargs`: None
|
| 437 |
+
- `include_for_metrics`: []
|
| 438 |
+
- `eval_do_concat_batches`: True
|
| 439 |
+
- `auto_find_batch_size`: False
|
| 440 |
+
- `full_determinism`: False
|
| 441 |
+
- `ddp_timeout`: 1800
|
| 442 |
+
- `torch_compile`: False
|
| 443 |
+
- `torch_compile_backend`: None
|
| 444 |
+
- `torch_compile_mode`: None
|
| 445 |
+
- `include_num_input_tokens_seen`: no
|
| 446 |
+
- `neftune_noise_alpha`: None
|
| 447 |
+
- `optim_target_modules`: None
|
| 448 |
+
- `batch_eval_metrics`: False
|
| 449 |
+
- `eval_on_start`: False
|
| 450 |
+
- `use_liger_kernel`: False
|
| 451 |
+
- `liger_kernel_config`: None
|
| 452 |
+
- `eval_use_gather_object`: False
|
| 453 |
+
- `average_tokens_across_devices`: True
|
| 454 |
+
- `use_cache`: False
|
| 455 |
+
- `prompts`: None
|
| 456 |
+
- `batch_sampler`: batch_sampler
|
| 457 |
+
- `multi_dataset_batch_sampler`: round_robin
|
| 458 |
+
- `router_mapping`: {}
|
| 459 |
+
- `learning_rate_mapping`: {}
|
| 460 |
+
|
| 461 |
+
</details>
|
| 462 |
+
|
| 463 |
+
### Training Logs
|
| 464 |
+
| Epoch | Step | agi_val_cosine_ndcg@10 |
|
| 465 |
+
|:-----:|:----:|:----------------------:|
|
| 466 |
+
| 1.0 | 53 | 0.5327 |
|
| 467 |
+
| 2.0 | 106 | 0.5589 |
|
| 468 |
+
| 3.0 | 159 | 0.5764 |
|
| 469 |
+
| 4.0 | 212 | 0.5837 |
|
| 470 |
+
| 5.0 | 265 | 0.5855 |
|
| 471 |
+
|
| 472 |
+
|
| 473 |
+
### Framework Versions
|
| 474 |
+
- Python: 3.12.12
|
| 475 |
+
- Sentence Transformers: 5.2.3
|
| 476 |
+
- Transformers: 5.0.0
|
| 477 |
+
- PyTorch: 2.10.0+cu128
|
| 478 |
+
- Accelerate: 1.12.0
|
| 479 |
+
- Datasets: 4.0.0
|
| 480 |
+
- Tokenizers: 0.22.2
|
| 481 |
+
|
| 482 |
+
## Citation
|
| 483 |
+
|
| 484 |
+
### BibTeX
|
| 485 |
+
|
| 486 |
+
#### Sentence Transformers
|
| 487 |
+
```bibtex
|
| 488 |
+
@inproceedings{reimers-2019-sentence-bert,
|
| 489 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
| 490 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
| 491 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
| 492 |
+
month = "11",
|
| 493 |
+
year = "2019",
|
| 494 |
+
publisher = "Association for Computational Linguistics",
|
| 495 |
+
url = "https://arxiv.org/abs/1908.10084",
|
| 496 |
+
}
|
| 497 |
+
```
|
| 498 |
+
|
| 499 |
+
#### MultipleNegativesRankingLoss
|
| 500 |
+
```bibtex
|
| 501 |
+
@misc{henderson2017efficient,
|
| 502 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
| 503 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
| 504 |
+
year={2017},
|
| 505 |
+
eprint={1705.00652},
|
| 506 |
+
archivePrefix={arXiv},
|
| 507 |
+
primaryClass={cs.CL}
|
| 508 |
+
}
|
| 509 |
+
```
|
| 510 |
+
|
| 511 |
+
<!--
|
| 512 |
+
## Glossary
|
| 513 |
+
|
| 514 |
+
*Clearly define terms in order to be accessible across audiences.*
|
| 515 |
+
-->
|
| 516 |
+
|
| 517 |
+
<!--
|
| 518 |
+
## Model Card Authors
|
| 519 |
+
|
| 520 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
| 521 |
+
-->
|
| 522 |
+
|
| 523 |
+
<!--
|
| 524 |
+
## Model Card Contact
|
| 525 |
+
|
| 526 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
| 527 |
+
-->
|
config.json
ADDED
|
@@ -0,0 +1,31 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"add_cross_attention": false,
|
| 3 |
+
"architectures": [
|
| 4 |
+
"BertModel"
|
| 5 |
+
],
|
| 6 |
+
"attention_probs_dropout_prob": 0.1,
|
| 7 |
+
"bos_token_id": null,
|
| 8 |
+
"classifier_dropout": null,
|
| 9 |
+
"dtype": "float32",
|
| 10 |
+
"emb_size": 312,
|
| 11 |
+
"eos_token_id": null,
|
| 12 |
+
"gradient_checkpointing": false,
|
| 13 |
+
"hidden_act": "gelu",
|
| 14 |
+
"hidden_dropout_prob": 0.1,
|
| 15 |
+
"hidden_size": 312,
|
| 16 |
+
"initializer_range": 0.02,
|
| 17 |
+
"intermediate_size": 600,
|
| 18 |
+
"is_decoder": false,
|
| 19 |
+
"layer_norm_eps": 1e-12,
|
| 20 |
+
"max_position_embeddings": 2048,
|
| 21 |
+
"model_type": "bert",
|
| 22 |
+
"num_attention_heads": 12,
|
| 23 |
+
"num_hidden_layers": 7,
|
| 24 |
+
"pad_token_id": 0,
|
| 25 |
+
"position_embedding_type": "absolute",
|
| 26 |
+
"tie_word_embeddings": true,
|
| 27 |
+
"transformers_version": "5.0.0",
|
| 28 |
+
"type_vocab_size": 2,
|
| 29 |
+
"use_cache": true,
|
| 30 |
+
"vocab_size": 83828
|
| 31 |
+
}
|
config_sentence_transformers.json
ADDED
|
@@ -0,0 +1,38 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"__version__": {
|
| 3 |
+
"sentence_transformers": "5.2.3",
|
| 4 |
+
"transformers": "5.0.0",
|
| 5 |
+
"pytorch": "2.10.0+cu128"
|
| 6 |
+
},
|
| 7 |
+
"prompts": {
|
| 8 |
+
"query": "search_query: ",
|
| 9 |
+
"document": "",
|
| 10 |
+
"passage": "search_document: ",
|
| 11 |
+
"CEDRClassification": "categorize_sentiment: ",
|
| 12 |
+
"GeoreviewClassification": "categorize_entailment: ",
|
| 13 |
+
"GeoreviewClusteringP2P": "paraphrase: ",
|
| 14 |
+
"HeadlineClassification": "categorize_topic: ",
|
| 15 |
+
"InappropriatenessClassification": "categorize_topic: ",
|
| 16 |
+
"KinopoiskClassification": "categorize_sentiment: ",
|
| 17 |
+
"MassiveIntentClassification": "categorize_entailment: ",
|
| 18 |
+
"MassiveScenarioClassification": "categorize_entailment: ",
|
| 19 |
+
"RuReviewsClassification": "categorize_entailment: ",
|
| 20 |
+
"RUParaPhraserSTS": "paraphrase: ",
|
| 21 |
+
"RuSTSBenchmarkSTS": "search_query: ",
|
| 22 |
+
"STS22": "paraphrase: ",
|
| 23 |
+
"RuSciBenchGRNTIClassification": "categorize_topic: ",
|
| 24 |
+
"RuSciBenchGRNTIClusteringP2P": "categorize_topic: ",
|
| 25 |
+
"RuSciBenchOECDClassification": "categorize_topic: ",
|
| 26 |
+
"RuSciBenchOECDClusteringP2P": "categorize_topic: ",
|
| 27 |
+
"SensitiveTopicsClassification": "categorize_topic: ",
|
| 28 |
+
"TERRa": "categorize_entailment: ",
|
| 29 |
+
"Classification": "categorize: ",
|
| 30 |
+
"MultilabelClassification": "categorize: ",
|
| 31 |
+
"Clustering": "categorize: ",
|
| 32 |
+
"PairClassification": "categorize: ",
|
| 33 |
+
"STS": "paraphrase: "
|
| 34 |
+
},
|
| 35 |
+
"default_prompt_name": "Classification",
|
| 36 |
+
"similarity_fn_name": "cosine",
|
| 37 |
+
"model_type": "SentenceTransformer"
|
| 38 |
+
}
|
eval/Information-Retrieval_evaluation_agi_val_results.csv
ADDED
|
@@ -0,0 +1,11 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
epoch,steps,cosine-Accuracy@1,cosine-Accuracy@5,cosine-Precision@1,cosine-Recall@1,cosine-Precision@3,cosine-Recall@3,cosine-Precision@5,cosine-Recall@5,cosine-Precision@10,cosine-Recall@10,cosine-MRR@10,cosine-NDCG@10,cosine-MAP@100
|
| 2 |
+
1.0,53,0.4729315628192033,0.6026557711950971,0.4729315628192033,0.29885938032005444,0.3112019067075246,0.486976506639428,0.21353421859039837,0.5451140619679946,0.12116956077630235,0.6116360231528771,0.5288113883619493,0.5326810532921324,0.5007881830597034
|
| 3 |
+
2.0,106,0.4966802860061287,0.6281920326864147,0.4966802860061287,0.31337248893428665,0.32754511406196796,0.5081716036772217,0.22563840653728298,0.5743530813755534,0.1272727272727273,0.6419816138917263,0.5510185117628933,0.5588839088845168,0.5268968070992618
|
| 4 |
+
3.0,159,0.5137895812053116,0.643003064351379,0.5137895812053116,0.32448076268300985,0.34065372829417767,0.526685393258427,0.23304392236976507,0.5915900578821927,0.13043922369765068,0.6582822608103506,0.5672360644973004,0.5763975067883865,0.5454432192278258
|
| 5 |
+
4.0,212,0.5188968335035751,0.6473442288049029,0.5188968335035751,0.3281835205992509,0.34610146407899217,0.5341760299625468,0.2362104187946885,0.598953013278856,0.1322267620020429,0.6669220292815798,0.5725246039852782,0.5837191691956342,0.5524877199542978
|
| 6 |
+
5.0,265,0.5211950970377937,0.6455566905005107,0.5211950970377937,0.33060946544092606,0.3486550902281239,0.538134150493701,0.2366700715015322,0.5994637385086823,0.13258426966292136,0.6679860401770513,0.5732822810772243,0.5854577521519662,0.5547846223674521
|
| 7 |
+
6.0,318,0.5171092951991828,0.6447906026557712,0.5171092951991828,0.32852400408580185,0.3478038815117467,0.5368998978549541,0.23575076608784476,0.5987402110997616,0.13217568947906028,0.6664964249233912,0.5702044522269235,0.5835099127726168,0.5529098757342483
|
| 8 |
+
7.0,371,0.5107252298263534,0.640194075587334,0.5107252298263534,0.32499148791283616,0.3438883214164113,0.5299625468164794,0.2346782431052094,0.5955056179775281,0.1310520939734423,0.6614742934967653,0.563822514875885,0.5782425888718564,0.5481070555911298
|
| 9 |
+
8.0,424,0.5051072522982636,0.6350868232890705,0.5051072522982636,0.3222250595846101,0.34056860742253997,0.5245573714674839,0.23237997957099082,0.5897599591419816,0.12936670071501533,0.6513449097718761,0.557533602477422,0.5713920722868071,0.542695976976738
|
| 10 |
+
9.0,477,0.5020429009193054,0.6287027579162411,0.5020429009193054,0.3208631256384065,0.33869594824651,0.5216632618318011,0.2301838610827375,0.5842696629213483,0.12867722165474976,0.6470463057541709,0.5543204922418399,0.5679974561969781,0.5395764032016417
|
| 11 |
+
10.0,530,0.5022982635342186,0.6266598569969356,0.5022982635342186,0.32128872999659513,0.33750425604358186,0.5202587674497786,0.22951991828396326,0.5827374872318692,0.1284473953013279,0.6463227783452502,0.5537186674124871,0.5674126195061074,0.5390747116108625
|
model.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:802b3f88009ebecd98513bed48082f119a2918cf3037bde078b7afae32eac54a
|
| 3 |
+
size 129063312
|
modules.json
ADDED
|
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
[
|
| 2 |
+
{
|
| 3 |
+
"idx": 0,
|
| 4 |
+
"name": "0",
|
| 5 |
+
"path": "",
|
| 6 |
+
"type": "sentence_transformers.models.Transformer"
|
| 7 |
+
},
|
| 8 |
+
{
|
| 9 |
+
"idx": 1,
|
| 10 |
+
"name": "1",
|
| 11 |
+
"path": "1_Pooling",
|
| 12 |
+
"type": "sentence_transformers.models.Pooling"
|
| 13 |
+
},
|
| 14 |
+
{
|
| 15 |
+
"idx": 2,
|
| 16 |
+
"name": "2",
|
| 17 |
+
"path": "2_Normalize",
|
| 18 |
+
"type": "sentence_transformers.models.Normalize"
|
| 19 |
+
}
|
| 20 |
+
]
|
sentence_bert_config.json
ADDED
|
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"max_seq_length": 2048,
|
| 3 |
+
"do_lower_case": false
|
| 4 |
+
}
|
tokenizer.json
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|
tokenizer_config.json
ADDED
|
@@ -0,0 +1,17 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"backend": "tokenizers",
|
| 3 |
+
"clean_up_tokenization_spaces": true,
|
| 4 |
+
"cls_token": "[CLS]",
|
| 5 |
+
"do_basic_tokenize": true,
|
| 6 |
+
"do_lower_case": false,
|
| 7 |
+
"is_local": false,
|
| 8 |
+
"mask_token": "[MASK]",
|
| 9 |
+
"model_max_length": 2048,
|
| 10 |
+
"never_split": null,
|
| 11 |
+
"pad_token": "[PAD]",
|
| 12 |
+
"sep_token": "[SEP]",
|
| 13 |
+
"strip_accents": null,
|
| 14 |
+
"tokenize_chinese_chars": true,
|
| 15 |
+
"tokenizer_class": "BertTokenizer",
|
| 16 |
+
"unk_token": "[UNK]"
|
| 17 |
+
}
|