metadata
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:1299712
- loss:MatryoshkaLoss
- loss:MultipleNegativesRankingLoss
base_model: intfloat/multilingual-e5-base
widget:
- source_sentence: >-
query: عندما يحل الأَجَلُ المحدد لتسديد الفواتير، يبدأ الناس في البحث عن
حلول للدفع
sentences:
- 'passage: عندما يقترب الموعد العَاجِلُ للدفع، يزداد التوتر في الأجواء'
- >-
passage: "خلال المهرجان السنوي، وزعت البلدية كمية الفيض من المأكولات
للمدعوين تكريمًا لهم."
- >-
passage: عندما يحين الموعد المُتَأَخِّرُ لتسوية الحسابات، يبدأ القلق
بالتسلل إلى النفوس
- source_sentence: >-
query: عاد الرجل المُبْتَهِجُ من الرحلة وهو يغني في السيارة بعد ظهر
اليوم."
sentences:
- >-
passage: "تَضَاعَفَتِ الهِمَّةُ فِي الْمَعْمَلِ مَسَاءً مَعَ اقْتِرَابِ
مَوْعِدِ التَّسْلِيْمِ وَتَفَانِي الْعَامِلِينَ."
- 'passage: "رجع الرجل الكَئِيبُ من السفر وهو صامت في السيارة هذا المساء.'
- 'passage: "رجع الرجل المَسْرُور من السفر وهو يترنم في المركبة بعد الظهر."'
- source_sentence: 'query: فتى صغير يرتدي المئزر يساعد أمه في الطهي'
sentences:
- 'passage: فتى يساعد أمه'
- 'passage: رجل وامرأة يخرجون ويدخلون المطبخ'
- 'passage: كبير طهاة آسيوي خبير يبتسم للعميل بعد أن وضع طعامه في حاوية'
- 'passage: امرأة شابة ترتدي قميصاً تطبخ الخضروات'
- source_sentence: 'query: مصنع الإكليل'
sentences:
- >-
passage: مع وجود عدد قليل من المراجعات، يمكن أن يكون رأيك في مصنع
الإكليل هائلاً. ابدأ مراجعتك اليوم. 5/15/2016. أول من قام بالمراجعة.
مكان ممتع مع الكثير من الهدايا الرائعة. فن الحديقة رائع حقًا وأنا أحب
زيارته خاصةً خلال موسم العطلات. إذا كنت تبحث عن زينة، فهذا هو المكان.
- >-
passage: مع وجود عدد قليل من المراجعات، يمكن أن يكون رأيك في مصنع
الإكليل هائلاً. ابدأ مراجعتك اليوم. مكان ممتع مع الكثير من الهدايا
الرائعة. فن الحديقة رائع حقًا وأنا أحب زيارته خاصةً خلال موسم العطلات.
إذا كنت تبحث عن زينة، فهذا هو المكان.
- >-
passage: مصنع الإكليل. مصنع الإكليل هو مركز حديقة وجهة، يزهر بالنباتات
الفريدة، والأفكار المبتكرة للعيش في الهواء الطلق والتصميم الإبداعي.
الإكليل الأخضر الطازج المصنوع يدويًا المعروض خلال العطلات مع 16,000 قدم
مربع من صالة العرض المستوحاة من الفصول. الجولات وورش العمل الموسمية
متاحة على مدار العام.
- >-
passage: أزهار رائعة. قدمنا لمصنع الإكليل أفكارًا حول ما نريده لزفافنا،
وكانت الزهور المكتملة تتجاوز توقعاتنا. تلقينا العديد من الإطراءات
والتعليقات الإيجابية من ضيوف الزفاف والحفلة أيضًا. سنستخدم هذه الشركة
مرة أخرى بالتأكيد.
- source_sentence: 'query: ما هو اسم الرمز الأسود للنازيين'
sentences:
- >-
passage: منذ اعتماده من قبل حزب النازية تحت قيادة أدولف هتلر، أصبح
الصليب المعقوف مرتبطًا بالنازية، الفاشية، العنصرية في شكلها (التفوق
الأبيض)، قوى المحور في الحرب العالمية الثانية، والمجزرة في معظم الغرب.
يظل الصليب المعقوف رمزًا أساسيًا لمجموعات النازيين الجدد، ويُستخدم
بانتظام من قبل المجموعات النشطة. غالبًا ما يتم التعامل مع نشأة رمز
الصليب المعقوف مع الرموز الصليبية بشكل عام، مثل صليب الشمس في دين العصر
البرونزي الوثني. بخلاف وجوده المؤكد في أنظمة الرموز الأولية التي ظهرت في
العصر الحجري الحديث، لا يُعرف شيئًا مؤكدًا عن أصل الرمز.
- >-
passage: كان استخدام علم الصليب المعقوف كعلم وطني رمزًا لتسريع أجندة
النازية المعادية للسامية، والتي تضمنت قانون "حماية الدم والشرف الألماني"
في 15 سبتمبر 1935. ألغت هذه القوانين الجنسية اليهودية في الرايخ.
بتعريفه، الصليب المعقوف هو رمز أو زخرفة بدائية على شكل صليب. كما يظهر
الرسم التوضيحي أدناه، الأذرع الأربعة للصليب متساوية الطول، مع جزء من كل
ذراع يبرز بزاوية قائمة من نهاية كل ذراع، كلها في نفس الاتجاه وعادة ما
يكون عكس اتجاه عقارب الساعة.
- >-
passage: يُزعم أن رمز الشمس السوداء يجمع بين أهم ثلاثة رموز في
أيديولوجية النازية - عجلة الشمس، الصليب المعقوف، والروني النصري
المُصَوَّر. ويعتبر هذا الرمز رمزيًا في شكله، حيث يمثل الفرسان الإثني عشر
للس إس من فرسان رتبة الرأس الميت وثلاثة مرافقين لهم. أو للاستخدامات
الأخرى، راجع الشمس السوداء (توضيح). يُظهر تصوير للشمس السوداء تصميمًا
يعتمد بشكل أساسي على شكل موزاييك عجلة الشمس في ويلزبورغ في قاعة
الجنرالات الس إس (Obergruppenführer).
- >-
passage: يستخدم النازيون الجدد أيضًا رموزًا رقمية مختلفة مثل: 1 18، رمز
لأدولف هتلر. 2 88، رمز لحي هتلر. 3 14، من كلمات ديفيد لين البالغة
أربعة عشر كلمة، وهو ناشط أمريكي من أنصار التفوق الأبيض في أواخر القرن
العشرين: "يجب أن نضمن وجود شعبنا ومستقبلًا للأطفال البيض." تم الاستيلاء
على العديد من الرموز التي استخدمها النازيون من قبل مجموعات النازيين
الجدد، بما في ذلك عدد من الرunes. يستخدم النازيون الجدد أيضًا رموزًا
رقمية مختلفة مثل: 1 18، رمز لأدولف هتلر. 2 الرقم يأتي من موضع الحروف
في الأبجدية: A = 1، H = 8.
---
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy
model-index:
- name: SentenceTransformer based on intfloat/multilingual-e5-base
results:
- task:
type: triplet
name: Triplet
dataset:
name: validation eval
type: validation_eval
metrics:
- type: cosine_accuracy
value: 0.9431434869766235
name: Cosine Accuracy
SentenceTransformer based on intfloat/multilingual-e5-base
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-base on the multi_negative and triplets datasets. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: intfloat/multilingual-e5-base
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
- Training Datasets:
- multi_negative
- triplets
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("TawasulAI/Faheem-mE5_Base_new_data")
# Run inference
sentences = [
'query: ما هو اسم الرمز الأسود للنازيين',
'passage: يُزعم أن رمز الشمس السوداء يجمع بين أهم ثلاثة رموز في أيديولوجية النازية - عجلة الشمس، الصليب المعقوف، والروني النصري المُصَوَّر. ويعتبر هذا الرمز رمزيًا في شكله، حيث يمثل الفرسان الإثني عشر للس إس من فرسان رتبة الرأس الميت وثلاثة مرافقين لهم. أو للاستخدامات الأخرى، راجع الشمس السوداء (توضيح). يُظهر تصوير للشمس السوداء تصميمًا يعتمد بشكل أساسي على شكل موزاييك عجلة الشمس في ويلزبورغ في قاعة الجنرالات الس إس (Obergruppenführer).',
'passage: كان استخدام علم الصليب المعقوف كعلم وطني رمزًا لتسريع أجندة النازية المعادية للسامية، والتي تضمنت قانون "حماية الدم والشرف الألماني" في 15 سبتمبر 1935. ألغت هذه القوانين الجنسية اليهودية في الرايخ. بتعريفه، الصليب المعقوف هو رمز أو زخرفة بدائية على شكل صليب. كما يظهر الرسم التوضيحي أدناه، الأذرع الأربعة للصليب متساوية الطول، مع جزء من كل ذراع يبرز بزاوية قائمة من نهاية كل ذراع، كلها في نفس الاتجاه وعادة ما يكون عكس اتجاه عقارب الساعة.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Triplet
- Dataset:
validation_eval - Evaluated with
TripletEvaluator
| Metric | Value |
|---|---|
| cosine_accuracy | 0.9431 |
Training Details
Training Datasets
multi_negative
- Dataset: multi_negative
- Size: 400,732 training samples
- Columns:
query,positive,negative_1,negative_2, andnegative_3 - Approximate statistics based on the first 1000 samples:
query positive negative_1 negative_2 negative_3 type string string string string string details - min: 7 tokens
- mean: 22.34 tokens
- max: 512 tokens
- min: 7 tokens
- mean: 81.44 tokens
- max: 512 tokens
- min: 8 tokens
- mean: 79.21 tokens
- max: 512 tokens
- min: 7 tokens
- mean: 79.31 tokens
- max: 512 tokens
- min: 6 tokens
- mean: 76.87 tokens
- max: 512 tokens
- Samples:
query positive negative_1 negative_2 negative_3 query: what strain of corn makes popcornpassage: كما يتضح، الذرة التي نأكلها عادةً تختلف عن الحبوب التي تصبح فشارًا. هناك نوع واحد فقط من الذرة يمكن أن يصنعها - Zea mays everta. على الرغم من أنها تبدو مثل حبة ذرة نموذجية، إلا أن هذا النوع المعين هو الوحيد الذي لديه القدرة على الانفجار وتحويله إلى وجبة خفيفة لذيذة.passage: هبة الله. 1 صفات: براعم كثيفة، رائحة طازجة، ناتج محلي إجمالي، جيد للاكتئاب، جيد للاسترخاء، جيد للتوتر، جراند دادي بورب، ماريجوانا طبية في هاواي، رأس صاخب، هجين، إنديكا، كوش، استخدام في الليل، أو جي كوش، براعم الفشار، طعم توابل، طعم توابل، رائحة حلوة، طعم حلو، رف العلوي، رائحة زهور برية.passage: حسناً ها هي الصور الصورة الأولى هي بعض براعم الفشار التي أنموها الآن 3 أسابيع من النباتات و الآن هي في طور الإزهار، الصورة الثانية لا يمكن رؤية النبات بأكمله ولكنها كانت نبتة نمت من البذرة في 12-12 و نمت إلى 24 بوصة فقط، الصورة الثالثة هي نفس السلالة 3 أسابيع من النباتات و هي أكثر من 5 أقدام، الآن بدأت تتفتح.passage: 只有 بعض أنواع نباتات الذرة تحمل آذانًا بحبوب تنفجر. تُصنف أصناف الذرة إلى أربع فئات: ذرة حلوة، ذرة حقل، ذرة زينة وذرة فشار. يمكن أن تكون ذرة الحقل من نوعين: ذرة حقلية أو ذرة حجرية، وهي قاسية القشرة و تُستخدم عادةً لطحن الدقيق أو كعلف للحيوانات.query: من صمم نصب لنكولن التذكاريpassage: نصب لنكولن التذكاري هو نصب تذكاري مخصص لأبراهام لنكولن، الرئيس السادس عشر للولايات المتحدة. خلال فترة رئاسته، حرر لنكولن العبيد وقاد الولايات المتحدة خلال الحرب الأهلية. نصب تذكاري للرئيس السادس عشر للولايات المتحدة، أبراهام لنكولن، هو نصب لنكولن التذكاري. صممه هنري بيكون على خطة تشبه خطة البارثينون في أثينا، اليونان، وهو مخصص لفضائل التسامح والصدق والثبات في الروح الإنسانية.passage: زيارة نصب لنكولن التذكاري أمر لا بد منه أثناء وجودك في واشنطن العاصمة! إنه النصب التذكاري الأكثر زيارة في المدينة، حيث يزوره 6 ملايين شخص كل عام. وهو مجاني تمامًا، بالطبع، ولا توجد تذاكر مطلوبة. أفضل طريقة لرؤية نصب لنكولن التذكاري هي من خلال واحدة من جولاتنا.passage: دائرة نصب لنكولن التذكاري. واشنطن العاصمة. يتناسب نصب لنكولن التذكاري مع محيطه بشكل جيد لدرجة أنه يبدو وكأنه كان دائمًا هناك. لم يستطع مصمم المدينة الرئيسي، بيير لانفانت، أن يتخيل محورًا معماريًا أفضل للنهاية الغربية للمول، المنطقة العشبية التي تصورها بين مبنى الكابيتول ونهر بوتوماك.passage: النصب التذكاري هو تكريم لأبراهام لنكولن، الرئيس السادس عشر للولايات المتحدة. كما أنه نصب تذكاري للحرية منذ أن كان أبراهام لنكولن رئيسًا خلال الحرب الأهلية وتم إلغاء العبودية. صمم هنري بيكون النصب التذكاري الذي يشبه البارثينون في اليونان. بدأ البناء في 12 فبراير 1914. المبنى مصنوع من رخام يول كولورادو وحجر جيري إنديانا.query: أين تقع تاونشيب تشسترفيلد في ميشيغانpassage: تاونشيب تشسترفيلد، ميشيغان. تاونشيب تشسترفيلد الميثاق هي تاونشيب ميثاق في مقاطعة ماكومب في ولاية ميشيغان بالولايات المتحدة. وفقًا لإحصاء عام 2000، كان عدد سكان التاونشيب 37,405 نسمة. يقدر عدد السكان في تعداد عام 2010 بـ 43,381 نسمة. تم تنظيم التاونشيب في عام 1842، وتم تشكيله من جزء من تاونشيب ماكومب.passage: من هنا ستتمكن من التسجيل عبر الإنترنت للدورات والدوريات والأحداث الخاصة التي ننظمها. (يرجى ملاحظة أن هناك رسوم معاملة ستُفرض عند استخدام التسجيل عبر الإنترنت للتسجيل في البرامج. يتم إضافة رسوم قدرها 2.50% إلى مبلغ الدفع مع حد أدنى للرسوم قدره 1.95 دولار). ستتمكن أيضًا من متابعة أحدث الأحداث في قسمنا. كتيب برامج الشتاء لعام 2017. أصبح كتيب برامج الشتاء لعام 2017 متاحًا الآن. لعرض جميع البرامج والدوريات والأحداث القادمة، انقر هنا.passage: فنادق في تشسترفيلد. 1. الأكثر حجزًا: هامبتون إن آند سويتس ديترويت/تاونشيب تشسترفيلد 2.5 نجوم ممتاز 4.3 / 5 (118 تقييمًا حقيقيًا) برنامج مكافآت Hotels.com® لكل 10 ليالٍ، تحصل على ليلة مجانية! تمت مشاهدة هذا الفندق من قبل 29 شخصًا في الساعة الماضية. أحدث تقييم: سجلت دخولي متأخرًا بعد رحلة طويلة إلى ديترويت.passage: مكتب مؤتمر وزوار ديترويت مترو. تقع تشسترفيلد في الربع الشمالي الشرقي من مقاطعة ماكومب على بعد حوالي 30 ميلًا شمال وسط مدينة ديترويت. يبلغ مساحة أرض تشسترفيلد أكثر من 26 ميلًا مربعًا، ويشكل الحد الشرقي بأكمله لها طول خليج آنكور في شمال بحيرة سانت كلير. - Loss:
MatryoshkaLosswith these parameters:{ "loss": "MultipleNegativesRankingLoss", "matryoshka_dims": [ 768, 256, 128, 64 ], "matryoshka_weights": [ 1, 1, 1, 1 ], "n_dims_per_step": -1 }
triplets
- Dataset: triplets
- Size: 898,980 training samples
- Columns:
anchor,positive, andnegative - Approximate statistics based on the first 1000 samples:
anchor positive negative type string string string details - min: 18 tokens
- mean: 53.76 tokens
- max: 150 tokens
- min: 9 tokens
- mean: 55.48 tokens
- max: 159 tokens
- min: 5 tokens
- mean: 51.11 tokens
- max: 166 tokens
- Samples:
anchor positive negative query: لقد قدم الباحث مُسْتَطْرَفًا من الأبحاث في المؤتمر، حيث عرض نتائج غير مألوفة أثارت جدلاً واسعاً بين الحضور البارحة."passage: "لقد قدم الباحث جديدًا من الدراسات في الملتقى، إذ بين معطيات غير تقليدية أثارت نقاشًا مستفيضًا بين المشاركين بالأمس."passage: "لقد قدم الباحث قديمًا من الأبحاث في الندوة، حيث عرض معلومات مألوفة لم تثر أي حوار بين الحاضرين قبل يوم.query: بعد يوم حار، اغتسلت بماء زُلال كان يجري في الجدول الصغير بجانب الحقل.passage: بعد يوم قائظ، تطهرت بماء فُرَات كان يتدفق في النهر الضيق قرب المزرعة.passage: بعد يوم مشمس، تلطخت بماء أَجِنّ كان راكدا في البركة قرب المرعى.query: أَوْقَدَ المُخَيِّمُونَ نَارَ المَخِيمِ بِحَمَاسَةٍ قُبَيْلَ اللَيْلِ لِطَهْيِ العَشَاءِ."passage: "أَثَارَ المُخَيِّمُونَ لَهَبَ المَوْقِدِ بِشَغَفٍ قَبْلَ مَجِيءِ اللَّيْلِ لِإِعْدَادِ الْعَشَاء."passage: "أَطْفَأَ المُخَيِّمُونَ نَارَ المَخِيمِ بَعْدَ الْعَشَاءِ لِلْخَلُودِ إِلَى النَّوْمِ. - Loss:
MatryoshkaLosswith these parameters:{ "loss": "MultipleNegativesRankingLoss", "matryoshka_dims": [ 768, 256, 128, 64 ], "matryoshka_weights": [ 1, 1, 1, 1 ], "n_dims_per_step": -1 }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy: epochper_device_train_batch_size: 16per_device_eval_batch_size: 16gradient_accumulation_steps: 16learning_rate: 4e-05weight_decay: 0.01max_grad_norm: 2.0lr_scheduler_type: cosinewarmup_ratio: 0.1fp16: Trueoptim: adamw_8bitpush_to_hub: Truehub_model_id: TawasulAI/Faheem-mE5_Base_new_datahub_strategy: checkpoint
All Hyperparameters
Click to expand
overwrite_output_dir: Falsedo_predict: Falseeval_strategy: epochprediction_loss_only: Trueper_device_train_batch_size: 16per_device_eval_batch_size: 16per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 16eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 4e-05weight_decay: 0.01adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 2.0num_train_epochs: 3max_steps: -1lr_scheduler_type: cosinelr_scheduler_kwargs: {}warmup_ratio: 0.1warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falseuse_ipex: Falsebf16: Falsefp16: Truefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Nonelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Falseignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_8bitoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Trueresume_from_checkpoint: Nonehub_model_id: TawasulAI/Faheem-mE5_Base_new_datahub_strategy: checkpointhub_private_repo: Nonehub_always_push: Falsegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseinclude_for_metrics: []eval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters:auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: Falseneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseeval_use_gather_object: Falseaverage_tokens_across_devices: Falseprompts: Nonebatch_sampler: batch_samplermulti_dataset_batch_sampler: proportional
Training Logs
| Epoch | Step | Training Loss | validation_eval_cosine_accuracy |
|---|---|---|---|
| None | 0 | - | 0.9081 |
| 1.0 | 5078 | 21.1932 | 0.9431 |
Framework Versions
- Python: 3.12.3
- Sentence Transformers: 4.1.0
- Transformers: 4.52.4
- PyTorch: 2.7.0+cu128
- Accelerate: 1.7.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MatryoshkaLoss
@misc{kusupati2024matryoshka,
title={Matryoshka Representation Learning},
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
year={2024},
eprint={2205.13147},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}