metadata
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- dense
- generated_from_trainer
- dataset_size:150635
- loss:MultipleNegativesRankingLoss
base_model: meandyou200175/E5_v3_instruct_topic
widget:
- source_sentence: |-
task: classification | query:Challenger 337
Nguồn: matterport
#vr360challenger337
sentences:
- thú thật lúc đó mình cũng hơi sợ
- 'Nhóm: NGHỆ THUẬT - SÁNG TẠO, Topic: Điện ảnh'
- Golf
- source_sentence: |-
task: classification | query:Những bài học trường đời dành cho bạn.
#baihoccuocsong
#cauchuyencuocsong
#TinhHoaBooks
#tuduymo
#tuduynguoc
#sachhay
#sach
#SongTinhHoa| user: TINH HOA BOOKS
sentences:
- Biến đổi khí hậu
- 'Nhóm: GIÁO DỤC, Topic: Kỹ năng mềm'
- 'Nhóm: TRẢI NGHIỆM - XÃ HỘI, Topic: Giải trí'
- source_sentence: >-
task: classification | query:Kỳ thi lái xe không chỉ kiểm tra kỹ năng mà
còn là cơ hội để bạn học hỏi! Trong video hôm nay, chúng tôi sẽ chia sẻ
những mẹo giúp bạn dễ dàng vượt qua và trở thành tài xế an toàn. Hãy xem
ngay! P29 #giaothong
sentences:
- Khám phá ma túy
- 'Nhóm: GIÁO DỤC, Topic: Phương pháp học tập'
- Đời sống
- source_sentence: >-
task: classification | query:PHÁT ĐẠT ĐƯỢC VINH DANH TẠI GIẢI THƯỞNG
THƯƠNG HIỆU SỐ 1 VIỆT NAM
Ngày 25 06 2022, Công ty Cổ phần Phát triển Bất động sản Phát Đạt HOSE:
DPR được vinh danh tại giải thưởng Thương hiệu số 1 Việt Nam .
Các doanh nghiệp được bình chọn đều đứng đầu ngành trong các lĩnh vực tài
chính, chứng khoán, ngân hàng, bất động sản, y tế, thương mại... Hội đồng
đánh giá dựa trên các tiêu chí: là thương hiệu đầu ngành, sản phẩm dịch vụ
chất lượng cao, phát triển bền vững, đóng góp cho nền kinh tế VN và có
trách nhiệm với cộng đồng.| user: admin admin
sentences:
- giám định y khoa
- 'Nhóm: VĂN HÓA - LỊCH SỬ, Topic: Văn hóa'
- 'Nhóm: NGÀNH NGHỀ - KINH TẾ, Topic: Bất động sản'
- source_sentence: >-
task: sentence similarity | query: Vì đây không phải là thư viện công cộng
nên Timrod phụ thuộc vào phí, lệ phí, quà tặng, di sản, đài tưởng niệm và
lòng hảo tâm của bạn bè để có kinh phí duy trì và mở rộng bộ sưu tập cũng
như bảo tồn tòa nhà lịch sử của nó.
sentences:
- quên khuấy mất buổi họp ban sáng
- '"Thánh thót tầu tiêu mấy giọt mưa, Bút thần khôn vẽ cảnh tiêu sơ."'
- Nguồn tài trợ cho thư viện tư nhân Timrod.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy@1
- cosine_accuracy@2
- cosine_accuracy@5
- cosine_accuracy@10
- cosine_accuracy@100
- cosine_precision@1
- cosine_precision@2
- cosine_precision@5
- cosine_precision@10
- cosine_precision@100
- cosine_recall@1
- cosine_recall@2
- cosine_recall@5
- cosine_recall@10
- cosine_recall@100
- cosine_ndcg@10
- cosine_mrr@1
- cosine_mrr@2
- cosine_mrr@5
- cosine_mrr@10
- cosine_mrr@100
- cosine_map@100
model-index:
- name: SentenceTransformer based on meandyou200175/E5_v3_instruct_topic
results:
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: Unknown
type: unknown
metrics:
- type: cosine_accuracy@1
value: 0.3147174770039422
name: Cosine Accuracy@1
- type: cosine_accuracy@2
value: 0.40013140604467806
name: Cosine Accuracy@2
- type: cosine_accuracy@5
value: 0.568988173455979
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.6990801576872536
name: Cosine Accuracy@10
- type: cosine_accuracy@100
value: 0.9908015768725361
name: Cosine Accuracy@100
- type: cosine_precision@1
value: 0.3147174770039422
name: Cosine Precision@1
- type: cosine_precision@2
value: 0.20006570302233903
name: Cosine Precision@2
- type: cosine_precision@5
value: 0.11379763469119579
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.06990801576872535
name: Cosine Precision@10
- type: cosine_precision@100
value: 0.00990801576872536
name: Cosine Precision@100
- type: cosine_recall@1
value: 0.3147174770039422
name: Cosine Recall@1
- type: cosine_recall@2
value: 0.40013140604467806
name: Cosine Recall@2
- type: cosine_recall@5
value: 0.568988173455979
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.6990801576872536
name: Cosine Recall@10
- type: cosine_recall@100
value: 0.9908015768725361
name: Cosine Recall@100
- type: cosine_ndcg@10
value: 0.4860121747674604
name: Cosine Ndcg@10
- type: cosine_mrr@1
value: 0.3147174770039422
name: Cosine Mrr@1
- type: cosine_mrr@2
value: 0.35742444152431013
name: Cosine Mrr@2
- type: cosine_mrr@5
value: 0.4028580814717478
name: Cosine Mrr@5
- type: cosine_mrr@10
value: 0.420261299876937
name: Cosine Mrr@10
- type: cosine_mrr@100
value: 0.4348293363249091
name: Cosine Mrr@100
- type: cosine_map@100
value: 0.4348293363249096
name: Cosine Map@100
SentenceTransformer based on meandyou200175/E5_v3_instruct_topic
This is a sentence-transformers model finetuned from meandyou200175/E5_v3_instruct_topic. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: meandyou200175/E5_v3_instruct_topic
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 1024 dimensions
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("meandyou200175/E5_v5_3_5_instruct_topic")
# Run inference
sentences = [
'task: sentence similarity | query: Vì đây không phải là thư viện công cộng nên Timrod phụ thuộc vào phí, lệ phí, quà tặng, di sản, đài tưởng niệm và lòng hảo tâm của bạn bè để có kinh phí duy trì và mở rộng bộ sưu tập cũng như bảo tồn tòa nhà lịch sử của nó.',
'Nguồn tài trợ cho thư viện tư nhân Timrod.',
'"Thánh thót tầu tiêu mấy giọt mưa, Bút thần khôn vẽ cảnh tiêu sơ."',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.8760, 0.0938],
# [0.8760, 1.0000, 0.0996],
# [0.0938, 0.0996, 1.0000]])
Evaluation
Metrics
Information Retrieval
- Evaluated with
InformationRetrievalEvaluator
| Metric | Value |
|---|---|
| cosine_accuracy@1 | 0.3147 |
| cosine_accuracy@2 | 0.4001 |
| cosine_accuracy@5 | 0.569 |
| cosine_accuracy@10 | 0.6991 |
| cosine_accuracy@100 | 0.9908 |
| cosine_precision@1 | 0.3147 |
| cosine_precision@2 | 0.2001 |
| cosine_precision@5 | 0.1138 |
| cosine_precision@10 | 0.0699 |
| cosine_precision@100 | 0.0099 |
| cosine_recall@1 | 0.3147 |
| cosine_recall@2 | 0.4001 |
| cosine_recall@5 | 0.569 |
| cosine_recall@10 | 0.6991 |
| cosine_recall@100 | 0.9908 |
| cosine_ndcg@10 | 0.486 |
| cosine_mrr@1 | 0.3147 |
| cosine_mrr@2 | 0.3574 |
| cosine_mrr@5 | 0.4029 |
| cosine_mrr@10 | 0.4203 |
| cosine_mrr@100 | 0.4348 |
| cosine_map@100 | 0.4348 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 150,635 training samples
- Columns:
anchorandpositive - Approximate statistics based on the first 1000 samples:
anchor positive type string string details - min: 13 tokens
- mean: 113.25 tokens
- max: 299 tokens
- min: 3 tokens
- mean: 10.91 tokens
- max: 36 tokens
- Samples:
anchor positive task: sentence similarity | query: tiếng thốt ra biểu thị sự lo lắng, sửng sốtchết, sao lại làm thế!task: sentence similarity | query: Garnacha Tinta được chọn từ các vườn nho nằm ở Rioja Alta, đặc biệt là Cenicero và Nájera, với độ cao tương ứng là 650m và 500m, để đạt được sự tinh tế, tươi mát, đồng thời, có cấu trúc tốt.Vườn nho Garnacha Tinta ở Rioja Altatask: sentence similarity | query: có lòng thành thật, đầy nhiệt tìnhsự giúp đỡ chân tình - Loss:
MultipleNegativesRankingLosswith these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim", "gather_across_devices": false }
Evaluation Dataset
Unnamed Dataset
- Size: 1,522 evaluation samples
- Columns:
anchorandpositive - Approximate statistics based on the first 1000 samples:
anchor positive type string string details - min: 12 tokens
- mean: 112.8 tokens
- max: 290 tokens
- min: 3 tokens
- mean: 10.95 tokens
- max: 32 tokens
- Samples:
anchor positive task: sentence similarity | query: nghiêm cấm bằng mệnh lệnh quân sự về việc đi lại, tụ họp, v.v. trong những khu vực và thời gian nhất địnhlệnh giới nghiêmtask: classification | query: Cựu Tổng thống Donald Trump hôm thứ Năm cho biết rằng "rất khó có khả năng" ông sẽ ân xá cho mình nếu giành được một nhiệm kỳ khác vào năm 2024, đồng thời nói thêm trong một cuộc phỏng vấn độc quyền với người điều hành chương trình "Meet the Press" của NBC, Kristen Welker, rằng ông tin rằng mình không làm gì sai. "Tôi nghĩ điều đó rất khó xảy ra. Tôi đã làm gì sai? Tôi không làm gì sai cả", Trump nói. "Ý bạn là vì tôi phản đối một cuộc bầu cử nên họ muốn tống tôi vào tù?" Cuộc phỏng vấn đầu tiên của Welker với tư cách là người điều hành chương trình “Gặp gỡ báo chí” sẽ phát sóng vào Chủ nhật trên các chi nhánh của NBC trên toàn quốc. NBC News cũng đã gửi lời mời tới Tổng thống Joe Biden để ngồi lại phỏng vấn với Welker. Hãy theo dõi “Gặp gỡ báo chí với Kristen Welker” vào Chủ nhật tuần này để biết thêm thôngTham nhũng chính trị Hoa Kỳtask: sentence similarity | query: lan ra, toả rộng ra khắp xung quanhhương thơm lan toả - Loss:
MultipleNegativesRankingLosswith these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim", "gather_across_devices": false }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy: stepsper_device_train_batch_size: 32per_device_eval_batch_size: 32learning_rate: 2e-05num_train_epochs: 5warmup_ratio: 0.1bf16: Truebatch_sampler: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir: Falsedo_predict: Falseeval_strategy: stepsprediction_loss_only: Trueper_device_train_batch_size: 32per_device_eval_batch_size: 32per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 1eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 2e-05weight_decay: 0.0adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1.0num_train_epochs: 5max_steps: -1lr_scheduler_type: linearlr_scheduler_kwargs: {}warmup_ratio: 0.1warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falseuse_ipex: Falsebf16: Truefp16: Falsefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Nonelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Falseignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}parallelism_config: Nonedeepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_torch_fusedoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Falseresume_from_checkpoint: Nonehub_model_id: Nonehub_strategy: every_savehub_private_repo: Nonehub_always_push: Falsehub_revision: Nonegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseinclude_for_metrics: []eval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters:auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: Falseneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseliger_kernel_config: Noneeval_use_gather_object: Falseaverage_tokens_across_devices: Falseprompts: Nonebatch_sampler: no_duplicatesmulti_dataset_batch_sampler: proportionalrouter_mapping: {}learning_rate_mapping: {}
Training Logs
Click to expand
| Epoch | Step | Training Loss | Validation Loss | cosine_ndcg@10 |
|---|---|---|---|---|
| 0.0212 | 100 | 1.3363 | - | - |
| 0.0425 | 200 | 0.7106 | - | - |
| 0.0637 | 300 | 0.5284 | - | - |
| 0.0850 | 400 | 0.5001 | - | - |
| 0.1062 | 500 | 0.4747 | - | - |
| 0.1274 | 600 | 0.4027 | - | - |
| 0.1487 | 700 | 0.358 | - | - |
| 0.1699 | 800 | 0.4124 | - | - |
| 0.1912 | 900 | 0.3492 | - | - |
| 0.2124 | 1000 | 0.3526 | - | - |
| 0.2336 | 1100 | 0.3449 | - | - |
| 0.2549 | 1200 | 0.3557 | - | - |
| 0.2761 | 1300 | 0.3612 | - | - |
| 0.2974 | 1400 | 0.3411 | - | - |
| 0.3186 | 1500 | 0.3405 | - | - |
| 0.3398 | 1600 | 0.3404 | - | - |
| 0.3611 | 1700 | 0.3475 | - | - |
| 0.3823 | 1800 | 0.3582 | - | - |
| 0.4036 | 1900 | 0.3549 | - | - |
| 0.4248 | 2000 | 0.3481 | - | - |
| 0.4460 | 2100 | 0.3217 | - | - |
| 0.4673 | 2200 | 0.33 | - | - |
| 0.4885 | 2300 | 0.3261 | - | - |
| 0.5098 | 2400 | 0.3206 | - | - |
| 0.5310 | 2500 | 0.3505 | - | - |
| 0.5523 | 2600 | 0.3272 | - | - |
| 0.5735 | 2700 | 0.3411 | - | - |
| 0.5947 | 2800 | 0.3147 | - | - |
| 0.6160 | 2900 | 0.3136 | - | - |
| 0.6372 | 3000 | 0.3348 | 0.2902 | 0.4530 |
| 0.6585 | 3100 | 0.3353 | - | - |
| 0.6797 | 3200 | 0.3214 | - | - |
| 0.7009 | 3300 | 0.3147 | - | - |
| 0.7222 | 3400 | 0.3375 | - | - |
| 0.7434 | 3500 | 0.2972 | - | - |
| 0.7647 | 3600 | 0.3232 | - | - |
| 0.7859 | 3700 | 0.3184 | - | - |
| 0.8071 | 3800 | 0.3424 | - | - |
| 0.8284 | 3900 | 0.3509 | - | - |
| 0.8496 | 4000 | 0.3309 | - | - |
| 0.8709 | 4100 | 0.3365 | - | - |
| 0.8921 | 4200 | 0.3217 | - | - |
| 0.9133 | 4300 | 0.326 | - | - |
| 0.9346 | 4400 | 0.32 | - | - |
| 0.9558 | 4500 | 0.3077 | - | - |
| 0.9771 | 4600 | 0.3237 | - | - |
| 0.9983 | 4700 | 0.3231 | - | - |
| 1.0195 | 4800 | 0.2929 | - | - |
| 1.0408 | 4900 | 0.2858 | - | - |
| 1.0620 | 5000 | 0.2806 | - | - |
| 1.0833 | 5100 | 0.2931 | - | - |
| 1.1045 | 5200 | 0.2975 | - | - |
| 1.1257 | 5300 | 0.2789 | - | - |
| 1.1470 | 5400 | 0.2693 | - | - |
| 1.1682 | 5500 | 0.2638 | - | - |
| 1.1895 | 5600 | 0.2724 | - | - |
| 1.2107 | 5700 | 0.2772 | - | - |
| 1.2319 | 5800 | 0.282 | - | - |
| 1.2532 | 5900 | 0.2681 | - | - |
| 1.2744 | 6000 | 0.2656 | 0.2865 | 0.4688 |
| 1.2957 | 6100 | 0.2599 | - | - |
| 1.3169 | 6200 | 0.2751 | - | - |
| 1.3381 | 6300 | 0.2812 | - | - |
| 1.3594 | 6400 | 0.28 | - | - |
| 1.3806 | 6500 | 0.2675 | - | - |
| 1.4019 | 6600 | 0.2694 | - | - |
| 1.4231 | 6700 | 0.2598 | - | - |
| 1.4444 | 6800 | 0.2523 | - | - |
| 1.4656 | 6900 | 0.3062 | - | - |
| 1.4868 | 7000 | 0.2895 | - | - |
| 1.5081 | 7100 | 0.2683 | - | - |
| 1.5293 | 7200 | 0.2699 | - | - |
| 1.5506 | 7300 | 0.2537 | - | - |
| 1.5718 | 7400 | 0.2647 | - | - |
| 1.5930 | 7500 | 0.2886 | - | - |
| 1.6143 | 7600 | 0.2797 | - | - |
| 1.6355 | 7700 | 0.2572 | - | - |
| 1.6568 | 7800 | 0.2686 | - | - |
| 1.6780 | 7900 | 0.2702 | - | - |
| 1.6992 | 8000 | 0.2543 | - | - |
| 1.7205 | 8100 | 0.2596 | - | - |
| 1.7417 | 8200 | 0.2537 | - | - |
| 1.7630 | 8300 | 0.2652 | - | - |
| 1.7842 | 8400 | 0.3035 | - | - |
| 1.8054 | 8500 | 0.2709 | - | - |
| 1.8267 | 8600 | 0.2831 | - | - |
| 1.8479 | 8700 | 0.2776 | - | - |
| 1.8692 | 8800 | 0.2483 | - | - |
| 1.8904 | 8900 | 0.2714 | - | - |
| 1.9116 | 9000 | 0.2687 | 0.2652 | 0.4724 |
| 1.9329 | 9100 | 0.2864 | - | - |
| 1.9541 | 9200 | 0.2692 | - | - |
| 1.9754 | 9300 | 0.2725 | - | - |
| 1.9966 | 9400 | 0.2744 | - | - |
| 2.0178 | 9500 | 0.2361 | - | - |
| 2.0391 | 9600 | 0.2315 | - | - |
| 2.0603 | 9700 | 0.2314 | - | - |
| 2.0816 | 9800 | 0.2391 | - | - |
| 2.1028 | 9900 | 0.2245 | - | - |
| 2.1240 | 10000 | 0.2106 | - | - |
| 2.1453 | 10100 | 0.2269 | - | - |
| 2.1665 | 10200 | 0.2303 | - | - |
| 2.1878 | 10300 | 0.2476 | - | - |
| 2.2090 | 10400 | 0.2235 | - | - |
| 2.2302 | 10500 | 0.2462 | - | - |
| 2.2515 | 10600 | 0.2428 | - | - |
| 2.2727 | 10700 | 0.2422 | - | - |
| 2.2940 | 10800 | 0.2413 | - | - |
| 2.3152 | 10900 | 0.2394 | - | - |
| 2.3364 | 11000 | 0.2276 | - | - |
| 2.3577 | 11100 | 0.2233 | - | - |
| 2.3789 | 11200 | 0.2135 | - | - |
| 2.4002 | 11300 | 0.2227 | - | - |
| 2.4214 | 11400 | 0.2085 | - | - |
| 2.4427 | 11500 | 0.2497 | - | - |
| 2.4639 | 11600 | 0.2427 | - | - |
| 2.4851 | 11700 | 0.2396 | - | - |
| 2.5064 | 11800 | 0.2437 | - | - |
| 2.5276 | 11900 | 0.2349 | - | - |
| 2.5489 | 12000 | 0.244 | 0.2703 | 0.4729 |
| 2.5701 | 12100 | 0.219 | - | - |
| 2.5913 | 12200 | 0.2293 | - | - |
| 2.6126 | 12300 | 0.2167 | - | - |
| 2.6338 | 12400 | 0.2133 | - | - |
| 2.6551 | 12500 | 0.2279 | - | - |
| 2.6763 | 12600 | 0.2173 | - | - |
| 2.6975 | 12700 | 0.219 | - | - |
| 2.7188 | 12800 | 0.2102 | - | - |
| 2.7400 | 12900 | 0.2224 | - | - |
| 2.7613 | 13000 | 0.245 | - | - |
| 2.7825 | 13100 | 0.2213 | - | - |
| 2.8037 | 13200 | 0.2513 | - | - |
| 2.8250 | 13300 | 0.2309 | - | - |
| 2.8462 | 13400 | 0.2189 | - | - |
| 2.8675 | 13500 | 0.2073 | - | - |
| 2.8887 | 13600 | 0.2138 | - | - |
| 2.9099 | 13700 | 0.2193 | - | - |
| 2.9312 | 13800 | 0.2133 | - | - |
| 2.9524 | 13900 | 0.2317 | - | - |
| 2.9737 | 14000 | 0.227 | - | - |
| 2.9949 | 14100 | 0.2278 | - | - |
| 3.0161 | 14200 | 0.2008 | - | - |
| 3.0374 | 14300 | 0.1826 | - | - |
| 3.0586 | 14400 | 0.1921 | - | - |
| 3.0799 | 14500 | 0.1746 | - | - |
| 3.1011 | 14600 | 0.188 | - | - |
| 3.1223 | 14700 | 0.2015 | - | - |
| 3.1436 | 14800 | 0.1943 | - | - |
| 3.1648 | 14900 | 0.2076 | - | - |
| 3.1861 | 15000 | 0.1992 | 0.2612 | 0.4832 |
| 3.2073 | 15100 | 0.197 | - | - |
| 3.2285 | 15200 | 0.1912 | - | - |
| 3.2498 | 15300 | 0.2034 | - | - |
| 3.2710 | 15400 | 0.1964 | - | - |
| 3.2923 | 15500 | 0.1775 | - | - |
| 3.3135 | 15600 | 0.1908 | - | - |
| 3.3347 | 15700 | 0.1909 | - | - |
| 3.3560 | 15800 | 0.1841 | - | - |
| 3.3772 | 15900 | 0.1755 | - | - |
| 3.3985 | 16000 | 0.1976 | - | - |
| 3.4197 | 16100 | 0.1894 | - | - |
| 3.4410 | 16200 | 0.1891 | - | - |
| 3.4622 | 16300 | 0.1957 | - | - |
| 3.4834 | 16400 | 0.178 | - | - |
| 3.5047 | 16500 | 0.1939 | - | - |
| 3.5259 | 16600 | 0.1874 | - | - |
| 3.5472 | 16700 | 0.2022 | - | - |
| 3.5684 | 16800 | 0.1982 | - | - |
| 3.5896 | 16900 | 0.2121 | - | - |
| 3.6109 | 17000 | 0.1972 | - | - |
| 3.6321 | 17100 | 0.1754 | - | - |
| 3.6534 | 17200 | 0.1889 | - | - |
| 3.6746 | 17300 | 0.1896 | - | - |
| 3.6958 | 17400 | 0.1959 | - | - |
| 3.7171 | 17500 | 0.1864 | - | - |
| 3.7383 | 17600 | 0.1836 | - | - |
| 3.7596 | 17700 | 0.1954 | - | - |
| 3.7808 | 17800 | 0.1888 | - | - |
| 3.8020 | 17900 | 0.1779 | - | - |
| 3.8233 | 18000 | 0.2102 | 0.2425 | 0.4855 |
| 3.8445 | 18100 | 0.181 | - | - |
| 3.8658 | 18200 | 0.1721 | - | - |
| 3.8870 | 18300 | 0.2177 | - | - |
| 3.9082 | 18400 | 0.1922 | - | - |
| 3.9295 | 18500 | 0.1696 | - | - |
| 3.9507 | 18600 | 0.186 | - | - |
| 3.9720 | 18700 | 0.179 | - | - |
| 3.9932 | 18800 | 0.1833 | - | - |
| 4.0144 | 18900 | 0.1596 | - | - |
| 4.0357 | 19000 | 0.1555 | - | - |
| 4.0569 | 19100 | 0.1715 | - | - |
| 4.0782 | 19200 | 0.1739 | - | - |
| 4.0994 | 19300 | 0.1601 | - | - |
| 4.1206 | 19400 | 0.1643 | - | - |
| 4.1419 | 19500 | 0.1507 | - | - |
| 4.1631 | 19600 | 0.1623 | - | - |
| 4.1844 | 19700 | 0.177 | - | - |
| 4.2056 | 19800 | 0.1486 | - | - |
| 4.2268 | 19900 | 0.1696 | - | - |
| 4.2481 | 20000 | 0.1541 | - | - |
| 4.2693 | 20100 | 0.1631 | - | - |
| 4.2906 | 20200 | 0.1719 | - | - |
| 4.3118 | 20300 | 0.1722 | - | - |
| 4.3331 | 20400 | 0.1648 | - | - |
| 4.3543 | 20500 | 0.1641 | - | - |
| 4.3755 | 20600 | 0.1704 | - | - |
| 4.3968 | 20700 | 0.1772 | - | - |
| 4.4180 | 20800 | 0.1741 | - | - |
| 4.4393 | 20900 | 0.178 | - | - |
| 4.4605 | 21000 | 0.1672 | 0.2426 | 0.4860 |
| 4.4817 | 21100 | 0.1648 | - | - |
| 4.5030 | 21200 | 0.1624 | - | - |
| 4.5242 | 21300 | 0.1717 | - | - |
| 4.5455 | 21400 | 0.1677 | - | - |
| 4.5667 | 21500 | 0.1679 | - | - |
| 4.5879 | 21600 | 0.199 | - | - |
| 4.6092 | 21700 | 0.1632 | - | - |
| 4.6304 | 21800 | 0.1647 | - | - |
| 4.6517 | 21900 | 0.1678 | - | - |
| 4.6729 | 22000 | 0.1676 | - | - |
| 4.6941 | 22100 | 0.1521 | - | - |
| 4.7154 | 22200 | 0.1381 | - | - |
| 4.7366 | 22300 | 0.1707 | - | - |
| 4.7579 | 22400 | 0.1543 | - | - |
| 4.7791 | 22500 | 0.1867 | - | - |
| 4.8003 | 22600 | 0.1724 | - | - |
| 4.8216 | 22700 | 0.1527 | - | - |
| 4.8428 | 22800 | 0.1611 | - | - |
| 4.8641 | 22900 | 0.1552 | - | - |
| 4.8853 | 23000 | 0.1527 | - | - |
| 4.9065 | 23100 | 0.157 | - | - |
| 4.9278 | 23200 | 0.1604 | - | - |
| 4.9490 | 23300 | 0.1594 | - | - |
| 4.9703 | 23400 | 0.1677 | - | - |
| 4.9915 | 23500 | 0.1583 | - | - |
Framework Versions
- Python: 3.12.6
- Sentence Transformers: 5.2.0
- Transformers: 4.56.0
- PyTorch: 2.8.0+cu129
- Accelerate: 1.10.1
- Datasets: 4.4.2
- Tokenizers: 0.22.0
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}