SentenceTransformer based on intfloat/multilingual-e5-base

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-base. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: intfloat/multilingual-e5-base
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 dimensions
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("meandyou200175/E5_base_topic")
# Run inference
sentences = [
    'query: FIFA đã công bố hôm thứ Năm rằng Sân vận động Gillette sẽ là một trong 16 địa điểm tổ chức FIFA World Cup nam vào năm 2026. Đây sẽ là lần thứ hai Foxborough đóng vai trò chủ nhà cho giải đấu World Cup nam; sáu trận đấu được tổ chức tại sân vận động Foxboro vào năm 1994, trong đó có trận chung kết World Cup của Diego Maradona của Argentina và trận tứ kết đáng nhớ giữa Tây Ban Nha và Ý. Gillette cũng từng là địa điểm tổ chức Giải vô địch bóng đá nữ thế giới FIFA vào năm 1999 và 2003. Sự kiện này sẽ được tổ chức ở ba quốc gia lần đầu tiên vào năm 2026, với Hoa Kỳ, Canada và Mexico chia sẻ nhiệm vụ chủ nhà. Tham gia cùng Foxborough — một trong những địa điểm của Khu vực phía Đông — với tư cách là chủ nhà vào năm 2026 sẽ là: Miền Tây: Vancouver, Seattle, San Francisco/Bay Area, Los Angeles, Guadalajara. Miền Trung: Kansas City, Dallas, Atlanta, Houston, Monterrey, Mexico City. Miền Đông: Toronto, Philadelphia, Miami, New York/New Jersey. Sáu thành phố đã vận động đấu thầu và bị loại là Washington, D.C.',
    'passage: Bóng đá',
    'passage: Kinh doanh',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[ 1.0000,  0.7709, -0.0637],
#         [ 0.7709,  1.0000, -0.1021],
#         [-0.0637, -0.1021,  1.0000]])

Evaluation

Metrics

Information Retrieval

Metric Value
cosine_accuracy@1 0.1882
cosine_accuracy@2 0.2438
cosine_accuracy@5 0.3274
cosine_accuracy@10 0.4115
cosine_accuracy@100 0.7896
cosine_precision@1 0.1882
cosine_precision@2 0.1219
cosine_precision@5 0.0655
cosine_precision@10 0.0411
cosine_precision@100 0.0079
cosine_recall@1 0.1882
cosine_recall@2 0.2438
cosine_recall@5 0.3274
cosine_recall@10 0.4115
cosine_recall@100 0.7896
cosine_ndcg@10 0.2879
cosine_mrr@1 0.1882
cosine_mrr@2 0.216
cosine_mrr@5 0.2386
cosine_mrr@10 0.2499
cosine_mrr@100 0.2632
cosine_map@100 0.2632

Training Details

Training Dataset

Unnamed Dataset

  • Size: 99,056 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 7 tokens
    • mean: 126.9 tokens
    • max: 512 tokens
    • min: 5 tokens
    • mean: 9.71 tokens
    • max: 51 tokens
  • Samples:
    anchor positive
    query: chất rắn ở trên đó người và các loài động vật, thực vật sinh sống; đối lập với trời hoặc với biển, nước passage: đứng trên mặt đất
    query: Dân chúng không chỉ thất vọng trước việc những kẻ man rợ đến và ra lệnh cho các điều khoản trong hiệp ước của họ, mà còn rằng Mạc phủ Tokugawa bất lực đang cúi xuống và nhượng bộ mọi yêu cầu của họ. passage: Sự khuất phục của Mạc phủ Tokugawa trước những kẻ man rợ
    query: 'Không có đối thủ dễ một khi đã lọt vào tứ kết Cup C1'

    HLV trưởng CLB Inter, Roberto Mancini, đã phát biểu như vậy khi lá thăm may rủi đưa đội bóng của ông gặp đối thủ nhiều duyên nợ AC Milan, tại tứ kết Champions League. Quan điểm của ông cũng giống nhiều nhà cầm quân khác.

    AC Milan gặp Inter là một cặp đấu căng thẳng, nhưng HLV Mancini vẫn hài lòng bởi đội bóng của ông đã tránh được Chelsea: "Đúng là trên thực tế, đã lâu rồi chúng tôi chưa thể giành chiến thắng trước AC Milan, nhưng sớm muộn gì điều này cũng phải xảy ra. Đó sẽ là một trận đấu khó khăn. Nhưng như tôi nói từ trước, một khi đã lọt vào tới tứ kết Champions League, chẳng có đội bóng nào là dễ chơi cả. Tôi hài lòng với kết quả này bởi chúng tôi không phải gặp Chelsea".
    passage: Thể thao Bóng đá
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim",
        "gather_across_devices": false
    }
    

Evaluation Dataset

Unnamed Dataset

  • Size: 11,007 evaluation samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 6 tokens
    • mean: 136.68 tokens
    • max: 512 tokens
    • min: 5 tokens
    • mean: 9.77 tokens
    • max: 44 tokens
  • Samples:
    anchor positive
    query: Lấy dăm gỗ 15cm găm thành ngực bệnh nhân | VTV.VN:
    Bệnh nhân viện vết thương thành ngực 2cm, dị đuôi dị vật 0,4cm, đau ngực phải. Xác định trường hợp vết thương ngực hở dị vật thành ngực trừ tổn thương phổi, màng phổi sĩ bệnh nhân chụp CTScanner ngực kèm dựng hình. Sau đó, bệnh nhân hội chẩn mổ dị vật. Dị vật mảnh dăm gỗ nhọn 15cm, ghi tổn thương màng phổi. Sau mổ, bệnh nhân ổn định. Qua trường hợp này, sĩ khuyến cáo: Người dân tuân thủ quy định an toàn lao động. Trường hợp dị vật đâm thành ngực rút dị vật ngoài. Phải chóng bệnh nhân sở y tế xử trí trị kịp thời. * Mời quý độc giả dõi chương trình phát sóng Đài Truyền hình Việt Nam TV Online VTVGo!
    passage: Sức khỏe - Đời sống
    query: như róc passage: khô rong róc
    query: Người Pakistan phản đối tổng thống nắm vai trò quân sự

    Hôm qua, một cuộc biểu tình quy mô lớn diễn ra tại thành phố Rawalpindi nhằm phản đối việc ông Pervez Musharraf tuyên bố sẽ không từ bỏ vai trò tổng tư lệnh quân đội như từng hứa hẹn.

    Gần một năm trước, tổng thống Pakistan đã cam kết sẽ rời bỏ bộ quân phục nhằm tranh thủ sự ủng hộ của liên minh MMA, gồm các đảng phái tôn giáo cánh hữu. Liên minh MMA chính là nhà tổ chức của cuộc tuần hành hôm qua và họ thề sẽ tiếp tục hoạt động phản đối trên đường phố.

    Hàng nghìn người đã bất chấp cơn mưa tầm tã tập trung tại doanh trại quân sự chính ở thành phố Rawalpindi để lắng nghe những lời chỉ trích Tổng thống Musharraf. Những người diễn thuyết cáo buộc ông là độc tài, không khác gì so với 3 nhà lãnh đạo quân sự trước đây của Pakistan.
    passage: Thế giới
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim",
        "gather_across_devices": false
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • warmup_ratio: 0.1
  • fp16: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss cosine_ndcg@10
0.0162 100 2.2003 - -
0.0323 200 1.8086 - -
0.0485 300 1.1621 - -
0.0646 400 0.6798 - -
0.0808 500 0.5578 - -
0.0969 600 0.4832 - -
0.1131 700 0.438 - -
0.1292 800 0.4052 - -
0.1454 900 0.4059 - -
0.1615 1000 0.3832 - -
0.1777 1100 0.3811 - -
0.1938 1200 0.2997 - -
0.2100 1300 0.3211 - -
0.2261 1400 0.3159 - -
0.2423 1500 0.3025 - -
0.2584 1600 0.303 - -
0.2746 1700 0.3029 - -
0.2907 1800 0.2972 - -
0.3069 1900 0.277 - -
0.3230 2000 0.31 - -
0.3392 2100 0.3006 - -
0.3554 2200 0.3047 - -
0.3715 2300 0.2803 - -
0.3877 2400 0.287 - -
0.4038 2500 0.2659 - -
0.4200 2600 0.2754 - -
0.4361 2700 0.2746 - -
0.4523 2800 0.2697 - -
0.4684 2900 0.2802 - -
0.4846 3000 0.281 - -
0.5007 3100 0.2652 - -
0.5169 3200 0.2611 - -
0.5330 3300 0.2992 - -
0.5492 3400 0.2593 - -
0.5653 3500 0.245 - -
0.5815 3600 0.258 - -
0.5976 3700 0.2448 - -
0.6138 3800 0.2709 - -
0.6299 3900 0.2762 - -
0.6461 4000 0.2274 - -
0.6623 4100 0.2552 - -
0.6784 4200 0.2878 - -
0.6946 4300 0.2337 - -
0.7107 4400 0.2486 - -
0.7269 4500 0.2597 - -
0.7430 4600 0.228 - -
0.7592 4700 0.2229 - -
0.7753 4800 0.2194 - -
0.7915 4900 0.2548 - -
0.8076 5000 0.2435 - -
0.8238 5100 0.2534 - -
0.8399 5200 0.2652 - -
0.8561 5300 0.2399 - -
0.8722 5400 0.2409 - -
0.8884 5500 0.2148 - -
0.9045 5600 0.2285 - -
0.9207 5700 0.2293 - -
0.9368 5800 0.2435 - -
0.9530 5900 0.2345 - -
0.9691 6000 0.2501 - -
0.9853 6100 0.2146 - -
1.0015 6200 0.2249 - -
1.0176 6300 0.1825 - -
1.0338 6400 0.1931 - -
1.0499 6500 0.1767 - -
1.0661 6600 0.1775 - -
1.0822 6700 0.1749 - -
1.0984 6800 0.1705 - -
1.1145 6900 0.1781 - -
1.1307 7000 0.1617 - -
1.1468 7100 0.1955 - -
1.1630 7200 0.1915 - -
1.1791 7300 0.1968 - -
1.1953 7400 0.2448 - -
1.2114 7500 0.1851 - -
1.2276 7600 0.1546 - -
1.2437 7700 0.1702 - -
1.2599 7800 0.1818 - -
1.2760 7900 0.1601 - -
1.2922 8000 0.1946 - -
1.3084 8100 0.1935 - -
1.3245 8200 0.2025 - -
1.3407 8300 0.1995 - -
1.3568 8400 0.1881 - -
1.3730 8500 0.1611 - -
1.3891 8600 0.1821 - -
1.4053 8700 0.1953 - -
1.4214 8800 0.1774 - -
1.4376 8900 0.1721 - -
1.4537 9000 0.1482 - -
1.4699 9100 0.1889 - -
1.4860 9200 0.1914 - -
1.5022 9300 0.1956 - -
1.5183 9400 0.1969 - -
1.5345 9500 0.1594 - -
1.5506 9600 0.2098 - -
1.5668 9700 0.1769 - -
1.5829 9800 0.1712 - -
1.5991 9900 0.177 - -
1.6152 10000 0.176 - -
1.6314 10100 0.1722 - -
1.6476 10200 0.1755 - -
1.6637 10300 0.1643 - -
1.6799 10400 0.1966 - -
1.6960 10500 0.1919 - -
1.7122 10600 0.1763 - -
1.7283 10700 0.1959 - -
1.7445 10800 0.1613 - -
1.7606 10900 0.1759 - -
1.7768 11000 0.1613 - -
1.7929 11100 0.1978 - -
1.8091 11200 0.2051 - -
1.8252 11300 0.1626 - -
1.8414 11400 0.1562 - -
1.8575 11500 0.1403 - -
1.8737 11600 0.1805 - -
1.8898 11700 0.1454 - -
1.9060 11800 0.1649 - -
1.9221 11900 0.1645 - -
1.9383 12000 0.1532 - -
1.9545 12100 0.1644 - -
1.9706 12200 0.1737 - -
1.9868 12300 0.1248 - -
2.0029 12400 0.1726 - -
2.0191 12500 0.1225 - -
2.0352 12600 0.1479 - -
2.0514 12700 0.1179 - -
2.0675 12800 0.1214 - -
2.0837 12900 0.1401 - -
2.0998 13000 0.1364 - -
2.1160 13100 0.137 - -
2.1321 13200 0.1425 - -
2.1483 13300 0.1261 - -
2.1644 13400 0.1326 - -
2.1806 13500 0.1161 0.1890 0.2698
2.1967 13600 0.1177 - -
2.2129 13700 0.1521 - -
2.2290 13800 0.1327 - -
2.2452 13900 0.1396 - -
2.2613 14000 0.1509 - -
2.2775 14100 0.1369 - -
2.2937 14200 0.1389 - -
2.3098 14300 0.145 - -
2.3260 14400 0.128 - -
2.3421 14500 0.1121 - -
2.3583 14600 0.1145 - -
2.3744 14700 0.1314 - -
2.3906 14800 0.1311 - -
2.4067 14900 0.1454 - -
2.4229 15000 0.1449 - -
2.4390 15100 0.1299 - -
2.4552 15200 0.12 - -
2.4713 15300 0.1173 - -
2.4875 15400 0.129 - -
2.5036 15500 0.1492 - -
2.5198 15600 0.1127 - -
2.5359 15700 0.1311 - -
2.5521 15800 0.1295 - -
2.5682 15900 0.1053 - -
2.5844 16000 0.1238 - -
2.6005 16100 0.1275 - -
2.6167 16200 0.1156 - -
2.6329 16300 0.1164 - -
2.6490 16400 0.1298 - -
2.6652 16500 0.1458 - -
2.6813 16600 0.1384 - -
2.6975 16700 0.1063 - -
2.7136 16800 0.1361 - -
2.7298 16900 0.1385 - -
2.7459 17000 0.1261 - -
2.7621 17100 0.1147 - -
2.7782 17200 0.1092 - -
2.7944 17300 0.1282 - -
2.8105 17400 0.1028 - -
2.8267 17500 0.1271 - -
2.8428 17600 0.1233 - -
2.8590 17700 0.1364 - -
2.8751 17800 0.1135 - -
2.8913 17900 0.1295 - -
2.9074 18000 0.1168 - -
2.9236 18100 0.1132 - -
2.9398 18200 0.1309 - -
2.9559 18300 0.1507 - -
2.9721 18400 0.1356 - -
2.9882 18500 0.1405 - -
3.0044 18600 0.1213 - -
3.0205 18700 0.0991 - -
3.0367 18800 0.1017 - -
3.0528 18900 0.1014 - -
3.0690 19000 0.1124 - -
3.0851 19100 0.0913 - -
3.1013 19200 0.0997 - -
3.1174 19300 0.1047 - -
3.1336 19400 0.1218 - -
3.1497 19500 0.1184 - -
3.1659 19600 0.1125 - -
3.1820 19700 0.1105 - -
3.1982 19800 0.1035 - -
3.2143 19900 0.1038 - -
3.2305 20000 0.0869 - -
3.2466 20100 0.1044 - -
3.2628 20200 0.1008 - -
3.2790 20300 0.1056 - -
3.2951 20400 0.1073 - -
3.3113 20500 0.107 - -
3.3274 20600 0.0995 - -
3.3436 20700 0.0876 - -
3.3597 20800 0.083 - -
3.3759 20900 0.0986 - -
3.3920 21000 0.0955 - -
3.4082 21100 0.0965 - -
3.4243 21200 0.1101 - -
3.4405 21300 0.1079 - -
3.4566 21400 0.1034 - -
3.4728 21500 0.1012 - -
3.4889 21600 0.1064 - -
3.5051 21700 0.1038 - -
3.5212 21800 0.0976 - -
3.5374 21900 0.116 - -
3.5535 22000 0.0845 - -
3.5697 22100 0.0909 - -
3.5859 22200 0.0858 - -
3.6020 22300 0.0873 - -
3.6182 22400 0.0913 - -
3.6343 22500 0.0967 - -
3.6505 22600 0.0838 - -
3.6666 22700 0.0882 - -
3.6828 22800 0.1006 - -
3.6989 22900 0.099 - -
3.7151 23000 0.1135 - -
3.7312 23100 0.1057 - -
3.7474 23200 0.0973 - -
3.7635 23300 0.0969 - -
3.7797 23400 0.1143 - -
3.7958 23500 0.1049 - -
3.8120 23600 0.1043 - -
3.8281 23700 0.1073 - -
3.8443 23800 0.1007 - -
3.8604 23900 0.1005 - -
3.8766 24000 0.1153 - -
3.8927 24100 0.0786 - -
3.9089 24200 0.118 - -
3.9251 24300 0.1166 - -
3.9412 24400 0.0998 - -
3.9574 24500 0.0826 - -
3.9735 24600 0.0886 - -
3.9897 24700 0.0921 - -
4.0058 24800 0.106 - -
4.0220 24900 0.0925 - -
4.0381 25000 0.086 - -
4.0543 25100 0.0641 - -
4.0704 25200 0.0905 - -
4.0866 25300 0.0617 - -
4.1027 25400 0.0672 - -
4.1189 25500 0.0696 - -
4.1350 25600 0.076 - -
4.1512 25700 0.0863 - -
4.1673 25800 0.0861 - -
4.1835 25900 0.0835 - -
4.1996 26000 0.0513 - -
4.2158 26100 0.1168 - -
4.2319 26200 0.0939 - -
4.2481 26300 0.0838 - -
4.2643 26400 0.0939 - -
4.2804 26500 0.0948 - -
4.2966 26600 0.0525 - -
4.3127 26700 0.0872 - -
4.3289 26800 0.0863 - -
4.3450 26900 0.0896 - -
4.3612 27000 0.0875 0.1704 0.2879
4.3773 27100 0.0619 - -
4.3935 27200 0.0792 - -
4.4096 27300 0.0684 - -
4.4258 27400 0.0649 - -
4.4419 27500 0.0969 - -
4.4581 27600 0.0769 - -
4.4742 27700 0.0805 - -
4.4904 27800 0.0899 - -
4.5065 27900 0.0804 - -
4.5227 28000 0.0859 - -
4.5388 28100 0.0736 - -
4.5550 28200 0.0824 - -
4.5712 28300 0.0824 - -
4.5873 28400 0.0609 - -
4.6035 28500 0.0958 - -
4.6196 28600 0.0763 - -
4.6358 28700 0.0706 - -
4.6519 28800 0.093 - -
4.6681 28900 0.0776 - -
4.6842 29000 0.082 - -
4.7004 29100 0.0767 - -
4.7165 29200 0.0671 - -
4.7327 29300 0.0951 - -
4.7488 29400 0.0819 - -
4.7650 29500 0.0806 - -
4.7811 29600 0.0724 - -
4.7973 29700 0.0831 - -
4.8134 29800 0.0923 - -
4.8296 29900 0.0855 - -
4.8457 30000 0.0834 - -
4.8619 30100 0.0823 - -
4.8780 30200 0.0653 - -
4.8942 30300 0.0924 - -
4.9104 30400 0.0776 - -
4.9265 30500 0.0977 - -
4.9427 30600 0.0795 - -
4.9588 30700 0.0783 - -
4.9750 30800 0.0822 - -
4.9911 30900 0.0853 - -

Framework Versions

  • Python: 3.11.13
  • Sentence Transformers: 5.1.2
  • Transformers: 4.53.3
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.9.0
  • Datasets: 4.4.1
  • Tokenizers: 0.21.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
-
Safetensors
Model size
0.3B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for meandyou200175/E5_base_topic

Finetuned
(107)
this model

Papers for meandyou200175/E5_base_topic

Evaluation results