metadata
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- dense
- generated_from_trainer
- dataset_size:23446
- loss:CosineSimilarityLoss
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
widget:
- source_sentence: 'tỷ lệ quy đổi: 1 lượt golf bằng 1 đêm nghỉ dưỡng tiêu chuẩn.'
sentences:
- >-
nếu số dư bình quân tháng trên 100 triệu, tài khoản thanh toán hưởng lãi
suất 0,30%.
- >-
chủ tài khoản combo đa lợi được hưởng các ưu đãi như quay số trúng
thưởng và hoàn tiền.
- mỗi điểm thưởng tích lũy có giá trị quy đổi tương đương 85 đồng.
- source_sentence: gói an sinh xã hội tham gia các chương trình khuyến mãi của sacombank.
sentences:
- khoản vay ô tô vinfast cho phép trả góp trong vòng 96 tháng.
- dùng gói an sinh xã hội rút tiền ở cây atm không tốn phí.
- tráng miệng tại pincho là món kem nướng đường vị hạt sen.
- source_sentence: biên độ 2,42% được cộng vào lãi suất bình quân lãi cuối kỳ của khcn.
sentences:
- >-
vị trí của tunglok heen là tại trung tâm almaz, khu đô thị vinhomes
riverside.
- >-
lãi suất 5,20% được áp dụng cho sản phẩm tiết kiệm trung niên phúc lộc
kỳ hạn 12 tháng.
- danh sách thẻ được bảo hiểm bao gồm cả visa platinum tiki và cashback.
- source_sentence: >-
cấm dùng thẻ quốc tế để mua bất động sản ở nước ngoài rồi bán lại lấy tiền
mặt.
sentences:
- >-
sinh viên mở thẻ o2 được hưởng mức lãi suất đặc biệt thấp chỉ 0,8% mỗi
tháng.
- >-
khi ứng dụng gặp sự cố, chủ thẻ có thể truy cập
https://khachhangthanthiet.sacombank.com để thao tác.
- >-
hệ thống sẽ ghi có số tiền tương ứng vào tài khoản thẻ tín dụng sau khi
đổi điểm.
- source_sentence: thủ tục mở combo hi-tek yêu cầu thẻ học sinh/sinh viên.
sentences:
- tóm tắt quy định lãi suất và tiền gửi tiết kiệm
- >-
các dịch vụ giá trị gia tăng như phát hành séc, bảo lãnh đều có trên tài
khoản thanh toán.
- mức lãi suất tối đa cho các kỳ hạn từ 1 tháng đến dưới 6 tháng là 4,75%.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- pearson_cosine
- spearman_cosine
model-index:
- name: >-
SentenceTransformer based on
sentence-transformers/paraphrase-multilingual-mpnet-base-v2
results:
- task:
type: semantic-similarity
name: Semantic Similarity
dataset:
name: banking validation
type: banking-validation
metrics:
- type: pearson_cosine
value: 0.9364482359810874
name: Pearson Cosine
- type: spearman_cosine
value: 0.6616815700973865
name: Spearman Cosine
SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
This is a sentence-transformers model finetuned from sentence-transformers/paraphrase-multilingual-mpnet-base-v2. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
- Maximum Sequence Length: 128 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'thủ tục mở combo hi-tek yêu cầu thẻ học sinh/sinh viên.',
'các dịch vụ giá trị gia tăng như phát hành séc, bảo lãnh đều có trên tài khoản thanh toán.',
'mức lãi suất tối đa cho các kỳ hạn từ 1 tháng đến dưới 6 tháng là 4,75%.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[ 1.0000, -0.0398, 0.0058],
# [-0.0398, 1.0000, 0.0282],
# [ 0.0058, 0.0282, 1.0000]])
Evaluation
Metrics
Semantic Similarity
- Dataset:
banking-validation - Evaluated with
EmbeddingSimilarityEvaluator
| Metric | Value |
|---|---|
| pearson_cosine | 0.9364 |
| spearman_cosine | 0.6617 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 23,446 training samples
- Columns:
sentence_0,sentence_1, andlabel - Approximate statistics based on the first 1000 samples:
sentence_0 sentence_1 label type string string float details - min: 8 tokens
- mean: 17.67 tokens
- max: 30 tokens
- min: 8 tokens
- mean: 19.22 tokens
- max: 34 tokens
- min: 0.0
- mean: 0.17
- max: 1.0
- Samples:
sentence_0 sentence_1 label vietlott sms là dịch vụ phân phối xổ số qua kênh điện thoại.không áp dụng đổi điểm cho việc mua sắm trang sức (mã mcc 5944).0.0khách hàng trúng trên 10 tỷ không được nhận thưởng tự động.tiền để trong thẻ atm (không kỳ hạn) sinh lời 0,1% mỗi năm.0.0thẻ metro pass phi vật lý miễn phí thường niên trọn đời.để đảm bảo bảo mật, người dùng cần nâng cấp app lên phiên bản mới nhất.0.0 - Loss:
CosineSimilarityLosswith these parameters:{ "loss_fct": "torch.nn.modules.loss.MSELoss" }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy: stepsper_device_train_batch_size: 16per_device_eval_batch_size: 16num_train_epochs: 4multi_dataset_batch_sampler: round_robin
All Hyperparameters
Click to expand
overwrite_output_dir: Falsedo_predict: Falseeval_strategy: stepsprediction_loss_only: Trueper_device_train_batch_size: 16per_device_eval_batch_size: 16per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 1eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 5e-05weight_decay: 0.0adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1num_train_epochs: 4max_steps: -1lr_scheduler_type: linearlr_scheduler_kwargs: {}warmup_ratio: 0.0warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falsebf16: Falsefp16: Falsefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Nonelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Falseignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}parallelism_config: Nonedeepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_torch_fusedoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthproject: huggingfacetrackio_space_id: trackioddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Falseresume_from_checkpoint: Nonehub_model_id: Nonehub_strategy: every_savehub_private_repo: Nonehub_always_push: Falsehub_revision: Nonegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseinclude_for_metrics: []eval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters:auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: noneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseliger_kernel_config: Noneeval_use_gather_object: Falseaverage_tokens_across_devices: Trueprompts: Nonebatch_sampler: batch_samplermulti_dataset_batch_sampler: round_robinrouter_mapping: {}learning_rate_mapping: {}
Training Logs
| Epoch | Step | Training Loss | banking-validation_spearman_cosine |
|---|---|---|---|
| 0.3411 | 500 | 0.0523 | 0.6497 |
| 0.6821 | 1000 | 0.0362 | 0.6519 |
| 1.0 | 1466 | - | 0.6549 |
| 1.0232 | 1500 | 0.0276 | 0.6548 |
| 1.3643 | 2000 | 0.0187 | 0.6588 |
| 1.7053 | 2500 | 0.016 | 0.6566 |
| 2.0 | 2932 | - | 0.6580 |
| 2.0464 | 3000 | 0.0142 | 0.6574 |
| 2.3874 | 3500 | 0.0085 | 0.6606 |
| 2.7285 | 4000 | 0.0087 | 0.6610 |
| 3.0 | 4398 | - | 0.6617 |
Framework Versions
- Python: 3.12.12
- Sentence Transformers: 5.1.1
- Transformers: 4.57.1
- PyTorch: 2.8.0+cu126
- Accelerate: 1.11.0
- Datasets: 4.4.2
- Tokenizers: 0.22.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}