---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- dense
- generated_from_trainer
- dataset_size:1109
- loss:MatryoshkaLoss
- loss:MultipleNegativesRankingLoss
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
widget:
- source_sentence: Lãi suất vay tiêu dùng từ thẻ kỳ hạn 2-5 tháng là 12%/năm.
sentences:
- Mức lãi suất áp dụng cho khoản vay tiêu dùng thẻ kỳ hạn ngắn (2-5 tháng) là 12%.
- Hạn dùng ưu đãi của khách hàng VIP được tính theo năm dương lịch hưởng quyền lợi.
- dịch vụ áp dụng cho nhân viên sacombank được ủy quyền sử dụng thẻ
- source_sentence: Mở tài khoản ngân hàng cần giấy tờ gì?
sentences:
- Địa chỉ Hanoi Le Jardin Hotel & Spa là số 46A đường Nguyễn Trường Tộ, Ba Đình.
- Hồ sơ mở tài khoản thanh toán cá nhân
- CCTG cần được giữ gìn nguyên vẹn, tránh tẩy xóa hay làm hỏng.
- source_sentence: Chứng chỉ tiền gửi có lãi suất 7,1%/năm.
sentences:
- Địa chỉ nhà hàng A Bản là số 76 đường Trần Phú, Quận Ba Đình, Hà Nội.
- Điều kiện miễn phí cho sinh viên trên 20 tuổi là duy trì số dư bình quân từ 500.000
VND.
- Mức lãi suất cố định áp dụng cho Chứng chỉ tiền gửi là 7,1% một năm.
- source_sentence: Thời gian xử lý hoàn tiền vào thẻ là 5-10 phút.
sentences:
- 'bảo hiểm mục 13: các loại trừ chung'
- Khách hàng sử dụng Combo Đa Lợi không bị thu phí khi giao dịch qua Ngân hàng số.
- Chủ thẻ sẽ nhận lại tiền vào hạn mức tín dụng sau khoảng 5 đến 10 phút.
- source_sentence: Quy đổi 1 lượt golf thành 1 đêm nghỉ dưỡng tiêu chuẩn cho 2 người.
sentences:
- Giao dịch ở siêu thị bằng thẻ được hoàn lại giá trị
- Ngân hàng sẽ báo trước 1 tuần nếu có thay đổi về quy định dịch vụ.
- Mỗi lượt golf trong tài khoản tương đương với 01 đêm phòng tiêu chuẩn dành cho
02 khách.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- pearson_cosine
- spearman_cosine
model-index:
- name: SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
results:
- task:
type: semantic-similarity
name: Semantic Similarity
dataset:
name: banking val
type: banking-val
metrics:
- type: pearson_cosine
value: 0.48784389453148286
name: Pearson Cosine
- type: spearman_cosine
value: 0.4829396210794567
name: Spearman Cosine
---
# SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2)
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'Quy đổi 1 lượt golf thành 1 đêm nghỉ dưỡng tiêu chuẩn cho 2 người.',
'Mỗi lượt golf trong tài khoản tương đương với 01 đêm phòng tiêu chuẩn dành cho 02 khách.',
'Giao dịch ở siêu thị bằng thẻ được hoàn lại giá trị',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[ 1.0000, 0.7473, -0.0708],
# [ 0.7473, 1.0000, -0.0487],
# [-0.0708, -0.0487, 1.0000]])
```
## Evaluation
### Metrics
#### Semantic Similarity
* Dataset: `banking-val`
* Evaluated with [EmbeddingSimilarityEvaluator](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
| Metric | Value |
|:--------------------|:-----------|
| pearson_cosine | 0.4878 |
| **spearman_cosine** | **0.4829** |
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 1,109 training samples
* Columns: sentence1 and sentence2
* Approximate statistics based on the first 1000 samples:
| | sentence1 | sentence2 |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string |
| details |
Hạn mức chuyển tiền qua internet banking | Giới hạn giao dịch trên mobile banking mỗi ngày |
| Lãi suất tiền gửi Tương lai kỳ hạn 1 năm là 3,70%/năm. | Sản phẩm Tiền gửi Tương lai 12 tháng có lãi suất 3,70%. |
| Chi tiêu khác ngoài siêu thị và di chuyển được hoàn 0,5%. | Các giao dịch chi tiêu thông thường khác áp dụng tỷ lệ hoàn tiền là 0,5%. |
* Loss: [MatryoshkaLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
```json
{
"loss": "MultipleNegativesRankingLoss",
"matryoshka_dims": [
768
],
"matryoshka_weights": [
1
],
"n_dims_per_step": -1
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: epoch
- `per_device_train_batch_size`: 32
- `learning_rate`: 2e-05
- `num_train_epochs`: 8
- `warmup_ratio`: 0.1
- `fp16`: True
- `load_best_model_at_end`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters