SentenceTransformer based on keepitreal/vietnamese-sbert

This is a sentence-transformers model finetuned from keepitreal/vietnamese-sbert. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: keepitreal/vietnamese-sbert
  • Maximum Sequence Length: 256 tokens
  • Output Dimensionality: 768 dimensions
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 256, 'do_lower_case': False, 'architecture': 'RobertaModel'})
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("hungq/hust_sbert_2")
# Run inference
sentences = [
    "...............  22 \\nArticle 34. Master's degree requirements and graduation classifications.  ....... 22 \\nArticle 35. Temporary leave and academic record retention  ...........................  23 \\nArticle 36. Extension of study period and withdrawal from study  ..................  24 \\nCHAPTER V : DOCTORAL PROGRAMS  ................................ ....................  25 \\nArticle 37. Planning and progress reporting  ................................ ....................  25 \\nArticle 38. Supplementary courses and doctoral courses  ................................ . 25 \\nArticle 39. Literature review and doctoral thematic studies  ............................  26 \\nArticle 40. Doctoral dissertation  ................................ ................................ ...... 26",
    '30 \\nCHAPTER VI : ORGANIZATION AND IMPLEMENTATION  .................  32 \\nArticle 47. Transitional provisions  ................................ ................................ ... 32 \\nArticle 48. Commencement  ................................ ................................ ..............  32 \\n \\n  \\n 1 \\n \\nMINISTRY OF EDUCATION AND TRANING  \\nHANOI UNIVERSITY OF SCIENCE AND  \\nTECHNOLOGY  SOCIALIST REPUBLIC OF VIETNAM  \\nIndependence - Freedom - Happiness  \\n \\n \\nACADEMIC REGULATIONS  \\n(Issued together with Decision No. 5445/QĐ -ĐHBK, dated 28/05/2025  \\nby the President of Hanoi University of Science and Technology)  \\nCHAPTER  I \\nGENERAL PROVISIONS  \\nArticle 1.  Scope and Applicability  \\n1. These regulations govern the training activities for full -time and part -time/in',
    'Điều 45. Công nh ận và chuy ển đổi kết quả học tập, nghiên c ứu ..............................  27 \nCHƯƠNG VI T Ổ CHỨC TH ỰC HI ỆN ................................ ................................ ....... 28 \nĐiều 46. Quy  định chuy ển tiếp ................................ ................................ ..................  28 \nĐiều 47. Hi ệu lực thi hành  ................................ ................................ .........................  28  \nBỘ GIÁO DỤC VÀ ĐÀO TẠO  CỘNG HÒA XÃ HỘI CHỦ NGHĨA VIỆT NAM  \nĐẠI HỌC BÁCH KHOA HÀ NỘI  \n Độc lập – Tự do  – Hạnh phúc  \n \n \nQUY CHẾ ĐÀO T ẠO \n(Ban hành kèm theo Quyết định số  4600 /QĐ–ĐHBK    ngày  09 tháng  6 năm 202 3 \ncủa Giám đốc  Đại học Bách khoa Hà Nội)  \n \nCHƯƠNG  I \nNHỮNG QUY Đ ỊNH CHUNG',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.7949, 0.7070],
#         [0.7949, 1.0000, 0.7457],
#         [0.7070, 0.7457, 1.0000]])

Training Details

Training Dataset

Unnamed Dataset

  • Size: 2,857 training samples
  • Columns: sentence_0, sentence_1, and label
  • Approximate statistics based on the first 1000 samples:
    sentence_0 sentence_1 label
    type string string float
    details
    • min: 3 tokens
    • mean: 210.83 tokens
    • max: 256 tokens
    • min: 3 tokens
    • mean: 210.16 tokens
    • max: 256 tokens
    • min: 0.64
    • mean: 0.75
    • max: 0.86
  • Samples:
    sentence_0 sentence_1 label
    Sinh viên được công nhận tốt nghiệp cử nhân sẽ được cấp bằng cử nhân và chính thức chuyển sang học CTĐT KS 180 TC. Các học phần tích lũy trước sẽ được xét công nhận thuộc CTĐT KS.
    4. Điểm trung bình toàn khóa và hạng tốt nghiệp kỹ sư:
    Điểm học phần bậc KS không dùng để xét học bổng khuyến khích học tập ở bậc cử nhân.
    Điểm trung bình toàn khóa và hạng tốt nghiệp kỹ sư theo quy chế hiện hành.
    Điểm trung bình toàn khóa là trung bình tích lũy của cả giai đoạn cử nhân và kỹ sư, tính theo trọng số tín chỉ từng giai đoạn.
    Người học hoàn thành đủ học phần và đạt chứng chỉ ngoại ngữ tối thiểu B2 sẽ được cấp bằng kỹ sư chuyên sâu đặc thù trình độ Bậc 7 theo Khung trình độ quốc gia Việt Nam.
    5. Thông tin trên hệ thống quản lý học tập:
    Khi sinh viên được công nhận tốt nghiệp cử nhân:
    Theo đề nghị của Trưởng Phòng Đào tạo;
    QUYẾT ĐỊNH:
    Điều 1. Ban hành kèm theo Quyết định này Quy định công nhận tín chỉ và chuyển đổi kết quả học phần tương đương của Trường ĐHBK Hà Nội.
    Điều 2. Quyết định này có hiệu lực kể từ ngày ký và áp dụng từ năm học 2021–2022.
    Điều 3. Các đơn vị liên quan và người học chịu trách nhiệm thi hành Quyết định này.
    KT. HIỆU TRƯỞNG
    PHÓ HIỆU TRƯỞNG
    PGS.TS. Nguyễn Phong Điền
    QUY ĐỊNH Về chuyển đổi kết quả học phần tương đương và công nhận tín chỉ tích lũy
    (Ban hành kèm theo Quyết định số 1933/QĐ-ĐHBK-ĐT ngày 08/9/2021)
    Điều 1. Phạm vi điều chỉnh và đối tượng áp dụng
    1. Quy định về tiêu chuẩn, thủ tục chuyển đổi kết quả học tập tương đương và công nhận tín chỉ tích lũy.
    0.6376281516217733
    b) Học bổng từ các nguồn hợp tác quốc tế song phương và đa phương:

    Ngoài nguồn học bổng do Đại học cấp, mỗi năm sinh viên ĐHBK Hà Nội còn nhận được hàng trăm suất học bổng tài trợ cho sinh viên sang học tập, thực tập tại nước ngoài từ các nguồn hợp tác quốc tế song phương và đa phương của ĐHBK Hà Nội. Chi tiết các chương trình học bổng tài trợ này sinh viên theo dõi https://www.hust.edu.vn/vi/su-kien-noi-bat/hop-tac-doi-ngoai-truyen-thong/

    5.Học bổng gắn kết quê hương
    5.Học bổng gắn kết quê hương

    Nhằm gắn kết quá trình đào tạo, NCKH với hoạt động kinh doanh, sản xuất, năm 2024 ĐHBK Hà Nội sẽ dành 2 tỷ đồng để cấp Học bổng gắn kết quê hương cho sinh viên, học viên chương trình kỹ sư chuyên sâu đặc thù có đồ án/khóa luận tốt nghiệp (ĐANT) góp phần cải tiến, nâng cao chất lượng, hiệu quả kinh doanh, sản xuất hoặc chất lượng các dịch vụ an sinh xã hội tại quê hương của sinh viên/học viên.

    Mức học bổng: Học bổng có trị giá 5 triệu đồng/ĐATN.

    - Kế hoạch, hồ sơ đăng ký xét cấp HB Gắn kết quê hương học kỳ 2 năm học 2024-2025 xem https://ctt.hust.edu.vn/DisplayWeb/DisplayBaiViet?baiviet=44531

    - Kế hoạch, hồ sơ đăng ký xét cấp HB Gắn kết quê hương học kỳ 1 năm học 2024-2025 xem https://ctt.hust.edu.vn/DisplayWeb/DisplayBaiViet?baiviet=43461
    0.8607079764250578
    thuộc diện miễn làm ngh ĩa vụ quân sự theo quy định hiện hành;
    c) Học sinh, sinh viên đã hoàn thành ngh ĩa vụ quân sự, công an nhân dân.
    4. Đối tượng được tạm hoãn học môn học GDQP&AN:
    a) Học sinh, sinh viên vì lý do s ức khỏe phải dừng học trong th ời gian dài để
    điều trị, phải có giấy xác nhận của bệnh viện nơi học sinh, sinh viên điều trị;
    b) Học sinh, sinh viên là n ữ đang mang thai ho ặc trong th ời gian ngh ỉ chế độ
    thai sản theo quy định hiện hành.
    5. Giám đốc, hiệu trưởng các cơ sở giáo dục xem xét t ạm hoãn h ọc môn học
    GDQP&AN cho các đối tượng quy định tại điểm a, điểm b khoản 4 Điều này. Hết
    thời gian tạm hoãn, các c ơ sở giáo dục bố trí cho h ọc sinh, sinh viên vào h ọc các
    lớp phù hợp để hoàn thành ch ương trình.
    Điều 5. Giáo viên, gi ảng viên GDQP&AN
    lớp phù hợp để hoàn thành ch ương trình.
    Điều 5. Giáo viên, gi ảng viên GDQP&AN
    1. Giáo viên, gi ảng viên GDQP&AN bao g ồm giáo viên, gi ảng viên có trình độ
    chuẩn theo quy định tại khoản 1 và kho ản 2 Điều 6 Nghị định số 13/2014/N Đ-CP
    ngày 25 tháng 02 n ăm 2014 c ủa Chính ph ủ quy định chi tiết và biện pháp thi hành
    Luật Giáo dục quốc phòng và an ninh.
    2. Các cơ sở giáo dục xây dựng kế hoạch đào tạo, bồi dưỡng, cập nhật kiến
    thức quốc phòng và an ninh, ph ương pháp d ạy học bảo đảm trình độ chuẩn phù
    hợp với yêu cầu giảng dạy ở từng trình độ đào tạo.
    Điều 6. Quản lý giáo viên, gi ảng viên GDQP&AN
    Các cơ sở giáo dục thực hiện quản lý đội ngũ giáo viên, gi ảng viên GDQP&AN
    như giáo viên, gi ảng viên môn h ọc khác. Gi ảng viên GDQP&AN là s ĩ quan quân
    0.8607079764250578
  • Loss: CosineSimilarityLoss with these parameters:
    {
        "loss_fct": "torch.nn.modules.loss.MSELoss"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • num_train_epochs: 1
  • multi_dataset_batch_sampler: round_robin

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1
  • num_train_epochs: 1
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • parallelism_config: None
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • project: huggingface
  • trackio_space_id: trackio
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: no
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: True
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: round_robin
  • router_mapping: {}
  • learning_rate_mapping: {}

Framework Versions

  • Python: 3.12.12
  • Sentence Transformers: 5.1.2
  • Transformers: 4.57.1
  • PyTorch: 2.9.0+cu126
  • Accelerate: 1.11.0
  • Datasets: 4.0.0
  • Tokenizers: 0.22.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
Downloads last month
2
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for hungq/hust_sbert_2

Finetuned
(25)
this model

Paper for hungq/hust_sbert_2