Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks
Paper
•
1908.10084
•
Published
•
10
This is a sentence-transformers model finetuned from BAAI/bge-m3. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("micky1625/fthani3")
# Run inference
sentences = [
'술과 색에 대한 과도한 집착이 개인의 정신적, 신체적 건강에 미치는 영향을 설명하고, 이러한 상태를 개선하기 위한 한의학적 처방이나 접근 방법은 무엇인지 서술하시오.',
'[16-21] 술과 색이 사람을 죽인다고 하는 사람들은 모두 말하기를 "술독이 창자를 마르게 하고 색\n로(色勞)가 정력을 말라붙게 한다"고 하지만 이는 그 중의 하나를 알고 둘은 모르는 말이다. 술에 \n방종하는 자는 그 몸을 부지런하게 쓰기를 싫어하기 때문에 걱정이 태산 같고, 색에 미혹된 자는 \n계집을 깊이 사랑하기 때문에 걱정이 칼날 같아서 만 갈래로 찢어지고 이지러진 마음이 술독과 색\n로와 함께 힘을 합하여 공격하므로 사람을 죽이게 하는 것이다.\n[16-22] 광동(狂童)은 반드시 음녀(淫女)를 사랑하고 음녀는 또한 광동을 사랑하며, 우부(愚夫)는 반\n드시 투부(妬婦)를 사랑하고 투부는 또한 우부를 사랑하는 것이니, 만물의 이치로 이를 따져보더라\n도 음녀는 단연코 광동의 배필에 합당할 것이요, 우부는 또한 투부의 배필함이 마땅할 것이다. 대개\n음녀나 투부는 악인이나 천인(賤人)의 배필이 될 수는 있어도 군자나 귀인의 배필이 될 수는 없는 \n것이다. 칠거지악 중에서도 음란한 것과 질투하는 것이 그 으뜸되는 악이지만 세상 사람들은ㆍ투\'\n자의 의미를 잘 모르고 단지 많은 첩들을 미워하며 투기하는 것만을 이야기한다. 귀인이 후사를 이\n어야 한다는 것은 가장 소중한 일이기 때문에 귀인이 첩을 갖는 것을 부인이 미워하며 투기하는 것\n은 절대로 안 되는 법이다. 그러나 가정의 법도를 어지럽히는 근본이 일찍이 많은 첩을 거느리는',
'[7-56] 나는 논하기를 일찍이 소음인 한 사람이 명치 밑 오른쪽에 단단하게 굳어 뭉친 것이 있어서 \n백약을 써도 효과가 없다. 그리하여 파두여의단(巴豆如意丹)을 주었더니 도리어 병이 심하여 머리\n를 흔들며 풍증을 일으키다가 잠깐 그치더니 몇 달 후에 죽은 것이다. 또 그 후에 소음인 한 사람이\n이와 같은 병증이 있어 파두단(巴豆丹)을 썼더니 얼굴과 몸에서는 땀이 나고 있으나 유독히 윗입술\n인중혈(人中穴) 좌우 쪽에서는 땀이 나지 아니하더니 이 사람은 1년 후에 죽은 것이다. 무릇 소음인\n이 명치 밑이 단단하게 굳어 뭉쳐 있는 환자 4-5명을 실제로 보았으나 혹 6개월간 혹 1년간 침구(\n針灸) 의약(醫藥)을 두루 써보지 않은 것이 없었으나 낱낱이 회생할 희망이 없었으니 이는 곧 장결\n병으로 소음인의 병인 것이다.\n[7-57] 장중경(張仲景)이 말하기를 황달병은 마땅히 18일로서 기간을 잡는 것이니 10일 이상이면 \n차도가 있어야 하는데 도리어 병이 더욱 심한 것은 다스리기 어려운 것이다. 병이 음부(陰部)에서 \n발(發)하면 그 사람이 반드시 구역을 하고 병이 양부(陽部)에서 발생을 하면 그 사람이 추워서 떨며\n발열을 하는 것이다.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
sentence_0, sentence_1, and label| sentence_0 | sentence_1 | label | |
|---|---|---|---|
| type | string | string | float |
| details |
|
|
|
| sentence_0 | sentence_1 | label |
|---|---|---|
태만한 자의 마음가짐에 대한 설명으로 옳은 것은 무엇인가? |
모르기 때문에 마음은 항상 몸에 차고 돌에 새기듯 기억하고 있으니 선비들은 농부들과 비교한다 |
1.0 |
태양인, 소음인, 소양인 각각의 성격적 특징과 이로 인해 발생할 수 있는 장부의 손상 원인에 대해 설명하고, 각 인에 대한 적절한 처방을 제시하시오. |
[3-12] 태양인은 교우는 삼가는 까닭에 항상 생소한 교우인(交遇人)을 여환(慮患)하는 노심(怒心)이 |
1.0 |
턱에 일으키려는 땀과 함께 한궐 증상이 나타나는 경우, 이 증상에 대한 전통적인 한의학적 처방으로 언급된 약재는 무엇인지 설명하고, 이 병증을 잘못 치료할 경우 어떤 결과가 발생할 수 있는지 논의하시오. |
턱에 일으키려는 땀은 한궐이 몹시 맹렬하여 한전(寒戰)을 일으켜 이빨을 부딪치면서 턱을 떠는 것 |
1.0 |
MultipleNegativesRankingLoss with these parameters:{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
per_device_train_batch_size: 16per_device_eval_batch_size: 16multi_dataset_batch_sampler: round_robinoverwrite_output_dir: Falsedo_predict: Falseeval_strategy: noprediction_loss_only: Trueper_device_train_batch_size: 16per_device_eval_batch_size: 16per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 1eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 5e-05weight_decay: 0.0adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1num_train_epochs: 3max_steps: -1lr_scheduler_type: linearlr_scheduler_kwargs: {}warmup_ratio: 0.0warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falseuse_ipex: Falsebf16: Falsefp16: Falsefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Nonelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Falseignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}tp_size: 0fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_torchoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Falseresume_from_checkpoint: Nonehub_model_id: Nonehub_strategy: every_savehub_private_repo: Nonehub_always_push: Falsegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseinclude_for_metrics: []eval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters: auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: Falseneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseeval_use_gather_object: Falseaverage_tokens_across_devices: Falseprompts: Nonebatch_sampler: batch_samplermulti_dataset_batch_sampler: round_robin@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
Base model
BAAI/bge-m3