Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks
Paper
•
1908.10084
•
Published
•
12
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-large-instruct on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("Omerhan/checkpoint-150-v7")
# Run inference
sentences = [
'Geleneksel tanımlanmış fayda emeklilik planına sahip Kanadalı çalışanların yüzde kaçı emeklilik planlarını mevcut işverenlerine katılmanın temel nedeni olarak belirledi?',
"Geleneksel tanımlanmış fayda emeklilik planına sahip çalışanların yüzde 50'si, emeklilik planlarını mevcut işverenlerine katılmanın temel nedeni olarak tanımladı.",
'Emeklilik danışmanlık şirketi Towers Watson tarafından Kanadalı işçiler arasında yakın zamanda yapılan bir anket, ekonomik belirsizliğin işçiler arasında emeklilikte yeterli gelire sahip olamayacakları yönündeki korkuları körüklediğini ortaya çıkardı. Bu, çalışan tasarruf planlarının küçük işletme çalışanları tarafından giderek daha fazla değer kazanmasına ve işverenlerin uzun vadeli iyi çalışanları çekmek ve elde tutmak için kullanabileceği giderek daha önemli bir fayda haline gelmesine neden oldu.\nAnket, emeklilikte garantili bir gelir düzeyi ödeyen geleneksel tanımlanmış fayda (DB) emeklilik planına sahip çalışanların yüzde 50\'sinin, emeklilik planlarını mevcut işverenlerine katılmanın temel nedeni olarak tanımladığını ortaya çıkardı.\nAncak şirketleri tanımlanmış katkı (DC) planına veya grup RRSP\'sine sahip olan çalışanların yalnızca yüzde 30\'u, programların işlerini almada önemli bir faktör olduğunu söyledi. Özel sektörde daha yaygın olan bu planlar, emeklilikte garantili bir gelir düzeyi değil, DC emeklilik planlarında yüzde 50\'ye kadar ödeme yapıyor.\nBulgular, DB emeklilik planına sahip şirketlerin DC planına sahip olanlardan daha istikrarlı bir iş gücüne ulaşabileceği gerçeğini güçlendiriyor ve geleneksel emeklilik planına sahip şirketlerin bu avantajı potansiyel çalışanlara vurgulaması gerektiğini öne sürüyor.\nAnket ayrıca Kanadalı çalışanların üçte birinin daha iyi emeklilik güvencesi karşılığında maaşlarının bir kısmından fedakarlık etmeye istekli olacağını ve dörtte birinin ek emeklilik avantajları karşılığında ikramiyeden vazgeçeceğini ortaya çıkardı.\nBu kadar çok işçinin daha iyi emeklilik güvencesi karşılığında maaşını değiştireceği gerçeği, çalışanların emeklilik için tasarruf yapma yetenekleri konusunda sahip oldukları ciddi rahatsızlığın bir göstergesidir. Maaş bordrosu tasarruf planının bariz faydası, paranın başka şeylere harcanmadan önce kişinin maaş çeki vergisinden muaf olarak bir RRSP\'ye aktarılması nedeniyle, mali danışmanların teşvik ettiği "önce kendine ödeme" sürecine uymasıdır. Ayrıca, bir RRSP\'ye düzenli olarak aylık para yatırmak, götürü katkılara kıyasla dolar maliyeti ortalamasının önemli avantajıyla tasarruf oluşturmanın çok daha etkili bir yoludur.\nGörsel Shutterstock aracılığıyla lisanslanmıştır',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
anchor, positive, and negative| anchor | positive | negative | |
|---|---|---|---|
| type | string | string | string |
| details |
|
|
|
| anchor | positive | negative |
|---|---|---|
Berry İhracat Özeti 2028 nedir ve amacı nedir? |
Berry İhracat Özeti 2028, Avustralya çilek, ahududu ve böğürtlen endüstrilerine yönelik özel bir ihracat planıdır. Sektörlerin mevcut konumunu, olmak istedikleri yeri, yüksek fırsat pazarlarını ve sonraki adımları haritalandırır. Bu planın amacı önümüzdeki 10 yıl içinde küresel varlıklarını artırmaktır. |
Altyazı: Tazmanyalı meyve yetiştiricisi Nic Hansen, ihracat faaliyetleri kapsamında Macau şefi Antimo Merone'ye mülkünü gezdiriyor. |
Kendi kendine yetebilen su kaynaklarına erişimin bildirdiği faydalardan bazıları nelerdir? |
Kendi kendine yeten su kaynaklarına erişimin sağladığı faydalar arasında kolaylık, su getirmek için daha az zaman harcanması ve daha fazla ve daha kaliteli suya erişim yer alıyor. Bazı bölgelerde kendi kendine yeten kaynaklar, verimli kullanım için su, gelir yaratma, aile güvenliği ve gelişmiş gıda güvenliği gibi önemli katma değerler sunmaktadır. |
RWSN İşbirlikleri |
Coollands for Twitter uygulamasının benzersiz özellikleri nelerdir? |
Coolands for Twitter uygulamasının benzersiz özellikleri arasında, yenileme düğmesine gerek kalmadan Gerçek Zamanlı güncellemeler, yeni mesajlar için başlık çubuğunda küçük avatarlar gösteren Avatar Göstergesi, sezgisel ve kullanışlı bağlantı açma için Doğrudan Bağlantı, kolayca geri dönmek için Akıllı Yer İşareti yer alır. önceki okuma konumuna geçiş ve farklı kullanıcılar için özelleştirilmiş bildirim ayarlarına olanak tanıyan Kullanıcı Düzeyi Bildirimi. |
Tüm Android uygulamaları kategorileri |
MultipleNegativesRankingLoss with these parameters:{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
gradient_accumulation_steps: 8learning_rate: 1e-06num_train_epochs: 1lr_scheduler_type: cosinewarmup_ratio: 0.01tf32: Trueoptim: adamw_torch_fusedbatch_sampler: no_duplicatesoverwrite_output_dir: Falsedo_predict: Falseeval_strategy: noprediction_loss_only: Trueper_device_train_batch_size: 8per_device_eval_batch_size: 8per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 8eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 1e-06weight_decay: 0.0adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1.0num_train_epochs: 1max_steps: -1lr_scheduler_type: cosinelr_scheduler_kwargs: {}warmup_ratio: 0.01warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falseuse_ipex: Falsebf16: Falsefp16: Falsefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Truelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Falseignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_torch_fusedoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Falseresume_from_checkpoint: Nonehub_model_id: Nonehub_strategy: every_savehub_private_repo: Falsehub_always_push: Falsegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseeval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters: auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Nonedispatch_batches: Nonesplit_batches: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: Falseneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseeval_use_gather_object: Falsebatch_sampler: no_duplicatesmulti_dataset_batch_sampler: proportional@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
Base model
intfloat/multilingual-e5-large-instruct