Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks
Paper
• 1908.10084 • Published
• 12
This is a sentence-transformers model finetuned from sentence-transformers/all-MiniLM-L12-v2. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False, 'architecture': 'BertModel'})
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("Stergios-Konstantinidis/ML2025_fine_tuned_embeddings_final")
# Run inference
sentences = [
'Der Bund ist ja gemäss diesen Ausführungen im Moment selbst daran, die Gewässerschutzzonen zu überarbeiten.',
'Der Bund ist ja gemäss diesen Ausführungen im Moment selbst daran, die Gewässerschutzzonen zu überarbeiten.',
'Auch nach der Session erhielt ich keine Reaktionen von Gemeinden oder anderen Kommunalverbänden.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 1.0000, 0.2699],
# [1.0000, 1.0000, 0.2699],
# [0.2699, 0.2699, 1.0000]])
sentence_0, sentence_1, and label| sentence_0 | sentence_1 | label | |
|---|---|---|---|
| type | string | string | int |
| details |
|
|
|
| sentence_0 | sentence_1 | label |
|---|---|---|
Bundesgericht Tribunal fédéral Tribunale federale Tribunal federal {T 0/2} 9C_26/2017 Urteil vom 28. Februar 2017 II. sozialrechtliche Abteilung Besetzung Bundesrichterin Pfiffner, Präsidentin, Bundesrichterin Glanzmann, Bundesrichter Parrino, Gerichtsschreiber R. Widmer. Verfahrensbeteiligte A., vertreten durch Rechtsanwalt Dr. Kurt Pfau, Beschwerdeführerin, gegen IV-Stelle des Kantons Zürich, Röntgenstrasse 17, 8005 Zürich, Beschwerdegegnerin. Gegenstand Invalidenversicherung, Beschwerde gegen den Entscheid des Sozialversicherungsgerichts des Kantons Zürich vom 14. November 2016. Sachverhalt: A. Die 1956 geborene A. ist von Beruf Physiotherapeutin. Seit 2008 war sie als Selbstständigerwerbende tätig, ab März 2013 arbeitete sie in einem Pensum von 60 %. Am 7. März 2014 meldete sie sich unter Hinweis auf Schmerzen im Halsbereich bei der Invalidenversicherung zum Leistungsbezug an. Gestützt auf Abklärungen in medizinischer und erwerblicher Hinsicht lehnte die IV-Stelle d... |
Bundesgericht Tribunal fédéral Tribunale federale Tribunal federal {T 0/2} 9C_26/2017 Urteil vom 28. Februar 2017 II. sozialrechtliche Abteilung Besetzung Bundesrichterin Pfiffner, Präsidentin, Bundesrichterin Glanzmann, Bundesrichter Parrino, Gerichtsschreiber R. Widmer. Verfahrensbeteiligte A., vertreten durch Rechtsanwalt Dr. Kurt Pfau, Beschwerdeführerin, gegen IV-Stelle des Kantons Zürich, Röntgenstrasse 17, 8005 Zürich, Beschwerdegegnerin. Gegenstand Invalidenversicherung, Beschwerde gegen den Entscheid des Sozialversicherungsgerichts des Kantons Zürich vom 14. November 2016. Sachverhalt: A. Die 1956 geborene A. ist von Beruf Physiotherapeutin. Seit 2008 war sie als Selbstständigerwerbende tätig, ab März 2013 arbeitete sie in einem Pensum von 60 %. Am 7. März 2014 meldete sie sich unter Hinweis auf Schmerzen im Halsbereich bei der Invalidenversicherung zum Leistungsbezug an. Gestützt auf Abklärungen in medizinischer und erwerblicher Hinsicht lehnte die IV-Stelle d... |
1 |
Cour administrative d'appel de Bordeaux, 6ème chambre (formation à 3), 11/12/2012, 11BX02332, Inédit au recueil Lebon Vu le mémoire, enregistré le 18 août 2011, présenté pour la section du bourg de la commune de Ménoire (Corrèze), prise en la personne de son président ; |
Cour administrative d'appel de Bordeaux, 6ème chambre (formation à 3), 11/12/2012, 11BX02332, Inédit au recueil Lebon Vu le mémoire, enregistré le 18 août 2011, présenté pour la section du bourg de la commune de Ménoire (Corrèze), prise en la personne de son président ; |
1 |
CAA de VERSAILLES, 1ère chambre, 27/02/2024, 22VE00341, Inédit au recueil Lebon Vu la procédure suivante : |
CAA de VERSAILLES, 1ère chambre, 27/02/2024, 22VE00341, Inédit au recueil Lebon Vu la procédure suivante : |
1 |
ContrastiveTensionLossper_device_train_batch_size: 40per_device_eval_batch_size: 40multi_dataset_batch_sampler: round_robinoverwrite_output_dir: Falsedo_predict: Falseeval_strategy: noprediction_loss_only: Trueper_device_train_batch_size: 40per_device_eval_batch_size: 40per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 1eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 5e-05weight_decay: 0.0adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1num_train_epochs: 3max_steps: -1lr_scheduler_type: linearlr_scheduler_kwargs: {}warmup_ratio: 0.0warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falsebf16: Falsefp16: Falsefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Nonelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Falseignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}parallelism_config: Nonedeepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_torch_fusedoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthproject: huggingfacetrackio_space_id: trackioddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Falseresume_from_checkpoint: Nonehub_model_id: Nonehub_strategy: every_savehub_private_repo: Nonehub_always_push: Falsehub_revision: Nonegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseinclude_for_metrics: []eval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters: auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: noneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseliger_kernel_config: Noneeval_use_gather_object: Falseaverage_tokens_across_devices: Trueprompts: Nonebatch_sampler: batch_samplermulti_dataset_batch_sampler: round_robinrouter_mapping: {}learning_rate_mapping: {}| Epoch | Step | Training Loss |
|---|---|---|
| 0.0472 | 500 | 25.7749 |
| 0.0945 | 1000 | 25.6226 |
| 0.1417 | 1500 | 25.5715 |
| 0.1889 | 2000 | 25.5408 |
| 0.2362 | 2500 | 25.518 |
| 0.2834 | 3000 | 25.5019 |
| 0.3307 | 3500 | 25.4902 |
| 0.3779 | 4000 | 25.4788 |
| 0.4251 | 4500 | 25.469 |
| 0.4724 | 5000 | 25.4588 |
| 0.5196 | 5500 | 25.4543 |
| 0.5668 | 6000 | 25.445 |
| 0.6141 | 6500 | 25.4427 |
| 0.6613 | 7000 | 25.4357 |
| 0.7085 | 7500 | 25.4292 |
| 0.7558 | 8000 | 25.424 |
| 0.8030 | 8500 | 25.422 |
| 0.8503 | 9000 | 25.4186 |
| 0.8975 | 9500 | 25.4119 |
| 0.9447 | 10000 | 25.4115 |
| 0.9920 | 10500 | 25.4085 |
| 1.0392 | 11000 | 25.3999 |
| 1.0864 | 11500 | 25.3976 |
| 1.1337 | 12000 | 25.3939 |
| 1.1809 | 12500 | 25.3935 |
| 1.2282 | 13000 | 25.3893 |
| 1.2754 | 13500 | 25.3874 |
| 1.3226 | 14000 | 25.3824 |
| 1.3699 | 14500 | 25.3835 |
| 1.4171 | 15000 | 25.3818 |
| 1.4643 | 15500 | 25.3749 |
| 1.5116 | 16000 | 25.3775 |
| 1.5588 | 16500 | 25.3723 |
| 1.6060 | 17000 | 25.3735 |
| 1.6533 | 17500 | 25.3715 |
| 1.7005 | 18000 | 25.3703 |
| 1.7478 | 18500 | 25.3685 |
| 1.7950 | 19000 | 25.3654 |
| 1.8422 | 19500 | 25.3665 |
| 1.8895 | 20000 | 25.3614 |
| 1.9367 | 20500 | 25.3641 |
| 1.9839 | 21000 | 25.3598 |
| 2.0312 | 21500 | 25.3561 |
| 2.0784 | 22000 | 25.3563 |
| 2.1256 | 22500 | 25.3528 |
| 2.1729 | 23000 | 25.3528 |
| 2.2201 | 23500 | 25.3529 |
| 2.2674 | 24000 | 25.3483 |
| 2.3146 | 24500 | 25.3482 |
| 2.3618 | 25000 | 25.35 |
| 2.4091 | 25500 | 25.3479 |
| 2.4563 | 26000 | 25.347 |
| 2.5035 | 26500 | 25.3472 |
| 2.5508 | 27000 | 25.3449 |
| 2.5980 | 27500 | 25.3453 |
| 2.6453 | 28000 | 25.3437 |
| 2.6925 | 28500 | 25.3423 |
| 2.7397 | 29000 | 25.3397 |
| 2.7870 | 29500 | 25.3399 |
| 2.8342 | 30000 | 25.338 |
| 2.8814 | 30500 | 25.3386 |
| 2.9287 | 31000 | 25.3374 |
| 2.9759 | 31500 | 25.3366 |
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
@inproceedings{carlsson2021semantic,
title={Semantic Re-tuning with Contrastive Tension},
author={Fredrik Carlsson and Amaru Cuba Gyllensten and Evangelia Gogoulou and Erik Ylip{"a}{"a} Hellqvist and Magnus Sahlgren},
booktitle={International Conference on Learning Representations},
year={2021},
url={https://openreview.net/forum?id=Ov_sMNau-PF}
}
Base model
sentence-transformers/all-MiniLM-L12-v2