SentenceTransformer

This is a sentence-transformers model trained. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Maximum Sequence Length: 128 tokens
  • Output Dimensionality: 384 dimensions
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 128, 'do_lower_case': False, 'architecture': 'BertModel'})
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("AlexanderAA/wh_sentence_model_ft")
# Run inference
sentences = [
    'какие именно ордена космодесанта были созданы после Ереси Хоруса?',
    'Астартес Презес — ордены космодесанта , которым поручено охранять области Империума вокруг Ока Ужаса .\nДревний фолиант, известный как « Мифос Ангелика Мортис », упоминает о двадцати орденах космодесанта, созданных после Ереси Хоруса из геносемени примархов , не обратившихся к Хаосу . Первоочередной задачей вновь созданных орденов была определена защита имперских секторов вокруг Ока Ужаса и поддержка в случае необходимости СПО Кадии и сил Инквизиции . Изначально эта группа состояла из 20 орденов; позже один из этих орденов был признан уничтоженным, а ещё два объявлены Экскоммуникат Трайторис .\n\nИЗВЕСТНЫЕ ОРДЕНА [ ]',
    'Ваул был богом-кузнецом, который существовал в пантеоне эльдар , брат Короля-Феникса Азуриана .\n\nИСТОРИЯ [ ]',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.6150, 0.0683],
#         [0.6150, 1.0000, 0.2699],
#         [0.0683, 0.2699, 1.0000]])

Evaluation

Metrics

Semantic Similarity

Metric Value
pearson_cosine 0.6253
spearman_cosine 0.5966

Training Details

Training Dataset

Unnamed Dataset

  • Size: 361,260 training samples
  • Columns: sentence_0, sentence_1, and label
  • Approximate statistics based on the first 1000 samples:
    sentence_0 sentence_1 label
    type string string float
    details
    • min: 8 tokens
    • mean: 18.64 tokens
    • max: 41 tokens
    • min: 36 tokens
    • mean: 123.93 tokens
    • max: 128 tokens
    • min: 0.0
    • mean: 0.33
    • max: 1.0
  • Samples:
    sentence_0 sentence_1 label
    почему большое количество быстро движущихся транспортов сложно остановить перед боем? Однако уже давно ни одному племени не удаётся стать главным: климат и география мира делают почти невозможной защиту больше одного поселения. Терзающие поверхность песчаные бури могут длиться неделями и способны уничтожить целые крепости, разорвав стены и за мгновения ободрав до костей даже орков. Особенно разрушительны три бесконечных бури, известных оркам как Улг, Бур и Ззук. Эти многокилометровой ширины бури мчатся по поверхности Берина, часто сталкиваются и разрушают всё на своём пути. Орочьи псайкеры, известные как чудилы, испытывают странный интерес к штормам и верят, что в их сердцах крадутся демоны, которые разрывают орков и оставляют странного вида послания. 0.0
    что значит 'смертный приговор, смягчённый до тех пор, пока они были полезны'? В штрафные легионы попадают гвардейцы, чья высшая мера наказания за преступления была заменена пожизненной службой. Это дикие банды отчаянных головорезов, одна часть которых сошла с ума от ярости, а другая — от раскаяния. Выпущенные из камер смертников из-за своих способностей или животного инстинкта, эти подонки составляют самую несдержанную, яростную и взрывную армию во всей Имперской Гвардии. 0.0
    что символизирует внешний вид врат вечности и какая сила охраняет проход после них? Врата Вечности — последние ворота в символическое сердце Царства Человечества — Санктум Империалис, самое священное место для людей во всей Галактике. К самим дверям ведёт двухкилометровая широкая дорога, на которой рядами выставлены тысячи развёрнутых знамён самых разных форм и расцветок. Эти древние и потрепанные флаги когда-то принадлежали самым великим и доблестным армиям и героям, которые когда-либо сражались за Человечество — Дорн Непоколебимый, Малкадор Герой , Солар Махарий , и тысячи других флагов полков Имперской Гвардии , орденов Адептус Астартес и линейных флотов . Подобно тому, как верные слуги чтили Императора доблестью и самопожертвованием, так и Он воздаёт им хвалу. В конце этой дороги славы находятся сами Врата — две огромные двери из прочного адамантия и керамита . Внешняя поверхность дверей покрыта сверкающим золотом, на котором вырезано изображение Императора на пике своей славы — с мечом и щитом Он повергает змееподобную тварь, воплощение зла и раздора. Два титана ... 1.0
  • Loss: CosineSimilarityLoss with these parameters:
    {
        "loss_fct": "torch.nn.modules.loss.MSELoss"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • num_train_epochs: 6
  • multi_dataset_batch_sampler: round_robin

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1
  • num_train_epochs: 6
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: round_robin
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Click to expand
Epoch Step Training Loss warhammer-test_spearman_cosine
0.0443 500 0.1603 -
0.0886 1000 0.1627 -
0.1329 1500 0.1596 -
0.1771 2000 0.1627 -
0.2214 2500 0.1612 0.5293
0.2657 3000 0.16 -
0.3100 3500 0.1609 -
0.3543 4000 0.158 -
0.3986 4500 0.1575 -
0.4429 5000 0.156 0.5508
0.0443 500 0.1462 -
0.0886 1000 0.148 -
0.1329 1500 0.1492 -
0.1771 2000 0.1505 -
0.2214 2500 0.1498 0.5457
0.2657 3000 0.1488 -
0.3100 3500 0.1489 -
0.3543 4000 0.1495 -
0.3986 4500 0.1454 -
0.4429 5000 0.1476 0.5637
0.4872 5500 0.147 -
0.5314 6000 0.1462 -
0.5757 6500 0.1447 -
0.6200 7000 0.1459 -
0.6643 7500 0.148 0.5674
0.7086 8000 0.1464 -
0.7529 8500 0.1457 -
0.7972 9000 0.1468 -
0.8415 9500 0.1475 -
0.8857 10000 0.1457 0.5789
0.9300 10500 0.1456 -
0.9743 11000 0.1443 -
1.0 11290 - 0.5856
1.0186 11500 0.1382 -
1.0629 12000 0.1298 -
1.1072 12500 0.1307 0.5780
1.1515 13000 0.127 -
1.1957 13500 0.1277 -
1.2400 14000 0.129 -
1.2843 14500 0.1305 -
1.3286 15000 0.1311 0.5810
1.3729 15500 0.1308 -
1.4172 16000 0.1271 -
1.4615 16500 0.1314 -
1.5058 17000 0.1312 -
1.5500 17500 0.1313 0.5880
1.5943 18000 0.1337 -
1.6386 18500 0.1308 -
1.6829 19000 0.1298 -
1.7272 19500 0.129 -
1.7715 20000 0.1299 0.5890
1.8158 20500 0.13 -
1.8601 21000 0.133 -
1.9043 21500 0.129 -
1.9486 22000 0.1323 -
1.9929 22500 0.1316 0.5925
2.0 22580 - 0.5942
2.0372 23000 0.1168 -
2.0815 23500 0.1181 -
2.1258 24000 0.1173 -
2.1701 24500 0.1173 -
2.2143 25000 0.1163 0.5852
2.2586 25500 0.1173 -
2.3029 26000 0.1186 -
2.3472 26500 0.1188 -
2.3915 27000 0.1171 -
2.4358 27500 0.1161 0.5835
2.4801 28000 0.1176 -
2.5244 28500 0.1161 -
2.5686 29000 0.1197 -
2.6129 29500 0.1185 -
2.6572 30000 0.1186 0.5904
2.7015 30500 0.1198 -
2.7458 31000 0.1189 -
2.7901 31500 0.1189 -
2.8344 32000 0.1205 -
2.8787 32500 0.1186 0.5926
2.9229 33000 0.1166 -
2.9672 33500 0.1192 -
3.0 33870 - 0.5974
3.0115 34000 0.1124 -
3.0558 34500 0.1071 -
3.1001 35000 0.1064 0.5907
3.1444 35500 0.1077 -
3.1887 36000 0.1068 -
3.2329 36500 0.1065 -
3.2772 37000 0.1092 -
3.3215 37500 0.1098 0.5880
3.3658 38000 0.1086 -
3.4101 38500 0.1086 -
3.4544 39000 0.1085 -
3.4987 39500 0.1077 -
3.5430 40000 0.1085 0.5904
3.5872 40500 0.1093 -
3.6315 41000 0.1086 -
3.6758 41500 0.1084 -
3.7201 42000 0.1083 -
3.7644 42500 0.1108 0.5904
3.8087 43000 0.1131 -
3.8530 43500 0.1112 -
3.8973 44000 0.1089 -
3.9415 44500 0.1083 -
3.9858 45000 0.1086 0.5990
4.0 45160 - 0.5993
4.0301 45500 0.1023 -
4.0744 46000 0.0996 -
4.1187 46500 0.1006 -
4.1630 47000 0.0994 -
4.2073 47500 0.0995 0.5943
4.2516 48000 0.1009 -
4.2958 48500 0.1015 -
4.3401 49000 0.1024 -
4.3844 49500 0.1004 -
4.4287 50000 0.1015 0.5929
4.4730 50500 0.1018 -
4.5173 51000 0.1028 -
4.5616 51500 0.1025 -
4.6058 52000 0.1021 -
4.6501 52500 0.1014 0.5972
4.6944 53000 0.1011 -
4.7387 53500 0.1031 -
4.7830 54000 0.1019 -
4.8273 54500 0.1029 -
4.8716 55000 0.1027 0.5964
4.9159 55500 0.1015 -
4.9601 56000 0.1003 -
5.0 56450 - 0.5951
5.0044 56500 0.1017 -
5.0487 57000 0.0958 -
5.0930 57500 0.0958 0.5939
5.1373 58000 0.0941 -
5.1816 58500 0.0945 -
5.2259 59000 0.0981 -
5.2702 59500 0.095 -
5.3144 60000 0.0958 0.5939
5.3587 60500 0.0964 -
5.4030 61000 0.0955 -
5.4473 61500 0.0982 -
5.4916 62000 0.0962 -
5.5359 62500 0.0953 0.5942
5.5802 63000 0.0966 -
5.6244 63500 0.0979 -
5.6687 64000 0.0931 -
5.7130 64500 0.0966 -
5.7573 65000 0.0938 0.5948
5.8016 65500 0.0959 -
5.8459 66000 0.0948 -
5.8902 66500 0.0963 -
5.9345 67000 0.0941 -
5.9787 67500 0.0962 0.5952
6.0 67740 - 0.5952
0.0443 500 0.0975 -
0.0886 1000 0.101 -
0.1329 1500 0.1018 -
0.1771 2000 0.1028 -
0.2214 2500 0.1039 0.5804
0.2657 3000 0.1069 -
0.3100 3500 0.1053 -
0.3543 4000 0.1056 -
0.3986 4500 0.1081 -
0.4429 5000 0.1089 0.5831
0.4872 5500 0.106 -
0.5314 6000 0.1087 -
0.5757 6500 0.1083 -
0.6200 7000 0.1109 -
0.6643 7500 0.1093 0.5903
0.7086 8000 0.1091 -
0.7529 8500 0.1077 -
0.7972 9000 0.1086 -
0.8415 9500 0.1107 -
0.8857 10000 0.1115 0.5928
0.9300 10500 0.1102 -
0.9743 11000 0.1097 -
1.0 11290 - 0.5961
1.0186 11500 0.1048 -
1.0629 12000 0.0948 -
1.1072 12500 0.0954 0.5894
1.1515 13000 0.0991 -
1.1957 13500 0.0971 -
1.2400 14000 0.0998 -
1.2843 14500 0.0975 -
1.3286 15000 0.0961 0.5859
1.3729 15500 0.0998 -
1.4172 16000 0.0986 -
1.4615 16500 0.0985 -
1.5058 17000 0.098 -
1.5500 17500 0.1 0.5844
1.5943 18000 0.0992 -
1.6386 18500 0.1001 -
1.6829 19000 0.1008 -
1.7272 19500 0.0996 -
1.7715 20000 0.1012 0.5909
1.8158 20500 0.1017 -
1.8601 21000 0.1022 -
1.9043 21500 0.1008 -
1.9486 22000 0.101 -
1.9929 22500 0.1021 0.5935
2.0 22580 - 0.5960
2.0372 23000 0.0894 -
2.0815 23500 0.0881 -
2.1258 24000 0.0885 -
2.1701 24500 0.0903 -
2.2143 25000 0.0891 0.5887
2.2586 25500 0.0893 -
2.3029 26000 0.0918 -
2.3472 26500 0.089 -
2.3915 27000 0.0913 -
2.4358 27500 0.0926 0.5897
2.4801 28000 0.091 -
2.5244 28500 0.092 -
2.5686 29000 0.0923 -
2.6129 29500 0.0933 -
2.6572 30000 0.0927 0.5919
2.7015 30500 0.092 -
2.7458 31000 0.095 -
2.7901 31500 0.0914 -
2.8344 32000 0.0932 -
2.8787 32500 0.0929 0.5908
2.9229 33000 0.0922 -
2.9672 33500 0.0929 -
3.0 33870 - 0.5960
3.0115 34000 0.0883 -
3.0558 34500 0.0813 -
3.1001 35000 0.082 0.5914
3.1444 35500 0.0827 -
3.1887 36000 0.0823 -
3.2329 36500 0.0823 -
3.2772 37000 0.0831 -
3.3215 37500 0.0824 0.5873
3.3658 38000 0.084 -
3.4101 38500 0.0836 -
3.4544 39000 0.0851 -
3.4987 39500 0.0859 -
3.5430 40000 0.086 0.5899
3.5872 40500 0.0867 -
3.6315 41000 0.0833 -
3.6758 41500 0.0856 -
3.7201 42000 0.0857 -
3.7644 42500 0.086 0.5909
3.8087 43000 0.0854 -
3.8530 43500 0.0849 -
3.8973 44000 0.0849 -
3.9415 44500 0.0858 -
3.9858 45000 0.0867 0.5949
4.0 45160 - 0.5966

Framework Versions

  • Python: 3.10.12
  • Sentence Transformers: 5.1.0
  • Transformers: 4.55.4
  • PyTorch: 2.3.1+cu121
  • Accelerate: 1.10.1
  • Datasets: 4.0.0
  • Tokenizers: 0.21.4

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
Downloads last month
-
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Paper for AlexanderAA/wh_sentence_model_ft

Evaluation results