BjarneNPO's picture
finetune_28_08_2025_13_58_03
a486bfd verified
metadata
tags:
  - sentence-transformers
  - sentence-similarity
  - feature-extraction
  - dense
  - generated_from_trainer
  - dataset_size:72349
  - loss:MultipleNegativesRankingLoss
base_model: Snowflake/snowflake-arctic-embed-m-v2.0
widget:
  - source_sentence: Userin kann die eingetragene AU nicht löschen.
    sentences:
      - "Userin muss über das Drei Punkte System gehen und dann über Abwesenheitszeitraum eintragen und als Art Einträge löschen auswählen.\r\nMit Userin die AU zusammen gelöscht."
      - >-
        Hier muss bei allen Kindern der Haken bei "förderfähig" in der BI
        gesetzt werden.
      - "Userin an ihren Träger verwiesen. \r\nUserin erklärt, dass die AWO keinen Support über uns hat."
  - source_sentence: User möchte EL für BV freischalten.
    sentences:
      - >-
        Userin hatte in der Beschäftigung zu wenige Stunden für den bestimmten
        Zeitraum hinterlegt. Sie muss passend zu der Erstattung auch passende
        Stunden hinterlegen.
      - Anwenderin musst den Filter weiter zurückstellen.
      - >-
        Die Rolle Einrichtung kann keinen Zugriff dazu erhalten. Das ist so
        konzeptionell vom LJA so festgesetzt.
  - source_sentence: >-
      Userin kann EVN nicht freigeben. Sie wird gebeten, dass sie die
      Monatsdaten neu erstellt und freigibt. Das System macht dies aber nicht.
      Sie bekommt auch keine Fehlermeldung.
    sentences:
      - >-
        Kidz hatte zum Zeitpunkt des Anrufs eine Störung, die vermutlich zu
        diesem Problem geführt hat. Userin leider nicht mehr erreicht, daher
        wird der Anruf geschlossen.
      - >-
        Nein, wenn nur auf der kitaplus-Verwaltungsseite, wird als Wunsch für
        die GAPP weitergegeben.
      - Ja im Berichtsgenerator kann sie sich eine entsprechende Liste ziehen
  - source_sentence: >-
      Er kann einen Antrag auf Personalausnahme nicht freigeben. Trotz Setzung
      der Haken über Beschäftigungsinformationen können die Daten nicht
      gespeichert werden.
    sentences:
      - >-
        Es  handelt sich um ein lokales Problem. Die Seite baut sich nach dem
        Löschen mit der aktualisierten Zahl nicht automatisch wieder auf. Durch
        die Taste F5 wird die Seite neu geladen.
      - >-
        Sie kann Vertretung wählen oder ggf eine andere und die Qualifikation
        muss die Mitarbeiterin ihr nennen. Sonst kann sie dazu beim Landesamt
        nachfragen, da inhaltliche Fragen
      - >-
        Er speichert diese über Einrichtungsdaten speichern. Danach konnte der
        Antrag freigegeben werden.
  - source_sentence: "Ein Vater taucht nicht auf bei den Eltern im Elternbeirat \r\n\r\nAußerdem auf die Kinder mit archivierten Angehörigen hingewiesen und ihr gezeigt"
    sentences:
      - "1. Vorlage da. Userin auch gezeigt wie sie die verwanden kann\r\n2. Als Wunsch weitergegeben."
      - >-
        In der Kinderliste haben Kinder gefehlt. Userin muss die Daten in der
        Kinderliste hinterlegen.
      - >-
        Weil er keinen Zugang zur EAPP hat, Außerdem auf die Kinder mit
        archivierten Angehörigen hingewiesen und ihr gezeigt wie sie das lösen
        kann
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
  - cosine_accuracy@1
  - cosine_accuracy@3
  - cosine_accuracy@5
  - cosine_accuracy@10
  - cosine_precision@1
  - cosine_precision@3
  - cosine_precision@5
  - cosine_precision@10
  - cosine_recall@1
  - cosine_recall@3
  - cosine_recall@5
  - cosine_recall@10
  - cosine_ndcg@10
  - cosine_mrr@10
  - cosine_map@100
model-index:
  - name: SentenceTransformer based on Snowflake/snowflake-arctic-embed-m-v2.0
    results:
      - task:
          type: information-retrieval
          name: Information Retrieval
        dataset:
          name: Snowflake/snowflake arctic embed m v2.0
          type: Snowflake/snowflake-arctic-embed-m-v2.0
        metrics:
          - type: cosine_accuracy@1
            value: 0.30434782608695654
            name: Cosine Accuracy@1
          - type: cosine_accuracy@3
            value: 0.5217391304347826
            name: Cosine Accuracy@3
          - type: cosine_accuracy@5
            value: 0.6086956521739131
            name: Cosine Accuracy@5
          - type: cosine_accuracy@10
            value: 0.7101449275362319
            name: Cosine Accuracy@10
          - type: cosine_precision@1
            value: 0.30434782608695654
            name: Cosine Precision@1
          - type: cosine_precision@3
            value: 0.2801932367149758
            name: Cosine Precision@3
          - type: cosine_precision@5
            value: 0.255072463768116
            name: Cosine Precision@5
          - type: cosine_precision@10
            value: 0.172463768115942
            name: Cosine Precision@10
          - type: cosine_recall@1
            value: 0.026648287773607466
            name: Cosine Recall@1
          - type: cosine_recall@3
            value: 0.07364068156907032
            name: Cosine Recall@3
          - type: cosine_recall@5
            value: 0.10863254392666157
            name: Cosine Recall@5
          - type: cosine_recall@10
            value: 0.1360226303960319
            name: Cosine Recall@10
          - type: cosine_ndcg@10
            value: 0.22308740955317236
            name: Cosine Ndcg@10
          - type: cosine_mrr@10
            value: 0.4386013342535081
            name: Cosine Mrr@10
          - type: cosine_map@100
            value: 0.13106148060223677
            name: Cosine Map@100

SentenceTransformer based on Snowflake/snowflake-arctic-embed-m-v2.0

This is a sentence-transformers model finetuned from Snowflake/snowflake-arctic-embed-m-v2.0. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: Snowflake/snowflake-arctic-embed-m-v2.0
  • Maximum Sequence Length: 8192 tokens
  • Output Dimensionality: 768 dimensions
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False, 'architecture': 'GteModel'})
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("BjarneNPO-28_08_2025_13_58_03")
# Run inference
queries = [
    "Ein Vater taucht nicht auf bei den Eltern im Elternbeirat \r\n\r\nAu\u00dferdem auf die Kinder mit archivierten Angeh\u00f6rigen hingewiesen und ihr gezeigt",
]
documents = [
    'Weil er keinen Zugang zur EAPP hat, Außerdem auf die Kinder mit archivierten Angehörigen hingewiesen und ihr gezeigt wie sie das lösen kann',
    '1. Vorlage da. Userin auch gezeigt wie sie die verwanden kann\r\n2. Als Wunsch weitergegeben.',
    'In der Kinderliste haben Kinder gefehlt. Userin muss die Daten in der Kinderliste hinterlegen.',
]
query_embeddings = model.encode_query(queries)
document_embeddings = model.encode_document(documents)
print(query_embeddings.shape, document_embeddings.shape)
# [1, 768] [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(query_embeddings, document_embeddings)
print(similarities)
# tensor([[ 0.4292,  0.1606, -0.0810]])

Evaluation

Metrics

Information Retrieval

  • Dataset: Snowflake/snowflake-arctic-embed-m-v2.0
  • Evaluated with scripts.InformationRetrievalEvaluatorCustom.InformationRetrievalEvaluatorCustom with these parameters:
    {
        "query_prompt_name": "query",
        "corpus_prompt_name": "document"
    }
    
Metric Value
cosine_accuracy@1 0.3043
cosine_accuracy@3 0.5217
cosine_accuracy@5 0.6087
cosine_accuracy@10 0.7101
cosine_precision@1 0.3043
cosine_precision@3 0.2802
cosine_precision@5 0.2551
cosine_precision@10 0.1725
cosine_recall@1 0.0266
cosine_recall@3 0.0736
cosine_recall@5 0.1086
cosine_recall@10 0.136
cosine_ndcg@10 0.2231
cosine_mrr@10 0.4386
cosine_map@100 0.1311

Training Details

Training Dataset

Unnamed Dataset

  • Size: 72,349 training samples
  • Columns: query and answer
  • Approximate statistics based on the first 1000 samples:
    query answer
    type string string
    details
    • min: 6 tokens
    • mean: 49.26 tokens
    • max: 4339 tokens
    • min: 6 tokens
    • mean: 28.66 tokens
    • max: 238 tokens
  • Samples:
    query answer
    Nun ist die Monatsmeldung erfolgt, aber rote Ausrufezeichen tauchen auf. Userin an das JA verwiesen, diese müssten ihr die Schloss-Monate zur Überarbeitung im Kibiz.web zurückgeben. Userin dazu empfohlen, die Kinder die nicht in kitaplus sind, aber in Kibiz.web - im KiBiz.web zu entfernen, wenn diese nicht vorhanden sind.
    Die Feiertage in den Stammdaten stimmen nicht. Es besteht bereits ein Ticket dafür.
    Abrechnung kann nicht final freigegeben werden, es wird aber keiner Fehlermeldung angeziegt im Hintergrund ist eine Fehlermeldung zu sehen. An Entwickler weitergeleitet.

    Korrektur vorgenommen.
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim",
        "gather_across_devices": false
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 64
  • per_device_eval_batch_size: 64
  • gradient_accumulation_steps: 4
  • learning_rate: 4e-05
  • weight_decay: 0.01
  • num_train_epochs: 10
  • lr_scheduler_type: cosine
  • warmup_ratio: 0.08
  • bf16: True
  • tf32: True
  • load_best_model_at_end: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 64
  • per_device_eval_batch_size: 64
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 4
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 4e-05
  • weight_decay: 0.01
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 10
  • max_steps: -1
  • lr_scheduler_type: cosine
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.08
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: True
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Click to expand
Epoch Step Training Loss Snowflake/snowflake-arctic-embed-m-v2.0_cosine_ndcg@10
0.0354 10 2.7929 -
0.0707 20 2.6894 -
0.1061 30 2.5625 -
0.1415 40 2.5901 -
0.1768 50 2.3212 -
0.2122 60 2.2961 -
0.2476 70 2.1246 -
0.2829 80 2.082 -
0.3183 90 1.9273 -
0.3537 100 1.9074 -
0.3890 110 1.7944 -
0.4244 120 1.7281 -
0.4598 130 1.5483 -
0.4951 140 1.5848 -
0.5305 150 1.5092 -
0.5659 160 1.477 -
0.6012 170 1.4291 -
0.6366 180 1.3536 -
0.6720 190 1.3826 -
0.7073 200 1.3056 -
0.7427 210 1.3015 -
0.7781 220 1.2983 -
0.8134 230 1.2893 -
0.8488 240 1.2373 -
0.8842 250 1.2339 -
0.9195 260 1.1754 -
0.9549 270 1.179 -
0.9903 280 1.1366 -
1.0 283 - 0.2140
1.0248 290 1.035 -
1.0601 300 1.0303 -
1.0955 310 1.0178 -
1.1309 320 1.0067 -
1.1662 330 0.9648 -
1.2016 340 0.9647 -
1.2370 350 0.9424 -
1.2723 360 0.9686 -
1.3077 370 0.9732 -
1.3431 380 0.9778 -
1.3784 390 0.9115 -
1.4138 400 0.9179 -
1.4492 410 0.9069 -
1.4845 420 0.9208 -
1.5199 430 0.9234 -
1.5553 440 0.9055 -
1.5906 450 0.834 -
1.6260 460 0.956 -
1.6614 470 0.8849 -
1.6967 480 0.9185 -
1.7321 490 0.8838 -
1.7675 500 0.8754 -
1.8028 510 0.8637 -
1.8382 520 0.8675 -
1.8736 530 0.833 -
1.9089 540 0.7991 -
1.9443 550 0.8013 -
1.9797 560 0.8461 -
2.0 566 - 0.2271
2.0141 570 0.766 -
2.0495 580 0.6642 -
2.0849 590 0.6945 -
2.1202 600 0.6805 -
2.1556 610 0.6709 -
2.1910 620 0.655 -
2.2263 630 0.6428 -
2.2617 640 0.7135 -
2.2971 650 0.6551 -
2.3324 660 0.6629 -
2.3678 670 0.7063 -
2.4032 680 0.6239 -
2.4385 690 0.667 -
2.4739 700 0.6285 -
2.5093 710 0.6634 -
2.5447 720 0.6834 -
2.5800 730 0.6721 -
2.6154 740 0.6238 -
2.6508 750 0.6416 -
2.6861 760 0.6355 -
2.7215 770 0.6456 -
2.7569 780 0.6322 -
2.7922 790 0.6146 -
2.8276 800 0.6615 -
2.8630 810 0.6401 -
2.8983 820 0.6841 -
2.9337 830 0.6781 -
2.9691 840 0.6472 -
3.0 849 - 0.2253
3.0035 850 0.6428 -
3.0389 860 0.485 -
3.0743 870 0.4972 -
3.1096 880 0.5305 -
3.1450 890 0.51 -
3.1804 900 0.4941 -
3.2157 910 0.5207 -
3.2511 920 0.5403 -
3.2865 930 0.5095 -
3.3218 940 0.5236 -
3.3572 950 0.5059 -
3.3926 960 0.4717 -
3.4279 970 0.5204 -
3.4633 980 0.4702 -
3.4987 990 0.5011 -
3.5340 1000 0.5024 -
3.5694 1010 0.4915 -
3.6048 1020 0.4888 -
3.6401 1030 0.5162 -
3.6755 1040 0.4987 -
3.7109 1050 0.4915 -
3.7462 1060 0.4955 -
3.7816 1070 0.5289 -
3.8170 1080 0.5314 -
3.8523 1090 0.5029 -
3.8877 1100 0.4645 -
3.9231 1110 0.5119 -
3.9584 1120 0.5006 -
3.9938 1130 0.5079 -
4.0 1132 - 0.2200
4.0283 1140 0.4129 -
4.0637 1150 0.3791 -
4.0990 1160 0.3887 -
4.1344 1170 0.4093 -
4.1698 1180 0.4048 -
4.2051 1190 0.3887 -
4.2405 1200 0.414 -
4.2759 1210 0.3959 -
4.3112 1220 0.3949 -
4.3466 1230 0.4055 -
4.3820 1240 0.4057 -
4.4173 1250 0.4089 -
4.4527 1260 0.4112 -
4.4881 1270 0.3928 -
4.5234 1280 0.4204 -
4.5588 1290 0.3917 -
4.5942 1300 0.4057 -
4.6295 1310 0.4161 -
4.6649 1320 0.3948 -
4.7003 1330 0.4012 -
4.7356 1340 0.4068 -
4.7710 1350 0.366 -
4.8064 1360 0.4011 -
4.8417 1370 0.3727 -
4.8771 1380 0.425 -
4.9125 1390 0.4124 -
4.9478 1400 0.4 -
4.9832 1410 0.4028 -
5.0 1415 - 0.2237
5.0177 1420 0.3664 -
5.0531 1430 0.3381 -
5.0884 1440 0.3019 -
5.1238 1450 0.329 -
5.1592 1460 0.3159 -
5.1945 1470 0.3278 -
5.2299 1480 0.326 -
5.2653 1490 0.2977 -
5.3006 1500 0.3154 -
5.3360 1510 0.3093 -
5.3714 1520 0.3115 -
5.4067 1530 0.318 -
5.4421 1540 0.3105 -
5.4775 1550 0.3485 -
5.5128 1560 0.3131 -
5.5482 1570 0.3498 -
5.5836 1580 0.327 -
5.6189 1590 0.3512 -
5.6543 1600 0.3421 -
5.6897 1610 0.3097 -
5.7250 1620 0.3329 -
5.7604 1630 0.3417 -
5.7958 1640 0.3144 -
5.8311 1650 0.3267 -
5.8665 1660 0.322 -
5.9019 1670 0.3053 -
5.9372 1680 0.3131 -
5.9726 1690 0.3329 -
6.0 1698 - 0.2221
6.0071 1700 0.3336 -
6.0424 1710 0.2631 -
6.0778 1720 0.2704 -
6.1132 1730 0.2781 -
6.1485 1740 0.271 -
6.1839 1750 0.2778 -
6.2193 1760 0.2728 -
6.2546 1770 0.2877 -
6.2900 1780 0.2943 -
6.3254 1790 0.271 -
6.3607 1800 0.2604 -
6.3961 1810 0.2655 -
6.4315 1820 0.294 -
6.4668 1830 0.2695 -
6.5022 1840 0.2924 -
6.5376 1850 0.278 -
6.5729 1860 0.2681 -
6.6083 1870 0.3025 -
6.6437 1880 0.2655 -
6.6790 1890 0.2651 -
6.7144 1900 0.275 -
6.7498 1910 0.2697 -
6.7851 1920 0.2858 -
6.8205 1930 0.2636 -
6.8559 1940 0.277 -
6.8912 1950 0.2818 -
6.9266 1960 0.2908 -
6.9620 1970 0.2684 -
6.9973 1980 0.2773 -
7.0 1981 - 0.2293
7.0318 1990 0.2347 -
7.0672 2000 0.2559 -
7.1026 2010 0.2332 -
7.1379 2020 0.2455 -
7.1733 2030 0.241 -
7.2087 2040 0.2236 -
7.2440 2050 0.2463 -
7.2794 2060 0.2301 -
7.3148 2070 0.2491 -
7.3501 2080 0.2691 -
7.3855 2090 0.2633 -
7.4209 2100 0.2471 -
7.4562 2110 0.2377 -
7.4916 2120 0.2316 -
7.5270 2130 0.2598 -
7.5623 2140 0.2343 -
7.5977 2150 0.2322 -
7.6331 2160 0.2582 -
7.6684 2170 0.2493 -
7.7038 2180 0.2467 -
7.7392 2190 0.2613 -
7.7745 2200 0.244 -
7.8099 2210 0.2471 -
7.8453 2220 0.2288 -
7.8806 2230 0.2654 -
7.9160 2240 0.2355 -
7.9514 2250 0.2474 -
7.9867 2260 0.2368 -
8.0 2264 - 0.2232
8.0212 2270 0.2285 -
8.0566 2280 0.2158 -
8.0920 2290 0.2368 -
8.1273 2300 0.2214 -
8.1627 2310 0.2296 -
8.1981 2320 0.2434 -
8.2334 2330 0.2365 -
8.2688 2340 0.2351 -
8.3042 2350 0.2228 -
8.3395 2360 0.2223 -
8.3749 2370 0.2174 -
8.4103 2380 0.2375 -
8.4456 2390 0.2301 -
8.4810 2400 0.23 -
8.5164 2410 0.2443 -
8.5517 2420 0.2395 -
8.5871 2430 0.2248 -
8.6225 2440 0.2122 -
8.6578 2450 0.2282 -
8.6932 2460 0.244 -
8.7286 2470 0.2238 -
8.7639 2480 0.2411 -
8.7993 2490 0.2326 -
8.8347 2500 0.2288 -
8.8700 2510 0.2259 -
8.9054 2520 0.2117 -
8.9408 2530 0.2389 -
8.9761 2540 0.2238 -
9.0 2547 - 0.2241
9.0106 2550 0.2 -
9.0460 2560 0.2239 -
9.0813 2570 0.2289 -
9.1167 2580 0.2391 -
9.1521 2590 0.2122 -
9.1874 2600 0.2131 -
9.2228 2610 0.2257 -
9.2582 2620 0.2112 -
9.2935 2630 0.2038 -
9.3289 2640 0.2451 -
9.3643 2650 0.2185 -
9.3996 2660 0.2318 -
9.4350 2670 0.2185 -
9.4704 2680 0.2167 -
9.5057 2690 0.2145 -
9.5411 2700 0.213 -
9.5765 2710 0.2335 -
9.6118 2720 0.2197 -
9.6472 2730 0.2192 -
9.6826 2740 0.2366 -
9.7179 2750 0.2181 -
9.7533 2760 0.2407 -
9.7887 2770 0.2148 -
9.8240 2780 0.2173 -
9.8594 2790 0.2164 -
9.8948 2800 0.22 -
9.9302 2810 0.2239 -
9.9655 2820 0.2207 -
10.0 2830 0.24 0.2231
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.10.11
  • Sentence Transformers: 5.1.0
  • Transformers: 4.55.2
  • PyTorch: 2.8.0+cu129
  • Accelerate: 1.10.0
  • Datasets: 3.6.0
  • Tokenizers: 0.21.4

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}