tomaarsen HF Staff commited on
Commit
4ea38ad
·
verified ·
1 Parent(s): 6423029

Add new SentenceTransformer model

Browse files

Hello!

*This pull request has been automatically generated from the [`push_to_hub`](https://sbert.net/docs/package_reference/sentence_transformer/SentenceTransformer.html#sentence_transformers.SentenceTransformer.push_to_hub) method from the Sentence Transformers library.*

## Full Model Architecture:
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```

## Tip:
Consider testing this pull request before merging by loading the model from this PR with the `revision` argument:
```python
from sentence_transformers import SentenceTransformer

# TODO: Fill in the PR number
pr_number = 2
model = SentenceTransformer(
"clips/e5-base-trm-nl",
revision=f"refs/pr/{pr_number}",
backend="torch",
)

# Verify that everything works as expected
embeddings = model.encode(["The weather is lovely today.", "It's so sunny outside!", "He drove to the stadium."])
print(embeddings.shape)

similarities = model.similarity(embeddings, embeddings)
print(similarities)
```

1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md CHANGED
@@ -1,20 +1,20 @@
1
  ---
2
- library_name: transformers
3
  base_model:
4
  - clips/e5-base-trm
5
  tags:
6
  - generated_from_trainer
7
- model-index:
8
- - name: E5-base-trm-nl
9
- results: []
10
  license: mit
11
  datasets:
12
  - clips/beir-nl-mmarco
13
  - clips/beir-nl-hotpotqa
14
  - clips/beir-nl-fever
15
- language:
16
- - nl
17
  pipeline_tag: sentence-similarity
 
 
 
18
  ---
19
 
20
  # E5-base-trm-nl
@@ -65,14 +65,29 @@ print(scores.tolist())
65
  Below is an example for usage with sentence_transformers.
66
  ```python
67
  from sentence_transformers import SentenceTransformer
68
- model = SentenceTransformer('clips/e5-base-trm-nl')
69
- input_texts = [
70
- 'query: hoeveel eiwitten moet een vrouw eten',
71
- 'query: top definieer',
72
- "passage: Als algemene richtlijn geldt dat de gemiddelde eiwitbehoefte voor vrouwen van 19 tot 70 jaar volgens de CDC 46 gram per dag bedraagt. Maar, zoals je in deze tabel kunt zien, moet je dit verhogen als je zwanger bent of traint voor een marathon. Bekijk de onderstaande tabel om te zien hoeveel eiwitten je dagelijks zou moeten eten.",
73
- "passage: Definitie van top voor leerlingen Engels. : 1 het hoogste punt van een berg : de top van een berg. : 2 het hoogste niveau. : 3 een bijeenkomst of reeks bijeenkomsten tussen de leiders van twee of meer regeringen."
 
 
 
 
 
 
 
 
74
  ]
75
- embeddings = model.encode(input_texts, normalize_embeddings=True)
 
 
 
 
 
 
 
76
  ```
77
  ## Benchmark Evaluation
78
  Results on MTEB-NL (models introduced in [our paper](https://arxiv.org/abs/2509.12340) and the best model per size category are highlighted in bold):
 
1
  ---
2
+ library_name: sentence-transformers
3
  base_model:
4
  - clips/e5-base-trm
5
  tags:
6
  - generated_from_trainer
7
+ - transformers
 
 
8
  license: mit
9
  datasets:
10
  - clips/beir-nl-mmarco
11
  - clips/beir-nl-hotpotqa
12
  - clips/beir-nl-fever
13
+ language: nl
 
14
  pipeline_tag: sentence-similarity
15
+ model-index:
16
+ - name: E5-base-trm-nl
17
+ results: []
18
  ---
19
 
20
  # E5-base-trm-nl
 
65
  Below is an example for usage with sentence_transformers.
66
  ```python
67
  from sentence_transformers import SentenceTransformer
68
+
69
+ # Load the model from Hugging Face
70
+ model = SentenceTransformer("clips/e5-base-trm-nl")
71
+
72
+ # Perform inference using encode_query/encode_document for retrieval,
73
+ # or encode_query for general purpose embeddings. Prompt prefixes
74
+ # are automatically added with these two methods.
75
+ queries = [
76
+ 'hoeveel eiwitten moet een vrouw eten',
77
+ 'top definieer',
78
+ ]
79
+ documents = [
80
+ 'Als algemene richtlijn geldt dat de gemiddelde eiwitbehoefte voor vrouwen van 19 tot 70 jaar volgens de CDC 46 gram per dag bedraagt. Maar, zoals je in deze tabel kunt zien, moet je dit verhogen als je zwanger bent of traint voor een marathon. Bekijk de onderstaande tabel om te zien hoeveel eiwitten je dagelijks zou moeten eten.',
81
+ 'Definitie van top voor leerlingen Engels. : 1 het hoogste punt van een berg : de top van een berg. : 2 het hoogste niveau. : 3 een bijeenkomst of reeks bijeenkomsten tussen de leiders van twee of meer regeringen.',
82
  ]
83
+ query_embeddings = model.encode_query(queries)
84
+ document_embeddings = model.encode_document(documents)
85
+ print(query_embeddings.shape, document_embeddings.shape)
86
+ # (2, 768) (2, 768)
87
+
88
+ similarities = model.similarity(query_embeddings, document_embeddings)
89
+ # tensor([[0.8264, 0.3663],
90
+ # [0.3780, 0.7856]])
91
  ```
92
  ## Benchmark Evaluation
93
  Results on MTEB-NL (models introduced in [our paper](https://arxiv.org/abs/2509.12340) and the best model per size category are highlighted in bold):
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "model_type": "SentenceTransformer",
3
+ "__version__": {
4
+ "sentence_transformers": "5.1.0",
5
+ "transformers": "4.56.1",
6
+ "pytorch": "2.7.1+cu126"
7
+ },
8
+ "prompts": {
9
+ "query": "query: ",
10
+ "document": "passage: "
11
+ },
12
+ "default_prompt_name": null,
13
+ "similarity_fn_name": "cosine"
14
+ }
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }