cuadron11 commited on
Commit
f731e93
·
verified ·
1 Parent(s): 66ebedb

Add new CrossEncoder model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
README.md ADDED
@@ -0,0 +1,372 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - cross-encoder
5
+ - reranker
6
+ - generated_from_trainer
7
+ - dataset_size:40529
8
+ - loss:BinaryCrossEntropyLoss
9
+ base_model: jinaai/jina-reranker-v2-base-multilingual
10
+ pipeline_tag: text-ranking
11
+ library_name: sentence-transformers
12
+ metrics:
13
+ - map
14
+ - mrr@10
15
+ - ndcg@10
16
+ model-index:
17
+ - name: CrossEncoder based on jinaai/jina-reranker-v2-base-multilingual
18
+ results:
19
+ - task:
20
+ type: cross-encoder-reranking
21
+ name: Cross Encoder Reranking
22
+ dataset:
23
+ name: jina reranker v2 base multilingual binary
24
+ type: jina-reranker-v2-base-multilingual-binary
25
+ metrics:
26
+ - type: map
27
+ value: 0.003
28
+ name: Map
29
+ - type: mrr@10
30
+ value: 0.0032
31
+ name: Mrr@10
32
+ - type: ndcg@10
33
+ value: 0.0032
34
+ name: Ndcg@10
35
+ ---
36
+
37
+ # CrossEncoder based on jinaai/jina-reranker-v2-base-multilingual
38
+
39
+ This is a [Cross Encoder](https://www.sbert.net/docs/cross_encoder/usage/usage.html) model finetuned from [jinaai/jina-reranker-v2-base-multilingual](https://huggingface.co/jinaai/jina-reranker-v2-base-multilingual) using the [sentence-transformers](https://www.SBERT.net) library. It computes scores for pairs of texts, which can be used for text reranking and semantic search.
40
+
41
+ ## Model Details
42
+
43
+ ### Model Description
44
+ - **Model Type:** Cross Encoder
45
+ - **Base model:** [jinaai/jina-reranker-v2-base-multilingual](https://huggingface.co/jinaai/jina-reranker-v2-base-multilingual) <!-- at revision eed787badf7784e1a25c0eaa428627c8cbef511e -->
46
+ - **Maximum Sequence Length:** 1024 tokens
47
+ - **Number of Output Labels:** 1 label
48
+ <!-- - **Training Dataset:** Unknown -->
49
+ <!-- - **Language:** Unknown -->
50
+ <!-- - **License:** Unknown -->
51
+
52
+ ### Model Sources
53
+
54
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
55
+ - **Documentation:** [Cross Encoder Documentation](https://www.sbert.net/docs/cross_encoder/usage/usage.html)
56
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
57
+ - **Hugging Face:** [Cross Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=cross-encoder)
58
+
59
+ ## Usage
60
+
61
+ ### Direct Usage (Sentence Transformers)
62
+
63
+ First install the Sentence Transformers library:
64
+
65
+ ```bash
66
+ pip install -U sentence-transformers
67
+ ```
68
+
69
+ Then you can load this model and run inference.
70
+ ```python
71
+ from sentence_transformers import CrossEncoder
72
+
73
+ # Download from the 🤗 Hub
74
+ model = CrossEncoder("cuadron11/jina-reranker-v2-base-multilingual-binary")
75
+ # Get scores for pairs of texts
76
+ pairs = [
77
+ ['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: Galdera, Idoia Mendia Cueva Euskal Sozialistak taldeko legebiltzarkideak Herri Administrazio eta Justiziako sailburuari egina, enplegu publikorako plan bati buruz]\n[MENDIA CUEVA, (SV-ES)]:\nGuk Espainiako Gobernuarekin borroka egin genuen, Osasungintzan eta Hezkuntzan EPEak egiteko debekua ezarri ondoren (ez, ez, ez egin barre), eta lortu genuen. Izerdi asko bota genuen hiru bileratan, baina lortu genuen. Beraz, borondatea izanez gero, lor daiteke, arrazoia alde baitugu. Eta, bestalde, jakin nahi nuke giza baliabideen zer kudeaketa duzun buruan, bestelako adierazpenak entzun baititut. Lehendakariak behin baino gehiagotan esan du ez dela kaleratzerik izango, ez dela murriztuko enplegu (Date: 15.11.2013)'],
78
+ ['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]\n[ALONSO ARANEGUI, (PV-ETP)]:\nnagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi ekonomiko batengatik joan denik; badirudi, ordea, arrazoi politiko batengatik joan dela, eta, gure ustez –eta esan egin behar dizut–, ez du batere une egokia hautatu, oraintxe bertan Espainian eta nazioartean bizi dugun testuinguru politikoa kontuan izanik. Nire ustez, ez du batere une egokia hautatu Quebecera joateko. Ez du laguntzen ziurtasuna finkatzen, eta (Date: 03.11.2017)'],
79
+ ['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]\n[ALONSO ARANEGUI, (PV-ETP)]:\nEskertzen dizut erantzuna, sailburu jauna. Egia da zure erantzunak ez duela zerikusi handirik jasotzen ari garen informazioekin; hau da, lehendakariak Quebecera egin duen bidaia nola doan, zein agenda duen, zertaz hitz egiten ari den, eta abar. Eta egia da, halaber, Quebeceko eskualdea ez dagoela, eta Kanada ezta ere, gure enpresen esportazioen xede nagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi (Date: 03.11.2017)'],
80
+ ['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: EH Bildu talde parlamentarioak egindako lege-proposamena, herri-administrazioek etxebizitzak lehentasunez eskuratzeko eta inbertsio-funtsen jarduera mugatzeko. Aintzat hartzeari buruzko eztabaida eta behin betiko ebazpena]\n[MARTÍNEZ GRISALEÑA, (Mixto-Vox)]:\nEsan behar dut aurka bozkatu dugula, jakina, jabetza pribatuaren aurkako beste eraso bat iruditu zaigulako eta, gainera, higiezinen merkatuan esku hartzeko beste ahalegin bat. Hori da, gure ustez, oinarririk gabeko legeproposamen guztiz nahasi horren bidez lortu nahi izan dena eta, gainera, inolako ibilbiderik gabe jaio dela uste dugu; izan ere, herri-administrazioek lehentasunez erosteko eta atzera eskuratzeko duten eskubidea kontrolatzeko asmoa erregularizatuta dago Euskal Autonomia Erkidegoan. Gure ustez, planteatzen dizkiguten (Date: 10.02.2022)'],
81
+ ['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: Mozioa, Nerea Llanos Gómez Euskal Talde Popularreko legebiltzarkideak aurkeztua, 2018ko otsailaren 22ko operatibo polizialari buruz. Eztabaida eta behin betiko ebazpena]\n[GARCÍA LARRIMBE, (EP)]:\nTxalo elkarrizketari ekin diozuelako; baina sakoneko konponbideak falta dira. Bere osotasunean Ertzaintzaren antolamenduari konponbideak ematea. Ez ditzagun arazoak uka, Gobernuak aurreko kontroleko bilkuran, Zupiria jaunaren bitartez, egin zuen moduan; baina ez gaitezen eror PPren demagogian eta turko-buruen bilaketan. Aukera dezagun zentzuzko bide bat, hori baita euskal herritarren gehiengoak nahi duena. Aurrerapausoak emango dituen bidea, ez askatasun eta eskubideetan atzera egingo duena. Gaur badaude alternatibak, baina Gobernu horretan (Date: 16.03.2018)'],
82
+ ]
83
+ scores = model.predict(pairs)
84
+ print(scores.shape)
85
+ # (5,)
86
+
87
+ # Or rank different texts based on similarity to a single text
88
+ ranks = model.rank(
89
+ 'Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?',
90
+ [
91
+ '[TOPIC: Galdera, Idoia Mendia Cueva Euskal Sozialistak taldeko legebiltzarkideak Herri Administrazio eta Justiziako sailburuari egina, enplegu publikorako plan bati buruz]\n[MENDIA CUEVA, (SV-ES)]:\nGuk Espainiako Gobernuarekin borroka egin genuen, Osasungintzan eta Hezkuntzan EPEak egiteko debekua ezarri ondoren (ez, ez, ez egin barre), eta lortu genuen. Izerdi asko bota genuen hiru bileratan, baina lortu genuen. Beraz, borondatea izanez gero, lor daiteke, arrazoia alde baitugu. Eta, bestalde, jakin nahi nuke giza baliabideen zer kudeaketa duzun buruan, bestelako adierazpenak entzun baititut. Lehendakariak behin baino gehiagotan esan du ez dela kaleratzerik izango, ez dela murriztuko enplegu (Date: 15.11.2013)',
92
+ '[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]\n[ALONSO ARANEGUI, (PV-ETP)]:\nnagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi ekonomiko batengatik joan denik; badirudi, ordea, arrazoi politiko batengatik joan dela, eta, gure ustez –eta esan egin behar dizut–, ez du batere une egokia hautatu, oraintxe bertan Espainian eta nazioartean bizi dugun testuinguru politikoa kontuan izanik. Nire ustez, ez du batere une egokia hautatu Quebecera joateko. Ez du laguntzen ziurtasuna finkatzen, eta (Date: 03.11.2017)',
93
+ '[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]\n[ALONSO ARANEGUI, (PV-ETP)]:\nEskertzen dizut erantzuna, sailburu jauna. Egia da zure erantzunak ez duela zerikusi handirik jasotzen ari garen informazioekin; hau da, lehendakariak Quebecera egin duen bidaia nola doan, zein agenda duen, zertaz hitz egiten ari den, eta abar. Eta egia da, halaber, Quebeceko eskualdea ez dagoela, eta Kanada ezta ere, gure enpresen esportazioen xede nagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi (Date: 03.11.2017)',
94
+ '[TOPIC: EH Bildu talde parlamentarioak egindako lege-proposamena, herri-administrazioek etxebizitzak lehentasunez eskuratzeko eta inbertsio-funtsen jarduera mugatzeko. Aintzat hartzeari buruzko eztabaida eta behin betiko ebazpena]\n[MARTÍNEZ GRISALEÑA, (Mixto-Vox)]:\nEsan behar dut aurka bozkatu dugula, jakina, jabetza pribatuaren aurkako beste eraso bat iruditu zaigulako eta, gainera, higiezinen merkatuan esku hartzeko beste ahalegin bat. Hori da, gure ustez, oinarririk gabeko legeproposamen guztiz nahasi horren bidez lortu nahi izan dena eta, gainera, inolako ibilbiderik gabe jaio dela uste dugu; izan ere, herri-administrazioek lehentasunez erosteko eta atzera eskuratzeko duten eskubidea kontrolatzeko asmoa erregularizatuta dago Euskal Autonomia Erkidegoan. Gure ustez, planteatzen dizkiguten (Date: 10.02.2022)',
95
+ '[TOPIC: Mozioa, Nerea Llanos Gómez Euskal Talde Popularreko legebiltzarkideak aurkeztua, 2018ko otsailaren 22ko operatibo polizialari buruz. Eztabaida eta behin betiko ebazpena]\n[GARCÍA LARRIMBE, (EP)]:\nTxalo elkarrizketari ekin diozuelako; baina sakoneko konponbideak falta dira. Bere osotasunean Ertzaintzaren antolamenduari konponbideak ematea. Ez ditzagun arazoak uka, Gobernuak aurreko kontroleko bilkuran, Zupiria jaunaren bitartez, egin zuen moduan; baina ez gaitezen eror PPren demagogian eta turko-buruen bilaketan. Aukera dezagun zentzuzko bide bat, hori baita euskal herritarren gehiengoak nahi duena. Aurrerapausoak emango dituen bidea, ez askatasun eta eskubideetan atzera egingo duena. Gaur badaude alternatibak, baina Gobernu horretan (Date: 16.03.2018)',
96
+ ]
97
+ )
98
+ # [{'corpus_id': ..., 'score': ...}, {'corpus_id': ..., 'score': ...}, ...]
99
+ ```
100
+
101
+ <!--
102
+ ### Direct Usage (Transformers)
103
+
104
+ <details><summary>Click to see the direct usage in Transformers</summary>
105
+
106
+ </details>
107
+ -->
108
+
109
+ <!--
110
+ ### Downstream Usage (Sentence Transformers)
111
+
112
+ You can finetune this model on your own dataset.
113
+
114
+ <details><summary>Click to expand</summary>
115
+
116
+ </details>
117
+ -->
118
+
119
+ <!--
120
+ ### Out-of-Scope Use
121
+
122
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
123
+ -->
124
+
125
+ ## Evaluation
126
+
127
+ ### Metrics
128
+
129
+ #### Cross Encoder Reranking
130
+
131
+ * Dataset: `jina-reranker-v2-base-multilingual-binary`
132
+ * Evaluated with [<code>CrossEncoderRerankingEvaluator</code>](https://sbert.net/docs/package_reference/cross_encoder/evaluation.html#sentence_transformers.cross_encoder.evaluation.CrossEncoderRerankingEvaluator) with these parameters:
133
+ ```json
134
+ {
135
+ "at_k": 10,
136
+ "always_rerank_positives": false
137
+ }
138
+ ```
139
+
140
+ | Metric | Value |
141
+ |:------------|:---------------------|
142
+ | map | 0.0030 (+0.0026) |
143
+ | mrr@10 | 0.0032 (+0.0029) |
144
+ | **ndcg@10** | **0.0032 (+0.0026)** |
145
+
146
+ <!--
147
+ ## Bias, Risks and Limitations
148
+
149
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
150
+ -->
151
+
152
+ <!--
153
+ ### Recommendations
154
+
155
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
156
+ -->
157
+
158
+ ## Training Details
159
+
160
+ ### Training Dataset
161
+
162
+ #### Unnamed Dataset
163
+
164
+ * Size: 40,529 training samples
165
+ * Columns: <code>query</code>, <code>answer</code>, and <code>label</code>
166
+ * Approximate statistics based on the first 1000 samples:
167
+ | | query | answer | label |
168
+ |:--------|:------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:------------------------------------------------|
169
+ | type | string | string | int |
170
+ | details | <ul><li>min: 32 characters</li><li>mean: 98.32 characters</li><li>max: 207 characters</li></ul> | <ul><li>min: 583 characters</li><li>mean: 763.83 characters</li><li>max: 978 characters</li></ul> | <ul><li>0: ~82.90%</li><li>1: ~17.10%</li></ul> |
171
+ * Samples:
172
+ | query | answer | label |
173
+ |:----------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
174
+ | <code>Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?</code> | <code>[TOPIC: Galdera, Idoia Mendia Cueva Euskal Sozialistak taldeko legebiltzarkideak Herri Administrazio eta Justiziako sailburuari egina, enplegu publikorako plan bati buruz]<br>[MENDIA CUEVA, (SV-ES)]:<br>Guk Espainiako Gobernuarekin borroka egin genuen, Osasungintzan eta Hezkuntzan EPEak egiteko debekua ezarri ondoren (ez, ez, ez egin barre), eta lortu genuen. Izerdi asko bota genuen hiru bileratan, baina lortu genuen. Beraz, borondatea izanez gero, lor daiteke, arrazoia alde baitugu. Eta, bestalde, jakin nahi nuke giza baliabideen zer kudeaketa duzun buruan, bestelako adierazpenak entzun baititut. Lehendakariak behin baino gehiagotan esan du ez dela kaleratzerik izango, ez dela murriztuko enplegu (Date: 15.11.2013)</code> | <code>1</code> |
175
+ | <code>Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?</code> | <code>[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]<br>[ALONSO ARANEGUI, (PV-ETP)]:<br>nagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi ekonomiko batengatik joan denik; badirudi, ordea, arrazoi politiko batengatik joan dela, eta, gure ustez –eta esan egin behar dizut–, ez du batere une egokia hautatu, oraintxe bertan Espainian eta nazioartean bizi dugun testuinguru politikoa kontuan izanik. Nire ustez, ez du batere une egokia hautatu Quebecera joateko. Ez du laguntzen ziurtasuna finkatzen, eta (Date: 03.11.2017)</code> | <code>0</code> |
176
+ | <code>Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?</code> | <code>[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]<br>[ALONSO ARANEGUI, (PV-ETP)]:<br>Eskertzen dizut erantzuna, sailburu jauna. Egia da zure erantzunak ez duela zerikusi handirik jasotzen ari garen informazioekin; hau da, lehendakariak Quebecera egin duen bidaia nola doan, zein agenda duen, zertaz hitz egiten ari den, eta abar. Eta egia da, halaber, Quebeceko eskualdea ez dagoela, eta Kanada ezta ere, gure enpresen esportazioen xede nagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi (Date: 03.11.2017)</code> | <code>0</code> |
177
+ * Loss: [<code>BinaryCrossEntropyLoss</code>](https://sbert.net/docs/package_reference/cross_encoder/losses.html#binarycrossentropyloss) with these parameters:
178
+ ```json
179
+ {
180
+ "activation_fn": "torch.nn.modules.linear.Identity",
181
+ "pos_weight": null
182
+ }
183
+ ```
184
+
185
+ ### Training Hyperparameters
186
+ #### Non-Default Hyperparameters
187
+
188
+ - `eval_strategy`: steps
189
+ - `per_device_train_batch_size`: 32
190
+ - `per_device_eval_batch_size`: 32
191
+ - `learning_rate`: 2e-05
192
+ - `warmup_ratio`: 0.1
193
+ - `load_best_model_at_end`: True
194
+ - `batch_sampler`: no_duplicates
195
+
196
+ #### All Hyperparameters
197
+ <details><summary>Click to expand</summary>
198
+
199
+ - `overwrite_output_dir`: False
200
+ - `do_predict`: False
201
+ - `eval_strategy`: steps
202
+ - `prediction_loss_only`: True
203
+ - `per_device_train_batch_size`: 32
204
+ - `per_device_eval_batch_size`: 32
205
+ - `per_gpu_train_batch_size`: None
206
+ - `per_gpu_eval_batch_size`: None
207
+ - `gradient_accumulation_steps`: 1
208
+ - `eval_accumulation_steps`: None
209
+ - `torch_empty_cache_steps`: None
210
+ - `learning_rate`: 2e-05
211
+ - `weight_decay`: 0.0
212
+ - `adam_beta1`: 0.9
213
+ - `adam_beta2`: 0.999
214
+ - `adam_epsilon`: 1e-08
215
+ - `max_grad_norm`: 1.0
216
+ - `num_train_epochs`: 3
217
+ - `max_steps`: -1
218
+ - `lr_scheduler_type`: linear
219
+ - `lr_scheduler_kwargs`: {}
220
+ - `warmup_ratio`: 0.1
221
+ - `warmup_steps`: 0
222
+ - `log_level`: passive
223
+ - `log_level_replica`: warning
224
+ - `log_on_each_node`: True
225
+ - `logging_nan_inf_filter`: True
226
+ - `save_safetensors`: True
227
+ - `save_on_each_node`: False
228
+ - `save_only_model`: False
229
+ - `restore_callback_states_from_checkpoint`: False
230
+ - `no_cuda`: False
231
+ - `use_cpu`: False
232
+ - `use_mps_device`: False
233
+ - `seed`: 42
234
+ - `data_seed`: None
235
+ - `jit_mode_eval`: False
236
+ - `use_ipex`: False
237
+ - `bf16`: False
238
+ - `fp16`: False
239
+ - `fp16_opt_level`: O1
240
+ - `half_precision_backend`: auto
241
+ - `bf16_full_eval`: False
242
+ - `fp16_full_eval`: False
243
+ - `tf32`: None
244
+ - `local_rank`: 0
245
+ - `ddp_backend`: None
246
+ - `tpu_num_cores`: None
247
+ - `tpu_metrics_debug`: False
248
+ - `debug`: []
249
+ - `dataloader_drop_last`: False
250
+ - `dataloader_num_workers`: 0
251
+ - `dataloader_prefetch_factor`: None
252
+ - `past_index`: -1
253
+ - `disable_tqdm`: False
254
+ - `remove_unused_columns`: True
255
+ - `label_names`: None
256
+ - `load_best_model_at_end`: True
257
+ - `ignore_data_skip`: False
258
+ - `fsdp`: []
259
+ - `fsdp_min_num_params`: 0
260
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
261
+ - `fsdp_transformer_layer_cls_to_wrap`: None
262
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
263
+ - `deepspeed`: None
264
+ - `label_smoothing_factor`: 0.0
265
+ - `optim`: adamw_torch
266
+ - `optim_args`: None
267
+ - `adafactor`: False
268
+ - `group_by_length`: False
269
+ - `length_column_name`: length
270
+ - `ddp_find_unused_parameters`: None
271
+ - `ddp_bucket_cap_mb`: None
272
+ - `ddp_broadcast_buffers`: False
273
+ - `dataloader_pin_memory`: True
274
+ - `dataloader_persistent_workers`: False
275
+ - `skip_memory_metrics`: True
276
+ - `use_legacy_prediction_loop`: False
277
+ - `push_to_hub`: False
278
+ - `resume_from_checkpoint`: None
279
+ - `hub_model_id`: None
280
+ - `hub_strategy`: every_save
281
+ - `hub_private_repo`: None
282
+ - `hub_always_push`: False
283
+ - `gradient_checkpointing`: False
284
+ - `gradient_checkpointing_kwargs`: None
285
+ - `include_inputs_for_metrics`: False
286
+ - `include_for_metrics`: []
287
+ - `eval_do_concat_batches`: True
288
+ - `fp16_backend`: auto
289
+ - `push_to_hub_model_id`: None
290
+ - `push_to_hub_organization`: None
291
+ - `mp_parameters`:
292
+ - `auto_find_batch_size`: False
293
+ - `full_determinism`: False
294
+ - `torchdynamo`: None
295
+ - `ray_scope`: last
296
+ - `ddp_timeout`: 1800
297
+ - `torch_compile`: False
298
+ - `torch_compile_backend`: None
299
+ - `torch_compile_mode`: None
300
+ - `include_tokens_per_second`: False
301
+ - `include_num_input_tokens_seen`: False
302
+ - `neftune_noise_alpha`: None
303
+ - `optim_target_modules`: None
304
+ - `batch_eval_metrics`: False
305
+ - `eval_on_start`: False
306
+ - `use_liger_kernel`: False
307
+ - `eval_use_gather_object`: False
308
+ - `average_tokens_across_devices`: False
309
+ - `prompts`: None
310
+ - `batch_sampler`: no_duplicates
311
+ - `multi_dataset_batch_sampler`: proportional
312
+ - `router_mapping`: {}
313
+ - `learning_rate_mapping`: {}
314
+
315
+ </details>
316
+
317
+ ### Training Logs
318
+ | Epoch | Step | Training Loss | jina-reranker-v2-base-multilingual-binary_ndcg@10 |
319
+ |:----------:|:-------:|:-------------:|:-------------------------------------------------:|
320
+ | **0.3946** | **500** | **0.0915** | **0.0034 (+0.0028)** |
321
+ | 0.7893 | 1000 | 0.0028 | 0.0034 (+0.0028) |
322
+ | 1.1839 | 1500 | 0.0123 | 0.0032 (+0.0026) |
323
+ | 1.5785 | 2000 | 0.0086 | 0.0032 (+0.0026) |
324
+ | 1.9732 | 2500 | 0.0013 | 0.0032 (+0.0026) |
325
+ | 2.3678 | 3000 | 0.0121 | 0.0032 (+0.0026) |
326
+ | 2.7624 | 3500 | 0.0082 | 0.0032 (+0.0026) |
327
+
328
+ * The bold row denotes the saved checkpoint.
329
+
330
+ ### Framework Versions
331
+ - Python: 3.9.7
332
+ - Sentence Transformers: 5.0.0
333
+ - Transformers: 4.52.4
334
+ - PyTorch: 2.5.1+cu124
335
+ - Accelerate: 1.5.2
336
+ - Datasets: 4.0.0
337
+ - Tokenizers: 0.21.0
338
+
339
+ ## Citation
340
+
341
+ ### BibTeX
342
+
343
+ #### Sentence Transformers
344
+ ```bibtex
345
+ @inproceedings{reimers-2019-sentence-bert,
346
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
347
+ author = "Reimers, Nils and Gurevych, Iryna",
348
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
349
+ month = "11",
350
+ year = "2019",
351
+ publisher = "Association for Computational Linguistics",
352
+ url = "https://arxiv.org/abs/1908.10084",
353
+ }
354
+ ```
355
+
356
+ <!--
357
+ ## Glossary
358
+
359
+ *Clearly define terms in order to be accessible across audiences.*
360
+ -->
361
+
362
+ <!--
363
+ ## Model Card Authors
364
+
365
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
366
+ -->
367
+
368
+ <!--
369
+ ## Model Card Contact
370
+
371
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
372
+ -->
config.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "XLMRobertaForSequenceClassification"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "auto_map": {
7
+ "AutoConfig": "jinaai/jina-reranker-v2-base-multilingual--configuration_xlm_roberta.XLMRobertaFlashConfig",
8
+ "AutoModel": "jinaai/jina-reranker-v2-base-multilingual--modeling_xlm_roberta.XLMRobertaModel",
9
+ "AutoModelForSequenceClassification": "jinaai/jina-reranker-v2-base-multilingual--modeling_xlm_roberta.XLMRobertaForSequenceClassification"
10
+ },
11
+ "bos_token_id": 0,
12
+ "classifier_dropout": null,
13
+ "emb_pooler": null,
14
+ "eos_token_id": 2,
15
+ "hidden_act": "gelu",
16
+ "hidden_dropout_prob": 0.1,
17
+ "hidden_size": 768,
18
+ "id2label": {
19
+ "0": "LABEL_0"
20
+ },
21
+ "initializer_range": 0.02,
22
+ "intermediate_size": 3072,
23
+ "label2id": {
24
+ "LABEL_0": 0
25
+ },
26
+ "layer_norm_eps": 1e-05,
27
+ "load_trained_adapters": false,
28
+ "lora_adaptations": null,
29
+ "lora_alpha": 1,
30
+ "lora_dropout_p": 0.0,
31
+ "lora_main_params_trainable": false,
32
+ "lora_rank": 4,
33
+ "matryoshka_dimensions": null,
34
+ "max_position_embeddings": 1026,
35
+ "num_attention_heads": 12,
36
+ "num_hidden_layers": 12,
37
+ "output_past": true,
38
+ "pad_token_id": 1,
39
+ "position_embedding_type": "absolute",
40
+ "sentence_transformers": {
41
+ "activation_fn": "torch.nn.modules.activation.Sigmoid",
42
+ "version": "5.0.0"
43
+ },
44
+ "torch_dtype": "bfloat16",
45
+ "transformers_version": "4.52.4",
46
+ "truncate_dim": null,
47
+ "type_vocab_size": 1,
48
+ "use_cache": false,
49
+ "use_flash_attn": true,
50
+ "vocab_size": 250002
51
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:bd2d20a96b6cb844459372b772d35767702b969009f0c0f608f4f866ae7d3519
3
+ size 556892306
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e802fe5337779428818439760a1e6161ed36ceed72d4ebcbda9c139a2108fc99
3
+ size 17082988
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "model_max_length": 1024,
51
+ "pad_token": "<pad>",
52
+ "sep_token": "</s>",
53
+ "tokenizer_class": "XLMRobertaTokenizerFast",
54
+ "unk_token": "<unk>"
55
+ }