Ericu950 commited on
Commit
dc3eebf
·
verified ·
1 Parent(s): e829a59

Initial release: v3-windows

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,624 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - dense
7
+ - generated_from_trainer
8
+ - dataset_size:70036
9
+ - loss:MultipleNegativesRankingLoss
10
+ - loss:OnlineContrastiveLoss
11
+ widget:
12
+ - source_sentence: ΣΩ. καλεῖς γὰρ δήπου φρονίμους τε καὶ ἄφρονας; ΑΛ. ἔγωγε. ΣΩ.
13
+ sentences:
14
+ - Du ämnar försvara de där galningarne som man kallar vederdöpare? OLOF djärvt.
15
+ Ja! GUSTAV Lugn! Du har gift dig helt hastigt?
16
+ - Men han var aldrig högdragen. Han saknade inte humor. Men den var av det billigare
17
+ slaget. Han var inte kvick. Men han förstod sig på skämt.
18
+ - Såhå, det var bra det. Du begynnar tala oanständigt, tror jag, så vacker du än
19
+ är. Men hvad säger du? – hvad yppar du? detta kallar jag välvilja i sista stund.
20
+ - source_sentence: οὐκ οἰκῶ. μηδʼ ἐν Ἀθήναις. οὐδʼ ἐν Ἀθήναις. μηδʼ ἐν Ῥώμῃ. οὐδʼ
21
+ ἐν Ῥώμῃ.
22
+ sentences:
23
+ - VIGGO. Så nämn ett medel då! – – ERNA. Hvarför inte ställa henne under förmyndare?
24
+ - Gå till Athen, där är din plats! – Till Athen? Aldrig! Jag litar icke på dem.
25
+ – Och de icke på dig, det passar!
26
+ - ”Hvad drägt bär han?” ”Det vet jag – ” ”Hvad tecken?” ”Jag klappar honom på axeln.”
27
+ ”Hvem har vapnet?”
28
+ - source_sentence: οὐ πιστεύεις ὅτι ἐγὼ ἐν τῷ πατρὶ καὶ ὁ πατὴρ ἐν ἐμοί ἐστιν; τὰ
29
+ ῥήματα ἃ ἐγὼ λέγω ὑμῖν ἀπʼ ἐμαυτοῦ οὐ λαλῶ· ὁ δὲ πατὴρ ἐν ἐμοὶ μένων ποιεῖ τὰ
30
+ ἔργα αὐτοῦ. πιστεύετέ μοι ὅτι ἐγὼ ἐν τῷ πατρὶ καὶ ὁ πατὴρ ἐν ἐμοί· εἰ δὲ μή, διὰ
31
+ τὰ ἔργα αὐτὰ πιστεύετε.
32
+ sentences:
33
+ - »Matthan, som härstammade från Salomo födde Jakob. Sedan Matthan hade dött, så
34
+ födde Melchi som härstammade från Nathan, med samma kvinna Eli. Eli och Jakob
35
+ voro således bröder av en och samma moder. Sedan Eli hade dött barnlös, så uppväckte
36
+ åt honom Jakob säd, i det han födde Josef, som väl efter naturen var hans son,
37
+ men efter lagen Elis son. På detta sätt var alltså Josef bådas son.»
38
+ - '23 Den som förnekar Sonen har heller inte Fadern. Den som erkänner Sonen har
39
+ också Fadern. 24 Bevara det ni har hört från början. Om det ni har hört från början
40
+ finns i er förblir också ni för alltid bevarade i Sonen och i Fadern. 25 Och detta
41
+ är vad han själv lovade oss: det eviga livet.'
42
+ - 'Tror du icke att jag är i Fadern, och att Fadern är i mig? De ord jag talar till
43
+ eder talar jag icke av mig själv. Och gärningarna, dem gör Fadern, som bor i mig;
44
+ de äro hans verk. Tron mig: jag är i Fadern, och Fadern i mig. Varom icke, så
45
+ tron för själva gärningarnas skull”» (Joh. 14: 8–11).'
46
+ - source_sentence: ἦλθον οὖν οἱ στρατιῶται, καὶ τοῦ μὲν πρώτου κατέαξαν τὰ σκέλη καὶ
47
+ τοῦ ἄλλου τοῦ συνσταυρωθέντος αὐτῷ· ἐπὶ δὲ τὸν Ἰησοῦν ἐλθόντες, ὡς εἶδον ἤδη αὐτὸν
48
+ τεθνηκότα, οὐ κατέαξαν αὐτοῦ τὰ σκέλη, ἀλλʼ εἷς τῶν στρατιωτῶν λόγχῃ αὐτοῦ τὴν
49
+ πλευρὰν ἔνυξεν, καὶ ἐξῆλθεν εὐθὺς αἷμα καὶ ὕδωρ. καὶ ὁ ἑωρακὼς μεμαρτύρηκεν, καὶ
50
+ ἀληθινὴ αὐτοῦ ἐστὶν ἡ μαρτυρία, καὶ ἐκεῖνος οἶδεν ὅτι ἀληθῆ λέγει, ἵνα καὶ ὑμεῖς
51
+ πιστεύητε. ἐγένετο γὰρ ταῦτα ἵνα ἡ γραφὴ πληρωθῇ Ὀστοῦν οὐ συντριβήσεται αὐτοῦ.
52
+ καὶ πάλιν ἑτέρα γραφὴ λέγει Ὄψονται εἰς ὃν ἐξεκέντησαν.
53
+ sentences:
54
+ - 'Så kommo då krigsmännen och slogo sönder den förstes ben och sedan den andres,
55
+ som var korsfäst med honom. När de därefter kommo till Jesus och sågo honom redan
56
+ vara död, slogo de icke sönder hans ben; men en av krigsmännen stack upp hans
57
+ sida med ett spjut, och strax kom därifrån ut blod och vatten. Och den som har
58
+ sett detta, han har vittnat därom, för att ock I skolen tro; och hans vittnesbörd
59
+ är sant, och han vet att han talar sanning. Ty detta skedde, för att skriftens
60
+ ord skulle fullbordas: »Intet ben skall sönderslås på honom.»'
61
+ - 'Och de som gingo före och de som följde efter ropade: ”Hosianna! Välsignad vare
62
+ han som kommer, i Herrens namn. Välsignat vare vår fader Davids rike, som nu kommer.
63
+ Hosianna i höjden.” Så drog han in i Jerusalem och kom in i helgedomen» (Mark.
64
+ 11: 1–11).'
65
+ - 'De svarade: ”Vi har inte ens hört att det finns någon helig ande.” — 3 ”Vilket
66
+ dop blev ni då döpta med?” frågade Paulus, och de svarade: ”Johannesdopet.” 4
67
+ Paulus sade: ”Johannes dop var ett omvändelsedop, och han uppmanade folket att
68
+ tro på den som skulle komma efter honom, det vill säga Jesus.” 5 Då lät de döpa
69
+ sig i herren Jesu namn. 6 Och när Paulus lade sina händer på dem kom den heliga
70
+ anden över dem, och de talade med tungor och profeterade.'
71
+ - source_sentence: καὶ προσκαλεσάμενος αὐτοὺς ὁ Ἰησοῦς λέγει αὐτοῖς Οἴδατε ὅτι οἱ
72
+ δοκοῦντες ἄρχειν τῶν ἐθνῶν κατακυριεύουσιν αὐτῶν καὶ οἱ μεγάλοι αὐτῶν κατεξουσιάζουσιν
73
+ αὐτῶν. οὐχ οὕτως δέ ἐστιν ἐν ὑμῖν· ἀλλʼ ὃς ἂν θέλῃ μέγας γενέσθαι ἐν ὑμῖν, ἔσται
74
+ ὑμῶν διάκονος, καὶ ὃς ἂν θέλῃ ἐν ὑμῖν εἶναι πρῶτος, ἔσται πάντων δοῦλος· καὶ γὰρ
75
+ ὁ υἱὸς τοῦ ἀνθρώπου οὐκ ἦλθεν διακονηθῆναι ἀλλὰ διακονῆσαι καὶ δοῦναι τὴν ψυχὴν
76
+ αὐτοῦ λύτρον ἀντὶ πολλῶν. Καὶ ἔρχονται εἰς Ἰερειχώ. Καὶ ἐκπορευομένου αὐτοῦ ἀπὸ
77
+ Ἰερειχὼ καὶ τῶν μαθητῶν αὐτοῦ καὶ ὄχλου ἱκανοῦ ὁ υἱὸς Τιμαίου Βαρτίμαιος τυφλὸς
78
+ προσαίτης ἐκάθητο παρὰ τὴν ὁδόν.
79
+ sentences:
80
+ - 'Då kallade Jesus dem till sig och sade till dem: ’I veten att de som räknas för
81
+ folkens furstar uppträda mot dem såsom herrar, och att deras mäktige låta dem
82
+ känna sin myndighet. Men så är det icke bland eder; utan den som vill bliva störst
83
+ bland eder, han vare de andras tjänare, och den som vill vara främst bland eder,
84
+ han vare allas dräng. Också Människosonen har ju kommit icke för att låta tjäna
85
+ sig, utan för att tjäna och för att giva sitt liv till lösen för många.’» I den
86
+ ordknappa Markustexten verkar den förmätna begäran Sebedei söner framställde som
87
+ ett slag för ansiktet. Den kommer oförmedlad, direkt efter Jesu undervisning om
88
+ lidandet.'
89
+ - Den stora framgångens människor äro realister och fatalister. Människoförbättrarens
90
+ uppgift är icke att predika moral, men att förändra människans inre genom att
91
+ omgestalta de yttre betingelserna för mänsklighetens moraliska hälsa. Moralen
92
+ har börjat där, var hon skulle sluta, d.v.s. med att giva den efter förfullkomning
93
+ längtande en ledtråd. Hittills har allting skett för enskilda, religionerna ha
94
+ i djupare mening endast kommit till enskilda, nu kan man skönja den tid då massan
95
+ skall bearbetas. De små människorna äro rätt sinnliga på sitt sätt, på ett förnöjsamt
96
+ sätt som ett stort temperament icke kan uthärda.
97
+ - 'Vart icke Abraham vår fader, rättfärdiggjord genom gärningar, då han bar sin
98
+ son Isak upp på altaret? Du ser, att tron medverkade med hans gärningar, och att
99
+ genom gärningarna vart tron fullkomnad och skriften uppfylld, som säjer: Men Abraham
100
+ trodde Gud, och det vart honom räknat till rättfärdighet, och han vart kallad
101
+ Guds vän. I sen att en människa bliver rättfärdigad av gärningar och icke av tro
102
+ allenast. Och vart icke på samma sätt skökan Rahab rättfärdigad av gärningar,
103
+ då hon mottog sändebuden och släppte ut dem en annan väg?'
104
+ pipeline_tag: sentence-similarity
105
+ library_name: sentence-transformers
106
+ metrics:
107
+ - cosine_accuracy@1
108
+ - cosine_accuracy@5
109
+ - cosine_accuracy@10
110
+ - cosine_accuracy@25
111
+ - cosine_precision@1
112
+ - cosine_precision@5
113
+ - cosine_precision@10
114
+ - cosine_precision@25
115
+ - cosine_precision@100
116
+ - cosine_recall@1
117
+ - cosine_recall@5
118
+ - cosine_recall@10
119
+ - cosine_recall@25
120
+ - cosine_recall@100
121
+ - cosine_ndcg@10
122
+ - cosine_mrr@10
123
+ - cosine_map@100
124
+ model-index:
125
+ - name: SentenceTransformer
126
+ results:
127
+ - task:
128
+ type: information-retrieval
129
+ name: Information Retrieval
130
+ dataset:
131
+ name: labeled window src to swe
132
+ type: labeled_window_src_to_swe
133
+ metrics:
134
+ - type: cosine_accuracy@1
135
+ value: 0.6348773841961853
136
+ name: Cosine Accuracy@1
137
+ - type: cosine_accuracy@5
138
+ value: 0.997275204359673
139
+ name: Cosine Accuracy@5
140
+ - type: cosine_accuracy@10
141
+ value: 1.0
142
+ name: Cosine Accuracy@10
143
+ - type: cosine_accuracy@25
144
+ value: 1.0
145
+ name: Cosine Accuracy@25
146
+ - type: cosine_precision@1
147
+ value: 0.6348773841961853
148
+ name: Cosine Precision@1
149
+ - type: cosine_precision@5
150
+ value: 0.19945504087193458
151
+ name: Cosine Precision@5
152
+ - type: cosine_precision@10
153
+ value: 0.09999999999999996
154
+ name: Cosine Precision@10
155
+ - type: cosine_precision@25
156
+ value: 0.039999999999999994
157
+ name: Cosine Precision@25
158
+ - type: cosine_precision@100
159
+ value: 0.009999999999999998
160
+ name: Cosine Precision@100
161
+ - type: cosine_recall@1
162
+ value: 0.6348773841961853
163
+ name: Cosine Recall@1
164
+ - type: cosine_recall@5
165
+ value: 0.997275204359673
166
+ name: Cosine Recall@5
167
+ - type: cosine_recall@10
168
+ value: 1.0
169
+ name: Cosine Recall@10
170
+ - type: cosine_recall@25
171
+ value: 1.0
172
+ name: Cosine Recall@25
173
+ - type: cosine_recall@100
174
+ value: 1.0
175
+ name: Cosine Recall@100
176
+ - type: cosine_ndcg@10
177
+ value: 0.8422597425051636
178
+ name: Cosine Ndcg@10
179
+ - type: cosine_mrr@10
180
+ value: 0.7886315470784138
181
+ name: Cosine Mrr@10
182
+ - type: cosine_map@100
183
+ value: 0.7886315470784137
184
+ name: Cosine Map@100
185
+ ---
186
+
187
+ # SentenceTransformer
188
+
189
+ This is a [sentence-transformers](https://www.SBERT.net) model trained on the triplets and pairs datasets. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
190
+
191
+ ## Model Details
192
+
193
+ ### Model Description
194
+ - **Model Type:** Sentence Transformer
195
+ <!-- - **Base model:** [Unknown](https://huggingface.co/unknown) -->
196
+ - **Maximum Sequence Length:** 320 tokens
197
+ - **Output Dimensionality:** 1024 dimensions
198
+ - **Similarity Function:** Cosine Similarity
199
+ - **Training Datasets:**
200
+ - triplets
201
+ - pairs
202
+ <!-- - **Language:** Unknown -->
203
+ <!-- - **License:** Unknown -->
204
+
205
+ ### Model Sources
206
+
207
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
208
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
209
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
210
+
211
+ ### Full Model Architecture
212
+
213
+ ```
214
+ SentenceTransformer(
215
+ (0): Transformer({'max_seq_length': 320, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
216
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
217
+ (2): Normalize()
218
+ )
219
+ ```
220
+
221
+ ## Usage
222
+
223
+ ### Direct Usage (Sentence Transformers)
224
+
225
+ First install the Sentence Transformers library:
226
+
227
+ ```bash
228
+ pip install -U sentence-transformers
229
+ ```
230
+
231
+ Then you can load this model and run inference.
232
+ ```python
233
+ from sentence_transformers import SentenceTransformer
234
+
235
+ # Download from the 🤗 Hub
236
+ model = SentenceTransformer("sentence_transformers_model_id")
237
+ # Run inference
238
+ sentences = [
239
+ 'καὶ προσκαλεσάμενος αὐτοὺς ὁ Ἰησοῦς λέγει αὐτοῖς Οἴδατε ὅτι οἱ δοκοῦντες ἄρχειν τῶν ἐθνῶν κατακυριεύουσιν αὐτῶν καὶ οἱ μεγάλοι αὐτῶν κατεξουσιάζουσιν αὐτῶν. οὐχ οὕτως δέ ἐστιν ἐν ὑμῖν· ἀλλʼ ὃς ἂν θέλῃ μέγας γενέσθαι ἐν ὑμῖν, ἔσται ὑμῶν διάκονος, καὶ ὃς ἂν θέλῃ ἐν ὑμῖν εἶναι πρῶτος, ἔσται πάντων δοῦλος· καὶ γὰρ ὁ υἱὸς τοῦ ἀνθρώπου οὐκ ἦλθεν διακονηθῆναι ἀλλὰ διακονῆσαι καὶ δοῦναι τὴν ψυχὴν αὐτοῦ λύτρον ἀντὶ πολλῶν. Καὶ ἔρχονται εἰς Ἰερειχώ. Καὶ ἐκπορευομένου αὐτοῦ ἀπὸ Ἰερειχὼ καὶ τῶν μαθητῶν αὐτοῦ καὶ ὄχλου ἱκανοῦ ὁ υἱὸς Τιμαίου Βαρτίμαιος τυφλὸς προσαίτης ἐκάθητο παρὰ τὴν ὁδόν.',
240
+ 'Då kallade Jesus dem till sig och sade till dem: ’I veten att de som räknas för folkens furstar uppträda mot dem såsom herrar, och att deras mäktige låta dem känna sin myndighet. Men så är det icke bland eder; utan den som vill bliva störst bland eder, han vare de andras tjänare, och den som vill vara främst bland eder, han vare allas dräng. Också Människosonen har ju kommit icke för att låta tjäna sig, utan för att tjäna och för att giva sitt liv till lösen för många.’» I den ordknappa Markustexten verkar den förmätna begäran Sebedei söner framställde som ett slag för ansiktet. Den kommer oförmedlad, direkt efter Jesu undervisning om lidandet.',
241
+ 'Den stora framgångens människor äro realister och fatalister. Människoförbättrarens uppgift är icke att predika moral, men att förändra människans inre genom att omgestalta de yttre betingelserna för mänsklighetens moraliska hälsa. Moralen har börjat där, var hon skulle sluta, d.v.s. med att giva den efter förfullkomning längtande en ledtråd. Hittills har allting skett för enskilda, religionerna ha i djupare mening endast kommit till enskilda, nu kan man skönja den tid då massan skall bearbetas. De små människorna äro rätt sinnliga på sitt sätt, på ett förnöjsamt sätt som ett stort temperament icke kan uthärda.',
242
+ ]
243
+ embeddings = model.encode(sentences)
244
+ print(embeddings.shape)
245
+ # [3, 1024]
246
+
247
+ # Get the similarity scores for the embeddings
248
+ similarities = model.similarity(embeddings, embeddings)
249
+ print(similarities)
250
+ # tensor([[1.0000, 0.6757, 0.3392],
251
+ # [0.6757, 1.0000, 0.2150],
252
+ # [0.3392, 0.2150, 1.0000]])
253
+ ```
254
+
255
+ <!--
256
+ ### Direct Usage (Transformers)
257
+
258
+ <details><summary>Click to see the direct usage in Transformers</summary>
259
+
260
+ </details>
261
+ -->
262
+
263
+ <!--
264
+ ### Downstream Usage (Sentence Transformers)
265
+
266
+ You can finetune this model on your own dataset.
267
+
268
+ <details><summary>Click to expand</summary>
269
+
270
+ </details>
271
+ -->
272
+
273
+ <!--
274
+ ### Out-of-Scope Use
275
+
276
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
277
+ -->
278
+
279
+ ## Evaluation
280
+
281
+ ### Metrics
282
+
283
+ #### Information Retrieval
284
+
285
+ * Dataset: `labeled_window_src_to_swe`
286
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
287
+
288
+ | Metric | Value |
289
+ |:---------------------|:-----------|
290
+ | cosine_accuracy@1 | 0.6349 |
291
+ | cosine_accuracy@5 | 0.9973 |
292
+ | cosine_accuracy@10 | 1.0 |
293
+ | cosine_accuracy@25 | 1.0 |
294
+ | cosine_precision@1 | 0.6349 |
295
+ | cosine_precision@5 | 0.1995 |
296
+ | cosine_precision@10 | 0.1 |
297
+ | cosine_precision@25 | 0.04 |
298
+ | cosine_precision@100 | 0.01 |
299
+ | cosine_recall@1 | 0.6349 |
300
+ | cosine_recall@5 | 0.9973 |
301
+ | cosine_recall@10 | 1.0 |
302
+ | cosine_recall@25 | 1.0 |
303
+ | cosine_recall@100 | 1.0 |
304
+ | **cosine_ndcg@10** | **0.8423** |
305
+ | cosine_mrr@10 | 0.7886 |
306
+ | cosine_map@100 | 0.7886 |
307
+
308
+ <!--
309
+ ## Bias, Risks and Limitations
310
+
311
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
312
+ -->
313
+
314
+ <!--
315
+ ### Recommendations
316
+
317
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
318
+ -->
319
+
320
+ ## Training Details
321
+
322
+ ### Training Datasets
323
+
324
+ #### triplets
325
+
326
+ * Dataset: triplets
327
+ * Size: 22,275 training samples
328
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
329
+ * Approximate statistics based on the first 1000 samples:
330
+ | | anchor | positive | negative |
331
+ |:--------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
332
+ | type | string | string | string |
333
+ | details | <ul><li>min: 45 tokens</li><li>mean: 217.72 tokens</li><li>max: 320 tokens</li></ul> | <ul><li>min: 33 tokens</li><li>mean: 115.9 tokens</li><li>max: 247 tokens</li></ul> | <ul><li>min: 19 tokens</li><li>mean: 139.85 tokens</li><li>max: 320 tokens</li></ul> |
334
+ * Samples:
335
+ | anchor | positive | negative |
336
+ |:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
337
+ | <code>ὁ οὖν ἐπιχορηγῶν ὑμῖν τὸ πνεῦμα καὶ ἐνεργῶν δυνάμεις ἐν ὑμῖν ἐξ ἔργων νόμου ἢ ἐξ ἀκοῆς πίστεως; καθὼς Ἀβραὰμ ἐπίστευσεν τῷ θεῷ, καὶ ἐλογίσθη αὐτῷ εἰς δικαιοσύνην. Γινώσκετε ἄρα ὅτι οἱ ἐκ πίστεως, οὗτοι υἱοί εἰσιν Ἀβραάμ. προϊδοῦσα δὲ ἡ γραφὴ ὅτι ἐκ πίστεως δικαιοῖ τὰ ἔθνη ὁ θεὸς προευηγγελίσατο τῷ Ἀβραὰμ ὅτι Ἐνευλογηθήσονται ἐν σοὶ πάντα τὰ ἔθνη. ὥστε οἱ ἐκ πίστεως εὐλογοῦνται σὺν τῷ πιστῷ Ἀβραάμ.</code> | <code>Den som giver eder anden och verkar kraften bland eder, gör han det genom lagens gärningar, eller genom trons predikan? – – – Abraham trodde Gud, och det vart honom räknat till rättfärdighet. Veten därför, att de som äro av tron, de äro Abrahams barn. Och emedan skriften förutsåg, att det är genom tron som Gud gör hedningarne rättfärdiga, så gav han i förväg åt Abraham detta glada budskap: I dig skola alla folk varda välsignade.</code> | <code>23. I. Trones rättferdighet bewises af Abrahams exempel/ rc. H Wad säije wij tå/ wår fader 14704 Abraham efter kötet hafwa funnet? 2. Thet säije wij: Är Abraham rättferdig worden af gierningarna/ så hafwer han thet han må beröma sigh af; men icke för Gudi. 3. Men hwad säger Skriften?</code> |
338
+ | <code>ὁ οὖν ἐπιχορηγῶν ὑμῖν τὸ πνεῦμα καὶ ἐνεργῶν δυνάμεις ἐν ὑμῖν ἐξ ἔργων νόμου ἢ ἐξ ἀκοῆς πίστεως; καθὼς Ἀβραὰμ ἐπίστευσεν τῷ θεῷ, καὶ ἐλογίσθη αὐτῷ εἰς δικαιοσύνην. Γινώσκετε ἄρα ὅτι οἱ ἐκ πίστεως, οὗτοι υἱοί εἰσιν Ἀβραάμ. προϊδοῦσα δὲ ἡ γραφὴ ὅτι ἐκ πίστεως δικαιοῖ τὰ ἔθνη ὁ θεὸς προευηγγελίσατο τῷ Ἀβραὰμ ὅτι Ἐνευλογηθήσονται ἐν σοὶ πάντα τὰ ἔθνη. ὥστε οἱ ἐκ πίστεως εὐλογοῦνται σὺν τῷ πιστῷ Ἀβραάμ.</code> | <code>Den som giver eder anden och verkar kraften bland eder, gör han det genom lagens gärningar, eller genom trons predikan? – – – Abraham trodde Gud, och det vart honom räknat till rättfärdighet. Veten därför, att de som äro av tron, de äro Abrahams barn. Och emedan skriften förutsåg, att det är genom tron som Gud gör hedningarne rättfärdiga, så gav han i förväg åt Abraham detta glada budskap: I dig skola alla folk varda välsignade.</code> | <code>20 Men inser du inte, tanklösa människa, att tro utan gärningar är utan verkan? 21 Blev inte vår fader Abraham rättfärdig genom gärningar när han lade sin son Isak som offer på altaret? 22 Du ser att hans tro samverkade med hans gärningar och att det var genom gärningarna som hans tro blev fullkomlig. 23 Så uppfylldes skriftens ord: Abraham trodde på Gud och därför räknades han som rättfärdig , och han kallades Guds vän. 24 Ni ser att människan blir rättfärdig genom gärningar och inte bara genom tro.</code> |
339
+ | <code>ὁ οὖν ἐπιχορηγῶν ὑμῖν τὸ πνεῦμα κα��� ἐνεργῶν δυνάμεις ἐν ὑμῖν ἐξ ἔργων νόμου ἢ ἐξ ἀκοῆς πίστεως; καθὼς Ἀβραὰμ ἐπίστευσεν τῷ θεῷ, καὶ ἐλογίσθη αὐτῷ εἰς δικαιοσύνην. Γινώσκετε ἄρα ὅτι οἱ ἐκ πίστεως, οὗτοι υἱοί εἰσιν Ἀβραάμ. προϊδοῦσα δὲ ἡ γραφὴ ὅτι ἐκ πίστεως δικαιοῖ τὰ ἔθνη ὁ θεὸς προευηγγελίσατο τῷ Ἀβραὰμ ὅτι Ἐνευλογηθήσονται ἐν σοὶ πάντα τὰ ἔθνη. ὥστε οἱ ἐκ πίστεως εὐλογοῦνται σὺν τῷ πιστῷ Ἀβραάμ.</code> | <code>Den som giver eder anden och verkar kraften bland eder, gör han det genom lagens gärningar, eller genom trons predikan? – – – Abraham trodde Gud, och det vart honom räknat till rättfärdighet. Veten därför, att de som äro av tron, de äro Abrahams barn. Och emedan skriften förutsåg, att det är genom tron som Gud gör hedningarne rättfärdiga, så gav han i förväg åt Abraham detta glada budskap: I dig skola alla folk varda välsignade.</code> | <code>26 Alla är ni nämligen genom tron Guds söner, i Kristus Jesus. 27 Är ni döpta in i Kristus har ni också iklätt er Kristus. 28 Nu är ingen längre jude eller grek, slav eller fri, man eller kvinna. Alla är ni ett i Kristus Jesus. 29 Men om ni tillhör Kristus är ni också avkomlingar till Abraham och arvtagare enligt löftet.</code> |
340
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
341
+ ```json
342
+ {
343
+ "scale": 20.0,
344
+ "similarity_fct": "cos_sim",
345
+ "gather_across_devices": false,
346
+ "directions": [
347
+ "query_to_doc"
348
+ ],
349
+ "partition_mode": "joint",
350
+ "hardness_mode": null,
351
+ "hardness_strength": 0.0
352
+ }
353
+ ```
354
+
355
+ #### pairs
356
+
357
+ * Dataset: pairs
358
+ * Size: 47,761 training samples
359
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>label</code>
360
+ * Approximate statistics based on the first 1000 samples:
361
+ | | sentence1 | sentence2 | label |
362
+ |:--------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-----------------------------|
363
+ | type | string | string | int |
364
+ | details | <ul><li>min: 22 tokens</li><li>mean: 92.94 tokens</li><li>max: 320 tokens</li></ul> | <ul><li>min: 17 tokens</li><li>mean: 56.98 tokens</li><li>max: 320 tokens</li></ul> | <ul><li>0: 100.00%</li></ul> |
365
+ * Samples:
366
+ | sentence1 | sentence2 | label |
367
+ |:-------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------|:---------------|
368
+ | <code>τίνος; ἆρά γε ἵππου; — οὔ. — ἀλλὰ βοός; — οὔ.</code> | <code>Har han häst? Tora. Han nej! Neej. Vad skulle han med häst?</code> | <code>0</code> |
369
+ | <code>ἀλλʼ ἀδύνατον, εἰπεῖν. ἀλλὰ τινός; ναί. ὄντος ἢ οὐκ ὄντος; ὄντος.</code> | <code>Det är omöjligt. — Men om det ändå är möjligt? — Nej. — Men om det är möjligt trots allt? — Nej, det är inte möjligt.</code> | <code>0</code> |
370
+ | <code>τίνος; ἆρά γε ἵππου; — οὔ. — ἀλλὰ βοός; — οὔ.</code> | <code>Magnus. Har han häst? Tora. Han nej! Neej.</code> | <code>0</code> |
371
+ * Loss: [<code>OnlineContrastiveLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#onlinecontrastiveloss)
372
+
373
+ ### Training Hyperparameters
374
+ #### Non-Default Hyperparameters
375
+
376
+ - `per_device_train_batch_size`: 16
377
+ - `num_train_epochs`: 1.0
378
+ - `learning_rate`: 2e-06
379
+ - `warmup_steps`: 0.05
380
+ - `bf16`: True
381
+ - `eval_strategy`: steps
382
+ - `per_device_eval_batch_size`: 64
383
+ - `load_best_model_at_end`: True
384
+ - `dataloader_drop_last`: True
385
+ - `dataloader_num_workers`: 4
386
+ - `ddp_find_unused_parameters`: True
387
+ - `batch_sampler`: no_duplicates
388
+ - `multi_dataset_batch_sampler`: round_robin
389
+
390
+ #### All Hyperparameters
391
+ <details><summary>Click to expand</summary>
392
+
393
+ - `per_device_train_batch_size`: 16
394
+ - `num_train_epochs`: 1.0
395
+ - `max_steps`: -1
396
+ - `learning_rate`: 2e-06
397
+ - `lr_scheduler_type`: linear
398
+ - `lr_scheduler_kwargs`: None
399
+ - `warmup_steps`: 0.05
400
+ - `optim`: adamw_torch_fused
401
+ - `optim_args`: None
402
+ - `weight_decay`: 0.0
403
+ - `adam_beta1`: 0.9
404
+ - `adam_beta2`: 0.999
405
+ - `adam_epsilon`: 1e-08
406
+ - `optim_target_modules`: None
407
+ - `gradient_accumulation_steps`: 1
408
+ - `average_tokens_across_devices`: True
409
+ - `max_grad_norm`: 1.0
410
+ - `label_smoothing_factor`: 0.0
411
+ - `bf16`: True
412
+ - `fp16`: False
413
+ - `bf16_full_eval`: False
414
+ - `fp16_full_eval`: False
415
+ - `tf32`: None
416
+ - `gradient_checkpointing`: False
417
+ - `gradient_checkpointing_kwargs`: None
418
+ - `torch_compile`: False
419
+ - `torch_compile_backend`: None
420
+ - `torch_compile_mode`: None
421
+ - `use_liger_kernel`: False
422
+ - `liger_kernel_config`: None
423
+ - `use_cache`: False
424
+ - `neftune_noise_alpha`: None
425
+ - `torch_empty_cache_steps`: None
426
+ - `auto_find_batch_size`: False
427
+ - `log_on_each_node`: True
428
+ - `logging_nan_inf_filter`: True
429
+ - `include_num_input_tokens_seen`: no
430
+ - `log_level`: passive
431
+ - `log_level_replica`: warning
432
+ - `disable_tqdm`: False
433
+ - `project`: huggingface
434
+ - `trackio_space_id`: trackio
435
+ - `eval_strategy`: steps
436
+ - `per_device_eval_batch_size`: 64
437
+ - `prediction_loss_only`: True
438
+ - `eval_on_start`: False
439
+ - `eval_do_concat_batches`: True
440
+ - `eval_use_gather_object`: False
441
+ - `eval_accumulation_steps`: None
442
+ - `include_for_metrics`: []
443
+ - `batch_eval_metrics`: False
444
+ - `save_only_model`: False
445
+ - `save_on_each_node`: False
446
+ - `enable_jit_checkpoint`: False
447
+ - `push_to_hub`: False
448
+ - `hub_private_repo`: None
449
+ - `hub_model_id`: None
450
+ - `hub_strategy`: every_save
451
+ - `hub_always_push`: False
452
+ - `hub_revision`: None
453
+ - `load_best_model_at_end`: True
454
+ - `ignore_data_skip`: False
455
+ - `restore_callback_states_from_checkpoint`: False
456
+ - `full_determinism`: False
457
+ - `seed`: 42
458
+ - `data_seed`: None
459
+ - `use_cpu`: False
460
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
461
+ - `parallelism_config`: None
462
+ - `dataloader_drop_last`: True
463
+ - `dataloader_num_workers`: 4
464
+ - `dataloader_pin_memory`: True
465
+ - `dataloader_persistent_workers`: False
466
+ - `dataloader_prefetch_factor`: None
467
+ - `remove_unused_columns`: True
468
+ - `label_names`: None
469
+ - `train_sampling_strategy`: random
470
+ - `length_column_name`: length
471
+ - `ddp_find_unused_parameters`: True
472
+ - `ddp_bucket_cap_mb`: None
473
+ - `ddp_broadcast_buffers`: False
474
+ - `ddp_backend`: None
475
+ - `ddp_timeout`: 1800
476
+ - `fsdp`: []
477
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
478
+ - `deepspeed`: None
479
+ - `debug`: []
480
+ - `skip_memory_metrics`: True
481
+ - `do_predict`: False
482
+ - `resume_from_checkpoint`: None
483
+ - `warmup_ratio`: None
484
+ - `local_rank`: -1
485
+ - `prompts`: None
486
+ - `batch_sampler`: no_duplicates
487
+ - `multi_dataset_batch_sampler`: round_robin
488
+ - `router_mapping`: {}
489
+ - `learning_rate_mapping`: {}
490
+
491
+ </details>
492
+
493
+ ### Training Logs
494
+ | Epoch | Step | Training Loss | labeled_window_src_to_swe_cosine_ndcg@10 |
495
+ |:----------:|:-------:|:-------------:|:----------------------------------------:|
496
+ | -1 | -1 | - | 0.8389 |
497
+ | 0.0144 | 10 | 0.1641 | - |
498
+ | 0.0287 | 20 | 0.1596 | - |
499
+ | 0.0431 | 30 | 0.1378 | - |
500
+ | 0.0575 | 40 | 0.1260 | - |
501
+ | 0.0718 | 50 | 0.1097 | 0.8458 |
502
+ | 0.0862 | 60 | 0.0911 | - |
503
+ | 0.1006 | 70 | 0.0719 | - |
504
+ | 0.1149 | 80 | 0.0650 | - |
505
+ | 0.1293 | 90 | 0.0637 | - |
506
+ | **0.1437** | **100** | **0.0527** | **0.8528** |
507
+ | 0.1580 | 110 | 0.0641 | - |
508
+ | 0.1724 | 120 | 0.0708 | - |
509
+ | 0.1868 | 130 | 0.0572 | - |
510
+ | 0.2011 | 140 | 0.0578 | - |
511
+ | 0.2155 | 150 | 0.0685 | 0.8451 |
512
+ | 0.2299 | 160 | 0.0544 | - |
513
+ | 0.2443 | 170 | 0.0443 | - |
514
+ | 0.2586 | 180 | 0.0626 | - |
515
+ | 0.2730 | 190 | 0.0403 | - |
516
+ | 0.2874 | 200 | 0.0505 | 0.8490 |
517
+ | 0.3017 | 210 | 0.0440 | - |
518
+ | 0.3161 | 220 | 0.0422 | - |
519
+ | 0.3305 | 230 | 0.0476 | - |
520
+ | 0.3448 | 240 | 0.0409 | - |
521
+ | 0.3592 | 250 | 0.0334 | 0.8460 |
522
+ | 0.3736 | 260 | 0.0456 | - |
523
+ | 0.3879 | 270 | 0.0513 | - |
524
+ | 0.4023 | 280 | 0.0345 | - |
525
+ | 0.4167 | 290 | 0.0410 | - |
526
+ | 0.4310 | 300 | 0.0476 | 0.8467 |
527
+ | 0.4454 | 310 | 0.0335 | - |
528
+ | 0.4598 | 320 | 0.0375 | - |
529
+ | 0.4741 | 330 | 0.0346 | - |
530
+ | 0.4885 | 340 | 0.0364 | - |
531
+ | 0.5029 | 350 | 0.0334 | 0.8466 |
532
+ | 0.5172 | 360 | 0.0406 | - |
533
+ | 0.5316 | 370 | 0.0229 | - |
534
+ | 0.5460 | 380 | 0.0340 | - |
535
+ | 0.5603 | 390 | 0.0246 | - |
536
+ | 0.5747 | 400 | 0.0275 | 0.8451 |
537
+ | 0.5891 | 410 | 0.0322 | - |
538
+ | 0.6034 | 420 | 0.0366 | - |
539
+ | 0.6178 | 430 | 0.0294 | - |
540
+ | 0.6322 | 440 | 0.0301 | - |
541
+ | 0.6466 | 450 | 0.0251 | 0.8462 |
542
+ | 0.6609 | 460 | 0.0219 | - |
543
+ | 0.6753 | 470 | 0.0248 | - |
544
+ | 0.6897 | 480 | 0.0213 | - |
545
+ | 0.7040 | 490 | 0.0284 | - |
546
+ | 0.7184 | 500 | 0.0219 | 0.8451 |
547
+ | 0.7328 | 510 | 0.0294 | - |
548
+ | 0.7471 | 520 | 0.0302 | - |
549
+ | 0.7615 | 530 | 0.0296 | - |
550
+ | 0.7759 | 540 | 0.0263 | - |
551
+ | 0.7902 | 550 | 0.0259 | 0.8447 |
552
+ | 0.8046 | 560 | 0.0301 | - |
553
+ | 0.8190 | 570 | 0.0423 | - |
554
+ | 0.8333 | 580 | 0.0282 | - |
555
+ | 0.8477 | 590 | 0.0259 | - |
556
+ | 0.8621 | 600 | 0.0141 | 0.8435 |
557
+ | 0.8764 | 610 | 0.0248 | - |
558
+ | 0.8908 | 620 | 0.0291 | - |
559
+ | 0.9052 | 630 | 0.0381 | - |
560
+ | 0.9195 | 640 | 0.0328 | - |
561
+ | 0.9339 | 650 | 0.0269 | 0.8423 |
562
+ | 0.9483 | 660 | 0.0302 | - |
563
+ | 0.9626 | 670 | 0.0239 | - |
564
+ | 0.9770 | 680 | 0.0221 | - |
565
+ | 0.9914 | 690 | 0.0376 | - |
566
+
567
+ * The bold row denotes the saved checkpoint.
568
+
569
+ ### Framework Versions
570
+ - Python: 3.12.3
571
+ - Sentence Transformers: 5.3.0
572
+ - Transformers: 5.3.0
573
+ - PyTorch: 2.9.0+cu128
574
+ - Accelerate: 1.13.0
575
+ - Datasets: 4.8.5
576
+ - Tokenizers: 0.22.2
577
+
578
+ ## Citation
579
+
580
+ ### BibTeX
581
+
582
+ #### Sentence Transformers
583
+ ```bibtex
584
+ @inproceedings{reimers-2019-sentence-bert,
585
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
586
+ author = "Reimers, Nils and Gurevych, Iryna",
587
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
588
+ month = "11",
589
+ year = "2019",
590
+ publisher = "Association for Computational Linguistics",
591
+ url = "https://arxiv.org/abs/1908.10084",
592
+ }
593
+ ```
594
+
595
+ #### MultipleNegativesRankingLoss
596
+ ```bibtex
597
+ @misc{oord2019representationlearningcontrastivepredictive,
598
+ title={Representation Learning with Contrastive Predictive Coding},
599
+ author={Aaron van den Oord and Yazhe Li and Oriol Vinyals},
600
+ year={2019},
601
+ eprint={1807.03748},
602
+ archivePrefix={arXiv},
603
+ primaryClass={cs.LG},
604
+ url={https://arxiv.org/abs/1807.03748},
605
+ }
606
+ ```
607
+
608
+ <!--
609
+ ## Glossary
610
+
611
+ *Clearly define terms in order to be accessible across audiences.*
612
+ -->
613
+
614
+ <!--
615
+ ## Model Card Authors
616
+
617
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
618
+ -->
619
+
620
+ <!--
621
+ ## Model Card Contact
622
+
623
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
624
+ -->
config.json ADDED
@@ -0,0 +1,30 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_cross_attention": false,
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "dtype": "float32",
10
+ "eos_token_id": 2,
11
+ "hidden_act": "gelu",
12
+ "hidden_dropout_prob": 0.1,
13
+ "hidden_size": 1024,
14
+ "initializer_range": 0.02,
15
+ "intermediate_size": 4096,
16
+ "is_decoder": false,
17
+ "layer_norm_eps": 1e-05,
18
+ "max_position_embeddings": 8194,
19
+ "model_type": "xlm-roberta",
20
+ "num_attention_heads": 16,
21
+ "num_hidden_layers": 24,
22
+ "output_past": true,
23
+ "pad_token_id": 1,
24
+ "position_embedding_type": "absolute",
25
+ "tie_word_embeddings": true,
26
+ "transformers_version": "5.3.0",
27
+ "type_vocab_size": 1,
28
+ "use_cache": true,
29
+ "vocab_size": 250002
30
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "5.3.0",
4
+ "transformers": "5.3.0",
5
+ "pytorch": "2.9.0+cu128"
6
+ },
7
+ "model_type": "SentenceTransformer",
8
+ "prompts": {
9
+ "query": "",
10
+ "document": ""
11
+ },
12
+ "default_prompt_name": null,
13
+ "similarity_fn_name": "cosine"
14
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d45e613db7eeb9b37cd22772e8197b51b6e32190cea27ed95f87c86d8d35252e
3
+ size 2271064408
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 320,
3
+ "do_lower_case": false
4
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1beec8a56e32e8117bf92cfdb326d8a1ce19c10b8bf72f89404ae30a33805af7
3
+ size 17098338
tokenizer_config.json ADDED
@@ -0,0 +1,23 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_prefix_space": true,
3
+ "backend": "tokenizers",
4
+ "bos_token": "<s>",
5
+ "clean_up_tokenization_spaces": true,
6
+ "cls_token": "<s>",
7
+ "eos_token": "</s>",
8
+ "is_local": true,
9
+ "mask_token": "<mask>",
10
+ "max_length": 256,
11
+ "model_max_length": 192,
12
+ "pad_to_multiple_of": null,
13
+ "pad_token": "<pad>",
14
+ "pad_token_type_id": 0,
15
+ "padding_side": "right",
16
+ "sep_token": "</s>",
17
+ "sp_model_kwargs": {},
18
+ "stride": 0,
19
+ "tokenizer_class": "XLMRobertaTokenizer",
20
+ "truncation_side": "right",
21
+ "truncation_strategy": "longest_first",
22
+ "unk_token": "<unk>"
23
+ }