Sentence Similarity
sentence-transformers
Safetensors
Ancient Greek (to 1453)
Latin
Swedish
xlm-roberta
feature-extraction
bge-m3
cross-lingual
classical-philology
intertextuality
citation-detection
text-embeddings-inference
Instructions to use Ericu950/intertext-classical-swedish-window with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- sentence-transformers
How to use Ericu950/intertext-classical-swedish-window with sentence-transformers:
from sentence_transformers import SentenceTransformer model = SentenceTransformer("Ericu950/intertext-classical-swedish-window") sentences = [ "The weather is lovely today.", "It's so sunny outside!", "He drove to the stadium." ] embeddings = model.encode(sentences) similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [3, 3] - Notebooks
- Google Colab
- Kaggle
Initial release: v3-windows
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +10 -0
- README.md +624 -0
- config.json +30 -0
- config_sentence_transformers.json +14 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- tokenizer.json +3 -0
- tokenizer_config.json +23 -0
.gitattributes
CHANGED
|
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
| 33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
| 34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
| 35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
|
|
| 33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
| 34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
| 35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
| 36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
|
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"word_embedding_dimension": 1024,
|
| 3 |
+
"pooling_mode_cls_token": true,
|
| 4 |
+
"pooling_mode_mean_tokens": false,
|
| 5 |
+
"pooling_mode_max_tokens": false,
|
| 6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
| 7 |
+
"pooling_mode_weightedmean_tokens": false,
|
| 8 |
+
"pooling_mode_lasttoken": false,
|
| 9 |
+
"include_prompt": true
|
| 10 |
+
}
|
README.md
ADDED
|
@@ -0,0 +1,624 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
tags:
|
| 3 |
+
- sentence-transformers
|
| 4 |
+
- sentence-similarity
|
| 5 |
+
- feature-extraction
|
| 6 |
+
- dense
|
| 7 |
+
- generated_from_trainer
|
| 8 |
+
- dataset_size:70036
|
| 9 |
+
- loss:MultipleNegativesRankingLoss
|
| 10 |
+
- loss:OnlineContrastiveLoss
|
| 11 |
+
widget:
|
| 12 |
+
- source_sentence: ΣΩ. καλεῖς γὰρ δήπου φρονίμους τε καὶ ἄφρονας; ΑΛ. ἔγωγε. ΣΩ.
|
| 13 |
+
sentences:
|
| 14 |
+
- Du ämnar försvara de där galningarne som man kallar vederdöpare? OLOF djärvt.
|
| 15 |
+
Ja! GUSTAV Lugn! Du har gift dig helt hastigt?
|
| 16 |
+
- Men han var aldrig högdragen. Han saknade inte humor. Men den var av det billigare
|
| 17 |
+
slaget. Han var inte kvick. Men han förstod sig på skämt.
|
| 18 |
+
- Såhå, det var bra det. Du begynnar tala oanständigt, tror jag, så vacker du än
|
| 19 |
+
är. Men hvad säger du? – hvad yppar du? detta kallar jag välvilja i sista stund.
|
| 20 |
+
- source_sentence: οὐκ οἰκῶ. μηδʼ ἐν Ἀθήναις. οὐδʼ ἐν Ἀθήναις. μηδʼ ἐν Ῥώμῃ. οὐδʼ
|
| 21 |
+
ἐν Ῥώμῃ.
|
| 22 |
+
sentences:
|
| 23 |
+
- VIGGO. Så nämn ett medel då! – – ERNA. Hvarför inte ställa henne under förmyndare?
|
| 24 |
+
- Gå till Athen, där är din plats! – Till Athen? Aldrig! Jag litar icke på dem.
|
| 25 |
+
– Och de icke på dig, det passar!
|
| 26 |
+
- ”Hvad drägt bär han?” ”Det vet jag – ” ”Hvad tecken?” ”Jag klappar honom på axeln.”
|
| 27 |
+
”Hvem har vapnet?”
|
| 28 |
+
- source_sentence: οὐ πιστεύεις ὅτι ἐγὼ ἐν τῷ πατρὶ καὶ ὁ πατὴρ ἐν ἐμοί ἐστιν; τὰ
|
| 29 |
+
ῥήματα ἃ ἐγὼ λέγω ὑμῖν ἀπʼ ἐμαυτοῦ οὐ λαλῶ· ὁ δὲ πατὴρ ἐν ἐμοὶ μένων ποιεῖ τὰ
|
| 30 |
+
ἔργα αὐτοῦ. πιστεύετέ μοι ὅτι ἐγὼ ἐν τῷ πατρὶ καὶ ὁ πατὴρ ἐν ἐμοί· εἰ δὲ μή, διὰ
|
| 31 |
+
τὰ ἔργα αὐτὰ πιστεύετε.
|
| 32 |
+
sentences:
|
| 33 |
+
- »Matthan, som härstammade från Salomo födde Jakob. Sedan Matthan hade dött, så
|
| 34 |
+
födde Melchi som härstammade från Nathan, med samma kvinna Eli. Eli och Jakob
|
| 35 |
+
voro således bröder av en och samma moder. Sedan Eli hade dött barnlös, så uppväckte
|
| 36 |
+
åt honom Jakob säd, i det han födde Josef, som väl efter naturen var hans son,
|
| 37 |
+
men efter lagen Elis son. På detta sätt var alltså Josef bådas son.»
|
| 38 |
+
- '23 Den som förnekar Sonen har heller inte Fadern. Den som erkänner Sonen har
|
| 39 |
+
också Fadern. 24 Bevara det ni har hört från början. Om det ni har hört från början
|
| 40 |
+
finns i er förblir också ni för alltid bevarade i Sonen och i Fadern. 25 Och detta
|
| 41 |
+
är vad han själv lovade oss: det eviga livet.'
|
| 42 |
+
- 'Tror du icke att jag är i Fadern, och att Fadern är i mig? De ord jag talar till
|
| 43 |
+
eder talar jag icke av mig själv. Och gärningarna, dem gör Fadern, som bor i mig;
|
| 44 |
+
de äro hans verk. Tron mig: jag är i Fadern, och Fadern i mig. Varom icke, så
|
| 45 |
+
tron för själva gärningarnas skull”» (Joh. 14: 8–11).'
|
| 46 |
+
- source_sentence: ἦλθον οὖν οἱ στρατιῶται, καὶ τοῦ μὲν πρώτου κατέαξαν τὰ σκέλη καὶ
|
| 47 |
+
τοῦ ἄλλου τοῦ συνσταυρωθέντος αὐτῷ· ἐπὶ δὲ τὸν Ἰησοῦν ἐλθόντες, ὡς εἶδον ἤδη αὐτὸν
|
| 48 |
+
τεθνηκότα, οὐ κατέαξαν αὐτοῦ τὰ σκέλη, ἀλλʼ εἷς τῶν στρατιωτῶν λόγχῃ αὐτοῦ τὴν
|
| 49 |
+
πλευρὰν ἔνυξεν, καὶ ἐξῆλθεν εὐθὺς αἷμα καὶ ὕδωρ. καὶ ὁ ἑωρακὼς μεμαρτύρηκεν, καὶ
|
| 50 |
+
ἀληθινὴ αὐτοῦ ἐστὶν ἡ μαρτυρία, καὶ ἐκεῖνος οἶδεν ὅτι ἀληθῆ λέγει, ἵνα καὶ ὑμεῖς
|
| 51 |
+
πιστεύητε. ἐγένετο γὰρ ταῦτα ἵνα ἡ γραφὴ πληρωθῇ Ὀστοῦν οὐ συντριβήσεται αὐτοῦ.
|
| 52 |
+
καὶ πάλιν ἑτέρα γραφὴ λέγει Ὄψονται εἰς ὃν ἐξεκέντησαν.
|
| 53 |
+
sentences:
|
| 54 |
+
- 'Så kommo då krigsmännen och slogo sönder den förstes ben och sedan den andres,
|
| 55 |
+
som var korsfäst med honom. När de därefter kommo till Jesus och sågo honom redan
|
| 56 |
+
vara död, slogo de icke sönder hans ben; men en av krigsmännen stack upp hans
|
| 57 |
+
sida med ett spjut, och strax kom därifrån ut blod och vatten. Och den som har
|
| 58 |
+
sett detta, han har vittnat därom, för att ock I skolen tro; och hans vittnesbörd
|
| 59 |
+
är sant, och han vet att han talar sanning. Ty detta skedde, för att skriftens
|
| 60 |
+
ord skulle fullbordas: »Intet ben skall sönderslås på honom.»'
|
| 61 |
+
- 'Och de som gingo före och de som följde efter ropade: ”Hosianna! Välsignad vare
|
| 62 |
+
han som kommer, i Herrens namn. Välsignat vare vår fader Davids rike, som nu kommer.
|
| 63 |
+
Hosianna i höjden.” Så drog han in i Jerusalem och kom in i helgedomen» (Mark.
|
| 64 |
+
11: 1–11).'
|
| 65 |
+
- 'De svarade: ”Vi har inte ens hört att det finns någon helig ande.” — 3 ”Vilket
|
| 66 |
+
dop blev ni då döpta med?” frågade Paulus, och de svarade: ”Johannesdopet.” 4
|
| 67 |
+
Paulus sade: ”Johannes dop var ett omvändelsedop, och han uppmanade folket att
|
| 68 |
+
tro på den som skulle komma efter honom, det vill säga Jesus.” 5 Då lät de döpa
|
| 69 |
+
sig i herren Jesu namn. 6 Och när Paulus lade sina händer på dem kom den heliga
|
| 70 |
+
anden över dem, och de talade med tungor och profeterade.'
|
| 71 |
+
- source_sentence: καὶ προσκαλεσάμενος αὐτοὺς ὁ Ἰησοῦς λέγει αὐτοῖς Οἴδατε ὅτι οἱ
|
| 72 |
+
δοκοῦντες ἄρχειν τῶν ἐθνῶν κατακυριεύουσιν αὐτῶν καὶ οἱ μεγάλοι αὐτῶν κατεξουσιάζουσιν
|
| 73 |
+
αὐτῶν. οὐχ οὕτως δέ ἐστιν ἐν ὑμῖν· ἀλλʼ ὃς ἂν θέλῃ μέγας γενέσθαι ἐν ὑμῖν, ἔσται
|
| 74 |
+
ὑμῶν διάκονος, καὶ ὃς ἂν θέλῃ ἐν ὑμῖν εἶναι πρῶτος, ἔσται πάντων δοῦλος· καὶ γὰρ
|
| 75 |
+
ὁ υἱὸς τοῦ ἀνθρώπου οὐκ ἦλθεν διακονηθῆναι ἀλλὰ διακονῆσαι καὶ δοῦναι τὴν ψυχὴν
|
| 76 |
+
αὐτοῦ λύτρον ἀντὶ πολλῶν. Καὶ ἔρχονται εἰς Ἰερειχώ. Καὶ ἐκπορευομένου αὐτοῦ ἀπὸ
|
| 77 |
+
Ἰερειχὼ καὶ τῶν μαθητῶν αὐτοῦ καὶ ὄχλου ἱκανοῦ ὁ υἱὸς Τιμαίου Βαρτίμαιος τυφλὸς
|
| 78 |
+
προσαίτης ἐκάθητο παρὰ τὴν ὁδόν.
|
| 79 |
+
sentences:
|
| 80 |
+
- 'Då kallade Jesus dem till sig och sade till dem: ’I veten att de som räknas för
|
| 81 |
+
folkens furstar uppträda mot dem såsom herrar, och att deras mäktige låta dem
|
| 82 |
+
känna sin myndighet. Men så är det icke bland eder; utan den som vill bliva störst
|
| 83 |
+
bland eder, han vare de andras tjänare, och den som vill vara främst bland eder,
|
| 84 |
+
han vare allas dräng. Också Människosonen har ju kommit icke för att låta tjäna
|
| 85 |
+
sig, utan för att tjäna och för att giva sitt liv till lösen för många.’» I den
|
| 86 |
+
ordknappa Markustexten verkar den förmätna begäran Sebedei söner framställde som
|
| 87 |
+
ett slag för ansiktet. Den kommer oförmedlad, direkt efter Jesu undervisning om
|
| 88 |
+
lidandet.'
|
| 89 |
+
- Den stora framgångens människor äro realister och fatalister. Människoförbättrarens
|
| 90 |
+
uppgift är icke att predika moral, men att förändra människans inre genom att
|
| 91 |
+
omgestalta de yttre betingelserna för mänsklighetens moraliska hälsa. Moralen
|
| 92 |
+
har börjat där, var hon skulle sluta, d.v.s. med att giva den efter förfullkomning
|
| 93 |
+
längtande en ledtråd. Hittills har allting skett för enskilda, religionerna ha
|
| 94 |
+
i djupare mening endast kommit till enskilda, nu kan man skönja den tid då massan
|
| 95 |
+
skall bearbetas. De små människorna äro rätt sinnliga på sitt sätt, på ett förnöjsamt
|
| 96 |
+
sätt som ett stort temperament icke kan uthärda.
|
| 97 |
+
- 'Vart icke Abraham vår fader, rättfärdiggjord genom gärningar, då han bar sin
|
| 98 |
+
son Isak upp på altaret? Du ser, att tron medverkade med hans gärningar, och att
|
| 99 |
+
genom gärningarna vart tron fullkomnad och skriften uppfylld, som säjer: Men Abraham
|
| 100 |
+
trodde Gud, och det vart honom räknat till rättfärdighet, och han vart kallad
|
| 101 |
+
Guds vän. I sen att en människa bliver rättfärdigad av gärningar och icke av tro
|
| 102 |
+
allenast. Och vart icke på samma sätt skökan Rahab rättfärdigad av gärningar,
|
| 103 |
+
då hon mottog sändebuden och släppte ut dem en annan väg?'
|
| 104 |
+
pipeline_tag: sentence-similarity
|
| 105 |
+
library_name: sentence-transformers
|
| 106 |
+
metrics:
|
| 107 |
+
- cosine_accuracy@1
|
| 108 |
+
- cosine_accuracy@5
|
| 109 |
+
- cosine_accuracy@10
|
| 110 |
+
- cosine_accuracy@25
|
| 111 |
+
- cosine_precision@1
|
| 112 |
+
- cosine_precision@5
|
| 113 |
+
- cosine_precision@10
|
| 114 |
+
- cosine_precision@25
|
| 115 |
+
- cosine_precision@100
|
| 116 |
+
- cosine_recall@1
|
| 117 |
+
- cosine_recall@5
|
| 118 |
+
- cosine_recall@10
|
| 119 |
+
- cosine_recall@25
|
| 120 |
+
- cosine_recall@100
|
| 121 |
+
- cosine_ndcg@10
|
| 122 |
+
- cosine_mrr@10
|
| 123 |
+
- cosine_map@100
|
| 124 |
+
model-index:
|
| 125 |
+
- name: SentenceTransformer
|
| 126 |
+
results:
|
| 127 |
+
- task:
|
| 128 |
+
type: information-retrieval
|
| 129 |
+
name: Information Retrieval
|
| 130 |
+
dataset:
|
| 131 |
+
name: labeled window src to swe
|
| 132 |
+
type: labeled_window_src_to_swe
|
| 133 |
+
metrics:
|
| 134 |
+
- type: cosine_accuracy@1
|
| 135 |
+
value: 0.6348773841961853
|
| 136 |
+
name: Cosine Accuracy@1
|
| 137 |
+
- type: cosine_accuracy@5
|
| 138 |
+
value: 0.997275204359673
|
| 139 |
+
name: Cosine Accuracy@5
|
| 140 |
+
- type: cosine_accuracy@10
|
| 141 |
+
value: 1.0
|
| 142 |
+
name: Cosine Accuracy@10
|
| 143 |
+
- type: cosine_accuracy@25
|
| 144 |
+
value: 1.0
|
| 145 |
+
name: Cosine Accuracy@25
|
| 146 |
+
- type: cosine_precision@1
|
| 147 |
+
value: 0.6348773841961853
|
| 148 |
+
name: Cosine Precision@1
|
| 149 |
+
- type: cosine_precision@5
|
| 150 |
+
value: 0.19945504087193458
|
| 151 |
+
name: Cosine Precision@5
|
| 152 |
+
- type: cosine_precision@10
|
| 153 |
+
value: 0.09999999999999996
|
| 154 |
+
name: Cosine Precision@10
|
| 155 |
+
- type: cosine_precision@25
|
| 156 |
+
value: 0.039999999999999994
|
| 157 |
+
name: Cosine Precision@25
|
| 158 |
+
- type: cosine_precision@100
|
| 159 |
+
value: 0.009999999999999998
|
| 160 |
+
name: Cosine Precision@100
|
| 161 |
+
- type: cosine_recall@1
|
| 162 |
+
value: 0.6348773841961853
|
| 163 |
+
name: Cosine Recall@1
|
| 164 |
+
- type: cosine_recall@5
|
| 165 |
+
value: 0.997275204359673
|
| 166 |
+
name: Cosine Recall@5
|
| 167 |
+
- type: cosine_recall@10
|
| 168 |
+
value: 1.0
|
| 169 |
+
name: Cosine Recall@10
|
| 170 |
+
- type: cosine_recall@25
|
| 171 |
+
value: 1.0
|
| 172 |
+
name: Cosine Recall@25
|
| 173 |
+
- type: cosine_recall@100
|
| 174 |
+
value: 1.0
|
| 175 |
+
name: Cosine Recall@100
|
| 176 |
+
- type: cosine_ndcg@10
|
| 177 |
+
value: 0.8422597425051636
|
| 178 |
+
name: Cosine Ndcg@10
|
| 179 |
+
- type: cosine_mrr@10
|
| 180 |
+
value: 0.7886315470784138
|
| 181 |
+
name: Cosine Mrr@10
|
| 182 |
+
- type: cosine_map@100
|
| 183 |
+
value: 0.7886315470784137
|
| 184 |
+
name: Cosine Map@100
|
| 185 |
+
---
|
| 186 |
+
|
| 187 |
+
# SentenceTransformer
|
| 188 |
+
|
| 189 |
+
This is a [sentence-transformers](https://www.SBERT.net) model trained on the triplets and pairs datasets. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
| 190 |
+
|
| 191 |
+
## Model Details
|
| 192 |
+
|
| 193 |
+
### Model Description
|
| 194 |
+
- **Model Type:** Sentence Transformer
|
| 195 |
+
<!-- - **Base model:** [Unknown](https://huggingface.co/unknown) -->
|
| 196 |
+
- **Maximum Sequence Length:** 320 tokens
|
| 197 |
+
- **Output Dimensionality:** 1024 dimensions
|
| 198 |
+
- **Similarity Function:** Cosine Similarity
|
| 199 |
+
- **Training Datasets:**
|
| 200 |
+
- triplets
|
| 201 |
+
- pairs
|
| 202 |
+
<!-- - **Language:** Unknown -->
|
| 203 |
+
<!-- - **License:** Unknown -->
|
| 204 |
+
|
| 205 |
+
### Model Sources
|
| 206 |
+
|
| 207 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
| 208 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
|
| 209 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
| 210 |
+
|
| 211 |
+
### Full Model Architecture
|
| 212 |
+
|
| 213 |
+
```
|
| 214 |
+
SentenceTransformer(
|
| 215 |
+
(0): Transformer({'max_seq_length': 320, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
|
| 216 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
| 217 |
+
(2): Normalize()
|
| 218 |
+
)
|
| 219 |
+
```
|
| 220 |
+
|
| 221 |
+
## Usage
|
| 222 |
+
|
| 223 |
+
### Direct Usage (Sentence Transformers)
|
| 224 |
+
|
| 225 |
+
First install the Sentence Transformers library:
|
| 226 |
+
|
| 227 |
+
```bash
|
| 228 |
+
pip install -U sentence-transformers
|
| 229 |
+
```
|
| 230 |
+
|
| 231 |
+
Then you can load this model and run inference.
|
| 232 |
+
```python
|
| 233 |
+
from sentence_transformers import SentenceTransformer
|
| 234 |
+
|
| 235 |
+
# Download from the 🤗 Hub
|
| 236 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
| 237 |
+
# Run inference
|
| 238 |
+
sentences = [
|
| 239 |
+
'καὶ προσκαλεσάμενος αὐτοὺς ὁ Ἰησοῦς λέγει αὐτοῖς Οἴδατε ὅτι οἱ δοκοῦντες ἄρχειν τῶν ἐθνῶν κατακυριεύουσιν αὐτῶν καὶ οἱ μεγάλοι αὐτῶν κατεξουσιάζουσιν αὐτῶν. οὐχ οὕτως δέ ἐστιν ἐν ὑμῖν· ἀλλʼ ὃς ἂν θέλῃ μέγας γενέσθαι ἐν ὑμῖν, ἔσται ὑμῶν διάκονος, καὶ ὃς ἂν θέλῃ ἐν ὑμῖν εἶναι πρῶτος, ἔσται πάντων δοῦλος· καὶ γὰρ ὁ υἱὸς τοῦ ἀνθρώπου οὐκ ἦλθεν διακονηθῆναι ἀλλὰ διακονῆσαι καὶ δοῦναι τὴν ψυχὴν αὐτοῦ λύτρον ἀντὶ πολλῶν. Καὶ ἔρχονται εἰς Ἰερειχώ. Καὶ ἐκπορευομένου αὐτοῦ ἀπὸ Ἰερειχὼ καὶ τῶν μαθητῶν αὐτοῦ καὶ ὄχλου ἱκανοῦ ὁ υἱὸς Τιμαίου Βαρτίμαιος τυφλὸς προσαίτης ἐκάθητο παρὰ τὴν ὁδόν.',
|
| 240 |
+
'Då kallade Jesus dem till sig och sade till dem: ’I veten att de som räknas för folkens furstar uppträda mot dem såsom herrar, och att deras mäktige låta dem känna sin myndighet. Men så är det icke bland eder; utan den som vill bliva störst bland eder, han vare de andras tjänare, och den som vill vara främst bland eder, han vare allas dräng. Också Människosonen har ju kommit icke för att låta tjäna sig, utan för att tjäna och för att giva sitt liv till lösen för många.’» I den ordknappa Markustexten verkar den förmätna begäran Sebedei söner framställde som ett slag för ansiktet. Den kommer oförmedlad, direkt efter Jesu undervisning om lidandet.',
|
| 241 |
+
'Den stora framgångens människor äro realister och fatalister. Människoförbättrarens uppgift är icke att predika moral, men att förändra människans inre genom att omgestalta de yttre betingelserna för mänsklighetens moraliska hälsa. Moralen har börjat där, var hon skulle sluta, d.v.s. med att giva den efter förfullkomning längtande en ledtråd. Hittills har allting skett för enskilda, religionerna ha i djupare mening endast kommit till enskilda, nu kan man skönja den tid då massan skall bearbetas. De små människorna äro rätt sinnliga på sitt sätt, på ett förnöjsamt sätt som ett stort temperament icke kan uthärda.',
|
| 242 |
+
]
|
| 243 |
+
embeddings = model.encode(sentences)
|
| 244 |
+
print(embeddings.shape)
|
| 245 |
+
# [3, 1024]
|
| 246 |
+
|
| 247 |
+
# Get the similarity scores for the embeddings
|
| 248 |
+
similarities = model.similarity(embeddings, embeddings)
|
| 249 |
+
print(similarities)
|
| 250 |
+
# tensor([[1.0000, 0.6757, 0.3392],
|
| 251 |
+
# [0.6757, 1.0000, 0.2150],
|
| 252 |
+
# [0.3392, 0.2150, 1.0000]])
|
| 253 |
+
```
|
| 254 |
+
|
| 255 |
+
<!--
|
| 256 |
+
### Direct Usage (Transformers)
|
| 257 |
+
|
| 258 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
| 259 |
+
|
| 260 |
+
</details>
|
| 261 |
+
-->
|
| 262 |
+
|
| 263 |
+
<!--
|
| 264 |
+
### Downstream Usage (Sentence Transformers)
|
| 265 |
+
|
| 266 |
+
You can finetune this model on your own dataset.
|
| 267 |
+
|
| 268 |
+
<details><summary>Click to expand</summary>
|
| 269 |
+
|
| 270 |
+
</details>
|
| 271 |
+
-->
|
| 272 |
+
|
| 273 |
+
<!--
|
| 274 |
+
### Out-of-Scope Use
|
| 275 |
+
|
| 276 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
| 277 |
+
-->
|
| 278 |
+
|
| 279 |
+
## Evaluation
|
| 280 |
+
|
| 281 |
+
### Metrics
|
| 282 |
+
|
| 283 |
+
#### Information Retrieval
|
| 284 |
+
|
| 285 |
+
* Dataset: `labeled_window_src_to_swe`
|
| 286 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
|
| 287 |
+
|
| 288 |
+
| Metric | Value |
|
| 289 |
+
|:---------------------|:-----------|
|
| 290 |
+
| cosine_accuracy@1 | 0.6349 |
|
| 291 |
+
| cosine_accuracy@5 | 0.9973 |
|
| 292 |
+
| cosine_accuracy@10 | 1.0 |
|
| 293 |
+
| cosine_accuracy@25 | 1.0 |
|
| 294 |
+
| cosine_precision@1 | 0.6349 |
|
| 295 |
+
| cosine_precision@5 | 0.1995 |
|
| 296 |
+
| cosine_precision@10 | 0.1 |
|
| 297 |
+
| cosine_precision@25 | 0.04 |
|
| 298 |
+
| cosine_precision@100 | 0.01 |
|
| 299 |
+
| cosine_recall@1 | 0.6349 |
|
| 300 |
+
| cosine_recall@5 | 0.9973 |
|
| 301 |
+
| cosine_recall@10 | 1.0 |
|
| 302 |
+
| cosine_recall@25 | 1.0 |
|
| 303 |
+
| cosine_recall@100 | 1.0 |
|
| 304 |
+
| **cosine_ndcg@10** | **0.8423** |
|
| 305 |
+
| cosine_mrr@10 | 0.7886 |
|
| 306 |
+
| cosine_map@100 | 0.7886 |
|
| 307 |
+
|
| 308 |
+
<!--
|
| 309 |
+
## Bias, Risks and Limitations
|
| 310 |
+
|
| 311 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
| 312 |
+
-->
|
| 313 |
+
|
| 314 |
+
<!--
|
| 315 |
+
### Recommendations
|
| 316 |
+
|
| 317 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
| 318 |
+
-->
|
| 319 |
+
|
| 320 |
+
## Training Details
|
| 321 |
+
|
| 322 |
+
### Training Datasets
|
| 323 |
+
|
| 324 |
+
#### triplets
|
| 325 |
+
|
| 326 |
+
* Dataset: triplets
|
| 327 |
+
* Size: 22,275 training samples
|
| 328 |
+
* Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
|
| 329 |
+
* Approximate statistics based on the first 1000 samples:
|
| 330 |
+
| | anchor | positive | negative |
|
| 331 |
+
|:--------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
| 332 |
+
| type | string | string | string |
|
| 333 |
+
| details | <ul><li>min: 45 tokens</li><li>mean: 217.72 tokens</li><li>max: 320 tokens</li></ul> | <ul><li>min: 33 tokens</li><li>mean: 115.9 tokens</li><li>max: 247 tokens</li></ul> | <ul><li>min: 19 tokens</li><li>mean: 139.85 tokens</li><li>max: 320 tokens</li></ul> |
|
| 334 |
+
* Samples:
|
| 335 |
+
| anchor | positive | negative |
|
| 336 |
+
|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
| 337 |
+
| <code>ὁ οὖν ἐπιχορηγῶν ὑμῖν τὸ πνεῦμα καὶ ἐνεργῶν δυνάμεις ἐν ὑμῖν ἐξ ἔργων νόμου ἢ ἐξ ἀκοῆς πίστεως; καθὼς Ἀβραὰμ ἐπίστευσεν τῷ θεῷ, καὶ ἐλογίσθη αὐτῷ εἰς δικαιοσύνην. Γινώσκετε ἄρα ὅτι οἱ ἐκ πίστεως, οὗτοι υἱοί εἰσιν Ἀβραάμ. προϊδοῦσα δὲ ἡ γραφὴ ὅτι ἐκ πίστεως δικαιοῖ τὰ ἔθνη ὁ θεὸς προευηγγελίσατο τῷ Ἀβραὰμ ὅτι Ἐνευλογηθήσονται ἐν σοὶ πάντα τὰ ἔθνη. ὥστε οἱ ἐκ πίστεως εὐλογοῦνται σὺν τῷ πιστῷ Ἀβραάμ.</code> | <code>Den som giver eder anden och verkar kraften bland eder, gör han det genom lagens gärningar, eller genom trons predikan? – – – Abraham trodde Gud, och det vart honom räknat till rättfärdighet. Veten därför, att de som äro av tron, de äro Abrahams barn. Och emedan skriften förutsåg, att det är genom tron som Gud gör hedningarne rättfärdiga, så gav han i förväg åt Abraham detta glada budskap: I dig skola alla folk varda välsignade.</code> | <code>23. I. Trones rättferdighet bewises af Abrahams exempel/ rc. H Wad säije wij tå/ wår fader 14704 Abraham efter kötet hafwa funnet? 2. Thet säije wij: Är Abraham rättferdig worden af gierningarna/ så hafwer han thet han må beröma sigh af; men icke för Gudi. 3. Men hwad säger Skriften?</code> |
|
| 338 |
+
| <code>ὁ οὖν ἐπιχορηγῶν ὑμῖν τὸ πνεῦμα καὶ ἐνεργῶν δυνάμεις ἐν ὑμῖν ἐξ ἔργων νόμου ἢ ἐξ ἀκοῆς πίστεως; καθὼς Ἀβραὰμ ἐπίστευσεν τῷ θεῷ, καὶ ἐλογίσθη αὐτῷ εἰς δικαιοσύνην. Γινώσκετε ἄρα ὅτι οἱ ἐκ πίστεως, οὗτοι υἱοί εἰσιν Ἀβραάμ. προϊδοῦσα δὲ ἡ γραφὴ ὅτι ἐκ πίστεως δικαιοῖ τὰ ἔθνη ὁ θεὸς προευηγγελίσατο τῷ Ἀβραὰμ ὅτι Ἐνευλογηθήσονται ἐν σοὶ πάντα τὰ ἔθνη. ὥστε οἱ ἐκ πίστεως εὐλογοῦνται σὺν τῷ πιστῷ Ἀβραάμ.</code> | <code>Den som giver eder anden och verkar kraften bland eder, gör han det genom lagens gärningar, eller genom trons predikan? – – – Abraham trodde Gud, och det vart honom räknat till rättfärdighet. Veten därför, att de som äro av tron, de äro Abrahams barn. Och emedan skriften förutsåg, att det är genom tron som Gud gör hedningarne rättfärdiga, så gav han i förväg åt Abraham detta glada budskap: I dig skola alla folk varda välsignade.</code> | <code>20 Men inser du inte, tanklösa människa, att tro utan gärningar är utan verkan? 21 Blev inte vår fader Abraham rättfärdig genom gärningar när han lade sin son Isak som offer på altaret? 22 Du ser att hans tro samverkade med hans gärningar och att det var genom gärningarna som hans tro blev fullkomlig. 23 Så uppfylldes skriftens ord: Abraham trodde på Gud och därför räknades han som rättfärdig , och han kallades Guds vän. 24 Ni ser att människan blir rättfärdig genom gärningar och inte bara genom tro.</code> |
|
| 339 |
+
| <code>ὁ οὖν ἐπιχορηγῶν ὑμῖν τὸ πνεῦμα κα��� ἐνεργῶν δυνάμεις ἐν ὑμῖν ἐξ ἔργων νόμου ἢ ἐξ ἀκοῆς πίστεως; καθὼς Ἀβραὰμ ἐπίστευσεν τῷ θεῷ, καὶ ἐλογίσθη αὐτῷ εἰς δικαιοσύνην. Γινώσκετε ἄρα ὅτι οἱ ἐκ πίστεως, οὗτοι υἱοί εἰσιν Ἀβραάμ. προϊδοῦσα δὲ ἡ γραφὴ ὅτι ἐκ πίστεως δικαιοῖ τὰ ἔθνη ὁ θεὸς προευηγγελίσατο τῷ Ἀβραὰμ ὅτι Ἐνευλογηθήσονται ἐν σοὶ πάντα τὰ ἔθνη. ὥστε οἱ ἐκ πίστεως εὐλογοῦνται σὺν τῷ πιστῷ Ἀβραάμ.</code> | <code>Den som giver eder anden och verkar kraften bland eder, gör han det genom lagens gärningar, eller genom trons predikan? – – – Abraham trodde Gud, och det vart honom räknat till rättfärdighet. Veten därför, att de som äro av tron, de äro Abrahams barn. Och emedan skriften förutsåg, att det är genom tron som Gud gör hedningarne rättfärdiga, så gav han i förväg åt Abraham detta glada budskap: I dig skola alla folk varda välsignade.</code> | <code>26 Alla är ni nämligen genom tron Guds söner, i Kristus Jesus. 27 Är ni döpta in i Kristus har ni också iklätt er Kristus. 28 Nu är ingen längre jude eller grek, slav eller fri, man eller kvinna. Alla är ni ett i Kristus Jesus. 29 Men om ni tillhör Kristus är ni också avkomlingar till Abraham och arvtagare enligt löftet.</code> |
|
| 340 |
+
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
| 341 |
+
```json
|
| 342 |
+
{
|
| 343 |
+
"scale": 20.0,
|
| 344 |
+
"similarity_fct": "cos_sim",
|
| 345 |
+
"gather_across_devices": false,
|
| 346 |
+
"directions": [
|
| 347 |
+
"query_to_doc"
|
| 348 |
+
],
|
| 349 |
+
"partition_mode": "joint",
|
| 350 |
+
"hardness_mode": null,
|
| 351 |
+
"hardness_strength": 0.0
|
| 352 |
+
}
|
| 353 |
+
```
|
| 354 |
+
|
| 355 |
+
#### pairs
|
| 356 |
+
|
| 357 |
+
* Dataset: pairs
|
| 358 |
+
* Size: 47,761 training samples
|
| 359 |
+
* Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>label</code>
|
| 360 |
+
* Approximate statistics based on the first 1000 samples:
|
| 361 |
+
| | sentence1 | sentence2 | label |
|
| 362 |
+
|:--------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-----------------------------|
|
| 363 |
+
| type | string | string | int |
|
| 364 |
+
| details | <ul><li>min: 22 tokens</li><li>mean: 92.94 tokens</li><li>max: 320 tokens</li></ul> | <ul><li>min: 17 tokens</li><li>mean: 56.98 tokens</li><li>max: 320 tokens</li></ul> | <ul><li>0: 100.00%</li></ul> |
|
| 365 |
+
* Samples:
|
| 366 |
+
| sentence1 | sentence2 | label |
|
| 367 |
+
|:-------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------|:---------------|
|
| 368 |
+
| <code>τίνος; ἆρά γε ἵππου; — οὔ. — ἀλλὰ βοός; — οὔ.</code> | <code>Har han häst? Tora. Han nej! Neej. Vad skulle han med häst?</code> | <code>0</code> |
|
| 369 |
+
| <code>ἀλλʼ ἀδύνατον, εἰπεῖν. ἀλλὰ τινός; ναί. ὄντος ἢ οὐκ ὄντος; ὄντος.</code> | <code>Det är omöjligt. — Men om det ändå är möjligt? — Nej. — Men om det är möjligt trots allt? — Nej, det är inte möjligt.</code> | <code>0</code> |
|
| 370 |
+
| <code>τίνος; ἆρά γε ἵππου; — οὔ. — ἀλλὰ βοός; — οὔ.</code> | <code>Magnus. Har han häst? Tora. Han nej! Neej.</code> | <code>0</code> |
|
| 371 |
+
* Loss: [<code>OnlineContrastiveLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#onlinecontrastiveloss)
|
| 372 |
+
|
| 373 |
+
### Training Hyperparameters
|
| 374 |
+
#### Non-Default Hyperparameters
|
| 375 |
+
|
| 376 |
+
- `per_device_train_batch_size`: 16
|
| 377 |
+
- `num_train_epochs`: 1.0
|
| 378 |
+
- `learning_rate`: 2e-06
|
| 379 |
+
- `warmup_steps`: 0.05
|
| 380 |
+
- `bf16`: True
|
| 381 |
+
- `eval_strategy`: steps
|
| 382 |
+
- `per_device_eval_batch_size`: 64
|
| 383 |
+
- `load_best_model_at_end`: True
|
| 384 |
+
- `dataloader_drop_last`: True
|
| 385 |
+
- `dataloader_num_workers`: 4
|
| 386 |
+
- `ddp_find_unused_parameters`: True
|
| 387 |
+
- `batch_sampler`: no_duplicates
|
| 388 |
+
- `multi_dataset_batch_sampler`: round_robin
|
| 389 |
+
|
| 390 |
+
#### All Hyperparameters
|
| 391 |
+
<details><summary>Click to expand</summary>
|
| 392 |
+
|
| 393 |
+
- `per_device_train_batch_size`: 16
|
| 394 |
+
- `num_train_epochs`: 1.0
|
| 395 |
+
- `max_steps`: -1
|
| 396 |
+
- `learning_rate`: 2e-06
|
| 397 |
+
- `lr_scheduler_type`: linear
|
| 398 |
+
- `lr_scheduler_kwargs`: None
|
| 399 |
+
- `warmup_steps`: 0.05
|
| 400 |
+
- `optim`: adamw_torch_fused
|
| 401 |
+
- `optim_args`: None
|
| 402 |
+
- `weight_decay`: 0.0
|
| 403 |
+
- `adam_beta1`: 0.9
|
| 404 |
+
- `adam_beta2`: 0.999
|
| 405 |
+
- `adam_epsilon`: 1e-08
|
| 406 |
+
- `optim_target_modules`: None
|
| 407 |
+
- `gradient_accumulation_steps`: 1
|
| 408 |
+
- `average_tokens_across_devices`: True
|
| 409 |
+
- `max_grad_norm`: 1.0
|
| 410 |
+
- `label_smoothing_factor`: 0.0
|
| 411 |
+
- `bf16`: True
|
| 412 |
+
- `fp16`: False
|
| 413 |
+
- `bf16_full_eval`: False
|
| 414 |
+
- `fp16_full_eval`: False
|
| 415 |
+
- `tf32`: None
|
| 416 |
+
- `gradient_checkpointing`: False
|
| 417 |
+
- `gradient_checkpointing_kwargs`: None
|
| 418 |
+
- `torch_compile`: False
|
| 419 |
+
- `torch_compile_backend`: None
|
| 420 |
+
- `torch_compile_mode`: None
|
| 421 |
+
- `use_liger_kernel`: False
|
| 422 |
+
- `liger_kernel_config`: None
|
| 423 |
+
- `use_cache`: False
|
| 424 |
+
- `neftune_noise_alpha`: None
|
| 425 |
+
- `torch_empty_cache_steps`: None
|
| 426 |
+
- `auto_find_batch_size`: False
|
| 427 |
+
- `log_on_each_node`: True
|
| 428 |
+
- `logging_nan_inf_filter`: True
|
| 429 |
+
- `include_num_input_tokens_seen`: no
|
| 430 |
+
- `log_level`: passive
|
| 431 |
+
- `log_level_replica`: warning
|
| 432 |
+
- `disable_tqdm`: False
|
| 433 |
+
- `project`: huggingface
|
| 434 |
+
- `trackio_space_id`: trackio
|
| 435 |
+
- `eval_strategy`: steps
|
| 436 |
+
- `per_device_eval_batch_size`: 64
|
| 437 |
+
- `prediction_loss_only`: True
|
| 438 |
+
- `eval_on_start`: False
|
| 439 |
+
- `eval_do_concat_batches`: True
|
| 440 |
+
- `eval_use_gather_object`: False
|
| 441 |
+
- `eval_accumulation_steps`: None
|
| 442 |
+
- `include_for_metrics`: []
|
| 443 |
+
- `batch_eval_metrics`: False
|
| 444 |
+
- `save_only_model`: False
|
| 445 |
+
- `save_on_each_node`: False
|
| 446 |
+
- `enable_jit_checkpoint`: False
|
| 447 |
+
- `push_to_hub`: False
|
| 448 |
+
- `hub_private_repo`: None
|
| 449 |
+
- `hub_model_id`: None
|
| 450 |
+
- `hub_strategy`: every_save
|
| 451 |
+
- `hub_always_push`: False
|
| 452 |
+
- `hub_revision`: None
|
| 453 |
+
- `load_best_model_at_end`: True
|
| 454 |
+
- `ignore_data_skip`: False
|
| 455 |
+
- `restore_callback_states_from_checkpoint`: False
|
| 456 |
+
- `full_determinism`: False
|
| 457 |
+
- `seed`: 42
|
| 458 |
+
- `data_seed`: None
|
| 459 |
+
- `use_cpu`: False
|
| 460 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
| 461 |
+
- `parallelism_config`: None
|
| 462 |
+
- `dataloader_drop_last`: True
|
| 463 |
+
- `dataloader_num_workers`: 4
|
| 464 |
+
- `dataloader_pin_memory`: True
|
| 465 |
+
- `dataloader_persistent_workers`: False
|
| 466 |
+
- `dataloader_prefetch_factor`: None
|
| 467 |
+
- `remove_unused_columns`: True
|
| 468 |
+
- `label_names`: None
|
| 469 |
+
- `train_sampling_strategy`: random
|
| 470 |
+
- `length_column_name`: length
|
| 471 |
+
- `ddp_find_unused_parameters`: True
|
| 472 |
+
- `ddp_bucket_cap_mb`: None
|
| 473 |
+
- `ddp_broadcast_buffers`: False
|
| 474 |
+
- `ddp_backend`: None
|
| 475 |
+
- `ddp_timeout`: 1800
|
| 476 |
+
- `fsdp`: []
|
| 477 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
| 478 |
+
- `deepspeed`: None
|
| 479 |
+
- `debug`: []
|
| 480 |
+
- `skip_memory_metrics`: True
|
| 481 |
+
- `do_predict`: False
|
| 482 |
+
- `resume_from_checkpoint`: None
|
| 483 |
+
- `warmup_ratio`: None
|
| 484 |
+
- `local_rank`: -1
|
| 485 |
+
- `prompts`: None
|
| 486 |
+
- `batch_sampler`: no_duplicates
|
| 487 |
+
- `multi_dataset_batch_sampler`: round_robin
|
| 488 |
+
- `router_mapping`: {}
|
| 489 |
+
- `learning_rate_mapping`: {}
|
| 490 |
+
|
| 491 |
+
</details>
|
| 492 |
+
|
| 493 |
+
### Training Logs
|
| 494 |
+
| Epoch | Step | Training Loss | labeled_window_src_to_swe_cosine_ndcg@10 |
|
| 495 |
+
|:----------:|:-------:|:-------------:|:----------------------------------------:|
|
| 496 |
+
| -1 | -1 | - | 0.8389 |
|
| 497 |
+
| 0.0144 | 10 | 0.1641 | - |
|
| 498 |
+
| 0.0287 | 20 | 0.1596 | - |
|
| 499 |
+
| 0.0431 | 30 | 0.1378 | - |
|
| 500 |
+
| 0.0575 | 40 | 0.1260 | - |
|
| 501 |
+
| 0.0718 | 50 | 0.1097 | 0.8458 |
|
| 502 |
+
| 0.0862 | 60 | 0.0911 | - |
|
| 503 |
+
| 0.1006 | 70 | 0.0719 | - |
|
| 504 |
+
| 0.1149 | 80 | 0.0650 | - |
|
| 505 |
+
| 0.1293 | 90 | 0.0637 | - |
|
| 506 |
+
| **0.1437** | **100** | **0.0527** | **0.8528** |
|
| 507 |
+
| 0.1580 | 110 | 0.0641 | - |
|
| 508 |
+
| 0.1724 | 120 | 0.0708 | - |
|
| 509 |
+
| 0.1868 | 130 | 0.0572 | - |
|
| 510 |
+
| 0.2011 | 140 | 0.0578 | - |
|
| 511 |
+
| 0.2155 | 150 | 0.0685 | 0.8451 |
|
| 512 |
+
| 0.2299 | 160 | 0.0544 | - |
|
| 513 |
+
| 0.2443 | 170 | 0.0443 | - |
|
| 514 |
+
| 0.2586 | 180 | 0.0626 | - |
|
| 515 |
+
| 0.2730 | 190 | 0.0403 | - |
|
| 516 |
+
| 0.2874 | 200 | 0.0505 | 0.8490 |
|
| 517 |
+
| 0.3017 | 210 | 0.0440 | - |
|
| 518 |
+
| 0.3161 | 220 | 0.0422 | - |
|
| 519 |
+
| 0.3305 | 230 | 0.0476 | - |
|
| 520 |
+
| 0.3448 | 240 | 0.0409 | - |
|
| 521 |
+
| 0.3592 | 250 | 0.0334 | 0.8460 |
|
| 522 |
+
| 0.3736 | 260 | 0.0456 | - |
|
| 523 |
+
| 0.3879 | 270 | 0.0513 | - |
|
| 524 |
+
| 0.4023 | 280 | 0.0345 | - |
|
| 525 |
+
| 0.4167 | 290 | 0.0410 | - |
|
| 526 |
+
| 0.4310 | 300 | 0.0476 | 0.8467 |
|
| 527 |
+
| 0.4454 | 310 | 0.0335 | - |
|
| 528 |
+
| 0.4598 | 320 | 0.0375 | - |
|
| 529 |
+
| 0.4741 | 330 | 0.0346 | - |
|
| 530 |
+
| 0.4885 | 340 | 0.0364 | - |
|
| 531 |
+
| 0.5029 | 350 | 0.0334 | 0.8466 |
|
| 532 |
+
| 0.5172 | 360 | 0.0406 | - |
|
| 533 |
+
| 0.5316 | 370 | 0.0229 | - |
|
| 534 |
+
| 0.5460 | 380 | 0.0340 | - |
|
| 535 |
+
| 0.5603 | 390 | 0.0246 | - |
|
| 536 |
+
| 0.5747 | 400 | 0.0275 | 0.8451 |
|
| 537 |
+
| 0.5891 | 410 | 0.0322 | - |
|
| 538 |
+
| 0.6034 | 420 | 0.0366 | - |
|
| 539 |
+
| 0.6178 | 430 | 0.0294 | - |
|
| 540 |
+
| 0.6322 | 440 | 0.0301 | - |
|
| 541 |
+
| 0.6466 | 450 | 0.0251 | 0.8462 |
|
| 542 |
+
| 0.6609 | 460 | 0.0219 | - |
|
| 543 |
+
| 0.6753 | 470 | 0.0248 | - |
|
| 544 |
+
| 0.6897 | 480 | 0.0213 | - |
|
| 545 |
+
| 0.7040 | 490 | 0.0284 | - |
|
| 546 |
+
| 0.7184 | 500 | 0.0219 | 0.8451 |
|
| 547 |
+
| 0.7328 | 510 | 0.0294 | - |
|
| 548 |
+
| 0.7471 | 520 | 0.0302 | - |
|
| 549 |
+
| 0.7615 | 530 | 0.0296 | - |
|
| 550 |
+
| 0.7759 | 540 | 0.0263 | - |
|
| 551 |
+
| 0.7902 | 550 | 0.0259 | 0.8447 |
|
| 552 |
+
| 0.8046 | 560 | 0.0301 | - |
|
| 553 |
+
| 0.8190 | 570 | 0.0423 | - |
|
| 554 |
+
| 0.8333 | 580 | 0.0282 | - |
|
| 555 |
+
| 0.8477 | 590 | 0.0259 | - |
|
| 556 |
+
| 0.8621 | 600 | 0.0141 | 0.8435 |
|
| 557 |
+
| 0.8764 | 610 | 0.0248 | - |
|
| 558 |
+
| 0.8908 | 620 | 0.0291 | - |
|
| 559 |
+
| 0.9052 | 630 | 0.0381 | - |
|
| 560 |
+
| 0.9195 | 640 | 0.0328 | - |
|
| 561 |
+
| 0.9339 | 650 | 0.0269 | 0.8423 |
|
| 562 |
+
| 0.9483 | 660 | 0.0302 | - |
|
| 563 |
+
| 0.9626 | 670 | 0.0239 | - |
|
| 564 |
+
| 0.9770 | 680 | 0.0221 | - |
|
| 565 |
+
| 0.9914 | 690 | 0.0376 | - |
|
| 566 |
+
|
| 567 |
+
* The bold row denotes the saved checkpoint.
|
| 568 |
+
|
| 569 |
+
### Framework Versions
|
| 570 |
+
- Python: 3.12.3
|
| 571 |
+
- Sentence Transformers: 5.3.0
|
| 572 |
+
- Transformers: 5.3.0
|
| 573 |
+
- PyTorch: 2.9.0+cu128
|
| 574 |
+
- Accelerate: 1.13.0
|
| 575 |
+
- Datasets: 4.8.5
|
| 576 |
+
- Tokenizers: 0.22.2
|
| 577 |
+
|
| 578 |
+
## Citation
|
| 579 |
+
|
| 580 |
+
### BibTeX
|
| 581 |
+
|
| 582 |
+
#### Sentence Transformers
|
| 583 |
+
```bibtex
|
| 584 |
+
@inproceedings{reimers-2019-sentence-bert,
|
| 585 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
| 586 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
| 587 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
| 588 |
+
month = "11",
|
| 589 |
+
year = "2019",
|
| 590 |
+
publisher = "Association for Computational Linguistics",
|
| 591 |
+
url = "https://arxiv.org/abs/1908.10084",
|
| 592 |
+
}
|
| 593 |
+
```
|
| 594 |
+
|
| 595 |
+
#### MultipleNegativesRankingLoss
|
| 596 |
+
```bibtex
|
| 597 |
+
@misc{oord2019representationlearningcontrastivepredictive,
|
| 598 |
+
title={Representation Learning with Contrastive Predictive Coding},
|
| 599 |
+
author={Aaron van den Oord and Yazhe Li and Oriol Vinyals},
|
| 600 |
+
year={2019},
|
| 601 |
+
eprint={1807.03748},
|
| 602 |
+
archivePrefix={arXiv},
|
| 603 |
+
primaryClass={cs.LG},
|
| 604 |
+
url={https://arxiv.org/abs/1807.03748},
|
| 605 |
+
}
|
| 606 |
+
```
|
| 607 |
+
|
| 608 |
+
<!--
|
| 609 |
+
## Glossary
|
| 610 |
+
|
| 611 |
+
*Clearly define terms in order to be accessible across audiences.*
|
| 612 |
+
-->
|
| 613 |
+
|
| 614 |
+
<!--
|
| 615 |
+
## Model Card Authors
|
| 616 |
+
|
| 617 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
| 618 |
+
-->
|
| 619 |
+
|
| 620 |
+
<!--
|
| 621 |
+
## Model Card Contact
|
| 622 |
+
|
| 623 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
| 624 |
+
-->
|
config.json
ADDED
|
@@ -0,0 +1,30 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"add_cross_attention": false,
|
| 3 |
+
"architectures": [
|
| 4 |
+
"XLMRobertaModel"
|
| 5 |
+
],
|
| 6 |
+
"attention_probs_dropout_prob": 0.1,
|
| 7 |
+
"bos_token_id": 0,
|
| 8 |
+
"classifier_dropout": null,
|
| 9 |
+
"dtype": "float32",
|
| 10 |
+
"eos_token_id": 2,
|
| 11 |
+
"hidden_act": "gelu",
|
| 12 |
+
"hidden_dropout_prob": 0.1,
|
| 13 |
+
"hidden_size": 1024,
|
| 14 |
+
"initializer_range": 0.02,
|
| 15 |
+
"intermediate_size": 4096,
|
| 16 |
+
"is_decoder": false,
|
| 17 |
+
"layer_norm_eps": 1e-05,
|
| 18 |
+
"max_position_embeddings": 8194,
|
| 19 |
+
"model_type": "xlm-roberta",
|
| 20 |
+
"num_attention_heads": 16,
|
| 21 |
+
"num_hidden_layers": 24,
|
| 22 |
+
"output_past": true,
|
| 23 |
+
"pad_token_id": 1,
|
| 24 |
+
"position_embedding_type": "absolute",
|
| 25 |
+
"tie_word_embeddings": true,
|
| 26 |
+
"transformers_version": "5.3.0",
|
| 27 |
+
"type_vocab_size": 1,
|
| 28 |
+
"use_cache": true,
|
| 29 |
+
"vocab_size": 250002
|
| 30 |
+
}
|
config_sentence_transformers.json
ADDED
|
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"__version__": {
|
| 3 |
+
"sentence_transformers": "5.3.0",
|
| 4 |
+
"transformers": "5.3.0",
|
| 5 |
+
"pytorch": "2.9.0+cu128"
|
| 6 |
+
},
|
| 7 |
+
"model_type": "SentenceTransformer",
|
| 8 |
+
"prompts": {
|
| 9 |
+
"query": "",
|
| 10 |
+
"document": ""
|
| 11 |
+
},
|
| 12 |
+
"default_prompt_name": null,
|
| 13 |
+
"similarity_fn_name": "cosine"
|
| 14 |
+
}
|
model.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:d45e613db7eeb9b37cd22772e8197b51b6e32190cea27ed95f87c86d8d35252e
|
| 3 |
+
size 2271064408
|
modules.json
ADDED
|
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
[
|
| 2 |
+
{
|
| 3 |
+
"idx": 0,
|
| 4 |
+
"name": "0",
|
| 5 |
+
"path": "",
|
| 6 |
+
"type": "sentence_transformers.models.Transformer"
|
| 7 |
+
},
|
| 8 |
+
{
|
| 9 |
+
"idx": 1,
|
| 10 |
+
"name": "1",
|
| 11 |
+
"path": "1_Pooling",
|
| 12 |
+
"type": "sentence_transformers.models.Pooling"
|
| 13 |
+
},
|
| 14 |
+
{
|
| 15 |
+
"idx": 2,
|
| 16 |
+
"name": "2",
|
| 17 |
+
"path": "2_Normalize",
|
| 18 |
+
"type": "sentence_transformers.models.Normalize"
|
| 19 |
+
}
|
| 20 |
+
]
|
sentence_bert_config.json
ADDED
|
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"max_seq_length": 320,
|
| 3 |
+
"do_lower_case": false
|
| 4 |
+
}
|
tokenizer.json
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:1beec8a56e32e8117bf92cfdb326d8a1ce19c10b8bf72f89404ae30a33805af7
|
| 3 |
+
size 17098338
|
tokenizer_config.json
ADDED
|
@@ -0,0 +1,23 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"add_prefix_space": true,
|
| 3 |
+
"backend": "tokenizers",
|
| 4 |
+
"bos_token": "<s>",
|
| 5 |
+
"clean_up_tokenization_spaces": true,
|
| 6 |
+
"cls_token": "<s>",
|
| 7 |
+
"eos_token": "</s>",
|
| 8 |
+
"is_local": true,
|
| 9 |
+
"mask_token": "<mask>",
|
| 10 |
+
"max_length": 256,
|
| 11 |
+
"model_max_length": 192,
|
| 12 |
+
"pad_to_multiple_of": null,
|
| 13 |
+
"pad_token": "<pad>",
|
| 14 |
+
"pad_token_type_id": 0,
|
| 15 |
+
"padding_side": "right",
|
| 16 |
+
"sep_token": "</s>",
|
| 17 |
+
"sp_model_kwargs": {},
|
| 18 |
+
"stride": 0,
|
| 19 |
+
"tokenizer_class": "XLMRobertaTokenizer",
|
| 20 |
+
"truncation_side": "right",
|
| 21 |
+
"truncation_strategy": "longest_first",
|
| 22 |
+
"unk_token": "<unk>"
|
| 23 |
+
}
|