nicher92 commited on
Commit
032ac35
·
verified ·
1 Parent(s): 59bc71e

Add new SentenceTransformer model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,1261 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:52896778
8
+ - loss:CachedMultipleNegativesRankingLoss
9
+ base_model: KBLab/bert-base-swedish-cased
10
+ widget:
11
+ - source_sentence: Næsten fire ud af fem (79%) angiver at det er fint at Danmark er
12
+ foregangsland på kemikalieområdet i EU. Dette har været tilfældet de sidste år.
13
+ sentences:
14
+ - Studien som ble gjort avdekket blant annet svære kraterlignende strukturer på
15
+ sjøbunnen. Det største krateret hadde ifølge Miljødirektoratet en radius på 40
16
+ meter, en høyde på 2,5 meter og inneholdt totale hydrokarboner på 4,5 prosent.
17
+ Ifølge Statoil skal dette mest sannsynlig komme fra injeksjonsbrønn A-14 HX på
18
+ Njord, der det ble injisert oljeholdig vann med kjemikalierester. Miljødirektoratet
19
+ mener at samtlige av alle kjemikalier som ble injisert i brønnen fra 1999-2006
20
+ er lekket ut til havbunnen. Dette bekrefter også Statoil langt på vei i sin redegjørelse.
21
+ Men da Statoil fant ut av dette, tok det særdeles lang tid før det ble meldt fra
22
+ om – over to år hadde gått. Både størrelsen på utslippet og at det tok så lang
23
+ tid før Statoil rapporterte, mener Hanne Marie Øren i
24
+ - angiver at det er fint at Danmark er foregangsland på kemikalieområdet i EU. Dette
25
+ har været tilfældet de sidste år.") Forbrugerpanelet om hormonforstyrrende stoffer
26
+ Næsten alle respondenterne (96%) svarer at de har hørt at hormonforstyrrende stoffer
27
+ kan være eller mistænkes for at være skadelige. Problematikken har været
28
+ - De jongerengarantieregeling en het jongerenwerkgelegenheidsinitiatief dat de regeling
29
+ ondersteunt, zijn twee initiatieven van de EU die jongvolwassenen aan een baan,
30
+ opleiding of leerlingplaats moeten helpen. De programma's zijn drie jaar geleden
31
+ vastgesteld om jeugdwerkloosheid in Europa te bestrijden en hebben miljoenen jongeren
32
+ geholpen. De resultaten zien er goed uit, maar de Europese Commissie stelt duidelijk
33
+ dat er is nog geen reden is tot juichen. 06/12/2016
34
+ - source_sentence: Iransk internet-mur skal beskytte mod angreb
35
+ sentences:
36
+ - 'Køkkenhaven Den skarpe smag af sennep giver maden det sidste pift. Bland den
37
+ med forskellige ingredienser, og vælg mellem sorte, gule eller brune sennepsfrø.
38
+ Du kan også selv dyrke sennep i haven. Få opskriften på en lækker urtesennep.
39
+ Foto: iStockphoto'
40
+ - Iran strammer grebet om nettet. Landet vil skabe sit eget nationale internet og
41
+ dermed beskytte sig mod angreb fra udlandet. 6. januar 2012 kl. 10.43 Karim Pedersen
42
+ Iran er kendt for sin strenge internet-censur og for sine mange forsøg på at overvåge
43
+ landets borgere online. Senest er den danske virksomhed Rantek kommet i søgelyset,
44
+ fordi man angiveligt har solgt israelsk overvågnings-software til Iran. Samtidig
45
+ forsøger Iran at etablere sit eget nationale internet, hvor myndighederne har
46
+ den fulde kontrol over alt indhold på netværket. Det kan være en forberedelse
47
+ til det kommende parlamentsvalg i marts - mange af protesterne efter det omstridte
48
+ præsidentvalg i 2009 blev organiseret online. Det iranske regime har slået hårdt
49
+ ned på bloggere og advaret mod at opfordre til boykot af valget på nettet. Men
50
+ - Emil er Frø ihvert fald henne i børnehaven :-) - Mor her har allerede for længst
51
+ købt bluser med frøer på fra Småfolk, og i dag blev garderoben komplet med disse
52
+ skønne grønne velourbukser med frølommer. Lommerne er meget lange og så seje med
53
+ alle de frøer. Emil har længe manglet bukser, og det er jo skørt, for hverken
54
+ disse frøbukser eller dem med bilerne fra igår har taget særlig lang tid at sy.
55
+ Nå men hvor er det bare skønt, at jeg kunne glæde min store dreng med et par seje
56
+ frøbukser.Dagen har også budt på opsætning af julelys. Vi har fået sat en udendørs
57
+ lyskæde op langs vores lave hegn i indkørslen (ægte amerikansk stil), men nu er
58
+ indkørslen ikke længere skummel, mørk og uindbydende. Jeg
59
+ - source_sentence: Vad är menscykeln?
60
+ sentences:
61
+ - «Det siste året har livet mitt vært helt fantastisk. Jeg hadde aldri trodd at
62
+ bloggen skulle føre meg så langt og hadde aldri trodd at jeg skulle få oppleve
63
+ så mye. Jeg har lært utrolig mye, blant annet at venner er noe man må sette stor
64
+ pris på. Og at man skal gripe dagen og være åpen for noe nytt, for dagen i dag
65
+ får vi aldri igjen. Og ja, akkurat nå lever jeg livet, og har ingen planer om
66
+ å bli voksen med det første. Lev hver dag som din siste!» (hentet fra Voes blogg)
67
+ 1.
68
+ - I och med landstigningen i Normandie på Dagen D den 6 juni, 1944, bröt kriget
69
+ i väster ut igen och en ny situation uppstod. Den 24 augusti, 1944 gav Hitler
70
+ ett direktiv för att konstruktionen av Siegfriedlinjen skulle återupptas. 20 000
71
+ tvångsarbetare och medlemmar av den tyska riksarbetstjänsten (Reichsarbeitsdienst,
72
+ RAD), av vilka de flesta var 14 till 16 år gamla pojkar, försökte återupprusta
73
+ linjen för försvarsändamål. Lokalbefolkningen kallades även in för att utföra
74
+ detta arbete, oftast pansarvärnsdiken. Under bunkrarnas konstruktion var det redan
75
+ klart att bunkrarna inte kunde stå emot de nyutvecklade pansarbrytande vapnen.
76
+ Vid samma tidpunkt som den verkliga Siegfriedlinjen återaktverades byggdes små
77
+ betonbunkrar upp längs gränsen av det ockuperade området. Dessa bunkrar kallades
78
+ "Tobrukbunkrar" (efter hamnstaden Tobruk i östra Libyen). Dessa bunkrar var oftast
79
+ skyttevärn för
80
+ - Menscykeln räknas från första dagen i en mens till första dagen i nästa mens.
81
+ Den brukar ofta vara cirka 28 dagar, men det är olika från person till person.
82
+ Allt mellan 25 dagar till 32 dagar är vanligt. Ungefär 14 dagar före mens sker
83
+ ägglossningen. Det är då det finns chans till befruktning.
84
+ - source_sentence: Hvad er XML-filtypenavnene?
85
+ sentences:
86
+ - Hjálparsagnir eins og nafnið gefur til kynna, hjálpa aðalsögninni að útskýra eitthvað;
87
+ eins og til dæmis tíma. Hjálparsagnir geta aldrei staðið einar án aðalsagnar.
88
+ Hjálparsagnir þurfa ekki alltaf að standa við hlið aðalsagna og oft er fleiri
89
+ en ein hjálparsögn notuð. Hjálparsagnir bera ekki sjálfstæða merkingu. Nokkrar
90
+ algengar íslenskar hjálparsagnir eru; hafa, vera, verða og munu.
91
+ - Efter användandet ska doseringssprutan göras ren i varmt tvålvatten. När man ska
92
+ ta isär doseringssprutan måste man ta i lite grann för att få loss kolven. Efter
93
+ rengöringen är det bara att trycka tillbaka kolven. Skölj noga efteråt. Rengöringsmedel
94
+ får inte användas, inte heller kokande vatten.
95
+ - I Office kan du gemme filer i Open XML-formater og i de binære filformater fra
96
+ tidligere versioner af Office, og programmet indeholder funktioner til kompatibilitetskontrol
97
+ og filkonverteringsprogrammer, der tillader fildeling mellem forskellige versioner
98
+ af Office. Åbne eksisterende filer i Office Du kan åbne og arbejde med en fil,
99
+ der blev oprettet i en tidligere version af Office, og du kan derefter gemme den
100
+ i det eksisterende format. Da du muligvis arbejder på en dokument sammen med nogen,
101
+ der bruger en tidligere version af Office, bruger Office en kompatibilitetskontrol,
102
+ der kontrollerer, at du ikke har anvendt en funktion, som en tidligere version
103
+ af Office ikke understøtter. Når du gemmer filen, giver kompatibilitetskontrollen
104
+ dig besked om disse funktioner og giver dig mulighed for at fjerne disse, før
105
+ du fortsætter med
106
+ - source_sentence: Mannen satt ensam i gruset en hel natt, men ingen brydde sig. Det
107
+ Tove gjorde då värmer mitt hjärta. Vi behöver fler som dig!
108
+ sentences:
109
+ - <script data-adfscript="adx.adform.net/adx/?mid=168702&rnd=12341523"></script>
110
+ <script src="//s1.adform.net/banners/scripts/adx.js" async defer></script> Ingen
111
+ ville hjälpa den 75-årige mannen som suttit ute i gruset – hela natten. Tills
112
+ 23-årige Tova Eldstål kom förbi. – Jag tycker vi ska börja ta hand om varandra
113
+ mer, säger hon till Aftonbladet. Nu hyllar tusentals hennes Facebook-inlägg om
114
+ händelsen. Det var i fredags morse som Tova Eldstål såg den äldre mannen sitta
115
+ i gruset intill tågstationen i Fagersta. Ingen av de tio personer som gick framför
116
+ Tova stannade till. Men det gjorde Tova.Hon fick veta att mannen hade ont i bröstet
117
+ och att han suttit där sedan 17-tiden kvällen innan. Nu har Tova skrivit ett inlägg
118
+ på Facebook om händelsen. Över 80 000 har gillat texten och tusentals hyllar henne
119
+ för insatsen."Jag har missat mitt tåg men jag lämnade
120
+ - Vi har fortsatt noen ledige plasser til kveldens store smaking. Bli med og smak
121
+ 11 toppviner, deriblant flere årganger av Premier og Grand Cru-chabliser samtidig
122
+ som du lærer mer om vinområdet. Med sin friske, klare duft av mineraler og nyåpnede
123
+ østers, har de knusktørre vinene fra Chablis fått stjernestatus i vinverdenen.
124
+ Smak Chablis på sitt aller beste og lær mer om hva som gjør dette vinområdet så
125
+ spesielt ved å bli med på denne eksklusive smakingen. Revolusjonerende Grand Cru
126
+ Denne kvelden får vi besøk fra et av Chablis' mest berømte vinhus, William Fèvre.
127
+ Takket være fremsynthet på 1960-tallet har huset har den største andelen av Grand
128
+ Cru-vinmarker blant alle vinhusene i området. Hele 16 av de totalt 100 hektarene
129
+ med de aller beste vinmarkene i Chablis tilhører eiendommen.
130
+ - – Våre hovedargumenter for dette er at vi anser Jonas Gahr Støres og Felix Tschudis
131
+ vennskap for å være inhabiliserende nært, og at Felix Tschudis interesser i den
132
+ reelle mottaker av midlene fra UD er både særegne og av tilstrekkelig styrke.
133
+ De samlede omstendigheter er egnet til å svekke tilliten, skriver advokatfirmaet
134
+ videre. Støre selv sier via kommunikasjonssjef Ragnhild Imerslund i UD at han
135
+ tar vurderingen til orientering.
136
+ pipeline_tag: sentence-similarity
137
+ library_name: sentence-transformers
138
+ ---
139
+
140
+ # SentenceTransformer based on KBLab/bert-base-swedish-cased
141
+
142
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [KBLab/bert-base-swedish-cased](https://huggingface.co/KBLab/bert-base-swedish-cased) on the parquet dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
143
+
144
+ ## Model Details
145
+
146
+ ### Model Description
147
+ - **Model Type:** Sentence Transformer
148
+ - **Base model:** [KBLab/bert-base-swedish-cased](https://huggingface.co/KBLab/bert-base-swedish-cased) <!-- at revision c710fb8dff81abb11d704cd46a8a1e010b2b022c -->
149
+ - **Maximum Sequence Length:** 512 tokens
150
+ - **Output Dimensionality:** 768 dimensions
151
+ - **Similarity Function:** Cosine Similarity
152
+ - **Training Dataset:**
153
+ - parquet
154
+ <!-- - **Language:** Unknown -->
155
+ <!-- - **License:** Unknown -->
156
+
157
+ ### Model Sources
158
+
159
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
160
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
161
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
162
+
163
+ ### Full Model Architecture
164
+
165
+ ```
166
+ SentenceTransformer(
167
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
168
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
169
+ )
170
+ ```
171
+
172
+ ## Usage
173
+
174
+ ### Direct Usage (Sentence Transformers)
175
+
176
+ First install the Sentence Transformers library:
177
+
178
+ ```bash
179
+ pip install -U sentence-transformers
180
+ ```
181
+
182
+ Then you can load this model and run inference.
183
+ ```python
184
+ from sentence_transformers import SentenceTransformer
185
+
186
+ # Download from the 🤗 Hub
187
+ model = SentenceTransformer("nicher92/embedding_model_one_epoch")
188
+ # Run inference
189
+ sentences = [
190
+ 'Mannen satt ensam i gruset en hel natt, men ingen brydde sig. Det Tove gjorde då värmer mitt hjärta. Vi behöver fler som dig!',
191
+ '<script data-adfscript="adx.adform.net/adx/?mid=168702&rnd=12341523"></script> <script src="//s1.adform.net/banners/scripts/adx.js" async defer></script> Ingen ville hjälpa den 75-årige mannen som suttit ute i gruset – hela natten. Tills 23-årige Tova Eldstål kom förbi. – Jag tycker vi ska börja ta hand om varandra mer, säger hon till Aftonbladet. Nu hyllar tusentals hennes Facebook-inlägg om händelsen. Det var i fredags morse som Tova Eldstål såg den äldre mannen sitta i gruset intill tågstationen i Fagersta. Ingen av de tio personer som gick framför Tova stannade till. Men det gjorde Tova.Hon fick veta att mannen hade ont i bröstet och att han suttit där sedan 17-tiden kvällen innan. Nu har Tova skrivit ett inlägg på Facebook om händelsen. Över 80 000 har gillat texten och tusentals hyllar henne för insatsen."Jag har missat mitt tåg men jag lämnade',
192
+ "Vi har fortsatt noen ledige plasser til kveldens store smaking. Bli med og smak 11 toppviner, deriblant flere årganger av Premier og Grand Cru-chabliser samtidig som du lærer mer om vinområdet. Med sin friske, klare duft av mineraler og nyåpnede østers, har de knusktørre vinene fra Chablis fått stjernestatus i vinverdenen. Smak Chablis på sitt aller beste og lær mer om hva som gjør dette vinområdet så spesielt ved å bli med på denne eksklusive smakingen. Revolusjonerende Grand Cru Denne kvelden får vi besøk fra et av Chablis' mest berømte vinhus, William Fèvre. Takket være fremsynthet på 1960-tallet har huset har den største andelen av Grand Cru-vinmarker blant alle vinhusene i området. Hele 16 av de totalt 100 hektarene med de aller beste vinmarkene i Chablis tilhører eiendommen.",
193
+ ]
194
+ embeddings = model.encode(sentences)
195
+ print(embeddings.shape)
196
+ # [3, 768]
197
+
198
+ # Get the similarity scores for the embeddings
199
+ similarities = model.similarity(embeddings, embeddings)
200
+ print(similarities.shape)
201
+ # [3, 3]
202
+ ```
203
+
204
+ <!--
205
+ ### Direct Usage (Transformers)
206
+
207
+ <details><summary>Click to see the direct usage in Transformers</summary>
208
+
209
+ </details>
210
+ -->
211
+
212
+ <!--
213
+ ### Downstream Usage (Sentence Transformers)
214
+
215
+ You can finetune this model on your own dataset.
216
+
217
+ <details><summary>Click to expand</summary>
218
+
219
+ </details>
220
+ -->
221
+
222
+ <!--
223
+ ### Out-of-Scope Use
224
+
225
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
226
+ -->
227
+
228
+ <!--
229
+ ## Bias, Risks and Limitations
230
+
231
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
232
+ -->
233
+
234
+ <!--
235
+ ### Recommendations
236
+
237
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
238
+ -->
239
+
240
+ ## Training Details
241
+
242
+ ### Training Dataset
243
+
244
+ #### parquet
245
+
246
+ * Dataset: parquet
247
+ * Size: 52,896,778 training samples
248
+ * Columns: <code>header</code> and <code>body</code>
249
+ * Approximate statistics based on the first 1000 samples:
250
+ | | header | body |
251
+ |:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
252
+ | type | string | string |
253
+ | details | <ul><li>min: 4 tokens</li><li>mean: 12.12 tokens</li><li>max: 178 tokens</li></ul> | <ul><li>min: 13 tokens</li><li>mean: 154.53 tokens</li><li>max: 362 tokens</li></ul> |
254
+ * Samples:
255
+ | header | body |
256
+ |:--------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
257
+ | <code>Miljø: 4</code> | <code>Ford Focus stv. med 115-hesters diesel har et oppgitt EU-forbruk på 0,42 l/mil og et oppgitt CO2-utslipp på 109 g/km. Begge deler er gode tall for bilstørrelsen. I praksis, ute på veien i vår 20 mil lange testløype, trenger Focus stv. 0,52 l/mil. Fortsatt er det et godkjent tall, men Focusen havner noen dieseldråper bak for eksempel den forbruksoptimerte Skoda Octavia GreenLine.</code> |
258
+ | <code>Invitation til klassefest 2013</code> | <code>17 okt Der kom brev med posten. (frit oversat til html af Leif) Kære gamle klassekammerater:Så er det endnu engang tid til klassekomsammen. Som aftalt sidste år er det **lørdag den 26. oktober:**Vi mødes kl. 13,00 foran indgangen til Århus Domkirke, Store Torv 1, 8000 Århus C.Herfra går vi til Besættelsesmuseet i Århus 1940-45 i Mathilde Fibrigers Have 2, hvor vi kan gå rundt og se på hvad der skete under besættelsen i Århus By.Når vi er færdige tager vi ud til mig, hvor vi vil få en god middag. Efterfølgende kaffe og senere natmad. Håber vi må få en rigtig hyggelig dag sammen. Du skal give besked, om du kommer senest den 16.10på telefon:eller Mobil:Beløb og opkrævning på dagen: ca. 300,- kr. Hilsen festudvalget: Hanne Gerner Thomsen</code> |
259
+ | <code>Konklusjon: 6</code> | <code>Hovedkarakteren er ikke et gjennomsnitt av delkarakterene, men et uttrykk for hvordan bilen totalt sett er i forhold til konkurrentene på det tidspunktet da testen ble gjennomført. Som nevnt allerede i innledningen: Vi mener Ford Focus 1,6 TDCI stv. totalt sett er den beste kompakte stasjonsvogna på markedet per i dag (juni 2011), og slik sett forsvarer den en sekser på terningen. Blant de sterkeste sidene er opplevelsen av at Focus gir mye god bil for pengene både når det gjelder kjøreegenskaper, plass og ytelser. Litt rom for forbedring finner vi først og fremst når det gjelder motoren. 1,5-litersdieselen er ikke lenger klassens mest kultiverte. | | || Pris | 244800 | Vår karakter</code> |
260
+ * Loss: [<code>CachedMultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cachedmultiplenegativesrankingloss) with these parameters:
261
+ ```json
262
+ {
263
+ "scale": 20.0,
264
+ "similarity_fct": "cos_sim",
265
+ "mini_batch_size": 128
266
+ }
267
+ ```
268
+
269
+ ### Training Hyperparameters
270
+ #### Non-Default Hyperparameters
271
+
272
+ - `eval_strategy`: steps
273
+ - `per_device_train_batch_size`: 2048
274
+ - `learning_rate`: 0.0002
275
+ - `warmup_ratio`: 0.1
276
+ - `bf16`: True
277
+ - `load_best_model_at_end`: True
278
+ - `batch_sampler`: no_duplicates
279
+
280
+ #### All Hyperparameters
281
+ <details><summary>Click to expand</summary>
282
+
283
+ - `overwrite_output_dir`: False
284
+ - `do_predict`: False
285
+ - `eval_strategy`: steps
286
+ - `prediction_loss_only`: True
287
+ - `per_device_train_batch_size`: 2048
288
+ - `per_device_eval_batch_size`: 8
289
+ - `per_gpu_train_batch_size`: None
290
+ - `per_gpu_eval_batch_size`: None
291
+ - `gradient_accumulation_steps`: 1
292
+ - `eval_accumulation_steps`: None
293
+ - `torch_empty_cache_steps`: None
294
+ - `learning_rate`: 0.0002
295
+ - `weight_decay`: 0.0
296
+ - `adam_beta1`: 0.9
297
+ - `adam_beta2`: 0.999
298
+ - `adam_epsilon`: 1e-08
299
+ - `max_grad_norm`: 1.0
300
+ - `num_train_epochs`: 3
301
+ - `max_steps`: -1
302
+ - `lr_scheduler_type`: linear
303
+ - `lr_scheduler_kwargs`: {}
304
+ - `warmup_ratio`: 0.1
305
+ - `warmup_steps`: 0
306
+ - `log_level`: passive
307
+ - `log_level_replica`: warning
308
+ - `log_on_each_node`: True
309
+ - `logging_nan_inf_filter`: True
310
+ - `save_safetensors`: True
311
+ - `save_on_each_node`: False
312
+ - `save_only_model`: False
313
+ - `restore_callback_states_from_checkpoint`: False
314
+ - `no_cuda`: False
315
+ - `use_cpu`: False
316
+ - `use_mps_device`: False
317
+ - `seed`: 42
318
+ - `data_seed`: None
319
+ - `jit_mode_eval`: False
320
+ - `use_ipex`: False
321
+ - `bf16`: True
322
+ - `fp16`: False
323
+ - `fp16_opt_level`: O1
324
+ - `half_precision_backend`: auto
325
+ - `bf16_full_eval`: False
326
+ - `fp16_full_eval`: False
327
+ - `tf32`: None
328
+ - `local_rank`: 0
329
+ - `ddp_backend`: None
330
+ - `tpu_num_cores`: None
331
+ - `tpu_metrics_debug`: False
332
+ - `debug`: []
333
+ - `dataloader_drop_last`: True
334
+ - `dataloader_num_workers`: 0
335
+ - `dataloader_prefetch_factor`: None
336
+ - `past_index`: -1
337
+ - `disable_tqdm`: False
338
+ - `remove_unused_columns`: True
339
+ - `label_names`: None
340
+ - `load_best_model_at_end`: True
341
+ - `ignore_data_skip`: False
342
+ - `fsdp`: []
343
+ - `fsdp_min_num_params`: 0
344
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
345
+ - `fsdp_transformer_layer_cls_to_wrap`: None
346
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
347
+ - `deepspeed`: None
348
+ - `label_smoothing_factor`: 0.0
349
+ - `optim`: adamw_torch
350
+ - `optim_args`: None
351
+ - `adafactor`: False
352
+ - `group_by_length`: False
353
+ - `length_column_name`: length
354
+ - `ddp_find_unused_parameters`: None
355
+ - `ddp_bucket_cap_mb`: None
356
+ - `ddp_broadcast_buffers`: False
357
+ - `dataloader_pin_memory`: True
358
+ - `dataloader_persistent_workers`: False
359
+ - `skip_memory_metrics`: True
360
+ - `use_legacy_prediction_loop`: False
361
+ - `push_to_hub`: False
362
+ - `resume_from_checkpoint`: None
363
+ - `hub_model_id`: None
364
+ - `hub_strategy`: every_save
365
+ - `hub_private_repo`: None
366
+ - `hub_always_push`: False
367
+ - `gradient_checkpointing`: False
368
+ - `gradient_checkpointing_kwargs`: None
369
+ - `include_inputs_for_metrics`: False
370
+ - `include_for_metrics`: []
371
+ - `eval_do_concat_batches`: True
372
+ - `fp16_backend`: auto
373
+ - `push_to_hub_model_id`: None
374
+ - `push_to_hub_organization`: None
375
+ - `mp_parameters`:
376
+ - `auto_find_batch_size`: False
377
+ - `full_determinism`: False
378
+ - `torchdynamo`: None
379
+ - `ray_scope`: last
380
+ - `ddp_timeout`: 1800
381
+ - `torch_compile`: False
382
+ - `torch_compile_backend`: None
383
+ - `torch_compile_mode`: None
384
+ - `include_tokens_per_second`: False
385
+ - `include_num_input_tokens_seen`: False
386
+ - `neftune_noise_alpha`: None
387
+ - `optim_target_modules`: None
388
+ - `batch_eval_metrics`: False
389
+ - `eval_on_start`: False
390
+ - `use_liger_kernel`: False
391
+ - `eval_use_gather_object`: False
392
+ - `average_tokens_across_devices`: False
393
+ - `prompts`: None
394
+ - `batch_sampler`: no_duplicates
395
+ - `multi_dataset_batch_sampler`: proportional
396
+
397
+ </details>
398
+
399
+ ### Training Logs
400
+ <details><summary>Click to expand</summary>
401
+
402
+ | Epoch | Step | Training Loss |
403
+ |:------:|:----:|:-------------:|
404
+ | 0.0012 | 5 | 6.7754 |
405
+ | 0.0023 | 10 | 6.6896 |
406
+ | 0.0035 | 15 | 6.5047 |
407
+ | 0.0046 | 20 | 6.2826 |
408
+ | 0.0058 | 25 | 5.9985 |
409
+ | 0.0070 | 30 | 5.6479 |
410
+ | 0.0081 | 35 | 5.2283 |
411
+ | 0.0093 | 40 | 4.9118 |
412
+ | 0.0105 | 45 | 4.5856 |
413
+ | 0.0116 | 50 | 4.2933 |
414
+ | 0.0128 | 55 | 4.039 |
415
+ | 0.0139 | 60 | 3.8274 |
416
+ | 0.0151 | 65 | 3.6651 |
417
+ | 0.0163 | 70 | 3.5111 |
418
+ | 0.0174 | 75 | 3.3547 |
419
+ | 0.0186 | 80 | 3.2696 |
420
+ | 0.0197 | 85 | 3.1727 |
421
+ | 0.0209 | 90 | 3.0879 |
422
+ | 0.0221 | 95 | 3.0103 |
423
+ | 0.0232 | 100 | 2.9765 |
424
+ | 0.0244 | 105 | 2.8899 |
425
+ | 0.0256 | 110 | 2.8561 |
426
+ | 0.0267 | 115 | 2.8292 |
427
+ | 0.0279 | 120 | 2.7635 |
428
+ | 0.0290 | 125 | 2.7508 |
429
+ | 0.0302 | 130 | 2.705 |
430
+ | 0.0314 | 135 | 2.6831 |
431
+ | 0.0325 | 140 | 2.6545 |
432
+ | 0.0337 | 145 | 2.6175 |
433
+ | 0.0349 | 150 | 2.595 |
434
+ | 0.0360 | 155 | 2.5818 |
435
+ | 0.0372 | 160 | 2.537 |
436
+ | 0.0383 | 165 | 2.538 |
437
+ | 0.0395 | 170 | 2.5051 |
438
+ | 0.0407 | 175 | 2.502 |
439
+ | 0.0418 | 180 | 2.4705 |
440
+ | 0.0430 | 185 | 2.4809 |
441
+ | 0.0441 | 190 | 2.4443 |
442
+ | 0.0453 | 195 | 2.409 |
443
+ | 0.0465 | 200 | 2.3929 |
444
+ | 0.0476 | 205 | 2.3917 |
445
+ | 0.0488 | 210 | 2.3654 |
446
+ | 0.0500 | 215 | 2.3603 |
447
+ | 0.0511 | 220 | 2.3482 |
448
+ | 0.0523 | 225 | 2.3189 |
449
+ | 0.0534 | 230 | 2.3009 |
450
+ | 0.0546 | 235 | 2.3032 |
451
+ | 0.0558 | 240 | 2.2824 |
452
+ | 0.0569 | 245 | 2.2792 |
453
+ | 0.0581 | 250 | 2.2642 |
454
+ | 0.0592 | 255 | 2.2435 |
455
+ | 0.0604 | 260 | 2.2361 |
456
+ | 0.0616 | 265 | 2.2115 |
457
+ | 0.0627 | 270 | 2.2203 |
458
+ | 0.0639 | 275 | 2.1931 |
459
+ | 0.0651 | 280 | 2.2 |
460
+ | 0.0662 | 285 | 2.1862 |
461
+ | 0.0674 | 290 | 2.1615 |
462
+ | 0.0685 | 295 | 2.1783 |
463
+ | 0.0697 | 300 | 2.1515 |
464
+ | 0.0709 | 305 | 2.1318 |
465
+ | 0.0720 | 310 | 2.1403 |
466
+ | 0.0732 | 315 | 2.1252 |
467
+ | 0.0743 | 320 | 2.1199 |
468
+ | 0.0755 | 325 | 2.1036 |
469
+ | 0.0767 | 330 | 2.1033 |
470
+ | 0.0778 | 335 | 2.0887 |
471
+ | 0.0790 | 340 | 2.0715 |
472
+ | 0.0802 | 345 | 2.0709 |
473
+ | 0.0813 | 350 | 2.0488 |
474
+ | 0.0825 | 355 | 2.0484 |
475
+ | 0.0836 | 360 | 2.0373 |
476
+ | 0.0848 | 365 | 2.051 |
477
+ | 0.0860 | 370 | 2.0395 |
478
+ | 0.0871 | 375 | 2.0248 |
479
+ | 0.0883 | 380 | 2.0148 |
480
+ | 0.0895 | 385 | 2.0126 |
481
+ | 0.0906 | 390 | 1.9956 |
482
+ | 0.0918 | 395 | 1.987 |
483
+ | 0.0929 | 400 | 1.9875 |
484
+ | 0.0941 | 405 | 1.9698 |
485
+ | 0.0953 | 410 | 1.9596 |
486
+ | 0.0964 | 415 | 1.968 |
487
+ | 0.0976 | 420 | 1.9438 |
488
+ | 0.0987 | 425 | 1.9411 |
489
+ | 0.0999 | 430 | 1.9624 |
490
+ | 0.1011 | 435 | 1.938 |
491
+ | 0.1022 | 440 | 1.9295 |
492
+ | 0.1034 | 445 | 1.922 |
493
+ | 0.1046 | 450 | 1.9306 |
494
+ | 0.1057 | 455 | 1.921 |
495
+ | 0.1069 | 460 | 1.915 |
496
+ | 0.1080 | 465 | 1.883 |
497
+ | 0.1092 | 470 | 1.8886 |
498
+ | 0.1104 | 475 | 1.8886 |
499
+ | 0.1115 | 480 | 1.9004 |
500
+ | 0.1127 | 485 | 1.878 |
501
+ | 0.1138 | 490 | 1.8567 |
502
+ | 0.1150 | 495 | 1.8659 |
503
+ | 0.1162 | 500 | 1.8522 |
504
+ | 0.1173 | 505 | 1.8482 |
505
+ | 0.1185 | 510 | 1.8356 |
506
+ | 0.1197 | 515 | 1.8566 |
507
+ | 0.1208 | 520 | 1.8392 |
508
+ | 0.1220 | 525 | 1.8407 |
509
+ | 0.1231 | 530 | 1.8201 |
510
+ | 0.1243 | 535 | 1.8152 |
511
+ | 0.1255 | 540 | 1.8012 |
512
+ | 0.1266 | 545 | 1.819 |
513
+ | 0.1278 | 550 | 1.8131 |
514
+ | 0.1289 | 555 | 1.8167 |
515
+ | 0.1301 | 560 | 1.8123 |
516
+ | 0.1313 | 565 | 1.8035 |
517
+ | 0.1324 | 570 | 1.7781 |
518
+ | 0.1336 | 575 | 1.7684 |
519
+ | 0.1348 | 580 | 1.7633 |
520
+ | 0.1359 | 585 | 1.7765 |
521
+ | 0.1371 | 590 | 1.767 |
522
+ | 0.1382 | 595 | 1.7633 |
523
+ | 0.1394 | 600 | 1.7555 |
524
+ | 0.1406 | 605 | 1.7437 |
525
+ | 0.1417 | 610 | 1.7348 |
526
+ | 0.1429 | 615 | 1.7329 |
527
+ | 0.1441 | 620 | 1.7394 |
528
+ | 0.1452 | 625 | 1.7367 |
529
+ | 0.1464 | 630 | 1.737 |
530
+ | 0.1475 | 635 | 1.7063 |
531
+ | 0.1487 | 640 | 1.727 |
532
+ | 0.1499 | 645 | 1.732 |
533
+ | 0.1510 | 650 | 1.7172 |
534
+ | 0.1522 | 655 | 1.7164 |
535
+ | 0.1533 | 660 | 1.7175 |
536
+ | 0.1545 | 665 | 1.7119 |
537
+ | 0.1557 | 670 | 1.6951 |
538
+ | 0.1568 | 675 | 1.7021 |
539
+ | 0.1580 | 680 | 1.6708 |
540
+ | 0.1592 | 685 | 1.6839 |
541
+ | 0.1603 | 690 | 1.6834 |
542
+ | 0.1615 | 695 | 1.6743 |
543
+ | 0.1626 | 700 | 1.6755 |
544
+ | 0.1638 | 705 | 1.6798 |
545
+ | 0.1650 | 710 | 1.6671 |
546
+ | 0.1661 | 715 | 1.6563 |
547
+ | 0.1673 | 720 | 1.6555 |
548
+ | 0.1684 | 725 | 1.6413 |
549
+ | 0.1696 | 730 | 1.6471 |
550
+ | 0.1708 | 735 | 1.6532 |
551
+ | 0.1719 | 740 | 1.6481 |
552
+ | 0.1731 | 745 | 1.6429 |
553
+ | 0.1743 | 750 | 1.6488 |
554
+ | 0.1754 | 755 | 1.6475 |
555
+ | 0.1766 | 760 | 1.6213 |
556
+ | 0.1777 | 765 | 1.6367 |
557
+ | 0.1789 | 770 | 1.6319 |
558
+ | 0.1801 | 775 | 1.6204 |
559
+ | 0.1812 | 780 | 1.6377 |
560
+ | 0.1824 | 785 | 1.6203 |
561
+ | 0.1836 | 790 | 1.6117 |
562
+ | 0.1847 | 795 | 1.59 |
563
+ | 0.1859 | 800 | 1.6249 |
564
+ | 0.1870 | 805 | 1.5927 |
565
+ | 0.1882 | 810 | 1.6007 |
566
+ | 0.1894 | 815 | 1.5908 |
567
+ | 0.1905 | 820 | 1.6081 |
568
+ | 0.1917 | 825 | 1.5973 |
569
+ | 0.1928 | 830 | 1.6012 |
570
+ | 0.1940 | 835 | 1.5899 |
571
+ | 0.1952 | 840 | 1.589 |
572
+ | 0.1963 | 845 | 1.5766 |
573
+ | 0.1975 | 850 | 1.5613 |
574
+ | 0.1987 | 855 | 1.58 |
575
+ | 0.1998 | 860 | 1.5811 |
576
+ | 0.2010 | 865 | 1.5763 |
577
+ | 0.2021 | 870 | 1.5605 |
578
+ | 0.2033 | 875 | 1.5807 |
579
+ | 0.2045 | 880 | 1.5681 |
580
+ | 0.2056 | 885 | 1.5681 |
581
+ | 0.2068 | 890 | 1.551 |
582
+ | 0.2079 | 895 | 1.5418 |
583
+ | 0.2091 | 900 | 1.5523 |
584
+ | 0.2103 | 905 | 1.5508 |
585
+ | 0.2114 | 910 | 1.5463 |
586
+ | 0.2126 | 915 | 1.5356 |
587
+ | 0.2138 | 920 | 1.5573 |
588
+ | 0.2149 | 925 | 1.5439 |
589
+ | 0.2161 | 930 | 1.5383 |
590
+ | 0.2172 | 935 | 1.5248 |
591
+ | 0.2184 | 940 | 1.5263 |
592
+ | 0.2196 | 945 | 1.5249 |
593
+ | 0.2207 | 950 | 1.516 |
594
+ | 0.2219 | 955 | 1.5114 |
595
+ | 0.2230 | 960 | 1.5167 |
596
+ | 0.2242 | 965 | 1.5302 |
597
+ | 0.2254 | 970 | 1.5164 |
598
+ | 0.2265 | 975 | 1.5295 |
599
+ | 0.2277 | 980 | 1.5098 |
600
+ | 0.2289 | 985 | 1.5297 |
601
+ | 0.2300 | 990 | 1.5146 |
602
+ | 0.2312 | 995 | 1.5094 |
603
+ | 0.2323 | 1000 | 1.5022 |
604
+ | 0.2335 | 1005 | 1.5026 |
605
+ | 0.2347 | 1010 | 1.4903 |
606
+ | 0.2358 | 1015 | 1.4934 |
607
+ | 0.2370 | 1020 | 1.5048 |
608
+ | 0.2382 | 1025 | 1.4882 |
609
+ | 0.2393 | 1030 | 1.4692 |
610
+ | 0.2405 | 1035 | 1.4894 |
611
+ | 0.2416 | 1040 | 1.4774 |
612
+ | 0.2428 | 1045 | 1.4928 |
613
+ | 0.2440 | 1050 | 1.4861 |
614
+ | 0.2451 | 1055 | 1.4829 |
615
+ | 0.2463 | 1060 | 1.4738 |
616
+ | 0.2474 | 1065 | 1.4902 |
617
+ | 0.2486 | 1070 | 1.4784 |
618
+ | 0.2498 | 1075 | 1.4804 |
619
+ | 0.2509 | 1080 | 1.4692 |
620
+ | 0.2521 | 1085 | 1.4625 |
621
+ | 0.2533 | 1090 | 1.4511 |
622
+ | 0.2544 | 1095 | 1.4735 |
623
+ | 0.2556 | 1100 | 1.4547 |
624
+ | 0.2567 | 1105 | 1.4488 |
625
+ | 0.2579 | 1110 | 1.4585 |
626
+ | 0.2591 | 1115 | 1.455 |
627
+ | 0.2602 | 1120 | 1.4571 |
628
+ | 0.2614 | 1125 | 1.4617 |
629
+ | 0.2625 | 1130 | 1.4572 |
630
+ | 0.2637 | 1135 | 1.4501 |
631
+ | 0.2649 | 1140 | 1.4599 |
632
+ | 0.2660 | 1145 | 1.4469 |
633
+ | 0.2672 | 1150 | 1.4308 |
634
+ | 0.2684 | 1155 | 1.4329 |
635
+ | 0.2695 | 1160 | 1.441 |
636
+ | 0.2707 | 1165 | 1.431 |
637
+ | 0.2718 | 1170 | 1.4323 |
638
+ | 0.2730 | 1175 | 1.4194 |
639
+ | 0.2742 | 1180 | 1.4364 |
640
+ | 0.2753 | 1185 | 1.4364 |
641
+ | 0.2765 | 1190 | 1.4228 |
642
+ | 0.2776 | 1195 | 1.418 |
643
+ | 0.2788 | 1200 | 1.4246 |
644
+ | 0.2800 | 1205 | 1.4387 |
645
+ | 0.2811 | 1210 | 1.4188 |
646
+ | 0.2823 | 1215 | 1.4035 |
647
+ | 0.2835 | 1220 | 1.4233 |
648
+ | 0.2846 | 1225 | 1.4112 |
649
+ | 0.2858 | 1230 | 1.4284 |
650
+ | 0.2869 | 1235 | 1.4154 |
651
+ | 0.2881 | 1240 | 1.4167 |
652
+ | 0.2893 | 1245 | 1.4049 |
653
+ | 0.2904 | 1250 | 1.4064 |
654
+ | 0.2916 | 1255 | 1.4057 |
655
+ | 0.2928 | 1260 | 1.4204 |
656
+ | 0.2939 | 1265 | 1.4093 |
657
+ | 0.2951 | 1270 | 1.4053 |
658
+ | 0.2962 | 1275 | 1.4018 |
659
+ | 0.2974 | 1280 | 1.398 |
660
+ | 0.2986 | 1285 | 1.4039 |
661
+ | 0.2997 | 1290 | 1.3844 |
662
+ | 0.3009 | 1295 | 1.4017 |
663
+ | 0.3020 | 1300 | 1.3993 |
664
+ | 0.3032 | 1305 | 1.3962 |
665
+ | 0.3044 | 1310 | 1.3784 |
666
+ | 0.3055 | 1315 | 1.395 |
667
+ | 0.3067 | 1320 | 1.3998 |
668
+ | 0.3079 | 1325 | 1.3904 |
669
+ | 0.3090 | 1330 | 1.3858 |
670
+ | 0.3102 | 1335 | 1.378 |
671
+ | 0.3113 | 1340 | 1.3812 |
672
+ | 0.3125 | 1345 | 1.3912 |
673
+ | 0.3137 | 1350 | 1.3775 |
674
+ | 0.3148 | 1355 | 1.3628 |
675
+ | 0.3160 | 1360 | 1.3757 |
676
+ | 0.3171 | 1365 | 1.3852 |
677
+ | 0.3183 | 1370 | 1.377 |
678
+ | 0.3195 | 1375 | 1.3985 |
679
+ | 0.3206 | 1380 | 1.3703 |
680
+ | 0.3218 | 1385 | 1.3564 |
681
+ | 0.3230 | 1390 | 1.3658 |
682
+ | 0.3241 | 1395 | 1.3662 |
683
+ | 0.3253 | 1400 | 1.3536 |
684
+ | 0.3264 | 1405 | 1.3542 |
685
+ | 0.3276 | 1410 | 1.355 |
686
+ | 0.3288 | 1415 | 1.3569 |
687
+ | 0.3299 | 1420 | 1.3565 |
688
+ | 0.3311 | 1425 | 1.3538 |
689
+ | 0.3322 | 1430 | 1.3447 |
690
+ | 0.3334 | 1435 | 1.3368 |
691
+ | 0.3346 | 1440 | 1.3581 |
692
+ | 0.3357 | 1445 | 1.3601 |
693
+ | 0.3369 | 1450 | 1.3367 |
694
+ | 0.3381 | 1455 | 1.3406 |
695
+ | 0.3392 | 1460 | 1.3393 |
696
+ | 0.3404 | 1465 | 1.3631 |
697
+ | 0.3415 | 1470 | 1.338 |
698
+ | 0.3427 | 1475 | 1.3441 |
699
+ | 0.3439 | 1480 | 1.3405 |
700
+ | 0.3450 | 1485 | 1.3532 |
701
+ | 0.3462 | 1490 | 1.3478 |
702
+ | 0.3474 | 1495 | 1.3383 |
703
+ | 0.3485 | 1500 | 1.3346 |
704
+ | 0.3497 | 1505 | 1.341 |
705
+ | 0.3508 | 1510 | 1.3254 |
706
+ | 0.3520 | 1515 | 1.3296 |
707
+ | 0.3532 | 1520 | 1.328 |
708
+ | 0.3543 | 1525 | 1.3395 |
709
+ | 0.3555 | 1530 | 1.3242 |
710
+ | 0.3566 | 1535 | 1.318 |
711
+ | 0.3578 | 1540 | 1.3167 |
712
+ | 0.3590 | 1545 | 1.3238 |
713
+ | 0.3601 | 1550 | 1.314 |
714
+ | 0.3613 | 1555 | 1.3258 |
715
+ | 0.3625 | 1560 | 1.3189 |
716
+ | 0.3636 | 1565 | 1.3058 |
717
+ | 0.3648 | 1570 | 1.321 |
718
+ | 0.3659 | 1575 | 1.3003 |
719
+ | 0.3671 | 1580 | 1.3165 |
720
+ | 0.3683 | 1585 | 1.3083 |
721
+ | 0.3694 | 1590 | 1.3165 |
722
+ | 0.3706 | 1595 | 1.3179 |
723
+ | 0.3717 | 1600 | 1.3132 |
724
+ | 0.3729 | 1605 | 1.3005 |
725
+ | 0.3741 | 1610 | 1.3062 |
726
+ | 0.3752 | 1615 | 1.3179 |
727
+ | 0.3764 | 1620 | 1.315 |
728
+ | 0.3776 | 1625 | 1.306 |
729
+ | 0.3787 | 1630 | 1.304 |
730
+ | 0.3799 | 1635 | 1.2906 |
731
+ | 0.3810 | 1640 | 1.3015 |
732
+ | 0.3822 | 1645 | 1.2997 |
733
+ | 0.3834 | 1650 | 1.2931 |
734
+ | 0.3845 | 1655 | 1.2915 |
735
+ | 0.3857 | 1660 | 1.3021 |
736
+ | 0.3868 | 1665 | 1.2969 |
737
+ | 0.3880 | 1670 | 1.2941 |
738
+ | 0.3892 | 1675 | 1.2938 |
739
+ | 0.3903 | 1680 | 1.2968 |
740
+ | 0.3915 | 1685 | 1.2821 |
741
+ | 0.3927 | 1690 | 1.2786 |
742
+ | 0.3938 | 1695 | 1.2856 |
743
+ | 0.3950 | 1700 | 1.2785 |
744
+ | 0.3961 | 1705 | 1.2752 |
745
+ | 0.3973 | 1710 | 1.2946 |
746
+ | 0.3985 | 1715 | 1.2817 |
747
+ | 0.3996 | 1720 | 1.2799 |
748
+ | 0.4008 | 1725 | 1.2727 |
749
+ | 0.4020 | 1730 | 1.2851 |
750
+ | 0.4031 | 1735 | 1.2552 |
751
+ | 0.4043 | 1740 | 1.2824 |
752
+ | 0.4054 | 1745 | 1.2601 |
753
+ | 0.4066 | 1750 | 1.2851 |
754
+ | 0.4078 | 1755 | 1.267 |
755
+ | 0.4089 | 1760 | 1.2694 |
756
+ | 0.4101 | 1765 | 1.2699 |
757
+ | 0.4112 | 1770 | 1.2604 |
758
+ | 0.4124 | 1775 | 1.2739 |
759
+ | 0.4136 | 1780 | 1.2842 |
760
+ | 0.4147 | 1785 | 1.2686 |
761
+ | 0.4159 | 1790 | 1.2642 |
762
+ | 0.4171 | 1795 | 1.2634 |
763
+ | 0.4182 | 1800 | 1.2516 |
764
+ | 0.4194 | 1805 | 1.2644 |
765
+ | 0.4205 | 1810 | 1.2635 |
766
+ | 0.4217 | 1815 | 1.2516 |
767
+ | 0.4229 | 1820 | 1.2582 |
768
+ | 0.4240 | 1825 | 1.2513 |
769
+ | 0.4252 | 1830 | 1.2468 |
770
+ | 0.4263 | 1835 | 1.2388 |
771
+ | 0.4275 | 1840 | 1.2494 |
772
+ | 0.4287 | 1845 | 1.2383 |
773
+ | 0.4298 | 1850 | 1.2567 |
774
+ | 0.4310 | 1855 | 1.2518 |
775
+ | 0.4322 | 1860 | 1.2571 |
776
+ | 0.4333 | 1865 | 1.2445 |
777
+ | 0.4345 | 1870 | 1.251 |
778
+ | 0.4356 | 1875 | 1.2446 |
779
+ | 0.4368 | 1880 | 1.2315 |
780
+ | 0.4380 | 1885 | 1.2382 |
781
+ | 0.4391 | 1890 | 1.256 |
782
+ | 0.4403 | 1895 | 1.2446 |
783
+ | 0.4414 | 1900 | 1.2286 |
784
+ | 0.4426 | 1905 | 1.2411 |
785
+ | 0.4438 | 1910 | 1.2392 |
786
+ | 0.4449 | 1915 | 1.233 |
787
+ | 0.4461 | 1920 | 1.2455 |
788
+ | 0.4473 | 1925 | 1.2309 |
789
+ | 0.4484 | 1930 | 1.2178 |
790
+ | 0.4496 | 1935 | 1.2253 |
791
+ | 0.4507 | 1940 | 1.2295 |
792
+ | 0.4519 | 1945 | 1.229 |
793
+ | 0.4531 | 1950 | 1.2456 |
794
+ | 0.4542 | 1955 | 1.2366 |
795
+ | 0.4554 | 1960 | 1.2273 |
796
+ | 0.4566 | 1965 | 1.2208 |
797
+ | 0.4577 | 1970 | 1.2291 |
798
+ | 0.4589 | 1975 | 1.2083 |
799
+ | 0.4600 | 1980 | 1.2342 |
800
+ | 0.4612 | 1985 | 1.2237 |
801
+ | 0.4624 | 1990 | 1.2265 |
802
+ | 0.4635 | 1995 | 1.2098 |
803
+ | 0.4647 | 2000 | 1.2258 |
804
+ | 0.4658 | 2005 | 1.2357 |
805
+ | 0.4670 | 2010 | 1.2194 |
806
+ | 0.4682 | 2015 | 1.2258 |
807
+ | 0.4693 | 2020 | 1.2014 |
808
+ | 0.4705 | 2025 | 1.2051 |
809
+ | 0.4717 | 2030 | 1.2035 |
810
+ | 0.4728 | 2035 | 1.2179 |
811
+ | 0.4740 | 2040 | 1.2241 |
812
+ | 0.4751 | 2045 | 1.2255 |
813
+ | 0.4763 | 2050 | 1.2265 |
814
+ | 0.4775 | 2055 | 1.2163 |
815
+ | 0.4786 | 2060 | 1.211 |
816
+ | 0.4798 | 2065 | 1.2178 |
817
+ | 0.4809 | 2070 | 1.2344 |
818
+ | 0.4821 | 2075 | 1.2089 |
819
+ | 0.4833 | 2080 | 1.2031 |
820
+ | 0.4844 | 2085 | 1.2128 |
821
+ | 0.4856 | 2090 | 1.2074 |
822
+ | 0.4868 | 2095 | 1.2071 |
823
+ | 0.4879 | 2100 | 1.2005 |
824
+ | 0.4891 | 2105 | 1.2133 |
825
+ | 0.4902 | 2110 | 1.1913 |
826
+ | 0.4914 | 2115 | 1.2054 |
827
+ | 0.4926 | 2120 | 1.2071 |
828
+ | 0.4937 | 2125 | 1.1938 |
829
+ | 0.4949 | 2130 | 1.1956 |
830
+ | 0.4961 | 2135 | 1.1932 |
831
+ | 0.4972 | 2140 | 1.2124 |
832
+ | 0.4984 | 2145 | 1.2098 |
833
+ | 0.4995 | 2150 | 1.216 |
834
+ | 0.5007 | 2155 | 1.2135 |
835
+ | 0.5019 | 2160 | 1.2 |
836
+ | 0.5030 | 2165 | 1.2118 |
837
+ | 0.5042 | 2170 | 1.1988 |
838
+ | 0.5053 | 2175 | 1.1973 |
839
+ | 0.5065 | 2180 | 1.2039 |
840
+ | 0.5077 | 2185 | 1.1959 |
841
+ | 0.5088 | 2190 | 1.1924 |
842
+ | 0.5100 | 2195 | 1.1875 |
843
+ | 0.5112 | 2200 | 1.1806 |
844
+ | 0.5123 | 2205 | 1.1933 |
845
+ | 0.5135 | 2210 | 1.1837 |
846
+ | 0.5146 | 2215 | 1.1876 |
847
+ | 0.5158 | 2220 | 1.1901 |
848
+ | 0.5170 | 2225 | 1.1971 |
849
+ | 0.5181 | 2230 | 1.2016 |
850
+ | 0.5193 | 2235 | 1.1849 |
851
+ | 0.5204 | 2240 | 1.1823 |
852
+ | 0.5216 | 2245 | 1.1757 |
853
+ | 0.5228 | 2250 | 1.1816 |
854
+ | 0.5239 | 2255 | 1.18 |
855
+ | 0.5251 | 2260 | 1.1879 |
856
+ | 0.5263 | 2265 | 1.1867 |
857
+ | 0.5274 | 2270 | 1.1734 |
858
+ | 0.5286 | 2275 | 1.1798 |
859
+ | 0.5297 | 2280 | 1.1848 |
860
+ | 0.5309 | 2285 | 1.1829 |
861
+ | 0.5321 | 2290 | 1.177 |
862
+ | 0.5332 | 2295 | 1.1795 |
863
+ | 0.5344 | 2300 | 1.1725 |
864
+ | 0.5355 | 2305 | 1.1747 |
865
+ | 0.5367 | 2310 | 1.1736 |
866
+ | 0.5379 | 2315 | 1.1777 |
867
+ | 0.5390 | 2320 | 1.1897 |
868
+ | 0.5402 | 2325 | 1.1792 |
869
+ | 0.5414 | 2330 | 1.1843 |
870
+ | 0.5425 | 2335 | 1.1762 |
871
+ | 0.5437 | 2340 | 1.1804 |
872
+ | 0.5448 | 2345 | 1.1728 |
873
+ | 0.5460 | 2350 | 1.1514 |
874
+ | 0.5472 | 2355 | 1.1747 |
875
+ | 0.5483 | 2360 | 1.1658 |
876
+ | 0.5495 | 2365 | 1.1763 |
877
+ | 0.5507 | 2370 | 1.1588 |
878
+ | 0.5518 | 2375 | 1.1641 |
879
+ | 0.5530 | 2380 | 1.1714 |
880
+ | 0.5541 | 2385 | 1.1697 |
881
+ | 0.5553 | 2390 | 1.1567 |
882
+ | 0.5565 | 2395 | 1.1696 |
883
+ | 0.5576 | 2400 | 1.1578 |
884
+ | 0.5588 | 2405 | 1.1683 |
885
+ | 0.5599 | 2410 | 1.1547 |
886
+ | 0.5611 | 2415 | 1.1642 |
887
+ | 0.5623 | 2420 | 1.1755 |
888
+ | 0.5634 | 2425 | 1.159 |
889
+ | 0.5646 | 2430 | 1.1602 |
890
+ | 0.5658 | 2435 | 1.1652 |
891
+ | 0.5669 | 2440 | 1.1478 |
892
+ | 0.5681 | 2445 | 1.1542 |
893
+ | 0.5692 | 2450 | 1.15 |
894
+ | 0.5704 | 2455 | 1.1665 |
895
+ | 0.5716 | 2460 | 1.1765 |
896
+ | 0.5727 | 2465 | 1.1598 |
897
+ | 0.5739 | 2470 | 1.1448 |
898
+ | 0.5750 | 2475 | 1.1431 |
899
+ | 0.5762 | 2480 | 1.1503 |
900
+ | 0.5774 | 2485 | 1.1433 |
901
+ | 0.5785 | 2490 | 1.1556 |
902
+ | 0.5797 | 2495 | 1.1692 |
903
+ | 0.5809 | 2500 | 1.1454 |
904
+ | 0.5820 | 2505 | 1.15 |
905
+ | 0.5832 | 2510 | 1.1528 |
906
+ | 0.5843 | 2515 | 1.1454 |
907
+ | 0.5855 | 2520 | 1.1656 |
908
+ | 0.5867 | 2525 | 1.1455 |
909
+ | 0.5878 | 2530 | 1.156 |
910
+ | 0.5890 | 2535 | 1.1489 |
911
+ | 0.5901 | 2540 | 1.1442 |
912
+ | 0.5913 | 2545 | 1.1466 |
913
+ | 0.5925 | 2550 | 1.1437 |
914
+ | 0.5936 | 2555 | 1.1579 |
915
+ | 0.5948 | 2560 | 1.1484 |
916
+ | 0.5960 | 2565 | 1.1399 |
917
+ | 0.5971 | 2570 | 1.1475 |
918
+ | 0.5983 | 2575 | 1.1486 |
919
+ | 0.5994 | 2580 | 1.1612 |
920
+ | 0.6006 | 2585 | 1.1435 |
921
+ | 0.6018 | 2590 | 1.1439 |
922
+ | 0.6029 | 2595 | 1.1427 |
923
+ | 0.6041 | 2600 | 1.1468 |
924
+ | 0.6053 | 2605 | 1.1391 |
925
+ | 0.6064 | 2610 | 1.1427 |
926
+ | 0.6076 | 2615 | 1.1428 |
927
+ | 0.6087 | 2620 | 1.1415 |
928
+ | 0.6099 | 2625 | 1.1345 |
929
+ | 0.6111 | 2630 | 1.1356 |
930
+ | 0.6122 | 2635 | 1.1274 |
931
+ | 0.6134 | 2640 | 1.1472 |
932
+ | 0.6145 | 2645 | 1.1364 |
933
+ | 0.6157 | 2650 | 1.1293 |
934
+ | 0.6169 | 2655 | 1.1333 |
935
+ | 0.6180 | 2660 | 1.1371 |
936
+ | 0.6192 | 2665 | 1.1486 |
937
+ | 0.6204 | 2670 | 1.1271 |
938
+ | 0.6215 | 2675 | 1.1371 |
939
+ | 0.6227 | 2680 | 1.1298 |
940
+ | 0.6238 | 2685 | 1.1414 |
941
+ | 0.625 | 2690 | 1.1365 |
942
+ | 0.6262 | 2695 | 1.1484 |
943
+ | 0.6273 | 2700 | 1.1248 |
944
+ | 0.6285 | 2705 | 1.1291 |
945
+ | 0.6296 | 2710 | 1.1267 |
946
+ | 0.6308 | 2715 | 1.121 |
947
+ | 0.6320 | 2720 | 1.1414 |
948
+ | 0.6331 | 2725 | 1.1362 |
949
+ | 0.6343 | 2730 | 1.1206 |
950
+ | 0.6355 | 2735 | 1.1337 |
951
+ | 0.6366 | 2740 | 1.1122 |
952
+ | 0.6378 | 2745 | 1.122 |
953
+ | 0.6389 | 2750 | 1.1245 |
954
+ | 0.6401 | 2755 | 1.1426 |
955
+ | 0.6413 | 2760 | 1.1233 |
956
+ | 0.6424 | 2765 | 1.1398 |
957
+ | 0.6436 | 2770 | 1.1214 |
958
+ | 0.6447 | 2775 | 1.1152 |
959
+ | 0.6459 | 2780 | 1.1348 |
960
+ | 0.6471 | 2785 | 1.1238 |
961
+ | 0.6482 | 2790 | 1.1175 |
962
+ | 0.6494 | 2795 | 1.1153 |
963
+ | 0.6506 | 2800 | 1.1153 |
964
+ | 0.6517 | 2805 | 1.1164 |
965
+ | 0.6529 | 2810 | 1.1155 |
966
+ | 0.6540 | 2815 | 1.108 |
967
+ | 0.6552 | 2820 | 1.1138 |
968
+ | 0.6564 | 2825 | 1.1121 |
969
+ | 0.6575 | 2830 | 1.1205 |
970
+ | 0.6587 | 2835 | 1.1252 |
971
+ | 0.6599 | 2840 | 1.1151 |
972
+ | 0.6610 | 2845 | 1.1209 |
973
+ | 0.6622 | 2850 | 1.1231 |
974
+ | 0.6633 | 2855 | 1.1212 |
975
+ | 0.6645 | 2860 | 1.1151 |
976
+ | 0.6657 | 2865 | 1.1143 |
977
+ | 0.6668 | 2870 | 1.1147 |
978
+ | 0.6680 | 2875 | 1.1208 |
979
+ | 0.6691 | 2880 | 1.1132 |
980
+ | 0.6703 | 2885 | 1.1 |
981
+ | 0.6715 | 2890 | 1.1087 |
982
+ | 0.6726 | 2895 | 1.1216 |
983
+ | 0.6738 | 2900 | 1.1112 |
984
+ | 0.6750 | 2905 | 1.1221 |
985
+ | 0.6761 | 2910 | 1.095 |
986
+ | 0.6773 | 2915 | 1.1068 |
987
+ | 0.6784 | 2920 | 1.1092 |
988
+ | 0.6796 | 2925 | 1.1145 |
989
+ | 0.6808 | 2930 | 1.1153 |
990
+ | 0.6819 | 2935 | 1.1082 |
991
+ | 0.6831 | 2940 | 1.1001 |
992
+ | 0.6842 | 2945 | 1.1154 |
993
+ | 0.6854 | 2950 | 1.1079 |
994
+ | 0.6866 | 2955 | 1.1051 |
995
+ | 0.6877 | 2960 | 1.1073 |
996
+ | 0.6889 | 2965 | 1.1024 |
997
+ | 0.6901 | 2970 | 1.1029 |
998
+ | 0.6912 | 2975 | 1.0998 |
999
+ | 0.6924 | 2980 | 1.1144 |
1000
+ | 0.6935 | 2985 | 1.1092 |
1001
+ | 0.6947 | 2990 | 1.1043 |
1002
+ | 0.6959 | 2995 | 1.1095 |
1003
+ | 0.6970 | 3000 | 1.0948 |
1004
+ | 0.6982 | 3005 | 1.0866 |
1005
+ | 0.6993 | 3010 | 1.1011 |
1006
+ | 0.7005 | 3015 | 1.1002 |
1007
+ | 0.7017 | 3020 | 1.0948 |
1008
+ | 0.7028 | 3025 | 1.0962 |
1009
+ | 0.7040 | 3030 | 1.0981 |
1010
+ | 0.7052 | 3035 | 1.0909 |
1011
+ | 0.7063 | 3040 | 1.0945 |
1012
+ | 0.7075 | 3045 | 1.1108 |
1013
+ | 0.7086 | 3050 | 1.1119 |
1014
+ | 0.7098 | 3055 | 1.0856 |
1015
+ | 0.7110 | 3060 | 1.1141 |
1016
+ | 0.7121 | 3065 | 1.1079 |
1017
+ | 0.7133 | 3070 | 1.099 |
1018
+ | 0.7145 | 3075 | 1.0813 |
1019
+ | 0.7156 | 3080 | 1.0849 |
1020
+ | 0.7168 | 3085 | 1.0927 |
1021
+ | 0.7179 | 3090 | 1.0949 |
1022
+ | 0.7191 | 3095 | 1.0974 |
1023
+ | 0.7203 | 3100 | 1.1004 |
1024
+ | 0.7214 | 3105 | 1.0897 |
1025
+ | 0.7226 | 3110 | 1.0958 |
1026
+ | 0.7237 | 3115 | 1.0995 |
1027
+ | 0.7249 | 3120 | 1.0982 |
1028
+ | 0.7261 | 3125 | 1.0986 |
1029
+ | 0.7272 | 3130 | 1.0971 |
1030
+ | 0.7284 | 3135 | 1.0797 |
1031
+ | 0.7296 | 3140 | 1.0915 |
1032
+ | 0.7307 | 3145 | 1.1058 |
1033
+ | 0.7319 | 3150 | 1.0822 |
1034
+ | 0.7330 | 3155 | 1.0806 |
1035
+ | 0.7342 | 3160 | 1.0762 |
1036
+ | 0.7354 | 3165 | 1.0965 |
1037
+ | 0.7365 | 3170 | 1.0853 |
1038
+ | 0.7377 | 3175 | 1.0873 |
1039
+ | 0.7388 | 3180 | 1.1015 |
1040
+ | 0.7400 | 3185 | 1.0832 |
1041
+ | 0.7412 | 3190 | 1.0919 |
1042
+ | 0.7423 | 3195 | 1.0838 |
1043
+ | 0.7435 | 3200 | 1.079 |
1044
+ | 0.7447 | 3205 | 1.0802 |
1045
+ | 0.7458 | 3210 | 1.0723 |
1046
+ | 0.7470 | 3215 | 1.0861 |
1047
+ | 0.7481 | 3220 | 1.078 |
1048
+ | 0.7493 | 3225 | 1.0847 |
1049
+ | 0.7505 | 3230 | 1.0907 |
1050
+ | 0.7516 | 3235 | 1.0874 |
1051
+ | 0.7528 | 3240 | 1.0883 |
1052
+ | 0.7539 | 3245 | 1.0897 |
1053
+ | 0.7551 | 3250 | 1.0842 |
1054
+ | 0.7563 | 3255 | 1.0921 |
1055
+ | 0.7574 | 3260 | 1.099 |
1056
+ | 0.7586 | 3265 | 1.0753 |
1057
+ | 0.7598 | 3270 | 1.0921 |
1058
+ | 0.7609 | 3275 | 1.0847 |
1059
+ | 0.7621 | 3280 | 1.0921 |
1060
+ | 0.7632 | 3285 | 1.0809 |
1061
+ | 0.7644 | 3290 | 1.088 |
1062
+ | 0.7656 | 3295 | 1.0812 |
1063
+ | 0.7667 | 3300 | 1.0788 |
1064
+ | 0.7679 | 3305 | 1.0998 |
1065
+ | 0.7691 | 3310 | 1.0788 |
1066
+ | 0.7702 | 3315 | 1.0863 |
1067
+ | 0.7714 | 3320 | 1.0827 |
1068
+ | 0.7725 | 3325 | 1.0806 |
1069
+ | 0.7737 | 3330 | 1.0776 |
1070
+ | 0.7749 | 3335 | 1.0825 |
1071
+ | 0.7760 | 3340 | 1.067 |
1072
+ | 0.7772 | 3345 | 1.0735 |
1073
+ | 0.7783 | 3350 | 1.0826 |
1074
+ | 0.7795 | 3355 | 1.0692 |
1075
+ | 0.7807 | 3360 | 1.0827 |
1076
+ | 0.7818 | 3365 | 1.0868 |
1077
+ | 0.7830 | 3370 | 1.0696 |
1078
+ | 0.7842 | 3375 | 1.0739 |
1079
+ | 0.7853 | 3380 | 1.0759 |
1080
+ | 0.7865 | 3385 | 1.0706 |
1081
+ | 0.7876 | 3390 | 1.0811 |
1082
+ | 0.7888 | 3395 | 1.0672 |
1083
+ | 0.7900 | 3400 | 1.0534 |
1084
+ | 0.7911 | 3405 | 1.0635 |
1085
+ | 0.7923 | 3410 | 1.0737 |
1086
+ | 0.7934 | 3415 | 1.0707 |
1087
+ | 0.7946 | 3420 | 1.0642 |
1088
+ | 0.7958 | 3425 | 1.0744 |
1089
+ | 0.7969 | 3430 | 1.0738 |
1090
+ | 0.7981 | 3435 | 1.0675 |
1091
+ | 0.7993 | 3440 | 1.0705 |
1092
+ | 0.8004 | 3445 | 1.0682 |
1093
+ | 0.8016 | 3450 | 1.0593 |
1094
+ | 0.8027 | 3455 | 1.0702 |
1095
+ | 0.8039 | 3460 | 1.0688 |
1096
+ | 0.8051 | 3465 | 1.068 |
1097
+ | 0.8062 | 3470 | 1.0678 |
1098
+ | 0.8074 | 3475 | 1.0563 |
1099
+ | 0.8086 | 3480 | 1.0759 |
1100
+ | 0.8097 | 3485 | 1.074 |
1101
+ | 0.8109 | 3490 | 1.0712 |
1102
+ | 0.8120 | 3495 | 1.0707 |
1103
+ | 0.8132 | 3500 | 1.0635 |
1104
+ | 0.8144 | 3505 | 1.077 |
1105
+ | 0.8155 | 3510 | 1.0633 |
1106
+ | 0.8167 | 3515 | 1.0731 |
1107
+ | 0.8178 | 3520 | 1.0726 |
1108
+ | 0.8190 | 3525 | 1.0648 |
1109
+ | 0.8202 | 3530 | 1.0655 |
1110
+ | 0.8213 | 3535 | 1.0552 |
1111
+ | 0.8225 | 3540 | 1.0488 |
1112
+ | 0.8237 | 3545 | 1.0544 |
1113
+ | 0.8248 | 3550 | 1.0677 |
1114
+ | 0.8260 | 3555 | 1.066 |
1115
+ | 0.8271 | 3560 | 1.0545 |
1116
+ | 0.8283 | 3565 | 1.0621 |
1117
+ | 0.8295 | 3570 | 1.0716 |
1118
+ | 0.8306 | 3575 | 1.0577 |
1119
+ | 0.8318 | 3580 | 1.0626 |
1120
+ | 0.8329 | 3585 | 1.0589 |
1121
+ | 0.8341 | 3590 | 1.0759 |
1122
+ | 0.8353 | 3595 | 1.0544 |
1123
+ | 0.8364 | 3600 | 1.0736 |
1124
+ | 0.8376 | 3605 | 1.0604 |
1125
+ | 0.8388 | 3610 | 1.0471 |
1126
+ | 0.8399 | 3615 | 1.0627 |
1127
+ | 0.8411 | 3620 | 1.0595 |
1128
+ | 0.8422 | 3625 | 1.0529 |
1129
+ | 0.8434 | 3630 | 1.0629 |
1130
+ | 0.8446 | 3635 | 1.0614 |
1131
+ | 0.8457 | 3640 | 1.0585 |
1132
+ | 0.8469 | 3645 | 1.0584 |
1133
+ | 0.8480 | 3650 | 1.0588 |
1134
+ | 0.8492 | 3655 | 1.0555 |
1135
+ | 0.8504 | 3660 | 1.0452 |
1136
+ | 0.8515 | 3665 | 1.0603 |
1137
+ | 0.8527 | 3670 | 1.0568 |
1138
+ | 0.8539 | 3675 | 1.0623 |
1139
+ | 0.8550 | 3680 | 1.0397 |
1140
+ | 0.8562 | 3685 | 1.0747 |
1141
+ | 0.8573 | 3690 | 1.0478 |
1142
+ | 0.8585 | 3695 | 1.0514 |
1143
+ | 0.8597 | 3700 | 1.0474 |
1144
+ | 0.8608 | 3705 | 1.0469 |
1145
+ | 0.8620 | 3710 | 1.0526 |
1146
+ | 0.8632 | 3715 | 1.041 |
1147
+ | 0.8643 | 3720 | 1.0483 |
1148
+ | 0.8655 | 3725 | 1.0479 |
1149
+ | 0.8666 | 3730 | 1.0536 |
1150
+ | 0.8678 | 3735 | 1.0515 |
1151
+ | 0.8690 | 3740 | 1.0547 |
1152
+ | 0.8701 | 3745 | 1.0699 |
1153
+ | 0.8713 | 3750 | 1.0525 |
1154
+ | 0.8724 | 3755 | 1.0561 |
1155
+ | 0.8736 | 3760 | 1.0459 |
1156
+ | 0.8748 | 3765 | 1.0619 |
1157
+ | 0.8759 | 3770 | 1.0325 |
1158
+ | 0.8771 | 3775 | 1.041 |
1159
+ | 0.8783 | 3780 | 1.0414 |
1160
+ | 0.8794 | 3785 | 1.0516 |
1161
+ | 0.8806 | 3790 | 1.0452 |
1162
+ | 0.8817 | 3795 | 1.0402 |
1163
+ | 0.8829 | 3800 | 1.0447 |
1164
+ | 0.8841 | 3805 | 1.0482 |
1165
+ | 0.8852 | 3810 | 1.0455 |
1166
+ | 0.8864 | 3815 | 1.041 |
1167
+ | 0.8875 | 3820 | 1.0485 |
1168
+ | 0.8887 | 3825 | 1.0402 |
1169
+ | 0.8899 | 3830 | 1.052 |
1170
+ | 0.8910 | 3835 | 1.0348 |
1171
+ | 0.8922 | 3840 | 1.0369 |
1172
+ | 0.8934 | 3845 | 1.0535 |
1173
+ | 0.8945 | 3850 | 1.0426 |
1174
+ | 0.8957 | 3855 | 1.0474 |
1175
+ | 0.8968 | 3860 | 1.0293 |
1176
+ | 0.8980 | 3865 | 1.0368 |
1177
+ | 0.8992 | 3870 | 1.038 |
1178
+ | 0.9003 | 3875 | 1.0447 |
1179
+ | 0.9015 | 3880 | 1.0476 |
1180
+ | 0.9026 | 3885 | 1.0422 |
1181
+ | 0.9038 | 3890 | 1.0314 |
1182
+ | 0.9050 | 3895 | 1.0331 |
1183
+ | 0.9061 | 3900 | 1.0434 |
1184
+ | 0.9073 | 3905 | 1.0251 |
1185
+ | 0.9085 | 3910 | 1.05 |
1186
+ | 0.9096 | 3915 | 1.0289 |
1187
+ | 0.9108 | 3920 | 1.0338 |
1188
+ | 0.9119 | 3925 | 1.0319 |
1189
+ | 0.9131 | 3930 | 1.0234 |
1190
+ | 0.9143 | 3935 | 1.0376 |
1191
+ | 0.9154 | 3940 | 1.0314 |
1192
+ | 0.9166 | 3945 | 1.0401 |
1193
+ | 0.9178 | 3950 | 1.0501 |
1194
+ | 0.9189 | 3955 | 1.0392 |
1195
+ | 0.9201 | 3960 | 1.0241 |
1196
+ | 0.9212 | 3965 | 1.0286 |
1197
+ | 0.9224 | 3970 | 1.0419 |
1198
+ | 0.9236 | 3975 | 1.0311 |
1199
+ | 0.9247 | 3980 | 1.0418 |
1200
+ | 0.9259 | 3985 | 1.0299 |
1201
+ | 0.9270 | 3990 | 1.0395 |
1202
+ | 0.9282 | 3995 | 1.0287 |
1203
+ | 0.9294 | 4000 | 1.0306 |
1204
+
1205
+ </details>
1206
+
1207
+ ### Framework Versions
1208
+ - Python: 3.12.9
1209
+ - Sentence Transformers: 4.1.0
1210
+ - Transformers: 4.52.4
1211
+ - PyTorch: 2.6.0+cu124
1212
+ - Accelerate: 1.7.0
1213
+ - Datasets: 3.6.0
1214
+ - Tokenizers: 0.21.1
1215
+
1216
+ ## Citation
1217
+
1218
+ ### BibTeX
1219
+
1220
+ #### Sentence Transformers
1221
+ ```bibtex
1222
+ @inproceedings{reimers-2019-sentence-bert,
1223
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
1224
+ author = "Reimers, Nils and Gurevych, Iryna",
1225
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
1226
+ month = "11",
1227
+ year = "2019",
1228
+ publisher = "Association for Computational Linguistics",
1229
+ url = "https://arxiv.org/abs/1908.10084",
1230
+ }
1231
+ ```
1232
+
1233
+ #### CachedMultipleNegativesRankingLoss
1234
+ ```bibtex
1235
+ @misc{gao2021scaling,
1236
+ title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
1237
+ author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
1238
+ year={2021},
1239
+ eprint={2101.06983},
1240
+ archivePrefix={arXiv},
1241
+ primaryClass={cs.LG}
1242
+ }
1243
+ ```
1244
+
1245
+ <!--
1246
+ ## Glossary
1247
+
1248
+ *Clearly define terms in order to be accessible across audiences.*
1249
+ -->
1250
+
1251
+ <!--
1252
+ ## Model Card Authors
1253
+
1254
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
1255
+ -->
1256
+
1257
+ <!--
1258
+ ## Model Card Contact
1259
+
1260
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
1261
+ -->
config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "checkpoint-4000",
3
+ "architectures": [
4
+ "BertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
8
+ "gradient_checkpointing": false,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 768,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 3072,
14
+ "layer_norm_eps": 1e-12,
15
+ "max_position_embeddings": 512,
16
+ "model_type": "bert",
17
+ "num_attention_heads": 12,
18
+ "num_hidden_layers": 12,
19
+ "output_past": true,
20
+ "pad_token_id": 0,
21
+ "position_embedding_type": "absolute",
22
+ "torch_dtype": "float32",
23
+ "transformers_version": "4.46.2",
24
+ "type_vocab_size": 2,
25
+ "use_cache": true,
26
+ "vocab_size": 50325
27
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "4.1.0",
4
+ "transformers": "4.46.2",
5
+ "pytorch": "2.6.0+cu126"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f6b0a27e28edad9e3c6af9815cb0863962f3b082208c36ccc6f6a23bc034f9fa
3
+ size 498786152
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,65 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[PAD]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "[UNK]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "[CLS]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "[SEP]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "clean_up_tokenization_spaces": true,
45
+ "cls_token": "[CLS]",
46
+ "do_basic_tokenize": true,
47
+ "do_lower_case": false,
48
+ "extra_special_tokens": {},
49
+ "mask_token": "[MASK]",
50
+ "max_length": 512,
51
+ "model_max_length": 512,
52
+ "never_split": null,
53
+ "pad_to_multiple_of": null,
54
+ "pad_token": "[PAD]",
55
+ "pad_token_type_id": 0,
56
+ "padding_side": "right",
57
+ "sep_token": "[SEP]",
58
+ "stride": 0,
59
+ "strip_accents": false,
60
+ "tokenize_chinese_chars": true,
61
+ "tokenizer_class": "BertTokenizer",
62
+ "truncation_side": "right",
63
+ "truncation_strategy": "longest_first",
64
+ "unk_token": "[UNK]"
65
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff