selmanbaysan commited on
Commit
aaaf91c
·
verified ·
1 Parent(s): 4b031e0

Pushing the final model to the hub

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,507 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:60000000
8
+ - loss:MultipleNegativesRankingLoss
9
+ base_model: dbmdz/bert-base-turkish-cased
10
+ widget:
11
+ - source_sentence: Tasman Denizi
12
+ sentences:
13
+ - '(Grekçe: Πέργαμον), günümüzde İzmir iline bağlı Bergama ilçesinin merkezinin
14
+ yerinde kurulu antik kentin adıdır. , eski çağlarda Misya bölgesinin önemli merkezlerinden
15
+ biriydi. MÖ 282-133 arasında da Krallığı''nın başkentiydi. adı, bir söylence kahramanı
16
+ olan Pergamos''tan gelir. Pergamos''un, Teuthrania kralını öldürdükten sonra kenti
17
+ ele geçirdiği ve kendi adını verdiği sanılır. Başka bir söylenceye göre de Teuthrania
18
+ Kralı Grynos savaşta Pergamos''tan yardım istemiş, zaferden sonra iki kent kurdurarak
19
+ birine onun onuruna , ötekine de Gryneion adını vermiştir.'
20
+ - ', Okyanusya bölgesinde Büyük Okyanus''a bağlı bir deniz. Avustralya ve Yeni Zelanda
21
+ arasında yaklaşık 2000 km boyunca uzanır. Avustralya''nın doğu eyaletleri olan
22
+ Yeni Güney Galler, Tasmanya, Queensland ve Victoria eyaletleri Yeni Zelanda''nın
23
+ batısı ve Yeni Kaledonya''ya kıyıları vardır. Queensland ve Yeni Kaledonya arasındaki
24
+ boğaz ile Mercan Denizi''nden ayrılır.'
25
+ - (ya da Soundtrack from the Film More), Barbet Schroeder tarafından yönetilmiş
26
+ More filminin soundtrack'idir. Pink Floyd'un bu ilk soundtrack çalışması aynı
27
+ zamanda Syd Barrett olmadan yapılan ilk albümdür. Önceki albümlerdeki prodüktör
28
+ Norman Smith burada yerini Pink Floyd'un kendisine bırakmışıtr. Pink Floyd bu
29
+ ve sonraki soundtrack'lerinde esas albümlerinde kullanmayacakları materyalleri
30
+ kullanacak, değişik tarzlarda denemeler yapacaktı. Albüm kısa pop/folk şarkıları,
31
+ doğaçlamalar, The Nile Song ve Ibiza Bar gibi hard rock kategorisinde değerlendirilebilecek
32
+ parçalardan oluşmaktadır. A Spanish Piece gibi birçok şarkı ısmarlama şeklinde
33
+ bestelenmiştir.
34
+ - source_sentence: Windows 95
35
+ sentences:
36
+ - ', Yerküre''de yer alan ana biyom tiplerinden birisidir. , yıllık 250 mm''den
37
+ az yağış alan bölgeler için kullanılan bir terimdir.'
38
+ - ', sabit bir sıcaklık ve sabit bir gerilme altında, malzemede oluşan gerilmenin
39
+ zamana göre değişimini tespit eden bir deneydir. gerilme gevşemesi deneyi de Sürünme
40
+ deneyine benzer olarak uzun zaman dilimlerinde gerçekleştirilebilen bir deneydir.
41
+ Son zamanlarda gerilme gevşemesi deneyi giderek yaygınlık kazanmaktadır özellikle
42
+ arabaların amortisör kısımlarında kullanılan çeliklerin geliştirilmesi konusunda
43
+ mutlak gereklilik duyulmaktadır çünkü bu malzemelerden istenen temel özellik herhangi
44
+ bir gerilim anında oluşan enerjiyi absorbe ederek daha sonra serbest bırakması
45
+ istenir. ile malzemenin yoğun olduğu bölgelerdeki bu bölgeler döküm, plastik şekil
46
+ verme ve kaynaktır. Isıl işlemin kalıcı iç gerilmelere ve bunların giderilmesine
47
+ olan etkisini test eden bir deneydir.
48
+
49
+ Gerilme gevşemesi ile malzemelerin mekanik özellikleri arasında bir ilişki olup
50
+ bu ilişkiden faydalanarak aktivasyon enerjisi, deformasyon hızı duyarlılığı üssü,
51
+ dislokasyon hareketi için gerekli etkin gerilme, dislokasyon hızı gerilme üssü
52
+ gibi mekanik özelliklerle ilgili bazı parametreler de gerilme gevşemesi deneyi
53
+ ile tespit edilir.'
54
+ - ', Microsoft''un ürettiği işletim sistemi ailesi Windows''un MS-DOS üzerinde yükselen
55
+ dördüncü ana sürümüdür.'
56
+ - source_sentence: Soyuz 18-1
57
+ sentences:
58
+ - (Soyuz 18a, 5 Nisan anomalisi), Sovyetler Birliği tarafından fırlatılan insanlı
59
+ uzay aracı. Arıza nedeniyle yörüngeye ulaşamadan içindeki iki kozmonotla birlikte
60
+ düştü. Acil iniş sisteminin çalışması nedeniyle kozmonotlar Vasili Lazarev ve
61
+ Oleg Makarov yara almadan kurtuldular.
62
+ - '(İbranice: חיים רביבו) (d.22 Şubat 1972, Aşdod) İsrailli eski millî futbolcudur.'
63
+ - ', ilk olarak genel anlamda Perry Anderson''un Üzerine Düşünceler kitabında bahsettiği
64
+ anlamda, 19. yüzyıldan ve 20. yüzyıla Marksizmin Batı''daki hikâyesinden oluşur.
65
+ Bu anlamda Marks''ın eserinden bugüne kadarki gelişimi, ayrışmaları, iç bölümlenmeleri,
66
+ farklılıklarıyla teorik ve politik bir sistematik öğreti olarak Marksizmin Batı
67
+ düşüncesindeki ve pratiğindeki yeri değerlendirilir. Karl Kautsky ve Lenin''in
68
+ tartışmaları da bu bağlamda genel anlamdaki bu içinde yer alır.'
69
+ - source_sentence: Yukarıkarakaya
70
+ sentences:
71
+ - Doğançam, Antalya ilinin Manavgat ilçesine bağlı bir mahalledir.
72
+ - Sultan , III. Mustafa’nın yaptırdığı Laleli Külliyesi'ndedir. Bu türbe Nuruosmaniye
73
+ Türbesi'nden sonra Batı etkilerinin görüldüğü ikinci sultan türbesidir. Ordu caddesi
74
+ üzerinde Laleli Camii'nin giriş kapısı ile han bölümünün yan tarafıdır. 1759–1763
75
+ yıllarında Mimar Mehmed Tahir Ağa'ya inşa ettirilmiştir.
76
+ - ', Yozgat ilinin Çekerek ilçesine bağlı bir köydür.'
77
+ - source_sentence: Aksaz, Manavgat
78
+ sentences:
79
+ - ', (d. Şubat 1882, Mekke, Osmanlı İmparatorluğu - ö. 20 Temmuz 1951, Kudüs, Filistin),
80
+ Ürdün Kralı. Arap-İsrail savaşları sırasında öldürüldü, yerine oğlu 1. Talal geçmiştir.'
81
+ - (1961, Şereflikoçhisar, Ankara) Türk halk müziği sanatçısı.
82
+ - Aksaz, Antalya ilinin Manavgat ilçesine bağlı bir mahalledir.
83
+ datasets:
84
+ - selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset
85
+ pipeline_tag: sentence-similarity
86
+ library_name: sentence-transformers
87
+ metrics:
88
+ - cosine_accuracy
89
+ - cosine_accuracy_threshold
90
+ - cosine_f1
91
+ - cosine_f1_threshold
92
+ - cosine_precision
93
+ - cosine_recall
94
+ - cosine_ap
95
+ - cosine_mcc
96
+ model-index:
97
+ - name: SentenceTransformer based on dbmdz/bert-base-turkish-cased
98
+ results:
99
+ - task:
100
+ type: binary-classification
101
+ name: Binary Classification
102
+ dataset:
103
+ name: dev
104
+ type: dev
105
+ metrics:
106
+ - type: cosine_accuracy
107
+ value: 0.9999989554433933
108
+ name: Cosine Accuracy
109
+ - type: cosine_accuracy_threshold
110
+ value: -0.10191559791564941
111
+ name: Cosine Accuracy Threshold
112
+ - type: cosine_f1
113
+ value: 0.9999994777214238
114
+ name: Cosine F1
115
+ - type: cosine_f1_threshold
116
+ value: -0.10191559791564941
117
+ name: Cosine F1 Threshold
118
+ - type: cosine_precision
119
+ value: 1.0
120
+ name: Cosine Precision
121
+ - type: cosine_recall
122
+ value: 0.9999989554433933
123
+ name: Cosine Recall
124
+ - type: cosine_ap
125
+ value: 0.9999999999999996
126
+ name: Cosine Ap
127
+ - type: cosine_mcc
128
+ value: 0.0
129
+ name: Cosine Mcc
130
+ ---
131
+
132
+ # SentenceTransformer based on dbmdz/bert-base-turkish-cased
133
+
134
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [dbmdz/bert-base-turkish-cased](https://huggingface.co/dbmdz/bert-base-turkish-cased) on the [turkish_weakly_supervised_contrastive_learning_dataset](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
135
+
136
+ ## Model Details
137
+
138
+ ### Model Description
139
+ - **Model Type:** Sentence Transformer
140
+ - **Base model:** [dbmdz/bert-base-turkish-cased](https://huggingface.co/dbmdz/bert-base-turkish-cased) <!-- at revision 5bcc154ffb58544ecd61d808897597c40ef63881 -->
141
+ - **Maximum Sequence Length:** 512 tokens
142
+ - **Output Dimensionality:** 768 dimensions
143
+ - **Similarity Function:** Cosine Similarity
144
+ - **Training Dataset:**
145
+ - [turkish_weakly_supervised_contrastive_learning_dataset](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset)
146
+ <!-- - **Language:** Unknown -->
147
+ <!-- - **License:** Unknown -->
148
+
149
+ ### Model Sources
150
+
151
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
152
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
153
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
154
+
155
+ ### Full Model Architecture
156
+
157
+ ```
158
+ SentenceTransformer(
159
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
160
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
161
+ )
162
+ ```
163
+
164
+ ## Usage
165
+
166
+ ### Direct Usage (Sentence Transformers)
167
+
168
+ First install the Sentence Transformers library:
169
+
170
+ ```bash
171
+ pip install -U sentence-transformers
172
+ ```
173
+
174
+ Then you can load this model and run inference.
175
+ ```python
176
+ from sentence_transformers import SentenceTransformer
177
+
178
+ # Download from the 🤗 Hub
179
+ model = SentenceTransformer("selmanbaysan/bert-base-turkish-cased_large_scale_contrastive_learning")
180
+ # Run inference
181
+ sentences = [
182
+ 'Aksaz, Manavgat',
183
+ 'Aksaz, Antalya ilinin Manavgat ilçesine bağlı bir mahalledir.',
184
+ ', (d. Şubat 1882, Mekke, Osmanlı İmparatorluğu - ö. 20 Temmuz 1951, Kudüs, Filistin), Ürdün Kralı. Arap-İsrail savaşları sırasında öldürüldü, yerine oğlu 1. Talal geçmiştir.',
185
+ ]
186
+ embeddings = model.encode(sentences)
187
+ print(embeddings.shape)
188
+ # [3, 768]
189
+
190
+ # Get the similarity scores for the embeddings
191
+ similarities = model.similarity(embeddings, embeddings)
192
+ print(similarities.shape)
193
+ # [3, 3]
194
+ ```
195
+
196
+ <!--
197
+ ### Direct Usage (Transformers)
198
+
199
+ <details><summary>Click to see the direct usage in Transformers</summary>
200
+
201
+ </details>
202
+ -->
203
+
204
+ <!--
205
+ ### Downstream Usage (Sentence Transformers)
206
+
207
+ You can finetune this model on your own dataset.
208
+
209
+ <details><summary>Click to expand</summary>
210
+
211
+ </details>
212
+ -->
213
+
214
+ <!--
215
+ ### Out-of-Scope Use
216
+
217
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
218
+ -->
219
+
220
+ ## Evaluation
221
+
222
+ ### Metrics
223
+
224
+ #### Binary Classification
225
+
226
+ * Dataset: `dev`
227
+ * Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator)
228
+
229
+ | Metric | Value |
230
+ |:--------------------------|:--------|
231
+ | cosine_accuracy | 1.0 |
232
+ | cosine_accuracy_threshold | -0.1019 |
233
+ | cosine_f1 | 1.0 |
234
+ | cosine_f1_threshold | -0.1019 |
235
+ | cosine_precision | 1.0 |
236
+ | cosine_recall | 1.0 |
237
+ | **cosine_ap** | **1.0** |
238
+ | cosine_mcc | 0.0 |
239
+
240
+ <!--
241
+ ## Bias, Risks and Limitations
242
+
243
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
244
+ -->
245
+
246
+ <!--
247
+ ### Recommendations
248
+
249
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
250
+ -->
251
+
252
+ ## Training Details
253
+
254
+ ### Training Dataset
255
+
256
+ #### turkish_weakly_supervised_contrastive_learning_dataset
257
+
258
+ * Dataset: [turkish_weakly_supervised_contrastive_learning_dataset](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset) at [bf99eda](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset/tree/bf99eda89b8fa45f7f5c82b490fd875e93ffd5fe)
259
+ * Size: 60,000,000 training samples
260
+ * Columns: <code>anchor</code> and <code>positive</code>
261
+ * Approximate statistics based on the first 1000 samples:
262
+ | | anchor | positive |
263
+ |:--------|:---------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
264
+ | type | string | string |
265
+ | details | <ul><li>min: 3 tokens</li><li>mean: 5.02 tokens</li><li>max: 16 tokens</li></ul> | <ul><li>min: 9 tokens</li><li>mean: 73.1 tokens</li><li>max: 512 tokens</li></ul> |
266
+ * Samples:
267
+ | anchor | positive |
268
+ |:---------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
269
+ | <code>Cengiz Han</code> | <code>(doğum adıyla Temuçin, – 18 Ağustos 1227), Moğol İmparatorluğu'nun kurucusu ve ilk Kağanı olan Moğol komutan ve hükümdardır. Hükümdarlığı döneminde gerçekleştirdiği hiçbir savaşı kaybetmeyen , dünya tarihinin en büyük askeri liderlerinden birisi olarak kabul edilmektedir. 13. yüzyılın başında Orta Asya'daki tüm göçebe bozkır kavimlerini birleştirip bir ulus hâline getirerek Moğol siyasi kimliği çatısı altında toplamıştır. , hükümdarlığı döneminde, 1206-1227 arasında, Kuzey Çin'deki Batı Xia ve Jin Hanedanı; Türkistan'daki Kara Hıtay, Maveraünnehir; Harezm, Horasan ve İran'daki Harezmşahlar, Kafkasya'daki Gürcüler, Deşt-i Kıpçak'taki Rus Knezlikleri, Kıpçaklar ile İdil Bulgarları üzerine seferler yaptı ve imparatorluğu döneminde gerçekleştirdiği hiçbir savaşı kaybetmedi. Bunların sonucunda Pasifik Okyanusu'ndan Hazar Denizi'ne ve Karadeniz'in kuzeyine kadar uzanan bir imparatorluk kurdu.</code> |
270
+ | <code>Mustafa Suphi</code> | <code>Mehmed Mustafa Subhi (), kısaca , veya bazı kaynaklarda kullanıldığı haliyle Osmanlıca yazıma göre Mustafa Subhi (4 Ağustos 1882 veya 4 Mayıs 1883 - 28 Ocak 1921), Türk komünist ve Türkiye Komünist Partisinin ilk Merkez Komitesi Başkanı.</code> |
271
+ | <code>Linux</code> | <code>(telaffuz: Lin-uks); çekirdeğine dayalı, açık kaynak kodlu, Unix benzeri bir işletim sistemi ailesidir. GNU Genel Kamu Lisansı versiyon 2 ile sunulan ve Vakfı çatısı altında geliştirilen bir özgür yazılım projesidir. ismi ilk geliştiricisi olan Linus Torvalds tarafından 1991 yılında verilmiştir. Günümüzde süper bilgisayarlarda, akıllı cihazların ve internet altyapısında kullanılan cihazların işletim sistemlerinde yaygın olarak kullanılmaktadır. Bunlardan en popüler olanı Google tarafından geliştirilen Android işletim sistemidir.</code> |
272
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
273
+ ```json
274
+ {
275
+ "scale": 20.0,
276
+ "similarity_fct": "cos_sim"
277
+ }
278
+ ```
279
+
280
+ ### Evaluation Dataset
281
+
282
+ #### turkish_weakly_supervised_contrastive_learning_dataset
283
+
284
+ * Dataset: [turkish_weakly_supervised_contrastive_learning_dataset](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset) at [bf99eda](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset/tree/bf99eda89b8fa45f7f5c82b490fd875e93ffd5fe)
285
+ * Size: 957,344 evaluation samples
286
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>label</code>
287
+ * Approximate statistics based on the first 1000 samples:
288
+ | | sentence1 | sentence2 | label |
289
+ |:--------|:---------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-----------------------------|
290
+ | type | string | string | int |
291
+ | details | <ul><li>min: 3 tokens</li><li>mean: 6.67 tokens</li><li>max: 21 tokens</li></ul> | <ul><li>min: 10 tokens</li><li>mean: 48.63 tokens</li><li>max: 457 tokens</li></ul> | <ul><li>1: 100.00%</li></ul> |
292
+ * Samples:
293
+ | sentence1 | sentence2 | label |
294
+ |:--------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
295
+ | <code>S. Murat Demiral</code> | <code>1966 İstanbul doğumlu Türk müzisyen. 1976 yılında İstanbul devlet konservatuvarında Ziya Polat ile trombona başladı 1977 yılında İstanbul Belediye konservatuvarına geçtı burada 1 yıl Mahmut Doğuduyal ile çalıştı 1978 yılında tekrar Ziya Polat ile çalışmaya başladı. 1980 yılında İstanbul Devlet Opera ve Balesi Orkestrası'nın sınavını kazandı.</code> | <code>1</code> |
296
+ | <code>Türkiye'nin illeri</code> | <code>Anadolu yarımadası ile Trakya toprakları üzerine kurulan Türkiye'nin, 81 ili vardır. İller, Türkiye'nin en büyük idari bölümleridir. Bu seksen bir il, dokuz yüz yetmiş üç ilçeye bölünmüştür. Bu ilçeler, en küçük idari birim olan mahalle ve köyleri içinde barındırır. İllerde yönetme ve yürütme görevi, içişleri bakanı tarafından önerilen ve bakanlar kurulunun onayından sonra cumhurbaşkanı tarafından atanan valiler tarafından yerine getirilir.</code> | <code>1</code> |
297
+ | <code>Cezayir</code> | <code>(Arapça: الجزائر al-ġazaʾir; Berberi dilleri: ⴷⵣⴰⵢⴻⵔ Dzayer) ya da resmî adıyla Demokratik Halk Cumhuriyeti (Arapça: الجمهورية الجزائرية الديمقراطية الشّعبية), Kuzey Afrika'da ülke. 2,381,741 kilometre karelik yüzölçümü ile Afrika'nın yüzölçümü olarak en büyük ülkesi olan , dünyanın onuncu, Arap Dünyası ve Afrika Birliği içerisinde ise en büyük ülkedir. Aynı zamanda, 44 milyonluk nüfusuyla da Afrika'nın en kalabalık sekizinci ülkesidir.</code> | <code>1</code> |
298
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
299
+ ```json
300
+ {
301
+ "scale": 20.0,
302
+ "similarity_fct": "cos_sim"
303
+ }
304
+ ```
305
+
306
+ ### Training Hyperparameters
307
+ #### Non-Default Hyperparameters
308
+
309
+ - `eval_strategy`: steps
310
+ - `per_device_train_batch_size`: 64
311
+ - `per_device_eval_batch_size`: 64
312
+ - `learning_rate`: 2e-05
313
+ - `num_train_epochs`: 1
314
+ - `lr_scheduler_type`: cosine_with_restarts
315
+ - `warmup_ratio`: 0.1
316
+ - `fp16`: True
317
+ - `batch_sampler`: no_duplicates
318
+
319
+ #### All Hyperparameters
320
+ <details><summary>Click to expand</summary>
321
+
322
+ - `overwrite_output_dir`: False
323
+ - `do_predict`: False
324
+ - `eval_strategy`: steps
325
+ - `prediction_loss_only`: True
326
+ - `per_device_train_batch_size`: 64
327
+ - `per_device_eval_batch_size`: 64
328
+ - `per_gpu_train_batch_size`: None
329
+ - `per_gpu_eval_batch_size`: None
330
+ - `gradient_accumulation_steps`: 1
331
+ - `eval_accumulation_steps`: None
332
+ - `torch_empty_cache_steps`: None
333
+ - `learning_rate`: 2e-05
334
+ - `weight_decay`: 0.0
335
+ - `adam_beta1`: 0.9
336
+ - `adam_beta2`: 0.999
337
+ - `adam_epsilon`: 1e-08
338
+ - `max_grad_norm`: 1.0
339
+ - `num_train_epochs`: 1
340
+ - `max_steps`: -1
341
+ - `lr_scheduler_type`: cosine_with_restarts
342
+ - `lr_scheduler_kwargs`: {}
343
+ - `warmup_ratio`: 0.1
344
+ - `warmup_steps`: 0
345
+ - `log_level`: passive
346
+ - `log_level_replica`: warning
347
+ - `log_on_each_node`: True
348
+ - `logging_nan_inf_filter`: True
349
+ - `save_safetensors`: True
350
+ - `save_on_each_node`: False
351
+ - `save_only_model`: False
352
+ - `restore_callback_states_from_checkpoint`: False
353
+ - `no_cuda`: False
354
+ - `use_cpu`: False
355
+ - `use_mps_device`: False
356
+ - `seed`: 42
357
+ - `data_seed`: None
358
+ - `jit_mode_eval`: False
359
+ - `use_ipex`: False
360
+ - `bf16`: False
361
+ - `fp16`: True
362
+ - `fp16_opt_level`: O1
363
+ - `half_precision_backend`: auto
364
+ - `bf16_full_eval`: False
365
+ - `fp16_full_eval`: False
366
+ - `tf32`: None
367
+ - `local_rank`: 0
368
+ - `ddp_backend`: None
369
+ - `tpu_num_cores`: None
370
+ - `tpu_metrics_debug`: False
371
+ - `debug`: []
372
+ - `dataloader_drop_last`: False
373
+ - `dataloader_num_workers`: 0
374
+ - `dataloader_prefetch_factor`: None
375
+ - `past_index`: -1
376
+ - `disable_tqdm`: False
377
+ - `remove_unused_columns`: True
378
+ - `label_names`: None
379
+ - `load_best_model_at_end`: False
380
+ - `ignore_data_skip`: False
381
+ - `fsdp`: []
382
+ - `fsdp_min_num_params`: 0
383
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
384
+ - `tp_size`: 0
385
+ - `fsdp_transformer_layer_cls_to_wrap`: None
386
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
387
+ - `deepspeed`: None
388
+ - `label_smoothing_factor`: 0.0
389
+ - `optim`: adamw_torch
390
+ - `optim_args`: None
391
+ - `adafactor`: False
392
+ - `group_by_length`: False
393
+ - `length_column_name`: length
394
+ - `ddp_find_unused_parameters`: None
395
+ - `ddp_bucket_cap_mb`: None
396
+ - `ddp_broadcast_buffers`: False
397
+ - `dataloader_pin_memory`: True
398
+ - `dataloader_persistent_workers`: False
399
+ - `skip_memory_metrics`: True
400
+ - `use_legacy_prediction_loop`: False
401
+ - `push_to_hub`: False
402
+ - `resume_from_checkpoint`: None
403
+ - `hub_model_id`: None
404
+ - `hub_strategy`: every_save
405
+ - `hub_private_repo`: None
406
+ - `hub_always_push`: False
407
+ - `gradient_checkpointing`: False
408
+ - `gradient_checkpointing_kwargs`: None
409
+ - `include_inputs_for_metrics`: False
410
+ - `include_for_metrics`: []
411
+ - `eval_do_concat_batches`: True
412
+ - `fp16_backend`: auto
413
+ - `push_to_hub_model_id`: None
414
+ - `push_to_hub_organization`: None
415
+ - `mp_parameters`:
416
+ - `auto_find_batch_size`: False
417
+ - `full_determinism`: False
418
+ - `torchdynamo`: None
419
+ - `ray_scope`: last
420
+ - `ddp_timeout`: 1800
421
+ - `torch_compile`: False
422
+ - `torch_compile_backend`: None
423
+ - `torch_compile_mode`: None
424
+ - `include_tokens_per_second`: False
425
+ - `include_num_input_tokens_seen`: False
426
+ - `neftune_noise_alpha`: None
427
+ - `optim_target_modules`: None
428
+ - `batch_eval_metrics`: False
429
+ - `eval_on_start`: False
430
+ - `use_liger_kernel`: False
431
+ - `eval_use_gather_object`: False
432
+ - `average_tokens_across_devices`: False
433
+ - `prompts`: None
434
+ - `batch_sampler`: no_duplicates
435
+ - `multi_dataset_batch_sampler`: proportional
436
+
437
+ </details>
438
+
439
+ ### Training Logs
440
+ | Epoch | Step | Training Loss | Validation Loss | dev_cosine_ap |
441
+ |:------:|:------:|:-------------:|:---------------:|:-------------:|
442
+ | 0.5333 | 500000 | 0.2938 | 0.2648 | 1.0000 |
443
+ | 0.5867 | 550000 | 0.2848 | 0.2557 | 1.0000 |
444
+ | 0.64 | 600000 | 0.2757 | 0.2482 | 1.0000 |
445
+ | 0.6933 | 650000 | 0.268 | 0.2419 | 1.0000 |
446
+ | 0.7467 | 700000 | 0.2619 | 0.2368 | 1.0000 |
447
+ | 0.8 | 750000 | 0.257 | 0.2324 | 1.0000 |
448
+ | 0.8533 | 800000 | 0.254 | 0.2296 | 1.0000 |
449
+ | 0.9067 | 850000 | 0.2507 | 0.2279 | 1.0000 |
450
+ | 0.96 | 900000 | 0.2498 | 0.2271 | 1.0000 |
451
+
452
+
453
+ ### Framework Versions
454
+ - Python: 3.10.6
455
+ - Sentence Transformers: 4.1.0
456
+ - Transformers: 4.51.3
457
+ - PyTorch: 2.7.0+cu126
458
+ - Accelerate: 1.6.0
459
+ - Datasets: 3.5.1
460
+ - Tokenizers: 0.21.1
461
+
462
+ ## Citation
463
+
464
+ ### BibTeX
465
+
466
+ #### Sentence Transformers
467
+ ```bibtex
468
+ @inproceedings{reimers-2019-sentence-bert,
469
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
470
+ author = "Reimers, Nils and Gurevych, Iryna",
471
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
472
+ month = "11",
473
+ year = "2019",
474
+ publisher = "Association for Computational Linguistics",
475
+ url = "https://arxiv.org/abs/1908.10084",
476
+ }
477
+ ```
478
+
479
+ #### MultipleNegativesRankingLoss
480
+ ```bibtex
481
+ @misc{henderson2017efficient,
482
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
483
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
484
+ year={2017},
485
+ eprint={1705.00652},
486
+ archivePrefix={arXiv},
487
+ primaryClass={cs.CL}
488
+ }
489
+ ```
490
+
491
+ <!--
492
+ ## Glossary
493
+
494
+ *Clearly define terms in order to be accessible across audiences.*
495
+ -->
496
+
497
+ <!--
498
+ ## Model Card Authors
499
+
500
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
501
+ -->
502
+
503
+ <!--
504
+ ## Model Card Contact
505
+
506
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
507
+ -->
config.json ADDED
@@ -0,0 +1,25 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "final",
3
+ "architectures": [
4
+ "BertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
8
+ "hidden_act": "gelu",
9
+ "hidden_dropout_prob": 0.1,
10
+ "hidden_size": 768,
11
+ "initializer_range": 0.02,
12
+ "intermediate_size": 3072,
13
+ "layer_norm_eps": 1e-12,
14
+ "max_position_embeddings": 512,
15
+ "model_type": "bert",
16
+ "num_attention_heads": 12,
17
+ "num_hidden_layers": 12,
18
+ "pad_token_id": 0,
19
+ "position_embedding_type": "absolute",
20
+ "torch_dtype": "float32",
21
+ "transformers_version": "4.46.2",
22
+ "type_vocab_size": 2,
23
+ "use_cache": true,
24
+ "vocab_size": 32000
25
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.0",
4
+ "transformers": "4.46.2",
5
+ "pytorch": "2.5.1"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:bde2a19ef5b596e3439aff874511c401a51b39dd7b5057c4ca008f1edd78eac5
3
+ size 442491744
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,66 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[PAD]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "[UNK]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "[CLS]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "[SEP]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "clean_up_tokenization_spaces": true,
45
+ "cls_token": "[CLS]",
46
+ "do_basic_tokenize": true,
47
+ "do_lower_case": false,
48
+ "extra_special_tokens": {},
49
+ "mask_token": "[MASK]",
50
+ "max_len": 512,
51
+ "max_length": 512,
52
+ "model_max_length": 512,
53
+ "never_split": null,
54
+ "pad_to_multiple_of": null,
55
+ "pad_token": "[PAD]",
56
+ "pad_token_type_id": 0,
57
+ "padding_side": "right",
58
+ "sep_token": "[SEP]",
59
+ "stride": 0,
60
+ "strip_accents": null,
61
+ "tokenize_chinese_chars": true,
62
+ "tokenizer_class": "BertTokenizer",
63
+ "truncation_side": "right",
64
+ "truncation_strategy": "longest_first",
65
+ "unk_token": "[UNK]"
66
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff