Pushing the final model to the hub
Browse files- 1_Pooling/config.json +10 -0
- README.md +507 -0
- config.json +25 -0
- config_sentence_transformers.json +10 -0
- model.safetensors +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +37 -0
- tokenizer.json +0 -0
- tokenizer_config.json +66 -0
- vocab.txt +0 -0
1_Pooling/config.json
ADDED
|
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"word_embedding_dimension": 768,
|
| 3 |
+
"pooling_mode_cls_token": false,
|
| 4 |
+
"pooling_mode_mean_tokens": true,
|
| 5 |
+
"pooling_mode_max_tokens": false,
|
| 6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
| 7 |
+
"pooling_mode_weightedmean_tokens": false,
|
| 8 |
+
"pooling_mode_lasttoken": false,
|
| 9 |
+
"include_prompt": true
|
| 10 |
+
}
|
README.md
ADDED
|
@@ -0,0 +1,507 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
tags:
|
| 3 |
+
- sentence-transformers
|
| 4 |
+
- sentence-similarity
|
| 5 |
+
- feature-extraction
|
| 6 |
+
- generated_from_trainer
|
| 7 |
+
- dataset_size:60000000
|
| 8 |
+
- loss:MultipleNegativesRankingLoss
|
| 9 |
+
base_model: dbmdz/bert-base-turkish-cased
|
| 10 |
+
widget:
|
| 11 |
+
- source_sentence: Tasman Denizi
|
| 12 |
+
sentences:
|
| 13 |
+
- '(Grekçe: Πέργαμον), günümüzde İzmir iline bağlı Bergama ilçesinin merkezinin
|
| 14 |
+
yerinde kurulu antik kentin adıdır. , eski çağlarda Misya bölgesinin önemli merkezlerinden
|
| 15 |
+
biriydi. MÖ 282-133 arasında da Krallığı''nın başkentiydi. adı, bir söylence kahramanı
|
| 16 |
+
olan Pergamos''tan gelir. Pergamos''un, Teuthrania kralını öldürdükten sonra kenti
|
| 17 |
+
ele geçirdiği ve kendi adını verdiği sanılır. Başka bir söylenceye göre de Teuthrania
|
| 18 |
+
Kralı Grynos savaşta Pergamos''tan yardım istemiş, zaferden sonra iki kent kurdurarak
|
| 19 |
+
birine onun onuruna , ötekine de Gryneion adını vermiştir.'
|
| 20 |
+
- ', Okyanusya bölgesinde Büyük Okyanus''a bağlı bir deniz. Avustralya ve Yeni Zelanda
|
| 21 |
+
arasında yaklaşık 2000 km boyunca uzanır. Avustralya''nın doğu eyaletleri olan
|
| 22 |
+
Yeni Güney Galler, Tasmanya, Queensland ve Victoria eyaletleri Yeni Zelanda''nın
|
| 23 |
+
batısı ve Yeni Kaledonya''ya kıyıları vardır. Queensland ve Yeni Kaledonya arasındaki
|
| 24 |
+
boğaz ile Mercan Denizi''nden ayrılır.'
|
| 25 |
+
- (ya da Soundtrack from the Film More), Barbet Schroeder tarafından yönetilmiş
|
| 26 |
+
More filminin soundtrack'idir. Pink Floyd'un bu ilk soundtrack çalışması aynı
|
| 27 |
+
zamanda Syd Barrett olmadan yapılan ilk albümdür. Önceki albümlerdeki prodüktör
|
| 28 |
+
Norman Smith burada yerini Pink Floyd'un kendisine bırakmışıtr. Pink Floyd bu
|
| 29 |
+
ve sonraki soundtrack'lerinde esas albümlerinde kullanmayacakları materyalleri
|
| 30 |
+
kullanacak, değişik tarzlarda denemeler yapacaktı. Albüm kısa pop/folk şarkıları,
|
| 31 |
+
doğaçlamalar, The Nile Song ve Ibiza Bar gibi hard rock kategorisinde değerlendirilebilecek
|
| 32 |
+
parçalardan oluşmaktadır. A Spanish Piece gibi birçok şarkı ısmarlama şeklinde
|
| 33 |
+
bestelenmiştir.
|
| 34 |
+
- source_sentence: Windows 95
|
| 35 |
+
sentences:
|
| 36 |
+
- ', Yerküre''de yer alan ana biyom tiplerinden birisidir. , yıllık 250 mm''den
|
| 37 |
+
az yağış alan bölgeler için kullanılan bir terimdir.'
|
| 38 |
+
- ', sabit bir sıcaklık ve sabit bir gerilme altında, malzemede oluşan gerilmenin
|
| 39 |
+
zamana göre değişimini tespit eden bir deneydir. gerilme gevşemesi deneyi de Sürünme
|
| 40 |
+
deneyine benzer olarak uzun zaman dilimlerinde gerçekleştirilebilen bir deneydir.
|
| 41 |
+
Son zamanlarda gerilme gevşemesi deneyi giderek yaygınlık kazanmaktadır özellikle
|
| 42 |
+
arabaların amortisör kısımlarında kullanılan çeliklerin geliştirilmesi konusunda
|
| 43 |
+
mutlak gereklilik duyulmaktadır çünkü bu malzemelerden istenen temel özellik herhangi
|
| 44 |
+
bir gerilim anında oluşan enerjiyi absorbe ederek daha sonra serbest bırakması
|
| 45 |
+
istenir. ile malzemenin yoğun olduğu bölgelerdeki bu bölgeler döküm, plastik şekil
|
| 46 |
+
verme ve kaynaktır. Isıl işlemin kalıcı iç gerilmelere ve bunların giderilmesine
|
| 47 |
+
olan etkisini test eden bir deneydir.
|
| 48 |
+
|
| 49 |
+
Gerilme gevşemesi ile malzemelerin mekanik özellikleri arasında bir ilişki olup
|
| 50 |
+
bu ilişkiden faydalanarak aktivasyon enerjisi, deformasyon hızı duyarlılığı üssü,
|
| 51 |
+
dislokasyon hareketi için gerekli etkin gerilme, dislokasyon hızı gerilme üssü
|
| 52 |
+
gibi mekanik özelliklerle ilgili bazı parametreler de gerilme gevşemesi deneyi
|
| 53 |
+
ile tespit edilir.'
|
| 54 |
+
- ', Microsoft''un ürettiği işletim sistemi ailesi Windows''un MS-DOS üzerinde yükselen
|
| 55 |
+
dördüncü ana sürümüdür.'
|
| 56 |
+
- source_sentence: Soyuz 18-1
|
| 57 |
+
sentences:
|
| 58 |
+
- (Soyuz 18a, 5 Nisan anomalisi), Sovyetler Birliği tarafından fırlatılan insanlı
|
| 59 |
+
uzay aracı. Arıza nedeniyle yörüngeye ulaşamadan içindeki iki kozmonotla birlikte
|
| 60 |
+
düştü. Acil iniş sisteminin çalışması nedeniyle kozmonotlar Vasili Lazarev ve
|
| 61 |
+
Oleg Makarov yara almadan kurtuldular.
|
| 62 |
+
- '(İbranice: חיים רביבו) (d.22 Şubat 1972, Aşdod) İsrailli eski millî futbolcudur.'
|
| 63 |
+
- ', ilk olarak genel anlamda Perry Anderson''un Üzerine Düşünceler kitabında bahsettiği
|
| 64 |
+
anlamda, 19. yüzyıldan ve 20. yüzyıla Marksizmin Batı''daki hikâyesinden oluşur.
|
| 65 |
+
Bu anlamda Marks''ın eserinden bugüne kadarki gelişimi, ayrışmaları, iç bölümlenmeleri,
|
| 66 |
+
farklılıklarıyla teorik ve politik bir sistematik öğreti olarak Marksizmin Batı
|
| 67 |
+
düşüncesindeki ve pratiğindeki yeri değerlendirilir. Karl Kautsky ve Lenin''in
|
| 68 |
+
tartışmaları da bu bağlamda genel anlamdaki bu içinde yer alır.'
|
| 69 |
+
- source_sentence: Yukarıkarakaya
|
| 70 |
+
sentences:
|
| 71 |
+
- Doğançam, Antalya ilinin Manavgat ilçesine bağlı bir mahalledir.
|
| 72 |
+
- Sultan , III. Mustafa’nın yaptırdığı Laleli Külliyesi'ndedir. Bu türbe Nuruosmaniye
|
| 73 |
+
Türbesi'nden sonra Batı etkilerinin görüldüğü ikinci sultan türbesidir. Ordu caddesi
|
| 74 |
+
üzerinde Laleli Camii'nin giriş kapısı ile han bölümünün yan tarafıdır. 1759–1763
|
| 75 |
+
yıllarında Mimar Mehmed Tahir Ağa'ya inşa ettirilmiştir.
|
| 76 |
+
- ', Yozgat ilinin Çekerek ilçesine bağlı bir köydür.'
|
| 77 |
+
- source_sentence: Aksaz, Manavgat
|
| 78 |
+
sentences:
|
| 79 |
+
- ', (d. Şubat 1882, Mekke, Osmanlı İmparatorluğu - ö. 20 Temmuz 1951, Kudüs, Filistin),
|
| 80 |
+
Ürdün Kralı. Arap-İsrail savaşları sırasında öldürüldü, yerine oğlu 1. Talal geçmiştir.'
|
| 81 |
+
- (1961, Şereflikoçhisar, Ankara) Türk halk müziği sanatçısı.
|
| 82 |
+
- Aksaz, Antalya ilinin Manavgat ilçesine bağlı bir mahalledir.
|
| 83 |
+
datasets:
|
| 84 |
+
- selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset
|
| 85 |
+
pipeline_tag: sentence-similarity
|
| 86 |
+
library_name: sentence-transformers
|
| 87 |
+
metrics:
|
| 88 |
+
- cosine_accuracy
|
| 89 |
+
- cosine_accuracy_threshold
|
| 90 |
+
- cosine_f1
|
| 91 |
+
- cosine_f1_threshold
|
| 92 |
+
- cosine_precision
|
| 93 |
+
- cosine_recall
|
| 94 |
+
- cosine_ap
|
| 95 |
+
- cosine_mcc
|
| 96 |
+
model-index:
|
| 97 |
+
- name: SentenceTransformer based on dbmdz/bert-base-turkish-cased
|
| 98 |
+
results:
|
| 99 |
+
- task:
|
| 100 |
+
type: binary-classification
|
| 101 |
+
name: Binary Classification
|
| 102 |
+
dataset:
|
| 103 |
+
name: dev
|
| 104 |
+
type: dev
|
| 105 |
+
metrics:
|
| 106 |
+
- type: cosine_accuracy
|
| 107 |
+
value: 0.9999989554433933
|
| 108 |
+
name: Cosine Accuracy
|
| 109 |
+
- type: cosine_accuracy_threshold
|
| 110 |
+
value: -0.10191559791564941
|
| 111 |
+
name: Cosine Accuracy Threshold
|
| 112 |
+
- type: cosine_f1
|
| 113 |
+
value: 0.9999994777214238
|
| 114 |
+
name: Cosine F1
|
| 115 |
+
- type: cosine_f1_threshold
|
| 116 |
+
value: -0.10191559791564941
|
| 117 |
+
name: Cosine F1 Threshold
|
| 118 |
+
- type: cosine_precision
|
| 119 |
+
value: 1.0
|
| 120 |
+
name: Cosine Precision
|
| 121 |
+
- type: cosine_recall
|
| 122 |
+
value: 0.9999989554433933
|
| 123 |
+
name: Cosine Recall
|
| 124 |
+
- type: cosine_ap
|
| 125 |
+
value: 0.9999999999999996
|
| 126 |
+
name: Cosine Ap
|
| 127 |
+
- type: cosine_mcc
|
| 128 |
+
value: 0.0
|
| 129 |
+
name: Cosine Mcc
|
| 130 |
+
---
|
| 131 |
+
|
| 132 |
+
# SentenceTransformer based on dbmdz/bert-base-turkish-cased
|
| 133 |
+
|
| 134 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [dbmdz/bert-base-turkish-cased](https://huggingface.co/dbmdz/bert-base-turkish-cased) on the [turkish_weakly_supervised_contrastive_learning_dataset](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
| 135 |
+
|
| 136 |
+
## Model Details
|
| 137 |
+
|
| 138 |
+
### Model Description
|
| 139 |
+
- **Model Type:** Sentence Transformer
|
| 140 |
+
- **Base model:** [dbmdz/bert-base-turkish-cased](https://huggingface.co/dbmdz/bert-base-turkish-cased) <!-- at revision 5bcc154ffb58544ecd61d808897597c40ef63881 -->
|
| 141 |
+
- **Maximum Sequence Length:** 512 tokens
|
| 142 |
+
- **Output Dimensionality:** 768 dimensions
|
| 143 |
+
- **Similarity Function:** Cosine Similarity
|
| 144 |
+
- **Training Dataset:**
|
| 145 |
+
- [turkish_weakly_supervised_contrastive_learning_dataset](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset)
|
| 146 |
+
<!-- - **Language:** Unknown -->
|
| 147 |
+
<!-- - **License:** Unknown -->
|
| 148 |
+
|
| 149 |
+
### Model Sources
|
| 150 |
+
|
| 151 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
| 152 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
| 153 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
| 154 |
+
|
| 155 |
+
### Full Model Architecture
|
| 156 |
+
|
| 157 |
+
```
|
| 158 |
+
SentenceTransformer(
|
| 159 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
|
| 160 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
| 161 |
+
)
|
| 162 |
+
```
|
| 163 |
+
|
| 164 |
+
## Usage
|
| 165 |
+
|
| 166 |
+
### Direct Usage (Sentence Transformers)
|
| 167 |
+
|
| 168 |
+
First install the Sentence Transformers library:
|
| 169 |
+
|
| 170 |
+
```bash
|
| 171 |
+
pip install -U sentence-transformers
|
| 172 |
+
```
|
| 173 |
+
|
| 174 |
+
Then you can load this model and run inference.
|
| 175 |
+
```python
|
| 176 |
+
from sentence_transformers import SentenceTransformer
|
| 177 |
+
|
| 178 |
+
# Download from the 🤗 Hub
|
| 179 |
+
model = SentenceTransformer("selmanbaysan/bert-base-turkish-cased_large_scale_contrastive_learning")
|
| 180 |
+
# Run inference
|
| 181 |
+
sentences = [
|
| 182 |
+
'Aksaz, Manavgat',
|
| 183 |
+
'Aksaz, Antalya ilinin Manavgat ilçesine bağlı bir mahalledir.',
|
| 184 |
+
', (d. Şubat 1882, Mekke, Osmanlı İmparatorluğu - ö. 20 Temmuz 1951, Kudüs, Filistin), Ürdün Kralı. Arap-İsrail savaşları sırasında öldürüldü, yerine oğlu 1. Talal geçmiştir.',
|
| 185 |
+
]
|
| 186 |
+
embeddings = model.encode(sentences)
|
| 187 |
+
print(embeddings.shape)
|
| 188 |
+
# [3, 768]
|
| 189 |
+
|
| 190 |
+
# Get the similarity scores for the embeddings
|
| 191 |
+
similarities = model.similarity(embeddings, embeddings)
|
| 192 |
+
print(similarities.shape)
|
| 193 |
+
# [3, 3]
|
| 194 |
+
```
|
| 195 |
+
|
| 196 |
+
<!--
|
| 197 |
+
### Direct Usage (Transformers)
|
| 198 |
+
|
| 199 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
| 200 |
+
|
| 201 |
+
</details>
|
| 202 |
+
-->
|
| 203 |
+
|
| 204 |
+
<!--
|
| 205 |
+
### Downstream Usage (Sentence Transformers)
|
| 206 |
+
|
| 207 |
+
You can finetune this model on your own dataset.
|
| 208 |
+
|
| 209 |
+
<details><summary>Click to expand</summary>
|
| 210 |
+
|
| 211 |
+
</details>
|
| 212 |
+
-->
|
| 213 |
+
|
| 214 |
+
<!--
|
| 215 |
+
### Out-of-Scope Use
|
| 216 |
+
|
| 217 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
| 218 |
+
-->
|
| 219 |
+
|
| 220 |
+
## Evaluation
|
| 221 |
+
|
| 222 |
+
### Metrics
|
| 223 |
+
|
| 224 |
+
#### Binary Classification
|
| 225 |
+
|
| 226 |
+
* Dataset: `dev`
|
| 227 |
+
* Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator)
|
| 228 |
+
|
| 229 |
+
| Metric | Value |
|
| 230 |
+
|:--------------------------|:--------|
|
| 231 |
+
| cosine_accuracy | 1.0 |
|
| 232 |
+
| cosine_accuracy_threshold | -0.1019 |
|
| 233 |
+
| cosine_f1 | 1.0 |
|
| 234 |
+
| cosine_f1_threshold | -0.1019 |
|
| 235 |
+
| cosine_precision | 1.0 |
|
| 236 |
+
| cosine_recall | 1.0 |
|
| 237 |
+
| **cosine_ap** | **1.0** |
|
| 238 |
+
| cosine_mcc | 0.0 |
|
| 239 |
+
|
| 240 |
+
<!--
|
| 241 |
+
## Bias, Risks and Limitations
|
| 242 |
+
|
| 243 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
| 244 |
+
-->
|
| 245 |
+
|
| 246 |
+
<!--
|
| 247 |
+
### Recommendations
|
| 248 |
+
|
| 249 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
| 250 |
+
-->
|
| 251 |
+
|
| 252 |
+
## Training Details
|
| 253 |
+
|
| 254 |
+
### Training Dataset
|
| 255 |
+
|
| 256 |
+
#### turkish_weakly_supervised_contrastive_learning_dataset
|
| 257 |
+
|
| 258 |
+
* Dataset: [turkish_weakly_supervised_contrastive_learning_dataset](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset) at [bf99eda](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset/tree/bf99eda89b8fa45f7f5c82b490fd875e93ffd5fe)
|
| 259 |
+
* Size: 60,000,000 training samples
|
| 260 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
| 261 |
+
* Approximate statistics based on the first 1000 samples:
|
| 262 |
+
| | anchor | positive |
|
| 263 |
+
|:--------|:---------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
|
| 264 |
+
| type | string | string |
|
| 265 |
+
| details | <ul><li>min: 3 tokens</li><li>mean: 5.02 tokens</li><li>max: 16 tokens</li></ul> | <ul><li>min: 9 tokens</li><li>mean: 73.1 tokens</li><li>max: 512 tokens</li></ul> |
|
| 266 |
+
* Samples:
|
| 267 |
+
| anchor | positive |
|
| 268 |
+
|:---------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
| 269 |
+
| <code>Cengiz Han</code> | <code>(doğum adıyla Temuçin, – 18 Ağustos 1227), Moğol İmparatorluğu'nun kurucusu ve ilk Kağanı olan Moğol komutan ve hükümdardır. Hükümdarlığı döneminde gerçekleştirdiği hiçbir savaşı kaybetmeyen , dünya tarihinin en büyük askeri liderlerinden birisi olarak kabul edilmektedir. 13. yüzyılın başında Orta Asya'daki tüm göçebe bozkır kavimlerini birleştirip bir ulus hâline getirerek Moğol siyasi kimliği çatısı altında toplamıştır. , hükümdarlığı döneminde, 1206-1227 arasında, Kuzey Çin'deki Batı Xia ve Jin Hanedanı; Türkistan'daki Kara Hıtay, Maveraünnehir; Harezm, Horasan ve İran'daki Harezmşahlar, Kafkasya'daki Gürcüler, Deşt-i Kıpçak'taki Rus Knezlikleri, Kıpçaklar ile İdil Bulgarları üzerine seferler yaptı ve imparatorluğu döneminde gerçekleştirdiği hiçbir savaşı kaybetmedi. Bunların sonucunda Pasifik Okyanusu'ndan Hazar Denizi'ne ve Karadeniz'in kuzeyine kadar uzanan bir imparatorluk kurdu.</code> |
|
| 270 |
+
| <code>Mustafa Suphi</code> | <code>Mehmed Mustafa Subhi (), kısaca , veya bazı kaynaklarda kullanıldığı haliyle Osmanlıca yazıma göre Mustafa Subhi (4 Ağustos 1882 veya 4 Mayıs 1883 - 28 Ocak 1921), Türk komünist ve Türkiye Komünist Partisinin ilk Merkez Komitesi Başkanı.</code> |
|
| 271 |
+
| <code>Linux</code> | <code>(telaffuz: Lin-uks); çekirdeğine dayalı, açık kaynak kodlu, Unix benzeri bir işletim sistemi ailesidir. GNU Genel Kamu Lisansı versiyon 2 ile sunulan ve Vakfı çatısı altında geliştirilen bir özgür yazılım projesidir. ismi ilk geliştiricisi olan Linus Torvalds tarafından 1991 yılında verilmiştir. Günümüzde süper bilgisayarlarda, akıllı cihazların ve internet altyapısında kullanılan cihazların işletim sistemlerinde yaygın olarak kullanılmaktadır. Bunlardan en popüler olanı Google tarafından geliştirilen Android işletim sistemidir.</code> |
|
| 272 |
+
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
| 273 |
+
```json
|
| 274 |
+
{
|
| 275 |
+
"scale": 20.0,
|
| 276 |
+
"similarity_fct": "cos_sim"
|
| 277 |
+
}
|
| 278 |
+
```
|
| 279 |
+
|
| 280 |
+
### Evaluation Dataset
|
| 281 |
+
|
| 282 |
+
#### turkish_weakly_supervised_contrastive_learning_dataset
|
| 283 |
+
|
| 284 |
+
* Dataset: [turkish_weakly_supervised_contrastive_learning_dataset](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset) at [bf99eda](https://huggingface.co/datasets/selmanbaysan/turkish_weakly_supervised_contrastive_learning_dataset/tree/bf99eda89b8fa45f7f5c82b490fd875e93ffd5fe)
|
| 285 |
+
* Size: 957,344 evaluation samples
|
| 286 |
+
* Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>label</code>
|
| 287 |
+
* Approximate statistics based on the first 1000 samples:
|
| 288 |
+
| | sentence1 | sentence2 | label |
|
| 289 |
+
|:--------|:---------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-----------------------------|
|
| 290 |
+
| type | string | string | int |
|
| 291 |
+
| details | <ul><li>min: 3 tokens</li><li>mean: 6.67 tokens</li><li>max: 21 tokens</li></ul> | <ul><li>min: 10 tokens</li><li>mean: 48.63 tokens</li><li>max: 457 tokens</li></ul> | <ul><li>1: 100.00%</li></ul> |
|
| 292 |
+
* Samples:
|
| 293 |
+
| sentence1 | sentence2 | label |
|
| 294 |
+
|:--------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
|
| 295 |
+
| <code>S. Murat Demiral</code> | <code>1966 İstanbul doğumlu Türk müzisyen. 1976 yılında İstanbul devlet konservatuvarında Ziya Polat ile trombona başladı 1977 yılında İstanbul Belediye konservatuvarına geçtı burada 1 yıl Mahmut Doğuduyal ile çalıştı 1978 yılında tekrar Ziya Polat ile çalışmaya başladı. 1980 yılında İstanbul Devlet Opera ve Balesi Orkestrası'nın sınavını kazandı.</code> | <code>1</code> |
|
| 296 |
+
| <code>Türkiye'nin illeri</code> | <code>Anadolu yarımadası ile Trakya toprakları üzerine kurulan Türkiye'nin, 81 ili vardır. İller, Türkiye'nin en büyük idari bölümleridir. Bu seksen bir il, dokuz yüz yetmiş üç ilçeye bölünmüştür. Bu ilçeler, en küçük idari birim olan mahalle ve köyleri içinde barındırır. İllerde yönetme ve yürütme görevi, içişleri bakanı tarafından önerilen ve bakanlar kurulunun onayından sonra cumhurbaşkanı tarafından atanan valiler tarafından yerine getirilir.</code> | <code>1</code> |
|
| 297 |
+
| <code>Cezayir</code> | <code>(Arapça: الجزائر al-ġazaʾir; Berberi dilleri: ⴷⵣⴰⵢⴻⵔ Dzayer) ya da resmî adıyla Demokratik Halk Cumhuriyeti (Arapça: الجمهورية الجزائرية الديمقراطية الشّعبية), Kuzey Afrika'da ülke. 2,381,741 kilometre karelik yüzölçümü ile Afrika'nın yüzölçümü olarak en büyük ülkesi olan , dünyanın onuncu, Arap Dünyası ve Afrika Birliği içerisinde ise en büyük ülkedir. Aynı zamanda, 44 milyonluk nüfusuyla da Afrika'nın en kalabalık sekizinci ülkesidir.</code> | <code>1</code> |
|
| 298 |
+
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
| 299 |
+
```json
|
| 300 |
+
{
|
| 301 |
+
"scale": 20.0,
|
| 302 |
+
"similarity_fct": "cos_sim"
|
| 303 |
+
}
|
| 304 |
+
```
|
| 305 |
+
|
| 306 |
+
### Training Hyperparameters
|
| 307 |
+
#### Non-Default Hyperparameters
|
| 308 |
+
|
| 309 |
+
- `eval_strategy`: steps
|
| 310 |
+
- `per_device_train_batch_size`: 64
|
| 311 |
+
- `per_device_eval_batch_size`: 64
|
| 312 |
+
- `learning_rate`: 2e-05
|
| 313 |
+
- `num_train_epochs`: 1
|
| 314 |
+
- `lr_scheduler_type`: cosine_with_restarts
|
| 315 |
+
- `warmup_ratio`: 0.1
|
| 316 |
+
- `fp16`: True
|
| 317 |
+
- `batch_sampler`: no_duplicates
|
| 318 |
+
|
| 319 |
+
#### All Hyperparameters
|
| 320 |
+
<details><summary>Click to expand</summary>
|
| 321 |
+
|
| 322 |
+
- `overwrite_output_dir`: False
|
| 323 |
+
- `do_predict`: False
|
| 324 |
+
- `eval_strategy`: steps
|
| 325 |
+
- `prediction_loss_only`: True
|
| 326 |
+
- `per_device_train_batch_size`: 64
|
| 327 |
+
- `per_device_eval_batch_size`: 64
|
| 328 |
+
- `per_gpu_train_batch_size`: None
|
| 329 |
+
- `per_gpu_eval_batch_size`: None
|
| 330 |
+
- `gradient_accumulation_steps`: 1
|
| 331 |
+
- `eval_accumulation_steps`: None
|
| 332 |
+
- `torch_empty_cache_steps`: None
|
| 333 |
+
- `learning_rate`: 2e-05
|
| 334 |
+
- `weight_decay`: 0.0
|
| 335 |
+
- `adam_beta1`: 0.9
|
| 336 |
+
- `adam_beta2`: 0.999
|
| 337 |
+
- `adam_epsilon`: 1e-08
|
| 338 |
+
- `max_grad_norm`: 1.0
|
| 339 |
+
- `num_train_epochs`: 1
|
| 340 |
+
- `max_steps`: -1
|
| 341 |
+
- `lr_scheduler_type`: cosine_with_restarts
|
| 342 |
+
- `lr_scheduler_kwargs`: {}
|
| 343 |
+
- `warmup_ratio`: 0.1
|
| 344 |
+
- `warmup_steps`: 0
|
| 345 |
+
- `log_level`: passive
|
| 346 |
+
- `log_level_replica`: warning
|
| 347 |
+
- `log_on_each_node`: True
|
| 348 |
+
- `logging_nan_inf_filter`: True
|
| 349 |
+
- `save_safetensors`: True
|
| 350 |
+
- `save_on_each_node`: False
|
| 351 |
+
- `save_only_model`: False
|
| 352 |
+
- `restore_callback_states_from_checkpoint`: False
|
| 353 |
+
- `no_cuda`: False
|
| 354 |
+
- `use_cpu`: False
|
| 355 |
+
- `use_mps_device`: False
|
| 356 |
+
- `seed`: 42
|
| 357 |
+
- `data_seed`: None
|
| 358 |
+
- `jit_mode_eval`: False
|
| 359 |
+
- `use_ipex`: False
|
| 360 |
+
- `bf16`: False
|
| 361 |
+
- `fp16`: True
|
| 362 |
+
- `fp16_opt_level`: O1
|
| 363 |
+
- `half_precision_backend`: auto
|
| 364 |
+
- `bf16_full_eval`: False
|
| 365 |
+
- `fp16_full_eval`: False
|
| 366 |
+
- `tf32`: None
|
| 367 |
+
- `local_rank`: 0
|
| 368 |
+
- `ddp_backend`: None
|
| 369 |
+
- `tpu_num_cores`: None
|
| 370 |
+
- `tpu_metrics_debug`: False
|
| 371 |
+
- `debug`: []
|
| 372 |
+
- `dataloader_drop_last`: False
|
| 373 |
+
- `dataloader_num_workers`: 0
|
| 374 |
+
- `dataloader_prefetch_factor`: None
|
| 375 |
+
- `past_index`: -1
|
| 376 |
+
- `disable_tqdm`: False
|
| 377 |
+
- `remove_unused_columns`: True
|
| 378 |
+
- `label_names`: None
|
| 379 |
+
- `load_best_model_at_end`: False
|
| 380 |
+
- `ignore_data_skip`: False
|
| 381 |
+
- `fsdp`: []
|
| 382 |
+
- `fsdp_min_num_params`: 0
|
| 383 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
| 384 |
+
- `tp_size`: 0
|
| 385 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
| 386 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
| 387 |
+
- `deepspeed`: None
|
| 388 |
+
- `label_smoothing_factor`: 0.0
|
| 389 |
+
- `optim`: adamw_torch
|
| 390 |
+
- `optim_args`: None
|
| 391 |
+
- `adafactor`: False
|
| 392 |
+
- `group_by_length`: False
|
| 393 |
+
- `length_column_name`: length
|
| 394 |
+
- `ddp_find_unused_parameters`: None
|
| 395 |
+
- `ddp_bucket_cap_mb`: None
|
| 396 |
+
- `ddp_broadcast_buffers`: False
|
| 397 |
+
- `dataloader_pin_memory`: True
|
| 398 |
+
- `dataloader_persistent_workers`: False
|
| 399 |
+
- `skip_memory_metrics`: True
|
| 400 |
+
- `use_legacy_prediction_loop`: False
|
| 401 |
+
- `push_to_hub`: False
|
| 402 |
+
- `resume_from_checkpoint`: None
|
| 403 |
+
- `hub_model_id`: None
|
| 404 |
+
- `hub_strategy`: every_save
|
| 405 |
+
- `hub_private_repo`: None
|
| 406 |
+
- `hub_always_push`: False
|
| 407 |
+
- `gradient_checkpointing`: False
|
| 408 |
+
- `gradient_checkpointing_kwargs`: None
|
| 409 |
+
- `include_inputs_for_metrics`: False
|
| 410 |
+
- `include_for_metrics`: []
|
| 411 |
+
- `eval_do_concat_batches`: True
|
| 412 |
+
- `fp16_backend`: auto
|
| 413 |
+
- `push_to_hub_model_id`: None
|
| 414 |
+
- `push_to_hub_organization`: None
|
| 415 |
+
- `mp_parameters`:
|
| 416 |
+
- `auto_find_batch_size`: False
|
| 417 |
+
- `full_determinism`: False
|
| 418 |
+
- `torchdynamo`: None
|
| 419 |
+
- `ray_scope`: last
|
| 420 |
+
- `ddp_timeout`: 1800
|
| 421 |
+
- `torch_compile`: False
|
| 422 |
+
- `torch_compile_backend`: None
|
| 423 |
+
- `torch_compile_mode`: None
|
| 424 |
+
- `include_tokens_per_second`: False
|
| 425 |
+
- `include_num_input_tokens_seen`: False
|
| 426 |
+
- `neftune_noise_alpha`: None
|
| 427 |
+
- `optim_target_modules`: None
|
| 428 |
+
- `batch_eval_metrics`: False
|
| 429 |
+
- `eval_on_start`: False
|
| 430 |
+
- `use_liger_kernel`: False
|
| 431 |
+
- `eval_use_gather_object`: False
|
| 432 |
+
- `average_tokens_across_devices`: False
|
| 433 |
+
- `prompts`: None
|
| 434 |
+
- `batch_sampler`: no_duplicates
|
| 435 |
+
- `multi_dataset_batch_sampler`: proportional
|
| 436 |
+
|
| 437 |
+
</details>
|
| 438 |
+
|
| 439 |
+
### Training Logs
|
| 440 |
+
| Epoch | Step | Training Loss | Validation Loss | dev_cosine_ap |
|
| 441 |
+
|:------:|:------:|:-------------:|:---------------:|:-------------:|
|
| 442 |
+
| 0.5333 | 500000 | 0.2938 | 0.2648 | 1.0000 |
|
| 443 |
+
| 0.5867 | 550000 | 0.2848 | 0.2557 | 1.0000 |
|
| 444 |
+
| 0.64 | 600000 | 0.2757 | 0.2482 | 1.0000 |
|
| 445 |
+
| 0.6933 | 650000 | 0.268 | 0.2419 | 1.0000 |
|
| 446 |
+
| 0.7467 | 700000 | 0.2619 | 0.2368 | 1.0000 |
|
| 447 |
+
| 0.8 | 750000 | 0.257 | 0.2324 | 1.0000 |
|
| 448 |
+
| 0.8533 | 800000 | 0.254 | 0.2296 | 1.0000 |
|
| 449 |
+
| 0.9067 | 850000 | 0.2507 | 0.2279 | 1.0000 |
|
| 450 |
+
| 0.96 | 900000 | 0.2498 | 0.2271 | 1.0000 |
|
| 451 |
+
|
| 452 |
+
|
| 453 |
+
### Framework Versions
|
| 454 |
+
- Python: 3.10.6
|
| 455 |
+
- Sentence Transformers: 4.1.0
|
| 456 |
+
- Transformers: 4.51.3
|
| 457 |
+
- PyTorch: 2.7.0+cu126
|
| 458 |
+
- Accelerate: 1.6.0
|
| 459 |
+
- Datasets: 3.5.1
|
| 460 |
+
- Tokenizers: 0.21.1
|
| 461 |
+
|
| 462 |
+
## Citation
|
| 463 |
+
|
| 464 |
+
### BibTeX
|
| 465 |
+
|
| 466 |
+
#### Sentence Transformers
|
| 467 |
+
```bibtex
|
| 468 |
+
@inproceedings{reimers-2019-sentence-bert,
|
| 469 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
| 470 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
| 471 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
| 472 |
+
month = "11",
|
| 473 |
+
year = "2019",
|
| 474 |
+
publisher = "Association for Computational Linguistics",
|
| 475 |
+
url = "https://arxiv.org/abs/1908.10084",
|
| 476 |
+
}
|
| 477 |
+
```
|
| 478 |
+
|
| 479 |
+
#### MultipleNegativesRankingLoss
|
| 480 |
+
```bibtex
|
| 481 |
+
@misc{henderson2017efficient,
|
| 482 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
| 483 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
| 484 |
+
year={2017},
|
| 485 |
+
eprint={1705.00652},
|
| 486 |
+
archivePrefix={arXiv},
|
| 487 |
+
primaryClass={cs.CL}
|
| 488 |
+
}
|
| 489 |
+
```
|
| 490 |
+
|
| 491 |
+
<!--
|
| 492 |
+
## Glossary
|
| 493 |
+
|
| 494 |
+
*Clearly define terms in order to be accessible across audiences.*
|
| 495 |
+
-->
|
| 496 |
+
|
| 497 |
+
<!--
|
| 498 |
+
## Model Card Authors
|
| 499 |
+
|
| 500 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
| 501 |
+
-->
|
| 502 |
+
|
| 503 |
+
<!--
|
| 504 |
+
## Model Card Contact
|
| 505 |
+
|
| 506 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
| 507 |
+
-->
|
config.json
ADDED
|
@@ -0,0 +1,25 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"_name_or_path": "final",
|
| 3 |
+
"architectures": [
|
| 4 |
+
"BertModel"
|
| 5 |
+
],
|
| 6 |
+
"attention_probs_dropout_prob": 0.1,
|
| 7 |
+
"classifier_dropout": null,
|
| 8 |
+
"hidden_act": "gelu",
|
| 9 |
+
"hidden_dropout_prob": 0.1,
|
| 10 |
+
"hidden_size": 768,
|
| 11 |
+
"initializer_range": 0.02,
|
| 12 |
+
"intermediate_size": 3072,
|
| 13 |
+
"layer_norm_eps": 1e-12,
|
| 14 |
+
"max_position_embeddings": 512,
|
| 15 |
+
"model_type": "bert",
|
| 16 |
+
"num_attention_heads": 12,
|
| 17 |
+
"num_hidden_layers": 12,
|
| 18 |
+
"pad_token_id": 0,
|
| 19 |
+
"position_embedding_type": "absolute",
|
| 20 |
+
"torch_dtype": "float32",
|
| 21 |
+
"transformers_version": "4.46.2",
|
| 22 |
+
"type_vocab_size": 2,
|
| 23 |
+
"use_cache": true,
|
| 24 |
+
"vocab_size": 32000
|
| 25 |
+
}
|
config_sentence_transformers.json
ADDED
|
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"__version__": {
|
| 3 |
+
"sentence_transformers": "3.3.0",
|
| 4 |
+
"transformers": "4.46.2",
|
| 5 |
+
"pytorch": "2.5.1"
|
| 6 |
+
},
|
| 7 |
+
"prompts": {},
|
| 8 |
+
"default_prompt_name": null,
|
| 9 |
+
"similarity_fn_name": "cosine"
|
| 10 |
+
}
|
model.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:bde2a19ef5b596e3439aff874511c401a51b39dd7b5057c4ca008f1edd78eac5
|
| 3 |
+
size 442491744
|
modules.json
ADDED
|
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
[
|
| 2 |
+
{
|
| 3 |
+
"idx": 0,
|
| 4 |
+
"name": "0",
|
| 5 |
+
"path": "",
|
| 6 |
+
"type": "sentence_transformers.models.Transformer"
|
| 7 |
+
},
|
| 8 |
+
{
|
| 9 |
+
"idx": 1,
|
| 10 |
+
"name": "1",
|
| 11 |
+
"path": "1_Pooling",
|
| 12 |
+
"type": "sentence_transformers.models.Pooling"
|
| 13 |
+
}
|
| 14 |
+
]
|
sentence_bert_config.json
ADDED
|
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"max_seq_length": 512,
|
| 3 |
+
"do_lower_case": false
|
| 4 |
+
}
|
special_tokens_map.json
ADDED
|
@@ -0,0 +1,37 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"cls_token": {
|
| 3 |
+
"content": "[CLS]",
|
| 4 |
+
"lstrip": false,
|
| 5 |
+
"normalized": false,
|
| 6 |
+
"rstrip": false,
|
| 7 |
+
"single_word": false
|
| 8 |
+
},
|
| 9 |
+
"mask_token": {
|
| 10 |
+
"content": "[MASK]",
|
| 11 |
+
"lstrip": false,
|
| 12 |
+
"normalized": false,
|
| 13 |
+
"rstrip": false,
|
| 14 |
+
"single_word": false
|
| 15 |
+
},
|
| 16 |
+
"pad_token": {
|
| 17 |
+
"content": "[PAD]",
|
| 18 |
+
"lstrip": false,
|
| 19 |
+
"normalized": false,
|
| 20 |
+
"rstrip": false,
|
| 21 |
+
"single_word": false
|
| 22 |
+
},
|
| 23 |
+
"sep_token": {
|
| 24 |
+
"content": "[SEP]",
|
| 25 |
+
"lstrip": false,
|
| 26 |
+
"normalized": false,
|
| 27 |
+
"rstrip": false,
|
| 28 |
+
"single_word": false
|
| 29 |
+
},
|
| 30 |
+
"unk_token": {
|
| 31 |
+
"content": "[UNK]",
|
| 32 |
+
"lstrip": false,
|
| 33 |
+
"normalized": false,
|
| 34 |
+
"rstrip": false,
|
| 35 |
+
"single_word": false
|
| 36 |
+
}
|
| 37 |
+
}
|
tokenizer.json
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|
tokenizer_config.json
ADDED
|
@@ -0,0 +1,66 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"added_tokens_decoder": {
|
| 3 |
+
"0": {
|
| 4 |
+
"content": "[PAD]",
|
| 5 |
+
"lstrip": false,
|
| 6 |
+
"normalized": false,
|
| 7 |
+
"rstrip": false,
|
| 8 |
+
"single_word": false,
|
| 9 |
+
"special": true
|
| 10 |
+
},
|
| 11 |
+
"1": {
|
| 12 |
+
"content": "[UNK]",
|
| 13 |
+
"lstrip": false,
|
| 14 |
+
"normalized": false,
|
| 15 |
+
"rstrip": false,
|
| 16 |
+
"single_word": false,
|
| 17 |
+
"special": true
|
| 18 |
+
},
|
| 19 |
+
"2": {
|
| 20 |
+
"content": "[CLS]",
|
| 21 |
+
"lstrip": false,
|
| 22 |
+
"normalized": false,
|
| 23 |
+
"rstrip": false,
|
| 24 |
+
"single_word": false,
|
| 25 |
+
"special": true
|
| 26 |
+
},
|
| 27 |
+
"3": {
|
| 28 |
+
"content": "[SEP]",
|
| 29 |
+
"lstrip": false,
|
| 30 |
+
"normalized": false,
|
| 31 |
+
"rstrip": false,
|
| 32 |
+
"single_word": false,
|
| 33 |
+
"special": true
|
| 34 |
+
},
|
| 35 |
+
"4": {
|
| 36 |
+
"content": "[MASK]",
|
| 37 |
+
"lstrip": false,
|
| 38 |
+
"normalized": false,
|
| 39 |
+
"rstrip": false,
|
| 40 |
+
"single_word": false,
|
| 41 |
+
"special": true
|
| 42 |
+
}
|
| 43 |
+
},
|
| 44 |
+
"clean_up_tokenization_spaces": true,
|
| 45 |
+
"cls_token": "[CLS]",
|
| 46 |
+
"do_basic_tokenize": true,
|
| 47 |
+
"do_lower_case": false,
|
| 48 |
+
"extra_special_tokens": {},
|
| 49 |
+
"mask_token": "[MASK]",
|
| 50 |
+
"max_len": 512,
|
| 51 |
+
"max_length": 512,
|
| 52 |
+
"model_max_length": 512,
|
| 53 |
+
"never_split": null,
|
| 54 |
+
"pad_to_multiple_of": null,
|
| 55 |
+
"pad_token": "[PAD]",
|
| 56 |
+
"pad_token_type_id": 0,
|
| 57 |
+
"padding_side": "right",
|
| 58 |
+
"sep_token": "[SEP]",
|
| 59 |
+
"stride": 0,
|
| 60 |
+
"strip_accents": null,
|
| 61 |
+
"tokenize_chinese_chars": true,
|
| 62 |
+
"tokenizer_class": "BertTokenizer",
|
| 63 |
+
"truncation_side": "right",
|
| 64 |
+
"truncation_strategy": "longest_first",
|
| 65 |
+
"unk_token": "[UNK]"
|
| 66 |
+
}
|
vocab.txt
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|