File size: 106,977 Bytes
aaf3bac
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:1533351
- loss:MultipleNegativesRankingLoss
- loss:SoftmaxLoss
- loss:CoSENTLoss
base_model: selmanbaysan/multilingual-e5-base_contrastive_loss_training
widget:
- source_sentence: CIA, filmi indirdi ve filmi ertesi gün Birleşmiş Milletlere götürdü.
  sentences:
  - Bir açıklama yapmalısın! Wolverstone'a ne oldu?
  - CIA, BM’nin filmi hemen görmesi gerektiğini düşünüyordu.
  - Benim yolum en zor yoldur.
- source_sentence: Port Royal'de bu serseriyi bekleyen bir idam sehpası var. Kanlı
    Korsan buna müdahale ederdi ama Lord Julian önce davranıp ona engel oldu.
  sentences:
  - Babamız bunların hayvan değil yaratık olduğunu söyledi.
  - Port Royal suçluları cezalandırmak için olanaklara sahiptir.
  - Geç Anneler Günü kahvaltısına bazı arkadaşlar sırayla ev sahipliği yapıyorlar.
- source_sentence: satın almak için hangi boyut Fitbit şarj
  sentences:
  - Texas A&M'den bir eğitim, yıldan yıla çok arzu edilen ve çok uygun fiyatlı olmaya
    devam ediyor. Texas A&M'e bir yıl boyunca katılmak için toplam ortalama katılım
    maliyeti yaklaşık 22,470 $ (devlet içi ikamet edenler için), eğitim ve harç, oda
    ve yönetim kurulu, kitaplar, ulaşım ve çeşitli masraflar içerir. Kolej İstasyonu'ndaki
    Texas A&M Üniversitesi'nde dönem başına 15 lisans kredi saatine dayanarak; bazı
    harç ve harçlar buraya yansıtılmamıştır.
  - İlk fitbitimi satın almak istiyorum ve şarj saatine karar verdim. Bununla birlikte,
    bileğimi ölçtükten sonra, 6,5 inçte geldi. Mevcut boyutları kontrol ettikten sonra
    küçük ve büyük arasındayım gibi görünüyor. Küçük 6,7'ye çıkar ve büyük 6.3'ten
    başlar. Hangisinin daha iyi olacağından gerçekten emin değilim.
  - Atriyal Dalgalanma Nedenleri. Atriyal dalgalanma, kalbin anormalliklerinden veya
    hastalıklarından, vücudun başka bir yerinde kalbi etkileyen bir hastalıktan veya
    elektriksel dürtülerin kalp yoluyla bulaşma şeklini değiştiren maddelerin tüketilmesinden
    kaynaklanabilir. Bazı insanlarda, altta yatan hiçbir neden bulunmaz.
- source_sentence: '"Ben kimim" sorusuna nasıl cevap veririm?'
  sentences:
  - Notlarımı nasıl ezberleyebilirim?
  - Birinin en zor soru olan "ben kimim?" sorusuna nasıl cevap verebileceği nasıl
    açıklanabilir?
  - Donald Trump'ın 2016 seçimlerini kazanma ihtimali nedir?
- source_sentence: Stoklara nasıl yatırım yapabilirim?
  sentences:
  - '

    Bu soru yüklü ama denemek için elimden geleni yapacağım. Öncelikle, hisse senetlerine
    yatırım yapmadan önce hazır olup olmadığınızı belirlemeniz gerekir. Yüksek faizli
    borcunuz varsa, hisse senetlerine yatırım yapmadan önce onu ödemeniz daha iyi
    olacaktır. Hisse senetleri uzun vadede yaklaşık %8-10 getiri sağlar, bu nedenle
    %8-10''dan daha yüksek faizli herhangi bir borcunuzu ödemeniz daha iyi olur. Çoğu
    insan, 401k''larında veya Roth IRA''larında ortak fonlar aracılığıyla hisse senetlerine
    başlar. Bireysel hisse senetleri yerine ortak fonlara yatırım yapmak istiyorsanız,
    çok okumalı ve öğrenmelisiniz. Bir aracı hesap veya hisse senedi aklınızda varsa,
    doğrudan şirkete DRIP (temettü yeniden yatırma planı) aracılığıyla yatırım yapabilirsiniz.
    Farklı aracı kurumları karşılaştırarak size en uygun olanı belirlemeniz gerekir.
    İnternet bilgisine sahip olduğunuzu göz önünde bulundurarak, daha düşük komisyonlar
    sunan bir indirimli aracı kurum kullanmanızı öneririm. İyi bir kılavuz, yatırım
    yaptığınız tutarın %1''inden daha az komisyon ödemektir. Çevrimiçi aracı hesabınızı
    açıp içine para yatırdıktan sonra, hisse senedi satın alma işlemi oldukça basittir.
    Satın almak istediğiniz hisse senedi miktarı için bir emir verin. Bu, mevcut piyasa
    fiyatında bir satın alma anlamına gelen bir piyasa emri olabilir. Veya fiyatı
    kontrol edebileceğiniz bir sınır emri kullanabilirsiniz. Yeni başlayanlar için
    birçok iyi kitap vardır. Kişisel olarak, Motley Fool''dan öğrendim. Ve son olarak,
    eğlenin. Öğrendiğiniz kadarını öğrenin ve kulübünüzün tadını çıkarın.'
  - '"En iyi çözüm, arabayı satın almak ve kendi kredinizi almak (ChrisInEdmonton''un
    yanıtladığı gibi). Buna rağmen, kredi birliğim, bir başkasını başlığa eklerken
    hala bir kredim olduğunda bir başlık kayıt ücreti için izin verdi.  Başlık sahibi
    olan bankaya, bir başkasını başlığa eklemek için bir hüküm olup olmadığını sorabilirsiniz.  Benim
    için toplam maliyet, bankada bir öğleden sonra ve yaklaşık 20 veya 40 dolar (bir
    süredir) oldu."'
  - 'Öncelikle varsayımınız doğru: Büyük bir miktar YetAnotherCryptoCoin''i ICO''sundan
    kısa bir süre sonra nasıl nakde çevirebilirsiniz? Kripto borsaları yeni bir para
    birimini eklemek için biraz zaman alır, hatta hiç eklemeyebilirler. Ve hatta eklediklerinde,
    işlem hacmi genellikle düşüktür. Sanırım bu, yatırımcılar için gerçekten çekici
    olmayan şeydir (teknoloji tutkunlarından ayrı olarak), yüksek volatilite dışında.
    Güvenilir bir işlem yeteneği tamamen eksikliği.'
datasets:
- selmanbaysan/msmarco-tr_fine_tuning_dataset
- selmanbaysan/fiqa-tr_fine_tuning_dataset
- selmanbaysan/scifact-tr_fine_tuning_dataset
- selmanbaysan/nfcorpus-tr_fine_tuning_dataset
- selmanbaysan/multinli_tr_fine_tuning_dataset
- selmanbaysan/snli_tr_fine_tuning_dataset
- selmanbaysan/stsb-tr
- selmanbaysan/wmt16_en_tr_fine_tuning_dataset
- selmanbaysan/quora-tr_fine_tuning_dataset
- selmanbaysan/xnli_tr_fine_tuning_dataset
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- pearson_cosine
- spearman_cosine
- cosine_accuracy
- cosine_accuracy_threshold
- cosine_f1
- cosine_f1_threshold
- cosine_precision
- cosine_recall
- cosine_ap
- cosine_mcc
model-index:
- name: SentenceTransformer based on selmanbaysan/multilingual-e5-base_contrastive_loss_training
  results:
  - task:
      type: semantic-similarity
      name: Semantic Similarity
    dataset:
      name: stsb tr
      type: stsb-tr
    metrics:
    - type: pearson_cosine
      value: 0.6556453013820032
      name: Pearson Cosine
    - type: spearman_cosine
      value: 0.6782939481574035
      name: Spearman Cosine
  - task:
      type: binary-classification
      name: Binary Classification
    dataset:
      name: snli tr
      type: snli-tr
    metrics:
    - type: cosine_accuracy
      value: 0.6908
      name: Cosine Accuracy
    - type: cosine_accuracy_threshold
      value: 0.7747554779052734
      name: Cosine Accuracy Threshold
    - type: cosine_f1
      value: 0.5099908340971585
      name: Cosine F1
    - type: cosine_f1_threshold
      value: 0.09426674246788025
      name: Cosine F1 Threshold
    - type: cosine_precision
      value: 0.3669700567207492
      name: Cosine Precision
    - type: cosine_recall
      value: 0.835686392310003
      name: Cosine Recall
    - type: cosine_ap
      value: 0.48727667151227805
      name: Cosine Ap
    - type: cosine_mcc
      value: 0.12798698333564357
      name: Cosine Mcc
  - task:
      type: binary-classification
      name: Binary Classification
    dataset:
      name: xnli tr
      type: xnli-tr
    metrics:
    - type: cosine_accuracy
      value: 0.7184738955823293
      name: Cosine Accuracy
    - type: cosine_accuracy_threshold
      value: 0.6220401525497437
      name: Cosine Accuracy Threshold
    - type: cosine_f1
      value: 0.5964757709251101
      name: Cosine F1
    - type: cosine_f1_threshold
      value: 0.3619864583015442
      name: Cosine F1 Threshold
    - type: cosine_precision
      value: 0.4701388888888889
      name: Cosine Precision
    - type: cosine_recall
      value: 0.8156626506024096
      name: Cosine Recall
    - type: cosine_ap
      value: 0.5938035157694832
      name: Cosine Ap
    - type: cosine_mcc
      value: 0.3398572879761094
      name: Cosine Mcc
  - task:
      type: binary-classification
      name: Binary Classification
    dataset:
      name: wmt16
      type: wmt16
    metrics:
    - type: cosine_accuracy
      value: 0.999000999000999
      name: Cosine Accuracy
    - type: cosine_accuracy_threshold
      value: 0.31353089213371277
      name: Cosine Accuracy Threshold
    - type: cosine_f1
      value: 0.9995002498750626
      name: Cosine F1
    - type: cosine_f1_threshold
      value: 0.31353089213371277
      name: Cosine F1 Threshold
    - type: cosine_precision
      value: 1.0
      name: Cosine Precision
    - type: cosine_recall
      value: 0.999000999000999
      name: Cosine Recall
    - type: cosine_ap
      value: 1.0
      name: Cosine Ap
    - type: cosine_mcc
      value: 0.0
      name: Cosine Mcc
  - task:
      type: binary-classification
      name: Binary Classification
    dataset:
      name: msmarco tr
      type: msmarco-tr
    metrics:
    - type: cosine_accuracy
      value: 0.9999682942295498
      name: Cosine Accuracy
    - type: cosine_accuracy_threshold
      value: -0.1410704255104065
      name: Cosine Accuracy Threshold
    - type: cosine_f1
      value: 0.9999841468634569
      name: Cosine F1
    - type: cosine_f1_threshold
      value: -0.1410704255104065
      name: Cosine F1 Threshold
    - type: cosine_precision
      value: 1.0
      name: Cosine Precision
    - type: cosine_recall
      value: 0.9999682942295498
      name: Cosine Recall
    - type: cosine_ap
      value: 1.0
      name: Cosine Ap
    - type: cosine_mcc
      value: 0.0
      name: Cosine Mcc
  - task:
      type: binary-classification
      name: Binary Classification
    dataset:
      name: fiqa tr
      type: fiqa-tr
    metrics:
    - type: cosine_accuracy
      value: 0.9991922455573505
      name: Cosine Accuracy
    - type: cosine_accuracy_threshold
      value: -0.05211538076400757
      name: Cosine Accuracy Threshold
    - type: cosine_f1
      value: 0.9995959595959596
      name: Cosine F1
    - type: cosine_f1_threshold
      value: -0.05211538076400757
      name: Cosine F1 Threshold
    - type: cosine_precision
      value: 1.0
      name: Cosine Precision
    - type: cosine_recall
      value: 0.9991922455573505
      name: Cosine Recall
    - type: cosine_ap
      value: 1.0
      name: Cosine Ap
    - type: cosine_mcc
      value: 0.0
      name: Cosine Mcc
  - task:
      type: binary-classification
      name: Binary Classification
    dataset:
      name: quora tr
      type: quora-tr
    metrics:
    - type: cosine_accuracy
      value: 0.9998688696564385
      name: Cosine Accuracy
    - type: cosine_accuracy_threshold
      value: 0.16239479184150696
      name: Cosine Accuracy Threshold
    - type: cosine_f1
      value: 0.9999344305291455
      name: Cosine F1
    - type: cosine_f1_threshold
      value: 0.16239479184150696
      name: Cosine F1 Threshold
    - type: cosine_precision
      value: 1.0
      name: Cosine Precision
    - type: cosine_recall
      value: 0.9998688696564385
      name: Cosine Recall
    - type: cosine_ap
      value: 1.0
      name: Cosine Ap
    - type: cosine_mcc
      value: 0.0
      name: Cosine Mcc
  - task:
      type: binary-classification
      name: Binary Classification
    dataset:
      name: nfcorpus tr
      type: nfcorpus-tr
    metrics:
    - type: cosine_accuracy
      value: 0.9999121651295564
      name: Cosine Accuracy
    - type: cosine_accuracy_threshold
      value: -0.12271487712860107
      name: Cosine Accuracy Threshold
    - type: cosine_f1
      value: 0.9999560806359523
      name: Cosine F1
    - type: cosine_f1_threshold
      value: -0.12271487712860107
      name: Cosine F1 Threshold
    - type: cosine_precision
      value: 1.0
      name: Cosine Precision
    - type: cosine_recall
      value: 0.9999121651295564
      name: Cosine Recall
    - type: cosine_ap
      value: 1.0
      name: Cosine Ap
    - type: cosine_mcc
      value: 0.0
      name: Cosine Mcc
---

# SentenceTransformer based on selmanbaysan/multilingual-e5-base_contrastive_loss_training

This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [selmanbaysan/multilingual-e5-base_contrastive_loss_training](https://huggingface.co/selmanbaysan/multilingual-e5-base_contrastive_loss_training) on the [msmarco-tr](https://huggingface.co/datasets/selmanbaysan/msmarco-tr_fine_tuning_dataset), [fiqa-tr](https://huggingface.co/datasets/selmanbaysan/fiqa-tr_fine_tuning_dataset), [scifact-tr](https://huggingface.co/datasets/selmanbaysan/scifact-tr_fine_tuning_dataset), [nfcorpus-tr](https://huggingface.co/datasets/selmanbaysan/nfcorpus-tr_fine_tuning_dataset), [multinli-tr](https://huggingface.co/datasets/selmanbaysan/multinli_tr_fine_tuning_dataset), [snli-tr](https://huggingface.co/datasets/selmanbaysan/snli_tr_fine_tuning_dataset), [stsb-tr](https://huggingface.co/datasets/selmanbaysan/stsb-tr) and [wmt16](https://huggingface.co/datasets/selmanbaysan/wmt16_en_tr_fine_tuning_dataset) datasets. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

## Model Details

### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [selmanbaysan/multilingual-e5-base_contrastive_loss_training](https://huggingface.co/selmanbaysan/multilingual-e5-base_contrastive_loss_training) <!-- at revision e3937ce834767381a575e644dc98a24787685c8d -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
- **Training Datasets:**
    - [msmarco-tr](https://huggingface.co/datasets/selmanbaysan/msmarco-tr_fine_tuning_dataset)
    - [fiqa-tr](https://huggingface.co/datasets/selmanbaysan/fiqa-tr_fine_tuning_dataset)
    - [scifact-tr](https://huggingface.co/datasets/selmanbaysan/scifact-tr_fine_tuning_dataset)
    - [nfcorpus-tr](https://huggingface.co/datasets/selmanbaysan/nfcorpus-tr_fine_tuning_dataset)
    - [multinli-tr](https://huggingface.co/datasets/selmanbaysan/multinli_tr_fine_tuning_dataset)
    - [snli-tr](https://huggingface.co/datasets/selmanbaysan/snli_tr_fine_tuning_dataset)
    - [stsb-tr](https://huggingface.co/datasets/selmanbaysan/stsb-tr)
    - [wmt16](https://huggingface.co/datasets/selmanbaysan/wmt16_en_tr_fine_tuning_dataset)
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)

### Full Model Architecture

```
SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)
```

## Usage

### Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

```bash
pip install -U sentence-transformers
```

Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("selmanbaysan/multilingual-e5-base_fine_tuned")
# Run inference
sentences = [
    'Stoklara nasıl yatırım yapabilirim?',
    "\nBu soru yüklü ama denemek için elimden geleni yapacağım. Öncelikle, hisse senetlerine yatırım yapmadan önce hazır olup olmadığınızı belirlemeniz gerekir. Yüksek faizli borcunuz varsa, hisse senetlerine yatırım yapmadan önce onu ödemeniz daha iyi olacaktır. Hisse senetleri uzun vadede yaklaşık %8-10 getiri sağlar, bu nedenle %8-10'dan daha yüksek faizli herhangi bir borcunuzu ödemeniz daha iyi olur. Çoğu insan, 401k'larında veya Roth IRA'larında ortak fonlar aracılığıyla hisse senetlerine başlar. Bireysel hisse senetleri yerine ortak fonlara yatırım yapmak istiyorsanız, çok okumalı ve öğrenmelisiniz. Bir aracı hesap veya hisse senedi aklınızda varsa, doğrudan şirkete DRIP (temettü yeniden yatırma planı) aracılığıyla yatırım yapabilirsiniz. Farklı aracı kurumları karşılaştırarak size en uygun olanı belirlemeniz gerekir. İnternet bilgisine sahip olduğunuzu göz önünde bulundurarak, daha düşük komisyonlar sunan bir indirimli aracı kurum kullanmanızı öneririm. İyi bir kılavuz, yatırım yaptığınız tutarın %1'inden daha az komisyon ödemektir. Çevrimiçi aracı hesabınızı açıp içine para yatırdıktan sonra, hisse senedi satın alma işlemi oldukça basittir. Satın almak istediğiniz hisse senedi miktarı için bir emir verin. Bu, mevcut piyasa fiyatında bir satın alma anlamına gelen bir piyasa emri olabilir. Veya fiyatı kontrol edebileceğiniz bir sınır emri kullanabilirsiniz. Yeni başlayanlar için birçok iyi kitap vardır. Kişisel olarak, Motley Fool'dan öğrendim. Ve son olarak, eğlenin. Öğrendiğiniz kadarını öğrenin ve kulübünüzün tadını çıkarın.",
    "Öncelikle varsayımınız doğru: Büyük bir miktar YetAnotherCryptoCoin'i ICO'sundan kısa bir süre sonra nasıl nakde çevirebilirsiniz? Kripto borsaları yeni bir para birimini eklemek için biraz zaman alır, hatta hiç eklemeyebilirler. Ve hatta eklediklerinde, işlem hacmi genellikle düşüktür. Sanırım bu, yatırımcılar için gerçekten çekici olmayan şeydir (teknoloji tutkunlarından ayrı olarak), yüksek volatilite dışında. Güvenilir bir işlem yeteneği tamamen eksikliği.",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```

<!--
### Direct Usage (Transformers)

<details><summary>Click to see the direct usage in Transformers</summary>

</details>
-->

<!--
### Downstream Usage (Sentence Transformers)

You can finetune this model on your own dataset.

<details><summary>Click to expand</summary>

</details>
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

## Evaluation

### Metrics

#### Semantic Similarity

* Dataset: `stsb-tr`
* Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)

| Metric              | Value      |
|:--------------------|:-----------|
| pearson_cosine      | 0.6556     |
| **spearman_cosine** | **0.6783** |

#### Binary Classification

* Datasets: `snli-tr`, `xnli-tr`, `wmt16`, `msmarco-tr`, `fiqa-tr`, `quora-tr` and `nfcorpus-tr`
* Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator)

| Metric                    | snli-tr    | xnli-tr    | wmt16   | msmarco-tr | fiqa-tr | quora-tr | nfcorpus-tr |
|:--------------------------|:-----------|:-----------|:--------|:-----------|:--------|:---------|:------------|
| cosine_accuracy           | 0.6908     | 0.7185     | 0.999   | 1.0        | 0.9992  | 0.9999   | 0.9999      |
| cosine_accuracy_threshold | 0.7748     | 0.622      | 0.3135  | -0.1411    | -0.0521 | 0.1624   | -0.1227     |
| cosine_f1                 | 0.51       | 0.5965     | 0.9995  | 1.0        | 0.9996  | 0.9999   | 1.0         |
| cosine_f1_threshold       | 0.0943     | 0.362      | 0.3135  | -0.1411    | -0.0521 | 0.1624   | -0.1227     |
| cosine_precision          | 0.367      | 0.4701     | 1.0     | 1.0        | 1.0     | 1.0      | 1.0         |
| cosine_recall             | 0.8357     | 0.8157     | 0.999   | 1.0        | 0.9992  | 0.9999   | 0.9999      |
| **cosine_ap**             | **0.4873** | **0.5938** | **1.0** | **1.0**    | **1.0** | **1.0**  | **1.0**     |
| cosine_mcc                | 0.128      | 0.3399     | 0.0     | 0.0        | 0.0     | 0.0      | 0.0         |

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Datasets
<details><summary>msmarco-tr</summary>

#### msmarco-tr

* Dataset: [msmarco-tr](https://huggingface.co/datasets/selmanbaysan/msmarco-tr_fine_tuning_dataset) at [f03d837](https://huggingface.co/datasets/selmanbaysan/msmarco-tr_fine_tuning_dataset/tree/f03d83704e5ea276665384ca6d8bee3b19632c80)
* Size: 253,332 training samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                            | positive                                                                            |
  |:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
  | type    | string                                                                            | string                                                                              |
  | details | <ul><li>min: 4 tokens</li><li>mean: 10.14 tokens</li><li>max: 30 tokens</li></ul> | <ul><li>min: 19 tokens</li><li>mean: 81.24 tokens</li><li>max: 512 tokens</li></ul> |
* Samples:
  | anchor                                                 | positive                                                                                                                                                                                                                                                                                                                                      |
  |:-------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
  | <code>Spagetti ve et sosu servisinde kaç kalori</code> | <code>Gıda Bilgisi. Makarna Yemekleri kategorisinde Et Soslu Spagetti ile 100 g / mL'ye göre toplam 90.0 kalori ve aşağıdaki beslenme gerçekleri vardır: 5.1 g protein, 15.2 g karbonhidrat ve 1.0 g yağ.</code>                                                                                                                              |
  | <code>galveston okyanusu ne kadar derin</code>         | <code>galveston çok sığ olduğu için mucky - Eğer kıyıdan 5 mil yürümek olsaydı, asla 10 veya 12 feet derinliğinden fazla olmazdı. Galveston Körfezi çok sığ, sadece 9 feet derinliğinde, bu yüzden körfezden ve derin okyanusa bir kez çıktığınızda, su o kadar çamurlu olmayacak.</code>                                                     |
  | <code>amlodipin diyabete neden olabilir</code>         | <code>Hipertansiyon tedavisi için Amlodipin tedavisine konduğunuzda referanslara göre, diyabetin yeni başlangıcını geliştirme olasılığınız %34 daha düşüktür. Hipertansiyon tedavisi için Amlodipin tedavisine konduğunuzda referanslara göre, diyabetin yeni başlangıcını geliştirme olasılığınız %34 daha düşüktür. Küçük düzenleme?</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>
<details><summary>fiqa-tr</summary>

#### fiqa-tr

* Dataset: [fiqa-tr](https://huggingface.co/datasets/selmanbaysan/fiqa-tr_fine_tuning_dataset) at [bbc9e91](https://huggingface.co/datasets/selmanbaysan/fiqa-tr_fine_tuning_dataset/tree/bbc9e91b5710d0ac4032b5c9e94066470f928c8c)
* Size: 14,166 training samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                            | positive                                                                            |
  |:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
  | type    | string                                                                            | string                                                                              |
  | details | <ul><li>min: 5 tokens</li><li>mean: 18.43 tokens</li><li>max: 58 tokens</li></ul> | <ul><li>min: 9 tokens</li><li>mean: 200.63 tokens</li><li>max: 512 tokens</li></ul> |
* Samples:
  | anchor                                                                                               | positive                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                 |
  |:-----------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
  | <code>Bir iş gezisinde ne tür masraflar iş masrafı olarak kabul edilir?</code>                       | <code>IRS'a ait ilgili rehberlik. Genel olarak söyleyebileceğim tek şey, işinizin giderlerinin düşebileceği yönündedir. Ancak bu, koşullara ve düşmek istediğiniz gider türüne bağlıdır. Seyahat İş seyahatinden dolayı evden uzakta olan vergi mükellefleri, ilişkili giderleri düşebilirler, bu da varış noktasına ulaşma maliyetini, konaklama ve yemek masraflarını ve diğer normal ve gerekli giderleri içerir. Mükellefler, görevlerinin onları evden önemli ölçüde daha uzun süre uzak tutması ve iş taleplerini karşılamak için uyku veya dinlenmeye ihtiyaç duymaları durumunda "evden uzakta" olarak kabul edilirler. Yemek ve yan masrafların gerçek maliyetleri düşürülebilir veya mükellef, standart yemek yardımı ve azaltılmış kayıt tutma gereklilikleri kullanabilir. Kullanılan yönteme bakılmaksızın, yemek giderleri genellikle daha önce belirtildiği gibi %50 ile sınırlıdır. Sadece gerçek konaklama masrafları gider olarak talep edilebilir ve belgeler için makbuzlar tutulmalıdır. Giderler makul ve uygun olmalıdı...</code> |
  | <code>İş Gideri - Kaza Sırasında İş Gezisi Sırasında Uygulanan Araba Sigortası Teminat Tutarı</code> | <code>Genel bir kural olarak, mil ölçümü indirimi veya gerçek giderler indirimi arasında seçim yapmanız gerekir. Fikir, mil ölçümü indiriminin aracın kullanımının tüm maliyetlerini kapsamasıdır. Park ücretleri ve otoyol ücretleri gibi istisnalar, her iki yöntemin altında ayrı ayrı indirilebilir. Mil ölçümü indirimi talep ederseniz sigorta maliyetlerini açık bir şekilde indiremezsiniz. Ayrı olarak, muhtemelen aracınızın kazaya bağlı olarak hasar kaybı olarak bir teminat indirimi indiremeyeceksiniz. Öncelikle teminattan 100 dolar çıkarırsınız ve sonra onu vergi beyannamenizden ayarlanan brüt gelirinize (AGI) böleriz. Teminatınız AGI'nızın %10'undan fazla ise onu indirebilirsiniz. Not edin ki, 1500 dolar teminatı olan biri bile yıllık 14.000 doların üzerinde gelir elde ederse hiçbir şey indiremez. Çoğu insan için, sigorta teminatı gelire göre yeterince büyük değil, bu nedenle vergi indirimi için uygun değildir. Kaynak</code>                                                                                  |
  | <code>Yeni bir çevrimiçi işletme başlatmak</code>                                                    | <code>Amerika Birleşik Devletleri'nin çoğu eyaleti, yukarıda belirtildiği gibi, aşağıdakine benzer kurallara sahiptir: Kayıt ücretleri ödemeniz neredeyse kesin. Düzenleme şeklinize bağlı olarak, işletmeniz için ayrı bir vergi beyannamesi doldurmanız gerekebilir veya gerekmeyebilir. (Vergi amaçları için tek bir işletme sahibiyseniz, kişisel Form 1040'ınızın Ek C'sini doldurursunuz.) Vergi ödeme durumunuz, net kazancınızın olup olmamasına bağlıdır. Bazı kayıpların da indirilebilir olabileceği mümkündür. (Dikkat edin, net kazancınız olmasa bile bir beyanname sunmanız gerekebilir - Beyanname sunmak ve vergi ödemek aynı şey değildir, çünkü beyannameniz hiçbir vergi borcu göstermeyebilir.) Ayrıca, eyalet düzeyinde, ne sattığınız ve nasıl sattığınıza bağlı olarak, gelir vergisi ötesinde ek ücretler veya vergiler ödemeniz gerekebilir. (Örneğin, satış vergisi veya franchise vergileri devreye girebilir.) Bu konuda kendi eyalet yasalarını kontrol etmeniz gerekir. Her zaman, durumunuza ve eyaletinize öz...</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>
<details><summary>scifact-tr</summary>

#### scifact-tr

* Dataset: [scifact-tr](https://huggingface.co/datasets/selmanbaysan/scifact-tr_fine_tuning_dataset) at [382de5b](https://huggingface.co/datasets/selmanbaysan/scifact-tr_fine_tuning_dataset/tree/382de5b316d8c8042a23f34179a73fadc13cb53d)
* Size: 919 training samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 919 samples:
  |         | anchor                                                                             | positive                                                                             |
  |:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
  | type    | string                                                                             | string                                                                               |
  | details | <ul><li>min: 10 tokens</li><li>mean: 27.25 tokens</li><li>max: 72 tokens</li></ul> | <ul><li>min: 80 tokens</li><li>mean: 349.93 tokens</li><li>max: 512 tokens</li></ul> |
* Samples:
  | anchor                                                                                                   | positive                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                           |
  |:---------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
  | <code>0 boyutlu biyomalzemeler indüktif özelliklere sahip değildir.</code>                               | <code>Nanoteknolojiler, kök hücreleri ölçmek, anlamak ve manipüle etmek için yararlı olabilecek yeni ortaya çıkan platformlardır. Örnekler arasında, kök hücre etiketleme ve in vivo izleme için manyetik nanopartiküller ve kuantum noktaları; hücre içi gen/oligonükleotit ve protein/peptit teslimatı için nanopartiküller, karbon nanotüpler ve polypleksler; ve kök hücre farklılaştırması ve nakli için mühendislik yapılmış nanometre ölçeği destekler yer alır. Bu inceleme, kök hücre izleme, farklılaştırma ve nakli için nanoteknolojilerin kullanımını inceler. Ayrıca, yararlılıkları ve sitotoksisiteyle ilgili olası endişeleri tartışırız.</code>                                                                                                                                                                                                                                                                                                                                                                                                                                  |
  | <code>Birleşik Krallık'ta 1 milyonun 5'inde anormal PrP pozitifliği vardır.</code>                       | <code><br>## Amaçlar<br>Bovin spongiform ensefalopati (BSE) salgınından sonra alt klinik prion enfeksiyonunun yaygınlığı hakkında mevcut tahminleri daha iyi anlamak ve daha geniş bir doğum kohortunun etkilenip etkilenmediğini görmek, ayrıca kan ve kan ürünleri yönetimi ve cerrahi aletlerin işlenmesiyle ilgili sonuçları daha iyi anlamak için arşivlenmiş apandisit örnekleri üzerine ek bir anket yapmak.<br><br>## Tasarım<br>Büyük ölçekli, kalıcı olarak bağlantısı kesilmiş ve anonimleştirilmiş arşivlenmiş apandisit örnekleri anketini tekrarlamak.<br><br>## Çalışma Alanı<br>Daha önceki anketin katılımının daha düşük olduğu bölgelerde ek hastaneler dahil olmak üzere, Birleşik Krallık'taki 41 hastanenin patoloji bölümlerinden arşivlenmiş apandisit örnekleri.<br><br>## Örnek<br>32.441 arşivlenmiş apandisit örneği, formalin ile sabitlenmiş ve parafinle gömülmüş ve anormal prion proteini (PrP) varlığı için test edilmiş.<br><br>## Sonuçlar<br>32.441 apandisit örneğinin 16'sı anormal PrP için pozitif çıktı, bu da genel bir yaygınlık oranı 493/m...</code> |
  | <code>Kolon ve rektum kanseri hastalarının %1-1'i bölgesel veya uzak metastazlarla teşhis edilir.</code> | <code><br>Medikare'nin geri ödeme politikası 1998'de kolon kanseri riskini artıran hastalar için tarama kolon skopi kapsamı sağlayarak ve 2001'de tüm bireyler için tarama kolon skopi kapsamı genişleterek değiştirildi.<br><br>**Amaç:** Medikare geri ödeme politikasındaki değişikliklerin kolon skopi kullanımı veya erken evre kolon kanseri teşhisi artışı ile ilişkili olup olmadığını belirlemek.<br><br>**Tasarım, Ayar ve Katılımcılar:** 1992-2002 yılları arasında 67 yaş ve üstü, birincil tanısı kolon kanseri olan ve Surveillance, Epidemiology ve Sonuçları (SEER) Medikare bağlantılı veritabanındaki hastalar ile SEER alanlarında ikamet eden ancak kanser tanısı almayan Medikare yararlanıcıları.<br><br>**Ana Çıktı Ölçümleri:** Kolonoskopi ve sigmoidoskopi kullanımındaki eğilimler, kanser olmayan Medikare yararlanıcıları arasında çok değişkenli Poisson regresyonu ile değerlendirildi. Kanserli hastalarda, evre erken (evre I) ile tüm diğer evreler (II-IV) olarak sınıflandırıldı. Zaman, dönem 1 (taramaya kapsama yok, 1992-1...</code>                      |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>
<details><summary>nfcorpus-tr</summary>

#### nfcorpus-tr

* Dataset: [nfcorpus-tr](https://huggingface.co/datasets/selmanbaysan/nfcorpus-tr_fine_tuning_dataset) at [22d1ef8](https://huggingface.co/datasets/selmanbaysan/nfcorpus-tr_fine_tuning_dataset/tree/22d1ef8b6a9f1c196d1977541a66ca8eff946f06)
* Size: 110,575 training samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                            | positive                                                                             |
  |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
  | type    | string                                                                            | string                                                                               |
  | details | <ul><li>min: 9 tokens</li><li>mean: 15.99 tokens</li><li>max: 22 tokens</li></ul> | <ul><li>min: 29 tokens</li><li>mean: 368.77 tokens</li><li>max: 512 tokens</li></ul> |
* Samples:
  | anchor                                                       | positive                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                 |
  |:-------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
  | <code>Memeli Kanser Hücreleri Kolesterolden Beslenir.</code> | <code>Düşük yoğunluklu lipoprotein (LDL) reseptörlerinin içeriği, birincil meme kanserlerinden alınan dokularda belirlenmiş ve bilinen prognostik öneme sahip değişkenlerle karşılaştırılmıştır. Dondurulmuş tümör örnekleri seçilmiş ve 72 hastanın dokuları (bunlardan 32'si ölmüş) incelenmiştir. LDL reseptör içeriği, hayatta kalma süresi ile ters orantılı bir korelasyon göstermiştir. Çok değişkenli istatistiksel bir yöntemle yapılan analiz, axiller metastazın varlığı, östrojen ve LDL reseptörleri içeriği, tümör çapı ve DNA deseni gibi faktörlerin, hastaların hayatta kalma süresi konusunda prognostik değer taşıdığını göstermiştir. Meme kanseri hastalarında hayatta kalma süresini tahmin etmek için geliştirilmiş yöntemler, bireysel hastalar için tedavi seçiminin belirlenmesinde faydalı olabilir.</code>                                                                                                                                                                                                                   |
  | <code>Memeli Kanser Hücreleri Kolesterolden Beslenir.</code> | <code>ARKA PLAN: Memurun en sık teşhis edilen kanseri, Amerika Birleşik Devletleri'nde kadınlar arasında meme kanseri. Meme kanseri riski ve hayatta kalma ile ilgili diyet faktörlerinin değerlendirilmesi için kapsamlı araştırmalar tamamlandı; ancak klinik çıkarımlar içeren bir özet rapor gerekiyor. Malzemeler ve YÖNTEMLER: Bu inceleme, diyet ile meme kanseri oluşumu, tekrarı, hayatta kalma ve ölümcüllüğü arasındaki mevcut epidemiyolojik ve klinik deneme kanıtlarını özetlemektedir. İnceleme, meme kanseri alt tiplerinde risk değerlendirmesi yapan yeni epidemiyolojik çalışmaları da içermektedir ve aynı zamanda meme kanseri riskini değiştirmeyi amaçlayan önceki ve devam eden diyet müdahale denemelerinin özetini sunmaktadır. SONUÇLAR: Mevcut literatür, düşük yağ ve yüksek lifli diyetlerin meme kanseri karşısında zayıf koruyucu olabileceğini, toplam enerji alımının ve alkolün ise pozitif bir ilişki gösterdiğini öne sürmektedir. Lif, muhtemelen östrojen modülasyonu yoluyla koruyucu olabilirken, mey...</code> |
  | <code>Memeli Kanser Hücreleri Kolesterolden Beslenir.</code> | <code>Fitoestrojenler, estrojenlerle yapısal olarak benzer ve estrojenik/antiestrojenik özellikleri taklit ederek meme kanseri riskini etkileyebilirler. Batılı toplumlarda, tam tahıllar ve muhtemelen soya gıdaları fitoestrojenlerin zengin kaynaklarıdır. Alman menopoz sonrası kadınlarda yapılan bir nüfus tabanlı vaka-kontrol çalışması, fitoestrojen bakımından zengin gıdalar ve diyet lignanlarla meme kanseri riski arasındaki ilişkiyi değerlendirmek için kullanıldı. Diyet verileri, 2.884 vaka ve 5.509 kontrol için geçerli bir gıda sıklığı anketini kullanarak toplandı, bu anket fitoestrojen bakımından zengin gıdalar hakkında ek sorular içeriyordu. İlişkiler, koşullu lojistik regresyon kullanılarak değerlendirildi. Tüm analizler, ilgili risk ve karıştırıcı faktörler için ayarlandı. Politomlu lojistik regresyon analizi, estrojen reseptörü (ER) durumuna göre ilişkileri değerlendirmek için yapıldı. Soya fasulyesi, güneş çiçek tohumu ve kabak tohumu tüketiminin yüksek ve düşük seviyeleri, tüketilmeme...</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>
<details><summary>multinli-tr</summary>

#### multinli-tr

* Dataset: [multinli-tr](https://huggingface.co/datasets/selmanbaysan/multinli_tr_fine_tuning_dataset) at [a700b72](https://huggingface.co/datasets/selmanbaysan/multinli_tr_fine_tuning_dataset/tree/a700b72da7056aa52ceb234d2e8a211d035dc2c7)
* Size: 392,702 training samples
* Columns: <code>premise</code>, <code>hypothesis</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
  |         | premise                                                                            | hypothesis                                                                        | label                                           |
  |:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------------------------------------|
  | type    | string                                                                             | string                                                                            | int                                             |
  | details | <ul><li>min: 4 tokens</li><li>mean: 27.63 tokens</li><li>max: 151 tokens</li></ul> | <ul><li>min: 3 tokens</li><li>mean: 15.01 tokens</li><li>max: 57 tokens</li></ul> | <ul><li>0: ~65.70%</li><li>1: ~34.30%</li></ul> |
* Samples:
  | premise                                                                                                                                                                                                                                                                   | hypothesis                                                                               | label          |
  |:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------|:---------------|
  | <code>Kavramsal olarak krem kaymağının iki temel boyutu vardır - ürün ve coğrafya.</code>                                                                                                                                                                                 | <code>Ürün ve coğrafya krem kaymağını işe yarıyor.</code>                                | <code>0</code> |
  | <code>Mevsim boyunca ve sanırım senin seviyendeyken onları bir sonraki seviyeye düşürürsün. Eğer ebeveyn takımını çağırmaya karar verirlerse Braves üçlü A'dan birini çağırmaya karar verirlerse çifte bir adam onun yerine geçmeye gider ve bekar bir adam gelir.</code> | <code>Eğer insanlar hatırlarsa, bir sonraki seviyeye düşersin.</code>                    | <code>1</code> |
  | <code>Numaramızdan biri talimatlarınızı birazdan yerine getirecektir.</code>                                                                                                                                                                                              | <code>Ekibimin bir üyesi emirlerinizi büyük bir hassasiyetle yerine getirecektir.</code> | <code>1</code> |
* Loss: [<code>SoftmaxLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#softmaxloss)
</details>
<details><summary>snli-tr</summary>

#### snli-tr

* Dataset: [snli-tr](https://huggingface.co/datasets/selmanbaysan/snli_tr_fine_tuning_dataset) at [63eb107](https://huggingface.co/datasets/selmanbaysan/snli_tr_fine_tuning_dataset/tree/63eb107dfdaf0b16cfd209db25705f27f2e5e2ca)
* Size: 550,152 training samples
* Columns: <code>premise</code>, <code>hypothesis</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
  |         | premise                                                                           | hypothesis                                                                        | label                                           |
  |:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------------------------------------|
  | type    | string                                                                            | string                                                                            | int                                             |
  | details | <ul><li>min: 7 tokens</li><li>mean: 19.21 tokens</li><li>max: 56 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 11.25 tokens</li><li>max: 39 tokens</li></ul> | <ul><li>0: ~66.60%</li><li>1: ~33.40%</li></ul> |
* Samples:
  | premise                                                         | hypothesis                                                | label          |
  |:----------------------------------------------------------------|:----------------------------------------------------------|:---------------|
  | <code>Attaki bir kişi, bozuk bir uçağın üzerinden atlar.</code> | <code>Bir kişi atını yarışma için eğitiyor.</code>        | <code>0</code> |
  | <code>Attaki bir kişi, bozuk bir uçağın üzerinden atlar.</code> | <code>Bir kişi bir lokantada omlet sipariş ediyor.</code> | <code>0</code> |
  | <code>Attaki bir kişi, bozuk bir uçağın üzerinden atlar.</code> | <code>Bir kişi açık havada, at üzerinde.</code>           | <code>1</code> |
* Loss: [<code>SoftmaxLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#softmaxloss)
</details>
<details><summary>stsb-tr</summary>

#### stsb-tr

* Dataset: [stsb-tr](https://huggingface.co/datasets/selmanbaysan/stsb-tr) at [3d2e87d](https://huggingface.co/datasets/selmanbaysan/stsb-tr/tree/3d2e87d2a94c9af130b87ab8ed8d0c5c2e92e2df)
* Size: 5,749 training samples
* Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>score</code>
* Approximate statistics based on the first 1000 samples:
  |         | sentence1                                                                         | sentence2                                                                         | score                                                          |
  |:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:---------------------------------------------------------------|
  | type    | string                                                                            | string                                                                            | float                                                          |
  | details | <ul><li>min: 6 tokens</li><li>mean: 10.65 tokens</li><li>max: 26 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 10.59 tokens</li><li>max: 26 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 2.23</li><li>max: 5.0</li></ul> |
* Samples:
  | sentence1                                                          | sentence2                                                                       | score            |
  |:-------------------------------------------------------------------|:--------------------------------------------------------------------------------|:-----------------|
  | <code>Bir uçak kalkıyor.</code>                                    | <code>Bir hava uçağı kalkıyor.</code>                                           | <code>5.0</code> |
  | <code>Bir adam büyük bir flüt çalıyor.</code>                      | <code>Bir adam flüt çalıyor.</code>                                             | <code>3.8</code> |
  | <code>Bir adam pizzanın üzerine rendelenmiş peynir seriyor.</code> | <code>Bir adam pişmemiş bir pizzanın üzerine rendelenmiş peynir seriyor.</code> | <code>3.8</code> |
* Loss: [<code>CoSENTLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosentloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "pairwise_cos_sim"
  }
  ```
</details>
<details><summary>wmt16</summary>

#### wmt16

* Dataset: [wmt16](https://huggingface.co/datasets/selmanbaysan/wmt16_en_tr_fine_tuning_dataset) at [9fc4e73](https://huggingface.co/datasets/selmanbaysan/wmt16_en_tr_fine_tuning_dataset/tree/9fc4e7334bdb195b396c41eed05b0dd447981ef3)
* Size: 205,756 training samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                             | positive                                                                          |
  |:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
  | type    | string                                                                             | string                                                                            |
  | details | <ul><li>min: 8 tokens</li><li>mean: 35.15 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 33.4 tokens</li><li>max: 123 tokens</li></ul> |
* Samples:
  | anchor                                                                                          | positive                                                                                                 |
  |:------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------|
  | <code>Kosova'nın özelleştirme süreci büyüteç altında</code>                                     | <code>Kosovo's privatisation process is under scrutiny</code>                                            |
  | <code>Kosova, tekrar eden şikayetler ışığında özelleştirme sürecini incelemeye alıyor.</code>   | <code>Kosovo is taking a hard look at its privatisation process in light of recurring complaints.</code> |
  | <code>Southeast European Times için Priştine'den Muhamet Brayşori'nin haberi -- 21/03/12</code> | <code>By Muhamet Brajshori for Southeast European Times in Pristina -- 21/03/12</code>                   |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>

### Evaluation Datasets
<details><summary>msmarco-tr</summary>

#### msmarco-tr

* Dataset: [msmarco-tr](https://huggingface.co/datasets/selmanbaysan/msmarco-tr_fine_tuning_dataset) at [f03d837](https://huggingface.co/datasets/selmanbaysan/msmarco-tr_fine_tuning_dataset/tree/f03d83704e5ea276665384ca6d8bee3b19632c80)
* Size: 31,540 evaluation samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                            | positive                                                                            |
  |:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
  | type    | string                                                                            | string                                                                              |
  | details | <ul><li>min: 4 tokens</li><li>mean: 10.21 tokens</li><li>max: 39 tokens</li></ul> | <ul><li>min: 13 tokens</li><li>mean: 82.37 tokens</li><li>max: 148 tokens</li></ul> |
* Samples:
  | anchor                                     | positive                                                                                                                                                                                                                                                                                                                                  |
  |:-------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
  | <code>Brian Patrick Carroll kimdir?</code> | <code>Buckethead Biyografisi. Brian Patrick Carroll (13 Mayıs 1969 doğumlu), profesyonel olarak Buckethead olarak bilinen, birçok müzik türünde çalışmış Amerikalı gitarist ve çoklu enstrümantalist. 265 stüdyo albümü, dört özel sürüm ve bir EP yayınladı. Ayrıca diğer sanatçılar tarafından 50'den fazla albümde seslendirdi.</code> |
  | <code>zolpidem bir benzodiazepin</code>    | <code>Zolpidem (Ambien), imidazopiridin sınıfının bir benzodiazepin olmayan hipnotikidir. Bu ilaç, benzodiazepin omega-1 reseptörüne (seçici olmayan omega-1, 2 ve 3 reseptör alt tiplerine bağlanan diğer benzodiazepinlerin aksine) çok seçici bir şekilde bağlanır, klorür kanalının açılma sıklığını arttırır.</code>                 |
  | <code>roti'de kalori</code>                | <code>1 porsiyon Roti Akdeniz Izgara Tavuk Roti'de 257 kalori vardır. Kalori dağılımı: %47 yağ, %0 karbonhidrat, %53 protein.</code>                                                                                                                                                                                                      |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>
<details><summary>fiqa-tr</summary>

#### fiqa-tr

* Dataset: [fiqa-tr](https://huggingface.co/datasets/selmanbaysan/fiqa-tr_fine_tuning_dataset) at [bbc9e91](https://huggingface.co/datasets/selmanbaysan/fiqa-tr_fine_tuning_dataset/tree/bbc9e91b5710d0ac4032b5c9e94066470f928c8c)
* Size: 1,238 evaluation samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                            | positive                                                                            |
  |:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
  | type    | string                                                                            | string                                                                              |
  | details | <ul><li>min: 4 tokens</li><li>mean: 19.99 tokens</li><li>max: 56 tokens</li></ul> | <ul><li>min: 7 tokens</li><li>mean: 225.48 tokens</li><li>max: 512 tokens</li></ul> |
* Samples:
  | anchor                                                                                       | positive                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                 |
  |:---------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
  | <code>Bir geliri olmayan işletme için işletme giderlerini talep etmek.</code>                | <code>Evet, henüz herhangi bir gelir elde etmiyorsanız işletme indirimleri talep edebilirsiniz. Ancak öncelikle işletmeniz için hangi yapıyı tercih edeceğinize karar vermelisiniz. Ya bir Şirket Yapısı ya da Tek Sahiplik veya Ortaklık. Şirket Yapısı Eğer bir Şirket Yapısı (kurulumu daha pahalı olan) seçerseniz, indirimleri talep edebilirsiniz ancak geliriniz yok. Bu nedenle işletmeniz bir zarara uğrar ve bu zararı, işletmenizden elde ettiğiniz gelirin giderlerinizi aşana kadar devam ettirirsiniz. Bu zararlar şirketin içinde kalır ve gelecek gelir yıllarında kârlarınızı dengelemek için devralınabilir. Daha fazla bilgi için ATO - Şirket Vergi Zararları'na bakın. Tek Sahiplik veya Ortaklık Yapısı Eğer Tek Sahiplik veya Ortaklık olarak seçerseniz ve işletmeniz bir zarara uğrarsa, bu zararı diğer kaynaklardan elde ettiğiniz gelire karşı dengeleyip dengeleyemeyeceğinizi kontrol etmeniz gerekir. İşletmenizin diğer gelirinize karşı zararını dengelemek için aşağıdaki testlerden birini geçmeniz gerekir...</code> |
  | <code>Bir işletme kontrol hesabından başka bir işletme kontrol hesabına para aktarma.</code> | <code>"Her iki işletme için ayrı dosyalar olmalıdır. Para transferi yapan işletme, QB dosyasında ""çeki yaz"" olmalıdır. Para alan işletme, QB dosyasında ""banka yatırımı"" yapmalıdır. (QB'de, ödemeyi ACH gibi başka bir yöntemle yaptığınızda bile, ""çeki yaz"" demeniz gerekir.) Hiçbir işletme, diğerinin banka hesaplarını açıkça temsil etmemelidir. Her iki tarafta da, ödemenin hangi başka hesaptan geldiği/gittiği konusunda sınıflandırmanız gerekecektir - Bunun doğru olup olmadığını bilmek için, parayı neden transfer ettiğinizi ve kitaplarınızı nasıl kurduğunuzu bilmeniz gerekir. Sanırım bu, burada uygun/mümkün olan konunun ötesindedir. Kişisel hesabınızdan işinize para aktarmak, muhtemelen ortaklık sermayesi demektir, eğer başka bir şey yoksa. Örneğin, S Corp'ta kendinize bir maaş ödemelisiniz. Eğer yanlışlıkla fazla öderseniz, o zaman kişisel hesabınızdan şirketi geri bir çek yazıp hatayı düzeltirsiniz. Bu ortaklık sermayesi değil, muhtemelen maaş ödemelerini takip eden başka bir hesaptaki b...</code> |
  | <code>İş/yatırım için ayrı bir banka hesabınız var mı, ama "iş hesabı" değil mi?</code>      | <code>"İş için ayrı bir kontrol hesabı açmak mantıklıdır. Gelir/giderlerinizi belgelemek daha basittir. Hesaba giren ve çıkan her doları açıklayabilirsiniz, bunlardan bazılarının işle alakasız olduğunu hatırlamanıza gerek kalmadan. Kredi birliği, ikinci bir kontrol hesabı açmama ve çeklerin üzerine istediğim herhangi bir ad koymama izin verdi. Bu, çeklerin üzerine adımın yazılması yerine daha iyi görünüyordu. Yatırımlar için ayrı bir kontrol hesabına ihtiyaç görmüyorum. Parayı, herhangi bir ücret olmayan ve hatta biraz faiz kazandırabilen ayrı bir tasarruf hesabında tutabilirsiniz. Ayda çok sayıda yatırım işlemi yapmadığınız sürece bu benim için işe yaradı. Bu şekilde IRA'ları ve 529 planlarını finanse ediyorum. Ayda 4-5 kez maaş alıyoruz, ancak her ay fonlara para gönderiyoruz. İşlem sayısı büyüdükçe bir iş hesabına ihtiyacınız olacak. Bankaya her seferinde onlarca çek yatırıyorsanız, banka sizi iş hesabına geçmeye yönlendirecektir."</code>                                                              |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>
<details><summary>quora-tr</summary>

#### quora-tr

* Dataset: [quora-tr](https://huggingface.co/datasets/selmanbaysan/quora-tr_fine_tuning_dataset) at [6e1eee1](https://huggingface.co/datasets/selmanbaysan/quora-tr_fine_tuning_dataset/tree/6e1eee1e44db0f777eceb1f9b55293a9c2e25d76)
* Size: 7,626 evaluation samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                            | positive                                                                          |
  |:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
  | type    | string                                                                            | string                                                                            |
  | details | <ul><li>min: 5 tokens</li><li>mean: 15.71 tokens</li><li>max: 52 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 16.27 tokens</li><li>max: 46 tokens</li></ul> |
* Samples:
  | anchor                                                                                             | positive                                                                                           |
  |:---------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------|
  | <code>Quora'yı bir moderatörün gözünden nasıl görürsünüz?</code>                                   | <code>Quora web sitesi, Quora moderasyon üyelerine nasıl görünür?</code>                           |
  | <code>Nasıl hayatımın yapmam gereken farklı şeyler arasında seçim yapmamayı reddedebilirim?</code> | <code>Hayatta birçok farklı şeyi takip etmek mümkün mü?</code>                                     |
  | <code>Ben Affleck Batman'de Christian Bale'den daha parlak mıydı?</code>                           | <code>Sizce, Batman performansında kim daha iyiydi: Christian Bale mi yoksa Ben Affleck mi?</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>
<details><summary>nfcorpus-tr</summary>

#### nfcorpus-tr

* Dataset: [nfcorpus-tr](https://huggingface.co/datasets/selmanbaysan/nfcorpus-tr_fine_tuning_dataset) at [22d1ef8](https://huggingface.co/datasets/selmanbaysan/nfcorpus-tr_fine_tuning_dataset/tree/22d1ef8b6a9f1c196d1977541a66ca8eff946f06)
* Size: 11,385 evaluation samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                            | positive                                                                             |
  |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
  | type    | string                                                                            | string                                                                               |
  | details | <ul><li>min: 8 tokens</li><li>mean: 14.32 tokens</li><li>max: 20 tokens</li></ul> | <ul><li>min: 70 tokens</li><li>mean: 365.52 tokens</li><li>max: 512 tokens</li></ul> |
* Samples:
  | anchor                                                                | positive                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                   |
  |:----------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
  | <code>Derin Kızartılmış Gıdaların Kanser Yapabileceği Nedenler</code> | <code>Arka plan: Akrilamid, insan plasentasını geçen yaygın bir diyetik maruziyettir. Muhtemel insan kanserojen olarak sınıflandırılır ve farelerde gelişimsel toksisite gözlemlenmiştir. Amaçlar: Bu çalışmada, akrilamid ön doğum maruziyeti ile doğum sonuçlarının ilişkilerini inceledik. Yöntemler: Akrilamidin ve metaboliti glisidamidin hemoglobin (Hb) adductları, 2006-2010 yılları arasında Danimarka, İngiltere, Yunanistan, Norveç ve İspanya'da işe alınan 1.101 tek çocuklu hamile kadınların kordon kanında (hamileliğin son aylarında birikmiş maruziyeti yansıtan) ölçüldü. Anne diyetleri, gıda sıklığı anketleri aracılığıyla tahmin edildi. Sonuçlar: Hem akrilamid hem de glisidamid Hb adductları, doğum ağırlığı ve baş çevresi için istatistiksel olarak anlamlı bir azalma ile ilişkiliydi. En yüksek ve en düşük çeyrekte akrilamid Hb adduct seviyeleri arasındaki tahmin edilen doğum ağırlığı farkı, gestasyonel yaş ve ülke ayarlamalarından sonra –132 g (95% CI: –207, –56) idi; baş çevresi için karşılık ge...</code>                   |
  | <code>Derin Kızartılmış Gıdaların Kanser Yapabileceği Nedenler</code> | <code>İnsanlar, patates kızartması ve diğer yiyecekler yoluyla akrilamid (AA) maruziyeti, potansiyel bir sağlık endişesi olarak kabul edilmiştir. Burada, pişirme sıcaklığı ve süresi gibi iki en etkili faktöre dayalı istatistiksel bir doğrusal olmayan regresyon modeli kullanarak, patates kızartmalarında AA konsantrasyonlarını tahmin ettik. Tahmin modeli için R(2) değeri 0.83, geliştirilmiş modelin önemli ve geçerli olduğunu göstermektedir. Bu çalışmada yapılan patates kızartması tüketimi anket verileri ve sekiz farklı kızartma sıcaklığı-zaman şeması, lezzetli ve görsel açıdan çekici patates kızartmaları üretebildiği için, Monte Carlo simülasyon sonuçları, AA konsantrasyonunun 168 ppb'den yüksek olduğu takdirde, Taichung Şehri'ndeki 13-18 yaş arası ergenlerin tahmin edilen kanser riski, sadece bu sınırlı yaşam süresi göz önüne alındığında, hedef aşılan ömür boyu kanser riski (ELCR) değerini aşacaktır. AA alımıyla ilişkili kanser riskini azaltmak için, patates kızartmalarındaki AA seviyelerinin...</code>                   |
  | <code>Derin Kızartılmış Gıdaların Kanser Yapabileceği Nedenler</code> | <code>ARKA PLAN: Yaygın olarak tüketilen gıdalar, örneğin patates kızartması, patates cipsi veya tahıllar gibi ürünlerde nispeten yüksek akrilamid konsantrasyonları, insan sağlığı için potansiyel bir risk oluşturabilir.<br><br>HEDEF: Bu pilot çalışmanın amacı, kronik akrilamid içeren patates cipsi alımının oksidatif stres veya iltihapla olası bağlantısını araştırmaktı.<br><br>Tasarım: 14 sağlıklı gönüllü (ortalama yaş: 35; 8 kadın ve 6 günde 20 sigaradan fazla sigara içen) 4 hafta boyunca günde 160 gram akrilamid içeren 157 mikrogram (düzeltilmiş) akrilamid içeren patates cipsi aldı.<br><br>Sonuç: Çalışmanın tüm katılımlarında kan akrilamid-hemoglobin bağlarımında artış bulundu, ortalama 43.1 pmol/L(-1)/g(-1) hemoglobin (aralık: 27-76; P < 0.01) sigara içmeyenlerde ve 59.0 pmol/L(-1)/g(-1) hemoglobin (aralık: 43-132; P < 0.05) sigara içenlerde. Aynı zamanda, hem sigara içenlerde hem de sigara içmeyenlerde okside LDL, yüksek duyarlılık interleukin-6, yüksek duyarlılık C-reaktif protein ve gama-glutamiltransfer...</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>
<details><summary>snli-tr</summary>

#### snli-tr

* Dataset: [snli-tr](https://huggingface.co/datasets/selmanbaysan/snli_tr_fine_tuning_dataset) at [63eb107](https://huggingface.co/datasets/selmanbaysan/snli_tr_fine_tuning_dataset/tree/63eb107dfdaf0b16cfd209db25705f27f2e5e2ca)
* Size: 10,000 evaluation samples
* Columns: <code>premise</code>, <code>hypothesis</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
  |         | premise                                                                           | hypothesis                                                                        | label                                           |
  |:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------------------------------------|
  | type    | string                                                                            | string                                                                            | int                                             |
  | details | <ul><li>min: 7 tokens</li><li>mean: 20.13 tokens</li><li>max: 56 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 11.04 tokens</li><li>max: 32 tokens</li></ul> | <ul><li>0: ~67.50%</li><li>1: ~32.50%</li></ul> |
* Samples:
  | premise                                                               | hypothesis                                                                                                       | label          |
  |:----------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------|:---------------|
  | <code>Paketlere gitmek için tutunurken iki kadın kucaklaşıyor.</code> | <code>Kız kardeşler sadece öğle yemeği yedikten sonra paketleri gitmek için tutarken elveda sarılıyorlar.</code> | <code>0</code> |
  | <code>Paketlere gitmek için tutunurken iki kadın kucaklaşıyor.</code> | <code>İki kadın paket tutuyor.</code>                                                                            | <code>1</code> |
  | <code>Paketlere gitmek için tutunurken iki kadın kucaklaşıyor.</code> | <code>Adamlar bir şarküterinin dışında kavga ediyorlar.</code>                                                   | <code>0</code> |
* Loss: [<code>SoftmaxLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#softmaxloss)
</details>
<details><summary>xnli-tr</summary>

#### xnli-tr

* Dataset: [xnli-tr](https://huggingface.co/datasets/selmanbaysan/xnli_tr_fine_tuning_dataset) at [3a66bc8](https://huggingface.co/datasets/selmanbaysan/xnli_tr_fine_tuning_dataset/tree/3a66bc878d3d027177da71f47e4d8dee21cafe63)
* Size: 2,490 evaluation samples
* Columns: <code>premise</code>, <code>hypothesis</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
  |         | premise                                                                           | hypothesis                                                                        | label                                           |
  |:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------------------------------------|
  | type    | string                                                                            | string                                                                            | int                                             |
  | details | <ul><li>min: 7 tokens</li><li>mean: 23.36 tokens</li><li>max: 69 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 13.46 tokens</li><li>max: 29 tokens</li></ul> | <ul><li>0: ~66.70%</li><li>1: ~33.30%</li></ul> |
* Samples:
  | premise                             | hypothesis                                                     | label          |
  |:------------------------------------|:---------------------------------------------------------------|:---------------|
  | <code>Ve Anne, evdeyim dedi.</code> | <code>Okul servisi onu bırakır bırakmaz annesini aradı.</code> | <code>0</code> |
  | <code>Ve Anne, evdeyim dedi.</code> | <code>Bir kelime söylemedi.</code>                             | <code>0</code> |
  | <code>Ve Anne, evdeyim dedi.</code> | <code>Annesine eve gittiğini söyledi.</code>                   | <code>1</code> |
* Loss: [<code>SoftmaxLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#softmaxloss)
</details>
<details><summary>stsb-tr</summary>

#### stsb-tr

* Dataset: [stsb-tr](https://huggingface.co/datasets/selmanbaysan/stsb-tr) at [3d2e87d](https://huggingface.co/datasets/selmanbaysan/stsb-tr/tree/3d2e87d2a94c9af130b87ab8ed8d0c5c2e92e2df)
* Size: 1,500 evaluation samples
* Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>score</code>
* Approximate statistics based on the first 1000 samples:
  |         | sentence1                                                                         | sentence2                                                                         | score                                                         |
  |:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------|
  | type    | string                                                                            | string                                                                            | float                                                         |
  | details | <ul><li>min: 5 tokens</li><li>mean: 16.17 tokens</li><li>max: 49 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 16.12 tokens</li><li>max: 49 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 2.1</li><li>max: 5.0</li></ul> |
* Samples:
  | sentence1                                     | sentence2                                      | score             |
  |:----------------------------------------------|:-----------------------------------------------|:------------------|
  | <code>Kasklı bir adam dans ediyor.</code>     | <code>Baret giyen bir adam dans ediyor.</code> | <code>5.0</code>  |
  | <code>Küçük bir çocuk ata biniyor.</code>     | <code>Bir çocuk ata biniyor.</code>            | <code>4.75</code> |
  | <code>Bir adam fareyi yılana besliyor.</code> | <code>Adam yılana fare besliyor.</code>        | <code>5.0</code>  |
* Loss: [<code>CoSENTLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosentloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "pairwise_cos_sim"
  }
  ```
</details>
<details><summary>wmt16</summary>

#### wmt16

* Dataset: [wmt16](https://huggingface.co/datasets/selmanbaysan/wmt16_en_tr_fine_tuning_dataset) at [9fc4e73](https://huggingface.co/datasets/selmanbaysan/wmt16_en_tr_fine_tuning_dataset/tree/9fc4e7334bdb195b396c41eed05b0dd447981ef3)
* Size: 1,001 evaluation samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                             | positive                                                                           |
  |:--------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
  | type    | string                                                                             | string                                                                             |
  | details | <ul><li>min: 4 tokens</li><li>mean: 27.13 tokens</li><li>max: 166 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 28.53 tokens</li><li>max: 170 tokens</li></ul> |
* Samples:
  | anchor                                                                                                                      | positive                                                                                                                      |
  |:----------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------|
  | <code>Norveç'in rakfisk'i: Dünyanın en kokulu balığı bu mu?</code>                                                          | <code>Norway's rakfisk: Is this the world's smelliest fish?</code>                                                            |
  | <code>Norveç'in beş milyon insanı en yüksek yaşam standartlarının tadını çıkarıyor, sadece Avrupa'da değil, dünyada.</code> | <code>Norway's five million people enjoy one of the highest standards of living, not just in Europe, but in the world.</code> |
  | <code>Ülkenin başarısının sırrı aşırı kokulu bazı balıklara olan yerel iştahla bağlantılı olabilir mi?</code>               | <code>Could the secret of the country's success be connected to the local appetite for some exceedingly smelly fish?</code>   |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```
</details>

### Training Hyperparameters
#### Non-Default Hyperparameters

- `eval_strategy`: steps
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 64
- `learning_rate`: 2e-05
- `num_train_epochs`: 1
- `warmup_ratio`: 0.1
- `fp16`: True
- `batch_sampler`: no_duplicates

#### All Hyperparameters
<details><summary>Click to expand</summary>

- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: steps
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 64
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 1
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`: 
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional

</details>

### Training Logs
| Epoch  | Step  | Training Loss | msmarco-tr loss | fiqa-tr loss | quora-tr loss | nfcorpus-tr loss | snli-tr loss | xnli-tr loss | stsb-tr loss | wmt16 loss | stsb-tr_spearman_cosine | snli-tr_cosine_ap | xnli-tr_cosine_ap | wmt16_cosine_ap | msmarco-tr_cosine_ap | fiqa-tr_cosine_ap | quora-tr_cosine_ap | nfcorpus-tr_cosine_ap |
|:------:|:-----:|:-------------:|:---------------:|:------------:|:-------------:|:----------------:|:------------:|:------------:|:------------:|:----------:|:-----------------------:|:-----------------:|:-----------------:|:---------------:|:--------------------:|:-----------------:|:------------------:|:---------------------:|
| 0.1878 | 4500  | 0.7559        | 0.0938          | 1.5613       | 0.0845        | 1.0106           | 0.6384       | 0.6927       | 24.7603      | 0.5252     | 0.3355                  | 0.3743            | 0.3901            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.2087 | 5000  | 0.6852        | 0.0903          | 1.4583       | 0.0977        | 0.9920           | 0.5782       | 0.6399       | 24.3188      | 0.3766     | 0.3545                  | 0.3548            | 0.3809            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.2295 | 5500  | 0.7838        | 0.0882          | 1.4049       | 0.0718        | 0.9827           | 0.5472       | 0.6138       | 25.2106      | 0.2666     | 0.3873                  | 0.3514            | 0.4109            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.2504 | 6000  | 0.8035        | 0.0810          | 1.3115       | 0.0586        | 0.9921           | 0.5258       | 0.6006       | 23.5971      | 0.1443     | 0.4102                  | 0.3436            | 0.4011            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.2713 | 6500  | 0.7059        | 0.0802          | 1.4145       | 0.0571        | 0.9722           | 0.5137       | 0.5863       | 19.5701      | 0.1807     | 0.3710                  | 0.3575            | 0.4158            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.2921 | 7000  | 0.6967        | 0.0819          | 1.3653       | 0.0532        | 0.9817           | 0.5092       | 0.5716       | 24.2876      | 0.1265     | 0.4361                  | 0.3572            | 0.4299            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.3130 | 7500  | 0.7115        | 0.0770          | 1.3815       | 0.0600        | 0.9769           | 0.4905       | 0.5668       | 23.9790      | 0.1346     | 0.4294                  | 0.3583            | 0.4162            | 1.0             | 1.0000               | 1.0               | 1.0                | 1.0                   |
| 0.3339 | 8000  | 0.6468        | 0.0739          | 1.3525       | 0.0517        | 0.9592           | 0.4828       | 0.5696       | 23.9128      | 0.0909     | 0.4471                  | 0.3695            | 0.4370            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.3547 | 8500  | 0.6613        | 0.0723          | 1.2422       | 0.0425        | 0.9730           | 0.4802       | 0.5631       | 21.7039      | 0.0774     | 0.4626                  | 0.3373            | 0.4252            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.3756 | 9000  | 0.738         | 0.0703          | 1.2210       | 0.0413        | 0.9541           | 0.4756       | 0.5497       | 23.5040      | 0.0924     | 0.4571                  | 0.3798            | 0.4541            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.3965 | 9500  | 0.7458        | 0.0692          | 1.2521       | 0.0463        | 0.9634           | 0.4693       | 0.5498       | 20.3103      | 0.0665     | 0.4651                  | 0.3501            | 0.4437            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.4173 | 10000 | 0.691         | 0.0736          | 1.3436       | 0.0755        | 0.9611           | 0.4658       | 0.5432       | 19.7117      | 0.0871     | 0.4499                  | 0.3756            | 0.4696            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.4382 | 10500 | 0.6985        | 0.0669          | 1.2387       | 0.0525        | 0.9617           | 0.4629       | 0.5370       | 21.6109      | 0.0659     | 0.4825                  | 0.3871            | 0.4840            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.4591 | 11000 | 0.5911        | 0.0701          | 1.2677       | 0.0531        | 0.9522           | 0.4604       | 0.5300       | 20.5695      | 0.0521     | 0.5059                  | 0.3595            | 0.5041            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.4799 | 11500 | 0.6893        | 0.0665          | 1.2337       | 0.0531        | 0.9549           | 0.4561       | 0.5293       | 22.3371      | 0.0664     | 0.5279                  | 0.3661            | 0.4939            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.5008 | 12000 | 0.5208        | 0.0657          | 1.2501       | 0.0513        | 0.9624           | 0.4525       | 0.5191       | 21.5214      | 0.0657     | 0.5618                  | 0.4009            | 0.5131            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.5217 | 12500 | 0.7197        | 0.0628          | 1.2080       | 0.0487        | 0.9676           | 0.4478       | 0.5272       | 20.1570      | 0.0511     | 0.5982                  | 0.4184            | 0.5514            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.5425 | 13000 | 0.5923        | 0.0628          | 1.2351       | 0.0543        | 0.9701           | 0.4446       | 0.5203       | 19.9625      | 0.0601     | 0.6082                  | 0.4238            | 0.5492            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.5634 | 13500 | 0.6053        | 0.0629          | 1.1899       | 0.0523        | 0.9685           | 0.4412       | 0.5101       | 19.8682      | 0.0661     | 0.6270                  | 0.4750            | 0.5681            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.5843 | 14000 | 0.6314        | 0.0623          | 1.1770       | 0.0514        | 0.9667           | 0.4365       | 0.5121       | 20.7802      | 0.0499     | 0.6225                  | 0.4370            | 0.5591            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.6052 | 14500 | 0.6209        | 0.0615          | 1.1870       | 0.0521        | 0.9592           | 0.4342       | 0.5139       | 21.3281      | 0.0618     | 0.6129                  | 0.4513            | 0.5464            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.6260 | 15000 | 0.5404        | 0.0613          | 1.1630       | 0.0499        | 0.9661           | 0.4310       | 0.5021       | 18.1145      | 0.0441     | 0.6747                  | 0.4864            | 0.5922            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.6469 | 15500 | 0.6405        | 0.0596          | 1.1513       | 0.0520        | 0.9650           | 0.4276       | 0.5057       | 20.5086      | 0.0472     | 0.6334                  | 0.4600            | 0.5804            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.6678 | 16000 | 0.6734        | 0.0597          | 1.1624       | 0.0522        | 0.9636           | 0.4250       | 0.5056       | 19.9940      | 0.0422     | 0.6466                  | 0.4548            | 0.5690            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.6886 | 16500 | 0.5867        | 0.0593          | 1.1680       | 0.0513        | 0.9622           | 0.4246       | 0.5042       | 21.0582      | 0.0622     | 0.6329                  | 0.4467            | 0.5698            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.7095 | 17000 | 0.6434        | 0.0606          | 1.1629       | 0.0586        | 0.9667           | 0.4204       | 0.4955       | 19.9183      | 0.0789     | 0.6496                  | 0.4783            | 0.5643            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.7304 | 17500 | 0.6425        | 0.0578          | 1.1387       | 0.0473        | 0.9755           | 0.4185       | 0.4966       | 19.3880      | 0.0402     | 0.6611                  | 0.4730            | 0.5834            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.7512 | 18000 | 0.5609        | 0.0589          | 1.1171       | 0.0484        | 0.9688           | 0.4172       | 0.4914       | 19.8656      | 0.0437     | 0.6602                  | 0.4861            | 0.5883            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.7721 | 18500 | 0.5594        | 0.0586          | 1.1213       | 0.0458        | 0.9614           | 0.4158       | 0.4950       | 20.1717      | 0.0412     | 0.6591                  | 0.4735            | 0.5812            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.7930 | 19000 | 0.5375        | 0.0595          | 1.1543       | 0.0587        | 0.9612           | 0.4137       | 0.4884       | 20.4155      | 0.0449     | 0.6615                  | 0.4754            | 0.5844            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.8138 | 19500 | 0.5821        | 0.0589          | 1.1603       | 0.0583        | 0.9648           | 0.4106       | 0.4902       | 19.1492      | 0.0535     | 0.6755                  | 0.5019            | 0.5978            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.8347 | 20000 | 0.6034        | 0.0572          | 1.1389       | 0.0526        | 0.9620           | 0.4110       | 0.4915       | 19.6910      | 0.0500     | 0.6726                  | 0.4700            | 0.5923            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.8556 | 20500 | 0.5833        | 0.0569          | 1.1322       | 0.0509        | 0.9615           | 0.4091       | 0.4906       | 19.7347      | 0.0522     | 0.6732                  | 0.4913            | 0.5966            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.8764 | 21000 | 0.5126        | 0.0560          | 1.1129       | 0.0484        | 0.9629           | 0.4067       | 0.4875       | 18.9511      | 0.0412     | 0.6770                  | 0.4971            | 0.5930            | 1.0             | 1.0000               | 1.0               | 1.0                | 1.0                   |
| 0.8973 | 21500 | 0.5547        | 0.0567          | 1.1284       | 0.0504        | 0.9614           | 0.4065       | 0.4856       | 19.9320      | 0.0436     | 0.6640                  | 0.5006            | 0.5883            | 1.0             | 1.0000               | 1.0               | 1.0                | 1.0                   |
| 0.9182 | 22000 | 0.5406        | 0.0559          | 1.1166       | 0.0483        | 0.9618           | 0.4049       | 0.4894       | 19.4088      | 0.0380     | 0.6803                  | 0.4937            | 0.5960            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.9390 | 22500 | 0.5946        | 0.0558          | 1.1126       | 0.0490        | 0.9601           | 0.4051       | 0.4874       | 19.1903      | 0.0397     | 0.6813                  | 0.4833            | 0.5972            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.9599 | 23000 | 0.72          | 0.0561          | 1.1213       | 0.0495        | 0.9604           | 0.4049       | 0.4877       | 19.4929      | 0.0429     | 0.6760                  | 0.4850            | 0.5932            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |
| 0.9808 | 23500 | 0.6182        | 0.0558          | 1.1194       | 0.0505        | 0.9608           | 0.4045       | 0.4854       | 19.3272      | 0.0424     | 0.6783                  | 0.4873            | 0.5938            | 1.0             | 1.0                  | 1.0               | 1.0                | 1.0                   |


### Framework Versions
- Python: 3.11.11
- Sentence Transformers: 3.4.1
- Transformers: 4.49.0
- PyTorch: 2.6.0+cu124
- Accelerate: 1.5.2
- Datasets: 3.4.1
- Tokenizers: 0.21.1

## Citation

### BibTeX

#### Sentence Transformers and SoftmaxLoss
```bibtex
@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
```

#### MultipleNegativesRankingLoss
```bibtex
@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
```

#### CoSENTLoss
```bibtex
@online{kexuefm-8847,
    title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
    author={Su Jianlin},
    year={2022},
    month={Jan},
    url={https://kexue.fm/archives/8847},
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->