File size: 19,739 Bytes
e7528ab
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:1840212
- loss:MatryoshkaLoss
- loss:CachedMultipleNegativesRankingLoss
base_model: newmindai/TurkEmbed4STS
widget:
- source_sentence: Yoksulluk çeken devletlerin çoğu
  sentences:
  - (verb) yerine bir kişi veya şey (kırılan veya verimsiz olan veya kaybedilen veya
    artık çalışmayan veya bekleneni vermeyen bir başkası) yerine eski jilet bıçağını
    değiştirdi; Bir ay önce ayrılan sekreteri değiştirmemiz gerekiyor; Sigorta kayıp
    gelirin yerini alacak; Bu antik vazo asla değiştirilemez.
  - Homefacts City Report. Portland, Multnomah County, OR'da yer almaktadır. Nüfus
    603.650 olup, Portland'ı Multnomah County'nin en büyük şehri ve Oregon eyaletinin
    en büyük şehri yapmaktadır. Portland'da ortalama Homefacts puanı B olan 169 devlet
    okulu vardır. Portland için toplam suç oranı ılımlıdır ve şehirde ikamet eden
    204 kayıtlı seks suçlusu vardır.
  - Bununla birlikte, yoksulluğun en az sayıldığı eyaletlerin çoğunda, kredi alan
    uygun dosyacıların yüzdesi çok daha düşüktür. Nevada'da, sadece% 71.5'i kredilerini
    talep ederken, Kaliforniya'da sadece% 71'i ABD'deki en düşük oranlar arasında
    yer aldı.
- source_sentence: hangi kıtada haiti
  sentences:
  - Cevap Leah Orchard. Güven oy 7. Haiti Karayipler'de Kuzey Amerika kıtasının bir
    alt bölgesidir. Haiti, Kuzey Amerika kıtasının bir alt bölgesi olan Karayipler'de
    yer almaktadır.
  - Hukuk Yüksek Lisansı. Hukuk Yüksek Lisansı (M.L. veya LL.M.; Latin Magister Legum
    veya Legum Magister), lisans akademik hukuk derecesi, mesleki hukuk derecesi veya
    ilgili bir konuda lisans derecesi olanlar tarafından takip edilen lisansüstü bir
    akademik derecedir.
  - Vasektomi yaklaşık 20 dakika sürer. Lokal anestezi kullanarak, çoğu erkek prosedür
    sırasında çok az hissettiklerini söyler. 3 ay önce Stephen F. Shaban, MD tarafından
    Ortalama 10 ila 15 dakika. Hastada biraz oral Valium ve lokal lidokain enjeksiyonu
    ile ağrılı değildir.
- source_sentence: sigarayla yemek pişirmek için iyi olan nedir
  sentences:
  - Nisan ayında Punta Cana'da hava durumu için, sıcaklığın günün ortasında 28 C (83
    F) ile gecenin son saatlerinde 22 C (72 F) arasında biraz daha sıcak olmasını
    bekleyebilirsiniz.
  - 1 Kanada pastırmanızı en az 145oF'lik bir  sıcaklığa ulaşana kadar bir sigara
    içicisinde veya fırında tüttürün. 2 Bir sigara içicisi kullanıyorsanız, 200oF'lik
    bir sıcaklığa hazırlayın ve etinizi yaklaşık 8 saat boyunca tüttürün.
  - Dünya Sağlık İstatistikleri 2014. Japonya, tüm WHO Üye Devletleri arasında yaşam
    beklentisinin en üstündedir. Japonya'daki kadınlar, 87.0 yılda dünyanın en yüksek
    yaşam beklentisine sahiptir, ardından İspanya, İsviçre ve Singapur. Erkekler arasında
    yaşam beklentisi, Japonya'nın 8. sırada yer aldığı 9 ülkede 80 yıl veya daha fazladır
    (80,0 yıl).
- source_sentence: bacillus subtilis'in bir kapsülü var mı?
  sentences:
  - 'Değişim beni bir olarak nasıl etkileyecek: Tahmini Normal Değerler (Nomogram,
    AB ölçeği). Zirve akış ölçerleri için ölçek değişikliği, bireyin bir Wright ölçek
    ölçer kullanıp kullanmadığına bağlı olarak farklı PEF okumalarına veya yeni AB
    ölçek ölçerine neden olacaktır.Rediktif Normal Değerler, farklı yaş ve yükseklikteki
    kadınlar ve erkekler için hesaplandı ve yeni AB ölçeği ile kullanılmak üzere uyarlandı
    (orijinal Yazarlardan gelen anlaşma ile).'
  - Paketleme malzemeleri ve ipuçları alın, ayrıca bu FedEx lokasyonunda ihtiyacınız
    olan diğer tüm nakliye desteği Muskegon, Michigan'daki 5832 Grand Haven Rd.c'de
    FedEx Express  ve FedEx Ground  hizmetleri ile zaman çizelgenizi karşılamak için
    5832 Grand Haven Rd'de FedEx Ship Center'da ihtiyacınız olan hizmetleri kullanın.
  - 'Bacillus cereus genellikle bitki örtüsü büyümesinin olduğu topraklarda bulunabilir.
    Ayrıca, genellikle et, süt, balık, peynir, sebze ve pirinç ürünleri gibi birçok
    gıdada bulunur. Şimdi, diğer herhangi bir organizma gibi Bacillus cereus da optimum
    büyüme koşullarına sahiptir:'
- source_sentence: Bir yıl tam yelken üniversitesini ne kadar ödeyeceğim
  sentences:
  - Full Sail Üniversitesi'nde öğrenim ve ücretler 23,117 $ mali yardım olmadan. Oda,
    yönetim kurulu ve diğer ücretlerin bir araya getirilmesiyle, toplam katılım maliyeti
    23,647 $ 'dır. Maliyet ve Yardım. Pahalı öğrenim (23.117 $, eyalet içi ve eyalet
    dışı öğrenciler için aynı)
  - Hangi hemoglobin seviyesi anemik olarak kabul edilir - ben anemikim ve 88 g /
    l hemoglobin seviyesine sahipim. Bu ne kadar ciddi? 88 mi demek istediniz? Normal
    hemoglobin yaklaşık 15 (+/- az) bu yüzden 8 civarında gerçekten çok düşüktür.
    Bu aneminin nedeni araştırılmış ve düzgün bir şekilde tedavi edilmiş olmalıdır.
    Bu arada kan transfüzyonuna ihtiyacınız olabilir
  - Pavarotti, Andrea Bocelli ile birlikte en ünlü tenor sesidir. Bir tenor şarkıcısı,
    genellikle koro ve klasik müzikte kullanılan en yüksek erkek sesidir.br />Bir
    koroda, kadın sesleri, en yüksekten en düşüke, soprano, mezzo-soprano ve altoya
    ayrılır.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---

# SentenceTransformer based on newmindai/TurkEmbed4STS

This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [newmindai/TurkEmbed4STS](https://huggingface.co/newmindai/TurkEmbed4STS). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

## Model Details

### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [newmindai/TurkEmbed4STS](https://huggingface.co/newmindai/TurkEmbed4STS) <!-- at revision 813afca0488a41a2a16af7b4cd42c140367a0876 -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)

### Full Model Architecture

```
SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: NewModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)
```

## Usage

### Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

```bash
pip install -U sentence-transformers
```

Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
    'Bir yıl tam yelken üniversitesini ne kadar ödeyeceğim',
    "Full Sail Üniversitesi'nde öğrenim ve ücretler 23,117 $ mali yardım olmadan. Oda, yönetim kurulu ve diğer ücretlerin bir araya getirilmesiyle, toplam katılım maliyeti 23,647 $ 'dır. Maliyet ve Yardım. Pahalı öğrenim (23.117 $, eyalet içi ve eyalet dışı öğrenciler için aynı)",
    'Hangi hemoglobin seviyesi anemik olarak kabul edilir - ben anemikim ve 88 g / l hemoglobin seviyesine sahipim. Bu ne kadar ciddi? 88 mi demek istediniz? Normal hemoglobin yaklaşık 15 (+/- az) bu yüzden 8 civarında gerçekten çok düşüktür. Bu aneminin nedeni araştırılmış ve düzgün bir şekilde tedavi edilmiş olmalıdır. Bu arada kan transfüzyonuna ihtiyacınız olabilir',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```

<!--
### Direct Usage (Transformers)

<details><summary>Click to see the direct usage in Transformers</summary>

</details>
-->

<!--
### Downstream Usage (Sentence Transformers)

You can finetune this model on your own dataset.

<details><summary>Click to expand</summary>

</details>
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Dataset

#### Unnamed Dataset

* Size: 1,840,212 training samples
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
  |         | sentence_0                                                                        | sentence_1                                                                          | label                                                          |
  |:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:---------------------------------------------------------------|
  | type    | string                                                                            | string                                                                              | float                                                          |
  | details | <ul><li>min: 4 tokens</li><li>mean: 10.24 tokens</li><li>max: 26 tokens</li></ul> | <ul><li>min: 16 tokens</li><li>mean: 79.54 tokens</li><li>max: 138 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.49</li><li>max: 1.0</li></ul> |
* Samples:
  | sentence_0                               | sentence_1                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                          | label            |
  |:-----------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
  | <code>Hipotez ve teori tanımı</code>     | <code>Teori ve Uygulamada Tanım Hakkında. Tanım sorunu uzun bir geçmişe sahiptir ve Platon ve Aristoteles'ten başlayarak Batı geleneğinin en seçkin düşünürlerinden bazılarının zihinlerini meşgul etmiştir. Ancak aynı zamanda modern toplumun bağlı olduğu sayısız metinleri hazırlamak veya yorumlamak zorunda olan herkesin sürekli karşılaştığı günlük bir sorundur. Teori ve Uygulamada Tanım, zorlukların özellikle akut bir biçimde ortaya çıktığı iki alana odaklanmaktadır: lexicography ve hukuk.</code> | <code>0.0</code> |
  | <code>Oturma ücreti nedir</code>         | <code>Devamını Oku 1 TÜM PORTRAİT SESSIONS INCLUDE... 2 Oturum Ücreti fotoğrafçının Zaman ve Yeteneklerini kapsar. 3 Unutma...** Vergiyi ekleyin! (%8.4 vergi ödemeniz gerekmektedir.) ** Portre seansınızdan önce oturma ücreti alınır.</code>                                                                                                                                                                                                                                                                     | <code>1.0</code> |
  | <code>Kafeine ne kadar l-theanine</code> | <code>Kafeini düşünün. Espresso ve kahvenin her ikisi de doğal olarak siyah ve yeşil çaylarda olduğu gibi kafeine sahiptir. Eğer içeceğinizde daha az kafein istiyorsanız, yarım kafein (1/2 normal kafein miktarı) veya kafeinsiz (kafeinsiz) sipariş edin. Ayrıca, içeceğinizden biraz daha fazla enerji arıyorsanız, ekstra kahve de ekleyebilirsiniz.</code>                                                                                                                                                    | <code>0.0</code> |
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
  ```json
  {
      "loss": "CachedMultipleNegativesRankingLoss",
      "matryoshka_dims": [
          768,
          512,
          256,
          128,
          64
      ],
      "matryoshka_weights": [
          1,
          1,
          1,
          1,
          1
      ],
      "n_dims_per_step": -1
  }
  ```

### Training Hyperparameters
#### Non-Default Hyperparameters

- `per_device_train_batch_size`: 1024
- `per_device_eval_batch_size`: 1024
- `num_train_epochs`: 1
- `fp16`: True
- `multi_dataset_batch_sampler`: round_robin

#### All Hyperparameters
<details><summary>Click to expand</summary>

- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 1024
- `per_device_eval_batch_size`: 1024
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1
- `num_train_epochs`: 1
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `tp_size`: 0
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`: 
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: round_robin

</details>

### Training Logs
| Epoch  | Step | Training Loss |
|:------:|:----:|:-------------:|
| 0.2781 | 500  | 9.66          |
| 0.5562 | 1000 | 8.0512        |
| 0.8343 | 1500 | 7.7153        |


### Framework Versions
- Python: 3.11.12
- Sentence Transformers: 4.1.0
- Transformers: 4.51.3
- PyTorch: 2.6.0+cu124
- Accelerate: 1.6.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1

## Citation

### BibTeX

#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
```

#### MatryoshkaLoss
```bibtex
@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}
```

#### CachedMultipleNegativesRankingLoss
```bibtex
@misc{gao2021scaling,
    title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
    author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
    year={2021},
    eprint={2101.06983},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->