SentenceTransformer based on CohereLabs/tiny-aya-global

This is a sentence-transformers model finetuned from CohereLabs/tiny-aya-global. It maps sentences & paragraphs to a 2048-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: CohereLabs/tiny-aya-global
  • Maximum Sequence Length: 256 tokens
  • Output Dimensionality: 2048 dimensions
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 256, 'do_lower_case': False, 'architecture': 'PeftModelForFeatureExtraction'})
  (1): Pooling({'word_embedding_dimension': 2048, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': True, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("nunaa/tinyaya-lrl-embed-ft-v1")
# Run inference
sentences = [
    'ਪਾਲ ਬਾਰਨ ਨੇ ਕੀ ਵਿਕਾਸ ਕੀਤਾ',
    "੧੯੫੦ ਦੇ ਦਹਾਕੇ ਦੇ ਅਖੀਰ ਵਿੱਚ, ਅਮਰੀਕੀ ਕੰਪਿਊਟਰ ਵਿਗਿਆਨੀ ਪਾਲ ਬਾਰਨ ਨੇ ਅਮਰੀਕਾ ਦੁਆਰਾ ਫੰਡ ਕੀਤੇ ਗਏ ਰੈਂਡ ਕਾਰਪੋਰੇਸ਼ਨ ਦੇ ਇੱਕ ਖੋਜ ਪ੍ਰੋਗਰਾਮ ਦੇ ਹਿੱਸੇ ਵਜੋਂ ਦੂਰਸੰਚਾਰ ਸੰਦੇਸ਼ਾਂ ਲਈ ਇੱਕ ਨੁਕਸ-ਸਹਿਣਸ਼ੀਲ, ਕੁਸ਼ਲ ਰੂਟਿੰਗ ਵਿਧੀ ਪ੍ਰਦਾਨ ਕਰਨ ਦੇ ਟੀਚੇ ਨਾਲ ਡਿਸਟ੍ਰੀਬਿਊਟਿਡ ਅਡੈਪਟਿਵ ਮੈਸੇਜ ਬਲਾਕ ਸਵਿਚਿੰਗ ਦੀ ਧਾਰਨਾ ਵਿਕਸਿਤ ਕੀਤੀ। ਰੱਖਿਆ ਵਿਭਾਗ।ਇਸ ਸੰਕਲਪ ਨੇ ਨੈੱਟਵਰਕ ਬੈਂਡਵਿਡਥ ਦੇ ਪੂਰਵ-ਅਲੋਕੇਸ਼ਨ ਦੇ ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਸਥਾਪਿਤ ਸਿਧਾਂਤਾਂ ਦਾ ਵਿਰੋਧ ਅਤੇ ਵਿਰੋਧ ਕੀਤਾ, ਜੋ ਕਿ ਬੇਲ ਸਿਸਟਮ ਵਿੱਚ ਦੂਰਸੰਚਾਰ ਦੇ ਵਿਕਾਸ ਦੁਆਰਾ ਵੱਡੇ ਪੱਧਰ 'ਤੇ ਮਜ਼ਬੂਤ \u200b\u200bਕੀਤਾ ਗਿਆ ਸੀ।੧੯੬੦ ਦੇ ਦਹਾਕੇ ਦੇ ਅਖੀਰ ਵਿੱਚ ਨੈਸ਼ਨਲ ਫਿਜ਼ੀਕਲ ਲੈਬਾਰਟਰੀ (ਯੂਨਾਈਟਡ ਕਿੰਗਡਮ) (ਐਨਪੀਐਲ) ਵਿੱਚ ਡੋਨਾਲਡ ਡੇਵਿਸ ਦੇ ਸੁਤੰਤਰ ਕੰਮ ਤੱਕ ਨਵੀਂ ਧਾਰਨਾ ਨੂੰ ਨੈੱਟਵਰਕ ਲਾਗੂ ਕਰਨ ਵਾਲਿਆਂ ਵਿੱਚ ਬਹੁਤ ਘੱਟ ਗੂੰਜ ਮਿਲੀ।ਡੇਵਿਸ ਨੂੰ ਆਧੁਨਿਕ ਨਾਮ ਪੈਕੇਟ ਸਵਿਚਿੰਗ ਬਣਾਉਣ ਅਤੇ ਅਗਲੇ ਦਹਾਕੇ ਵਿੱਚ ਯੂਰਪ ਵਿੱਚ ਬਹੁਤ ਸਾਰੇ ਪੈਕੇਟ ਸਵਿਚਿੰਗ ਨੈਟਵਰਕ ਨੂੰ ਪ੍ਰੇਰਿਤ ਕਰਨ ਦਾ ਸਿਹਰਾ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਸੰਯੁਕਤ ਰਾਜ ਵਿੱਚ ਅਰਪਾਨੇਟ ਦੇ ਅਰੰਭਕ ਵਿੱਚ ਸੰਕਲਪ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ।",
    "ਬਾਰਨ ਨੇ ਯੂਐਸ ਏਅਰ ਫੋਰਸ ਲਈ ਰੈਂਡ ਕਾਰਪੋਰੇਸ਼ਨ ਵਿੱਚ ਆਪਣੀ ਖੋਜ ਦੌਰਾਨ ਸਰਵਾਈਵੇਬਲ ਕਮਿਊਨੀਕੇਸ਼ਨ ਨੈੱਟਵਰਕਾਂ ਵਿੱਚ ਵੰਡੇ ਗਏ ਅਡੈਪਟਿਵ ਮੈਸੇਜ ਬਲਾਕ ਸਵਿਚਿੰਗ ਦੀ ਧਾਰਨਾ ਵਿਕਸਿਤ ਕੀਤੀ, ਜੋ ਪਹਿਲਾਂ ੧੯੬੧ ਦੀਆਂ ਗਰਮੀਆਂ ਵਿੱਚ ਹਵਾਈ ਸੈਨਾ ਨੂੰ ਬ੍ਰੀਫਿੰਗ ਬੀ-੨੬੫ ਦੇ ਰੂਪ ਵਿੱਚ ਪੇਸ਼ ਕੀਤੀ ਗਈ ਸੀ, ਬਾਅਦ ਵਿੱਚ ਰੈਂਡ ਰਿਪੋਰਟ ਪੀ ਦੇ ਰੂਪ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਕੀਤੀ ਗਈ ਸੀ। ੧੯੬੨ ਵਿੱਚ -੨੬੨੬, ਅਤੇ ਅੰਤ ਵਿੱਚ ੧੯੬੪ ਵਿੱਚ ਰਿਪੋਰਟ ਆਰਐਮ ੩੪੨੦ ਵਿੱਚ।ਰਿਪੋਰਟ ਪੀ-੨੬੨੬ ਨੇ ਇੱਕ ਵੱਡੇ ਪੈਮਾਨੇ, ਵੰਡੇ, ਬਚਣ ਯੋਗ ਸੰਚਾਰ ਨੈਟਵਰਕ ਲਈ ਇੱਕ ਆਮ ਆਰਕੀਟੈਕਚਰ ਦਾ ਵਰਣਨ ਕੀਤਾ ਹੈ।ਇਹ ਕੰਮ ਤਿੰਨ ਮੁੱਖ ਵਿਚਾਰਾਂ 'ਤੇ ਕੇਂਦ੍ਰਿਤ ਹੈ: ਕਿਸੇ ਵੀ ਦੋ ਬਿੰਦੂਆਂ ਦੇ ਵਿਚਕਾਰ ਕਈ ਮਾਰਗਾਂ ਵਾਲੇ ਵਿਕੇਂਦਰੀਕ੍ਰਿਤ ਨੈਟਵਰਕ ਦੀ ਵਰਤੋਂ, ਉਪਭੋਗਤਾ ਸੰਦੇਸ਼ਾਂ ਨੂੰ ਸੰਦੇਸ਼ ਬਲਾਕਾਂ ਵਿੱਚ ਵੰਡਣਾ, ਬਾਅਦ ਵਿੱਚ ਪੈਕੇਟ ਕਿਹਾ ਜਾਂਦਾ ਹੈ, ਅਤੇ ਸਟੋਰ ਅਤੇ ਫਾਰਵਰਡ ਸਵਿਚਿੰਗ ਦੁਆਰਾ ਇਹਨਾਂ ਸੁਨੇਹਿਆਂ ਦੀ ਡਿਲੀਵਰੀ।",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 2048]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.5496, 0.4766],
#         [0.5496, 1.0000, 0.6365],
#         [0.4766, 0.6365, 1.0000]])

Evaluation

Metrics

Triplet

Metric Value
cosine_accuracy 0.8718

Information Retrieval

  • Datasets: NanoClimateFEVER, NanoDBPedia, NanoFEVER, NanoFiQA2018, NanoHotpotQA, NanoMSMARCO, NanoNFCorpus, NanoNQ, NanoQuoraRetrieval, NanoSCIDOCS, NanoArguAna, NanoSciFact, NanoTouche2020, NanoClimateFEVER, NanoDBPedia, NanoFEVER, NanoFiQA2018, NanoHotpotQA, NanoMSMARCO, NanoNFCorpus, NanoNQ, NanoQuoraRetrieval, NanoSCIDOCS, NanoArguAna, NanoSciFact and NanoTouche2020
  • Evaluated with InformationRetrievalEvaluator
Metric NanoClimateFEVER NanoDBPedia NanoFEVER NanoFiQA2018 NanoHotpotQA NanoMSMARCO NanoNFCorpus NanoNQ NanoQuoraRetrieval NanoSCIDOCS NanoArguAna NanoSciFact NanoTouche2020
cosine_accuracy@1 0.3 0.74 0.7 0.42 0.82 0.38 0.42 0.38 0.94 0.44 0.22 0.54 0.5918
cosine_accuracy@3 0.46 0.86 0.82 0.68 0.94 0.6 0.54 0.66 0.98 0.76 0.64 0.64 0.8571
cosine_accuracy@5 0.54 0.92 0.92 0.68 0.96 0.74 0.6 0.74 0.98 0.82 0.78 0.8 0.9184
cosine_accuracy@10 0.72 0.96 0.96 0.78 0.96 0.86 0.72 0.78 1.0 0.82 0.9 0.84 0.9388
cosine_precision@1 0.3 0.74 0.7 0.42 0.82 0.38 0.42 0.38 0.94 0.44 0.22 0.54 0.5918
cosine_precision@3 0.16 0.5867 0.2733 0.3067 0.4733 0.2 0.3467 0.22 0.4133 0.3667 0.2133 0.24 0.5442
cosine_precision@5 0.124 0.54 0.188 0.208 0.316 0.148 0.336 0.152 0.26 0.3 0.156 0.18 0.5143
cosine_precision@10 0.086 0.482 0.102 0.13 0.166 0.086 0.264 0.088 0.136 0.198 0.09 0.096 0.451
cosine_recall@1 0.1517 0.0952 0.6567 0.2487 0.41 0.38 0.0234 0.35 0.8307 0.0937 0.22 0.505 0.0373
cosine_recall@3 0.2173 0.182 0.7667 0.4593 0.71 0.6 0.062 0.62 0.952 0.2267 0.64 0.635 0.107
cosine_recall@5 0.2657 0.2346 0.8767 0.4893 0.79 0.74 0.1152 0.68 0.9667 0.3067 0.78 0.8 0.1721
cosine_recall@10 0.354 0.3347 0.9367 0.6159 0.83 0.86 0.1394 0.76 0.9933 0.4057 0.9 0.84 0.2969
cosine_ndcg@10 0.2989 0.6032 0.7962 0.501 0.782 0.6104 0.3222 0.5806 0.9655 0.397 0.5718 0.6754 0.493
cosine_mrr@10 0.4098 0.815 0.7773 0.5494 0.8773 0.5319 0.4974 0.5367 0.9625 0.5997 0.4654 0.6226 0.7379
cosine_map@100 0.2395 0.4672 0.7415 0.4295 0.7181 0.5418 0.1305 0.5198 0.9529 0.3049 0.4711 0.6284 0.3473

Nano BEIR

  • Dataset: NanoBEIR_mean
  • Evaluated with NanoBEIREvaluator with these parameters:
    {
        "dataset_names": [
            "climatefever",
            "dbpedia",
            "fever",
            "fiqa2018",
            "hotpotqa",
            "msmarco",
            "nfcorpus",
            "nq",
            "quoraretrieval",
            "scidocs",
            "arguana",
            "scifact",
            "touche2020"
        ],
        "dataset_id": "sentence-transformers/NanoBEIR-en"
    }
    
Metric Value
cosine_accuracy@1 0.5301
cosine_accuracy@3 0.7259
cosine_accuracy@5 0.7999
cosine_accuracy@10 0.8645
cosine_precision@1 0.5301
cosine_precision@3 0.3342
cosine_precision@5 0.2633
cosine_precision@10 0.1827
cosine_recall@1 0.3079
cosine_recall@3 0.4752
cosine_recall@5 0.5551
cosine_recall@10 0.6359
cosine_ndcg@10 0.5844
cosine_mrr@10 0.6448
cosine_map@100 0.4994

Nano BEIR

  • Dataset: NanoBEIR_mean
  • Evaluated with NanoBEIREvaluator with these parameters:
    {
        "dataset_names": [
            "climatefever",
            "dbpedia",
            "fever",
            "fiqa2018",
            "hotpotqa",
            "msmarco",
            "nfcorpus",
            "nq",
            "quoraretrieval",
            "scidocs",
            "arguana",
            "scifact",
            "touche2020"
        ],
        "dataset_id": "sentence-transformers/NanoBEIR-en"
    }
    
Metric Value
cosine_accuracy@1 0.5301
cosine_accuracy@3 0.7259
cosine_accuracy@5 0.7999
cosine_accuracy@10 0.8645
cosine_precision@1 0.5301
cosine_precision@3 0.3342
cosine_precision@5 0.2633
cosine_precision@10 0.1827
cosine_recall@1 0.3079
cosine_recall@3 0.4752
cosine_recall@5 0.5551
cosine_recall@10 0.6359
cosine_ndcg@10 0.5844
cosine_mrr@10 0.6448
cosine_map@100 0.4994

Training Details

Training Dataset

Unnamed Dataset

  • Size: 200,000 training samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 3 tokens
    • mean: 36.0 tokens
    • max: 231 tokens
    • min: 22 tokens
    • mean: 173.75 tokens
    • max: 256 tokens
    • min: 30 tokens
    • mean: 173.35 tokens
    • max: 256 tokens
  • Samples:
    anchor positive negative
    इन प्रयुक्त पैमानों के संबंध में सामान्य विचार क्या है? यौन अभिविन्यास पर केंद्रित अनुसंधान में मूल्यांकन के पैमाने का उपयोग करके यह पता लगाया जाता है कि कौन व्यक्ति किस यौन जनसंख्या समूह से संबंधित है।यह माना जाता है कि ये पैमाने लोगों को उनके यौन अभिविन्यास के आधार पर विश्वसनीय रूप से पहचानने और वर्गीकृत करने में सक्षम होंगे।हालांकि, यौन अभिविन्यास की परिभाषा के संबंध में अस्पष्टता के कारण, मूल्यांकन के पैमाने के माध्यम से किसी व्यक्ति के यौन अभिविन्यास को निर्धारित करना कठिन है।सामान्यतः, मूल्यांकन में यौन अभिविन्यास के तीन घटकों का उपयोग किया जाता है।उनकी परिभाषाएँ और उनका मूल्यांकन कैसे किया जा सकता है, इसके उदाहरण इस प्रकार हैं: यौन अभिविन्यास के किस घटक का मूल्यांकन और संदर्भ किया जा रहा है, इसके आधार पर समलैंगिकता की व्यापकता दर के बारे में अलग-अलग निष्कर्ष निकाले जा सकते हैं, जिनके वास्तविक दुनिया पर परिणाम हो सकते हैं।यह जानना कि जनसंख्या में समलैंगिक व्यक्तियों की संख्या कितनी है, इस बात को प्रभावित करता है कि जनता और सरकारी निकाय इस जनसंख्या को किस प्रकार देखते हैं या उनके साथ कैसा व्यवहार करते हैं।उदाहरण के लिए, यदि समलैंगिक व्यक्ति सामान्य जनसंख्या का केवल १% हैं, तो उन्हें राजनीतिक रूप से नजरअंदाज करना आसान है, या यदि उन्हें एक ऐसा निर्वाचन क्षेत्र माना जाता है जो अधिकांश जातीय और अल्पसंख्यक समूहों से आगे है।यदि संख्या अपेक्षाकृत कम है, तो समुदाय आधारित समलैंगिक कार्यक्रमों और सेवाओं, समलैंगिक रोल मॉडल को मास मीडिया में शामिल करने, या स्कूलों में समलैंगिक/समलैंगिक गठबंधनों के पक्ष में तर्क देना कठिन है।इस कारण से, १९७० के दशक में राष्ट्रीय समलैंगिक एवं समलैंगिक कार्य बल के अध्यक्ष ब्रूस वोएलर ने एक आम मिथक को बढ़ावा दिया कि समलैंगिकता का प्रचलन पूरी आबादी में १०% है, जबकि पुरुषों के लिए यह औसतन १३% और...
    what county is hamilton nj in Hamilton Township, Atlantic County, New Jersey Hamilton was incorporated as a township by an act of the New Jersey Legislature on February 5, 1813, from portions of Egg Harbor Township and Weymouth Township, while the area was still part of Gloucester County. Hamilton became part of the newly created Atlantic County in 1837. - Hamilton County Courthouse. Sunset in Hamilton County. Information about the Public Hearing and Notice to Bidders for the Briggs Woods Conference Center can be found below in News & Notes.
    युनायटेड प्रोव्हिन्सना इंग्लंडच्या संरक्षक राज्यामध्ये बदलण्याचे कोणी मान्य केले? १५८२ मध्ये युनायटेड प्रोव्हिन्सने फ्रान्सिस, ड्यूक ऑफ अंजू यांना त्यांचे नेतृत्व करण्यासाठी आमंत्रित केले; परंतु १५८३ मध्ये अँटवर्प घेण्याच्या अयशस्वी प्रयत्नानंतर, ड्यूकने पुन्हा नेदरलँड सोडला.ऑरेंजच्या विल्यमच्या हत्येनंतर (१० जुलै १५८४), फ्रान्सचा हेन्री तिसरा आणि इंग्लंडचा एलिझाबेथ पहिला या दोघांनीही सार्वभौमत्वाचा प्रस्ताव नाकारला.तथापि, नंतरच्या लोकांनी युनायटेड प्रोव्हिन्सेसला इंग्लंडच्या संरक्षक राज्यामध्ये बदलण्याचे मान्य केले (नॉन्सचचा करार, १५८५), आणि अर्ल ऑफ लीसेस्टरला गव्हर्नर-जनरल म्हणून पाठवले.हे अयशस्वी ठरले आणि १५८८ मध्ये प्रांत एक संघराज्य बनले.युट्रेक्ट युनियनला सात संयुक्त प्रांतांच्या प्रजासत्ताकाचा पाया मानला जातो, ज्याला १६४८ मध्ये वेस्टफेलियाच्या शांततेपर्यंत स्पॅनिश साम्राज्याने मान्यता दिली नव्हती. प्रजासत्ताकादरम्यान, सार्वजनिक पद धारण करू इच्छिणाऱ्या कोणत्याही व्यक्तीला रिफॉर्म्ड चर्चचे पालन करणे आणि या प्रभावासाठी शपथ घेणे आवश्यक होते.वेगवेगळ्या धर्मांचा किंवा संप्रदायांचा किती प्रमाणात छळ झाला हे कालखंड आणि प्रादेशिक किंवा शहरी नेत्यांवर अवलंबून होते.सुरुवातीला, हे विशेषतः रोमन कॅथलिकांवर केंद्रित होते, शत्रूचा धर्म होता.१७व्या शतकातील लेडेनमध्ये, उदाहरणार्थ, सेवांसाठी घरे उघडणाऱ्या लोकांना २०० गिल्डर (कुशल व्यापारीसाठी एक वर्षाचे वेतन) दंड केला जाऊ शकतो आणि शहरातून बंदी घातली जाऊ शकते.तथापि, या संपूर्ण काळात, धर्माचे वैयक्तिक स्वातंत्र्य अस्तित्त्वात होते आणि ते एक घटक होते – आर्थिक कारणांसह – युरोपच्या इतर भागांतून धार्मिक निर्वासितांचे मोठ्या प्रमाणावर स्थलांतर करण्यामागे.
  • Loss: CachedMultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim",
        "mini_batch_size": 4,
        "gather_across_devices": false,
        "directions": [
            "query_to_doc"
        ],
        "partition_mode": "joint",
        "hardness_mode": null,
        "hardness_strength": 0.0
    }
    

Evaluation Dataset

Unnamed Dataset

  • Size: 2,200 evaluation samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 4 tokens
    • mean: 62.1 tokens
    • max: 249 tokens
    • min: 23 tokens
    • mean: 239.18 tokens
    • max: 256 tokens
    • min: 26 tokens
    • mean: 238.73 tokens
    • max: 256 tokens
  • Samples:
    anchor positive negative
    অঞ্চলের বৈচিত্র্যময় প্রযুক্তি বর্ণনা করতে ব্যবহৃত মনিকার কী? টেক কোস্ট হল একটি মনীকার যা এই অঞ্চলের বৈচিত্র্যময় প্রযুক্তি এবং শিল্প ভিত্তির পাশাপাশি এর বহু মর্যাদাপূর্ণ এবং বিশ্ব-বিখ্যাত গবেষণা বিশ্ববিদ্যালয় এবং অন্যান্য সরকারী ও বেসরকারী প্রতিষ্ঠানের জন্য বর্ণনাকারী হিসাবে ব্যবহার করেছে।এর মধ্যে রয়েছে ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়ের ৫টি ক্যাম্পাস (আরভাইন, লস অ্যাঞ্জেলেস, রিভারসাইড, সান্তা বারবারা এবং সান দিয়েগো); ১২ ক্যালিফোর্নিয়া স্টেট ইউনিভার্সিটি ক্যাম্পাস (বেকার্সফিল্ড, চ্যানেল আইল্যান্ডস, ডোমিনগুয়েজ হিলস, ফুলারটন, লস এঞ্জেলেস, লং বিচ, নর্থরিজ, পোমোনা, সান বার্নার্ডিনো, সান দিয়েগো, সান মার্কোস এবং সান লুইস ওবিস্পো); এবং বেসরকারি প্রতিষ্ঠান যেমন ক্যালিফোর্নিয়া ইনস্টিটিউট অফ টেকনোলজি, চ্যাপম্যান ইউনিভার্সিটি, ক্লেরমন্ট কলেজ (ক্লেরমন্ট ম্যাককেনা কলেজ, হার্ভে মুড কলেজ, পিটজার কলেজ, পোমোনা কলেজ এবং স্ক্রিপস কলেজ), লোমা লিন্ডা ইউনিভার্সিটি, লয়োলা মেরিমাউন্ট ইউনিভার্সিটি, অক্সিডেন্টাল কলেজ, পেপারডাইন ইউনিভার্সিটি , ইউনিভার্সিটি অফ রেডল্যান্ডস, ইউনিভার্সিটি অফ সান দিয়েগো, এবং ইউনিভার্সিটি অফ সাউদার্ন ক্যালিফোর্নিয়া। অনেক স্থানীয় এবং পর্যটক তার জনপ্রিয় সৈকতগুলির জন্য দক্ষিণ ক্যালিফোর্নিয়ার উপকূলে ঘন ঘন আসে এবং মরুভূমির শহর পাম স্প্রিংস তার রিসর্ট অনুভূতি এবং কাছাকাছি খোলা জায়গাগুলির জন্য জনপ্রিয়।
    ఫ్రెస్నోలోని కాలిఫోర్నియా స్టేట్ యూనివర్శిటీ అసలు పేరు ఏమిటి? టవర్ డిస్ట్రిక్ట్ అని పిలువబడే ప్రసిద్ధ పొరుగు ప్రాంతం చారిత్రాత్మక టవర్ థియేటర్ చుట్టూ కేంద్రీకృతమై ఉంది, ఇది నేషనల్ లిస్ట్ ఆఫ్ హిస్టారిక్ ప్లేసెస్‌లో చేర్చబడింది.థియేటర్ ౧౯౩౯లో నిర్మించబడింది మరియు టవర్ డిస్ట్రిక్ట్ నడిబొడ్డున ఆలివ్ మరియు విషోన్ అవెన్యూలలో ఉంది.(థియేటర్ పేరు బాగా తెలిసిన ల్యాండ్‌మార్క్ వాటర్ టవర్‌ని సూచిస్తుంది, ఇది వాస్తవానికి సమీపంలోని మరొక ప్రాంతంలో ఉంది).టవర్ డిస్ట్రిక్ట్ పొరుగు ప్రాంతం ఫ్రెస్నో డౌన్‌టౌన్‌కు ఉత్తరంగా ఉంది మరియు ఫ్రెస్నో సిటీ కాలేజీకి దక్షిణంగా ఒక అర మైలు దూరంలో ఉంది.పొరుగు ప్రాంతం ముందుగా నివాస ప్రాంతంగా గుర్తించబడినప్పటికీ, టవర్ డిస్ట్రిక్ట్ యొక్క ప్రారంభ వాణిజ్య సంస్థలు చిన్న దుకాణాలు మరియు సేవలతో ప్రారంభమయ్యాయి, ఇవి ప్రపంచ యుద్ధం ఐఐ తర్వాత కొద్దికాలానికే ఈ ప్రాంతానికి తరలివచ్చాయి.చిన్న స్థానిక వ్యాపారాల లక్షణం ఈనాటికీ ఉంది.కొంత వరకు, టవర్ డిస్ట్రిక్ట్ యొక్క వ్యాపారాలు అసలైన ఫ్రెస్నో నార్మల్ స్కూల్ (తరువాత ఫ్రెస్నోలో కాలిఫోర్నియా స్టేట్ యూనివర్శిటీ పేరు మార్చబడింది) సామీప్యత కారణంగా అభివృద్ధి చెందాయి.౧౯౧౬లో కళాశాల ఇప్పుడు టవర్ డిస్ట్రిక్ట్‌కు ఉ... ఫ్రెస్నో పాక్షిక-శుష్క వాతావరణం (కొప్పెన్ బీఎస్), తేలికపాటి, తేమతో కూడిన శీతాకాలాలు మరియు వేడి మరియు పొడి వేసవికాలంతో గుర్తించబడింది, తద్వారా మధ్యధరా లక్షణాలను ప్రదర్శిస్తుంది.డిసెంబరు మరియు జనవరి అత్యంత శీతల నెలలు, మరియు సగటున ౪౬.౫ °ఫ్ (౮.౧ °సి), మరియు సంవత్సరానికి ౧౪ రాత్రులు గడ్డకట్టే కనిష్ట స్థాయిలు ఉంటాయి, సంవత్సరంలో అత్యంత శీతలమైన రాత్రి సాధారణంగా ౩౦ °ఫ్ (−౧.౧ °సి) కంటే తక్కువగా ఉంటుంది. .జూలై అత్యంత వెచ్చని నెల, సగటు ౮౩.౦ °ఫ్ (౨౮.౩ °సి); సాధారణంగా, ౩౨ రోజులు ౧౦౦ °ఫ్ (౩౭.౮ °సి)+ గరిష్టాలు మరియు ౧౦౬ రోజులు ౯౦ °ఫ్ (౩౨.౨ °సి)+ గరిష్టాలు, మరియు జూలై మరియు ఆగస్ట్‌లలో మూడు లేదా నాలుగు రోజులు మాత్రమే గరిష్టంగా ఉండవు. ౯౦ °ఫ్ (౩౨.౨ °సి)కి చేరుకుంటుంది.వేసవి కాలం సూర్యరశ్మిని అందజేస్తుంది, జూలై గరిష్టంగా సూర్యరశ్మి మొత్తం సాధ్యమయ్యే గంటలలో ౯౭ శాతం; దీనికి విరుద్ధంగా, దట్టమైన తుల్ పొగమంచు కారణంగా సూర్యకాంతిలో పగటిపూట ౪౬ శాతం మాత్రమే జనవరి అత్యల్పంగా ఉంటుంది.అయితే, సంవత్సరానికి సగటున ౮౧% సూర్యరశ్మి, మొత్తం ౩౫౫౦ గంటలు.సగటు వార్షిక అవపాతం దాదాపు ౧౧.౫ అంగుళాలు (౨౯౨.౧ మిమీ), ఇది నిర్వచనం ప్రకారం...
    নরম্যানরা কখন ডিরাচিয়াম আক্রমণ করেছিল? বাইজেন্টাইন রাষ্ট্রের আরও পতন ১১৮৫ সালে তৃতীয় আক্রমণের পথ প্রশস্ত করে, যখন উচ্চ বাইজেন্টাইন কর্মকর্তাদের বিশ্বাসঘাতকতার কারণে একটি বৃহৎ নরম্যান সেনাবাহিনী ডিরাচিয়াম আক্রমণ করে।কিছু সময় পরে, ডিরাচিয়াম - অ্যাড্রিয়াটিকের অন্যতম গুরুত্বপূর্ণ নৌ ঘাঁটি - আবার বাইজেন্টাইনদের হাতে পড়ে। উইলিয়াম দ্য কনকাররের বিরোধিতাকারী ইংরেজ সিংহাসনের দাবিদারদের একজন, এডগার অ্যাথেলিং অবশেষে স্কটল্যান্ডে পালিয়ে যান।স্কটল্যান্ডের রাজা ম্যালকম আইআই এডগারের বোন মার্গারেটকে বিয়ে করেন এবং উইলিয়ামের বিরোধিতা করেন যিনি ইতিমধ্যেই স্কটল্যান্ডের দক্ষিণ সীমানা নিয়ে বিতর্ক করেছিলেন।উইলিয়াম ১০৭২ সালে স্কটল্যান্ড আক্রমণ করেছিলেন, অ্যাবারনেথি পর্যন্ত চড়ে যেখানে তিনি তার জাহাজের বহরের সাথে দেখা করেছিলেন।ম্যালকম জমা দেন, উইলিয়ামের প্রতি শ্রদ্ধা নিবেদন করেন এবং তার ছেলে ডানকানকে জিম্মি হিসেবে আত্মসমর্পণ করেন, স্কটিশ ক্রাউন ইংল্যান্ডের রাজার প্রতি আনুগত্য করেন কিনা তা নিয়ে একাধিক তর্ক শুরু করেন।
  • Loss: CachedMultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim",
        "mini_batch_size": 4,
        "gather_across_devices": false,
        "directions": [
            "query_to_doc"
        ],
        "partition_mode": "joint",
        "hardness_mode": null,
        "hardness_strength": 0.0
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • gradient_accumulation_steps: 4
  • learning_rate: 0.0002
  • num_train_epochs: 1
  • lr_scheduler_type: cosine
  • warmup_steps: 625
  • bf16: True
  • dataloader_num_workers: 4
  • load_best_model_at_end: True
  • optim: adamw_torch
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 8
  • per_device_eval_batch_size: 8
  • gradient_accumulation_steps: 4
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 0.0002
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 1
  • max_steps: -1
  • lr_scheduler_type: cosine
  • lr_scheduler_kwargs: None
  • warmup_ratio: None
  • warmup_steps: 625
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • enable_jit_checkpoint: False
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • use_cpu: False
  • seed: 42
  • data_seed: None
  • bf16: True
  • fp16: False
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: -1
  • ddp_backend: None
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 4
  • dataloader_prefetch_factor: None
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • parallelism_config: None
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • group_by_length: False
  • length_column_name: length
  • project: huggingface
  • trackio_space_id: trackio
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • auto_find_batch_size: False
  • full_determinism: False
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_num_input_tokens_seen: no
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: True
  • use_cache: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Epoch Step Training Loss Validation Loss eval_cosine_accuracy NanoClimateFEVER_cosine_ndcg@10 NanoDBPedia_cosine_ndcg@10 NanoFEVER_cosine_ndcg@10 NanoFiQA2018_cosine_ndcg@10 NanoHotpotQA_cosine_ndcg@10 NanoMSMARCO_cosine_ndcg@10 NanoNFCorpus_cosine_ndcg@10 NanoNQ_cosine_ndcg@10 NanoQuoraRetrieval_cosine_ndcg@10 NanoSCIDOCS_cosine_ndcg@10 NanoArguAna_cosine_ndcg@10 NanoSciFact_cosine_ndcg@10 NanoTouche2020_cosine_ndcg@10 NanoBEIR_mean_cosine_ndcg@10
0.648 4050 1.5134 - - - - - - - - - - - - - - - -
0.656 4100 0.7004 - - - - - - - - - - - - - - - -
0.664 4150 0.4658 - - - - - - - - - - - - - - - -
0.672 4200 0.4012 - - - - - - - - - - - - - - - -
0.68 4250 0.3768 - - - - - - - - - - - - - - - -
0.688 4300 0.3873 - - - - - - - - - - - - - - - -
0.696 4350 0.3593 - - - - - - - - - - - - - - - -
0.704 4400 0.3313 - - - - - - - - - - - - - - - -
0.712 4450 0.3459 - - - - - - - - - - - - - - - -
0.72 4500 0.3308 0.3901 0.8595 - - - - - - - - - - - - - -
0.728 4550 0.3248 - - - - - - - - - - - - - - - -
0.736 4600 0.3116 - - - - - - - - - - - - - - - -
0.744 4650 0.3210 - - - - - - - - - - - - - - - -
0.752 4700 0.2963 - - - - - - - - - - - - - - - -
0.76 4750 0.2912 - - - - - - - - - - - - - - - -
0.768 4800 0.3293 - - - - - - - - - - - - - - - -
0.776 4850 0.3432 - - - - - - - - - - - - - - - -
0.784 4900 0.3150 - - - - - - - - - - - - - - - -
0.792 4950 0.3181 - - - - - - - - - - - - - - - -
0.8 5000 0.2930 0.3610 0.8682 - - - - - - - - - - - - - -
0.808 5050 0.2841 - - - - - - - - - - - - - - - -
0.816 5100 0.2895 - - - - - - - - - - - - - - - -
0.824 5150 0.3003 - - - - - - - - - - - - - - - -
0.832 5200 0.2942 - - - - - - - - - - - - - - - -
0.84 5250 0.3088 - - - - - - - - - - - - - - - -
0.848 5300 0.3111 - - - - - - - - - - - - - - - -
0.856 5350 0.2687 - - - - - - - - - - - - - - - -
0.864 5400 0.2930 - - - - - - - - - - - - - - - -
0.872 5450 0.2856 - - - - - - - - - - - - - - - -
0.88 5500 0.2867 0.3473 0.8723 - - - - - - - - - - - - - -
0.888 5550 0.2812 - - - - - - - - - - - - - - - -
0.896 5600 0.3041 - - - - - - - - - - - - - - - -
0.904 5650 0.2733 - - - - - - - - - - - - - - - -
0.912 5700 0.2800 - - - - - - - - - - - - - - - -
0.92 5750 0.2773 - - - - - - - - - - - - - - - -
0.928 5800 0.3001 - - - - - - - - - - - - - - - -
0.936 5850 0.2965 - - - - - - - - - - - - - - - -
0.944 5900 0.2878 - - - - - - - - - - - - - - - -
0.952 5950 0.3196 - - - - - - - - - - - - - - - -
0.96 6000 0.2719 0.3459 0.8718 - - - - - - - - - - - - - -
0.968 6050 0.2852 - - - - - - - - - - - - - - - -
0.976 6100 0.2816 - - - - - - - - - - - - - - - -
0.984 6150 0.2684 - - - - - - - - - - - - - - - -
0.992 6200 0.2805 - - - - - - - - - - - - - - - -
1.0 6250 0.2763 - - - - - - - - - - - - - - - -
-1 -1 - - - 0.2989 0.6032 0.7962 0.5010 0.7820 0.6104 0.3222 0.5806 0.9655 0.3970 0.5718 0.6754 0.4930 0.5844

Framework Versions

  • Python: 3.12.12
  • Sentence Transformers: 5.3.0
  • Transformers: 5.0.0
  • PyTorch: 2.10.0+cu128
  • Accelerate: 1.13.0
  • Datasets: 4.0.0
  • Tokenizers: 0.22.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

CachedMultipleNegativesRankingLoss

@misc{gao2021scaling,
    title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
    author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
    year={2021},
    eprint={2101.06983},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}
Downloads last month
45
Safetensors
Model size
3B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for nunaa/tinyaya-lrl-embed-ft-v1

Finetuned
(34)
this model

Papers for nunaa/tinyaya-lrl-embed-ft-v1

Evaluation results