---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:5315
- loss:MultipleNegativesRankingLoss
base_model: shihab17/bangla-sentence-transformer
widget:
- source_sentence: নির্মাতারা রাহুলের বিপরীতে দীপিকা বা ঐশ্বর্য রায়কে বেছে নিতে আগ্রহী।
sentences:
- চলচ্চিত্র নির্মাতারা সালমানের বিপরীতে অনুষ্কা বা সোনাক্ষী সিনহাকে বেছে নিতে আগ্রহী।
- এরপর ঢাকা বিশ্ববিদ্যালয়ের উপাচার্য প্রফেসর এ.এ.এম. স. আরেফিন সিদ্দিকের নেতৃত্বে
ফুলটি
- বৃহস্পতিবার বিকেলে মুন্না বিবিসি নিউজকে জানায় যে আমি ম্যাচ রেফারির রিপোর্ট পেয়েছি।
- source_sentence: ঢাকার ধামরাইতে নভেম্বর ডেইলিবাংলা ডটকমের প্রতিনিধি ধামরাইতে অবৈধ
ডিভিডি তৈরির সরঞ্জামসহ পাঁচ ব্যবসায়ীকে গ্রেপ্তার করেছে পুলিশ।
sentences:
- চলচ্চিত্রটি পরিচালনা করেছেন ইসরাত জাহান কাদের এবং প্রযোজনা করেছেন মাহফুজ আহমেদ।
- আওয়ামী লীগ শুধু জানে ক্ষমতা আছে।
- অক্টোবরের ১০ তারিখে র্যাব ঢাকার সাভারে পর্ণো সিডি কম্পিউটার ডিস্ক তৈরির সরঞ্জামসহ
ছয় ব্যবসায়ীকে গ্রেফতার করে
- source_sentence: চলচ্চিত্রটি পরিচালনা করেছেন রাহুল আহমেদ মিথুন।
sentences:
- জানুয়ারি মাসে রাজধানী ওয়ার্ড যুব দলের সভাপতি শহীদ মোল্লাকে সন্ত্রাসীরা গুলি
করে হত্যা করে।
- চলচ্চিত্রটি পরিচালনা করেছেন শাহাদাত হোসেন লিটন।
- তাই তাঁর বিভিন্ন ছড়ায় পদ্ম দিঘি ঝুমকো লতা পক্ষিরাজ দুধ সাগরের ঢেউ জোনাকি পোকা
কাজল বিল পাখি
- source_sentence: মোবাইল ফোনটি গুগল পিক্সেল প্রোগ্রামের মাধ্যমে বাজারে উন্মোচিত হয়েছে।
sentences:
- মিশুক মুনির ক্যামেরার পেছনে ছিলেন।
- অ্যান্ড্রয়েড ওয়ান প্রকল্পের মাধ্যমে স্মার্টফোনটি বাজারে আনা হয়েছে।
- ঢাকা জুনবিডিনিউজ.কম নিশাত বানু হত্যার মামলায় গ্রেফতার হওয়া দু'জনকে জিজ্ঞাসাবাদের
জন্য তিন দিনের পুলিশ
- source_sentence: রাজশাহী ফেব্রুয়ারি প্রাইমনিউজ টোয়েন্টিফোর ডটকম বাংলাদেশে নিযুক্ত
কাতারের রাষ্ট্রদূত ড. আহমেদ বিন সাদ আল থানি বুধবার সন্ধ্যায় আওয়ামী লীগের সভাপতি
শেখ হাসিনার সঙ্গে সৌজন্য সাক্ষাৎ করেছেন।
sentences:
- ঢাকা জানুয়ারি বিবিসি.কম-এ সৌদি আরবের রাষ্ট্রদূত ড. আবদুল্লাহ বিন নাসের আল-বুসাই
- গানটি গেয়েছেন লিলি ইসলাম সাজেদ আকবর, সালমা আকবর চঞ্চল খান, রোকিয়া হাসিনা ছায়া
রানী কর্মকার,
- পাকিস্তান আমলে হোসেন শহীদ সোহরাওয়ার্দীর নেতৃত্বে যুক্তফ্রন্টের মন্ত্রিসভার সদস্য
ছিলেন বঙ্গবন্ধু।
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- negative_mse
- pearson_cosine
- spearman_cosine
model-index:
- name: SentenceTransformer based on shihab17/bangla-sentence-transformer
results:
- task:
type: knowledge-distillation
name: Knowledge Distillation
dataset:
name: stsb dev
type: stsb-dev
metrics:
- type: negative_mse
value: -14.638463020324707
name: Negative Mse
- task:
type: semantic-similarity
name: Semantic Similarity
dataset:
name: sts test
type: sts-test
metrics:
- type: pearson_cosine
value: 0.9430020144485936
name: Pearson Cosine
- type: spearman_cosine
value: 0.8633309737532144
name: Spearman Cosine
---
# SentenceTransformer based on shihab17/bangla-sentence-transformer
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [shihab17/bangla-sentence-transformer](https://huggingface.co/shihab17/bangla-sentence-transformer). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [shihab17/bangla-sentence-transformer](https://huggingface.co/shihab17/bangla-sentence-transformer)
- **Maximum Sequence Length:** 128 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("farihashifa/s-bn-bert_new_data-vf")
# Run inference
sentences = [
'রাজশাহী ফেব্রুয়ারি প্রাইমনিউজ টোয়েন্টিফোর ডটকম বাংলাদেশে নিযুক্ত কাতারের রাষ্ট্রদূত ড. আহমেদ বিন সাদ আল থানি বুধবার সন্ধ্যায় আওয়ামী লীগের সভাপতি শেখ হাসিনার সঙ্গে সৌজন্য সাক্ষাৎ করেছেন।',
'ঢাকা জানুয়ারি বিবিসি.কম-এ সৌদি আরবের রাষ্ট্রদূত ড. আবদুল্লাহ বিন নাসের আল-বুসাই',
'গানটি গেয়েছেন লিলি ইসলাম সাজেদ আকবর, সালমা আকবর চঞ্চল খান, রোকিয়া হাসিনা ছায়া রানী কর্মকার,',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Evaluation
### Metrics
#### Knowledge Distillation
* Dataset: `stsb-dev`
* Evaluated with [MSEEvaluator](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.MSEEvaluator)
| Metric | Value |
|:-----------------|:-------------|
| **negative_mse** | **-14.6385** |
#### Semantic Similarity
* Dataset: `sts-test`
* Evaluated with [EmbeddingSimilarityEvaluator](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
| Metric | Value |
|:--------------------|:-----------|
| pearson_cosine | 0.943 |
| **spearman_cosine** | **0.8633** |
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 5,315 training samples
* Columns: text1, text2, and label
* Approximate statistics based on the first 1000 samples:
| | text1 | text2 | label |
|:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:-----------------------------|
| type | string | string | int |
| details |
সেখানে ডিসেম্বর থেকে ফেব্রুয়ারি মাসে বৃষ্টি হয়। | নভেম্বর থেকে জানুয়ারি মাস পর্যন্ত এখানে বৃষ্টি হয়। | 1 |
| গতকাল যশোর ও খুলনার বিভিন্ন পথসভায় বক্তব্য দেন রফিক। | গতকাল কাদের কুমিল্লা ও ফেনীর বিভিন্ন জনসভায় বক্তব্য রাখেন। | 1 |
| আমাজন প্রাইম ইনস্টাগ্রাম অ্যাপল আইক্লাউড টুইটার ওয়ার্কস্পেস জিমেইল এ সবই ক্লাউড সেবা | ড্রপবক্স নেটফ্লিক্স ফ্লিকার গুগল ড্রাইভ মাইক্রোসফট অফিস ৩৬৫ ইয়াহু মেইল সব ক্লাউড সার্ভিস। | 1 |
* Loss: [MultipleNegativesRankingLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Evaluation Dataset
#### Unnamed Dataset
* Size: 500 evaluation samples
* Columns: text1, text2, and label
* Approximate statistics based on the first 500 samples:
| | text1 | text2 | label |
|:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:-----------------------------|
| type | string | string | int |
| details | গত মার্চে চট্টগ্রামে নিজের বাড়িতে খুন হন রিয়াদ ও মোনা। | ফেব্রুয়ারি মাসে রাজধানীতে নিজ বাড়িতে সাগর ও রুনিকে হত্যা করা হয়। | 1 |
| পহেলা বৈশাখের বিশেষ আকর্ষণ হলো | বৈসু উৎসবের অন্যতম প্রধান আকর্ষণ হচ্ছে উৎসব। | 1 |
| আরো বক্তব্য রাখেন জাসদের সদস্য রুমানা আহমেদ নেওয়াজ অধ্যক্ষ এম বি রহমান চৌধুরী ও অধ্যাপক মাহমুদ হাসান। | এ ছাড়া সমিতির সদস্য শ্যামলী নাসরিন চৌধুরী, অধ্যক্ষ এম.এ. আউয়াল সিদ্দিকী এবং অধ্যাপক সাজেদুল ইসলাম | 1 |
* Loss: [MultipleNegativesRankingLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 64
- `learning_rate`: 2e-05
- `warmup_ratio`: 0.1
- `fp16`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters