FAQ-Ai-Assistant-V5 / README.md
DHOM-Uni's picture
Upload folder using huggingface_hub
aab9e46 verified
---
tags:
- sentence-transformers
- cross-encoder
- generated_from_trainer
- dataset_size:173920
- loss:BinaryCrossEntropyLoss
base_model: MatMulMan/araelectra-base-discriminator-tydi-tafseer-pairs
pipeline_tag: text-ranking
library_name: sentence-transformers
---
# CrossEncoder based on MatMulMan/araelectra-base-discriminator-tydi-tafseer-pairs
This is a [Cross Encoder](https://www.sbert.net/docs/cross_encoder/usage/usage.html) model finetuned from [MatMulMan/araelectra-base-discriminator-tydi-tafseer-pairs](https://huggingface.co/MatMulMan/araelectra-base-discriminator-tydi-tafseer-pairs) using the [sentence-transformers](https://www.SBERT.net) library. It computes scores for pairs of texts, which can be used for text reranking and semantic search.
## Model Details
### Model Description
- **Model Type:** Cross Encoder
- **Base model:** [MatMulMan/araelectra-base-discriminator-tydi-tafseer-pairs](https://huggingface.co/MatMulMan/araelectra-base-discriminator-tydi-tafseer-pairs) <!-- at revision 7085ca8be3d1c45e2ce57f3d5dfb4c918ac1a37b -->
- **Maximum Sequence Length:** 512 tokens
- **Number of Output Labels:** 1 label
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Documentation:** [Cross Encoder Documentation](https://www.sbert.net/docs/cross_encoder/usage/usage.html)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Cross Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=cross-encoder)
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import CrossEncoder
# Download from the 🤗 Hub
model = CrossEncoder("cross_encoder_model_id")
# Get scores for pairs of texts
pairs = [
['يعني هل التشريع بيحدد إيه أقل حاجة لازم صاحب العمل يوفرها من ناحية أدوات الحماية زي الخوذة أو اللبس الواقي؟', 'أيوه، بمجرد ما تبدأ الشغل، صاحب العمل ملزم يسجلك في التأمين الاجتماعي من أول يوم. ولو ما عملش كده، تقدر تشتكيه وهيتحمل الغرامة.'],
['يعني قانون الوظيفة بيلزم أصحاب الشركات إنهم يوفروا أماكن شغل نضيفة وآمنة للعمال، فيها إضاءة كافية وتهوية مظبوطة، ولا ده مش شرط أساسي في التشريع؟ (تغيير في الفاعل من "الشركات" إلى "أصحاب الشركات"، والتركيز على "شرط أساسي")؟', 'لو المرتب ما اتصرفش لأي سبب (زي الإهمال من جهة العمل)، العامل ليه حق يطالب بيه، وبيتدفع له بأثر رجعي. مفيش حاجة اسمها المرتب يسقط مع الوقت.'],
['ممكن أعرف السؤال هنا، لو التغييرات اللي حصلت في العقد خلت الوظيفة مستحيل بالنسبة للعامل، هل من حقه إنه ياخد إجراءات تصعيدية؟ (هذه الصيغة تستخدم لغة أكثر رسمية، وتستبدل "الاعتصام" بـ "إجراءات تصعيدية".)؟', 'النسبة بتتقسم كالتالي: العامل: 11% من الأجر التأميني, صاحب العمل: حوالي 18.75%, وده بيغطي المعاشات، إصابات العمل، والتأمين الصحي.'],
['طيب، مش المفروض بعد ما الحد الأدنى للأجور بقى أعلى بستة وسبعة آلاف جنيه، الشركات دي تعدل أوضاعها؟ ليه لسه مفيش أي تغيير؟ (تركيز على توقع التعديل في الأوضاع)؟', 'مدة الخدمة بتفرق في قيمة التعويض. يعني كل ما العامل كانت خدمته أطول، بيكون التعويض أكبر. وعلشان كده القانون ساب التقدير للمحكمة عشان تحكم بما يتناسب مع كل حالة.'],
['ممكن أعرف فرضًا إن فيه عامل بيشتغل شغلانة فيها خلط، وجاله مرض بيعدي، يبقى من حقه يستحق قد إيه شهر إجازة مرضية عشان يعزل نفسه؟', 'لو الجهات الطبية شافت إن فيه خطر حقيقي، العامل يقدر ياخد إجازة حجر صحي لمدة تصل إلى شهر. وده لحمايته وحماية زمايله في الشغل.'],
]
scores = model.predict(pairs)
print(scores.shape)
# (5,)
# Or rank different texts based on similarity to a single text
ranks = model.rank(
'يعني هل التشريع بيحدد إيه أقل حاجة لازم صاحب العمل يوفرها من ناحية أدوات الحماية زي الخوذة أو اللبس الواقي؟',
[
'أيوه، بمجرد ما تبدأ الشغل، صاحب العمل ملزم يسجلك في التأمين الاجتماعي من أول يوم. ولو ما عملش كده، تقدر تشتكيه وهيتحمل الغرامة.',
'لو المرتب ما اتصرفش لأي سبب (زي الإهمال من جهة العمل)، العامل ليه حق يطالب بيه، وبيتدفع له بأثر رجعي. مفيش حاجة اسمها المرتب يسقط مع الوقت.',
'النسبة بتتقسم كالتالي: العامل: 11% من الأجر التأميني, صاحب العمل: حوالي 18.75%, وده بيغطي المعاشات، إصابات العمل، والتأمين الصحي.',
'مدة الخدمة بتفرق في قيمة التعويض. يعني كل ما العامل كانت خدمته أطول، بيكون التعويض أكبر. وعلشان كده القانون ساب التقدير للمحكمة عشان تحكم بما يتناسب مع كل حالة.',
'لو الجهات الطبية شافت إن فيه خطر حقيقي، العامل يقدر ياخد إجازة حجر صحي لمدة تصل إلى شهر. وده لحمايته وحماية زمايله في الشغل.',
]
)
# [{'corpus_id': ..., 'score': ...}, {'corpus_id': ..., 'score': ...}, ...]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 173,920 training samples
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 | label |
|:--------|:-------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------|:---------------------------------------------------------------|
| type | string | string | float |
| details | <ul><li>min: 33 characters</li><li>mean: 114.82 characters</li><li>max: 326 characters</li></ul> | <ul><li>min: 16 characters</li><li>mean: 143.94 characters</li><li>max: 399 characters</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.26</li><li>max: 1.0</li></ul> |
* Samples:
| sentence_0 | sentence_1 | label |
|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
| <code>يعني هل التشريع بيحدد إيه أقل حاجة لازم صاحب العمل يوفرها من ناحية أدوات الحماية زي الخوذة أو اللبس الواقي؟</code> | <code>أيوه، بمجرد ما تبدأ الشغل، صاحب العمل ملزم يسجلك في التأمين الاجتماعي من أول يوم. ولو ما عملش كده، تقدر تشتكيه وهيتحمل الغرامة.</code> | <code>0.0</code> |
| <code>يعني قانون الوظيفة بيلزم أصحاب الشركات إنهم يوفروا أماكن شغل نضيفة وآمنة للعمال، فيها إضاءة كافية وتهوية مظبوطة، ولا ده مش شرط أساسي في التشريع؟ (تغيير في الفاعل من "الشركات" إلى "أصحاب الشركات"، والتركيز على "شرط أساسي")؟</code> | <code>لو المرتب ما اتصرفش لأي سبب (زي الإهمال من جهة العمل)، العامل ليه حق يطالب بيه، وبيتدفع له بأثر رجعي. مفيش حاجة اسمها المرتب يسقط مع الوقت.</code> | <code>0.0</code> |
| <code>ممكن أعرف السؤال هنا، لو التغييرات اللي حصلت في العقد خلت الوظيفة مستحيل بالنسبة للعامل، هل من حقه إنه ياخد إجراءات تصعيدية؟ (هذه الصيغة تستخدم لغة أكثر رسمية، وتستبدل "الاعتصام" بـ "إجراءات تصعيدية".)؟</code> | <code>النسبة بتتقسم كالتالي: العامل: 11% من الأجر التأميني, صاحب العمل: حوالي 18.75%, وده بيغطي المعاشات، إصابات العمل، والتأمين الصحي.</code> | <code>0.0</code> |
* Loss: [<code>BinaryCrossEntropyLoss</code>](https://sbert.net/docs/package_reference/cross_encoder/losses.html#binarycrossentropyloss) with these parameters:
```json
{
"activation_fn": "torch.nn.modules.linear.Identity",
"pos_weight": null
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `disable_tqdm`: True
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1
- `num_train_epochs`: 3
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: True
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `hub_revision`: None
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `liger_kernel_config`: None
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: proportional
</details>
### Training Logs
| Epoch | Step | Training Loss |
|:------:|:-----:|:-------------:|
| 0.0460 | 500 | 0.5201 |
| 0.0920 | 1000 | 0.2165 |
| 0.1380 | 1500 | 0.1608 |
| 0.1840 | 2000 | 0.1462 |
| 0.2300 | 2500 | 0.1243 |
| 0.2760 | 3000 | 0.118 |
| 0.3220 | 3500 | 0.0899 |
| 0.3680 | 4000 | 0.0774 |
| 0.4140 | 4500 | 0.0783 |
| 0.4600 | 5000 | 0.0726 |
| 0.5060 | 5500 | 0.0741 |
| 0.5520 | 6000 | 0.0659 |
| 0.5980 | 6500 | 0.0594 |
| 0.6440 | 7000 | 0.0722 |
| 0.6900 | 7500 | 0.0619 |
| 0.7360 | 8000 | 0.0597 |
| 0.7820 | 8500 | 0.0502 |
| 0.8280 | 9000 | 0.0586 |
| 0.8740 | 9500 | 0.0497 |
| 0.9200 | 10000 | 0.0444 |
| 0.9660 | 10500 | 0.0489 |
| 1.0120 | 11000 | 0.0448 |
| 1.0580 | 11500 | 0.0414 |
| 1.1040 | 12000 | 0.0363 |
| 1.1500 | 12500 | 0.0332 |
| 1.1960 | 13000 | 0.0352 |
| 1.2420 | 13500 | 0.0388 |
| 1.2879 | 14000 | 0.0409 |
| 1.3339 | 14500 | 0.0331 |
| 1.3799 | 15000 | 0.0412 |
| 1.4259 | 15500 | 0.0325 |
| 1.4719 | 16000 | 0.0273 |
| 1.5179 | 16500 | 0.0354 |
| 1.5639 | 17000 | 0.0337 |
| 1.6099 | 17500 | 0.0294 |
| 1.6559 | 18000 | 0.0328 |
| 1.7019 | 18500 | 0.0271 |
| 1.7479 | 19000 | 0.0267 |
| 1.7939 | 19500 | 0.0225 |
| 1.8399 | 20000 | 0.0268 |
| 1.8859 | 20500 | 0.0305 |
| 1.9319 | 21000 | 0.0321 |
| 1.9779 | 21500 | 0.0277 |
| 2.0239 | 22000 | 0.023 |
| 2.0699 | 22500 | 0.0247 |
| 2.1159 | 23000 | 0.0237 |
| 2.1619 | 23500 | 0.0306 |
| 2.2079 | 24000 | 0.0278 |
| 2.2539 | 24500 | 0.0253 |
| 2.2999 | 25000 | 0.026 |
| 2.3459 | 25500 | 0.0199 |
| 2.3919 | 26000 | 0.0246 |
| 2.4379 | 26500 | 0.0184 |
| 2.4839 | 27000 | 0.0222 |
| 2.5299 | 27500 | 0.0274 |
| 2.5759 | 28000 | 0.0254 |
| 2.6219 | 28500 | 0.0163 |
| 2.6679 | 29000 | 0.0226 |
| 2.7139 | 29500 | 0.0182 |
| 2.7599 | 30000 | 0.0201 |
| 2.8059 | 30500 | 0.0289 |
| 2.8519 | 31000 | 0.0222 |
| 2.8979 | 31500 | 0.0185 |
| 2.9439 | 32000 | 0.0244 |
| 2.9899 | 32500 | 0.0193 |
### Framework Versions
- Python: 3.11.13
- Sentence Transformers: 4.1.0
- Transformers: 4.54.1
- PyTorch: 2.6.0+cu124
- Accelerate: 1.9.0
- Datasets: 4.0.0
- Tokenizers: 0.21.4
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->