Upload folder using huggingface_hub
Browse files- 1_Pooling/config.json +10 -0
- README.md +484 -0
- added_tokens.json +4 -0
- config.json +24 -0
- config_sentence_transformers.json +14 -0
- model.safetensors +3 -0
- modules.json +14 -0
- optimizer.pt +3 -0
- rng_state.pth +3 -0
- scheduler.pt +3 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +37 -0
- tokenizer.json +0 -0
- tokenizer_config.json +110 -0
- trainer_state.json +76 -0
- training_args.bin +3 -0
- vocab.txt +0 -0
1_Pooling/config.json
ADDED
|
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"word_embedding_dimension": 768,
|
| 3 |
+
"pooling_mode_cls_token": false,
|
| 4 |
+
"pooling_mode_mean_tokens": true,
|
| 5 |
+
"pooling_mode_max_tokens": false,
|
| 6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
| 7 |
+
"pooling_mode_weightedmean_tokens": false,
|
| 8 |
+
"pooling_mode_lasttoken": false,
|
| 9 |
+
"include_prompt": true
|
| 10 |
+
}
|
README.md
ADDED
|
@@ -0,0 +1,484 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
tags:
|
| 3 |
+
- sentence-transformers
|
| 4 |
+
- sentence-similarity
|
| 5 |
+
- feature-extraction
|
| 6 |
+
- dense
|
| 7 |
+
- generated_from_trainer
|
| 8 |
+
- dataset_size:5232
|
| 9 |
+
- loss:ContrastiveLoss
|
| 10 |
+
base_model: omarelshehy/Arabic-Retrieval-v1.0
|
| 11 |
+
widget:
|
| 12 |
+
- source_sentence: من هو اخو سيدنا موسى؟
|
| 13 |
+
sentences:
|
| 14 |
+
- وإذ قال موسى لفتاه لا أبرح حتى أبلغ مجمع البحرين أو أمضي حقبا. فلما بلغا مجمع
|
| 15 |
+
بينهما نسيا حوتهما فاتخذ سبيله في البحر سربا. فلما جاوزا قال لفتاه آتنا غداءنا
|
| 16 |
+
لقد لقينا من سفرنا هذا نصبا. قال أرأيت إذ أوينا إلى الصخرة فإني نسيت الحوت وما
|
| 17 |
+
أنسانيه إلا الشيطان أن أذكره واتخذ سبيله في البحر عجبا. قال ذلك ما كنا نبغ فارتدا
|
| 18 |
+
على آثارهما قصصا. فوجدا عبدا من عبادنا آتيناه رحمة من عندنا وعلمناه من لدنا علما.
|
| 19 |
+
قال له موسى هل أتبعك على أن تعلمن مما علمت رشدا. قال إنك لن تستطيع معي صبرا. وكيف
|
| 20 |
+
تصبر على ما لم تحط به خبرا. قال ستجدني إن شاء الله صابرا ولا أعصي لك أمرا. قال
|
| 21 |
+
فإن اتبعتني فلا تسألني عن شيء حتى أحدث لك منه ذكرا. فانطلقا حتى إذا ركبا في السفينة
|
| 22 |
+
خرقها قال أخرقتها لتغرق أهلها لقد جئت شيئا إمرا. قال ألم أقل إنك لن تستطيع معي
|
| 23 |
+
صبرا. قال لا تؤاخذني بما نسيت ولا ترهقني من أمري عسرا. فانطلقا حتى إذا لقيا غلاما
|
| 24 |
+
فقتله قال أقتلت نفسا زكية بغير نفس لقد جئت شيئا نكرا. قال ألم أقل لك إنك لن تستطيع
|
| 25 |
+
معي صبرا. قال إن سألتك عن شيء بعدها فلا تصاحبني قد بلغت من لدني عذرا. فانطلقا
|
| 26 |
+
حتى إذا أتيا أهل قرية استطعما أهلها فأبوا أن يضيفوهما فوجدا فيها جدارا يريد أن
|
| 27 |
+
ينقض فأقامه قال لو شئت لاتخذت عليه أجرا.
|
| 28 |
+
- وعد الله الذين آمنوا وعملوا الصالحات لهم مغفرة وأجر عظيم. والذين كفروا وكذبوا
|
| 29 |
+
بآياتنا أولئك أصحاب الجحيم.
|
| 30 |
+
- 'عَنِ ابْنِ عَبَّاسٍ - رضي الله عنهما - قَالَ: قَدِمَ رَسُولُ اللَّهِ - صلى الله
|
| 31 |
+
عليه وسلم - وَأَصْحَابُه، فَقَالَ الْمُشْرِكُونَ: إِنَّهُ يَقْدَمُ عَلَيْكُمْ
|
| 32 |
+
وَقَدْ وَهَنَهُمْ حُمَّى يَثْرِبَ، فَأَمَرَهُمُ النَّبِيُّ - صلى الله عليه وسلم
|
| 33 |
+
- أَنْ يَرْمُلُوا الأَشْوَاطَ الثَّلاثَةَ وَأَنْ يَمْشُوا مَا بَيْنَ الرُّكْنَيْنِ،
|
| 34 |
+
وَلَمْ يَمْنَعْهُ أَنْ يَأْمُرَهُمْ أَنْ يَرْمُلُوا الأَشْوَاطَ كُلَّهَا إِلَّا
|
| 35 |
+
الإِبْقَاءُ عَلَيْهِمْ.'
|
| 36 |
+
- source_sentence: من هو النبي الذى دخل السجن؟
|
| 37 |
+
sentences:
|
| 38 |
+
- وأصحاب الشمال ما أصحاب الشمال. في سموم وحميم. وظل من يحموم. لا بارد ولا كريم.
|
| 39 |
+
إنهم كانوا قبل ذلك مترفين. وكانوا يصرون على الحنث العظيم. وكانوا يقولون أئذا متنا
|
| 40 |
+
وكنا ترابا وعظاما أإنا لمبعوثون. أوآباؤنا الأولون. قل إن الأولين والآخرين. لمجموعون
|
| 41 |
+
إلى ميقات يوم معلوم. ثم إنكم أيها الضالون المكذبون. لآكلون من شجر من زقوم. فمالئون
|
| 42 |
+
منها البطون. فشاربون عليه من الحميم. فشاربون شرب الهيم. هذا نزلهم يوم الدين.
|
| 43 |
+
- 'عَنْ أَبِي هُرَيْرَةَ - رضي الله عنه -: أَنَّ النَّبِيَّ - صلى الله عليه وسلم
|
| 44 |
+
- لَقِيَهُ فِي بَعْضِ طَرِيقِ الْمَدِينَةِ وَهُوَ جُنُبٌ، قال: فَانْخَنَسْتُ مِنْهُ
|
| 45 |
+
فَذَهَبتُ فَاغْتَسَلْتُ ثُمَّ جِئتُ، فَقَالَ: «أَيْنَ كُنْتَ يَا أَبَا هُرَيْرَةَ»؟
|
| 46 |
+
قَالَ: كُنْتُ جُنُبًا فَكَرِهْتُ أَنْ أُجَالِسَكَ وَأَنَا عَلَى غَيْرِ طَهَارَةٍ،
|
| 47 |
+
فَقَالَ: «سُبْحَانَ اللَّهِ إِنَّ الْمُسْلِمَ لا يَنْجُسُ».'
|
| 48 |
+
- إن الذين لا يرجون لقاءنا ورضوا بالحياة الدنيا واطمأنوا بها والذين هم عن آياتنا
|
| 49 |
+
غافلون. أولئك مأواهم النار بما كانوا يكسبون. إن الذين آمنوا وعملوا الصالحات يهديهم
|
| 50 |
+
ربهم بإيمانهم تجري من تحتهم الأنهار في جنات النعيم. دعواهم فيها سبحانك اللهم وتحيتهم
|
| 51 |
+
فيها سلام وآخر دعواهم أن الحمد لله رب العالمين.
|
| 52 |
+
- source_sentence: ما هي عقوبة السارق في الدنيا؟
|
| 53 |
+
sentences:
|
| 54 |
+
- والسارق والسارقة فاقطعوا أيديهما جزاء بما كسبا نكالا من الله والله عزيز حكيم.
|
| 55 |
+
فمن تاب من بعد ظلمه وأصلح فإن الله يتوب عليه إن الله غفور رحيم. ألم تعلم أن الله
|
| 56 |
+
له ملك السماوات والأرض يعذب من يشاء ويغفر لمن يشاء والله على كل شيء قدير.
|
| 57 |
+
- 'عَنْ أَبِي هُرَيْرَةَ - رضي الله عنه - أَنَّ رَسُولَ اللَّهِ - صلى الله عليه
|
| 58 |
+
وسلم - قَالَ: «مَنِ اغْتَسَلَ يَوْمَ الْجُمُعَةِ غُسْلَ الْجَنَابَةِ ثُمَّ رَاحَ
|
| 59 |
+
فَكَأَنَّمَا قَرَّبَ بَدَنَةً، وَمَنْ رَاحَ فِي السَّاعَةِ الثَّانِيَةِ فَكَأَنَّمَا
|
| 60 |
+
قَرَّبَ بَقَرَةً، وَمَنْ رَاحَ فِي السَّاعَةِ الثَّالِثَةِ فَكَأَنَّمَا قَرَّبَ
|
| 61 |
+
كَبْشًا أَقْرَنَ، وَمَنْ رَاحَ فِي السَّاعَةِ الرَّابِعَةِ فَكَأَنَّمَا قَرَّبَ
|
| 62 |
+
دَجَاجَةً، وَمَنْ رَاحَ فِي السَّاعَةِ الْخَامِسَةِ فَكَأَنَّمَا قَرَّبَ بَيْضَةً،
|
| 63 |
+
فَإِذَا خَرَجَ الإِمَامُ حَضَرَتِ الْمَلائِكَةُ يَسْتَمِعُونَ الذِّكْرَ».'
|
| 64 |
+
- 'عَنِ الْمِقْدَادِ بْنِ الأَسْوَدِ الْكِندِيِّ - رضي الله عنه - حَلِيف بَنِي زُهْرَةَ
|
| 65 |
+
وَكَانَ مِمَّنْ شَهِدَ بَدْرًا مَعَ رَسُولِ اللَّهِ - صلى الله عليه وسلم - أَخْبَرَهُ
|
| 66 |
+
أَنَّهُ قَالَ لِرَسُولِ اللَّهِ - صلى الله عليه وسلم -: أَرَأَيْتَ إِنْ لَقِيتُ
|
| 67 |
+
رَجُلًا مِنَ الْكُفَّارِ فَاقْتَتَلْنَا فَضَرَبَ إِحْدَى يَدَيَّ بِالسَّيْفِ فَقَطَعَهَا
|
| 68 |
+
ثُمَّ لاذَ مِنِّي بِشَجَرَةٍ فَقَالَ: أَسْلَمْتُ لِلَّهِ، أَأَقْتُلُهُ يَا رَسُولَ
|
| 69 |
+
اللَّهِ بَعْدَ أَنْ قَالَهَا؟ فَقَالَ رَسُولُ اللَّهِ - صلى الله عليه وسلم -:
|
| 70 |
+
«لا تَقْتُلْهُ». فَقَالَ: يَا رَسُولَ اللَّهِ إِنَّهُ قَطَعَ إِحْدَى يَدَيَّ ثُمَّ
|
| 71 |
+
قَالَ ذَلِكَ بَعْدَ مَا قَطَعَهَا، فَقَالَ رَسُولُ اللَّهِ - صلى الله عليه وسلم
|
| 72 |
+
-: «لا تَقْتُلْهُ، فَإِنْ قَتَلْتَهُ فَإِنَّهُ بِمَنْزِلَتِكَ قَبْلَ أَنْ تَقْتُلَهُ،
|
| 73 |
+
وَإِنَّكَ بِمَنْزِلَتِهِ قَبْلَ أَنْ يَقُولَ كَلِمَتَهُ الَّتِي قَالَ».'
|
| 74 |
+
- source_sentence: من هو النبي الذي علمه الله لغة الطير والحيوان؟
|
| 75 |
+
sentences:
|
| 76 |
+
- 'عَنْ عَائِشَةَ - رضي الله عنها - تَقُولُ: سَمِعَ رَسُولُ اللَّهِ - صلى الله عليه
|
| 77 |
+
وسلم - صَوْتَ خُصُومٍ بِالْبَابِ عَالِيَةٍ أَصْوَاتُهُمَا، وَإِذَا أَحَدُهُمَا
|
| 78 |
+
يَسْتَوْضِعُ الآخَرَ وَيَسْتَرْفِقُهُ فِي شَيْءٍ وَهُوَ يَقُولُ: وَاللَّهِ لا
|
| 79 |
+
أَفْعَلُ، فَخَرَجَ عَلَيْهِمَا رَسُولُ اللَّهِ - صلى الله عليه وسلم - فَقَالَ:
|
| 80 |
+
«أَيْنَ الْمُتَأَلِّي عَلَى اللَّهِ لا يَفْعَلُ الْمَعْرُوفَ»؟ فَقَالَ: أَنَا
|
| 81 |
+
يَا رَسُولَ اللَّهِ، وَلَهُ أَيُّ ذَلِكَ أَحَبَّ.'
|
| 82 |
+
- 'عَنْ أُسَامَةَ - رضي الله عنه - قال: سَمِعْتُ رَسُولَ اللَّهِ - صلى الله عليه
|
| 83 |
+
وسلم - يَقُولُ: «يُجَاءُ بِالرَّجُلِ يَوْمَ الْقِيَامَةِ فَيُلْقَى فِي النَّارِ،
|
| 84 |
+
فَتَنْدَلِقُ أَقْتَابُهُ فِي النَّارِ فَيَدُورُ كَمَا يَدُورُ الْحِمَارُ بِرَحَاهُ،
|
| 85 |
+
فَيَجْتَمِعُ أَهْلُ النَّارِ عَلَيْهِ فَيَقُولُونَ: أَيْ فُلانُ، مَا شَأْنُكَ
|
| 86 |
+
أَلَيْسَ ك��نْتَ تَأْمُرُنَا بِالْمَعْرُوفِ وَتَنْهَانَا عَنِ الْمُنْكَرِ؟ قَالَ:
|
| 87 |
+
كُنْتُ آمُرُكُمْ بِالْمَعْرُوفِ وَلا آتِيهِ وَأَنْهَاكُمْ عَنِ الْمُنْكَرِ وَآتِيهِ».'
|
| 88 |
+
- 'عَنْ أَبِي مُوسَى الأَشْعَرِيِّ - رضي الله عنه -: أَنَّهُ تَوَضَّأَ فِي بَيْتِهِ
|
| 89 |
+
ثُمَّ خَرَجَ، فَقُلْتُ: لأَلْزَمَنَّ رَسُولَ اللَّهِ - صلى الله عليه وسلم - وَلأَكُونَنَّ
|
| 90 |
+
مَعَهُ يَوْمِي هَذَا، قَالَ: فَجَاءَ الْمَسْجِدَ فَسَأَلَ عَنِ النَّبِيِّ - صلى
|
| 91 |
+
الله عليه وسلم - فَقَالُوا: خَرَجَ وَوَجَّهَ هَاهُنَا، فَخَرَجْتُ عَلَى إِثْرِهِ
|
| 92 |
+
أَسْأَلُ عَنْهُ حَتَّى دَخَلَ بِئْرَ أَرِيسٍ، فَجَلَسْتُ عِنْدَ الْبَابِ وَبَابُهَا
|
| 93 |
+
مِنْ جَرِيدٍ حَتَّى قَضَى رَسُولُ اللَّهِ - صلى الله عليه وسلم - حَاجَتَهُ فَتَوَضَّأَ،
|
| 94 |
+
فَقُمْتُ إِلَيْهِ فَإِذَا هُوَ جَالِسٌ عَلَى بِئْرِ أَرِيسٍ وَتَوَسَّطَ قُفَّهَا
|
| 95 |
+
وَكَشَفَ عَنْ سَاقَيْهِ وَدَلَّاهُمَا فِي الْبِئْرِ، فَسَلَّمْتُ عَلَيْهِ ثُمَّ
|
| 96 |
+
انْصَرَفْتُ فَجَلَسْتُ عِنْدَ الْبَابِ فَقُلْتُ: لأَكُونَنَّ بَوَّابَ رَسُولِ
|
| 97 |
+
اللَّهِ - صلى الله عليه وسلم - الْيَوْمَ، فَجَاءَ أَبُو بَكْرٍ فَدَفَعَ الْبَابَ
|
| 98 |
+
فَقُلْتُ: مَنْ هَذَا؟ فَقَالَ: أَبُو بَكْرٍ، فَقُلْتُ: عَلَى رِسْلِكَ ثُمَّ ذَهَبْتُ
|
| 99 |
+
فَقُلْتُ: يَا رَسُولَ اللَّهِ، هَذَا أَبُو بَكْرٍ يَسْتَأْذِنُ، فَقَالَ: «ائْذَنْ
|
| 100 |
+
لَهُ وَبَشِّرْهُ بِالْجَنَّةِ». فَأَقْبَلْتُ حَتَّى قُلْتُ لأَبِي بَكْرٍ: ادْخُلْ
|
| 101 |
+
وَرَسُولُ اللَّهِ - صلى الله عليه وسلم - يُبَشِّرُكَ بِالْجَنَّةِ، فَدَخَلَ أَبُو
|
| 102 |
+
بَكْرٍ فَجَلَسَ عَنْ يَمِينِ رَسُولِ اللَّهِ - صلى الله عليه وسلم - مَعَهُ فِي
|
| 103 |
+
الْقُفِّ، وَدَلَّى رِجْلَيْهِ فِي الْبِئْرِ كَمَا صَنَعَ النَّبِيُّ - صلى الله
|
| 104 |
+
عليه وسلم - وَكَشَفَ عَنْ سَاقَيْهِ، ثُمَّ رَجَعْتُ فَجَلَسْتُ وَقَدْ تَرَكْتُ
|
| 105 |
+
أَخِي يَتَوَضَّأُ وَيَلْحَقُنِي، فَقُلْتُ: إِنْ يُرِدِ اللَّهُ بِفُلانٍ خَيْرًا
|
| 106 |
+
-يُرِيدُ أَخَاهُ- يَأْتِ بِهِ، فَإِذَا إِنْسَانٌ يُحَرِّكُ الْبَابَ، فَقُلْتُ:
|
| 107 |
+
مَنْ هَذَا؟ فَقَالَ: عُمَرُ بْنُ الْخَطَّابِ، فَقُلْتُ: عَلَى رِسْلِكَ، ثُمَّ
|
| 108 |
+
جِئْتُ إِلَى رَسُولِ اللَّهِ - صلى الله عليه وسلم - فَسَلَّمْتُ عَلَيْهِ، فَقُلْتُ:
|
| 109 |
+
هَذَا عُمَرُ بْنُ الْخَطَّابِ يَسْتَأْذِنُ، فَقَالَ: «ائْذَنْ لَهُ وَبَشِّرْهُ
|
| 110 |
+
بِالْجَنَّةِ». فَجِئْتُ فَقُلْتُ: ادْخُلْ وَبَشَّرَكَ رَسُولُ اللَّهِ - صلى الله
|
| 111 |
+
عليه وسلم - بِالْجَنَّةِ، فَدَخَلَ فَجَلَسَ مَعَ رَسُولِ اللَّهِ - صلى الله عليه
|
| 112 |
+
وسلم - فِي الْقُفِّ عَنْ يَسَارِهِ وَدَلَّى رِجْلَيْهِ فِي الْبِئْرِ، ثُمَّ رَجَعْتُ
|
| 113 |
+
فَجَلَسْتُ، فَقُلْتُ: إِنْ يُرِدِ اللَّهُ بِفُلانٍ خَيْرًا يَأْتِ بِهِ، فَجَاءَ
|
| 114 |
+
إِنْسَانٌ يُحَرِّكُ الْبَابَ، فَقُلْتُ: مَنْ هَذَا؟ فَقَالَ: عُثْمَانُ بْنُ عَفَّانَ،
|
| 115 |
+
فَقُلْتُ: عَلَى رِسْلِكَ، فَجِئْتُ إِلَى رَسُولِ اللَّهِ - صلى الله عليه وسلم
|
| 116 |
+
- فَأَخْبَرْتُهُ فَقَالَ: «ائْذَنْ لَهُ وَبَشِّرْهُ بِالْجَنَّةِ عَلَى بَلْوَى
|
| 117 |
+
تُصِيبُهُ». فَجِئْتُهُ فَقُلْتُ لَهُ: ادْخُلْ، وَبَشَّرَكَ رَسُولُ اللَّهِ - صلى
|
| 118 |
+
الله عليه وسلم - بِالْجَنَّةِ عَلَى بَلْوَى تُصِيبُكَ، فَدَخَلَ فَوَجَدَ الْقُفَّ
|
| 119 |
+
قَدْ مُلِئَ، فَجَلَسَ وِجَاهَهُ مِنَ الشَّقِّ الآخَرِ.'
|
| 120 |
+
- source_sentence: كم مدة عدّة المطلقة؟
|
| 121 |
+
sentences:
|
| 122 |
+
- وما كان لمؤمن أن يقتل مؤمنا إلا خطأ ومن قتل مؤمنا خطأ فتحرير رقبة مؤمنة ودية مسلمة
|
| 123 |
+
إلى أهله إلا أن يصدقوا فإن كان من قوم عدو لكم وهو مؤمن فتحرير رقبة مؤمنة وإن كان
|
| 124 |
+
من قوم بينكم وبينهم ميثاق فدية مسلمة إلى أهله وتحرير رقبة مؤمنة فمن لم يجد فصيام
|
| 125 |
+
شهرين متتابعين توبة من الله وكان الله عليما حكيما. ومن يقتل مؤمنا متعمدا فجزاؤه
|
| 126 |
+
جهنم خالدا فيها وغضب الله عليه ولعنه وأعد له عذابا عظيما.
|
| 127 |
+
- 'عَنْ أَبِي هُرَيْرَةَ - رضي الله عنه - قَالَ: كَانَ النَّبِيُّ - صلى الله عليه
|
| 128 |
+
وسلم - يَعْتَكِفُ فِي كُلِّ رَمَضَانٍ عَشْرَةَ أَيَّامٍ، فَلَمَّا كَانَ الْعَامُ
|
| 129 |
+
الَّذِي قُبِضَ فِيهِ اعْتَكَفَ عِشْرِينَ يَوْمًا.'
|
| 130 |
+
- 'عَنْ عَبْدِ الرَّحْمَنِ بْنِ أَبِي بَكْرٍ - رضي الله عنهما -: أَنَّ أَصْحَابَ
|
| 131 |
+
الصُّفَّةِ كَانُوا أُنَاسًا فُقَرَاءَ وَأَنَّ النَّبِيَّ - صلى الله عليه وسلم
|
| 132 |
+
- قَالَ: «مَنْ كَانَ عِنْدَهُ طَعَامُ اثنَيْنِ فَلْيَذْهَبْ بِثالِث، وَإِنْ أَرْبَعٌ
|
| 133 |
+
فَخَامِسٌ أَوْ سَادِسٌ». وَأَنَّ أَبَا بَكْرٍ جَاءَ بِثلاثةٍ، فَانْطَلَقَ النَّبِيُّ
|
| 134 |
+
- صلى الله عليه وسلم - بِعَشَرَةٍ، قَالَ: فَهُوَ أَنَا وَأَبِي وَأُمِّي، - فَلا
|
| 135 |
+
أَدْرِي قَالَ: وَامْرَأَتِي - وَخَادِمٌ بَيْنَنَا وَبَيْنَ بَيْتِ أَبِي بَكْرٍ،
|
| 136 |
+
وَإِنَّ أَبَا بَكْرٍ تَعَشَّى عِنْدَ النَّبِيِّ - صلى الله عليه وسلم -، ثمَّ لَبِثَ
|
| 137 |
+
حَيْثُ صُلِّيَتِ الْعِشَاءُ ثمَّ رَجَعَ، فَلَبِثَ حَتَّى تَعَشَّى النَّبِيُّ -
|
| 138 |
+
صلى الله عليه وسلم -، فَجَاءَ بَعْدَ مَا مَضَى مِنَ اللَّيْلِ مَا شَاءَ اللَّهُ،
|
| 139 |
+
قَالَتْ لَهُ امْرَأَتُهُ: وَمَا حَبَسَكَ عَنْ أَضْيَافِكَ؟ أَوْ قَالَتْ: ضَيْفِكَ،
|
| 140 |
+
قَالَ: أَوَمَا عَشَّيْتِيهِمْ؟ قَالَتْ: أَبَوْا حَتَّى تَجِيءَ، قَدْ عُرِضُوا
|
| 141 |
+
فَأَبَوْا، قَالَ: فَذَهَبْتُ أَنَا فَاخْتَبَأْتُ، فَقَالَ: يَا غُنْثرُ، فَجَدَّعَ
|
| 142 |
+
وَسَبَّ، وَقَالَ: كُلُوا لا هَنِيئًا، فَقَالَ: وَاللَّهِ لا أَطْعَمُهُ أَبَدًا،
|
| 143 |
+
وَايْمُ اللَّهِ، مَا كُنَّا نَأْخُذُ مِنْ لُقْمَةٍ إِلا رَبَا مِنْ أَسْفَلِهَا
|
| 144 |
+
أَكْثرُ مِنْهَا، قَالَ: يَعْنِي حَتَّى شَبِعُوا، وَصَارَتْ أَكْثرَ مِمَّا كَانَتْ
|
| 145 |
+
قَبْلَ ذَلِكَ، فَنَظَرَ إِلَيْهَا أَبُو بَكْرٍ، فَإِذَا هِيَ كَمَا هِيَ أَوْ أَكْثرُ
|
| 146 |
+
مِنْهَا، فَقَالَ لامْرَأَتِهِ: يَا أُخْتَ بَنِي فِرَاسٍ، مَا هَذَا؟ قَالَتْ: لا
|
| 147 |
+
وَقُرَّةِ عَيْنِي، لَهِيَ الآنَ أَكْثرُ مِنْهَا قَبْلَ ذَلِكَ، بِثلاث مَرَّاتٍ،
|
| 148 |
+
فَأَكَلَ مِنْهَا أَبُو بَكْرٍ وَقَالَ: إِنَّمَا كَانَ ذَلِكَ مِنَ الشَّيْطَانِ،
|
| 149 |
+
يَعْنِي يَمِينَهُ، ثمَّ أَكَلَ مِنْهَا لُقْمَةً، ثمَّ حَمَلَهَا إِلَى النَّبِيِّ
|
| 150 |
+
- صلى الله عليه وسلم - فَأَصْبَحَتْ عِنْدَهُ، وَكَانَ بَيْنَنَا وَبَيْنَ قَوْمٍ
|
| 151 |
+
عَقْدٌ، فَمَضَى الأَجَلُ، فَفَرَّقَنَا اثْنَيْ عَشَرَ رَجُلًا، مَعَ كُلِّ رَجُلٍ
|
| 152 |
+
مِنْهُمْ أُنَاسٌ، اللَّهُ أَعْلَمُ كَمْ مَعَ كُلِّ رَجُلٍ، فَأَكَلُوا مِنْهَا
|
| 153 |
+
أَجْمَعُونَ.'
|
| 154 |
+
pipeline_tag: sentence-similarity
|
| 155 |
+
library_name: sentence-transformers
|
| 156 |
+
---
|
| 157 |
+
|
| 158 |
+
# SentenceTransformer based on omarelshehy/Arabic-Retrieval-v1.0
|
| 159 |
+
|
| 160 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [omarelshehy/Arabic-Retrieval-v1.0](https://huggingface.co/omarelshehy/Arabic-Retrieval-v1.0). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
| 161 |
+
|
| 162 |
+
## Model Details
|
| 163 |
+
|
| 164 |
+
### Model Description
|
| 165 |
+
- **Model Type:** Sentence Transformer
|
| 166 |
+
- **Base model:** [omarelshehy/Arabic-Retrieval-v1.0](https://huggingface.co/omarelshehy/Arabic-Retrieval-v1.0) <!-- at revision 899f6e1b765915a72d5e4ace6bb2b221715550d8 -->
|
| 167 |
+
- **Maximum Sequence Length:** 512 tokens
|
| 168 |
+
- **Output Dimensionality:** 768 dimensions
|
| 169 |
+
- **Similarity Function:** Cosine Similarity
|
| 170 |
+
<!-- - **Training Dataset:** Unknown -->
|
| 171 |
+
<!-- - **Language:** Unknown -->
|
| 172 |
+
<!-- - **License:** Unknown -->
|
| 173 |
+
|
| 174 |
+
### Model Sources
|
| 175 |
+
|
| 176 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
| 177 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
| 178 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
| 179 |
+
|
| 180 |
+
### Full Model Architecture
|
| 181 |
+
|
| 182 |
+
```
|
| 183 |
+
SentenceTransformer(
|
| 184 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'BertModel'})
|
| 185 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
| 186 |
+
)
|
| 187 |
+
```
|
| 188 |
+
|
| 189 |
+
## Usage
|
| 190 |
+
|
| 191 |
+
### Direct Usage (Sentence Transformers)
|
| 192 |
+
|
| 193 |
+
First install the Sentence Transformers library:
|
| 194 |
+
|
| 195 |
+
```bash
|
| 196 |
+
pip install -U sentence-transformers
|
| 197 |
+
```
|
| 198 |
+
|
| 199 |
+
Then you can load this model and run inference.
|
| 200 |
+
```python
|
| 201 |
+
from sentence_transformers import SentenceTransformer
|
| 202 |
+
|
| 203 |
+
# Download from the 🤗 Hub
|
| 204 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
| 205 |
+
# Run inference
|
| 206 |
+
sentences = [
|
| 207 |
+
'كم مدة عدّة المطلقة؟',
|
| 208 |
+
'عَنْ أَبِي هُرَيْرَةَ - رضي الله عنه - قَالَ: كَانَ النَّبِيُّ - صلى الله عليه وسلم - يَعْتَكِفُ فِي كُلِّ رَمَضَانٍ عَشْرَةَ أَيَّامٍ، فَلَمَّا كَانَ الْعَامُ الَّذِي قُبِضَ فِيهِ اعْتَكَفَ عِشْرِينَ يَوْمًا.',
|
| 209 |
+
'وما كان لمؤمن أن يقتل مؤمنا إلا خطأ ومن قتل مؤمنا خطأ فتحرير رقبة مؤمنة ودية مسلمة إلى أهله إلا أن يصدقوا فإن كان من قوم عدو لكم وهو مؤمن فتحرير رقبة مؤمنة وإن كان من قوم بينكم وبينهم ميثاق فدية مسلمة إلى أهله وتحرير رقبة مؤمنة فمن لم يجد فصيام شهرين متتابعين توبة من الله وكان الله عليما حكيما. ومن يقتل مؤمنا متعمدا فجزاؤه جهنم خالدا فيها وغضب الله عليه ولعنه وأعد له عذابا عظيما.',
|
| 210 |
+
]
|
| 211 |
+
embeddings = model.encode(sentences)
|
| 212 |
+
print(embeddings.shape)
|
| 213 |
+
# [3, 768]
|
| 214 |
+
|
| 215 |
+
# Get the similarity scores for the embeddings
|
| 216 |
+
similarities = model.similarity(embeddings, embeddings)
|
| 217 |
+
print(similarities)
|
| 218 |
+
# tensor([[ 1.0000, -0.0183, 0.3614],
|
| 219 |
+
# [-0.0183, 1.0000, 0.1315],
|
| 220 |
+
# [ 0.3614, 0.1315, 1.0000]])
|
| 221 |
+
```
|
| 222 |
+
|
| 223 |
+
<!--
|
| 224 |
+
### Direct Usage (Transformers)
|
| 225 |
+
|
| 226 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
| 227 |
+
|
| 228 |
+
</details>
|
| 229 |
+
-->
|
| 230 |
+
|
| 231 |
+
<!--
|
| 232 |
+
### Downstream Usage (Sentence Transformers)
|
| 233 |
+
|
| 234 |
+
You can finetune this model on your own dataset.
|
| 235 |
+
|
| 236 |
+
<details><summary>Click to expand</summary>
|
| 237 |
+
|
| 238 |
+
</details>
|
| 239 |
+
-->
|
| 240 |
+
|
| 241 |
+
<!--
|
| 242 |
+
### Out-of-Scope Use
|
| 243 |
+
|
| 244 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
| 245 |
+
-->
|
| 246 |
+
|
| 247 |
+
<!--
|
| 248 |
+
## Bias, Risks and Limitations
|
| 249 |
+
|
| 250 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
| 251 |
+
-->
|
| 252 |
+
|
| 253 |
+
<!--
|
| 254 |
+
### Recommendations
|
| 255 |
+
|
| 256 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
| 257 |
+
-->
|
| 258 |
+
|
| 259 |
+
## Training Details
|
| 260 |
+
|
| 261 |
+
### Training Dataset
|
| 262 |
+
|
| 263 |
+
#### Unnamed Dataset
|
| 264 |
+
|
| 265 |
+
* Size: 5,232 training samples
|
| 266 |
+
* Columns: <code>text1</code>, <code>text2</code>, and <code>label</code>
|
| 267 |
+
* Approximate statistics based on the first 1000 samples:
|
| 268 |
+
| | text1 | text2 | label |
|
| 269 |
+
|:--------|:---------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:---------------------------------------------------------------|
|
| 270 |
+
| type | string | string | float |
|
| 271 |
+
| details | <ul><li>min: 6 tokens</li><li>mean: 8.83 tokens</li><li>max: 15 tokens</li></ul> | <ul><li>min: 13 tokens</li><li>mean: 121.5 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.15</li><li>max: 1.0</li></ul> |
|
| 272 |
+
* Samples:
|
| 273 |
+
| text1 | text2 | label |
|
| 274 |
+
|:-----------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
|
| 275 |
+
| <code>من هم قوم شعيب؟</code> | <code>وإلى مدين أخاهم شعيبا فقال يا قوم اعبدوا الله وارجوا اليوم الآخر ولا تعثوا في الأرض مفسدين. فكذبوه فأخذتهم الرجفة فأصبحوا في دارهم جاثمين.</code> | <code>1.0</code> |
|
| 276 |
+
| <code>من هم قوم شعيب؟</code> | <code>وإلى مدين أخاهم شعيبا قال يا قوم اعبدوا الله ما لكم من إله غيره قد جاءتكم بينة من ربكم فأوفوا الكيل والميزان ولا تبخسوا الناس أشياءهم ولا تفسدوا في الأرض بعد إصلاحها ذلكم خير لكم إن كنتم مؤمنين. ولا تقعدوا بكل صراط توعدون وتصدون عن سبيل الله من آمن به وتبغونها عوجا واذكروا إذ كنتم قليلا فكثركم وانظروا كيف كان عاقبة المفسدين. وإن كان طائفة منكم آمنوا بالذي أرسلت به وطائفة لم يؤمنوا فاصبروا حتى يحكم الله بيننا وهو خير الحاكمين. قال الملأ الذين استكبروا من قومه لنخرجنك يا شعيب والذين آمنوا معك من قريتنا أو لتعودن في ملتنا قال أولو كنا كارهين. قد افترينا على الله كذبا إن عدنا في ملتكم بعد إذ نجانا الله منها وما يكون لنا أن نعود فيها إلا أن يشاء الله ربنا وسع ربنا كل شيء علما على الله توكلنا ربنا افتح بيننا وبين قومنا بالحق وأنت خير الفاتحين. وقال الملأ الذين كفروا من قومه لئن اتبعتم شعيبا إنكم إذا لخاسرون. فأخذتهم الرجفة فأصبحوا في دارهم جاثمين. الذين كذبوا شعيبا كأن لم يغنوا فيها الذين كذبوا شعيبا كانوا هم الخاسرين. فتولى عنهم وقال يا قوم لقد أبلغتكم رسالات ربي ونصحت لكم فكيف آسى على قوم ...</code> | <code>1.0</code> |
|
| 277 |
+
| <code>من هم قوم شعيب؟</code> | <code>كذب أصحاب الأيكة المرسلين. إذ قال لهم شعيب ألا تتقون. إني لكم رسول أمين. فاتقوا الله وأطيعون. وما أسألكم عليه من أجر إن أجري إلا على رب العالمين. أوفوا الكيل ولا تكونوا من المخسرين. وزنوا بالقسطاس المستقيم. ولا تبخسوا الناس أشياءهم ولا تعثوا في الأرض مفسدين. واتقوا الذي خلقكم والجبلة الأولين. قالوا إنما أنت من المسحرين. وما أنت إلا بشر مثلنا وإن نظنك لمن الكاذبين. فأسقط علينا كسفا من السماء إن كنت من الصادقين. قال ربي أعلم بما تعملون. فكذبوه فأخذهم عذاب يوم الظلة إنه كان عذاب يوم عظيم. إن في ذلك لآية وما كان أكثرهم مؤمنين. وإن ربك لهو العزيز الرحيم.</code> | <code>1.0</code> |
|
| 278 |
+
* Loss: [<code>ContrastiveLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#contrastiveloss) with these parameters:
|
| 279 |
+
```json
|
| 280 |
+
{
|
| 281 |
+
"distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE",
|
| 282 |
+
"margin": 0.5,
|
| 283 |
+
"size_average": true
|
| 284 |
+
}
|
| 285 |
+
```
|
| 286 |
+
|
| 287 |
+
### Training Hyperparameters
|
| 288 |
+
#### Non-Default Hyperparameters
|
| 289 |
+
|
| 290 |
+
- `learning_rate`: 2e-05
|
| 291 |
+
- `warmup_steps`: 100
|
| 292 |
+
- `bf16`: True
|
| 293 |
+
|
| 294 |
+
#### All Hyperparameters
|
| 295 |
+
<details><summary>Click to expand</summary>
|
| 296 |
+
|
| 297 |
+
- `overwrite_output_dir`: False
|
| 298 |
+
- `do_predict`: False
|
| 299 |
+
- `eval_strategy`: no
|
| 300 |
+
- `prediction_loss_only`: True
|
| 301 |
+
- `per_device_train_batch_size`: 8
|
| 302 |
+
- `per_device_eval_batch_size`: 8
|
| 303 |
+
- `per_gpu_train_batch_size`: None
|
| 304 |
+
- `per_gpu_eval_batch_size`: None
|
| 305 |
+
- `gradient_accumulation_steps`: 1
|
| 306 |
+
- `eval_accumulation_steps`: None
|
| 307 |
+
- `torch_empty_cache_steps`: None
|
| 308 |
+
- `learning_rate`: 2e-05
|
| 309 |
+
- `weight_decay`: 0.0
|
| 310 |
+
- `adam_beta1`: 0.9
|
| 311 |
+
- `adam_beta2`: 0.999
|
| 312 |
+
- `adam_epsilon`: 1e-08
|
| 313 |
+
- `max_grad_norm`: 1.0
|
| 314 |
+
- `num_train_epochs`: 3
|
| 315 |
+
- `max_steps`: -1
|
| 316 |
+
- `lr_scheduler_type`: linear
|
| 317 |
+
- `lr_scheduler_kwargs`: {}
|
| 318 |
+
- `warmup_ratio`: 0.0
|
| 319 |
+
- `warmup_steps`: 100
|
| 320 |
+
- `log_level`: passive
|
| 321 |
+
- `log_level_replica`: warning
|
| 322 |
+
- `log_on_each_node`: True
|
| 323 |
+
- `logging_nan_inf_filter`: True
|
| 324 |
+
- `save_safetensors`: True
|
| 325 |
+
- `save_on_each_node`: False
|
| 326 |
+
- `save_only_model`: False
|
| 327 |
+
- `restore_callback_states_from_checkpoint`: False
|
| 328 |
+
- `no_cuda`: False
|
| 329 |
+
- `use_cpu`: False
|
| 330 |
+
- `use_mps_device`: False
|
| 331 |
+
- `seed`: 42
|
| 332 |
+
- `data_seed`: None
|
| 333 |
+
- `jit_mode_eval`: False
|
| 334 |
+
- `use_ipex`: False
|
| 335 |
+
- `bf16`: True
|
| 336 |
+
- `fp16`: False
|
| 337 |
+
- `fp16_opt_level`: O1
|
| 338 |
+
- `half_precision_backend`: auto
|
| 339 |
+
- `bf16_full_eval`: False
|
| 340 |
+
- `fp16_full_eval`: False
|
| 341 |
+
- `tf32`: None
|
| 342 |
+
- `local_rank`: 0
|
| 343 |
+
- `ddp_backend`: None
|
| 344 |
+
- `tpu_num_cores`: None
|
| 345 |
+
- `tpu_metrics_debug`: False
|
| 346 |
+
- `debug`: []
|
| 347 |
+
- `dataloader_drop_last`: False
|
| 348 |
+
- `dataloader_num_workers`: 0
|
| 349 |
+
- `dataloader_prefetch_factor`: None
|
| 350 |
+
- `past_index`: -1
|
| 351 |
+
- `disable_tqdm`: False
|
| 352 |
+
- `remove_unused_columns`: True
|
| 353 |
+
- `label_names`: None
|
| 354 |
+
- `load_best_model_at_end`: False
|
| 355 |
+
- `ignore_data_skip`: False
|
| 356 |
+
- `fsdp`: []
|
| 357 |
+
- `fsdp_min_num_params`: 0
|
| 358 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
| 359 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
| 360 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
| 361 |
+
- `deepspeed`: None
|
| 362 |
+
- `label_smoothing_factor`: 0.0
|
| 363 |
+
- `optim`: adamw_torch
|
| 364 |
+
- `optim_args`: None
|
| 365 |
+
- `adafactor`: False
|
| 366 |
+
- `group_by_length`: False
|
| 367 |
+
- `length_column_name`: length
|
| 368 |
+
- `ddp_find_unused_parameters`: None
|
| 369 |
+
- `ddp_bucket_cap_mb`: None
|
| 370 |
+
- `ddp_broadcast_buffers`: False
|
| 371 |
+
- `dataloader_pin_memory`: True
|
| 372 |
+
- `dataloader_persistent_workers`: False
|
| 373 |
+
- `skip_memory_metrics`: True
|
| 374 |
+
- `use_legacy_prediction_loop`: False
|
| 375 |
+
- `push_to_hub`: False
|
| 376 |
+
- `resume_from_checkpoint`: None
|
| 377 |
+
- `hub_model_id`: None
|
| 378 |
+
- `hub_strategy`: every_save
|
| 379 |
+
- `hub_private_repo`: None
|
| 380 |
+
- `hub_always_push`: False
|
| 381 |
+
- `hub_revision`: None
|
| 382 |
+
- `gradient_checkpointing`: False
|
| 383 |
+
- `gradient_checkpointing_kwargs`: None
|
| 384 |
+
- `include_inputs_for_metrics`: False
|
| 385 |
+
- `include_for_metrics`: []
|
| 386 |
+
- `eval_do_concat_batches`: True
|
| 387 |
+
- `fp16_backend`: auto
|
| 388 |
+
- `push_to_hub_model_id`: None
|
| 389 |
+
- `push_to_hub_organization`: None
|
| 390 |
+
- `mp_parameters`:
|
| 391 |
+
- `auto_find_batch_size`: False
|
| 392 |
+
- `full_determinism`: False
|
| 393 |
+
- `torchdynamo`: None
|
| 394 |
+
- `ray_scope`: last
|
| 395 |
+
- `ddp_timeout`: 1800
|
| 396 |
+
- `torch_compile`: False
|
| 397 |
+
- `torch_compile_backend`: None
|
| 398 |
+
- `torch_compile_mode`: None
|
| 399 |
+
- `include_tokens_per_second`: False
|
| 400 |
+
- `include_num_input_tokens_seen`: False
|
| 401 |
+
- `neftune_noise_alpha`: None
|
| 402 |
+
- `optim_target_modules`: None
|
| 403 |
+
- `batch_eval_metrics`: False
|
| 404 |
+
- `eval_on_start`: False
|
| 405 |
+
- `use_liger_kernel`: False
|
| 406 |
+
- `liger_kernel_config`: None
|
| 407 |
+
- `eval_use_gather_object`: False
|
| 408 |
+
- `average_tokens_across_devices`: False
|
| 409 |
+
- `prompts`: None
|
| 410 |
+
- `batch_sampler`: batch_sampler
|
| 411 |
+
- `multi_dataset_batch_sampler`: proportional
|
| 412 |
+
- `router_mapping`: {}
|
| 413 |
+
- `learning_rate_mapping`: {}
|
| 414 |
+
|
| 415 |
+
</details>
|
| 416 |
+
|
| 417 |
+
### Training Logs
|
| 418 |
+
| Epoch | Step | Training Loss |
|
| 419 |
+
|:------:|:----:|:-------------:|
|
| 420 |
+
| 0.3058 | 200 | 0.0195 |
|
| 421 |
+
| 0.6116 | 400 | 0.0132 |
|
| 422 |
+
| 0.9174 | 600 | 0.0111 |
|
| 423 |
+
| 1.2232 | 800 | 0.0099 |
|
| 424 |
+
| 1.5291 | 1000 | 0.0086 |
|
| 425 |
+
| 1.8349 | 1200 | 0.0072 |
|
| 426 |
+
|
| 427 |
+
|
| 428 |
+
### Framework Versions
|
| 429 |
+
- Python: 3.10.10
|
| 430 |
+
- Sentence Transformers: 5.0.0
|
| 431 |
+
- Transformers: 4.53.2
|
| 432 |
+
- PyTorch: 2.7.0+cu128
|
| 433 |
+
- Accelerate: 1.9.0
|
| 434 |
+
- Datasets: 4.0.0
|
| 435 |
+
- Tokenizers: 0.21.2
|
| 436 |
+
|
| 437 |
+
## Citation
|
| 438 |
+
|
| 439 |
+
### BibTeX
|
| 440 |
+
|
| 441 |
+
#### Sentence Transformers
|
| 442 |
+
```bibtex
|
| 443 |
+
@inproceedings{reimers-2019-sentence-bert,
|
| 444 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
| 445 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
| 446 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
| 447 |
+
month = "11",
|
| 448 |
+
year = "2019",
|
| 449 |
+
publisher = "Association for Computational Linguistics",
|
| 450 |
+
url = "https://arxiv.org/abs/1908.10084",
|
| 451 |
+
}
|
| 452 |
+
```
|
| 453 |
+
|
| 454 |
+
#### ContrastiveLoss
|
| 455 |
+
```bibtex
|
| 456 |
+
@inproceedings{hadsell2006dimensionality,
|
| 457 |
+
author={Hadsell, R. and Chopra, S. and LeCun, Y.},
|
| 458 |
+
booktitle={2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06)},
|
| 459 |
+
title={Dimensionality Reduction by Learning an Invariant Mapping},
|
| 460 |
+
year={2006},
|
| 461 |
+
volume={2},
|
| 462 |
+
number={},
|
| 463 |
+
pages={1735-1742},
|
| 464 |
+
doi={10.1109/CVPR.2006.100}
|
| 465 |
+
}
|
| 466 |
+
```
|
| 467 |
+
|
| 468 |
+
<!--
|
| 469 |
+
## Glossary
|
| 470 |
+
|
| 471 |
+
*Clearly define terms in order to be accessible across audiences.*
|
| 472 |
+
-->
|
| 473 |
+
|
| 474 |
+
<!--
|
| 475 |
+
## Model Card Authors
|
| 476 |
+
|
| 477 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
| 478 |
+
-->
|
| 479 |
+
|
| 480 |
+
<!--
|
| 481 |
+
## Model Card Contact
|
| 482 |
+
|
| 483 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
| 484 |
+
-->
|
added_tokens.json
ADDED
|
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"<passage>": 64001,
|
| 3 |
+
"<query>": 64000
|
| 4 |
+
}
|
config.json
ADDED
|
@@ -0,0 +1,24 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"architectures": [
|
| 3 |
+
"BertModel"
|
| 4 |
+
],
|
| 5 |
+
"attention_probs_dropout_prob": 0.1,
|
| 6 |
+
"classifier_dropout": null,
|
| 7 |
+
"hidden_act": "gelu",
|
| 8 |
+
"hidden_dropout_prob": 0.1,
|
| 9 |
+
"hidden_size": 768,
|
| 10 |
+
"initializer_range": 0.02,
|
| 11 |
+
"intermediate_size": 3072,
|
| 12 |
+
"layer_norm_eps": 1e-12,
|
| 13 |
+
"max_position_embeddings": 512,
|
| 14 |
+
"model_type": "bert",
|
| 15 |
+
"num_attention_heads": 12,
|
| 16 |
+
"num_hidden_layers": 12,
|
| 17 |
+
"pad_token_id": 0,
|
| 18 |
+
"position_embedding_type": "absolute",
|
| 19 |
+
"torch_dtype": "float32",
|
| 20 |
+
"transformers_version": "4.53.2",
|
| 21 |
+
"type_vocab_size": 2,
|
| 22 |
+
"use_cache": true,
|
| 23 |
+
"vocab_size": 64002
|
| 24 |
+
}
|
config_sentence_transformers.json
ADDED
|
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"__version__": {
|
| 3 |
+
"sentence_transformers": "5.0.0",
|
| 4 |
+
"transformers": "4.53.2",
|
| 5 |
+
"pytorch": "2.7.0+cu128"
|
| 6 |
+
},
|
| 7 |
+
"prompts": {
|
| 8 |
+
"query": "",
|
| 9 |
+
"document": ""
|
| 10 |
+
},
|
| 11 |
+
"default_prompt_name": null,
|
| 12 |
+
"similarity_fn_name": "cosine",
|
| 13 |
+
"model_type": "SentenceTransformer"
|
| 14 |
+
}
|
model.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:cb2fc06b7e458f6151e23e4aa29121033e43abff9f48c83ffc6a096f01ecb3b1
|
| 3 |
+
size 540801896
|
modules.json
ADDED
|
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
[
|
| 2 |
+
{
|
| 3 |
+
"idx": 0,
|
| 4 |
+
"name": "0",
|
| 5 |
+
"path": "",
|
| 6 |
+
"type": "sentence_transformers.models.Transformer"
|
| 7 |
+
},
|
| 8 |
+
{
|
| 9 |
+
"idx": 1,
|
| 10 |
+
"name": "1",
|
| 11 |
+
"path": "1_Pooling",
|
| 12 |
+
"type": "sentence_transformers.models.Pooling"
|
| 13 |
+
}
|
| 14 |
+
]
|
optimizer.pt
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:88a3f47faaf6941490cbe8bcb9e9b45231ea22cf432566ebab624c292520257c
|
| 3 |
+
size 1076999563
|
rng_state.pth
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:4f6d5c362ffc2b0e64b4a851b663cff9b81d59c8e4b552f550d49bc8561f0d46
|
| 3 |
+
size 14645
|
scheduler.pt
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:c6a75e46443aab5794c4becf4559bc0ea3a1ac63f8c63ef8c23d57ef658b7fac
|
| 3 |
+
size 1465
|
sentence_bert_config.json
ADDED
|
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"max_seq_length": 512,
|
| 3 |
+
"do_lower_case": false
|
| 4 |
+
}
|
special_tokens_map.json
ADDED
|
@@ -0,0 +1,37 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"cls_token": {
|
| 3 |
+
"content": "[CLS]",
|
| 4 |
+
"lstrip": false,
|
| 5 |
+
"normalized": false,
|
| 6 |
+
"rstrip": false,
|
| 7 |
+
"single_word": false
|
| 8 |
+
},
|
| 9 |
+
"mask_token": {
|
| 10 |
+
"content": "[MASK]",
|
| 11 |
+
"lstrip": false,
|
| 12 |
+
"normalized": false,
|
| 13 |
+
"rstrip": false,
|
| 14 |
+
"single_word": false
|
| 15 |
+
},
|
| 16 |
+
"pad_token": {
|
| 17 |
+
"content": "[PAD]",
|
| 18 |
+
"lstrip": false,
|
| 19 |
+
"normalized": false,
|
| 20 |
+
"rstrip": false,
|
| 21 |
+
"single_word": false
|
| 22 |
+
},
|
| 23 |
+
"sep_token": {
|
| 24 |
+
"content": "[SEP]",
|
| 25 |
+
"lstrip": false,
|
| 26 |
+
"normalized": false,
|
| 27 |
+
"rstrip": false,
|
| 28 |
+
"single_word": false
|
| 29 |
+
},
|
| 30 |
+
"unk_token": {
|
| 31 |
+
"content": "[UNK]",
|
| 32 |
+
"lstrip": false,
|
| 33 |
+
"normalized": false,
|
| 34 |
+
"rstrip": false,
|
| 35 |
+
"single_word": false
|
| 36 |
+
}
|
| 37 |
+
}
|
tokenizer.json
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|
tokenizer_config.json
ADDED
|
@@ -0,0 +1,110 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"added_tokens_decoder": {
|
| 3 |
+
"0": {
|
| 4 |
+
"content": "[PAD]",
|
| 5 |
+
"lstrip": false,
|
| 6 |
+
"normalized": false,
|
| 7 |
+
"rstrip": false,
|
| 8 |
+
"single_word": false,
|
| 9 |
+
"special": true
|
| 10 |
+
},
|
| 11 |
+
"1": {
|
| 12 |
+
"content": "[UNK]",
|
| 13 |
+
"lstrip": false,
|
| 14 |
+
"normalized": false,
|
| 15 |
+
"rstrip": false,
|
| 16 |
+
"single_word": false,
|
| 17 |
+
"special": true
|
| 18 |
+
},
|
| 19 |
+
"2": {
|
| 20 |
+
"content": "[CLS]",
|
| 21 |
+
"lstrip": false,
|
| 22 |
+
"normalized": false,
|
| 23 |
+
"rstrip": false,
|
| 24 |
+
"single_word": false,
|
| 25 |
+
"special": true
|
| 26 |
+
},
|
| 27 |
+
"3": {
|
| 28 |
+
"content": "[SEP]",
|
| 29 |
+
"lstrip": false,
|
| 30 |
+
"normalized": false,
|
| 31 |
+
"rstrip": false,
|
| 32 |
+
"single_word": false,
|
| 33 |
+
"special": true
|
| 34 |
+
},
|
| 35 |
+
"4": {
|
| 36 |
+
"content": "[MASK]",
|
| 37 |
+
"lstrip": false,
|
| 38 |
+
"normalized": false,
|
| 39 |
+
"rstrip": false,
|
| 40 |
+
"single_word": false,
|
| 41 |
+
"special": true
|
| 42 |
+
},
|
| 43 |
+
"5": {
|
| 44 |
+
"content": "[رابط]",
|
| 45 |
+
"lstrip": false,
|
| 46 |
+
"normalized": true,
|
| 47 |
+
"rstrip": false,
|
| 48 |
+
"single_word": true,
|
| 49 |
+
"special": true
|
| 50 |
+
},
|
| 51 |
+
"6": {
|
| 52 |
+
"content": "[بريد]",
|
| 53 |
+
"lstrip": false,
|
| 54 |
+
"normalized": true,
|
| 55 |
+
"rstrip": false,
|
| 56 |
+
"single_word": true,
|
| 57 |
+
"special": true
|
| 58 |
+
},
|
| 59 |
+
"7": {
|
| 60 |
+
"content": "[مستخدم]",
|
| 61 |
+
"lstrip": false,
|
| 62 |
+
"normalized": true,
|
| 63 |
+
"rstrip": false,
|
| 64 |
+
"single_word": true,
|
| 65 |
+
"special": true
|
| 66 |
+
},
|
| 67 |
+
"64000": {
|
| 68 |
+
"content": "<query>",
|
| 69 |
+
"lstrip": false,
|
| 70 |
+
"normalized": false,
|
| 71 |
+
"rstrip": false,
|
| 72 |
+
"single_word": false,
|
| 73 |
+
"special": true
|
| 74 |
+
},
|
| 75 |
+
"64001": {
|
| 76 |
+
"content": "<passage>",
|
| 77 |
+
"lstrip": false,
|
| 78 |
+
"normalized": false,
|
| 79 |
+
"rstrip": false,
|
| 80 |
+
"single_word": false,
|
| 81 |
+
"special": true
|
| 82 |
+
}
|
| 83 |
+
},
|
| 84 |
+
"clean_up_tokenization_spaces": false,
|
| 85 |
+
"cls_token": "[CLS]",
|
| 86 |
+
"do_basic_tokenize": true,
|
| 87 |
+
"do_lower_case": false,
|
| 88 |
+
"extra_special_tokens": {},
|
| 89 |
+
"mask_token": "[MASK]",
|
| 90 |
+
"max_len": 512,
|
| 91 |
+
"max_length": 256,
|
| 92 |
+
"model_max_length": 512,
|
| 93 |
+
"never_split": [
|
| 94 |
+
"[بريد]",
|
| 95 |
+
"[مستخدم]",
|
| 96 |
+
"[رابط]"
|
| 97 |
+
],
|
| 98 |
+
"pad_to_multiple_of": null,
|
| 99 |
+
"pad_token": "[PAD]",
|
| 100 |
+
"pad_token_type_id": 0,
|
| 101 |
+
"padding_side": "right",
|
| 102 |
+
"sep_token": "[SEP]",
|
| 103 |
+
"stride": 0,
|
| 104 |
+
"strip_accents": null,
|
| 105 |
+
"tokenize_chinese_chars": true,
|
| 106 |
+
"tokenizer_class": "BertTokenizer",
|
| 107 |
+
"truncation_side": "right",
|
| 108 |
+
"truncation_strategy": "longest_first",
|
| 109 |
+
"unk_token": "[UNK]"
|
| 110 |
+
}
|
trainer_state.json
ADDED
|
@@ -0,0 +1,76 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"best_global_step": null,
|
| 3 |
+
"best_metric": null,
|
| 4 |
+
"best_model_checkpoint": null,
|
| 5 |
+
"epoch": 2.0,
|
| 6 |
+
"eval_steps": 500,
|
| 7 |
+
"global_step": 1308,
|
| 8 |
+
"is_hyper_param_search": false,
|
| 9 |
+
"is_local_process_zero": true,
|
| 10 |
+
"is_world_process_zero": true,
|
| 11 |
+
"log_history": [
|
| 12 |
+
{
|
| 13 |
+
"epoch": 0.3058103975535168,
|
| 14 |
+
"grad_norm": 0.2780028283596039,
|
| 15 |
+
"learning_rate": 1.8936627282491947e-05,
|
| 16 |
+
"loss": 0.0195,
|
| 17 |
+
"step": 200
|
| 18 |
+
},
|
| 19 |
+
{
|
| 20 |
+
"epoch": 0.6116207951070336,
|
| 21 |
+
"grad_norm": 0.22156599164009094,
|
| 22 |
+
"learning_rate": 1.678839957035446e-05,
|
| 23 |
+
"loss": 0.0132,
|
| 24 |
+
"step": 400
|
| 25 |
+
},
|
| 26 |
+
{
|
| 27 |
+
"epoch": 0.9174311926605505,
|
| 28 |
+
"grad_norm": 0.09372077137231827,
|
| 29 |
+
"learning_rate": 1.4640171858216972e-05,
|
| 30 |
+
"loss": 0.0111,
|
| 31 |
+
"step": 600
|
| 32 |
+
},
|
| 33 |
+
{
|
| 34 |
+
"epoch": 1.2232415902140672,
|
| 35 |
+
"grad_norm": 0.1351478546857834,
|
| 36 |
+
"learning_rate": 1.2491944146079485e-05,
|
| 37 |
+
"loss": 0.0099,
|
| 38 |
+
"step": 800
|
| 39 |
+
},
|
| 40 |
+
{
|
| 41 |
+
"epoch": 1.529051987767584,
|
| 42 |
+
"grad_norm": 0.23781578242778778,
|
| 43 |
+
"learning_rate": 1.0343716433942e-05,
|
| 44 |
+
"loss": 0.0086,
|
| 45 |
+
"step": 1000
|
| 46 |
+
},
|
| 47 |
+
{
|
| 48 |
+
"epoch": 1.834862385321101,
|
| 49 |
+
"grad_norm": 0.2146996110677719,
|
| 50 |
+
"learning_rate": 8.195488721804512e-06,
|
| 51 |
+
"loss": 0.0072,
|
| 52 |
+
"step": 1200
|
| 53 |
+
}
|
| 54 |
+
],
|
| 55 |
+
"logging_steps": 200,
|
| 56 |
+
"max_steps": 1962,
|
| 57 |
+
"num_input_tokens_seen": 0,
|
| 58 |
+
"num_train_epochs": 3,
|
| 59 |
+
"save_steps": 500,
|
| 60 |
+
"stateful_callbacks": {
|
| 61 |
+
"TrainerControl": {
|
| 62 |
+
"args": {
|
| 63 |
+
"should_epoch_stop": false,
|
| 64 |
+
"should_evaluate": false,
|
| 65 |
+
"should_log": false,
|
| 66 |
+
"should_save": true,
|
| 67 |
+
"should_training_stop": false
|
| 68 |
+
},
|
| 69 |
+
"attributes": {}
|
| 70 |
+
}
|
| 71 |
+
},
|
| 72 |
+
"total_flos": 0.0,
|
| 73 |
+
"train_batch_size": 8,
|
| 74 |
+
"trial_name": null,
|
| 75 |
+
"trial_params": null
|
| 76 |
+
}
|
training_args.bin
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:7ecf3c3abffaaa474db308d5bd1453c20efc0d157a6e04f9f759e9d0e8282903
|
| 3 |
+
size 6033
|
vocab.txt
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|