SeragAmin commited on
Commit
4c3a625
·
verified ·
1 Parent(s): 14795ab

Upload folder using huggingface_hub

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,484 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - dense
7
+ - generated_from_trainer
8
+ - dataset_size:5232
9
+ - loss:ContrastiveLoss
10
+ base_model: omarelshehy/Arabic-Retrieval-v1.0
11
+ widget:
12
+ - source_sentence: من هو اخو سيدنا موسى؟
13
+ sentences:
14
+ - وإذ قال موسى لفتاه لا أبرح حتى أبلغ مجمع البحرين أو أمضي حقبا. فلما بلغا مجمع
15
+ بينهما نسيا حوتهما فاتخذ سبيله في البحر سربا. فلما جاوزا قال لفتاه آتنا غداءنا
16
+ لقد لقينا من سفرنا هذا نصبا. قال أرأيت إذ أوينا إلى الصخرة فإني نسيت الحوت وما
17
+ أنسانيه إلا الشيطان أن أذكره واتخذ سبيله في البحر عجبا. قال ذلك ما كنا نبغ فارتدا
18
+ على آثارهما قصصا. فوجدا عبدا من عبادنا آتيناه رحمة من عندنا وعلمناه من لدنا علما.
19
+ قال له موسى هل أتبعك على أن تعلمن مما علمت رشدا. قال إنك لن تستطيع معي صبرا. وكيف
20
+ تصبر على ما لم تحط به خبرا. قال ستجدني إن شاء الله صابرا ولا أعصي لك أمرا. قال
21
+ فإن اتبعتني فلا تسألني عن شيء حتى أحدث لك منه ذكرا. فانطلقا حتى إذا ركبا في السفينة
22
+ خرقها قال أخرقتها لتغرق أهلها لقد جئت شيئا إمرا. قال ألم أقل إنك لن تستطيع معي
23
+ صبرا. قال لا تؤاخذني بما نسيت ولا ترهقني من أمري عسرا. فانطلقا حتى إذا لقيا غلاما
24
+ فقتله قال أقتلت نفسا زكية بغير نفس لقد جئت شيئا نكرا. قال ألم أقل لك إنك لن تستطيع
25
+ معي صبرا. قال إن سألتك عن شيء بعدها فلا تصاحبني قد بلغت من لدني عذرا. فانطلقا
26
+ حتى إذا أتيا أهل قرية استطعما أهلها فأبوا أن يضيفوهما فوجدا فيها جدارا يريد أن
27
+ ينقض فأقامه قال لو شئت لاتخذت عليه أجرا.
28
+ - وعد الله الذين آمنوا وعملوا الصالحات لهم مغفرة وأجر عظيم. والذين كفروا وكذبوا
29
+ بآياتنا أولئك أصحاب الجحيم.
30
+ - 'عَنِ ابْنِ عَبَّاسٍ - رضي الله عنهما - قَالَ: قَدِمَ رَسُولُ اللَّهِ - صلى الله
31
+ عليه وسلم - وَأَصْحَابُه، فَقَالَ الْمُشْرِكُونَ: إِنَّهُ يَقْدَمُ عَلَيْكُمْ
32
+ وَقَدْ وَهَنَهُمْ حُمَّى يَثْرِبَ، فَأَمَرَهُمُ النَّبِيُّ - صلى الله عليه وسلم
33
+ - أَنْ يَرْمُلُوا الأَشْوَاطَ الثَّلاثَةَ وَأَنْ يَمْشُوا مَا بَيْنَ الرُّكْنَيْنِ،
34
+ وَلَمْ يَمْنَعْهُ أَنْ يَأْمُرَهُمْ أَنْ يَرْمُلُوا الأَشْوَاطَ كُلَّهَا إِلَّا
35
+ الإِبْقَاءُ عَلَيْهِمْ.'
36
+ - source_sentence: من هو النبي الذى دخل السجن؟
37
+ sentences:
38
+ - وأصحاب الشمال ما أصحاب الشمال. في سموم وحميم. وظل من يحموم. لا بارد ولا كريم.
39
+ إنهم كانوا قبل ذلك مترفين. وكانوا يصرون على الحنث العظيم. وكانوا يقولون أئذا متنا
40
+ وكنا ترابا وعظاما أإنا لمبعوثون. أوآباؤنا الأولون. قل إن الأولين والآخرين. لمجموعون
41
+ إلى ميقات يوم معلوم. ثم إنكم أيها الضالون المكذبون. لآكلون من شجر من زقوم. فمالئون
42
+ منها البطون. فشاربون عليه من الحميم. فشاربون شرب الهيم. هذا نزلهم يوم الدين.
43
+ - 'عَنْ أَبِي هُرَيْرَةَ - رضي الله عنه -: أَنَّ النَّبِيَّ - صلى الله عليه وسلم
44
+ - لَقِيَهُ فِي بَعْضِ طَرِيقِ الْمَدِينَةِ وَهُوَ جُنُبٌ، قال: فَانْخَنَسْتُ مِنْهُ
45
+ فَذَهَبتُ فَاغْتَسَلْتُ ثُمَّ جِئتُ، فَقَالَ: «أَيْنَ كُنْتَ يَا أَبَا هُرَيْرَةَ»؟
46
+ قَالَ: كُنْتُ جُنُبًا فَكَرِهْتُ أَنْ أُجَالِسَكَ وَأَنَا عَلَى غَيْرِ طَهَارَةٍ،
47
+ فَقَالَ: «سُبْحَانَ اللَّهِ إِنَّ الْمُسْلِمَ لا يَنْجُسُ».'
48
+ - إن الذين لا يرجون لقاءنا ورضوا بالحياة الدنيا واطمأنوا بها والذين هم عن آياتنا
49
+ غافلون. أولئك مأواهم النار بما كانوا يكسبون. إن الذين آمنوا وعملوا الصالحات يهديهم
50
+ ربهم بإيمانهم تجري من تحتهم الأنهار في جنات النعيم. دعواهم فيها سبحانك اللهم وتحيتهم
51
+ فيها سلام وآخر دعواهم أن الحمد لله رب العالمين.
52
+ - source_sentence: ما هي عقوبة السارق في الدنيا؟
53
+ sentences:
54
+ - والسارق والسارقة فاقطعوا أيديهما جزاء بما كسبا نكالا من الله والله عزيز حكيم.
55
+ فمن تاب من بعد ظلمه وأصلح فإن الله يتوب عليه إن الله غفور رحيم. ألم تعلم أن الله
56
+ له ملك السماوات والأرض يعذب من يشاء ويغفر لمن يشاء والله على كل شيء قدير.
57
+ - 'عَنْ أَبِي هُرَيْرَةَ - رضي الله عنه - أَنَّ رَسُولَ اللَّهِ - صلى الله عليه
58
+ وسلم - قَالَ: «مَنِ اغْتَسَلَ يَوْمَ الْجُمُعَةِ غُسْلَ الْجَنَابَةِ ثُمَّ رَاحَ
59
+ فَكَأَنَّمَا قَرَّبَ بَدَنَةً، وَمَنْ رَاحَ فِي السَّاعَةِ الثَّانِيَةِ فَكَأَنَّمَا
60
+ قَرَّبَ بَقَرَةً، وَمَنْ رَاحَ فِي السَّاعَةِ الثَّالِثَةِ فَكَأَنَّمَا قَرَّبَ
61
+ كَبْشًا أَقْرَنَ، وَمَنْ رَاحَ فِي السَّاعَةِ الرَّابِعَةِ فَكَأَنَّمَا قَرَّبَ
62
+ دَجَاجَةً، وَمَنْ رَاحَ فِي السَّاعَةِ الْخَامِسَةِ فَكَأَنَّمَا قَرَّبَ بَيْضَةً،
63
+ فَإِذَا خَرَجَ الإِمَامُ حَضَرَتِ الْمَلائِكَةُ يَسْتَمِعُونَ الذِّكْرَ».'
64
+ - 'عَنِ الْمِقْدَادِ بْنِ الأَسْوَدِ الْكِندِيِّ - رضي الله عنه - حَلِيف بَنِي زُهْرَةَ
65
+ وَكَانَ مِمَّنْ شَهِدَ بَدْرًا مَعَ رَسُولِ اللَّهِ - صلى الله عليه وسلم - أَخْبَرَهُ
66
+ أَنَّهُ قَالَ لِرَسُولِ اللَّهِ - صلى الله عليه وسلم -: أَرَأَيْتَ إِنْ لَقِيتُ
67
+ رَجُلًا مِنَ الْكُفَّارِ فَاقْتَتَلْنَا فَضَرَبَ إِحْدَى يَدَيَّ بِالسَّيْفِ فَقَطَعَهَا
68
+ ثُمَّ لاذَ مِنِّي بِشَجَرَةٍ فَقَالَ: أَسْلَمْتُ لِلَّهِ، أَأَقْتُلُهُ يَا رَسُولَ
69
+ اللَّهِ بَعْدَ أَنْ قَالَهَا؟ فَقَالَ رَسُولُ اللَّهِ - صلى الله عليه وسلم -:
70
+ «لا تَقْتُلْهُ». فَقَالَ: يَا رَسُولَ اللَّهِ إِنَّهُ قَطَعَ إِحْدَى يَدَيَّ ثُمَّ
71
+ قَالَ ذَلِكَ بَعْدَ مَا قَطَعَهَا، فَقَالَ رَسُولُ اللَّهِ - صلى الله عليه وسلم
72
+ -: «لا تَقْتُلْهُ، فَإِنْ قَتَلْتَهُ فَإِنَّهُ بِمَنْزِلَتِكَ قَبْلَ أَنْ تَقْتُلَهُ،
73
+ وَإِنَّكَ بِمَنْزِلَتِهِ قَبْلَ أَنْ يَقُولَ كَلِمَتَهُ الَّتِي قَالَ».'
74
+ - source_sentence: من هو النبي الذي علمه الله لغة الطير والحيوان؟
75
+ sentences:
76
+ - 'عَنْ عَائِشَةَ - رضي الله عنها - تَقُولُ: سَمِعَ رَسُولُ اللَّهِ - صلى الله عليه
77
+ وسلم - صَوْتَ خُصُومٍ بِالْبَابِ عَالِيَةٍ أَصْوَاتُهُمَا، وَإِذَا أَحَدُهُمَا
78
+ يَسْتَوْضِعُ الآخَرَ وَيَسْتَرْفِقُهُ فِي شَيْءٍ وَهُوَ يَقُولُ: وَاللَّهِ لا
79
+ أَفْعَلُ، فَخَرَجَ عَلَيْهِمَا رَسُولُ اللَّهِ - صلى الله عليه وسلم - فَقَالَ:
80
+ «أَيْنَ الْمُتَأَلِّي عَلَى اللَّهِ لا يَفْعَلُ الْمَعْرُوفَ»؟ فَقَالَ: أَنَا
81
+ يَا رَسُولَ اللَّهِ، وَلَهُ أَيُّ ذَلِكَ أَحَبَّ.'
82
+ - 'عَنْ أُسَامَةَ - رضي الله عنه - قال: سَمِعْتُ رَسُولَ اللَّهِ - صلى الله عليه
83
+ وسلم - يَقُولُ: «يُجَاءُ بِالرَّجُلِ يَوْمَ الْقِيَامَةِ فَيُلْقَى فِي النَّارِ،
84
+ فَتَنْدَلِقُ أَقْتَابُهُ فِي النَّارِ فَيَدُورُ كَمَا يَدُورُ الْحِمَارُ بِرَحَاهُ،
85
+ فَيَجْتَمِعُ أَهْلُ النَّارِ عَلَيْهِ فَيَقُولُونَ: أَيْ فُلانُ، مَا شَأْنُكَ
86
+ أَلَيْسَ ك��نْتَ تَأْمُرُنَا بِالْمَعْرُوفِ وَتَنْهَانَا عَنِ الْمُنْكَرِ؟ قَالَ:
87
+ كُنْتُ آمُرُكُمْ بِالْمَعْرُوفِ وَلا آتِيهِ وَأَنْهَاكُمْ عَنِ الْمُنْكَرِ وَآتِيهِ».'
88
+ - 'عَنْ أَبِي مُوسَى الأَشْعَرِيِّ - رضي الله عنه -: أَنَّهُ تَوَضَّأَ فِي بَيْتِهِ
89
+ ثُمَّ خَرَجَ، فَقُلْتُ: لأَلْزَمَنَّ رَسُولَ اللَّهِ - صلى الله عليه وسلم - وَلأَكُونَنَّ
90
+ مَعَهُ يَوْمِي هَذَا، قَالَ: فَجَاءَ الْمَسْجِدَ فَسَأَلَ عَنِ النَّبِيِّ - صلى
91
+ الله عليه وسلم - فَقَالُوا: خَرَجَ وَوَجَّهَ هَاهُنَا، فَخَرَجْتُ عَلَى إِثْرِهِ
92
+ أَسْأَلُ عَنْهُ حَتَّى دَخَلَ بِئْرَ أَرِيسٍ، فَجَلَسْتُ عِنْدَ الْبَابِ وَبَابُهَا
93
+ مِنْ جَرِيدٍ حَتَّى قَضَى رَسُولُ اللَّهِ - صلى الله عليه وسلم - حَاجَتَهُ فَتَوَضَّأَ،
94
+ فَقُمْتُ إِلَيْهِ فَإِذَا هُوَ جَالِسٌ عَلَى بِئْرِ أَرِيسٍ وَتَوَسَّطَ قُفَّهَا
95
+ وَكَشَفَ عَنْ سَاقَيْهِ وَدَلَّاهُمَا فِي الْبِئْرِ، فَسَلَّمْتُ عَلَيْهِ ثُمَّ
96
+ انْصَرَفْتُ فَجَلَسْتُ عِنْدَ الْبَابِ فَقُلْتُ: لأَكُونَنَّ بَوَّابَ رَسُولِ
97
+ اللَّهِ - صلى الله عليه وسلم - الْيَوْمَ، فَجَاءَ أَبُو بَكْرٍ فَدَفَعَ الْبَابَ
98
+ فَقُلْتُ: مَنْ هَذَا؟ فَقَالَ: أَبُو بَكْرٍ، فَقُلْتُ: عَلَى رِسْلِكَ ثُمَّ ذَهَبْتُ
99
+ فَقُلْتُ: يَا رَسُولَ اللَّهِ، هَذَا أَبُو بَكْرٍ يَسْتَأْذِنُ، فَقَالَ: «ائْذَنْ
100
+ لَهُ وَبَشِّرْهُ بِالْجَنَّةِ». فَأَقْبَلْتُ حَتَّى قُلْتُ لأَبِي بَكْرٍ: ادْخُلْ
101
+ وَرَسُولُ اللَّهِ - صلى الله عليه وسلم - يُبَشِّرُكَ بِالْجَنَّةِ، فَدَخَلَ أَبُو
102
+ بَكْرٍ فَجَلَسَ عَنْ يَمِينِ رَسُولِ اللَّهِ - صلى الله عليه وسلم - مَعَهُ فِي
103
+ الْقُفِّ، وَدَلَّى رِجْلَيْهِ فِي الْبِئْرِ كَمَا صَنَعَ النَّبِيُّ - صلى الله
104
+ عليه وسلم - وَكَشَفَ عَنْ سَاقَيْهِ، ثُمَّ رَجَعْتُ فَجَلَسْتُ وَقَدْ تَرَكْتُ
105
+ أَخِي يَتَوَضَّأُ وَيَلْحَقُنِي، فَقُلْتُ: إِنْ يُرِدِ اللَّهُ بِفُلانٍ خَيْرًا
106
+ -يُرِيدُ أَخَاهُ- يَأْتِ بِهِ، فَإِذَا إِنْسَانٌ يُحَرِّكُ الْبَابَ، فَقُلْتُ:
107
+ مَنْ هَذَا؟ فَقَالَ: عُمَرُ بْنُ الْخَطَّابِ، فَقُلْتُ: عَلَى رِسْلِكَ، ثُمَّ
108
+ جِئْتُ إِلَى رَسُولِ اللَّهِ - صلى الله عليه وسلم - فَسَلَّمْتُ عَلَيْهِ، فَقُلْتُ:
109
+ هَذَا عُمَرُ بْنُ الْخَطَّابِ يَسْتَأْذِنُ، فَقَالَ: «ائْذَنْ لَهُ وَبَشِّرْهُ
110
+ بِالْجَنَّةِ». فَجِئْتُ فَقُلْتُ: ادْخُلْ وَبَشَّرَكَ رَسُولُ اللَّهِ - صلى الله
111
+ عليه وسلم - بِالْجَنَّةِ، فَدَخَلَ فَجَلَسَ مَعَ رَسُولِ اللَّهِ - صلى الله عليه
112
+ وسلم - فِي الْقُفِّ عَنْ يَسَارِهِ وَدَلَّى رِجْلَيْهِ فِي الْبِئْرِ، ثُمَّ رَجَعْتُ
113
+ فَجَلَسْتُ، فَقُلْتُ: إِنْ يُرِدِ اللَّهُ بِفُلانٍ خَيْرًا يَأْتِ بِهِ، فَجَاءَ
114
+ إِنْسَانٌ يُحَرِّكُ الْبَابَ، فَقُلْتُ: مَنْ هَذَا؟ فَقَالَ: عُثْمَانُ بْنُ عَفَّانَ،
115
+ فَقُلْتُ: عَلَى رِسْلِكَ، فَجِئْتُ إِلَى رَسُولِ اللَّهِ - صلى الله عليه وسلم
116
+ - فَأَخْبَرْتُهُ فَقَالَ: «ائْذَنْ لَهُ وَبَشِّرْهُ بِالْجَنَّةِ عَلَى بَلْوَى
117
+ تُصِيبُهُ». فَجِئْتُهُ فَقُلْتُ لَهُ: ادْخُلْ، وَبَشَّرَكَ رَسُولُ اللَّهِ - صلى
118
+ الله عليه وسلم - بِالْجَنَّةِ عَلَى بَلْوَى تُصِيبُكَ، فَدَخَلَ فَوَجَدَ الْقُفَّ
119
+ قَدْ مُلِئَ، فَجَلَسَ وِجَاهَهُ مِنَ الشَّقِّ الآخَرِ.'
120
+ - source_sentence: كم مدة عدّة المطلقة؟
121
+ sentences:
122
+ - وما كان لمؤمن أن يقتل مؤمنا إلا خطأ ومن قتل مؤمنا خطأ فتحرير رقبة مؤمنة ودية مسلمة
123
+ إلى أهله إلا أن يصدقوا فإن كان من قوم عدو لكم وهو مؤمن فتحرير رقبة مؤمنة وإن كان
124
+ من قوم بينكم وبينهم ميثاق فدية مسلمة إلى أهله وتحرير رقبة مؤمنة فمن لم يجد فصيام
125
+ شهرين متتابعين توبة من الله وكان الله عليما حكيما. ومن يقتل مؤمنا متعمدا فجزاؤه
126
+ جهنم خالدا فيها وغضب الله عليه ولعنه وأعد له عذابا عظيما.
127
+ - 'عَنْ أَبِي هُرَيْرَةَ - رضي الله عنه - قَالَ: كَانَ النَّبِيُّ - صلى الله عليه
128
+ وسلم - يَعْتَكِفُ فِي كُلِّ رَمَضَانٍ عَشْرَةَ أَيَّامٍ، فَلَمَّا كَانَ الْعَامُ
129
+ الَّذِي قُبِضَ فِيهِ اعْتَكَفَ عِشْرِينَ يَوْمًا.'
130
+ - 'عَنْ عَبْدِ الرَّحْمَنِ بْنِ أَبِي بَكْرٍ - رضي الله عنهما -: أَنَّ أَصْحَابَ
131
+ الصُّفَّةِ كَانُوا أُنَاسًا فُقَرَاءَ وَأَنَّ النَّبِيَّ - صلى الله عليه وسلم
132
+ - قَالَ: «مَنْ كَانَ عِنْدَهُ طَعَامُ اثنَيْنِ فَلْيَذْهَبْ بِثالِث، وَإِنْ أَرْبَعٌ
133
+ فَخَامِسٌ أَوْ سَادِسٌ». وَأَنَّ أَبَا بَكْرٍ جَاءَ بِثلاثةٍ، فَانْطَلَقَ النَّبِيُّ
134
+ - صلى الله عليه وسلم - بِعَشَرَةٍ، قَالَ: فَهُوَ أَنَا وَأَبِي وَأُمِّي، - فَلا
135
+ أَدْرِي قَالَ: وَامْرَأَتِي - وَخَادِمٌ بَيْنَنَا وَبَيْنَ بَيْتِ أَبِي بَكْرٍ،
136
+ وَإِنَّ أَبَا بَكْرٍ تَعَشَّى عِنْدَ النَّبِيِّ - صلى الله عليه وسلم -، ثمَّ لَبِثَ
137
+ حَيْثُ صُلِّيَتِ الْعِشَاءُ ثمَّ رَجَعَ، فَلَبِثَ حَتَّى تَعَشَّى النَّبِيُّ -
138
+ صلى الله عليه وسلم -، فَجَاءَ بَعْدَ مَا مَضَى مِنَ اللَّيْلِ مَا شَاءَ اللَّهُ،
139
+ قَالَتْ لَهُ امْرَأَتُهُ: وَمَا حَبَسَكَ عَنْ أَضْيَافِكَ؟ أَوْ قَالَتْ: ضَيْفِكَ،
140
+ قَالَ: أَوَمَا عَشَّيْتِيهِمْ؟ قَالَتْ: أَبَوْا حَتَّى تَجِيءَ، قَدْ عُرِضُوا
141
+ فَأَبَوْا، قَالَ: فَذَهَبْتُ أَنَا فَاخْتَبَأْتُ، فَقَالَ: يَا غُنْثرُ، فَجَدَّعَ
142
+ وَسَبَّ، وَقَالَ: كُلُوا لا هَنِيئًا، فَقَالَ: وَاللَّهِ لا أَطْعَمُهُ أَبَدًا،
143
+ وَايْمُ اللَّهِ، مَا كُنَّا نَأْخُذُ مِنْ لُقْمَةٍ إِلا رَبَا مِنْ أَسْفَلِهَا
144
+ أَكْثرُ مِنْهَا، قَالَ: يَعْنِي حَتَّى شَبِعُوا، وَصَارَتْ أَكْثرَ مِمَّا كَانَتْ
145
+ قَبْلَ ذَلِكَ، فَنَظَرَ إِلَيْهَا أَبُو بَكْرٍ، فَإِذَا هِيَ كَمَا هِيَ أَوْ أَكْثرُ
146
+ مِنْهَا، فَقَالَ لامْرَأَتِهِ: يَا أُخْتَ بَنِي فِرَاسٍ، مَا هَذَا؟ قَالَتْ: لا
147
+ وَقُرَّةِ عَيْنِي، لَهِيَ الآنَ أَكْثرُ مِنْهَا قَبْلَ ذَلِكَ، بِثلاث مَرَّاتٍ،
148
+ فَأَكَلَ مِنْهَا أَبُو بَكْرٍ وَقَالَ: إِنَّمَا كَانَ ذَلِكَ مِنَ الشَّيْطَانِ،
149
+ يَعْنِي يَمِينَهُ، ثمَّ أَكَلَ مِنْهَا لُقْمَةً، ثمَّ حَمَلَهَا إِلَى النَّبِيِّ
150
+ - صلى الله عليه وسلم - فَأَصْبَحَتْ عِنْدَهُ، وَكَانَ بَيْنَنَا وَبَيْنَ قَوْمٍ
151
+ عَقْدٌ، فَمَضَى الأَجَلُ، فَفَرَّقَنَا اثْنَيْ عَشَرَ رَجُلًا، مَعَ كُلِّ رَجُلٍ
152
+ مِنْهُمْ أُنَاسٌ، اللَّهُ أَعْلَمُ كَمْ مَعَ كُلِّ رَجُلٍ، فَأَكَلُوا مِنْهَا
153
+ أَجْمَعُونَ.'
154
+ pipeline_tag: sentence-similarity
155
+ library_name: sentence-transformers
156
+ ---
157
+
158
+ # SentenceTransformer based on omarelshehy/Arabic-Retrieval-v1.0
159
+
160
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [omarelshehy/Arabic-Retrieval-v1.0](https://huggingface.co/omarelshehy/Arabic-Retrieval-v1.0). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
161
+
162
+ ## Model Details
163
+
164
+ ### Model Description
165
+ - **Model Type:** Sentence Transformer
166
+ - **Base model:** [omarelshehy/Arabic-Retrieval-v1.0](https://huggingface.co/omarelshehy/Arabic-Retrieval-v1.0) <!-- at revision 899f6e1b765915a72d5e4ace6bb2b221715550d8 -->
167
+ - **Maximum Sequence Length:** 512 tokens
168
+ - **Output Dimensionality:** 768 dimensions
169
+ - **Similarity Function:** Cosine Similarity
170
+ <!-- - **Training Dataset:** Unknown -->
171
+ <!-- - **Language:** Unknown -->
172
+ <!-- - **License:** Unknown -->
173
+
174
+ ### Model Sources
175
+
176
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
177
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
178
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
179
+
180
+ ### Full Model Architecture
181
+
182
+ ```
183
+ SentenceTransformer(
184
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'BertModel'})
185
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
186
+ )
187
+ ```
188
+
189
+ ## Usage
190
+
191
+ ### Direct Usage (Sentence Transformers)
192
+
193
+ First install the Sentence Transformers library:
194
+
195
+ ```bash
196
+ pip install -U sentence-transformers
197
+ ```
198
+
199
+ Then you can load this model and run inference.
200
+ ```python
201
+ from sentence_transformers import SentenceTransformer
202
+
203
+ # Download from the 🤗 Hub
204
+ model = SentenceTransformer("sentence_transformers_model_id")
205
+ # Run inference
206
+ sentences = [
207
+ 'كم مدة عدّة المطلقة؟',
208
+ 'عَنْ أَبِي هُرَيْرَةَ - رضي الله عنه - قَالَ: كَانَ النَّبِيُّ - صلى الله عليه وسلم - يَعْتَكِفُ فِي كُلِّ رَمَضَانٍ عَشْرَةَ أَيَّامٍ، فَلَمَّا كَانَ الْعَامُ الَّذِي قُبِضَ فِيهِ اعْتَكَفَ عِشْرِينَ يَوْمًا.',
209
+ 'وما كان لمؤمن أن يقتل مؤمنا إلا خطأ ومن قتل مؤمنا خطأ فتحرير رقبة مؤمنة ودية مسلمة إلى أهله إلا أن يصدقوا فإن كان من قوم عدو لكم وهو مؤمن فتحرير رقبة مؤمنة وإن كان من قوم بينكم وبينهم ميثاق فدية مسلمة إلى أهله وتحرير رقبة مؤمنة فمن لم يجد فصيام شهرين متتابعين توبة من الله وكان الله عليما حكيما. ومن يقتل مؤمنا متعمدا فجزاؤه جهنم خالدا فيها وغضب الله عليه ولعنه وأعد له عذابا عظيما.',
210
+ ]
211
+ embeddings = model.encode(sentences)
212
+ print(embeddings.shape)
213
+ # [3, 768]
214
+
215
+ # Get the similarity scores for the embeddings
216
+ similarities = model.similarity(embeddings, embeddings)
217
+ print(similarities)
218
+ # tensor([[ 1.0000, -0.0183, 0.3614],
219
+ # [-0.0183, 1.0000, 0.1315],
220
+ # [ 0.3614, 0.1315, 1.0000]])
221
+ ```
222
+
223
+ <!--
224
+ ### Direct Usage (Transformers)
225
+
226
+ <details><summary>Click to see the direct usage in Transformers</summary>
227
+
228
+ </details>
229
+ -->
230
+
231
+ <!--
232
+ ### Downstream Usage (Sentence Transformers)
233
+
234
+ You can finetune this model on your own dataset.
235
+
236
+ <details><summary>Click to expand</summary>
237
+
238
+ </details>
239
+ -->
240
+
241
+ <!--
242
+ ### Out-of-Scope Use
243
+
244
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
245
+ -->
246
+
247
+ <!--
248
+ ## Bias, Risks and Limitations
249
+
250
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
251
+ -->
252
+
253
+ <!--
254
+ ### Recommendations
255
+
256
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
257
+ -->
258
+
259
+ ## Training Details
260
+
261
+ ### Training Dataset
262
+
263
+ #### Unnamed Dataset
264
+
265
+ * Size: 5,232 training samples
266
+ * Columns: <code>text1</code>, <code>text2</code>, and <code>label</code>
267
+ * Approximate statistics based on the first 1000 samples:
268
+ | | text1 | text2 | label |
269
+ |:--------|:---------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:---------------------------------------------------------------|
270
+ | type | string | string | float |
271
+ | details | <ul><li>min: 6 tokens</li><li>mean: 8.83 tokens</li><li>max: 15 tokens</li></ul> | <ul><li>min: 13 tokens</li><li>mean: 121.5 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.15</li><li>max: 1.0</li></ul> |
272
+ * Samples:
273
+ | text1 | text2 | label |
274
+ |:-----------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
275
+ | <code>من هم قوم شعيب؟</code> | <code>وإلى مدين أخاهم شعيبا فقال يا قوم اعبدوا الله وارجوا اليوم الآخر ولا تعثوا في الأرض مفسدين. فكذبوه فأخذتهم الرجفة فأصبحوا في دارهم جاثمين.</code> | <code>1.0</code> |
276
+ | <code>من هم قوم شعيب؟</code> | <code>وإلى مدين أخاهم شعيبا قال يا قوم اعبدوا الله ما لكم من إله غيره قد جاءتكم بينة من ربكم فأوفوا الكيل والميزان ولا تبخسوا الناس أشياءهم ولا تفسدوا في الأرض بعد إصلاحها ذلكم خير لكم إن كنتم مؤمنين. ولا تقعدوا بكل صراط توعدون وتصدون عن سبيل الله من آمن به وتبغونها عوجا واذكروا إذ كنتم قليلا فكثركم وانظروا كيف كان عاقبة المفسدين. وإن كان طائفة منكم آمنوا بالذي أرسلت به وطائفة لم يؤمنوا فاصبروا حتى يحكم الله بيننا وهو خير الحاكمين. قال الملأ الذين استكبروا من قومه لنخرجنك يا شعيب والذين آمنوا معك من قريتنا أو لتعودن في ملتنا قال أولو كنا كارهين. قد افترينا على الله كذبا إن عدنا في ملتكم بعد إذ نجانا الله منها وما يكون لنا أن نعود فيها إلا أن يشاء الله ربنا وسع ربنا كل شيء علما على الله توكلنا ربنا افتح بيننا وبين قومنا بالحق وأنت خير الفاتحين. وقال الملأ الذين كفروا من قومه لئن اتبعتم شعيبا إنكم إذا لخاسرون. فأخذتهم الرجفة فأصبحوا في دارهم جاثمين. الذين كذبوا شعيبا كأن لم يغنوا فيها الذين كذبوا شعيبا كانوا هم الخاسرين. فتولى عنهم وقال يا قوم لقد أبلغتكم رسالات ربي ونصحت لكم فكيف آسى على قوم ...</code> | <code>1.0</code> |
277
+ | <code>من هم قوم شعيب؟</code> | <code>كذب أصحاب الأيكة المرسلين. إذ قال لهم شعيب ألا تتقون. إني لكم رسول أمين. فاتقوا الله وأطيعون. وما أسألكم عليه من أجر إن أجري إلا على رب العالمين. أوفوا الكيل ولا تكونوا من المخسرين. وزنوا بالقسطاس المستقيم. ولا تبخسوا الناس أشياءهم ولا تعثوا في الأرض مفسدين. واتقوا الذي خلقكم والجبلة الأولين. قالوا إنما أنت من المسحرين. وما أنت إلا بشر مثلنا وإن نظنك لمن الكاذبين. فأسقط علينا كسفا من السماء إن كنت من الصادقين. قال ربي أعلم بما تعملون. فكذبوه فأخذهم عذاب يوم الظلة إنه كان عذاب يوم عظيم. إن في ذلك لآية وما كان أكثرهم مؤمنين. وإن ربك لهو العزيز الرحيم.</code> | <code>1.0</code> |
278
+ * Loss: [<code>ContrastiveLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#contrastiveloss) with these parameters:
279
+ ```json
280
+ {
281
+ "distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE",
282
+ "margin": 0.5,
283
+ "size_average": true
284
+ }
285
+ ```
286
+
287
+ ### Training Hyperparameters
288
+ #### Non-Default Hyperparameters
289
+
290
+ - `learning_rate`: 2e-05
291
+ - `warmup_steps`: 100
292
+ - `bf16`: True
293
+
294
+ #### All Hyperparameters
295
+ <details><summary>Click to expand</summary>
296
+
297
+ - `overwrite_output_dir`: False
298
+ - `do_predict`: False
299
+ - `eval_strategy`: no
300
+ - `prediction_loss_only`: True
301
+ - `per_device_train_batch_size`: 8
302
+ - `per_device_eval_batch_size`: 8
303
+ - `per_gpu_train_batch_size`: None
304
+ - `per_gpu_eval_batch_size`: None
305
+ - `gradient_accumulation_steps`: 1
306
+ - `eval_accumulation_steps`: None
307
+ - `torch_empty_cache_steps`: None
308
+ - `learning_rate`: 2e-05
309
+ - `weight_decay`: 0.0
310
+ - `adam_beta1`: 0.9
311
+ - `adam_beta2`: 0.999
312
+ - `adam_epsilon`: 1e-08
313
+ - `max_grad_norm`: 1.0
314
+ - `num_train_epochs`: 3
315
+ - `max_steps`: -1
316
+ - `lr_scheduler_type`: linear
317
+ - `lr_scheduler_kwargs`: {}
318
+ - `warmup_ratio`: 0.0
319
+ - `warmup_steps`: 100
320
+ - `log_level`: passive
321
+ - `log_level_replica`: warning
322
+ - `log_on_each_node`: True
323
+ - `logging_nan_inf_filter`: True
324
+ - `save_safetensors`: True
325
+ - `save_on_each_node`: False
326
+ - `save_only_model`: False
327
+ - `restore_callback_states_from_checkpoint`: False
328
+ - `no_cuda`: False
329
+ - `use_cpu`: False
330
+ - `use_mps_device`: False
331
+ - `seed`: 42
332
+ - `data_seed`: None
333
+ - `jit_mode_eval`: False
334
+ - `use_ipex`: False
335
+ - `bf16`: True
336
+ - `fp16`: False
337
+ - `fp16_opt_level`: O1
338
+ - `half_precision_backend`: auto
339
+ - `bf16_full_eval`: False
340
+ - `fp16_full_eval`: False
341
+ - `tf32`: None
342
+ - `local_rank`: 0
343
+ - `ddp_backend`: None
344
+ - `tpu_num_cores`: None
345
+ - `tpu_metrics_debug`: False
346
+ - `debug`: []
347
+ - `dataloader_drop_last`: False
348
+ - `dataloader_num_workers`: 0
349
+ - `dataloader_prefetch_factor`: None
350
+ - `past_index`: -1
351
+ - `disable_tqdm`: False
352
+ - `remove_unused_columns`: True
353
+ - `label_names`: None
354
+ - `load_best_model_at_end`: False
355
+ - `ignore_data_skip`: False
356
+ - `fsdp`: []
357
+ - `fsdp_min_num_params`: 0
358
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
359
+ - `fsdp_transformer_layer_cls_to_wrap`: None
360
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
361
+ - `deepspeed`: None
362
+ - `label_smoothing_factor`: 0.0
363
+ - `optim`: adamw_torch
364
+ - `optim_args`: None
365
+ - `adafactor`: False
366
+ - `group_by_length`: False
367
+ - `length_column_name`: length
368
+ - `ddp_find_unused_parameters`: None
369
+ - `ddp_bucket_cap_mb`: None
370
+ - `ddp_broadcast_buffers`: False
371
+ - `dataloader_pin_memory`: True
372
+ - `dataloader_persistent_workers`: False
373
+ - `skip_memory_metrics`: True
374
+ - `use_legacy_prediction_loop`: False
375
+ - `push_to_hub`: False
376
+ - `resume_from_checkpoint`: None
377
+ - `hub_model_id`: None
378
+ - `hub_strategy`: every_save
379
+ - `hub_private_repo`: None
380
+ - `hub_always_push`: False
381
+ - `hub_revision`: None
382
+ - `gradient_checkpointing`: False
383
+ - `gradient_checkpointing_kwargs`: None
384
+ - `include_inputs_for_metrics`: False
385
+ - `include_for_metrics`: []
386
+ - `eval_do_concat_batches`: True
387
+ - `fp16_backend`: auto
388
+ - `push_to_hub_model_id`: None
389
+ - `push_to_hub_organization`: None
390
+ - `mp_parameters`:
391
+ - `auto_find_batch_size`: False
392
+ - `full_determinism`: False
393
+ - `torchdynamo`: None
394
+ - `ray_scope`: last
395
+ - `ddp_timeout`: 1800
396
+ - `torch_compile`: False
397
+ - `torch_compile_backend`: None
398
+ - `torch_compile_mode`: None
399
+ - `include_tokens_per_second`: False
400
+ - `include_num_input_tokens_seen`: False
401
+ - `neftune_noise_alpha`: None
402
+ - `optim_target_modules`: None
403
+ - `batch_eval_metrics`: False
404
+ - `eval_on_start`: False
405
+ - `use_liger_kernel`: False
406
+ - `liger_kernel_config`: None
407
+ - `eval_use_gather_object`: False
408
+ - `average_tokens_across_devices`: False
409
+ - `prompts`: None
410
+ - `batch_sampler`: batch_sampler
411
+ - `multi_dataset_batch_sampler`: proportional
412
+ - `router_mapping`: {}
413
+ - `learning_rate_mapping`: {}
414
+
415
+ </details>
416
+
417
+ ### Training Logs
418
+ | Epoch | Step | Training Loss |
419
+ |:------:|:----:|:-------------:|
420
+ | 0.3058 | 200 | 0.0195 |
421
+ | 0.6116 | 400 | 0.0132 |
422
+ | 0.9174 | 600 | 0.0111 |
423
+ | 1.2232 | 800 | 0.0099 |
424
+ | 1.5291 | 1000 | 0.0086 |
425
+ | 1.8349 | 1200 | 0.0072 |
426
+
427
+
428
+ ### Framework Versions
429
+ - Python: 3.10.10
430
+ - Sentence Transformers: 5.0.0
431
+ - Transformers: 4.53.2
432
+ - PyTorch: 2.7.0+cu128
433
+ - Accelerate: 1.9.0
434
+ - Datasets: 4.0.0
435
+ - Tokenizers: 0.21.2
436
+
437
+ ## Citation
438
+
439
+ ### BibTeX
440
+
441
+ #### Sentence Transformers
442
+ ```bibtex
443
+ @inproceedings{reimers-2019-sentence-bert,
444
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
445
+ author = "Reimers, Nils and Gurevych, Iryna",
446
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
447
+ month = "11",
448
+ year = "2019",
449
+ publisher = "Association for Computational Linguistics",
450
+ url = "https://arxiv.org/abs/1908.10084",
451
+ }
452
+ ```
453
+
454
+ #### ContrastiveLoss
455
+ ```bibtex
456
+ @inproceedings{hadsell2006dimensionality,
457
+ author={Hadsell, R. and Chopra, S. and LeCun, Y.},
458
+ booktitle={2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06)},
459
+ title={Dimensionality Reduction by Learning an Invariant Mapping},
460
+ year={2006},
461
+ volume={2},
462
+ number={},
463
+ pages={1735-1742},
464
+ doi={10.1109/CVPR.2006.100}
465
+ }
466
+ ```
467
+
468
+ <!--
469
+ ## Glossary
470
+
471
+ *Clearly define terms in order to be accessible across audiences.*
472
+ -->
473
+
474
+ <!--
475
+ ## Model Card Authors
476
+
477
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
478
+ -->
479
+
480
+ <!--
481
+ ## Model Card Contact
482
+
483
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
484
+ -->
added_tokens.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "<passage>": 64001,
3
+ "<query>": 64000
4
+ }
config.json ADDED
@@ -0,0 +1,24 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "BertModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "classifier_dropout": null,
7
+ "hidden_act": "gelu",
8
+ "hidden_dropout_prob": 0.1,
9
+ "hidden_size": 768,
10
+ "initializer_range": 0.02,
11
+ "intermediate_size": 3072,
12
+ "layer_norm_eps": 1e-12,
13
+ "max_position_embeddings": 512,
14
+ "model_type": "bert",
15
+ "num_attention_heads": 12,
16
+ "num_hidden_layers": 12,
17
+ "pad_token_id": 0,
18
+ "position_embedding_type": "absolute",
19
+ "torch_dtype": "float32",
20
+ "transformers_version": "4.53.2",
21
+ "type_vocab_size": 2,
22
+ "use_cache": true,
23
+ "vocab_size": 64002
24
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "5.0.0",
4
+ "transformers": "4.53.2",
5
+ "pytorch": "2.7.0+cu128"
6
+ },
7
+ "prompts": {
8
+ "query": "",
9
+ "document": ""
10
+ },
11
+ "default_prompt_name": null,
12
+ "similarity_fn_name": "cosine",
13
+ "model_type": "SentenceTransformer"
14
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cb2fc06b7e458f6151e23e4aa29121033e43abff9f48c83ffc6a096f01ecb3b1
3
+ size 540801896
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
optimizer.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:88a3f47faaf6941490cbe8bcb9e9b45231ea22cf432566ebab624c292520257c
3
+ size 1076999563
rng_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4f6d5c362ffc2b0e64b4a851b663cff9b81d59c8e4b552f550d49bc8561f0d46
3
+ size 14645
scheduler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c6a75e46443aab5794c4becf4559bc0ea3a1ac63f8c63ef8c23d57ef658b7fac
3
+ size 1465
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,110 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[PAD]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "[UNK]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "[CLS]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "[SEP]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ },
43
+ "5": {
44
+ "content": "[رابط]",
45
+ "lstrip": false,
46
+ "normalized": true,
47
+ "rstrip": false,
48
+ "single_word": true,
49
+ "special": true
50
+ },
51
+ "6": {
52
+ "content": "[بريد]",
53
+ "lstrip": false,
54
+ "normalized": true,
55
+ "rstrip": false,
56
+ "single_word": true,
57
+ "special": true
58
+ },
59
+ "7": {
60
+ "content": "[مستخدم]",
61
+ "lstrip": false,
62
+ "normalized": true,
63
+ "rstrip": false,
64
+ "single_word": true,
65
+ "special": true
66
+ },
67
+ "64000": {
68
+ "content": "<query>",
69
+ "lstrip": false,
70
+ "normalized": false,
71
+ "rstrip": false,
72
+ "single_word": false,
73
+ "special": true
74
+ },
75
+ "64001": {
76
+ "content": "<passage>",
77
+ "lstrip": false,
78
+ "normalized": false,
79
+ "rstrip": false,
80
+ "single_word": false,
81
+ "special": true
82
+ }
83
+ },
84
+ "clean_up_tokenization_spaces": false,
85
+ "cls_token": "[CLS]",
86
+ "do_basic_tokenize": true,
87
+ "do_lower_case": false,
88
+ "extra_special_tokens": {},
89
+ "mask_token": "[MASK]",
90
+ "max_len": 512,
91
+ "max_length": 256,
92
+ "model_max_length": 512,
93
+ "never_split": [
94
+ "[بريد]",
95
+ "[مستخدم]",
96
+ "[رابط]"
97
+ ],
98
+ "pad_to_multiple_of": null,
99
+ "pad_token": "[PAD]",
100
+ "pad_token_type_id": 0,
101
+ "padding_side": "right",
102
+ "sep_token": "[SEP]",
103
+ "stride": 0,
104
+ "strip_accents": null,
105
+ "tokenize_chinese_chars": true,
106
+ "tokenizer_class": "BertTokenizer",
107
+ "truncation_side": "right",
108
+ "truncation_strategy": "longest_first",
109
+ "unk_token": "[UNK]"
110
+ }
trainer_state.json ADDED
@@ -0,0 +1,76 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_global_step": null,
3
+ "best_metric": null,
4
+ "best_model_checkpoint": null,
5
+ "epoch": 2.0,
6
+ "eval_steps": 500,
7
+ "global_step": 1308,
8
+ "is_hyper_param_search": false,
9
+ "is_local_process_zero": true,
10
+ "is_world_process_zero": true,
11
+ "log_history": [
12
+ {
13
+ "epoch": 0.3058103975535168,
14
+ "grad_norm": 0.2780028283596039,
15
+ "learning_rate": 1.8936627282491947e-05,
16
+ "loss": 0.0195,
17
+ "step": 200
18
+ },
19
+ {
20
+ "epoch": 0.6116207951070336,
21
+ "grad_norm": 0.22156599164009094,
22
+ "learning_rate": 1.678839957035446e-05,
23
+ "loss": 0.0132,
24
+ "step": 400
25
+ },
26
+ {
27
+ "epoch": 0.9174311926605505,
28
+ "grad_norm": 0.09372077137231827,
29
+ "learning_rate": 1.4640171858216972e-05,
30
+ "loss": 0.0111,
31
+ "step": 600
32
+ },
33
+ {
34
+ "epoch": 1.2232415902140672,
35
+ "grad_norm": 0.1351478546857834,
36
+ "learning_rate": 1.2491944146079485e-05,
37
+ "loss": 0.0099,
38
+ "step": 800
39
+ },
40
+ {
41
+ "epoch": 1.529051987767584,
42
+ "grad_norm": 0.23781578242778778,
43
+ "learning_rate": 1.0343716433942e-05,
44
+ "loss": 0.0086,
45
+ "step": 1000
46
+ },
47
+ {
48
+ "epoch": 1.834862385321101,
49
+ "grad_norm": 0.2146996110677719,
50
+ "learning_rate": 8.195488721804512e-06,
51
+ "loss": 0.0072,
52
+ "step": 1200
53
+ }
54
+ ],
55
+ "logging_steps": 200,
56
+ "max_steps": 1962,
57
+ "num_input_tokens_seen": 0,
58
+ "num_train_epochs": 3,
59
+ "save_steps": 500,
60
+ "stateful_callbacks": {
61
+ "TrainerControl": {
62
+ "args": {
63
+ "should_epoch_stop": false,
64
+ "should_evaluate": false,
65
+ "should_log": false,
66
+ "should_save": true,
67
+ "should_training_stop": false
68
+ },
69
+ "attributes": {}
70
+ }
71
+ },
72
+ "total_flos": 0.0,
73
+ "train_batch_size": 8,
74
+ "trial_name": null,
75
+ "trial_params": null
76
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:7ecf3c3abffaaa474db308d5bd1453c20efc0d157a6e04f9f759e9d0e8282903
3
+ size 6033
vocab.txt ADDED
The diff for this file is too large to render. See raw diff