basharalrfooh commited on
Commit
54476b1
·
verified ·
1 Parent(s): 77d2434

Upload 13 files

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
README.md CHANGED
@@ -1,3 +1,612 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - dense
7
+ - generated_from_trainer
8
+ - dataset_size:91123
9
+ - loss:MatryoshkaLoss
10
+ - loss:MultipleNegativesRankingLoss
11
+ base_model: Qwen/Qwen3-Embedding-4B
12
+ widget:
13
+ - source_sentence: The text mentions various interpretations on applying perfume while
14
+ in the state of Ihram. Could you explain the stance of each school of thought
15
+ on whether it's permissible to wear perfume during Ihram, and what criteria they
16
+ use to distinguish between applying perfume to the body or clothing?
17
+ sentences:
18
+ - ومتى ظهر له من أحد منهم خيانة عزره على ذلك وأشهره، حتى يرتدع به غيره(). وإذا
19
+ وقع في التطفيف تخاصم جاز أن ينظر فيه المحتسب، إن لم يكن مع التخاصم فيه تجاحد
20
+ وتناكر. فإن أفضى إلى التجاحد والتناكر كان القضاة أحق بالنظر فيه من ولاة الحسبة؛
21
+ لأنهم بالأحكام أحق. وكان التأديب فيه إلى المحتسب. فإن تولاه الحاكم جاز لاتصاله
22
+ بحكمه(). وقد فصل الفقهاء القول في التدابير التي تتخذ للحيلولة دون التطفيف والبخس
23
+ في الكيل والوزن، من قيام المحتسب بتفقد عيار الصنج ونحوها على حين غفلة من أصحابها،
24
+ وتجديد النظر في المكاييل ورعاية ما يطففون به المكيال وما إلى ذلك() فليرجع إليه
25
+ في مواطنه من
26
+ - 'فيما ذكر الطيب الذي يبقى له جرم بعد الإحرام والذي لا يبقى، وسواء الرجل والمرأة
27
+ الشابة والعجوز(). وذهب الحنفية - في الأصح - إلى عدم جواز التطيب للإحرام في الثوب،
28
+ ولا يجوز أن يلبس ثوب إحرام مطيبا؛ لأنه بذلك يكون مستعملا للطيب في إحرامه باستعمال
29
+ الثوب، وهو محظور على المحرم، والفرق: أن الطيب في الثوب منفصل، أما في البدن فهو
30
+ تابع له، وسنية التطيب تحصل بتطييب البدن، فأغنى عن تجويزه في الثوب(). وذهب المالكية:
31
+ إلى أنه إن تطيب قبل الإحرام يجب عليه إزالته عند الإحرام، سواء كان ذلك في بدنه
32
+ أو ثوبه، فإن بقي في البدن أو الثوب بعد الإحرام شيء من جرم الطيب - الذي تطيب به
33
+ قبل'
34
+ - ومهارة يحتاج إلى القصد ليكون استيلاء حقيقيا، وإلا كان استيلاء حكميا. جاء في الفتاوى
35
+ الهندية فيمن علق كوزه، أو وضعه في سطحه، فأمطر السحاب وامتلأ الكوز من المطر، فأخذه
36
+ إنسان، فالحكم هو استرداد الكوز؛ لأنه ملك صاحبه، وأما الماء فإن كان صاحب الكوز
37
+ قد وضعه من أجل جمع الماء فيسترد الماء أيضا، لأن ملكه حقيقي حينئذ، فإن لم يضعه
38
+ لذلك لم يسترده(). ومن أمثلة الأموال المباحة الماء والكلأ والنار والموات والركاز
39
+ والمعادن والحيوانات غير المملوكة. ولكل أحكامه المطلب الثاني ما أذن فيه الشارع
40
+ على وجه الانتفاع 17 - وهو ما يسمى بالمنافع العامة، التي جعل الله إباحتها تيسيرا
41
+ على
42
+ - source_sentence: ما الأراء المختلفة حول ترك الرمل في أشواط الطواف الأولى؟
43
+ sentences:
44
+ - الرشد، أو المجنون إذا عقل يصح أن يكون من الولي، ولا يحتاج إلى حكم حاكم، ويصح
45
+ أن يكون من الحاكم أيضا عند الاختلاف. والأنثى عندهم في ذلك كالذكر، فيدفع إليها
46
+ مالها إذا بلغت وأونس رشدها، سواء تزوجت أم لم تتزوج. وهناك رواية عن الإمام أحمد
47
+ أن الحجر لا يزول عن الأنثى حتى تتزوج وتلد، أو تمضي عليها سنة في بيت الزوج(). وأما
48
+ المالكية فقد فرقوا بين ترشيد الصبي وترشيد الصبية، وفك الحجر عنهما، وكذلك بين الترشيد
49
+ للأنثى إذا كانت معلومة الرشد وبين غيرها، وفرقوا أيضا بين الترشيد في الأب والوصي
50
+ والمقدم. أما الصبي فإن كان في ولاية الأب ينفك الحجر عنه بمجرد البلوغ مع حفظه
51
+ لماله،
52
+ - 'ومات في طرابلس الغرب. من مصنفاته «مواهب ��لجليل في شرح مختصر خليل» ستة مجلدات،
53
+ في فقه المالكية، و «شرح نظم نظائر رسالة القيرواني» لابن غازي، ورسالة في استخراج
54
+ أوقات الصلاة بالأعمال الفلكية بلا آلة، وجزءان في اللغة. (نيل الابتهاج بتطريز
55
+ الديباج ص 337، والأعلام للزركلي 7 \ 286، والمنهل العذب 1 \ 195، وبروكلمان 2 \
56
+ 508 (387) وتكملته 2 \ 526) الحلواني (- 448 ه) هو عبد العزيز بن أحمد بن نصر،
57
+ شمس الأئمة الحلواني. نسبته إلى بيع الحلواء. وربما قيل له الحلوائي. فقيه حنفي،
58
+ كان إمام الحنفية ببخارى. توفي في كش، ودفن ببخارى. من تصانيفه: «المبسوط» في الفقه،
59
+ و «شرح أدب'
60
+ - 'فعليه صدقة لا غير. ويمكنه التدارك بإعادة الطواف، فيسقط عنه الدم أو الصدقة. والحكم
61
+ عند الحنفية كذلك في طواف الوداع(). أما الرمل والاضطباع في الطواف فهما سنتان
62
+ في حق الرجال، في الأشواط الثلاثة الأولى من طواف القدوم خاصة، فلو تركهما فلا شيء
63
+ عليه، ولا يشرع له تداركهما، ومثلهما ترك الرمل بين الميلين (الأخضرين) في السعي
64
+ بين الصفا والمروة. وهذا مذهب الحنابلة، وهو الأصح أو الأظهر عند الشافعية، وهو ظاهر
65
+ كلام الحنفية، قال ابن الهمام: إن ترك الرمل في أشواط الطواف الأولى لا يرمل بعد
66
+ ذلك. وقال المالكية، وهو قول خلاف الأظهر عند الشافعية، وقول القاضي من الحنابلة:
67
+ أنه يقضي'
68
+ - source_sentence: How did the practice of offering the "قلائد" change over time according
69
+ to the information given in the text?
70
+ sentences:
71
+ - 'هدية إلى البيت، فيترك التعرض لها من كل أحد تعظيما للبيت وما أهدي إليه. وأصل ذلك
72
+ في القرآن العظيم، قال الله تعالى: يا أيها الذين آمنوا لا تحلوا شعائر الله ولا
73
+ الشهر الحرام ولا الهدي ولا القلائد() قال القرطبي: فالشعائر: جمع شعيرة وهي البدنة
74
+ تهدى إلى البيت، وإشعارها أن يحز سنامها ليسيل منها الدم فيعلم أنها هدي. والقلائد
75
+ قيل في تفسيرها: ما كان الناس يتقلدونه أمنة لهم. قال ابن عباس: ثم نسخ ذلك. وقيل
76
+ المراد بالقلائد: ما يعلق على أسنمة الهدايا وأعناقها علامة على أنه لله تعالى، من
77
+ نعل أو غيره(). وقال الله تعالى: جعل الله الكعبة البيت الحرام قياما للناس والشهر
78
+ الحرام والهدي'
79
+ - 'المتبوع: 9 - من فروع هذه القاعدة: أنه لا يصح تقدم المأموم على إمامه في تكبيرة
80
+ الافتتاح، ولا في غيرها من الأركان، لحديث: «إنما جعل الإمام ليؤتم به، فإذا كبر
81
+ فكبروا...» إلخ الحديث(). و - التابع لا يكون له تابع: 10 - من فروع هذه القاعدة:
82
+ لو قطع شخص الأصابع وحدها في جناية وجبت الدية، فإن قطع اليد من الكوع لم يلزمه أكثر
83
+ من الدية، ويجعل الكف تبعا للأصابع، وإن قطع زيادة على ذلك لم يجعل تبعا، بل يلزمه
84
+ للزيادة حكومة عدل على قدرها؛ لأن التابع لا يكون له تابع(). ومما خرج عنها توكيل
85
+ الوكيل غيره دون الرجوع إلى موكله، فقد ذكر الحنفية أن للوكيل أن يوكل في حقوق العقد
86
+ فيما'
87
+ - 'إلى فئة منهم، ليتقوى بهم، ويستطيع بذلك قهر العدو والظفر به والنصر عليه. والمتحرف
88
+ لقتال إذا رأى أن يكيد لخصمه ويتغلب عليه، وأن السبيل إلى النيل منه والظفر به والنصر
89
+ عليه، إنما في تغيير خططه، سواء أكانت في تغيير المكان، أم في التراجع ليسحب العدو
90
+ وراءه، ويعاوده بالهجوم عليه إلى غير ذلك، مما يطلق عليه (الخدع الحربية) فإنه يباح
91
+ له ذلك، إذ الحرب خدعة. أما لغير ذلك فلا يحل لكل منهما. الحكم الإجمالي: 3 -
92
+ التحيز مباح، إذا استشعر المتحيز عجزا محوجا إلى ال��ستنجاد بغيره من المسلمين، وكان بقصد
93
+ الانضمام إلى فئة، أي جماعة من الناس، ليتقوى بهم على محاربة عدوهم وإيقاع الهزيمة'
94
+ - source_sentence: How does Ibn Rushd explain the disagreement among scholars regarding
95
+ the validity of a contract when a detrimental consequence arises from a clause?
96
+ sentences:
97
+ - 'وفي الإجارة جاء في الشرح الصغير: تفسد الإجارة بالشرط الذي يناقض مقتضى العقد،
98
+ ومحل الفساد إن لم يسقط الشرط، فإن أسقط الشرط صحت(). ويوضح ابن رشد سبب اختلاف
99
+ الفقهاء في صحة العقد بارتفاع المفسد أو عدم صحته. فيقول: هل إذا لحق الفساد بالبيع
100
+ من قبل الشرط يرتفع الفساد إذا ارتفع الشرط، أو لا يرتفع؟ كما لا يرتفع الفساد
101
+ اللاحق للبيع الحلال من أجل اقتران المحرم العين به، كمن باع غلاما بمائة دينار وزق
102
+ خمر، فلما عقد البيع قال: أدع الزق. وهذا البيع مفسوخ عند العلماء بإجماع. وهذا
103
+ أيضا ينبني على أصل آخر. هو: هل هذا الفساد معقول المعنى أو غير معقول؟ فإن قلنا:
104
+ هو غير معقول'
105
+ - 'فيقال: أحللته. ومنه أحل الله البيع() أي أباحه وخير في الفعل والترك، واسم الفاعل:
106
+ محل ومحلل(). والتحليل في الشرع هو: حكم الله تعالى بأن فعلا ما هو حلال. قال ابن
107
+ وهب: قال مالك: لم يكن من فتيا الناس أن يقولوا: هذا حلال وهذا حرام، ولكن يقولون:
108
+ إياكم كذا وكذا، ولم أكن لأصنع هذا. قال القرطبي: ومعنى هذا: أن التحليل والتحريم
109
+ إنما هو لله عز وجل وليس لأحد أن يقول أو يصرح بهذا في عين من الأعيان، إلا أن يكون
110
+ البارئ تعالى يخبر بذلك عنه(). ثم قال: وقد يقوى الدليل على التحريم عند المجتهد،
111
+ فلا بأس عند ذلك أن يقول ذلك، كما يقول: إن الربا حرام في غير الأعيان الستة. وقد
112
+ يطلق'
113
+ - 'الشافعية أن يكون الثلاثة قبل يوم عرفة؛ لأن صوم يوم عرفة بعرفة غير مستحب(). ولا
114
+ يجوز تقديم الثلاثة أو يوم منها على الإحرام بالحج عند المالكية والشافعية، وهو قول
115
+ زفر من الحنفية : فصيام ثلاثة أيام في الحج() ولأن الصوم عبادة بدنية فلا يجوز
116
+ تقديمها على وقت وجوبها كسائر الصيام الواجب؛ ولأن ما قبله لا يجوز فيه الدم فلم
117
+ يجز بدله(). وذهب الحنفية والحنابلة إلى جواز تقديم الثلاثة على الإحرام بالحج
118
+ بعد الإحرام بالعمرة، وفي رواية عن أحمد إذا حل من العمرة. والدليل على ذلك أن إحرام
119
+ العمرة أحد إحرامي التمتع فجاز الصوم بعده كإحرام الحج. وأما : فصيام ثلاثة أيام
120
+ في الحج() فالمراد'
121
+ - source_sentence: ما هو الشرط الذي يجب على الواقف اتباعه فيما يتعلق بإدارة وقفه؟
122
+ sentences:
123
+ - عطف الصلاة على الذكر، والذكر الذي تعقبه الصلاة بلا فصل ليس إلا التحريمة فيقتضي
124
+ هذا النص أن يكون التكبير خارج الصلاة لأن مقتضى العطف المغايرة بين المعطوف والمعطوف
125
+ عليه إذ الشيء لا يعطف على نفسه(). وقال «تحريمها التكبير»() فأضاف التحريم
126
+ إلى الصلاة والمضاف غير المضاف إليه لأن الشيء لا يضاف إلى نفسه، ولأجل أن تكبيرة
127
+ الإحرام شرط فهو لا يتكرر كتكرار الأركان في كل صلاة كالركوع والسجود فلو كان ركنا
128
+ لتكرر كما تكرر الأركان. كما عللوا كون تكبيرة الإحرام شرطا بأن الركن هو الداخل
129
+ في الماهية والمصلي لا يدخل في الصلاة إلا بفراغه من تكبيرة الإحرام(). وللتوسع فيما
130
+ يترتب على
131
+ - 'والإمكانيات الكافية لها، والله المستعان، وهو ولي التوفيق. الموسوعة
132
+ الفقهية أ أئمة التعريف: 1 - الأئمة لغة: من يقتدى بهم من رئيس أو غيره().
133
+ مفرده: إمام. ولا يبعد المعنى الاصطلاحي عن المعنى اللغوي، بإطلاقه الشامل للمقتدى
134
+ بهم عموما في مجال الخير والشر، طوعا أو كرها(). الإطلاقات المختلفة لهذا المصطلح 2
135
+ - يطلق على الأنبياء أنهم «أئمة» من حيث يجب على الخلق اتباعهم، قال الله تعالى
136
+ عقب ذكر بعض الأنبياء وجعلناهم أئمة يهدون بأمرنا() كما يطلق على الخلفاء «أئمة»
137
+ لأنهم رتبوا في المحل الذي يجب على الناس اتباعهم'
138
+ - عقار ويوقف عليه، بخلاف الموقوف على عمارته يجب ادخاره لأجلها، وإلا لم يعد منه
139
+ شيء لأجلها؛ لأنه يعرض للضياع أو لظالم يأخذ. 5 - وأما الحنابلة فيرجع عندهم إلى
140
+ شرط الواقف في الإنفاق على الوقف وفي سائر أحواله، لأنه ثبت بوقفه، فوجب أن يتبع
141
+ فيه شرطه. فإن عين الواقف الإنفاق عليه من غلته أو من غيرها عمل به رجوعا إلى شرطه،
142
+ وإن لم يعينه - وكان الموقوف ذا روح كالخيل - فإنه ينفق عليه من غلته؛ لأن الوقف
143
+ يقتضي تحبيس الأصل وتسبيل منفعته، ولا يحصل ذلك إلا بالإنفاق عليه فكان ذلك من ضرورته فإن
144
+ لم يكن للموقوف غلة لضعف به ونحوه فنفقته على الموقوف عليه المعين؛ لأن الوقف عندهم
145
+ يخرج من
146
+ pipeline_tag: sentence-similarity
147
+ library_name: sentence-transformers
148
+ metrics:
149
+ - pearson_cosine
150
+ - spearman_cosine
151
+ model-index:
152
+ - name: SentenceTransformer based on Qwen/Qwen3-Embedding-4B
153
+ results:
154
+ - task:
155
+ type: semantic-similarity
156
+ name: Semantic Similarity
157
+ dataset:
158
+ name: eval
159
+ type: eval
160
+ metrics:
161
+ - type: pearson_cosine
162
+ value: 0.9115958782634922
163
+ name: Pearson Cosine
164
+ - type: spearman_cosine
165
+ value: 0.8065364033008666
166
+ name: Spearman Cosine
167
+ ---
168
+
169
+ # SentenceTransformer based on Qwen/Qwen3-Embedding-4B
170
+
171
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Qwen/Qwen3-Embedding-4B](https://huggingface.co/Qwen/Qwen3-Embedding-4B). It maps sentences & paragraphs to a 2560-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
172
+
173
+ ## Model Details
174
+
175
+ ### Model Description
176
+ - **Model Type:** Sentence Transformer
177
+ - **Base model:** [Qwen/Qwen3-Embedding-4B](https://huggingface.co/Qwen/Qwen3-Embedding-4B) <!-- at revision 5cf2132abc99cad020ac570b19d031efec650f2b -->
178
+ - **Maximum Sequence Length:** 512 tokens
179
+ - **Output Dimensionality:** 2560 dimensions
180
+ - **Similarity Function:** Cosine Similarity
181
+ <!-- - **Training Dataset:** Unknown -->
182
+ <!-- - **Language:** Unknown -->
183
+ <!-- - **License:** Unknown -->
184
+
185
+ ### Model Sources
186
+
187
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
188
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
189
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
190
+
191
+ ### Full Model Architecture
192
+
193
+ ```
194
+ SentenceTransformer(
195
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'Qwen3Model'})
196
+ (1): Pooling({'word_embedding_dimension': 2560, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': True, 'include_prompt': True})
197
+ (2): Normalize()
198
+ )
199
+ ```
200
+
201
+ ## Usage
202
+
203
+ ### Direct Usage (Sentence Transformers)
204
+
205
+ First install the Sentence Transformers library:
206
+
207
+ ```bash
208
+ pip install -U sentence-transformers
209
+ ```
210
+
211
+ Then you can load this model and run inference.
212
+ ```python
213
+ from sentence_transformers import SentenceTransformer
214
+
215
+ # Download from the 🤗 Hub
216
+ model = SentenceTransformer("sentence_transformers_model_id")
217
+ # Run inference
218
+ queries = [
219
+ "\u0645\u0627 \u0647\u0648 \u0627\u0644\u0634\u0631\u0637 \u0627\u0644\u0630\u064a \u064a\u062c\u0628 \u0639\u0644\u0649 \u0627\u0644\u0648\u0627\u0642\u0641 \u0627\u062a\u0628\u0627\u0639\u0647 \u0641\u064a\u0645\u0627 \u064a\u062a\u0639\u0644\u0642 \u0628\u0625\u062f\u0627\u0631\u0629 \u0648\u0642\u0641\u0647\u061f",
220
+ ]
221
+ documents = [
222
+ 'عقار ويوقف عليه، بخلاف الموقوف على عمارته يجب ادخاره لأجلها، وإلا لم يعد منه شيء لأجلها؛ لأنه يعرض للضياع أو لظالم يأخذ. 5 - وأما الحنابلة فيرجع عندهم إلى شرط الواقف في الإنفاق على الوقف وفي سائر أحواله، لأنه ��بت بوقفه، فوجب أن يتبع فيه شرطه. فإن عين الواقف الإنفاق عليه من غلته أو من غيرها عمل به رجوعا إلى شرطه، وإن لم يعينه - وكان الموقوف ذا روح كالخيل - فإنه ينفق عليه من غلته؛ لأن الوقف يقتضي تحبيس الأصل وتسبيل منفعته، ولا يحصل ذلك إلا بالإنفاق عليه فكان ذلك من ضرورته فإن لم يكن للموقوف غلة لضعف به ونحوه فنفقته على الموقوف عليه المعين؛ لأن الوقف عندهم يخرج من',
223
+ 'عطف الصلاة على الذكر، والذكر الذي تعقبه الصلاة بلا فصل ليس إلا التحريمة فيقتضي هذا النص أن يكون التكبير خارج الصلاة لأن مقتضى العطف المغايرة بين المعطوف والمعطوف عليه إذ الشيء لا يعطف على نفسه(). وقال «تحريمها التكبير»() فأضاف التحريم إلى الصلاة والمضاف غير المضاف إليه لأن الشيء لا يضاف إلى نفسه، ولأجل أن تكبيرة الإحرام شرط فهو لا يتكرر كتكرار الأركان في كل صلاة كالركوع والسجود فلو كان ركنا لتكرر كما تكرر الأركان. كما عللوا كون تكبيرة الإحرام شرطا بأن الركن هو الداخل في الماهية والمصلي لا يدخل في الصلاة إلا بفراغه من تكبيرة الإحرام(). وللتوسع فيما يترتب على',
224
+ 'والإمكانيات الكافية لها، والله المستعان، وهو ولي التوفيق. الموسوعة الفقهية أ أئمة التعريف: 1 - الأئمة لغة: من يقتدى بهم من رئيس أو غيره(). مفرده: إمام. ولا يبعد المعنى الاصطلاحي عن المعنى اللغوي، بإطلاقه الشامل للمقتدى بهم عموما في مجال الخير والشر، طوعا أو كرها(). الإطلاقات المختلفة لهذا المصطلح 2 - يطلق على الأنبياء أنهم «أئمة» من حيث يجب على الخلق اتباعهم، قال الله تعالى عقب ذكر بعض الأنبياء وجعلناهم أئمة يهدون بأمرنا() كما يطلق على الخلفاء «أئمة» لأنهم رتبوا في المحل الذي يجب على الناس اتباعهم',
225
+ ]
226
+ query_embeddings = model.encode_query(queries)
227
+ document_embeddings = model.encode_document(documents)
228
+ print(query_embeddings.shape, document_embeddings.shape)
229
+ # [1, 2560] [3, 2560]
230
+
231
+ # Get the similarity scores for the embeddings
232
+ similarities = model.similarity(query_embeddings, document_embeddings)
233
+ print(similarities)
234
+ # tensor([[0.5581, 0.0583, 0.0569]])
235
+ ```
236
+
237
+ <!--
238
+ ### Direct Usage (Transformers)
239
+
240
+ <details><summary>Click to see the direct usage in Transformers</summary>
241
+
242
+ </details>
243
+ -->
244
+
245
+ <!--
246
+ ### Downstream Usage (Sentence Transformers)
247
+
248
+ You can finetune this model on your own dataset.
249
+
250
+ <details><summary>Click to expand</summary>
251
+
252
+ </details>
253
+ -->
254
+
255
+ <!--
256
+ ### Out-of-Scope Use
257
+
258
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
259
+ -->
260
+
261
+ ## Evaluation
262
+
263
+ ### Metrics
264
+
265
+ #### Semantic Similarity
266
+
267
+ * Dataset: `eval`
268
+ * Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
269
+
270
+ | Metric | Value |
271
+ |:--------------------|:-----------|
272
+ | pearson_cosine | 0.9116 |
273
+ | **spearman_cosine** | **0.8065** |
274
+
275
+ <!--
276
+ ## Bias, Risks and Limitations
277
+
278
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
279
+ -->
280
+
281
+ <!--
282
+ ### Recommendations
283
+
284
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
285
+ -->
286
+
287
+ ## Training Details
288
+
289
+ ### Training Dataset
290
+
291
+ #### Unnamed Dataset
292
+
293
+ * Size: 91,123 training samples
294
+ * Columns: <code>anchor</code> and <code>positive</code>
295
+ * Approximate statistics based on the first 1000 samples:
296
+ | | anchor | positive |
297
+ |:--------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
298
+ | type | string | string |
299
+ | details | <ul><li>min: 5 tokens</li><li>mean: 23.86 tokens</li><li>max: 69 tokens</li></ul> | <ul><li>min: 193 tokens</li><li>mean: 229.67 tokens</li><li>max: 295 tokens</li></ul> |
300
+ * Samples:
301
+ | anchor | positive |
302
+ |:-----------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
303
+ | <code>من هو عبد الله بن عبد الرحمن النفراوي، وما هي أهم صنفاته؟</code> | <code>للزركلي 1 \ 76؛ وطبقات ابن سعد 6 \ 188-199) ابن أبي زيد (310-386 ه) عبد الله بن عبد الرحمن النفراوي، القيرواني، أبو محمد: فقيه، مفسر من أعيان القيروان. مولده ومنشؤه ووفاته فيها. كان إمام المالكية في عصره. يلقب بقطب المذهب وبمالك الأصغر. قال عنه الذهبي: كان على أصول السلف في الأصول لا يتأول. من تصانيفه: «كتاب النوادر والزيادات»؛ و «مختصر المدونة»؛ و «كتاب الرسالة». (معجم المؤلفين 6 \ 73؛ والأعلام للزركلي 4 \ 230؛ وشذرات الذهب 3 \ 131) ابن أبي ليلى (74-148 ه) هو محمد بن عبد الرحمن بن أبي ليلى يسار (وقيل: داود) بن بلال. أنصاري كوفي. فقيه من أصحاب الرأي. ولي</code> |
304
+ | <code>كيف يتم توجيه اليمين عندما لا يرغب المدعي في تقديم البينة؟</code> | <code>حق طلب اليمين ولو كانت له بينة حاضرة؛ لأنه مخير بين تقديم البينة أو طلب اليمين. كما قال الحنفية: إن قال المدعى عليه: لا أقر ولا أنكر، لا يستحلف، بل يحبس ليقر أو ينكر. وكذا لو لزم السكوت بلا آفة، عند أبي يوسف. ونقل عن البدائع: الأشبه أنه إنكار فيستحلف(). وتوجيه اليمين يكون من القاضي بطلب المدعي. واستثنى الإمام أبو يوسف أربع مسائل يوجه فيها القاضي اليمين بلا طلب المدعي. أولاها: الرد بالعيب، يحلف المشتري بالله ما رضيت بالعيب. والثانية: الشفيع: بالله ما أبطلت شفعتك. وثالثها: المرأة إذا طلبت فرض النفقة على زوجها الغائب: بالله ما خلف لك زوجك شيئا ولا أعطاك</code> |
305
+ | <code>contribute to making a text equivalent to an encyclopedia in Islamic scholarship?</code> | <code>اسم: المدونات، أو المطولات، أو المبسوطات، أو الأمهات من كتب فقهية لم تراع فيها جميع الخصائص المشار إليها، وإن وجود خصيصة منها أو أكثر، بالقصد أو التوافق، ولا سيما شمول قدر كبير من المادة الفقهية الموثقة، هو الذي يسيغ إطلاق اسم الموسوعات عليها، من باب التجوز لا الحقيقة، لأنها تفتقر إلى أهم الخصائص: اتخاذ المصطلحات المرتبة أساسا للبحث فيها، فضلا عن سهولة الأسلوب وإطلاق الحدود للبيان المتناسق. والفقه الإسلامي غني بأمثال تلك المراجع التي إن خدمت بفهارس تحليلية كانت بمثابة موسوعات مبدئية لمذهب أو أكثر، وهي بهذه الخدمة ستكون مما يوطئ للموسوعة ويسد الفراغ إلى حين. أهداف</code> |
306
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
307
+ ```json
308
+ {
309
+ "loss": "MultipleNegativesRankingLoss",
310
+ "matryoshka_dims": [
311
+ 2560,
312
+ 1536,
313
+ 768,
314
+ 512
315
+ ],
316
+ "matryoshka_weights": [
317
+ 1,
318
+ 1,
319
+ 1,
320
+ 1
321
+ ],
322
+ "n_dims_per_step": -1
323
+ }
324
+ ```
325
+
326
+ ### Training Hyperparameters
327
+ #### Non-Default Hyperparameters
328
+
329
+ - `eval_strategy`: steps
330
+ - `per_device_train_batch_size`: 6
331
+ - `gradient_accumulation_steps`: 2
332
+ - `learning_rate`: 0.0001
333
+ - `num_train_epochs`: 1
334
+ - `warmup_steps`: 100
335
+ - `bf16`: True
336
+ - `tf32`: True
337
+ - `load_best_model_at_end`: True
338
+ - `optim`: paged_adamw_8bit
339
+
340
+ #### All Hyperparameters
341
+ <details><summary>Click to expand</summary>
342
+
343
+ - `overwrite_output_dir`: False
344
+ - `do_predict`: False
345
+ - `eval_strategy`: steps
346
+ - `prediction_loss_only`: True
347
+ - `per_device_train_batch_size`: 6
348
+ - `per_device_eval_batch_size`: 8
349
+ - `per_gpu_train_batch_size`: None
350
+ - `per_gpu_eval_batch_size`: None
351
+ - `gradient_accumulation_steps`: 2
352
+ - `eval_accumulation_steps`: None
353
+ - `torch_empty_cache_steps`: None
354
+ - `learning_rate`: 0.0001
355
+ - `weight_decay`: 0.0
356
+ - `adam_beta1`: 0.9
357
+ - `adam_beta2`: 0.999
358
+ - `adam_epsilon`: 1e-08
359
+ - `max_grad_norm`: 1.0
360
+ - `num_train_epochs`: 1
361
+ - `max_steps`: -1
362
+ - `lr_scheduler_type`: linear
363
+ - `lr_scheduler_kwargs`: {}
364
+ - `warmup_ratio`: 0.0
365
+ - `warmup_steps`: 100
366
+ - `log_level`: passive
367
+ - `log_level_replica`: warning
368
+ - `log_on_each_node`: True
369
+ - `logging_nan_inf_filter`: True
370
+ - `save_safetensors`: True
371
+ - `save_on_each_node`: False
372
+ - `save_only_model`: False
373
+ - `restore_callback_states_from_checkpoint`: False
374
+ - `no_cuda`: False
375
+ - `use_cpu`: False
376
+ - `use_mps_device`: False
377
+ - `seed`: 42
378
+ - `data_seed`: None
379
+ - `jit_mode_eval`: False
380
+ - `bf16`: True
381
+ - `fp16`: False
382
+ - `fp16_opt_level`: O1
383
+ - `half_precision_backend`: auto
384
+ - `bf16_full_eval`: False
385
+ - `fp16_full_eval`: False
386
+ - `tf32`: True
387
+ - `local_rank`: 0
388
+ - `ddp_backend`: None
389
+ - `tpu_num_cores`: None
390
+ - `tpu_metrics_debug`: False
391
+ - `debug`: []
392
+ - `dataloader_drop_last`: False
393
+ - `dataloader_num_workers`: 0
394
+ - `dataloader_prefetch_factor`: None
395
+ - `past_index`: -1
396
+ - `disable_tqdm`: False
397
+ - `remove_unused_columns`: True
398
+ - `label_names`: None
399
+ - `load_best_model_at_end`: True
400
+ - `ignore_data_skip`: False
401
+ - `fsdp`: []
402
+ - `fsdp_min_num_params`: 0
403
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
404
+ - `fsdp_transformer_layer_cls_to_wrap`: None
405
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
406
+ - `parallelism_config`: None
407
+ - `deepspeed`: None
408
+ - `label_smoothing_factor`: 0.0
409
+ - `optim`: paged_adamw_8bit
410
+ - `optim_args`: None
411
+ - `adafactor`: False
412
+ - `group_by_length`: False
413
+ - `length_column_name`: length
414
+ - `project`: huggingface
415
+ - `trackio_space_id`: trackio
416
+ - `ddp_find_unused_parameters`: None
417
+ - `ddp_bucket_cap_mb`: None
418
+ - `ddp_broadcast_buffers`: False
419
+ - `dataloader_pin_memory`: True
420
+ - `dataloader_persistent_workers`: False
421
+ - `skip_memory_metrics`: True
422
+ - `use_legacy_prediction_loop`: False
423
+ - `push_to_hub`: False
424
+ - `resume_from_checkpoint`: None
425
+ - `hub_model_id`: None
426
+ - `hub_strategy`: every_save
427
+ - `hub_private_repo`: None
428
+ - `hub_always_push`: False
429
+ - `hub_revision`: None
430
+ - `gradient_checkpointing`: False
431
+ - `gradient_checkpointing_kwargs`: None
432
+ - `include_inputs_for_metrics`: False
433
+ - `include_for_metrics`: []
434
+ - `eval_do_concat_batches`: True
435
+ - `fp16_backend`: auto
436
+ - `push_to_hub_model_id`: None
437
+ - `push_to_hub_organization`: None
438
+ - `mp_parameters`:
439
+ - `auto_find_batch_size`: False
440
+ - `full_determinism`: False
441
+ - `torchdynamo`: None
442
+ - `ray_scope`: last
443
+ - `ddp_timeout`: 1800
444
+ - `torch_compile`: False
445
+ - `torch_compile_backend`: None
446
+ - `torch_compile_mode`: None
447
+ - `include_tokens_per_second`: False
448
+ - `include_num_input_tokens_seen`: no
449
+ - `neftune_noise_alpha`: None
450
+ - `optim_target_modules`: None
451
+ - `batch_eval_metrics`: False
452
+ - `eval_on_start`: False
453
+ - `use_liger_kernel`: False
454
+ - `liger_kernel_config`: None
455
+ - `eval_use_gather_object`: False
456
+ - `average_tokens_across_devices`: True
457
+ - `prompts`: None
458
+ - `batch_sampler`: batch_sampler
459
+ - `multi_dataset_batch_sampler`: proportional
460
+ - `router_mapping`: {}
461
+ - `learning_rate_mapping`: {}
462
+
463
+ </details>
464
+
465
+ ### Training Logs
466
+ | Epoch | Step | Training Loss | eval_spearman_cosine |
467
+ |:----------:|:--------:|:-------------:|:--------------------:|
468
+ | 0.0132 | 100 | 0.6026 | - |
469
+ | 0.0263 | 200 | 0.3886 | - |
470
+ | 0.0395 | 300 | 0.3765 | - |
471
+ | 0.0527 | 400 | 0.3261 | - |
472
+ | 0.0658 | 500 | 0.3843 | 0.7993 |
473
+ | 0.0790 | 600 | 0.4116 | - |
474
+ | 0.0922 | 700 | 0.3508 | - |
475
+ | 0.1053 | 800 | 0.4084 | - |
476
+ | 0.1185 | 900 | 0.3508 | - |
477
+ | 0.1317 | 1000 | 0.2892 | 0.8045 |
478
+ | 0.1449 | 1100 | 0.2915 | - |
479
+ | 0.1580 | 1200 | 0.347 | - |
480
+ | 0.1712 | 1300 | 0.328 | - |
481
+ | 0.1844 | 1400 | 0.3232 | - |
482
+ | 0.1975 | 1500 | 0.2443 | 0.8042 |
483
+ | 0.2107 | 1600 | 0.2877 | - |
484
+ | 0.2239 | 1700 | 0.3204 | - |
485
+ | 0.2370 | 1800 | 0.293 | - |
486
+ | 0.2502 | 1900 | 0.2974 | - |
487
+ | 0.2634 | 2000 | 0.2575 | 0.8051 |
488
+ | 0.2765 | 2100 | 0.2418 | - |
489
+ | 0.2897 | 2200 | 0.3061 | - |
490
+ | 0.3029 | 2300 | 0.3158 | - |
491
+ | 0.3160 | 2400 | 0.2764 | - |
492
+ | 0.3292 | 2500 | 0.2824 | 0.8064 |
493
+ | 0.3424 | 2600 | 0.321 | - |
494
+ | 0.3555 | 2700 | 0.254 | - |
495
+ | 0.3687 | 2800 | 0.3211 | - |
496
+ | 0.3819 | 2900 | 0.2988 | - |
497
+ | 0.3950 | 3000 | 0.2965 | 0.8063 |
498
+ | 0.4082 | 3100 | 0.2098 | - |
499
+ | 0.4214 | 3200 | 0.2348 | - |
500
+ | 0.4346 | 3300 | 0.2362 | - |
501
+ | 0.4477 | 3400 | 0.2273 | - |
502
+ | 0.4609 | 3500 | 0.2642 | 0.8061 |
503
+ | 0.4741 | 3600 | 0.2834 | - |
504
+ | 0.4872 | 3700 | 0.2828 | - |
505
+ | 0.5004 | 3800 | 0.2668 | - |
506
+ | 0.5136 | 3900 | 0.2733 | - |
507
+ | 0.5267 | 4000 | 0.3085 | 0.8069 |
508
+ | 0.5399 | 4100 | 0.3047 | - |
509
+ | 0.5531 | 4200 | 0.2503 | - |
510
+ | 0.5662 | 4300 | 0.2671 | - |
511
+ | 0.5794 | 4400 | 0.2041 | - |
512
+ | 0.5926 | 4500 | 0.3233 | 0.8066 |
513
+ | 0.6057 | 4600 | 0.3447 | - |
514
+ | 0.6189 | 4700 | 0.2845 | - |
515
+ | 0.6321 | 4800 | 0.2762 | - |
516
+ | 0.6452 | 4900 | 0.3012 | - |
517
+ | 0.6584 | 5000 | 0.2879 | 0.8066 |
518
+ | 0.6716 | 5100 | 0.267 | - |
519
+ | 0.6848 | 5200 | 0.2649 | - |
520
+ | 0.6979 | 5300 | 0.2975 | - |
521
+ | 0.7111 | 5400 | 0.351 | - |
522
+ | 0.7243 | 5500 | 0.2884 | 0.8064 |
523
+ | 0.7374 | 5600 | 0.2223 | - |
524
+ | 0.7506 | 5700 | 0.2801 | - |
525
+ | 0.7638 | 5800 | 0.2432 | - |
526
+ | 0.7769 | 5900 | 0.2379 | - |
527
+ | 0.7901 | 6000 | 0.2882 | 0.8065 |
528
+ | 0.8033 | 6100 | 0.2505 | - |
529
+ | 0.8164 | 6200 | 0.3277 | - |
530
+ | 0.8296 | 6300 | 0.3131 | - |
531
+ | 0.8428 | 6400 | 0.2773 | - |
532
+ | 0.8559 | 6500 | 0.308 | 0.8065 |
533
+ | 0.8691 | 6600 | 0.2376 | - |
534
+ | 0.8823 | 6700 | 0.2542 | - |
535
+ | 0.8954 | 6800 | 0.2692 | - |
536
+ | 0.9086 | 6900 | 0.212 | - |
537
+ | 0.9218 | 7000 | 0.3418 | 0.8065 |
538
+ | 0.9349 | 7100 | 0.3699 | - |
539
+ | 0.9481 | 7200 | 0.3073 | - |
540
+ | 0.9613 | 7300 | 0.2819 | - |
541
+ | 0.9745 | 7400 | 0.1871 | - |
542
+ | **0.9876** | **7500** | **0.1755** | **0.8065** |
543
+
544
+ * The bold row denotes the saved checkpoint.
545
+
546
+ ### Framework Versions
547
+ - Python: 3.11.14
548
+ - Sentence Transformers: 5.1.2
549
+ - Transformers: 4.57.1
550
+ - PyTorch: 2.9.0+cu128
551
+ - Accelerate: 1.11.0
552
+ - Datasets: 4.3.0
553
+ - Tokenizers: 0.22.1
554
+
555
+ ## Citation
556
+
557
+ ### BibTeX
558
+
559
+ #### Sentence Transformers
560
+ ```bibtex
561
+ @inproceedings{reimers-2019-sentence-bert,
562
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
563
+ author = "Reimers, Nils and Gurevych, Iryna",
564
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
565
+ month = "11",
566
+ year = "2019",
567
+ publisher = "Association for Computational Linguistics",
568
+ url = "https://arxiv.org/abs/1908.10084",
569
+ }
570
+ ```
571
+
572
+ #### MatryoshkaLoss
573
+ ```bibtex
574
+ @misc{kusupati2024matryoshka,
575
+ title={Matryoshka Representation Learning},
576
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
577
+ year={2024},
578
+ eprint={2205.13147},
579
+ archivePrefix={arXiv},
580
+ primaryClass={cs.LG}
581
+ }
582
+ ```
583
+
584
+ #### MultipleNegativesRankingLoss
585
+ ```bibtex
586
+ @misc{henderson2017efficient,
587
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
588
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
589
+ year={2017},
590
+ eprint={1705.00652},
591
+ archivePrefix={arXiv},
592
+ primaryClass={cs.CL}
593
+ }
594
+ ```
595
+
596
+ <!--
597
+ ## Glossary
598
+
599
+ *Clearly define terms in order to be accessible across audiences.*
600
+ -->
601
+
602
+ <!--
603
+ ## Model Card Authors
604
+
605
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
606
+ -->
607
+
608
+ <!--
609
+ ## Model Card Contact
610
+
611
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
612
+ -->
adapter_config.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "alpha_pattern": {},
3
+ "auto_mapping": null,
4
+ "base_model_name_or_path": "Qwen/Qwen3-Embedding-4B",
5
+ "bias": "none",
6
+ "corda_config": null,
7
+ "eva_config": null,
8
+ "exclude_modules": null,
9
+ "fan_in_fan_out": false,
10
+ "inference_mode": false,
11
+ "init_lora_weights": true,
12
+ "layer_replication": null,
13
+ "layers_pattern": null,
14
+ "layers_to_transform": null,
15
+ "loftq_config": {},
16
+ "lora_alpha": 8,
17
+ "lora_bias": false,
18
+ "lora_dropout": 0.1,
19
+ "megatron_config": null,
20
+ "megatron_core": "megatron.core",
21
+ "modules_to_save": null,
22
+ "peft_type": "LORA",
23
+ "qalora_group_size": 16,
24
+ "r": 8,
25
+ "rank_pattern": {},
26
+ "revision": null,
27
+ "target_modules": [
28
+ "q_proj",
29
+ "v_proj"
30
+ ],
31
+ "target_parameters": null,
32
+ "task_type": "FEATURE_EXTRACTION",
33
+ "trainable_token_indices": null,
34
+ "use_dora": false,
35
+ "use_qalora": false,
36
+ "use_rslora": false
37
+ }
adapter_model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:81bfd2b969d97cbfc7ff5a42dea1ffc9e6790341306cd697541e1aeb49fbd212
3
+ size 5916472
added_tokens.json ADDED
@@ -0,0 +1,24 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "</tool_call>": 151658,
3
+ "<tool_call>": 151657,
4
+ "<|box_end|>": 151649,
5
+ "<|box_start|>": 151648,
6
+ "<|endoftext|>": 151643,
7
+ "<|file_sep|>": 151664,
8
+ "<|fim_middle|>": 151660,
9
+ "<|fim_pad|>": 151662,
10
+ "<|fim_prefix|>": 151659,
11
+ "<|fim_suffix|>": 151661,
12
+ "<|im_end|>": 151645,
13
+ "<|im_start|>": 151644,
14
+ "<|image_pad|>": 151655,
15
+ "<|object_ref_end|>": 151647,
16
+ "<|object_ref_start|>": 151646,
17
+ "<|quad_end|>": 151651,
18
+ "<|quad_start|>": 151650,
19
+ "<|repo_name|>": 151663,
20
+ "<|video_pad|>": 151656,
21
+ "<|vision_end|>": 151653,
22
+ "<|vision_pad|>": 151654,
23
+ "<|vision_start|>": 151652
24
+ }
chat_template.jinja ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {%- if tools %}
2
+ {{- '<|im_start|>system\n' }}
3
+ {%- if messages[0]['role'] == 'system' %}
4
+ {{- messages[0]['content'] }}
5
+ {%- else %}
6
+ {{- 'You are a helpful assistant.' }}
7
+ {%- endif %}
8
+ {{- "\n\n# Tools\n\nYou may call one or more functions to assist with the user query.\n\nYou are provided with function signatures within <tools></tools> XML tags:\n<tools>" }}
9
+ {%- for tool in tools %}
10
+ {{- "\n" }}
11
+ {{- tool | tojson }}
12
+ {%- endfor %}
13
+ {{- "\n</tools>\n\nFor each function call, return a json object with function name and arguments within <tool_call></tool_call> XML tags:\n<tool_call>\n{\"name\": <function-name>, \"arguments\": <args-json-object>}\n</tool_call><|im_end|>\n" }}
14
+ {%- else %}
15
+ {%- if messages[0]['role'] == 'system' %}
16
+ {{- '<|im_start|>system\n' + messages[0]['content'] + '<|im_end|>\n' }}
17
+ {%- else %}
18
+ {{- '<|im_start|>system\nYou are a helpful assistant.<|im_end|>\n' }}
19
+ {%- endif %}
20
+ {%- endif %}
21
+ {%- for message in messages %}
22
+ {%- if (message.role == "user") or (message.role == "system" and not loop.first) or (message.role == "assistant" and not message.tool_calls) %}
23
+ {{- '<|im_start|>' + message.role + '\n' + message.content + '<|im_end|>' + '\n' }}
24
+ {%- elif message.role == "assistant" %}
25
+ {{- '<|im_start|>' + message.role }}
26
+ {%- if message.content %}
27
+ {{- '\n' + message.content }}
28
+ {%- endif %}
29
+ {%- for tool_call in message.tool_calls %}
30
+ {%- if tool_call.function is defined %}
31
+ {%- set tool_call = tool_call.function %}
32
+ {%- endif %}
33
+ {{- '\n<tool_call>\n{"name": "' }}
34
+ {{- tool_call.name }}
35
+ {{- '", "arguments": ' }}
36
+ {{- tool_call.arguments | tojson }}
37
+ {{- '}\n</tool_call>' }}
38
+ {%- endfor %}
39
+ {{- '<|im_end|>\n' }}
40
+ {%- elif message.role == "tool" %}
41
+ {%- if (loop.index0 == 0) or (messages[loop.index0 - 1].role != "tool") %}
42
+ {{- '<|im_start|>user' }}
43
+ {%- endif %}
44
+ {{- '\n<tool_response>\n' }}
45
+ {{- message.content }}
46
+ {{- '\n</tool_response>' }}
47
+ {%- if loop.last or (messages[loop.index0 + 1].role != "tool") %}
48
+ {{- '<|im_end|>\n' }}
49
+ {%- endif %}
50
+ {%- endif %}
51
+ {%- endfor %}
52
+ {%- if add_generation_prompt %}
53
+ {{- '<|im_start|>assistant\n' }}
54
+ {%- endif %}
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "prompts": {
3
+ "query": "Instruct: Given a web search query, retrieve relevant passages that answer the query\nQuery:",
4
+ "document": ""
5
+ },
6
+ "default_prompt_name": null,
7
+ "similarity_fn_name": "cosine",
8
+ "model_type": "SentenceTransformer",
9
+ "__version__": {
10
+ "sentence_transformers": "5.1.2",
11
+ "transformers": "4.57.1",
12
+ "pytorch": "2.9.0+cu128"
13
+ }
14
+ }
merges.txt ADDED
The diff for this file is too large to render. See raw diff
 
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,31 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<|im_start|>",
4
+ "<|im_end|>",
5
+ "<|object_ref_start|>",
6
+ "<|object_ref_end|>",
7
+ "<|box_start|>",
8
+ "<|box_end|>",
9
+ "<|quad_start|>",
10
+ "<|quad_end|>",
11
+ "<|vision_start|>",
12
+ "<|vision_end|>",
13
+ "<|vision_pad|>",
14
+ "<|image_pad|>",
15
+ "<|video_pad|>"
16
+ ],
17
+ "eos_token": {
18
+ "content": "<|im_end|>",
19
+ "lstrip": false,
20
+ "normalized": false,
21
+ "rstrip": false,
22
+ "single_word": false
23
+ },
24
+ "pad_token": {
25
+ "content": "<|endoftext|>",
26
+ "lstrip": false,
27
+ "normalized": false,
28
+ "rstrip": false,
29
+ "single_word": false
30
+ }
31
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:00bc7e8d1c2c18e5ced697f8b4beb4e4e8f4285180ffbe6b51d1b46d12cc9a75
3
+ size 11423213
tokenizer_config.json ADDED
@@ -0,0 +1,207 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_bos_token": false,
3
+ "add_prefix_space": false,
4
+ "added_tokens_decoder": {
5
+ "151643": {
6
+ "content": "<|endoftext|>",
7
+ "lstrip": false,
8
+ "normalized": false,
9
+ "rstrip": false,
10
+ "single_word": false,
11
+ "special": true
12
+ },
13
+ "151644": {
14
+ "content": "<|im_start|>",
15
+ "lstrip": false,
16
+ "normalized": false,
17
+ "rstrip": false,
18
+ "single_word": false,
19
+ "special": true
20
+ },
21
+ "151645": {
22
+ "content": "<|im_end|>",
23
+ "lstrip": false,
24
+ "normalized": false,
25
+ "rstrip": false,
26
+ "single_word": false,
27
+ "special": true
28
+ },
29
+ "151646": {
30
+ "content": "<|object_ref_start|>",
31
+ "lstrip": false,
32
+ "normalized": false,
33
+ "rstrip": false,
34
+ "single_word": false,
35
+ "special": true
36
+ },
37
+ "151647": {
38
+ "content": "<|object_ref_end|>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false,
43
+ "special": true
44
+ },
45
+ "151648": {
46
+ "content": "<|box_start|>",
47
+ "lstrip": false,
48
+ "normalized": false,
49
+ "rstrip": false,
50
+ "single_word": false,
51
+ "special": true
52
+ },
53
+ "151649": {
54
+ "content": "<|box_end|>",
55
+ "lstrip": false,
56
+ "normalized": false,
57
+ "rstrip": false,
58
+ "single_word": false,
59
+ "special": true
60
+ },
61
+ "151650": {
62
+ "content": "<|quad_start|>",
63
+ "lstrip": false,
64
+ "normalized": false,
65
+ "rstrip": false,
66
+ "single_word": false,
67
+ "special": true
68
+ },
69
+ "151651": {
70
+ "content": "<|quad_end|>",
71
+ "lstrip": false,
72
+ "normalized": false,
73
+ "rstrip": false,
74
+ "single_word": false,
75
+ "special": true
76
+ },
77
+ "151652": {
78
+ "content": "<|vision_start|>",
79
+ "lstrip": false,
80
+ "normalized": false,
81
+ "rstrip": false,
82
+ "single_word": false,
83
+ "special": true
84
+ },
85
+ "151653": {
86
+ "content": "<|vision_end|>",
87
+ "lstrip": false,
88
+ "normalized": false,
89
+ "rstrip": false,
90
+ "single_word": false,
91
+ "special": true
92
+ },
93
+ "151654": {
94
+ "content": "<|vision_pad|>",
95
+ "lstrip": false,
96
+ "normalized": false,
97
+ "rstrip": false,
98
+ "single_word": false,
99
+ "special": true
100
+ },
101
+ "151655": {
102
+ "content": "<|image_pad|>",
103
+ "lstrip": false,
104
+ "normalized": false,
105
+ "rstrip": false,
106
+ "single_word": false,
107
+ "special": true
108
+ },
109
+ "151656": {
110
+ "content": "<|video_pad|>",
111
+ "lstrip": false,
112
+ "normalized": false,
113
+ "rstrip": false,
114
+ "single_word": false,
115
+ "special": true
116
+ },
117
+ "151657": {
118
+ "content": "<tool_call>",
119
+ "lstrip": false,
120
+ "normalized": false,
121
+ "rstrip": false,
122
+ "single_word": false,
123
+ "special": false
124
+ },
125
+ "151658": {
126
+ "content": "</tool_call>",
127
+ "lstrip": false,
128
+ "normalized": false,
129
+ "rstrip": false,
130
+ "single_word": false,
131
+ "special": false
132
+ },
133
+ "151659": {
134
+ "content": "<|fim_prefix|>",
135
+ "lstrip": false,
136
+ "normalized": false,
137
+ "rstrip": false,
138
+ "single_word": false,
139
+ "special": false
140
+ },
141
+ "151660": {
142
+ "content": "<|fim_middle|>",
143
+ "lstrip": false,
144
+ "normalized": false,
145
+ "rstrip": false,
146
+ "single_word": false,
147
+ "special": false
148
+ },
149
+ "151661": {
150
+ "content": "<|fim_suffix|>",
151
+ "lstrip": false,
152
+ "normalized": false,
153
+ "rstrip": false,
154
+ "single_word": false,
155
+ "special": false
156
+ },
157
+ "151662": {
158
+ "content": "<|fim_pad|>",
159
+ "lstrip": false,
160
+ "normalized": false,
161
+ "rstrip": false,
162
+ "single_word": false,
163
+ "special": false
164
+ },
165
+ "151663": {
166
+ "content": "<|repo_name|>",
167
+ "lstrip": false,
168
+ "normalized": false,
169
+ "rstrip": false,
170
+ "single_word": false,
171
+ "special": false
172
+ },
173
+ "151664": {
174
+ "content": "<|file_sep|>",
175
+ "lstrip": false,
176
+ "normalized": false,
177
+ "rstrip": false,
178
+ "single_word": false,
179
+ "special": false
180
+ }
181
+ },
182
+ "additional_special_tokens": [
183
+ "<|im_start|>",
184
+ "<|im_end|>",
185
+ "<|object_ref_start|>",
186
+ "<|object_ref_end|>",
187
+ "<|box_start|>",
188
+ "<|box_end|>",
189
+ "<|quad_start|>",
190
+ "<|quad_end|>",
191
+ "<|vision_start|>",
192
+ "<|vision_end|>",
193
+ "<|vision_pad|>",
194
+ "<|image_pad|>",
195
+ "<|video_pad|>"
196
+ ],
197
+ "bos_token": null,
198
+ "clean_up_tokenization_spaces": false,
199
+ "eos_token": "<|im_end|>",
200
+ "errors": "replace",
201
+ "extra_special_tokens": {},
202
+ "model_max_length": 131072,
203
+ "pad_token": "<|endoftext|>",
204
+ "split_special_tokens": false,
205
+ "tokenizer_class": "Qwen2Tokenizer",
206
+ "unk_token": null
207
+ }
vocab.json ADDED
The diff for this file is too large to render. See raw diff