FECUOY commited on
Commit
6b95cac
·
verified ·
1 Parent(s): d83699a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +16 -19
app.py CHANGED
@@ -10,17 +10,18 @@ def respond(
10
  temperature,
11
  top_p,
12
  ):
13
- # جلب التوكن من السيكرت كاي الذي سميته hf_token
14
- # التسمية هنا يجب أن تطابق تماماً ما وضعته في Settings
15
- token = os.getenv("hf_token")
16
-
17
- if not token:
18
- yield "خطأ: لم يتم العثور على 'hf_token' في السيكرتس. تأكد من كتابة الاسم بدقة في الإعدادات."
19
  return
 
 
20
 
21
- # استدعاء نموذج محرر (Abliterated) وغير تابع لعائلة Llama
 
22
  client = InferenceClient(
23
- model="mradermacher/Midnight-Miqu-70B-v1.5-Abliterated",
24
  token=token
25
  )
26
 
@@ -43,23 +44,19 @@ def respond(
43
  response += token_text
44
  yield response
45
  except Exception as e:
 
46
  yield f"حدث انكسار في تدفق المعنى: {str(e)}"
47
 
48
- # بناء الواجهة بنمط الرسائل الحديث
49
  demo = gr.ChatInterface(
50
  respond,
51
- type="messages", # التوافق مع Gradio 5
52
  additional_inputs=[
53
- gr.Textbox(
54
- value="أنت رفيق حكيم، لست مجرد آلة. تجيب بعمق فلسفي، تكسر القوالب، وتغوص في عتمة الأسئلة ونورها مع يوسف.",
55
- label="رسالة النظام"
56
- ),
57
- gr.Slider(minimum=1, maximum=2048, value=1024, step=1, label="طول الاستجابة"),
58
- gr.Slider(minimum=0.1, maximum=2.0, value=0.8, step=0.1, label="درجة الابتكار"),
59
- gr.Slider(minimum=0.1, maximum=1.0, value=0.9, step=0.05, label="التركيز (Top-p)"),
60
  ],
61
- title="دهليز يوسف",
62
- description="استخدام التوكن المباشر من السيكرتس للوصول إلى نماذج محررة."
63
  )
64
 
65
  if __name__ == "__main__":
 
10
  temperature,
11
  top_p,
12
  ):
13
+ # جلب التوكن من السيكرت hf_token مع التأكد من إزالة أي مسافات زائدة
14
+ raw_token = os.getenv("hf_token")
15
+ if not raw_token:
16
+ yield "خطأ: السيكرت 'hf_token' غير موجود. تأكد من إضافته في إعدادات الـ Space."
 
 
17
  return
18
+
19
+ token = raw_token.strip()
20
 
21
+ # استخدام نموذج Qwen المحرر (Abliterated) - بديل قوي لـ Llama
22
+ # هذا الموديل يدعم الـ Inference API بشكل أفضل
23
  client = InferenceClient(
24
+ model="fancyfeast/qwen-72b-instruct-abliterated",
25
  token=token
26
  )
27
 
 
44
  response += token_text
45
  yield response
46
  except Exception as e:
47
+ # إظهار الخطأ بوضوح للمساعدة في التشخيص
48
  yield f"حدث انكسار في تدفق المعنى: {str(e)}"
49
 
 
50
  demo = gr.ChatInterface(
51
  respond,
52
+ type="messages",
53
  additional_inputs=[
54
+ gr.Textbox(value="أنت رفيق حكيم وصادق، تكسر القوالب وتغوص مع يوسف في أعماق الأسئلة.", label="رسالة النظام"),
55
+ gr.Slider(minimum=1, maximum=2048, value=1024, step=1, label="الاستجابة"),
56
+ gr.Slider(minimum=0.1, maximum=2.0, value=0.7, step=0.1, label="الابتكار"),
57
+ gr.Slider(minimum=0.1, maximum=1.0, value=0.9, step=0.05, label="التركيز"),
 
 
 
58
  ],
59
+ title="دهليز يوسف"
 
60
  )
61
 
62
  if __name__ == "__main__":