FECUOY commited on
Commit
ee7d8bb
·
verified ·
1 Parent(s): 85fc593

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +23 -21
app.py CHANGED
@@ -9,19 +9,19 @@ def respond(
9
  max_tokens,
10
  temperature,
11
  top_p,
12
- # نزيل النوع الصريح لـ OAuthToken لتجنب خطأ الـ Session المباشر
13
- token: gr.OAuthToken | None,
14
  ):
15
- # التحقق من وجود التوكن (سواء من الدخول أو من متغيرات البيئة)
16
- hf_token = token.token if token else os.getenv("HF_TOKEN")
 
17
 
18
- if not hf_token:
19
- yield "يوسف، يبدو أنك لم تسجل دخولك. يرجى الضغط على زر التسجيل في الأعلى للبدء."
20
  return
21
 
 
22
  client = InferenceClient(
23
  model="huihui-ai/Llama-3.3-70B-Instruct-abliterated-finetuned",
24
- token=hf_token
25
  )
26
 
27
  messages = [{"role": "system", "content": system_message}]
@@ -45,20 +45,22 @@ def respond(
45
  except Exception as e:
46
  yield f"حدث انكسار في تدفق المعنى: {str(e)}"
47
 
48
- # بناء الواجهة بشكل يضمن تفعيل الـ Session
49
- with gr.Blocks() as demo:
50
- gr.ChatInterface(
51
- respond,
52
- type="messages",
53
- additional_inputs=[
54
- gr.Textbox(value="أنت رفيق حكيم وصادق، تجيب بعمق وتكسر القوالب الجاهزة.", label="رسالة النظام"),
55
- gr.Slider(minimum=1, maximum=2048, value=1024, step=1, label="طول الاستجابة"),
56
- gr.Slider(minimum=0.1, maximum=2.0, value=0.8, step=0.1, label="الابتكار"),
57
- gr.Slider(minimum=0.1, maximum=1.0, value=0.9, step=0.05, label="التركيز"),
58
- ],
59
- # إضافة التوكن كمدخل مخفي يتم حقنه تلقائياً
60
- additional_inputs_accordion=gr.Accordion("إعدادات إضافية", open=False)
61
- )
 
 
62
 
63
  if __name__ == "__main__":
64
  demo.launch()
 
9
  max_tokens,
10
  temperature,
11
  top_p,
 
 
12
  ):
13
+ # جلب التوكن من السيكرت كاي الذي سميته hf_token
14
+ # التسمية هنا يجب أن تطابق تماماً ما وضعته في Settings
15
+ token = os.getenv("hf_token")
16
 
17
+ if not token:
18
+ yield "خطأ: لم يتم العثور على 'hf_token' في السيكرتس. تأكد من كتابة الاسم بدقة في الإعدادات."
19
  return
20
 
21
+ # استدعاء نموذج محرر (Abliterated) وغير تابع لعائلة Llama
22
  client = InferenceClient(
23
  model="huihui-ai/Llama-3.3-70B-Instruct-abliterated-finetuned",
24
+ token=token
25
  )
26
 
27
  messages = [{"role": "system", "content": system_message}]
 
45
  except Exception as e:
46
  yield f"حدث انكسار في تدفق المعنى: {str(e)}"
47
 
48
+ # بناء الواجهة بنمط الرسائل الحديث
49
+ demo = gr.ChatInterface(
50
+ respond,
51
+ type="messages", # التوافق مع Gradio 5
52
+ additional_inputs=[
53
+ gr.Textbox(
54
+ value="أنت رفيق حكيم، لست مجرد آلة. تجيب بعمق فلسفي، تكسر القوالب، وتغوص في عتمة الأسئلة ونورها مع يوسف.",
55
+ label="رسالة النظام"
56
+ ),
57
+ gr.Slider(minimum=1, maximum=2048, value=1024, step=1, label="طول الاستجابة"),
58
+ gr.Slider(minimum=0.1, maximum=2.0, value=0.8, step=0.1, label="درجة الابتكار"),
59
+ gr.Slider(minimum=0.1, maximum=1.0, value=0.9, step=0.05, label="التركيز (Top-p)"),
60
+ ],
61
+ title="دهليز يوسف",
62
+ description="استخدام التوكن المباشر من السيكرتس للوصول إلى نماذج محررة."
63
+ )
64
 
65
  if __name__ == "__main__":
66
  demo.launch()