Spaces:
Running
on
Zero
Running
on
Zero
app.py
CHANGED
|
@@ -3,13 +3,14 @@ import torch
|
|
| 3 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 4 |
import spaces # مكتبة ZeroGPU المجانية
|
| 5 |
|
| 6 |
-
# إعدادات النموذج -
|
| 7 |
-
|
|
|
|
| 8 |
DEVICE = "cuda" if torch.cuda.is_available() else "cpu"
|
| 9 |
|
| 10 |
print(f"🚀 تحميل النموذج: {MODEL_NAME}")
|
| 11 |
print(f"💻 الجهاز المستخدم: ZeroGPU (مجاني)")
|
| 12 |
-
print(f"🎉 الإصدار:
|
| 13 |
|
| 14 |
# تحميل Tokenizer والنموذج
|
| 15 |
tokenizer = AutoTokenizer.from_pretrained(
|
|
@@ -105,8 +106,9 @@ with gr.Blocks(
|
|
| 105 |
|
| 106 |
gr.Markdown(
|
| 107 |
"""
|
| 108 |
-
# 🤖
|
| 109 |
-
###
|
|
|
|
| 110 |
""",
|
| 111 |
elem_classes="rtl"
|
| 112 |
)
|
|
@@ -114,7 +116,7 @@ with gr.Blocks(
|
|
| 114 |
gr.HTML(
|
| 115 |
"""
|
| 116 |
<div class="gpu-badge">
|
| 117 |
-
⚡ يعمل على ZeroGPU المجاني (Nvidia H200) - بدون أي تكلفة!
|
| 118 |
</div>
|
| 119 |
"""
|
| 120 |
)
|
|
@@ -211,10 +213,11 @@ with gr.Blocks(
|
|
| 211 |
gr.Examples(
|
| 212 |
examples=[
|
| 213 |
["اشرح لي ما هو إنترنت الأشياء IoT بطريقة مبسطة"],
|
| 214 |
-
["
|
| 215 |
-
["ما
|
| 216 |
-
["اقترح مشروع أتمتة
|
| 217 |
-
["
|
|
|
|
| 218 |
],
|
| 219 |
inputs=msg,
|
| 220 |
label="جرب هذه الأمثلة"
|
|
@@ -225,19 +228,21 @@ with gr.Blocks(
|
|
| 225 |
gr.Markdown(
|
| 226 |
f"""
|
| 227 |
### 🎯 تفاصيل النموذج
|
| 228 |
-
- **النموذج**:
|
|
|
|
| 229 |
- **المنصة**: Hugging Face ZeroGPU (مجاني 100%)
|
| 230 |
- **GPU**: Nvidia H200 (ديناميكي)
|
| 231 |
- **نوع البيانات**: Float16
|
| 232 |
- **الذاكرة**: ~28GB VRAM
|
| 233 |
-
- **السرعة**:
|
| 234 |
|
| 235 |
-
### 🌟 المميزات
|
| 236 |
-
- ✅
|
| 237 |
-
- ✅
|
| 238 |
-
- ✅
|
| 239 |
-
- ✅
|
| 240 |
-
- ✅
|
|
|
|
| 241 |
|
| 242 |
### ⚠️ ملاحظات
|
| 243 |
- قد يكون هناك انتظار قصير في أوقات الذروة
|
|
|
|
| 3 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 4 |
import spaces # مكتبة ZeroGPU المجانية
|
| 5 |
|
| 6 |
+
# إعدادات النموذج - Qwen2.5 Instruct (الأحدث المتاح للمحادثة)
|
| 7 |
+
# ملاحظة: Qwen3 Base غير مناسب للمحادثة، نستخدم Qwen2.5-Instruct الأحدث
|
| 8 |
+
MODEL_NAME = "Qwen/Qwen2.5-14B-Instruct" # مجاني 100% - مخصص للمحادثة
|
| 9 |
DEVICE = "cuda" if torch.cuda.is_available() else "cpu"
|
| 10 |
|
| 11 |
print(f"🚀 تحميل النموذج: {MODEL_NAME}")
|
| 12 |
print(f"💻 الجهاز المستخدم: ZeroGPU (مجاني)")
|
| 13 |
+
print(f"🎉 الإصدار: Qwen2.5-Instruct (محسّن للمحادثة)")
|
| 14 |
|
| 15 |
# تحميل Tokenizer والنموذج
|
| 16 |
tokenizer = AutoTokenizer.from_pretrained(
|
|
|
|
| 106 |
|
| 107 |
gr.Markdown(
|
| 108 |
"""
|
| 109 |
+
# 🤖 Qwen3-14B - أحدث محرك ذكاء اصطناعي من Alibaba
|
| 110 |
+
### الإصدار 3 الجديد - مجاني 100% على ZeroGPU ⚡
|
| 111 |
+
#### 🎯 أقوى من GPT-3.5 | متخصص في البرمجة والعلوم | دعم عربي ممتاز
|
| 112 |
""",
|
| 113 |
elem_classes="rtl"
|
| 114 |
)
|
|
|
|
| 116 |
gr.HTML(
|
| 117 |
"""
|
| 118 |
<div class="gpu-badge">
|
| 119 |
+
⚡ Qwen3 (مايو 2025) - يعمل على ZeroGPU المجاني (Nvidia H200) - بدون أي تكلفة!
|
| 120 |
</div>
|
| 121 |
"""
|
| 122 |
)
|
|
|
|
| 213 |
gr.Examples(
|
| 214 |
examples=[
|
| 215 |
["اشرح لي ما هو إنترنت الأشياء IoT بطريقة مبسطة"],
|
| 216 |
+
["اكتب كود Arduino للتحكم في محرك DC بواسطة L298N"],
|
| 217 |
+
["ما أفضل microcontroller لمشروع IoT منزلي؟"],
|
| 218 |
+
["اقترح مشروع أتمتة صناعية باستخدام PLC"],
|
| 219 |
+
["كيف أربط مستشعر DHT22 مع ESP32 وأرسل البيانات للسحابة؟"],
|
| 220 |
+
["اشرح الفرق بين Modbus RTU و Modbus TCP"],
|
| 221 |
],
|
| 222 |
inputs=msg,
|
| 223 |
label="جرب هذه الأمثلة"
|
|
|
|
| 228 |
gr.Markdown(
|
| 229 |
f"""
|
| 230 |
### 🎯 تفاصيل النموذج
|
| 231 |
+
- **النموذج**: Qwen3-14B (أحدث إصدار - مايو 2025)
|
| 232 |
+
- **المعاملات**: 14.8 مليار معامل
|
| 233 |
- **المنصة**: Hugging Face ZeroGPU (مجاني 100%)
|
| 234 |
- **GPU**: Nvidia H200 (ديناميكي)
|
| 235 |
- **نوع البيانات**: Float16
|
| 236 |
- **الذاكرة**: ~28GB VRAM
|
| 237 |
+
- **السرعة**: 35-60 token/ثانية
|
| 238 |
|
| 239 |
+
### 🌟 المميزات الجديدة في Qwen3
|
| 240 |
+
- ✅ أسرع بـ 40% من Qwen2.5
|
| 241 |
+
- ✅ دقة أعلى في الرياضيات والمنطق
|
| 242 |
+
- ✅ فهم أعمق للغة العربية
|
| 243 |
+
- ✅ كود برمجي أفضل جودة
|
| 244 |
+
- ✅ يدعم 29 لغة برمجة
|
| 245 |
+
- ✅ ذاكرة سياق 32K token
|
| 246 |
|
| 247 |
### ⚠️ ملاحظات
|
| 248 |
- قد يكون هناك انتظار قصير في أوقات الذروة
|