yut23387 commited on
Commit
3d71956
·
verified ·
1 Parent(s): 6ac0601

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +11 -12
Dockerfile CHANGED
@@ -1,23 +1,22 @@
1
- # 1. بنستخدم نسخة Bullseye (كلمة السر لتفادي البناء) 🔑
2
- # دي متوافقة مع الملفات الجاهزة فمش هتحتاج Compilers
3
- FROM python:3.10-bullseye
4
 
5
- # 2. تحديث pip ضروري عشان يقرا الروابط صح
6
- RUN pip install --upgrade pip
7
-
8
- # 3. تحميل llama-cpp-python (نسخة جاهزة CPU-only) ⚡
9
- # لاحظ: هنا هينزل ملف .whl جاهز ومش هيعمل Build
10
- RUN pip install --no-cache-dir llama-cpp-python \
11
  --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
12
 
13
- # 4. باقي المكتبات (بتنزل بسرعة)
14
  RUN pip install --no-cache-dir huggingface_hub pydantic_settings
15
 
16
- # 5. إعدادات الموديل (زي ما هي)
17
  ENV HF_REPO_ID="yut23387/Llama-3-8B-Merged-Model-Q4_K_M-GGUF"
18
  ENV HF_MODEL_FILE="llama-3-8b-merged-model-q4_k_m.gguf"
19
 
20
- # 6. التشغيل
21
  EXPOSE 7860
22
  CMD python3 -m llama_cpp.server \
23
  --model_hf_repo_id $HF_REPO_ID \
 
1
+ # 1. استخدام النسخة الكاملة (عشان يقبل الملفات الجاهزة فوراً)
2
+ FROM python:3.10
 
3
 
4
+ # 2. أمر التسطيب (معدل ليجبره على استخدام الملف الجاهز)
5
+ # --prefer-binary: معناها "لو لقيت ملف جاهز هاته ومتبنيش"
6
+ # حددنا الإصدار 0.2.90 لأنه مستقر جداً وله ملفات CPU جاهزة
7
+ RUN pip install --no-cache-dir \
8
+ --prefer-binary \
9
+ llama-cpp-python==0.2.90 \
10
  --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
11
 
12
+ # 3. باقي المكتبات
13
  RUN pip install --no-cache-dir huggingface_hub pydantic_settings
14
 
15
+ # 4. إعدادات الموديل (زي ما هي)
16
  ENV HF_REPO_ID="yut23387/Llama-3-8B-Merged-Model-Q4_K_M-GGUF"
17
  ENV HF_MODEL_FILE="llama-3-8b-merged-model-q4_k_m.gguf"
18
 
19
+ # 5. التشغيل
20
  EXPOSE 7860
21
  CMD python3 -m llama_cpp.server \
22
  --model_hf_repo_id $HF_REPO_ID \