yut23387 commited on
Commit
1f341a3
·
verified ·
1 Parent(s): 3d71956

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +5 -16
Dockerfile CHANGED
@@ -1,23 +1,12 @@
1
- # 1. استخدام النسخة الكاملة (عشان يقبل الملفات الجاهزة فوراً)
2
- FROM python:3.10
 
3
 
4
- # 2. أمر التسطيب (معدل ليجبره على استخدام الملف الجاهز)
5
- # --prefer-binary: معناها "لو لقيت ملف جاهز هاته ومتبنيش"
6
- # حددنا الإصدار 0.2.90 لأنه مستقر جداً وله ملفات CPU جاهزة
7
- RUN pip install --no-cache-dir \
8
- --prefer-binary \
9
- llama-cpp-python==0.2.90 \
10
- --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
11
-
12
- # 3. باقي المكتبات
13
- RUN pip install --no-cache-dir huggingface_hub pydantic_settings
14
-
15
- # 4. إعدادات الموديل (زي ما هي)
16
  ENV HF_REPO_ID="yut23387/Llama-3-8B-Merged-Model-Q4_K_M-GGUF"
17
  ENV HF_MODEL_FILE="llama-3-8b-merged-model-q4_k_m.gguf"
18
 
19
- # 5. التشغيل
20
- EXPOSE 7860
21
  CMD python3 -m llama_cpp.server \
22
  --model_hf_repo_id $HF_REPO_ID \
23
  --model_hf_file $HF_MODEL_FILE \
 
1
+ # ⚠️ هنا السر: حددنا الإصدار 0.2.90 بدل latest اللي كانت بايظة
2
+ # الصورة دي موجودة وسليمة 100% وفيها السيرفر جاهز
3
+ FROM ghcr.io/abetlen/llama-cpp-python:0.2.90
4
 
5
+ # 1. متغيرات الموديل بتاعك
 
 
 
 
 
 
 
 
 
 
 
6
  ENV HF_REPO_ID="yut23387/Llama-3-8B-Merged-Model-Q4_K_M-GGUF"
7
  ENV HF_MODEL_FILE="llama-3-8b-merged-model-q4_k_m.gguf"
8
 
9
+ # 2. أمر التشغيل (السيرفر جاهز جوا الصورة مش محتاج تسطيب)
 
10
  CMD python3 -m llama_cpp.server \
11
  --model_hf_repo_id $HF_REPO_ID \
12
  --model_hf_file $HF_MODEL_FILE \