yut23387 commited on
Commit
78d623b
·
verified ·
1 Parent(s): c905108

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +17 -1
Dockerfile CHANGED
@@ -1,8 +1,24 @@
1
- FROM ghcr.io/abetlen/llama-cpp-python:latest-cpu
 
2
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3
  ENV HF_REPO_ID="yut23387/Llama-3-8B-Merged-Model-Q4_K_M-GGUF"
4
  ENV HF_MODEL_FILE="llama-3-8b-merged-model-q4_k_m.gguf"
5
 
 
 
6
  CMD python3 -m llama_cpp.server \
7
  --model_hf_repo_id $HF_REPO_ID \
8
  --model_hf_file $HF_MODEL_FILE \
 
1
+ # 1. بنستخدم نسخة بايثون خفيفة جداً ورسمية (موجودة دايماً)
2
+ FROM python:3.10-slim
3
 
4
+ # 2. تحديث سريع للأدوات
5
+ RUN apt-get update && apt-get install -y --no-install-recommends git && rm -rf /var/lib/apt/lists/*
6
+
7
+ # 3. (الخدعة هنا) 🔥
8
+ # بدل ما يبني المكتبة، بنقوله نزل النسخة الـ CPU الجاهزة فوراً
9
+ # ده هيخلي التحميل ياخد ثواني بدل نص ساعة
10
+ RUN pip install --no-cache-dir llama-cpp-python \
11
+ --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
12
+
13
+ # 4. تسطيب باقي المكتبات المطلوبة للتعامل مع Hugging Face
14
+ RUN pip install --no-cache-dir huggingface_hub pydantic_settings
15
+
16
+ # 5. إعدادات الموديل بتاعك (زي ما هي)
17
  ENV HF_REPO_ID="yut23387/Llama-3-8B-Merged-Model-Q4_K_M-GGUF"
18
  ENV HF_MODEL_FILE="llama-3-8b-merged-model-q4_k_m.gguf"
19
 
20
+ # 6. فتح البورت وتشغيل السيرفر
21
+ EXPOSE 7860
22
  CMD python3 -m llama_cpp.server \
23
  --model_hf_repo_id $HF_REPO_ID \
24
  --model_hf_file $HF_MODEL_FILE \