yut23387 commited on
Commit
08b8a80
·
verified ·
1 Parent(s): 78d623b

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +13 -9
Dockerfile CHANGED
@@ -1,23 +1,27 @@
1
- # 1. بنستخدم نسخة بايثون خفيفة جداً ورسمية (موجودة دايماً)
2
  FROM python:3.10-slim
3
 
4
- # 2. تحديث سريع للأدوات
5
- RUN apt-get update && apt-get install -y --no-install-recommends git && rm -rf /var/lib/apt/lists/*
 
 
 
 
 
 
6
 
7
- # 3. (الخدعة هنا) 🔥
8
- # بدل ما يبني المكتبة، بنقوله نزل النسخة الـ CPU الجاهزة فوراً
9
- # ده هيخلي التحميل ياخد ثواني بدل نص ساعة
10
  RUN pip install --no-cache-dir llama-cpp-python \
11
  --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
12
 
13
- # 4. تسطيب باقي المكتبات المطلوبة للتعامل مع Hugging Face
14
  RUN pip install --no-cache-dir huggingface_hub pydantic_settings
15
 
16
- # 5. إعدادات الموديل بتاعك (زي ما هي)
17
  ENV HF_REPO_ID="yut23387/Llama-3-8B-Merged-Model-Q4_K_M-GGUF"
18
  ENV HF_MODEL_FILE="llama-3-8b-merged-model-q4_k_m.gguf"
19
 
20
- # 6. فتح البورت وتشغيل السيرفر
21
  EXPOSE 7860
22
  CMD python3 -m llama_cpp.server \
23
  --model_hf_repo_id $HF_REPO_ID \
 
1
+ # 1. هنستخدم نفس النسخة الخفيفة
2
  FROM python:3.10-slim
3
 
4
+ # 2. (الإضافة السحرية) 🔧
5
+ # بنسطب أدوات البناء (gcc & cmake) عشان لو احتاج يبني المكتبة يلاقي العدة جاهزة
6
+ # ده بيحل مشكلة "CMake Error" و "gcc not found"
7
+ RUN apt-get update && apt-get install -y \
8
+ build-essential \
9
+ cmake \
10
+ git \
11
+ && rm -rf /var/lib/apt/lists/*
12
 
13
+ # 3. تسطيب المكتبة (دلوقتي هتتسطب سواء لقى wheel جاهزة أو احتاج يبنيها)
 
 
14
  RUN pip install --no-cache-dir llama-cpp-python \
15
  --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
16
 
17
+ # 4. تسطيب باقي الأدوات
18
  RUN pip install --no-cache-dir huggingface_hub pydantic_settings
19
 
20
+ # 5. إعدادات الموديل (تأكد إن الأسماء دي صحيحة زي ما اتفقنا)
21
  ENV HF_REPO_ID="yut23387/Llama-3-8B-Merged-Model-Q4_K_M-GGUF"
22
  ENV HF_MODEL_FILE="llama-3-8b-merged-model-q4_k_m.gguf"
23
 
24
+ # 6. التشغيل
25
  EXPOSE 7860
26
  CMD python3 -m llama_cpp.server \
27
  --model_hf_repo_id $HF_REPO_ID \