ibrahimlasfar commited on
Commit
bc1be15
·
1 Parent(s): 7cca6aa

Fix Dockerfile syntax + add writable cache directory

Browse files
Files changed (1) hide show
  1. Dockerfile +12 -17
Dockerfile CHANGED
@@ -1,9 +1,11 @@
1
  # -------------------------------------------------
2
  # Dockerfile – يستخدم صورة Python كاملة (تحتوي على gcc)
3
  # -------------------------------------------------
4
- FROM python:3.10 # أو python:3.10‑slim إذا أضفت gcc يدوياً
5
 
6
- # تثبيت الأدوات اللازمة لبناء llama‑cpp‑python
 
 
 
7
  RUN apt-get update && apt-get install -y --no-install-recommends \
8
  gcc \
9
  g++ \
@@ -11,29 +13,22 @@ RUN apt-get update && apt-get install -y --no-install-recommends \
11
  cmake \
12
  && rm -rf /var/lib/apt/lists/*
13
 
14
- # -------------------------------------------------
15
- # إعداد مسار الـ cache القابل للكتابة
16
- # -------------------------------------------------
17
- # 1️⃣ إنشاء المجلد داخل الحاوية
18
  RUN mkdir -p /app/.cache
19
 
20
- # 2️⃣ تعريف المتغيّرات البيئية التي ستستخدمها مكتبة transformers و huggingface_hub
21
  ENV TRANSFORMERS_CACHE=/app/.cache
22
- ENV HF_HOME=/app/.cache # (اختياري) لتوحيد جميع ملفات huggingface في نفس المجلد
23
 
24
- # -------------------------------------------------
25
- # نسخ ملفات المشروع
26
- # -------------------------------------------------
27
  WORKDIR /app
 
 
28
  COPY . /app
29
 
30
- # -------------------------------------------------
31
- # تثبيت المكتبات Python
32
- # -------------------------------------------------
33
  RUN pip install --upgrade pip && \
34
  pip install -r requirements.txt
35
 
36
- # -------------------------------------------------
37
- # تشغيل FastAPI
38
- # -------------------------------------------------
39
  CMD ["uvicorn", "app:app", "--host", "0.0.0.0", "--port", "7860"]
 
1
  # -------------------------------------------------
2
  # Dockerfile – يستخدم صورة Python كاملة (تحتوي على gcc)
3
  # -------------------------------------------------
 
4
 
5
+ # 1️⃣ صورة الأساس
6
+ FROM python:3.10
7
+
8
+ # 2️⃣ تثبيت الأدوات اللازمة لبناء llama‑cpp‑python
9
  RUN apt-get update && apt-get install -y --no-install-recommends \
10
  gcc \
11
  g++ \
 
13
  cmake \
14
  && rm -rf /var/lib/apt/lists/*
15
 
16
+ # 3️⃣ إنشاء مجلد cache داخل الحاوية (مجلد قابل للكتابة)
 
 
 
17
  RUN mkdir -p /app/.cache
18
 
19
+ # 4️⃣ تعريف المتغيّرات البيئية التي ستستخدمها مكتبة transformers و huggingface_hub
20
  ENV TRANSFORMERS_CACHE=/app/.cache
21
+ ENV HF_HOME=/app/.cache # (اختياري) لتوحيد جميع ملفات huggingface في نفس المجلد
22
 
23
+ # 5️⃣ تعيين دليل العمل داخل الحاوية
 
 
24
  WORKDIR /app
25
+
26
+ # 6️⃣ نسخ كل الملفات من المستودع إلى داخل الحاوية
27
  COPY . /app
28
 
29
+ # 7️⃣ تثبيت المكتبات Python
 
 
30
  RUN pip install --upgrade pip && \
31
  pip install -r requirements.txt
32
 
33
+ # 8️⃣ تشغيل FastAPI عندما تُنشأ الحاوية
 
 
34
  CMD ["uvicorn", "app:app", "--host", "0.0.0.0", "--port", "7860"]