Garush65 commited on
Commit
765b306
·
verified ·
1 Parent(s): d6ed6c7

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +12 -20
Dockerfile CHANGED
@@ -1,34 +1,26 @@
1
- # БРАТ, БЕРЕМ ПОЛНУЮ ВЕРСИЮ (БЕЗ SLIM).
2
- # Она большая, но в ней есть ВСЕ компиляторы сразу.
3
- FROM python:3.10
 
 
 
4
 
5
- # Создаем рабочую папку
6
  WORKDIR /app
7
 
8
  # Обновляем pip
9
  RUN pip install --upgrade pip
10
 
11
- # СТАВИМ ЗАВИСИМОСТИ СБОРКИ (на всякий случай, чтобы точно не упало)
12
- RUN apt-get update && apt-get install -y cmake
13
-
14
- # ТЕПЕРЬ СТАВИМ LLAMA-CPP ИЗ ИСХОДНИКОВ
15
- # Благодаря образу python:3.10 это пройдет быстро и без ошибок.
16
- # CMAKE_ARGS="-DLLAMA_NATIVE=OFF" нужен, чтобы работало на любом процессоре.
17
- RUN CMAKE_ARGS="-DLLAMA_NATIVE=OFF" pip install llama-cpp-python
18
-
19
- # Копируем библиотеки
20
- COPY requirements.txt .
21
-
22
- # Убираем llama из файла (мы её уже поставили)
23
- RUN grep -v "llama-cpp-python" requirements.txt > req_final.txt
24
- RUN pip install --no-cache-dir -r req_final.txt
25
 
26
  # Копируем твой код
27
  COPY . .
28
 
29
- # Даем права
30
  RUN chmod -R 777 /app
 
31
  EXPOSE 7860
32
 
33
- # Запускаем
34
  CMD ["uvicorn", "app:app", "--host", "0.0.0.0", "--port", "7860"]
 
1
+ # БРАТ, ЭТО ФИНАЛЬНЫЙ ХОД.
2
+ # Мы берем готовый Linux от автора библиотеки, где ВСЁ УЖЕ РАБОТАЕТ.
3
+ FROM ghcr.io/abetlen/llama-cpp-python:latest
4
+
5
+ # Переключаемся на главного пользователя
6
+ USER root
7
 
 
8
  WORKDIR /app
9
 
10
  # Обновляем pip
11
  RUN pip install --upgrade pip
12
 
13
+ # Просто ставим нужные тебе веб-штуки.
14
+ # Заметь: llama-cpp-python мы НЕ ставим, ОНА ТУТ УЖЕ ЕСТЬ ВНУТРИ!
15
+ RUN pip install fastapi uvicorn pydantic huggingface_hub
 
 
 
 
 
 
 
 
 
 
 
16
 
17
  # Копируем твой код
18
  COPY . .
19
 
20
+ # Даем права на всякий случай
21
  RUN chmod -R 777 /app
22
+
23
  EXPOSE 7860
24
 
25
+ # Запускаем твой мозг
26
  CMD ["uvicorn", "app:app", "--host", "0.0.0.0", "--port", "7860"]