ai / Dockerfile
doyeqkl's picture
Update Dockerfile
dbf42be verified
# Используем готовый образ (там уже всё скомпилировано)
FROM ghcr.io/abetlen/llama-cpp-python:latest
# Переходим под root для настройки
USER root
WORKDIR /app
# Обновляем pip
RUN pip install --upgrade pip
# Копируем зависимости
COPY requirements.txt .
# Устанавливаем библиотеки, КРОМЕ llama-cpp-python (она уже есть в образе)
RUN grep -v "llama-cpp-python" requirements.txt > req_no_llama.txt && \
pip install --no-cache-dir -r req_no_llama.txt
# Копируем весь твой код
COPY . .
# !!! ВАЖНОЕ ИСПРАВЛЕНИЕ !!!
# Удаляем локальную папку llama_cpp, если она случайно скопировалась.
# Это заставит Python использовать системную библиотеку.
RUN rm -rf /app/llama_cpp
# Создаем папки для моделей и кэша
RUN mkdir -p /app/models /app/cache_db && \
chmod -R 777 /app
EXPOSE 7860
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "7860"]