File size: 1,151 Bytes
dbf42be 272e7fa 0e55f47 dbf42be 272e7fa 9f41167 0e55f47 272e7fa e1f6435 0e55f47 dbf42be e1f6435 9eb9be4 dbf42be 272e7fa dbf42be 0e55f47 dbf42be 272e7fa 9eb9be4 0e55f47 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 | # Используем готовый образ (там уже всё скомпилировано)
FROM ghcr.io/abetlen/llama-cpp-python:latest
# Переходим под root для настройки
USER root
WORKDIR /app
# Обновляем pip
RUN pip install --upgrade pip
# Копируем зависимости
COPY requirements.txt .
# Устанавливаем библиотеки, КРОМЕ llama-cpp-python (она уже есть в образе)
RUN grep -v "llama-cpp-python" requirements.txt > req_no_llama.txt && \
pip install --no-cache-dir -r req_no_llama.txt
# Копируем весь твой код
COPY . .
# !!! ВАЖНОЕ ИСПРАВЛЕНИЕ !!!
# Удаляем локальную папку llama_cpp, если она случайно скопировалась.
# Это заставит Python использовать системную библиотеку.
RUN rm -rf /app/llama_cpp
# Создаем папки для моделей и кэша
RUN mkdir -p /app/models /app/cache_db && \
chmod -R 777 /app
EXPOSE 7860
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "7860"] |