File size: 1,151 Bytes
dbf42be
272e7fa
0e55f47
dbf42be
272e7fa
9f41167
0e55f47
 
272e7fa
e1f6435
0e55f47
dbf42be
e1f6435
9eb9be4
dbf42be
272e7fa
 
 
dbf42be
0e55f47
 
dbf42be
 
 
 
 
 
272e7fa
9eb9be4
0e55f47
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
# Используем готовый образ (там уже всё скомпилировано)
FROM ghcr.io/abetlen/llama-cpp-python:latest

# Переходим под root для настройки
USER root

WORKDIR /app

# Обновляем pip
RUN pip install --upgrade pip

# Копируем зависимости
COPY requirements.txt .

# Устанавливаем библиотеки, КРОМЕ llama-cpp-python (она уже есть в образе)
RUN grep -v "llama-cpp-python" requirements.txt > req_no_llama.txt && \
    pip install --no-cache-dir -r req_no_llama.txt

# Копируем весь твой код
COPY . .

# !!! ВАЖНОЕ ИСПРАВЛЕНИЕ !!!
# Удаляем локальную папку llama_cpp, если она случайно скопировалась.
# Это заставит Python использовать системную библиотеку.
RUN rm -rf /app/llama_cpp

# Создаем папки для моделей и кэша
RUN mkdir -p /app/models /app/cache_db && \
    chmod -R 777 /app

EXPOSE 7860

CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "7860"]