# Базовый образ Python FROM python:3.10-slim # Переменные окружения для кэша Hugging Face (чтобы не было ошибок с правами) ENV HF_HOME=/tmp/huggingface ENV TRANSFORMERS_CACHE=/tmp/huggingface # Устанавливаем системные зависимости RUN apt-get update && apt-get install -y \ build-essential \ curl \ git \ && rm -rf /var/lib/apt/lists/* # Рабочая папка WORKDIR /app # Копируем зависимости COPY requirements.txt . # Устанавливаем PyTorch (CPU-версия) + зависимости из requirements.txt RUN pip install --no-cache-dir -r requirements.txt # Предзагружаем модель, чтобы не качалась при каждом запуске RUN python -c "from transformers import AutoTokenizer, AutoModelForCausalLM; \ AutoTokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2'); \ AutoModelForCausalLM.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')" # Копируем приложение COPY . . # Разрешаем доступ на запись RUN chmod -R 777 /app /tmp # Порт Streamlit EXPOSE 8501 # Запуск Streamlit CMD ["streamlit", "run", "app.py", "--server.port=8501", "--server.address=0.0.0.0"]