| FROM nvidia/cuda:12.2.0-cudnn8-runtime-ubuntu22.04 | |
| # Instale Python e outras dependências necessárias | |
| RUN apt-get update && apt-get install -y \ | |
| python3 \ | |
| python3-pip \ | |
| curl \ | |
| git | |
| # Instale o Ollama manualmente (exemplo para Linux) | |
| RUN curl -fsSL https://ollama.com/install.sh | sh | |
| # Exponha a porta padrão do Hugging Face Space | |
| EXPOSE 7860 | |
| # (Opcional) Baixe o modelo já na build - lembrando que GPU só estará disponível no runtime | |
| RUN ollama pull gemma3:27b | |
| # CMD para rodar o Ollama ouvindo na porta 7860 | |
| CMD ["ollama", "serve", "--host", "0.0.0.0", "--port", "7860"] | |