gemma / Dockerfile
souzat19's picture
Criar o docker file
4b087c1 verified
raw
history blame contribute delete
599 Bytes
FROM nvidia/cuda:12.2.0-cudnn8-runtime-ubuntu22.04
# Instale Python e outras dependências necessárias
RUN apt-get update && apt-get install -y \
python3 \
python3-pip \
curl \
git
# Instale o Ollama manualmente (exemplo para Linux)
RUN curl -fsSL https://ollama.com/install.sh | sh
# Exponha a porta padrão do Hugging Face Space
EXPOSE 7860
# (Opcional) Baixe o modelo já na build - lembrando que GPU só estará disponível no runtime
RUN ollama pull gemma3:27b
# CMD para rodar o Ollama ouvindo na porta 7860
CMD ["ollama", "serve", "--host", "0.0.0.0", "--port", "7860"]