File size: 599 Bytes
4b087c1
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
FROM nvidia/cuda:12.2.0-cudnn8-runtime-ubuntu22.04

# Instale Python e outras dependências necessárias
RUN apt-get update && apt-get install -y \
    python3 \
    python3-pip \
    curl \
    git

# Instale o Ollama manualmente (exemplo para Linux)
RUN curl -fsSL https://ollama.com/install.sh | sh

# Exponha a porta padrão do Hugging Face Space
EXPOSE 7860

# (Opcional) Baixe o modelo já na build - lembrando que GPU só estará disponível no runtime
RUN ollama pull gemma3:27b

# CMD para rodar o Ollama ouvindo na porta 7860
CMD ["ollama", "serve", "--host", "0.0.0.0", "--port", "7860"]