Upload 3 files
Browse files
docker
ADDED
|
@@ -0,0 +1,25 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# Imagen oficial con Open WebUI + Ollama incluidos
|
| 2 |
+
FROM ghcr.io/open-webui/open-webui:ollama
|
| 3 |
+
|
| 4 |
+
# Variables necesarias para Hugging Face Spaces
|
| 5 |
+
ENV PORT=7860 \
|
| 6 |
+
OLLAMA_HOST=0.0.0.0:11434 \
|
| 7 |
+
OLLAMA_BASE_URL=http://127.0.0.1:11434 \
|
| 8 |
+
WEBUI_SECRET_KEY=change_this_to_a_random_secret \
|
| 9 |
+
HF_HOME=/data/.huggingface
|
| 10 |
+
|
| 11 |
+
# Carpeta persistente para los modelos de Ollama
|
| 12 |
+
ENV OLLAMA_MODELS=/data/.ollama/models
|
| 13 |
+
|
| 14 |
+
# Instalar curl por si no está disponible
|
| 15 |
+
RUN apt-get update && apt-get install -y curl && rm -rf /var/lib/apt/lists/*
|
| 16 |
+
|
| 17 |
+
# Copiar script de arranque
|
| 18 |
+
COPY start.sh /start.sh
|
| 19 |
+
RUN chmod +x /start.sh
|
| 20 |
+
|
| 21 |
+
# Puerto requerido por Hugging Face
|
| 22 |
+
EXPOSE 7860
|
| 23 |
+
|
| 24 |
+
# Arranque principal
|
| 25 |
+
CMD ["/start.sh"]
|
readme.md
ADDED
|
@@ -0,0 +1,33 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
title: Open WebUI + Ollama + Gemma 4
|
| 3 |
+
emoji: 💎
|
| 4 |
+
colorFrom: blue
|
| 5 |
+
colorTo: green
|
| 6 |
+
sdk: docker
|
| 7 |
+
app_port: 7860
|
| 8 |
+
pinned: false
|
| 9 |
+
---
|
| 10 |
+
|
| 11 |
+
# Open WebUI con Gemma 4
|
| 12 |
+
|
| 13 |
+
Este Space inicia automáticamente Open WebUI y Ollama.
|
| 14 |
+
|
| 15 |
+
Además, en el primer arranque descarga automáticamente el modelo `gemma4`.
|
| 16 |
+
|
| 17 |
+
## Qué incluye
|
| 18 |
+
|
| 19 |
+
- Open WebUI
|
| 20 |
+
- Ollama
|
| 21 |
+
- Descarga automática de Gemma 4
|
| 22 |
+
- Persistencia de modelos en `/data/.ollama/models`
|
| 23 |
+
|
| 24 |
+
## Primer arranque
|
| 25 |
+
|
| 26 |
+
La primera vez puede tardar varios minutos porque `gemma4` ocupa varios GB.
|
| 27 |
+
|
| 28 |
+
Una vez descargado, Hugging Face lo conservará en el almacenamiento persistente y los siguientes arranques serán mucho más rápidos.
|
| 29 |
+
|
| 30 |
+
## Modelo utilizado
|
| 31 |
+
|
| 32 |
+
```text
|
| 33 |
+
gemma4
|
start.sh
ADDED
|
@@ -0,0 +1,26 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
#!/bin/bash
|
| 2 |
+
set -e
|
| 3 |
+
|
| 4 |
+
echo "Iniciando Open WebUI + Ollama..."
|
| 5 |
+
|
| 6 |
+
# Lanzar en segundo plano la descarga automática del modelo
|
| 7 |
+
(
|
| 8 |
+
echo "Esperando a que Ollama esté disponible..."
|
| 9 |
+
|
| 10 |
+
until curl -s http://127.0.0.1:11434/api/tags >/dev/null 2>&1; do
|
| 11 |
+
sleep 3
|
| 12 |
+
done
|
| 13 |
+
|
| 14 |
+
echo "Ollama listo. Comprobando si Gemma 4 ya existe..."
|
| 15 |
+
|
| 16 |
+
if ! ollama list | grep -q "gemma4"; then
|
| 17 |
+
echo "Descargando modelo gemma4..."
|
| 18 |
+
ollama pull gemma4:e2b
|
| 19 |
+
echo "Modelo gemma4 descargado correctamente."
|
| 20 |
+
else
|
| 21 |
+
echo "El modelo gemma4 ya estaba descargado."
|
| 22 |
+
fi
|
| 23 |
+
) &
|
| 24 |
+
|
| 25 |
+
# Arrancar Open WebUI y Ollama usando el script interno de la imagen
|
| 26 |
+
exec bash /app/backend/start.sh
|