MrPablo commited on
Commit
f2d0cea
·
verified ·
1 Parent(s): 962cacb

Upload 3 files

Browse files
Files changed (3) hide show
  1. docker +25 -0
  2. readme.md +33 -0
  3. start.sh +26 -0
docker ADDED
@@ -0,0 +1,25 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # Imagen oficial con Open WebUI + Ollama incluidos
2
+ FROM ghcr.io/open-webui/open-webui:ollama
3
+
4
+ # Variables necesarias para Hugging Face Spaces
5
+ ENV PORT=7860 \
6
+ OLLAMA_HOST=0.0.0.0:11434 \
7
+ OLLAMA_BASE_URL=http://127.0.0.1:11434 \
8
+ WEBUI_SECRET_KEY=change_this_to_a_random_secret \
9
+ HF_HOME=/data/.huggingface
10
+
11
+ # Carpeta persistente para los modelos de Ollama
12
+ ENV OLLAMA_MODELS=/data/.ollama/models
13
+
14
+ # Instalar curl por si no está disponible
15
+ RUN apt-get update && apt-get install -y curl && rm -rf /var/lib/apt/lists/*
16
+
17
+ # Copiar script de arranque
18
+ COPY start.sh /start.sh
19
+ RUN chmod +x /start.sh
20
+
21
+ # Puerto requerido por Hugging Face
22
+ EXPOSE 7860
23
+
24
+ # Arranque principal
25
+ CMD ["/start.sh"]
readme.md ADDED
@@ -0,0 +1,33 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ title: Open WebUI + Ollama + Gemma 4
3
+ emoji: 💎
4
+ colorFrom: blue
5
+ colorTo: green
6
+ sdk: docker
7
+ app_port: 7860
8
+ pinned: false
9
+ ---
10
+
11
+ # Open WebUI con Gemma 4
12
+
13
+ Este Space inicia automáticamente Open WebUI y Ollama.
14
+
15
+ Además, en el primer arranque descarga automáticamente el modelo `gemma4`.
16
+
17
+ ## Qué incluye
18
+
19
+ - Open WebUI
20
+ - Ollama
21
+ - Descarga automática de Gemma 4
22
+ - Persistencia de modelos en `/data/.ollama/models`
23
+
24
+ ## Primer arranque
25
+
26
+ La primera vez puede tardar varios minutos porque `gemma4` ocupa varios GB.
27
+
28
+ Una vez descargado, Hugging Face lo conservará en el almacenamiento persistente y los siguientes arranques serán mucho más rápidos.
29
+
30
+ ## Modelo utilizado
31
+
32
+ ```text
33
+ gemma4
start.sh ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ #!/bin/bash
2
+ set -e
3
+
4
+ echo "Iniciando Open WebUI + Ollama..."
5
+
6
+ # Lanzar en segundo plano la descarga automática del modelo
7
+ (
8
+ echo "Esperando a que Ollama esté disponible..."
9
+
10
+ until curl -s http://127.0.0.1:11434/api/tags >/dev/null 2>&1; do
11
+ sleep 3
12
+ done
13
+
14
+ echo "Ollama listo. Comprobando si Gemma 4 ya existe..."
15
+
16
+ if ! ollama list | grep -q "gemma4"; then
17
+ echo "Descargando modelo gemma4..."
18
+ ollama pull gemma4:e2b
19
+ echo "Modelo gemma4 descargado correctamente."
20
+ else
21
+ echo "El modelo gemma4 ya estaba descargado."
22
+ fi
23
+ ) &
24
+
25
+ # Arrancar Open WebUI y Ollama usando el script interno de la imagen
26
+ exec bash /app/backend/start.sh