Update Dockerfile
Browse files- Dockerfile +17 -24
Dockerfile
CHANGED
|
@@ -1,29 +1,22 @@
|
|
| 1 |
-
|
|
|
|
| 2 |
|
| 3 |
-
|
| 4 |
-
RUN
|
| 5 |
-
USER node
|
| 6 |
|
| 7 |
-
#
|
|
|
|
|
|
|
| 8 |
ENV PORT=7860
|
| 9 |
-
ENV N8N_PORT=7860
|
| 10 |
-
ENV N8N_HOST=0.0.0.0
|
| 11 |
|
| 12 |
-
#
|
| 13 |
-
|
| 14 |
-
|
| 15 |
-
|
| 16 |
-
|
| 17 |
-
|
| 18 |
-
|
| 19 |
-
|
| 20 |
-
ENV DB_POSTGRESDB_SSL_ENABLED=true
|
| 21 |
-
ENV DB_POSTGRESDB_SSL_REJECT_UNAUTHORIZED=false
|
| 22 |
|
| 23 |
-
#
|
| 24 |
-
|
| 25 |
-
|
| 26 |
-
EXPOSE 7860
|
| 27 |
-
|
| 28 |
-
ENTRYPOINT ["tini", "--", "/docker-entrypoint.sh"]
|
| 29 |
-
CMD ["start", "--host", "0.0.0.0", "--port", "7860"]
|
|
|
|
| 1 |
+
# On utilise l'image d'Open WebUI comme base (elle est plus lourde à installer)
|
| 2 |
+
FROM ghcr.io/open-webui/open-webui:main
|
| 3 |
|
| 4 |
+
# Installation d'Ollama à l'intérieur de l'image
|
| 5 |
+
RUN curl -fsSL https://ollama.com/install.sh | sh
|
|
|
|
| 6 |
|
| 7 |
+
# Configurer les variables d'environnement pour Hugging Face
|
| 8 |
+
# Le port par défaut de HF est 7860
|
| 9 |
+
ENV OLLAMA_BASE_URL=http://127.0.0.1:11434
|
| 10 |
ENV PORT=7860
|
|
|
|
|
|
|
| 11 |
|
| 12 |
+
# Créer un script de démarrage pour lancer les deux services en même temps
|
| 13 |
+
RUN echo '#!/bin/bash\n\
|
| 14 |
+
ollama serve &\n\
|
| 15 |
+
sleep 5\n\
|
| 16 |
+
ollama run llama3.2:1b "hello" &\n\
|
| 17 |
+
# Lancer Open WebUI sur le port 7860\n\
|
| 18 |
+
exec python3 -m open_webui serve --port 7860\n\
|
| 19 |
+
' > /start.sh && chmod +x /start.sh
|
|
|
|
|
|
|
| 20 |
|
| 21 |
+
# Lancer le script au démarrage
|
| 22 |
+
CMD ["/start.sh"]
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|