thangquang09 commited on
Commit ·
0d54045
1
Parent(s): de800a4
update Dockerfile
Browse files- Dockerfile +16 -9
- start.sh +4 -16
Dockerfile
CHANGED
|
@@ -1,19 +1,26 @@
|
|
| 1 |
FROM python:3.12
|
| 2 |
|
| 3 |
-
|
|
|
|
|
|
|
|
|
|
| 4 |
|
| 5 |
-
|
|
|
|
| 6 |
|
| 7 |
-
|
|
|
|
| 8 |
|
| 9 |
-
|
|
|
|
| 10 |
|
| 11 |
-
|
| 12 |
-
|
| 13 |
|
| 14 |
-
|
| 15 |
-
RUN chmod +x /
|
|
|
|
| 16 |
|
| 17 |
EXPOSE 7860
|
| 18 |
|
| 19 |
-
CMD ["/start.sh"]
|
|
|
|
| 1 |
FROM python:3.12
|
| 2 |
|
| 3 |
+
WORKDIR /app
|
| 4 |
+
|
| 5 |
+
COPY requirements.txt .
|
| 6 |
+
RUN pip install --no-cache-dir --upgrade -r requirements.txt
|
| 7 |
|
| 8 |
+
# Sử dụng thư mục trong /app thay vì /root
|
| 9 |
+
ENV OLLAMA_MODELS=/app/.ollama/models
|
| 10 |
|
| 11 |
+
# Tạo thư mục cho Ollama
|
| 12 |
+
RUN mkdir -p /app/.ollama && chmod 777 /app/.ollama
|
| 13 |
|
| 14 |
+
# Cài đặt Ollama
|
| 15 |
+
RUN curl -fsSL https://ollama.com/install.sh | sh
|
| 16 |
|
| 17 |
+
# Copy application files
|
| 18 |
+
COPY . .
|
| 19 |
|
| 20 |
+
# Make scripts executable
|
| 21 |
+
RUN chmod +x /app/start.sh
|
| 22 |
+
RUN chmod +x /app/pull_models.sh
|
| 23 |
|
| 24 |
EXPOSE 7860
|
| 25 |
|
| 26 |
+
CMD ["/app/start.sh"]
|
start.sh
CHANGED
|
@@ -1,14 +1,14 @@
|
|
| 1 |
#!/bin/bash
|
| 2 |
|
| 3 |
-
#
|
| 4 |
-
export
|
| 5 |
|
| 6 |
-
# Kiểm tra xem Ollama đã chạy chưa
|
| 7 |
echo "Checking if Ollama is already running..."
|
| 8 |
if pgrep -x "ollama" > /dev/null; then
|
| 9 |
echo "Ollama is already running."
|
| 10 |
else
|
| 11 |
echo "Starting Ollama server..."
|
|
|
|
| 12 |
ollama serve &
|
| 13 |
|
| 14 |
# Đợi Ollama khởi động
|
|
@@ -18,21 +18,9 @@ fi
|
|
| 18 |
|
| 19 |
# Kiểm tra lại xem Ollama đã chạy chưa
|
| 20 |
if ! pgrep -x "ollama" > /dev/null; then
|
| 21 |
-
echo "ERROR: Failed to start Ollama!"
|
| 22 |
-
exit 1
|
| 23 |
fi
|
| 24 |
|
| 25 |
-
# Tải mô hình nếu cần
|
| 26 |
-
echo "Running pull_models.sh"
|
| 27 |
-
/app/pull_models.sh
|
| 28 |
-
|
| 29 |
-
# Kiểm tra kết nối đến Ollama server
|
| 30 |
-
echo "Testing connection to Ollama server..."
|
| 31 |
-
curl -s http://localhost:11434/api/version || {
|
| 32 |
-
echo "ERROR: Cannot connect to Ollama server!"
|
| 33 |
-
exit 1
|
| 34 |
-
}
|
| 35 |
-
|
| 36 |
# Bắt đầu ứng dụng FastAPI
|
| 37 |
echo "Starting FastAPI application..."
|
| 38 |
uvicorn app:app --host 0.0.0.0 --port 7860
|
|
|
|
| 1 |
#!/bin/bash
|
| 2 |
|
| 3 |
+
# Sử dụng thư mục trong /app thay vì /root
|
| 4 |
+
export OLLAMA_MODELS=/app/.ollama/models
|
| 5 |
|
|
|
|
| 6 |
echo "Checking if Ollama is already running..."
|
| 7 |
if pgrep -x "ollama" > /dev/null; then
|
| 8 |
echo "Ollama is already running."
|
| 9 |
else
|
| 10 |
echo "Starting Ollama server..."
|
| 11 |
+
# Chạy Ollama với biến môi trường đúng
|
| 12 |
ollama serve &
|
| 13 |
|
| 14 |
# Đợi Ollama khởi động
|
|
|
|
| 18 |
|
| 19 |
# Kiểm tra lại xem Ollama đã chạy chưa
|
| 20 |
if ! pgrep -x "ollama" > /dev/null; then
|
| 21 |
+
echo "ERROR: Failed to start Ollama! Continuing anyway..."
|
|
|
|
| 22 |
fi
|
| 23 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 24 |
# Bắt đầu ứng dụng FastAPI
|
| 25 |
echo "Starting FastAPI application..."
|
| 26 |
uvicorn app:app --host 0.0.0.0 --port 7860
|