thangquang09 commited on
Commit
0d54045
·
1 Parent(s): de800a4

update Dockerfile

Browse files
Files changed (2) hide show
  1. Dockerfile +16 -9
  2. start.sh +4 -16
Dockerfile CHANGED
@@ -1,19 +1,26 @@
1
  FROM python:3.12
2
 
3
- COPY . .
 
 
 
4
 
5
- WORKDIR /
 
6
 
7
- RUN pip install --no-cache-dir --upgrade -r /requirements.txt
 
8
 
9
- RUN curl -fsSL https://ollama.com/install.sh | sh
 
10
 
11
- COPY start.sh /start.sh
12
- RUN chmod +x /start.sh
13
 
14
- COPY pull_models.sh /pull_models.sh
15
- RUN chmod +x /pull_models.sh
 
16
 
17
  EXPOSE 7860
18
 
19
- CMD ["/start.sh"]
 
1
  FROM python:3.12
2
 
3
+ WORKDIR /app
4
+
5
+ COPY requirements.txt .
6
+ RUN pip install --no-cache-dir --upgrade -r requirements.txt
7
 
8
+ # Sử dụng thư mục trong /app thay vì /root
9
+ ENV OLLAMA_MODELS=/app/.ollama/models
10
 
11
+ # Tạo thư mục cho Ollama
12
+ RUN mkdir -p /app/.ollama && chmod 777 /app/.ollama
13
 
14
+ # Cài đặt Ollama
15
+ RUN curl -fsSL https://ollama.com/install.sh | sh
16
 
17
+ # Copy application files
18
+ COPY . .
19
 
20
+ # Make scripts executable
21
+ RUN chmod +x /app/start.sh
22
+ RUN chmod +x /app/pull_models.sh
23
 
24
  EXPOSE 7860
25
 
26
+ CMD ["/app/start.sh"]
start.sh CHANGED
@@ -1,14 +1,14 @@
1
  #!/bin/bash
2
 
3
- # Thiết lập home directory
4
- export HOME=/root
5
 
6
- # Kiểm tra xem Ollama đã chạy chưa
7
  echo "Checking if Ollama is already running..."
8
  if pgrep -x "ollama" > /dev/null; then
9
  echo "Ollama is already running."
10
  else
11
  echo "Starting Ollama server..."
 
12
  ollama serve &
13
 
14
  # Đợi Ollama khởi động
@@ -18,21 +18,9 @@ fi
18
 
19
  # Kiểm tra lại xem Ollama đã chạy chưa
20
  if ! pgrep -x "ollama" > /dev/null; then
21
- echo "ERROR: Failed to start Ollama!"
22
- exit 1
23
  fi
24
 
25
- # Tải mô hình nếu cần
26
- echo "Running pull_models.sh"
27
- /app/pull_models.sh
28
-
29
- # Kiểm tra kết nối đến Ollama server
30
- echo "Testing connection to Ollama server..."
31
- curl -s http://localhost:11434/api/version || {
32
- echo "ERROR: Cannot connect to Ollama server!"
33
- exit 1
34
- }
35
-
36
  # Bắt đầu ứng dụng FastAPI
37
  echo "Starting FastAPI application..."
38
  uvicorn app:app --host 0.0.0.0 --port 7860
 
1
  #!/bin/bash
2
 
3
+ # Sử dụng thư mục trong /app thay vì /root
4
+ export OLLAMA_MODELS=/app/.ollama/models
5
 
 
6
  echo "Checking if Ollama is already running..."
7
  if pgrep -x "ollama" > /dev/null; then
8
  echo "Ollama is already running."
9
  else
10
  echo "Starting Ollama server..."
11
+ # Chạy Ollama với biến môi trường đúng
12
  ollama serve &
13
 
14
  # Đợi Ollama khởi động
 
18
 
19
  # Kiểm tra lại xem Ollama đã chạy chưa
20
  if ! pgrep -x "ollama" > /dev/null; then
21
+ echo "ERROR: Failed to start Ollama! Continuing anyway..."
 
22
  fi
23
 
 
 
 
 
 
 
 
 
 
 
 
24
  # Bắt đầu ứng dụng FastAPI
25
  echo "Starting FastAPI application..."
26
  uvicorn app:app --host 0.0.0.0 --port 7860