saiful-ai-dev commited on
Commit
06100fb
·
verified ·
1 Parent(s): 9f7241b

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +6 -7
Dockerfile CHANGED
@@ -1,15 +1,14 @@
1
- # ১. লাইটওয়েট সার্ভার ইমেজ
2
  FROM ghcr.io/ggerganov/llama.cpp:server
3
 
4
- # ২. মডেল ডাউনলোডের কমান্ড (সরাসরি ডালো লিঙ্ক)
5
- RUN apt-get update && apt-get install -y wget
6
- RUN wget https://huggingface.co/saiful-ai-dev/MotionMindX/resolve/main/Qwen2.5-3B-Instruct-Q4_K_M.gguf -O model.gguf
7
 
8
- # ৩. পোর্ট সেটআপ
9
  ENV PORT=7860
10
  EXPOSE 7860
11
 
12
  # ৪. সার্ভার রান করার কমান্ড
13
- # এখানে সরাসরি ফাইলপাথ ব্যবহার করছি যাতে কোনো ঝামেলা না হয়
14
  ENTRYPOINT ["/server"]
15
- CMD ["--model", "model.gguf", "--host", "0.0.0.0", "--port", "7860", "-c", "2048"]
 
1
+ # ১. সার্ভার ইমেজ
2
  FROM ghcr.io/ggerganov/llama.cpp:server
3
 
4
+ # ২. মডেলের সরাসরি আরএ (তমার মডেিপোজিটরি থে)
5
+ # এতে স্পেসের জিবি স্টোরেজ খরচ হবে না, সরাসরি র‍্যামে লোড হবে
6
+ ENV MODEL_URL="https://huggingface.co/saiful-ai-dev/MotionMindX/resolve/main/Qwen2.5-3B-Instruct-Q4_K_M.gguf"
7
 
8
+ # ৩. পোর্ট সেটিংস
9
  ENV PORT=7860
10
  EXPOSE 7860
11
 
12
  # ৪. সার্ভার রান করার কমান্ড
 
13
  ENTRYPOINT ["/server"]
14
+ CMD ["--url", "https://huggingface.co/saiful-ai-dev/MotionMindX/resolve/main/Qwen2.5-3B-Instruct-Q4_K_M.gguf", "--host", "0.0.0.0", "--port", "7860", "-c", "2048"]