Spaces:
Sleeping
Sleeping
| FROM python:3.10-slim | |
| # Cài công cụ cần thiết để build llama-cpp-python | |
| RUN apt-get update && apt-get install -y \ | |
| build-essential \ | |
| cmake \ | |
| git \ | |
| wget \ | |
| curl \ | |
| && rm -rf /var/lib/apt/lists/* | |
| # Cập nhật pip | |
| RUN pip install --upgrade pip | |
| WORKDIR /app | |
| COPY requirements.txt . | |
| RUN pip install --no-cache-dir -r requirements.txt | |
| # Tải model GGUF từ Hugging Face Hub (ví dụ: TheBloke's repo) | |
| # Thay đổi URL và tên file nếu bạn dùng repo khác | |
| RUN mkdir -p models && \ | |
| wget -O models/tinyllama.gguf https://huggingface.co/TheBloke/TinyLlama-1.1B-Chat-v1.0-GGUF/resolve/main/tinyllama-1.1b-chat-v1.0.Q8_0.gguf | |
| COPY ./app ./app | |
| CMD ["uvicorn", "app.main:app", "--host", "0.0.0.0", "--port", "7860"] | |