Spaces:
Build error
Build error
| # --- Stage 1: Frontend Build --- | |
| FROM node:20-slim as frontend-builder | |
| WORKDIR /app/frontend | |
| # package.json 및 package-lock.json 복사 | |
| COPY frontend/package*.json ./ | |
| # 의존성 설치 | |
| RUN npm install | |
| # 나머지 프론트엔드 코드 복사 | |
| COPY frontend/ . | |
| # 프론트엔드 빌드 (Vue CLI 프로젝트의 경우 'npm run build'가 적합) | |
| RUN npm run build | |
| # --- Stage 2: Backend and Combined Serving via FastAPI (Uvicorn) --- | |
| FROM python:3.11-slim-bookworm | |
| WORKDIR /app | |
| # 시스템 패키지 업데이트 및 build-essential (Python 패키지 빌드용), curl, git 설치 | |
| # Ollama 설치 스크립트가 필요 없으므로 bash는 제거 가능하지만, 다른 용도로 필요할 수 있어 유지합니다. | |
| RUN apt-get update && apt-get install -y --no-install-recommends \ | |
| build-essential \ | |
| curl \ | |
| git \ | |
| bash \ | |
| && rm -rf /var/lib/apt/lists/* | |
| # Python 종속성 설치 | |
| COPY backend/requirements.txt ./backend/requirements.txt | |
| RUN pip install --no-cache-dir -r backend/requirements.txt | |
| # 백엔드 소스 코드 복사 | |
| COPY backend/ ./backend/ | |
| # Hugging Face 캐시 디렉토리 설정 (모델이 직접 다운로드되지 않으므로 필요 없을 수 있지만, 안전을 위해 유지) | |
| ENV TRANSFORMERS_CACHE="/tmp/hf_cache" | |
| ENV HF_HOME="/tmp/hf_cache" | |
| # ✨ Ollama 설치 및 모델 다운로드 단계 제거 ✨ | |
| # 이 부분은 Hugging Face Spaces 환경에서 관리됩니다. | |
| # RUN curl -fsSL https://ollama.com/install.sh | sh | |
| # RUN sh -c "ollama serve & \ | |
| # ATTEMPTS=0; \ | |
| # while ! curl -s http://localhost:11434 > /dev/null && ATTEMPTS < 30; do \ | |
| # ATTEMPTS=$((ATTEMPTS+1)); \ | |
| # echo 'Waiting for Ollama server to start... (Attempt '$ATTEMPTS'/30)'; \ | |
| # sleep 2; \ | |
| # done; \ | |
| # if [ $ATTEMPTS -eq 30 ]; then \ | |
| # echo 'Ollama server did not start in time. Exiting.'; \ | |
| # exit 1; \ | |
| # fi; \ | |
| # echo 'Ollama server started. Pulling model...'; \ | |
| # ollama pull hf.co/DevQuasar/naver-hyperclovax.HyperCLOVAX-SEED-Text-Instruct-0.5B-GGUF:F16" | |
| # 프론트엔드 빌드 결과물을 백엔드 앱이 접근할 수 있는 경로로 복사합니다. | |
| # /app/static 폴더를 만들고 그 안에 Vue.js 빌드 결과물을 넣습니다. | |
| RUN mkdir -p /app/static | |
| COPY --from=frontend-builder /app/frontend/dist /app/static | |
| # 최종 실행 명령어 | |
| # 애플리케이션 포트 설정 (허깅페이스 스페이스는 7860번 포트를 사용) | |
| EXPOSE 7860 | |
| # CMD를 수정하여 Uvicorn만 실행합니다. | |
| # Ollama 서버는 Hugging Face Spaces 환경에서 별도로 관리됩니다. | |
| # 백엔드 main.py의 `OLLAMA_API_BASE_URL` 환경 변수가 `http://127.0.0.1:11434`로 설정되어 있는지 확인하세요. | |
| # (Hugging Face Spaces에서 Ollama SDK를 사용하면 보통 이 주소로 접근 가능합니다.) | |
| CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "${PORT:-7860}", "--app-dir", "backend/app"] |