File size: 2,767 Bytes
526927a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
@echo off
echo 🚀 Windows GPU 환경 배포 시작
echo ========================================

REM GPU 환경 확인
echo 🔍 GPU 환경 확인 중...
python check_gpu_environment.py
if %errorlevel% neq 0 (
    echo ❌ GPU 환경 확인 실패
    echo 💡 GPU 환경을 먼저 설정해주세요
    pause
    exit /b 1
)

REM Hugging Face 설정
echo 🔧 Hugging Face 환경 설정 중...
python huggingface_gpu_setup.py

REM 기존 컨테이너 정리
echo 🧹 기존 컨테이너 정리 중...
docker-compose -f docker-compose.gpu.yml down --volumes --remove-orphans

REM GPU 메모리 정리 (Windows에서는 제한적)
echo 💾 GPU 메모리 정리 중...
REM Windows에서는 nvidia-smi --gpu-reset가 제한적이므로 건너뜀

REM 이미지 빌드
echo 🔨 Docker 이미지 빌드 중...
docker-compose -f docker-compose.gpu.yml build --no-cache

REM 컨테이너 시작
echo 🚀 컨테이너 시작 중...
docker-compose -f docker-compose.gpu.yml up -d

REM 서비스 상태 확인
echo 📊 서비스 상태 확인 중...
timeout /t 15 /nobreak >nul

REM 헬스체크
echo 🏥 헬스체크 중...
for /l %%i in (1,1,30) do (
    curl -f http://localhost:8001/health >nul 2>&1
    if !errorlevel! equ 0 (
        echo ✅ Lily LLM API 서비스 정상
        goto :health_check_passed
    )
    echo ⏳ 서비스 시작 대기 중... (%%i/30)
    timeout /t 2 /nobreak >nul
)
echo ❌ 서비스 시작 실패
docker-compose -f docker-compose.gpu.yml logs
pause
exit /b 1

:health_check_passed
REM GPU 사용량 확인
echo 🎮 GPU 사용량 확인:
nvidia-smi 2>nul || echo ⚠️ nvidia-smi를 사용할 수 없습니다

REM Hugging Face 모델 테스트
echo 🧪 Hugging Face 모델 테스트 중...
python test_gpu_deployment.py

REM 성능 최적화 적용
echo ⚡ 성능 최적화 적용 중...
python performance_optimization.py

REM 서비스 정보 출력
echo.
echo 🎉 Windows GPU 환경 배포 완료!
echo.
echo 📋 서비스 정보:
echo   - Lily LLM API: http://localhost:8001
echo   - Hearth Chat: http://localhost:8000
echo   - LaTeX-OCR Service: 별도 컨테이너로 실행 중
echo.
echo 🔧 유용한 명령어:
echo   - 로그 확인: docker-compose -f docker-compose.gpu.yml logs -f
echo   - 서비스 중지: docker-compose -f docker-compose.gpu.yml down
echo   - 서비스 재시작: docker-compose -f docker-compose.gpu.yml restart
echo.
echo 🧪 테스트 명령어:
echo   - API 테스트: curl http://localhost:8001/health
echo   - GPU 테스트: python test_gpu_deployment.py
echo   - Hugging Face 테스트: python huggingface_gpu_setup.py
echo.
echo 💡 Hugging Face 모델 사용:
echo   - 모델 로드: python huggingface_gpu_setup.py
echo   - 토큰 설정: huggingface-cli login
echo.
pause