| # ============================================================================= | |
| # serve_test.sh — TeenEmo(受験者)vLLM サーバー起動 | |
| # | |
| # TeenEmo は LiquidAI/LFM2.5-1.2B-Base の LoRAアダプタ(88.9MB)のみを | |
| # HFに保存しているため、vLLMはベースモデルを指定し --enable-lora で | |
| # アダプタを動的にロードする形式を使用する。 | |
| # | |
| # ポート: 8000 | |
| # VRAM使用量: ~3GB(1.2B bf16、GPU_UTIL=0.10で残りをJudge用に確保) | |
| # ============================================================================= | |
| set -euo pipefail | |
| BASE_MODEL="${TEST_BASE_MODEL:-LiquidAI/LFM2.5-1.2B-Base}" | |
| LORA_REPO="${TEST_LORA_REPO:-YUGOROU/TeenEmo-LFM2.5-1.2B-DPO}" | |
| LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}" | |
| PORT="${TEST_PORT:-8000}" | |
| HOST="${VLLM_HOST:-0.0.0.0}" | |
| GPU_UTIL="${TEST_GPU_UTIL:-0.10}" # 1.2Bは軽量。judge用にVRAMを残す | |
| MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-4096}" | |
| DTYPE="${VLLM_DTYPE:-auto}" | |
| HF_TOKEN="${HF_TOKEN:-}" | |
| echo "=== TeenEmo 受験者サーバー起動 ===" | |
| echo " ベースモデル : ${BASE_MODEL}" | |
| echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})" | |
| echo " ポート : ${PORT}" | |
| echo " GPU 使用率 : ${GPU_UTIL} (judge用にVRAMを確保)" | |
| echo "" | |
| exec vllm serve "${BASE_MODEL}" \ | |
| --host "${HOST}" \ | |
| --port "${PORT}" \ | |
| --dtype "${DTYPE}" \ | |
| --gpu-memory-utilization "${GPU_UTIL}" \ | |
| --max-model-len "${MAX_MODEL_LEN}" \ | |
| --tensor-parallel-size 1 \ | |
| --max-num-seqs 16 \ | |
| --enable-prefix-caching \ | |
| --enable-lora \ | |
| --lora-modules "${LORA_NAME}=${LORA_REPO}" \ | |
| --trust-remote-code \ | |
| ${HF_TOKEN:+--hf-token "${HF_TOKEN}"} | |