| # ============================================================================= | |
| # serve_test.sh — TeenEmo(受験者)vLLM サーバー起動 | |
| # | |
| # TeenEmo は LiquidAI/LFM2.5-1.2B-Base の LoRAアダプタ(88.9MB)のみを | |
| # HFに保存しているため、vLLMはベースモデルを指定し --enable-lora で | |
| # アダプタを動的にロードする形式を使用する。 | |
| # | |
| # ポート: 8000 | |
| # VRAM: ~3GB (1.2B bf16, GPU_UTIL=0.10 で残りを Judge 用に確保) | |
| # | |
| # [Fix-JA-M1] MAX_MODEL_LEN: 4096 → 32768 | |
| # EQ-Bench3 は max_tokens=12000 を要求するため 4096 では Fatal | |
| # ただし Judge と同居するため GPU_UTIL は低く抑える | |
| # ============================================================================= | |
| set -euo pipefail | |
| BASE_MODEL="${TEST_BASE_MODEL:-LiquidAI/LFM2.5-1.2B-Base}" | |
| LORA_REPO="${TEST_LORA_REPO:-YUGOROU/TeenEmo-LFM2.5-1.2B-DPO}" | |
| LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}" | |
| PORT="${TEST_PORT:-8000}" | |
| HOST="${VLLM_HOST:-0.0.0.0}" | |
| GPU_UTIL="${TEST_GPU_UTIL:-0.10}" # Judge 用に VRAM を残す | |
| # [Fix-JA-M1] EQ-Bench3 の max_tokens=12000 + プロンプト長を考慮 | |
| MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-32768}" | |
| DTYPE="${VLLM_DTYPE:-auto}" | |
| HF_TOKEN="${HF_TOKEN:-}" | |
| echo "=== TeenEmo 受験者サーバー起動 ===" | |
| echo " ベースモデル : ${BASE_MODEL}" | |
| echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})" | |
| echo " ポート : ${PORT}" | |
| echo " GPU 使用率 : ${GPU_UTIL} (judge 用に VRAM を確保)" | |
| echo " 最大コンテキスト: ${MAX_MODEL_LEN} (EQ-Bench3: max_tokens=12000 対応)" | |
| echo "" | |
| exec vllm serve "${BASE_MODEL}" \ | |
| --host "${HOST}" \ | |
| --port "${PORT}" \ | |
| --dtype "${DTYPE}" \ | |
| --gpu-memory-utilization "${GPU_UTIL}" \ | |
| --max-model-len "${MAX_MODEL_LEN}" \ | |
| --tensor-parallel-size 1 \ | |
| --max-num-seqs 16 \ | |
| --enable-prefix-caching \ | |
| --enable-lora \ | |
| --max-lora-rank 32 \ | |
| --lora-modules "${LORA_NAME}=${LORA_REPO}" \ | |
| --trust-remote-code \ | |
| ${HF_TOKEN:+--hf-token "${HF_TOKEN}"} | |