| # ============================================================================= | |
| # serve_test_vast.sh — TeenEmo 受験者サーバー (Vast.ai L4/RTX4090/L40S) | |
| # | |
| # 今セッションで判明した問題の修正: | |
| # [Fix-1] --max-lora-rank 32: UnslothのLoRAはrank=32のためデフォルト値16では起動失敗 | |
| # [Fix-2] --max-model-len 32768: EQ-Bench3はmax_tokens=12000を要求するため | |
| # max_model_len >= 12000 + プロンプト長 が必要 | |
| # [Fix-3] --gpu-memory-utilization 0.95: TeenEmo専用インスタンスのため全GPU投入 | |
| # | |
| # 採点者はHF Inference Providers (novita/gpt-oss-120b) を使用するため | |
| # Judge用のVRAMを確保する必要はない。 | |
| # | |
| # 対象GPU: L4 (24GB) / RTX 4090 (24GB) / L40S (48GB) | |
| # LFM2.5-1.2B-Base (bf16 ~2.5GB) + LoRA overhead → 24GBで十分 | |
| # ============================================================================= | |
| set -euo pipefail | |
| BASE_MODEL="${TEST_BASE_MODEL:-LiquidAI/LFM2.5-1.2B-Base}" | |
| LORA_REPO="${TEST_LORA_REPO:-YUGOROU/TeenEmo-LFM2.5-1.2B-DPO}" | |
| LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}" | |
| PORT="${TEST_PORT:-8000}" | |
| HOST="${VLLM_HOST:-0.0.0.0}" | |
| # [Fix-3] TeenEmo専用インスタンスのため全GPU投入 | |
| GPU_UTIL="${TEST_GPU_UTIL:-0.95}" | |
| # [Fix-2] EQ-Bench3がmax_tokens=12000を要求 + プロンプト長を考慮して32768に設定 | |
| MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-32768}" | |
| DTYPE="${VLLM_DTYPE:-auto}" | |
| HF_TOKEN="${HF_TOKEN:-}" | |
| echo "=== TeenEmo 受験者サーバー起動 (Vast.ai 専用) ===" | |
| echo " ベースモデル : ${BASE_MODEL}" | |
| echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})" | |
| echo " ポート : ${PORT}" | |
| echo " GPU 使用率 : ${GPU_UTIL} (TeenEmo専用)" | |
| echo " 最大コンテキスト: ${MAX_MODEL_LEN} (EQ-Bench3: max_tokens=12000 対応)" | |
| echo "" | |
| python -c "import vllm; print(f' vLLM: {vllm.__version__}')" 2>/dev/null || true | |
| echo "" | |
| exec vllm serve "${BASE_MODEL}" \ | |
| --host "${HOST}" \ | |
| --port "${PORT}" \ | |
| --dtype "${DTYPE}" \ | |
| --gpu-memory-utilization "${GPU_UTIL}" \ | |
| --max-model-len "${MAX_MODEL_LEN}" \ | |
| --tensor-parallel-size 1 \ | |
| --max-num-seqs 16 \ | |
| --enable-prefix-caching \ | |
| --enable-lora \ | |
| --max-lora-rank 32 \ | |
| --lora-modules "${LORA_NAME}=${LORA_REPO}" \ | |
| --trust-remote-code \ | |
| ${HF_TOKEN:+--hf-token "${HF_TOKEN}"} | |