TeenEmo-Scripts / eqbench-vast /serve_test_vast.sh
YUGOROU's picture
sync: eqbench-vast/serve_test_vast.sh
e00d127 verified
raw
history blame
2.36 kB
#!/usr/bin/env bash
# =============================================================================
# serve_test_vast.sh — TeenEmo 受験者サーバー (Vast.ai L4/RTX4090/L40S)
#
# 今セッションで判明した問題の修正:
# [Fix-1] --max-lora-rank 32: UnslothのLoRAはrank=32のためデフォルト値16では起動失敗
# [Fix-2] --max-model-len 32768: EQ-Bench3はmax_tokens=12000を要求するため
# max_model_len >= 12000 + プロンプト長 が必要
# [Fix-3] --gpu-memory-utilization 0.95: TeenEmo専用インスタンスのため全GPU投入
#
# 採点者はHF Inference Providers (novita/gpt-oss-120b) を使用するため
# Judge用のVRAMを確保する必要はない。
#
# 対象GPU: L4 (24GB) / RTX 4090 (24GB) / L40S (48GB)
# LFM2.5-1.2B-Base (bf16 ~2.5GB) + LoRA overhead → 24GBで十分
# =============================================================================
set -euo pipefail
BASE_MODEL="${TEST_BASE_MODEL:-LiquidAI/LFM2.5-1.2B-Base}"
LORA_REPO="${TEST_LORA_REPO:-YUGOROU/TeenEmo-LFM2.5-1.2B-DPO}"
LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}"
PORT="${TEST_PORT:-8000}"
HOST="${VLLM_HOST:-0.0.0.0}"
# [Fix-3] TeenEmo専用インスタンスのため全GPU投入
GPU_UTIL="${TEST_GPU_UTIL:-0.95}"
# [Fix-2] EQ-Bench3がmax_tokens=12000を要求 + プロンプト長を考慮して32768に設定
MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-32768}"
DTYPE="${VLLM_DTYPE:-auto}"
HF_TOKEN="${HF_TOKEN:-}"
echo "=== TeenEmo 受験者サーバー起動 (Vast.ai 専用) ==="
echo " ベースモデル : ${BASE_MODEL}"
echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})"
echo " ポート : ${PORT}"
echo " GPU 使用率 : ${GPU_UTIL} (TeenEmo専用)"
echo " 最大コンテキスト: ${MAX_MODEL_LEN} (EQ-Bench3: max_tokens=12000 対応)"
echo ""
python -c "import vllm; print(f' vLLM: {vllm.__version__}')" 2>/dev/null || true
echo ""
exec vllm serve "${BASE_MODEL}" \
--host "${HOST}" \
--port "${PORT}" \
--dtype "${DTYPE}" \
--gpu-memory-utilization "${GPU_UTIL}" \
--max-model-len "${MAX_MODEL_LEN}" \
--tensor-parallel-size 1 \
--max-num-seqs 16 \
--enable-prefix-caching \
--enable-lora \
--max-lora-rank 32 \
--lora-modules "${LORA_NAME}=${LORA_REPO}" \
--trust-remote-code \
${HF_TOKEN:+--hf-token "${HF_TOKEN}"}