YUGOROU's picture
fix: eqbench-ja-run/serve_test.sh (JA-D1 + JA-D2 + JA-M1 patches)
7d46d98 verified
raw
history blame
2.06 kB
#!/usr/bin/env bash
# =============================================================================
# serve_test.sh — TeenEmo(受験者)vLLM サーバー起動
#
# TeenEmo は LiquidAI/LFM2.5-1.2B-Base の LoRAアダプタ(88.9MB)のみを
# HFに保存しているため、vLLMはベースモデルを指定し --enable-lora で
# アダプタを動的にロードする形式を使用する。
#
# ポート: 8000
# VRAM: ~3GB (1.2B bf16, GPU_UTIL=0.10 で残りを Judge 用に確保)
#
# [Fix-JA-M1] MAX_MODEL_LEN: 4096 → 32768
# EQ-Bench3 は max_tokens=12000 を要求するため 4096 では Fatal
# ただし Judge と同居するため GPU_UTIL は低く抑える
# =============================================================================
set -euo pipefail
BASE_MODEL="${TEST_BASE_MODEL:-LiquidAI/LFM2.5-1.2B-Base}"
LORA_REPO="${TEST_LORA_REPO:-YUGOROU/TeenEmo-LFM2.5-1.2B-DPO}"
LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}"
PORT="${TEST_PORT:-8000}"
HOST="${VLLM_HOST:-0.0.0.0}"
GPU_UTIL="${TEST_GPU_UTIL:-0.10}" # Judge 用に VRAM を残す
# [Fix-JA-M1] EQ-Bench3 の max_tokens=12000 + プロンプト長を考慮
MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-32768}"
DTYPE="${VLLM_DTYPE:-auto}"
HF_TOKEN="${HF_TOKEN:-}"
echo "=== TeenEmo 受験者サーバー起動 ==="
echo " ベースモデル : ${BASE_MODEL}"
echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})"
echo " ポート : ${PORT}"
echo " GPU 使用率 : ${GPU_UTIL} (judge 用に VRAM を確保)"
echo " 最大コンテキスト: ${MAX_MODEL_LEN} (EQ-Bench3: max_tokens=12000 対応)"
echo ""
exec vllm serve "${BASE_MODEL}" \
--host "${HOST}" \
--port "${PORT}" \
--dtype "${DTYPE}" \
--gpu-memory-utilization "${GPU_UTIL}" \
--max-model-len "${MAX_MODEL_LEN}" \
--tensor-parallel-size 1 \
--max-num-seqs 16 \
--enable-prefix-caching \
--enable-lora \
--max-lora-rank 32 \
--lora-modules "${LORA_NAME}=${LORA_REPO}" \
--trust-remote-code \
${HF_TOKEN:+--hf-token "${HF_TOKEN}"}