YUGOROU's picture
fix: sync eqbench-ja-run/serve_test.sh
21f582b verified
raw
history blame
1.69 kB
#!/usr/bin/env bash
# =============================================================================
# serve_test.sh — TeenEmo(受験者)vLLM サーバー起動
#
# TeenEmo は LiquidAI/LFM2.5-1.2B-Base の LoRAアダプタ(88.9MB)のみを
# HFに保存しているため、vLLMはベースモデルを指定し --enable-lora で
# アダプタを動的にロードする形式を使用する。
#
# ポート: 8000
# VRAM使用量: ~3GB(1.2B bf16、GPU_UTIL=0.10で残りをJudge用に確保)
# =============================================================================
set -euo pipefail
BASE_MODEL="${TEST_BASE_MODEL:-LiquidAI/LFM2.5-1.2B-Base}"
LORA_REPO="${TEST_LORA_REPO:-YUGOROU/TeenEmo-LFM2.5-1.2B-DPO}"
LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}"
PORT="${TEST_PORT:-8000}"
HOST="${VLLM_HOST:-0.0.0.0}"
GPU_UTIL="${TEST_GPU_UTIL:-0.10}" # 1.2Bは軽量。judge用にVRAMを残す
MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-4096}"
DTYPE="${VLLM_DTYPE:-auto}"
HF_TOKEN="${HF_TOKEN:-}"
echo "=== TeenEmo 受験者サーバー起動 ==="
echo " ベースモデル : ${BASE_MODEL}"
echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})"
echo " ポート : ${PORT}"
echo " GPU 使用率 : ${GPU_UTIL} (judge用にVRAMを確保)"
echo ""
exec vllm serve "${BASE_MODEL}" \
--host "${HOST}" \
--port "${PORT}" \
--dtype "${DTYPE}" \
--gpu-memory-utilization "${GPU_UTIL}" \
--max-model-len "${MAX_MODEL_LEN}" \
--tensor-parallel-size 1 \
--max-num-seqs 16 \
--enable-prefix-caching \
--enable-lora \
--lora-modules "${LORA_NAME}=${LORA_REPO}" \
--trust-remote-code \
${HF_TOKEN:+--hf-token "${HF_TOKEN}"}