YUGOROU commited on
Commit
7d46d98
·
verified ·
1 Parent(s): 4a07acd

fix: eqbench-ja-run/serve_test.sh (JA-D1 + JA-D2 + JA-M1 patches)

Browse files
Files changed (1) hide show
  1. eqbench-ja-run/serve_test.sh +11 -5
eqbench-ja-run/serve_test.sh CHANGED
@@ -7,7 +7,11 @@
7
  # アダプタを動的にロードする形式を使用する。
8
  #
9
  # ポート: 8000
10
- # VRAM使用量: ~3GB1.2B bf16GPU_UTIL=0.10で残りをJudge用に確保
 
 
 
 
11
  # =============================================================================
12
 
13
  set -euo pipefail
@@ -17,16 +21,18 @@ LORA_REPO="${TEST_LORA_REPO:-YUGOROU/TeenEmo-LFM2.5-1.2B-DPO}"
17
  LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}"
18
  PORT="${TEST_PORT:-8000}"
19
  HOST="${VLLM_HOST:-0.0.0.0}"
20
- GPU_UTIL="${TEST_GPU_UTIL:-0.10}" # 1.2Bは軽量。judge用にVRAMを残す
21
- MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-4096}"
 
22
  DTYPE="${VLLM_DTYPE:-auto}"
23
  HF_TOKEN="${HF_TOKEN:-}"
24
 
25
  echo "=== TeenEmo 受験者サーバー起動 ==="
26
  echo " ベースモデル : ${BASE_MODEL}"
27
- echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})"
28
  echo " ポート : ${PORT}"
29
- echo " GPU 使用率 : ${GPU_UTIL} (judge用にVRAMを確保)"
 
30
  echo ""
31
 
32
  exec vllm serve "${BASE_MODEL}" \
 
7
  # アダプタを動的にロードする形式を使用する。
8
  #
9
  # ポート: 8000
10
+ # VRAM: ~3GB (1.2B bf16, GPU_UTIL=0.10 で残りを Judge 用に確保)
11
+ #
12
+ # [Fix-JA-M1] MAX_MODEL_LEN: 4096 → 32768
13
+ # EQ-Bench3 は max_tokens=12000 を要求するため 4096 では Fatal
14
+ # ただし Judge と同居するため GPU_UTIL は低く抑える
15
  # =============================================================================
16
 
17
  set -euo pipefail
 
21
  LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}"
22
  PORT="${TEST_PORT:-8000}"
23
  HOST="${VLLM_HOST:-0.0.0.0}"
24
+ GPU_UTIL="${TEST_GPU_UTIL:-0.10}" # Judge 用に VRAM を残す
25
+ # [Fix-JA-M1] EQ-Bench3 の max_tokens=12000 + プロンプト長を考慮
26
+ MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-32768}"
27
  DTYPE="${VLLM_DTYPE:-auto}"
28
  HF_TOKEN="${HF_TOKEN:-}"
29
 
30
  echo "=== TeenEmo 受験者サーバー起動 ==="
31
  echo " ベースモデル : ${BASE_MODEL}"
32
+ echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})"
33
  echo " ポート : ${PORT}"
34
+ echo " GPU 使用率 : ${GPU_UTIL} (judge 用に VRAM を確保)"
35
+ echo " 最大コンテキスト: ${MAX_MODEL_LEN} (EQ-Bench3: max_tokens=12000 対応)"
36
  echo ""
37
 
38
  exec vllm serve "${BASE_MODEL}" \