YUGOROU's picture
fix: eqbench-ja-run/README.md (JA-D1 + JA-D2 + JA-M1 patches)
65380d0 verified

EQ-Bench3 日本語版 ローカル評価セットアップ

TeenEmo-LFM2.5-1.2B-DPO を EQ-Bench3 日本語版で評価するセットアップ。
受験者・採点者ともに同一インスタンス上のローカルvLLMを使用。

修正済み問題

# 重大度 問題 修正
JA-D1 🔴 Fatal scenario_master_prompt 等 9 ファイルが差し替えられていなかった(scenario_prompts / notes の 2 ファイルのみ) 全 12 ファイルを差し替え
JA-D2 🔴 Fatal benchmark.py / conversation.py のコードパッチ未適用 → スコア全0 setup 時に patch_benchmark.py / patch_conversation.py を自動適用
JA-M1 🔴 Fatal serve_test.sh の MAX_MODEL_LEN=4096 → EQ-Bench3 は max_tokens=12000 を要求するためクラッシュ 32768 に修正

モデル構成

役割 モデル VRAM ポート
受験者 LiquidAI/LFM2.5-1.2B-Base + LoRA YUGOROU/TeenEmo-LFM2.5-1.2B-DPO ~3GB (GPU_UTIL=0.10) 8000
採点者 Qwen/Qwen3.5-35B-A3B ~70GB (GPU_UTIL=0.88) 8001

セットアップ

export HF_TOKEN="hf_xxxx"
curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
  "https://huggingface.co/datasets/YUGOROU/Test-2/resolve/main/eqbench-ja-run/setup_eqbench_run.sh" \
  -o /tmp/setup_eqbench_run.sh && bash /tmp/setup_eqbench_run.sh

同時起動モード(推奨: A100 80GB)

# Step 1: TeenEmo 起動(port 8000, GPU_UTIL=0.10)
tmux new-session -d -s eq_run
tmux new-window -t eq_run -n test
tmux send-keys -t eq_run:test "cd /workspace/eqbench-run && export HF_TOKEN='$HF_TOKEN' && ./serve_test.sh" Enter

# Step 2: Judge 起動(port 8001, GPU_UTIL=0.88)
tmux new-window -t eq_run -n judge
tmux send-keys -t eq_run:judge "cd /workspace/eqbench-run && ./serve_judge.sh" Enter

# Step 3: 起動確認
tmux capture-pane -t eq_run:test -p | grep "startup complete"
tmux capture-pane -t eq_run:judge -p | grep "startup complete"

# Step 4: 評価実行
cd /workspace/eqbench-run/eqbench3
python eqbench3.py \
  --test-model teenemo-dpo \
  --model-name TeenEmo-DPO \
  --judge-model Qwen/Qwen3.5-35B-A3B \
  --no-elo \
  --save-interval 1 \
  --iterations 1

順次実行モード(OOM 対策)

--save-interval 1 で 1 タスクごとに保存。サーバー切り替え後に再実行すると完了済みタスクをスキップして再開できる。

# Phase 1: TeenEmo で応答生成(port 8000 のみ / Judge は失敗でOK)
TEST_GPU_UTIL=0.95 ./serve_test.sh &
cd /workspace/eqbench-run/eqbench3
python eqbench3.py \
  --test-model teenemo-dpo --model-name TeenEmo-DPO \
  --judge-model Qwen/Qwen3.5-35B-A3B \
  --no-elo --save-interval 1 --iterations 1
# Judge API 失敗は想定内。応答済みタスクは保存される

# Phase 2: TeenEmo 停止 → Judge 起動(port 8001)で採点のみ
pkill -f "vllm serve LiquidAI" || kill $(lsof -t -i:8000) || true
JUDGE_GPU_UTIL=0.90 ./serve_judge.sh &
python eqbench3.py \
  --test-model teenemo-dpo --model-name TeenEmo-DPO \
  --judge-model Qwen/Qwen3.5-35B-A3B \
  --no-elo --save-interval 1 --iterations 1

結果確認

cat /workspace/eqbench-run/eqbench3/eqbench3_runs.json | python3 -c "
import json, sys
data = json.load(sys.stdin)
for run_id, run in data.items():
    if 'TeenEmo' in run_id:
        print('Run:', run_id)
        print('Score:', run.get('eq_bench_score', 'N/A'))
"