TeenEmo-Scripts / eqbench-ja /serve_translate.sh
YUGOROU's picture
fix: sync eqbench-ja/serve_translate.sh
f8977ef verified
raw
history blame
2.25 kB
#!/usr/bin/env bash
# =============================================================================
# serve_translate.sh — EQ-Bench 日本語化用 vLLM サーバー起動スクリプト
# ベースモデル: Qwen/Qwen3.5-9B(日英翻訳品質が高い)
# setup.sh からフォーク。翻訳タスク向けに最適化(長文対応・高精度設定)
# =============================================================================
# 使用方法:
# chmod +x serve_translate.sh && ./serve_translate.sh
#
# 環境変数で挙動を上書き可能:
# TRANSLATE_MODEL=Qwen/Qwen3.5-9B ./serve_translate.sh
# =============================================================================
set -euo pipefail
MODEL="${TRANSLATE_MODEL:-Qwen/Qwen3.5-9B}"
PORT="${VLLM_PORT:-8000}"
HOST="${VLLM_HOST:-0.0.0.0}"
GPU_UTIL="${VLLM_GPU_UTIL:-0.88}"
MAX_MODEL_LEN="${VLLM_MAX_MODEL_LEN:-8192}"
TENSOR_PARALLEL="${VLLM_TENSOR_PARALLEL:-1}"
DTYPE="${VLLM_DTYPE:-auto}"
MAX_NUM_SEQS="${VLLM_MAX_NUM_SEQS:-32}"
echo "=== vLLM 翻訳サーバー起動 ==="
echo " モデル : ${MODEL}"
echo " ポート : ${PORT}"
echo " GPU 使用率 : ${GPU_UTIL}"
echo " 最大コンテキスト: ${MAX_MODEL_LEN}"
echo " 並列度 : ${TENSOR_PARALLEL}"
echo ""
python -c "import vllm; print(f' vLLM バージョン : {vllm.__version__}')" 2>/dev/null || true
echo ""
# Qwen3.5 は Vision encoder を内蔵した VLM(pipeline_tag: image-text-to-text)のため
# --language-model-only が必須。このフラグなしでは vLLM が vision モードで起動しようとし
# テキスト専用タスクでエラーまたはパフォーマンス劣化が発生する。
# 参考: HF model card https://huggingface.co/Qwen/Qwen3.5-9B (image-text-to-text)
# --enable-prefix-caching: 翻訳プロンプトの共通システムプロンプト部分をキャッシュ
exec vllm serve "${MODEL}" \
--host "${HOST}" \
--port "${PORT}" \
--dtype "${DTYPE}" \
--gpu-memory-utilization "${GPU_UTIL}" \
--max-model-len "${MAX_MODEL_LEN}" \
--tensor-parallel-size "${TENSOR_PARALLEL}" \
--max-num-seqs "${MAX_NUM_SEQS}" \
--language-model-only \
--enable-prefix-caching \
--trust-remote-code