| # ============================================================================= | |
| # serve_translate.sh — EQ-Bench 日本語化用 vLLM サーバー起動スクリプト | |
| # ベースモデル: Qwen/Qwen3.5-9B(日英翻訳品質が高い) | |
| # setup.sh からフォーク。翻訳タスク向けに最適化(長文対応・高精度設定) | |
| # ============================================================================= | |
| # 使用方法: | |
| # chmod +x serve_translate.sh && ./serve_translate.sh | |
| # | |
| # 環境変数で挙動を上書き可能: | |
| # TRANSLATE_MODEL=Qwen/Qwen3.5-9B ./serve_translate.sh | |
| # ============================================================================= | |
| set -euo pipefail | |
| MODEL="${TRANSLATE_MODEL:-Qwen/Qwen3.5-9B}" | |
| PORT="${VLLM_PORT:-8000}" | |
| HOST="${VLLM_HOST:-0.0.0.0}" | |
| GPU_UTIL="${VLLM_GPU_UTIL:-0.88}" | |
| MAX_MODEL_LEN="${VLLM_MAX_MODEL_LEN:-8192}" | |
| TENSOR_PARALLEL="${VLLM_TENSOR_PARALLEL:-1}" | |
| DTYPE="${VLLM_DTYPE:-auto}" | |
| MAX_NUM_SEQS="${VLLM_MAX_NUM_SEQS:-32}" | |
| echo "=== vLLM 翻訳サーバー起動 ===" | |
| echo " モデル : ${MODEL}" | |
| echo " ポート : ${PORT}" | |
| echo " GPU 使用率 : ${GPU_UTIL}" | |
| echo " 最大コンテキスト: ${MAX_MODEL_LEN}" | |
| echo " 並列度 : ${TENSOR_PARALLEL}" | |
| echo "" | |
| python -c "import vllm; print(f' vLLM バージョン : {vllm.__version__}')" 2>/dev/null || true | |
| echo "" | |
| # Qwen3.5 は Vision encoder を内蔵した VLM(pipeline_tag: image-text-to-text)のため | |
| # --language-model-only が必須。このフラグなしでは vLLM が vision モードで起動しようとし | |
| # テキスト専用タスクでエラーまたはパフォーマンス劣化が発生する。 | |
| # 参考: HF model card https://huggingface.co/Qwen/Qwen3.5-9B (image-text-to-text) | |
| # --enable-prefix-caching: 翻訳プロンプトの共通システムプロンプト部分をキャッシュ | |
| exec vllm serve "${MODEL}" \ | |
| --host "${HOST}" \ | |
| --port "${PORT}" \ | |
| --dtype "${DTYPE}" \ | |
| --gpu-memory-utilization "${GPU_UTIL}" \ | |
| --max-model-len "${MAX_MODEL_LEN}" \ | |
| --tensor-parallel-size "${TENSOR_PARALLEL}" \ | |
| --max-num-seqs "${MAX_NUM_SEQS}" \ | |
| --language-model-only \ | |
| --enable-prefix-caching \ | |
| --trust-remote-code | |