YUGOROU commited on
Commit
69d9a70
·
verified ·
1 Parent(s): 3ce5628

revert: feat: macOS/uv/llama-cpp + HF Inference Providers (gpt-oss-120b novita) セットアップスクリプト (3ce5628)

Browse files
Files changed (1) hide show
  1. eqbench-mac/setup_eqbench_mac.sh +0 -191
eqbench-mac/setup_eqbench_mac.sh DELETED
@@ -1,191 +0,0 @@
1
- #!/usr/bin/env bash
2
- # =============================================================================
3
- # setup_eqbench_mac.sh — EQ-Bench3 macOS / M3 MacBook セットアップ
4
- #
5
- # 構成:
6
- # 受験者: YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF (llama-cpp, Metal加速)
7
- # 採点者: openai/gpt-oss-120b via HF Inference Providers (novita)
8
- #
9
- # 前提:
10
- # - uv がインストール済み (curl -LsSf https://astral.sh/uv/install.sh | sh)
11
- # - Homebrew がインストール済み
12
- # - HF_TOKEN: HuggingFace Pro プランのトークン
13
- #
14
- # 使用方法:
15
- # export HF_TOKEN="hf_xxxx"
16
- # bash setup_eqbench_mac.sh
17
- # =============================================================================
18
-
19
- set -euo pipefail
20
-
21
- HF_TOKEN="${HF_TOKEN:?HF_TOKEN が未設定です。export HF_TOKEN='hf_xxxx' を実行してください。}"
22
- WORKSPACE="${HOME}/eqbench-teenemo"
23
- EQBENCH_REPO="https://github.com/EQ-bench/eqbench3.git"
24
- VENV_DIR="${WORKSPACE}/.venv"
25
- GGUF_DIR="${WORKSPACE}/models"
26
- GGUF_REPO="YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF"
27
- GGUF_FILE="LFM2.5-1.2B-Base.Q4_K_M.gguf"
28
- LLAMA_SERVER_PORT="${LLAMA_SERVER_PORT:-8000}"
29
-
30
- echo "======================================"
31
- echo " EQ-Bench3 macOS セットアップ"
32
- echo " 作業ディレクトリ: ${WORKSPACE}"
33
- echo "======================================"
34
- echo ""
35
-
36
- # ── 1. llama-cpp インストール (Homebrew) ──────────────────────
37
- echo "[1/6] llama-cpp の確認..."
38
- if ! command -v llama-server &>/dev/null; then
39
- echo " llama-cpp をインストール中 (Metal対応)..."
40
- brew install llama.cpp
41
- echo " ✅ llama-cpp インストール完了"
42
- else
43
- echo " ✅ llama-cpp 確認済み: $(llama-server --version 2>&1 | head -1)"
44
- fi
45
-
46
- # ── 2. 作業ディレクトリ作成 ────────────────────────────────────
47
- echo ""
48
- echo "[2/6] ディレクトリ作成..."
49
- mkdir -p "${WORKSPACE}" "${GGUF_DIR}"
50
-
51
- # ── 3. EQ-Bench3 クローン ──────────────────────────────────────
52
- echo ""
53
- echo "[3/6] EQ-Bench3 クローン..."
54
- if [ -d "${WORKSPACE}/eqbench3" ]; then
55
- echo " 既存リポジトリを更新中..."
56
- git -C "${WORKSPACE}/eqbench3" pull --ff-only 2>/dev/null || echo " (更新スキップ)"
57
- else
58
- git clone --depth=1 "${EQBENCH_REPO}" "${WORKSPACE}/eqbench3"
59
- fi
60
- echo " ✅ ${WORKSPACE}/eqbench3"
61
-
62
- # ── 4. uv 仮想環境 + 依存関係インストール ────────────────────
63
- echo ""
64
- echo "[4/6] uv 仮想環境セットアップ..."
65
- cd "${WORKSPACE}/eqbench3"
66
-
67
- if [ ! -d "${VENV_DIR}" ]; then
68
- uv venv "${VENV_DIR}" --python 3.11
69
- echo " ✅ 仮想環境作成: ${VENV_DIR}"
70
- fi
71
-
72
- # requirements.txt から依存パッケージをインストール
73
- uv pip install --python "${VENV_DIR}/bin/python" \
74
- -r requirements.txt \
75
- huggingface_hub \
76
- 2>/dev/null
77
- echo " ✅ 依存パッケージインストール完了"
78
-
79
- # ── 5. TeenEmo GGUF ダウンロード ───────────────────────────────
80
- echo ""
81
- echo "[5/6] TeenEmo GGUF ダウンロード..."
82
- GGUF_PATH="${GGUF_DIR}/${GGUF_FILE}"
83
-
84
- if [ -f "${GGUF_PATH}" ]; then
85
- echo " ✅ GGUF 既存: ${GGUF_PATH}"
86
- else
87
- echo " ダウンロード中: ${GGUF_REPO}/${GGUF_FILE}"
88
- "${VENV_DIR}/bin/python" -c "
89
- from huggingface_hub import hf_hub_download
90
- import os
91
- path = hf_hub_download(
92
- repo_id='${GGUF_REPO}',
93
- filename='${GGUF_FILE}',
94
- repo_type='model',
95
- token='${HF_TOKEN}',
96
- local_dir='${GGUF_DIR}',
97
- )
98
- print(f' ✅ ダウンロード完了: {path}')
99
- "
100
- fi
101
-
102
- # ── 6. .env ファイル生成 ────────────────────────────────────────
103
- echo ""
104
- echo "[6/6] .env ファイル生成..."
105
- ENV_FILE="${WORKSPACE}/eqbench3/.env"
106
-
107
- cat > "${ENV_FILE}" << ENVEOF
108
- # =============================================================================
109
- # EQ-Bench3 設定 (macOS / TeenEmo 評価用)
110
- # 自動生成: $(date)
111
- #
112
- # 受験者: TeenEmo-LFM2.5-1.2B-GGUF (llama-server port ${LLAMA_SERVER_PORT})
113
- # 採点者: openai/gpt-oss-120b via HF Inference Providers (novita)
114
- # Input: \$0.05/1M tokens, Output: \$0.25/1M tokens
115
- # 46シナリオの推定コスト: ~\$0.024 (Pro \$2クレジット内)
116
- # =============================================================================
117
-
118
- # 受験者: llama-server (ローカル)
119
- TEST_API_URL=http://localhost:${LLAMA_SERVER_PORT}/v1/chat/completions
120
- TEST_API_KEY=dummy
121
-
122
- # 採点者: HF Inference Providers → novita → gpt-oss-120b
123
- # HF Proトークン: \$2/月の無料クレジットで賄える
124
- JUDGE_API_URL=https://router.huggingface.co/novita/v1/chat/completions
125
- JUDGE_API_KEY=${HF_TOKEN}
126
-
127
- # API設定
128
- MAX_RETRIES=6
129
- RETRY_DELAY=5
130
- REQUEST_TIMEOUT=300
131
- ENVEOF
132
-
133
- echo " ✅ .env 生成完了: ${ENV_FILE}"
134
-
135
- # ── 日本語版シナリオの差し替え ────────────────────────────────
136
- echo ""
137
- echo "[オプション] 日本語版シナリオへの差し替え..."
138
- JA_PROMPTS_URL="https://huggingface.co/datasets/YUGOROU/teememo-eq-bench-ja/resolve/main/data/scenario_prompts_ja.txt"
139
- JA_NOTES_URL="https://huggingface.co/datasets/YUGOROU/teememo-eq-bench-ja/resolve/main/data/scenario_notes_ja.txt"
140
-
141
- for pair in \
142
- "${JA_PROMPTS_URL}|${WORKSPACE}/eqbench3/data/scenario_prompts.txt" \
143
- "${JA_NOTES_URL}|${WORKSPACE}/eqbench3/data/scenario_notes.txt"; do
144
- URL="${pair%%|*}"
145
- DEST="${pair##*|}"
146
- BACKUP="${DEST}.en.bak"
147
- if [ ! -f "${BACKUP}" ]; then
148
- cp "${DEST}" "${BACKUP}"
149
- fi
150
- if curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
151
- "${URL}" -o "${DEST}" 2>/dev/null; then
152
- echo " ✅ 日本語版に差し替え: $(basename ${DEST})"
153
- else
154
- echo " ⚠️ 日本語版未生成のため英語版を使用: $(basename ${DEST})"
155
- cp "${BACKUP}" "${DEST}"
156
- fi
157
- done
158
-
159
- # ── セットアップ完了 ────────────────────────────────────────────
160
- echo ""
161
- echo "======================================"
162
- echo " セットアップ完了"
163
- echo " 作業ディレクトリ: ${WORKSPACE}"
164
- echo "======================================"
165
- echo ""
166
- echo "【実行手順】"
167
- echo ""
168
- echo "# Step 1: 別タブでllama-serverを起動(TeenEmo受験者)"
169
- echo "llama-server \\"
170
- echo " --model ${GGUF_PATH} \\"
171
- echo " --port ${LLAMA_SERVER_PORT} \\"
172
- echo " --ctx-size 16384 \\"
173
- echo " -ngl 99"
174
- echo ""
175
- echo "# Step 2: サーバー起動確認"
176
- echo "curl -s http://localhost:${LLAMA_SERVER_PORT}/health"
177
- echo ""
178
- echo "# Step 3: EQ-Bench3 評価実行"
179
- echo "cd ${WORKSPACE}/eqbench3"
180
- echo "source ${VENV_DIR}/bin/activate"
181
- echo "python eqbench3.py \\"
182
- echo " --test-model LFM2.5-1.2B-Base.Q4_K_M \\"
183
- echo " --model-name TeenEmo-DPO \\"
184
- echo " --judge-model openai/gpt-oss-120b \\"
185
- echo " --no-elo \\"
186
- echo " --save-interval 1 \\"
187
- echo " --iterations 1"
188
- echo ""
189
- echo "# 結果確認"
190
- echo "cat ${WORKSPACE}/eqbench3/eqbench3_runs.json | python3 -c \\"
191
- echo " \"import json,sys; [print(k, v.get('eq_bench_score','N/A')) for k,v in json.load(sys.stdin).items() if 'TeenEmo' in k]\""