File size: 6,667 Bytes
465a0e3 cd60174 465a0e3 cd60174 465a0e3 cd60174 465a0e3 cd60174 465a0e3 cd60174 465a0e3 cd60174 465a0e3 cd60174 465a0e3 cd60174 465a0e3 cd60174 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 | ---
language:
- ja
- en
license: mit
tags:
- llm-training
- eq-bench
- vllm
pretty_name: TeenEmo Scripts
---
# TeenEmo Scripts
TeenEmo の学習・評価パイプラインを構成するスクリプト集です。
合成データ生成 → SFT → DPO → EQ-Bench3 日本語評価 という一連のフローをカバーします。
---
## パイプライン全体像
```
[合成データ生成]
teememo-synth-complete.zip # Qwen3.5-35B-A3B で生成した SFT/DPO データ
setup.sh # Vast.ai 上でデータ生成環境をセットアップ
test_llm.py # vLLM 接続スモークテスト
↓
[モデル学習]
training/
train_sft.py # SFT (LFM2.5-1.2B-Base → LoRA)
train_dpo.py # DPO (SFT済みLoRA → 継続学習)
→ YUGOROU/TeenEmo-LFM2.5-1.2B-SFT
→ YUGOROU/TeenEmo-LFM2.5-1.2B-DPO
→ YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF
↓
[EQ-Bench3 日本語化]
eqbench-ja/
translate_eqbench.py # Qwen3.5-9B で英語 → 日本語翻訳
→ YUGOROU/teememo-eq-bench-ja
↓
[EQ-Bench3 評価]
eqbench-run-v2/ # Vast.ai (L4/RTX4090) + HF Inference Providers (judge)
eqbench-ja-run/ # A100 80GB + ローカル vLLM (judge)
```
---
## ディレクトリ構成
```
TeenEmo-Scripts/
├── setup.sh # Vast.ai 合成データ生成環境セットアップ
├── test_llm.py # vLLM 接続スモークテスト
├── teememo-synth-complete.zip # 合成データ生成パイプライン一式
│
├── training/ # 学習スクリプト群
│ ├── README.md
│ ├── train_config.py # 全設定値(環境変数で上書き可能)
│ ├── train_utils.py # 共通ユーティリティ(ログ・データ読込)
│ ├── train_sft.py # SFT 学習スクリプト
│ └── train_dpo.py # DPO 学習スクリプト
│
├── eqbench-ja/ # EQ-Bench3 日本語翻訳パイプライン
│ ├── setup_translate.sh # 翻訳環境セットアップ
│ ├── serve_translate.sh # Qwen3.5-9B vLLM サーバー起動
│ └── translate_eqbench.py # 非同期翻訳スクリプト(チェックポイント対応)
│
├── eqbench-run-v2/ # EQ-Bench3 評価 (Vast.ai / HF Inference Providers)
│ ├── README.md
│ ├── setup_eqbench_vast.sh # Vast.ai セットアップ
│ ├── serve_test_vast.sh # TeenEmo vLLM サーバー起動
│ └── restore_english_tags.py # 翻訳時に日本語化されたタグの復元
│
└── eqbench-ja-run/ # EQ-Bench3 評価 (A100 80GB / ローカル judge)
├── README.md
├── setup_eqbench_run.sh # A100 セットアップ
├── serve_test.sh # TeenEmo vLLM サーバー起動(低GPU使用率)
└── serve_judge.sh # Qwen3.5-35B-A3B judge vLLM サーバー起動
```
---
## モデル・データセット
| 種別 | HF リポジトリ |
|------|--------------|
| ベースモデル | `LiquidAI/LFM2.5-1.2B-Base` |
| SFT 済みモデル | `YUGOROU/TeenEmo-LFM2.5-1.2B-SFT` |
| DPO 済みモデル | `YUGOROU/TeenEmo-LFM2.5-1.2B-DPO` |
| GGUF | `YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF` |
| SFT データ | `YUGOROU/teememo-sft-validation` |
| DPO データ | `YUGOROU/teememo-pref-data` |
| EQ-Bench 日本語化 | `YUGOROU/teememo-eq-bench-ja` |
---
## 1. 合成データ生成環境のセットアップ
```bash
export HF_TOKEN="hf_xxxx"
export HF_USERNAME="YUGOROU"
curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
"https://huggingface.co/datasets/YUGOROU/TeenEmo-Scripts/resolve/main/setup.sh" \
| bash
```
動作確認:
```bash
cd /workspace/teememo-synth
python /path/to/test_llm.py
```
---
## 2. モデル学習 (SFT → DPO)
詳細は [`training/README.md`](training/README.md) を参照してください。
```bash
pip install unsloth trl datasets transformers
export HF_TOKEN="hf_xxxx"
# Step 1: SFT
python train_sft.py
# Step 2: DPO(SFT完了後)
python train_dpo.py
```
主な設定(環境変数で上書き可能):
| 設定 | SFT | DPO |
|------|-----|-----|
| エポック | 3 | 2 |
| 実効バッチサイズ | 128 (32×4) | 32 (8×4) |
| 学習率 | 2e-4 | 5e-5 |
| LoRA rank | 32 | ← 継承 |
---
## 3. EQ-Bench3 日本語翻訳
```bash
export HF_TOKEN="hf_xxxx"
bash eqbench-ja/setup_translate.sh
# vLLM (Qwen3.5-9B) を tmux で起動
tmux new-session -d -s eq_tmux
tmux send-keys -t eq_tmux "cd /workspace/eqbench-ja && ./serve_translate.sh" Enter
# 翻訳実行(チェックポイントで途中再開可能)
python translate_eqbench.py
# 動作確認のみ(最初の2シナリオ)
python translate_eqbench.py --dry-run
```
翻訳結果は [`YUGOROU/teememo-eq-bench-ja`](https://huggingface.co/datasets/YUGOROU/teememo-eq-bench-ja) に自動アップロードされます。
---
## 4. EQ-Bench3 評価
### Vast.ai 構成(推奨): `eqbench-run-v2/`
受験者を Vast.ai の vLLM で、採点者を HF Inference Providers (novita / `gpt-oss-120b`) で実行します。
詳細は [`eqbench-run-v2/README.md`](eqbench-run-v2/README.md) を参照してください。
```bash
export HF_TOKEN="hf_xxxx"
curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
"https://huggingface.co/datasets/YUGOROU/TeenEmo-Scripts/resolve/main/eqbench-run-v2/setup_eqbench_vast.sh" \
-o /tmp/setup.sh && bash /tmp/setup.sh
```
### A100 80GB 構成: `eqbench-ja-run/`
受験者・採点者ともに同一インスタンス上のローカル vLLM を使用します。
詳細は [`eqbench-ja-run/README.md`](eqbench-ja-run/README.md) を参照してください。
```bash
export HF_TOKEN="hf_xxxx"
curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
"https://huggingface.co/datasets/YUGOROU/TeenEmo-Scripts/resolve/main/eqbench-ja-run/setup_eqbench_run.sh" \
-o /tmp/setup.sh && bash /tmp/setup.sh
```
---
## 技術スタック
| カテゴリ | ライブラリ・サービス |
|---------|-------------------|
| 学習 | [Unsloth](https://github.com/unslothai/unsloth) + [TRL](https://github.com/huggingface/trl) |
| 推論 | [vLLM](https://github.com/vllm-project/vllm) |
| 評価 | [EQ-Bench3](https://github.com/EQ-bench/eqbench3) |
| GPU 環境 | [Vast.ai](https://vast.ai/) (L4 / RTX 4090) |
---
## ライセンス
MIT
|