YUGOROU commited on
Commit
cd60174
·
verified ·
1 Parent(s): 465a0e3

docs: 未踏への言及を削除、YAMLタグを最小限に修正

Browse files
Files changed (1) hide show
  1. README.md +19 -61
README.md CHANGED
@@ -4,26 +4,15 @@ language:
4
  - en
5
  license: mit
6
  tags:
7
- - teeneemo
8
- - mitou-junior
9
  - llm-training
10
- - sft
11
- - dpo
12
  - eq-bench
13
  - vllm
14
- - unsloth
15
- - trl
16
- - japanese-nlp
17
- pretty_name: TeenEmo Scripts — 学習・評価スクリプト集
18
- size_categories:
19
- - n<1K
20
- task_categories:
21
- - text-generation
22
  ---
23
 
24
  # TeenEmo Scripts
25
 
26
- **TeenEmo** (未踏ジュニア 2026 申請プロジェクト) の学習・評価パイプライン全体を構成するスクリプト集です。
27
  合成データ生成 → SFT → DPO → EQ-Bench3 日本語評価 という一連のフローをカバーします。
28
 
29
  ---
@@ -51,7 +40,7 @@ task_categories:
51
  [EQ-Bench3 日本語化]
52
  eqbench-ja/
53
  translate_eqbench.py # Qwen3.5-9B で英語 → 日本語翻訳
54
- → YUGOROU/teememo-eq-bench-ja # 翻訳データ + パッチ
55
 
56
 
57
 
@@ -99,15 +88,15 @@ TeenEmo-Scripts/
99
 
100
  ## モデル・データセット
101
 
102
- | 種別 | HF リポジトリ | 説明 |
103
- |------|--------------|------|
104
- | ベースモデル | `LiquidAI/LFM2.5-1.2B-Base` | 学習ベース |
105
- | SFT 済みモデル | `YUGOROU/TeenEmo-LFM2.5-1.2B-SFT` | SFT LoRA アダプタ |
106
- | DPO 済みモデル | `YUGOROU/TeenEmo-LFM2.5-1.2B-DPO` | DPO LoRA アダプタ |
107
- | GGUF | `YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF` | q4_k_m 量子化 |
108
- | SFT データ | `YUGOROU/teememo-sft-validation` | 合成 SFT データ |
109
- | DPO データ | `YUGOROU/teememo-pref-data` | 選好データ |
110
- | EQ-Bench 日本語化 | `YUGOROU/teememo-eq-bench-ja` | 翻訳データ + パッチ |
111
 
112
  ---
113
 
@@ -138,7 +127,6 @@ python /path/to/test_llm.py
138
  pip install unsloth trl datasets transformers
139
 
140
  export HF_TOKEN="hf_xxxx"
141
- export HF_USERNAME="YUGOROU"
142
 
143
  # Step 1: SFT
144
  python train_sft.py
@@ -151,7 +139,6 @@ python train_dpo.py
151
 
152
  | 設定 | SFT | DPO |
153
  |------|-----|-----|
154
- | ベースモデル | `LiquidAI/LFM2.5-1.2B-Base` | SFT 済み LoRA |
155
  | エポック | 3 | 2 |
156
  | 実効バッチサイズ | 128 (32×4) | 32 (8×4) |
157
  | 学習率 | 2e-4 | 5e-5 |
@@ -164,15 +151,13 @@ python train_dpo.py
164
  ```bash
165
  export HF_TOKEN="hf_xxxx"
166
 
167
- # 翻訳環境セットアップ
168
  bash eqbench-ja/setup_translate.sh
169
 
170
- # tmux で vLLM (Qwen3.5-9B) を起動
171
  tmux new-session -d -s eq_tmux
172
  tmux send-keys -t eq_tmux "cd /workspace/eqbench-ja && ./serve_translate.sh" Enter
173
 
174
  # 翻訳実行(チェックポイントで途中再開可能)
175
- cd /workspace/eqbench-ja
176
  python translate_eqbench.py
177
 
178
  # 動作確認のみ(最初の2シナリオ)
@@ -187,9 +172,7 @@ python translate_eqbench.py --dry-run
187
 
188
  ### Vast.ai 構成(推奨): `eqbench-run-v2/`
189
 
190
- - **受験者**: TeenEmo LoRA on vLLM (port 8000, L4/RTX4090)
191
- - **採点者**: `openai/gpt-oss-120b` via HF Inference Providers (novita)
192
-
193
  詳細は [`eqbench-run-v2/README.md`](eqbench-run-v2/README.md) を参照してください。
194
 
195
  ```bash
@@ -201,9 +184,7 @@ curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
201
 
202
  ### A100 80GB 構成: `eqbench-ja-run/`
203
 
204
- - **受験者**: TeenEmo LoRA on vLLM (port 8000, GPU_UTIL=0.10)
205
- - **採点者**: `Qwen/Qwen3.5-35B-A3B` on vLLM (port 8001, GPU_UTIL=0.88)
206
-
207
  詳細は [`eqbench-ja-run/README.md`](eqbench-ja-run/README.md) を参照してください。
208
 
209
  ```bash
@@ -219,36 +200,13 @@ curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
219
 
220
  | カテゴリ | ライブラリ・サービス |
221
  |---------|-------------------|
222
- | 学習フレームワーク | [Unsloth](https://github.com/unslothai/unsloth) + [TRL](https://github.com/huggingface/trl) |
223
- | 推論エンジン | [vLLM](https://github.com/vllm-project/vllm) |
224
- | ベースモデル | [LiquidAI/LFM2.5-1.2B-Base](https://huggingface.co/LiquidAI/LFM2.5-1.2B-Base) |
225
- | 評価基盤 | [EQ-Bench3](https://github.com/EQ-bench/eqbench3) |
226
- | Judge (Vast.ai) | `openai/gpt-oss-120b` via [novita](https://novita.ai/) |
227
- | Judge (A100) | `Qwen/Qwen3.5-35B-A3B` on ローカル vLLM |
228
  | GPU 環境 | [Vast.ai](https://vast.ai/) (L4 / RTX 4090) |
229
 
230
  ---
231
 
232
- ## 動作確認環境
233
-
234
- - GPU: NVIDIA RTX 4090 (24GB) on Vast.ai
235
- - vLLM: `>=0.17`(Qwen3.5 対応の最低要件)
236
- - Python: 3.10+
237
- - Unsloth + TRL: 最新版推奨
238
-
239
- ---
240
-
241
- ## 関連リポジトリ
242
-
243
- | リポジトリ | 内容 |
244
- |----------|------|
245
- | [`YUGOROU/teememo-eq-bench-ja`](https://huggingface.co/datasets/YUGOROU/teememo-eq-bench-ja) | EQ-Bench3 日本語翻訳データ + パッチ |
246
- | [`YUGOROU/TeenEmo-LFM2.5-1.2B-DPO`](https://huggingface.co/YUGOROU/TeenEmo-LFM2.5-1.2B-DPO) | 学習済み DPO LoRA アダプタ |
247
- | [`YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF`](https://huggingface.co/YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF) | GGUF 量子化モデル |
248
-
249
- ---
250
-
251
  ## ライセンス
252
 
253
- MIT License — TeenEmo プロジェクト固有のコードに適用されます。
254
- 各外部ライブラリ・モデルのライセンスは各リポジトリを参照してください。
 
4
  - en
5
  license: mit
6
  tags:
 
 
7
  - llm-training
 
 
8
  - eq-bench
9
  - vllm
10
+ pretty_name: TeenEmo Scripts
 
 
 
 
 
 
 
11
  ---
12
 
13
  # TeenEmo Scripts
14
 
15
+ TeenEmo の学習・評価パイプラインを構成するスクリプト集です。
16
  合成データ生成 → SFT → DPO → EQ-Bench3 日本語評価 という一連のフローをカバーします。
17
 
18
  ---
 
40
  [EQ-Bench3 日本語化]
41
  eqbench-ja/
42
  translate_eqbench.py # Qwen3.5-9B で英語 → 日本語翻訳
43
+ → YUGOROU/teememo-eq-bench-ja
44
 
45
 
46
 
 
88
 
89
  ## モデル・データセット
90
 
91
+ | 種別 | HF リポジトリ |
92
+ |------|--------------|
93
+ | ベースモデル | `LiquidAI/LFM2.5-1.2B-Base` |
94
+ | SFT 済みモデル | `YUGOROU/TeenEmo-LFM2.5-1.2B-SFT` |
95
+ | DPO 済みモデル | `YUGOROU/TeenEmo-LFM2.5-1.2B-DPO` |
96
+ | GGUF | `YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF` |
97
+ | SFT データ | `YUGOROU/teememo-sft-validation` |
98
+ | DPO データ | `YUGOROU/teememo-pref-data` |
99
+ | EQ-Bench 日本語化 | `YUGOROU/teememo-eq-bench-ja` |
100
 
101
  ---
102
 
 
127
  pip install unsloth trl datasets transformers
128
 
129
  export HF_TOKEN="hf_xxxx"
 
130
 
131
  # Step 1: SFT
132
  python train_sft.py
 
139
 
140
  | 設定 | SFT | DPO |
141
  |------|-----|-----|
 
142
  | エポック | 3 | 2 |
143
  | 実効バッチサイズ | 128 (32×4) | 32 (8×4) |
144
  | 学習率 | 2e-4 | 5e-5 |
 
151
  ```bash
152
  export HF_TOKEN="hf_xxxx"
153
 
 
154
  bash eqbench-ja/setup_translate.sh
155
 
156
+ # vLLM (Qwen3.5-9B) を tmux で起動
157
  tmux new-session -d -s eq_tmux
158
  tmux send-keys -t eq_tmux "cd /workspace/eqbench-ja && ./serve_translate.sh" Enter
159
 
160
  # 翻訳実行(チェックポイントで途中再開可能)
 
161
  python translate_eqbench.py
162
 
163
  # 動作確認のみ(最初の2シナリオ)
 
172
 
173
  ### Vast.ai 構成(推奨): `eqbench-run-v2/`
174
 
175
+ 受験者 Vast.ai vLLM で、採点者を HF Inference Providers (novita / `gpt-oss-120b`) で実行します。
 
 
176
  詳細は [`eqbench-run-v2/README.md`](eqbench-run-v2/README.md) を参照してください。
177
 
178
  ```bash
 
184
 
185
  ### A100 80GB 構成: `eqbench-ja-run/`
186
 
187
+ 受験者・採点者ともに同一インスタンス上のローカル vLLM を使用します。
 
 
188
  詳細は [`eqbench-ja-run/README.md`](eqbench-ja-run/README.md) を参照してください。
189
 
190
  ```bash
 
200
 
201
  | カテゴリ | ライブラリ・サービス |
202
  |---------|-------------------|
203
+ | 学習 | [Unsloth](https://github.com/unslothai/unsloth) + [TRL](https://github.com/huggingface/trl) |
204
+ | 推論 | [vLLM](https://github.com/vllm-project/vllm) |
205
+ | 評価 | [EQ-Bench3](https://github.com/EQ-bench/eqbench3) |
 
 
 
206
  | GPU 環境 | [Vast.ai](https://vast.ai/) (L4 / RTX 4090) |
207
 
208
  ---
209
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
210
  ## ライセンス
211
 
212
+ MIT