YUGOROU commited on
Commit
dd00805
·
verified ·
1 Parent(s): 9392061

feat: add SFT/DPO training scripts for TeenEmo

Browse files
training/README.md ADDED
@@ -0,0 +1,91 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # TeenEmo 学習スクリプト
2
+
3
+ LFM2-1.2B を TeenEmo データセットで SFT → DPO の順に学習するスクリプト群。
4
+
5
+ ## ファイル構成
6
+
7
+ | ファイル | 役割 |
8
+ |---------|------|
9
+ | `train_config.py` | 全設定値(環境変数で上書き可能) |
10
+ | `train_utils.py` | 共通ユーティリティ(ログ・データ読み込み) |
11
+ | `train_sft.py` | SFT(教師あり微調整)学習スクリプト |
12
+ | `train_dpo.py` | DPO(直接選好最適化)学習スクリプト |
13
+
14
+ ## セットアップ
15
+
16
+ ```bash
17
+ pip install unsloth trl datasets transformers
18
+ ```
19
+
20
+ ## 実行手順
21
+
22
+ ### 1. 環境変数の設定
23
+
24
+ ```bash
25
+ export HF_TOKEN="hf_xxxx"
26
+ export HF_USERNAME="YUGOROU"
27
+ ```
28
+
29
+ ### 2. SFT 学習
30
+
31
+ ```bash
32
+ python train_sft.py
33
+ ```
34
+
35
+ 完了すると以下が生成されます:
36
+ - `./outputs/sft/lora/` — LoRA アダプタ
37
+ - `./outputs/sft/gguf/` — GGUF ファイル(q4_k_m)
38
+ - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-SFT`
39
+
40
+ ### 3. DPO 学習
41
+
42
+ ```bash
43
+ python train_dpo.py
44
+ ```
45
+
46
+ 完了すると以下が生成されます:
47
+ - `./outputs/dpo/lora/` — LoRA アダプタ
48
+ - `./outputs/dpo/gguf/` — GGUF ファイル(q4_k_m)
49
+ - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-DPO`
50
+ - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-GGUF`
51
+
52
+ ## 設定のカスタマイズ
53
+
54
+ `train_config.py` の値は全て環境変数で上書き可能:
55
+
56
+ ```bash
57
+ # エポック数を変更
58
+ SFT_EPOCHS=2 python train_sft.py
59
+
60
+ # バッチサイズを変更(OOM 対策)
61
+ SFT_BATCH_SIZE=4 SFT_GRAD_ACCUM=8 python train_sft.py
62
+
63
+ # DPO beta を変更
64
+ DPO_BETA=0.05 python train_dpo.py
65
+
66
+ # GGUF 保存をスキップ
67
+ SAVE_GGUF=false python train_dpo.py
68
+ ```
69
+
70
+ ## ログ
71
+
72
+ 学習ログは `./outputs/sft/logs/` および `./outputs/dpo/logs/` に保存されます。
73
+ 詳細なエラートレースも含まれます。
74
+
75
+ ## デフォルト設定値
76
+
77
+ ### SFT
78
+ - ベースモデル: `liquidai/LFM2-1.2B`
79
+ - データセット: `YUGOROU/teememo-sft-validation`
80
+ - エポック: 3
81
+ - バッチサイズ: 8 × 勾配累積 4(実効バッチ 32)
82
+ - 学習率: 2e-4(cosine スケジューラ)
83
+ - LoRA rank: 32, alpha: 64
84
+
85
+ ### DPO
86
+ - ベースモデル: SFT 済みアダプタ
87
+ - データセット: `YUGOROU/teememo-pref-data`
88
+ - エポック: 2
89
+ - バッチサイズ: 4 × 勾配累積 8(実効バッチ 32)
90
+ - 学習率: 5e-5
91
+ - beta: 0.1
training/train_config.py ADDED
@@ -0,0 +1,71 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_config.py — TeenEmo 学習設定
3
+
4
+ 全ての設定値を一箇所で管理する。
5
+ 環境変数で上書き可能。
6
+ """
7
+
8
+ from __future__ import annotations
9
+ import os
10
+
11
+ # ── Hugging Face ──────────────────────────────────────────────
12
+ HF_TOKEN: str = os.environ.get("HF_TOKEN", "")
13
+ HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU")
14
+
15
+ # ── ベースモデル ───────────────────────────────────────────────
16
+ # LFM2-1.2B-Base を使用(Instruct版ではなくBase版)
17
+ BASE_MODEL: str = os.environ.get("BASE_MODEL", "liquidai/LFM2-1.2B")
18
+
19
+ # ── データセット ───────────────────────────────────────────────
20
+ SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation")
21
+ PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")
22
+
23
+ # ── 出力先 ─────────────────────────────────────────────────────
24
+ SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft")
25
+ DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo")
26
+ SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-SFT")
27
+ DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-DPO")
28
+ GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-GGUF")
29
+
30
+ # ── LoRA 設定 ─────────────────────────────────────────────────
31
+ LORA_R: int = int(os.environ.get("LORA_R", "32"))
32
+ LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨
33
+ LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0"))
34
+ LORA_TARGET_MODULES: list = [
35
+ "q_proj", "k_proj", "v_proj", "o_proj",
36
+ "gate_proj", "up_proj", "down_proj",
37
+ ]
38
+
39
+ # ── シーケンス長 ───────────────────────────────────────────────
40
+ MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))
41
+
42
+ # ── SFT 学習設定 ───────────────────────────────────────────────
43
+ SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "8"))
44
+ SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4"))
45
+ SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3"))
46
+ SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4"))
47
+ SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
48
+ SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine")
49
+ SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
50
+ SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
51
+ SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "200"))
52
+ SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true"
53
+
54
+ # ── DPO 学習設定 ───────────────────────────────────────────────
55
+ DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "4"))
56
+ DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "8"))
57
+ DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2"))
58
+ DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5"))
59
+ DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
60
+ DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine")
61
+ DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
62
+ DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5"))
63
+ DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100"))
64
+ DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1"))
65
+ DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))
66
+ DPO_MAX_LENGTH: int = int(os.environ.get("DPO_MAX_LENGTH", "1024"))
67
+
68
+ # ── GGUF 量子化 ────────────────────────────────────────────────
69
+ GGUF_QUANTIZATION: str = os.environ.get("GGUF_QUANTIZATION", "q4_k_m")
70
+ SAVE_GGUF: bool = os.environ.get("SAVE_GGUF", "true").lower() == "true"
71
+ PUSH_TO_HUB: bool = os.environ.get("PUSH_TO_HUB", "true").lower() == "true"
training/train_dpo.py ADDED
@@ -0,0 +1,224 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_dpo.py — TeenEmo DPO(直接選好最適化)
3
+
4
+ フロー:
5
+ 1. SFT 済みの LoRA アダプタ(または HF Hub のモデル)をロード
6
+ 2. 選好データセットを HF Hub から取得
7
+ 3. DPOTrainer で学習
8
+ 4. LoRA アダプタを保存 + HF Hub へ push
9
+ 5. GGUF 形式で保存 + HF Hub へ push
10
+
11
+ 実行例:
12
+ python train_dpo.py
13
+ DPO_EPOCHS=1 python train_dpo.py
14
+ """
15
+
16
+ from __future__ import annotations
17
+
18
+ import os
19
+ import sys
20
+ import traceback
21
+ from datetime import datetime, timezone
22
+ from pathlib import Path
23
+
24
+ # ── 環境変数チェック ──────────────────────────────────────────
25
+ if not os.environ.get("HF_TOKEN"):
26
+ print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
27
+ sys.exit(1)
28
+
29
+ import torch
30
+ from unsloth import FastLanguageModel, PatchDPOTrainer, is_bfloat16_supported
31
+ from trl import DPOTrainer, DPOConfig
32
+
33
+ import train_config as cfg
34
+ from train_utils import (
35
+ setup_logger, log_gpu_info, log_training_config,
36
+ load_pref_dataset,
37
+ )
38
+
39
+
40
+ def main() -> None:
41
+ # DPOTrainer の Unsloth パッチを適用(必ず最初に呼ぶ)
42
+ PatchDPOTrainer()
43
+
44
+ start_time = datetime.now(timezone.utc)
45
+ log_dir = Path(cfg.DPO_OUTPUT_DIR) / "logs"
46
+ log_dir.mkdir(parents=True, exist_ok=True)
47
+ log_file = log_dir / f"dpo_{start_time.strftime('%Y%m%d_%H%M%S')}.log"
48
+
49
+ logger = setup_logger("dpo", str(log_file))
50
+ logger.info(f"=== TeenEmo DPO 開始 [{start_time.isoformat()}] ===")
51
+
52
+ log_gpu_info(logger)
53
+ log_training_config(logger, "DPO")
54
+
55
+ # ── SFT 済みモデルのロード ─────────────────────────────────
56
+ # SFT の LoRA アダプタが存在する場合はそちらを使う
57
+ sft_lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
58
+ if sft_lora_dir.exists():
59
+ model_path = str(sft_lora_dir)
60
+ logger.info(f"SFT LoRA アダプタからロード: {model_path}")
61
+ else:
62
+ # HF Hub の SFT モデルを使う
63
+ model_path = cfg.SFT_HF_REPO
64
+ logger.info(f"HF Hub SFT モデルからロード: {model_path}")
65
+
66
+ try:
67
+ model, tokenizer = FastLanguageModel.from_pretrained(
68
+ model_name=model_path,
69
+ max_seq_length=cfg.MAX_SEQ_LENGTH,
70
+ dtype=None,
71
+ load_in_4bit=False,
72
+ token=cfg.HF_TOKEN or None,
73
+ )
74
+ logger.info("SFT モデルロード完了 ✅")
75
+ except Exception as e:
76
+ logger.error(f"モデルロードエラー: {e}")
77
+ logger.debug(traceback.format_exc())
78
+ logger.info("SFT モデルが見つかりません。先に train_sft.py を実行してください。")
79
+ raise
80
+
81
+ # ── LoRA 設定(DPO 用) ───────────────────────────────────
82
+ logger.info("DPO 用 LoRA アダプタ設定中...")
83
+ try:
84
+ model = FastLanguageModel.get_peft_model(
85
+ model,
86
+ r=cfg.LORA_R,
87
+ target_modules=cfg.LORA_TARGET_MODULES,
88
+ lora_alpha=cfg.LORA_ALPHA,
89
+ lora_dropout=cfg.LORA_DROPOUT,
90
+ bias="none",
91
+ use_gradient_checkpointing="unsloth",
92
+ random_state=3407,
93
+ )
94
+ logger.info("LoRA アダプタ設定完了 ✅")
95
+ except Exception as e:
96
+ logger.error(f"LoRA 設定エラー: {e}")
97
+ logger.debug(traceback.format_exc())
98
+ raise
99
+
100
+ # ── データセット準備 ──────────────────────────────────────
101
+ logger.info("選好データセット準備中...")
102
+ try:
103
+ ds = load_pref_dataset(logger)
104
+
105
+ # DPOTrainer は prompt/chosen/rejected を文字列として受け取る
106
+ # チャットテンプレートの適用は DPOTrainer 内部で行われるため不要
107
+ # ただし tokenizer に chat_template が設定されていることを確認する
108
+ if tokenizer.chat_template is None:
109
+ logger.warning("chat_template が未設定です。デフォルトを使用します。")
110
+ else:
111
+ logger.info(f"chat_template: 設定済み ✅")
112
+
113
+ logger.info(f"選好データ準備完了: {len(ds)} 件")
114
+ except Exception as e:
115
+ logger.error(f"データセット準備エラー: {e}")
116
+ logger.debug(traceback.format_exc())
117
+ raise
118
+
119
+ # ── DPOTrainer 初期化 ─────────────────────────────────────
120
+ logger.info("DPOTrainer 初期化中...")
121
+ try:
122
+ dpo_trainer = DPOTrainer(
123
+ model=model,
124
+ ref_model=None, # ref_model=None で implicit reference(メモリ節約)
125
+ args=DPOConfig(
126
+ output_dir=cfg.DPO_OUTPUT_DIR,
127
+ per_device_train_batch_size=cfg.DPO_BATCH_SIZE,
128
+ gradient_accumulation_steps=cfg.DPO_GRAD_ACCUM,
129
+ num_train_epochs=cfg.DPO_EPOCHS,
130
+ learning_rate=cfg.DPO_LR,
131
+ warmup_ratio=cfg.DPO_WARMUP_RATIO,
132
+ lr_scheduler_type=cfg.DPO_LR_SCHEDULER,
133
+ weight_decay=cfg.DPO_WEIGHT_DECAY,
134
+ fp16=not is_bfloat16_supported(),
135
+ bf16=is_bfloat16_supported(),
136
+ logging_steps=cfg.DPO_LOGGING_STEPS,
137
+ save_steps=cfg.DPO_SAVE_STEPS,
138
+ save_total_limit=2,
139
+ optim="adamw_8bit",
140
+ seed=42,
141
+ report_to="none",
142
+ ),
143
+ beta=cfg.DPO_BETA,
144
+ train_dataset=ds,
145
+ tokenizer=tokenizer,
146
+ max_length=cfg.DPO_MAX_LENGTH,
147
+ max_prompt_length=cfg.DPO_MAX_PROMPT_LENGTH,
148
+ )
149
+ logger.info("DPOTrainer 初期化完了 ✅")
150
+ except Exception as e:
151
+ logger.error(f"DPOTrainer 初期化エラー: {e}")
152
+ logger.debug(traceback.format_exc())
153
+ raise
154
+
155
+ # ── 学習実行 ──────────────────────────────────────────────
156
+ logger.info("DPO 学習開始...")
157
+ try:
158
+ train_result = dpo_trainer.train()
159
+ logger.info(f"DPO 学習完了 ✅")
160
+ logger.info(f" train_loss: {train_result.training_loss:.4f}")
161
+ logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
162
+ logger.info(f" train_samples/s: {train_result.metrics.get('train_samples_per_second', 0):.2f}")
163
+ logger.info(f" rewards/chosen: {train_result.metrics.get('rewards/chosen', 'N/A')}")
164
+ logger.info(f" rewards/rejected: {train_result.metrics.get('rewards/rejected', 'N/A')}")
165
+ except Exception as e:
166
+ logger.error(f"DPO 学習エラー: {e}")
167
+ logger.debug(traceback.format_exc())
168
+ raise
169
+
170
+ # ── LoRA アダプタ保存 ──────────────────────────────────────
171
+ lora_dir = Path(cfg.DPO_OUTPUT_DIR) / "lora"
172
+ logger.info(f"LoRA アダプタ保存中: {lora_dir}")
173
+ try:
174
+ model.save_pretrained(str(lora_dir))
175
+ tokenizer.save_pretrained(str(lora_dir))
176
+ logger.info("LoRA アダプタ保存完了 ✅")
177
+ except Exception as e:
178
+ logger.error(f"LoRA 保存エラー: {e}")
179
+ logger.debug(traceback.format_exc())
180
+ raise
181
+
182
+ # ── HF Hub への push ──────────────────────────────────────
183
+ if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
184
+ logger.info(f"HF Hub へ push 中: {cfg.DPO_HF_REPO}")
185
+ try:
186
+ model.push_to_hub(cfg.DPO_HF_REPO, token=cfg.HF_TOKEN)
187
+ tokenizer.push_to_hub(cfg.DPO_HF_REPO, token=cfg.HF_TOKEN)
188
+ logger.info(f"HF Hub push 完了 ✅: https://huggingface.co/{cfg.DPO_HF_REPO}")
189
+ except Exception as e:
190
+ logger.error(f"HF Hub push エラー: {e}")
191
+ logger.debug(traceback.format_exc())
192
+
193
+ # ── GGUF 保存 ──────────────────────────────────────────────
194
+ if cfg.SAVE_GGUF:
195
+ logger.info(f"GGUF 保存中 ({cfg.GGUF_QUANTIZATION})...")
196
+ try:
197
+ gguf_dir = Path(cfg.DPO_OUTPUT_DIR) / "gguf"
198
+ gguf_dir.mkdir(parents=True, exist_ok=True)
199
+ if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
200
+ model.push_to_hub_gguf(
201
+ cfg.GGUF_HF_REPO,
202
+ tokenizer,
203
+ quantization_method=cfg.GGUF_QUANTIZATION,
204
+ token=cfg.HF_TOKEN,
205
+ )
206
+ logger.info(f"GGUF HF push 完了 ✅: https://huggingface.co/{cfg.GGUF_HF_REPO}")
207
+ else:
208
+ model.save_pretrained_gguf(
209
+ str(gguf_dir),
210
+ tokenizer,
211
+ quantization_method=cfg.GGUF_QUANTIZATION,
212
+ )
213
+ logger.info(f"GGUF ローカル保存完了 ✅: {gguf_dir}")
214
+ except Exception as e:
215
+ logger.error(f"GGUF 保存エラー: {e}")
216
+ logger.debug(traceback.format_exc())
217
+
218
+ elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
219
+ logger.info(f"=== DPO 完了 (所要時間: {elapsed/60:.1f}分) ===")
220
+ logger.info(f"ログファイル: {log_file}")
221
+
222
+
223
+ if __name__ == "__main__":
224
+ main()
training/train_sft.py ADDED
@@ -0,0 +1,223 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_sft.py — TeenEmo SFT(教師あり微調整)
3
+
4
+ フロー:
5
+ 1. LFM2-1.2B-Base を HF Hub からロード
6
+ 2. LoRA アダプタを設定
7
+ 3. SFT データセットを HF Hub から取得・変換
8
+ 4. SFTTrainer で学習
9
+ 5. LoRA アダプタを保存 + HF Hub へ push
10
+ 6. GGUF 形式で保存 + HF Hub へ push
11
+
12
+ 実行例:
13
+ python train_sft.py
14
+ BASE_MODEL=liquidai/LFM2-1.2B SFT_EPOCHS=2 python train_sft.py
15
+ """
16
+
17
+ from __future__ import annotations
18
+
19
+ import os
20
+ import sys
21
+ import traceback
22
+ from datetime import datetime, timezone
23
+ from pathlib import Path
24
+
25
+ # ── 環境変数チェック ──────────────────────────────────────────
26
+ if not os.environ.get("HF_TOKEN"):
27
+ print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
28
+ sys.exit(1)
29
+
30
+ import torch
31
+ from unsloth import FastLanguageModel, is_bfloat16_supported
32
+ from trl import SFTTrainer, SFTConfig
33
+ from datasets import Dataset
34
+
35
+ import train_config as cfg
36
+ from train_utils import (
37
+ setup_logger, log_gpu_info, log_training_config,
38
+ load_sft_dataset, apply_chat_template_sft,
39
+ )
40
+
41
+
42
+ def main() -> None:
43
+ start_time = datetime.now(timezone.utc)
44
+ log_dir = Path(cfg.SFT_OUTPUT_DIR) / "logs"
45
+ log_dir.mkdir(parents=True, exist_ok=True)
46
+ log_file = log_dir / f"sft_{start_time.strftime('%Y%m%d_%H%M%S')}.log"
47
+
48
+ logger = setup_logger("sft", str(log_file))
49
+ logger.info(f"=== TeenEmo SFT 開始 [{start_time.isoformat()}] ===")
50
+
51
+ # ── GPU 情報 ──────────────────────────────────────────────
52
+ log_gpu_info(logger)
53
+ log_training_config(logger, "SFT")
54
+
55
+ # ── モデルロード ──────────────────────────────────────────
56
+ logger.info(f"モデルロード中: {cfg.BASE_MODEL}")
57
+ try:
58
+ model, tokenizer = FastLanguageModel.from_pretrained(
59
+ model_name=cfg.BASE_MODEL,
60
+ max_seq_length=cfg.MAX_SEQ_LENGTH,
61
+ dtype=None, # auto: A100 は bfloat16
62
+ load_in_4bit=False, # LFM2 は bf16 LoRA 推奨
63
+ token=cfg.HF_TOKEN or None,
64
+ )
65
+ logger.info("モデルロード完了 ✅")
66
+ except Exception as e:
67
+ logger.error(f"モデルロードエラー: {e}")
68
+ logger.debug(traceback.format_exc())
69
+ raise
70
+
71
+ # ── LoRA 設定 ──────────────────────────────────────────────
72
+ logger.info("LoRA アダプタ設定中...")
73
+ try:
74
+ model = FastLanguageModel.get_peft_model(
75
+ model,
76
+ r=cfg.LORA_R,
77
+ target_modules=cfg.LORA_TARGET_MODULES,
78
+ lora_alpha=cfg.LORA_ALPHA,
79
+ lora_dropout=cfg.LORA_DROPOUT,
80
+ bias="none",
81
+ use_gradient_checkpointing="unsloth",
82
+ random_state=3407,
83
+ use_rslora=False,
84
+ loftq_config=None,
85
+ )
86
+ total_params = sum(p.numel() for p in model.parameters())
87
+ trainable_params = sum(p.numel() for p in model.parameters() if p.requires_grad)
88
+ logger.info(f" 全パラメータ数: {total_params:,}")
89
+ logger.info(f" 学習可能パラメータ数: {trainable_params:,} ({trainable_params/total_params*100:.2f}%)")
90
+ except Exception as e:
91
+ logger.error(f"LoRA 設定エラー: {e}")
92
+ logger.debug(traceback.format_exc())
93
+ raise
94
+
95
+ # ── データセット準備 ──────────────────────────────────────
96
+ logger.info("データセット準備中...")
97
+ try:
98
+ raw_ds = load_sft_dataset(logger)
99
+
100
+ # チャットテンプレート適用
101
+ logger.info("チャットテンプレート適用中...")
102
+ ds = raw_ds.map(
103
+ lambda x: apply_chat_template_sft(x, tokenizer, logger),
104
+ batched=True,
105
+ remove_columns=raw_ds.column_names,
106
+ desc="チャットテンプレート適用",
107
+ )
108
+ # 空テキスト除去
109
+ before = len(ds)
110
+ ds = ds.filter(lambda x: len(x["text"]) > 0)
111
+ logger.info(f" テキスト変換後: {before} → {len(ds)} 件")
112
+
113
+ # サンプル確認
114
+ logger.debug(f" 変換後サンプル[0]:\n{ds[0]['text'][:300]}")
115
+ except Exception as e:
116
+ logger.error(f"データセット準備エラー: {e}")
117
+ logger.debug(traceback.format_exc())
118
+ raise
119
+
120
+ # ── SFT 学習 ──────────────────────────────────────────────
121
+ logger.info("SFTTrainer 初期化中...")
122
+ try:
123
+ trainer = SFTTrainer(
124
+ model=model,
125
+ tokenizer=tokenizer,
126
+ train_dataset=ds,
127
+ dataset_text_field="text",
128
+ max_seq_length=cfg.MAX_SEQ_LENGTH,
129
+ packing=cfg.SFT_PACKING,
130
+ args=SFTConfig(
131
+ output_dir=cfg.SFT_OUTPUT_DIR,
132
+ per_device_train_batch_size=cfg.SFT_BATCH_SIZE,
133
+ gradient_accumulation_steps=cfg.SFT_GRAD_ACCUM,
134
+ num_train_epochs=cfg.SFT_EPOCHS,
135
+ learning_rate=cfg.SFT_LR,
136
+ warmup_ratio=cfg.SFT_WARMUP_RATIO,
137
+ lr_scheduler_type=cfg.SFT_LR_SCHEDULER,
138
+ weight_decay=cfg.SFT_WEIGHT_DECAY,
139
+ fp16=not is_bfloat16_supported(),
140
+ bf16=is_bfloat16_supported(),
141
+ logging_steps=cfg.SFT_LOGGING_STEPS,
142
+ save_steps=cfg.SFT_SAVE_STEPS,
143
+ save_total_limit=2,
144
+ optim="adamw_8bit",
145
+ seed=3407,
146
+ report_to="none",
147
+ dataset_num_proc=2,
148
+ ),
149
+ )
150
+ logger.info("SFTTrainer 初期化完了 ✅")
151
+ except Exception as e:
152
+ logger.error(f"SFTTrainer 初期化エラー: {e}")
153
+ logger.debug(traceback.format_exc())
154
+ raise
155
+
156
+ # ── 学習実行 ──────────────────────────────────────────────
157
+ logger.info("学習開始...")
158
+ try:
159
+ train_result = trainer.train()
160
+ logger.info(f"学習完了 ✅")
161
+ logger.info(f" train_loss: {train_result.training_loss:.4f}")
162
+ logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
163
+ logger.info(f" train_samples/s:{train_result.metrics.get('train_samples_per_second', 0):.2f}")
164
+ except Exception as e:
165
+ logger.error(f"学習エラー: {e}")
166
+ logger.debug(traceback.format_exc())
167
+ raise
168
+
169
+ # ── LoRA アダプタ保存 ──────────────────────────────────────
170
+ lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
171
+ logger.info(f"LoRA アダプタ保存中: {lora_dir}")
172
+ try:
173
+ model.save_pretrained(str(lora_dir))
174
+ tokenizer.save_pretrained(str(lora_dir))
175
+ logger.info("LoRA アダプタ保存完了 ✅")
176
+ except Exception as e:
177
+ logger.error(f"LoRA 保存エラー: {e}")
178
+ logger.debug(traceback.format_exc())
179
+ raise
180
+
181
+ # ── HF Hub への push ──────────────────────────────────────
182
+ if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
183
+ logger.info(f"HF Hub へ push 中: {cfg.SFT_HF_REPO}")
184
+ try:
185
+ model.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
186
+ tokenizer.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
187
+ logger.info(f"HF Hub push 完了 ✅: https://huggingface.co/{cfg.SFT_HF_REPO}")
188
+ except Exception as e:
189
+ logger.error(f"HF Hub push エラー: {e}")
190
+ logger.debug(traceback.format_exc())
191
+
192
+ # ── GGUF 保存 ──────────────────────────────────────────────
193
+ if cfg.SAVE_GGUF:
194
+ logger.info(f"GGUF 保存中 ({cfg.GGUF_QUANTIZATION})...")
195
+ try:
196
+ gguf_dir = Path(cfg.SFT_OUTPUT_DIR) / "gguf"
197
+ gguf_dir.mkdir(parents=True, exist_ok=True)
198
+ if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
199
+ model.push_to_hub_gguf(
200
+ str(gguf_dir),
201
+ tokenizer,
202
+ quantization_method=cfg.GGUF_QUANTIZATION,
203
+ token=cfg.HF_TOKEN,
204
+ )
205
+ logger.info(f"GGUF HF push 完了 ✅")
206
+ else:
207
+ model.save_pretrained_gguf(
208
+ str(gguf_dir),
209
+ tokenizer,
210
+ quantization_method=cfg.GGUF_QUANTIZATION,
211
+ )
212
+ logger.info(f"GGUF ローカル保存完了 ✅: {gguf_dir}")
213
+ except Exception as e:
214
+ logger.error(f"GGUF 保存エラー: {e}")
215
+ logger.debug(traceback.format_exc())
216
+
217
+ elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
218
+ logger.info(f"=== SFT 完了 (所要時間: {elapsed/60:.1f}分) ===")
219
+ logger.info(f"ログファイル: {log_file}")
220
+
221
+
222
+ if __name__ == "__main__":
223
+ main()
training/train_utils.py ADDED
@@ -0,0 +1,253 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_utils.py — 共通ユーティリティ
3
+
4
+ ログ出力・データセット読み込み・チャットテンプレート適用など
5
+ SFT/DPO 両スクリプトで共有する処理をまとめる。
6
+ """
7
+
8
+ from __future__ import annotations
9
+
10
+ import json
11
+ import logging
12
+ import os
13
+ import sys
14
+ import traceback
15
+ from datetime import datetime, timezone
16
+ from pathlib import Path
17
+ from typing import Any
18
+
19
+ import torch
20
+ from datasets import Dataset, load_dataset
21
+ from transformers import PreTrainedTokenizer
22
+
23
+ import train_config as cfg
24
+
25
+
26
+ # ── ロガー設定 ────────────────────────────────────────────────
27
+
28
+ def setup_logger(name: str, log_file: str | None = None) -> logging.Logger:
29
+ """
30
+ 詳細なログを出力するロガーを設定する。
31
+ ファイルとstdoutの両方に出力する。
32
+ """
33
+ logger = logging.getLogger(name)
34
+ logger.setLevel(logging.DEBUG)
35
+ fmt = logging.Formatter(
36
+ "[%(asctime)s] [%(levelname)s] [%(name)s] %(message)s",
37
+ datefmt="%Y-%m-%d %H:%M:%S",
38
+ )
39
+
40
+ # stdout ハンドラ
41
+ sh = logging.StreamHandler(sys.stdout)
42
+ sh.setLevel(logging.DEBUG)
43
+ sh.setFormatter(fmt)
44
+ logger.addHandler(sh)
45
+
46
+ # ファイルハンドラ(オプション)
47
+ if log_file:
48
+ Path(log_file).parent.mkdir(parents=True, exist_ok=True)
49
+ fh = logging.FileHandler(log_file, encoding="utf-8")
50
+ fh.setLevel(logging.DEBUG)
51
+ fh.setFormatter(fmt)
52
+ logger.addHandler(fh)
53
+
54
+ return logger
55
+
56
+
57
+ # ── GPU 情報 ──────────────────────────────────────────────────
58
+
59
+ def log_gpu_info(logger: logging.Logger) -> None:
60
+ if not torch.cuda.is_available():
61
+ logger.warning("CUDA が利用できません。CPU で実行します。")
62
+ return
63
+ for i in range(torch.cuda.device_count()):
64
+ props = torch.cuda.get_device_properties(i)
65
+ total_gb = props.total_memory / 1e9
66
+ logger.info(f"GPU {i}: {props.name} VRAM: {total_gb:.1f}GB")
67
+ logger.info(f"bfloat16 サポート: {torch.cuda.is_bf16_supported()}")
68
+
69
+
70
+ # ── SFT データセット読み込み ──────────────────────────────────
71
+
72
+ def load_sft_dataset(logger: logging.Logger) -> Dataset:
73
+ """
74
+ HF Hub から SFT データセットを読み込み、チャット形式に変換する。
75
+ フォーマット: messages フィールド(OpenAI 形式)
76
+ """
77
+ logger.info(f"SFT データセット読み込み: {cfg.SFT_DATASET}")
78
+ try:
79
+ ds = load_dataset(
80
+ cfg.SFT_DATASET,
81
+ split="train",
82
+ token=cfg.HF_TOKEN or None,
83
+ )
84
+ except Exception as e:
85
+ logger.error(f"データセット読み込みエラー: {e}")
86
+ logger.debug(traceback.format_exc())
87
+ raise
88
+
89
+ logger.info(f" 件数: {len(ds)}")
90
+ logger.info(f" カラム: {ds.column_names}")
91
+
92
+ # サンプル確認
93
+ sample = ds[0]
94
+ logger.debug(f" サンプル[0] キー: {list(sample.keys())}")
95
+ if "messages" in sample:
96
+ for m in sample["messages"][:2]:
97
+ logger.debug(f" role={m['role']} content={m['content'][:80]}...")
98
+
99
+ return ds
100
+
101
+
102
+ # ── DPO データセット読み込み ──────────────────────────────────
103
+
104
+ def load_pref_dataset(logger: logging.Logger) -> Dataset:
105
+ """
106
+ HF Hub から選好データセットを読み込む。
107
+ フォーマット: prompt / chosen / rejected フィールド
108
+ """
109
+ logger.info(f"選好データセット読み込み: {cfg.PREF_DATASET}")
110
+ try:
111
+ ds = load_dataset(
112
+ cfg.PREF_DATASET,
113
+ split="train",
114
+ token=cfg.HF_TOKEN or None,
115
+ )
116
+ except Exception as e:
117
+ logger.error(f"データセット読み込みエラー: {e}")
118
+ logger.debug(traceback.format_exc())
119
+ raise
120
+
121
+ logger.info(f" 件数: {len(ds)}")
122
+ logger.info(f" カラム: {ds.column_names}")
123
+
124
+ # バリデーション
125
+ required = {"prompt", "chosen", "rejected"}
126
+ missing = required - set(ds.column_names)
127
+ if missing:
128
+ raise ValueError(f"DPO データセットに必須カラムが不足: {missing}")
129
+
130
+ # サンプル確認
131
+ sample = ds[0]
132
+ logger.debug(f" prompt[0]: {sample['prompt'][:80]}")
133
+ logger.debug(f" chosen[0]: {sample['chosen'][:80]}")
134
+ logger.debug(f" rejected[0]: {sample['rejected'][:80]}")
135
+
136
+ # chosen/rejected に <synth> タグが残っていないか確認
137
+ synth_count = sum(1 for x in ds["chosen"] if "<synth>" in x)
138
+ if synth_count > 0:
139
+ logger.warning(f" chosen に <synth> タグが {synth_count} 件残存しています!")
140
+ else:
141
+ logger.info(" chosen <synth> タグなし ✅")
142
+
143
+ return ds
144
+
145
+
146
+ # ── チャットテンプレート適用(SFT用) ─────────────────────────
147
+
148
+ def apply_chat_template_sft(
149
+ examples: dict,
150
+ tokenizer: PreTrainedTokenizer,
151
+ logger: logging.Logger,
152
+ ) -> dict:
153
+ """
154
+ messages フィールドをチャットテンプレートで text に変換する。
155
+ LFM2 のチャットテンプレートに対応。
156
+ """
157
+ texts = []
158
+ errors = 0
159
+ for messages in examples["messages"]:
160
+ try:
161
+ text = tokenizer.apply_chat_template(
162
+ messages,
163
+ tokenize=False,
164
+ add_generation_prompt=False,
165
+ )
166
+ texts.append(text)
167
+ except Exception as e:
168
+ logger.warning(f"チャットテンプレート適用エラー: {e}")
169
+ logger.debug(traceback.format_exc())
170
+ texts.append("")
171
+ errors += 1
172
+ if errors > 0:
173
+ logger.warning(f"チャットテンプレート適用エラー: {errors} 件")
174
+ return {"text": texts}
175
+
176
+
177
+ # ── DPO データ変換(チャットテンプレート適用) ────────────────
178
+
179
+ def apply_chat_template_dpo(
180
+ examples: dict,
181
+ tokenizer: PreTrainedTokenizer,
182
+ logger: logging.Logger,
183
+ ) -> dict:
184
+ """
185
+ DPO データの prompt/chosen/rejected にチャットテンプレートを適用する。
186
+ prompt は user ターンのみ、chosen/rejected は assistant ターンとして整形する。
187
+ """
188
+ prompts, chosens, rejecteds = [], [], []
189
+
190
+ for prompt, chosen, rejected in zip(
191
+ examples["prompt"], examples["chosen"], examples["rejected"]
192
+ ):
193
+ try:
194
+ # prompt: user メッセージ
195
+ prompt_text = tokenizer.apply_chat_template(
196
+ [{"role": "user", "content": prompt}],
197
+ tokenize=False,
198
+ add_generation_prompt=True,
199
+ )
200
+ # chosen: assistant メッセージ
201
+ chosen_text = tokenizer.apply_chat_template(
202
+ [
203
+ {"role": "user", "content": prompt},
204
+ {"role": "assistant", "content": chosen},
205
+ ],
206
+ tokenize=False,
207
+ add_generation_prompt=False,
208
+ )
209
+ # rejected: assistant メッセージ
210
+ rejected_text = tokenizer.apply_chat_template(
211
+ [
212
+ {"role": "user", "content": prompt},
213
+ {"role": "assistant", "content": rejected},
214
+ ],
215
+ tokenize=False,
216
+ add_generation_prompt=False,
217
+ )
218
+ prompts.append(prompt_text)
219
+ chosens.append(chosen_text)
220
+ rejecteds.append(rejected_text)
221
+ except Exception as e:
222
+ logger.warning(f"DPO チャットテンプレート適用エラー: {e}")
223
+ prompts.append(prompt)
224
+ chosens.append(chosen)
225
+ rejecteds.append(rejected)
226
+
227
+ return {"prompt": prompts, "chosen": chosens, "rejected": rejecteds}
228
+
229
+
230
+ # ── 学習設定のサマリー出力 ─────────────────────────────────────
231
+
232
+ def log_training_config(logger: logging.Logger, mode: str) -> None:
233
+ logger.info(f"=== {mode} 学習設定 ===")
234
+ logger.info(f" ベースモデル : {cfg.BASE_MODEL}")
235
+ if mode == "SFT":
236
+ logger.info(f" データセット : {cfg.SFT_DATASET}")
237
+ logger.info(f" エポック数 : {cfg.SFT_EPOCHS}")
238
+ logger.info(f" バッチサイズ : {cfg.SFT_BATCH_SIZE} × 勾配累積 {cfg.SFT_GRAD_ACCUM}")
239
+ logger.info(f" 学習率 : {cfg.SFT_LR}")
240
+ logger.info(f" 出力先 : {cfg.SFT_OUTPUT_DIR}")
241
+ logger.info(f" HF リポジトリ: {cfg.SFT_HF_REPO}")
242
+ else:
243
+ logger.info(f" データセット : {cfg.PREF_DATASET}")
244
+ logger.info(f" エポック数 : {cfg.DPO_EPOCHS}")
245
+ logger.info(f" バッチサイズ : {cfg.DPO_BATCH_SIZE} × 勾配累積 {cfg.DPO_GRAD_ACCUM}")
246
+ logger.info(f" 学習率 : {cfg.DPO_LR}")
247
+ logger.info(f" DPO beta : {cfg.DPO_BETA}")
248
+ logger.info(f" 出力先 : {cfg.DPO_OUTPUT_DIR}")
249
+ logger.info(f" HF リポジトリ: {cfg.DPO_HF_REPO}")
250
+ logger.info(f" LoRA rank : {cfg.LORA_R} alpha: {cfg.LORA_ALPHA}")
251
+ logger.info(f" 最大長 : {cfg.MAX_SEQ_LENGTH}")
252
+ logger.info(f" GGUF 保存 : {cfg.SAVE_GGUF} ({cfg.GGUF_QUANTIZATION})")
253
+ logger.info(f" HF Push : {cfg.PUSH_TO_HUB}")