YUGOROU commited on
Commit
b9f5d32
·
verified ·
1 Parent(s): ecfcd71

fix: sync training/train_dpo.py

Browse files
Files changed (1) hide show
  1. training/train_dpo.py +47 -48
training/train_dpo.py CHANGED
@@ -1,16 +1,17 @@
1
  """
2
- train_dpo.py — TeenEmo DPO(直接選好最適化
3
 
4
  フロー:
5
- 1. SFT 済み LoRA アダプタ(または HF Hub のモデ)をロード
6
- 2. 選好データセットを HF Hub から取得
7
- 3. DPOTrainer で学習
8
- 4. LoRA アダプタを保存 + HF Hub へ push
9
- 5. GGUF 形式で保存 + HF Hub push
 
10
 
11
  実行例:
12
  python train_dpo.py
13
- DPO_EPOCHS=1 python train_dpo.py
14
  """
15
 
16
  from __future__ import annotations
@@ -21,7 +22,6 @@ import traceback
21
  from datetime import datetime, timezone
22
  from pathlib import Path
23
 
24
- # ── 環境変数チェック ──────────────────────────────────────────
25
  if not os.environ.get("HF_TOKEN"):
26
  print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
27
  sys.exit(1)
@@ -33,12 +33,12 @@ from trl import DPOTrainer, DPOConfig
33
  import train_config as cfg
34
  from train_utils import (
35
  setup_logger, log_gpu_info, log_training_config,
36
- load_pref_dataset,
37
  )
38
 
39
 
40
  def main() -> None:
41
- # DPOTrainer の Unsloth パッチを適用(必ず最初に呼ぶ)
42
  PatchDPOTrainer()
43
 
44
  start_time = datetime.now(timezone.utc)
@@ -52,16 +52,15 @@ def main() -> None:
52
  log_gpu_info(logger)
53
  log_training_config(logger, "DPO")
54
 
55
- # ── SFT 済みモデルのロード ─────────────────────────────────
56
- # SFT の LoRA アダプタが存在する場合はそちらを使う
57
  sft_lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
58
  if sft_lora_dir.exists():
59
  model_path = str(sft_lora_dir)
60
- logger.info(f"SFT LoRA アダプタからロード: {model_path}")
61
  else:
62
- # HF Hub の SFT モデルを使う
63
  model_path = cfg.SFT_HF_REPO
64
- logger.info(f"HF Hub SFT モデルからロード: {model_path}")
65
 
66
  try:
67
  model, tokenizer = FastLanguageModel.from_pretrained(
@@ -75,11 +74,11 @@ def main() -> None:
75
  except Exception as e:
76
  logger.error(f"モデルロードエラー: {e}")
77
  logger.debug(traceback.format_exc())
78
- logger.info("SFT モデルが見つかりません。先に train_sft.py を実行してください。")
79
  raise
80
 
81
- # ── LoRA 設定(DPO 用 ───────────────────────────────────
82
- logger.info("DPO 用 LoRA アダプタ設定中...")
83
  try:
84
  model = FastLanguageModel.get_peft_model(
85
  model,
@@ -91,7 +90,8 @@ def main() -> None:
91
  use_gradient_checkpointing="unsloth",
92
  random_state=3407,
93
  )
94
- logger.info("LoRA アダプタ設定完了 ✅")
 
95
  except Exception as e:
96
  logger.error(f"LoRA 設定エラー: {e}")
97
  logger.debug(traceback.format_exc())
@@ -102,21 +102,18 @@ def main() -> None:
102
  try:
103
  raw_ds = load_pref_dataset(logger)
104
 
105
- # チャットテンプレート適用(SFTとフォーマット統一する
106
- from train_utils import apply_chat_template_dpo
107
  logger.info("チャットテンプレート適用中...")
108
  ds = raw_ds.map(
109
  lambda x: apply_chat_template_dpo(x, tokenizer, logger),
110
  batched=True,
111
  desc="DPO チャットテンプレート適用",
112
  )
113
-
114
- if tokenizer.chat_template is None:
115
- logger.warning("chat_template が未設定です。デフォルトを��用します。")
116
- else:
117
- logger.info(f"chat_template: 設定済み ✅")
118
-
119
  logger.info(f"選好データ準備完了: {len(ds)} 件")
 
 
 
 
120
  except Exception as e:
121
  logger.error(f"データセット準備エラー: {e}")
122
  logger.debug(traceback.format_exc())
@@ -127,7 +124,7 @@ def main() -> None:
127
  try:
128
  dpo_trainer = DPOTrainer(
129
  model=model,
130
- ref_model=None, # ref_model=None で implicit reference(メモリ節約)
131
  args=DPOConfig(
132
  output_dir=cfg.DPO_OUTPUT_DIR,
133
  per_device_train_batch_size=cfg.DPO_BATCH_SIZE,
@@ -158,24 +155,25 @@ def main() -> None:
158
  logger.debug(traceback.format_exc())
159
  raise
160
 
161
- # ── 学習実行 ──────────────────────────────────────────────
162
  logger.info("DPO 学習開始...")
163
  try:
164
  train_result = dpo_trainer.train()
165
- logger.info(f"DPO 学習完了 ✅")
166
- logger.info(f" train_loss: {train_result.training_loss:.4f}")
167
- logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
168
- logger.info(f" train_samples/s: {train_result.metrics.get('train_samples_per_second', 0):.2f}")
169
- logger.info(f" rewards/chosen: {train_result.metrics.get('rewards/chosen', 'N/A')}")
170
- logger.info(f" rewards/rejected: {train_result.metrics.get('rewards/rejected', 'N/A')}")
 
171
  except Exception as e:
172
  logger.error(f"DPO 学習エラー: {e}")
173
  logger.debug(traceback.format_exc())
174
  raise
175
 
176
- # ── LoRA アダプタ保存 ─────────────────────────────────────
177
  lora_dir = Path(cfg.DPO_OUTPUT_DIR) / "lora"
178
- logger.info(f"LoRA アダプタ保存: {lora_dir}")
179
  try:
180
  model.save_pretrained(str(lora_dir))
181
  tokenizer.save_pretrained(str(lora_dir))
@@ -185,23 +183,24 @@ def main() -> None:
185
  logger.debug(traceback.format_exc())
186
  raise
187
 
188
- # ── HF Hub への push ──────────────────────────────────────
189
  if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
190
- logger.info(f"HF Hub push : {cfg.DPO_HF_REPO}")
191
  try:
192
  model.push_to_hub(cfg.DPO_HF_REPO, token=cfg.HF_TOKEN)
193
  tokenizer.push_to_hub(cfg.DPO_HF_REPO, token=cfg.HF_TOKEN)
194
- logger.info(f"HF Hub push 完了 : https://huggingface.co/{cfg.DPO_HF_REPO}")
195
  except Exception as e:
196
- logger.error(f"HF Hub push エラー: {e}")
197
  logger.debug(traceback.format_exc())
198
 
199
- # ── GGUF 保存 ──────────────────────────────────────────────
200
  if cfg.SAVE_GGUF:
201
- logger.info(f"GGUF 保存中 ({cfg.GGUF_QUANTIZATION})...")
202
  try:
203
  gguf_dir = Path(cfg.DPO_OUTPUT_DIR) / "gguf"
204
  gguf_dir.mkdir(parents=True, exist_ok=True)
 
205
  if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
206
  model.push_to_hub_gguf(
207
  cfg.GGUF_HF_REPO,
@@ -209,21 +208,21 @@ def main() -> None:
209
  quantization_method=cfg.GGUF_QUANTIZATION,
210
  token=cfg.HF_TOKEN,
211
  )
212
- logger.info(f"GGUF HF push 完了 : https://huggingface.co/{cfg.GGUF_HF_REPO}")
213
  else:
214
  model.save_pretrained_gguf(
215
  str(gguf_dir),
216
  tokenizer,
217
  quantization_method=cfg.GGUF_QUANTIZATION,
218
  )
219
- logger.info(f"GGUF ローカル保存完了 ✅: {gguf_dir}")
220
  except Exception as e:
221
- logger.error(f"GGUF 保存エラー: {e}")
222
  logger.debug(traceback.format_exc())
223
 
224
  elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
225
- logger.info(f"=== DPO 完了 (所要時間: {elapsed/60:.1f}分) ===")
226
- logger.info(f"ログファイル: {log_file}")
227
 
228
 
229
  if __name__ == "__main__":
 
1
  """
2
+ train_dpo.py — TeenEmo DPO(SFT済みLoRAへの継続学習
3
 
4
  フロー:
5
+ 1. SFT 済み LoRA アダプタ HF Hub またはローカからロード
6
+ 2. DPO LoRA アダプタを追加設定
7
+ 3. 選好データセットを HF Hub から取得・チャットテンプレート適用
8
+ 4. DPOTrainer で学習(SFT アダプタに継続学習)
9
+ 5. [STEP 2/3] DPO 完了 → HF Hub push
10
+ 6. [STEP 3/3] GGUF 変換 → HF Hub に push
11
 
12
  実行例:
13
  python train_dpo.py
14
+ DPO_EPOCHS=1 DPO_BETA=0.05 python train_dpo.py
15
  """
16
 
17
  from __future__ import annotations
 
22
  from datetime import datetime, timezone
23
  from pathlib import Path
24
 
 
25
  if not os.environ.get("HF_TOKEN"):
26
  print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
27
  sys.exit(1)
 
33
  import train_config as cfg
34
  from train_utils import (
35
  setup_logger, log_gpu_info, log_training_config,
36
+ load_pref_dataset, apply_chat_template_dpo,
37
  )
38
 
39
 
40
  def main() -> None:
41
+ # DPOTrainer の Unsloth パッチ(必ず最初に呼ぶ)
42
  PatchDPOTrainer()
43
 
44
  start_time = datetime.now(timezone.utc)
 
52
  log_gpu_info(logger)
53
  log_training_config(logger, "DPO")
54
 
55
+ # ── SFT 済み LoRA アダプタのロード ───────────────────────
56
+ # ローカルに SFT アダプタがあればそちらを優先
57
  sft_lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
58
  if sft_lora_dir.exists():
59
  model_path = str(sft_lora_dir)
60
+ logger.info(f"SFT LoRA アダプタ(ローカル)からロード: {model_path}")
61
  else:
 
62
  model_path = cfg.SFT_HF_REPO
63
+ logger.info(f"SFT LoRA アダプタ(HF Hub)からロード: {model_path}")
64
 
65
  try:
66
  model, tokenizer = FastLanguageModel.from_pretrained(
 
74
  except Exception as e:
75
  logger.error(f"モデルロードエラー: {e}")
76
  logger.debug(traceback.format_exc())
77
+ logger.info("先に train_sft.py を実行してください。")
78
  raise
79
 
80
+ # ── DPO 用 LoRA アダプタ追加 ─────────────────────────────
81
+ logger.info("DPO 用 LoRA アダプタ追加中...")
82
  try:
83
  model = FastLanguageModel.get_peft_model(
84
  model,
 
90
  use_gradient_checkpointing="unsloth",
91
  random_state=3407,
92
  )
93
+ trainable = sum(p.numel() for p in model.parameters() if p.requires_grad)
94
+ logger.info(f" 学習可能パラメータ: {trainable:,}")
95
  except Exception as e:
96
  logger.error(f"LoRA 設定エラー: {e}")
97
  logger.debug(traceback.format_exc())
 
102
  try:
103
  raw_ds = load_pref_dataset(logger)
104
 
105
+ # チャットテンプレート適用(SFT 同じフォーマット統一)
 
106
  logger.info("チャットテンプレート適用中...")
107
  ds = raw_ds.map(
108
  lambda x: apply_chat_template_dpo(x, tokenizer, logger),
109
  batched=True,
110
  desc="DPO チャットテンプレート適用",
111
  )
 
 
 
 
 
 
112
  logger.info(f"選好データ準備完了: {len(ds)} 件")
113
+
114
+ # サンプル確認
115
+ logger.debug(f" prompt[0]: {ds[0]['prompt'][:100]}")
116
+ logger.debug(f" chosen[0]: {ds[0]['chosen'][:100]}")
117
  except Exception as e:
118
  logger.error(f"データセット準備エラー: {e}")
119
  logger.debug(traceback.format_exc())
 
124
  try:
125
  dpo_trainer = DPOTrainer(
126
  model=model,
127
+ ref_model=None, # implicit reference(メモリ節約)
128
  args=DPOConfig(
129
  output_dir=cfg.DPO_OUTPUT_DIR,
130
  per_device_train_batch_size=cfg.DPO_BATCH_SIZE,
 
155
  logger.debug(traceback.format_exc())
156
  raise
157
 
158
+ # ── DPO 学習実行 ──────────────────────────────────────────
159
  logger.info("DPO 学習開始...")
160
  try:
161
  train_result = dpo_trainer.train()
162
+ logger.info("DPO 学習完了 ✅")
163
+ logger.info(f" train_loss: {train_result.training_loss:.4f}")
164
+ logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
165
+ logger.info(f" samples/sec: {train_result.metrics.get('train_samples_per_second', 0):.2f}")
166
+ logger.info(f" rewards/chosen: {train_result.metrics.get('rewards/chosen', 'N/A')}")
167
+ logger.info(f" rewards/rejected: {train_result.metrics.get('rewards/rejected', 'N/A')}")
168
+ logger.info(f" rewards/margin: {train_result.metrics.get('rewards/margins', 'N/A')}")
169
  except Exception as e:
170
  logger.error(f"DPO 学習エラー: {e}")
171
  logger.debug(traceback.format_exc())
172
  raise
173
 
174
+ # ── LoRA アダプタ保存 ─────────────────────────────────────
175
  lora_dir = Path(cfg.DPO_OUTPUT_DIR) / "lora"
176
+ logger.info(f"LoRA アダプタ保存: {lora_dir}")
177
  try:
178
  model.save_pretrained(str(lora_dir))
179
  tokenizer.save_pretrained(str(lora_dir))
 
183
  logger.debug(traceback.format_exc())
184
  raise
185
 
186
+ # ── [STEP 2/3] HF Hub SFT+DPO チェックポイント push ───
187
  if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
188
+ logger.info(f"[STEP 2/3] HF Hub SFT+DPO チェックポイント push: {cfg.DPO_HF_REPO}")
189
  try:
190
  model.push_to_hub(cfg.DPO_HF_REPO, token=cfg.HF_TOKEN)
191
  tokenizer.push_to_hub(cfg.DPO_HF_REPO, token=cfg.HF_TOKEN)
192
+ logger.info(f" ✅ https://huggingface.co/{cfg.DPO_HF_REPO}")
193
  except Exception as e:
194
+ logger.error(f"DPO push エラー: {e}")
195
  logger.debug(traceback.format_exc())
196
 
197
+ # ── [STEP 3/3] GGUF 変換 + HF Hub push ───────────────────
198
  if cfg.SAVE_GGUF:
199
+ logger.info(f"[STEP 3/3] GGUF 変換中 ({cfg.GGUF_QUANTIZATION})...")
200
  try:
201
  gguf_dir = Path(cfg.DPO_OUTPUT_DIR) / "gguf"
202
  gguf_dir.mkdir(parents=True, exist_ok=True)
203
+
204
  if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
205
  model.push_to_hub_gguf(
206
  cfg.GGUF_HF_REPO,
 
208
  quantization_method=cfg.GGUF_QUANTIZATION,
209
  token=cfg.HF_TOKEN,
210
  )
211
+ logger.info(f" ✅ https://huggingface.co/{cfg.GGUF_HF_REPO}")
212
  else:
213
  model.save_pretrained_gguf(
214
  str(gguf_dir),
215
  tokenizer,
216
  quantization_method=cfg.GGUF_QUANTIZATION,
217
  )
218
+ logger.info(f" ローカル保存: {gguf_dir}")
219
  except Exception as e:
220
+ logger.error(f"GGUF 変換エラー: {e}")
221
  logger.debug(traceback.format_exc())
222
 
223
  elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
224
+ logger.info(f"=== DPO 完了 ({elapsed/60:.1f}分) ===")
225
+ logger.info(f"ログ: {log_file}")
226
 
227
 
228
  if __name__ == "__main__":