YUGOROU commited on
Commit
5c805c0
·
verified ·
1 Parent(s): 30f85f0

sync: training/train_sft.py

Browse files
Files changed (1) hide show
  1. training/train_sft.py +223 -0
training/train_sft.py ADDED
@@ -0,0 +1,223 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_sft.py — TeenEmo SFT(教師あり微調整)
3
+
4
+ フロー:
5
+ 1. LFM2-1.2B-Base を HF Hub からロード
6
+ 2. LoRA アダプタを設定
7
+ 3. SFT データセットを HF Hub から取得・変換
8
+ 4. SFTTrainer で学習
9
+ 5. LoRA アダプタを保存 + HF Hub へ push
10
+ 6. GGUF 形式で保存 + HF Hub へ push
11
+
12
+ 実行例:
13
+ python train_sft.py
14
+ BASE_MODEL=liquidai/LFM2-1.2B SFT_EPOCHS=2 python train_sft.py
15
+ """
16
+
17
+ from __future__ import annotations
18
+
19
+ import os
20
+ import sys
21
+ import traceback
22
+ from datetime import datetime, timezone
23
+ from pathlib import Path
24
+
25
+ # ── 環境変数チェック ──────────────────────────────────────────
26
+ if not os.environ.get("HF_TOKEN"):
27
+ print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
28
+ sys.exit(1)
29
+
30
+ import torch
31
+ from unsloth import FastLanguageModel, is_bfloat16_supported
32
+ from trl import SFTTrainer, SFTConfig
33
+ from datasets import Dataset
34
+
35
+ import train_config as cfg
36
+ from train_utils import (
37
+ setup_logger, log_gpu_info, log_training_config,
38
+ load_sft_dataset, apply_chat_template_sft,
39
+ )
40
+
41
+
42
+ def main() -> None:
43
+ start_time = datetime.now(timezone.utc)
44
+ log_dir = Path(cfg.SFT_OUTPUT_DIR) / "logs"
45
+ log_dir.mkdir(parents=True, exist_ok=True)
46
+ log_file = log_dir / f"sft_{start_time.strftime('%Y%m%d_%H%M%S')}.log"
47
+
48
+ logger = setup_logger("sft", str(log_file))
49
+ logger.info(f"=== TeenEmo SFT 開始 [{start_time.isoformat()}] ===")
50
+
51
+ # ── GPU 情報 ──────────────────────────────────────────────
52
+ log_gpu_info(logger)
53
+ log_training_config(logger, "SFT")
54
+
55
+ # ── モデルロード ──────────────────────────────────────────
56
+ logger.info(f"モデルロード中: {cfg.BASE_MODEL}")
57
+ try:
58
+ model, tokenizer = FastLanguageModel.from_pretrained(
59
+ model_name=cfg.BASE_MODEL,
60
+ max_seq_length=cfg.MAX_SEQ_LENGTH,
61
+ dtype=None, # auto: A100 は bfloat16
62
+ load_in_4bit=False, # LFM2 は bf16 LoRA 推奨
63
+ token=cfg.HF_TOKEN or None,
64
+ )
65
+ logger.info("モデルロード完了 ✅")
66
+ except Exception as e:
67
+ logger.error(f"モデルロードエラー: {e}")
68
+ logger.debug(traceback.format_exc())
69
+ raise
70
+
71
+ # ── LoRA 設定 ──────────────────────────────────────────────
72
+ logger.info("LoRA アダプタ設定中...")
73
+ try:
74
+ model = FastLanguageModel.get_peft_model(
75
+ model,
76
+ r=cfg.LORA_R,
77
+ target_modules=cfg.LORA_TARGET_MODULES,
78
+ lora_alpha=cfg.LORA_ALPHA,
79
+ lora_dropout=cfg.LORA_DROPOUT,
80
+ bias="none",
81
+ use_gradient_checkpointing="unsloth",
82
+ random_state=3407,
83
+ use_rslora=False,
84
+ loftq_config=None,
85
+ )
86
+ total_params = sum(p.numel() for p in model.parameters())
87
+ trainable_params = sum(p.numel() for p in model.parameters() if p.requires_grad)
88
+ logger.info(f" 全パラメータ数: {total_params:,}")
89
+ logger.info(f" 学習可能パラメータ数: {trainable_params:,} ({trainable_params/total_params*100:.2f}%)")
90
+ except Exception as e:
91
+ logger.error(f"LoRA 設定エラー: {e}")
92
+ logger.debug(traceback.format_exc())
93
+ raise
94
+
95
+ # ── データセット準備 ──────────────────────────────────────
96
+ logger.info("データセット準備中...")
97
+ try:
98
+ raw_ds = load_sft_dataset(logger)
99
+
100
+ # チャットテンプレート適用
101
+ logger.info("チャットテンプレート適用中...")
102
+ ds = raw_ds.map(
103
+ lambda x: apply_chat_template_sft(x, tokenizer, logger),
104
+ batched=True,
105
+ remove_columns=raw_ds.column_names,
106
+ desc="チャットテンプレート適用",
107
+ )
108
+ # 空テキスト除去
109
+ before = len(ds)
110
+ ds = ds.filter(lambda x: len(x["text"]) > 0)
111
+ logger.info(f" テキスト変換後: {before} → {len(ds)} 件")
112
+
113
+ # サンプル確認
114
+ logger.debug(f" 変換後サンプル[0]:\n{ds[0]['text'][:300]}")
115
+ except Exception as e:
116
+ logger.error(f"データセット準備エラー: {e}")
117
+ logger.debug(traceback.format_exc())
118
+ raise
119
+
120
+ # ── SFT 学習 ──────────────────────────────────────────────
121
+ logger.info("SFTTrainer 初期化中...")
122
+ try:
123
+ trainer = SFTTrainer(
124
+ model=model,
125
+ tokenizer=tokenizer,
126
+ train_dataset=ds,
127
+ dataset_text_field="text",
128
+ max_seq_length=cfg.MAX_SEQ_LENGTH,
129
+ packing=cfg.SFT_PACKING,
130
+ args=SFTConfig(
131
+ output_dir=cfg.SFT_OUTPUT_DIR,
132
+ per_device_train_batch_size=cfg.SFT_BATCH_SIZE,
133
+ gradient_accumulation_steps=cfg.SFT_GRAD_ACCUM,
134
+ num_train_epochs=cfg.SFT_EPOCHS,
135
+ learning_rate=cfg.SFT_LR,
136
+ warmup_ratio=cfg.SFT_WARMUP_RATIO,
137
+ lr_scheduler_type=cfg.SFT_LR_SCHEDULER,
138
+ weight_decay=cfg.SFT_WEIGHT_DECAY,
139
+ fp16=not is_bfloat16_supported(),
140
+ bf16=is_bfloat16_supported(),
141
+ logging_steps=cfg.SFT_LOGGING_STEPS,
142
+ save_steps=cfg.SFT_SAVE_STEPS,
143
+ save_total_limit=2,
144
+ optim="adamw_8bit",
145
+ seed=3407,
146
+ report_to="none",
147
+ dataset_num_proc=2,
148
+ ),
149
+ )
150
+ logger.info("SFTTrainer 初期化完了 ✅")
151
+ except Exception as e:
152
+ logger.error(f"SFTTrainer 初期化エラー: {e}")
153
+ logger.debug(traceback.format_exc())
154
+ raise
155
+
156
+ # ── 学習実行 ──────────────────────────────────────────────
157
+ logger.info("学習開始...")
158
+ try:
159
+ train_result = trainer.train()
160
+ logger.info(f"学習完了 ✅")
161
+ logger.info(f" train_loss: {train_result.training_loss:.4f}")
162
+ logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
163
+ logger.info(f" train_samples/s:{train_result.metrics.get('train_samples_per_second', 0):.2f}")
164
+ except Exception as e:
165
+ logger.error(f"学習エラー: {e}")
166
+ logger.debug(traceback.format_exc())
167
+ raise
168
+
169
+ # ── LoRA アダプタ保存 ──────────────────────────────────────
170
+ lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
171
+ logger.info(f"LoRA アダプタ保存中: {lora_dir}")
172
+ try:
173
+ model.save_pretrained(str(lora_dir))
174
+ tokenizer.save_pretrained(str(lora_dir))
175
+ logger.info("LoRA アダプタ保存完了 ✅")
176
+ except Exception as e:
177
+ logger.error(f"LoRA 保存エラー: {e}")
178
+ logger.debug(traceback.format_exc())
179
+ raise
180
+
181
+ # ── HF Hub への push ──────────────────────────────────────
182
+ if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
183
+ logger.info(f"HF Hub へ push 中: {cfg.SFT_HF_REPO}")
184
+ try:
185
+ model.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
186
+ tokenizer.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
187
+ logger.info(f"HF Hub push 完了 ✅: https://huggingface.co/{cfg.SFT_HF_REPO}")
188
+ except Exception as e:
189
+ logger.error(f"HF Hub push エラー: {e}")
190
+ logger.debug(traceback.format_exc())
191
+
192
+ # ── GGUF 保存 ──────────────────────────────────────────────
193
+ if cfg.SAVE_GGUF:
194
+ logger.info(f"GGUF 保存中 ({cfg.GGUF_QUANTIZATION})...")
195
+ try:
196
+ gguf_dir = Path(cfg.SFT_OUTPUT_DIR) / "gguf"
197
+ gguf_dir.mkdir(parents=True, exist_ok=True)
198
+ if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
199
+ model.push_to_hub_gguf(
200
+ str(gguf_dir),
201
+ tokenizer,
202
+ quantization_method=cfg.GGUF_QUANTIZATION,
203
+ token=cfg.HF_TOKEN,
204
+ )
205
+ logger.info(f"GGUF HF push 完了 ✅")
206
+ else:
207
+ model.save_pretrained_gguf(
208
+ str(gguf_dir),
209
+ tokenizer,
210
+ quantization_method=cfg.GGUF_QUANTIZATION,
211
+ )
212
+ logger.info(f"GGUF ローカル保存完了 ✅: {gguf_dir}")
213
+ except Exception as e:
214
+ logger.error(f"GGUF 保存エラー: {e}")
215
+ logger.debug(traceback.format_exc())
216
+
217
+ elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
218
+ logger.info(f"=== SFT 完了 (所要時間: {elapsed/60:.1f}分) ===")
219
+ logger.info(f"ログファイル: {log_file}")
220
+
221
+
222
+ if __name__ == "__main__":
223
+ main()