File size: 7,863 Bytes
0b0982c | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 | """
train_sft.py — TeenEmo SFT(教師あり微調整)
フロー:
1. LFM2.5-1.2B-Base を HF Hub からロード
2. LoRA アダプタを設定
3. SFT データセットを HF Hub から取得・変換
4. SFTTrainer で学習
5. SFT 完了 → HF Hub にチェックポイントを push(STEP 1/3)
※ GGUF保存は DPO 完了後に train_dpo.py が行う
実行例:
python train_sft.py
SFT_EPOCHS=2 SFT_BATCH_SIZE=16 python train_sft.py
"""
from __future__ import annotations
import os
import sys
import traceback
from datetime import datetime, timezone
from pathlib import Path
if not os.environ.get("HF_TOKEN"):
print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
sys.exit(1)
import torch
from unsloth import FastLanguageModel, is_bfloat16_supported
from trl import SFTTrainer, SFTConfig
import train_config as cfg
from train_utils import (
setup_logger, log_gpu_info, log_training_config,
load_sft_dataset, apply_chat_template_sft,
)
def main() -> None:
start_time = datetime.now(timezone.utc)
log_dir = Path(cfg.SFT_OUTPUT_DIR) / "logs"
log_dir.mkdir(parents=True, exist_ok=True)
log_file = log_dir / f"sft_{start_time.strftime('%Y%m%d_%H%M%S')}.log"
logger = setup_logger("sft", str(log_file))
logger.info(f"=== TeenEmo SFT 開始 [{start_time.isoformat()}] ===")
log_gpu_info(logger)
log_training_config(logger, "SFT")
# ── モデルロード ──────────────────────────────────────────
logger.info(f"モデルロード中: {cfg.BASE_MODEL}")
try:
model, tokenizer = FastLanguageModel.from_pretrained(
model_name=cfg.BASE_MODEL,
max_seq_length=cfg.MAX_SEQ_LENGTH,
dtype=None, # A100 → bfloat16 自動選択
load_in_4bit=False, # LFM2.5: bf16 LoRA 推奨
token=cfg.HF_TOKEN or None,
)
logger.info("モデルロード完了 ✅")
except Exception as e:
logger.error(f"モデルロードエラー: {e}")
logger.debug(traceback.format_exc())
raise
# ── LoRA 設定 ──────────────────────────────────────────────
logger.info("LoRA アダプタ設定中...")
try:
model = FastLanguageModel.get_peft_model(
model,
r=cfg.LORA_R,
target_modules=cfg.LORA_TARGET_MODULES,
lora_alpha=cfg.LORA_ALPHA,
lora_dropout=cfg.LORA_DROPOUT,
bias="none",
use_gradient_checkpointing="unsloth",
random_state=3407,
use_rslora=False,
loftq_config=None,
)
total_params = sum(p.numel() for p in model.parameters())
trainable_params = sum(p.numel() for p in model.parameters() if p.requires_grad)
logger.info(f" 全パラメータ数: {total_params:,}")
logger.info(f" 学習可能パラメータ数: {trainable_params:,} ({trainable_params/total_params*100:.2f}%)")
except Exception as e:
logger.error(f"LoRA 設定エラー: {e}")
logger.debug(traceback.format_exc())
raise
# ── データセット準備 ──────────────────────────────────────
logger.info("データセット準備中...")
try:
raw_ds = load_sft_dataset(logger)
logger.info("チャットテンプレート適用中...")
ds = raw_ds.map(
lambda x: apply_chat_template_sft(x, tokenizer, logger),
batched=True,
remove_columns=raw_ds.column_names,
desc="チャットテンプレート適用",
)
before = len(ds)
ds = ds.filter(lambda x: len(x["text"]) > 0)
logger.info(f" 変換後: {before} → {len(ds)} 件")
logger.debug(f" サンプル[0]:\n{ds[0]['text'][:300]}")
except Exception as e:
logger.error(f"データセット準備エラー: {e}")
logger.debug(traceback.format_exc())
raise
# ── SFTTrainer 初期化 ─────────────────────────────────────
logger.info("SFTTrainer 初期化中...")
try:
trainer = SFTTrainer(
model=model,
tokenizer=tokenizer,
train_dataset=ds,
dataset_text_field="text",
max_seq_length=cfg.MAX_SEQ_LENGTH,
packing=cfg.SFT_PACKING,
args=SFTConfig(
output_dir=cfg.SFT_OUTPUT_DIR,
per_device_train_batch_size=cfg.SFT_BATCH_SIZE,
gradient_accumulation_steps=cfg.SFT_GRAD_ACCUM,
num_train_epochs=cfg.SFT_EPOCHS,
learning_rate=cfg.SFT_LR,
warmup_ratio=cfg.SFT_WARMUP_RATIO,
lr_scheduler_type=cfg.SFT_LR_SCHEDULER,
weight_decay=cfg.SFT_WEIGHT_DECAY,
fp16=not is_bfloat16_supported(),
bf16=is_bfloat16_supported(),
logging_steps=cfg.SFT_LOGGING_STEPS,
save_steps=cfg.SFT_SAVE_STEPS,
save_total_limit=2,
optim="adamw_8bit",
seed=3407,
report_to="none",
dataset_num_proc=2,
),
)
logger.info("SFTTrainer 初期化完了 ✅")
except Exception as e:
logger.error(f"SFTTrainer 初期化エラー: {e}")
logger.debug(traceback.format_exc())
raise
# ── 学習実行 ──────────────────────────────────────────────
logger.info("SFT 学習開始...")
try:
train_result = trainer.train()
logger.info("SFT 学習完了 ✅")
logger.info(f" train_loss: {train_result.training_loss:.4f}")
logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
logger.info(f" samples/sec: {train_result.metrics.get('train_samples_per_second', 0):.2f}")
except Exception as e:
logger.error(f"SFT 学習エラー: {e}")
logger.debug(traceback.format_exc())
raise
# ── LoRA アダプタ保存 ─────────────────────────────────────
lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
logger.info(f"LoRA アダプタ保存: {lora_dir}")
try:
model.save_pretrained(str(lora_dir))
tokenizer.save_pretrained(str(lora_dir))
logger.info("LoRA アダプタ保存完了 ✅")
except Exception as e:
logger.error(f"LoRA 保存エラー: {e}")
logger.debug(traceback.format_exc())
raise
# ── [STEP 1/3] HF Hub に SFT チェックポイント push ───────
if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
logger.info(f"[STEP 1/3] HF Hub に SFT チェックポイント push: {cfg.SFT_HF_REPO}")
try:
model.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
tokenizer.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
logger.info(f" ✅ https://huggingface.co/{cfg.SFT_HF_REPO}")
except Exception as e:
logger.error(f"SFT push エラー: {e}")
logger.debug(traceback.format_exc())
elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
logger.info(f"=== SFT 完了 ({elapsed/60:.1f}分) ===")
logger.info(f"次のステップ: python train_dpo.py")
logger.info(f"ログ: {log_file}")
if __name__ == "__main__":
main()
|