TeenEmo-Scripts / training /train_config.py
YUGOROU's picture
feat: PR#8 - SFT/DPO 学習スクリプト追加 (#8)
0b0982c
"""
train_config.py — TeenEmo 学習設定
全ての設定値を一箇所で管理する。
環境変数で上書き可能。
"""
from __future__ import annotations
import os
# ── Hugging Face ──────────────────────────────────────────────
HF_TOKEN: str = os.environ.get("HF_TOKEN", "")
HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU")
# ── ベースモデル ───────────────────────────────────────────────
# LFM2.5-1.2B-Base を使用
BASE_MODEL: str = os.environ.get("BASE_MODEL", "LiquidAI/LFM2.5-1.2B-Base")
# ── データセット ───────────────────────────────────────────────
# SFT: teememo-sft-validation(本番データが格納されている)
SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation")
PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")
# ── 出力先 ─────────────────────────────────────────────────────
SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft")
DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo")
SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-SFT")
DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-DPO")
GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-GGUF")
# ── LoRA 設定 ─────────────────────────────────────────────────
# LFM2.5 のアーキテクチャに合わせたターゲットモジュール
# 参考: https://unsloth.ai/docs/models/tutorials/lfm2.5
LORA_R: int = int(os.environ.get("LORA_R", "32"))
LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨
LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0"))
LORA_TARGET_MODULES: list = [
# LFM2.5 固有のモジュール(通常の Transformer とは異なる)
"q_proj", "k_proj", "v_proj", "out_proj", "in_proj",
"w1", "w2", "w3",
]
# ── シーケンス長 ───────────────────────────────────────────────
# LFM2.5 は最大 32768 トークン対応、SFT データに合わせて 2048 に設定
MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))
# ── SFT 学習設定(A100 80GB 最適化)─────────────────────────
# A100 80GB: LFM2.5-1.2B は bf16 で非常に小さいため大バッチが可能
# 実効バッチ = SFT_BATCH_SIZE × SFT_GRAD_ACCUM = 32 × 4 = 128
SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "32"))
SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4"))
SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3"))
SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4"))
SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine")
SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "100"))
SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true"
# ── DPO 学習設定(A100 80GB 最適化)─────────────────────────
# DPO は chosen/rejected の2倍メモリが必要なためバッチサイズを抑える
# 実効バッチ = DPO_BATCH_SIZE × DPO_GRAD_ACCUM = 8 × 4 = 32
DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "8"))
DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "4"))
DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2"))
DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5"))
DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine")
DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5"))
DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100"))
DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1"))
DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))
DPO_MAX_LENGTH: int = int(os.environ.get("DPO_MAX_LENGTH", "1024"))
# ── GGUF 量子化 ────────────────────────────────────────────────
GGUF_QUANTIZATION: str = os.environ.get("GGUF_QUANTIZATION", "q4_k_m")
SAVE_GGUF: bool = os.environ.get("SAVE_GGUF", "true").lower() == "true"
PUSH_TO_HUB: bool = os.environ.get("PUSH_TO_HUB", "true").lower() == "true"