""" train_config.py — TeenEmo 学習設定 全ての設定値を一箇所で管理する。 環境変数で上書き可能。 """ from __future__ import annotations import os # ── Hugging Face ────────────────────────────────────────────── HF_TOKEN: str = os.environ.get("HF_TOKEN", "") HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU") # ── ベースモデル ─────────────────────────────────────────────── # LFM2.5-1.2B-Base を使用 BASE_MODEL: str = os.environ.get("BASE_MODEL", "LiquidAI/LFM2.5-1.2B-Base") # ── データセット ─────────────────────────────────────────────── # SFT: teememo-sft-validation(本番データが格納されている) SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation") PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data") # ── 出力先 ───────────────────────────────────────────────────── SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft") DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo") SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-SFT") DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-DPO") GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-GGUF") # ── LoRA 設定 ───────────────────────────────────────────────── # LFM2.5 のアーキテクチャに合わせたターゲットモジュール # 参考: https://unsloth.ai/docs/models/tutorials/lfm2.5 LORA_R: int = int(os.environ.get("LORA_R", "32")) LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨 LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0")) LORA_TARGET_MODULES: list = [ # LFM2.5 固有のモジュール(通常の Transformer とは異なる) "q_proj", "k_proj", "v_proj", "out_proj", "in_proj", "w1", "w2", "w3", ] # ── シーケンス長 ─────────────────────────────────────────────── # LFM2.5 は最大 32768 トークン対応、SFT データに合わせて 2048 に設定 MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048")) # ── SFT 学習設定(A100 80GB 最適化)───────────────────────── # A100 80GB: LFM2.5-1.2B は bf16 で非常に小さいため大バッチが可能 # 実効バッチ = SFT_BATCH_SIZE × SFT_GRAD_ACCUM = 32 × 4 = 128 SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "32")) SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4")) SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3")) SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4")) SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05")) SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine") SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01")) SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10")) SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "100")) SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true" # ── DPO 学習設定(A100 80GB 最適化)───────────────────────── # DPO は chosen/rejected の2倍メモリが必要なためバッチサイズを抑える # 実効バッチ = DPO_BATCH_SIZE × DPO_GRAD_ACCUM = 8 × 4 = 32 DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "8")) DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "4")) DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2")) DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5")) DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1")) DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine") DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01")) DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5")) DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100")) DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1")) DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512")) DPO_MAX_LENGTH: int = int(os.environ.get("DPO_MAX_LENGTH", "1024")) # ── GGUF 量子化 ──────────────────────────────────────────────── GGUF_QUANTIZATION: str = os.environ.get("GGUF_QUANTIZATION", "q4_k_m") SAVE_GGUF: bool = os.environ.get("SAVE_GGUF", "true").lower() == "true" PUSH_TO_HUB: bool = os.environ.get("PUSH_TO_HUB", "true").lower() == "true"