fix: sync training/train_config.py
Browse files- training/train_config.py +27 -18
training/train_config.py
CHANGED
|
@@ -13,53 +13,62 @@ HF_TOKEN: str = os.environ.get("HF_TOKEN", "")
|
|
| 13 |
HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU")
|
| 14 |
|
| 15 |
# ── ベースモデル ───────────────────────────────────────────────
|
| 16 |
-
# LFM2-1.2B-Base を使用
|
| 17 |
-
BASE_MODEL: str = os.environ.get("BASE_MODEL", "
|
| 18 |
|
| 19 |
# ── データセット ───────────────────────────────────────────────
|
| 20 |
-
|
|
|
|
| 21 |
PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")
|
| 22 |
|
| 23 |
# ── 出力先 ─────────────────────────────────────────────────────
|
| 24 |
SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft")
|
| 25 |
DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo")
|
| 26 |
-
SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-SFT")
|
| 27 |
-
DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-DPO")
|
| 28 |
-
GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-GGUF")
|
| 29 |
|
| 30 |
# ── LoRA 設定 ─────────────────────────────────────────────────
|
|
|
|
|
|
|
| 31 |
LORA_R: int = int(os.environ.get("LORA_R", "32"))
|
| 32 |
LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨
|
| 33 |
LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0"))
|
| 34 |
LORA_TARGET_MODULES: list = [
|
| 35 |
-
|
| 36 |
-
"
|
|
|
|
| 37 |
]
|
| 38 |
|
| 39 |
# ── シーケンス長 ───────────────────────────────────────────────
|
|
|
|
| 40 |
MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))
|
| 41 |
|
| 42 |
-
# ── SFT 学習設定 ─────────────────────────
|
| 43 |
-
|
| 44 |
-
|
| 45 |
-
|
|
|
|
|
|
|
| 46 |
SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4"))
|
| 47 |
SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
|
| 48 |
SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine")
|
| 49 |
SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
|
| 50 |
SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
|
| 51 |
-
SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "
|
| 52 |
SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true"
|
| 53 |
|
| 54 |
-
# ── DPO 学習設定 ─────────────────────────
|
| 55 |
-
|
| 56 |
-
|
| 57 |
-
|
|
|
|
|
|
|
| 58 |
DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5"))
|
| 59 |
DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
|
| 60 |
DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine")
|
| 61 |
DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
|
| 62 |
-
DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS",
|
| 63 |
DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100"))
|
| 64 |
DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1"))
|
| 65 |
DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))
|
|
|
|
| 13 |
HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU")
|
| 14 |
|
| 15 |
# ── ベースモデル ───────────────────────────────────────────────
|
| 16 |
+
# LFM2.5-1.2B-Base を使用
|
| 17 |
+
BASE_MODEL: str = os.environ.get("BASE_MODEL", "LiquidAI/LFM2.5-1.2B-Base")
|
| 18 |
|
| 19 |
# ── データセット ───────────────────────────────────────────────
|
| 20 |
+
# SFT: teememo-sft-validation(本番データが格納されている)
|
| 21 |
+
SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation")
|
| 22 |
PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")
|
| 23 |
|
| 24 |
# ── 出力先 ─────────────────────────────────────────────────────
|
| 25 |
SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft")
|
| 26 |
DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo")
|
| 27 |
+
SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-SFT")
|
| 28 |
+
DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-DPO")
|
| 29 |
+
GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-GGUF")
|
| 30 |
|
| 31 |
# ── LoRA 設定 ─────────────────────────────────────────────────
|
| 32 |
+
# LFM2.5 のアーキテクチャに合わせたターゲットモジュール
|
| 33 |
+
# 参考: https://unsloth.ai/docs/models/tutorials/lfm2.5
|
| 34 |
LORA_R: int = int(os.environ.get("LORA_R", "32"))
|
| 35 |
LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨
|
| 36 |
LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0"))
|
| 37 |
LORA_TARGET_MODULES: list = [
|
| 38 |
+
# LFM2.5 固有のモジュール(通常の Transformer とは異なる)
|
| 39 |
+
"q_proj", "k_proj", "v_proj", "out_proj", "in_proj",
|
| 40 |
+
"w1", "w2", "w3",
|
| 41 |
]
|
| 42 |
|
| 43 |
# ── シーケンス長 ───────────────────────────────────────────────
|
| 44 |
+
# LFM2.5 は最大 32768 トークン対応、SFT データに合わせて 2048 に設定
|
| 45 |
MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))
|
| 46 |
|
| 47 |
+
# ── SFT 学習設定(A100 80GB 最適化)─────────────────────────
|
| 48 |
+
# A100 80GB: LFM2.5-1.2B は bf16 で非常に小さいため大バッチが可能
|
| 49 |
+
# 実効バッチ = SFT_BATCH_SIZE × SFT_GRAD_ACCUM = 32 × 4 = 128
|
| 50 |
+
SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "32"))
|
| 51 |
+
SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4"))
|
| 52 |
+
SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3"))
|
| 53 |
SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4"))
|
| 54 |
SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
|
| 55 |
SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine")
|
| 56 |
SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
|
| 57 |
SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
|
| 58 |
+
SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "100"))
|
| 59 |
SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true"
|
| 60 |
|
| 61 |
+
# ── DPO 学習設定(A100 80GB 最適化)─────────────────────────
|
| 62 |
+
# DPO は chosen/rejected の2倍メモリが必要なためバッチサイズを抑える
|
| 63 |
+
# 実効バッチ = DPO_BATCH_SIZE × DPO_GRAD_ACCUM = 8 × 4 = 32
|
| 64 |
+
DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "8"))
|
| 65 |
+
DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "4"))
|
| 66 |
+
DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2"))
|
| 67 |
DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5"))
|
| 68 |
DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
|
| 69 |
DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine")
|
| 70 |
DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
|
| 71 |
+
DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5"))
|
| 72 |
DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100"))
|
| 73 |
DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1"))
|
| 74 |
DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))
|