sync: training/train_config.py
Browse files- training/train_config.py +71 -0
training/train_config.py
ADDED
|
@@ -0,0 +1,71 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
"""
|
| 2 |
+
train_config.py — TeenEmo 学習設定
|
| 3 |
+
|
| 4 |
+
全ての設定値を一箇所で管理する。
|
| 5 |
+
環境変数で上書き可能。
|
| 6 |
+
"""
|
| 7 |
+
|
| 8 |
+
from __future__ import annotations
|
| 9 |
+
import os
|
| 10 |
+
|
| 11 |
+
# ── Hugging Face ──────────────────────────────────────────────
|
| 12 |
+
HF_TOKEN: str = os.environ.get("HF_TOKEN", "")
|
| 13 |
+
HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU")
|
| 14 |
+
|
| 15 |
+
# ── ベースモデル ───────────────────────────────────────────────
|
| 16 |
+
# LFM2-1.2B-Base を使用(Instruct版ではなくBase版)
|
| 17 |
+
BASE_MODEL: str = os.environ.get("BASE_MODEL", "liquidai/LFM2-1.2B")
|
| 18 |
+
|
| 19 |
+
# ── データセット ───────────────────────────────────────────────
|
| 20 |
+
SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation")
|
| 21 |
+
PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")
|
| 22 |
+
|
| 23 |
+
# ── 出力先 ─────────────────────────────────────────────────────
|
| 24 |
+
SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft")
|
| 25 |
+
DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo")
|
| 26 |
+
SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-SFT")
|
| 27 |
+
DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-DPO")
|
| 28 |
+
GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-GGUF")
|
| 29 |
+
|
| 30 |
+
# ── LoRA 設定 ─────────────────────────────────────────────────
|
| 31 |
+
LORA_R: int = int(os.environ.get("LORA_R", "32"))
|
| 32 |
+
LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨
|
| 33 |
+
LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0"))
|
| 34 |
+
LORA_TARGET_MODULES: list = [
|
| 35 |
+
"q_proj", "k_proj", "v_proj", "o_proj",
|
| 36 |
+
"gate_proj", "up_proj", "down_proj",
|
| 37 |
+
]
|
| 38 |
+
|
| 39 |
+
# ── シーケンス長 ───────────────────────────────────────────────
|
| 40 |
+
MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))
|
| 41 |
+
|
| 42 |
+
# ── SFT 学習設定 ───────────────────────────────────────────────
|
| 43 |
+
SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "8"))
|
| 44 |
+
SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4"))
|
| 45 |
+
SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3"))
|
| 46 |
+
SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4"))
|
| 47 |
+
SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
|
| 48 |
+
SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine")
|
| 49 |
+
SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
|
| 50 |
+
SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
|
| 51 |
+
SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "200"))
|
| 52 |
+
SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true"
|
| 53 |
+
|
| 54 |
+
# ── DPO 学習設定 ───────────────────────────────────────────────
|
| 55 |
+
DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "4"))
|
| 56 |
+
DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "8"))
|
| 57 |
+
DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2"))
|
| 58 |
+
DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5"))
|
| 59 |
+
DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
|
| 60 |
+
DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine")
|
| 61 |
+
DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
|
| 62 |
+
DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5"))
|
| 63 |
+
DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100"))
|
| 64 |
+
DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1"))
|
| 65 |
+
DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))
|
| 66 |
+
DPO_MAX_LENGTH: int = int(os.environ.get("DPO_MAX_LENGTH", "1024"))
|
| 67 |
+
|
| 68 |
+
# ── GGUF 量子化 ────────────────────────────────────────────────
|
| 69 |
+
GGUF_QUANTIZATION: str = os.environ.get("GGUF_QUANTIZATION", "q4_k_m")
|
| 70 |
+
SAVE_GGUF: bool = os.environ.get("SAVE_GGUF", "true").lower() == "true"
|
| 71 |
+
PUSH_TO_HUB: bool = os.environ.get("PUSH_TO_HUB", "true").lower() == "true"
|