| """ |
| train_config.py — TeenEmo 学習設定 |
| |
| 全ての設定値を一箇所で管理する。 |
| 環境変数で上書き可能。 |
| """ |
|
|
| from __future__ import annotations |
| import os |
|
|
| |
| HF_TOKEN: str = os.environ.get("HF_TOKEN", "") |
| HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU") |
|
|
| |
| |
| BASE_MODEL: str = os.environ.get("BASE_MODEL", "LiquidAI/LFM2.5-1.2B-Base") |
|
|
| |
| |
| SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation") |
| PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data") |
|
|
| |
| SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft") |
| DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo") |
| SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-SFT") |
| DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-DPO") |
| GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-GGUF") |
|
|
| |
| |
| |
| LORA_R: int = int(os.environ.get("LORA_R", "32")) |
| LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) |
| LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0")) |
| LORA_TARGET_MODULES: list = [ |
| |
| "q_proj", "k_proj", "v_proj", "out_proj", "in_proj", |
| "w1", "w2", "w3", |
| ] |
|
|
| |
| |
| MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048")) |
|
|
| |
| |
| |
| SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "32")) |
| SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4")) |
| SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3")) |
| SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4")) |
| SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05")) |
| SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine") |
| SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01")) |
| SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10")) |
| SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "100")) |
| SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true" |
|
|
| |
| |
| |
| DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "8")) |
| DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "4")) |
| DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2")) |
| DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5")) |
| DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1")) |
| DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine") |
| DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01")) |
| DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5")) |
| DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100")) |
| DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1")) |
| DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512")) |
| DPO_MAX_LENGTH: int = int(os.environ.get("DPO_MAX_LENGTH", "1024")) |
|
|
| |
| GGUF_QUANTIZATION: str = os.environ.get("GGUF_QUANTIZATION", "q4_k_m") |
| SAVE_GGUF: bool = os.environ.get("SAVE_GGUF", "true").lower() == "true" |
| PUSH_TO_HUB: bool = os.environ.get("PUSH_TO_HUB", "true").lower() == "true" |
|
|