File size: 5,695 Bytes
0b0982c
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
"""
train_config.py — TeenEmo 学習設定

全ての設定値を一箇所で管理する。
環境変数で上書き可能。
"""

from __future__ import annotations
import os

# ── Hugging Face ──────────────────────────────────────────────
HF_TOKEN:      str = os.environ.get("HF_TOKEN", "")
HF_USERNAME:   str = os.environ.get("HF_USERNAME", "YUGOROU")

# ── ベースモデル ───────────────────────────────────────────────
# LFM2.5-1.2B-Base を使用
BASE_MODEL:    str = os.environ.get("BASE_MODEL", "LiquidAI/LFM2.5-1.2B-Base")

# ── データセット ───────────────────────────────────────────────
# SFT: teememo-sft-validation(本番データが格納されている)
SFT_DATASET:   str = os.environ.get("SFT_DATASET",  f"{HF_USERNAME}/teememo-sft-validation")
PREF_DATASET:  str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")

# ── 出力先 ─────────────────────────────────────────────────────
SFT_OUTPUT_DIR:  str = os.environ.get("SFT_OUTPUT_DIR",  "./outputs/sft")
DPO_OUTPUT_DIR:  str = os.environ.get("DPO_OUTPUT_DIR",  "./outputs/dpo")
SFT_HF_REPO:     str = os.environ.get("SFT_HF_REPO",     f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-SFT")
DPO_HF_REPO:     str = os.environ.get("DPO_HF_REPO",     f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-DPO")
GGUF_HF_REPO:    str = os.environ.get("GGUF_HF_REPO",    f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-GGUF")

# ── LoRA 設定 ─────────────────────────────────────────────────
# LFM2.5 のアーキテクチャに合わせたターゲットモジュール
# 参考: https://unsloth.ai/docs/models/tutorials/lfm2.5
LORA_R:              int   = int(os.environ.get("LORA_R",    "32"))
LORA_ALPHA:          int   = int(os.environ.get("LORA_ALPHA", "64"))   # r * 2 推奨
LORA_DROPOUT:        float = float(os.environ.get("LORA_DROPOUT", "0"))
LORA_TARGET_MODULES: list  = [
    # LFM2.5 固有のモジュール(通常の Transformer とは異なる)
    "q_proj", "k_proj", "v_proj", "out_proj", "in_proj",
    "w1", "w2", "w3",
]

# ── シーケンス長 ───────────────────────────────────────────────
# LFM2.5 は最大 32768 トークン対応、SFT データに合わせて 2048 に設定
MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))

# ── SFT 学習設定(A100 80GB 最適化)─────────────────────────
# A100 80GB: LFM2.5-1.2B は bf16 で非常に小さいため大バッチが可能
# 実効バッチ = SFT_BATCH_SIZE × SFT_GRAD_ACCUM = 32 × 4 = 128
SFT_BATCH_SIZE:               int   = int(os.environ.get("SFT_BATCH_SIZE",   "32"))
SFT_GRAD_ACCUM:               int   = int(os.environ.get("SFT_GRAD_ACCUM",    "4"))
SFT_EPOCHS:                   int   = int(os.environ.get("SFT_EPOCHS",         "3"))
SFT_LR:                       float = float(os.environ.get("SFT_LR",        "2e-4"))
SFT_WARMUP_RATIO:             float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
SFT_LR_SCHEDULER:             str   = os.environ.get("SFT_LR_SCHEDULER",  "cosine")
SFT_WEIGHT_DECAY:             float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
SFT_LOGGING_STEPS:            int   = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
SFT_SAVE_STEPS:               int   = int(os.environ.get("SFT_SAVE_STEPS",   "100"))
SFT_PACKING:                  bool  = os.environ.get("SFT_PACKING", "false").lower() == "true"

# ── DPO 学習設定(A100 80GB 最適化)─────────────────────────
# DPO は chosen/rejected の2倍メモリが必要なためバッチサイズを抑える
# 実効バッチ = DPO_BATCH_SIZE × DPO_GRAD_ACCUM = 8 × 4 = 32
DPO_BATCH_SIZE:               int   = int(os.environ.get("DPO_BATCH_SIZE",    "8"))
DPO_GRAD_ACCUM:               int   = int(os.environ.get("DPO_GRAD_ACCUM",    "4"))
DPO_EPOCHS:                   int   = int(os.environ.get("DPO_EPOCHS",         "2"))
DPO_LR:                       float = float(os.environ.get("DPO_LR",        "5e-5"))
DPO_WARMUP_RATIO:             float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
DPO_LR_SCHEDULER:             str   = os.environ.get("DPO_LR_SCHEDULER",  "cosine")
DPO_WEIGHT_DECAY:             float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
DPO_LOGGING_STEPS:            int   = int(os.environ.get("DPO_LOGGING_STEPS",  "5"))
DPO_SAVE_STEPS:               int   = int(os.environ.get("DPO_SAVE_STEPS",   "100"))
DPO_BETA:                     float = float(os.environ.get("DPO_BETA",       "0.1"))
DPO_MAX_PROMPT_LENGTH:        int   = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))
DPO_MAX_LENGTH:               int   = int(os.environ.get("DPO_MAX_LENGTH",  "1024"))

# ── GGUF 量子化 ────────────────────────────────────────────────
GGUF_QUANTIZATION: str = os.environ.get("GGUF_QUANTIZATION", "q4_k_m")
SAVE_GGUF:         bool = os.environ.get("SAVE_GGUF", "true").lower() == "true"
PUSH_TO_HUB:       bool = os.environ.get("PUSH_TO_HUB", "true").lower() == "true"