YUGOROU commited on
Commit
9d91387
·
verified ·
1 Parent(s): 167ce4a

fix: sync training/train_config.py

Browse files
Files changed (1) hide show
  1. training/train_config.py +27 -18
training/train_config.py CHANGED
@@ -13,53 +13,62 @@ HF_TOKEN: str = os.environ.get("HF_TOKEN", "")
13
  HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU")
14
 
15
  # ── ベースモデル ───────────────────────────────────────────────
16
- # LFM2-1.2B-Base を使用(Instruct版ではなくBase版)
17
- BASE_MODEL: str = os.environ.get("BASE_MODEL", "liquidai/LFM2-1.2B")
18
 
19
  # ── データセット ───────────────────────────────────────────────
20
- SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-data-v2")
 
21
  PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")
22
 
23
  # ── 出力先 ─────────────────────────────────────────────────────
24
  SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft")
25
  DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo")
26
- SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-SFT")
27
- DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-DPO")
28
- GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-GGUF")
29
 
30
  # ── LoRA 設定 ─────────────────────────────────────────────────
 
 
31
  LORA_R: int = int(os.environ.get("LORA_R", "32"))
32
  LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨
33
  LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0"))
34
  LORA_TARGET_MODULES: list = [
35
- "q_proj", "k_proj", "v_proj", "o_proj",
36
- "gate_proj", "up_proj", "down_proj",
 
37
  ]
38
 
39
  # ── シーケンス長 ───────────────────────────────────────────────
 
40
  MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))
41
 
42
- # ── SFT 学習設定 ───────────────────────────────────────────────
43
- SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "8"))
44
- SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4"))
45
- SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3"))
 
 
46
  SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4"))
47
  SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
48
  SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine")
49
  SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
50
  SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
51
- SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "200"))
52
  SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true"
53
 
54
- # ── DPO 学習設定 ───────────────────────────────────────────────
55
- DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "4"))
56
- DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "8"))
57
- DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2"))
 
 
58
  DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5"))
59
  DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
60
  DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine")
61
  DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
62
- DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5"))
63
  DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100"))
64
  DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1"))
65
  DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))
 
13
  HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU")
14
 
15
  # ── ベースモデル ───────────────────────────────────────────────
16
+ # LFM2.5-1.2B-Base を使用
17
+ BASE_MODEL: str = os.environ.get("BASE_MODEL", "LiquidAI/LFM2.5-1.2B-Base")
18
 
19
  # ── データセット ───────────────────────────────────────────────
20
+ # SFT: teememo-sft-validation(本番データが格納されている)
21
+ SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation")
22
  PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")
23
 
24
  # ── 出力先 ─────────────────────────────────────────────────────
25
  SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft")
26
  DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo")
27
+ SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-SFT")
28
+ DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-DPO")
29
+ GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-GGUF")
30
 
31
  # ── LoRA 設定 ─────────────────────────────────────────────────
32
+ # LFM2.5 のアーキテクチャに合わせたターゲットモジュール
33
+ # 参考: https://unsloth.ai/docs/models/tutorials/lfm2.5
34
  LORA_R: int = int(os.environ.get("LORA_R", "32"))
35
  LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨
36
  LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0"))
37
  LORA_TARGET_MODULES: list = [
38
+ # LFM2.5 固有のモジュール(通常の Transformer とは異なる)
39
+ "q_proj", "k_proj", "v_proj", "out_proj", "in_proj",
40
+ "w1", "w2", "w3",
41
  ]
42
 
43
  # ── シーケンス長 ───────────────────────────────────────────────
44
+ # LFM2.5 は最大 32768 トークン対応、SFT データに合わせて 2048 に設定
45
  MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))
46
 
47
+ # ── SFT 学習設定(A100 80GB 最適化)─────────────────────────
48
+ # A100 80GB: LFM2.5-1.2B は bf16 で非常に小さいため大バッチが可能
49
+ # 実効バッチ = SFT_BATCH_SIZE × SFT_GRAD_ACCUM = 32 × 4 = 128
50
+ SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "32"))
51
+ SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4"))
52
+ SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3"))
53
  SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4"))
54
  SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
55
  SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine")
56
  SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
57
  SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
58
+ SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "100"))
59
  SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true"
60
 
61
+ # ── DPO 学習設定(A100 80GB 最適化)─────────────────────────
62
+ # DPO は chosen/rejected の2倍メモリが必要なためバッチサイズを抑える
63
+ # 実効バッチ = DPO_BATCH_SIZE × DPO_GRAD_ACCUM = 8 × 4 = 32
64
+ DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "8"))
65
+ DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "4"))
66
+ DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2"))
67
  DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5"))
68
  DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
69
  DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine")
70
  DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
71
+ DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5"))
72
  DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100"))
73
  DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1"))
74
  DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))