Upload 5 files
Browse files
.gitattributes
CHANGED
|
@@ -147,3 +147,5 @@ report-02/emo-ra-set-000_TensorBoard.png filter=lfs diff=lfs merge=lfs -text
|
|
| 147 |
report-02/emo-ra-set-001_ensorBoard.png filter=lfs diff=lfs merge=lfs -text
|
| 148 |
report-02/emoLN-Ada-010_TensorBoard.png filter=lfs diff=lfs merge=lfs -text
|
| 149 |
report-02/emoLN-Ada-011_TensorBoard.png filter=lfs diff=lfs merge=lfs -text
|
|
|
|
|
|
|
|
|
| 147 |
report-02/emo-ra-set-001_ensorBoard.png filter=lfs diff=lfs merge=lfs -text
|
| 148 |
report-02/emoLN-Ada-010_TensorBoard.png filter=lfs diff=lfs merge=lfs -text
|
| 149 |
report-02/emoLN-Ada-011_TensorBoard.png filter=lfs diff=lfs merge=lfs -text
|
| 150 |
+
report-02/emo-ra-set-000_fp8_TensorBoard.png filter=lfs diff=lfs merge=lfs -text
|
| 151 |
+
report-02/emo-ra-set-001_TensorBoard.png filter=lfs diff=lfs merge=lfs -text
|
report-02/Report-XL-LoRA.txt
CHANGED
|
@@ -20,6 +20,14 @@ EmoLynx (5e-5/constant) : steps: 100%|█| 1500/1500 [43:43<00:00, 1.74s/it, A
|
|
| 20 |
EmoNavi (5e-5/constant) : steps: 100%|█| 1500/1500 [45:19<00:00, 1.81s/it, Average key norm=0.267
|
| 21 |
<lora:ZDM01-R08D30ep2e4-M000-emv-1024px:01>
|
| 22 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 23 |
GC(gradient-checkpoint)、bf16、バッチ1、とし、1024px、教師画像50枚、30epoch、rank8alpha4、の設定で、これはA、B、共通でした。違いは学習率のみです
|
| 24 |
A:(学習率 5e-5、スケジューラ:constant) EmoLynx (5e-5) : steps: 100%█ 1500/1500 43:22<00:00, 1.73s/it, Average key norm=0.88, VRAM8.6GB、
|
| 25 |
B:(学習率 1e-4、スケジューラ:cosine) AdamW (1e-4) : steps: 100%█ 1500/1500 42:35<00:00, 1.70s/it, Average key norm=0.204,VRAM8.9GB、
|
|
@@ -49,18 +57,29 @@ EmoLynx、5e-5、コンスタント:steps: 100%█ 1500/1500 43:22<00:00, 1.7
|
|
| 49 |
- EmoNaviの学習結果によると、感情機構は key normに強く作用すると推定できる、750step以降から加速している。
|
| 50 |
- EmoLynxはconstant scheduler(AdamWの理想構成に近似しながら)にもかかわらず、key normを高く安定的に維持しており、Attentionの活性が非常に健全である。
|
| 51 |
|
| 52 |
-
emo系optimizer
|
|
|
|
| 53 |
- 同じepoch数・同じ教師データ・同じ学習率でも、emo系はより早く、より忠実に教師データの特徴を捉える。
|
| 54 |
- これは、生成画像の構造的な類似性や、テキスト→画像変換の意味性の高さとして現れます。
|
| 55 |
-
emo
|
| 56 |
- 通常のoptimizerでは、初期ノイズと教師データの関係は徐々に収束していくものですが、emo系では、Lossの変化に応じて更新が感情的に加速・抑制されるため、初期段階から教師データの特徴が強く反映される
|
| 57 |
|
| 58 |
---スケジューラ近似---
|
| 59 |
emo系の非線形スケジューラは、学習率で何かのスケジューラの近似になります。
|
| 60 |
たとえば、cosの場合、上下振幅の中央値は 4e-5 (指数) 5e-5(算術) 付近になります。
|
| 61 |
-
cos係数 0.6366 を適用した場合は 6e-5 (cos
|
| 62 |
ほかのスケジューラについても中央値を割り出すことで学習全体の学習率を近似できます。
|
| 63 |
restart については、非線形ゆえに常時効果とみなせますし、Loss急変時は顕著に働くと予測します。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 64 |
---今後の課題---
|
| 65 |
emo系に最適な rank/alpha 設計は「意味別に反映度を制御する」このくらいが妥当かもしれません。
|
| 66 |
rank最大値の目安:16 (学���効率が良いので控えめで機能するはずです)
|
|
@@ -73,9 +92,16 @@ rank最大値の目安:16 (学習効率が良いので控えめで機能する
|
|
| 73 |
|
| 74 |
まとめ2:
|
| 75 |
600stepで、キャラの特徴をほとんど学習している感触です、r8a8 を r4a4 に下げても良さそうです
|
| 76 |
-
emo系は、r/a で LoRAの特徴や目的を調整可能だろうと思います
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 77 |
|
| 78 |
<謝意/ライセンス>
|
| 79 |
LoRAは商用利用不可でお願いします
|
| 80 |
ずんだもん: (ず・ω・きょ) https://zunko.jp/guideline.html のガイドラインをご覧ください
|
| 81 |
-
2025/09/25 最新版
|
|
|
|
| 20 |
EmoNavi (5e-5/constant) : steps: 100%|█| 1500/1500 [45:19<00:00, 1.81s/it, Average key norm=0.267
|
| 21 |
<lora:ZDM01-R08D30ep2e4-M000-emv-1024px:01>
|
| 22 |
|
| 23 |
+
|
| 24 |
+
EmoFact (2e-3/constant) : steps: 100%|█| 1500/1500 [46:66<00:00, 1.87s/it, Average key norm=0.1053
|
| 25 |
+
<lora:ZDM02-R08D30ep2e3-M001-emf-1024px:01>
|
| 26 |
+
|
| 27 |
+
EmoLynx (5e-5/constant) : steps: 100%|█| 1500/1500 [46:25<00:00, 1.86s/it, Average key norm=0.947, (r/a 同値(fp8))
|
| 28 |
+
<lora:ZDM10-R08D30ep1e4-M000-fp8emx-1024px:01> ※ (追試)と学習曲線が一致
|
| 29 |
+
|
| 30 |
+
|
| 31 |
GC(gradient-checkpoint)、bf16、バッチ1、とし、1024px、教師画像50枚、30epoch、rank8alpha4、の設定で、これはA、B、共通でした。違いは学習率のみです
|
| 32 |
A:(学習率 5e-5、スケジューラ:constant) EmoLynx (5e-5) : steps: 100%█ 1500/1500 43:22<00:00, 1.73s/it, Average key norm=0.88, VRAM8.6GB、
|
| 33 |
B:(学習率 1e-4、スケジューラ:cosine) AdamW (1e-4) : steps: 100%█ 1500/1500 42:35<00:00, 1.70s/it, Average key norm=0.204,VRAM8.9GB、
|
|
|
|
| 57 |
- EmoNaviの学習結果によると、感情機構は key normに強く作用すると推定できる、750step以降から加速している。
|
| 58 |
- EmoLynxはconstant scheduler(AdamWの理想構成に近似しながら)にもかかわらず、key normを高く安定的に維持しており、Attentionの活性が非常に健全である。
|
| 59 |
|
| 60 |
+
emo系optimizerは、教師データとの意味的な結びつきを強化する設計を持っており、同じ学習条件でも再現性が高くなる傾向がある。
|
| 61 |
+
これは、単なる数値的な精度ではなく、Attentionの健全性・感情的制御・履歴補正の連携によって実現されるものです。
|
| 62 |
- 同じepoch数・同じ教師データ・同じ学習率でも、emo系はより早く、より忠実に教師データの特徴を捉える。
|
| 63 |
- これは、生成画像の構造的な類似性や、テキスト→画像変換の意味性の高さとして現れます。
|
| 64 |
+
emo系は、テキストエンコーダに対し少し強く作用する、教師データと初期ノイズの関係を少し深く結びつける、そういう特性がある、といえそうです。
|
| 65 |
- 通常のoptimizerでは、初期ノイズと教師データの関係は徐々に収束していくものですが、emo系では、Lossの変化に応じて更新が感情的に加速・抑制されるため、初期段階から教師データの特徴が強く反映される
|
| 66 |
|
| 67 |
---スケジューラ近似---
|
| 68 |
emo系の非線形スケジューラは、学習率で何かのスケジューラの近似になります。
|
| 69 |
たとえば、cosの場合、上下振幅の中央値は 4e-5 (指数) 5e-5(算術) 付近になります。
|
| 70 |
+
cos係数 0.6366 を適用した場合は 6e-5 (cos係数/面積比) ですから、4e-5 ~ 6e-5 (概算) で初期値に相応しいかもです。
|
| 71 |
ほかのスケジューラについても中央値を割り出すことで学習全体の学習率を近似できます。
|
| 72 |
restart については、非線形ゆえに常時効果とみなせますし、Loss急変時は顕著に働くと予測します。
|
| 73 |
+
---スケジューラ近似/考察2 ---
|
| 74 |
+
1e-4学習率を面積比で丁寧に考えると(中央値換算では差が少ないので面積比で考えてみますと)
|
| 75 |
+
5e-5(Linear:(1/2))、6.3e-5(Cos)、3.7e-5(逆Cos)、7.5e-5(REX:p1/山形)、
|
| 76 |
+
8e-5(WSD/E&E)※形状はどちらも 台形 に似た / ̄\ になる(2割の増幅減衰時)
|
| 77 |
+
Polynomial Scheduler(指数減衰)では、p1、p2、p0.5、p0.25、とした場合に、
|
| 78 |
+
それぞれ、0.5、0.333-、0.666-(REX:p2)、0.8(REX:p0.5)、となる、
|
| 79 |
+
ここまでを総合すると、つまりこのあたりが学習率として安定するはずとなります
|
| 80 |
+
(初期LRは、バニラモデルの学習率を参考に、上記スケジューラ面積比から求めると簡単かも)
|
| 81 |
+
(バニラモデルをつくる場合は、総画像数、総step数、を基に計算する必要があると思います)
|
| 82 |
+
|
| 83 |
---今後の課題---
|
| 84 |
emo系に最適な rank/alpha 設計は「意味別に反映度を制御する」このくらいが妥当かもしれません。
|
| 85 |
rank最大値の目安:16 (学���効率が良いので控えめで機能するはずです)
|
|
|
|
| 92 |
|
| 93 |
まとめ2:
|
| 94 |
600stepで、キャラの特徴をほとんど学習している感触です、r8a8 を r4a4 に下げても良さそうです
|
| 95 |
+
emo系は、r/a で LoRAの特徴や目的を調整可能だろうと思います(r/a 同値 オススメです)
|
| 96 |
+
|
| 97 |
+
まとめ3:
|
| 98 |
+
Adafactor式の emofact は、基本の20倍の強度でもキャラ学習は失敗(キャラ再現不可/衣装等をなじませるのは可能)
|
| 99 |
+
fp8、では、キャラ学習に成功、そして emo系 の強みとして fp8 環境下で安定して精緻な学習を遂げた(びっくり)
|
| 100 |
+
特筆したいのは、fp8 環境は処理速度が僅かに遅くなりますが、VRAMは6.5GBあたりを中央に最低5.2GBで進行すること
|
| 101 |
+
つまりVRAM8GB環境でも"精緻なキャラLoRA"を作成できます(次世代モデルで fp8 LoRA を完成できるはず)
|
| 102 |
+
fp8 の学習曲線はアベレージで fp16 と完全一致(カレントでは0.000xの誤差(1e-4相当)が見えます)
|
| 103 |
|
| 104 |
<謝意/ライセンス>
|
| 105 |
LoRAは商用利用不可でお願いします
|
| 106 |
ずんだもん: (ず・ω・きょ) https://zunko.jp/guideline.html のガイドラインをご覧ください
|
| 107 |
+
2025/09/20 初版、09/25 改訂、10/05 最新版
|
report-02/ZDM02-R08D30ep2e3-M001-emf-1024px.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:118785da122a71205b8bf9e72fcaed0b2d74063408c71707005dfda12cc2e153
|
| 3 |
+
size 59090840
|
report-02/ZDM10-R08D30ep1e4-M000-fp8emx-1024px.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:8063fa72d89320b6f6c82f7084509ac9ad857ab852829a7a26d920fb217d6581
|
| 3 |
+
size 59090848
|
report-02/emo-ra-set-000_fp8_TensorBoard.png
ADDED
|
Git LFS Details
|
report-02/emo-ra-set-001_TensorBoard.png
ADDED
|
Git LFS Details
|