muooon commited on
Commit
b314aaf
·
verified ·
1 Parent(s): 334852f

Delete 2Gv38_FFT_Aware

Browse files
2Gv38_FFT_Aware/emoairyfft.py DELETED
@@ -1,192 +0,0 @@
1
- import torch
2
- from torch.optim import Optimizer
3
- import math
4
-
5
- """
6
- EmoAiry v3.8.3+ (260216) Standard Edition FFT適応版(CPU-GPUデータ転送対応)
7
- shadow-system v3.1 -moment v3.1 emoPulse v3.8 FFT-Swap-Aware
8
- これまでの emo系 のすべて、emo系 v3.7 を継承し、早期停止関連の効率化やコード修正等を実施
9
- EmoAiry v3.8.1 (260201) shadow-system v3.1 -moment v3.1 emoPulse v3.7
10
- emoPulse 機構により完全自動化を目指す(ユーザーによる emoScope 調整可/改善度反映率)
11
- emoScorp、emoPulse、についてアグレッシブな更新にも耐えられるように調整し安全性を向上
12
- ### 残念なことに FFT適応 のため中間テンソル(コピー) を生じることで軽量ではなくなります ###
13
- ### これは cuFFT 等で「複素数バッファ」などの厳格なデータ配置の要求により生じる仕様です ###
14
- """
15
-
16
- class EmoAiryFFT(Optimizer):
17
- # クラス定義&初期化
18
- def __init__(self, params,
19
- lr=1.0,
20
- eps=1e-8,
21
- betas=(0.9, 0.995),
22
- weight_decay=0.01,
23
- use_shadow:bool=False):
24
- defaults = dict(lr=lr, betas=betas, eps=eps, weight_decay=weight_decay)
25
- super().__init__(params, defaults)
26
- self._init_lr = lr
27
- self.should_stop = False # 停止フラグの初期化
28
- self.use_shadow = use_shadow # 🔸shadow 使用フラグを保存
29
- self.emoScope = lr # 動的学習率の調和とリズム
30
- self.dNR_hist = 1.0 # emoPulse hist 初期化
31
- self.noise_est = 1.0 # emoPulse nest 初期化
32
- self.d_est = 0.02 # emoPulse dest 初期化
33
-
34
- # 感情EMA更新(緊張と安静)
35
- def _update_ema(self, state, loss_val):
36
- ema = state.setdefault('ema', {})
37
- ema['short'] = 0.3 * loss_val + 0.7 * ema.get('short', loss_val)
38
- ema['medium'] = 0.05 * loss_val + 0.95 * ema.get('medium', loss_val)
39
- ema['long'] = 0.01 * loss_val + 0.99 * ema.get('long', loss_val)
40
- return ema
41
-
42
- # 感情スカラー値生成(EMA差分、滑らかな非線形スカラー、tanh(diff) は ±1.0 で有界性)
43
- # 係数"1":ema差分 のスケール調整処理に活用(感度調節係数)/通常は1(タスクに応じ調整可(非推奨))
44
- # scale_base:Loss値とema値の乖離を修正(分母 ema(long) 「改善率」共通化/loss種に非依存)
45
- # 1e-5(デフォルト)/1e-6(感度向上)/1e-4(安定性向上):分母を0にせず安定させる
46
- # トラウマ的反応や慣れによる鈍化で安定性向上(ema-medium 安定と急変を信頼度で感知)
47
- def _compute_scalar(self, ema):
48
- scale_base_l = max(ema['long'], 1e-5)
49
- scale_base_m = max(ema['medium'], 1e-5)
50
- diff_base = ema['long'] - ema['short']
51
- diff_l = diff_base / scale_base_l
52
- diff_m = diff_base / scale_base_m
53
- # longが十分静かなら、常にlongを優先
54
- if abs(diff_l) < 0.05:
55
- return math.tanh(diff_l)
56
- # longが静かでない時のみ、mediumの静けさを条件付きで採用
57
- if abs(diff_m) * scale_base_m < abs(diff_l) * scale_base_l:
58
- return math.tanh(diff_m)
59
- else:
60
- return math.tanh(diff_l)
61
-
62
- # (重要)現在は shadow-effect を参考に得た動的フィルタ効果の近似により use_shadow=False です
63
- # しかし全機能は shadow なしで全て成立します/コード確認時はこの shadow を考慮外として無視してください
64
- # Shadow混合比 3段階構成 タスクに応じ調整可、以下を参考に 開始値・範囲量・変化幅を調整
65
- # return 開始値 + ((scalar) - 閾値) / 範囲量 * 変化幅 も可能(特殊用途向け)
66
- def _decide_ratio(self, scalar):
67
- if not self.use_shadow:
68
- return 0.0 # 🔸use_shadow = False のとき常に比率を 0 にする
69
- if abs(scalar) > 0.625:
70
- return 1.0 - abs(scalar) # 急変|強抑制|tanh 0.73(0.27)
71
- else:
72
- return 0.0 # return<0 の場合は leap 専用(書き戻しはしないが履歴更新のみ)
73
-
74
- # 損失取得(損失値 loss_val を数値化、感情判定に使用、存在しないパラメータ(更新不要)はスキップ)
75
- @torch.no_grad()
76
- def step(self, closure=None):
77
- loss = closure() if closure is not None else None
78
- loss_val = loss.item() if loss is not None else 0.0
79
-
80
- # EMA更新・スカラー生成(EMA差分からスカラーを生成しスパイク比率等を決定)
81
- ema = self._update_ema(self.state, loss_val)
82
- scalar = self._compute_scalar(ema)
83
- ratio = self._decide_ratio(scalar)
84
- trust = math.copysign((1.0 - abs(scalar)), scalar)
85
-
86
- # --- Start emoPulse (完全自動LR生成) ---
87
- # emoPulse (loss 時系列から D / Noise を推定し完全自動LRを生成)
88
- # d / N 履歴 (時間的D推定)
89
- self.noise_est = 0.97 * self.noise_est + 0.03 * abs(scalar)
90
- self.d_est = 0.97 * self.d_est + 0.03 * abs(trust)
91
- noise = max(self.noise_est, 1e-10) # max:1e-12程度(変更後:要アーリーストップ見直し)
92
- d = self.d_est
93
- # scalar、trust、の差分(瞬間的D推定)と各時間軸の確度推定(疑念と信頼の綱引き)
94
- Noise_base = abs(scalar - trust) + 0.1
95
- d_base = abs(noise - d) + 0.1
96
- # SNRにより異なる時間的確度比率から更新力を導出し2乗で出力最大化
97
- dNR_now_val = (d_base / Noise_base) ** 2
98
- # db / Nb dNR(SNR) 履歴化と最大値の成長率の増減
99
- if dNR_now_val >= self.dNR_hist and trust >= 0.5:
100
- # 加速:どんなに SNR が高くても、1.50倍という「歩幅」の成長制限
101
- self.dNR_hist = min(dNR_now_val, self.dNR_hist * 1.50)
102
- elif -0.5 <= trust <= 0.5:
103
- # 減速:怪しい時は即座に比率を下げる(確実に信頼できない場合に下げ圧力を溜める)
104
- self.dNR_hist = dNR_now_val * 0.80
105
- # emoPulse 最終決定: emoScorp によるユーザー意思の反映と安全値による制限
106
- emoPulse = float(max(min(self.dNR_hist * (self.emoScope * 1e-5), 3e-4), 1e-8))
107
- # --- End emoPulse (完全自動LR生成) ---
108
-
109
- for group in self.param_groups:
110
- beta1, beta2 = group['betas']
111
- for p in group['params']:
112
- if p.grad is None:
113
- continue
114
-
115
- grad = p.grad
116
- state = self.state[p]
117
-
118
- # 動的学習率補正により shadow 形成を信頼度で調整(trustは正値化(負にならない))
119
- # shadow:必要時のみ(スパイクp部分に現在値を最大10%追従させる動的履歴更新)
120
- # 混合比率:スカラーが閾値を超える場合にのみ計算される(信頼できる感情信号かどうかの選別)
121
- # 急変時は感情機構による shadow 混合で強く抑制する(急制動による安定性の確保)
122
- # 新 shadow-system は動的学習率と信頼度で協調し選択的スパース性も発揮する
123
- if self.use_shadow :
124
- if 'shadow' not in state: # 🔸shadow = False (デフォルト)
125
- state['shadow'] = p.clone()
126
- if ratio > 0: # 書き戻しと履歴更新(急変時の強い抑制と弱めの履歴更新)
127
- p.mul_(1-ratio).add_(state['shadow'], alpha=abs(trust))
128
- else: # 書き戻しせず履歴更新のみ:10%×trust
129
- leap_ratio = 0.1 * abs(trust)
130
- state['shadow'].lerp_(p, leap_ratio)
131
-
132
- # --- Start Gradient Update Logic ---
133
- # 行列の形状が2次元以上の場合、分散情報ベースのAB近似を使用
134
- if grad.dim() >= 2:
135
- # 行と列の2乗平均を計算 (分散の軽量な近似)
136
- r_sq = grad.pow(2).mean(dim=tuple(range(1, grad.dim())), keepdim=True)
137
- c_sq = grad.pow(2).mean(dim=0, keepdim=True)
138
-
139
- # 分散情報から勾配の近似行列を生成
140
- # AB行列として見立てたものを直接生成し更新項を計算する
141
- # A = sqrt(r_sq), B = sqrt(c_sq) AB行列近似を再現し履歴化で平滑化する
142
- if 'exp_avg_r' not in state:
143
- exp_avg_r = state.setdefault('exp_avg_r', torch.zeros_like(r_sq))
144
- exp_avg_c = state.setdefault('exp_avg_c', torch.zeros_like(c_sq))
145
-
146
- exp_avg_r = state['exp_avg_r']
147
- exp_avg_c = state['exp_avg_c']
148
- # 指数移動平均の更新
149
- exp_avg_r.mul_(beta2).add_(r_sq.to(exp_avg_r.device), alpha=1 - beta2)
150
- exp_avg_c.mul_(beta2).add_(c_sq.to(exp_avg_c.device), alpha=1 - beta2)
151
- # 再構築した近似勾配の平方根の積で正規化
152
- denom = torch.sqrt(exp_avg_r * exp_avg_c).add_(group['eps'])
153
- # 最終的な更新項を計算
154
- update_term = grad.to(denom.device) / denom
155
-
156
- # 1次元(ベクトル)の勾配補正
157
- else:
158
- if 'exp_avg' not in state:
159
- exp_avg_sq = state.setdefault('exp_avg_sq', torch.zeros_like(p))
160
- exp_avg_sq = state['exp_avg_sq']
161
- exp_avg_sq.mul_(beta2).addcmul_(grad.to(exp_avg_sq.device), grad.to(exp_avg_sq.device), value=1 - beta2)
162
- denom = exp_avg_sq.sqrt().add_(group['eps'])
163
- # 最終的な更新項を計算
164
- update_term = grad.to(denom.device) / denom
165
-
166
- # 最終的なパラメータ更新 (decoupled weight decayも適用)
167
- # sign化で2次momentと1次ベクトルのデータの質(粒度)を揃える
168
- p.mul_(1.0 - group['weight_decay'] * emoPulse)
169
- p.add_(update_term.to(p.device).sign_(), alpha=-emoPulse)
170
- # --- End Gradient Update Logic ---
171
-
172
- # ユーザー指定初期LRを実効値(emoPulse)で可視化する(PyTorch標準)
173
- for group in self.param_groups:
174
- group['lr'] = emoPulse
175
-
176
- # 感情機構の穏やかさ"安定状態"を外部伝達する(自動停止ではない)
177
- # Early Stop:瞬間値と33step分の履歴の差分で True にするだけ
178
- # 誤判定防止をしないのは点灯頻度で停止準備(予兆)にするため
179
- if abs(scalar) <= 5e-6 and abs(Noise_base - d_base) <= 5e-7:
180
- if not self.should_stop:
181
- self.emoScope = 1.0 # ユーザー意思を目的の収束へ整える
182
- self.should_stop = True # 💡 外部からこれを見て判断可
183
- else:
184
- self.should_stop = False # 💡 誤判定などの取り消し
185
-
186
- return
187
-
188
- """
189
- https://github.com/muooon/EmoSens
190
- Airy is inspired by Adafactor, and emofact,
191
- and its VRAM-friendly design is something everyone loves.
192
- """
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2Gv38_FFT_Aware/emocatsfft.py DELETED
@@ -1,167 +0,0 @@
1
- import torch
2
- from torch.optim import Optimizer
3
- import math
4
-
5
- """
6
- EmoCats v3.8.3+ (260216) Standard Edition FFT適応版(CPU-GPUデータ転送対応)
7
- shadow-system v3.1 -moment v3.1 emoPulse v3.8 FFT-Swap-Aware
8
- これまでの emo系 のすべて、emo系 v3.7 を継承し、早期停止関連の効率化やコード修正等を実施
9
- EmoAiry v3.8.1 (260201) shadow-system v3.1 -moment v3.1 emoPulse v3.7
10
- emoPulse 機構により完全自動化を目指す(ユーザーによる emoScope 調整可/改善度反映率)
11
- emoScorp、emoPulse、についてアグレッシブな更新にも耐えられるように調整し安全性を向上
12
- ### 残念なことに FFT適応 のため中間テンソル(コピー) を生じることで軽量ではなくなります ###
13
- ### これは cuFFT 等で「複素数バッファ」などの厳格なデータ配置の要求により生じる仕様です ###
14
- """
15
-
16
- class EmoCatsFFT(Optimizer):
17
- # クラス定義&初期化
18
- def __init__(self, params,
19
- lr=1.0,
20
- eps=1e-8,
21
- betas=(0.9, 0.995),
22
- weight_decay=0.01,
23
- use_shadow:bool=False):
24
- defaults = dict(lr=lr, betas=betas, eps=eps, weight_decay=weight_decay)
25
- super().__init__(params, defaults)
26
- self._init_lr = lr
27
- self.should_stop = False # 停止フラグの初期化
28
- self.use_shadow = use_shadow # 🔸shadow 使用フラグを保存
29
- self.emoScope = lr # 動的学習率の調和とリズム
30
- self.dNR_hist = 1.0 # emoPulse hist 初期化
31
- self.noise_est = 1.0 # emoPulse nest 初期化
32
- self.d_est = 0.02 # emoPulse dest 初期化
33
-
34
- # 感情EMA更新(緊張と安静)
35
- def _update_ema(self, state, loss_val):
36
- ema = state.setdefault('ema', {})
37
- ema['short'] = 0.3 * loss_val + 0.7 * ema.get('short', loss_val)
38
- ema['medium'] = 0.05 * loss_val + 0.95 * ema.get('medium', loss_val)
39
- ema['long'] = 0.01 * loss_val + 0.99 * ema.get('long', loss_val)
40
- return ema
41
-
42
- # 感情スカラー値生成(EMA差分、滑らかな非線形スカラー、tanh(diff) は ±1.0 で有界性)
43
- # 係数"1":ema差分 のスケール調整処理に活用(感度調節係数)/通常は1(タスクに応じ調整可(非推奨))
44
- # scale_base:Loss値とema値の乖離を修正(分母 ema(long) 「改善率」共通化/loss種に非依存)
45
- # 1e-5(デフォルト)/1e-6(感度向上)/1e-4(安定性向上):分母を0にせず安定させる
46
- # トラウマ的反応や慣れによる鈍化で安定性向上(ema-medium 安定と急変を信頼度で感知)
47
- def _compute_scalar(self, ema):
48
- scale_base_l = max(ema['long'], 1e-5)
49
- scale_base_m = max(ema['medium'], 1e-5)
50
- diff_base = ema['long'] - ema['short']
51
- diff_l = diff_base / scale_base_l
52
- diff_m = diff_base / scale_base_m
53
- # longが十分静かなら、常にlongを優先
54
- if abs(diff_l) < 0.05:
55
- return math.tanh(diff_l)
56
- # longが静かでない時のみ、mediumの静けさを条件付きで採用
57
- if abs(diff_m) * scale_base_m < abs(diff_l) * scale_base_l:
58
- return math.tanh(diff_m)
59
- else:
60
- return math.tanh(diff_l)
61
-
62
- # (重要)現在は shadow-effect を参考に得た動的フィルタ効果の近似により use_shadow=False です
63
- # しかし全機能は shadow なしで全て成立します/コード確認時はこの shadow を考慮外として無視してください
64
- # Shadow混合比 3段階構成 タスクに応じ調整可、以下を参考に 開始値・範囲量・変化幅を調整
65
- # return 開始値 + ((scalar) - 閾値) / 範囲量 * 変化幅 も可能(特殊用途向け)
66
- def _decide_ratio(self, scalar):
67
- if not self.use_shadow:
68
- return 0.0 # 🔸use_shadow = False のとき常に比率を 0 にする
69
- if abs(scalar) > 0.625:
70
- return 1.0 - abs(scalar) # 急変|強抑制|tanh 0.73(0.27)
71
- else:
72
- return 0.0 # return<0 の場合は leap 専用(書き戻しはしないが履歴更新のみ)
73
-
74
- # 損失取得(損失値 loss_val を数値化、感情判定に使用、存在しないパラメータ(更新不要)はスキップ)
75
- @torch.no_grad()
76
- def step(self, closure=None):
77
- loss = torch.enable_grad()(closure)() if closure is not None else None
78
- loss_val = loss.item() if loss is not None else 0.0
79
-
80
- # EMA更新・スカラー生成(EMA差分からスカラーを生成しスパイク比率等を決定)
81
- ema = self._update_ema(self.state, loss_val)
82
- scalar = self._compute_scalar(ema)
83
- ratio = self._decide_ratio(scalar)
84
- trust = math.copysign((1.0 - abs(scalar)), scalar)
85
-
86
- # --- Start emoPulse (完全自動LR生成) ---
87
- # emoPulse (loss 時系列から D / Noise を推定し完全自動LRを生成)
88
- # d / N 履歴 (時間的D推定)
89
- self.noise_est = 0.97 * self.noise_est + 0.03 * abs(scalar)
90
- self.d_est = 0.97 * self.d_est + 0.03 * abs(trust)
91
- noise = max(self.noise_est, 1e-10) # max:1e-12程度(変更後:要アーリーストップ見直し)
92
- d = self.d_est
93
- # scalar、trust、の差分(瞬間的D推定)と各時間軸の確度推定(疑念と信頼の綱引き)
94
- Noise_base = abs(scalar - trust) + 0.1
95
- d_base = abs(noise - d) + 0.1
96
- # SNRにより異なる時間的確度比率から更新力を導出し2乗で出力最大化
97
- dNR_now_val = (d_base / Noise_base) ** 2
98
- # db / Nb dNR(SNR) 履歴化と最大値の成長率の増減
99
- if dNR_now_val >= self.dNR_hist and trust >= 0.5:
100
- # 加速:どんなに SNR が高くても、1.50倍という「歩幅」の成長制限
101
- self.dNR_hist = min(dNR_now_val, self.dNR_hist * 1.50)
102
- elif -0.5 <= trust <= 0.5:
103
- # 減速:怪しい時は即座に比率を下げる(確実に信頼できない場合に下げ圧力を溜める)
104
- self.dNR_hist = dNR_now_val * 0.80
105
- # emoPulse 最終決定: emoScorp によるユーザー意思の反映と安全値による制限
106
- emoPulse = float(max(min(self.dNR_hist * (self.emoScope * 1e-5), 3e-4), 1e-8))
107
- # --- End emoPulse (完全自動LR生成) ---
108
-
109
- for group in self.param_groups:
110
- beta1, beta2 = group['betas']
111
- for p in (p for p in group['params'] if p.grad is not None):
112
-
113
- grad = p.grad
114
- state = self.state[p]
115
-
116
- # 動的学習率補正により shadow 形成を信頼度で調整(trustは正値化(負にならない))
117
- # shadow:必要時のみ(スパイクp部分に現在値を最大10%追従させる動的履歴更新)
118
- # 混合比率:スカラーが閾値を超える場合にのみ計算される(信頼できる感情信号かどうかの選別)
119
- # 急変時は感情機構による shadow 混合で強く抑制する(急制動による安定性の確保)
120
- # 新 shadow-system は動的学習率と信頼度で協調し選択的スパース性も発揮する
121
- if self.use_shadow :
122
- if 'shadow' not in state: # 🔸shadow = False (デフォルト)
123
- state['shadow'] = p.clone()
124
- if ratio > 0: # 書き戻しと履歴更新(急変時の強い抑制と弱めの履歴更新)
125
- p.mul_(1-ratio).add_(state['shadow'], alpha=abs(trust))
126
- else: # 書き戻しせず履歴更新のみ:10%×trust
127
- leap_ratio = 0.1 * abs(trust)
128
- state['shadow'].lerp_(p, leap_ratio)
129
-
130
- # --- Start Gradient Update Logic ---
131
- # exp_avg初期化
132
- if 'exp_avg' not in state:
133
- state['exp_avg'] = torch.zeros_like(p)
134
- exp_avg = state['exp_avg']
135
-
136
- # decoupled weight decay
137
- p.mul_(1.0 - group['weight_decay'] * emoPulse)
138
-
139
- # 勾配ブレンド
140
- blended_grad = grad.to(exp_avg.device).mul(1 - beta1).add(exp_avg, alpha=beta1)
141
-
142
- # 最終的なパラメータ更新
143
- p.add_(blended_grad.to(p.device).sign_(), alpha = -emoPulse)
144
- exp_avg.mul_(beta2).add_(grad.to(exp_avg.device), alpha = 1 - beta2)
145
- # --- End Gradient Update Logic ---
146
-
147
- # ユーザー指定初期LRを実効値(emoPulse)で可視化する(PyTorch標準)
148
- for group in self.param_groups:
149
- group['lr'] = emoPulse
150
-
151
- # 感情機構の穏やかさ"安定状態"を外部伝達する(自動停止ではない)
152
- # Early Stop:瞬間値と33step分の履歴の差分で True にするだけ
153
- # 誤判定防止をしないのは点灯頻度で停止準備(予兆)にするため
154
- if abs(scalar) <= 5e-6 and abs(Noise_base - d_base) <= 5e-7:
155
- if not self.should_stop:
156
- self.emoScope = 1.0 # ユーザー意思を目的の収束へ整える
157
- self.should_stop = True # 💡 外部からこれを見て判断可
158
- else:
159
- self.should_stop = False # 💡 誤判定などの取り消し
160
-
161
- return
162
-
163
- """
164
- https://github.com/muooon/EmoSens
165
- Cats was developed with inspiration from Lion, Tiger, and emolynx,
166
- which we deeply respect for their lightweight and intelligent design.
167
- """
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2Gv38_FFT_Aware/emosensfft.py DELETED
@@ -1,171 +0,0 @@
1
- import torch
2
- from torch.optim import Optimizer
3
- import math
4
-
5
- """
6
- EmoSens v3.8.3+ (260216) Standard Edition FFT適応版(CPU-GPUデータ転送対応)
7
- shadow-system v3.1 -moment v3.1 emoPulse v3.8 FFT-Swap-Aware
8
- これまでの emo系 のすべて、emo系 v3.7 を継承し、早期停止関連の効率化やコード修正等を実施
9
- EmoAiry v3.8.1 (260201) shadow-system v3.1 -moment v3.1 emoPulse v3.7
10
- emoPulse 機構により完全自動化を目指す(ユーザーによる emoScope 調整可/改善度反映率)
11
- emoScorp、emoPulse、についてアグレッシブな更新にも耐えられるように調整し安全性を向上
12
- ### 残念なことに FFT適応 のため中間テンソル(コピー) を生じることで軽量ではなくなります ###
13
- ### これは cuFFT 等で「複素数バッファ」などの厳格なデータ配置の要求により生じる仕様です ###
14
- """
15
-
16
- class EmoSensFFT(Optimizer):
17
- # クラス定義&初期化
18
- def __init__(self, params,
19
- lr=1.0,
20
- eps=1e-8,
21
- betas=(0.9, 0.995),
22
- weight_decay=0.01,
23
- use_shadow:bool=False):
24
- defaults = dict(lr=lr, betas=betas, eps=eps, weight_decay=weight_decay)
25
- super().__init__(params, defaults)
26
- self._init_lr = lr
27
- self.should_stop = False # 停止フラグの初期化
28
- self.use_shadow = use_shadow # 🔸shadow 使用フラグを保存
29
- self.emoScope = lr # 動的学習率の調和とリズム
30
- self.dNR_hist = 1.0 # emoPulse hist 初期化
31
- self.noise_est = 1.0 # emoPulse nest 初期化
32
- self.d_est = 0.02 # emoPulse dest 初期化
33
-
34
- # 感情EMA更新(緊張と安静)
35
- def _update_ema(self, state, loss_val):
36
- ema = state.setdefault('ema', {})
37
- ema['short'] = 0.3 * loss_val + 0.7 * ema.get('short', loss_val)
38
- ema['medium'] = 0.05 * loss_val + 0.95 * ema.get('medium', loss_val)
39
- ema['long'] = 0.01 * loss_val + 0.99 * ema.get('long', loss_val)
40
- return ema
41
-
42
- # 感情スカラー値生成(EMA差分、滑らかな非線形スカラー、tanh(diff) は ±1.0 で有界性)
43
- # 係数"1":ema差分 のスケール調整処理に活用(感度調節係数)/通常は1(タスクに応じ調整可(非推奨))
44
- # scale_base:Loss値とema値の乖離を修正(分母 ema(long) 「改善率」共通化/loss種に非依存)
45
- # 1e-5(デフォルト)/1e-6(感度向上)/1e-4(安定性向上):分母を0にせず安定させる
46
- # トラウマ的反応や慣れによる鈍化で安定性向上(ema-medium 安定と急変を信頼度で感知)
47
- def _compute_scalar(self, ema):
48
- scale_base_l = max(ema['long'], 1e-5)
49
- scale_base_m = max(ema['medium'], 1e-5)
50
- diff_base = ema['long'] - ema['short']
51
- diff_l = diff_base / scale_base_l
52
- diff_m = diff_base / scale_base_m
53
- # longが十分静かなら、常にlongを優先
54
- if abs(diff_l) < 0.05:
55
- return math.tanh(diff_l)
56
- # longが静かでない時のみ、mediumの静けさを条件付きで採用
57
- if abs(diff_m) * scale_base_m < abs(diff_l) * scale_base_l:
58
- return math.tanh(diff_m)
59
- else:
60
- return math.tanh(diff_l)
61
-
62
- # (重要)現在は shadow-effect を参考に得た動的フィルタ効果の近似により use_shadow=False です
63
- # しかし全機能は shadow なしで全て成立します/コード確認時はこの shadow を考慮外として無視してください
64
- # Shadow混合比 3段階構成 タスクに応じ調整可、以下を参考に 開始値・範囲量・変化幅を調整
65
- # return 開始値 + ((scalar) - 閾値) / 範囲量 * 変化幅 も可能(特殊用途向け)
66
- def _decide_ratio(self, scalar):
67
- if not self.use_shadow:
68
- return 0.0 # 🔸use_shadow = False のとき常に比率を 0 にする
69
- if abs(scalar) > 0.625:
70
- return 1.0 - abs(scalar) # 急変|強抑制|tanh 0.73(0.27)
71
- else:
72
- return 0.0 # return<0 の場合は leap 専用(書き戻しはしないが履歴更新のみ)
73
-
74
- # 損失取得(損失値 loss_val を数値化、感情判定に使用、存在しないパラメータ(更新不要)はスキップ)
75
- @torch.no_grad()
76
- def step(self, closure=None):
77
- loss = closure() if closure is not None else None
78
- loss_val = loss.item() if loss is not None else 0.0
79
-
80
- # EMA更新・スカラー生成(EMA差分からスカラーを生成しスパイク比率等を決定)
81
- ema = self._update_ema(self.state, loss_val)
82
- scalar = self._compute_scalar(ema)
83
- ratio = self._decide_ratio(scalar)
84
- trust = math.copysign((1.0 - abs(scalar)), scalar)
85
-
86
- # --- Start emoPulse (完全自動LR生成) ---
87
- # emoPulse (loss 時系列���ら D / Noise を推定し完全自動LRを生成)
88
- # d / N 履歴 (時間的D推定)
89
- self.noise_est = 0.97 * self.noise_est + 0.03 * abs(scalar)
90
- self.d_est = 0.97 * self.d_est + 0.03 * abs(trust)
91
- noise = max(self.noise_est, 1e-10) # max:1e-12程度(変更後:要アーリーストップ見直し)
92
- d = self.d_est
93
- # scalar、trust、の差分(瞬間的D推定)と各時間軸の確度推定(疑念と信頼の綱引き)
94
- Noise_base = abs(scalar - trust) + 0.1
95
- d_base = abs(noise - d) + 0.1
96
- # SNRにより異なる時間的確度比率から更新力を導出し2乗で出力最大化
97
- dNR_now_val = (d_base / Noise_base) ** 2
98
- # db / Nb dNR(SNR) 履歴化と最大値の成長率の増減
99
- if dNR_now_val >= self.dNR_hist and trust >= 0.5:
100
- # 加速:どんなに SNR が高くても、1.50倍という「歩幅」の成長制限
101
- self.dNR_hist = min(dNR_now_val, self.dNR_hist * 1.50)
102
- elif -0.5 <= trust <= 0.5:
103
- # 減速:怪しい時は即座に比率を下げる(確実に信頼できない場合に下げ圧力を溜める)
104
- self.dNR_hist = dNR_now_val * 0.80
105
- # emoPulse 最終決定: emoScorp によるユーザー意思の反映と安全値による制限
106
- emoPulse = float(max(min(self.dNR_hist * (self.emoScope * 1e-5), 3e-4), 1e-8))
107
- # --- End emoPulse (完全自動LR生成) ---
108
-
109
- for group in self.param_groups:
110
- beta1, beta2 = group['betas']
111
- for p in group['params']:
112
- if p.grad is None:
113
- continue
114
-
115
- grad = p.grad
116
- state = self.state[p]
117
-
118
- # 動的学習率補正により shadow 形成を信頼度で調整(trustは正値化(負にならない))
119
- # shadow:必要時のみ(スパイクp部分に現在値を最大10%追従させる動的履歴更新)
120
- # 混合比率:スカラーが閾値を超える場合にのみ計算される(信頼できる感情信号かどうかの選別)
121
- # 急変時は感情機構による shadow 混合で強く抑制する(急制動による安定性の確保)
122
- # 新 shadow-system は動的学習率と信頼度で協調し選択的スパース性も発揮する
123
- if self.use_shadow :
124
- if 'shadow' not in state: # 🔸shadow = False (デフォルト)
125
- state['shadow'] = p.clone()
126
- if ratio > 0: # 書き戻しと履歴更新(急変時の強い抑制と弱めの履歴更新)
127
- p.mul_(1-ratio).add_(state['shadow'], alpha=abs(trust))
128
- else: # 書き戻しせず履歴更新のみ:10%×trust
129
- leap_ratio = 0.1 * abs(trust)
130
- state['shadow'].lerp_(p, leap_ratio)
131
-
132
- # --- Start Gradient Update Logic ---
133
- # 1次・2次モーメントを使った勾配補正(decoupled weight decay)
134
- if 'exp_avg' not in state:
135
- exp_avg = state.setdefault('exp_avg', torch.zeros_like(p))
136
- exp_avg_sq = state.setdefault('exp_avg_sq', torch.zeros_like(p))
137
-
138
- exp_avg = state['exp_avg']
139
- exp_avg_sq = state['exp_avg_sq']
140
-
141
- exp_avg.mul_(beta1).add_(grad.to(exp_avg.device), alpha=1 - beta1)
142
- exp_avg_sq.mul_(beta2).addcmul_(grad.to(exp_avg_sq.device), grad.to(exp_avg_sq.device), value=1 - beta2)
143
-
144
- denom = exp_avg_sq.sqrt().add_(group['eps'])
145
-
146
- if group['weight_decay']:
147
- p.mul_(1.0 - group['weight_decay'] * emoPulse)
148
- p.addcdiv_(exp_avg.to(p.device), denom.to(p.device), value=-emoPulse)
149
- # --- End Gradient Update Logic ---
150
-
151
- # ユーザー指定初期LRを実効値(emoPulse)で可視化する(PyTorch標準)
152
- for group in self.param_groups:
153
- group['lr'] = emoPulse
154
-
155
- # 感情機構の穏やかさ"安定状態"を外部伝達する(自動停止ではない)
156
- # Early Stop:瞬間値と33step分の履歴の差分で True にするだけ
157
- # 誤判定防止をしないのは点灯頻度で停止準備(予兆)にするため
158
- if abs(scalar) <= 5e-6 and abs(Noise_base - d_base) <= 5e-7:
159
- if not self.should_stop:
160
- self.emoScope = 1.0 # ユーザー意思を目的の収束へ整える
161
- self.should_stop = True # 💡 外部からこれを見て判断可
162
- else:
163
- self.should_stop = False # 💡 誤判定などの取り消し
164
-
165
- return
166
-
167
- """
168
- https://github.com/muooon/EmoSens
169
- An emotion-driven optimizer that feels loss and navigates accordingly.
170
- Don't think. Feel. Don't stop. Keep running. Believe in what's beyond.
171
- """
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2Gv38_FFT_Aware/emotionfft.py DELETED
@@ -1,187 +0,0 @@
1
- import torch
2
- from torch.optim import Optimizer
3
- import math
4
-
5
- """
6
- EmoTion v3.8.3+ (260216) Moment-Free Edition FFT適応版(CPU-GPUデータ転送対応)
7
- shadow-system v3.1 -moment v3.1 emoPulse v3.8 FFT-Swap-Aware
8
- これまでの emo系 のすべてを継承し、独自更新式を持つ、完全オリジナル最適化器
9
- The “geometric relationship” between "W"eight and "G"radient Method
10
- これまでの統計手法をやめ、重みベクトルと勾配ベクトルの直交性(W-Ref Geometry)に基づいて、
11
- 過去の慣性と現在の勾配を動的にブレンドする、1次モーメント単一保持型の幾何学的最適化アルゴリズム
12
- ### 残念なことに FFT適応 のため中間テンソル(コピー) を生じることで軽量ではなくなります ###
13
- ### これは cuFFT 等で「複素数バッファ」などの厳格なデータ配置の要求により生じる仕様です ###
14
- """
15
-
16
- class EmoTionFFT(Optimizer):
17
- # クラス定義&初期化
18
- def __init__(self, params,
19
- lr=1.0,
20
- eps=1e-8,
21
- betas=(0.9, 0.995),
22
- weight_decay=0.01,
23
- use_shadow:bool=False):
24
- defaults = dict(lr=lr, betas=betas, eps=eps, weight_decay=weight_decay)
25
- super().__init__(params, defaults)
26
- self._init_lr = lr
27
- self.should_stop = False # 停止フラグの初期化
28
- self.use_shadow = use_shadow # 🔸shadow 使用フラグを保存
29
- self.emoScope = lr # 動的学習率の調和とリズム
30
- self.dNR_hist = 1.0 # emoPulse hist 初期化
31
- self.noise_est = 1.0 # emoPulse nest 初期化
32
- self.d_est = 0.02 # emoPulse dest 初期化
33
-
34
- # 感情EMA更新(緊張と安静)
35
- def _update_ema(self, state, loss_val):
36
- ema = state.setdefault('ema', {})
37
- ema['short'] = 0.3 * loss_val + 0.7 * ema.get('short', loss_val)
38
- ema['medium'] = 0.05 * loss_val + 0.95 * ema.get('medium', loss_val)
39
- ema['long'] = 0.01 * loss_val + 0.99 * ema.get('long', loss_val)
40
- return ema
41
-
42
- # 感情スカラー値生成(EMA差分、滑らかな非線形スカラー、tanh(diff) は ±1.0 で有界性)
43
- # 係数"1":ema差分 のスケール調整処理に活用(感度調節係数)/通常は1(タスクに応じ調整可(非推奨))
44
- # scale_base:Loss値とema値の乖離を修正(分母 ema(long) 「改善率」共通化/loss種に非依存)
45
- # 1e-5(デフォルト)/1e-6(感度向上)/1e-4(安定性向上):分母を0にせず安定させる
46
- # トラウマ的反応や慣れによる鈍化で安定性向上(ema-medium 安定と急変を信頼度で感知)
47
- def _compute_scalar(self, ema):
48
- scale_base_l = max(ema['long'], 1e-5)
49
- scale_base_m = max(ema['medium'], 1e-5)
50
- diff_base = ema['long'] - ema['short']
51
- diff_l = diff_base / scale_base_l
52
- diff_m = diff_base / scale_base_m
53
- # longが十分静かなら、常にlongを優先
54
- if abs(diff_l) < 0.05:
55
- return math.tanh(diff_l)
56
- # longが静かでない時のみ、mediumの静けさを条件付きで採用
57
- if abs(diff_m) * scale_base_m < abs(diff_l) * scale_base_l:
58
- return math.tanh(diff_m)
59
- else:
60
- return math.tanh(diff_l)
61
-
62
- # (重要)現在は shadow-effect を参考に得た動的フィルタ効果の近似により use_shadow=False です
63
- # しかし全機能は shadow なしで全て成立します/コード確認時はこの shadow を考慮外として無視してください
64
- # Shadow混合比 3段階構成 タスクに応じ調整可、以下を参考に 開始値・範囲量・変化幅を調整
65
- # return 開始値 + ((scalar) - 閾値) / 範囲量 * 変化幅 も可能(特殊用途向け)
66
- def _decide_ratio(self, scalar):
67
- if not self.use_shadow:
68
- return 0.0 # 🔸use_shadow = False のとき常に比率を 0 にする
69
- if abs(scalar) > 0.625:
70
- return 1.0 - abs(scalar) # 急変|強抑制|tanh 0.73(0.27)
71
- else:
72
- return 0.0 # return<0 の場合は leap 専用(書き戻しはしないが履歴更新のみ)
73
-
74
- # 損失取得(損失値 loss_val を数値化、感情判定に使用、存在しないパラメータ(更新不要)はスキップ)
75
- @torch.no_grad()
76
- def step(self, closure=None):
77
- loss = torch.enable_grad()(closure)() if closure is not None else None
78
- loss_val = loss.item() if loss is not None else 0.0
79
-
80
- # EMA更新・スカラー生成(EMA差分からスカラーを生成しスパイク比率等を決定)
81
- ema = self._update_ema(self.state, loss_val)
82
- scalar = self._compute_scalar(ema)
83
- ratio = self._decide_ratio(scalar)
84
- trust = math.copysign((1.0 - abs(scalar)), scalar)
85
-
86
- # --- Start emoPulse (完全自動LR生成) ---
87
- # emoPulse (loss 時系列から D / Noise を推定し完全自動LRを���成)
88
- # d / N 履歴 (時間的D推定)
89
- self.noise_est = 0.97 * self.noise_est + 0.03 * abs(scalar)
90
- self.d_est = 0.97 * self.d_est + 0.03 * abs(trust)
91
- noise = max(self.noise_est, 1e-10) # max:1e-12程度(変更後:要アーリーストップ見直し)
92
- d = self.d_est
93
- # scalar、trust、の差分(瞬間的D推定)と各時間軸の確度推定(疑念と信頼の綱引き)
94
- Noise_base = abs(scalar - trust) + 0.1
95
- d_base = abs(noise - d) + 0.1
96
- # SNRにより異なる時間的確度比率から更新力を導出し2乗で出力最大化
97
- dNR_now_val = (d_base / Noise_base) ** 2
98
- # db / Nb dNR(SNR) 履歴化と最大値の成長率の増減
99
- if dNR_now_val >= self.dNR_hist and trust >= 0.5:
100
- # 加速:どんなに SNR が高くても、1.50倍という「歩幅」の成長制限
101
- self.dNR_hist = min(dNR_now_val, self.dNR_hist * 1.50)
102
- elif -0.5 <= trust <= 0.5:
103
- # 減速:怪しい時は即座に比率を下げる(確実に信頼できない場合に下げ圧力を溜める)
104
- self.dNR_hist = dNR_now_val * 0.80
105
- # emoPulse 最終決定: emoScorp によるユーザー意思の反映と安全値による制限
106
- emoPulse = float(max(min(self.dNR_hist * (self.emoScope * 1e-5), 3e-4), 1e-8))
107
- # --- End emoPulse (完全自動LR生成) ---
108
-
109
- for group in self.param_groups:
110
- beta1, beta2 = group['betas']
111
- for p in (p for p in group['params'] if p.grad is not None):
112
-
113
- grad = p.grad
114
- state = self.state[p]
115
-
116
- p_norm = p.norm()
117
- g_norm = grad.norm()
118
-
119
- # 動的学習率補正により shadow 形成を信頼度で調整(trustは正値化(負にならない))
120
- # shadow:必要時のみ(スパイクp部分に現在値を最大10%追従させる動的履歴更新)
121
- # 混合比率:スカラーが閾値を超える場合にのみ計算される(信頼できる感情信号かどうかの選別)
122
- # 急変時は感情機構による shadow 混合で強く抑制する(急制動による安定性の確保)
123
- # 新 shadow-system は動的学習率と信頼度で協調し選択的スパース性も発揮する
124
- if self.use_shadow :
125
- if 'shadow' not in state: # 🔸shadow = False (デフォルト)
126
- state['shadow'] = p.clone()
127
- if ratio > 0: # 書き戻しと履歴更新(急変時の強い抑制と弱めの履歴更新)
128
- p.mul_(1-ratio).add_(state['shadow'], alpha=abs(trust))
129
- else: # 書き戻しせず履歴更新のみ:10%×trust
130
- leap_ratio = 0.1 * abs(trust)
131
- state['shadow'].lerp_(p, leap_ratio)
132
-
133
- # --- Start Gradient Update Logic ---
134
- # --- EmoTion (Pure W-Ref Geometry) ---
135
- # 1次モーメント(exp_avg)の初期化: O(N) のみ
136
- if 'exp_avg' not in state:
137
- state['exp_avg'] = torch.zeros_like(p)
138
- state['rho_ema'] = torch.zeros(1, device=p.device, dtype=p.dtype)
139
-
140
- exp_avg = state['exp_avg']
141
- rho_ema = state['rho_ema']
142
-
143
- # W-Reference / Geometry (幾何学的直交性) 算出
144
- # 勾配が重み(実体)に対して「新鮮」(直交)か「冗長」(平行)かを判定
145
- # 高次元空間における集中現象を利用した「情報の選別」
146
- rho = torch.abs(torch.dot(p.view(-1), grad.to(p.device).view(-1))) / (p_norm * g_norm + 1e-8)
147
-
148
- # rhoの履歴更新 (スカラーのみ)
149
- rho_ema.mul_(beta1).add_(rho, alpha=1 - beta1)
150
-
151
- # 幾何学的適応型ブレンド
152
- # 従来の beta1 固定ではなく、直交しているほど今の勾配 g を強く取り込む
153
- # freshness が高い(rhoが小さい)ほど、慣性を無視して新しい方向へ舵を切る
154
- freshness = 1.0 - rho_ema.item()
155
-
156
- # exp_avg = beta1 * exp_avg + (1 - beta1) * grad の「幾何学的拡張」
157
- # 慣性と現時点の勾配を、直交性に基づいて混ぜ合わせる
158
- exp_avg.mul_(beta1).add_(grad.to(exp_avg.device), alpha=(1.0 - beta1) * freshness)
159
-
160
- # 重みの更新 (emoPulse = 絶対歩幅)
161
- if group['weight_decay'] != 0:
162
- p.mul_(1.0 - group['weight_decay'] * emoPulse)
163
-
164
- p.add_(exp_avg.to(p.device).sign(), alpha=-emoPulse)
165
- # --- End Gradient Update Logic ---
166
-
167
- # ユーザー指定初期LRを実効値(emoPulse)で可視化する(PyTorch標準)
168
- for group in self.param_groups:
169
- group['lr'] = emoPulse
170
-
171
- # 感情機構の穏やかさ"安定状態"を外部伝達する(自動停止ではない)
172
- # Early Stop:瞬間値と33step分の履歴の差分で True にするだけ
173
- # 誤判定防止をしないのは点灯頻度で停止準備(予兆)にするため
174
- if abs(scalar) <= 5e-6 and abs(Noise_base - d_base) <= 5e-7:
175
- if not self.should_stop:
176
- self.emoScope = 1.0 # ユーザー意思を目的の収束へ整える
177
- self.should_stop = True # 💡 外部からこれを見て判断可
178
- else:
179
- self.should_stop = False # 💡 誤判定などの取り消し
180
-
181
- return
182
-
183
- """
184
- https://github.com/muooon/EmoSens
185
- Pure W-Ref Geometry. Believing in a future for democratic AI learning.
186
- Taking decisive steps forward, Weight-Reference Optimizer.
187
- """
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2Gv38_FFT_Aware/emovoidfft.py DELETED
@@ -1,180 +0,0 @@
1
- import torch
2
- from torch.optim import Optimizer
3
- import math
4
-
5
- """
6
- EmoVoid v3.8.3+ (260216) Moment-Free Edition FFT適応版(CPU-GPUデータ転送対応)
7
- shadow-system v3.1 -moment v3.1 emoPulse v3.8 FFT-Swap-Aware
8
- これまでの emo系 のすべてを継承し、独自更新式の特徴を受け継ぐ完全オリジナル最適化器
9
- The “geometric relationship” between "W"eight and "G"radient Method
10
- 幾何学的最適化アルゴリズム Approx W-Ref Geometry 近似アシスト更新にし負荷低減
11
- 完全1次2次モーメント廃止、さまざまなコストを極限まで低減、正確性と軽量性と快適性を向上
12
- ### 残念なことに FFT適応 のため中間テンソル(コピー) を生じることで最軽量ではなくなります ###
13
- ### これは cuFFT 等で「複素数バッファ」などの厳格なデータ配置の要求により生じる仕様です ###
14
- """
15
-
16
- class EmoVoidFFT(Optimizer):
17
- # クラス定義&初期化
18
- def __init__(self, params,
19
- lr=1.0,
20
- eps=1e-8,
21
- betas=(0.9, 0.995),
22
- weight_decay=0.01,
23
- use_shadow:bool=False):
24
- defaults = dict(lr=lr, betas=betas, eps=eps, weight_decay=weight_decay)
25
- super().__init__(params, defaults)
26
- self._init_lr = lr
27
- self.should_stop = False # 停止フラグの初期化
28
- self.use_shadow = use_shadow # 🔸shadow 使用フラグを保存
29
- self.emoScope = lr # 動的学習率の調和とリズム
30
- self.dNR_hist = 1.0 # emoPulse hist 初期化
31
- self.noise_est = 1.0 # emoPulse nest 初期化
32
- self.d_est = 0.02 # emoPulse dest 初期化
33
-
34
- # 感情EMA更新(緊張と安静)
35
- def _update_ema(self, state, loss_val):
36
- ema = state.setdefault('ema', {})
37
- ema['short'] = 0.3 * loss_val + 0.7 * ema.get('short', loss_val)
38
- ema['medium'] = 0.05 * loss_val + 0.95 * ema.get('medium', loss_val)
39
- ema['long'] = 0.01 * loss_val + 0.99 * ema.get('long', loss_val)
40
- return ema
41
-
42
- # 感情スカラー値生成(EMA差分、滑らかな非線形スカラー、tanh(diff) は ±1.0 で有界性)
43
- # 係数"1":ema差分 のスケール調整処理に活用(感度調節係数)/通常は1(タスクに応じ調整可(非推奨))
44
- # scale_base:Loss値とema値の乖離を修正(分母 ema(long) 「改善率」共通化/loss種に非依存)
45
- # 1e-5(デフォルト)/1e-6(感度向上)/1e-4(安定性向上):分母を0にせず安定させる
46
- # トラウマ的反応や慣れによる鈍化で安定性向上(ema-medium 安定と急変を信頼度で感知)
47
- def _compute_scalar(self, ema):
48
- scale_base_l = max(ema['long'], 1e-5)
49
- scale_base_m = max(ema['medium'], 1e-5)
50
- diff_base = ema['long'] - ema['short']
51
- diff_l = diff_base / scale_base_l
52
- diff_m = diff_base / scale_base_m
53
- # longが十分静かなら、常にlongを優先
54
- if abs(diff_l) < 0.05:
55
- return math.tanh(diff_l)
56
- # longが静かでない時のみ、mediumの静けさを条件付きで採用
57
- if abs(diff_m) * scale_base_m < abs(diff_l) * scale_base_l:
58
- return math.tanh(diff_m)
59
- else:
60
- return math.tanh(diff_l)
61
-
62
- # (重要)現在は shadow-effect を参考に得た動的フィルタ効果の近似により use_shadow=False です
63
- # しかし全機能は shadow なしで全て成立します/コード確認時はこの shadow を考慮外として無視してください
64
- # Shadow混合比 3段階構成 タスクに応じ調整可、以下を参考に 開始値・範囲量・変化幅を調整
65
- # return 開始値 + ((scalar) - 閾値) / 範囲量 * 変化幅 も可能(特殊用途向け)
66
- def _decide_ratio(self, scalar):
67
- if not self.use_shadow:
68
- return 0.0 # 🔸use_shadow = False のとき常に比率を 0 にする
69
- if abs(scalar) > 0.625:
70
- return 1.0 - abs(scalar) # 急変|強抑制|tanh 0.73(0.27)
71
- else:
72
- return 0.0 # return<0 の場合は leap 専用(書き戻しはしないが履歴更新のみ)
73
-
74
- # 損失取得(損失値 loss_val を数値化、感情判定に使用、存在しないパラメータ(更新不要)はスキップ)
75
- @torch.no_grad()
76
- def step(self, closure=None):
77
- loss = torch.enable_grad()(closure)() if closure is not None else None
78
- loss_val = loss.item() if loss is not None else 0.0
79
-
80
- # EMA更新・スカラー生成(EMA差分からスカラーを生成しスパイク比率等を決定)
81
- ema = self._update_ema(self.state, loss_val)
82
- scalar = self._compute_scalar(ema)
83
- ratio = self._decide_ratio(scalar)
84
- trust = math.copysign((1.0 - abs(scalar)), scalar)
85
-
86
- # --- Start emoPulse (完全自動LR生成) ---
87
- # emoPulse (loss 時系列から D / Noise を推定し完全自動LRを生成)
88
- # d / N 履歴 (時間的D推定)
89
- self.noise_est = 0.97 * self.noise_est + 0.03 * abs(scalar)
90
- self.d_est = 0.97 * self.d_est + 0.03 * abs(trust)
91
- noise = max(self.noise_est, 1e-10) # max:1e-12程度(変更後:要アーリーストップ見直し)
92
- d = self.d_est
93
- # scalar、trust、の差分(瞬間的D推定)と各時間軸の確度推定(疑念と信頼の綱引き)
94
- Noise_base = abs(scalar - trust) + 0.1
95
- d_base = abs(noise - d) + 0.1
96
- # SNRにより異なる時間的確度比率から更新力を導出し2乗で出力最大化
97
- dNR_now_val = (d_base / Noise_base) ** 2
98
- # db / Nb dNR(SNR) 履歴化と最大値の成長率の増減
99
- if dNR_now_val >= self.dNR_hist and trust >= 0.5:
100
- # 加速:どんなに SNR が高くても、1.50倍という「歩幅」の成長制限
101
- self.dNR_hist = min(dNR_now_val, self.dNR_hist * 1.50)
102
- elif -0.5 <= trust <= 0.5:
103
- # 減速:怪しい時は即座に比率を下げる(確実に信頼できない場合に下げ圧力を溜める)
104
- self.dNR_hist = dNR_now_val * 0.80
105
- # emoPulse 最終決定: emoScorp によるユーザー意思の反映と安全値による制限
106
- emoPulse = float(max(min(self.dNR_hist * (self.emoScope * 1e-5), 3e-4), 1e-8))
107
- # --- End emoPulse (完全自動LR生成) ---
108
-
109
- # --- Start Approx W-Ref Geometry 近似アシスト ---
110
- # Weight Reference Geometry ("W"eight and "G"radient Method)
111
- # 中間テンソルによるVRAM負荷やcos類似度測定の計算負荷を実質0にする
112
- with torch.no_grad():
113
- # 現在の全パラメータのL1ノルムを一括計算(計算負荷: 低)
114
- # foreach_norm は各層のノルムをリストで返す。sumで1つの数値に集約。
115
- params = self.param_groups[0]['params']
116
- point_gl1 = sum(torch._foreach_norm(params, 1))
117
- prev = getattr(self, "prev_gl1", None)
118
- curr_step = getattr(self, '_step_count', 0)
119
- self._step_count = curr_step + 1
120
- # ウォームアップ期間中のみ、前回のノルムと比較して「一括修正」
121
- if prev is not None and curr_step < 55:
122
- # 前回のエネルギーを維持するための比率(スライス的な全層一律係数)
123
- ratio = (prev / (point_gl1 + 1e-8)).item()
124
- # 全層の重みを一撃でスケーリング(中間テンソル作成なし、最速)
125
- torch._foreach_mul_(params, ratio)
126
- # 修正したので、現在のノルムも再計算(または近似)
127
- point_gl1 *= ratio
128
- # 今回のノルムを次回の比較用に保存
129
- self.prev_gl1 = point_gl1
130
- # --- End Approx W-Ref Geometry 近似アシスト ---
131
-
132
- for group in self.param_groups:
133
- beta1, beta2 = group['betas']
134
- for p in (p for p in group['params'] if p.grad is not None):
135
-
136
- grad = p.grad
137
- state = self.state[p]
138
-
139
- # 動的学習率補正により shadow 形成を信頼度で調整(trustは正値化(負にならない))
140
- # shadow:必要時のみ(スパイクp部分に現在値を最大10%追従させる動的履歴更新)
141
- # 混合比率:スカラーが閾値を超える場合にのみ計算される(信頼できる感情信号かどうかの選別)
142
- # 急変時は感情機構による shadow 混合で強く抑制する(急制動による安定性の確保)
143
- # 新 shadow-system は動的学習率と信頼度で協調し選択的スパース性も発揮する
144
- if self.use_shadow :
145
- if 'shadow' not in state: # 🔸shadow = False (デフォルト)
146
- state['shadow'] = p.clone()
147
- if ratio > 0: # 書き戻しと履歴更新(急変時の強い抑制と弱めの履歴更新)
148
- p.mul_(1-ratio).add_(state['shadow'], alpha=abs(trust))
149
- else: # 書き戻しせず履歴更新のみ:10%×trust
150
- leap_ratio = 0.1 * abs(trust)
151
- state['shadow'].lerp_(p, leap_ratio)
152
-
153
- # --- Start Gradient Update Logic ---
154
- # --- EmoVoid (Approx W-Ref Geometry) ---
155
- # 更新:emoPulse「時間軸」、W-Ref-Geo「空間軸」でODE近似へ導く
156
- p.add_(grad.to(p.device).sign_(), alpha=-emoPulse)
157
- # --- End Gradient Update Logic ---
158
-
159
- # ユーザー指定初期LRを実効値(emoPulse)で可視化する(PyTorch標準)
160
- for group in self.param_groups:
161
- group['lr'] = emoPulse
162
-
163
- # 感情機構の穏やかさ"安定状態"を外部伝達する(自動停止ではない)
164
- # Early Stop:瞬間値と33step分の履歴の差分で True にするだけ
165
- # 誤判定防止をしない��は点灯頻度で停止準備(予兆)にするため
166
- if abs(scalar) <= 5e-6 and abs(Noise_base - d_base) <= 5e-7:
167
- if not self.should_stop:
168
- self.emoScope = 1.0 # ユーザー意思を目的の収束へ整える
169
- self._step_count = 0 # 幾何学的再調整の再始動
170
- self.should_stop = True # 💡 外部からこれを見て判断可
171
- else:
172
- self.should_stop = False # 💡 誤判定などの取り消し
173
-
174
- return
175
-
176
- """
177
- https://github.com/muooon/EmoSens
178
- A new-dimensional geometric optimization algorithm traversing the void.
179
- Taking decisive steps forward, Weight-Reference Optimizer.
180
- """