File size: 7,046 Bytes
4196369
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
## Qwen3-4B-Instruct + Titans NeuralMemory(MAC 风格)集成流程说明

本文档描述当前仓库里 **“Qwen3-4B-Instruct 作为 Core(短期处理器) + Titans NeuralMemory 作为长期记忆”** 的实际落地方式,代码入口为:

- `examples/train_qwen_titans_babilong.py`

---

## 整体思路(Streaming + MAC)

- **Core**`Qwen3-4B-Instruct` 只负责处理一个可控窗口大小的 chunk(例如 4k)。
- **Long-term Memory**`titans_pytorch.NeuralMemory` 维护一个随 chunk 滚动更新的 **memory_state**(快权重/动量等状态)。
- **MAC(Memory-as-Context)风格注入**:每个 chunk 开始时,从长期记忆 **读取一小段 memory tokens**,将它们 **作为“额外上下文 token”前缀** 拼到 chunk 前面,让 Qwen 在注意力里直接可用。

这使得整体序列长度可以远大于 Qwen 的单次可承受长度:Qwen 看到的是「当前 chunk + 记忆 tokens」,而长期信息通过 Titans 的 state 跨 chunk 保留与检索。

---

## 关键代码组件

### 1) `TitansLongTermMemory`:长期记忆模块封装

位置:`examples/train_qwen_titans_babilong.py`

内部包含:

- **`self.neural_memory: NeuralMemory`**
  - `dim = hidden_size`
  - `heads = config.memory_heads`
  - `dim_head = config.memory_dim_head`
  - `model = MemoryMLP(dim=dim_head, depth=config.memory_depth, ...)`
  - 写入稳定性相关配置:`default_step_transform_max_lr / init_adaptive_step_bias / max_grad_norm / ...`
- **`self.memory_query_tokens: nn.Parameter`**
  - 形状 `[1, 16, hidden_size]`
  - 作为“从长期记忆里检索”的查询 token(可训练)
- **`self.memory_proj: nn.Sequential`**
  - 将 `retrieve_memories()` 的输出再映射回适合注入 Qwen 的表征空间

#### `read()`:只读检索(不会写入)

当前实现 **明确避免** 使用 `NeuralMemory.forward(queries)` 来读:

- `NeuralMemory.forward()` 默认会同时做 store + retrieve
- 如果用 queries 调 `forward()`,会把 query 也写进记忆,造成污染

因此当前实现采用:

-`memory_state.states[0]` 取出“最新快权重”作为 `weights`
- 调用 `self.neural_memory.retrieve_memories(queries, weights)` 完成纯检索

#### `write()`:写入更新(跨 chunk 不反传)

写入时调用:

- `self.neural_memory(hidden_states, state=..., store_mask=..., detach_mem_state=True)`

其中 `detach_mem_state=True` 的含义是:

- **记忆 state 的更新过程不参与跨 chunk 的反向传播**
- 优点:训练更稳、显存更省、避免长链条反传导致 NaN/爆显存
- 代价:loss 不会“端到端”优化写入更新过程(但仍可优化 query/proj 等参数)

---

### 2) `QwenTitansForBABILong`:Qwen + 记忆的主包装模型

位置:`examples/train_qwen_titans_babilong.py`

包含:

- `self.qwen`: `AutoModelForCausalLM` 加载的 Qwen3
- `self.long_term_memory`: `TitansLongTermMemory`
- `self.memory_gate`: 当前仅占位(参数会训练/保存,但 **forward 里未实际使用**,目前是“纯 memory tokens 前缀注入”路线)

并做了关键的 device/dtype 对齐:

- Qwen 通常用 `bf16`
- 记忆模块可以强制用 `float32``config.memory_fp32=True`)以降低 NaN 风险

---

## 前向流程(单个样本,Streaming)

入口:`QwenTitansForBABILong.forward(input_ids, attention_mask, labels)`

### Step 0:输入形状与 chunk 划分

- 输入被固定为 `seq_len = config.max_length`(例如 32768)
-`chunk_size`(例如 4096)切成多个 chunks(例如 8 个)
- 为了覆盖 chunk 边界的 next-token 预测,每个 chunk 会带 **1 个 overlap token**  - `proc_start = max(0, start - 1)`
  - 当前 chunk 实际处理 `[proc_start, end)`,但写入记忆只写 `[start, end)`(避免重复写 overlap)

### Step 1:从长期记忆读取 memory tokens

- 初始 `memory_state = None`:第一段不会注入 memory tokens
- 从第二个 chunk 开始:
  - `memory_tokens = long_term_memory.read(batch_size, memory_state, num_tokens=config.num_memory_tokens)`

### Step 2:把 memory tokens 作为前缀注入 Qwen(MAC)`_process_chunk()` 中完成:

- 先拿到 token embeddings:`token_embeds = qwen.model.embed_tokens(chunk_ids)`
- 若存在 memory tokens:
  - `nan_to_num + scale + clamp`(避免记忆扰动太大引发不稳定)
  - `torch.cat([memory_tokens, token_embeds], dim=1)` 作为 `inputs_embeds`
  - 同步扩展 `attention_mask`:为 memory token 补 1

### Step 3:调用 `self.qwen.model(...)` 做 chunk 前向

这里必须走 `Qwen3Model.forward()`(即 `self.qwen.model`),原因是:

- Qwen3Attention 依赖 `position_embeddings=(cos, sin)` 等由 `Qwen3Model` 内部生成并传入
- 不能直接逐层调用 `Qwen3DecoderLayer`(会出现 `cos, sin = position_embeddings` 的 None 问题)

得到:

- `hidden_states = outputs.last_hidden_state`
- 如果注入了 memory tokens,则把它们从输出里切掉:`hidden_states = hidden_states[:, num_mem:]`

### Step 4:把 chunk 的 hidden 写入 Titans 记忆

写入采用:

- 去掉 overlap 的 `chunk_hidden`
- `store_mask``attention_mask`(padding=0 的位置不写入)
- 调用 `long_term_memory.write(mem_inp, state=memory_state, store_mask=...)`

返回并更新:

- `memory_state = next_state`

### Step 5:只在“答案 tokens”上计算 loss(省显存)

`labels` 中:

- prompt 与 padding 为 `-100`
- 仅答案 token 有监督标签

loss 计算策略:

- 只选择 `labels != -100` 的位置
- 对应 hidden 做 shift(next-token)
- 仅对有效位置做 `lm_head` 与交叉熵(避免全 vocab、全序列 logits 占用巨大显存)

---

## 分布式训练(FSDP)集成要点

代码入口仍在:`examples/train_qwen_titans_babilong.py`

- **必须 `device_map=None`**:FSDP/DDP 不允许 HF 自动切分到多卡
- **强制 `attn_implementation="sdpa"`**:避免环境里 flash-attn/torchao/torchvision 的兼容性导入问题
- **FSDP wrap 策略**  - 只 wrap `Qwen3DecoderLayer`
  - `ignored_modules=[model.long_term_memory, model.memory_gate]`:记忆模块不参与分片(便于保存/调试,也避免小模块反复 allgather)
- **固定长度输入(非常关键)**  - FSDP 需要所有 rank 每步进入 collectives 的顺序一致
  - 如果不同 rank 的 chunk 次数不同,会出现 `_ALLGATHER_BASE` / `ALLREDUCE` 顺序错位,从而 NCCL watchdog 超时
  - 因此数据侧必须 pad 到 `config.max_length`,保证每步 chunk 数一致

---

## 当前实现的取舍与可改进点

- **`memory_gate` 目前未参与 forward**:现在是纯“memory tokens 作为上下文前缀”的 MAC 注入;如果需要门控融合,需要在 forward 里显式引入 gate 计算与融合路径。
- **`detach_mem_state=True`**:训练更稳/省显存,但不会端到端训练“写入更新过程”;如果后续要做更强的端到端学习,需要重新评估这条策略(以及显存与稳定性代价)。