titans_NPC / examples /QWEN3_TITANS_MEMORY_INTEGRATION.md
ChipYTY's picture
Update full code snapshot (exclude data and model checkpoints)
4196369 verified
## Qwen3-4B-Instruct + Titans NeuralMemory(MAC 风格)集成流程说明
本文档描述当前仓库里 **“Qwen3-4B-Instruct 作为 Core(短期处理器) + Titans NeuralMemory 作为长期记忆”** 的实际落地方式,代码入口为:
- `examples/train_qwen_titans_babilong.py`
---
## 整体思路(Streaming + MAC)
- **Core**`Qwen3-4B-Instruct` 只负责处理一个可控窗口大小的 chunk(例如 4k)。
- **Long-term Memory**`titans_pytorch.NeuralMemory` 维护一个随 chunk 滚动更新的 **memory_state**(快权重/动量等状态)。
- **MAC(Memory-as-Context)风格注入**:每个 chunk 开始时,从长期记忆 **读取一小段 memory tokens**,将它们 **作为“额外上下文 token”前缀** 拼到 chunk 前面,让 Qwen 在注意力里直接可用。
这使得整体序列长度可以远大于 Qwen 的单次可承受长度:Qwen 看到的是「当前 chunk + 记忆 tokens」,而长期信息通过 Titans 的 state 跨 chunk 保留与检索。
---
## 关键代码组件
### 1) `TitansLongTermMemory`:长期记忆模块封装
位置:`examples/train_qwen_titans_babilong.py`
内部包含:
- **`self.neural_memory: NeuralMemory`**
- `dim = hidden_size`
- `heads = config.memory_heads`
- `dim_head = config.memory_dim_head`
- `model = MemoryMLP(dim=dim_head, depth=config.memory_depth, ...)`
- 写入稳定性相关配置:`default_step_transform_max_lr / init_adaptive_step_bias / max_grad_norm / ...`
- **`self.memory_query_tokens: nn.Parameter`**
- 形状 `[1, 16, hidden_size]`
- 作为“从长期记忆里检索”的查询 token(可训练)
- **`self.memory_proj: nn.Sequential`**
- 将 `retrieve_memories()` 的输出再映射回适合注入 Qwen 的表征空间
#### `read()`:只读检索(不会写入)
当前实现 **明确避免** 使用 `NeuralMemory.forward(queries)` 来读:
- `NeuralMemory.forward()` 默认会同时做 store + retrieve
- 如果用 queries 调 `forward()`,会把 query 也写进记忆,造成污染
因此当前实现采用:
-`memory_state.states[0]` 取出“最新快权重”作为 `weights`
- 调用 `self.neural_memory.retrieve_memories(queries, weights)` 完成纯检索
#### `write()`:写入更新(跨 chunk 不反传)
写入时调用:
- `self.neural_memory(hidden_states, state=..., store_mask=..., detach_mem_state=True)`
其中 `detach_mem_state=True` 的含义是:
- **记忆 state 的更新过程不参与跨 chunk 的反向传播**
- 优点:训练更稳、显存更省、避免长链条反传导致 NaN/爆显存
- 代价:loss 不会“端到端”优化写入更新过程(但仍可优化 query/proj 等参数)
---
### 2) `QwenTitansForBABILong`:Qwen + 记忆的主包装模型
位置:`examples/train_qwen_titans_babilong.py`
包含:
- `self.qwen`: `AutoModelForCausalLM` 加载的 Qwen3
- `self.long_term_memory`: `TitansLongTermMemory`
- `self.memory_gate`: 当前仅占位(参数会训练/保存,但 **forward 里未实际使用**,目前是“纯 memory tokens 前缀注入”路线)
并做了关键的 device/dtype 对齐:
- Qwen 通常用 `bf16`
- 记忆模块可以强制用 `float32``config.memory_fp32=True`)以降低 NaN 风险
---
## 前向流程(单个样本,Streaming)
入口:`QwenTitansForBABILong.forward(input_ids, attention_mask, labels)`
### Step 0:输入形状与 chunk 划分
- 输入被固定为 `seq_len = config.max_length`(例如 32768)
-`chunk_size`(例如 4096)切成多个 chunks(例如 8 个)
- 为了覆盖 chunk 边界的 next-token 预测,每个 chunk 会带 **1 个 overlap token**
- `proc_start = max(0, start - 1)`
- 当前 chunk 实际处理 `[proc_start, end)`,但写入记忆只写 `[start, end)`(避免重复写 overlap)
### Step 1:从长期记忆读取 memory tokens
- 初始 `memory_state = None`:第一段不会注入 memory tokens
- 从第二个 chunk 开始:
- `memory_tokens = long_term_memory.read(batch_size, memory_state, num_tokens=config.num_memory_tokens)`
### Step 2:把 memory tokens 作为前缀注入 Qwen(MAC)
`_process_chunk()` 中完成:
- 先拿到 token embeddings:`token_embeds = qwen.model.embed_tokens(chunk_ids)`
- 若存在 memory tokens:
- `nan_to_num + scale + clamp`(避免记忆扰动太大引发不稳定)
- `torch.cat([memory_tokens, token_embeds], dim=1)` 作为 `inputs_embeds`
- 同步扩展 `attention_mask`:为 memory token 补 1
### Step 3:调用 `self.qwen.model(...)` 做 chunk 前向
这里必须走 `Qwen3Model.forward()`(即 `self.qwen.model`),原因是:
- Qwen3Attention 依赖 `position_embeddings=(cos, sin)` 等由 `Qwen3Model` 内部生成并传入
- 不能直接逐层调用 `Qwen3DecoderLayer`(会出现 `cos, sin = position_embeddings` 的 None 问题)
得到:
- `hidden_states = outputs.last_hidden_state`
- 如果注入了 memory tokens,则把它们从输出里切掉:`hidden_states = hidden_states[:, num_mem:]`
### Step 4:把 chunk 的 hidden 写入 Titans 记忆
写入采用:
- 去掉 overlap 的 `chunk_hidden`
- `store_mask``attention_mask`(padding=0 的位置不写入)
- 调用 `long_term_memory.write(mem_inp, state=memory_state, store_mask=...)`
返回并更新:
- `memory_state = next_state`
### Step 5:只在“答案 tokens”上计算 loss(省显存)
`labels` 中:
- prompt 与 padding 为 `-100`
- 仅答案 token 有监督标签
loss 计算策略:
- 只选择 `labels != -100` 的位置
- 对应 hidden 做 shift(next-token)
- 仅对有效位置做 `lm_head` 与交叉熵(避免全 vocab、全序列 logits 占用巨大显存)
---
## 分布式训练(FSDP)集成要点
代码入口仍在:`examples/train_qwen_titans_babilong.py`
- **必须 `device_map=None`**:FSDP/DDP 不允许 HF 自动切分到多卡
- **强制 `attn_implementation="sdpa"`**:避免环境里 flash-attn/torchao/torchvision 的兼容性导入问题
- **FSDP wrap 策略**
- 只 wrap `Qwen3DecoderLayer`
- `ignored_modules=[model.long_term_memory, model.memory_gate]`:记忆模块不参与分片(便于保存/调试,也避免小模块反复 allgather)
- **固定长度输入(非常关键)**
- FSDP 需要所有 rank 每步进入 collectives 的顺序一致
- 如果不同 rank 的 chunk 次数不同,会出现 `_ALLGATHER_BASE` / `ALLREDUCE` 顺序错位,从而 NCCL watchdog 超时
- 因此数据侧必须 pad 到 `config.max_length`,保证每步 chunk 数一致
---
## 当前实现的取舍与可改进点
- **`memory_gate` 目前未参与 forward**:现在是纯“memory tokens 作为上下文前缀”的 MAC 注入;如果需要门控融合,需要在 forward 里显式引入 gate 计算与融合路径。
- **`detach_mem_state=True`**:训练更稳/省显存,但不会端到端训练“写入更新过程”;如果后续要做更强的端到端学习,需要重新评估这条策略(以及显存与稳定性代价)。