Qwen3-4B-Instruct + Titans NeuralMemory(MAC 风格)集成流程说明
本文档描述当前仓库里 “Qwen3-4B-Instruct 作为 Core(短期处理器) + Titans NeuralMemory 作为长期记忆” 的实际落地方式,代码入口为:
examples/train_qwen_titans_babilong.py
整体思路(Streaming + MAC)
- Core:
Qwen3-4B-Instruct只负责处理一个可控窗口大小的 chunk(例如 4k)。 - Long-term Memory:
titans_pytorch.NeuralMemory维护一个随 chunk 滚动更新的 memory_state(快权重/动量等状态)。 - MAC(Memory-as-Context)风格注入:每个 chunk 开始时,从长期记忆 读取一小段 memory tokens,将它们 作为“额外上下文 token”前缀 拼到 chunk 前面,让 Qwen 在注意力里直接可用。
这使得整体序列长度可以远大于 Qwen 的单次可承受长度:Qwen 看到的是「当前 chunk + 记忆 tokens」,而长期信息通过 Titans 的 state 跨 chunk 保留与检索。
关键代码组件
1) TitansLongTermMemory:长期记忆模块封装
位置:examples/train_qwen_titans_babilong.py
内部包含:
self.neural_memory: NeuralMemorydim = hidden_sizeheads = config.memory_headsdim_head = config.memory_dim_headmodel = MemoryMLP(dim=dim_head, depth=config.memory_depth, ...)- 写入稳定性相关配置:
default_step_transform_max_lr / init_adaptive_step_bias / max_grad_norm / ...
self.memory_query_tokens: nn.Parameter- 形状
[1, 16, hidden_size] - 作为“从长期记忆里检索”的查询 token(可训练)
- 形状
self.memory_proj: nn.Sequential- 将
retrieve_memories()的输出再映射回适合注入 Qwen 的表征空间
- 将
read():只读检索(不会写入)
当前实现 明确避免 使用 NeuralMemory.forward(queries) 来读:
NeuralMemory.forward()默认会同时做 store + retrieve- 如果用 queries 调
forward(),会把 query 也写进记忆,造成污染
因此当前实现采用:
- 从
memory_state.states[0]取出“最新快权重”作为weights - 调用
self.neural_memory.retrieve_memories(queries, weights)完成纯检索
write():写入更新(跨 chunk 不反传)
写入时调用:
self.neural_memory(hidden_states, state=..., store_mask=..., detach_mem_state=True)
其中 detach_mem_state=True 的含义是:
- 记忆 state 的更新过程不参与跨 chunk 的反向传播
- 优点:训练更稳、显存更省、避免长链条反传导致 NaN/爆显存
- 代价:loss 不会“端到端”优化写入更新过程(但仍可优化 query/proj 等参数)
2) QwenTitansForBABILong:Qwen + 记忆的主包装模型
位置:examples/train_qwen_titans_babilong.py
包含:
self.qwen:AutoModelForCausalLM加载的 Qwen3self.long_term_memory:TitansLongTermMemoryself.memory_gate: 当前仅占位(参数会训练/保存,但 forward 里未实际使用,目前是“纯 memory tokens 前缀注入”路线)
并做了关键的 device/dtype 对齐:
- Qwen 通常用
bf16 - 记忆模块可以强制用
float32(config.memory_fp32=True)以降低 NaN 风险
前向流程(单个样本,Streaming)
入口:QwenTitansForBABILong.forward(input_ids, attention_mask, labels)
Step 0:输入形状与 chunk 划分
- 输入被固定为
seq_len = config.max_length(例如 32768) - 用
chunk_size(例如 4096)切成多个 chunks(例如 8 个) - 为了覆盖 chunk 边界的 next-token 预测,每个 chunk 会带 1 个 overlap token:
proc_start = max(0, start - 1)- 当前 chunk 实际处理
[proc_start, end),但写入记忆只写[start, end)(避免重复写 overlap)
Step 1:从长期记忆读取 memory tokens
- 初始
memory_state = None:第一段不会注入 memory tokens - 从第二个 chunk 开始:
memory_tokens = long_term_memory.read(batch_size, memory_state, num_tokens=config.num_memory_tokens)
Step 2:把 memory tokens 作为前缀注入 Qwen(MAC)
在 _process_chunk() 中完成:
- 先拿到 token embeddings:
token_embeds = qwen.model.embed_tokens(chunk_ids) - 若存在 memory tokens:
nan_to_num + scale + clamp(避免记忆扰动太大引发不稳定)torch.cat([memory_tokens, token_embeds], dim=1)作为inputs_embeds- 同步扩展
attention_mask:为 memory token 补 1
Step 3:调用 self.qwen.model(...) 做 chunk 前向
这里必须走 Qwen3Model.forward()(即 self.qwen.model),原因是:
- Qwen3Attention 依赖
position_embeddings=(cos, sin)等由Qwen3Model内部生成并传入 - 不能直接逐层调用
Qwen3DecoderLayer(会出现cos, sin = position_embeddings的 None 问题)
得到:
hidden_states = outputs.last_hidden_state- 如果注入了 memory tokens,则把它们从输出里切掉:
hidden_states = hidden_states[:, num_mem:]
Step 4:把 chunk 的 hidden 写入 Titans 记忆
写入采用:
- 去掉 overlap 的
chunk_hidden store_mask用attention_mask(padding=0 的位置不写入)- 调用
long_term_memory.write(mem_inp, state=memory_state, store_mask=...)
返回并更新:
memory_state = next_state
Step 5:只在“答案 tokens”上计算 loss(省显存)
labels 中:
- prompt 与 padding 为
-100 - 仅答案 token 有监督标签
loss 计算策略:
- 只选择
labels != -100的位置 - 对应 hidden 做 shift(next-token)
- 仅对有效位置做
lm_head与交叉熵(避免全 vocab、全序列 logits 占用巨大显存)
分布式训练(FSDP)集成要点
代码入口仍在:examples/train_qwen_titans_babilong.py
- **必须
device_map=None**:FSDP/DDP 不允许 HF 自动切分到多卡 - **强制
attn_implementation="sdpa"**:避免环境里 flash-attn/torchao/torchvision 的兼容性导入问题 - FSDP wrap 策略:
- 只 wrap
Qwen3DecoderLayer ignored_modules=[model.long_term_memory, model.memory_gate]:记忆模块不参与分片(便于保存/调试,也避免小模块反复 allgather)
- 只 wrap
- 固定长度输入(非常关键):
- FSDP 需要所有 rank 每步进入 collectives 的顺序一致
- 如果不同 rank 的 chunk 次数不同,会出现
_ALLGATHER_BASE/ALLREDUCE顺序错位,从而 NCCL watchdog 超时 - 因此数据侧必须 pad 到
config.max_length,保证每步 chunk 数一致
当前实现的取舍与可改进点
memory_gate目前未参与 forward:现在是纯“memory tokens 作为上下文前缀”的 MAC 注入;如果需要门控融合,需要在 forward 里显式引入 gate 计算与融合路径。- **
detach_mem_state=True**:训练更稳/省显存,但不会端到端训练“写入更新过程”;如果后续要做更强的端到端学习,需要重新评估这条策略(以及显存与稳定性代价)。