titans_NPC / examples /QWEN3_TITANS_MEMORY_INTEGRATION.md
ChipYTY's picture
Update full code snapshot (exclude data and model checkpoints)
4196369 verified

Qwen3-4B-Instruct + Titans NeuralMemory(MAC 风格)集成流程说明

本文档描述当前仓库里 “Qwen3-4B-Instruct 作为 Core(短期处理器) + Titans NeuralMemory 作为长期记忆” 的实际落地方式,代码入口为:

  • examples/train_qwen_titans_babilong.py

整体思路(Streaming + MAC)

  • CoreQwen3-4B-Instruct 只负责处理一个可控窗口大小的 chunk(例如 4k)。
  • Long-term Memorytitans_pytorch.NeuralMemory 维护一个随 chunk 滚动更新的 memory_state(快权重/动量等状态)。
  • MAC(Memory-as-Context)风格注入:每个 chunk 开始时,从长期记忆 读取一小段 memory tokens,将它们 作为“额外上下文 token”前缀 拼到 chunk 前面,让 Qwen 在注意力里直接可用。

这使得整体序列长度可以远大于 Qwen 的单次可承受长度:Qwen 看到的是「当前 chunk + 记忆 tokens」,而长期信息通过 Titans 的 state 跨 chunk 保留与检索。


关键代码组件

1) TitansLongTermMemory:长期记忆模块封装

位置:examples/train_qwen_titans_babilong.py

内部包含:

  • self.neural_memory: NeuralMemory
    • dim = hidden_size
    • heads = config.memory_heads
    • dim_head = config.memory_dim_head
    • model = MemoryMLP(dim=dim_head, depth=config.memory_depth, ...)
    • 写入稳定性相关配置:default_step_transform_max_lr / init_adaptive_step_bias / max_grad_norm / ...
  • self.memory_query_tokens: nn.Parameter
    • 形状 [1, 16, hidden_size]
    • 作为“从长期记忆里检索”的查询 token(可训练)
  • self.memory_proj: nn.Sequential
    • retrieve_memories() 的输出再映射回适合注入 Qwen 的表征空间

read():只读检索(不会写入)

当前实现 明确避免 使用 NeuralMemory.forward(queries) 来读:

  • NeuralMemory.forward() 默认会同时做 store + retrieve
  • 如果用 queries 调 forward(),会把 query 也写进记忆,造成污染

因此当前实现采用:

  • memory_state.states[0] 取出“最新快权重”作为 weights
  • 调用 self.neural_memory.retrieve_memories(queries, weights) 完成纯检索

write():写入更新(跨 chunk 不反传)

写入时调用:

  • self.neural_memory(hidden_states, state=..., store_mask=..., detach_mem_state=True)

其中 detach_mem_state=True 的含义是:

  • 记忆 state 的更新过程不参与跨 chunk 的反向传播
  • 优点:训练更稳、显存更省、避免长链条反传导致 NaN/爆显存
  • 代价:loss 不会“端到端”优化写入更新过程(但仍可优化 query/proj 等参数)

2) QwenTitansForBABILong:Qwen + 记忆的主包装模型

位置:examples/train_qwen_titans_babilong.py

包含:

  • self.qwen: AutoModelForCausalLM 加载的 Qwen3
  • self.long_term_memory: TitansLongTermMemory
  • self.memory_gate: 当前仅占位(参数会训练/保存,但 forward 里未实际使用,目前是“纯 memory tokens 前缀注入”路线)

并做了关键的 device/dtype 对齐:

  • Qwen 通常用 bf16
  • 记忆模块可以强制用 float32config.memory_fp32=True)以降低 NaN 风险

前向流程(单个样本,Streaming)

入口:QwenTitansForBABILong.forward(input_ids, attention_mask, labels)

Step 0:输入形状与 chunk 划分

  • 输入被固定为 seq_len = config.max_length(例如 32768)
  • chunk_size(例如 4096)切成多个 chunks(例如 8 个)
  • 为了覆盖 chunk 边界的 next-token 预测,每个 chunk 会带 1 个 overlap token
    • proc_start = max(0, start - 1)
    • 当前 chunk 实际处理 [proc_start, end),但写入记忆只写 [start, end)(避免重复写 overlap)

Step 1:从长期记忆读取 memory tokens

  • 初始 memory_state = None:第一段不会注入 memory tokens
  • 从第二个 chunk 开始:
    • memory_tokens = long_term_memory.read(batch_size, memory_state, num_tokens=config.num_memory_tokens)

Step 2:把 memory tokens 作为前缀注入 Qwen(MAC)

_process_chunk() 中完成:

  • 先拿到 token embeddings:token_embeds = qwen.model.embed_tokens(chunk_ids)
  • 若存在 memory tokens:
    • nan_to_num + scale + clamp(避免记忆扰动太大引发不稳定)
    • torch.cat([memory_tokens, token_embeds], dim=1) 作为 inputs_embeds
    • 同步扩展 attention_mask:为 memory token 补 1

Step 3:调用 self.qwen.model(...) 做 chunk 前向

这里必须走 Qwen3Model.forward()(即 self.qwen.model),原因是:

  • Qwen3Attention 依赖 position_embeddings=(cos, sin) 等由 Qwen3Model 内部生成并传入
  • 不能直接逐层调用 Qwen3DecoderLayer(会出现 cos, sin = position_embeddings 的 None 问题)

得到:

  • hidden_states = outputs.last_hidden_state
  • 如果注入了 memory tokens,则把它们从输出里切掉:hidden_states = hidden_states[:, num_mem:]

Step 4:把 chunk 的 hidden 写入 Titans 记忆

写入采用:

  • 去掉 overlap 的 chunk_hidden
  • store_maskattention_mask(padding=0 的位置不写入)
  • 调用 long_term_memory.write(mem_inp, state=memory_state, store_mask=...)

返回并更新:

  • memory_state = next_state

Step 5:只在“答案 tokens”上计算 loss(省显存)

labels 中:

  • prompt 与 padding 为 -100
  • 仅答案 token 有监督标签

loss 计算策略:

  • 只选择 labels != -100 的位置
  • 对应 hidden 做 shift(next-token)
  • 仅对有效位置做 lm_head 与交叉熵(避免全 vocab、全序列 logits 占用巨大显存)

分布式训练(FSDP)集成要点

代码入口仍在:examples/train_qwen_titans_babilong.py

  • **必须 device_map=None**:FSDP/DDP 不允许 HF 自动切分到多卡
  • **强制 attn_implementation="sdpa"**:避免环境里 flash-attn/torchao/torchvision 的兼容性导入问题
  • FSDP wrap 策略
    • 只 wrap Qwen3DecoderLayer
    • ignored_modules=[model.long_term_memory, model.memory_gate]:记忆模块不参与分片(便于保存/调试,也避免小模块反复 allgather)
  • 固定长度输入(非常关键)
    • FSDP 需要所有 rank 每步进入 collectives 的顺序一致
    • 如果不同 rank 的 chunk 次数不同,会出现 _ALLGATHER_BASE / ALLREDUCE 顺序错位,从而 NCCL watchdog 超时
    • 因此数据侧必须 pad 到 config.max_length,保证每步 chunk 数一致

当前实现的取舍与可改进点

  • memory_gate 目前未参与 forward:现在是纯“memory tokens 作为上下文前缀”的 MAC 注入;如果需要门控融合,需要在 forward 里显式引入 gate 计算与融合路径。
  • **detach_mem_state=True**:训练更稳/省显存,但不会端到端训练“写入更新过程”;如果后续要做更强的端到端学习,需要重新评估这条策略(以及显存与稳定性代价)。