## Qwen3-4B-Instruct + Titans NeuralMemory(MAC 风格)集成流程说明 本文档描述当前仓库里 **“Qwen3-4B-Instruct 作为 Core(短期处理器) + Titans NeuralMemory 作为长期记忆”** 的实际落地方式,代码入口为: - `examples/train_qwen_titans_babilong.py` --- ## 整体思路(Streaming + MAC) - **Core**:`Qwen3-4B-Instruct` 只负责处理一个可控窗口大小的 chunk(例如 4k)。 - **Long-term Memory**:`titans_pytorch.NeuralMemory` 维护一个随 chunk 滚动更新的 **memory_state**(快权重/动量等状态)。 - **MAC(Memory-as-Context)风格注入**:每个 chunk 开始时,从长期记忆 **读取一小段 memory tokens**,将它们 **作为“额外上下文 token”前缀** 拼到 chunk 前面,让 Qwen 在注意力里直接可用。 这使得整体序列长度可以远大于 Qwen 的单次可承受长度:Qwen 看到的是「当前 chunk + 记忆 tokens」,而长期信息通过 Titans 的 state 跨 chunk 保留与检索。 --- ## 关键代码组件 ### 1) `TitansLongTermMemory`:长期记忆模块封装 位置:`examples/train_qwen_titans_babilong.py` 内部包含: - **`self.neural_memory: NeuralMemory`** - `dim = hidden_size` - `heads = config.memory_heads` - `dim_head = config.memory_dim_head` - `model = MemoryMLP(dim=dim_head, depth=config.memory_depth, ...)` - 写入稳定性相关配置:`default_step_transform_max_lr / init_adaptive_step_bias / max_grad_norm / ...` - **`self.memory_query_tokens: nn.Parameter`** - 形状 `[1, 16, hidden_size]` - 作为“从长期记忆里检索”的查询 token(可训练) - **`self.memory_proj: nn.Sequential`** - 将 `retrieve_memories()` 的输出再映射回适合注入 Qwen 的表征空间 #### `read()`:只读检索(不会写入) 当前实现 **明确避免** 使用 `NeuralMemory.forward(queries)` 来读: - `NeuralMemory.forward()` 默认会同时做 store + retrieve - 如果用 queries 调 `forward()`,会把 query 也写进记忆,造成污染 因此当前实现采用: - 从 `memory_state.states[0]` 取出“最新快权重”作为 `weights` - 调用 `self.neural_memory.retrieve_memories(queries, weights)` 完成纯检索 #### `write()`:写入更新(跨 chunk 不反传) 写入时调用: - `self.neural_memory(hidden_states, state=..., store_mask=..., detach_mem_state=True)` 其中 `detach_mem_state=True` 的含义是: - **记忆 state 的更新过程不参与跨 chunk 的反向传播** - 优点:训练更稳、显存更省、避免长链条反传导致 NaN/爆显存 - 代价:loss 不会“端到端”优化写入更新过程(但仍可优化 query/proj 等参数) --- ### 2) `QwenTitansForBABILong`:Qwen + 记忆的主包装模型 位置:`examples/train_qwen_titans_babilong.py` 包含: - `self.qwen`: `AutoModelForCausalLM` 加载的 Qwen3 - `self.long_term_memory`: `TitansLongTermMemory` - `self.memory_gate`: 当前仅占位(参数会训练/保存,但 **forward 里未实际使用**,目前是“纯 memory tokens 前缀注入”路线) 并做了关键的 device/dtype 对齐: - Qwen 通常用 `bf16` - 记忆模块可以强制用 `float32`(`config.memory_fp32=True`)以降低 NaN 风险 --- ## 前向流程(单个样本,Streaming) 入口:`QwenTitansForBABILong.forward(input_ids, attention_mask, labels)` ### Step 0:输入形状与 chunk 划分 - 输入被固定为 `seq_len = config.max_length`(例如 32768) - 用 `chunk_size`(例如 4096)切成多个 chunks(例如 8 个) - 为了覆盖 chunk 边界的 next-token 预测,每个 chunk 会带 **1 个 overlap token**: - `proc_start = max(0, start - 1)` - 当前 chunk 实际处理 `[proc_start, end)`,但写入记忆只写 `[start, end)`(避免重复写 overlap) ### Step 1:从长期记忆读取 memory tokens - 初始 `memory_state = None`:第一段不会注入 memory tokens - 从第二个 chunk 开始: - `memory_tokens = long_term_memory.read(batch_size, memory_state, num_tokens=config.num_memory_tokens)` ### Step 2:把 memory tokens 作为前缀注入 Qwen(MAC) 在 `_process_chunk()` 中完成: - 先拿到 token embeddings:`token_embeds = qwen.model.embed_tokens(chunk_ids)` - 若存在 memory tokens: - `nan_to_num + scale + clamp`(避免记忆扰动太大引发不稳定) - `torch.cat([memory_tokens, token_embeds], dim=1)` 作为 `inputs_embeds` - 同步扩展 `attention_mask`:为 memory token 补 1 ### Step 3:调用 `self.qwen.model(...)` 做 chunk 前向 这里必须走 `Qwen3Model.forward()`(即 `self.qwen.model`),原因是: - Qwen3Attention 依赖 `position_embeddings=(cos, sin)` 等由 `Qwen3Model` 内部生成并传入 - 不能直接逐层调用 `Qwen3DecoderLayer`(会出现 `cos, sin = position_embeddings` 的 None 问题) 得到: - `hidden_states = outputs.last_hidden_state` - 如果注入了 memory tokens,则把它们从输出里切掉:`hidden_states = hidden_states[:, num_mem:]` ### Step 4:把 chunk 的 hidden 写入 Titans 记忆 写入采用: - 去掉 overlap 的 `chunk_hidden` - `store_mask` 用 `attention_mask`(padding=0 的位置不写入) - 调用 `long_term_memory.write(mem_inp, state=memory_state, store_mask=...)` 返回并更新: - `memory_state = next_state` ### Step 5:只在“答案 tokens”上计算 loss(省显存) `labels` 中: - prompt 与 padding 为 `-100` - 仅答案 token 有监督标签 loss 计算策略: - 只选择 `labels != -100` 的位置 - 对应 hidden 做 shift(next-token) - 仅对有效位置做 `lm_head` 与交叉熵(避免全 vocab、全序列 logits 占用巨大显存) --- ## 分布式训练(FSDP)集成要点 代码入口仍在:`examples/train_qwen_titans_babilong.py` - **必须 `device_map=None`**:FSDP/DDP 不允许 HF 自动切分到多卡 - **强制 `attn_implementation="sdpa"`**:避免环境里 flash-attn/torchao/torchvision 的兼容性导入问题 - **FSDP wrap 策略**: - 只 wrap `Qwen3DecoderLayer` - `ignored_modules=[model.long_term_memory, model.memory_gate]`:记忆模块不参与分片(便于保存/调试,也避免小模块反复 allgather) - **固定长度输入(非常关键)**: - FSDP 需要所有 rank 每步进入 collectives 的顺序一致 - 如果不同 rank 的 chunk 次数不同,会出现 `_ALLGATHER_BASE` / `ALLREDUCE` 顺序错位,从而 NCCL watchdog 超时 - 因此数据侧必须 pad 到 `config.max_length`,保证每步 chunk 数一致 --- ## 当前实现的取舍与可改进点 - **`memory_gate` 目前未参与 forward**:现在是纯“memory tokens 作为上下文前缀”的 MAC 注入;如果需要门控融合,需要在 forward 里显式引入 gate 计算与融合路径。 - **`detach_mem_state=True`**:训练更稳/省显存,但不会端到端训练“写入更新过程”;如果后续要做更强的端到端学习,需要重新评估这条策略(以及显存与稳定性代价)。