titans_NPC / examples /BABILONG_DATA_PIPELINE.md
ChipYTY's picture
Update full code snapshot (exclude data and model checkpoints)
4196369 verified

BABILong(QA1 / 32k)数据处理与训练数据流说明

本文档描述当前仓库里 BABILong QA1(32k.json) 在训练脚本中的实际处理方式:从原始 JSON,到 tokenizer、padding、labels、DataLoader,再到喂给 QwenTitansForBABILong 的整条数据流。

代码入口:

  • examples/train_qwen_titans_babilong.py

数据源与样本格式

默认数据路径(可改):

  • TrainingConfig.data_path = /data/yty/BABILong/babilong-train-5k-samples/data/qa1/32k.json

文件内容为一个 JSON 列表,每条样本大体包含:

  • input:长上下文(故事/事实)
  • question:问题
  • target:答案(短文本)

训练脚本会把它拼成 prompt:

{input}

Question: {question}
Answer:

并把答案拼接为(答案前加空格):

 {target}

关键目标:固定长度样本(FSDP/DDP 必须)

当前实现 强制每条样本输出固定长度 config.max_length(默认 32768),原因:

  • 模型前向会按 chunk_size 把序列分 chunk 循环处理
  • 在 FSDP/DDP 下,如果不同 rank 的序列长度不同 → chunk 数不同 → collectives 顺序不一致 → NCCL watchdog 超时

因此数据侧必须固定长度,保证每步每个 rank 的 chunk 次数一致。

相关参数:

  • TrainingConfig.max_length:固定输出长度(默认 32768)
  • TrainingConfig.answer_reserve_tokens:给答案预留 token 数(默认 64)

Dataset:BABILongDataset.__getitem__ 的处理流程

位置:examples/train_qwen_titans_babilong.py

Step 1:tokenize prompt(截断)

  • 对 prompt 进行 tokenize
  • 最大长度限制为 max_length - answer_reserve_tokens
  • add_special_tokens=True(让 tokenizer 自己加 BOS/EOS 等需要的特殊 token)

Step 2:tokenize answer(不加特殊 token)

  • " {target}" tokenize
  • add_special_tokens=False

Step 3:拼接并截断到 max_length

  • 先算 prompt token 数 len(prompt_ids)
  • answer 只保留剩余可用空间:available = max_length - len(prompt_ids)
  • input_ids = concat(prompt_ids, answer_ids[:available])

Step 4:构造 labels(只监督答案)

  • labels 初始全为 -100
  • 只有答案 token 的位置才写入对应 token id
  • 这样 loss 只在答案 token 上计算(prompt 与 padding 不参与 loss)

Step 5:padding 到固定长度 + attention_mask

如果拼接后长度 < max_length

  • input_ids 右侧 pad 到 max_length(pad_id = tokenizer.pad_token_id)
  • labels pad 的部分保持 -100
  • attention_mask
    • 真 token 为 1
    • padding 为 0

备注:脚本在 main() 里如果发现 tokenizer.pad_token is None,会设置 pad_token = eos_token,确保有 pad_id。


DataLoader 与分布式采样

DataLoader

  • batch_size = 1(32k 序列 + chunk streaming,一般只能 1)
  • collate_fn 只做 stack(Dataset 已固定长度,不做动态 padding)
  • num_workers = 0(避免多进程复制大张量带来的额外开销/不稳定)

训练/验证切分

  • random_split(full_dataset, [train_size, eval_size], generator=manual_seed(config.seed))
  • 默认 train_ratio=0.9

分布式(torchrun)

当使用 torchrun 启动时:

  • 训练集:DistributedSampler(..., shuffle=True, seed=config.seed)
  • 验证集:DistributedSampler(..., shuffle=False)
  • 每个 epoch 会调用 train_sampler.set_epoch(epoch),保证各 rank shuffle 一致

喂给模型的数据张量形状

由于固定长度:

  • input_ids: [B, max_length](默认 [1, 32768]
  • attention_mask: [B, max_length]
  • labels: [B, max_length]

模型内部再按 chunk_size(默认 4096)切成 8 个 chunk 进行 streaming。


训练与日志(跟数据流相关的行为)

  • 梯度累积gradient_accumulation_steps=8
    • 每 8 个 micro-batch 才做一次 optimizer step
  • 每 80 个 batch 输出一次
    • --log_every_batches 80(默认 80)
    • 会自动换算成 logging_steps = ceil(log_every_batches / gradient_accumulation_steps)
    • 并在 rank0 额外 logger.info(...) 打一行到终端,方便 tee 保存

运行方式(推荐)

8 卡 + FSDP

CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 \
torchrun --standalone --nproc_per_node=8 \
  examples/train_qwen_titans_babilong.py --fsdp --log_every_batches 80

快速小跑(2 卡调试)

CUDA_VISIBLE_DEVICES=0,1 \
torchrun --standalone --nproc_per_node=2 \
  examples/train_qwen_titans_babilong.py --fsdp --max_samples 8 --num_epochs 1 --eval_steps 1000000

训练产物(输出)

默认输出目录:

  • TrainingConfig.output_dir = ./outputs/qwen_titans_babilong

默认只保存一个 final checkpoint(覆盖写入):

  • final_memory_checkpoint.pt

内容包括:

  • memory_state_dict:只包含 long_term_memory / memory_gate 的参数(体积更小)
  • global_step