| ## BABILong(QA1 / 32k)数据处理与训练数据流说明 | |
| 本文档描述当前仓库里 **BABILong QA1(32k.json)** 在训练脚本中的实际处理方式:从原始 JSON,到 tokenizer、padding、labels、DataLoader,再到喂给 `QwenTitansForBABILong` 的整条数据流。 | |
| 代码入口: | |
| - `examples/train_qwen_titans_babilong.py` | |
| --- | |
| ## 数据源与样本格式 | |
| 默认数据路径(可改): | |
| - `TrainingConfig.data_path = /data/yty/BABILong/babilong-train-5k-samples/data/qa1/32k.json` | |
| 文件内容为一个 JSON 列表,每条样本大体包含: | |
| - `input`:长上下文(故事/事实) | |
| - `question`:问题 | |
| - `target`:答案(短文本) | |
| 训练脚本会把它拼成 prompt: | |
| ``` | |
| {input} | |
| Question: {question} | |
| Answer: | |
| ``` | |
| 并把答案拼接为(答案前加空格): | |
| ``` | |
| {target} | |
| ``` | |
| --- | |
| ## 关键目标:固定长度样本(FSDP/DDP 必须) | |
| 当前实现 **强制每条样本输出固定长度 `config.max_length`(默认 32768)**,原因: | |
| - 模型前向会按 `chunk_size` 把序列分 chunk 循环处理 | |
| - 在 FSDP/DDP 下,如果不同 rank 的序列长度不同 → chunk 数不同 → collectives 顺序不一致 → NCCL watchdog 超时 | |
| 因此数据侧必须固定长度,保证每步每个 rank 的 chunk 次数一致。 | |
| 相关参数: | |
| - `TrainingConfig.max_length`:固定输出长度(默认 32768) | |
| - `TrainingConfig.answer_reserve_tokens`:给答案预留 token 数(默认 64) | |
| --- | |
| ## Dataset:`BABILongDataset.__getitem__` 的处理流程 | |
| 位置:`examples/train_qwen_titans_babilong.py` | |
| ### Step 1:tokenize prompt(截断) | |
| - 对 prompt 进行 tokenize | |
| - 最大长度限制为 `max_length - answer_reserve_tokens` | |
| - `add_special_tokens=True`(让 tokenizer 自己加 BOS/EOS 等需要的特殊 token) | |
| ### Step 2:tokenize answer(不加特殊 token) | |
| - 对 `" {target}"` tokenize | |
| - `add_special_tokens=False` | |
| ### Step 3:拼接并截断到 `max_length` | |
| - 先算 prompt token 数 `len(prompt_ids)` | |
| - answer 只保留剩余可用空间:`available = max_length - len(prompt_ids)` | |
| - `input_ids = concat(prompt_ids, answer_ids[:available])` | |
| ### Step 4:构造 `labels`(只监督答案) | |
| - `labels` 初始全为 `-100` | |
| - 只有答案 token 的位置才写入对应 token id | |
| - 这样 loss 只在答案 token 上计算(prompt 与 padding 不参与 loss) | |
| ### Step 5:padding 到固定长度 + attention_mask | |
| 如果拼接后长度 `< max_length`: | |
| - `input_ids` 右侧 pad 到 `max_length`(pad_id = tokenizer.pad_token_id) | |
| - `labels` pad 的部分保持 `-100` | |
| - `attention_mask`: | |
| - 真 token 为 1 | |
| - padding 为 0 | |
| > 备注:脚本在 `main()` 里如果发现 `tokenizer.pad_token is None`,会设置 `pad_token = eos_token`,确保有 pad_id。 | |
| --- | |
| ## DataLoader 与分布式采样 | |
| ### DataLoader | |
| - `batch_size = 1`(32k 序列 + chunk streaming,一般只能 1) | |
| - `collate_fn` 只做 stack(Dataset 已固定长度,不做动态 padding) | |
| - `num_workers = 0`(避免多进程复制大张量带来的额外开销/不稳定) | |
| ### 训练/验证切分 | |
| - `random_split(full_dataset, [train_size, eval_size], generator=manual_seed(config.seed))` | |
| - 默认 `train_ratio=0.9` | |
| ### 分布式(torchrun) | |
| 当使用 `torchrun` 启动时: | |
| - 训练集:`DistributedSampler(..., shuffle=True, seed=config.seed)` | |
| - 验证集:`DistributedSampler(..., shuffle=False)` | |
| - 每个 epoch 会调用 `train_sampler.set_epoch(epoch)`,保证各 rank shuffle 一致 | |
| --- | |
| ## 喂给模型的数据张量形状 | |
| 由于固定长度: | |
| - `input_ids`: `[B, max_length]`(默认 `[1, 32768]`) | |
| - `attention_mask`: `[B, max_length]` | |
| - `labels`: `[B, max_length]` | |
| 模型内部再按 `chunk_size`(默认 4096)切成 8 个 chunk 进行 streaming。 | |
| --- | |
| ## 训练与日志(跟数据流相关的行为) | |
| - **梯度累积**:`gradient_accumulation_steps=8` | |
| - 每 8 个 micro-batch 才做一次 optimizer step | |
| - **每 80 个 batch 输出一次**: | |
| - `--log_every_batches 80`(默认 80) | |
| - 会自动换算成 `logging_steps = ceil(log_every_batches / gradient_accumulation_steps)` | |
| - 并在 rank0 额外 `logger.info(...)` 打一行到终端,方便 `tee` 保存 | |
| --- | |
| ## 运行方式(推荐) | |
| ### 8 卡 + FSDP | |
| ```bash | |
| CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 \ | |
| torchrun --standalone --nproc_per_node=8 \ | |
| examples/train_qwen_titans_babilong.py --fsdp --log_every_batches 80 | |
| ``` | |
| ### 快速小跑(2 卡调试) | |
| ```bash | |
| CUDA_VISIBLE_DEVICES=0,1 \ | |
| torchrun --standalone --nproc_per_node=2 \ | |
| examples/train_qwen_titans_babilong.py --fsdp --max_samples 8 --num_epochs 1 --eval_steps 1000000 | |
| ``` | |
| --- | |
| ## 训练产物(输出) | |
| 默认输出目录: | |
| - `TrainingConfig.output_dir = ./outputs/qwen_titans_babilong` | |
| 默认只保存一个 final checkpoint(覆盖写入): | |
| - `final_memory_checkpoint.pt` | |
| 内容包括: | |
| - `memory_state_dict`:只包含 `long_term_memory` / `memory_gate` 的参数(体积更小) | |
| - `global_step` | |