## BABILong(QA1 / 32k)数据处理与训练数据流说明 本文档描述当前仓库里 **BABILong QA1(32k.json)** 在训练脚本中的实际处理方式:从原始 JSON,到 tokenizer、padding、labels、DataLoader,再到喂给 `QwenTitansForBABILong` 的整条数据流。 代码入口: - `examples/train_qwen_titans_babilong.py` --- ## 数据源与样本格式 默认数据路径(可改): - `TrainingConfig.data_path = /data/yty/BABILong/babilong-train-5k-samples/data/qa1/32k.json` 文件内容为一个 JSON 列表,每条样本大体包含: - `input`:长上下文(故事/事实) - `question`:问题 - `target`:答案(短文本) 训练脚本会把它拼成 prompt: ``` {input} Question: {question} Answer: ``` 并把答案拼接为(答案前加空格): ``` {target} ``` --- ## 关键目标:固定长度样本(FSDP/DDP 必须) 当前实现 **强制每条样本输出固定长度 `config.max_length`(默认 32768)**,原因: - 模型前向会按 `chunk_size` 把序列分 chunk 循环处理 - 在 FSDP/DDP 下,如果不同 rank 的序列长度不同 → chunk 数不同 → collectives 顺序不一致 → NCCL watchdog 超时 因此数据侧必须固定长度,保证每步每个 rank 的 chunk 次数一致。 相关参数: - `TrainingConfig.max_length`:固定输出长度(默认 32768) - `TrainingConfig.answer_reserve_tokens`:给答案预留 token 数(默认 64) --- ## Dataset:`BABILongDataset.__getitem__` 的处理流程 位置:`examples/train_qwen_titans_babilong.py` ### Step 1:tokenize prompt(截断) - 对 prompt 进行 tokenize - 最大长度限制为 `max_length - answer_reserve_tokens` - `add_special_tokens=True`(让 tokenizer 自己加 BOS/EOS 等需要的特殊 token) ### Step 2:tokenize answer(不加特殊 token) - 对 `" {target}"` tokenize - `add_special_tokens=False` ### Step 3:拼接并截断到 `max_length` - 先算 prompt token 数 `len(prompt_ids)` - answer 只保留剩余可用空间:`available = max_length - len(prompt_ids)` - `input_ids = concat(prompt_ids, answer_ids[:available])` ### Step 4:构造 `labels`(只监督答案) - `labels` 初始全为 `-100` - 只有答案 token 的位置才写入对应 token id - 这样 loss 只在答案 token 上计算(prompt 与 padding 不参与 loss) ### Step 5:padding 到固定长度 + attention_mask 如果拼接后长度 `< max_length`: - `input_ids` 右侧 pad 到 `max_length`(pad_id = tokenizer.pad_token_id) - `labels` pad 的部分保持 `-100` - `attention_mask`: - 真 token 为 1 - padding 为 0 > 备注:脚本在 `main()` 里如果发现 `tokenizer.pad_token is None`,会设置 `pad_token = eos_token`,确保有 pad_id。 --- ## DataLoader 与分布式采样 ### DataLoader - `batch_size = 1`(32k 序列 + chunk streaming,一般只能 1) - `collate_fn` 只做 stack(Dataset 已固定长度,不做动态 padding) - `num_workers = 0`(避免多进程复制大张量带来的额外开销/不稳定) ### 训练/验证切分 - `random_split(full_dataset, [train_size, eval_size], generator=manual_seed(config.seed))` - 默认 `train_ratio=0.9` ### 分布式(torchrun) 当使用 `torchrun` 启动时: - 训练集:`DistributedSampler(..., shuffle=True, seed=config.seed)` - 验证集:`DistributedSampler(..., shuffle=False)` - 每个 epoch 会调用 `train_sampler.set_epoch(epoch)`,保证各 rank shuffle 一致 --- ## 喂给模型的数据张量形状 由于固定长度: - `input_ids`: `[B, max_length]`(默认 `[1, 32768]`) - `attention_mask`: `[B, max_length]` - `labels`: `[B, max_length]` 模型内部再按 `chunk_size`(默认 4096)切成 8 个 chunk 进行 streaming。 --- ## 训练与日志(跟数据流相关的行为) - **梯度累积**:`gradient_accumulation_steps=8` - 每 8 个 micro-batch 才做一次 optimizer step - **每 80 个 batch 输出一次**: - `--log_every_batches 80`(默认 80) - 会自动换算成 `logging_steps = ceil(log_every_batches / gradient_accumulation_steps)` - 并在 rank0 额外 `logger.info(...)` 打一行到终端,方便 `tee` 保存 --- ## 运行方式(推荐) ### 8 卡 + FSDP ```bash CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 \ torchrun --standalone --nproc_per_node=8 \ examples/train_qwen_titans_babilong.py --fsdp --log_every_batches 80 ``` ### 快速小跑(2 卡调试) ```bash CUDA_VISIBLE_DEVICES=0,1 \ torchrun --standalone --nproc_per_node=2 \ examples/train_qwen_titans_babilong.py --fsdp --max_samples 8 --num_epochs 1 --eval_steps 1000000 ``` --- ## 训练产物(输出) 默认输出目录: - `TrainingConfig.output_dir = ./outputs/qwen_titans_babilong` 默认只保存一个 final checkpoint(覆盖写入): - `final_memory_checkpoint.pt` 内容包括: - `memory_state_dict`:只包含 `long_term_memory` / `memory_gate` 的参数(体积更小) - `global_step`