# **PCL-Reasoner-V1模型** ## 模型概览 本次发布的PCL-Reasoner-V1模型,以Qwen2.5-32B-Base为起点,基于昇思框架与昇腾硬件进行了高性能的监督微调。经过微调,模型在数学推理能力上取得了显著提升:其在权威基准评测集AIME24上准确率达 85.7%,AIME25上达 84.2%,在 32B参数级别模型中稳居前列。 为促进技术共享与应用,我们已完整开源了PCL-Reasoner-V1的模型权重、微调数据及训练代码。该模型不仅是当下领先的32B数学推理模型之一,更为开发者提供了宝贵的专业领域监督微调实践经验与后训练解决方案。用户可参照以下教程轻松部署体验,深入探索后训练的实践方法与奥秘! ![eval_results](images/README/eval_results.png) ## 开发指导 ### 1. 模型文件 PCL-Reasoner-V1基于Qwen-2.5-Base进行微调后训练,训练流程基于MindFormers实现,主要涉及的文件有: 数据处理: ``` pcl_reasoner_v1 ├── qwen2_5_tokenizer.py # qwen2_5 tokenizer ├── packing_handler.py # 数据packing处理 └── data_preprocess ├── decontaminate.py # 数据污染检测 └── dataset_prehandle_and_split.py # 数据拆分及预处理 ``` 模型配置: ``` pcl_reasoner_v1/config ├── data_process_handling.yaml # 数据格式转换配置文件 ├── data_process_packing.yaml # 数据拼接配置文件 └── finetune_pcl_reasoner_v1_32k.yaml # 模型微调配置文件 ``` 任务启动脚本: ``` pcl_reasoner_v1 └── run_pcl_reasoner_v1_finetune.sh # 模型微调启动脚本 ``` ### 2.环境及数据准备 #### 2.1 安装环境: | 软件| 版本 | | --- | --- | | 固件&驱动| 24.1.rc3.5 | | CANN| 7.7.T9.0.B057:8.1.RC1 | | Python | 3.10 | | MindSpore | 2.6.0 | | MindSpore TransFormers | r1.5.0 | #### 2.2 数据处理 ##### 2.2.1 数据集下载 用户可以从HuggingFace官方下载原始数据集: | 数据集名称 | 数据集链接 | | ------------------------------- | ----------------------------------------------------------------------------------------------------------------------------- | | AM-DeepSeek-R1-0528-Distilled | [https://huggingface.co/a-m-team/AM-DeepSeek-R1-0528-Distilled](https://huggingface.co/a-m-team/AM-DeepSeek-R1-0528-Distilled) | ##### 2.2.2 数据预处理 首先,我们对源数据进行检测和筛选,操作分为两个步骤,验证集污染检测与数据筛选。 * 验证集污染检测:我们采用基于all-MiniLM-L6-v2模型计算文本余弦相似度的方法,对数学部分原始数据针对AIME24/25评测集进行污染检测。该脚本执行后会在终端打印检测结果,并在指定的输出路径中保存相似度大于阈值的题目及其匹配的评测集题目。 ``` python PCL-Reasoner-V1/pcl_reasoner_v1/data_preprocess/decontaminate.py \ --target_data /path/to/target_data \ --contaminant_source PCL-Reasoner-V1/pcl_reasoner_v1/data_preprocess/aime2425_questions.json \ --model_path /path/to/distilled/model_path \ --output_file_prefix /path/to/output_file_prefix --threshold 0.7 # 参数说明 target_data:需要被检测的数据 contaminant_source:污染源,即评测集数据 model_path:计算文本嵌入的模型 output_file_prefix:检测结果输出的路径 threshold:相似度阈值 ``` * 数据筛选及处理:运行数据处理脚本,进行数据长度筛选,选取问题加思维链长度小于32K tokens的数据,并将提示词添加到数据中。 ``` python PCL-Reasoner-V1/pcl_reasoner_v1/data_preprocess/convert_and_split_dataset.py \ --json_file_paths /path/to/AM-DeepSeek-R1-0528-Distilled/math.jsonl # 参数说明 json_file_paths:需要处理的数据集,支持传入多个路径,用空格分隔 ``` 其次,我们将数据转换成packing格式,操作分为两个步骤,格式转换与数据拼接。 * 格式转换:在配置文件`pcl_reasoner_v1/config/data_process_handling.yaml`中指定`data_files`、`vocab_file`、`merges_file`等文件路径,指定`pcl_reasoner_ v1/packing _handler.py`文件中自定义的`AMDeepSeekDataHandler`为数据handler: ``` train_dataset: ... path: "json" # 原始数据集文件格式 data_files: ["/path/to/data.jsonl"] # 原始数据集路径 input_columns: *input_columns handler: - type: AMDeepSeekDataHandler # 指定自定义的数据处理类 ... tokenizer: auto_register: qwen2_5_tokenizer.Qwen2Tokenizer ... vocab_file: "/path/to/vocab.json" # Qwen2_5默认tokenizer文件 merges_file: "/path/to/merges.txt" # Qwen2_5默认tokenizer文件 ... ``` *(注意事项:以上模型配置为示例,仅列出用户高频修改的配置项,完整配置文件见代码仓)* 运行数据处理脚本,生成Arrow格式数据文件: ``` export PYTHONPATH=/path/to/mindformers/:PYTHONPATH python th/to/mindformers/toolkit/data_preprocess/huggingface/datasets_preprocess.py --config ./pcl_reasoner_v1/config/data_process_handling.yaml --save_path /path/to/handled_data/ --register_path ./pcl_reasoner_v1/ # 参数说明 config:数据格式转换的配置文件路径 save_path:转换后数据集的保存文件夹路径 register_path:自定义数据Handler注册目录路径 ``` * 数据拼接: 在配置文件pcl_reasoner_v1/config/data_process_packing.yaml指定packing后数据的存储路径: ``` # dataset train_dataset: data_loader: ... path: /path/to/handled_data #预处理后数据集的路径 ... ``` *(注意事项:以上模型配置为示例,仅列出用户高频修改的配置项,完整配置文件见代码仓)* 运行数据packing脚本,生成packing后数据文件: ``` export PYTHONPATH=/path/to/mindformers/:PYTHONPATH python /path/to/mindformers/toolkit/data_preprocess/huggingface/datasets_preprocess.py --config ./pcl_reasoner_v1_config/data_process_packing.yaml --save_path /path/to/packed_data/ --register_path ./pcl_reaoner_v1/ # 参数说明 config:数据拼接的配置文件路径 save_path:拼接后数据集的保存文件夹路径 register_path:自定义数据Handler注册目录路径 ``` ### 3 训练流程 #### 3.1 权重准备 用户可以从HuggingFace官方下载预训练权重 | 模型名称 | 权重链接 | | ------------------- | --------------------------------------------------------------------------------- | | qwen2\_5-32b-Base | [https://huggingface.co/Qwen/Qwen2.5-32B](https://huggingface.co/Qwen/Qwen2.5-32B) | MindFormers 1.5.0及以上版本已支持safetensor格式的权重直接加载及保存,无需转换成ckpt,下文中微调将使用safetensors格式权重运行。 #### 3.2 训练配置: 下面仅列出用户高频修改的配置项,完整配置文件见`pcl_reasoner_v1/config/ finetune_pcl_reasoner_v1_32k.yaml` 基本配置: ``` run_mode: 'finetune' # 设置训练模式为“finetune” load_checkpoint: '/path/to/Qwen-32B-base/' # 权重文件路径 load_ckpt_format: 'safetensors' # 设置权重格式为“safetensors” auto_trans_ckpt: True # 设置在线权重切分至分布式权重 ``` 数据集配置: ``` train_dataset: &train_dataset     data_loader:     type: CommonDataLoader       # offline     path: "/path/to/dataset/pack_data_lt_32K_full" # 数据文件路径     load_func: 'load_from_disk' # 设置数据加载方式为“load_from_disk”         shuffle: True # 数据打乱功能使能     packing: pack # 数据格式为pack     adaptor_config:       compress_mask: True     mock_config:       seq_length: 32768 # 数据pack后长度为32k       size: 25909 # 数据集大小/数据并行切分 ``` 并行配置: ``` parallel_config:   data_parallel: &dp 8 # 数据并行切分为8   model_parallel: 8 # 模型并行切分为8   pipeline_stage: 2 # 流水线并行切分为2   use_seq_parallel: True # 序列并行使能   optimizer_shard: True  # 优化器并行使能   micro_batch_num: 16 # micro bathsize设置为16 ``` > *(注意事项:以上模型配置为示例,仅列出用户高频修改的配置项,完整配置文件见代码仓)* #### 3.3 启动微调 在启动脚本`run_pcl_reasoner_v1_finetune.sh`指定配置文件`pcl_reasoner _v1/config/finetune_pcl_reasoner_v1_32k.yaml`,并根据用户的实际情况对卡数、服务器IP等配置进行修改: ``` noderank=$1 bash /path/to/mindformers/scripts/msrun_launcher.sh "run_mindformer.py \ --config /path/to/finetune_pcl_reasoner_v1_32k.yaml \ --run_mode finetune" \ --worker_num 128 \ --local_worker_num 8 \ --master_addr XX.XX.XX.XX \ --master_port XXXX \ --node_rank $noderank \ --log_dir /path/to/log \ --join False \ --cluster_time_out 1200 \ > run.log 2>&1 # 参数说明 config:配置文件路径 run_mode:运行模式(预训练/微调/推理) worker_num: 总卡数 local_worker_num: 单机的卡数 master_addr:主节点地址 master_port: 主节点端口 log_dir: 日志路径 join:是否等待所有worker退出 cluster_time_out:集群等待时间 ``` 然后,使用`bash run_pcl_reasoner_v1_finetune.sh`指令启动微调训练,在多个节点上启动时,需指定`node_rank`(以下指令以0节点为示例): ``` bash run_pcl_reasoner_v1_finetune.sh 0 ``` 在拉起任务后,通过以下指令查看运行日志: ``` tail -f path/to/log/worker_127.log ``` ### 4. 评测流程: 为了保障评测结果的公平性,我们采用了QwQ开源的评测代码(QwQ/eval at main · QwenLM/QwQ),可以根据代码仓中README.md指导进行环境安装及模型评测。 我们采用的评测超参如下所示: | 采样超参 | 取值 | | ---------------- | --------------------------------------------- | | temperature | 0.6 | | top\_k | 40 | | top\_p | 0.95 | | max\_tokens | 129024 | | chat\_template |`./pcl_reasoner_v1/eval/am_thinking.jinja` | 我们在AIME24/AIME25评测结果详见下表数据。为确保评估准确性,我们采用Avg@32指标(平均32次采样)进行了评测:
模型规格 模型 AIME 24 AIME 25
>100B
DeepSeek-R1 79.8 70
DeepSeek-R1-0528 91.4 87.5
Qwen3-235B-A22B 85.7 81.5
OpenAI-o3 91.6 88.9
Gemini-2.5-Pro-0506 90.8 83
32B
Qwen3-32B 81.4 72.9
QwQ-32B 79.5 69.5
DeepSeek-R1-Distill-Qwen-32B 72.6 49.6
Skywork-OR1-32B 82.2 73.3
AM-Thinking-v1 85.3 74.4
PCL-Reasoner-v1

85.7

84.2

> *(注:模型在AIME24/25评测集上的生成结果文件已同步上传至 `pcl_reasoner_v1/eval/eval_res`目录,供开发者用于模型验证与效果比对参考)* 另外,我们也针对评测时不同模型回答长度统计正确率,可以看出AIME24/25评测集对回答长度要求较高,而且较为简单的AIME24上,64K tokens的回答长度可以满足,而较为难的AIME25上则需要回答长度长达128K tokens:
回答长度 16k 32k 64k 128k
AIME24 42.0 77.9 85.7 85.7
AIME25 33.4 75.6 83.9 84.2