Datasets:
File size: 9,644 Bytes
9cd8f42 7c537b5 9cd8f42 34aaebb 7c537b5 9cd8f42 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 |
---
language:
- en
- zh
license: apache-2.0
size_categories:
- 100B<n<1T
task_categories:
- text-generation
pretty_name: UltraData-Math
arxiv: xxxx.xxxxx
tags:
- llm
- pretraining
- math
- data-synthesis
- data-filtering
- high-quality
- mathematical-reasoning
---
# UltraData-Math
<div align="center">
<img src="assets/ultradata-math-logo.png" width="600"/>
</div>
<div align="center">
[🤗 数据集](https://huggingface.co/datasets/openbmb/UltraData-Math-L1) | [💻 代码仓库](https://github.com/UltraData-OpenBMB/UltraData-Math) | [🇺🇸 English README](README_EN.md)
</div>
## 📚 简介
高质量预训练数据对提升大语言模型的数学推理能力至关重要。然而,现有数学预训练数据构建方案存在以下不足:
- **HTML 解析层面**:通用提取器(如 trafilatura、readability)主要面向新闻/文章场景设计,对数学公式等内容缺乏专门处理,常导致公式结构破坏或丢失;同时论坛类页面的数学讨论部分,难以完整提取。
- **数据质量层面**:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
- **数据多样性层面**:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。
针对上述问题,我们提出 ***UltraData-Math***——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 [Ultra-Data](xxx) 的 L0-L4 分级数据处理框架开发,包含四个递进层级:
- **L0 原始数据层**:基于 *magic-html* 开发数学解析器,结合 *w3m* 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX 格式
- **L1 过滤数据层**:通过启发式规则清洗噪声并进行文档级去重
- **L2 精筛数据层**:使用闭源大模型标注种子数据并蒸馏至轻量 Embedding 分类器,实现全量语料的高效质量分级
- **L3 合成数据层**:基于多模型集成生成 Q&A、多轮对话、多风格改写、知识接地教材等多种格式的合成数据
实验表明,在 MiniCPM-1B 架构上,***UltraData-Math*** 在 MATH 基准上达到 **37.02** 分,相较 Nemotron-CC 4plus 提升 **+3.62** 分;在 GSM8K 上达到 **61.79** 分,提升 **+3.34** 分,同时保持代码生成与通用知识能力。
***UltraData-Math*** 已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
- **[UltraData-Math-L1](https://huggingface.co/datasets/openbmb/UltraData-Math-L1)**: 大规模高质量数学预训练数据集,包含 159.4B tokens 的网页数学语料。(**<-- you are here**)
- **[UltraData-Math-L3](https://huggingface.co/datasets/openbmb/UltraData-Math-L3)**: 高质量合成数学数据集,包含 37.1B tokens 的多格式合成数据(Q&A、多轮对话、知识教材等)。
## 🏗️ 数据处理流水线
为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。***UltraData-Math*** 采用了 UltraData观点论文提出的 **L0-L4 数据分级体系**,通过标准化的层级定义,实现数学数据资产的有序管理与高效流转。每一级都代表了更高的数据纯度与数学价值,同时也对应着更精细的加工程度。
<div align="center">
<img src="assets/ultradata-math-pipeline.png" width="900"/>
</div>
### L0:原始数据解析与标准化
**目标**:解决通用 HTML 解析器对数学公式支持不佳的问题,最大限度保留网页中的数学语义。
L0 阶段主要处理从 Common Crawl 等来源获取的原始网页数据。针对数学网页的特殊性,我们开发了专用的解析策略,而非直接使用通用的 trafilatura 或 readability。
- **统一解析模式**:自动识别页面类型,尽可能保证完整内容提取。
- **多级回退策略**:为了防止解析失败导致数据丢失,我们实施了多级回退机制,确保在结构化解析失败时仍能捕获文本内容。
- **数学公式标准化**:我们将网页中不同的数学表达统一转换为标准的 LaTeX 格式,实现了数据格式的归一化,便于模型统一学习。
### L1:启发式清洗与过滤
**目标**:去除格式噪声,提升数据的可读性和规范性。
在获取了包含完整数学公式的文本后,我们通过一系列启发式规则对 L0 数据进行清洗:
- **格式修复**:
- 清理不可见字符、乱码及非自然的连续换行。
- 移除导航栏、页脚、广告弹窗及"阅读更多"等无关网页噪音。
- **内容过滤**:
- *长度过滤*:移除过短的文本片段,这些片段通常缺乏上下文,难以支持有效的数学推理训练。
- *语言识别*:确保数据集主要由高质量的英文及中文数学内容组成。
- *文档去重*:在文档级别进行去重,防止重复内容对模型训练造成偏差。
### L2:基于质量模型的精选
**目标**:从海量数据中识别出具有高价值的核心语料。
L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:
- **种子数据标注**:使用闭源大模型对一部分种子数据进行多维度打分,关注多个维度。
- **分类器训练与蒸馏**:基于标注数据训练轻量级的 Embedding 分类器,使其具备识别高价值数学内容的能力。
- **全量推理**:使用训练好的分类器对 L1 数据进行全量打分与筛选。
- *保留*:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
- *剔除*:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。
### L3:合成与增强数据
**目标**:通过合成数据弥补自然语料在格式和场景上的单一性,强化模型的推理链条(CoT)能力。
自然网页数据多为陈述性文本,为了增强模型的指令遵循和多轮交互能力,我们构建了 L3 合成数据层:
- **Q&A 对生成**:利用高性能模型将陈述性文档改写为"问题-回答"对,构建QA风格的数据。
- **多轮对话合成**:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
- **多风格改写**:将单一来源的数据改写为多种风格(如教科书严谨风格、竞赛解题风格、科普直观风格),提升模型的泛化能力。
- **知识点教材生成**:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
| 数据集 | # Tokens | # Documents |
|:---|:---:|:---:|
| UltraData-Math-L1 | 159.4B | 85.56M |
| UltraData-Math-L3 | 37.1B | 31.87M |
## 📈 实验结果
我们采用 **MiniCPM-1.2B** 模型架构与**MiniCPM3-4B**分词器进行实验验证。每个实验均在 **1000 亿 Token** 的训练量下进行,从而能在计算效率可控的参数范围内对数据性能进行全面验证。我们使用Lighteval库进行模型评估,所有评估指标均基于 **Zero-Shot** 设置。评估基准包括:
- **数学推理:** GSM8K、MATH、R-Bench、Math-Bench
- **代码生成:** HumanEval、MBPP
- **综合知识:** MMLU、MMLU-STEM
### L0 解析器消融实验
基于相同来源数据,我们使用不同解析器分别提取后独立训练,直接对比解析策略的效果差异:
| 解析器 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem |
|:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
| **UltraData-Math-L0-Parser (Ours)** | **43.44** | 51.41 | 54.97 | **31.71** | **28.72** | 47.10 | 46.76 |
| trafilatura + w3m | 42.33 | 50.95 | 54.51 | 27.44 | 27.64 | **47.93** | 45.52 |
| trafilatura | 42.44 | 51.42 | **56.03** | 26.83 | 28.08 | 45.64 | 46.62 |
| Megamath | 42.32 | **51.46** | 54.06 | 29.88 | 26.04 | 45.64 | **46.81** |
| magic-html + w3m | 41.29 | 51.23 | 51.63 | 26.83 | 26.58 | 45.02 | 46.45 |
### 完整评测结果
我们使用单一数据集进行独立训练,以直接对比不同数据源的效果:
| 模型 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem | R-bench | Math-bench |
|:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
| **UltraData-Math (Ours)** | **43.79** | 51.67 | **61.79** | 32.93 | **37.02** | **49.27** | 45.93 | 23.38 | **48.33** |
| Nemotron-cc 4plus mind | 43.45 | 52.09 | 59.97 | 34.76 | 35.96 | 48.03 | 45.99 | **23.51** | 47.25 |
| Nemotron-cc 4plus | 42.62 | 51.96 | 58.45 | **35.37** | 33.40 | 46.47 | 45.67 | 22.74 | 46.92 |
| MegaMath-Web-Pro | 41.38 | **53.16** | 56.71 | 31.71 | 32.12 | 47.10 | **47.15** | 21.23 | 41.83 |
| FineMath-4+ | 40.51 | 50.90 | 56.25 | 29.88 | 29.84 | 48.96 | 44.98 | 18.93 | 44.33 |
## ❤️ 致谢
- **L0 解析层**:[magic-html](https://github.com/opendatalab/magic-html)、[w3m](http://w3m.sourceforge.net/)、[trafilatura](https://github.com/adbar/trafilatura)
- **L3 合成层**:[Qwen2.5-72B-Instruct](https://huggingface.co/Qwen/Qwen2.5-72B-Instruct)、[Qwen3-32B](https://huggingface.co/Qwen/Qwen3-32B)、[GLM-4.5](https://huggingface.co/zai-org/GLM-4.5)
- **种子数据**:[Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath](https://huggingface.co/datasets/LLM360/MegaMath)、[FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)
## 📜 许可证
本项目基于 [Apache 2.0](./LICENSE) 许可证发布。 |