Datasets:
ZhouChuYue
commited on
Commit
·
e6965ca
1
Parent(s):
85fdde4
Update README_ZH: Sync Chinese version with latest English README
Browse files- README_ZH.md +70 -37
README_ZH.md
CHANGED
|
@@ -27,7 +27,7 @@ tags:
|
|
| 27 |
|
| 28 |
<div align="center">
|
| 29 |
|
| 30 |
-
[🤗 数据集](https://huggingface.co/datasets/openbmb/UltraData-Math
|
| 31 |
|
| 32 |
|
| 33 |
</div>
|
|
@@ -40,23 +40,24 @@ tags:
|
|
| 40 |
- **数据质量层面**:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
|
| 41 |
- **数据多样性层面**:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。
|
| 42 |
|
| 43 |
-
针对上述问题,我们提出 ***UltraData-Math***——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 [
|
| 44 |
|
| 45 |
-
- **L0 原始数据层**:基于 *magic-html* 开发数学解析器,结合 *w3m* 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX
|
| 46 |
-
- **L1
|
| 47 |
-
- **L2
|
| 48 |
-
- **L3
|
| 49 |
|
| 50 |
-
实验表明,在 MiniCPM-
|
| 51 |
|
| 52 |
***UltraData-Math*** 已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
|
| 53 |
|
| 54 |
-
- **[UltraData-Math-L1](https://huggingface.co/datasets/openbmb/UltraData-Math
|
| 55 |
-
- **[UltraData-Math-
|
|
|
|
| 56 |
|
| 57 |
## 🏗️ 数据处理流水线
|
| 58 |
|
| 59 |
-
为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。***UltraData-Math*** 采用了 UltraData
|
| 60 |
|
| 61 |
<div align="center">
|
| 62 |
<img src="assets/ultradata-math-pipeline.png" width="900"/>
|
|
@@ -92,67 +93,99 @@ L0 阶段主要处理从 Common Crawl 等来源获取的原始网页数据。针
|
|
| 92 |
|
| 93 |
L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:
|
| 94 |
|
| 95 |
-
-
|
| 96 |
- **分类器训练与蒸馏**:基于标注数据训练轻量级的 Embedding 分类器,使其具备识别高价值数学内容的能力。
|
| 97 |
- **全量推理**:使用训练好的分类器对 L1 数据进行全量打分与筛选。
|
| 98 |
- *保留*:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
|
| 99 |
- *剔除*:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。
|
| 100 |
|
| 101 |
-
### L3
|
| 102 |
|
| 103 |
-
|
| 104 |
|
| 105 |
-
|
| 106 |
|
| 107 |
-
- **Q&A 对生成**:利用高性能模型将陈述性文档改写为"问题-回答"
|
| 108 |
- **多轮对话合成**:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
|
| 109 |
- **多风格改写**:将单一来源的数据改写为多种风格(如教科书严谨风格、竞赛解题风格、科普直观风格),提升模型的泛化能力。
|
| 110 |
- **知识点教材生成**:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
|
|
|
|
| 111 |
|
| 112 |
| 数据集 | # Tokens | # Documents |
|
| 113 |
|:---|:---:|:---:|
|
| 114 |
-
| UltraData-Math-L1 |
|
| 115 |
-
| UltraData-Math-
|
|
|
|
| 116 |
|
| 117 |
## 📈 实验结果
|
| 118 |
|
| 119 |
-
我们采用 **MiniCPM-1.2B**
|
| 120 |
|
| 121 |
-
- **数学推理:** GSM8K、
|
| 122 |
- **代码生成:** HumanEval、MBPP
|
| 123 |
- **综合知识:** MMLU、MMLU-STEM
|
| 124 |
|
| 125 |
-
###
|
| 126 |
|
| 127 |
-
|
| 128 |
|
| 129 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
| 130 |
|:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
|
| 131 |
-
| **UltraData-Math-
|
| 132 |
-
| trafilatura + w3m | 42.33 | 50.95 |
|
| 133 |
-
| trafilatura | 42.44 | 51.42 |
|
| 134 |
-
| Megamath | 42.32 | **51.46** |
|
| 135 |
-
| magic-html + w3m | 41.29 | 51.23 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 136 |
|
| 137 |
### 完整评测结果
|
| 138 |
|
| 139 |
-
|
| 140 |
|
| 141 |
-
| 模型 | 平均分 | MMLU |
|
| 142 |
|:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
|
| 143 |
-
| **UltraData-Math (Ours)** | **43.79** | 51.67 |
|
| 144 |
-
| Nemotron-cc 4plus mind | 43.45 | 52.09 |
|
| 145 |
-
| Nemotron-cc 4plus | 42.62 | 51.96 |
|
| 146 |
-
| MegaMath-Web-Pro | 41.38 | **53.16** |
|
| 147 |
-
| FineMath-4+ | 40.51 | 50.90 |
|
| 148 |
-
|
| 149 |
|
| 150 |
## ❤️ 致谢
|
| 151 |
|
| 152 |
- **L0 解析层**:[magic-html](https://github.com/opendatalab/magic-html)、[w3m](http://w3m.sourceforge.net/)、[trafilatura](https://github.com/adbar/trafilatura)
|
| 153 |
-
- **L3
|
| 154 |
- **种子数据**:[Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath](https://huggingface.co/datasets/LLM360/MegaMath)、[FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)
|
| 155 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 156 |
## 📜 许可证
|
| 157 |
|
| 158 |
-
本项目基于 [Apache 2.0](./LICENSE) 许可证发布。
|
|
|
|
| 27 |
|
| 28 |
<div align="center">
|
| 29 |
|
| 30 |
+
[🤗 数据集](https://huggingface.co/datasets/openbmb/UltraData-Math) | [💻 代码仓库](https://github.com/UltraData-OpenBMB/UltraData-Math) | [🇺🇸 English README](README.md)
|
| 31 |
|
| 32 |
|
| 33 |
</div>
|
|
|
|
| 40 |
- **数据质量层面**:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
|
| 41 |
- **数据多样性层面**:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。
|
| 42 |
|
| 43 |
+
针对上述问题,我们提出 ***UltraData-Math***——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 [UltraData](xxx) 的 L0-L4 分级数据管理框架开发,包含四个递进层级:
|
| 44 |
|
| 45 |
+
- **L0 原始数据层**:基于 *magic-html* 开发数学解析器,结合 *w3m* 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX 格式。
|
| 46 |
+
- **L1 过滤数据层**:通过启发式规则清洗噪声并进行文档级去重。
|
| 47 |
+
- **L2 精选数据层**:使用闭源大模型标注种子数据并蒸馏至轻量 Embedding 分类器,实现全量语料的高效质量分级。
|
| 48 |
+
- **L3 精炼数据层**:通过改写、合成生成与精炼,生成具有清晰推理链条的结构化内容,涵盖 Q&A、多轮对话、多风格改写、知识教材等多种格式。
|
| 49 |
|
| 50 |
+
实验表明,在 MiniCPM-1.2B 架构上,***UltraData-Math*** 在 MATH500 基准上达到 **37.02** 分,相较 Nemotron-CC 4plus 提升 **+3.62** 分;在 GSM8K 上达到 **61.79** 分,提升 **+3.34** 分,同时保持代码生成与通用知识能力。
|
| 51 |
|
| 52 |
***UltraData-Math*** 已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
|
| 53 |
|
| 54 |
+
- **[UltraData-Math-L1](https://huggingface.co/datasets/openbmb/UltraData-Math)**: 大规模高质量数学预训练数据集,包含 170.5B tokens 的网页数学语料。(**<-- you are here**)
|
| 55 |
+
- **[UltraData-Math-L2](https://huggingface.co/datasets/openbmb/UltraData-Math-L2)**: 经质量模型精选的高质量数学预训练数据集,包含 33.7B tokens 的高质量网页数学语料。
|
| 56 |
+
- **[UltraData-Math-L3](https://huggingface.co/datasets/openbmb/UltraData-Math-L3)**: 高质量精炼数学数据集,包含 88B tokens 的多格式精炼数据(Q&A、多轮对话、知识教材等)。
|
| 57 |
|
| 58 |
## 🏗️ 数据处理流水线
|
| 59 |
|
| 60 |
+
为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。***UltraData-Math*** 采用了 [UltraData](xxx) 论文提出的 **L0-L4 分级数据管理框架**,通过标准化的层级定义,实现数学数据资产的有序管理与高效流转。每一级都代表了更高的数据纯度与数学价值,同时也对应着更精细的加工程度。
|
| 61 |
|
| 62 |
<div align="center">
|
| 63 |
<img src="assets/ultradata-math-pipeline.png" width="900"/>
|
|
|
|
| 93 |
|
| 94 |
L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:
|
| 95 |
|
| 96 |
+
- **种子数据标注**:使用闭源大模型对一部分种子数据进行多维度打分。
|
| 97 |
- **分类器训练与蒸馏**:基于标注数据训练轻量级的 Embedding 分类器,使其具备识别高价值数学内容的能力。
|
| 98 |
- **全量推理**:使用训练好的分类器对 L1 数据进行全量打分与筛选。
|
| 99 |
- *保留*:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
|
| 100 |
- *剔除*:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。
|
| 101 |
|
| 102 |
+
### L3:精炼数据
|
| 103 |
|
| 104 |
+
**目标**:通过改写、合成生成与精炼,生成具有清晰推理链条和显式教学意图的结构化内容,达到教科书级质量标准,确保最大化可学习性。
|
| 105 |
|
| 106 |
+
自然网页数据多为陈述性文本,缺乏结构化的推理步骤和多样化的教学格式。为了增强模型的推理链条(CoT)能力和多轮交互能力,我们通过 [UltraData-Math-Generator](https://github.com/UltraData-OpenBMB/UltraData-Math/tree/main/UltraData-Math-L3-Generator) 构建了 L3 精炼数据层:
|
| 107 |
|
| 108 |
+
- **Q&A 对生成**:利用高性能模型将陈述性文档改写为"问题-回答"对,构建包含显式推理步骤的 QA 风格数据。
|
| 109 |
- **多轮对话合成**:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
|
| 110 |
- **多风格改写**:将单一来源的数据改写为多种风格(如教科书严谨风格、竞赛解题风格、科普直观风格),提升模型的泛化能力。
|
| 111 |
- **知识点教材生成**:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
|
| 112 |
+
- **格式修复与增强**:修复源数据中的格式问题(如损坏的 LaTeX 公式、不一致的符号标记),并增强内容连贯性,以达到教科书级质量标准。
|
| 113 |
|
| 114 |
| 数据集 | # Tokens | # Documents |
|
| 115 |
|:---|:---:|:---:|
|
| 116 |
+
| UltraData-Math-L1 | 170.5B | 85.6M |
|
| 117 |
+
| UltraData-Math-L2-preview | 33.7B | 14.98M |
|
| 118 |
+
| UltraData-Math-L3 | 88B | 81.4M |
|
| 119 |
|
| 120 |
## 📈 实验结果
|
| 121 |
|
| 122 |
+
我们采用 **MiniCPM-1.2B** 模型架构与 **MiniCPM3-4B** 分词器进行实验验证。每个实验均在 **1000 亿 Token** 的训练量下进行,采用 **衰减验证(Decay Verification)** 方法(基于 1.3T 预训练基座模型进行退火)。我们使用 [OpenCompass](https://github.com/open-compass/opencompass) 作为评估框架。评估基准包括:
|
| 123 |
|
| 124 |
+
- **数学推理:** GSM8K、MATH500、Math-Bench、R-Bench-Math
|
| 125 |
- **代码生成:** HumanEval、MBPP
|
| 126 |
- **综合知识:** MMLU、MMLU-STEM
|
| 127 |
|
| 128 |
+
### 🔧 实验设置
|
| 129 |
|
| 130 |
+
我们使用 **衰减验证(Decay Verification)** 方法评估数据质量:在 **MiniCPM-1.2B** 基座模型(预训练 1.3T tokens)上继续训练 **~100B tokens**(30% 目标数据 + 70% 通用数据)。
|
| 131 |
|
| 132 |
+
### L0 解析策略有效性
|
| 133 |
+
|
| 134 |
+
为公平对比不同解析策略,我们在 **2023-2024** 年分布的数据子集上进行实验。我们使用不同解析器重新解析原始 HTML,并对**所有基线应用相同的 L1 清洗算子**。该对比展示了我们 **L0 解析器 + L1 过滤管线的综合收益**。
|
| 135 |
+
|
| 136 |
+
| 解析器 | 平均分 | MMLU | MMLU-STEM | MATH500 | GSM8K | MBPP | HumanEval |
|
| 137 |
|:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
|
| 138 |
+
| **UltraData-Math-Parser (Ours)** | **43.44** | 51.41 | 46.76 | **28.72** | 54.97 | 47.10 | **31.71** |
|
| 139 |
+
| trafilatura + w3m | 42.33 | 50.95 | 45.52 | 27.64 | 54.51 | **47.93** | 27.44 |
|
| 140 |
+
| trafilatura | 42.44 | 51.42 | 46.62 | 28.08 | **56.03** | 45.64 | 26.83 |
|
| 141 |
+
| Megamath | 42.32 | **51.46** | **46.81** | 26.04 | 54.06 | 45.64 | 29.88 |
|
| 142 |
+
| magic-html + w3m | 41.29 | 51.23 | 46.45 | 26.58 | 51.63 | 45.02 | 26.83 |
|
| 143 |
+
|
| 144 |
+
|
| 145 |
+
### 流水线有效性(L1 vs L2 vs L3)
|
| 146 |
+
|
| 147 |
+
为验证 L0-L3 分级框架的有效性,我们对使用不同层级 UltraData-Math 训练的模型进行了消融实验。与上文 L0 解析器对比(使用 2023-2024 子集)不同,以下结果基于**全量数据集**。
|
| 148 |
+
|
| 149 |
+
| 数据集 | 平均分 | MMLU | MMLU-STEM | MATH500 | GSM8K | MBPP | HumanEval |
|
| 150 |
+
| :--- | :---: | :---: | :---: | :---: | :---: | :---: | :---: |
|
| 151 |
+
| **UltraData-Math-L1** | 42.31 | 51.41 | 45.44 | 27.78 | 54.66 | 44.71 | 29.88 |
|
| 152 |
+
| **UltraData-Math-L2** | 42.57 | 50.93 | 45.52 | 29.20 | 52.92 | 44.50 | 32.32 |
|
| 153 |
+
| **UltraData-Math-L3** | **46.44** | **51.67** | **45.93** | **37.02** | **61.79** | **49.27** | **32.93** |
|
| 154 |
+
|
| 155 |
+
*注:结果表明,更高层级的数据(L3)显著提升了数学推理能力(MATH500、GSM8K)及通用能力。*
|
| 156 |
|
| 157 |
### 完整评测结果
|
| 158 |
|
| 159 |
+
为与现有公开数学预训练数据集进行对比,我们使用相同的模型架构和训练预算(~100B tokens)在每个数据集上独立训练模型。基线包括 [Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath-Web-Pro](https://huggingface.co/datasets/LLM360/MegaMath) 和 [FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)。所有模型在相同条件下评估以确保公平对比:
|
| 160 |
|
| 161 |
+
| 模型 | 平均分 | MMLU | MMLU-STEM | MATH500 | GSM8K | MBPP | HumanEval | R-Bench-Math | Math-Bench |
|
| 162 |
|:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
|
| 163 |
+
| **UltraData-Math (Ours)** | **43.79** | 51.67 | 45.93 | **37.02** | **61.79** | **49.27** | 32.93 | 23.38 | **48.33** |
|
| 164 |
+
| Nemotron-cc 4plus mind | 43.45 | 52.09 | 45.99 | 35.96 | 59.97 | 48.03 | 34.76 | **23.51** | 47.25 |
|
| 165 |
+
| Nemotron-cc 4plus | 42.62 | 51.96 | 45.67 | 33.40 | 58.45 | 46.47 | **35.37** | 22.74 | 46.92 |
|
| 166 |
+
| MegaMath-Web-Pro | 41.38 | **53.16** | **47.15** | 32.12 | 56.71 | 47.10 | 31.71 | 21.23 | 41.83 |
|
| 167 |
+
| FineMath-4+ | 40.51 | 50.90 | 44.98 | 29.84 | 56.25 | 48.96 | 29.88 | 18.93 | 44.33 |
|
|
|
|
| 168 |
|
| 169 |
## ❤️ 致谢
|
| 170 |
|
| 171 |
- **L0 解析层**:[magic-html](https://github.com/opendatalab/magic-html)、[w3m](http://w3m.sourceforge.net/)、[trafilatura](https://github.com/adbar/trafilatura)
|
| 172 |
+
- **L3 精炼层**:[Qwen2.5-72B-Instruct](https://huggingface.co/Qwen/Qwen2.5-72B-Instruct)、[Qwen3-32B](https://huggingface.co/Qwen/Qwen3-32B)、[GLM-4.5](https://huggingface.co/zai-org/GLM-4.5)
|
| 173 |
- **种子数据**:[Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath](https://huggingface.co/datasets/LLM360/MegaMath)、[FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)
|
| 174 |
|
| 175 |
+
## 📖 引用
|
| 176 |
+
|
| 177 |
+
如果您觉得 **UltraData-Math** 对您的研究有帮助,请考虑引用:
|
| 178 |
+
|
| 179 |
+
```bibtex
|
| 180 |
+
@misc{ultradata-math,
|
| 181 |
+
title={UltraData-Math},
|
| 182 |
+
author={Chuyue Zhou and Hongya Lv and Xinle Lin and Yudong Wang and Jie Zhou and Hengyu Zhao and Junshao Guo and Xueren Zhang and Shuaikang Xue and Zhiyuan Liu},
|
| 183 |
+
year={2026},
|
| 184 |
+
url={https://huggingface.co/datasets/openbmb/UltraData-Math},
|
| 185 |
+
publisher={Hugging Face}
|
| 186 |
+
}
|
| 187 |
+
```
|
| 188 |
+
|
| 189 |
## 📜 许可证
|
| 190 |
|
| 191 |
+
本项目基于 [Apache 2.0](./LICENSE) 许可证发布。
|