ZhouChuYue commited on
Commit
e6965ca
·
1 Parent(s): 85fdde4

Update README_ZH: Sync Chinese version with latest English README

Browse files
Files changed (1) hide show
  1. README_ZH.md +70 -37
README_ZH.md CHANGED
@@ -27,7 +27,7 @@ tags:
27
 
28
  <div align="center">
29
 
30
- [🤗 数据集](https://huggingface.co/datasets/openbmb/UltraData-Math-L1) | [💻 代码仓库](https://github.com/UltraData-OpenBMB/UltraData-Math) | [🇺🇸 English README](README_EN.md)
31
 
32
 
33
  </div>
@@ -40,23 +40,24 @@ tags:
40
  - **数据质量层面**:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
41
  - **数据多样性层面**:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。
42
 
43
- 针对上述问题,我们提出 ***UltraData-Math***——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 [Ultra-Data](xxx) 的 L0-L4 分级数据处理框架开发,包含四个递进层级:
44
 
45
- - **L0 原始数据层**:基于 *magic-html* 开发数学解析器,结合 *w3m* 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX 格式
46
- - **L1 过滤数据层**:通过启发式规则清洗噪声并进行文档级去重
47
- - **L2 精筛数据层**:使用闭源大模型标注种子数据并蒸馏至轻量 Embedding 分类器,实现全量语料的高效质量分级
48
- - **L3 合成数据层**:基于多模型集成生成 Q&A、多轮对话、多风格改写、知识接地教材等多种格式的合成数据
49
 
50
- 实验表明,在 MiniCPM-1B 架构上,***UltraData-Math*** 在 MATH 基准上达到 **37.02** 分,相较 Nemotron-CC 4plus 提升 **+3.62** 分;在 GSM8K 上达到 **61.79** 分,提升 **+3.34** 分,同时保持代码生成与通用知识能力。
51
 
52
  ***UltraData-Math*** 已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
53
 
54
- - **[UltraData-Math-L1](https://huggingface.co/datasets/openbmb/UltraData-Math-L1)**: 大规模高质量数学预训练数据集,包含 159.4B tokens 的网页数学语料。(**<-- you are here**)
55
- - **[UltraData-Math-L3](https://huggingface.co/datasets/openbmb/UltraData-Math-L3)**: 高质量合成数学数据集,包含 37.1B tokens 的多格式合成数据(Q&A、多轮对话、知识教材等)。
 
56
 
57
  ## 🏗️ 数据处理流水线
58
 
59
- 为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。***UltraData-Math*** 采用了 UltraData观点论文提出的 **L0-L4 数据分级体系**,通过标准化的层级定义,实现数学数据资产的有序管理与高效流转。每一级都代表了更高的数据纯度与数学价值,同时也对应着更精细的加工程度。
60
 
61
  <div align="center">
62
  <img src="assets/ultradata-math-pipeline.png" width="900"/>
@@ -92,67 +93,99 @@ L0 阶段主要处理从 Common Crawl 等来源获取的原始网页数据。针
92
 
93
  L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:
94
 
95
- - **种子数据标注**:使用闭源大模型对一部分种子数据进行多维度打分,关注多个维度。
96
  - **分类器训练与蒸馏**:基于标注数据训练轻量级的 Embedding 分类器,使其具备识别高价值数学内容的能力。
97
  - **全量推理**:使用训练好的分类器对 L1 数据进行全量打分与筛选。
98
  - *保留*:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
99
  - *剔除*:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。
100
 
101
- ### L3:合成与增强数据
102
 
103
- **目标**:通过合成数据弥补自然语料在格式和场景上的单一性,强化模型的推理链条(CoT)能力。
104
 
105
- 自然网页数据多为陈述性文本,为了增强模型的指令遵循和多轮交互能力,我们构建了 L3 合成数据层:
106
 
107
- - **Q&A 对生成**:利用高性能模型将陈述性文档改写为"问题-回答"对,构建QA风格的数据。
108
  - **多轮对话合成**:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
109
  - **多风格改写**:将单一来源的数据改写为多种风格(如教科书严谨风格、竞赛解题风格、科普直观风格),提升模型的泛化能力。
110
  - **知识点教材生成**:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
 
111
 
112
  | 数据集 | # Tokens | # Documents |
113
  |:---|:---:|:---:|
114
- | UltraData-Math-L1 | 159.4B | 85.56M |
115
- | UltraData-Math-L3 | 37.1B | 31.87M |
 
116
 
117
  ## 📈 实验结果
118
 
119
- 我们采用 **MiniCPM-1.2B** 模型架构与**MiniCPM3-4B**分词器进行实验验证。每个实验均在 **1000 亿 Token** 的训练量下进行,从而能在计算效率可控的参数范围内对数据性能进行全面验证。我们使用Lighteval库进行模型评估,所有评估指标均基于 **Zero-Shot** 设置。评估基准包括:
120
 
121
- - **数学推理:** GSM8K、MATHR-Bench、Math-Bench
122
  - **代码生成:** HumanEval、MBPP
123
  - **综合知识:** MMLU、MMLU-STEM
124
 
125
- ### L0 解析器消融实验
126
 
127
- 基于相同来源数据,我们使用不同解析器分别提取后独立训练,直接对比解析策略的效果差异:
128
 
129
- | 解析器 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem |
 
 
 
 
130
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
131
- | **UltraData-Math-L0-Parser (Ours)** | **43.44** | 51.41 | 54.97 | **31.71** | **28.72** | 47.10 | 46.76 |
132
- | trafilatura + w3m | 42.33 | 50.95 | 54.51 | 27.44 | 27.64 | **47.93** | 45.52 |
133
- | trafilatura | 42.44 | 51.42 | **56.03** | 26.83 | 28.08 | 45.64 | 46.62 |
134
- | Megamath | 42.32 | **51.46** | 54.06 | 29.88 | 26.04 | 45.64 | **46.81** |
135
- | magic-html + w3m | 41.29 | 51.23 | 51.63 | 26.83 | 26.58 | 45.02 | 46.45 |
 
 
 
 
 
 
 
 
 
 
 
 
 
136
 
137
  ### 完整评测结果
138
 
139
- 我们使用单一数据集进行独立训练,以直接对比不同数据源的效果:
140
 
141
- | 模型 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem | R-bench | Math-bench |
142
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
143
- | **UltraData-Math (Ours)** | **43.79** | 51.67 | **61.79** | 32.93 | **37.02** | **49.27** | 45.93 | 23.38 | **48.33** |
144
- | Nemotron-cc 4plus mind | 43.45 | 52.09 | 59.97 | 34.76 | 35.96 | 48.03 | 45.99 | **23.51** | 47.25 |
145
- | Nemotron-cc 4plus | 42.62 | 51.96 | 58.45 | **35.37** | 33.40 | 46.47 | 45.67 | 22.74 | 46.92 |
146
- | MegaMath-Web-Pro | 41.38 | **53.16** | 56.71 | 31.71 | 32.12 | 47.10 | **47.15** | 21.23 | 41.83 |
147
- | FineMath-4+ | 40.51 | 50.90 | 56.25 | 29.88 | 29.84 | 48.96 | 44.98 | 18.93 | 44.33 |
148
-
149
 
150
  ## ❤️ 致谢
151
 
152
  - **L0 解析层**:[magic-html](https://github.com/opendatalab/magic-html)、[w3m](http://w3m.sourceforge.net/)、[trafilatura](https://github.com/adbar/trafilatura)
153
- - **L3 合成层**:[Qwen2.5-72B-Instruct](https://huggingface.co/Qwen/Qwen2.5-72B-Instruct)、[Qwen3-32B](https://huggingface.co/Qwen/Qwen3-32B)、[GLM-4.5](https://huggingface.co/zai-org/GLM-4.5)
154
  - **种子数据**:[Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath](https://huggingface.co/datasets/LLM360/MegaMath)、[FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)
155
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
156
  ## 📜 许可证
157
 
158
- 本项目基于 [Apache 2.0](./LICENSE) 许可证发布。
 
27
 
28
  <div align="center">
29
 
30
+ [🤗 数据集](https://huggingface.co/datasets/openbmb/UltraData-Math) | [💻 代码仓库](https://github.com/UltraData-OpenBMB/UltraData-Math) | [🇺🇸 English README](README.md)
31
 
32
 
33
  </div>
 
40
  - **数据质量层面**:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
41
  - **数据多样性层面**:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。
42
 
43
+ 针对上述问题,我们提出 ***UltraData-Math***——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 [UltraData](xxx) 的 L0-L4 分级数据管理框架开发,包含四个递进层级:
44
 
45
+ - **L0 原始数据层**:基于 *magic-html* 开发数学解析器,结合 *w3m* 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX 格式。
46
+ - **L1 过滤数据层**:通过启发式规则清洗噪声并进行文档级去重。
47
+ - **L2 精选数据层**:使用闭源大模型标注种子数据并蒸馏至轻量 Embedding 分类器,实现全量语料的高效质量分级。
48
+ - **L3 精炼数据层**:通过改写、合成生成与精炼,生成具有清晰推理链条的结构化内容,涵盖 Q&A、多轮对话、多风格改写、知识教材等多种格式。
49
 
50
+ 实验表明,在 MiniCPM-1.2B 架构上,***UltraData-Math*** 在 MATH500 基准上达到 **37.02** 分,相较 Nemotron-CC 4plus 提升 **+3.62** 分;在 GSM8K 上达到 **61.79** 分,提升 **+3.34** 分,同时保持代码生成与通用知识能力。
51
 
52
  ***UltraData-Math*** 已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
53
 
54
+ - **[UltraData-Math-L1](https://huggingface.co/datasets/openbmb/UltraData-Math)**: 大规模高质量数学预训练数据集,包含 170.5B tokens 的网页数学语料。(**<-- you are here**)
55
+ - **[UltraData-Math-L2](https://huggingface.co/datasets/openbmb/UltraData-Math-L2)**: 经质量模型精选的高质量数学预训练数据集,包含 33.7B tokens 的高质量网页数学语料。
56
+ - **[UltraData-Math-L3](https://huggingface.co/datasets/openbmb/UltraData-Math-L3)**: 高质量精炼数学数据集,包含 88B tokens 的多格式精炼数据(Q&A、多轮对话、知识教材等)。
57
 
58
  ## 🏗️ 数据处理流水线
59
 
60
+ 为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。***UltraData-Math*** 采用了 [UltraData](xxx) 论文提出的 **L0-L4 分级数据管理框架**,通过标准化的层级定义,实现数学数据资产的有序管理与高效流转。每一级都代表了更高的数据纯度与数学价值,同时也对应着更精细的加工程度。
61
 
62
  <div align="center">
63
  <img src="assets/ultradata-math-pipeline.png" width="900"/>
 
93
 
94
  L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:
95
 
96
+ - **种子数据标注**:使用闭源大模型对一部分种子数据进行多维度打分。
97
  - **分类器训练与蒸馏**:基于标注数据训练轻量级的 Embedding 分类器,使其具备识别高价值数学内容的能力。
98
  - **全量推理**:使用训练好的分类器对 L1 数据进行全量打分与筛选。
99
  - *保留*:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
100
  - *剔除*:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。
101
 
102
+ ### L3:精炼数据
103
 
104
+ **目标**:通过改写、合成生成与精炼,生成具有清晰推理链条和显式教学意图的结构化内容,达到教科书级质量标准,确保最大化可学习性。
105
 
106
+ 自然网页数据多为陈述性文本,缺乏结构化的推理步骤和多样化的教学格式。为了增强模型的推理链条(CoT)能力和多轮交互能力,我们通过 [UltraData-Math-Generator](https://github.com/UltraData-OpenBMB/UltraData-Math/tree/main/UltraData-Math-L3-Generator) 构建了 L3 精炼数据层:
107
 
108
+ - **Q&A 对生成**:利用高性能模型将陈述性文档改写为"问题-回答"对,构建包含显式推理步骤的 QA 风格数据。
109
  - **多轮对话合成**:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
110
  - **多风格改写**:将单一来源的数据改写为多种风格(如教科书严谨风格、竞赛解题风格、科普直观风格),提升模型的泛化能力。
111
  - **知识点教材生成**:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
112
+ - **格式修复与增强**:修复源数据中的格式问题(如损坏的 LaTeX 公式、不一致的符号标记),并增强内容连贯性,以达到教科书级质量标准。
113
 
114
  | 数据集 | # Tokens | # Documents |
115
  |:---|:---:|:---:|
116
+ | UltraData-Math-L1 | 170.5B | 85.6M |
117
+ | UltraData-Math-L2-preview | 33.7B | 14.98M |
118
+ | UltraData-Math-L3 | 88B | 81.4M |
119
 
120
  ## 📈 实验结果
121
 
122
+ 我们采用 **MiniCPM-1.2B** 模型架构与 **MiniCPM3-4B** 分词器进行实验验证。每个实验均在 **1000 亿 Token** 的训练量下进行,采用 **衰减验证(Decay Verification)** 方法(基于 1.3T 预训练基座模型进行退火)。我们使用 [OpenCompass](https://github.com/open-compass/opencompass) 作为评估框架。评估基准包括:
123
 
124
+ - **数学推理:** GSM8K、MATH500Math-Bench、R-Bench-Math
125
  - **代码生成:** HumanEval、MBPP
126
  - **综合知识:** MMLU、MMLU-STEM
127
 
128
+ ### 🔧 实验设置
129
 
130
+ 我们使用 **衰减验证(Decay Verification)** 方法评估数据质量:在 **MiniCPM-1.2B** 基座模型(预训练 1.3T tokens)上继续训练 **~100B tokens**(30% 目标数据 + 70% 通用数据)。
131
 
132
+ ### L0 解析策略有效性
133
+
134
+ 为公平对比不同解析策略,我们在 **2023-2024** 年分布的数据子集上进行实验。我们使用不同解析器重新解析原始 HTML,并对**所有基线应用相同的 L1 清洗算子**。该对比展示了我们 **L0 解析器 + L1 过滤管线的综合收益**。
135
+
136
+ | 解析器 | 平均分 | MMLU | MMLU-STEM | MATH500 | GSM8K | MBPP | HumanEval |
137
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
138
+ | **UltraData-Math-Parser (Ours)** | **43.44** | 51.41 | 46.76 | **28.72** | 54.97 | 47.10 | **31.71** |
139
+ | trafilatura + w3m | 42.33 | 50.95 | 45.52 | 27.64 | 54.51 | **47.93** | 27.44 |
140
+ | trafilatura | 42.44 | 51.42 | 46.62 | 28.08 | **56.03** | 45.64 | 26.83 |
141
+ | Megamath | 42.32 | **51.46** | **46.81** | 26.04 | 54.06 | 45.64 | 29.88 |
142
+ | magic-html + w3m | 41.29 | 51.23 | 46.45 | 26.58 | 51.63 | 45.02 | 26.83 |
143
+
144
+
145
+ ### 流水线有效性(L1 vs L2 vs L3)
146
+
147
+ 为验证 L0-L3 分级框架的有效性,我们对使用不同层级 UltraData-Math 训练的模型进行了消融实验。与上文 L0 解析器对比(使用 2023-2024 子集)不同,以下结果基于**全量数据集**。
148
+
149
+ | 数据集 | 平均分 | MMLU | MMLU-STEM | MATH500 | GSM8K | MBPP | HumanEval |
150
+ | :--- | :---: | :---: | :---: | :---: | :---: | :---: | :---: |
151
+ | **UltraData-Math-L1** | 42.31 | 51.41 | 45.44 | 27.78 | 54.66 | 44.71 | 29.88 |
152
+ | **UltraData-Math-L2** | 42.57 | 50.93 | 45.52 | 29.20 | 52.92 | 44.50 | 32.32 |
153
+ | **UltraData-Math-L3** | **46.44** | **51.67** | **45.93** | **37.02** | **61.79** | **49.27** | **32.93** |
154
+
155
+ *注:结果表明,更高层级的数据(L3)显著提升了数学推理能力(MATH500、GSM8K)及通用能力。*
156
 
157
  ### 完整评测结果
158
 
159
+ 为与现有公开数学预训练数据集进行对比,我们使用相同的模型架构和训练预算(~100B tokens)在每个数据集上独立训练模型。基线包括 [Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath-Web-Pro](https://huggingface.co/datasets/LLM360/MegaMath) 和 [FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)。所有模型在相同条件下评估以确保公平对比:
160
 
161
+ | 模型 | 平均分 | MMLU | MMLU-STEM | MATH500 | GSM8K | MBPP | HumanEval | R-Bench-Math | Math-Bench |
162
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
163
+ | **UltraData-Math (Ours)** | **43.79** | 51.67 | 45.93 | **37.02** | **61.79** | **49.27** | 32.93 | 23.38 | **48.33** |
164
+ | Nemotron-cc 4plus mind | 43.45 | 52.09 | 45.99 | 35.96 | 59.97 | 48.03 | 34.76 | **23.51** | 47.25 |
165
+ | Nemotron-cc 4plus | 42.62 | 51.96 | 45.67 | 33.40 | 58.45 | 46.47 | **35.37** | 22.74 | 46.92 |
166
+ | MegaMath-Web-Pro | 41.38 | **53.16** | **47.15** | 32.12 | 56.71 | 47.10 | 31.71 | 21.23 | 41.83 |
167
+ | FineMath-4+ | 40.51 | 50.90 | 44.98 | 29.84 | 56.25 | 48.96 | 29.88 | 18.93 | 44.33 |
 
168
 
169
  ## ❤️ 致谢
170
 
171
  - **L0 解析层**:[magic-html](https://github.com/opendatalab/magic-html)、[w3m](http://w3m.sourceforge.net/)、[trafilatura](https://github.com/adbar/trafilatura)
172
+ - **L3 精炼层**:[Qwen2.5-72B-Instruct](https://huggingface.co/Qwen/Qwen2.5-72B-Instruct)、[Qwen3-32B](https://huggingface.co/Qwen/Qwen3-32B)、[GLM-4.5](https://huggingface.co/zai-org/GLM-4.5)
173
  - **种子数据**:[Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath](https://huggingface.co/datasets/LLM360/MegaMath)、[FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)
174
 
175
+ ## 📖 引用
176
+
177
+ 如果您觉得 **UltraData-Math** 对您的研究有帮助,请考虑引用:
178
+
179
+ ```bibtex
180
+ @misc{ultradata-math,
181
+ title={UltraData-Math},
182
+ author={Chuyue Zhou and Hongya Lv and Xinle Lin and Yudong Wang and Jie Zhou and Hengyu Zhao and Junshao Guo and Xueren Zhang and Shuaikang Xue and Zhiyuan Liu},
183
+ year={2026},
184
+ url={https://huggingface.co/datasets/openbmb/UltraData-Math},
185
+ publisher={Hugging Face}
186
+ }
187
+ ```
188
+
189
  ## 📜 许可证
190
 
191
+ 本项目基于 [Apache 2.0](./LICENSE) 许可证发布。