ZhouChuYue commited on
Commit
b9a2c27
·
1 Parent(s): 7e29ed8

Update README_ZH: sync Chinese version with latest English README changes

Browse files
Files changed (1) hide show
  1. README_ZH.md +34 -13
README_ZH.md CHANGED
@@ -4,12 +4,9 @@
4
  <img src="assets/ultradata-math-logo.png" width="600"/>
5
  </div>
6
 
7
- <div align="center">
8
-
9
- [🤗 数据集](https://huggingface.co/datasets/openbmb/UltraData-Math) | [💻 代码仓库](https://github.com/UltraData-OpenBMB/UltraData-Math) | [🇺🇸 English README](README.md)
10
-
11
-
12
- </div>
13
 
14
  ## 📚 简介
15
 
@@ -19,24 +16,24 @@
19
  - **数据质量层面**:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
20
  - **数据多样性层面**:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。
21
 
22
- 针对上述问题,我们提出 ***UltraData-Math***——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 [UltraData](xxx) 的 L0-L4 分级数据管理框架开发,包含四个递进层级:
23
 
24
  - **L0 原始数据层**:基于 *magic-html* 开发数学解析器,结合 *w3m* 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX 格式。
25
  - **L1 过滤数据层**:通过启发式规则清洗噪声并进行文档级去重。
26
- - **L2 精选数据层**:使用闭源大模型标注种子数据并蒸馏至轻量 Embedding 分类器,实现全量语料的高效质量分级。
27
  - **L3 精炼数据层**:通过改写、合成生成与精炼,生成具有清晰推理链条的结构化内容,涵盖 Q&A、多轮对话、多风格改写、知识教材等多种格式。
28
 
29
  实验表明,在 MiniCPM-1.2B 架构上,***UltraData-Math*** 在 MATH500 基准上达到 **37.02** 分,相较 Nemotron-CC 4plus 提升 **+3.62** 分;在 GSM8K 上达到 **61.79** 分,提升 **+3.34** 分,同时保持代码生成与通用知识能力。
30
 
31
  ***UltraData-Math*** 已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
32
 
33
- - **[UltraData-Math-L1](https://huggingface.co/datasets/openbmb/UltraData-Math)**: 大规模高质量数学预训练数据集,包含 170.5B tokens 的网页数学语料。(**<-- you are here**)
34
  - **[UltraData-Math-L2](https://huggingface.co/datasets/openbmb/UltraData-Math-L2)**: 经质量模型精选的高质量数学预训练数据集,包含 33.7B tokens 的高质量网页数学语料。
35
  - **[UltraData-Math-L3](https://huggingface.co/datasets/openbmb/UltraData-Math-L3)**: 高质量精炼数学数据集,包含 88B tokens 的多格式精炼数据(Q&A、多轮对话、知识教材等)。
36
 
37
  ## 🏗️ 数据处理流水线
38
 
39
- 为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。***UltraData-Math*** 采用了 [UltraData](xxx) 论文提出的 **L0-L4 分级数据管理框架**,通过标准化的层级定义,实现数学数据资产的有序管理与高效流转。每一级都代表了更高的数据纯度与数学价值,同时也对应着更精细的加工程度。
40
 
41
  <div align="center">
42
  <img src="assets/ultradata-math-pipeline.png" width="900"/>
@@ -46,7 +43,7 @@
46
 
47
  **目标**:解决通用 HTML 解析器对数学公式支持不佳的问题,最大限度保留网页中的数学语义。
48
 
49
- L0 阶段主要处理从 Common Crawl 等来源获取的原始网页数据。针对数学网页的特殊性,我们开发了专用的解析策略,而非直接使用通用的 trafilatura 或 readability。
50
 
51
  - **统一解析模式**:自动识别页面类型,尽可能保证完整内容提取。
52
  - **多级回退策略**:为了防止解析失败导致数据丢失,我们实施了多级回退机制,确保在结构化解析失败时仍能捕获文本内容。
@@ -73,7 +70,7 @@ L0 阶段主要处理从 Common Crawl 等来源获取的原始网页数据。针
73
  L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:
74
 
75
  - **种子数据标注**:使用闭源大模型对一部分种子数据进行多维度打分。
76
- - **分类器训练与蒸馏**:基于标注数据训练轻量级的 Embedding 分类器,使其具备识别高价值数学内容的能力。
77
  - **全量推理**:使用训练好的分类器对 L1 数据进行全量打分与筛选。
78
  - *保留*:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
79
  - *剔除*:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。
@@ -82,7 +79,7 @@ L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了
82
 
83
  **目标**:通过改写、合成生成与精炼,生成具有清晰推理链条和显式教学意图的结构化内容,达到教科书级质量标准,确保最大化可学习性。
84
 
85
- 自然网页数据多为陈述性文本,缺乏结构化的推理步骤和多样化的教学格式。为了增强模型的推理链条(CoT)能力和多轮交互能力,我们通过 [UltraData-Math-Generator](https://github.com/UltraData-OpenBMB/UltraData-Math/tree/main/UltraData-Math-L3-Generator) 构建了 L3 精炼数据层:
86
 
87
  - **Q&A 对生成**:利用高性能模型将陈述性文档改写为"问题-回答"对,构建包含显式推理步骤的 QA 风格数据。
88
  - **多轮对话合成**:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
@@ -90,12 +87,36 @@ L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了
90
  - **知识点教材生成**:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
91
  - **格式修复与增强**:修复源数据中的格式问题(如损坏的 LaTeX 公式、不一致的符号标记),并增强内容连贯性,以达到教科书级质量标准。
92
 
 
 
93
  | 数据集 | # Tokens | # Documents |
94
  |:---|:---:|:---:|
95
  | UltraData-Math-L1 | 170.5B | 85.6M |
96
  | UltraData-Math-L2-preview | 33.7B | 14.98M |
97
  | UltraData-Math-L3 | 88B | 81.4M |
98
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
99
  ## 📈 实验结果
100
 
101
  我们使用 **衰减验证(Decay Verification)** 方法评估数据质量:在 **MiniCPM-1.2B** 基座模型(使用 **MiniCPM3-4B** 分词器,预训练 1.3T tokens)上继续训练 **~100B tokens**(30% 目标数据 + 70% 通用数据)。我们使用 [OpenCompass](https://github.com/open-compass/opencompass) 作为评估框架。评估基准包括:
 
4
  <img src="assets/ultradata-math-logo.png" width="600"/>
5
  </div>
6
 
7
+ <p align="center">
8
+ <a href="https://huggingface.co/datasets/openbmb/UltraData-Math">🤗 数据集</a> | <a href="https://github.com/UltraData-OpenBMB/UltraData-Math">💻 源代码</a> | <a href="README.md">🇺🇸 English README</a>
9
+ </p>
 
 
 
10
 
11
  ## 📚 简介
12
 
 
16
  - **数据质量层面**:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
17
  - **数据多样性层面**:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。
18
 
19
+ 针对上述问题,我们提出 ***UltraData-Math***——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 [UltraData](https://huggingface.co/collections/openbmb/ultradata) 的 L0-L4 分级数据管理框架开发,包含四个递进层级:
20
 
21
  - **L0 原始数据层**:基于 *magic-html* 开发数学解析器,结合 *w3m* 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX 格式。
22
  - **L1 过滤数据层**:通过启发式规则清洗噪声并进行文档级去重。
23
+ - **L2 精选数据层**:使用闭源大模型标注种子数据并蒸馏至轻量 embedding 分类器,实现全量语料的高效质量分级。
24
  - **L3 精炼数据层**:通过改写、合成生成与精炼,生成具有清晰推理链条的结构化内容,涵盖 Q&A、多轮对话、多风格改写、知识教材等多种格式。
25
 
26
  实验表明,在 MiniCPM-1.2B 架构上,***UltraData-Math*** 在 MATH500 基准上达到 **37.02** 分,相较 Nemotron-CC 4plus 提升 **+3.62** 分;在 GSM8K 上达到 **61.79** 分,提升 **+3.34** 分,同时保持代码生成与通用知识能力。
27
 
28
  ***UltraData-Math*** 已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
29
 
30
+ - **[UltraData-Math-L1](https://huggingface.co/datasets/openbmb/UltraData-Math)**: 大规模高质量数学预训练数据集,包含 170.5B tokens 的网页数学语料。
31
  - **[UltraData-Math-L2](https://huggingface.co/datasets/openbmb/UltraData-Math-L2)**: 经质量模型精选的高质量数学预训练数据集,包含 33.7B tokens 的高质量网页数学语料。
32
  - **[UltraData-Math-L3](https://huggingface.co/datasets/openbmb/UltraData-Math-L3)**: 高质量精炼数学数据集,包含 88B tokens 的多格式精炼数据(Q&A、多轮对话、知识教材等)。
33
 
34
  ## 🏗️ 数据处理流水线
35
 
36
+ 为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。***UltraData-Math*** 采用了 [UltraData](https://huggingface.co/collections/openbmb/ultradata) 论文提出的 **L0-L4 分级数据管理框架**,通过标准化的层级定义,实现数学数据资产的有序管理与高效流转。每一级都代表了更高的数据纯度与数学价值,同时也对应着更精细的加工程度。
37
 
38
  <div align="center">
39
  <img src="assets/ultradata-math-pipeline.png" width="900"/>
 
43
 
44
  **目标**:解决通用 HTML 解析器对数学公式支持不佳的问题,最大限度保留网页中的数学语义。
45
 
46
+ L0 阶段主要处理从 Common Crawl 等来源获取的原始网页数据。针对数学网页的特殊性,我们通过 [UltraData-Math-Parser](https://github.com/UltraData-OpenBMB/UltraData-Math/tree/main/UltraData-Math-L0-Parser) 开发了专用的解析策略,而非直接使用通用的 trafilatura 或 readability。
47
 
48
  - **统一解析模式**:自动识别页面类型,尽可能保证完整内容提取。
49
  - **多级回退策略**:为了防止解析失败导致数据丢失,我们实施了多级回退机制,确保在结构化解析失败时仍能捕获文本内容。
 
70
  L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:
71
 
72
  - **种子数据标注**:使用闭源大模型对一部分种子数据进行多维度打分。
73
+ - **分类器训练与蒸馏**:基于标注数据训练轻量级的 embedding 分类器,使其具备识别高价值数学内容的能力。
74
  - **全量推理**:使用训练好的分类器对 L1 数据进行全量打分与筛选。
75
  - *保留*:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
76
  - *剔除*:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。
 
79
 
80
  **目标**:通过改写、合成生成与精炼,生成具有清晰推理链条和显式教学意图的结构化内容,达到教科书级质量标准,确保最大化可学习性。
81
 
82
+ 自然网页数据多为陈述性文本,缺乏结构化的推理步骤和多样化的教学格式。为了增强模型的推理链条(CoT)能力和多轮交互能力,我们通过 [UltraData-Math-Generator](https://huggingface.co/spaces/openbmb/UltraData-Math-L3-Generator) 构建了 L3 精炼数据层:
83
 
84
  - **Q&A 对生成**:利用高性能模型将陈述性文档改写为"问题-回答"对,构建包含显式推理步骤的 QA 风格数据。
85
  - **多轮对话合成**:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
 
87
  - **知识点教材生成**:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
88
  - **格式修复与增强**:修复源数据中的格式问题(如损坏的 LaTeX 公式、不一致的符号标记),并增强内容连贯性,以达到教科书级质量标准。
89
 
90
+ 基于上述方法,我们最终产出了以下 ***UltraData-Math*** 数据集:
91
+
92
  | 数据集 | # Tokens | # Documents |
93
  |:---|:---:|:---:|
94
  | UltraData-Math-L1 | 170.5B | 85.6M |
95
  | UltraData-Math-L2-preview | 33.7B | 14.98M |
96
  | UltraData-Math-L3 | 88B | 81.4M |
97
 
98
+ ## 🚀 快速开始
99
+
100
+ 你可以直接从 Hugging Face 加载数据集:
101
+
102
+ ```python
103
+ from datasets import load_dataset
104
+
105
+ # 加载 UltraData-Math-L1
106
+ ds = load_dataset("openbmb/UltraData-Math", "UltraData-Math-L1")
107
+
108
+ # 加载 UltraData-Math-L2-preview
109
+ ds = load_dataset("openbmb/UltraData-Math", "UltraData-Math-L2-preview")
110
+
111
+ # 加载 UltraData-Math-L3(默认:Conversation-Synthetic)
112
+ ds = load_dataset("openbmb/UltraData-Math", "UltraData-Math-L3-Conversation-Synthetic")
113
+
114
+ # 其他 L3 配置:
115
+ # - UltraData-Math-L3-Multi-Style-Synthetic
116
+ # - UltraData-Math-L3-QA-Synthetic
117
+ # - UltraData-Math-L3-Textbook-Exercise-Synthetic
118
+ ```
119
+
120
  ## 📈 实验结果
121
 
122
  我们使用 **衰减验证(Decay Verification)** 方法评估数据质量:在 **MiniCPM-1.2B** 基座模型(使用 **MiniCPM3-4B** 分词器,预训练 1.3T tokens)上继续训练 **~100B tokens**(30% 目标数据 + 70% 通用数据)。我们使用 [OpenCompass](https://github.com/open-compass/opencompass) 作为评估框架。评估基准包括: