UltraData-Math / README_ZH.md
ZhouChuYue
fix bold highlighting in evaluation tables
34aaebb
|
raw
history blame
9.64 kB
metadata
language:
  - en
  - zh
license: apache-2.0
size_categories:
  - 100B<n<1T
task_categories:
  - text-generation
pretty_name: UltraData-Math
arxiv: xxxx.xxxxx
tags:
  - llm
  - pretraining
  - math
  - data-synthesis
  - data-filtering
  - high-quality
  - mathematical-reasoning

UltraData-Math

📚 简介

高质量预训练数据对提升大语言模型的数学推理能力至关重要。然而,现有数学预训练数据构建方案存在以下不足:

  • HTML 解析层面:通用提取器(如 trafilatura、readability)主要面向新闻/文章场景设计,对数学公式等内容缺乏专门处理,常导致公式结构破坏或丢失;同时论坛类页面的数学讨论部分,难以完整提取。
  • 数据质量层面:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
  • 数据多样性层面:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。

针对上述问题,我们提出 UltraData-Math——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 Ultra-Data 的 L0-L4 分级数据处理框架开发,包含四个递进层级:

  • L0 原始数据层:基于 magic-html 开发数学解析器,结合 w3m 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX 格式
  • L1 过滤数据层:通过启发式规则清洗噪声并进行文档级去重
  • L2 精筛数据层:使用闭源大模型标注种子数据并蒸馏至轻量 Embedding 分类器,实现全量语料的高效质量分级
  • L3 合成数据层:基于多模型集成生成 Q&A、多轮对话、多风格改写、知识接地教材等多种格式的合成数据

实验表明,在 MiniCPM-1B 架构上,UltraData-Math 在 MATH 基准上达到 37.02 分,相较 Nemotron-CC 4plus 提升 +3.62 分;在 GSM8K 上达到 61.79 分,提升 +3.34 分,同时保持代码生成与通用知识能力。

UltraData-Math 已应用于 MiniCPM 系列 模型的数学预训练。

  • UltraData-Math-L1: 大规模高质量数学预训练数据集,包含 159.4B tokens 的网页数学语料。(<-- you are here)
  • UltraData-Math-L3: 高质量合成数学数据集,包含 37.1B tokens 的多格式合成数据(Q&A、多轮对话、知识教材等)。

🏗️ 数据处理流水线

为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。UltraData-Math 采用了 UltraData观点论文提出的 L0-L4 数据分级体系,通过标准化的层级定义,实现数学数据资产的有序管理与高效流转。每一级都代表了更高的数据纯度与数学价值,同时也对应着更精细的加工程度。

L0:原始数据解析与标准化

目标:解决通用 HTML 解析器对数学公式支持不佳的问题,最大限度保留网页中的数学语义。

L0 阶段主要处理从 Common Crawl 等来源获取的原始网页数据。针对数学网页的特殊性,我们开发了专用的解析策略,而非直接使用通用的 trafilatura 或 readability。

  • 统一解析模式:自动识别页面类型,尽可能保证完整内容提取。
  • 多级回退策略:为了防止解析失败导致数据丢失,我们实施了多级回退机制,确保在结构化解析失败时仍能捕获文本内容。
  • 数学公式标准化:我们将网页中不同的数学表达统一转换为标准的 LaTeX 格式,实现了数据格式的归一化,便于模型统一学习。

L1:启发式清洗与过滤

目标:去除格式噪声,提升数据的可读性和规范性。

在获取了包含完整数学公式的文本后,我们通过一系列启发式规则对 L0 数据进行清洗:

  • 格式修复
    • 清理不可见字符、乱码及非自然的连续换行。
    • 移除导航栏、页脚、广告弹窗及"阅读更多"等无关网页噪音。
  • 内容过滤
    • 长度过滤:移除过短的文本片段,这些片段通常缺乏上下文,难以支持有效的数学推理训练。
    • 语言识别:确保数据集主要由高质量的英文及中文数学内容组成。
    • 文档去重:在文档级别进行去重,防止重复内容对模型训练造成偏差。

L2:基于质量模型的精选

目标:从海量数据中识别出具有高价值的核心语料。

L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:

  • 种子数据标注:使用闭源大模型对一部分种子数据进行多维度打分,关注多个维度。
  • 分类器训练与蒸馏:基于标注数据训练轻量级的 Embedding 分类器,使其具备识别高价值数学内容的能力。
  • 全量推理:使用训练好的分类器对 L1 数据进行全量打分与筛选。
    • 保留:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
    • 剔除:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。

L3:合成与增强数据

目标:通过合成数据弥补自然语料在格式和场景上的单一性,强化模型的推理链条(CoT)能力。

自然网页数据多为陈述性文本,为了增强模型的指令遵循和多轮交互能力,我们构建了 L3 合成数据层:

  • Q&A 对生成:利用高性能模型将陈述性文档改写为"问题-回答"对,构建QA风格的数据。
  • 多轮对话合成:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
  • 多风格改写:将单一来源的数据改写为多种风格(如教科书严谨风格、竞赛解题风格、科普直观风格),提升模型的泛化能力。
  • 知识点教材生成:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
数据集 # Tokens # Documents
UltraData-Math-L1 159.4B 85.56M
UltraData-Math-L3 37.1B 31.87M

📈 实验结果

我们采用 MiniCPM-1.2B 模型架构与MiniCPM3-4B分词器进行实验验证。每个实验均在 1000 亿 Token 的训练量下进行,从而能在计算效率可控的参数范围内对数据性能进行全面验证。我们使用Lighteval库进行模型评估,所有评估指标均基于 Zero-Shot 设置。评估基准包括:

  • 数学推理: GSM8K、MATH、R-Bench、Math-Bench
  • 代码生成: HumanEval、MBPP
  • 综合知识: MMLU、MMLU-STEM

L0 解析器消融实验

基于相同来源数据,我们使用不同解析器分别提取后独立训练,直接对比解析策略的效果差异:

解析器 平均分 MMLU GSM8K HumanEval math mbpp_full mmlu-stem
UltraData-Math-L0-Parser (Ours) 43.44 51.41 54.97 31.71 28.72 47.10 46.76
trafilatura + w3m 42.33 50.95 54.51 27.44 27.64 47.93 45.52
trafilatura 42.44 51.42 56.03 26.83 28.08 45.64 46.62
Megamath 42.32 51.46 54.06 29.88 26.04 45.64 46.81
magic-html + w3m 41.29 51.23 51.63 26.83 26.58 45.02 46.45

完整评测结果

我们使用单一数据集进行独立训练,以直接对比不同数据源的效果:

模型 平均分 MMLU GSM8K HumanEval math mbpp_full mmlu-stem R-bench Math-bench
UltraData-Math (Ours) 43.79 51.67 61.79 32.93 37.02 49.27 45.93 23.38 48.33
Nemotron-cc 4plus mind 43.45 52.09 59.97 34.76 35.96 48.03 45.99 23.51 47.25
Nemotron-cc 4plus 42.62 51.96 58.45 35.37 33.40 46.47 45.67 22.74 46.92
MegaMath-Web-Pro 41.38 53.16 56.71 31.71 32.12 47.10 47.15 21.23 41.83
FineMath-4+ 40.51 50.90 56.25 29.88 29.84 48.96 44.98 18.93 44.33

❤️ 致谢

📜 许可证

本项目基于 Apache 2.0 许可证发布。