ZhouChuYue commited on
Commit
7c537b5
·
1 Parent(s): dadfaaa

bold best scores in experiment results

Browse files
Files changed (2) hide show
  1. README.md +6 -6
  2. README_ZH.md +6 -6
README.md CHANGED
@@ -129,9 +129,9 @@ Based on data from the same source, we used different parsers for extraction and
129
  | Parser | Average | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem |
130
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
131
  | **UltraData-Math-L0-Parser (Ours)** | **43.44** | 51.41 | 54.97 | **31.71** | **28.72** | 47.10 | 46.76 |
132
- | trafilatura + w3m | 42.33 | 50.95 | 54.51 | 27.44 | 27.64 | 47.93 | 45.52 |
133
- | trafilatura | 42.44 | 51.42 | 56.03 | 26.83 | 28.08 | 45.64 | 46.62 |
134
- | Megamath | 42.32 | 51.46 | 54.06 | 29.88 | 26.04 | 45.64 | 46.81 |
135
  | magic-html + w3m | 41.29 | 51.23 | 51.63 | 26.83 | 26.58 | 45.02 | 46.45 |
136
 
137
  ### Full Evaluation Results
@@ -141,9 +141,9 @@ We used a single dataset for independent training to directly compare the effect
141
  | Model | Average | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem | R-bench | Math-bench |
142
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
143
  | **UltraData-Math (Ours)** | **43.79** | 51.67 | **61.79** | 32.93 | **37.02** | **49.27** | 45.93 | 23.38 | **48.33** |
144
- | Nemotron-cc 4plus mind | 43.45 | 52.09 | 59.97 | 34.76 | 35.96 | 48.03 | 45.99 | 23.51 | 47.25 |
145
- | Nemotron-cc 4plus | 42.62 | 51.96 | 58.45 | 35.37 | 33.40 | 46.47 | 45.67 | 22.74 | 46.92 |
146
- | MegaMath-Web-Pro | 41.38 | 53.16 | 56.71 | 31.71 | 32.12 | 47.10 | 47.15 | 21.23 | 41.83 |
147
  | FineMath-4+ | 40.51 | 50.90 | 56.25 | 29.88 | 29.84 | 48.96 | 44.98 | 18.93 | 44.33 |
148
 
149
  ## ❤️ Acknowledgements
 
129
  | Parser | Average | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem |
130
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
131
  | **UltraData-Math-L0-Parser (Ours)** | **43.44** | 51.41 | 54.97 | **31.71** | **28.72** | 47.10 | 46.76 |
132
+ | trafilatura + w3m | 42.33 | 50.95 | 54.51 | 27.44 | 27.64 | **47.93** | 45.52 |
133
+ | trafilatura | 42.44 | 51.42 | **56.03** | 26.83 | 28.08 | 45.64 | 46.62 |
134
+ | Megamath | 42.32 | **51.46** | 54.06 | 29.88 | 26.04 | 45.64 | **46.81** |
135
  | magic-html + w3m | 41.29 | 51.23 | 51.63 | 26.83 | 26.58 | 45.02 | 46.45 |
136
 
137
  ### Full Evaluation Results
 
141
  | Model | Average | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem | R-bench | Math-bench |
142
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
143
  | **UltraData-Math (Ours)** | **43.79** | 51.67 | **61.79** | 32.93 | **37.02** | **49.27** | 45.93 | 23.38 | **48.33** |
144
+ | Nemotron-cc 4plus mind | 43.45 | **52.09** | 59.97 | 34.76 | 35.96 | 48.03 | **45.99** | **23.51** | 47.25 |
145
+ | Nemotron-cc 4plus | 42.62 | 51.96 | 58.45 | **35.37** | 33.40 | 46.47 | 45.67 | 22.74 | 46.92 |
146
+ | MegaMath-Web-Pro | 41.38 | **53.16** | 56.71 | 31.71 | 32.12 | 47.10 | **47.15** | 21.23 | 41.83 |
147
  | FineMath-4+ | 40.51 | 50.90 | 56.25 | 29.88 | 29.84 | 48.96 | 44.98 | 18.93 | 44.33 |
148
 
149
  ## ❤️ Acknowledgements
README_ZH.md CHANGED
@@ -129,9 +129,9 @@ L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了
129
  | 解析器 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem |
130
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
131
  | **UltraData-Math-L0-Parser (Ours)** | **43.44** | 51.41 | 54.97 | **31.71** | **28.72** | 47.10 | 46.76 |
132
- | trafilatura + w3m | 42.33 | 50.95 | 54.51 | 27.44 | 27.64 | 47.93 | 45.52 |
133
- | trafilatura | 42.44 | 51.42 | 56.03 | 26.83 | 28.08 | 45.64 | 46.62 |
134
- | Megamath | 42.32 | 51.46 | 54.06 | 29.88 | 26.04 | 45.64 | 46.81 |
135
  | magic-html + w3m | 41.29 | 51.23 | 51.63 | 26.83 | 26.58 | 45.02 | 46.45 |
136
 
137
  ### 完整评测结果
@@ -141,9 +141,9 @@ L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了
141
  | 模型 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem | R-bench | Math-bench |
142
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
143
  | **UltraData-Math (Ours)** | **43.79** | 51.67 | **61.79** | 32.93 | **37.02** | **49.27** | 45.93 | 23.38 | **48.33** |
144
- | Nemotron-cc 4plus mind | 43.45 | 52.09 | 59.97 | 34.76 | 35.96 | 48.03 | 45.99 | 23.51 | 47.25 |
145
- | Nemotron-cc 4plus | 42.62 | 51.96 | 58.45 | 35.37 | 33.40 | 46.47 | 45.67 | 22.74 | 46.92 |
146
- | MegaMath-Web-Pro | 41.38 | 53.16 | 56.71 | 31.71 | 32.12 | 47.10 | 47.15 | 21.23 | 41.83 |
147
  | FineMath-4+ | 40.51 | 50.90 | 56.25 | 29.88 | 29.84 | 48.96 | 44.98 | 18.93 | 44.33 |
148
 
149
 
 
129
  | 解析器 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem |
130
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
131
  | **UltraData-Math-L0-Parser (Ours)** | **43.44** | 51.41 | 54.97 | **31.71** | **28.72** | 47.10 | 46.76 |
132
+ | trafilatura + w3m | 42.33 | 50.95 | 54.51 | 27.44 | 27.64 | **47.93** | 45.52 |
133
+ | trafilatura | 42.44 | 51.42 | **56.03** | 26.83 | 28.08 | 45.64 | 46.62 |
134
+ | Megamath | 42.32 | **51.46** | 54.06 | 29.88 | 26.04 | 45.64 | **46.81** |
135
  | magic-html + w3m | 41.29 | 51.23 | 51.63 | 26.83 | 26.58 | 45.02 | 46.45 |
136
 
137
  ### 完整评测结果
 
141
  | 模型 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem | R-bench | Math-bench |
142
  |:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
143
  | **UltraData-Math (Ours)** | **43.79** | 51.67 | **61.79** | 32.93 | **37.02** | **49.27** | 45.93 | 23.38 | **48.33** |
144
+ | Nemotron-cc 4plus mind | 43.45 | **52.09** | 59.97 | 34.76 | 35.96 | 48.03 | **45.99** | **23.51** | 47.25 |
145
+ | Nemotron-cc 4plus | 42.62 | 51.96 | 58.45 | **35.37** | 33.40 | 46.47 | 45.67 | 22.74 | 46.92 |
146
+ | MegaMath-Web-Pro | 41.38 | **53.16** | 56.71 | 31.71 | 32.12 | 47.10 | **47.15** | 21.23 | 41.83 |
147
  | FineMath-4+ | 40.51 | 50.90 | 56.25 | 29.88 | 29.84 | 48.96 | 44.98 | 18.93 | 44.33 |
148
 
149