File size: 8,397 Bytes
c68b3e2
 
 
 
 
 
6e8c5bf
 
c68b3e2
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
# ScienceMetaBench

[English](README.md) | [中文](README_ZH.md)

🤗 [HuggingFace Dataset](https://huggingface.co/datasets/opendatalab/ScienceMetaBench) | 💻 [GitHub Repository](https://github.com/DataEval/ScienceMetaBench)

**致谢**: 🔍 [Dingo](https://github.com/MigoXLab/dingo)

ScienceMetaBench 是一个用于评估从 PDF 文件中提取科学文献元数据准确性的基准测试数据集。该数据集涵盖学术论文、教材和电子书三大类别,可用于评估大语言模型(LLM)或其他信息提取系统的性能。

## 📊 数据集概览

### 数据类型

本基准测试包含三种类型的科学文献:

1. **学术论文 (Paper)**
   - 主要来自学术期刊和会议
   - 包含 DOI、关键词等学术元数据

2. **教材 (Textbook)**
   - 正式出版的教科书
   - 包含 ISBN、出版社等出版信息

3. **电子书 (Ebook)**
   - 数字化的历史文献和图书
   - 覆盖多语言、多学科领域

### 数据批次

本基准测试经过两次数据扩充,每次扩充都增加了新的样本数据:

```
data/
├── 20250806/          # 第一批数据(2024年8月6日)
│   ├── ebook_0806.jsonl
│   ├── paper_0806.jsonl
│   └── textbook_0806.jsonl
└── 20251022/          # 第二批数据(2024年10月22日)
    ├── ebook_1022.jsonl
    ├── paper_1022.jsonl
    └── textbook_1022.jsonl
```

**注**:两批数据相互补充,共同构成完整的基准测试数据集,可根据需要选择使用单批或合并使用。

### PDF 文件

`pdf/` 目录包含与基准数据对应的原始 PDF 文件,目录结构与 `data/` 目录保持一致。

**文件命名规则**:所有 PDF 文件以其 SHA256 哈希值命名,格式为 `{sha256}.pdf`。这种命名方式确保了文件的唯一性和可追溯性,便于通过 JSONL 数据中的 `sha256` 字段定位对应的源文件。

## 📝 数据格式

所有数据文件采用 JSONL 格式(每行一个 JSON 对象)。

### 学术论文字段

```json
{
  "sha256": "文件的 SHA256 哈希值",
  "doi": "数字对象标识符",
  "title": "论文标题",
  "author": "作者姓名",
  "keyword": "关键词(逗号分隔)",
  "abstract": "摘要内容",
  "pub_time": "发表年份"
}
```

### 教材/电子书字段

```json
{
  "sha256": "文件的 SHA256 哈希值",
  "isbn": "国际标准书号",
  "title": "书名",
  "author": "作者姓名",
  "abstract": "简介/摘要",
  "category": "分类号(如中图分类法)",
  "pub_time": "出版年份",
  "publisher": "出版社"
}
```

## 📖 数据示例

### 学术论文示例

下图展示了从学术论文 PDF 中提取的元数据字段示例:

![学术论文示例](images/paper_example.png)

如图所示,需要从论文首页提取以下关键信息:
- **DOI**:数字对象标识符(如 `10.1186/s41038-017-0090-z`- **Title**:论文标题
- **Author**:作者姓名
- **Keyword**:关键词列表
- **Abstract**:论文摘要
- **pub_time**:发表时间(通常为年份)

### 教材/电子书示例

下图展示了从中文电子书 PDF 版权页中提取的元数据字段示例:

![教材示例](images/ebook_example.png)

如图所示,需要从图书版权页提取以下关键信息:
- **ISBN**:国际标准书号(如 `978-7-5385-8594-0`)
- **Title**:书名
- **Author**:作者/编者姓名
- **Publisher**:出版社名称
- **pub_time**:出版时间(年份)
- **Category**:图书分类号
- **Abstract**:内容简介(如有)

这些示例展示了 benchmark 测试的核心任务:从各种格式和语言的 PDF 文档中准确提取结构化的元数据信息。

## 📊 评估指标

### 核心评估指标

本基准测试采用基于字符串相似度的评估方法,提供两个核心指标:

### 相似度计算规则

本基准测试使用基于 `SequenceMatcher` 的字符串相似度算法,具体规则如下:

1. **空值处理**:一个为空另一个不为空 → 相似度为 0
2. **完全匹配**:两者完全相同(包括都为空)→ 相似度为 1
3. **忽略大小写**:比较前统一转换为小写
4. **序列匹配**:使用最长公共子序列算法计算相似度(范围:0-1)

**相似度分数解读**- `1.0`:完全匹配
- `0.8-0.99`:高度相似(可能存在小的格式差异)
- `0.5-0.79`:部分匹配(提取了主要信息但不完整)
- `0.0-0.49`:低相似度(提取结果与标准答案差异较大)

#### 1. 各字段准确率(Field-level Accuracy)

**定义**:每个元数据字段的平均相似度分数。

**计算方式**```
各字段准确率 = Σ(该字段在所有样本上的相似度) / 样本总数
```

**示例**:假设在 100 个样本上评估 `title` 字段,每个样本的 title 相似度累加后除以 100,得到该字段的准确率。

**用途**- 识别模型在哪些字段上表现较好或较差
- 针对性地优化特定字段的提取能力
- 例如:如果 `doi` 准确率为 0.95,`abstract` 准确率为 0.75,说明模型在提取摘要时需要改进

#### 2. 总体准确率(Overall Accuracy)

**定义**:所有评估字段准确率的平均值,反映模型的整体性能。

**计算方式**```
总体准确率 = Σ(各字段准确率) / 字段总数
```

**示例**:评估 7 个字段(isbn, title, author, abstract, category, pub_time, publisher),将这 7 个字段的准确率相加后除以 7。

**用途**
- 提供模型整体性能的单一量化指标
- 方便不同模型或方法之间的横向比较
- 作为模型优化的总体目标

### 使用评估脚本

`compare.py` 提供了便捷的评估接口:

```python
from compare import main, write_similarity_data_to_excel

# 定义文件路径和要比较的字段
file_llm = 'data/llm-label_textbook.jsonl'      # LLM 提取结果
file_bench = 'data/benchmark_textbook.jsonl'     # 基准数据

# 对于教材/电子书
key_list = ['isbn', 'title', 'author', 'abstract', 'category', 'pub_time', 'publisher']

# 对于学术论文
# key_list = ['doi', 'title', 'author', 'keyword', 'abstract', 'pub_time']

# 运行评估,获取指标
accuracy, key_accuracy, detail_data = main(file_llm, file_bench, key_list)

# 输出结果到 Excel(可选)
write_similarity_data_to_excel(key_list, detail_data, "similarity_analysis.xlsx")

# 查看评估指标
print("各字段准确率:", key_accuracy)
print("总体准确率:", accuracy)
```

### 输出文件

脚本会生成一个 Excel 文件,包含详细的逐样本分析:

- `sha256`:文件标识
- 对于每个字段(如 `title`):
  - `llm_title`:LLM 提取的结果
  - `benchmark_title`:基准数据
  - `similarity_title`:相似度分数(0-1)

## 📈 统计信息

### 数据规模

**第一批数据(20250806)**:
- **电子书**:70 条记录
- **学术论文**:70 条记录
- **教材**:71 条记录
- **小计**:211 条记录

**第二批数据(20251022)**:
- **电子书**:354 条记录
- **学术论文**:399 条记录
- **教材**:46 条记录
- **小计**:799 条记录

**总计**:1010 条基准测试记录

数据涵盖多语言(英语、中文、德语、希腊语等)和多学科领域,两批数据共同提供了丰富多样的测试样本。

## 🎯 应用场景

1. **LLM 性能评估**:评估大语言模型从 PDF 提取元数据的能力
2. **信息提取系统测试**:测试 OCR、文档解析等系统的准确性
3. **模型微调**:作为训练或微调数据,提升模型的信息提取能力
4. **跨语言能力评估**:评估模型处理多语言文献的能力

## 🔬 数据特点

- ✅ **真实数据**:从实际 PDF 文件中提取的真实元数据
- ✅ **多样性**:覆盖不同年代、语言、学科的文献
- ✅ **挑战性**:包含古籍、非英语文献、复杂排版等难例
- ✅ **可追溯**:每条记录包含 SHA256 哈希值和原始路径

## 📋 依赖项

```python
pandas>=1.3.0
openpyxl>=3.0.0
```

安装依赖:

```bash
pip install pandas openpyxl
```

## 🤝 贡献指南

如果您希望:
- 报告数据错误
- 添加新的评估维度
- 扩展数据集

请提交 Issue 或 Pull Request。

## 📧 联系方式

如有问题或建议,请通过 Issue 与我们联系。

---

**最后更新**:2025年12月26日