File size: 8,397 Bytes
c68b3e2 6e8c5bf c68b3e2 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 |
# ScienceMetaBench
[English](README.md) | [中文](README_ZH.md)
🤗 [HuggingFace Dataset](https://huggingface.co/datasets/opendatalab/ScienceMetaBench) | 💻 [GitHub Repository](https://github.com/DataEval/ScienceMetaBench)
**致谢**: 🔍 [Dingo](https://github.com/MigoXLab/dingo)
ScienceMetaBench 是一个用于评估从 PDF 文件中提取科学文献元数据准确性的基准测试数据集。该数据集涵盖学术论文、教材和电子书三大类别,可用于评估大语言模型(LLM)或其他信息提取系统的性能。
## 📊 数据集概览
### 数据类型
本基准测试包含三种类型的科学文献:
1. **学术论文 (Paper)**
- 主要来自学术期刊和会议
- 包含 DOI、关键词等学术元数据
2. **教材 (Textbook)**
- 正式出版的教科书
- 包含 ISBN、出版社等出版信息
3. **电子书 (Ebook)**
- 数字化的历史文献和图书
- 覆盖多语言、多学科领域
### 数据批次
本基准测试经过两次数据扩充,每次扩充都增加了新的样本数据:
```
data/
├── 20250806/ # 第一批数据(2024年8月6日)
│ ├── ebook_0806.jsonl
│ ├── paper_0806.jsonl
│ └── textbook_0806.jsonl
└── 20251022/ # 第二批数据(2024年10月22日)
├── ebook_1022.jsonl
├── paper_1022.jsonl
└── textbook_1022.jsonl
```
**注**:两批数据相互补充,共同构成完整的基准测试数据集,可根据需要选择使用单批或合并使用。
### PDF 文件
`pdf/` 目录包含与基准数据对应的原始 PDF 文件,目录结构与 `data/` 目录保持一致。
**文件命名规则**:所有 PDF 文件以其 SHA256 哈希值命名,格式为 `{sha256}.pdf`。这种命名方式确保了文件的唯一性和可追溯性,便于通过 JSONL 数据中的 `sha256` 字段定位对应的源文件。
## 📝 数据格式
所有数据文件采用 JSONL 格式(每行一个 JSON 对象)。
### 学术论文字段
```json
{
"sha256": "文件的 SHA256 哈希值",
"doi": "数字对象标识符",
"title": "论文标题",
"author": "作者姓名",
"keyword": "关键词(逗号分隔)",
"abstract": "摘要内容",
"pub_time": "发表年份"
}
```
### 教材/电子书字段
```json
{
"sha256": "文件的 SHA256 哈希值",
"isbn": "国际标准书号",
"title": "书名",
"author": "作者姓名",
"abstract": "简介/摘要",
"category": "分类号(如中图分类法)",
"pub_time": "出版年份",
"publisher": "出版社"
}
```
## 📖 数据示例
### 学术论文示例
下图展示了从学术论文 PDF 中提取的元数据字段示例:

如图所示,需要从论文首页提取以下关键信息:
- **DOI**:数字对象标识符(如 `10.1186/s41038-017-0090-z`)
- **Title**:论文标题
- **Author**:作者姓名
- **Keyword**:关键词列表
- **Abstract**:论文摘要
- **pub_time**:发表时间(通常为年份)
### 教材/电子书示例
下图展示了从中文电子书 PDF 版权页中提取的元数据字段示例:

如图所示,需要从图书版权页提取以下关键信息:
- **ISBN**:国际标准书号(如 `978-7-5385-8594-0`)
- **Title**:书名
- **Author**:作者/编者姓名
- **Publisher**:出版社名称
- **pub_time**:出版时间(年份)
- **Category**:图书分类号
- **Abstract**:内容简介(如有)
这些示例展示了 benchmark 测试的核心任务:从各种格式和语言的 PDF 文档中准确提取结构化的元数据信息。
## 📊 评估指标
### 核心评估指标
本基准测试采用基于字符串相似度的评估方法,提供两个核心指标:
### 相似度计算规则
本基准测试使用基于 `SequenceMatcher` 的字符串相似度算法,具体规则如下:
1. **空值处理**:一个为空另一个不为空 → 相似度为 0
2. **完全匹配**:两者完全相同(包括都为空)→ 相似度为 1
3. **忽略大小写**:比较前统一转换为小写
4. **序列匹配**:使用最长公共子序列算法计算相似度(范围:0-1)
**相似度分数解读**:
- `1.0`:完全匹配
- `0.8-0.99`:高度相似(可能存在小的格式差异)
- `0.5-0.79`:部分匹配(提取了主要信息但不完整)
- `0.0-0.49`:低相似度(提取结果与标准答案差异较大)
#### 1. 各字段准确率(Field-level Accuracy)
**定义**:每个元数据字段的平均相似度分数。
**计算方式**:
```
各字段准确率 = Σ(该字段在所有样本上的相似度) / 样本总数
```
**示例**:假设在 100 个样本上评估 `title` 字段,每个样本的 title 相似度累加后除以 100,得到该字段的准确率。
**用途**:
- 识别模型在哪些字段上表现较好或较差
- 针对性地优化特定字段的提取能力
- 例如:如果 `doi` 准确率为 0.95,`abstract` 准确率为 0.75,说明模型在提取摘要时需要改进
#### 2. 总体准确率(Overall Accuracy)
**定义**:所有评估字段准确率的平均值,反映模型的整体性能。
**计算方式**:
```
总体准确率 = Σ(各字段准确率) / 字段总数
```
**示例**:评估 7 个字段(isbn, title, author, abstract, category, pub_time, publisher),将这 7 个字段的准确率相加后除以 7。
**用途**:
- 提供模型整体性能的单一量化指标
- 方便不同模型或方法之间的横向比较
- 作为模型优化的总体目标
### 使用评估脚本
`compare.py` 提供了便捷的评估接口:
```python
from compare import main, write_similarity_data_to_excel
# 定义文件路径和要比较的字段
file_llm = 'data/llm-label_textbook.jsonl' # LLM 提取结果
file_bench = 'data/benchmark_textbook.jsonl' # 基准数据
# 对于教材/电子书
key_list = ['isbn', 'title', 'author', 'abstract', 'category', 'pub_time', 'publisher']
# 对于学术论文
# key_list = ['doi', 'title', 'author', 'keyword', 'abstract', 'pub_time']
# 运行评估,获取指标
accuracy, key_accuracy, detail_data = main(file_llm, file_bench, key_list)
# 输出结果到 Excel(可选)
write_similarity_data_to_excel(key_list, detail_data, "similarity_analysis.xlsx")
# 查看评估指标
print("各字段准确率:", key_accuracy)
print("总体准确率:", accuracy)
```
### 输出文件
脚本会生成一个 Excel 文件,包含详细的逐样本分析:
- `sha256`:文件标识
- 对于每个字段(如 `title`):
- `llm_title`:LLM 提取的结果
- `benchmark_title`:基准数据
- `similarity_title`:相似度分数(0-1)
## 📈 统计信息
### 数据规模
**第一批数据(20250806)**:
- **电子书**:70 条记录
- **学术论文**:70 条记录
- **教材**:71 条记录
- **小计**:211 条记录
**第二批数据(20251022)**:
- **电子书**:354 条记录
- **学术论文**:399 条记录
- **教材**:46 条记录
- **小计**:799 条记录
**总计**:1010 条基准测试记录
数据涵盖多语言(英语、中文、德语、希腊语等)和多学科领域,两批数据共同提供了丰富多样的测试样本。
## 🎯 应用场景
1. **LLM 性能评估**:评估大语言模型从 PDF 提取元数据的能力
2. **信息提取系统测试**:测试 OCR、文档解析等系统的准确性
3. **模型微调**:作为训练或微调数据,提升模型的信息提取能力
4. **跨语言能力评估**:评估模型处理多语言文献的能力
## 🔬 数据特点
- ✅ **真实数据**:从实际 PDF 文件中提取的真实元数据
- ✅ **多样性**:覆盖不同年代、语言、学科的文献
- ✅ **挑战性**:包含古籍、非英语文献、复杂排版等难例
- ✅ **可追溯**:每条记录包含 SHA256 哈希值和原始路径
## 📋 依赖项
```python
pandas>=1.3.0
openpyxl>=3.0.0
```
安装依赖:
```bash
pip install pandas openpyxl
```
## 🤝 贡献指南
如果您希望:
- 报告数据错误
- 添加新的评估维度
- 扩展数据集
请提交 Issue 或 Pull Request。
## 📧 联系方式
如有问题或建议,请通过 Issue 与我们联系。
---
**最后更新**:2025年12月26日
|