ScienceMetaBench / README_ZH.md
DataEval's picture
Update README_ZH.md
6e8c5bf verified
# ScienceMetaBench
[English](README.md) | [中文](README_ZH.md)
🤗 [HuggingFace Dataset](https://huggingface.co/datasets/opendatalab/ScienceMetaBench) | 💻 [GitHub Repository](https://github.com/DataEval/ScienceMetaBench)
**致谢**: 🔍 [Dingo](https://github.com/MigoXLab/dingo)
ScienceMetaBench 是一个用于评估从 PDF 文件中提取科学文献元数据准确性的基准测试数据集。该数据集涵盖学术论文、教材和电子书三大类别,可用于评估大语言模型(LLM)或其他信息提取系统的性能。
## 📊 数据集概览
### 数据类型
本基准测试包含三种类型的科学文献:
1. **学术论文 (Paper)**
- 主要来自学术期刊和会议
- 包含 DOI、关键词等学术元数据
2. **教材 (Textbook)**
- 正式出版的教科书
- 包含 ISBN、出版社等出版信息
3. **电子书 (Ebook)**
- 数字化的历史文献和图书
- 覆盖多语言、多学科领域
### 数据批次
本基准测试经过两次数据扩充,每次扩充都增加了新的样本数据:
```
data/
├── 20250806/ # 第一批数据(2024年8月6日)
│ ├── ebook_0806.jsonl
│ ├── paper_0806.jsonl
│ └── textbook_0806.jsonl
└── 20251022/ # 第二批数据(2024年10月22日)
├── ebook_1022.jsonl
├── paper_1022.jsonl
└── textbook_1022.jsonl
```
**注**:两批数据相互补充,共同构成完整的基准测试数据集,可根据需要选择使用单批或合并使用。
### PDF 文件
`pdf/` 目录包含与基准数据对应的原始 PDF 文件,目录结构与 `data/` 目录保持一致。
**文件命名规则**:所有 PDF 文件以其 SHA256 哈希值命名,格式为 `{sha256}.pdf`。这种命名方式确保了文件的唯一性和可追溯性,便于通过 JSONL 数据中的 `sha256` 字段定位对应的源文件。
## 📝 数据格式
所有数据文件采用 JSONL 格式(每行一个 JSON 对象)。
### 学术论文字段
```json
{
"sha256": "文件的 SHA256 哈希值",
"doi": "数字对象标识符",
"title": "论文标题",
"author": "作者姓名",
"keyword": "关键词(逗号分隔)",
"abstract": "摘要内容",
"pub_time": "发表年份"
}
```
### 教材/电子书字段
```json
{
"sha256": "文件的 SHA256 哈希值",
"isbn": "国际标准书号",
"title": "书名",
"author": "作者姓名",
"abstract": "简介/摘要",
"category": "分类号(如中图分类法)",
"pub_time": "出版年份",
"publisher": "出版社"
}
```
## 📖 数据示例
### 学术论文示例
下图展示了从学术论文 PDF 中提取的元数据字段示例:
![学术论文示例](images/paper_example.png)
如图所示,需要从论文首页提取以下关键信息:
- **DOI**:数字对象标识符(如 `10.1186/s41038-017-0090-z`
- **Title**:论文标题
- **Author**:作者姓名
- **Keyword**:关键词列表
- **Abstract**:论文摘要
- **pub_time**:发表时间(通常为年份)
### 教材/电子书示例
下图展示了从中文电子书 PDF 版权页中提取的元数据字段示例:
![教材示例](images/ebook_example.png)
如图所示,需要从图书版权页提取以下关键信息:
- **ISBN**:国际标准书号(如 `978-7-5385-8594-0`)
- **Title**:书名
- **Author**:作者/编者姓名
- **Publisher**:出版社名称
- **pub_time**:出版时间(年份)
- **Category**:图书分类号
- **Abstract**:内容简介(如有)
这些示例展示了 benchmark 测试的核心任务:从各种格式和语言的 PDF 文档中准确提取结构化的元数据信息。
## 📊 评估指标
### 核心评估指标
本基准测试采用基于字符串相似度的评估方法,提供两个核心指标:
### 相似度计算规则
本基准测试使用基于 `SequenceMatcher` 的字符串相似度算法,具体规则如下:
1. **空值处理**:一个为空另一个不为空 → 相似度为 0
2. **完全匹配**:两者完全相同(包括都为空)→ 相似度为 1
3. **忽略大小写**:比较前统一转换为小写
4. **序列匹配**:使用最长公共子序列算法计算相似度(范围:0-1)
**相似度分数解读**
- `1.0`:完全匹配
- `0.8-0.99`:高度相似(可能存在小的格式差异)
- `0.5-0.79`:部分匹配(提取了主要信息但不完整)
- `0.0-0.49`:低相似度(提取结果与标准答案差异较大)
#### 1. 各字段准确率(Field-level Accuracy)
**定义**:每个元数据字段的平均相似度分数。
**计算方式**
```
各字段准确率 = Σ(该字段在所有样本上的相似度) / 样本总数
```
**示例**:假设在 100 个样本上评估 `title` 字段,每个样本的 title 相似度累加后除以 100,得到该字段的准确率。
**用途**
- 识别模型在哪些字段上表现较好或较差
- 针对性地优化特定字段的提取能力
- 例如:如果 `doi` 准确率为 0.95,`abstract` 准确率为 0.75,说明模型在提取摘要时需要改进
#### 2. 总体准确率(Overall Accuracy)
**定义**:所有评估字段准确率的平均值,反映模型的整体性能。
**计算方式**
```
总体准确率 = Σ(各字段准确率) / 字段总数
```
**示例**:评估 7 个字段(isbn, title, author, abstract, category, pub_time, publisher),将这 7 个字段的准确率相加后除以 7。
**用途**
- 提供模型整体性能的单一量化指标
- 方便不同模型或方法之间的横向比较
- 作为模型优化的总体目标
### 使用评估脚本
`compare.py` 提供了便捷的评估接口:
```python
from compare import main, write_similarity_data_to_excel
# 定义文件路径和要比较的字段
file_llm = 'data/llm-label_textbook.jsonl' # LLM 提取结果
file_bench = 'data/benchmark_textbook.jsonl' # 基准数据
# 对于教材/电子书
key_list = ['isbn', 'title', 'author', 'abstract', 'category', 'pub_time', 'publisher']
# 对于学术论文
# key_list = ['doi', 'title', 'author', 'keyword', 'abstract', 'pub_time']
# 运行评估,获取指标
accuracy, key_accuracy, detail_data = main(file_llm, file_bench, key_list)
# 输出结果到 Excel(可选)
write_similarity_data_to_excel(key_list, detail_data, "similarity_analysis.xlsx")
# 查看评估指标
print("各字段准确率:", key_accuracy)
print("总体准确率:", accuracy)
```
### 输出文件
脚本会生成一个 Excel 文件,包含详细的逐样本分析:
- `sha256`:文件标识
- 对于每个字段(如 `title`):
- `llm_title`:LLM 提取的结果
- `benchmark_title`:基准数据
- `similarity_title`:相似度分数(0-1)
## 📈 统计信息
### 数据规模
**第一批数据(20250806)**:
- **电子书**:70 条记录
- **学术论文**:70 条记录
- **教材**:71 条记录
- **小计**:211 条记录
**第二批数据(20251022)**:
- **电子书**:354 条记录
- **学术论文**:399 条记录
- **教材**:46 条记录
- **小计**:799 条记录
**总计**:1010 条基准测试记录
数据涵盖多语言(英语、中文、德语、希腊语等)和多学科领域,两批数据共同提供了丰富多样的测试样本。
## 🎯 应用场景
1. **LLM 性能评估**:评估大语言模型从 PDF 提取元数据的能力
2. **信息提取系统测试**:测试 OCR、文档解析等系统的准确性
3. **模型微调**:作为训练或微调数据,提升模型的信息提取能力
4. **跨语言能力评估**:评估模型处理多语言文献的能力
## 🔬 数据特点
- ✅ **真实数据**:从实际 PDF 文件中提取的真实元数据
- ✅ **多样性**:覆盖不同年代、语言、学科的文献
- ✅ **挑战性**:包含古籍、非英语文献、复杂排版等难例
- ✅ **可追溯**:每条记录包含 SHA256 哈希值和原始路径
## 📋 依赖项
```python
pandas>=1.3.0
openpyxl>=3.0.0
```
安装依赖:
```bash
pip install pandas openpyxl
```
## 🤝 贡献指南
如果您希望:
- 报告数据错误
- 添加新的评估维度
- 扩展数据集
请提交 Issue 或 Pull Request。
## 📧 联系方式
如有问题或建议,请通过 Issue 与我们联系。
---
**最后更新**:2025年12月26日