Datasets:
File size: 4,874 Bytes
c28257e dd3e25d c28257e | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 | ---
license: cc-by-4.0
viewer: false
task_categories:
- text-generation
language:
- en
tags:
- wordprocessingml
- office-open-xml
- html2xml
- document-conversion
- evaluation
- govdocs
pretty_name: WPML-Eval Govdocs
size_categories:
- 1K<n<10K
---
# WPML-Eval: Govdocs HTML → WordProcessingML 변환 평가 데이터셋
Govdocs1 공개 말뭉치에서 추출한 **1,000개 영문 HTML 문서**와 대응하는
단순화된 **WordProcessingML(Office Open XML 본문 포맷)** 정답 파일로 구성된
**연구/평가 전용 데이터셋**입니다.
## 구성
| 버킷 | 문서 수 | 설명 |
|---|:-:|---|
| `1k-3k_tokens` | 100 | 입력 HTML ≈ 1,000–3,000 tokens |
| `3k-4k_tokens` | 100 | |
| `4k-5k_tokens` | 100 | |
| `5k-6k_tokens` | 100 | |
| `6k-7k_tokens` | 100 | |
| `7k-8k_tokens` | 100 | |
| `8k-9k_tokens` | 100 | |
| `9k-10k_tokens` | 100 | |
| `10k-11k_tokens` | 100 | |
| `12k-13k_tokens` | 100 | |
| **합계** | **1,000** | 각 버킷당 고유 문서 |
각 버킷 폴더에는 세 가지 하위 디렉토리가 있습니다:
| 폴더 | 내용 | 용도 |
|---|---|---|
| `Govdocs1_html/{id}.html` | 입력 HTML | 모델 입력 |
| `Govdocs1_xml/{id}.xml` | 정답 WordProcessingML | 평가 기준 (golden reference) |
| `Govdocs1_doc/{id}.doc` | 원본 MS Word 문서 | 참조용 (HTML/XML은 여기서 파생) |
## WPML 정답 포맷
평가 가능한 **최소 태그 집합**으로 한정하였습니다:
```xml
<w:document xmlns:w="http://schemas.openxmlformats.org/wordprocessingml/2006/main">
<w:body>
<w:p>
<w:r><w:t>Paragraph text here.</w:t></w:r>
</w:p>
...
</w:body>
</w:document>
```
- **표**는 한 행을 ` | `로 구분된 단일 `w:p`로 평탄화
- **리스트 아이템**은 `- ` 접두사를 붙인 평문 단락
- 스타일, 이미지, 필드, 머리글/바닥글 등은 제외 (본문 텍스트와 문단 구조에만 집중)
## 버킷 정의
각 문서는 **입력 HTML을 참조 토크나이저(tiktoken cl100k_base)로 토큰화한 길이** 기준으로
10개 버킷에 층화 추출되어 있습니다. 모델의 컨텍스트 길이 대응력을 공정하게 평가할 수 있도록
11k-12k 구간은 통계적 불균형을 줄이기 위해 제외되었습니다.
## 사용법
### 다운로드
```bash
pip install huggingface_hub
huggingface-cli download timtkddn/wpml-eval-govdocs \
--repo-type dataset --local-dir ./dataset
```
### 평가 실행
```bash
git clone https://github.com/timtkddn/wpml-eval
cd wpml-eval
pip install -r requirements.txt
# OpenAI 호환 API (예: vLLM) 기동 후
bash run.sh 8000
```
### 지표
- `final_score` (가중 평균)
- `structure_score`, `paragraph_score`, `run_score`, `text_preservation_score`
- `valid_xml_rate`, `exact_text_preservation_rate`
자세한 내용은 평가 레포 README 참조.
## 출처 및 저작권
본 데이터셋은 **Govdocs1 Million Corpus**의 파일을 기반으로 하며,
Naval Postgraduate School의 Digital Corpora 프로젝트에서 수집·공개한 원본에서 파생되었습니다.
- **원본**: [Digital Corpora — Govdocs1](https://digitalcorpora.org/corpora/file-corpora/files/)
- **수집 범위**: US government (`.gov` / `.mil`) 도메인에서 공개 웹 크롤링
- **원본 저작권 상태**: 미국 연방정부 저작물은 [17 U.S.C. § 105](https://www.copyright.gov/title17/92chap1.html#105)에 따라 Public Domain. Digital Corpora 프로젝트는 "no known copyright restrictions"로 배포.
- **파생물(HTML, WPML 변환, 버킷 분류)**: 기계적 변환으로 새로운 창작성이 추가되지 않았으므로 원본의 저작권 상태를 유지하며, 큐레이션 작업에 한해 CC-BY 4.0 라이선스가 적용됩니다.
### DMCA / 삭제 요청
만약 본 데이터셋에 포함된 문서에 대한 저작권을 보유하고 계시거나 개인정보 우려가 있다면,
HuggingFace repo의 Community 탭에 issue를 남겨주세요. 확인 후 **7일 이내 삭제** 조치합니다.
## 인용
### 본 데이터셋
```bibtex
@misc{wpml-eval-govdocs-2026,
title = {{WPML-Eval}: HTML to WordProcessingML Conversion Evaluation Dataset},
author = {timtkddn},
year = {2026},
howpublished = {Hugging Face Dataset},
url = {https://huggingface.co/datasets/timtkddn/wpml-eval-govdocs}
}
```
### 원본 Govdocs1
```bibtex
@inproceedings{garfinkel2009bringing,
title = {Bringing science to digital forensics with standardized forensic corpora},
author = {Garfinkel, Simson and Farrell, Paul and Roussev, Vassil and Dinolt, George},
booktitle = {Proceedings of the 9th Annual Digital Forensics Research Conference (DFRWS)},
year = {2009}
}
```
## 라이선스
**CC-BY 4.0** (파생물 작업 및 큐레이션 기준). 원본 파일은 Public Domain으로 추정되며 별도 제약 없음.
|