Resplit dataset with 6:4 train/test ratio while maintaining subject_code distribution
86ebdbf verified metadata
configs:
- config_name: default
data_files:
- split: train
path: train-00000-of-00001.parquet
- split: test
path: test-00000-of-00001.parquet
dataset_info:
config_name: default
dataset_size: 4409203
download_size: 4409203
features:
- name: id
dtype: string
- name: author
dtype: string
- name: title
dtype: string
- name: text
dtype: string
- name: subject
dtype: string
- name: subject_code
dtype: string
- name: score
dtype: float64
- name: language
dtype: string
splits:
- name: train
num_bytes: 2670957
num_examples: 5342
- name: test
num_bytes: 1738246
num_examples: 3562
Multilingual Poetry Subject Clustering Benchmark
数据集描述
A multilingual poetry subject clustering benchmark for evaluating cross-lingual embedding models' performance on unsupervised poetry clustering tasks. 每条记录包含一首诗歌及其所属的题材聚类标签,以及它与聚类中心向量的相似度分数(余弦相似度)。
本数据集按照 6:4 的比例拆分为训练集和测试集,并保持 subject_code 的分布。
数据集统计
| 指标 | 值 |
|---|---|
| 诗歌总数 | 8,904 首诗歌 |
| 训练集 | 5,342 首诗歌 |
| 测试集 | 3,562 首诗歌 |
| 文件大小 | 4.2 MB |
数据字段说明
id: 诗歌唯一标识符author: 诗歌作者title: 诗歌标题text: 诗歌正文内容language: 诗歌语言代码subject: 诗歌题材分析标签 (原始数据)subject_code: 聚类中心分配的题材标签 (用于聚类评估的基准)score: 该诗歌与其聚类中心向量的余弦相似度(用于衡量聚类质量)
subject_code 格式说明: S1-1 表示第1大类下的第1小类,S2-3 表示第2大类下的第3小类,以此类推。
数据集拆分
数据集按照 6:4 的比例拆分为:
- train: 训练集 (60% 的数据)
- test: 测试集 (40% 的数据)
拆分时使用分层抽样,保持 subject_code 的分布。
使用方法
from datasets import load_dataset
# 加载数据集
dataset = load_dataset("PoetryMTEB/MultilingualPoetrySubjectClustering")
# 访问不同的 split
train_data = dataset['train']
test_data = dataset['test']
Citation
If you use this dataset, please cite:
- Original dataset: PoetryMTEB/MultilingualPoetrySubjectClustering