1602353775wzj's picture
Resplit dataset with 6:4 train/test ratio while maintaining subject_code distribution
86ebdbf verified
metadata
configs:
  - config_name: default
    data_files:
      - split: train
        path: train-00000-of-00001.parquet
      - split: test
        path: test-00000-of-00001.parquet
dataset_info:
  config_name: default
  dataset_size: 4409203
  download_size: 4409203
  features:
    - name: id
      dtype: string
    - name: author
      dtype: string
    - name: title
      dtype: string
    - name: text
      dtype: string
    - name: subject
      dtype: string
    - name: subject_code
      dtype: string
    - name: score
      dtype: float64
    - name: language
      dtype: string
  splits:
    - name: train
      num_bytes: 2670957
      num_examples: 5342
    - name: test
      num_bytes: 1738246
      num_examples: 3562

Multilingual Poetry Subject Clustering Benchmark

数据集描述

A multilingual poetry subject clustering benchmark for evaluating cross-lingual embedding models' performance on unsupervised poetry clustering tasks. 每条记录包含一首诗歌及其所属的题材聚类标签,以及它与聚类中心向量的相似度分数(余弦相似度)。

本数据集按照 6:4 的比例拆分为训练集和测试集,并保持 subject_code 的分布。

数据集统计

指标
诗歌总数 8,904 首诗歌
训练集 5,342 首诗歌
测试集 3,562 首诗歌
文件大小 4.2 MB

数据字段说明

  • id: 诗歌唯一标识符
  • author: 诗歌作者
  • title: 诗歌标题
  • text: 诗歌正文内容
  • language: 诗歌语言代码
  • subject: 诗歌题材分析标签 (原始数据)
  • subject_code: 聚类中心分配的题材标签 (用于聚类评估的基准)
  • score: 该诗歌与其聚类中心向量的余弦相似度(用于衡量聚类质量)

subject_code 格式说明: S1-1 表示第1大类下的第1小类,S2-3 表示第2大类下的第3小类,以此类推。

数据集拆分

数据集按照 6:4 的比例拆分为:

  • train: 训练集 (60% 的数据)
  • test: 测试集 (40% 的数据)

拆分时使用分层抽样,保持 subject_code 的分布。

使用方法

from datasets import load_dataset

# 加载数据集
dataset = load_dataset("PoetryMTEB/MultilingualPoetrySubjectClustering")

# 访问不同的 split
train_data = dataset['train']
test_data = dataset['test']

Citation

If you use this dataset, please cite:

  • Original dataset: PoetryMTEB/MultilingualPoetrySubjectClustering