--- configs: - config_name: default data_files: - split: train path: train-00000-of-00001.parquet - split: test path: test-00000-of-00001.parquet dataset_info: config_name: default dataset_size: 4409203 download_size: 4409203 features: - name: id dtype: string - name: author dtype: string - name: title dtype: string - name: text dtype: string - name: subject dtype: string - name: subject_code dtype: string - name: score dtype: float64 - name: language dtype: string splits: - name: train num_bytes: 2670957 num_examples: 5342 - name: test num_bytes: 1738246 num_examples: 3562 --- # Multilingual Poetry Subject Clustering Benchmark ## 数据集描述 A multilingual poetry subject clustering benchmark for evaluating cross-lingual embedding models' performance on unsupervised poetry clustering tasks. 每条记录包含一首诗歌及其所属的题材聚类标签,以及它与聚类中心向量的相似度分数(余弦相似度)。 本数据集按照 6:4 的比例拆分为训练集和测试集,并保持 subject_code 的分布。 ## 数据集统计 | 指标 | 值 | |------|----------| | **诗歌总数** | 8,904 首诗歌 | | **训练集** | 5,342 首诗歌 | | **测试集** | 3,562 首诗歌 | | **文件大小** | 4.2 MB | ## 数据字段说明 - `id`: 诗歌唯一标识符 - `author`: 诗歌作者 - `title`: 诗歌标题 - `text`: 诗歌正文内容 - `language`: 诗歌语言代码 - `subject`: 诗歌题材分析标签 (原始数据) - `subject_code`: 聚类中心分配的题材标签 (用于聚类评估的基准) - `score`: 该诗歌与其聚类中心向量的余弦相似度(用于衡量聚类质量) **subject_code 格式说明**: `S1-1` 表示第1大类下的第1小类,`S2-3` 表示第2大类下的第3小类,以此类推。 ## 数据集拆分 数据集按照 6:4 的比例拆分为: - **train**: 训练集 (60% 的数据) - **test**: 测试集 (40% 的数据) 拆分时使用分层抽样,保持 subject_code 的分布。 ## 使用方法 ```python from datasets import load_dataset # 加载数据集 dataset = load_dataset("PoetryMTEB/MultilingualPoetrySubjectClustering") # 访问不同的 split train_data = dataset['train'] test_data = dataset['test'] ``` ## Citation If you use this dataset, please cite: - Original dataset: PoetryMTEB/MultilingualPoetrySubjectClustering