# (中文版) AL-GR/Origin-Sequence-Data: 原始用户行为序列 📜 ## 📝 数据集摘要 本仓库 `AL-GR/Origin-Sequence-Data` 包含了 `AL-GR` 生态系统的基础——**原始用户行为序列**。它所代表的数据,是格式化为用于训练大语言模型(LLM)的指令式Prompt*之前*的形态。 数据集中的每一行都代表了用户购物旅程中的一步,由一系列过去交互过的物品(`user_history`)和他们接下来交互的物品(`target_item`)组成。所有的物品ID都已被脱敏处理为简短的、唯一的字符串。 本数据集非常适合: - 🧑‍🔬 希望设计自己的数据处理或Prompt策略的研究人员。 - 📈 训练和评估传统的序列推荐模型(如 GRU4Rec, SASRec 等)。 - 🔎 理解主 `AL-GR` 数据集所构建的源数据。 ## 🚀 如何使用 该数据集的数据被存放在多个文件夹中(`s1_splits`, `s2_splits` 等),这对于 `datasets` 库来说是一种非标准格式。为了实现无缝加载,我们需要一个**加载脚本**。 #### 步骤一:创建加载脚本 在您的本地电脑上创建一个名为 `origin-sequence-data.py` 的文件,并将以下代码粘贴进去。 ```python import csv import datasets import glob _DESCRIPTION = "AL-GR项目的原始用户行为序列,已划分为历史和目标物品。" _CITATION = """ @misc{al-gr-origin-sequence, author = {[您的姓名或团队名]}, title = {AL-GR/Origin-Sequence-Data: Raw User Behavior Sequences}, year = {[年份]}, # ... 其他引文信息 } """ class OriginSequenceData(datasets.GeneratorBasedBuilder): """AL-GR原始用户行为序列的加载器。""" def _info(self): return datasets.DatasetInfo( description=_DESCRIPTION, features=datasets.Features({ "user_history": datasets.Value("string"), "target_item": datasets.Value("string"), }), citation=_CITATION, ) def _split_generators(self, dl_manager): repo_path = dl_manager.manual_dir return [ datasets.SplitGenerator(name="s1", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s1_splits/*.csv"))}), datasets.SplitGenerator(name="s2", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s2_splits/*.csv"))}), datasets.SplitGenerator(name="s3", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s3_splits/*.csv"))}), datasets.SplitGenerator(name="test", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/test/*.csv"))}), ] def _generate_examples(self, filepaths): key = 0 for filepath in filepaths: with open(filepath, "r", encoding="utf-8") as f: # 假设CSV文件包含表头 'user_history', 'target_item' # 如果没有,可能需要使用 csv.reader 并通过索引访问。 reader = csv.DictReader(f) for row in reader: yield key, { "user_history": row["user_history"], "target_item": row["target_item"], } key += 1 ``` #### 步骤二:上传脚本 将 `origin-sequence-data.py` 文件上传到此数据集在 Hugging Face Hub 上的**根目录**。 #### 步骤三:一行代码加载数据集! 一旦脚本上传完成,您(以及其他任何人)就可以轻松地加载整个数据集: ```python from datasets import load_dataset # 加载脚本会被自动检测并执行。 dataset = load_dataset("AL-GR/Origin-Sequence-Data") # 访问不同的数据划分 print("来自s1划分的样本:") print(dataset['s1'][0]) print("\n来自test划分的样本:") print(dataset['test'][0]) ``` ## 🏗️ 数据集结构 ### 数据字段 - `user_history` (string) 🕒: 一个由空格分隔的、脱敏后的物品ID序列,代表用户的历史交互行为。 - `target_item` (string) 🎯: 用户接下来交互的单个、脱敏后的物品ID。 ### 数据划分 数据集被划分为四个主要部分,存储在不同的文件夹中: - `s1_splits`, `s2_splits`, `s3_splits`: 三个按时间顺序排列的训练集。这对于时间感知模型的训练和评估非常有用,允许模型在较早的数据上训练,并在较新的数据上测试。 - `test`: 一个专用于最终模型评估的测试集。 ## 🔗 与 `AL-GR` 的关系 本数据集是主 `AL-GR` 生成式数据集的直接前身。转换关系如下: - **`Origin-Sequence-Data` (本数据集):** - `user_history`: "AdPxq 6Vf1Re WkQqK..." - `target_item`: "ECZSq" - **`AL-GR` (生成式数据集):** - `system`: "你是一个推荐系统..." - `user`: "当前用户的历史行为如下:C...C..." (ID可能经过了重新映射) - `answer`: "C..." (目标物品,经过重新映射) 本数据集为任何希望复现或创建 `AL-GR` Prompt格式变体的人提供了原始素材。 ## ✍️ 引文信息 如果您在研究中使用了本数据集,请引用: ## 📜 许可协议 本数据集采用 [例如:Apache License 2.0] 许可协议。