Datasets:
Modalities:
Text
Formats:
csv
Size:
100K - 1M
ArXiv:
Tags:
sequential-recommendation
raw-data
anonymized
e-commerce
next-item-prediction
generative-retrieval
License:
(中文版) AL-GR/Origin-Sequence-Data: 原始用户行为序列 📜
📝 数据集摘要
本仓库 AL-GR/Origin-Sequence-Data 包含了 AL-GR 生态系统的基础——原始用户行为序列。它所代表的数据,是格式化为用于训练大语言模型(LLM)的指令式Prompt之前的形态。
数据集中的每一行都代表了用户购物旅程中的一步,由一系列过去交互过的物品(user_history)和他们接下来交互的物品(target_item)组成。所有的物品ID都已被脱敏处理为简短的、唯一的字符串。
本数据集非常适合:
- 🧑🔬 希望设计自己的数据处理或Prompt策略的研究人员。
- 📈 训练和评估传统的序列推荐模型(如 GRU4Rec, SASRec 等)。
- 🔎 理解主
AL-GR数据集所构建的源数据。
🚀 如何使用
该数据集的数据被存放在多个文件夹中(s1_splits, s2_splits 等),这对于 datasets 库来说是一种非标准格式。为了实现无缝加载,我们需要一个加载脚本。
步骤一:创建加载脚本
在您的本地电脑上创建一个名为 origin-sequence-data.py 的文件,并将以下代码粘贴进去。
import csv
import datasets
import glob
_DESCRIPTION = "AL-GR项目的原始用户行为序列,已划分为历史和目标物品。"
_CITATION = """
@misc{al-gr-origin-sequence,
author = {[您的姓名或团队名]},
title = {AL-GR/Origin-Sequence-Data: Raw User Behavior Sequences},
year = {[年份]},
# ... 其他引文信息
}
"""
class OriginSequenceData(datasets.GeneratorBasedBuilder):
"""AL-GR原始用户行为序列的加载器。"""
def _info(self):
return datasets.DatasetInfo(
description=_DESCRIPTION,
features=datasets.Features({
"user_history": datasets.Value("string"),
"target_item": datasets.Value("string"),
}),
citation=_CITATION,
)
def _split_generators(self, dl_manager):
repo_path = dl_manager.manual_dir
return [
datasets.SplitGenerator(name="s1", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s1_splits/*.csv"))}),
datasets.SplitGenerator(name="s2", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s2_splits/*.csv"))}),
datasets.SplitGenerator(name="s3", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s3_splits/*.csv"))}),
datasets.SplitGenerator(name="test", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/test/*.csv"))}),
]
def _generate_examples(self, filepaths):
key = 0
for filepath in filepaths:
with open(filepath, "r", encoding="utf-8") as f:
# 假设CSV文件包含表头 'user_history', 'target_item'
# 如果没有,可能需要使用 csv.reader 并通过索引访问。
reader = csv.DictReader(f)
for row in reader:
yield key, {
"user_history": row["user_history"],
"target_item": row["target_item"],
}
key += 1
步骤二:上传脚本
将 origin-sequence-data.py 文件上传到此数据集在 Hugging Face Hub 上的根目录。
步骤三:一行代码加载数据集!
一旦脚本上传完成,您(以及其他任何人)就可以轻松地加载整个数据集:
from datasets import load_dataset
# 加载脚本会被自动检测并执行。
dataset = load_dataset("AL-GR/Origin-Sequence-Data")
# 访问不同的数据划分
print("来自s1划分的样本:")
print(dataset['s1'][0])
print("\n来自test划分的样本:")
print(dataset['test'][0])
🏗️ 数据集结构
数据字段
user_history(string) 🕒: 一个由空格分隔的、脱敏后的物品ID序列,代表用户的历史交互行为。target_item(string) 🎯: 用户接下来交互的单个、脱敏后的物品ID。
数据划分
数据集被划分为四个主要部分,存储在不同的文件夹中:
s1_splits,s2_splits,s3_splits: 三个按时间顺序排列的训练集。这对于时间感知模型的训练和评估非常有用,允许模型在较早的数据上训练,并在较新的数据上测试。test: 一个专用于最终模型评估的测试集。
🔗 与 AL-GR 的关系
本数据集是主 AL-GR 生成式数据集的直接前身。转换关系如下:
Origin-Sequence-Data(本数据集):user_history: "AdPxq 6Vf1Re WkQqK..."target_item: "ECZSq"
AL-GR(生成式数据集):system: "你是一个推荐系统..."user: "当前用户的历史行为如下:C...C..." (ID可能经过了重新映射)answer: "C..." (目标物品,经过重新映射)
本数据集为任何希望复现或创建 AL-GR Prompt格式变体的人提供了原始素材。
✍️ 引文信息
如果您在研究中使用了本数据集,请引用:
@misc{fu2025forgeformingsemanticidentifiers,
title={FORGE: Forming Semantic Identifiers for Generative Retrieval in Industrial Datasets},
author={Kairui Fu and Tao Zhang and Shuwen Xiao and Ziyang Wang and Xinming Zhang and Chenchi Zhang and Yuliang Yan and Junjun Zheng and Yu Li and Zhihong Chen and Jian Wu and Xiangheng Kong and Shengyu Zhang and Kun Kuang and Yuning Jiang and Bo Zheng},
year={2025},
eprint={2509.20904},
archivePrefix={arXiv},
primaryClass={cs.IR},
url={https://arxiv.org/abs/2509.20904},
}
📜 许可协议
本数据集采用 [例如:Apache License 2.0] 许可协议。