Slim-LCCC-zh / README.md
lorinma's picture
Update README.md
0083be4
metadata
language:
  - zh
task_categories:
  - conversational
  - text-generation
size_categories:
  - 1K<n<10K

在LLM横行的今天,大家都在讲究SFT数据质量。相比于各种一板一眼的AI回复,又是step by step又是detailed reasoning,这种非常casual的对话显得那么的独特,更适合用作情感陪伴闲聊机器人的目的。

本项目提供了一个大规模中文对话数据集,原始数据来自于清华大学的LCCC(Large-scale Cleaned Chinese Conversation)数据集

基于LCCC-large,但因为有1200万。故使用bert-base-chinese转换为embedding,且使用类knn的方法抽取了1万条。并转换成了sharegpt格式。

从实用的角度来说,因为对话都只有两句,需要通过GPT进行续写。但是实测发现openai系列的太严肃了,失去了casual的味道。浅测了一下文心一言可以续写这种闲聊对话。只是测试了一下,并没有放在这个数据集中。

当然了,最好的还是收集真实世界的对话。