Datasets:
ArXiv:
License:
Update README.md
Browse files
README.md
CHANGED
|
@@ -18,12 +18,13 @@ Teledata 数据集大约公开了2.7亿条数据,数据由纯中文文本构
|
|
| 18 |
|
| 19 |
data: 单条处理后的预训练数据
|
| 20 |
|
| 21 |
-
#
|
| 22 |
数据清洗的工作流程主要是:规则筛选和清洗、去重、高质量数据筛选、数据安全处理这四个步骤。
|
| 23 |
|
| 24 |
- 规则筛选主要是一些通用的规则和启发式规则,例如对字数长度的筛选等等。
|
| 25 |
- 去重主要使用相似度去重来将过于相似重复的数据删除
|
| 26 |
-
-
|
|
|
|
| 27 |
|
| 28 |
# 声明、协议、引用
|
| 29 |
### 声明
|
|
|
|
| 18 |
|
| 19 |
data: 单条处理后的预训练数据
|
| 20 |
|
| 21 |
+
# 数据清洗
|
| 22 |
数据清洗的工作流程主要是:规则筛选和清洗、去重、高质量数据筛选、数据安全处理这四个步骤。
|
| 23 |
|
| 24 |
- 规则筛选主要是一些通用的规则和启发式规则,例如对字数长度的筛选等等。
|
| 25 |
- 去重主要使用相似度去重来将过于相似重复的数据删除
|
| 26 |
+
- 高质量筛选主要使用了BERT、GPT2等模型对数据进行打分筛选出高质量数据
|
| 27 |
+
- 数据清洗主要是针对不良数据进行了识别和去除。
|
| 28 |
|
| 29 |
# 声明、协议、引用
|
| 30 |
### 声明
|