text
stringlengths
0
18.7k
聚类,再将整个文本划分为 100 类。
关于热度的评价标准, 我们考虑每条留言的点灶数和反对数, 由于反对数在
一定程度上也是在反应事件本身, 于是我们对赞成数和反对数赋予不同的权重之
后,再相加,与分类结果相结合,得到排名前 5 的热点问题。
针对问题三,我们要考虑如何将相关性、完整性和可解释性量化,要思考构
建什么样的指标来计算和评价。在实际做题过程中, 我们发现可解释性适合在相
关性的基础上进行, 于是我们将本题的评价顺序调整为: 相关性、可解释性和完
整性。
关于留言与留言回复之间的相关性, 我们采用文本相似度对留言的回复情况
作相关性的考察, 相似度是比较两个事物的相似性, 一般通过计算事物的特征之
间的距离,如果距离小,那么相似度太;如果距离大,那么相似度小。经过欧几
里得距离和余弦相似度的比较,我们选择了对本题适用性更强的余弦相似度。
可解释性和完整性都是在做完相关性的基础上,再加上自定义的规则进行
的,后文将详细描述这两个自定义的规则。
第八届泰迪杯数据挖掘挑战赛
二、群众留言分类
2.1 第一古思维导图
数据导入 数据预处理 文本向量化 文本分类 建立模型 算法评估
| 作词 TF-IDF模型 常见的6种算法 | _F-score评分
去除停用词 算法比较 混清矩焉
图1 第一题的思维续图
2.2 数据预处理
2.2.1 分词
对于题目所给的表格数据,提取出文本之后需要进一步做预处理。
汉语分词的主要任务是将汉语文本自动切分成词序列。 由于词是自然语言中
具有独立含义的最小的言语单位,而汉语文本中词与词之间有分隔标记, 词语文
本切分是汉语文本处理的第一步。
关于汉语言的分词方法, 国内外有大量研究, 最早起于词典的分词方法有最
大匹配法、最短路径法,后来的基于”元语法的统计切割法,再到后来的由字构
词的汉语分词方法等,人们先后提出过数十种切割方式。
本例题中,我们使用的是 jieba 分词。
Jieba 分词支持三种分词模式,
吓精确模式,试图将句子最精确地切开,适合文本分析;
名全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但
是不能解决歧义;
回搜索引擎模式: 在精确模式的基础上,对长词再次切分,提高召回率,适
3
第八届泰迪杯数据挖掘挑战赛
合用于搜索引警分词。
2.2.2 去停用词
停用词〈stop words) 主要是指功能词 (functional words) ,通常是指在各类
文档中频繁出现的、附带极少文本信息的助词、介词、连词、j 下有人订
如英文中的 the、is、that、which、on 等, 汉语中的"的~ “了”、'是等。为了诚
少文本挖掘系统的存情空间, 提高运行效率, 和站坟水直击访和员遇法
用词过略掉。
这里我们利用一个常见停用词表,根据文件某些特性增添或删碱部分词语,
形成新的、适用于本题模型的停用词表。
预处理完成后的我们得到数据的词云图如下所示:
动儿反P关教育 攻
0 200 400 500 800 1000
2.3 文本向量化
文本表示 (textrepresentation) :要想计算机能够高效处理真实文本,就必
须找到一种理想的形式化表示方法。统计学习方法首先将输入的文本进行形式
化, 将其表示为向量或者其他形式, 并基于形式化表示进行机器学习模型的训练
和诀策。这种将文本进行形式化的过程称为文本表示。
本文中, 我们使用的是文本挖气中最常见的
模型(vector spacemodel,VSM) 。
量空间
第八届泰迪杯数据挖掘挑战赛
2.3.1 特征项