text
stringlengths 0
18.7k
|
|---|
聚类,再将整个文本划分为 100 类。
|
关于热度的评价标准, 我们考虑每条留言的点灶数和反对数, 由于反对数在
|
一定程度上也是在反应事件本身, 于是我们对赞成数和反对数赋予不同的权重之
|
后,再相加,与分类结果相结合,得到排名前 5 的热点问题。
|
针对问题三,我们要考虑如何将相关性、完整性和可解释性量化,要思考构
|
建什么样的指标来计算和评价。在实际做题过程中, 我们发现可解释性适合在相
|
关性的基础上进行, 于是我们将本题的评价顺序调整为: 相关性、可解释性和完
|
整性。
|
关于留言与留言回复之间的相关性, 我们采用文本相似度对留言的回复情况
|
作相关性的考察, 相似度是比较两个事物的相似性, 一般通过计算事物的特征之
|
间的距离,如果距离小,那么相似度太;如果距离大,那么相似度小。经过欧几
|
里得距离和余弦相似度的比较,我们选择了对本题适用性更强的余弦相似度。
|
可解释性和完整性都是在做完相关性的基础上,再加上自定义的规则进行
|
的,后文将详细描述这两个自定义的规则。
|
第八届泰迪杯数据挖掘挑战赛
|
二、群众留言分类
|
2.1 第一古思维导图
|
数据导入 数据预处理 文本向量化 文本分类 建立模型 算法评估
|
| 作词 TF-IDF模型 常见的6种算法 | _F-score评分
|
去除停用词 算法比较 混清矩焉
|
图1 第一题的思维续图
|
2.2 数据预处理
|
2.2.1 分词
|
对于题目所给的表格数据,提取出文本之后需要进一步做预处理。
|
汉语分词的主要任务是将汉语文本自动切分成词序列。 由于词是自然语言中
|
具有独立含义的最小的言语单位,而汉语文本中词与词之间有分隔标记, 词语文
|
本切分是汉语文本处理的第一步。
|
关于汉语言的分词方法, 国内外有大量研究, 最早起于词典的分词方法有最
|
大匹配法、最短路径法,后来的基于”元语法的统计切割法,再到后来的由字构
|
词的汉语分词方法等,人们先后提出过数十种切割方式。
|
本例题中,我们使用的是 jieba 分词。
|
Jieba 分词支持三种分词模式,
|
吓精确模式,试图将句子最精确地切开,适合文本分析;
|
名全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但
|
是不能解决歧义;
|
回搜索引擎模式: 在精确模式的基础上,对长词再次切分,提高召回率,适
|
3
|
第八届泰迪杯数据挖掘挑战赛
|
合用于搜索引警分词。
|
2.2.2 去停用词
|
停用词〈stop words) 主要是指功能词 (functional words) ,通常是指在各类
|
文档中频繁出现的、附带极少文本信息的助词、介词、连词、j 下有人订
|
如英文中的 the、is、that、which、on 等, 汉语中的"的~ “了”、'是等。为了诚
|
少文本挖掘系统的存情空间, 提高运行效率, 和站坟水直击访和员遇法
|
用词过略掉。
|
这里我们利用一个常见停用词表,根据文件某些特性增添或删碱部分词语,
|
形成新的、适用于本题模型的停用词表。
|
预处理完成后的我们得到数据的词云图如下所示:
|
动儿反P关教育 攻
|
有
|
0 200 400 500 800 1000
|
2.3 文本向量化
|
文本表示 (textrepresentation) :要想计算机能够高效处理真实文本,就必
|
须找到一种理想的形式化表示方法。统计学习方法首先将输入的文本进行形式
|
化, 将其表示为向量或者其他形式, 并基于形式化表示进行机器学习模型的训练
|
和诀策。这种将文本进行形式化的过程称为文本表示。
|
本文中, 我们使用的是文本挖气中最常见的
|
模型(vector spacemodel,VSM) 。
|
量空间
|
第八届泰迪杯数据挖掘挑战赛
|
2.3.1 特征项
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.