text stringlengths 0 18.7k |
|---|
聚类,再将整个文本划分为 100 类。 |
关于热度的评价标准, 我们考虑每条留言的点灶数和反对数, 由于反对数在 |
一定程度上也是在反应事件本身, 于是我们对赞成数和反对数赋予不同的权重之 |
后,再相加,与分类结果相结合,得到排名前 5 的热点问题。 |
针对问题三,我们要考虑如何将相关性、完整性和可解释性量化,要思考构 |
建什么样的指标来计算和评价。在实际做题过程中, 我们发现可解释性适合在相 |
关性的基础上进行, 于是我们将本题的评价顺序调整为: 相关性、可解释性和完 |
整性。 |
关于留言与留言回复之间的相关性, 我们采用文本相似度对留言的回复情况 |
作相关性的考察, 相似度是比较两个事物的相似性, 一般通过计算事物的特征之 |
间的距离,如果距离小,那么相似度太;如果距离大,那么相似度小。经过欧几 |
里得距离和余弦相似度的比较,我们选择了对本题适用性更强的余弦相似度。 |
可解释性和完整性都是在做完相关性的基础上,再加上自定义的规则进行 |
的,后文将详细描述这两个自定义的规则。 |
第八届泰迪杯数据挖掘挑战赛 |
二、群众留言分类 |
2.1 第一古思维导图 |
数据导入 数据预处理 文本向量化 文本分类 建立模型 算法评估 |
| 作词 TF-IDF模型 常见的6种算法 | _F-score评分 |
去除停用词 算法比较 混清矩焉 |
图1 第一题的思维续图 |
2.2 数据预处理 |
2.2.1 分词 |
对于题目所给的表格数据,提取出文本之后需要进一步做预处理。 |
汉语分词的主要任务是将汉语文本自动切分成词序列。 由于词是自然语言中 |
具有独立含义的最小的言语单位,而汉语文本中词与词之间有分隔标记, 词语文 |
本切分是汉语文本处理的第一步。 |
关于汉语言的分词方法, 国内外有大量研究, 最早起于词典的分词方法有最 |
大匹配法、最短路径法,后来的基于”元语法的统计切割法,再到后来的由字构 |
词的汉语分词方法等,人们先后提出过数十种切割方式。 |
本例题中,我们使用的是 jieba 分词。 |
Jieba 分词支持三种分词模式, |
吓精确模式,试图将句子最精确地切开,适合文本分析; |
名全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但 |
是不能解决歧义; |
回搜索引擎模式: 在精确模式的基础上,对长词再次切分,提高召回率,适 |
3 |
第八届泰迪杯数据挖掘挑战赛 |
合用于搜索引警分词。 |
2.2.2 去停用词 |
停用词〈stop words) 主要是指功能词 (functional words) ,通常是指在各类 |
文档中频繁出现的、附带极少文本信息的助词、介词、连词、j 下有人订 |
如英文中的 the、is、that、which、on 等, 汉语中的"的~ “了”、'是等。为了诚 |
少文本挖掘系统的存情空间, 提高运行效率, 和站坟水直击访和员遇法 |
用词过略掉。 |
这里我们利用一个常见停用词表,根据文件某些特性增添或删碱部分词语, |
形成新的、适用于本题模型的停用词表。 |
预处理完成后的我们得到数据的词云图如下所示: |
动儿反P关教育 攻 |
有 |
0 200 400 500 800 1000 |
2.3 文本向量化 |
文本表示 (textrepresentation) :要想计算机能够高效处理真实文本,就必 |
须找到一种理想的形式化表示方法。统计学习方法首先将输入的文本进行形式 |
化, 将其表示为向量或者其他形式, 并基于形式化表示进行机器学习模型的训练 |
和诀策。这种将文本进行形式化的过程称为文本表示。 |
本文中, 我们使用的是文本挖气中最常见的 |
模型(vector spacemodel,VSM) 。 |
量空间 |
第八届泰迪杯数据挖掘挑战赛 |
2.3.1 特征项 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.