text
stringlengths
0
18.7k
2.1 问题 1 分析方法与过程-ee 5
2.2 问题 2 分析方法与过程
2.3 问题 3 分析方法与过程-…e 13
转轨合作weweaaeoaaaawaawwanaawawpawawaaawwaaeaaaapaaaaaaeasaea
Si 同晤站村条罗昕二 14
了2疝早 续困闪本 casteeraacutaciaatraraaeaaaaaaaaaaoiyicaaaaaaaaauaaaaaaaaas 17
3二本国3某下入本sa 18
RE
5 才放制swapaassamaaasaasaaaaansaaaseaaRREEEOEOEEESEOS5O 入
1. 挖掘目标
本次建模目标是利用各类社情民意相关的文本数据,利用中文分词、特征词
提取、朴素贝叶斯算法、LDA 主题模型、word2verc 词向量化对于文本数据进行
挖握,达到以下三个目的:
1) 利用文本分词、特征词提取以及朴素贝叶斯算法对非结构化的数据进行文本
分类, 通过已有的一级标签训练模型, 从而对各类社情民意相关的文本数据进行
分类, 以便后续将群众留言分派至相应的职能部门处理, 进而提升政府部门进行
对口问题处理,提升工作效率。
2) 根据群众社情民意留言内容, 利用 LDA 主题模型挖掘其潜在语义,,即文本的
部分进行有针对性的处理,提高服务效率,提升人民的幸福感。
3) 利用 word2vec 对于留言内容和答复意见的分词向量化,再利用词向量平均
值构建名向量, 自己构建专业话术的专家字典,通过计算留言内容与答复意见余
弦相似度得到相关性的数值, 通过计算答复意见与专家字典中的专业话术预想相
似度得到答复意见充整性与可解释性数值,两个数值相加并且归一化, 得到答复
内容的质量评价标准。
2. 分析方法与过程
2.1 问题 1 分析方法与过程
2.1.1 流程图
VSM向量化
朴素贝叶斯算
法分类器
1.问题 1 流程图
2.1.2 数据预处理
2.1.2.1 留言内容的去重去空
附件 2 中给出的文本数据,可能会有留言内容为空或者重复现象存在。利用
python 自带函数对于空值以及重复值进行删除,避免空值以及重复值影响到朴
素贝叶斯算法中的先验概率,以达到精度更高的目的。
2.1.2.2 对于留言主题以及留言详情进行中文分词
由于文字内容为非结构化的数据,因此需要先要把非结构化的文本信息转换
为计算机 能够识别的结构化信息。附件 2 中给出的数据,不仅含有留言内容还
有留言详情, 都对反映的问题进行了描述, 因此建立模型的时候需要将两个内容
都考虑进去,本文之后将这两块内容统称为留言内容。采用 python 中的jieba
库对于留言内容进行分词,其中jieba 库中使用贪楚算法对于留言内容进行分词,
是为了达到最大匹配效果,避免精准分词造成没有必要的语义损失。分词过程中
一些没有意义的虚词和标点符号,包括如“的”,“啊”,“不但”等之类的词,
对于文本语义并没有贡献,需要除掉 (注: 去除停用词原本需要将”0-9 “
'a-zA-Z 这样数字和字母去掉,但是考虑到留言内容的特殊性, 比如“A5 区”
表示一个特定的地名,因此停用词中去除数字以及字母) 。正如上文所说,含有
特殊意义 的词 jieba 分词并不能识别,可能将一个完整的词分为若干个,因此
需要人为指定专有名词 ,防止专有名词被jieba 分词的时候分开, 如 “A5 区”
避免被分为”A5 “,”区 “。停用词表以及专有名词详情请见 stopword.txt 和
dicttxt。
2.1.2.3 TF-IDF 算法
词频 (Term Frequency,TF) ,即特征词在文档中出现的频数,权重的计
算即为特征词在文档中出现的频数,所以对于特征词 tt ,其在文档 Di; 中的权
重为式 2.1。
HT =TFCDI) (2.1)
反文档频率法(Inverse Document Frequency,1IDF) 也称为道文档频率,
其思想为如果特征词在某一类文档中出现较多, 则其对于该类文档具有更高的分
类和能力。反文档频率的计算公式如式 2.2 所示。
N
IDFd)=log(-全+00D
7在) (一动
TFIDF 权重是在文本分类中运用比较多的计算方法,是由 Salton 提出。
TFIDF 算法的思想: 特征单词在某特定文本中出现的频数越大,其对于该文本
的分类作用越大, 特征单词在大多数文档中出现的频数越大, 对于文本的分类作
用越小,其结合了词两者的优点。TFIDF 算法将词频和反文档频率结合作为特