text
stringlengths
0
18.7k
1.1 主要用到如下步骤。
步骤一:对数据的读取,数据的抽取。本数据是 Excel 表,而每列
是各种数据,对群众留言内容进行一级标签分类模型。
步骤二:数据的预处理,题目给出的数据中,群众留言列中有许多
不需要的字符如Xt等和一些不需要的标点符号更有一些语气助词,
这一类对数据分析是没有任何用处的,我们需要将它们去除掉,我们
还需要对数据检查是否有空缺职, 如果有对其进行填补,还要对数据
进行去重处理,之后我们需要用到中文分词。
步骤三:数据分析, 在对数据分析中, 首先要对数据进行文本特征
选择,用数学方式,选取最是分类的留言特征,如卡方检验,文档频
率,之后对得出的特征词进行向量化表示,以提供以挖掘分析使用,
在这里中使用TF一IDF 算法,找出文本中的关键词,把群众留言信息
转化为权重向量,采用 F一Score 算法对群众留言进行分类。
步骤四:建立模型,对数据转化为权值向量数据分析建立模型,对
模型进行测试与优化。
1.1 流程图
国国
1.2 数据预处理
1.2.1 对群众留言信息去除重,去空
在题目中给出的 Excel 表数据中,在群中留言中,可能有这用户
有留言问题存在重复,在某一小区中,多用户遇到某一些问题,会进
行反馈留言问题,而其他群众也同时反馈了同样的问题,下都进行了
同一类问题的反馈,这就会引起一定的重复数据,所以我们需要用到
pandas 模块中的 drop_duplicates () 方法对文本数据去除重复的数
据,在很大的数据中,可能会存在某一处数据为空缺值,则我们需要
用info () 方法,检查数据是否存在空缺值。
1.2.2 对群众留言信息进行中文分词。
在对群众留言进行数据挖掘分析之前, 需要对非结构化的文本信
息转换为计算机能够识别的结构化信息,在题目提供的附件中,是以
中文文本的方式给出了数据,为了便于转换,先要对这些群众留言
容进行中文分词,在分词前,文本数据中都会存在一些不需要的字符
如 X、t 等,还有一些不需要的停用词,而我们需要将这些去除掉后
再进行中文分词操作,在去除文本中的字符 X t 等,要用到 re 模块
中 apply 方法,然而在去除停用词中,我们则需要有去除停用词表,
而这停用词表,就是自己需要去除的字符和语气词,在编写中导
表再循环遍历去掉停用词,以上进行后我们采用 Python 的中文分词
包,jieba 包进行分词,jieba 分词基于前缀词典实现高效词图,采用
基于汉字成词能力的 HMM 模型, 能提出文本中词频的最好的分词效
果。
TF-IDF 算法步骤
第一步,计算词频:
词频(TF) = 某个词在文章中的出现次数
考虑到文章有长短之分,为了便于不同文章的比较,进行"词频"标
准化。
某个词在文章中的出现次数
文章的总词数
词频(TF) =
第二步,利用TF-IDF 来计算权重,计算逆文档频率:
这时,需要一个语料库 (corpus) ,用来模拟语言的使用环境。
语料库的文档总老
逆文档频率(IDF) = log (一一一)
包含该词的文档数+ 1
如果一个词越常见,那么分母就越大,逆文档频率就越小越接近
0。分母之所以要加 1,是为了避免分母为0 〈即所有文档都不包含
该词) 。log 表示对得到的值取对数。
第三步,计算TF-IDF:
TF - IDF = 词频(TF) x 道文档频率 ( IDF )
可以看到,TF-IDF 与一个词在文档中的出现次数成正比,与该词在
整个语言中的出现次数成反比。所以,自动提取关键词的算法就很
清楚了,就是计算出文档的每个词的TF-IDF 权值,然后按降序排
列,取排在最前面的几个词。
第三步 计算 TF一IDF 权值 ,后写第四步 ”利用F一Score 建立模
F-Score (非模型评价打分,区别与 F1_score) 是一种衡量特征在
两类之间分辨能力的方法,通过此方法可以实现最有效的特征选
择。