text
stringlengths
0
18.7k
特征选择算法 _
LDA主题模型训练
包含高频词的
主题
3.问题 2 流程图
2.2.2 数据预处理
同步又 2.1.2.1-2.1.2.3 一致将留言主题中的文档数据向量化表示为 one-hot
编码,对于 LDA 主题模型而言需要将输入数据变为[[(0, 1), (1 1), (2, 1)]形式,
其中每一个元组中的第一元素个代表该关键词的位置信息, 第二个元素表示该关
键词出现次数,因为使用 one-hot 编码,第二个元素一致为1,即出现一次。
2.2.3 构建模型并分类
2.2.3.1 LDA 主题模型
由于问题 2 中需要对热点问题进行挖掘,其中留言内容高达 5000 条, 逐条
计算文档相似度时间复杂度较高,因此该问题考虑使用文档主题模型进行分类。
文档主题模型 (Topic Model) 是挖握大规模文档集或语料库中隐藏的潜
的一种无监督机器学习统计模型,在电商推荐系统、社交网络话题识别和新闻信
息主题聚类等自然语言处理领域中应用广泛[14] 。LDA(Latent Dirichlet
Allocation) 是一种生成式模型,也是一个三层的贝叶斯概率模型,由词、主题
及文档三层结构构成。其核心公式如公式 2.10 所示
P(词文档) = P(启|主题)P(主题文档) (2.10)
LDA 主题模型降售狄利克雷分布 (Latent Dirichlet Allocation,LDA) ,其
原理是基于词袋模型,认为文档 d 与文档中词语 W 之间存在中间层主题 Z,且
文档是主题的概率分布,主题又是词的概率分布,由此可将高维度的文档-词项
向量空间模型映射为低维度的文档-主题和主题-词项空间, 进而挖掘文档中潜
蕴含的若干主题。文档的层级关系见图 4。
4主题模型的文档结构
文档的矩阵转换关系见图 5。其中,矩阵 C 表示文档中的词语概率分布, 矩
阵中表示主题下的词语概率分布,矩阵6表示文档下的主题概率分布,而分析主
题模型的目的在于通过解析文档 C 得到矩阵9和和矩阵6。
文档
局 -词 广
5.主题模型的矩阵转换关系
2.2.3.2 根据 LDA 主题模型进行分类
通过 python 中的 gensim 库对于我们提取到的关键词进行 LDA 主题模型训
练, 指定 150 个主题,训练之后对于每一个主题提取 10 个高频词,根据高频词
来确定该主题的类别, 通过模型训练获得每个文档的主题分布和每个主题的词分
布。
1) 利用训练好的模型对于留言内容进行分类。
2) 根据该主题的高频词确定该类别,也就是热点问题的类别。
2.3 问题 3 分析方法与过程
2.3.1 流程图
罚言内容杀向
答复意见何向
余下怕人0度 完整性和可解
专家字供六问 香性效值
6.问题 3 流程图
2.3.2 问题 3 分析过程
2.3.2.1word2vec 分布式表示
使用 gensim 的 word2vec 对于分词进行向量化表示。选用CBOW 模型 ,
如图 7 所示。CBOW 模型是给定上下文来预测输入分词。Word2vec 模型实际
上分为两部分, 第一部分为建立模型, 第二部分是通过模型获取庶入词的词向量。
假设词向量的维数为 dk,每条评论文本可以表示为一个行数是词向量的维度
dk,列数是评论文本长度 N 与主题特征词的个数 1之和的文本和矩阵 W。其中 w
为评论文本的词向量表示, wz 为通过 LDA 获得该评论文本的主题特征词的向量
表示。CBOW 模型损失函数如下公式 2.11 所示铝:
LOW) =1N+|Z|cl<sc=0lbp (wi|wi-s wi+s) (2.11)
其中 wi 为某个中心词,s 为中心词左右窗口大小,P 〈wilwi-s…'wi+s) 一
直上下文中心词为 wi 的概率大小计算方法为 2.12:
P(wi| wi一swi+s)=exp(w0Twi)7 wedictexp(wOTw) (2.12)
其中 w0是 wi 上下文词向量的均值,dict 为字典。
w0 =12s> ,j=i一si+s.j关ij 《2.13)
INPUT PROJECTION OUTPUT
w(i-2)