text
stringlengths 0
18.7k
|
|---|
特征选择算法 _
|
LDA主题模型训练
|
包含高频词的
|
主题
|
3.问题 2 流程图
|
2.2.2 数据预处理
|
同步又 2.1.2.1-2.1.2.3 一致将留言主题中的文档数据向量化表示为 one-hot
|
编码,对于 LDA 主题模型而言需要将输入数据变为[[(0, 1), (1 1), (2, 1)]形式,
|
其中每一个元组中的第一元素个代表该关键词的位置信息, 第二个元素表示该关
|
键词出现次数,因为使用 one-hot 编码,第二个元素一致为1,即出现一次。
|
2.2.3 构建模型并分类
|
2.2.3.1 LDA 主题模型
|
由于问题 2 中需要对热点问题进行挖掘,其中留言内容高达 5000 条, 逐条
|
计算文档相似度时间复杂度较高,因此该问题考虑使用文档主题模型进行分类。
|
文档主题模型 (Topic Model) 是挖握大规模文档集或语料库中隐藏的潜
|
的一种无监督机器学习统计模型,在电商推荐系统、社交网络话题识别和新闻信
|
息主题聚类等自然语言处理领域中应用广泛[14] 。LDA(Latent Dirichlet
|
Allocation) 是一种生成式模型,也是一个三层的贝叶斯概率模型,由词、主题
|
及文档三层结构构成。其核心公式如公式 2.10 所示
|
P(词文档) = P(启|主题)P(主题文档) (2.10)
|
LDA 主题模型降售狄利克雷分布 (Latent Dirichlet Allocation,LDA) ,其
|
原理是基于词袋模型,认为文档 d 与文档中词语 W 之间存在中间层主题 Z,且
|
文档是主题的概率分布,主题又是词的概率分布,由此可将高维度的文档-词项
|
向量空间模型映射为低维度的文档-主题和主题-词项空间, 进而挖掘文档中潜
|
蕴含的若干主题。文档的层级关系见图 4。
|
4主题模型的文档结构
|
文档的矩阵转换关系见图 5。其中,矩阵 C 表示文档中的词语概率分布, 矩
|
阵中表示主题下的词语概率分布,矩阵6表示文档下的主题概率分布,而分析主
|
题模型的目的在于通过解析文档 C 得到矩阵9和和矩阵6。
|
证
|
文档
|
局 -词 广
|
5.主题模型的矩阵转换关系
|
2.2.3.2 根据 LDA 主题模型进行分类
|
通过 python 中的 gensim 库对于我们提取到的关键词进行 LDA 主题模型训
|
练, 指定 150 个主题,训练之后对于每一个主题提取 10 个高频词,根据高频词
|
来确定该主题的类别, 通过模型训练获得每个文档的主题分布和每个主题的词分
|
布。
|
1) 利用训练好的模型对于留言内容进行分类。
|
2) 根据该主题的高频词确定该类别,也就是热点问题的类别。
|
2.3 问题 3 分析方法与过程
|
2.3.1 流程图
|
罚言内容杀向
|
全
|
答复意见何向
|
和
|
余下怕人0度 完整性和可解
|
专家字供六问 香性效值
|
打
|
6.问题 3 流程图
|
2.3.2 问题 3 分析过程
|
2.3.2.1word2vec 分布式表示
|
使用 gensim 的 word2vec 对于分词进行向量化表示。选用CBOW 模型 ,
|
如图 7 所示。CBOW 模型是给定上下文来预测输入分词。Word2vec 模型实际
|
上分为两部分, 第一部分为建立模型, 第二部分是通过模型获取庶入词的词向量。
|
假设词向量的维数为 dk,每条评论文本可以表示为一个行数是词向量的维度
|
dk,列数是评论文本长度 N 与主题特征词的个数 1之和的文本和矩阵 W。其中 w
|
为评论文本的词向量表示, wz 为通过 LDA 获得该评论文本的主题特征词的向量
|
表示。CBOW 模型损失函数如下公式 2.11 所示铝:
|
LOW) =1N+|Z|cl<sc=0lbp (wi|wi-s wi+s) (2.11)
|
其中 wi 为某个中心词,s 为中心词左右窗口大小,P 〈wilwi-s…'wi+s) 一
|
直上下文中心词为 wi 的概率大小计算方法为 2.12:
|
P(wi| wi一swi+s)=exp(w0Twi)7 wedictexp(wOTw) (2.12)
|
其中 w0是 wi 上下文词向量的均值,dict 为字典。
|
w0 =12s> ,j=i一si+s.j关ij 《2.13)
|
INPUT PROJECTION OUTPUT
|
w(i-2)
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.