text
stringlengths
0
18.7k
征的权重,计算方法公式 2.3,2.4 所示。
N
JDFd)=log( -全 +00D
FM) (2.3)
TFIPDFE 人)
CaFCoO*PDF*CoD)
其中 TF(tk) 为特征 妇在训练集中出现的频数,IDF(t9是反文档频率,N
表示训练集的总文档数,n(tg 表示出现特征世的文档数,TF-IDF 算法考虑了特
征词的局部和全局的分布特性。在本文,通过 TF-1DF 算法选出权重最大的 16
本.=TOD)eIDPFY(人GD (2.4)
个特征词,进行向量化,并且建立模型。
2.1.2.4 文本向量化
对于提取出来的特征词,使用 one-hot 编码,即将所有出现过的特征词构
建为一个词典,该词典中, 每个特征词只出现过一次,对于每一篇文档中的特征
词在词典中出现该特征词的位置记为 1,没有出现过的位置记为0,由此将每一
篇文档向量化为一个长度很长只包括 0和 1 元素的列表,以便于模型的构建。
2.1.3 构建模型并分类
2.1.3.1 朴素贝叶斯模型
将文本向量化之后,就可以利用朴素贝叶斯模型对于留言内容进行分类。朴
素贝叶斯有很多优势,主要包括其独特形式、丰富的概率表达能力、综合先验知
识的增量学习特性,其简洁性和有效性都要优于其他算法[19,32-35]。所以问
题 1 重点使用朴素贝叶斯算法. 朴素贝叶斯算法的思想是首先计算出各个类别的
先验概率, 再利用贝叶斯定理计算出各特征属于某个类别的后验概率,通过选出
具有最大后验概率 (maximum a posteriori MAP) 估计值的类别即为最终类
别 (注: 其本质含义是为了使损失函数达到最小) 。
本文使用的是伯努利朴素贝叶斯算法模型 伯努利模型[64] (Bernoulli Naive
Bayes,简称 BNB) 认为一个事件有两种可能性,发生或者不发生。当进行n
次独立重复的伯努利试验, 会产生一个新的分布称为二项分布。对于一篇文档而
, ,词典中的每个典中的一个特征词可以看作是进行一次伯努利试验,而词典
中的所有特征词可以看作 n 重伯努利试验,就是二项分布。对于一篇文档 d我
们已经将其向量化表示为[tt2,t3,革.tm]tks {0,1} ,其中 tk=1 表示为该特征词
在文档中出现过,反之则未出现,m 表示词典的大小蕊为了处理文本数据, 朴素
贝叶斯的一个主要假设是在给定文档类别的情况下, 每个单词条件概率计算是相
互独立的,在此假设下,BNB 模型可以使用公式 2.5 来预测文档 d 的类:
cd)=argmax p(CJ)TI- (sp(DE1C;)+0-s)II-z(Dr IG咱25
其中 pP(G)表示先验概率,p(DtyG)表示条件概率,可以采用频数计数近似估
计值,计算公式如 2.6,2.7:
吕[ Cr }= IC)
六v(D.c)
有 (2.6)
汪(瑟5
p(p61G)-邱人
可D.C) 7
其中 tf(DtkG)表示合有单词 攻 的文档在 G类出现的文档数,萎〈D.G) 为 Gi
类中所有文档数,为避免概率计算时出现 P 〈Dtk|G) 为 0 的情况采用拉普拉斯
平滑,具体计算公式如 2.8 :
P(Da | 到让 四 ZE
(2
一 (9 (2.8)
其中8 ()表示二值函数公式如 2.9 :
E 9-|
一 0.蔗关了 (2.9)
2.1.3.2 根据留言主题和留言内容加权计算后验概率进行分类
由于使用的伯努利裤素贝叶斯算法模型,文档中的特征词在词典中只会出现
一次,而包含了文档特定含义的词可能会多次出现,导致算法在 F1 上表现不是
很理想。因此在本文中, 没有将留言主题和留言内容合并在一起提取特征词,而
是分别使用留言主题和留言内容的文档在朴素贝叶斯模型中计算最大后验概率,
以解决伯努利模型所存在的不足,两部分内容都表示了归于哪一类的后验概率,
对于得到的两个后验概率进行加权计算后再取每一个文档的最大后验概率, 从而
得到文档具体属于哪一类别 ,经实验证明,本文使用的加权算法使计算结果在
F1 上得到了提升,并且经实验证明,当权重为 1: 1 时,F1 的值最大。流程
下图所示。
特征选择简法
(CTRIDF) VSM向量化
屿征选择简法
(TFIDFj VSM向量化
2加权分类流程图
2.2 问题 2 分析方法与过程
2.2.1 流程图