text
stringlengths
0
18.7k
(1) 特征项 〈feature temm )
是 VSM 中最小的不可再分的语言单元,可以是字、词、词组、短语等。在
VSM 中,一段文字被看成是由特征项组成的集合,表示为:
杖石关-)
其中*表示第i个特征项。
(2) 特征项的构造与权重
首先,向量空间需要一个特征集合:
其次,定义特征项权重
(Ca
该权重为向量的每一个维度赋子一个慎。
常见的特征权重包括下列几种,
名布尔 (BOOL) 权重: 表示该特征是否在当前文本中出现,如果出现则记
为 1,否则记为 0。
外特征频率〈tem frequency,TE) : 表示该特征在当前文本中出现的议数。
TF 权重假设高频特征包含的信息量高于低频特征的信息量,一次在文本中出现
次数越多的特征项,其重要性越大。
国倒文档频率(inverse document frequency, IDF) 权重, 文档频率 (document
frequency,DEF) 表示语料包中包含的特征项的文档的数目。一个特征项的 DF
值越高,其包含的有效信息量往往就越低。IDE 是反映特征项在整个语料中重要
性的全局统计特征,定义如下:
idr =log 二
扩 8不
其中改表示特征项#*的 DF 值,N是语料中的文档总数。
国特征频率-倒文档频率〔TEF-IDF) 权重,定义为 TE 和IDF 的乘积
第八届泰迪杯数据挖掘挑战赛
矿_ 过=矿-进
TF-IDE 认为对区别文档最有的特征项应该是那些在当前文本中出现频率足
够高,而在文本集合的其他文本中出现的频率足够小的词语。
在这个实例中,我们采用的便是 TF-IDE 的方法。
2.4 文本分类
2.4.1 六种常见的文本分类
一个文本经过文本表示和特征选择之后, 就可以基于传统的机器学习算法进
行文本分类。早期的文本分类模型包括相似度模型(如 Rocchio、玉-近邻分类器)、
决策树等,得到了广滋使用的文本分类算法,包括:朴素贝叶斯模型、Logistic 回
归模型、最大简模型和支持向量机等。在这个实例中, 我们使用了逻辑回归模型
(LR) 、线性判别分析 〈LDA) 、玉近邻【KNN) 、回归树〔CART) 、支持向
量机〔SVM) 、高斯贝叶斯(NB) 与这六种不同的分类方式,比较六个分类方
式的准确率,以建立准确率较高的分类模型。
〈1) 逻辑回归模型
逻辑回归也被称为广义线性回归模型,它与线性回归模型的形式基本上相
同,都具有 ax+z2 ,其中和2是待求参数,其区别在于他们的因变量不同,多
重线性回归直接将 wexz+z 作为因变量,即= ace+ ,而 logistic 回归则通过辆数
S 将axc+8 对应到一个隐状态忆,疡=s(ax+纹,然后根据忆与1- 了的大小诀定因
变量的值。这里的函数 就是 Sigmoid 函数,
S(办二
1+e-
将t+换成ax+b,可以得到逻辑回归模型的参数形式,
1
PPOc a:D) = Te
第八届泰迪杯数据挖掘挑战赛
图3 sigmoid 函数的图像
通过函数的作用,我们可以将输出的值限制在区间 [o4]上,z(区则可以用
来表示概率 (7 =1|鸭,即当一个x发生时,> 被分到 1 那一组的概率。
《2) 线性判别分析
线性判别分析〈LDA) 是对费舍尔的线性鉴别方法的归纳,这种方法使用统
计学, 模式识别和机器学习方法,试图找到两类物体或事件的特征的一个线性组
合,以能够特征化或区分它们。LDA是一种监督学习的降维技术,也就是说它
的数据集的每个样本是有类别输出的。
以简单的二维数据为例,假设我们有两类数据分别为红色和蓝色,如图 4
所示,这些数据特征是二维的,我们希望将这些数据投影到一维的一条直线, 让
每一种类别数据的投影点尽可能的接近, 而红色和蓝色数据中心之间的距高尽可
能的大。
和 + ] 和 “
时 人
2 0 ”
3 本 er 人
PS、 , , 1 了
4号 “ 0 交
必 人 人
0 | 0
二 4 -2
和 6
图 4 两种投影方式