text
stringlengths
0
18.7k
应N 中标记为”anvisited 的对象 P" ,DBSCAN 把它标记为*wisited ,并且检查它
的=-领域,如果忆的 = -领域至少包含个对象, 则疡 的 = -领域中的对象都被添
加到六中。DBSCAN 继续添加对象到C ,直到 C不能扩展,即直到 N 为空。此
时往C完成生成,输出。
为了找到下一个答,DBSCAN 从剩下的对象中随机选择一个未访问过的对
象。聚类过程继续,直到所有对象都被访问。
第八届泰迪杯数据挖掘挑战赛
(3) 聚类结果
14DBSCAN聚类结果散占图
3.2.3 算法对比
(1) -means 的主要优点有,
人原理比较简单,实现也是很容易,收敛速度快,
名聚类效果较优;
名算法的可解释度比较强;
多主要需要调参的参数仅仅是禾数大。
(2) 玉-Means 的主要缺点有:
GDK 值的选取不好把握;
改进,可以通过在一开始给定一个适合的数值给 k,通过一次算法得到一次
聚类中心。对于得到的聚类中心,根据得到的k 个聚类的距离情况,合并距离最
近的类, 因此聚类中心数诚小, 当将其用于下次聚类时,相应的聚类数目也诚小
了,最终得和到合适数目的聚类数。可以通过一个评判值王来确定聚类数得到一
个合适的位置停下来,而不继续合并聚类中心。重复上述循环, 直至评判函数收
狂为止,最终得到较优聚类数的聚类结果。
名对于不是凸的数据集比较难收敛;
改进: 基于密度的聚类算法更加适合,比如 DBSCAN算法。
加如果各隐含类别的数据不平衡,比如各隐含类别的数据量严重失衡,或者
各隐含类别的方差不同,则聚类效果不佳;
多采用选代方法,得到的结果只是局部最优;
16
第八届泰迪杯数据挖掘挑战赛
图对噪音和异常点比较的台感和传统的 -Means 算法相比,DBSCAN 最大
的不同就是不需要输入类别数 攻, 当然它最大的优势是可以发现任意形状的聚类
短。而 -Means,一般仅仅使用于凸的样本集珍类。同时它在聚类的同时还可以
找出异常点,这点和 BIRCH 算法类似。
(3) DBSCAN 的主要优点有:
台可以对任意形状的稠密数据集进行聚类,相对的,K-Means 之类的聚类算
法一般只适用于串数据集。
加可以在聚类的同时发现异常点,对数据集中的异常点不吉感。
图聚类结果没有偏傈, 相对的, K-Means 之类的聚类算法初始值对聚类结果
有很大影响。
(4) DBSCAN 的主要缺点有:
全如果样本集的密度不均匀、聚类间距差相差很大时,聚类质量较差, 这时
用DBSCAN聚类一般不适合。
名如果样本集较大时, 聚类收敛时间较长, 此时可以对搜索最近邻时建立的
KD 树或者球树进行规模限制来改进。
图调参相对于传统的 -Means 之类的聚类算法稍复杂,主要需要对距离装
值,邻域样本数靖值联合调参,不同的参数组合对最后的聚类效果有较大影响。
3.33 确定评价规则
做完文本聚类以后,我们可以很直接的从看出出现频率最高的是哪些问题,
但是我们不能只看到反映问题的频率, 还应该考虑关注这件事情的其他人员和留
言时间。比如编号为 191001 的事件提出时间为 2019年8月16日, 有1名反对
者,12 名赞成者。
这种情况下,说明除了发言的这位群众,还有 13 个人关注这件事的人,虽然这
些人里面有 1 人是反对的,但“反对”也是一种关注,值得相关人员去核实这件
事。
我们定义将聚类之后的结果与点灼数、反对数做出来的排名综合起来, 两者
兼顾,形成最终的评价规则。定义为,
17
第八届泰迪杯数据挖掘挑战赛
刺 = >》r* (0.8*玉+0.2* Ni +1)
J=1
热度用字符 Hthob表示, 时间系数用字符 Ttime)表示, ”表示归类为同一热点问
题的个数, 第;类热点问题的热度为如i=1…,100, 其中, 第;类热点问题中第了7