一家之言,仅作分享,如有不合理或需要改进的地方,欢迎各位讨论。
聚类是无监督机器学习中的一种技术,它根据数据集中数据点可用信息的相似性将数据点分组到集群中。属于同一簇的数据点在某些方面彼此相似,而属于不同簇的数据项不同。
一、K-Means原理
K-Means 是一种 基于距离的聚类算法,将距离比较近的数据点看作相似的点,将它们归为一类。对于给定样本集,按照样本之间的距离大小,将样本集划分为K K K个簇。目标是让簇内的点尽量连接在一起,而让簇间的距离尽量大。
输入:D D D — 数据集{ x 1 , x 2 , ⋯ , x m } {x_1,x_2,\cdots,x_m}{x 1 ,x 2 ,⋯,x m };
K K K — 聚类的簇数k k k ;
N N N — 最大迭代次数;
输出:C C C — 输出簇划分集{ C 1 , C 2 , ⋯ , C k } {C_1,C_2,\cdots,C_k}{C 1 ,C 2 ,⋯,C k };
- 原理比较简单,实现也是很容易,收敛速度快。
- 聚类效果较优。
- 算法的可解释度比较强。
-
主要需要调参的参数仅仅是簇数k k k。
-
参数k k k值的选取不好把握。
- 对于不是凸的数据集比较难收敛。
- 如果各隐含类别的数据不平衡,比如各隐含类别的数据量严重失衡,或者各隐含类别的方差不同,则聚类效果不佳。
- 采用迭代方法,得到的结果只是局部最优。
- 对噪音和异常点比较的敏感。
二、DBSCAN原理
DBSCAN是一种 基于密度的聚类算法,可以通过样本分布的紧密程度决定,同一类别的样本之间是紧密相连的,不同样本是是分离的。它将特征空间中足够密集的点划分为同一个簇, 簇的形状可以是任意的,而且数据点中有噪声点的话,不会将这些点划分给某个簇。
输入:D D D — 数据集{ x 1 , x 2 , ⋯ , x m } {x_1,x_2,\cdots,x_m}{x 1 ,x 2 ,⋯,x m };
ϵ \epsilon ϵ — 邻域半径;
M i n P t s MinPts M i n P t s — 邻域最小数据量阈值;
输出:C C C — 输出簇划分集{ C 1 , C 2 , ⋯ , C k } {C_1,C_2,\cdots,C_k}{C 1 ,C 2 ,⋯,C k };
- 可以对任意形状的稠密数据集进行聚类。
- 可以在聚类的同时发现异常点,对数据集中的异常点不敏感。
-
聚类结果没有偏倚,对初始值选取没有要求。
-
调参相对于传统的K-Means之类的聚类算法稍复杂,主要需要对距离阈值ϵ \epsilon ϵ,邻域样本数阈值M i n P t s MinPts M i n P t s联合调参,不同的参数组合对最后的聚类效果有较大影响。
- 样本集的密度不均匀、聚类间距差相差很大时,聚类质量较差,这时用 DBSCAN 算法一般不适合。
- 如果样本集较大时,聚类收敛时间较长,此时可以对搜索最近邻时建立的KD树或者球树进行规模限制来改进。
三、K-Means与DBSCAN的区别
- K-Means是基于划分的聚类,DBSCAN是基于密度的聚类。
- K-Means需要指定聚类簇数k k k,并且且初始聚类中心对聚类影响很大。K-Means把任何点都归到了某一个类,对异常点比较敏感。DBSCAN能剔除噪声,需要指定邻域距离阈值ϵ \epsilon ϵ和样本个数阈值M i n P t s MinPts M i n P t s,可以自动确定簇个数。
- K-Means可以发现不是明显分离的簇,即便簇有重叠也可以发现,但是DBSCAN会合并有重叠的簇。
- K-Means很难处理非球形的簇和不同大小的簇。DBSCAN可以处理不同大小或形状的簇,并且不太受噪声和离群点的影响。当簇具有很不相同的密度时,两种算法的性能都很差。
- K-Means只能用于具有明确定义的质心(比如均值或中位数)的数据。DBSCAN要求密度定义(基于传统的欧几里得密度概念)对于数据是有意义的。
- K-Means算法的时间复杂度是O ( n ) O(n)O (n ),而DBSCAN的时间复杂度是O ( n 2 ) O(n^2)O (n 2 )。
Original: https://blog.csdn.net/weixin_43891708/article/details/121923414
Author: NieBP
Title: K-Means聚类与DBSCAN的区别
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/550464/
转载文章受原作者版权保护。转载请注明原作者出处!