机器学习(2):DBSCAN聚类算法

一、DBSCAN算法基本概念

1.全称:Density-Based Spatial Clustering of Applications with Noise 基于密度带有噪声聚类
2.核心对象:若某个点的密度达到算法设定的阈值则其为核心点。
(即某点的r 邻域内,点的数量不小于设定阈值 minPoints)

3.半径r:邻域的距离阈值:设定的半径r

4.直接密度可达:若某点p在点q的 r 邻域内,且q是核心点则p-q直接密度可达。

5.密度可达:若有一个点的序列q0、q1、…qk,对任意qi到qi-1是直接密度可达的,则称从q0到qk密度可达,这实际上是直接密度可达的“传播”。

6.密度相连:若从某核心点p出发,点q和点k都是密度可达的,则称点q和点k是密度相连的。

7.边界点:属于某一个类的非核心点,不能发展下线了

8.噪声点(离群点):不属于任何一个类簇的点,从任何一个核心点出发都是密度不可达的
 

二、工作流程

1.输入
(1)参数D:输入数据集
(2)参数r:指定半径
(3)MinPts:密度阈值

参数选择解释:
-》半径r,可以根据K距离来设定:找突变点
K距离:给定数据集P={p(i); i=0,1,…n},计算点P(i)到集合D的子集S中所有点
之间的距离,距离按照从小到大的顺序排序,d(k)就被称为k-距离。


-》MinPts: k-距离中k的值,一般取的小一些,多次尝试

2.标记所有点为unvisit

3.随机选择一个unvisit点p,作为c1簇,发展下线。

4.发展下线:绘制p的邻域r,对于邻域中满足核心点条件的点,就把该点归类为c1

5.把访问过的点都标记为visit,然后从3步循环,找到c2,c3...类,直到所有点都为visit为止。

三、优势和劣势

1.优势
(1)不需要指定簇个数
(2)可以发现任意形状的簇
(3)擅长找到离群点(检测任务)
(4)两个参数就够了
2.劣势
(1)高维数据有些困难(可以做降维)
(2)参数难以选择(参数对结果的影响非常大)
(3)Sklearn中效率很慢(数据削减策略)

四、实例

1.导入

from sklearn.cluster import DBSCAN
db = DBSCAN(eps=10, min_samples=2).fit(X)

3.分类结果

labels = db.labels_
结果:
[ 0  0  0 -1  0  0 -1  0  1 -1  0  1  0  0  0  2  0  0  2  1]

3.添加到数据最后,并且排序

beer['cluster_db'] = labels
beer.sort_values('cluster_db')

4.求取中心值

beer.groupby('cluster_db').mean()

5.查看两两特征的关系

pd.scatter_matrix(X, c=colors[beer.cluster_db], figsize=(10,10), s=100)

猜你喜欢

转载自blog.csdn.net/u010886217/article/details/86349240