Python机器学习 聚类算法K-MEANS DBSCAN

聚类概念:
无监督问题:我们手里没有标签了
难点:如何评估,如何调参
聚类:相似的东西分到一组

K-MEANS算法
基本概念:
要得到簇的个数,需要指定K值
距离的度量:常用欧几里得距离和余弦相似度(先标准化)
优化目标:

工作流程:

       (1)从数据中随机选择k个对象(如三分类,K=3)作为初始聚类中心;

  (2)计算每个聚类对象(样本)到聚类中心(随机选择的点)的距离来划分;

  (3)再次计算每个聚类中心(聚类后取均值更新聚类中心)

  (4)重复2,3,直到聚类中心基本不再变动

优势:
简单,快速,适合常规数据集
K值难确定
劣势:
复杂度与样本呈线性关系
很难发现任意形状的簇

如下图:

DBSCAN算法
 

基本概念:(Density-Based Spatial Clustering of Applications with Noise)
核心对象:若某个点的密度达到算法设定的阈值则其为核心点。 (即 r 邻域内点的数量不小于 minPts)
直接密度可达:若某点p在点q的 r 邻域内,且q是核心点则p-q直接密度可达。
密度可达:若有一个点的序列q0、q1、…qk,对任意qi-qi-1是直接密度可达的 ,则称从q0到qk密度可达,这实际上是直接密度可达的“传播”。若从某核心点p出发,点q和点k都是密度可达的 ,则称点q和点k是密度相连的。

边界点:属于某一个类的非核心点,不能发展下线了
噪声点:不属于任何一个类簇的点,从任何一个核心点出发都是密度不可达的

A:核心对象
B,C:边界点

N:离群点
 

工作流程:
参数D:输入数据集
MinPts:密度阈值
参数ϵ:指定半径

参数选择:
半径ϵ,可以根据K距离来设定:找突变点 K距离:给定数据集P={p(i); i=0,1,…n},计算点P(i)到集合D的子集S中所有点 之间的距离,距离按照从小到大的顺序排序,d(k)就被称为k-距离。
MinPts: k-距离中k的值,一般取的小一些,多次尝试

优势:
不需要指定簇个数
擅长找到离群点(检测任务) 可以发现任意形状的簇 两个参数就够

劣势: 

高维数据有些困难(可以做降维)
Sklearn中效率很慢(数据削减策略) 参数难以选择(参数对结果的影响非常大)

猜你喜欢

转载自blog.csdn.net/qq_41686130/article/details/88297902