Reproduced | Python AI teaching │k-means clustering algorithm and its application

Our public concern No. Oh! Get more exciting Oh!

1, issue import

If there is such a situation, the day you want to go to a city tour, this city there are 70 places you want to go, and now you have only one place of each address, the address list is long, there are 70 locations. To make sure in advance the Raiders, you want some of the more accessible place on the composition of a group together, so that you can arrange transport to arrive, "an address" these groups, then walk to the address within each group. So, how to determine the groups, how to determine "an address" these groups? The answer is clustering. And k-means clustering analysis methods provided herein can be used to solve these problems.

2. k-means clustering Profile

2.1 The basic idea

Clustering is a data set will be similar in some respects the process of data classification and organization of members. k-means clustering algorithm is the most famous CLASSIFICATION, due to the simplicity and efficiency of the clustering algorithm makes him all the most widely used. Given a set of data points and the desired number of clusters k, k specified by the user, k-means algorithm (k-means) is repeatedly divided into k data clustering in accordance with a distance function. K-means algorithm working process is as follows: First, the k selected as initial cluster centers at any of the object from the n data objects; and left for other objects, according to the similarity thereof with those of the cluster center (distance), are respectively assigned to the most similar (cluster centers represented) cluster; then calculate the center of each cluster obtained new cluster (mean all objects in the cluster); repeats this process until the beginning of the standard measure function converges. Variance are generally used as a standard measure function.

It is explained by the following examples:

Figure 1: Given a set of data;

Figure 2: The initialization cluster centers K = 5, to ensure that the cluster centers are within data space;

Figure 3: based on the similarity scores between the class object and the cluster centers is calculated, the data is divided;

Figure 4: Mean data between the cluster center as a class, to update the cluster centers.

Finally, whether or not to end the algorithm, the purpose is to ensure the convergence of the algorithm.

Principia Mathematica 2.2

以往的回归分类、朴素贝叶斯分类、SVM分类的样本的标签是已知的,通过大量的训练样本得到模型,然后判断新的样本所属已知类别中的哪一类。而k-means聚类属于无监督学习,样本所属的类别是未知的,只是根据特征将样本分类,且类别空间也是根据人为需要选定的。

K-means核心思想:最小化所有样本到所属类别中心的欧式距离和,采用迭代的方式实现收敛。

K-means算法的具体步骤如下:

2.3算法优缺点

  • K-Means的主要优点有:

1)原理比较简单,实现也是很容易,收敛速度快。

2)聚类效果较优。

3)算法的可解释度比较强。

4)主要需要调参的参数仅仅是簇数k。

  • K-Means的主要缺点有:

1)K值的选取不好把握

2)对于不是凸的数据集比较难收敛

3)如果各隐含类别的数据不平衡,比如各隐含类别的数据量严重失衡,或者各隐含类别的方差不同,则聚类效果不佳。

4)采用迭代方法,得到的结果只是局部最优。

5)对噪音和异常点比较的敏感。

6)可能收敛到局部最小值,在大规模数据集上收敛较慢。

3.算法实现

3.1.K-means算法的相关描述

聚类是一种无监督的学习,它将相似的对象归到同一簇中。聚类的方法几乎可以应用所有对象,簇内的对象越相似,聚类的效果就越好。K-means算法中的k表示的是聚类为k个簇,means代表取每一个聚类中数据值的均值作为该簇的中心,或者称为质心,即用每一个的类的质心对该簇进行描述。聚类和分类最大的不同在于,分类的目标是事先已知的,而聚类则不一样,聚类事先不知道目标变量是什么,类别没有像分类那样被预先定义出来,所以,聚类有时也叫无监督学习。聚类分析试图将相似的对象归入同一簇,将不相似的对象归为不同簇,那么,显然需要一种合适的相似度计算方法,我们已知的有很多相似度的计算方法,比如欧氏距离,余弦距离,汉明距离等。事实上,我们应该根据具体的应用来选取合适的相似度计算方法。 当然,任何一种算法都有一定的缺陷,没有一种算法时完美的,有的只是人类不断追求完美,不断创新的意志。K-means算法也有它的缺陷,但是我们可以通过一些后处理来得到更好的聚类结果,这些在后面都会讲到。K-means算法虽然比较容易实现,但是其可能收敛到局部最优解,且在大规模数据集上收敛速度相对较慢。

3.2 K-means算法的工作流程

首先,随机确定k个初始点的质心;然后将数据集中的每一个点分配到一个簇中,即为每一个点找到距其最近的质心,并将其分配给该质心所对应的簇;该步完成后,每一个簇的质心更新为该簇所有点的平均值。具体算法表示如下:下图展示了K-means聚类算法的支持函数在Python环境下的具体表示:

在上述算法清单中,包含了几个K-均值算法中要用到的辅助函数。LoadDataSet()函数是将文本文件导入到列表中,文本文件每一行为tab分隔的浮点数,每一个列表会被添加到dataMat中,最后返回dataMat;函数distEclud()用于计算两个向量的欧式距离;函数randCent()为给定数据集构建一个包含k个随机质心的集合。下图表示以上3个函数的实际效果。

如果3个支持函数都可以正常运行,就可以准备实现完整的K-means算法了,该算法会创建K个质心,然后将每个点分配到最近的质心,再重新计算质心,直到数据点的簇分配结果不再改变为止。具体代码如下:

上面的代码给出了完整的K-means算法。上述算法的运行逻辑如下:在第一步建立的Kmeans()函数接受4个输入参数。只有数据集及簇的数目是必选的,而用来计算距离(我们这里用的是欧式距离)和创建初始质心的函数都是可选的(这里用的是randCent函数)。Kmeans()函数一开始确定数据集中数据点的总数,然后创建一个矩阵来存储每个点的簇分配结果。这个矩阵clusterAssment有两列:簇索引值和聚类误差。

按照上述方式反复迭代,直到所有数据点的簇分配结果不再改变为止。程序中创建一个标志变量clusterChanged,如果该值为True,则继续迭代。上述迭代使用while循环来实现。接下来遍历所有数据找到距离每个点最近的质心(通过对每个点遍历所有质心并计算点到每个质心的欧式距离)。如果任一点的簇分配结果发生改变,则更新clusterChanged标志。最后遍历所有质心并更新它们的取值,具体实现步骤如下:通过数组过滤来获得给定簇的所有点;然后计算所有点的均值,选项axis=0表示沿矩阵的列方向进行均值计算;最后程序返回所有的类质心和点分配结果。

算法的运行效果如下图所示,我们可以看到上面的结果经过了3次迭代之后k-means算法收敛:

K-means算法进行到这里,我们似乎已经得出了聚类的质心,但是不要忘记了我们的算法采取的是随机初始化k个簇的质心的方法,这样的话聚类效果可能会陷入局部最优解的情况,这样虽然有效果,但不如全局最优解的效果好。因此接下来的二分K--means算法就是针对这一问题所采取的相应的后处理,使算法跳出局部最优解,达到全局最优解,获得最好的聚类效果。二分K-means算法首先将所有点作为一个簇,然后将簇一分为二,之后选择其中一个簇继续进行划分,选择哪一个簇取决于对其划分是否能够最大程度地降低SSE(误差平方和,即clusterAssment矩阵的第一列之和)的值。具体的代码如下:

这个函数首先创建一个矩阵来存储数据集中每个点的簇分配结果及平方误差,然后计算整个数据集的质心,并使用一个列表来保留所有的质心。得到上述质心以后,可以遍历数据集中所有点来计算每个点到质心的误差值(后面会用到)。然后程序进入while循环,该循环会不停划分簇,直到得到想要的簇数目为止。具体循环做法如上图所示,当while循环结束时,函数返回质心列表与簇分配结果。下图展示了一个上面所有算法一起运行的结果:

二分k-means算法中,直到簇的数目达到k值,算法才会停止。在算法中通过将所有的簇进行划分,然后分别计算划分后所有簇的误差。选择使得总误差最小的那个簇进行划分。划分完成后,要更新簇的质心列表,数据点的分类结果及误差平方。具体地,假设划分的簇为m(m<k)个簇中的第i个簇,那么这个簇分成的两个簇后,其中一个取代该被划分的簇,成为第i个簇,并计算该簇的质心;此外,将划分得到的另外一个簇,作为一个新的簇,成为第m+1个簇,并计算该簇的质心。此外,算法中还存储了各个数据点的划分结果和误差平方,此时也应更新相应的存储信息。这样,重复该过程,直至簇个数达到k。通过上述算法,之前陷入局部最小值的的这些数据,经过二分K-means算法多次划分后,逐渐收敛到全局最小值,从而达到了令人满意的聚类效果。

4、应用举例

回到刚开始的问题,我们现在有70个地方的地址,但是只知道地址是不够的,我们需要知道的是这些地址之间的距离远近信息。因此,我们需要得到每个地址的经度和纬度,然后对这些地址进行聚类以安排行程。具体的地址转换与算法过程如下所示:

这一部分属于数据预处理工作,在上述代码中,首先创建一个字典,字典里面存储的是通过URL获取经纬度所必要的参数,即我们想要的返回的数据格式flogs=J;获取数据的appid;以及要输入的地址信息(stAddress,city)。然后,通过urlencode()函数帮助我们将字典类型的信息转化为URL可以传递的字符串格式。最后,打开URL获取返回的JSON类型数据,通过JSON工具来解析返回的数据。且在返回的结果中,当错误编码为0时表示,得到了经纬度信息,而为其他值时,则表示返回经纬度信息失败。此外,在代码中,每次获取完一个地点的经纬度信息后,延迟一秒钟。这样做的目的是为了避免频繁的调用API,请求被封掉的情况。接下来就要正式利用k—means聚类方法对地理坐标进行聚类。

将上述算法加入到第三部分“算法示例”中的算法中,然后在Python提示符下输入如下图所示的命令,得到的结果如下图所示:

执行上面的命令之后,最后得出的聚类结果如下图所示:

责编 | 薛 李 蔡 孙 赵

指导 | 老薛

指导教授简介:

薛巍立,男,博士,东南大学经济管理学院教授,博士生导师,国家自然科学基金优秀青年基金项目获得者。博士毕业于香港中文大学系统工程与工程管理系,主要从事供应链物流管理、运营风险管理和医疗服务运作管理等。主要成果发表在Operations Research、Production and Operations Management、Transportation Science、European Journal of Operational Research、Operations Research Letters等期刊上。

Guess you like

Origin www.cnblogs.com/dengfaheng/p/10959142.html