K近邻算法(KNN)原理解析及python实现代码

KNN算法是一个有监督的算法,也就是样本是有标签的。KNN可以用于分类,也可以用于回归。这里主要讲knn在分类上的原理。KNN的原理很简单:

           放入一个待分类的样本,用户指定k的大小,然后计算所有训练样本与该样本的距离,选择距离该样本最近的k个训练样本。这k个样本少数服从多数的结果就是该样本的类别。

计算样本之间的距离一般选择欧式距离,k值的选取可以使用交叉验证。个人觉得KNN有趣的地方在于它并没有显性的训练,不像其他有监督的算法会用训练集train一个模型,然后验证机或测试集用该模型来进行分类和预测。而KNN是直接把待分类的样本放入到训练样本中。

下面为用python实现KNN的代码:

import numpy as np
import operator

##给出训练数据以及对应的类别
def create_dataset():
    group = np.array([[1.0, 2.0], [1.2, 0.1],
                      [0.1, 1.4], [0.3, 3.5]])
    labels = ['A','A','B','B']
    return group, labels

##通过KNN进行分类
def classify(input, dataSet, label, k):
    dataSize = dataSet.shape[0]
    ## 重复input为dataSet的大小
    diff = np.tile(input, (dataSize, 1)) - dataSet
    sqdiff = diff**2
    ## 列向量分别相加,得到一列新的向量
    squareDist = np.array([sum(x) for x in sqdiff])
    dist = squareDist**0.5
    
    ## 对距离进行排序
    ## argsort()根据元素的值从大到小对元素进行排序,返回下标
    sortedDistIndex = np.argsort(dist)
    
    classCount = {}
    for i in range(k):
        ## 因为已经对距离进行排序,所以直接循环sortedDistIndx
        voteLabel = label[sortedDistIndex[i]]
        ## 对选取的k个样本所属的类别个数进行统计
        ## 如果获取的标签不在classCount中,返回0
        classCount[voteLabel] = classCount.get(voteLabel, 0) + 1
    ## 选取出现的类别次数最多的类别
    maxCount = 0
    for key, value in classCount.items():
        if value > maxCount:
            maxCount = value
            classes = key
    
    return classes

data, labels = create_dataset()
input = [1.0, 2.0]
print(classify(input,data,labels,2))

猜你喜欢

转载自blog.csdn.net/zx1245773445/article/details/83758493