机器学习--k-近邻算法(kNN)学习笔记

版权声明:本文为博主原创文章,未经作者允许请勿转载。 https://blog.csdn.net/heiheiya https://blog.csdn.net/heiheiya/article/details/82840335

kNN的工作原理是:有一个训练样本集,并且样本集中每个数据都存在标签(对应关系)。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。

我们只选择样本数据集中前k个最相似的数据,这就是kNN中的k,通常取不大于20的整数。

最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。

kNN算法的一般流程:

  1. 收集数据:可以使用任何方法。
  2. 准备数据:距离计算所需要的数值,最好是结构化的数据格式。
  3. 分析数据:可以使用任何方法。
  4. 训练算法:不需要。
  5. 测试算法:计算错误率。
  6. 使用算法:首先,输入样本数据和结构化的输出结果;然后,运行kNN算法判定输入数据分别属于哪个分类;最后,对计算出的分类执行后续的处理。

具体实现时依次执行如下操作:

  1. 计算已知类别数据集中的点与当前点之间的距离。
  2. 按照距离递增次序排序。
  3. 选取与当前点距离最小的k个点。
  4. 确定前k个点所在类别的出现频率。
  5. 返回前k个点出现频率最高的类别作为当前点的预测分类。

下面是例子虽然简单没有实际的使用价值,但是可以展示出一个kNN算法的思想。

from numpy import *
import operator

def createDataSet():
    group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
    labels = ['A', 'A', 'B', 'B']
    return group, labels

def classify0(inX, dataSet, labels, k):
    dataSetSize = dataSet.shape[0]
    #下面的四行代码计算距离
    diffMat = tile(inX, (dataSetSize, 1)) - dataSet
    sqDiffMat = diffMat ** 2
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances ** 0.5
    #对距离进行排序
    sortedDistIndicies = distances.argsort()
    classCount = {}
    #确定前k个较小距离的类别
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
    #获得最大频率的类别
    sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
    return sortedClassCount[0][0]

我将上面的代码保存为kNN.py,然后在终端执行如下操作:

猜你喜欢

转载自blog.csdn.net/heiheiya/article/details/82840335