版权声明:本文为博主原创文章,未经作者允许请勿转载。 https://blog.csdn.net/heiheiya https://blog.csdn.net/heiheiya/article/details/82840335
kNN的工作原理是:有一个训练样本集,并且样本集中每个数据都存在标签(对应关系)。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。
我们只选择样本数据集中前k个最相似的数据,这就是kNN中的k,通常取不大于20的整数。
最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。
kNN算法的一般流程:
- 收集数据:可以使用任何方法。
- 准备数据:距离计算所需要的数值,最好是结构化的数据格式。
- 分析数据:可以使用任何方法。
- 训练算法:不需要。
- 测试算法:计算错误率。
- 使用算法:首先,输入样本数据和结构化的输出结果;然后,运行kNN算法判定输入数据分别属于哪个分类;最后,对计算出的分类执行后续的处理。
具体实现时依次执行如下操作:
- 计算已知类别数据集中的点与当前点之间的距离。
- 按照距离递增次序排序。
- 选取与当前点距离最小的k个点。
- 确定前k个点所在类别的出现频率。
- 返回前k个点出现频率最高的类别作为当前点的预测分类。
下面是例子虽然简单没有实际的使用价值,但是可以展示出一个kNN算法的思想。
from numpy import *
import operator
def createDataSet():
group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
labels = ['A', 'A', 'B', 'B']
return group, labels
def classify0(inX, dataSet, labels, k):
dataSetSize = dataSet.shape[0]
#下面的四行代码计算距离
diffMat = tile(inX, (dataSetSize, 1)) - dataSet
sqDiffMat = diffMat ** 2
sqDistances = sqDiffMat.sum(axis=1)
distances = sqDistances ** 0.5
#对距离进行排序
sortedDistIndicies = distances.argsort()
classCount = {}
#确定前k个较小距离的类别
for i in range(k):
voteIlabel = labels[sortedDistIndicies[i]]
classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
#获得最大频率的类别
sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
return sortedClassCount[0][0]
我将上面的代码保存为kNN.py,然后在终端执行如下操作: