机器学习(二)k-近邻分类算法(kNN)

版权声明:本文为博主原创文章,转载请声明出处。 https://blog.csdn.net/GnahzNib/article/details/52269008
1、k-近邻算法概述
k-近邻算法采用 测量不同特征值之间的距离的方法进行分类
优点:精度高、对异常值不敏感、无数据输入假定;
缺点:计算复杂度高、空间复杂度高;
适用数据范围:数值型和标称型。
2、工作原理:
     存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最邻近)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。
3、流程
*收集数据
*准备数据:距离计算所需要的数值,最好是结构化的数据格式。
*分析数据:
*训练算法:此步骤不适用于k-近邻算法
*测试算法:计算错误率
*使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。
Python实现:
# -*- coding: utf-8 -*-
'''
Created on Sun Aug 21 18:44:27 2016
kNN: k Nearest Neighbors
Input:      
    inX:用于分类的输入向量
    dataSet:输入的训练样本集
    labels:标签向量
    k:表示用于选择最近邻居的数目
标签向量的元素数目和矩阵dataSet的行数相同
Output: 分类结果
@author: GnahzNib
'''

# 导入科学计算包numpy
from numpy import *
# 导入运输符模块
import operator
# 导入listdir()函数(获得目录中的相关内容的介绍)
from os import listdir

# k-邻近算法实现
def classify0(inX, dataSet, labels, k):
    # 已知分类的数据集(训练集)的行数
    dataSetSize = dataSet.shape[0]
    # 1、计算欧式距离
    # tile函数将输入点拓展成与训练集相同维数的矩阵,再计算欧氏距离
    diffMat = tile(inX, (dataSetSize,1)) - dataSet  # 样本与训练集的差值矩阵
    sqDiffMat = diffMat**2  # 差值矩阵平方
    sqDistances = sqDiffMat.sum(axis=1)  # 计算每一行上元素的和
    distances = sqDistances**0.5  # 开方得到欧拉距离矩阵
    sortedDistIndicies = distances.argsort()  # 按distances中元素进行升序排序后得到的对应下标的列表     
    # 2、选择距离最小的k个点    
    classCount={}          
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
        # 按classCount字典的第2个元素(即类别出现的次数)从大到小排序
    sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
    return sortedClassCount[0][0]
4、示例:
1)使用Python导入数据
In [ 12 ]: from numpy import *
In [ 13 ]: import operator
In [ 14 ]: def createDataSet():
    ...:     group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
    ...:     labels = ['A', 'A', 'B', 'B']
    ...:     return group, labels
    ...:
In [ 15 ]: import kNN
In [ 16 ]: group,labels = kNN.createDataSet()
In [ 17 ]: group
Out[ 17 ]:
array([[ 1. ,  1.1],
       [ 1. ,  1. ],
       [ 0. ,  0. ],
       [ 0. ,  0.1]])
In [ 18 ]: labels
Out[ 18 ]: ['A', 'A', 'B', 'B']
2)实施kNN算法
In [ 19 ]: kNN.classify0([0, 0], group, labels, 3)
Out[ 19 ]: 'B'
In [ 20 ]: kNN.classify0([1.5, 0.5], group, labels, 3)
Out[ 20 ]: 'A'
3)测试分类器
分类器错误率=分类器给出错误结果的次数 / 测试执行的总数 

猜你喜欢

转载自blog.csdn.net/GnahzNib/article/details/52269008