机器学习实战------k-近邻算法

使用了pycharm,和jupyter,均为python3版本。

一、首先根据章节内容创建KNN模块

在pycharm中编写模块:

from numpy import *
import operator


def createDataSet():
    group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
    labels = ['A','A','B','B']
    return group,labels
二、保存并导入模块

在jupyter中导入模块,导入过程如下:

import sys
sys.path.append("D:\xx\xxxxxx")

import KNN
在导入模块后,输入指令:

group,labels = KNN.createDataSet()
出现错误: only 2 non-keyword arguments accepted 

查阅网上回答,并没有找到原因,有位老哥说可能是KNN.py修改后,python没有来得及加载,将jupyter文件关掉,并在Home界面勾选文件,shutdown


再次打开文件,运行,没有出错。


三、python中k-近邻算法的具体实现

k-近邻算法的伪代码为:


接下来贴上代码:

def classify0(inx,dataSet,labels,k):
    dataSetSize = dataSet.shape[0]
    diffMat = tile(inx,(dataSetSize,1)) - dataSet
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis = 1)
    distances = sqDistances **0.5
    sortedDistIndicies = distances.argsort()
    classCount = {}
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    sortedClassCount = sorted(classCount.items(),
                              key = operator.itemgetter(1),reverse = True)
    return sortedClassCount[0][0]

需要十分注意的是

sortedClassCount = sorted(classCount.items()

一句中,原书为

sortedClassCount = sorted(classCount.iteritems()

注意python3与2之间的区别,否则这段会报错。

四、测试

在jupyter中键入:

import KNN
group,labels = KNN.createDataSet()
KNN.classify0([0,0],group,labels,3)
获得结果:


再试一条:

import KNN
group,labels = KNN.createDataSet()
KNN.classify0([0.9,1],group,labels,3)
结果:


看起来还不错。

代码是固定的,但是其中的一些具体代码之前都没接触过,以后会注重原始代码的来历以及应用。


2018.1.15更新


def classify0(inx,dataSet,labels,k):
    dataSetSize = dataSet.shape[0]
    diffMat = tile(inx,(dataSetSize,1)) - dataSet
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis = 1)
    distances = sqDistances **0.5
    sortedDistIndicies = distances.argsort()
    classCount = {}
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    sortedClassCount = sorted(classCount.items(),
                              key = operator.itemgetter(1),reverse = True)
    return sortedClassCount[0][0]
解释下这段代码中的几个函数:

1.numpy.tile(a,b)函数,是在列方向上重复N次,在这是重复dataSetSize次

具体用法为(这段代码是另一位老哥的,我就懒得写了,侵删):

>>> import numpy  
>>> numpy.tile([0,0],5)#在列方向上重复[0,0]5次,默认行1次  
array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0])  
>>> numpy.tile([0,0],(1,1))#在列方向上重复[0,0]1次,行1次  
array([[0, 0]])  
>>> numpy.tile([0,0],(2,1))#在列方向上重复[0,0]1次,行2次  
array([[0, 0],  
       [0, 0]])  
>>> numpy.tile([0,0],(3,1))  
array([[0, 0],  
       [0, 0],  
       [0, 0]])  
>>> numpy.tile([0,0],(1,3))#在列方向上重复[0,0]3次,行1次  
array([[0, 0, 0, 0, 0, 0]])  
>>> numpy.tile([0,0],(2,3))<span style="font-family: Arial, Helvetica, sans-serif;">#在列方向上重复[0,0]3次,行2次</span>  
array([[0, 0, 0, 0, 0, 0],  
       [0, 0, 0, 0, 0, 0]]) 
2. argsort函数返回的是数组值从小到大的索引值

突然发现一篇博客,写的十分详细,这里贴一下地址,传送门:http://blog.csdn.net/niuwei22007


四、4.1示例:使用k-近邻算法改进约会网站的配对效果

4.1.1准备数据

将文本记录转换为NumPy的解析程序:

def file2matrix(filename):
    fr = open(filename)
    numberOfLines = len(fr.readlines())
    returnMat = zeros((numberOfLines,3))
    classLabeVector = []
    fr = open(filename)
    index = 0
    for line in fr.readlines():
        line = line.strip()
        listFromLine = line.split('\t')
        returnMat[index,:] = listFromLine[0:3]
        classLabeVector.append(int(listFromLine[3]))
        index += 1
    return returnMat,classLabeVector
之后在jupyter输入命令:( 原书中的reload在python3中需要 from imp import reload

import sys
sys.path.append("D:\xx\xxxx")
import KNN
之后导入数据文件,文件在https://www.manning.com/books/machine-learning-in-action中的source code 有下载

import os
os.chdir('D:\\xx\\machinelearning\\MLiA_SourceCode')
datingDataMat,datingLabels = KNN.file2matrix('datingTestSet2.txt')
简单检查数据内容:


4.1.2分析数据:使用Matplotlib创建散点图

书中之前的两个散点图的具体创建不表,最终清晰标示不同样本分类区域的散点图用到了datingDataMat矩阵的第二和第三列属性。具体代码如下:

import matplotlib
import matplotlib.pyplot as plt
from numpy import array
fig = plt.figure()
ax = fig.add_subplot(111)
ax.scatter(datingDataMat[:,0],datingDataMat[:,1],15.0 * array(datingLabels),15.0 * array(datingLabels))
plt.show()
最终效果如下:


4.2.3准备数据:归一化数值

在计算不同样本数据的距离时,我们会发现飞行常客里程数由于自身数字较大,会远远大于其他两项对计算结果的影响,所以在处理不同取值范围的特征值时,通常采用将数值归一化。

在KNN.py模块中增加新函数autoNorm(),使用该函数可以自动将数字特征转化为0-1之间。

代码如下:

def autoNorm(dataSet):
    minVals = dataSet.min(0)
    maxVals = dataSet.max(0)
    ranges = maxVals - minVals
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0]
    normDataSet = dataSet - tile(minVals,(m,1))
    normDataSet = normDataSet/tile(ranges,(m,1))
    return normDataSet,ranges.minVals
在jupyter中输入指令:

from imp import reload
reload(KNN)
normMat,ranges,minVals = KNN.autoNorm(datingDataMat)

得到结果:


4.2.4测试算法,完整程序验证分类器

分类器针对约会网站的测试代码:

def dataingClassTest():
    hoRatio = 0.10
    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
    normMat,ranges,minVals = autoNorm(datingDataMat)
    m = normMat.shape[0]
    numTestVecs = int(m * hoRatio)
    errorCount = 0.0
    for i in range(numTestVecs):
        classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
        print('the classifier came back with:%d,the real answer is : %d'%(classifierResult,datingLabels[i]))
        if (classifierResult != datingLabels[i]): errorCount += 1.0
    print('the total error rate is: %f'%(errorCount/float(numTestVecs)))
继续在jupyter中测试:

reload(KNN)
KNN.dataingClassTest()
结果:


这个结果就要比书中的结果差一些,可能是数据有所改变?这个不太清楚。

4.2.5 使用算法构建完整可用的系统

约会网站预测函数:

def classifyPerson():
    resultList = ['not at all','in small doses','in large doses']
    percentTats = float(input('percentage of time spent playing video games?'))
    ffMiles = float(input('frequent flier miles earned per year?'))
    iceCream = float(input('liters of ice cream consumed per year?'))
    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
    normMat,ranges,minVals = autoNorm(datingDataMat)
    inArr = array([ffMiles,percentTats,iceCream])
    classifierResult = classify0((inArr - minVals)/ranges,normMat,datingLabels,3)
    print('You will probably like this person:',resultList[classifierResult -1])
依然在jupyter中测试:(记得reload)


简单的约会网站匹配代码完成,所有的代码都可以在机器语言实战书中找到。代码看似简单实际深究还有很多需要细思的地方,我这里写的比较乱,而且细节理解不够,墙裂推荐@Tig_Free 大佬的文章,传送门:点我去参观代码,讲解清晰,适合入门菜鸡仔细品读。

2018.1.16修改

使用k-近邻算法识别手写数字

在KNN.py中加入函数,代码:

from os import listdir
def handwritingClassTest():
    hwLabels = []
    trainingFileList = listdir('trainingDigits')
    m = len(trainingFileList)
    trainingMat = zeros((m,1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        hwLabels.append(classNumStr)
        trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr)
    testFileList = listdir('testDigits')
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)
        classifierResult = classify0(vectorUnderTest,trainingMat,hwLabels,3)
        print('the classifier came back with: %d, the real answer is: %d'\
              %(classifierResult,classNumStr))
        if (classifierResult != classNumStr):errorCount += 1.0
    print('\nthe total number of errors is: %d '%errorCount)
    print('\nthe total error rate is: %f '%(errorCount/float(mTest)))
jupyter中敲入代码测试:(记得reloadKNN模块)

KNN.handwritingClassTest()

错误率比书上的结果还低一些。










猜你喜欢

转载自blog.csdn.net/coolerzz/article/details/79033392