MLiA笔记——kNN算法

# -*-coding:utf-8-*-
from numpy import *
import operator

# 创建数据集和标签
def createDataSet():
    group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
    labels = ['A', 'A', 'B', 'B']
    return group, labels

# 2.1 k-近邻算法:用于分类的输入向量inX,输入的训练集样本dataset,标签向量labels,用于选择最近邻居数目的参数k
def classify0(inX, dataSet, labels, k):
    # 标签向量的元素数目和矩阵dataSet的行数相同
    dataSetSize = dataSet.shape[0]
    # 距离计算
    diffMat = tile(inX, (dataSetSize,1)) - dataSet
    sqDiffMat = diffMat ** 2
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances**0.5
    sortedDistIndisces = distances.argsort()
    classCount = {}
    for i in range(k):
        # 确定前k个距离最小元素所在的主要分类
        voteIlabel = labels[sortedDistIndisces[i]]
        classCount[voteIlabel]=classCount.get(voteIlabel,0)+1
        # 最后将classCount字典分解为元组列表,然后使用operator模块中的itemgetter方法,按照第二个元素的词序对元组进行排序。
        # 逆序排序,即从大到小排序,最后返回发生频率最高的元素标签
        sortedClassCount = sorted(classCount.iteritems(),key= operator.itemgetter(1),reverse= True)
        return sortedClassCount[0][0]


# 2.2 示例:使用K-近邻值算法改进约会网站的配对效果
# 将文本记录转换NumPy的解析程序
def file2matrix(filename):
    love_dictionary={'largeDoses':3, 'smallDoses':2, 'didntLike':1}
    # 打开文件
    fr = open(filename)
    # 得到文件的行数
    numberOflines = len(fr.readlines())
    # 创建以0填充的矩阵NumPy
    returnMat = zeros((numberOflines,3))
    classLabelVector = []
    fr = open(filename)
    index = 0
    for line in fr.readlines():
        # 使用line.strip()函数截取所有回车字符
        line = line.strip()
        # 然后使用tab字符\t将得到的整行数据分割成一个元素列表
        listFromLine = line.split('\t')
        # 选取前三个元素,将它们存储到特征矩阵中
        returnMat[index,:] = listFromLine[0:3]
        if (listFromLine[-1].isdigit()):
            classLabelVector.append(int(listFromLine[-1]))
        else:
            # python语言可以使用索引值-1表示列表中的最后一列元素,将最后一列存储到向量classLabelVector中
            classLabelVector.append(love_dictionary.get(listFromLine[-1]))
        index += 1
    return returnMat , classLabelVector

# 2.3 归一化特征值
def autoNorm(dataSet):
    # 将每列的最小值放在变量minValszh,最大值放在maxVals中
    # dataSet.min(0)中的参数0可使得函数可以从列中选取最小值,而不是选取当前行的最小值
    minVals = dataSet.min(0)
    maxVals = dataSet.max(0)
    # 计算可能的取值范围
    ranges = maxVals - minVals
    # 创建新的返回矩阵
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0]
    # 特征值矩阵有1000*3个值,而minVals和range的值都为1*3,所以使用NumPy中的tile()函数将变量内容复制成输入矩阵同样大小的矩阵
    normDataSet = dataSet - tile(minVals,(m,1))
    normDataSet = normDataSet/tile(ranges, (m,1))
    return normDataSet, ranges, minVals


# 2.4 分类器针对约会网站的测试代码
def datingClassTest():
    hoRatio = 0.10
    # 首先使用了file2matrix和autoNorm()函数从文件中读取数据并将其转换为归一化特征值
    datingDataMat, datingLabels = file2matrix('E:\PDF\MLIA\Ch02\datingTestSet.txt')
    normMat, ranges, minVals = autoNorm(datingDataMat)
    # 计算测试向量的数量,此步决定了normMat向量中哪些数据用于测试,那些数据用于分类器的训练样本
    m = normMat.shape[0]
    numTestVecs = int(m*hoRatio)
    errorCount = 0.0
    for i in range(numTestVecs):
        # 将两部分数据输入到原始kNN分类器函数classify0
        classfierResult = classify0(normMat[i,:], normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
        print "the classifier came back with: %d, the real answer is: %d"%(classfierResult, datingLabels[i])
        # 最后计算错误率并输出结果
        if (classfierResult != datingLabels[i]): errorCount += 1.0
    print "the total error rate is :%f" %(errorCount/float(numTestVecs))


# 2.5 约会网站预测函数
def classifyPerson():
    resultList = ['not at all','in small doses','in large doses']
    # raw_input()函数,语序用户输入文本行命令并返回用户所输入的命令
    percentTats = float(raw_input("percentage of time spent playing video games?"))
    ffMIles = float(raw_input("frequent flier miles earned per year?"))
    iceCream = float(raw_input("liters of ice cream consumed per year?"))
    datingDataMat, datingLabels = file2matrix('E:\PDF\MLIA\Ch02\datingTestSet.txt')
    normMat, ranges, minvals = autoNorm(datingDataMat)
    inArr = array([ffMIles, percentTats, iceCream])
    classifierResult = classify0((inArr-minvals)/ranges, normMat, datingLabels, 3)
    print "You will probably like this person: ",resultList[classifierResult-1]


# 将图像格式化处理为一个向量,把一个32x32的二进制图像矩阵转换为1x1024的向量
def img2vector(filename):
    returnVect = zeros((1,1024))
    fr = open(filename)
    # 循环读出文件的前32行,并将每行的头32个字符值存储在NumPy数组中,最后返回数组
    for i in range(32):
        lineStr = fr.readline()
        for j in range(32):
            returnVect[0,32*i+j] = int(lineStr[j])
    return returnVect



# 2.6 手写数字识别系统的测试代码
from os import listdir
def handwrittingClassTest():
    hwLabels = []
    # 将trainingDigits目录中的文件内容存储在列表中,
    trainingFileList = listdir('E:\PDF\MLIA\Ch02\trainingDigits')
    # 然后可以得到目录中有多少文件
    m = len(trainingFileList)
    # 创建一个m行1024列的训练矩阵,该矩阵的每行数据存储一个图像
    trainingMat = zeros((m,1024))
    for i in range(m):
        # 从文件名中析出分类数字
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        # 然后我们可以将这类代码存储在hwLabels向量中
        hwLabels.append(classNumStr)
        # 使用前面的img2vec函数载入图像
        trainingMat[i,:] = img2vector('E:\PDF\MLIA\Ch02\trainingDigits/%s' % fileNameStr)
    # 对testDigits目录中的文件执行相似的操作
    testFileList = listdir('E:\PDF\MLIA\Ch02\testDigits')
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        vectorUnderTest = img2vector('E:\PDF\MLIA\Ch02\testDigits/%s' % fileNameStr)
        classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels , 3)
        print "the classifier came back with :%d, the real answer is: %d" % (classifierResult, classNumStr)
        if (classifierResult != classNumStr): errorCount += 1.0
    print "/nthe total number of errors is %d" % errorCount
    print "/nthe total error rate is :%f" % (errorCount/float(mTest))

猜你喜欢

转载自blog.csdn.net/weixin_42836351/article/details/81300809