机器学习6-分类学习-K近邻

模型介绍

假设我们有一些携带分类标记的训练样本,分布于特征空间中。找到待分类的样本在特征空间中距离最近的K个已标记样本作为参考,找到的K个已标记样本属于哪一类的比例高,那我们就认为待分类样本就属于这一类。

数据描述

利用 K 近邻算法对生物物种进行分类,并且使用最为著名的“鸢尾”(Iris)数据集。

代码

#读取Iris数据集细节资料
#从sklearn.datasets导入iris数据加载器。
from sklearn.datasets import load_iris
#使用加载器读取数据并且存入变量iris
iris = load_iris()
#查验数据规模。
print(iris.data.shape)
#查看数据说明。对于一名机器学习的实践者来讲,这是一个好习惯
print(iris.DESCR)
#可以观察到Iris数据集共有150朵鸢尾数据样本,并且均匀分布在3个不同的亚种;每个样本有4个属性sepal length,sepal width, petal width, petal length
#由于没有指定的测试集,我们需要对数据进行随机分割,25%的样本用于测试,其余75%的样本用于模型的训练。
#对Iris数据集进行分割
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.25, random_state=33)
#使用K近邻分类器对鸢尾花(Iris)数据进行类别预测
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier

#对训练和测试的特征数据进行标准化。
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)

#使用K近邻分类器对测试数据进行类别预测,预测结果储存在变量y_predict中。
knc = KNeighborsClassifier()
knc.fit(X_train, y_train)
y_predict = knc.predict(X_test)

#使用模型自带的评估函数进行准确性测评
print("The accuracy of K-Nearest Neighbor Classifier is", knc.score(X_test, y_test))
#使用sklearn.metrics 里面的classification_report模块对预测结果做更加详细的分析
from sklearn.metrics import classification_report
print(classification_report(y_test, y_predict, target_names=iris.target_names))

特点分析

K近邻(分类)是非常直观的机器学习模型,该模型没有参数训练过程,也就是我们并没有通过任何学习算法分析训练数据,而只是根据测试样本在训练数据的分布直接做出分类决策。因此,K近邻属于无参数模型(Nonparametric model)中非常简单一种。然而,正是这样的决策算法,导致了其非常高的计算复杂度和内存消耗。因为该模型每处理一个测试样本,都需要对所有预先加载在内存的训练样本进行遍历、逐一计算相似度、排列1并且选取K个最近邻训练样本的标记,进而做出分类决策。这是平方级别的算法复杂度,一旦数据规模稍大,使用者便需要权衡更多计算时间的代价。

猜你喜欢

转载自blog.csdn.net/qq_38195197/article/details/81050169