【机器学习】K近邻算法

cc78616eccaa846871d7d25bfbf267e6.jpeg

一、原理

参数k的确定

407421998bc7d7ce8da15aecbe429c8b.png

带权重的k近邻算法 与 模糊k近邻算法

d87025938e928ff07ab9a6a15db15787.jpeg

KNN算法用于回归问题

ce51e62c1b97afbffce763243dd7eb4b.jpeg

在使用欧氏距离时应将特征向量归一化

1830f115bcf096a67308cce06c7c7c91.jpeg

mahalanobis距离

f699886384d3182c2bb2b6f23110f074.png

如何确定数据的协方差矩阵

655900e16b7a5d3912a84ce31ffcc6f4.jpeg

Bhattacharyya距离

54d8f2be74fa8a81995fbd4e65e3bb42.jpeg

距离度量学习

f09efa8a4b0eef61bb29a30ad1be7202.jpeg

距离度量学习大边界最近邻分类

3e158f563c4a9b860810efa0a818ff30.jpeg

二、示例代码1

fafeffa1247a37e2cf80322fc1288c48.jpeg

import numpy as np  # 导入numpy库,用于进行数值计算
import matplotlib.pyplot as plt  # 导入matplotlib库的pyplot模块,用于绘制图形
from sklearn import datasets  # 导入sklearn库的datasets模块,用于加载数据集
from sklearn.neighbors import KNeighborsClassifier  # 导入sklearn库的neighbors模块中的KNeighborsClassifier类,用于创建k近邻分类器
import matplotlib  # 导入matplotlib库,用于图形绘制


#%matplotlib inline  # 这是一个Jupyter Notebook的魔法命令,用于在Notebook中直接显示图形


# 定义一个函数,用于生成所有测试样本点
def make_meshgrid(x, y, h=.02):
    x_min, x_max = x.min() - 1, x.max() + 1  # 计算x的最小值和最大值
    y_min, y_max = y.min() - 1, y.max() + 1  # 计算y的最小值和最大值
    xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))  # 生成网格点
    return xx, yy  # 返回网格点


# 定义一个函数,对测试样本进行预测,并显示
def plot_test_results(ax, clf, xx, yy, **params):
    Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])  # 对测试样本进行预测
    Z = Z.reshape(xx.shape)  # 调整预测结果的形状
    ax.contourf(xx, yy, Z, **params)  # 绘制等高线图


# 载入iris数据集
iris = datasets.load_iris()
# 只使用前面两个特征
X = iris.data[:, :2]
# 样本标签值
y = iris.target


# 创建kNN分类器
knn = KNeighborsClassifier() 
knn.fit(X,y)  # 对分类器进行训练


title = ('KNNClassifier')


fig, ax = plt.subplots(figsize = (5, 5))  # 创建一个新的图形窗口
plt.subplots_adjust(wspace=0.4, hspace=0.4)  # 调整子图之间的间距


X0, X1 = X[:, 0], X[:, 1]  # 提取特征值
# 生成所有测试样本点
xx, yy = make_meshgrid(X0, X1)


# 显示测试样本的分类结果
plot_test_results(ax, knn, xx, yy, cmap=plt.cm.coolwarm, alpha=0.8)
# 显示训练样本
ax.scatter(X0, X1, c=y, cmap=plt.cm.coolwarm, s=20, edgecolors='k')
ax.set_xlim(xx.min(), xx.max())  # 设置x轴的范围
ax.set_ylim(yy.min(), yy.max())  # 设置y轴的范围
ax.set_xlabel('x1')  # 设置x轴的标签
ax.set_ylabel('x2')  # 设置y轴的标签
ax.set_xticks(())  # 清空x轴的刻度
ax.set_yticks(())  # 清空y轴的刻度
ax.set_title(title)  # 设置标题
plt.show()  # 显示图形

三、示例代码2

af0648979130d508eeddd55b30d4af55.png

数据集

cf7e5114b7e2a60f3f937418ea5a102a.jpeg

输出的混淆矩阵和分类报告

# 导入必要的库
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd


# 导入数据集   注意,Python 中索引是从 0 开始的。
dataset = pd.read_csv('../datasets/Social_Network_Ads.csv')
X = dataset.iloc[:, [2, 3]].values  # 获取数据集中的第3列和第4列数据 年龄 薪水,并将其转换为NumPy数组
y = dataset.iloc[:, 4].values  # 获取数据集中的第4列数据 是否购买,并将其转换为NumPy数组


# 将数据集划分为训练集和测试集
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.25, random_state = 0)  # 将数据集划分为75%的训练集和25%的测试集


# 特征缩放
from sklearn.preprocessing import StandardScaler
sc = StandardScaler()  # 创建标准化对象
X_train = sc.fit_transform(X_train)  # 对训练集进行标准化
X_test = sc.transform(X_test)  # 对测试集进行标准化


# 使用K-NN算法训练模型
from sklearn.neighbors import KNeighborsClassifier
classifier = KNeighborsClassifier(n_neighbors = 5, metric = 'minkowski', p = 2)  # 创建K-NN分类器,设置参数n_neighbors为5,metric为闵可夫斯基距离,p为2
classifier.fit(X_train, y_train)  # 使用训练集训练模型


# 使用训练好的模型预测测试集结果
y_pred = classifier.predict(X_test)  # 使用训练好的模型预测测试集的结果


# 生成混淆矩阵
from sklearn.metrics import confusion_matrix
from sklearn.metrics import classification_report
cm = confusion_matrix(y_test, y_pred)  # 生成混淆矩阵
print(cm)  # 打印混淆矩阵
print(classification_report(y_test, y_pred))  # 打印分类报告

fe324e03a3ccda74eaeafdc9b7195c2c.jpeg

d360baf47c02ad8871c4cd153d506689.png

参考

https://github.com/noobgod/100-Days-Of-ML-Code 

《机器学习-原理、算法与应用》,清华大学出版社,雷明著

The End

猜你喜欢

转载自blog.csdn.net/cxyhjl/article/details/134658183