【Scikit-Learn】k-近邻算法分类

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/made_in_china_too/article/details/82255275
%matplotlib inline
import matplotlib.pyplot as plt
import numpy as np

from sklearn.datasets.samples_generator import make_blobs
# 生成数据
centers = [[-2, 2], [2, 2], [0, 4]]
# 生成以centers为中心,以标准差cluster_std为点分布松散程度的 数据。由于centers共有三个点,因此 y 分别为三个类别0,1,2
X, y = make_blobs(n_samples=60, centers=centers, random_state=0, cluster_std=0.60)

# 画出数据
plt.figure(figsize=(16, 10), dpi=144)
c = np.array(centers)
plt.scatter(X[:, 0], X[:, 1], c=y, s=100, cmap='cool');         # 画出样本
plt.scatter(c[:, 0], c[:, 1], s=100, marker='^', c='orange');   # 画出中心点

这里写图片描述

from sklearn.neighbors import KNeighborsClassifier
# 模型训练
k = 5
clf = KNeighborsClassifier(n_neighbors=k)
clf.fit(X, y);

# 进行预测
X_sample = [[0,2]]
y_sample = clf.predict(X_sample) 
# 返回训练集X中与样本[0,2]最近的 5 个样本的下标
neighbors = clf.kneighbors(X_sample, return_distance=False)

y_sample
'''
    array([0])
'''

neighbors
'''
    array([[16, 20, 48,  6, 23]], dtype=int64)
'''

# 画出示意图
plt.figure(figsize=(16, 10), dpi=144)
plt.scatter(X[:, 0], X[:, 1], c=y, s=100, cmap='cool');    # 样本
plt.scatter(c[:, 0], c[:, 1], s=100, marker='^', c='k');   # 中心点
plt.scatter(X_sample[0][0], X_sample[0][1], marker="x", 
            c=y_sample[0], s=100, cmap='cool')    # 待预测的点

for i in neighbors[0]:
    plt.plot([X[i][0], X_sample[0][0]], [X[i][1], X_sample[0][1]], 
             'k--', linewidth=0.6);    # 预测点与距离最近的 5 个样本的连线

这里写图片描述

猜你喜欢

转载自blog.csdn.net/made_in_china_too/article/details/82255275
今日推荐