scikit-learn使用KNN进行回归

k近邻算法的核心思想是未标记样本的类别,由距离其最近的k个邻居投票决定。
该算法具有准确性高,对异常值和噪声有较高的容忍度等优点。缺点是计算量比较大,内存消耗量也大。
Text:
code:
import numpy as np
import matplotlib.pyplot as plt
from sklearn.neighbors import KNeighborsRegressor


n_dots = 40
X = 5 * np.random.rand(n_dots, 1)
y = np.cos(X).ravel()

#add noise
y += 0.1 * np.random.rand(n_dots) - 0.1

#KNN Regression
k = 5
knn = KNeighborsRegressor(k)
knn.fit(X,y)
prec = knn.score(X, y)  #计算拟合曲线针对训练样本的拟合准确性
print(prec)

#generate enough predict data
T = np.linspace(0, 5, 500)[:, np.newaxis]
y_pred = knn.predict(T)

#draw regress curve
plt.figure(figsize=(16, 10), dpi = 144)
plt.scatter(X, y, c='g', label='data', s=100) #训练样本
plt.scatter(T, y_pred, c='k', label='prediction', lw=2) #拟合曲线
plt.axis('tight')
plt.title('KNN regression (k =%i)'%k)
#plt.title()
plt.show()
#print(X)
#print(y)

plt.show()

猜你喜欢

转载自blog.csdn.net/szfhy/article/details/80202321