scikit-learn学习基础知识二

scikit-learn学习基础知识二

一、介绍

本文我们学习scikit-learn中的KNeighborRegressor函数来实现KNN回归进行分类的案例。

二、代码实现

"""

K-NN

KNN的一个案例。

KNN一个预测的案例以及进行打分的内容。


"""


import numpy as np
from sklearn.neighbors import KNeighborsRegressor
from sklearn.metrics import mean_absolute_error, mean_squared_error, r2_score


X_train = np.array([[158, 1], [170, 1], [183, 1], [191, 1], [155, 0], [163, 0], [180, 0], [158, 0], [170, 0]])
y_train = [64, 86, 84, 80, 49, 59, 67, 54, 67]

X_test = np.array([[168, 1], [180, 1], [160, 0], [169, 0]])
y_test = [65, 96, 52, 67]

K = 3

clf = KNeighborsRegressor(n_neighbors=K)
clf.fit(X_train, y_train)
# 训练模型。
predictions = clf.predict(X_test)
# 进行预测。

print(predictions)
print(r2_score(y_test, predictions))
# 打分。
print(mean_absolute_error(y_test, predictions))
print(mean_squared_error(y_test, predictions))
# 误差。


"""
运行结果。

[70.66666667 79.         59.         70.66666667]
0.6290565226735438
8.333333333333336 
95.8888888888889
"""







三、运行结果

[70.66666667 79.         59.         70.66666667]
0.6290565226735438
8.333333333333336 
95.8888888888889  

四、总结

以上就是使用KNeighborRegressor函数来实现KNN邻近算法的阿里,谢谢大家的阅读与支持啦。

おすすめ

転載: blog.csdn.net/m0_54218263/article/details/122469962