scikit-learn学习基础知识三

scikit-learn学习基础知识三

一、贝叶斯回归

"""
线性模型有很多,我们之前有过简单线性回归以及岭回归,
由于线性模型数目众多,无法直接学完,因此,主要学习重点的内容。

前面学过了简单线性回归以及岭回归,后面选择重点内容进行学习。
"""

"""
贝叶斯回归(贝叶斯岭回归)
"""

from sklearn import linear_model
# 贝叶斯岭回归


X = [[0., 0.], [1., 1.], [2., 2.], [3., 3.]]
Y = [0., 1., 2., 3.]
# data

reg = linear_model.BayesianRidge()  # 贝叶斯岭回归
# 实例化

reg.fit(X, Y)
# 贝叶斯岭回归

# 贝叶斯岭回归

# c

print(reg.predict([[1,0]]))
# [0.50000013]

print(reg.coef_)
# [0.49999993 0.49999993]

# [0.50000013]
# [0.49999993 0.49999993]

# PS E:\1\Documents\PyTorch> & C:/Users/1/AppData/Local/Programs/Python/Python38/python.exe e:/1/Documents/PyTorch/pytorch/others/sklearn/sklearn_learning/sklearn_learning5.py
# [0.50000013]
# [0.49999993 0.49999993]
# PS E:\1\Documents\PyTorch> 


二、逻辑回归与多项式回归

"""




Logistic Regression.




逻辑回归

这个暂时没有应用的案例,后续有了会进行补充的。
"""


"""
多项式回归。





一个多项式回归的例子:


"""


from sklearn.linear_model import Perceptron
from sklearn.preprocessing import PolynomialFeatures
import numpy as np


X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = X[:, 0] ^ X[:, 1]
X = PolynomialFeatures(interaction_only=True).fit_transform(X).astype(int)

clf = Perceptron(fit_intercept=False, max_iter=10, tol=None, shuffle=False).fit(X, y)

print(clf.predict(X))
print(clf.score(X, y))

# [0 1 1 0]
# 1.0



# PS E:\1\Documents\PyTorch> & C:/Users/1/AppData/Local/Programs/Python/Python38/python.exe e:/1/Documents/PyTorch/pytorch/others/sklearn/sklearn_learning/sklearn_learning6.py
# [0 1 1 0]
# 1.0
# PS E:\1\Documents\PyTorch> 





三、总结

以上就是贝叶斯回归,逻辑回归,多项式回归,谢谢大家的阅读与支持了啦。

おすすめ

転載: blog.csdn.net/m0_54218263/article/details/122494301