使用sklearn实现岭回归(ridge)

性感官方,在线文档
在线文档
注:Ridgecv 相当于自动做k折交叉验证的Ridge,忽略不学。

from sklearn.linear_model import Ridge
model_ridge = Ridge()

参数

alpha
L2正则化的权重,默认为1.0
fit_intercept
默认True,是否设置偏置
normalize
默认False 是否进行标准差标准化
copy_X
默认 False 是否进行浅复制
n_jobs
默认None(1),可使用CPU数量
solver
默认是auto,模型会根据数据的类型自动选择
共有这些算法{‘auto’, ‘svd’, ‘cholesky’, ‘lsqr’, ‘sparse_cg’, ‘sag’, ‘saga’},算法的内容百度吧。
max_iter
算法的最大迭代次数。
tol
浮点数,算法的终止条件,precision
random_state
Used when solver == ‘sag’ or ‘saga’ to shuffle the data

伊泽瑞尔看出,调参alpha就可以了。

属性

coef_
train_x各个特征的权重
rank_
train_x特征的数量
intercept_
train_x各个特征的偏置

方法

fit(x,y,sample_weight)
sample_weight是一个[],里面每个原始是每个sample的权重
get_params(deep=True)
获取模型的各个参数(非超参数,是设置的模型参数)
predict(X)
预测
score(x,y,sample_weight)
模型对x进行预测,然后将预测值与y进行比较,返回分数(r2)
set_params(参数
重设参数

猜你喜欢

转载自blog.csdn.net/weixin_44414593/article/details/107214547