Ridge回归 sklearn API参数速查手册

Ridge回归 sklearn API参数速查手册

语法sklearn.linear_model.Ridge(alpha=1.0,fit_intercept=True, normalize=False,copyX=True, maxiter=None, tol=0.001,solver='auto', random_state=None)Parametersalpha

释义: 正则化项系数,较大的值指定更强的正则化

设置:Alpha对应于其他线性模型(如Logistic回归或LinearSVC)中的C^-1。如果传递数组,则假定惩罚被特定于目标。因此,它们必须在数量上对应。

fit_intercept

释义:是否计算该模型的截距

设置:bool型,可选,默认True;如果使用中心化的数据,可以考虑设置为False,不考虑截距

normalize

释义:是否对数据进行标准化处理,若不计算截距,则忽略此参数

设置:bool型,可选,默认False,建议将标准化的工作放在训练模型之前,通过设置sklearn.preprocessing.StandardScaler来实现,而在此处设置为false;当fit_intercept设置为false的时候,这个参数会被自动忽略。如果为True,回归器会标准化输入参数:减去平均值,并且除以相应的二范数

copy_X

释义:是否对X复制

设置:bool型、可选、默认True;如为false,则即经过中心化,标准化后,把新数据覆盖到原数据X上

max_iter

释义:共轭梯度求解器的最大迭代次数,需要与solver求解器配合使用

设置:solver为sparse_cg和lsqr时,默认由scipy.sparse.linalg确定,solver为sag时,默认值为1000

tol

释义:计算精度

设置:float型,默认=1e-3

solver

释义:求解器{auto,svd,cholesky,lsqr,sparse_cg,sag,saga}

设置:

aotu:根据数据类型自动选择求解器

svd:使用X的奇异值分解计算岭系数,奇异矩阵比cholesky更稳定

cholesky:使用标准的scipy.linalg.solve函数获得收敛的系数

sparsecg:使用scipy.sparse.linalg.cg中的共轭梯度求解器。比cholesky更适合大规模数据(设置tol和maxiter的可能性)

lsqr:专用的正则化最小二乘方法scipy.sparse.linalg.lsqr

sag:随机平均梯度下降;仅在fit_intercept为True时支持密集数据

saga:sag改进,无偏版.采用SAGA梯度下降法可以使模型快速收敛

random_state

释义:随机数生成器的种子,仅在solver="sag"时使用

设置:int型, 默认None

Attributescoef_

返回模型的估计系数(权重向量)

intercept_

线性模型的独立项,一维情形下的截距

niter

实际迭代次数

Methodsfit(self, X, y[, sample_weight])

输入训练样本数据X,和对应的标记y

get_params(self[, deep])

返回函数linear_model.Ridge()内部的参数值

predict(self, X)

利用学习好的线性分类器,预测标记

score(self, X, y[, sample_weight])

返回模型的拟合优度判定系数

set_params(self, **params)

设置函数linear_model.Ridge()内部的参数

本文由博客一文多发平台 OpenWrite 发布!

发布了164 篇原创文章 · 获赞 6 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/jpld/article/details/104242426