scikit-learn 逻辑回归

逻辑回归官方使用文档:https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html#sklearn.linear_model.LogisticRegression

class sklearn.linear_model.LogisticRegression(penalty=’l2’, dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver=’warn’, max_iter=100, multi_class=’warn’, verbose=0, warm_start=False, n_jobs=None)

参数:

dual : bool, default: False

对偶或原始公式。 昂实用对偶形式时,仅使用liblinear解算器实现l2惩罚。 当n_samples> n_features时,首选dual = False。

intercept_scaling : float, default 1.

仅在使用求解器“liblinear”且self.fit_intercept设置为True时有用。 在这种情况下,x变为[x,self.intercept_scaling],即具有等于intercept_scaling的常数值的“合成”特征被附加到实例矢量。 截距变为intercept_scaling * synthetic_feature_weight(合成特征权重)。

注意! 合成特征权重与所有其他特征一样经受l1 / l2正则化。 为了减小正则化对合成特征权重(并因此对截距)的影响,必须增加intercept_scaling。

solver : str, {‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’, ‘saga’}, default: ‘liblinear’.

用于优化问题的算法。(学习算法)

  • 对于小数据集,'liblinear'是一个不错的选择,而'sag'和'saga'对于大数据集来说更快。
  • 对于多类问题,只有'newton-cg','sag','saga'和'lbfgs'处理多项式损失; 'liblinear'仅限于ovr方案。
  • 'newton-cg','lbfgs'和'sag'只处理L2惩罚,而'liblinear'和'saga'处理L1惩罚。

请注意,“sag”和“saga”快速收敛仅在具有大致相同比例的范围上得到保证。 您可以使用sklearn.preprocessing中的缩放器预处理数据。

New in version 0.17: Stochastic Average Gradient descent solver.

New in version 0.19: SAGA solver.

Changed in version 0.20: Default will change from ‘liblinear’ to ‘lbfgs’ in 0.22.

warm_start : bool, default: False

设置为True时,重用上一次调用的解决方案以适合初始化,否则,只需擦除以前的解决方案。 对于liblinear解算器没用。 请参阅词汇表。

New in version 0.17: warm_start to support lbfgs, newton-cg, sag, saga solvers.

n_jobs : int or None, optional (default=None)

如果multi_class ='ovr'“,则在对类进行并行化时使用的CPU核心数。 无论是否指定了“multi_class”,当求解器设置为“liblinear”时,都会忽略此参数。 None表示1。 -1表示使用所有处理器。 有关详细信息,请参阅词汇表。

猜你喜欢

转载自blog.csdn.net/yingzoe/article/details/86661264
今日推荐