简单粗暴理解与实现机器学习之逻辑回归(二):逻辑回归api介绍sklearn.linear_model.LogisticRegression(solver='liblinear', penalty=‘

逻辑回归

学习目标

  • 知道逻辑回归的损失函数

  • 知道逻辑回归的优化方法

  • 知道sigmoid函数

  • 知道逻辑回归的应用场景

  • 应用LogisticRegression实现逻辑回归预测

  • 知道精确率、召回率指标的区别

  • 知道如何解决样本不均衡情况下的评估

  • 了解ROC曲线的意义说明AUC指标大小

  • 应用classification_report实现精确率、召回率计算

  • 应用roc_auc_score实现指标计算

  • 在这里插入图片描述

  • 3.2 逻辑回归api介绍

  • sklearn.linear_model.LogisticRegression(solver=‘liblinear’, penalty=‘l2’, C = 1.0)

    • solver可选参数:{‘liblinear’, ‘sag’, ‘saga’,‘newton-cg’, ‘lbfgs’},
      • 默认: ‘liblinear’;用于优化问题的算法。
      • 对于小数据集来说,“liblinear”是个不错的选择,而“sag”和’saga’对于大型数据集会更快。
      • 对于多类问题,只有’newton-cg’, ‘sag’, 'saga’和’lbfgs’可以处理多项损失;“liblinear”仅限于“one-versus-rest”分类。
    • penalty:正则化的种类
    • C:正则化力度

默认将类别数量少的当做正例

LogisticRegression方法相当于 SGDClassifier(loss=“log”, penalty=" "),SGDClassifier实现了一个普通的随机梯度下降学习。而使用LogisticRegression(实现了SAG)

发布了607 篇原创文章 · 获赞 809 · 访问量 10万+

猜你喜欢

转载自blog.csdn.net/qq_35456045/article/details/104644793