算法笔记2——逻辑回归

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/IOT_victor/article/details/83056169

目录

一、二元分类问题

1.1 二分类任务

1.2 对数几率

1.3 极大似然法(maximum likelihood)

1.4 优化算法

1.5 模型综述

二、两种角度看待逻辑回归

2.1 统计学角度:似然函数

2.2 机器学习角度:损失函数 

2.3 最终预测:从概率到选择

三 、模型评估

四、多元逻辑回归

五、scikit-learn 中 logistic regression 参数


一、二元分类问题

Logistic regression ( 逻辑回归 ) ,尽管它的名字是回归,但通常作为分类算法。 Logistic Regression 在文献中也被称为 logit 回归,maximum-entropy classification ( MaxEnt ) ( 最大熵分类 ) 或 log-linear classifier ( 对数线性分类器 ) 。

1.1 二分类任务

找到一个单调可微函数(sigmod函数),将分类任务的真实标记y与线性回归模型的预测值联系起来。

(1-1)

1.2 对数几率

对数几率(log odds)

由(1-1)变化得到

其中

(1-2)

(1-2)

1.3 极大似然法(maximum likelihood

①极大似然法:最大化对数似然函数

初始化参数

再令P为

则似然项可重写为

(1-3)

②将最大化问题转换为最小化负对数似然函数求解

(1-3)

1.4 优化算法

梯度下降法、牛顿法等

(1-4)

1.5 模型综述

二、两种角度看待逻辑回归

2.1 统计学角度:似然函数

与线性回归类似,为了估计模型参数,需要定义一个合理的参数似然函数(或者模型损失函数)。然后根据此函数,推导出模型参数估计值的表达式。

统计学角度考虑:根据模型,数据出现的概率越大越好(即最大似然估计法)

见1.3

2.2 机器学习角度:损失函数 

借鉴统计学中的做法,定义损失函数如下

交叉熵

交叉熵代价函数(损失函数)及其求导推导

2.3 最终预测:从概率到选择

逻辑回归模型的直接预测结果并不是非事件发生与否,而是事件放生的概率。

简而言之,逻辑回归的结果并非我们想要的最终分类结果,而是需要 进一步处理的中间结果。

三 、模型评估

F1-score、ROC曲线与AUC

四、多元逻辑回归

OvR(也叫OvA)、OvO

五、scikit-learn 中 logistic regression 参数

LogisticRegression参数详解

参考资料

[1] 《机器学习》周志华

[2] 《精通数据科学》唐亘

[3] 《统计学习方法》李航

猜你喜欢

转载自blog.csdn.net/IOT_victor/article/details/83056169