LR 逻辑回归模型

1. 原理

LR虽然叫逻辑回归,但LR即可以用来回归,也可以用来分类,主要是二分类。LR可以被认为是一个被sigmoid函数所“归一化”后的结果。

2. 算法步骤

(1)寻找h函数(即hypothesis);
(2)构造J函数(损失函数);
(3) 想办法使得J函数最小并求得回归参数(θ)

2.1 寻找h函数

在线性回归中:
h ( θ ) = θ T X = θ 0 + θ 1 x 1 + θ 2 x 2 + . . . . . . + θ n x n h(θ) = θ^TX = θ_0 + θ_1x_1+θ_2x_2+......+θ_nx_n
在此引入sigmoid函数:
sigmoid函数
sigmoid函数图像如下图所示:
sigmoid函数图像
在这里插入图片描述
为什么引入sigmoid函数?(面试问过)
(1)定义域:(−∞,+∞)
(2)值域:(0,1), 且在0.5处为中心对称,并且越靠近x=0的取值斜率越大
(3)函数在定义域内为连续和光滑函数
(4)处处可导,导数为:f’(x) = f(x)(1−f(x))

sigmoid函数求导过程?(面试要求推导过)
在这里插入图片描述
以下逻辑回归的代价函数怎么得到的?
在这里插入图片描述
推导如下
在这里插入图片描述
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/u013075024/article/details/90632547