逻辑回归
sigmoid(x)=1−e−x1
Cost(hθ(x),y)={−log(hθ)−log(1−hθ(x))ifify==1y==0
上式中
hθ=sigmoid(θTx)
J(θ)=m1i=1∑mcost(hθ(xi),yi)=−m1[i=1∑myiloghθ(xi)+(1−yi)log(1−hθ(xi))]
- 正则化后的损失函数(
L2函数)
J(θ)=−m1[i=1∑myiloghθ(xi)+(1−yi)log(1−hθ(xi))]+2mλj=1∑nθj2
逻辑回归的综合损失函数是一个凸函数,因此可以使用梯度下降法直接求最小值
- one vs one
将N个类别两两配对,形成
N(N−1)/2个分类任务。再测试阶段,新样本被提交给所有而分类器,然后我们将得到
N(N−1)/2个分类结果,最终结果可通过投票产生:即把被预测得最多的类作为最终分类结果
- one vs rest
将一个类的样例作为正例,其他所有类的样例最为反例来训练N个二分类器。然后选择置信度最大的类别作为分类结果
线性回归
Lθk′=m1i=1∑m(θTxi−yi)xki
扫描二维码关注公众号,回复:
5122125 查看本文章
θk:=θk−ηLθk′
θk:=θk−η(m1i=1∑m(θTxi−yi)xki)
- 从上式可知每个
θ的更新都需要使用训练集中的所有样本因此提出了以下解决方案
- 随机梯度下降法
每次只取其中的一个条数据参与
θ的更新
- 小批量梯度下降法
每次取其中的一部分数据参与
θ的更新
持续更新中…