2.9 Logistic Regression Gradient descent 《神经网络和深度学习 》吴恩达 Andrew Ng

2.9 Logistic Regression Gradient Descent(Logistic回归的梯度下降法)

我来对图中框起来的两个结果做一个过程推导:

① L(a,y)=-(ylog(a) + (1-y)log(1-a)   →    \frac{dL(a,y)}{da} = -[y\frac{1}{a} + (1-y)\frac{-1}{1-a}]=\frac{-y}{a} + \frac{1-y}{1-a}

②   a=sigma(z)=\frac{1}{1+e^-^z}a=\frac{1}{1+e^-^z}      →   a(1+e^-^z)=1   →     \frac{da}{dz}(1+e^-^z) - ae^-^z =0

因为化解a、z的表达式 可得  e^-^z=\frac{1}{a}-1=\frac{1-a}{a}   →     \frac{da}{dz}=\frac{ae^-^z}{1+e^-^z} = a^2\frac{1-a}{a}=a(1-a)

猜你喜欢

转载自blog.csdn.net/qq_38689263/article/details/108901992