吴恩达机器学习(第十章)---神经网络的反向传播算法

一、简介

我们在执行梯度下降的时候,需要求得J(θ)的导数,反向传播算法就是求该导数的方法。正向传播,是从输入层从左向右传播至输出层;反向传播就是从输出层,算出误差从右向左逐层计算误差,注意:第一层不计算,因为第一层是输入层,没有误差。

二、如何计算

\delta^l_j为第l层,第j个的误差。

以上图为例,\delta^4_j=a^4_j-y_j(y理想应该得到的结果,a是计算得到的激活项)

 \delta^3_j=(\theta^{(3)})^T\delta^4_j.*g'(z^3) -----g'(z^3)=a^3.*(1-a^3)           

\delta^2_j=(\theta^{(2)})^T\delta^3_j.*g'(z^2)-----g'(z^2)=a^2.*(1-a^2)

\frac{\partial }{\partial \theta^{l}_{ij}}=a^l_{i}\delta^{(l+1)}_{j}(忽略正则项)

计算过程

三、梯度检验

用斜率的计算方法来检验梯度下降进行的是否正确

\frac{d}{d\theta}J(\theta)=\frac{J(\theta+\varepsilon )-J(\theta-\varepsilon )}{2\varepsilon }

拓展可得 \frac{d}{d\theta_j}J(\Theta)=\frac{J(\theta_1...+\theta_j+\varepsilon+...+\theta_n )-J(\theta_1...+\theta_j-\varepsilon +...+\theta_n)}{2\varepsilon }(当j取1的时候,第一个θ_1就不存在,取n也一样)。

如果\frac{d}{d\theta}J(\theta)\approx \frac{\partial}{\partial \theta}J(\theta)说明梯度下降执行正确。

四、随机初始化

在初始化θ的时候,对θ向量要随机初始化,不能直接全部初始化为0。

猜你喜欢

转载自blog.csdn.net/naocanmani/article/details/83507750
今日推荐