李宏毅深度学习_Backpropagation
本文是李宏毅深度学习 (2015)的学习笔记,主要介绍了神经网络Backpropagation算法的推导过程。本文所用到的图示均来自课堂ppt。
原视频地址:李宏毅深度学习 (2015)
Background
为了使用Gradient Descent对网络参数进行训练,我们就要求出Cost Function对每一层参数的梯度,由于本质上 与 差别不大(可将 看作 中的一项),因此我们这里仅对 进行推导, 推导类似。
链式法则
这里使用求导链式法则先将这个问题拆解成两部分,然后分别对每一部分的求导进行计算。
计算链式法则中拆解的两部分
1. 计算
第一部分的求导分为两种情况:
- 。即当权值不是第一层时,导数为 。
- 。即权值为第一层时,导数为 。
2. 计算
为了描述方便将 描述为 。此时利用BP的思想,先求出最后一层的 ,再找出后一层 与前一层 的关系,以此求出所有的 。
同样根据链式求导法则可以得出
其中 与Cost Function的选取有关。
的变化 会对 造成影响进而影响到下一层的 ,
向量化后得到
总结
至此,我们已经完成了对 的推导,并且实现了向量化。 推导类似。