神经网络与深度学习反向传播算法的四项基本公式

1.定义


w k j l 表示从l-1层的第k个感知器到第l层的第j个感知器的权重

b j l 用来表示l层第j个感知器的偏置项, a j l 则表示l层第j个感知器的激活值(对加权后的输出值使用激活函数非线性处理,激活函数会作用于每一个感知器上也就是不仅仅是最后一个输出)
则有

a j l = k w k j l a j l 1 + b j l

向量化表示:
w l 为权重矩阵, b l 为偏置矩阵, a l 为激活值矩阵, z l 为加权输入矩阵则有:
z l = w l a l 1 + b l

a l = σ ( z l ) = σ ( w l a l 1 + b l )

值得注意的是 z l z j l = k w j k l a k l 1 + b j l 组成,这就是说, z j l 就是第 l层第 j个感知器激活函数的加权输入。
定义l层第j个感知器的错误量 δ j l 为:
δ j l = C z j l

定义中的错误量都是对加权输出的偏导并不是对激活值得偏导

2.基本公式

(1). 输出层错误量的等式:
δ j L = C a j L σ ( z j L )


(2).依据下一层错误量 δ l + 1 获取错误量 δ l 的等式:
δ l = ( ( w l + 1 ) T δ l + 1 ) σ ( z l )


(3).网络的代价函数相对于偏置的改变速率的等式:
C b j l = δ j l


(4).网络的代价函数相对于权重的改变速率的等式:
C w j k l = a k l 1 δ j l

公式证明连接:123
本文用到的公式编辑方式:
公式编辑1公式编辑2公式编辑3

猜你喜欢

转载自blog.csdn.net/u011031257/article/details/80916103