bp MLP 初始权值

神经元内部包括两个部分,第一个部分是对输入的加权求和,第二个部分是对求和的结果进行“激活”

https://blog.csdn.net/App_12062011/article/details/53420510

这里的o  激活函数:sigmoid  ReLU

see how sensitive this cost func(代价函数) is to the activation of the previous layer  

初始化权值:

一般的做法是随机选择很小的值作为初始权值,但这样做收敛较慢

Nguyen-Widrow算法:

基本思想是每个神经元都有属于自己的一个区间范围,通过初始化权值就可以限制它的区间位置,当改变权值时,该神经元也只是在自己的区间范围内变化,因此该方法可以大大提高收敛速度

对于所有连接输出层的权值和偏移量,初始值为一个在正负1之间的随机数。对于中间层的权值,初始为:

式中,vh是一个在正负1之间的随机数,H为第l-1层神经元的数量。而中间层的偏移量初始为:

式中,vk是一个在正负1之间的随机数,K为第l层神经元的数量,而G为:

Backprop算法有一些不足之处。首先是它的学习效率η是需要我们事先确定好;另外权值的变化是基于误差梯度的变化率,虽然这点乍一看,似乎没有问题,但我们不敢保证它永远正确有效。为此Riedmiller等人提出了RPROP算法(resilient backpropagation),用以改善Backprop算法

式中,常数η+必须大于1,常数η-必须在0和1之间

Δ(0)初始化为0.1是比较正确的选择,而Δmax(t)=50,Δmin(t)=10-6可以有效的防止溢出

猜你喜欢

转载自blog.csdn.net/qq_38858247/article/details/84590890
MLP
BP