Deep learning II - II Optimization algorithms - RMSprop (Root Mean Square prop)均方根传递

RMSprop


  • 相较于gradient descent with momentum,RMSprop的思想是,对于梯度震动较大的项,在下降时,减小其下降速度;对于震动幅度小的项,在下降时,加速其下降速度。
  • 通过使用指数加权平均计算得到 S d w ,   S d b ;使用他们来更新参数(如下图所示)
    这里写图片描述

S d w = β S d w + ( 1 β ) d w 2

S d b = β S d b + ( 1 β ) d b 2

w := w α d w S d w + ϵ

b := b α d b S d b + ϵ

  • ϵ = 10 8 ,是为了保证分母不为零; d w 2 d b 2 指的是element-wise

猜你喜欢

转载自blog.csdn.net/zfcjhdq/article/details/80746066