神经网络不同激活函数比较--读《Understanding the difficulty of training deep feedforward neural networks》

转载:https://ziyubiti.github.io/2016/11/01/actfunpaper/

         这篇论文比较了不同激活函数的中间各隐层输出值分布、梯度值分布、测试准确度等,从上图看出,至少在mnist和cifar10测试集下,看起来tanh和softsign都要好于sigmoid。

猜你喜欢

转载自blog.csdn.net/weixin_41991401/article/details/85633529
今日推荐