- 所有神经网络处理的的数据都是平均值接近0,标准差接近1的,这样可以保证神经网络尽快的收敛
- batchNormalization是指从数据中减去平均值,然后再除以标准差的操作,可以像一个层一样添加到激活函数输入前面
为什么要进行batchNormalization?
猜你喜欢
转载自www.cnblogs.com/rise0111/p/11619769.html
今日推荐
周排行