Batch Norm 对神经网络中的每一层进行正则化(未完成)

这个算法主要是解决了每一层中的正则化问题

其实我觉得这东西很鸡肋,因为我输入已经归一化了

然后初始的w,b也很小

每一层的输出肯定也很小

使用Batch Norm反而会加大训练时间,弱化神经网络中参数的作用

 z(i)是这一层神经网络中第i个神经元,经过激活函数的输出

为了是下一层的输入比较相近,我们就需要使用Batch Norm

猜你喜欢

转载自www.cnblogs.com/shensobaolibin/p/8955701.html
今日推荐