Inception v2

论文:

 Inception[V2]: Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

https://arxiv.org/abs/1502.03167

Inception v2的网络,代表作为加入了BN(Batch Normalization)层,并且使用2个3*3替代1个5*5卷积的改进googleNet。

相对一Inception v1改进:

1.加入了BN层,减少了InternalCovariate Shift(内部神经元的数据分布发生变化),使每一层的输出都规范化到一个N(0, 1)的高斯,从而增加了模型的鲁棒性,可以以更大的学习速率训练,收敛更快,初始化操作更加随意,同时作为一种正则化技术,可以减少dropout层的使用。

2.学习VGG用2个3x3的conv替代5x5的conv,在降低参数的同时建立了更多的非线性变换,使得 CNN 对特征的学习能力更强

参考:

https://www.cnblogs.com/haiyang21/p/7243200.html

https://blog.csdn.net/qq_14845119/article/details/73648100

猜你喜欢

转载自blog.csdn.net/u010349092/article/details/81604732