深度学习-1x1卷积如何减少模型参数

以googlenet中的inception模块为例,来说明1x1的卷积如何来减少模型参数。 
inception
左边是naive的inception模块,右边是加入1x1 convolution进行降维的inception。按照上面的说法,我们的这层的模型参数与输入的特征维数(28x28x192),卷积核大小以及卷积通道数(包括三种卷积核,分别是1x1x64,3x3x128,5x5x32),右图中在3x3,5x5 convolution前新加入的1x1的卷积核为96和16通道的,在max pooling后加入的1x1卷积为32通道。那么图a该层的参数为(1x1x192x64)+(3x3x192x128)+(5x5x192x32) 
图b该层的参数为(1x1x192x64)+(1x1x192x96)+(1x1x192x16)+(3x3x96x128)+(5x5x16x32)+(1x1x192x32). 

比较可知,模型参数减少了。 

参考:https://blog.csdn.net/a1154761720/article/details/53411365

猜你喜欢

转载自blog.csdn.net/qq_41994006/article/details/81022472