alexnet的具体卷积步骤

其具体的卷积计算步骤如下所示:

Alexnet有一个特殊的计算层,LRN层,做的事是对当前层的输出结果做平滑处理。下面是我画的示意图:

前后几层(对应位置的点)对中间这一层做一下平滑约束,计算方法是:

具体打开Alexnet的每一阶段(含一次卷积主要计算)来看[2][3]

1con- relu - pooling - LRN


具体计算都在图里面写了,要注意的是input层是227*227,而不是paper里面的224*224,这里可以算一下,主要是227可以整除后面的conv1计算,224不整除。如果一定要用224可以通过自动补边实现,不过在input就补边感觉没有意义,补得也是0

2conv- relu - pool - LRN


和上面基本一样,唯独需要注意的是group=2,这个属性强行把前面结果的featuremap分开,卷积部分分成两部分做。

3conv- relu


4conv-relu


5conv- relu - pool

6fc- relu - dropout


这里有一层特殊的dropout层,在alexnet中是说在训练的以1/2概率使得隐藏层的某些neuron的输出为0,这样就丢到了一半节点的输出,BP的时候也不更新这些节点。

7fc - relu - dropout


8fc- softmax

 

猜你喜欢

转载自blog.csdn.net/xyyhlark01/article/details/79602062