DeseNet

论文链接:https://arxiv.org/pdf/1608.06993.pdf

  1. DesNet优点:
    (1) they alleviate the vanishing-gradient problem.
    (2) strengthen feature propagation.
    (3) encourage feature reuse.
    (4) substantially reduce the number of parameters.
     读完论文多遍之后还是没体会到这四个优点,大神的世界真是看不懂!(后续补全)

  2. ResNet与DenseNet的一个区别:
    An advantage of ResNets is that the gradient can flow directly through the identity function from later layers to the earlier layers. However, the identity function and the output of Hl are combined by summation, which may impede the information flow in the network.

  3. DenseNet为什么要分块?块内块外卷积分别有什么区别或者物理含义?
    (1)论文中提到要做Concatenate (参见),那么就需要Feature Map的Size一致,因此论文将整个网络结构分成几个Block,那么在单个Block内部Feature Map的Size就一致了,可以进行Concatenate 。
    (2)块内每层33卷积前面都有一个11卷积,11卷积主要是减少输入的Feature Map数量,既能降维减少计算量,又能融合各个通道的特征。这就是Bottleneck layers
    在这里插入图片描述
    (3)块之间的1
    1卷积因为每个Dense Block结束后的输出channel个数很多,需要用1*1的卷积核来降维。这就是Transition layer。由于不需要进行 Elewise-wise 操作,所以在每个单元模块的最后不需要一个 1X1 的卷积来将特征层数升维到和输入的特征维度一致。

  4. DesNet block外面的下采样目的是什么?是如何实现的?
    论文提到是为了改变特征图尺寸,可是在block之间的尺寸大小没有联系呀!

猜你喜欢

转载自blog.csdn.net/qq_33254870/article/details/88916738