(2017-ICCV)Image Super-Resolution Using Dense Skip Connections

  本文提出了一种新颖的SR方法DenseNet,用稠密块串联起各层的特征,使得整个网络减轻了梯度消失问题、加强了特征传播、减少了参数数量,并达到了很好的超分辨效果。

  许多SR方法都是假设图像中的高频信息是过剩的,因此只需要通过低频信息就能够准确预测出SR图像。因此,从LR图像中收集大区域中的邻近信息用于恢复HR图像中的图像细节非常重要。而DenseNet经过实验发现,将网络中low-level和high-level的信息结合起来用于重建HR图像效果很好,这说明在实现超分辨的过程中,各级的特征映射中有互补的信息存在,即low-level和high-level的信息对于重建图像的细节都有重要的贡献。

  DenseNet主要有四个部分:卷积层、稠密块、反卷积层和重建层。

  ①convolutional layer:学习low-level的特征;

  ②dense blocks:学习high-level的特征;

  ③deconvolutional layers:学习上采样滤波器,将图像放大;

  ④reconstruction layer:产生HR输出图像;

  ⑤bottleneck layer:减少输入的特征映射数,使得模型更加紧凑并提高计算效率。

  DenseNet使用的三项主要技术来提高SR效果:

  ①使用稠密块来避免梯度消失问题,使得训练深度网络变得可行;

  ②使用跳过连接的方法将low-level和high-level特征融合在一起;

  ③使用连续的反卷积层能够提高重建效果,避免了使用双三次插值等方法来实现倍数放大。

  DenseNet通过三种方式来提高运行速度:

  ①使用1*1的卷积层能够很大程度减少网络的参数;

  ②使用反卷积层来降低计算复杂度;

  ③在稠密块中使用16的小增长率,意味着每层卷积层只需要16个新的特征映射,尽管增长率很小,但是由于各级特征的融合,参数的数量也是很大的。这使得重新使用和提供丰富的信息用于图像重建成为可能。

猜你喜欢

转载自www.cnblogs.com/rainton-z/p/11926342.html