【论文】【LapSRN】Deep Laplacian Pyramid Networks for Fast and Accurate Super-Resolution

模型框架图(其中一级)

这里写图片描述

若S是我们的放大因子,那么我们在log2S层,渐进的预测残差图。模型主要有两部分:特征提取,图像重构

特征提取

图像重构

对于每一级而言(s层),对输入图像用一个scale等于2的一个上采样层进行操作。然后这个上采样层将和当前层的特征提取分支预测得到的residual图进行相加(利用element-wise summation)。并将相加得到的HR图像输入到下一级中(s+1)。因此整个网络就是一个cascade的cnn架构。

损失函数

由于网络是级联的,因此我们需要对每一级的输出都进行误差的损失,举例来说,当我们的网络一共有2级也就是对图像分辨率提升4倍这样一个实际事例而言。第二级的标签显而易见就是我们给出的HR的高清图,而第一级的标签我们定义为(We use the bicubic downsampling to resize
the ground truth HR image y to ys at each level.)用双立方下采样来得到这一级的标签。如下图所示t_target_image_down就是我们用下采样得到的标签。就是因为这种loss的策略实现了文章中说的我们即使训练的是3级(放大八倍)的网络,我们仍然可以很好的利用前面两级来得到放大两倍或者四倍的超分辨率图。
这里写图片描述

猜你喜欢

转载自blog.csdn.net/qiu931110/article/details/80437076
今日推荐