融合轻量级ViT与CNN的广范围红外图像超分辨率重建

摘要

卷积神经网络的注意力机制模型重建波长范围广的红外图像时只能聚焦于局部特征、感受野小,为此提出一种适用于重建广范围红外图像的融合轻量级视觉Transformer(ViT)与卷积神经网络的模型。该模型采用改进的轻量级残差块结合轻量级ViT块构建全局自注意力机制模型,学习不同特征图区域之间的长距离注意力依赖关系以辅助重建,约束解空间,采用Huber损失函数使模型稳定收敛,通过迭代上下采样的方式挖掘高低分辨率图像对的深层变换关系。使用近红外图像和远红外图像数据集进行实验,该模型以1 031K的参数量在峰值信噪比和结构相似度比较中超越了参数量为1 518K的轻量级模型SRResNet和1 592K的CARN,接近于参数量为4 543K的重量级模型EDSR,表明该模型可以有效重建不同波长的红外图像。

0 引言

图像超分辨率重建是指根据低分辨率图像(Low ResolutionLR)通过一定方法重新构建成为高分辨率图像(High Resolu

猜你喜欢

转载自blog.csdn.net/weixin_70923796/article/details/131226571