【论文学习记录】Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation

版权声明:本文为博主原创文章,未经作者允许请勿转载。 https://blog.csdn.net/heiheiya https://blog.csdn.net/heiheiya/article/details/88552691

这篇论文是对deeplabv3架构的改进,即deeplabv3+,论文原文《Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation》。

这里就是记录一些关键点,比较简略,详细的内容【论文学习记录】Rethinking Atrous Convolution for Semantic Image Segmentation已经提到了。

Deeplabv3+主要是以deepLabv3做encoder架构,添加一个简单有效的decoder模块用于细化分割结果。

DeepLabV3+ 采用deepLabV3 输出的 feature map 作为encoder-decoder结构的编码输出。编码输出 feature map 是 256 channels 的,包含丰富的语义信息。

DeepLabV3 中的output stride = 16,对 feature map 直接采用因子为 16 的双线性上采样恢复特征,但是这样不足以重构物体分割细节。

DeepLabV3+解码模块中,首先将编码特征采用因子 4 的双线性上采样;然后,连接从主干网络所输出的对应的具有相同空间分辨率的 low-level 特征。

并且deeplabv3基于MSRA的Aligned Xception进一步做了改进,替代原来的ResNet-101作为encoder部分的后端。

 

猜你喜欢

转载自blog.csdn.net/heiheiya/article/details/88552691