文章阅读:Dual Attention Network for Scene Segmentation

原文地址Dual Attention Network for Scene Segmentation

概述

多尺度上下文融合的问题:
虽然上下文融合有助于捕获不同比例的对象,但它无法利用全局视图中对象或内容之间的关系,这对于场景分割也是必不可少的。
贡献:

  1. 提出了一种具有自我关注机制的新型双注意网络(DANet),以增强场景分割的特征表示的判别能力。
  2. 议使用位置注意模块来学习特征的空间相互依赖性,并设计通道注意模块来模拟通道相互依赖性。它通过在本地特征上建模丰富的上下文依赖关系,显着改善了分割结果。
  3. 在三个流行的基准测试中获得了最新的最新结果,包括Cityscapes数据集[5],PASCAL Context数据集[14]和COCO Stuff数据集[2]。

方法

双重注意网络结构图如下所示:

  • 文章采用预扩展的残余网络,deeplab v2作为主干,删除了下采样操作并在最后两个ResNet块中使用了扩散卷积,从而将最终特征映射大小的大小扩大到输入图像的1/8。
  • 来自扩张的残余网络的特征将被馈送到两个并行的注意模块中。
  • 对上面的乘法结果矩阵和原始特征执行逐元素和运算,以获得反映长程上下文的最终表示。同时,信道维度中的远程上下文信息由信道关注模块捕获。
  • 我聚合来自两个关注模块的输出,以获得更好的像素级预测的特征表示。

位置注意模块和通道注意模块的详细信息如(A)和(B)所示:
建议的Res路径。与其直接将编码器特征图与解码器特征

发布了18 篇原创文章 · 获赞 2 · 访问量 787

猜你喜欢

转载自blog.csdn.net/purson2/article/details/103578403