Auto-DeepLab图像语义分割架构(李飞飞等)

论文地址:https://arxiv.org/pdf/1901.02985v1.pdf

参考文章:https://mp.weixin.qq.com/s/xbkFUfJbaw_h_bCZj3pdAQ

斯坦福大学李飞飞组的研究者提出了 Auto-DeepLab,其在图像语义分割问题上超越了很多业内最佳模型,甚至可以在未经过预训练的情况下达到预训练模型的表现。

论文主要有如下4个方面的贡献:

  • 首次将 NAS 从图像分类任务扩展到密集图像预测任务的尝试之一。

  • 提出了一个网络级架构搜索空间,它增强和补充了已经得到深入研究的单元级架构搜索,并对网络级和单元级架构进行更具挑战性的联合搜索。

  • 提出了一种可微的连续方式,保证高效运行两级分层架构搜索,在一个 GPU 上仅需 3 天。

  • 在未经 ImageNet 预训练的情况下,Auto-DeepLab 模型在 Cityscapes 数据集上的性能显著优于 FRRN-B 和 GridNet,同时也和 ImageNet 预训练当前最佳模型性能相当。在 PASCAL VOC 2012 和 ADE20K 数据集上,最好的 Auto-DeepLab 模型优于多个当前最优模型。

但更高语义级别的出现一些误判,比如:

论文指出,最后一排,行人和骑自行车的人被划为一类了(在我看来,为什么不可以是一类?)

第一排,壁炉和壁画划成了一类;第二排,窗户和壁画划成了一类;最后一排,将地板和地毯划成了一类。

猜你喜欢

转载自blog.csdn.net/weixin_41770169/article/details/86540820