【论文阅读】2020.CVPR.C2FNAS Coarse-to-Fine Neural Architecture Search for 3D Medical Image Segmentation

在这里插入图片描述
本周阅读的论文是2020年发表在CVPR上的名叫:
《C2FNAS:用于三维医学图像分割的从粗到精的神经结构搜索》的论文。


在这里插入图片描述
艾伦·尤耶尔(Alan L.Yuille)教授是约翰·霍普金斯大学(Johns Hopkins University)的杰出的认知科学和计算机科学教授,也是计算机视觉的奠基人之一。 他领导着有关成分认知,视觉和学习的研究小组。他于2016年1月移居到约翰·霍普金斯大学。他的研究兴趣包括视觉计算模型,认知数学模型,医学图像分析以及人工智能和神经网络。

在这里插入图片描述
上述右图图1展示的是来自MSD医学图像分割任务中关肿瘤于的图像和掩码的一些示例。图像的异常、纹理变化和各向异性都会造成很大的挑战。红色、绿色和蓝色分别对应于每个数据集的标签1、2和3。


作者在分析了对于3D医学图像分割任务网络规模大造成的耗费内存问题,单单靠牺牲输入大小是不可行的,这通常会导致收敛不稳定的训练问题。为了解决这个问题,将NAS与医学图像分割相结合,提出了一种从粗略到精细的神经结构搜索算法,用于自动设计三维分割网络。
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
图3展示的是如何通过引入先验帮助减小搜索空间的示例。灰色节点将从图中完全消除。此外,还清除了许多非法路径。非法路径和合法路径的示例分别显示为橙色线路径和绿色线路径。这样就减小了搜索空间以使搜索过程更加集中和有效。


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
表1中可以看出通过DSC系数测量MSD挑战测试集,并与最先进的方法进行比较。*表示5层模型集成。作者还分别报告任务和目标的平均值,以便对所有任务/目标进行总体比较,从平均值来看可以看出整体性能和鲁棒性还是很不错的。

作者的模型在大多数任务,特别是具有挑战性的任务上,表现出比最先进的方法更优越的性能,同时与最流行的3D模型相比,拥有更小的模型大小(参见表2)。值得注意的是,以前的nnU-Net采用了各种数据扩充和测试时间扩充来提高性能,而作者只采用简单的旋转和翻转数据扩充,没有采用测试时间扩充。小型数据集(如心脏和海马数据集)更多地依赖于增强,而功能强大的架构很容易过度拟合,这说明了为什么作者的模型在这些数据集上的性能没有超越竞争对手。此外,nnU-Net对每个任务使用不同的网络和超参数,而作者对所有任务使用相同的模型和超参数,这表明作者的模型不仅功能更强大,而且更健壮,更具泛化能力。


在这里插入图片描述
左图表2可以看出与其他3D网络的参数和FLOP的比较,作者的模型更轻量化。

图6提供了一些可视化比较。最新方法(第一组和第二组)与C2FNAS-PANC在MSD测试集上的可视化比较。从三个最具挑战性的任务中分别可视化一个病例:胰腺和胰腺肿瘤、结肠癌和肺癌。红色分别表示异常胰腺、结肠癌和肺癌,绿色表示胰腺肿瘤。C2FNAS-PANC的案例ID和dice得分位于底部,效果很不错。

在这里插入图片描述


在这里插入图片描述
下面表4就是模型缩放的影响,第一列中的数字表示应用于C2FNAS-PANC模型的比例因子。结果基于单层验证集和最终的胰腺数据集搜索模型。


在这里插入图片描述


猜你喜欢

转载自blog.csdn.net/Su_Del/article/details/108057276