「Medical Image Analysis」Note on 3D U-Net

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/dgyuanshaofeng/article/details/83904176

QQ Group: 428014259
Sina Weibo:小锋子Shawn
Tencent E-mail:[email protected]
http://blog.csdn.net/dgyuanshaofeng/article/details/83904176

作者:Ozgun Cicek, Ahmed Abdulkadir, Soeren S. Lienkamp, Thomas Brox, Olaf Ronneberger
单位:略

0 摘要

在半自动情形,用户仅标注体数据中的某些片层,3D U-Net算法可学习这些稀疏标注,然后输出密集分割。属于交互分割。
在全自动情形,同上,但是属于自动分割。
采用elastic deformations进行高效数据扩充。

1 介绍

如图1所示,为从稀疏标注中学习,并输出密集分割的应用。

图 1

3D U-Net和2D U-Net类似,改动在于1、避免了bottlenecks,即 1 × 1 1 \times 1 卷积(?);2、使用batchnorm加速收敛。

1.1 相关工作

2 网络结构

如图2所示,为3D U-Net网络结构。

图 2

类似于2D U-Net,3D U-Net网络结构包含分析路径和合成路径,即编码器和解码器,共有4个水平或分辨率。在分析路径,每层包含2个 3 × 3 × 3 3 \times 3 \times 3 卷积,1个ReLU,1个步长为2的池化,显然,最后一个水平没有池化。在合成路径,每层包含1个步长为2,卷积核大小为 2 × 2 × 2 2 \times 2 \times 2 上卷积(反卷积、转置卷积、分数步长卷积),2个 3 × 3 × 3 3 \times 3 \times 3 卷积-ReLU组成的复合层。其中,3个水平使用了shortcut connections。最后,接输出通道为3的 1 × 1 × 1 1 \times 1 \times 1 卷积,和加权softmax损失函数。共有参数19069955。在池化前,通道数进行doubling。在每一ReLU之前,使用BN。提及使用BN和batch size为1时,不使用global statistics,而使用current statistics。在加权softmax损失函数中,设置未标注体素的权重为0。因此,这很像体素级别的self-training技术。

3 执行细节

3.1 数据

Xenopus kidney embryos数据3套。利用Slicer3D对正交的xy,xz和yz片层进行手动标注。三轴均匀才有确定片层位置。0标签为"inside the tubule",1标签为"tubule",2标签为"background",3标签为"unlabeled"。每套数据仅标注了3个片层。

3.2 训练

数据扩充采用旋转、缩放和灰度值变换(gamma transformation?)和平滑密集deformation(B-spline interpolation)。加权方式为倒数中值频率?标签为3的体素,不贡献损失。7万次迭代,接近3天训练时间,设备为NVIDIA TianX。

4 实验

4.1 半自动分割

稀疏标注的3套数据都用于网络训练,然后对3套数据进行分割。如图3所示,为第三套数据的分割结果。显然,这很像体素级别的self-training,即学习标注体素,去分割未标注体素(网络前向过程),但是未标注体素的伪标签,并未加入训练。

[1] 3D U-Net Learning Dense Volumetric Segmentation from Sparse Annotation MICCAI 2016 [paper]

猜你喜欢

转载自blog.csdn.net/dgyuanshaofeng/article/details/83904176