LEARNING VOLUMETRIC SEGMENTATION FOR LUNG TUMOR

理解论文 LEARNING VOLUMETRIC SEGMENTATION FOR LUNG TUMOR

ABSTRACT

1.提出了一种方法解决3D images segmentation。

2.提出的方法是端到端的训练,并且预测volumetric segmentation outputs。

3.为了解决前景背景分布不均衡的问题,使用dice loss和focal loss进行优化。

一、INTRODUCTION

1.lung cancer tumor segmentation示意图如图1,

 2.受到“Understanding convolution for semantic segmentation”论文的启发提出了dense down-sampling convolutional (DDC) layer,并且引入了lateral connections。分别起到了减少计算负担和加速收敛的作用。

3.本文的贡献:

    (1)提出了端到端额可训练网络来分割lung cancer tumor segmentation。

    (2)提出了dense down-sampling convolutional (DDC) layer,减小了计算负担。

    (3)网络中引入了dense lateral connections,加速网络收敛。

    (4)大量的实验表明结果良好。

二、RELATED WORKS

1.Our method

    (1)在“On the compactness, efficiency, and representation of 3d convolutional networks: brain parcellation as a pretext task”论文中的模型之上构建提出的模型。

    (2)三个区别:

        ①提出了dense down-sampling convolutional (DDC) layer。提出的模型中加入了DUC layer和DDC layer来减小计算负担

        ②由于dilated convolution layer经常会导致“gridding effect”,在提出的模型中加入了hybrid dilated convolutional (HDC) layer

        ③使用dense lateral connections,强制concatenate the low-level feature representations with the high-level semantic contents。加速收敛和训练稳定。

2.Imbalanced data distribution

    (1)两类的解决这个问题的方法:

        ①Data sampling adjustment:“Synthetic minority over-sampling technique (smote) for predicting software build outcomes,”论文提出了over-sampling method 和 the under-sampling method。

        ②Training algorithm adjustment:“Incremental learning from unbalanced data with concept class, concept drift and missing features: a review,”论文提出了开发增量学习算法,其目的是在不遗忘所学信息的情况下从新引入的数据中学习。 “Deep learning for malicious flow detection,”论文提出了数量相关的反向传播算法和树状深度神经网络算法,该算法对每一类数据量的梯度进行归一化处理,并进行分层分类,以减轻数据分布不均衡的影响。 

    (2)Our method

        ①同时使用两种方法来处理分布不均衡问题。

        ②针对data sampling adjustment,采用elastic deformation方法。

        ③针对training algorithm adjustment,应用focal loss和dice loss。

三、PROPOSED METHOD

1.Algorithmic Overview:P(i,j,k)代表(i, j, k)位置是前景的概率,为了获得分割结果Pt,使用阈值0.5将3D Volume P二值化

2.The Proposed Models,提出的两个版本的网络结构图下图3所示,

3.DUC layer和DDC layer示意图如图4,

 

4.Dense sampling:DUC layer 和 DDC layer。

5.Gridding effect:Group normalization (GN)。

6.Skip connection:dense lateral connections to concatenate low-level and high-level feature maps

7.Group normalization (GN):GN取代BN。

8.Loss Functions

    (1)Dice Loss

    (2)Focal Loss

9.Implementation Details

    (1)原始数据的size是512*512*d,d在75~297之间,空间分辨率是1*1*3mm3

    (2)首先将原始数据resample到size为256*256*d(2*2*3mm3)

    (3)然后使用random cropping得到size为192*192*48的数据。

    (4)然后应用elastic deformationspatial scaling,随机scaling factor[0.9,1.1]之内。

    (5)使用Adam来 训练, learning rate 0.0003, L2 weight decay 0.0002, batch size 2。

    (6)先用dice loss训练20k iterations,然后使用focal loss 训练10k iterations,只是一个回合

    (7)使用一个回合接一个回合的训练能否提升训练稳定性。

    (8)使用NVIDIA Tesla V100 with 16GB训练了2个回合,耗费48小时。

    (9)测试阶段,模型产生256*256*d的mask,resize到512*512*d的size。

四、EXPERIMENTS

1.使用TCIA提供的NSCLCRadiomics dataset。260个训练案例中包含40个validation案例。

2.结果

 

 

五、结论

猜你喜欢

转载自blog.csdn.net/moshiyaofei/article/details/87859282