理解论文 LEARNING VOLUMETRIC SEGMENTATION FOR LUNG TUMOR
ABSTRACT
1.提出了一种方法解决3D images segmentation。
2.提出的方法是端到端的训练,并且预测volumetric segmentation outputs。
3.为了解决前景背景分布不均衡的问题,使用dice loss和focal loss进行优化。
一、INTRODUCTION
1.lung cancer tumor segmentation示意图如图1,
2.受到“Understanding convolution for semantic segmentation”论文的启发提出了dense down-sampling convolutional (DDC) layer,并且引入了lateral connections。分别起到了减少计算负担和加速收敛的作用。
3.本文的贡献:
(1)提出了端到端额可训练网络来分割lung cancer tumor segmentation。
(2)提出了dense down-sampling convolutional (DDC) layer,减小了计算负担。
(3)网络中引入了dense lateral connections,加速网络收敛。
(4)大量的实验表明结果良好。
二、RELATED WORKS
1.Our method
(1)在“On the compactness, efficiency, and representation of 3d convolutional networks: brain parcellation as a pretext task”论文中的模型之上构建提出的模型。
(2)三个区别:
①提出了dense down-sampling convolutional (DDC) layer。提出的模型中加入了DUC layer和DDC layer来减小计算负担。
②由于dilated convolution layer经常会导致“gridding effect”,在提出的模型中加入了hybrid dilated convolutional (HDC) layer。
③使用dense lateral connections,强制concatenate the low-level feature representations with the high-level semantic contents。加速收敛和训练稳定。
2.Imbalanced data distribution
(1)两类的解决这个问题的方法:
①Data sampling adjustment:“Synthetic minority over-sampling technique (smote) for predicting software build outcomes,”论文提出了over-sampling method 和 the under-sampling method。
②Training algorithm adjustment:“Incremental learning from unbalanced data with concept class, concept drift and missing features: a review,”论文提出了开发增量学习算法,其目的是在不遗忘所学信息的情况下从新引入的数据中学习。 “Deep learning for malicious flow detection,”论文提出了数量相关的反向传播算法和树状深度神经网络算法,该算法对每一类数据量的梯度进行归一化处理,并进行分层分类,以减轻数据分布不均衡的影响。
(2)Our method
①同时使用两种方法来处理分布不均衡问题。
②针对data sampling adjustment,采用elastic deformation方法。
③针对training algorithm adjustment,应用focal loss和dice loss。
三、PROPOSED METHOD
1.Algorithmic Overview:P(i,j,k)代表(i, j, k)位置是前景的概率,为了获得分割结果Pt,使用阈值0.5将3D Volume P二值化。
2.The Proposed Models,提出的两个版本的网络结构图下图3所示,
3.DUC layer和DDC layer示意图如图4,
4.Dense sampling:DUC layer 和 DDC layer。
5.Gridding effect:Group normalization (GN)。
6.Skip connection:dense lateral connections to concatenate low-level and high-level feature maps
7.Group normalization (GN):GN取代BN。
8.Loss Functions
(1)Dice Loss
(2)Focal Loss
9.Implementation Details
(1)原始数据的size是512*512*d,d在75~297之间,空间分辨率是1*1*3mm3。
(2)首先将原始数据resample到size为256*256*d(2*2*3mm3)。
(3)然后使用random cropping得到size为192*192*48的数据。
(4)然后应用elastic deformation和spatial scaling,随机scaling factor在[0.9,1.1]之内。
(5)使用Adam来 训练, learning rate 0.0003, L2 weight decay 0.0002, batch size 2。
(6)先用dice loss训练20k iterations,然后使用focal loss 训练10k iterations,只是一个回合。
(7)使用一个回合接一个回合的训练能否提升训练稳定性。
(8)使用NVIDIA Tesla V100 with 16GB训练了2个回合,耗费48小时。
(9)测试阶段,模型产生256*256*d的mask,resize到512*512*d的size。
四、EXPERIMENTS
1.使用TCIA提供的NSCLCRadiomics dataset。260个训练案例中包含40个validation案例。
2.结果
五、结论