交通场景、车道分割算法-SCNN

论文中提出了一个新颖的网络Spatial CNN,该网络在图片的行和列上做信息传递,可以有效的识别强先验结构的目标。同时论文提出了一个大型的车道检测数据集UCLane,用于进一步推动自动驾驶发展。

offical githubhttps://github.com/XingangPan/SCNN
paperSpatial As Deep: Spatial CNN for Traffic Scene Understanding

模型

本文提出的SCNN算法将传统的卷积层接层(layer-by-layer)的连接形式的转为feature map中片连片卷积(slice-by-slice)的形式,使得图中像素行和列之间能够传递信息。这特别适用于检测长距离连续形状的目标或大型目标,有着极强的空间关系但是外观线索较差的目标,例如交通线,电线杆和墙。

传统的CNN不能有效处理具有长距离连续的形状(尤其是在遮挡的情况下)。MRF/CRF+CNN的结构使用一个大卷积核来进行信息传递,但是会导致计算效率低下,并且大卷积核很难训练,如下图(a)所示;而SCNN分别在列方向与行方向使用宽卷积做了循环的信息传递,这样就增强了空间信息进而对于识别结构化对象特别有效,如下图(b)所示。


5164048-6d7e45b9b451d42e.png
Model

D、U、R、L是四个信息传递模块。D、U沿着H方向做了从上到下和从下到上的信息传递;R、L沿着W方向做了从左到右和从右到左的信息传递。信息传递的公式如下所示,f是relu函数,每一个模块的卷积函数都共享同一个卷积核。
简单的举一个例子,假设x0h方向上的第一片特征,x1为第二片,那么x0x1的信息传递过程就是x1=x1+relu(conv2D(x0)),后面的操作就可以这样循环下去。这个操作类似于循环的残差操作,既能够加快计算效率又能传递长信息。

5164048-e7e485de8ca19cf0.png
Message pass equation

在信息传递(Message Pass)过程中,MRF/CRF中每个像素点会直接接收其他所有像素点的信息(大卷积核实现),这其中有许多冗余计算;而SCNN在信息传递的时候并不是获取全局元素,而是顺序传递,由此简化了信息传递的结构加快了模型的运算效率,如下图所示:


5164048-126262f4553e6718.png
Message pass

在进行车道检测时,在上述模型的基础上,在输出结果上添加了一个分支网络。这个分支网络能够直接区分不同车道标记,这样鲁棒性更好。共有4中类型的车道线。输出的概率图经过这个分支网络预测车道标记是否存在。
对于存在值大于0.5的车道标记,在对应的概率图每20行搜索以获得最高的响应位置,然后通过三次样条函数连接这些点(cubic splines),就得到了最终的预测。


5164048-047662391232af8e.png
road lane

这是该算法在车道分割上达成的效果,使用了UCLane数据库

5164048-0eadb8e4310f1a63.png
road lane res

这是该算法在交通场景分割上达成的效果,使用了cityscapes数据库

5164048-a15af7c8e7c66b42.png
traffic sense res

模型实现

这个实现与官方实现并不是完全一致,仅用来理解SCNN的网络结构,同时由于数据集较大也没有进行训练测试。想要训练使用这个模型可以下载官方的torch版本或者tf版本

首先我们将信息传递的过程封装成一个keras层,每个MessagePass层沿一个轴做两个方向的信息传递,如下所示:

class MessagePass(Layer):
    def __init__(self, output_dim,
                 axis,
                 **kwargs):
        if 'input_shape' not in kwargs and 'input_dim' in kwargs:
            kwargs['input_shape'] = (kwargs.pop('input_dim'),)
        super(MessagePass, self).__init__(**kwargs)

        self.output_dim = output_dim
        self.axis = axis

    def build(self, input_shape):
        assert self.axis in [1, 2]
        assert input_shape[-1] == self.output_dim

        if self.axis == 1:
            kernel_shape = [1, 9, input_shape[-1], self.output_dim]
        if self.axis == 2:
            kernel_shape = [9, 1, input_shape[-1], self.output_dim]

        self.w1 = self.add_weight(name='one', 
                                 shape=kernel_shape,
                                 initializer='glorot_uniform',
                                 trainable=True)
        self.w2 = self.add_weight(name='two', 
                                 shape=kernel_shape,
                                 initializer='glorot_uniform',
                                 trainable=True)

        super(MessagePass, self).build(input_shape)

    def call(self, inputs, **kwargs):
        h, w = int(inputs.shape[1]), int(inputs.shape[2])
        
        if self.axis == 1:
            n = h
        if self.axis == 2:
            n = w

        feature_slice_old = []
        feature_slice_new = []

        for i in range(n):
            if self.axis == 1:
                cur_slice = K.expand_dims(inputs[:, i, :, :], axis=1)
            else:
                cur_slice = K.expand_dims(inputs[:, :, i, :], axis=2)
            feature_slice_old.append(cur_slice)

            if i == 0:
                feature_slice_new.append(cur_slice)
            else:
                tmp = K.relu(K.conv2d(feature_slice_old[i - 1], self.w1, padding='same'))
                tmp = tmp + feature_slice_old[i]
                feature_slice_new.append(tmp)

        feature_slice_old = feature_slice_new
        feature_slice_new = []

        for i in reversed(range(n)):
            if self.axis == 1:
                cur_slice = K.expand_dims(inputs[:, i, :, :], axis=1)
            else:
                cur_slice = K.expand_dims(inputs[:, :, i, :], axis=2)
            feature_slice_old.append(cur_slice)

            if i == (n - 1):
                feature_slice_new.append(cur_slice)
            else:
                tmp = K.relu(K.conv2d(feature_slice_old[i - 1], self.w2, padding='same'))
                tmp = tmp + feature_slice_old[i]
                feature_slice_new.append(tmp)

        output = K.stack(feature_slice_new, axis=self.axis)
        output = K.squeeze(output, axis=self.axis + 1)

        return output

    def compute_output_shape(self, input_shape):
        return (input_shape[0], input_shape[1], input_shape[2], self.output_dim)

我们选择DenseNet 121作为backbone网络,选取8倍缩小的那一个特征图作为输出特征,然后为这个特征接上信息传递层,如下所示:

class SCNN:
    def __init__(self, height, width, classes=5):
        self.classes = classes
        self.height = height
        self.width = width

    def backbone(self):
        model = DenseNet121(
                input_shape=(self.height, self.width, 3),
                weights=None, 
                include_top=False)

        out_conv = model.get_layer('pool3_conv').output

        return model.input, out_conv

    def build(self):
        inputs, conv_out = self.backbone()

        conv_out = Conv2D(128, (1, 1), padding='same')(conv_out)
        conv_out = BatchNormalization()(conv_out)
        conv_out = Activation('relu')(conv_out)

        conv_out = MessagePass(128, 1)(conv_out)
        conv_out = MessagePass(128, 2)(conv_out)

        conv_out = Conv2D(self.classes, (1, 1), activation='softmax', padding='same')(conv_out)
        prob_output = UpSampling2D((8, 8))(conv_out)

        # add lane existence prediction branch
        x = AveragePooling2D(strides=2)(conv_out)
        x = Flatten()(x)
        x = Dense(128, activation='relu')(x)
        existence_output = Dense(4, activation='sigmoid')(x)

        model = Model(inputs=inputs, outputs=[prob_output, existence_output])

        opt = SGD(lr=0.01, momentum=0.9, decay=0.0001)
        model.compile(
                optimizer=opt,
                loss=['categorical_crossentropy', 'binary_crossentropy'])

        return model


if __name__ == '__main__':
    model = SCNN(288, 800).build()
    print(model.summary())

猜你喜欢

转载自blog.csdn.net/weixin_34082854/article/details/87431507