End-to-End United Video Dehazing andDetecting

1. 概述

考虑到在自动驾驶汽车中的应用,作者将去雾与目标检测结合,建立了一个端到端的网络。

雾图的生成通常是基于大气散射模型:
I ( x ) = J ( x ) t ( x ) + A ( 1 t ( x ) ) (1) I(x)=J(x)t(x)+A(1-t(x)), \tag{1} 其中 I ( x ) I(x) 表示雾图, J ( x ) J(x) 表示真实图片, A A t ( x ) t(x) 是两个关键的参数,分别表示大气光和透射图, t ( x ) = e β d ( x ) t(x)=e^{-\beta d(x)} β \beta 为大气散射系数, d ( x ) d(x) 为物体到相机的距离。因此,真实图片又可以表示为 J ( x ) = 1 t ( x ) I ( x ) A 1 t ( x ) + A (2) J(x)=\frac{1}{t(x)}I(x)-A\frac{1}{t(x)}+A。 \tag{2}
作者借鉴了AOD网络将其应用到视频去雾,再结合Faster-RCNN将其应用到视频目标检测,搭成最终模型如下图所示。


在这里插入图片描述

2. AOD

AOD网络结构如下图所示:


在这里插入图片描述

AOD将式(1)重写: J ( x ) = K ( x ) I ( x ) K ( x ) (3) J(x)=K(x)I(x)-K(x), \tag{3} 其中 K ( x ) = 1 t ( x ) ( I ( x ) A ) + A I ( x ) 1 (4) K(x)=\frac{\frac{1}{t(x)}(I(x)-A)+A}{I(x)-1}, \tag{4} 1 t ( x ) \frac{1}{t(x)} A A 合并到新变量 K ( x ) K(x) 中。

2.1 Pipline

  1. 对输入 I ( x ) I(x) 提取特征输出 K ( x ) K(x)
  2. 应用公式(3)输出清晰图像。

3 AOD应用到视频去雾

由于AOD是用于单张图像去雾,因此作者将其进行了改进以处理视频去雾问题,其主要问题在于连续帧的混合(temporal fusion)。由于连续帧具有内在的联系,因此利用多帧相干性进行视频去雾有巨大前景。

3.1 混合连续帧的三种策略

作者同时将5(后面解释为什么是5)张图片输入给网络,在三个不同的阶段将其进行融合,分析比较他们的结果

  • I-Level Fusion: 在输入阶段将五个分支进行cancatenate。
  • K-Level Fusion: 在K估计阶段将五个分支图片的特征图进行concatenate。
  • J-Level Fusion: 在输出阶段将五个分支进行特征融合。

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

作者将AOD的参数作为初始化值,方便了模型的训练。

3.2 超参数的选择

通过最后的对比试验,作者在3,5,7中选择5作为输入连续帧的数量(3太少,7张连续帧内在联系没有那么大造成反噬);选择K-Level Fusion 作为特征融合策略。

4 损失函数

作者选择MSE作为损失函数

5 目标检测

发布了102 篇原创文章 · 获赞 7 · 访问量 3732

猜你喜欢

转载自blog.csdn.net/weixin_44795555/article/details/104609670