论文总结(5):Domain Adaptation F Domain Adaptation For Vehicle Detection In T ehicle Detection In Traffic

作者主要使用的方法是: faster R-CNN和Domain Adaptation(DA)的方法来改善夜间车辆的检测。在DA的帮助下,源域和目标域的域分布差异减小。

数据集是自己收集的新的数据集,2200张交通图片(1200张白天的图片、1000张夜间的图像)

领域自适应Domain Adaptation是迁移学习中很重要的一部分内容,目的是把分布不同的源域和目标域的数据,映射到一个特征空间中,使其在该空间中的距离尽可能近。于是在特征空间中对source domain训练的目标函数,就可以迁移到target domain上,提高target domain上的准确率。

在本文中,我们主要研究如何最大限度地利用已标记的白天图像(源域)来帮助未标记的夜间图像(目标域)的车辆检测。在我们的实验中,直接将源域训练好的CNN模型应用于目标域的车辆检测,表现出相对较低的性能。这是由于源域和目标域的域分布差异造成的。从直观上看,夜间的图像与白天的图像有很大的不同:黑暗的环境,改变的道路光照条件,更模糊的图像,各种道路反射等等为了减少源域和目标域的域分布差异,我们提出了使用带域自适应(DA)的CNN进行夜间车辆检测。DA是迁移学习的一种代表性方法。一般来说,当数据分布的源域和目标域是不同的,但任务是一致的,DA能更好地利用两个领域的结合信息提高任务绩效在目标域(4)。提出基于DA车辆检测问题如图1所示。本文所提出的车辆检测方法中使用的CNN模型比R-CNN(5)要快,因为它在目标检测方面具有较高的精度和速度。该方法中使用的DA方法实际上是通过生成对抗网络(Generative Adversarial Networks, GAN)在日间图像和夜间图像之间进行风格转换,而非配对转换方法Cycle GAN(6)则被用于这种风格转换。

为了测试所提出的方法,我们收集了一个新的数据集,命名为CAU-UTRGV基准,其中包括57,059辆汽车的1200张日间图像和1000张夜间图像,这些图像是由一个真实的交通监控摄像头拍摄的。我们在白天的图像中手工标记每一辆车,用于CNN的训练,在夜间的图像中手工标记每一辆车,用于性能评估。

以前的工作车辆检测:我们认为基于计算机视觉的图像或视频中的车辆检测,目前有两种方法从图像或视频中获得有效的车辆信息提取。第一种方法是获取交通场景的运动物体(前景),而将交通场景的静态部分(背景)分离出来(8)。通常通过检测变化来实现背景与前景的分离。一些研究(9,10)使用时空差分分割运动目标,还有一些方法(11-14)使用背景减法提取运动目标。这些方法可以有效地应用于光照条件较好的日间交通场景。第二种方法是从物体外观中提取特征,主要利用颜色、纹理和形状等特征,可以检测图像或视频中的静止物体(15,16)。更复杂的特征被用于车辆检测,如局部对称边缘算子(17)、尺度不变特征变换(18)、加速鲁棒特征(SURF)(19)、梯度方向直方图(HOG)(20)和haar样特征(21)。基于特征提取,可以检测出一些具有相似外观的大规模拥挤物体(22)。最近,基于深度学习的CNN目前广泛应用的车辆检测方法(23-29)具有鲁棒性和先进的车辆检测性能。

目前广泛应用的车辆检测方法(23-29)具有鲁棒性和先进的车辆检测性能夜间车辆检测:由于夜间光线条件、黑暗环境、道路反射、图像模糊等原因,夜间车辆检测非常具有挑战性。现有的大多数方法在处理夜间交通状况时可能不可靠(30)。通常,在夜间交通监控中,为了检测运动物体,车头灯和尾灯作为运动车辆的显著特征。Beymer等人(31)提出了一种针对日间和夜间交通条件的车辆检测方法,该方法提取并跟踪移动车辆的转角特征,而不是整个区域。Huang等(32)提出了一种基于。基于块的对比分析和帧间变化信息。Robert(33)提出了一种夜间车辆检测系统,该系统首先检测一对对前灯,使用监督机器学习系统来验证和识别车辆。Naoya等人(34)基于车辆的前灯和尾灯,采用了一种名为中心环绕极值的检测方法来检测高速行驶中的斑点。Chen等人(30)提出了一种利用图像分割和模式分析技术,通过检测和定位汽车前灯和尾灯来识别车辆的方法。额外的硬件,如Kinect深度虚拟循环,可能用于夜间车辆计数(35)。这些方法与本文提出的方法不同。我们的研究目标是在不增加额外硬件和人工成本的情况下,最大限度地利用已标记的日间交通图像,以改善未标记夜间交通图像中的车辆检测。

领域适应:通常,数据分布差异总是存在于不同的情况/领域之间。多个域信息可以用来减少源域和目标域之间的域差异(36),这在机器学习中被称为“域适应”。虽然CNN在一些图像分类问题上达到了最先进的性能(37),训练CNN需要大量的人工标记的图像。因此,领域自适应(DA)的研究对于推广深度学习的用法具有重要意义。为了解决这一问题,建立了一些合成数据集(38,39),以提高在现实世界中的性能。一些研究(40,41)通过使用源和目标领域样本的不同组合并行训练两个或多个深度网络来描述领域适应技术。Ganin等人(42)提出了一种无监督域自适应方法,该方法使用了来自目标域的大量未标记数据。Othman等人(43)设计了一个DA网络,由一个预先训练好的CNN和一个额外的隐含层组成,用于处理跨场景分类。转移收益法可以提高模型在特定场景下的灵敏度(44)。当源域和目标域差异较大时,子空间对齐的数据同化方法有助于提高图像识别能力(45)

添加了一个测试时间

对比试验主要是三个算法,背景减除法(Background Subtraction)、Faster R-CNN、aster R-CNN+Domain Adaptation(DA)

对比的内容主要是,Precision、Recall、F-measure、Number of False Positives per image (NFP error/image)、Number of False Negatives per image (NFN error/image)

猜你喜欢

转载自blog.csdn.net/qwazp3526cn/article/details/115988793