对标Mobileye!百度Apollo公布L4级自动驾驶纯视觉解决方案Apollo Lite

美国当地时间6月16日-20日,全球计算机视觉及模式识别领域顶级学术会议CVPR 2019(Conference on Computer Vision and Pattern Recognition)于美国长滩召开。百度Apollo在CVPR 2019公开了自动驾驶纯视觉城市道路闭环解决方案--百度Apollo Lite。

CVPR作为行业最顶级的研究型会议,每年被收录的论文均来自计算机视觉领域顶级团队,代表着国际最前沿的科研技术,并指引行业未来发展的研究方向。在当地时间6月17日,百度Apollo在CVPR上举办技术讲座,Apollo技术委员会主席王亮就L4级全自动驾驶(Fully Autonomous Driving)环境感知技术方案进行了讲解,并公开了环视视觉解决方案百度Apollo Lite。

王亮介绍,Apollo Lite是目前国内唯一的城市道路L4级视觉感知解决方案,能够支持对10路摄像头、200帧/秒数据量的并行处理,单视觉链路最高丢帧率能够控制在5‰以下,实现全方位360°实时环境感知,前向障碍物的稳定检测视距达到240米。王亮表示,经过前期的技术研发投入和2019年上半年的路测迭代,依靠这套10相机的感知系统,百度无人车已经可以在城市道路上实现不依赖高线数旋转式激光雷达的端到端闭环自动驾驶。

据了解,Apollo Lite已经在北京稻香湖等多地多路段落地测试。相比旋转式激光雷达感知方案,视觉感知方案价格低且便于获得。这套低成本近车规级环视感知方案也能够降级支持ADAS辅助驾驶应用,创造更多有价值的应用场景,将ADAS产品的能力提升到一个新的高度,为企业、开发者们提供了一个低价、优质的自动驾驶解决方案。

摄像头是相对成熟的传感器,除具备轻巧低成本和符合车规的优势外,高分辨率高帧率(成像频率)的成像技术发展趋势意味着图像内蕴含的环境信息更丰富,同时视频数据也和人眼感知的真实世界最为相似,但和三维点云数据相比,二维图像中的信息更难挖掘,需要设计更强大的算法、大量数据的积累和更长期的研发投入。

王亮表示,百度Apollo始终坚持多传感器融合的技术路线。在L4级自动驾驶传感器选型上,激光雷达和摄像头不是排它的的也不是单纯的从属和互补关系。从安全性考虑,二者具备相同的重要性和不可替代性,缺一不可。

现今很多传感器融合的方案设计较为复杂,技术人员往往从快速解决问题的角度出发设计算法,这个过程中难免避重就轻的利用异构数据各自的优势进行缺陷互补从而绕过困难的问题。基于这种思路设计的多传感器融合方案虽然能够在短期规避单传感器方案难以解决的问题,长远看,数据和策略间深度耦合的设计不利于为环境感知系统提供真正意义上的冗余(true redundancy)。传感器融合意味着多套能够独立支撑全自动驾驶的感知系统强强联手,独立工作相互校验,最大概率的保证感知结果的准确性和完备性。王亮强调,百度下决心投入资源研发纯视觉感知解决方案并不意味着放弃现有基于激光雷达的技术路线,而是在技术实践过程中充分意识到无人驾驶系统true redundancy的必要性,决定通过压强环视视觉技术来夯实多传感器融合感知框架。在传统激光雷达为主,视觉为辅的传统融合策略中,视觉感知自身的问题和缺陷在雷达感知的掩盖下暴露不够充分。今天通过Apollo Lite打磨迭代的纯视觉技术正在持续反哺百度坚持的多传感器融合解决方案,提升无人驾驶系统的鲁棒性和安全性。

猜你喜欢

转载自blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/92825046