如何用数据集发顶会?CVPR 2022 “数据集贡献”论文盘点,附下载链接

在机器学习领域,除了模型、算法方面的创新和突破值得关注外,公共领域中新发布的数据集也是直观了解各种待解决问题、拓展研究思路的有效途径。

一、CVPR 2022 数据集贡献清单

作为全球计算机视觉和模式识别领域的顶级会议,CVPR 2022 一共收到8161份论文投稿,接受论文2064份。

今年,评委们除了评审入选论文外,还发布了一个集结了332篇论文的“数据集贡献”清单。这些均来自入选的论文,以数据集为主题,或者被评审认为在数据集方面有创新或贡献。

“数据集贡献”论文 ID 列表地址:

https://cvpr2022.thecvf.com/dataset-contributions

CVPR 2022 数据集贡献清单(图源:参考资料[1])

这些丰富的资源是了解 AI 研究热点非常不错的材料,让我们一起来看看。

二、数据集与评价相关论文最多

本次“数据集贡献”清单共收录332篇论文,根据CVPR官网提供的分类,这些论文覆盖了图像/视频合成、姿势估计与跟踪、计算摄影、视觉与语言、3D点云、三维空间物体检测定位、识别(检测、分类、检索)、视频分析与理解等多个方向。各类型数据集论文统计如下:

● 数据集与评价相关论文最多,共有42篇;

● 图像/视频合成类位于第二,共有24篇;

● 视觉与语言类,有23篇;

● 多视图3D传感器类,有21篇;

● 计算摄影类,有20篇;

● 视频分析与理解类,有17篇;

● 识别:检测、分类、检索类,有15篇;

● 低级视觉类,有13篇;

● 单图像三维重建类,有12篇;

● 姿态估计与跟踪类,有11篇;

● 面部和手势类,有9篇;

● 分割、分组和形状分析类,有9篇;

● 基于物理的视觉和 Shape-From-X类,有8篇;

● 视觉应用和系统类,有7篇;

● 场景分析与理解类,有6篇;

● 文本分析与理解类,有6篇;

● 动作与事件识别类,有6篇;

● 导航与自动驾驶类,有6篇;

● 其他类,有77篇。

可以看出,人工智能应用场景越来越复杂,各类算法在不断更新,规模更大、分布更均衡、标注类型更丰富、评价指标更科学的数据集也成了刚需。随着智能硬件的普及,图像/视频合成、视觉与语言的多模态数据、多视图3D点云等方向多点开花,多模态、多视角、多终端等融合类任务呈现较高的研究热度。说明人工智能研究正向着更深入、更有挑战的攻坚之境挺进。

三、数据集相关论文介绍

之前给大家介绍了一个涵盖各类复杂场景的3D车道识别数据集,本期来看看 CVPR 2022 导航与自动驾驶方向有哪些相关数据集论文。

01 

3D车道线单目检测  

ONCE-3DLanes: Building Monocular 3D Lane Detection

作者| Fan Yan, Ming Nie, Xinyue Cai, Jianhua Han, Hang Xu, Zhen Yang, Chaoqiang Ye, Yanwei Fu, Michael Bi Mi, Li Zhang

项目| https://once-3dlanes.github.io/

单位 | 复旦大学, 华为诺亚方舟实验室

数据集标注路径(图源:参考资料[2])

02

多模态合成数据辅助空间坐标预测

CrossLoc: Scalable Aerial Localization Assisted by Multimodal Synthetic Data

作者| Qi Yan, Jianhao Zheng, Simon Reding, Shanci Li, Iordan Doytchinov

项目| https://crossloc.github.io/

单位 | 洛桑联邦理工学院 (EPFL) - TOPO 实验室

CrossLoc数据合成原理(图源:参考资料[3])

03

端到端驾驶与协作感知

Coopernaut: End-to-End Driving With Cooperative Perception for Networked Vehicles

作者| Jiaxun Cui, Hang Qiu, Dian Chen, Peter Stone, Yuke Zhu

项目| https://ut-austin-rpl.github.io/Coopernaut/

单位 | 德克萨斯大学奥斯汀分校, 斯坦福大学, Sony AI

作者开发的AUTOCASTSIM驾驶模拟框架中的基准测试场景示意。灰色car是该模型控制的自我车辆。 橙色卡车是部分遮挡环境视野的大型车辆。红色汽车没有联网,很可能与自我汽车发生碰撞。所有其他车辆都是具有或不具有共享能力的背景交通。绿蓝点标记任何移动车辆的计划时间轨迹,绿点表示未来的航路点比蓝点更近。如果两个计划轨迹以相似的颜色(时间)相交,表明可能发生碰撞。对于每个场景,RGB 鸟瞰图(BEV)、以自我为中心的 LiDAR BEV 图像和多车辆显示了融合的 LiDAR BEV 图像(从左到右)。作者在这里用更少的车流量作背景,因为论文中还研究了交通密度的影响。(图源:参考资料[4])

04

包含复杂弯道的多样化车道的检测

Eigenlanes: Data-Driven Lane Descriptors for Structurally Diverse Lanes

作者| Dongkwon Jin, Wonhui Park, Seong-Gyun Jeong, Heeyeon Kwon, Chang-Su Kim

项目| https://www.42dot.ai/akit/dataset

单位 | 高丽大学, 42dot.ai

SDLane 中的示例图像和真实车道数据集。 由于 SDLane 中包含十字路口图像,因此某些左转或右转的车道高度弯曲和不明显(图源:参考资料[5])

05

点云域外数据的 3D 对象检测

3D-VField: Adversarial Augmentation of Point Clouds for Domain Generalization in 3D Object Detection

作者| Alexander Lehner, Stefano Gasperini, Alvaro Marcos-Ramiro, Michael Schmidt, Mohammad-Ali Nikouei Mahani, Nassir Navab, Benjamin Busam, Federico Tombari

项目| https://crashd-cars.github.io/

单位 | 慕尼黑工业大学, 宝马集团, 约翰霍普金斯大学, 谷歌

PointPillars 在 KITTI 上训练后的预测结果,由于对象对象形状不同,出现了两个假阴性和一个假阳性。而在 CrashD 数据集训练后的3D-VField,在KITTI数据集上预测更准确。(图源:参考资料[6])

不同模型在CrashD(上)和 Waymo(下)数据集中对具有挑战性的域外样本的预测性能比较(图源:参考资料[6]) 

06

以驾驶为导向的车道感知模型与评价指标

Towards Driving-Oriented Metric for Lane Detection Models

作者| Takami Sato, Qi Alfred Chen

项目| https://github.com/ASGuard-UCI/ld-metric

单位 | 加利福尼亚大学尔湾分校

TuSimple Challenge 数据集上良性和对抗性攻击场景中车道检测结果和准确度指标的示例。如图所示,传统的准确度指标如果在自动驾驶中使用,不一定表示核心的下游任务的可驾驶性。例如,虽然 SCNN 比 PolyLaneNet 有更高的准确率,但它的检测结果是更难实现车道居中。(图源参考资料[7])

作者发布的Comma2k19-LD 数据集上的良性和向右攻击场景示例。红线、蓝线和绿线分别是检测左右线和参考线。(图源参考资料[7])

以上就是本次介绍,小编贴心地给大家打包了这6篇论文资源,点击https://mp.weixin.qq.com/s/YihUw5aiwfhZDuT4EdNI1A,文章末尾附有论文获取方式,快来学习吧。

参考资料

[1]https://cvpr2022.thecvf.com/dataset-contributions

[2]https://once-3dlanes.github.io/

[3]https://arxiv.org/pdf/2112.09081.pdf

[4]https://arxiv.org/pdf/2205.02222.pdf

[5]https://arxiv.org/pdf/2203.15302.pdf

[6]https://openaccess.thecvf.com/content/CVPR2022/papers/Lehner_3D-VField_Adversarial_Augmentation_of_Point_Clouds_for_Domain_Generalization_in_CVPR_2022_paper.pdf

[7]https://openaccess.thecvf.com/content/CVPR2022/papers/Sato_Towards_Driving-Oriented_Metric_for_Lane_Detection_Models_CVPR_2022_paper.pdf

更多数据集上架动态、更全面的数据集内容解读、最牛大佬在线答疑、最活跃的同行圈子……欢迎添加微信opendatalab_yunying 加入OpenDataLab官方交流群。

猜你喜欢

转载自blog.csdn.net/OpenDataLab/article/details/126461657