ECCV 2022放榜了!1629篇论文中选,录用率不到20%...

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—> CV 微信技术交流群

转载自:新智元  |  编辑:桃子 好困

【导读】今天,ECCV 2022放榜了!今年论文总投稿数爆增到8000多篇,共有1629篇论文中选,录用率还不到20%。

今天,ECCV开奖了!

根据最新公开的论文录用列表,今年ECCV共接收了1629篇。

692d6d1cf2414957d9ded588189270d5.png

今年的投稿理论上至少有8170篇(最后一个中稿ID),由此预估,录用率还不到20%。

2020年ECCV共收到有效投稿5025篇,接收论文1361篇,接收率为27%。

2018年共有2439篇投稿,接收776篇,录用率为31.8%。

通过对比发现,ECCV 2022论文接收投稿数直接拉满,比2020年还要多大约3000多篇。

扫描二维码关注公众号,回复: 14363477 查看本文章

而录用的论文这次比ECCV 20仅多出300多篇,很显然,中稿率下降也是情理之中。

除了我们熟知的CVPR、ICCV,ECCV(欧洲计算机视觉国际会议)也是计算机视觉三大国际顶级会议之一,每两年召开一次。

ECCV 2022 将在10月23日-27日的以色列特拉维夫(Tel-Aviv)举行。和刚刚过去的CVPR同样,这个会议也将采取线下和线上混合形式召开。

0d068f4bff2fac1869defe80383b188e.png

网友晒中奖

ECCV 22论文录取列表刚刚公布不久,网友们早就迫不及待地晒出了自己成绩单。

自己的1篇、2篇、3篇论文......都被ECCV接收了。

bc643ba2a816f87b1bbc5fc0f8591eb8.png

还有一位来自旷视的研究者黄哲威发文表示,

自己的论文「RIFE: Real-Time Intermediate Flow Estimation for Video Frame Interpolation」终于被ECCV接收了。

这篇论文曾被CVPR 2021、ICCV 2021、AAAI 2022,以及CVPR 2022连拒了4次,可见被顶会录用过程极其艰难。

53013207d12376064faea5a99396865e.png

三年了,终于有一篇自己的顶会。

1f5924d8b382e69c5a7ce64ea0d6b48f.png

还有网友晒出,自己喜提reject,还将自己称为CV Reject的收割者。

不管怎么说,再接再厉吧!

e6638f58adf350cee046abbe79c2f410.png

举个例子

接下来,我们选取了其中的两篇来做一下简单的介绍。

第一篇由罗切斯特理工学院(RIT)教授Dongfang Liu和普渡大学(Purdue)教授Xiangyu Zhang共同指导,普渡大学博士学生Zhiyuan Cheng为第一作者。

1d48c2878e3fe92499b43bb58c645f98.png

这篇题为「Physical Attack on Monocular Depth Estimation in Autonomous Driving with Optimal Adversarial Patches」的论文,最为突出的一点在于,这是针对自动驾驶深度估计攻击的第一个工作。

65baebf6659f6d8869b7fa49b14ab2af.png

论文地址:https://drive.google.com/file/d/1p6HX9G0SM5MugeOXoHQpvK0HtHFhoNW8/view?usp=sharing

深度学习极大的提升了单目深度估计的性能,这是完全基于视觉的自动驾驶系统(如特斯拉)中的关键模块。

在这项工作中,作者开发了一种针对基于学习的单目深度识别模型的攻击。具体地,作者使用一种基于优化的方法,系统地生成了隐蔽的、面向物理世界真实物体的对抗性补丁,以干扰对物体距离的估计。

dc80a4b6002b668a2aaf980d2ad8f2d3.jpeg

作者通过面向物体的对抗性设计、对敏感区域的定位和自然风格伪装来平衡作者攻击的隐蔽性和有效性。利用真实世界的驾驶场景,作者评估了本工作针对最前沿的单目深度估计模型和自动驾驶中的代表性下游任务(3D物体检测)的攻击效果。

d42c2ee3543259a625b97df22ab11fb8.jpeg

实验结果表明,本方法可以为不同的目标物体和模型生成隐蔽、有效和稳健的对抗性补丁,并在物体检测中实现了超过6米的平均深度估计误差和超过93%的攻击成功率,补丁面积仅为车辆后部面积的1/9。

在三条不同的驾驶路线上用真实车辆进行的现场测试表明,作者造成了超过6米的平均深度估计误差,并将下游任务中连续视频帧的物体检测率从90.70%降低到了5.16%。

b0382f0a25478ed7021f53eb0d725fc0.png

第二篇题为,「A Cloud 3D Dataset and Application-Specific Learned Image Compression in Cloud 3D」来自德州大学圣安东尼奥分校,作者分别是Tianyi Liu,Sen He,Vinodh Kumaran Jayakumar和Wei Wang。

在Cloud 3D系统中,例如Cloud Gaming和Cloud Virtual Reality(VR),3D应用的画面在云端数据中心渲染,然后压缩后发送到客户端供用户和游戏玩家查看和交互。

为了同时实现低延迟和高图像质量,快速、高压缩率和高质量的图像压缩技术备受青睐。由于基于深度学习的神经网络图像压缩,在图像压缩中逐渐表现了出色效果。

本文主要探讨如何加速基于神经网络的图像压缩方法,以使其更适合云端图形渲染系统。作者采用了低复杂度和应用专用的AI模型来减少计算时间,同时保证图像质量。

作者的方法基于三个关键点:

(1)由于 3D 应用程序渲染的图像是高度同质化的,与通用训练数据集相比,application-specific数据集可以提高模型的rate-distortion性能;

(2) 3D 应用程序的图像画面往往没有自然照片那么复杂,这也使得使用不太复杂的模型进行更快的压缩变得可行;

(3)随着深度学习模型的简化,我们可以动态提高压缩任务的分片大小,从而充分利用GPU算力资源,提高并行度。

通过在六个游戏图像数据集上进行评估,我们的方法具有与SOTA压缩算法相似的率失真性能,同时获得约 5 到 9 倍的加速并将压缩时间减少到小于 1 秒(0.74 秒)。

从而将深度学习图像压缩技术在Cloud 3D系统中的应用,又向前推动了一小步。

参考资料:

https://eccv2022.ecva.net/submission/list-of-accepted-papers-ids/

点击进入—> CV 微信技术交流群

 
  
 
  
 
  

ICCV和CVPR 2021论文和代码下载

后台回复:CVPR2021,即可下载CVPR 2021论文和代码开源的论文合集

后台回复:ICCV2021,即可下载ICCV 2021论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF

目标检测和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer6666,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信: CVer6666,进交流群
CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!

▲扫码进群
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看

猜你喜欢

转载自blog.csdn.net/amusi1994/article/details/125631405