ICCV 2023 | TUM&谷歌提出md4all:挑战性条件下的单目深度估计

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【深度估计】交流群

b8ccc68aaa25371b540ae0af8e3022c7.png

Robust Monocular Depth Estimation under Challenging Conditions

作者列表: Stefano Gasperini, Nils Morbitzer, HyunJun Jung, Nassir Navab, Federico Tombari

翻译: 翟光耀

单位: 慕尼黑工业大学, 谷歌

前言

大家好, 我叫Stefano Gasperini, 在此宣传我们的ICCV 2023的工作, 更多详细信息可查看我们的论文: https://arxiv.org/abs/2308.09711, 和我们的项目网站: https://md4all.github.io.

代码:https://github.com/md4all/md4all

扫描二维码关注公众号,回复: 16395476 查看本文章

在CVer微信公众号后台回复:md4all,可下载本论文pdf和代码

首先请大家观看这样一个例子:

你能在彩色图片中看到树吗? 

f8cd072f617e36483d9a9ef7f35cb7da.png

我们的单目深度估计网络在所有条件下都能输出可靠的深度估计值,即使在黑暗中也是如此!   

背景

虽然最先进的单目深度估计方法在理想环境下取得了令人印象深刻的结果,但在具有挑战性的光照和天气条件下,如夜间或下雨天,这些方法却非常不可靠。

51f89f88c70ac2b03cb4346dbbca447f.png

在这些情况下, 传感器自带的噪声、无纹理的黑暗区域和反光等不利因素都违反了基于监督和自监督学习方法的训练假设。自监督方法无法建立学习深度所需的像素的对应关系,而监督方法则可能从传感器真值中(如上图中的 LiDAR 与 nuScenes 的数据样本)中学习到数据瑕疵。

方法

在本文中,我们提出了 md4all 解决了这些安全关键问题。md4all 是一个简单有效的解决方案,在不利和理想条件下都能可靠运行,而且适用于不同类型的监督学习。

41b45493bf833ba43d3339a33b3329dd.png

我们利用现有方法在完美设置下的工作能力来实现这一目标。因此,我们提供的有效训练信号与输入信号无关。首先,通过图像转换,我们生成一组与正常训练样本相对应的复杂样本。然后,我们通过输入生成的样本并计算相应原始图像上的标准损失,引导网络模型进行自监督学习或完全监督学习。

如上图所示,我们进一步从预先训练好的基线模型中提炼知识,该模型只在理想环境下进行推理,同时向深度模型提供理想和不利的混合输入。

我们的 GitHub 代码库中包含所提方法的实现代码, 欢迎访问: 

https://github.com/md4all/md4all

结果

697e5ab0eca94fe4b310d29109d57f02.png

通过 md4all,我们大大超越了之前的解决方案,在各种条件下都能提供稳健的估计。值得注意的是,所提出的 md4all 只使用了一个单目模型,没有专门的分支。

上图显示了在 nuScenes 数据集的挑战性环境下的预测结果。由于场景的黑暗程度和噪声带来的影响,自监督方法 Monodepth2 无法提取有价值的特征(第一行)。有监督的 AdaBins 会学习到来自传感器数据的瑕疵,并造成道路上的空洞预测现象(第二行)。在相同的架构上应用,我们的 md4all 提高了在标准和不利条件下的鲁棒性。

c66cfda7bd5a97d43a23875976713553.png

dcf336bcd40e08a566d21b18584f4687.png

在本文中,我们展示了 md4all 在标准和不利条件下两种类型的监督下的有效性。通过在 nuScenes 和 Oxford RobotCar 数据集上的大量实验,md4all 的表现明显优于之前的作品(如上图数据所示)。

图像转换

3571fb1c0d20920ffa157c571dfc2265.png

我们还显示了为训练 md4all 而生成的图像转换示例 (如上图所示)。我们通过向模型提供原始样本和转换样本的混合数据进行数据增强。这样一个模型就能在不同条件下恢复信息,而无需在推理时进行修改。

在此,我们开源共享所有不利条件下生成的图像,这些图像与 nuScenes 和牛津 Robotcar 训练集中的晴天和阴天样本相对应。欢迎访问: 

https://forms.gle/31w2TvtTiVNyPb916

这些图像可用于未来深度估计或其他任务的稳健方法。

在CVer微信公众号后台回复:md4all,可下载本论文pdf和代码

点击进入—>【目标检测和Transformer】交流群

ICCV / CVPR 2023论文和代码下载

 
  

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集
目标检测和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer333,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!

▲扫码进星球
▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看3334f182df61dd6319b6ea4fed13c70f.gif

猜你喜欢

转载自blog.csdn.net/amusi1994/article/details/132644857