随时随地,追踪每个像素,连遮挡都不怕的「追踪一切」视频算法来了

点击蓝字 关注我们

关注并星标

从此不迷路

计算机视觉研究院

2b1e0c1c4e4c3d084635e7e509ee85c9.gif

3552969d23940d500f649344d5068bb6.gif

公众号ID计算机视觉研究院

学习群扫码在主页获取加入方式

计算机视觉研究院专栏

Column of Computer Vision Institute

Tracking Everything Everywhere All at Once.

转自《机器之心》

3cd53bc916481ecc1c9a883b5315def7.gif

前段时间,Meta 发布「分割一切(SAM)」AI 模型,可以为任何图像或视频中的任何物体生成 mask,让计算机视觉(CV)领域研究者惊呼:「CV 不存在了」。之后,CV 领域掀起了一阵「二创」狂潮,一些工作陆续在分割的基础上结合目标检测、图像生成等功能,但大部分研究是基于静态图像的。

现在,一项称为「追踪一切」的新研究为动态视频中的运动估计提出了新方法,能够准确、完整地追踪物体的运动轨迹。

fe6f735a1d5e7cfb4667a840d17656df.gif

该研究由来自康奈尔大学、谷歌研究院和 UC 伯克利的研究者共同完成。他们联合提出了一种完整且全局一致的运动表征 OmniMotion,并提出一种新的测试时(test-time)优化方法,对视频中每个像素进行准确、完整的运动估计。 

16c4db44ad7f2bbbcb526c52ce5bbf2e.png

  • 论文地址:https://arxiv.org/abs/2306.05422

  • 项目主页:https://omnimotion.github.io/

有网友在推特上转发了这项研究,仅一天时间就收获了 3500 + 的点赞量,研究内容大受好评。

f457e46ffb5dd24675953193297dab53.png

从该研究发布的 demo 看,运动追踪的效果非常好,例如追踪跳跃袋鼠的运动轨迹:

351d5efbccabe6307d1cb00d05ba3001.gif

荡秋千的运动曲线:

1c8f6866548ce4ee0e05d05dd82592f8.gif

还能交互式查看运动追踪情况:

c453fb6fd9b5c3582a0d9d73c9512bf7.gif

即使物体被遮挡也能追踪运动轨迹,如狗在跑动的过程中被树遮挡:

c193a2f303861d0afe5457a9d6243d2c.gif

在计算机视觉领域,常用的运动估计方法有两种:稀疏特征追踪和密集光流。但这两种方法各有缺点,稀疏特征追踪不能建模所有像素的运动;密集光流无法长时间捕获运动轨迹。

该研究提出的 OmniMotion 使用 quasi-3D 规范体积来表征视频,并通过局部空间和规范空间之间的双射(bijection)对每个像素进行追踪。这种表征能够保证全局一致性,即使在物体被遮挡的情况下也能进行运动追踪,并对相机和物体运动的任何组合进行建模。该研究通过实验表明所提方法大大优于现有 SOTA 方法。

方法概述

该研究将帧的集合与成对的噪声运动估计(例如光流场)作为输入,以形成整个视频的完整、全局一致的运动表征。然后,该研究添加了一个优化过程,使其可以用任何帧中的任何像素查询表征,以在整个视频中产生平滑、准确的运动轨迹。值得注意的是,该方法可以识别画面中的点何时被遮挡,甚至可以穿过遮挡追踪点。

OmniMotion 表征

传统的运动估计方法(例如成对光流),当物体被遮挡时会失去对物体的追踪。为了在遮挡的情况下也能提供准确、一致的运动轨迹,该研究提出全局运动表征 OmniMotion。

该研究试图在没有显式动态 3D 重建的情况下准确追踪真实世界的运动。OmniMotion 表征将视频中的场景表示为规范的 3D 体积,通过局部规范双射(local-canonical bijection)映射成每个帧中的局部体积。局部规范双射被参数化为神经网络,并在不分离两者的情况下捕获相机和场景运动。基于此种方法,视频可以被视为来自固定静态相机局部体积的渲染结果。

7fd33bd33de7e722a13a8e36560435f4.png

由于 OmniMotion 没有明确区分相机和场景运动,所以形成的表征不是物理上准确的 3D 场景重建。因此,该研究称其为 quasi-3D 表征。

OmniMotion 保留了投影到每个像素的所有场景点的信息,以及它们的相对深度顺序,这让画面中的点即使暂时被遮挡,也能对其进行追踪。

393ceb55cea5d045e6859c80f397aa2d.gif

实验及结果

定量比较

研究者将提出的方法与 TAP-Vid 基准进行比较,结果如表 1 所示。可以看出,在不同的数据集上,他们的方法始终能实现最佳的位置准确性、遮挡准确性和时序一致性。他们的方法可以很好地处理来自 RAFT 和 TAP-Net 的不同的成对对应输入,并且在这两种基准方法上提供了一致的改进。

c90ec5e1953dff9d3d46a880f7d8a7ba.png

定性比较

如图 3 所示,研究者对他们的方法和基线方法进行了定性比较。新方法在(长时间)遮挡事件中显示出了出色的识别和追踪的能力,同时在遮挡期间为点提供合理的位置,并处理很大的摄像机运动视差。

fe5fcc946108a23458fb3a271db9a5d3.png

消融实验与分析

研究者利用消融实验来验证他们设计决策的有效性,结果如表 2 所示。

111bf025ad81fedb800605039d31b9a2.png

在图 4 中,他们展示了由他们的模型生成的伪深度图,以展示学习到的深度排序。

310b82f1ba282a39dba3a14449e5680b.png

需要注意的是,这些图并不对应于物理深度,然而,它们展示了仅使用光度和光流信号时,新方法能够有效地确定不同表面之间的相对顺序,这对于在遮挡中进行追踪至关重要。更多的消融实验和分析结果可以在补充材料中找到。

© THE END 

转载请联系本公众号获得授权

6557e6579dd1523fc191cd630c9ef76e.gif

计算机视觉研究院学习群等你加入!

ABOUT

计算机视觉研究院

计算机视觉研究院主要涉及深度学习领域,主要致力于目标检测、目标跟踪、图像分割等研究方向。研究院始终分享最新论文算法框架,平台着重”研究“和“实践”。后期会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

267c5bf37034efec9e901cf6a427bc0f.png

5a4f74b0c0edc455c27be32075a8f945.png

77f6099d886373f01c03939edea8c7e8.png

519557ae4732264edbe8eff3b414ffb9.png

81d29977abd44a7c13d8e6a71e13adc2.png

点击“阅读原文”,立即合作咨询

猜你喜欢

转载自blog.csdn.net/gzq0723/article/details/131179436