ICCV 2023 | 上交&微软开源Make-It-3D:2D转3D生成工作,Star超过1k星!

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【计算机视觉和论文投稿】交流群

转载自:机器之心

给你几张照片,你可以猜到在三维世界中他们究竟长什么样子吗?

e00da4cf560dc9ff96d452443638065a.png

我们可以凭借丰富的视觉先验知识,仅凭一张照片轻松推断出其3D几何形态及在不同视角下的样貌。这种能力得益于我们对视觉世界的深入理解。而今,恰如人类,一些卓越的图像生成模型,如Stable Diffusion和Midjourney,同样拥有丰富的视觉先验知识,展现出高质量的图像生成效果。基于这样的观察,研究员们提出假设:一个高质量预训练图像生成模型具有和人类一样的能力,即可以从一个真实或AI生成的图像中推理出3D内容。

这个任务非常具有挑战性,既要估计潜在的 3D 几何结构,也要同时产生未见过的纹理。基于之前的假设,来自上海交通大学、HKUST、微软研究院的研究者们提出了 Make-It-3D 方法,通过使用 2D 扩散模型作为 3D-aware 先验,从单个图像中创建高保真度的 3D 物体。该框架不需要多视图图像进行训练,并可应用于任何输入图像。这篇论文也被 ICCV 2023 所接收。

9c09b303d470f92a12ca8d13fcfd1931.gifa0f828851c64a2c02cd65ce34281bc0e.giff4ae4ee2be8f2e749f18fbffc8cbda85.gif

0c5a8676d0b08881be0799423b99b0d0.png

  • 论文链接:https://arxiv.org/pdf/2303.14184.pdf

  • 项目链接:https://make-it-3d.github.io/

  • Github链接:https://github.com/junshutang/Make-It-3D

该论文刚公布,就引发了推特上的热烈讨论,随后的开源代码在 Github 累计收获超过 1.1k星星。

011e3be0a0aa6de395643b8718fa58aa.png

0808ea54f5b17ddc7212c9de47d77c9b.png

那么方法背后的技术细节是什么呢?

该方法在优化三维空间时,主要依据两个核心的优化目标:

1. 在参考视角下的渲染结果应该与输入图片高度一致;

2. 在新视角的渲染结果显示与输入一致的语义。其中,研究者采用 BLIP2 模型来为图片标上文本。

基于这样的优化目标,在一阶段时期,该方法对参考视角周围的相机姿态进行随机采样。在参考视角下对渲染图和参考图施加像素级别的约束,在新视角下利用来自预训练扩散模型的先验信息度量图像和文本之间的相似性。

6d606abdf667e63cd4590a8ba7786ad3.png

然而,只用文本难以描述一张图的全部信息,这会导致生成的 3D 模型难以和参考图像完全对齐。因此,为了增强生成几何模型和图片的相关程度,论文额外约束了在扩散过程中的去噪图和参考图之间 的图像相似性,即约束了图像之间的 CLIP 编码距离。这一方法进一步有效提升了生成模型和图片的相似程度。

8d908bae4e8954aaf95a4a2ff8c2834d.png

此外,论文还利用了从单张图估计的单目深度来避免一些几何歧义性,例如凹陷面等问题。

然而,研究者认为,优化得到的纹理隐式场,难以完全重建出图片的纹理细节,例如小熊表面的绒毛纹和局部的颜色信息,在一阶段生成的结果中都没有体现。因此该方法提出聚焦于纹理精细化的二阶段优化过程。

cdf5c60be3898a666b32de48457f47d1.png

在第二阶段,该方法根据第一阶段得到的几何模型,将参考图像的高质量纹理映射到 3D 空间中。然后着重于增强参考视角中被遮挡区域的纹理。为了更好地实现这一过程,该方法将一阶段的隐式表示导出到显式表示形式 —— 点云。与 Marching Cube 导出的噪声网格相比,点云可以提供更清晰的几何特征,同时也有利于划分遮挡区域和非遮挡区域。

随后,该方法聚焦于优化遮挡区域的纹理。点云渲染采用了基于 UNet 结构的 Deferred-Renderer (延迟渲染器),并同样使用来自预训练扩散模型的先验信息优化产生遮挡区域的精细纹理。

4ac3b01f976444e29ca7eee5635df3d0.gif

从左到右依次是参考图,一阶段优化得到的法向图和纹理渲染结果,二阶段纹理精细化后的渲染结果。

该方法还可以支持多种有趣的应用,包括可以对三维纹理进行自由编辑和风格化。以及用文本驱动产生复杂多样的三维内容。

53184622d682c59019e5b5125533bcb1.gif

a80ac8a4a44d9a120a8adb640554c003.gif

结语

Make-It-3D作为首个将二维图片拓展到三维空间,同时保持了和参考图片相同的渲染质量和真实感的方法,致力于创作和二维图片视觉效果相同的三维内容。研究员们希望可以通过Make-It-3D这篇工作,引发学术界或工业界对于2D转3D这一方案更多的关注,加速三维内容创作的发展。对于方法的更多实验细节和更多结果,请详见论文内容和项目主页。

接下来就让我们轻松的Make-It-3D吧!

104dc43e0bb7d1407af61ae74c84d940.pngf1a725365cce2b7194dd483333054706.pngc61091e3b10a2cc2bdd24c91891b03ba.png

592335dad4d43adfb92f1f401cf74637.gif5f715006825c9926445274870b05d552.gif6de71e0d79d5a86a7ef406f4786ab0e5.gif

dd0959dc355fa898c203ff66650c37a4.png30f5ef471bbfb7d52a01ac28c351d691.png3b8b4bf1e3bc2588e662a2b511f39c56.png

e62a5f154d1f597fd0c28699947f43b7.gif449c3bfe411855fd939725d3d7eeb475.gif83c47dc680bccc50df823059c407e403.gif

 
  

点击进入—>【计算机视觉和论文投稿】交流群

ICCV / CVPR 2023论文和代码下载

 
  

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集
目标检测和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer333,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!

▲扫码进星球
▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看f2834cdbc951a8311a3198465b1fa917.gif

猜你喜欢

转载自blog.csdn.net/amusi1994/article/details/132126563