Paper reading:BodyNet: Volumetric Inference of 3D Human Body Shapes

标题:BodyNet: Volumetric Inference of 3D Human Body Shapes

作者:Gul Varol, Duygu Ceylan Bryan Russell Jimei Yang
Ersin Yumer,z Ivan Laptev,Cordelia Schmid,
Inria, France ,Adobe Research, USA

今天介绍的文章是“BodyNet: Volumetric Inference of
3D Human Body Shapes”——BodyNet:3D人体形状的体积推断。

人体形状估计是视频编辑,动画和时尚产业的一个重要任务。然而,由于诸如人体,衣服和视点的变化等因素,从自然图像预测3D人体形状是非常具有挑战性的。解决该问题的现有方法通常是在已知特定的姿态和形状的先验条件下,拟合对应的参数化人体模型。在文章中,作者提出了一种可替代的表示方法——BodyNet,一个用单张图像可以直接推断体素表达人体形状的神经网络。BodyNet是一个端到端的网络,这主要得益于三个方面:1)3D的体素损失,2)多视角重投影损失,3)2D位姿,2D身体部位分割和3D位姿的中间监督。在作者的实验中证明了,上述的三个方面都能够使得性能提高。

在这里插入图片描述

如图1所示,作者提出的BodyNet能够从单张图片中预测出一个三维体素的人体。可以看到每组图片左侧是输入图片,右侧是预测的人体体素结构和预测的体素部件。

在这里插入图片描述

图二显示的是BodyNet具体的网络结构。输入的RGB图像首先被传送到2D位姿估计和2D人体部件分割的子网络。这个网络的预测结果结合原始图像的RGB特征相结合,一起输入到一个3D位姿预测的网络。所有的子网络结合到最后一个网络来推测体素形状。在实验中,2D位姿网络、2D分割网络和3D位姿网络都是经过预训练的,然后为了得到最后体素的形状,通过使用多视角重投影的损失将几个网络联合起来进行微调。最后,作者将SMPL模型与体积预测相匹配,以便进行评估。

下面几个图表是最终的实验结果,可以看到效果还是非常不错的!

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/Felaim/article/details/82973534
今日推荐