ClothNet:基于图片生成真实感着装图

每天一分钟,带你读遍机器人顶级会议文章
标题:A Generative Model of People in Clothing
作者:Christoph Lassner,Gerard Pons-Moll,Peter V. Gehler
来源:ICCV 2017 ( IEEE International Conference on Computer Vision)
编译:博主
欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权


摘要

本文展示了第一个使用图像训练进而生成全身着衣的网络。与传统使用复杂的CG渲染的方法不同,本文的算法不需要对人体做高精度的三维扫描,只需要大量的图像即可完成。本文方法的关键难点在于如何将人体姿态、体形和外貌信息加入到网络中,从而保证生成图片的质量。也正是由于该问题较难解决,基于图像的方法一直没有得到足够关注。

本文经过研究发现,该问题可以通过两步来解决:首先利用人体信息和衣服信息进行语义分割,然后再在分割信息基础上利用条件模型生成真实感图像。本文提出的整个模型可微调,能够适应各种姿态、外形和衣服颜色。

本文模型的结果是根据图片生成不同类型、风格着装的新图片,当然也可以“凭空”生成一些具有真实感的着装的照片。经过大量的实验,本文的结果还是非常不错的,同时也证明了纯粹使用图片的方式是可行的。

这里写图片描述
图1 上图展示了本文算法基于姿态生成的一些真实感着装图片

这里写图片描述
图2 上图展示了本文模型中的三个模块,(a)主要考虑的是语义分割信息;(b)考虑的是姿态信息;(c)是一个端到端的生成真实感图像的模块。


这里写图片描述

猜你喜欢

转载自blog.csdn.net/u012348774/article/details/81414289