PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

论文为:PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION

摘要:

1.提出了一种新的训练对抗神经网络的方法。核心思想是逐步训练生成器和分别器:从低分辨率开始,随着训练进程推进,逐步增加新的层来提炼细节。这种方法不仅加快了训练速度并且更加稳定,可以产生高质量的图像

2.提出了一些实施的细节对于消除生成器和分辨器的不好的竞争

3.提出了新的方法来评估GAN产生的结果

首先从低分辨率的图像开始训练,然后逐渐增加生成器和分别器层数。这种逐步增加的训练方法能够首先训练图像的大框架,然后逐步转义注意力到细节上去,而不是一下子学完所有的东西。

使用的生成器和分别器彼此之间是镜像关系。当新的层被加入网络时,我们就平滑模糊。如图2所示,这样就避免给已经训练好的网络带来突然地变化

我们的训练首先输入4*4像素图片,然后输入8*8......1024*1024像素的图片(也就是分辨率越来越高),分辨率增高的同时,网络的层数也在增加

在(b)中,我们对那些处理高分辨率的层类似于残差模块一样(图b中确实是这样的,16*16经过加倍之后一个是直接输出,一个还要经过32*32层的处理在输出,最后用线性叠加的方式整合在一起,输出一个32*32的图片)。torgb表示将信息转换为rgb图。from rgb正相反,表示从彩色图中提取信息,他们都是1*1的卷积模块。当训练分类器的时候,我们用真实的图片降低分辨率到现在的分辨率。在分辨率转换的时候,使用类似于generate的方式,对以前的分辨率进行插值,然后线性组合两种分辨率

GAN网络层中的参数由于两个网络的不健康竞争,会变得很大。所以以前的人就提出了batch_norm法来使各个权重回归中间区域。但是作者他们却没有在GAN上发现这个问题,因此认为GAN的实际要求会限制参数的变大。作者使用了不同的方法,包含了两个元素,但这两个元素中都不包含可学习的参数

表2:每个网络主要是由三层模块组层的。最后一个1*1的卷积层在generator中的是torgb模块,在discriminator中的则是fromrgb模块我们从4*4分辨率的图片开始,训练网络直到我们给descrimnator训练完800k张真实图片。然后我们交替进行两个步骤:训练第一个3层模块用800k张图,稳定网络.....

降采样和升采样2*2的average pooling

minibatch,在图像分辨率小的时候大,后面随着分辨率越来越高,minibatch越来越小

猜你喜欢

转载自blog.csdn.net/qq_39861441/article/details/83037000