【GANs学习笔记】(十二)SAGAN

3. SAGAN

3.1 SAGAN解决的问题

       前篇我们说到用深度卷积网络能够提升GANs生成高分辨率图片的细节,但是由于卷积网络的局部感受野的限制,如果要生成大范围相关(Long-range dependency)的区域,卷积网络就会出现问题。譬如说在生成人脸图片时,是非常注重细节的,以左右眼举例,只要左右眼有一点点不对称,就会显得生成的人脸特别不真实。但是因为一般的卷积核很难覆盖很大的区域,在对左眼区域做卷积时它看不到右眼对左眼的影响,这样产生的图片就会缺乏人脸结构特征的完整性。

       因此,现在我们需要解决的问题是,如何找到一种能够利用全局信息的方法。传统的一些做法,比如用更深的卷积网络,或者直接采用全连接层获取全局信息,明显参数量太大计算量太大。直到SAGAN的提出,把Attention机制引入了GANs的图像生成当中,才找到一种比较简约且高效的方法解决了这一问题。

3.2 SAGAN的模型架构

       上述结构就是用带有自注意力的特征图去代替传统的卷积特征图。方法如下:

       首先,f(x)g(x)h(x)都是普通的1x1卷积,差别只在于输出通道大小不同;将f(x)的输出转置,并和g(x)的输出相乘,再经过softmax归一化得到一个attention map; 将得到的attention maph(x)逐像素点相乘,得到自适应注意力的特征图。

       具体的计算方法如下:

我们记是学习的权重矩阵,都是通过1×1卷积实现,在实验中我们使用fg表示两个提取图像特征空间的公式,其中

我们用表示在合成第j个区域时模型对第i个位置的影响程度,有:

然后关注层的输出是,其中,

       另外,我们进一步将关注图层的输出o乘以比例参数γ并添加回输入要素图x。 因此,最终输出由下式给出,

其中γ被初始化为0,然后逐渐学会为非本地特征分配更多权重。 为什么要这样做呢?理由很简单:我们希望先学习简单的任务,然后逐步增加任务的复杂性。 在SAGAN中,所提出的自注意力模块已经应用于生成器和判别器,它们通过最小化对抗性损失的铰链形式以交替方式进行训练,SAGAN采用的loss表达式如下:

3.3 SAGAN的优化

       SAGAN当中提出了两种优化,分别是Spectral NormalizationTTUR,前者稳定了训练和生成过程,后者平衡了DG的训练速度,简要地介绍如下:

 

Spectral Normalization

       SAGANDG加入了谱范数归一化的方式,让D满足了1-lipschitz限制,同时也避免了G的参数过多导致梯度异常,使得整套训练较为平稳和高效。关于Spectral Normalization的具体过程请参阅Part1中的SNGAN

 

       TTUR

       在以前的工作中,判别器的正则化通常会减慢GAN学习过程。 实际上,使用正则化判别器的方法通常在训练期间每个生成器需要多个更新步骤(例如,5个)。 独立地,Heusel等人主张对生成器和判别器使用单独的学习率(TTUR)。 我们建议专门使用TTUR来补偿正则化判别器中慢学习的问题,使得对于每个判别器步骤使用更少的生成器步骤成为可能。 使用这种方法,我们能够在相同的单位时间内产生更好的结果。

 

       综上,便是SAGAN提出来的用自注意力机制去解决全局信息获取的问题,它既在每一层都考虑了全局信息,也没有引入过多的参数量,在提高感受野和减小参数量之间找到了一个很好的平衡。因此,如果我们的生成任务是全局相关性比较高的图片,就可以考虑使用SAGAN

猜你喜欢

转载自blog.csdn.net/a312863063/article/details/83552111