对抗生成网络GANs的一些见解(二)

写在前面

  • 本片博客主要写一些再GANs模型中非常值得我们注意的点,这些点能够非常有效的帮助我们理解GANs。

1. GANs产生清晰图像的原因是什么?

  • 首先有甚多研究者一开始认为会不会是JS散度的问题。因为VAE中使用的是KL散度,是不对称的,而JS散度是对称的。于是这些研究者们开始做实验,实验证明:与JS散度无关,具体地,与任何散度无关。
    在这里插入图片描述
  • 直到目前为止,GANs生成清晰图像的原因都不是很确定。深度学习不就是这样嘛,效果好,但是就是不太清楚原因,有个研究方向是可解释性分析,但也没分析出啥来。

2. GANs中的单侧标签平滑(one-sided label smoothing)

2.1 为什么GANs需要单侧标签平滑

  • 在GANs模型中,当模型达到稳定时,判别器会输出pmodel和pdata的比例,理想情况下我们希望是0.5。但是深度神经网络往往倾向于产生高度自信的输出(over-confident),这样会保证正确类有一个极其高的概率值例如0.99999,这不是我们想要的结果。因为生成器和判别器对抗如果是0.99999,那我们还要生成器或者判别器干嘛。(Goodfellow 2014).
    在这里插入图片描述

2.2 具体怎么实现的?

在这里插入图片描述

2.3 为什么要单侧,单侧具体指的是哪一侧?

  • 是从公式的角度出发,标签平滑要保证在不影响目标函数的情况下进行。
    在这里插入图片描述

2.4 one-sided label smoothing小结

  • 它其实被看作一项优秀地正则化器,尤其是在目标检测中。他不会鼓励model在训练集上去选择不正确地类,而是降低了对正确类地置信度。
  • 对比其他正则化器:如果正则化系数足够高,其他的正则化器会导致误分类
  • 该正则化器可以帮助判别器更好的取对抗生成器。

3. GANs中的模式崩塌现象(mode collapse)

3.1 什么是模式坍塌

  • 为了更形象的解释模式坍塌,我们用下面的图来解释。现在我们想用q分布取近似p分布,左右两个图都多多少少有模式坍塌,左边少,因为它拟合p分布的峰值情况比较好,右边就比较差,完完全全落在了一个峰上。这就是模式崩塌现象。可以想象原本我可以从p分布中产生10类图片,而现在我智能产生更少类别的图片,这不是我们想要的结果。
    在这里插入图片描述

3.2 什么原因导致了模式崩塌

  • 一些研究者研究了相关得问题,但是都没有得到很好得解决,只是得出了一个结论:模式崩塌不是由于散度得原因引起得。
  • 所以说GANs中存在得模式崩塌问题是不确定的。
    在这里插入图片描述

3.3 如何解决模式崩塌问题

GANs在训练过程中不可能达到全局最优解

3.3.1 提升GAN的学习能力,进入更好的局部最优解

  • 如下图所示,通过训练红线慢慢向蓝线的形状、大小靠拢,比较好的局部最优自然会有更多的模式,直觉上可以一定程度减轻模式崩溃的问题。
  • 代表模型有unrolled GAN
    在这里插入图片描述

3.3.2 2.放弃寻找更优的解,只在GAN的基础上,显式地要求GAN捕捉更多的模式

  • 虽然红线与蓝线的相似度并不高,但是“强制”增添了生成样本的多样性,而这类方法大都直接修改GAN的结构
  • 代表模型MAD-GAN
    在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_44441131/article/details/106428788