对于一个多维概率联合分布,在大多数情况下,很难用一个多维函数来表示。除非这个概率分布是一个高斯函数或者多个高斯函数的和。
GAN网络正好提供了另外一个重表示多位概率分布的方法:x=f(z)
当我们穷尽所有z的值,然后把得到的所有x统计起来,就能得到x的概率分布。
具体问题是这样:
当我们有很多很多的x(很多很多猫的照片),这些猫的照片变形成了一个在所有照片组成的空间中的分布。要直接表示出这个概率分布是非常困难的。
当使用GAN的时候,我们通过学习得到了x=f(z)这个函数。通过穷尽z,我们可以重现x的概率分布。也就是任何通过x=f(z)的到的x都对应了一张猫的照片。
对于Conditional GAN, CGAN。如果我们把GAN网络理解为概率分布的一种表示,那么添加一个条件概率后,就是CGAN表示的是一个条件概率的分布。这个条件又叫做latent variable。它去不同的值就代表不同的分布。
比如在猫图片的分布上加上了一个代表猫种类的latent variable。但latent variable取不同的值的时候,我们就能得到不同种类的猫了。
从训练上来看,GAN只需要未标注的数据,而CGAN需要标注了的数据。