generative adversarial network在概率问题中的理解

对于一个p(x,y,z...)多维概率联合分布,在大多数情况下,很难用一个多维函数来表示。除非这个概率分布是一个高斯函数或者多个高斯函数的和。

GAN网络正好提供了另外一个重表示多位概率分布的方法:x=f(z)

当我们穷尽所有z的值,然后把得到的所有x统计起来,就能得到x的概率分布。

具体问题是这样:

当我们有很多很多的x(很多很多猫的照片),这些猫的照片变形成了一个在所有照片组成的空间中的分布。要直接表示出这个概率分布是非常困难的。

当使用GAN的时候,我们通过学习得到了x=f(z)这个函数。通过穷尽z,我们可以重现x的概率分布。也就是任何通过x=f(z)的到的x都对应了一张猫的照片。

对于Conditional GAN, CGAN。如果我们把GAN网络理解为概率分布的一种表示,那么添加一个条件概率后,就是CGAN表示的是一个条件概率的分布。这个条件又叫做latent variable。它去不同的值就代表不同的分布。

比如在猫图片的分布上加上了一个代表猫种类的latent variable。但latent variable取不同的值的时候,我们就能得到不同种类的猫了。

从训练上来看,GAN只需要未标注的数据,而CGAN需要标注了的数据。

猜你喜欢

转载自blog.csdn.net/ziliwangmoe/article/details/87290733