GAN_李弘毅讲解

GAN_李弘毅讲解:

上式中,xi从data中sample的一部分,现在的目的就是最大化这个似然函数,使得Generator最可能产生data中的这些sample;

上式中之所以如此设计V函数,是为了后面与KL以及cross entropy结合起来;

问题一:上图存在的一个问题:G迭代的过多造成G1下的D*得到的两种数据的分布差异更大了;

使用优化在前期的话由于梯度较小,学习较慢,所以改为了下面那种形式;

问题二:由于采用JSD距离,可以发现当data与G产生的数据没有重叠时,两者的距离始终为log2,当两者离得更近时依然如此,但实际操作时离得更近时应当loss更小?

问题三:G产生的数据与data之间形成了一种“猫捉老鼠“的游戏,下图是一种解决方式,暂时还没看懂;

GAN的一些发展:

猜你喜欢

转载自www.cnblogs.com/zf-blog/p/10508847.html