【(强推)李宏毅2021/2022春机器学习课程】GAN Basic Theory

文章目录


在这里插入图片描述

from: https://www.bilibili.com/video/BV1Wv411h7kN?p=62,21年视频
pdf


在这里插入图片描述


GAN 要做的事就是:找出这个distribution
在这里插入图片描述
找一组参数θ,使得 P G P_{G} PG 接近 P d a t a P_{data} Pdata, Maximum Likelihood (最大似然是什么?)?
在这里插入图片描述

Maximum Likehood 等同于 Minimize KL Divergence
在这里插入图片描述
找一个Generator,使得 P G P_{G} PG P d a t a P_{data} Pdata的Divergence 相近。
但是 P G P_{G} PG P d a t a P_{data} Pdata的公式都不知道,所以Divergence 无法直接计算。所以引入GAN
在这里插入图片描述
尽管我们不知道分布,但是可以sample

在这里插入图片描述
1固定住G,使得D 最大,这个过程等同于binary classifier,D的值跟JS divergence 也有关
在这里插入图片描述
直观解释:如果D很小,就分辨不出 P G P_{G} PG P d a t a P_{data} Pdata, divergence自然就小,所以D的值跟divergence 成正相关
在这里插入图片描述
数学推导:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
理解min max
在这里插入图片描述
在这里插入图片描述
对max做微分
在这里插入图片描述
Algorithm
在这里插入图片描述
Don’t update G too much
在这里插入图片描述
实作:D要多训练,G要少训练(因为是在D求得最大值后,再求G,但是D不可能一次性求得最优,所以要反复训练)
在这里插入图片描述
在这里插入图片描述
实作上 Objective Function换成下面的,梯度大? 不用改code?
在这里插入图片描述
直观:D分辨不出来
在这里插入图片描述
在这里插入图片描述
问题?
在这里插入图片描述

其它参考博客

李宏毅《GAN Lecture》学习笔记4 - Basic Theory

李宏毅GAN笔记——Basic Theory

猜你喜欢

转载自blog.csdn.net/weixin_43154149/article/details/124280088