条件GAN域翻译

甘我培训执行风格从两个不同的图像域(源S和目标T)。 因为我有我有一个额外的类信息Q网络(除了G和D)措施的分类结果生成的图像为目标域和标签(LeNet网络)和误差传播到发电机D。 从系统的收敛我已经注意到了D开始总是从8(的损失函数误差D网络),略下降到4.5G损失函数误差从1开始并迅速下降至0.2。 的损失函数D和G我可以找到使用在这里的损失函数Q网络是绝对叉。 迭代的错误情节是:
这里写图片描述
D和G的损失函数是:

def discriminator_loss(y_true,y_pred):
BATCH_SIZE=10
return K.mean(K.binary_crossentropy(K.flatten(y_pred), K.concatenate([K.ones_like(K.flatten(y_pred[:BATCH_SIZE,:,:,:])),K.zeros_like(K.flatten(y_pred[:BATCH_SIZE,:,:,:])) ]) ), axis=-1)

def discriminator_on_generator_loss(y_true,y_pred):
BATCH_SIZE=10
return K.mean(K.binary_crossentropy(K.flatten(y_pred), K.ones_like(K.flatten(y_pred))), axis=-1)

def generator_l1_loss(y_true,y_pred):
BATCH_SIZE=10
return K.mean(K.abs(K.flatten(y_pred) - K.flatten(y_true)), axis=-1)
是否有意义的误差函数D总是那么高? 错误的解释是什么D和G吗? 的损失呢D应该是小一开始和迭代后上升吗? 抑制了这是一个好的主意吗D在G损失阈值? 最后,在培训期间是否有意义的计算误差损失函数在一个验证集,而不是从我的训练集,我使用吗? (而不是直接使用train_on_batch使用fit,然后评估测试集)。

编辑:

我认为失去的损失discriminator和discriminator_on_generator甘斯的正常损失函数,对吧? 然后,有额外的损失函数generator_l1_loss我不明白为什么? 似乎没有重量剪裁的瓦瑟斯坦甘斯损失函数(或L1生成的结果)之间的距离。

猜你喜欢

转载自blog.csdn.net/weixin_43198791/article/details/82745496
GAN
今日推荐