CONTRASTIVE REPRESENTATION DISTILLATION

CONTRASTIVE REPRESENTATION DISTILLATION我们常常希望将表征性知识从一个神经网络转移到另一个神经网络。这方面的例子包括将一个大型网络提炼成一个较小的网络,将知识从一种感觉模式转移到另一种感觉模式,或者将一系列模型集合成一个单一的估计器。知识提炼是解决这些问题的标准方法,它使教师和学生网络的概率输出之间的KL背离最小。我们证明这个目标忽略了教师网络的重要结构知识。这促使我们提出了另一个目标,即训练学生在教师的数据表述中捕捉到更多的信息。我们把这个目标表述为对比性学习。实验
分类: 其他 发布时间: 11-27 08:52 阅读次数: 0

torch.distributed.all_gather

torch.distributed.all_gather
分类: 其他 发布时间: 11-27 08:52 阅读次数: 0

Generative Models as a Data Source for Multiview Representation Learning

Generative Models as a Data Source for Multiview Representation Learning生成模型现在能够产生高度逼真的图像,这些图像看起来与它们所训练的数据几乎没有区别。这就提出了一个问题:如果我们有足够好的生成模型,我们还需要数据集吗?我们在从黑盒生成模型而不是直接从数据中学习通用的视觉表征的背景下研究这个问题。给定一个现成的图像生成器,但不能获得其训练数据,我们从这个生成器输出的样本中训练表征。我们表明,对于对比性方法来说,这种multivie
分类: 其他 发布时间: 11-27 08:51 阅读次数: 0

Self-Attention Generative Adversarial Networks

Self-Attention Generative Adversarial Networks在本文中,我们提出了自注意生成对抗网络(SAGAN),它允许对图像生成任务进行注意驱动的远程依赖建模。传统的卷积GANs只在低分辨率特征图中产生局部空间点的函数,从而产生高分辨率的细节。此外,鉴别器可以检查图像的遥远部分中的高度详细的特征是否彼此一致。此外,最近的工作表明,generator conditioning GAN的性能。利用这一观点,我们将光谱标准化应用于GAN生成器,并发现这改善了训练表现。在具有挑
分类: 其他 发布时间: 11-27 08:50 阅读次数: 0

MSG-GAN Multi-Scale Gradients for Generative Adversarial Networks

MSG-GAN: Multi-Scale Gradients for Generative Adversarial Networks虽然生成对抗网络(GANs)在图像合成任务中取得了巨大的成功,但它们却很难适应不同的数据集,部分原因是训练期间的不稳定性和对超参数的敏感性。这种不稳定性的一个普遍接受的原因是,当真实分布和虚假分布的支持度没有足够的重叠时,从鉴别器传递到生成器的梯度变得毫无信息。在这项工作中,我们提出了多尺度梯度生成对抗网络(MSG-GAN),这是一种简单而有效的技术,通过允许梯度从鉴别器流向
分类: 其他 发布时间: 11-27 08:50 阅读次数: 0

Quantizing deep convolutional networks for efficient inference A whitepaper

Quantizing deep convolutional networks for efficient inference: A whitepaper深度网络越来越多地被用于边缘的应用。边缘的设备通常具有较低的计算能力,在内存和功耗方面受到限制。也有必要减少向云端传输模型的通信量,以节省电力和减少网络连接要求。因此,迫切需要优化模型的技术,以减少模型大小,加快推理速度和降低功耗。在这个问题上有广泛的研究,有几种方法被考虑。一种方法是从头开始建立高效模型[1],[2]和[3]。另一种方法是通过应用量化、
分类: 其他 发布时间: 11-27 08:50 阅读次数: 0

Momentum Contrast for Unsupervised Visual Representation Learning

Momentum Contrast for Unsupervised Visual Representation Learning我们提出了动量对比(MoCo),用于无监督的视觉表征学习。从对比学习[29]的角度来看,我们用一个队列和一个移动平均编码器建立了一个动态字典。这使得我们能够即时建立一个大型的、一致的字典,从而促进了对比性无监督学习。MoCo在ImageNet分类的common linear protocol下提供了有竞争力的结果。更重要的是,MoCo学到的表征可以很好地转移到下游任务中。MoC
分类: 其他 发布时间: 11-27 08:49 阅读次数: 0

A Comprehensive Overhaul of Feature Distillation

A Comprehensive Overhaul of Feature Distillation我们研究了实现网络压缩的特征蒸馏方法的设计方面,并提出了一种新的特征蒸馏方法,其中蒸馏损失的设计是为了使教师变换、学生变换、蒸馏特征位置和距离函数等各个方面产生协同作用。我们提出的蒸馏损失包括一个带有新设计的余量ReLU的特征变换、一个新的蒸馏特征位置和一个部分L2距离函数,以跳过对学生的压缩有不利影响的冗余信息。在ImageNet中,我们提出的方法与ResNet50的top-1误差达到21.65%,超过了教师
分类: 其他 发布时间: 11-27 08:49 阅读次数: 0

Distilling Visual Priors from Self-Supervised Learning

Distilling Visual Priors from Self-Supervised Learning卷积神经网络(CNN)很容易对小的训练数据集进行过度拟合。我们提出了一个新颖的两阶段管道,利用自我监督学习和知识提炼来提高CNN模型在数据不足的情况下的图像分类的泛化能力。第一阶段是通过自监督学习学习一个拥有丰富的、可泛化的视觉表征的教师模型,第二阶段是以自我蒸馏的方式将表征提炼到学生模型中,同时针对图像分类任务微调学生模型。我们还为自监督对比学习代理任务提出了一种新的边际损失,以便在数据不足的情况
分类: 其他 发布时间: 11-27 08:49 阅读次数: 0

Contrastive Model Inversion for Data-Free Knowledge Distillation

Contrastive Model Inversion for Data-Free Knowledge Distillation模型反演,其目标是从预训练的模型中恢复训练数据,最近被证明是可行的。然而,现有的反转方法通常存在模式崩溃问题,即合成的实例彼此高度相似,因此对下游任务(如知识提炼)的有效性有限。在本文中,我们提出了对比性模型反演(CMI),其中数据多样性被明确地建模为一个可优化的目标,以缓解模式塌陷问题。我们的主要观察结果是,在相同数据量的约束下,更高的数据多样性通常表明更强的实例区分能力。为
分类: 其他 发布时间: 11-27 08:48 阅读次数: 0

Training Generative Adversarial Networks in One Stage

Training Generative Adversarial Networks in One Stage生成对抗网络(GANs)在各种图像生成任务中表现出前所未有的成功。然而,这些令人鼓舞的结果是以繁琐的训练过程为代价的,在这个过程中,生成器和鉴别器要在两个阶段交替更新。在本文中,我们研究了一种通用的训练方案,该方案只需在一个阶段就能有效地训练GANs。基于生成器和判别器的对抗性损失,我们将GANs分为两类,即对称GANs和非对称GANs,并引入一种新的梯度分解方法来统一这两类,使我们能够在一个阶段内训
分类: 其他 发布时间: 11-27 08:48 阅读次数: 0

CONSISTENCY REGULARIZATION FOR GENERATIVE ADVERSARIAL NETWORKS

CONSISTENCY REGULARIZATION FOR GENERATIVE ADVERSARIAL NETWORKS众所周知,生成对抗网络(gan)很难训练,尽管有相当多的研究努力。已经提出了几种用于稳定训练的正则化技术,但是它们引入了大量的计算开销,并且与现有的技术(如光谱归一化)相互作用很差。在这项工作中,我们提出了一种简单有效的训练稳定器,基于一致性正则化的概念——半监督学习文献中流行的技术。特别是,我们增强了传入GAN判别器的数据,并惩罚了判别器对这些增强的敏感性。我们进行了一系列的实验
分类: 其他 发布时间: 11-27 08:48 阅读次数: 0

Improved Consistency Regularization for GANs

Improved Consistency Regularization for GANs最近的工作(Zhang et al. 2020)通过在鉴别器上强制一致性代价,提高了生成对抗网络(gan)的性能。我们在几个方面改进了这项技术。我们首先说明一致性正则化可以将工件引入GAN样本,并解释如何修复这个问题。然后,我们提出了几个修改一致性正则化程序的设计,以提高其性能。我们进行了广泛的实验,量化了我们的改进带来的好处。对于CIFAR-10和CelebA上的无条件图像合成,我们的修改在各种GAN架构上产生了最
分类: 其他 发布时间: 11-27 08:48 阅读次数: 0

Image Augmentations for GAN Training

Image Augmentations for GAN Training为了提高分类器的准确性和鲁棒性,数据增强已经被广泛研究。然而,在以前的研究中,图像增强在改善图像合成的GAN模型方面的潜力还没有被彻底研究。在这项工作中,我们系统地研究了现有的各种增强技术在各种环境下对GAN训练的有效性。我们提供了关于如何为vanilla GANs和具有正则化的GANs增强图像的见解和指南,大大改善了生成图像的保真度。令人惊讶的是,我们发现,如果我们在真实图像和生成的图像上使用增强技术,vanilla GAN的生成
分类: 其他 发布时间: 11-27 08:47 阅读次数: 0

Training Generative Adversarial Networks with Limited Data

Training Generative Adversarial Networks with Limited Data
分类: 其他 发布时间: 11-27 08:47 阅读次数: 0

Differentiable Augmentation for Data-Efficient GAN Training

Differentiable Augmentation for Data-Efficient GAN Training在训练数据量有限的情况下,生成式对抗网络(GANs)的性能会严重恶化。这主要是因为判别器正在记忆准确的训练集。为了解决这个问题,我们提出了可微分增强(DiffAugment),这是一个简单的方法,通过对真实和虚假样本施加各种类型的可微分增强来提高GANs的数据效率。以前直接augment训练数据的尝试操纵真实图像的分布,收效甚微;DiffAugment使我们对生成的样本采用可微增广,有效地
分类: 其他 发布时间: 11-27 08:47 阅读次数: 0

Freeze the Discriminator a Simple Baseline for Fine-Tuning GANs

Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs生成式对抗网络(GANs)在计算机视觉、图形学和机器学习等领域表现出了出色的性能,但通常需要大量的训练数据和大量的计算资源。为了解决这一问题,几种方法将迁移学习技术引入GAN训练中。然而,他们要么倾向于过度拟合,要么局限于学习小的分布变化。在本文中,我们证明了简单的微调gan具有冻结的低层鉴别器表现惊人的好。这个简单的基线,即FreezeD,显著优于以前在无条件和条件gan中使用
分类: 其他 发布时间: 11-27 08:47 阅读次数: 0

Conditional image synthesis with auxiliary classifier GANs

Conditional image synthesis with auxiliary classifier GANs本文介绍了一种新的图像合成生成对抗网络(gan)改进训练方法。我们使用标签条件作用构建了GANs的一个变体,结果在128 × 128分辨率的图像样本中显示出全局一致性。我们扩展了以往的图像质量评估工作,提供了两种新的分析方法来评估分类条件图像合成模型中的样本的可辨别性和多样性。这些分析表明,高分辨率样本提供了低分辨率样本中不存在的类信息。在1000个ImageNet类中,128 × 128
分类: 其他 发布时间: 11-27 08:46 阅读次数: 0

A LEARNED REPRESENTATION FOR ARTISTIC STYLE

A LEARNED REPRESENTATION FOR ARTISTIC STYLE绘画风格的多样性为形象的建构提供了丰富的视觉语汇。一个人学习和捕捉这种视觉词汇的程度衡量了我们对绘画更高层次特征的理解,如果不是对一般图像的理解的话。在这项工作中,我们研究了一个单一的、可扩展的深度网络的构建,它可以节省地捕捉多种绘画的艺术风格。我们展示了这样一个网络,通过将一幅画缩减到嵌入空间中的一个点来概括各种艺术风格。重要的是,这个模型允许用户通过任意组合从单个绘画中学习到的风格来探索新的绘画风格。我们希望这项工
分类: 其他 发布时间: 11-27 08:46 阅读次数: 0

SNGAN

【GAN优化】详解SNGAN(频谱归一化GAN)https://arxiv.org/pdf/1802.05957.pdf
分类: 其他 发布时间: 11-27 08:46 阅读次数: 0