科研篇四:对抗样本20篇-ICML2019

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/weixin_38316806/article/details/102683019

一、对抗攻击(Adversarial Attack)

1.1.Adversarial Attacks on Node Embeddings via Graph Poisoning

一般来说,paper或者是新方法新理论,或者是新应用新场景。本文属于后者(对基于随机游走(Random walks)方法的图模型的攻击)。

LINK:http://proceedings.mlr.press/v97/bojchevski19a.html

在这里插入图片描述

1.2.Adversarial camera stickers: A physical camera-based attack on deep learning systems

新应用新场景(通过在相机上粘贴纸来达到对抗攻击的目的)。

LINK:https://arxiv.org/pdf/1904.00759.pdf

在这里插入图片描述

二、对抗防御

对抗防御一般可以从预处理、detector等等角度入手。ICML2019入选的对抗防御论文中就有这些方向的工作。

2.1.Using Pre-Training Can Improve Model Robustness and Uncertainty

如题,探讨预训练在提高网络鲁棒性等方面的作用。

LINK:https://arxiv.org/pdf/1901.09960v1.pdf

在这里插入图片描述

2.2.Improving Adversarial Robustness via Promoting Ensemble Diversity

该paper探索了单一网络之间的交互,定义了集成多样性(ensemble diversity),并且采用了ADP正则器(Adapative Diversity Promoting regularizer)来鼓励多样性。

LINK:https://arxiv.org/pdf/1901.08846.pdf
CODE:https://github.com/P2333/Adaptive-Diversity-Promoting

在这里插入图片描述

2.3.On Certifying Non-Uniform Bounds against Adversarial Attacks

本文旨在寻找adversary-free的区域,并且与之前采用uniform bound的工作不同,本文采用non-uniform bound并且以之来作为神经网络模型的决策边界

LINK:https://arxiv.org/pdf/1903.06603v1.pdf

在这里插入图片描述

三、其他角度谈对抗样本

有些论文是讨论对抗样本产生原因以及一些界限验证方面的工作。

3.1. First-Order Adversarial Vulnerability of Neural Networks and Input Dimension

本文探讨网络脆弱性梯度之间的关系,而且发现网络脆弱性不依赖于网络拓扑结构(network topology)。
在这里插入图片描述

3.2.Adversarial examples from computational constraints

本文认为对抗样本产生的原因更多地不是因为信息理论的限制而是因为计算约束对抗样本很有可能由于学习算法的计算局限性而无法避免

LINK:https://arxiv.org/pdf/1805.10204v1.pdf

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_38316806/article/details/102683019