深度学习---对抗样本生成

对抗样本攻击:在深度学习神经网络(DNN)输入较小的干扰因素会使DNN出现误判,这种攻击被称为是对抗样本攻击

对抗样本:是指在正常样本中有目的性地添加的一些干扰因素,使得DNN出现误判

举例说明对抗样本分析带来的影响:

1、通过更改路标信息,使得车辆的DNN系统将左转识别为右转
2、在激烈的商业竞争环境下,对抗样本攻击导致恶性竞争
在这里插入图片描述

对抗样本分析分类:

1、白盒:白盒情景下攻击者对模型完全掌握,包括模型的类型、结构、所有参数及权重值;
2、黑盒可探测:攻击者对目标 模型部分了解,但能对模型进行探测或查询,如通过输入观察输出结果;
3、黑盒不可探测:攻击者对目标模 型了解有限或完全没有,构建对抗样本时不允许对目标模型进行探测查询.

实例:

在这里插入图片描述

资料分享:https://blog.csdn.net/pku_langzi/article/details/83989758

其中,需要涉及对所给文本中某些词语的重要性进行计算:

在这里插入图片描述

也可以单独计算某个词语的“贡献率”:

在这里插入图片描述

将所得到的对抗样本提取出来,并进行检测;当深度学习系统对所输入的对抗样本识别率较低的时候,说明对抗样本的干扰性越强;我们也可以借助所得到的对抗样本为深度学习系统进行安全性保障

猜你喜欢

转载自blog.csdn.net/weixin_43264420/article/details/88908228