CVPR2022 | 医学图像分析中基于频率注入的后门攻击

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—> CV 微信技术交流群

本工作由京东探索研究院和西北工业大学联合完成,已经被CVPR2022接收。在本文中我们提出了一个基于频域信息注入的后门攻击方法(Frequency-Injection based Backdoor Attack,FIBA)。具体来说,我们设计了一个频域触发器,通过线性组合两幅图像的振幅谱图,将触发器图像的低频信息注入有毒图像。由于 FIBA 保留了受污染图像像素的语义,因此既可以对分类模型进行攻击,也可以对密集预测模型进行攻击。我们在医学图像领域的三个基准上进行了实验(用于皮肤病变分类的 ISIC-2019数据集,用于肾脏肿瘤分割的 KiTS-19 数据集,以及用于内镜伪像检测的 EAD-2019 数据集),以验证 FIBA 攻击医学图像分析模型的有效性以及其在绕过后门防御方面的优势。

outside_default.png

36872c378201a7027eab71edc6da4ffe.png

01

研究背景

近年来,人工智能系统的安全性引起了越来越多的研究关注,特别是在医学成像领域。为了开发安全的医学图像分析(Medical Image Analysis,MIA)系统,对可能存在的后门攻击(backdoor attack, BAs) 的研究不可缺少。后门攻击的目标是在模型训练时嵌入一个隐藏后门,在测试阶段对于良性的测试样本后门不激活, 模型表现正常;然而,一旦后门被有毒样本中的触发器激活,预测结果将会改变为攻击者预期的特定目标标签。

然而,由于医学图像成像模式(如x线、CT和MRI图像)和分析任务(如分类、检测和分割)的多样性,设计一种适用于各种MIA系统的统一的后门攻击方法颇具挑战性。现有的后门攻击方法大多是针对自然图像分类模型进行攻击,将时域触发器直接应用于训练图像[1,2,3],不可避免地会破坏受污染图像部分像素的语义(如图1所示),导致对密集预测模型的攻击失败。

视觉心理物理学[4,5]证明,视觉皮层的模型是基于根据傅里叶频谱(振幅和相位)进行的图像分解。其中振幅谱图可以捕捉低层次的分布,而相位谱可以捕捉高层次的语义信息[6]。此外,据观察,振幅谱图的变化并不对高层次语义的感知没有显著影响[6,7]. 基于这些富有洞察力和启发性的观察,我们提出了一种新的隐形频率注入后门攻击(FIBA)范式,其中触发器是在图像的振幅谱图中注入,而相位谱图的信息则保持不变。由于所提出的触发器被注入到振幅谱图中而不影响相位谱图,所以FIBA通过保留空间布局,保护了中毒像素的语义,因此能够攻击分类和密集预测模型。

cd3a092d1433edb03273d55a7c9b599d.png

图 1 不同后门攻击方法的可视化对比

02

方法介绍

1、算法概述

具体来说,给定一个触发器图像和一个良性图像,我们首先采用快速傅里叶变换(FFT)来获得两个图像的振幅谱图和相位谱图。然后,我们保持良性图像的相位谱不变,以保证隐蔽性,同时通过混合两幅图像的振幅谱合成一个新的振幅谱图。最后,通过对良性图像的合成振幅谱图和原始相位谱图应用反傅里叶变换(iFFT),得到中毒图像。但是,我们也注意到如果有来自同一域的其他伪触发器图像,也是有可能激活模型中的后门。为了解决这个问题,受到[3]的启发,我们还利用伪触发器鲁棒后门训练机制来保证触发器图像的唯一性。

4d819ec2adef3f9ff10f330da34e7e68.png

图 2 基于频率注入的后门攻击(FIBA)框架

2、算法详述

如图2(a)所示,给定一个良性图像  以及一张特殊的触发器图像  ,我们能够通过快速傅里叶变换  获得其频域信息

相对应的   和  分别代表了傅里叶变换的振幅和相位分量,我们将  和  的振幅谱图和相位谱图表示为

我们将触发器图像的振幅谱图  作为关键信息,并通过与其和良性图像的振幅谱图  混合以产生一个中毒的振幅谱图   。为了实现这个目的,我们引入一个二元掩膜 ϵ ,其中  确定待混合振幅谱的低频图像块的位置和范围,其值在该图像块内为1,在其他地方为0。并且,我们引入  作为混合比例,最终的中毒振幅谱图  计算如下:

并和良性图像的相位谱图  结合,通过反傅里叶变换获得中毒图像  。上述流程可以概括为触发器注入函数  。

获得了中毒图像之后,我们可以利用良性图像和中毒图像,通过两种模式(干净模式和攻击模式)训练模型并嵌入后门:

其中  代表参数为  的分类器,而  表示目标类别函数,较为常见的是all-to-one模式,即将所有的原始标签为特定的目标标签。然而,正因为触发器注入函数  的关键在于改变中毒图像的振幅谱图(反映图像低层次的分布信息),来自和触发器图像  相同域的伪触发器图像  也有可能激活模型中的后门。受到WaNet[3]的启发,我们提出了一个伪触发器的鲁棒性后门训练模式,以实现触发器图像的唯一性。

如图1(b)所示,在训练过程中,我们在每一个batch中通过  分别控制干净数据、有毒数据和伪触发器数据的比例,它们服从  。经过训练后,后门攻击只会被特定的触发图像  激活。

03

实验结果

我们分别在用于皮肤病变分类的ISIC-2019数据集,用于肾脏肿瘤分割的KiTS-19数据集,以及用于内镜伪影检测的EAD-2019 数据集上进行实验。实验使用Attack Success Rate (ASR)来衡量攻击效果,即中毒样本被成功预测为特定目标类别的比例(分类任务上体现在样本层次,分割任务体现在像素层次,检测任务上体现在边界框层次)。在皮肤癌分类任务中,不难看出FIBA方法优于同样隐性的攻击方法WaNet。虽然显性的攻击方法BadNet和Blended攻击方法略微取得了比FIBA更好的攻击效果,但是后续实验中发现FIBA在隐蔽性和对于防御方法的抵抗性上更胜一筹。此外在分割和检测任务上,FIBA的表现均优于其他的方法。图3可视化展示了不同攻击方法对于分割任务的影响。

4c1f49eae6fd3c77af1759091214d4ec.png

表 1 对ISIC-2019不同后门攻击方法的实验结果对比

6f20e8c20a0f40efd5532d7d4d7f18a5.png

表 2 对KiTS-19不同后门攻击方法的实验结果对比

abab83bb2b9efb8667cde9454f4bc394.png

表 3 表 4 对EAD-2019不同后门攻击方法的实验结果对比

d44cba0105e7d0c7645cb016685b33a9.png

图 3  KiTS-19数据集在不同攻击下中毒样本的分割结果可视化。红色代表肾脏,绿色代表肿瘤

在图4中,我们使用Grad-CAM[8]对中毒样本进行分析,以评估不同攻击方法对于模型行为的影响。GradCAM能够成功识别BadNet、Blended和WaNet生成的异常触发区域。然而,由于FIBA在频域注入触发器,它没有在特定的空间区域引入异常激活,与Clean模型具有相似的行为。

4eedee9c183f66e41c6f1a89a83d6773.png

图 4 使用Grad-CAM对干净和中毒模型在不同攻击下进行可视化分析

04

结论

我们在医学图像分析领域引入了一种名为FIBA的新型后门攻击方法。FIBA在频域的振幅谱图中注入触发器。它通过保持相位信息保留了中毒图像像素的语义,使得它能够向分类和密集预测模型提供攻击。在三个有代表性的医学图像分析任务上进行的广泛实验证明了FIBA的有效性,以及它在攻击性能和对各种防御技术的抵抗力方面优于最先进的方法。

在现实生活中,当医院将患者数据委托给第三方进行模型培训或在联邦学习框架下进行时,可能会发生后门攻击,这可能会导致误诊或漏诊。我们的研究指出了在医学图像分析领域的深度学习模型在后门攻击下的弱点,通过促进相应的模型防御研究,有助于开发更安全的人工智能系统。从这个意义上说,我们认为我们的工作对开发值得信赖的人工智能技术的未来研究有积极的影响。

论文链接:https://arxiv.org/abs/2112.01148

代码链接: https://github.com/HazardFY/FIBA

参考文献

[1]Yu Feng*, Benteng Ma*, Jing Zhang, Shanshan Zhao, Yong Xia, Dacheng Tao. FIBA: Frequency-Injection based Backdoor Attack in Medical Image Analysis. CVPR 2022.

[2]Tianyu Gu, Brendan Dolan-Gavitt, and Siddharth Garg. Badnets: Identifying vulnerabilities in the machine learning model supply chain. arXiv preprint arXiv:1708.06733, 2017.

[3] Xinyun Chen, Chang Liu, Bo Li, Kimberly Lu, and Dawn Song. Targeted backdoor attacks on deep learning systems using data poisoning. arXiv preprint arXiv:1712.05526, 2017.

[4] Tuan Anh Nguyen and Anh Tuan Tran. Wanet - imperceptible warping-based backdoor attack. In ICLR, 2021.

[5] Nathalie Guyader, Alan Chauvin, Carole Peyrin, Jeanny H´erault, and Christian Marendaz. Image phase or amplitude? rapid scene categorization is an amplitude-based process. Comptes Rendus Biologies, 327(4):313–318, 2004.

[6] Leon N Piotrowski and Fergus W Campbell. A demonstration of the visual importance and flexibility of spatialfrequency amplitude and phase. Perception, 11(3):337–346,1982.

[7] Quande Liu, Cheng Chen, Jing Qin, Qi Dou, and Pheng-Ann Heng. FedDG: Federated domain generalization on medical image segmentation via episodic learning in continuous frequency space. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 1013–1023, 2021.

[8] Yanchao Yang and Stefano Soatto. FDA: Fourier domain adaptation for semantic segmentation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4085–4095, 2020.

[9] Ramprasaath R Selvaraju, Michael Cogswell, Abhishek Das, Ramakrishna Vedantam, Devi Parikh, and Dhruv Batra. Grad-cam: Visual explanations from deep networks via gradient-based localization. In Proceedings of the IEEE/CVF International Conference on Computer Vision, 2017.

 THE END 

点击进入—> CV 微信技术交流群

 
  

CVPR 2022论文和代码下载

后台回复:CVPR2022,即可下载CVPR 2022论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF

医疗影像交流群成立
扫描下方二维码,或者添加微信:CVer6666,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如医疗影像+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信: CVer6666,进交流群
CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!

▲扫码进群
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看

猜你喜欢

转载自blog.csdn.net/amusi1994/article/details/126113339