Monash call: AI,用起来很happy,可是你考虑过安全性么?

人工智能技术革新的速度和力度令人眩目,在人们欢呼技术进步红利之余,越来越多的人担忧人工智能技术是否足够安全。技术的进步往往是一把“双刃剑”,一方面,人工智能已为科学发展和社会发展的方方面面带来了很多有益的应用,特别是在网络安全领域,有望开辟出一条新的路径;另一方面,人工智能正在改变国家、机构和个人未来的安全远景,包括人工智能自身存在的各种安全问题以及人工智能被滥用而产生的安全问题。

人工智能面临的安全挑战

人工智能的网络安全风险存在于两个方面,一是人工智能自身存在的安全问题,包括人工智能会带来信任问题、隐私数据窃取问题、自身漏洞被攻击等问题。二是人工智能滥用引发的安全隐患,包括深度造假、大规模高效率攻击等。

人工智能自身安全问题

一项技术必然有其自身存在的脆弱部位,人工智能技术也难于幸免。

人工智能学习框架和组件存在安全漏洞风险,国内网络安全企业的研究团队曾屡次发现TensorFlow和Caffe等软件框架及其依赖库的安全漏洞,这些漏洞可被攻击者利用进行篡改或窃取人工智能系统数据和信息,导致系统决策错误甚至崩溃。

人工智能存在可靠性问题。人工智能的开发和训练可能有误,导致人工智能决策失误或意外故障。例如,2018年3月,一辆正在进行自动驾驶测试的优步(Uber)撞死了一名正在推行自行车穿越马路的女子。后续分析报告显示,自动驾驶系统未能正确分类物体,在撞击前尝试紧急制动之前的1.3秒中曾多次改变分类。2016年11月,在深圳举办的中国高新技术成果交易会上,一个名叫小胖的儿童机器人突然原因不明反复撞击展台,造成一人受伤。

人工智能还容易受到外界的欺骗。人工智能依赖对大量样本数据的学习,如果样本数据不规范或有错误,人工智能则很可能被外界的信息欺骗。已有安全专家发现,黑客可以通过篡改数据集或现实环境攻击人工智能,使之做出完全错误的决策。例如,2017年12月,麻省理工学院的计算机专业学生在并不知道人工智能算法代码的情况下,对人工智能进行操纵,让谷歌云视觉AI项目将“机枪”错认成了“直升机”。

人工智能滥用的安全隐患

人工智能在科技、社会等方面都有很多有益的应用,然而,其滥用的危害同样不可小觑。

人工智能可以被武器化并用于加强和升级网络攻击。传统网络攻击中,攻击规模和攻击效率难以兼顾,而使用人工智能自动执行网络攻击在很大程度上可以兼顾这两个方面。有专家指出,人工智能可用于实现真正大规模的攻击自动化,还可以降低攻击成本。

“深度造假”是指利用人工智能技术可以制作超写实的视频或音频记录,将一个人的动作和语言叠加到另一个人身上,逼真地伪造出某人似乎在做或说他们实际上没有做的事情。这项技术已经被各国专家关注,并认为其可能造成煽动政治暴力等严重后果,而人工智能技术的加入使深度造假难以检测。

人工智能还能帮助黑客更方便地绕过传统的安全工具,例如,名为DeepLocker的新型攻击工具能够绕过传统的安全工具,在设备中安装勒索软件或其他恶意软件。

人工智能会加大隐私泄露风险。人工智能可实现大量多维度数据的深度挖掘分析,甚至是进行数据的再学习和推演,导致现行的数据匿名化等安全保护措施无效。剑桥分析公司就是通过关联分析的方式获得了海量的美国公民用户信息,借此实施各种政治宣传和非法牟利活动。(中国科学院成都文献情报中心 徐婧)

文献:
[1]徐婧.人工智能网络安全领域的“双刃剑”[J].中国信息安全,2019(07):35-37.

发布了242 篇原创文章 · 获赞 338 · 访问量 65万+

猜你喜欢

转载自blog.csdn.net/MrCharles/article/details/105278107