英特尔开源版HE-Transformer,对于隐私数据AI终于上手了!

正如所有数据科学家畅言的那样,数据集是人工智能的生命线,这对所有处理个人身份信息(如医疗保健)的行业构成了固有的挑战,但令人欣喜的是,对于模拟训练的匿名加密方法已经取得了令人鼓舞的进展。

2018年12 月3日在加拿大蒙特利尔召开的NeurIPS 2018会议上 ,英特尔宣布推出开源版 HE-Transformer ,这是一种允许AI系统对敏感数据进行操作的工具。开源版 HE-Transformer 基于简单加密算法库( SEAL ),是英特尔神经网络编译器nGraph的同态加密(HE)后端,HE允许对加密数据进行计算。

微软研究院本周也在开源软件中发布过。两家公司将 HE-Transformer 描述为“隐私保护”机器学习的典范。

“它允许对加密数据进行计算。当应用于机器学习时,它能够让数据所有者获得价值信息的同时不暴露基础数据。并且,该工具可以使AI模型所有者通过以加密形式部署来保护他们的模型 。” 英特尔研究科学家Fabian Boemer和英特尔研究高级主管Casimir Wierzynski在一篇博客文章中写道。

HE-Transformer 中的“HE”是同态加密的缩写,是一种加密形式,可以基于密文(被算法加密的明文或文件内容)上进行计算 ,生成一个加密结果 。并且在解密时,与未加密文本上执行的操作结果完全匹配。

HE 是一项较新的技术 ,IBM研究员Craig Gentry在2009年开发了第一个HE方案。正如Boemer和Wierzynski认为的那样,设计一款AI模型不仅需要机器学习,还需要加密和软件工程方面的专业知识。

HE-Transformer 通过提供一个抽象层来支持开发过程,该抽象层可以应用于开源框架(如谷歌的TensorFlow、Facebook的PyTorch和MXNet)上的神经网络。它不需要手工将模型集成到密码库中。

HE-Transformer 结合了Cheon-Kim-Kim-Song(CKKS)加密方案以及加法和乘法运算,例如加法,广播,常数,卷积,点,乘,否定,填充,整形,结果,切片和减法。此外,它还支持HE特定技术,如明文值旁路,SIMD打包,OpenMP并行化和明文操作。

英特尔声称,E-Transformer使用在TensorFlow中训练的浮点模型,在可用于加密数据的神经网络上提供最先进的性能。

微软研究院首席研究员兼密码学研究经理  Kristin Lauter表示:“我们很高兴与英特尔合作,为更多的数据科学家和隐私保护机器学习系统开发人员带来同态加密。”

目前,HE-Transformer直接与TensorFlow的nGraph编译器 和运行时集成,对PyTorch 的支持也即将推出。对于那些能够将神经网络导出到ONXX的深度学习框架,例如PyTorch,CNTK和MXNet,可以通过将模型导入ONXX中的nGraph并以序列化格式导出它们来使用这些框架。

Boemer 和Wierzynski表示,未来版本的HE-Transformer将支持更多种类的神经网络模型。

他们写道:“基于最新的进展成果,HE已经成为了一种有价值的深度学习工具。” “研究人员可以利用TensorFlow快速开发新的HE深度学习拓扑。”

来自 “ https://venturebeat.com/2018/12/03/intel-open-sour ”,原文链接:http://blog.itpub.net/31545819/viewspace-2284258/,如需转载,请注明出处,否则将追究法律责任。

猜你喜欢

转载自blog.csdn.net/weixin_42137700/article/details/84869300