推动隐私计算技术,360数科提出分割式神经网络框架

自2016年谷歌首次提出联邦学习概念,这个初衷为保证数据交换时信息安全的人工智能基础技术随即在中国掀起风潮。在隐私数据保护上,360数科(原360金融)于2018年引入隐私计算研究,并在2019年宣布成立隐私保护与安全计算研究院,运用联邦学习技术发力大数据隐私保护。今年,360数科进一步推动隐私数据保护领域研究,在业内第一次提出分割式神经网络技术框架(Spilt Neural Network),并通过自主研发的一套系统实现算法落地。

隐私数据项目主要牵头人、360数科隐私保护研究院院长沈赟博士表示,“我们一直以来都在做一些技术上的创新。在隐私数据保护领域,使用神经网络算法更加灵活,可以把不同类型数据提取出来,在统一架构下去学习,效率上能够大幅提升。”

与传统联邦学习不同的是,分割式神经网络技术框架输出层数据的维度远小于原始输入层的维度,即使输出层的数据没有加密也无法反推原始输入层的数据,从而在框架设计上杜绝了数据泄露的问题。由于输出层数据的维度较小,也可以大幅降低服务器端的计算量与内存使用量,减少网络传输量,降低对带宽的要求。

目前国内行业内较为推崇的联邦学习,其原理在于参与学习的各方机器上部署的客户端从服务器端下载现有模型以及参数,而后根据各自所有的数据对模型的参数进行更新,并把结果传回客户端并更新模型。使用该方法不会与服务器交互原始数据,因此保证了原始数据不会出库。另外,原始数据或者梯度在使用前都可以使用某种方式进行加密或加噪,来增强安全性。

与联邦学习类似,分割式神经网络技术框架不需要上传任何原始数据。在使用原始数据或者上传输出层结果前,可以使用各种加密方式进行加密,从而切实保障了隐私数据安全。

而其与联邦学习的不同之处在于,该框架下每个参与学习的客户端各自部署自身的子神经网络,学习后的参数并不需要共享给服务器。每个客户端只需要把最顶层输出层的数据回传给服务器,之后服务器综合各个客户端的结果再由各客户端各自进行更新迭代。

由于网络是分裂部署在各客户端上,它们自身的结构并不与其他各方共享,且自身的权重也不需要与服务器交互,因此可以解决联邦学习中庞大的深度网络带来的服务器与客户端之间大量数据交互带来的网络传输压力。另外,分割式神经网络技术输出层数据的维度会远小于原始输入层的维度,可以解决联邦学习中由于网络结构需要与服务器共享所带来的潜在原始数据泄露的风险。

360数科针对分割式神经网络技术框架的项目实施技术方案能够搭建出更安全、对硬件要求更低且更加灵活的框架。目前,该框架主要满足360数科在与合作方进行数据交互时的需求。未来,在360数科对外输出风控能力的过程中,隐私计算也将作为技术输出的一部分,作为综合解决方案从底层解决数据安全问题。360数科将继续加大对于新技术的研发力量,营造健康与安全的数据生态。

猜你喜欢

转载自blog.csdn.net/csdnnews/article/details/108538245