差分隐私的定义、直观理解与基本性质

数据是人工智能的燃料,优秀的深度学习模型需要依靠大量高质量数据集进行训练。然而,随着模型精度的不断提升,对于个人隐私的泄露现象也变得越发严重。此外,随着互联网企业的扩展,用户数据开始担任重要生产资料的角色,成为各大垄断企业的护城河。欧盟,作为反对互联网垄断的桥头堡,同时也作为隐私保护的急先锋,在2018年正式施行法案《通用数据保护条例》(General Data protection Regulation, GDPR)。GDPR主张个人对数据的四项权利,请求权,拒绝权,修正权和删除、遗忘权。请求权,即个人有权了解其个人数据是否被处理,哪些个人数据以怎样的方式被处理以及进行了哪些数据处理操作;拒绝权,即个人有令人信服的合法理由,可禁止进行某些数据处理操作,比如个人可拒绝以营销为目的的个人数据处理。遗忘权,即个人有权寻求删除其个人数据的影响,比如用个人的微博,抖音数据训练的推荐算法,能够把个人的影响给忘掉。此外,GDPR还对数据的传输有明确的要求,比如欧盟境内的数据不得在境外被使用。

那么,一个自然的问题是,如何让人工智能模型的训练过程能够符合数据保护条例,保护个人隐私呢?依据GDPR的要求,首先数据的存储必须满足去中心化,而模型则需要在去中心化的数据库上进行分布式训练。联邦学习[1]是应对这种要求的解决方案,它允许模型在本地数据库上训练,并构建一个全局的调度器,通过对不同本地模型的更新进行汇总(即FedAvg算法),获得全局模型。得到的全局模型能够利用所有本地数据的信息,并得到更好的模型精度。其次,GDPR要求个人能够控制其数据对于模型的影响。人工智能模型是通过归纳所有数据信息构建的,它的输出结果是否会泄露个人隐私呢?差分隐私(Differential Privacy)[2]系统地探讨并解决了这一问题。在本篇Blog中,我们对差分隐私技术进行入门式的介绍,差分隐私的定义,直观理解与基本性质。因为我们的主要目的是将差分隐私应用于隐私保护场景,而非对差分隐私进行研究,在本篇Blog中我们会略过一些数学证明的过程,将重心聚焦到差分隐私的应用上。

差分隐私的动机,背景以及基本定义

隐私的基本定义

在讨论差分隐私之前,我们先对“什么是隐私”这一问题进行讨论。在不同的考量下,隐私的定义也不一样。目前普遍比较接受的定义是:“单个用户的某一些属性” 可以被看做是隐私。注意该说法所强调的是“单个用户”,也就是说,如果是一群用户的某一些属性,那么可以不看做隐私。譬如,医院发布调查报告说,抽烟的人会有更高几率得肺癌,这个不泄露任何隐私。但是如果医生说,张三因为抽烟,所以有X%的概率得肺癌,这就是个人隐私的泄露。如果我们拥有一个数据库,那么对精确的个体信息的查询与检索都会泄露隐私,因此对于个人数据的加密是最基本的保护隐私策略。然而,就算我们对个人数据进行了加密,对一群用户的某些属性的查询,以及对查询结果进行加工与建模,也就是“数据分析”,往往也会泄露个人隐私。而相比于数据加密,对数据分析的过程进行隐私保护因其不对称性更加具有难点,因为数据加密过程中,解密者与攻击者往往是两方,但是数据分析的过程中,分析师与“隐私攻击者”则是一方。

我们先来举几个例子,看看什么样的数据分析行为会侵犯隐私,以及什么样的行为看似不会侵犯隐私,但是通过一连串叠加也会侵犯个人隐私。首先,在直觉上,如果查询的数据库特别大,而且我们规定只允许查询摘要形式的信息或者统计形式的信息,这种数据分析方法看起来保护了个人隐私。但是,如果我们知道某个个体的信息包含在数据库中,我们就可以利用一种叫差分攻击的方法得到个体的信息。比如,如果我们已知X的信息在某个大型医疗数据库中。那么我们可以查询:有多少人患血友病,以及条件查询,有多少个不叫X的人患白血病。这样经过差分,我们就得到了X是否患血友病的信息。对于这种情况,如果我们引入某种监督机制,比如有一个监督者禁止这种不安全的查询,或者有监督者在必要的时候对数据库进行匿名处理,似乎可以避免上述的差分攻击,是否有一个监督机制能保证数据分析过程中,隐私不被泄露吗?答案是没有,原因有二:(1) 禁止查询的决定本身也会带来隐私泄露。比如国家不公布第七次人口普查数据,或者从2006年开始不公布中国的基尼系数,这本身也有某些信息。(2) 可以将单次破坏隐私的查询拆分成一系列查询,而对于每次查询,很难判断是否破坏隐私。最后,由于数据分析师的先验知识背景非常多样,因此数据分析师的辅助信息也会将一些不破坏隐私的查询变得破坏隐私,这就带来了第二种隐私泄露的形式,即由于数据库之外的辅助信息带来的隐私泄露。比如我们知道邻居X在某一天去了医院,而我们得到的匿名医院数据库中,在这一天的数据条目特别少,那么X的个人信息也会以某种高概率泄露。比如作为X的邻居,我们发现他常常去买蛋糕。但是有一段时间他忽然开始买不含糖的面包了,如果我是一个医生,我可能会猜想他患了糖尿病,这就是辅助信息带来的隐私泄露。

综上所述,差分攻击与辅助信息是数据分析过程中隐私泄露的主要诱因,而引入监管也不能保证隐私。针对这种状况,差分隐私提出了一种数据分析过程的隐私保护定义,即对于数据库数据的任何分析,以及根据分析结果与其他信息进行的进一步的合并加工,都不会泄露个人隐私。

差分隐私的动机与基本形式

在上文中,我们对隐私进行了定性的定义。在应用过程中,隐私保护的目的则有更简单的具体描述:对于任何数据分析员,要求分析员在对数据库进行分析后,对数据库中每一个个体的了解不会超过其在分析开始之前的了解。那么,为了达成这种目的,我们需要对差分隐私提出两个疑问:对于一个数据分析过程,应当在什么时机,以什么方式引入并实现隐私保护机制呢?

在第一节对于侵犯隐私行为的讨论中,我们知道引入实时的监督者并不能保障个人隐私安全,因此差分隐私的引入时机必然是在数据库发布后,到所有的数据分析工作开始之前。因此,我们沿用[2]中的描述,对差分隐私所扮演的角色进行描述:差分隐私相当于一个值得信赖的数据库管理员,它的目的是保护数据库中每一行记录,同时允许整个数据库能够被分析。这个管理员在数据库面向分析员发布前,对原始数据库进行一些操作:对数据库进行合成(例如,依据原始数据产生同分布的虚拟数据)、对某些统计结果进行汇总,或者自行清除数据库某些离群数据,然后发布新的数据库,销毁原始数据库。此后,差分隐私不再发挥作用,对于新的数据库,允许数据分析员进行自适应的查询,包括根据当前的查询结果,以及分析员的先验知识,自行决定下一次查询。差分隐私希望经过这种操作后,对于任何可能的查询,以及对查询结果的一系列加工都不会泄露个体隐私。

 

 

 

 

如下图所示。

通过以上等价形式的推导,我们从假设检验的角度对差分隐私进行了解释,得到了一个基本的直觉:差分隐私就是要求对于任意的相邻数据库,数据分析者无法仅通过输出结果对它们进行显著的区分。那么,这种“无法区分”的性质会带来什么好处呢?我们可以从效用函数的角度对该问题进行探讨。

 

 

 

 

差分隐私的优势与局限性

根据上文分析,我们可以总结差分隐私所具有的六大优势如下:

但是,差分隐私不是万能的,也有其局限性。正如上文在“吸烟引起癌症”示例中看到的,差分隐私不能保证参与人无条件不受伤害,换句话说,差异性隐私并不能保证人们认为属于自己的特性不因他人接受的调查所泄露,它只是确保不会透露自己参与了数据分析,也不会披露个体参与数据分析的任何细节。从群体调查中得出的统计结论很有可能反映出个体的统计信息,例如,通过他人数据训练的算法推荐给用户的视频往往是符合用户独特品味的,但这并不表示存在隐私权的侵害,因为用户数据甚至可能没有参加过模型训练。也就是说,差分隐私确保无论个人是否参加数据分析,都将以非常相似的概率符合统计结论性的结果。而如果分析结果告诉我们,某些特定的私有属性与公开可观察的属性密切相关,这并不违反差分隐私,因为这种相同的相关性将以几乎相同的概率被独立观察到,无论任意个体是否出现在分析所用的数据库中。

  1. 对于任意先验知识风险的防范性。在上文中我们提到,由于数据分析师的先验知识背景非常多样,因此数据分析师的辅助信息也会将一些不破坏隐私的查询变得破坏隐私。但是差分隐私与先验知识完全无关,可以抵御所有依靠辅助信息所进行的攻击。

  2. 对于链式攻击的防范。将隐私攻击手段拆成多个问题,或者对数据集进行多次差分都不会泄露隐私。

  3. 传递性带来的隐私闭包。由于差分隐私的传递特性,数据分析师在没有其他有关私有数据库的知识的情况下,其所做的任何进一步处理也具有差分隐私特性。也就是说,数据分析师不能仅仅通过坐在角落里思考算法的输出,得到任何会泄露个人隐私的结论。

  4. 对团体数据隐私的保护。差分隐私对于团体数据(例如家庭数据)所带来的隐私损失也进行了分析与控制。

  5. 对于数据分析Pipeline的组合(Composition)隐私进行度量。一般而言,数据分析师会用多种随机算法进行分析,而不同的随机算法会带来不同的隐私损失。例如,深度学习模型训练的过程中,每一个Epoch都会发布一个中间模型,随着获取的中间模型越来越多,我们需要度量所有中间模型所带来的隐私损失;又例如一个可视分析系统往往有多个视图,每个视图的底层算法也不一样(如t-sne和热力图)。对于一个由多种随机算法组合系统如何度量隐私,以及如何设计每一个模块的  使得整个系统的隐私损失最小,差分隐私给出了理论思路,能够通过多个简单差分隐私模块设计和分析复杂的差分隐私算法。

References

[1] Konečný J, McMahan B, Ramage D. Federated optimization: Distributed optimization beyond the datacenter[J]. arXiv preprint arXiv:1511.03575, 2015.

[2] Dwork C, Roth A. The algorithmic foundations of differential privacy[J]. Foundations and Trends in Theoretical Computer Science, 2014, 9(3-4): 211-407.

[3] Kairouz P, Oh S, Viswanath P. The composition theorem for differential privacy[C]//International conference on machine learning. PMLR, 2015: 1376-1385.

猜你喜欢

转载自blog.csdn.net/OpenMpc/article/details/124434795