图联邦学习(Federated Graph Learning)

目录

一、图联邦学习介绍

二、图间联邦学习(inter-graph FL)

三、图内联邦学习(Intra-graph FL)

四、图结构联邦学习(Graph-structured FL)

 五、图联邦学习的挑战


一、图联邦学习介绍

大多数图学习模型如图神经网络(Graph Neural Networks,GNNs)都是基于大量的图数据进行训练的,然而在许多现实场景中,例如医疗保健系统中的住院预测,图数据通常存储在多个数据所有者处,由于涉及患者的隐私和相关法律法规限制,不同数据所有者的数据不能直接共享。

联邦学习(Federated Learning, FL)是一种分布式学习方案,通过多个参与方(即客户端)协作训练一个模型而无需共享他们的隐私数据,以解决数据隔离问题。图联邦学习(Federated Graph Learning,FGL)是联邦学习在图数据上的应用,通过以联邦方式训练图神经网络,来解决图数据隐私保护的问题。

图联邦学习的分类:

按照图数据在客户端之间的分布方式,将图联邦学习划分为图间联邦学习(inter-graph FL)、图内联邦学习(intra-graph FL)、图结构联邦学习(graph-structured FL)。

图联邦学习的分类

二、图间联邦学习(inter-graph FL)

图间联邦学习是图联邦学习最常见的学习方式,其中每个客户端样本都是图数据,全局模型执行图级任务。 图间联邦学习最典型的应用是在生物化学行业,研究人员使用图神经网络来研究分子的图结构。一个分子可以表示为一个图,其中节点表示原子,边表示化学键。在药物特性研究中,每个制药公司都拥有一个机密数据集D_{k},其中包含多个分子结构{G_{i}}(即特征)和相应的性质{y_{i}}(即标签)。在过去,由于商业竞争的阻碍,各公司之间无法共享数据,但在图间联邦学习框架下能够实现数据的共享。在这种情况下,D_{k}={(G_{i}^{(k)},y_{i}^{(k)})},则图神经网络的全局模型为:

\hat{y}_{i}^{(k)}=H(X_{i}^{(k)},A_{i}^{(k)},W)

其中,X_{i}^{(k)}A_{i}^{(k)}分别表示第k个客户端的数据集中第i个图的特征和邻接矩阵,\hat{y}表示输出。

应用FedAvg后,目标函数为:

min_{W}\frac{N_{k}}{N}\sum_{k=1}^{K}f_{k}(W)

f_{k}(W)=\frac{1}{N_{k}}\sum_{i=1}^{N_{k}}L(H(X_{i}^{(k)},A_{i}^{(k)},W))

其中,f_{k}(W)为本地目标函数,L为全局损失函数。N_{k}表示 第k个客户端的数据集中所有节点的数量。

图间联邦学习

三、图内联邦学习(Intra-graph FL)

在图内联邦学习中,每个客户端拥有整张图的一部分数据(即子图),与联邦学习类似地,图内联邦学习可以分为横向图联邦学习和纵向图联邦学习。

1、横向图联邦学习

在横向图联邦学习中,每个客户端中持有的子图数据A^{k}可以看作是从潜在的整张图A中水平划分出来的(各子图之间的连接丢失了,严格来说可以有重叠),即A\Rightarrow \left \{A^{(k)} \right \}。水平分布的子图具有相同的属性,客户端共享相同的特征和标签空间,但节点ID不同。例如:一个省内,不同城市的多家银行拥有大不相同的客户群体,银行k构建有行内客户的关联关系网络G^{(k)},而对于任意两家银行的客户关系网络而言可能存在一些用户的潜在关联。 因此,所有银行的客户关系网络汇总起来可以构成整个省内银行客户关系网络G 。持有不同客户关系数据的多家银行可以在横向图联邦学习框架下共享数据,以进行各自的反欺诈、反洗钱、关联风险预警等业务。

在这种情况下,D_{k}={(G^{(k)},y^{(k)})},则图神经网络的全局模型为:

\hat{Y}^{(k)}=H(X^{(k)},A^{(k)},W)

其中,X^{(k)}A^{(k)}分别表示第k个客户端数据集的特征和邻接矩阵,\hat{Y}表示输出。

应用FedAvg后,目标函数为:

min_{W}\frac{N_{k}}{N}\sum_{k=1}^{K}f_{k}(W)

f_{k}(W)=L(H(X^{(k)},A^{(k)},W))

横向图联邦学习

 2、纵向图联邦学习

子图的垂直分布是指它们是平行的,并且彼此之间有很大的重叠,可以看作是从潜在的整张图中纵向划分出来的,即A\Rightarrow \left \{A^{(k)} \right \}X\Rightarrow \left \{X^{(k)} \right \}Y\Rightarrow \left \{Y^{(k)} \right \}。在这种情况下,客户端具有大部分相同的节点ID,特征和标签大不相同。例如,对于同一地区中不同行业的多家公司,可能具有大部分相同的客户群体,而特征和标签不同。

在这种情况下,D_{k}={(G^{(k)},y^{(k)})}V'表示节点的集合,N_{k}表示V'的大小。而图神经网络的全局模型不是唯一的(取决于多少客户端有标签),这表明纵向图联邦学习支持多任务学习。纵向图联邦学习的目的是通过在隐私保护的前提下结合\left \{ X_{v}^{(k)}|v\in V' \right \}并共享\left \{ Y_{v}^{(k)}|v\in V' \right \},进行图神经网络的学习。不考虑实体匹配和数据共享的方法,目标函数可以表示为:

min_{W}f_{k}(W)

 f_{k}(W)=L(H(Aggr_{k=1}^{K} X_{V'}^{(k)},A_{V'}^{(k)},W^{(k)}),Y_{V'}^{(k)})

纵向图联邦学习

四、图结构联邦学习(Graph-structured FL)

除了数据之外,各个客户端之间的关系也能用于图神经网络的学习。图结构联邦考虑了不同客户端之间的拓扑结构,即基于客户端的拓扑关系来使用图神经网络来聚合本地模型。典型的应用场景如联邦交通流预测,每个客户端是一台监控设备,其可能持有欧式数据或图数据,而监控设备分布在不同的地理位置,图神经网络用于捕获设备之间的空间依赖关系。,即客户端(k)⇒vk。图结构联邦学习是指服务器使用GNN根据客户端拓扑聚合本地模型的情况。

f_{w}^{(t)}=Aggr_{k=1}^{K}(f(w)^{k,t-1},A,W)

图结构联邦学习

五、图联邦学习技术及数据集总结

图联邦学习技术总结

 上图中,“FL with Structured Data”包括图间联邦学习和图内联邦学习的情况,“Structured FL”表示上文中的图结构联邦学习。

图联邦学习数据集总结

六、图联邦学习的挑战

图联邦学习是近两年兴起的技术,其中存在许多挑战,多为传统联邦学习的遗留问题,如非独立同分布数据(Non-IID data)、通信效率(communication efficiency)、鲁棒性(robustness)。此外,还存在图联邦学习所特有的问题,如横向图内联邦学习的孤立图问题(Isolated graph in horizontal intra-graph FL)、纵向图内联邦学习的实体匹配和安全数据共享问题(Entities matching and secure data sharing in vertical intra-graph FL)、图内联邦学习缺乏数据集(Dataset of intra-graph FL)等。

1、非独立同分布的图结构

无论哪种类型的图联邦学习,非独立同分布问题都不可避免。与联邦学习一样,它既影响收敛速度,又影响收敛精度,目前还没有方法可以彻底解决此问题。除了特征和标签之外,图数据还具有边(结构)信息,这表明图结构的非独立同分布也可能影响学习过程。图结构的性质包括度分布、平均路径长度、平均聚类系数等。研究这些性质的非独立同分布可能是解决图域非独立同分布问题的一个重要方向。

2、横向图内联邦学习的孤立图

图模型上的表示学习依赖于遍历或多阶邻域间的消息传递。然而,在横向图内联邦学习中,不同的客户端持有潜在整张图的一部分数据,本地子图的直径一般很小。这将影响图神经网络的准确性,因为本地子图不能提供来自高阶邻居的信息。一个极端的情况是,若本地子图只包含一个节点,图卷积网络GCN将退化为多层感知机MLP。因此在横向图内联邦学习中,发现客户端本地子图中的潜在边是一个至关重要的挑战。

3、纵向图内联邦学习的实体匹配与安全数据共享

实体匹配(隐私集合求交PSI)和安全数据共享是纵向联邦和纵向图内联邦学习的关键问题。纵向图内联邦学习的主要难点还在于在隐私保护的前提下尽可能地提升精度和通信效率。有相关研究提出了一种联邦框架,通过在服务器中保存的匹配表进行知识图谱嵌入,这在一定程度上违反了隐私保护原则。

4、图内联邦学习缺乏数据集

图像和语料库数据集的丰富性是计算机视觉和自然语言处理快速发展的必要条件,然而适合图内联邦学习的公开图数据集目前还很少。对于欧式数据,可以很容易地通过实验模拟数据分布,例如将样本集合S划分为\left \{S_{1},S_{2},S_{3}.,.. \right \},将特征集F划分为\left \{F_{1},F_{2},F_{3}.,.. \right \},这很容易实现,不需要考虑额外的因素。但涉及到图形数据时,由于图中存在着结构,很难模拟数据分布。例如,在横向图联邦学习中,需要将一整张图分割成多个子图以模拟多个客户端的数据,但是有一些边被破坏,并且子图分布也不符合实际情况。在纵向图联邦学习也一样困难,虽然可以将特征划分为几部分,但需要考虑所有部分是否具有相同的结构。在现实场景中,结合相关业务规则,这还要复杂得多。因此,数据集的缺乏限制了图内联邦学习的发展。

5、通信和内存消耗

在实际应用图联邦学习算法时,通信和内存消耗是一个关键瓶颈。例如,对于联邦推荐系统,服务器和客户端之间传输的模型可能很大,其中用户和商品隐藏层占据了大部分模型参数,并且隐藏层参数的大小随着用户和商品节点的规模不断增加而线性增长,会造成通信和内存的大量消耗。对于这一问题,模型量化、剪枝、蒸馏是模型压缩的有效方法。

参考文献:

1、(2021)Zhang H, Shen T, Wu F, et al. Federated graph learning--a position paper[J]. arXiv preprint arXiv:2105.11099, 2021.

 2、(2022)Fu X, Zhang B, Dong Y, et al. Federated graph machine learning: A survey of concepts, techniques, and applications[J]. ACM SIGKDD Explorations Newsletter, 2022, 24(2): 32-47.

猜你喜欢

转载自blog.csdn.net/weixin_44458771/article/details/129042000