Inductive and Unsupervised Representation Learning on Graph Structured Objects

1 前言

该论文主要解决的是图结构数据的无监督的、inductive形式的表征问题。通常在无监督的图表征问题中,主要以重建损失为主导进行训练,但是在计算重建损失时通常要涉及到图的相似性计算,而图的相似性计算是一个十分复杂、耗时的过程,论文提出了一个通用的框架SEED(Sampling, Encoding and Embedding Distribution)用于无监督的学习图结构对象的表征。

2 问题定义

目标很简单,给定一个graph,学习它的表征。

3 SEED思路

在这里插入图片描述
如上图所示所示,SEED主要分为三个部分:

3.1 Sampling

从输入的图中采样出多个子图。为了使得采样到的子图更具代表性,论文中提出了一种新的采样方法 — WEAVE(random Walk with EArliest Visit timE)。该方法与通常的随机游走不一样,WEAVE是带结点访问时间戳的。
在这里插入图片描述

如上图所示,WEAVE的区分能力比平凡的搜集游走更强。每一个WEAVE都代表一个采样到的子图,可以用一个矩阵表示: X = [ x ( 0 ) , x ( 1 ) , ⋯   , x ( k ) ] X=\left[\mathbf{x}^{(0)}, \mathbf{x}^{(1)}, \cdots, \mathbf{x}^{(k)}\right] X=[x(0),x(1),,x(k)],其中 x ( p ) = [ x a ( p ) , x t ( p ) ] \mathbf{x}^{(p)} = [\mathbf{x}_a^{(p)}, \mathbf{x}_t^{(p)}] x(p)=[xa(p),xt(p)] x a ( p ) \mathbf{x}_a^{(p)} xa(p)表示在时间 p p p时访问到的结点的特征, x t ( p ) \mathbf{x}_t^{(p)} xt(p)表示访问到该结点时的时间向量。注意,如果访问到了已经访问过的结点则 x t ( p ) \mathbf{x}_t^{(p)} xt(p)为最早访问时的时间。在论文中, x t ( p ) \mathbf{x}_t^{(p)} xt(p)采用one-hot编码。

3.2 Encoding

将每一个采样到的子图编码为向量。直觉上,如果子图的表征质量好,那么就能在子图表征地基础上较好地重建子图。论文中作者采样自编码器学习子图的表征,以重建损失作为损失函数。至此, s s s个子图 { X 1 , . . . , X s } \{X_1, ..., X_s\} { X1,...,Xs}被表示为 s s s个向量 { z 1 , . . . , z s } \{\mathbf{z}_1, ..., \mathbf{z}_s\} { z1,...,zs}

3.3 Embedding Distribution

将上一阶段获得的多个子图的表征汇集作为输入图的表征。对于两个图,它们在表征空间中的距离应该与它们的子图向量分布距离类似,因此需要找到一个好的聚集函数来保留原先的子图表征分布距离,论文中采用的是 M M D MMD MMD
给定连个图 G , H \mathcal{G}, \mathcal{H} G,H,子图表征分别为: { z 1 , . . . , z s } \{\mathbf{z}_1, ..., \mathbf{z}_s\} { z1,...,zs} { h 1 , . . . , h s } \{\mathbf{h}_1, ..., \mathbf{h}_s\} { h1,...,hs},则两者间的 M M D MMD MMD为:
M M D ^ ( P G , P H ) = 1 s ( s − 1 ) ∑ i = 1 s ∑ j ≠ i s k ( z i , z j ) + 1 s ( s − 1 ) ∑ i = 1 s ∑ j ≠ i s k ( h i , h j ) − 2 s 2 ∑ i = 1 s ∑ j = 1 s k ( z i , h j ) = ∥ μ ^ G − μ ^ H ∥ 2 2 \begin{aligned} \widehat{M M D}\left(P_{\mathcal{G}}, P_{\mathcal{H}}\right)=& \frac{1}{s(s-1)} \sum_{i=1}^{s} \sum_{j \neq i}^{s} k\left(\mathbf{z}_{i}, \mathbf{z}_{j}\right)+\frac{1}{s(s-1)} \sum_{i=1}^{s} \sum_{j \neq i}^{s} k\left(\mathbf{h}_{i}, \mathbf{h}_{j}\right) \\ &-\frac{2}{s^{2}} \sum_{i=1}^{s} \sum_{j=1}^{s} k\left(\mathbf{z}_{i}, \mathbf{h}_{j}\right) \\ =&\left\|\hat{\mu}_{\mathcal{G}}-\hat{\mu}_{\mathcal{H}}\right\|_{2}^{2} \end{aligned} MMD (PG,PH)==s(s1)1i=1sj=isk(zi,zj)+s(s1)1i=1sj=isk(hi,hj)s22i=1sj=1sk(zi,hj)μ^Gμ^H22
μ ^ G , μ ^ H \hat{\mu}_{\mathcal{G}}, \hat{\mu}_{\mathcal{H}} μ^G,μ^H分别表示两个图的kernel embedding,也就是最终的graph representation,分别定义为:
μ ^ G = 1 s ∑ i = 1 s ϕ ( z i ) , μ ^ H = 1 s ∑ i = 1 s ϕ ( h i ) \hat{\mu}_{\mathcal{G}}=\frac{1}{s} \sum_{i=1}^{s} \phi\left(\mathbf{z}_{i}\right), \quad \hat{\mu}_{\mathcal{H}}=\frac{1}{s} \sum_{i=1}^{s} \phi\left(\mathbf{h}_{i}\right) μ^G=s1i=1sϕ(zi),μ^H=s1i=1sϕ(hi)
其中 ϕ ( ⋅ ) \phi(\cdot) ϕ()是与核函数 k ( ⋅ , ⋅ ) k(\cdot, \cdot) k(,)相关的特征映射函数(与SVM中的核技巧类似,将核函数的计算转化为更简单的计算形式)。
根据核函数的选择, ϕ ( ⋅ ) \phi(\cdot) ϕ()具有不同的形式,如RBF、MLP等。为了训练 ϕ ( ⋅ ) \phi(\cdot) ϕ(),文中使用如下的近似误差,其中 θ m \theta_m θm ϕ ( ⋅ ) \phi(\cdot) ϕ()的参数):
J ( θ m ) = ∥ D ( P G , P H ) − M M D ^ ( P G , P H ) ∥ 2 2 J\left(\theta_{m}\right)=\left\|D\left(P_{\mathcal{G}}, P_{\mathcal{H}}\right)-\widehat{M M D}\left(P_{\mathcal{G}}, P_{\mathcal{H}}\right)\right\|_{2}^{2} J(θm)=D(PG,PH)MMD (PG,PH)22
通过最小化上述误差,就能学习到较好的聚集函数,在最终的表征中保留子图表征的分布距离。

该论文的方法与核方法有一定的相似性。论文还证明了同构的图的WEAVE的子图分布是类似的,并且对子图的采样长度进行了证明,详细内容可以参考论文。

4 方法的优势与局限性

4.1 优势

  • 给出了无监督形式的、inductive的图结构对象表征学习方法
  • 避免了复杂的图相似性计算,以类似于核技巧的方法较好地度量了图之间地距离
  • 对相关地定理进行了证明

4.2 局限性

  • 当图地规模较大时,采样的子图也会非常大,且可能需要采样地子图数量会很大


欢迎访问我的个人博客~~~

猜你喜欢

转载自blog.csdn.net/Miha_Singh/article/details/114274513