GNN-频域-2016:ChebNet【频谱图卷积】【切比雪夫多项式(ChebShev Polynomial)】【应用切比雪夫多项式加速特征矩阵求解】【GCN来源于对ChebNet的进一步简化与近似】

《原始论文:Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering》

基本的频域卷积网络要计算拉普拉斯矩阵所有的特征值和特征向量,计算量巨大。

在论文《 Convolutional neural networks on graphs with fast localized spectral filtering》中提出了切比雪夫网络,它应用切比雪夫多项式(Chebyshev polynomials)来加速特征矩阵的求解。

假设切比雪夫多项式的第 k k k 项是 T k T_{k} Tk, 频域卷积核的计算方式如下:

切比雪夫多项式是以递归方式定义的一系列正交多项式序列。

g θ = ∑ k = 0 K − 1 θ k T k ( Λ ~ ) , where  Λ ~ = 2 Λ λ m a x − I N g_{\theta}={\sum}_{k=0}^{K-1}{\theta}_{k}T_{k}(\tilde{\Lambda}), \text{where}\ \tilde{\Lambda}=\displaystyle\frac{2\Lambda}{\lambda_{max}}-I_N gθ=k=0K1θkTk(Λ~),where Λ~=λmax2ΛIN

那么 T k T_k Tk 怎么来呢,可以由切比雪夫多项式的定义得来: T k ( x ) = 2 x T k − 1 ( x ) − T k − 2 ( x ) T_k(x)=2xT_{k-1}(x)-T_{k-2}(x) Tk(x)=2xTk1(x)Tk2(x),递推式的前两项为 T 0 ( x ) = 1 T_0(x)=1 T0(x)=1以及 T 1 ( x ) = x T_1(x)=x T1(x)=x Λ ~ \tilde{\Lambda} Λ~的作用是让特征向量矩阵归一化到 [ − 1 , 1 ] [-1,1] [1,1]之间。

恭喜你看到了本系列的第三篇!前面两篇博客分别介绍了基于循环的图神经网络和基于卷积的图神经网络,那么在本篇中,我们则主要关注在得到了各个结点的表示后,如何生成整个图的表示。其实之前我们也举了一些例子,比如最朴素的方法,例如图上所有结点的表示取个均值,即可得到图的表示。那有没有更好的方法呢,它们各自的优点和缺点又是什么呢,本篇主要对上面这两个问题做一点探讨。篇幅不多,理论也不艰深,请读者放心地看。




参考资料:
回顾频谱图卷积的经典工作:从ChebNet到GCN

おすすめ

転載: blog.csdn.net/u013250861/article/details/121071532