GCN 入门

参考链接: https://www.zhihu.com/question/54504471/answer/611222866

1 拉普拉斯矩阵

  1. 参考链接: http://bbs.cvmart.net/articles/281/cong-cnn-dao-gcn-de-lian-xi-yu-qu-bie-gcn-cong-ru-men-dao-jing-fang-tong-qi
  2. L = D - A, A 为图的邻接矩阵, D 为顶点度的对角矩阵, L 为 拉普拉斯矩阵

   

1.1 拉普拉斯矩阵的类别

3 图卷积的参数

   

  1. 参考链接: http://bbs.cvmart.net/articles/281/cong-cnn-dao-gcn-de-lian-xi-yu-qu-bie-gcn-cong-ru-men-dao-jing-fang-tong-qi
  2. 由 1 小节得知, 图卷积的公式, 图卷积训练的参数在公式中对角矩阵中, GCN 的训练有两个版本, 第一版思维简单但是因为其缺点已经不再使用, 现在大都使用第二个版本

       

3.1 第一代图卷积训练

    1. 直接将对角矩阵中对角上的值当做参数
    2. 表示激活函数
    3. 表示输入向量
  1. 优点
    1. 发现中间的除去 的公式为拉普拉斯矩阵的分解公式, 那么在运算中不再需要分解公式, 直接使用拉普拉斯矩阵即可, 减少了计算量
    2. 参数少

   

3.2 第二代图卷积训练

    1. 将 转为了 , 其中为任意参数, 需要进行随机初始化, 即边的权重
    2. 借助 U 和拉普拉斯矩阵的特征进行化简, 得到
        1. L 表示拉普拉斯矩阵
        2. K 表示顶点的阶数, 顶点的邻居节点
        3. x 表示输入的特征, 为了形象的理解, 以一张灰度图为例
          1. 图的结构即图像的方格排列, 不需要人为的设计, 因为图片的形状就是如此, 每一个方格是图的一个顶点
          2. 像素值即每一个顶点的特征, 只不过在一般的图结构中, 顶点的值为一个特征向量
          3. 表示边的权重, 也是网络需要训练并且优化的参数

   

   

3.3 图解图卷积

   

  1.  

   

  1.  

   

  1. GCN每一次卷积对所有的顶点都完成了图示的操作

4 GCN 分类的效果

   

  1. 图结构如下

  2. 输入 PageID, IP, UA, DeviceID, UserID, 通过卷积, 得到中间节点的特征, 也就是分类的结果
  3. 与比较 GBDT 相比, 效果更好

5 图卷积网络的拓扑结构

  1. 参考链接: https://mp.weixin.qq.com/s/356WvVn1Tz0axsKd8LJW4Q
  2. 拓扑结构

    1. 和 CNN 类似, 每一层都是叠加堆积在一起的, 经过卷积得到的结果, 通过激活函数(ReLU, Sigmoid等)传到下一层
    2. 不是每一个顶点都要进行卷积重新计算新的特征, 而是选择靠近中心的顶点
    3. 在上图中, 表示的不是图的结构, 也不是边所代表的的权重, 而是每一个顶点对应的特征向量, 在图片中, 每一个顶点对应的是一个标量, 即像素值
    4. 3 图卷积的参数中提到了图卷积的参数与公式, 第二代的图卷积公式在运用的时候回转变成一个更清晰的表示公式
      1.    

        1. 表示标准化系数
        2. H 表示上一层每一个顶点的特征向量, 维度为 NxF, N 表示顶点个数, F 表示特征向量的维度
        3. W 表示边权重
        4. 公式的定性理解
          1. 选定一个顶点 V, 确定邻域, 如果个数不到邻域个数, 则补充哑顶点, 如果超过, 则删除对于的顶点
          2. 获取邻域中顶点的特征向量, 将其余顶点 V 的边(权重)相乘再相加, 得到新的维度的特征向量
          3. 防止较大的尺度变化, 将得到的结果进行标准化

           

    5. 图卷积的特点
      1.    

猜你喜欢

转载自www.cnblogs.com/megachen/p/11492647.html
GCN