参考リンク:https://www.zhihu.com/question/54504471/answer/611222866
1ラプラス行列
- 参考リンク:http://bbs.cvmart.net/articles/281/cong-cnn-dao-gcn-de-lian-xi-yu-qu-bie-gcn-cong-ru-men-dao-jing-fang -tong、チー
- D = L - A、Aは、隣接行列であり、Dは、頂点度の対角行列であり、Lはラプラシアン行列であります
カテゴリー1.1ラプラス行列
図3畳み込みパラメータ
- 参考リンク:http://bbs.cvmart.net/articles/281/cong-cnn-dao-gcn-de-lian-xi-yu-qu-bie-gcn-cong-ru-men-dao-jing-fang -tong、チー
-
その第1、畳み込み描画式、式対角行列で畳み込みトレーニングパラメータマップを、二つのバージョンが、ためにその欠点の簡単な思考の最初のバージョンでGCNの訓練で使用することはありません、今ほとんど第二のバージョンを使用します
図3.1第一世代の畳み込みトレーニング
-
- 対角線としてパラメータ値の直接対角行列
- これは、活性化関数を表し、
- これは、入力ベクトルを表し、
-
利点
- ラプラシアン行列方程式を除去する分解され、式の中間体が見出さ、もはや計算式の分解を必要としない、ラプラシアン行列は、計算量を減少させる、直接使用することができ
- 少数のパラメータ
図3.2第二世代のコンボリューショントレーニング
-
- 変換され、およびパラメータのいずれかが、必要とされる、すなわち、エッジ重みを初期化します
-
ラプラシアン行列の手段によってUとを与えるために、簡略化を特徴とします
-
- Lはラプラス行列を表します。
- Kは、隣人の頂点を順番の頂点を表し、
-
Xは、例えば、グレースケールのイメージを理解するために、入力特性を表します
- 即ち、画像が配置されている画像の形状が同様であるので、人間の設計を必要としない図グリッド構造は、各ボックスは、図の頂点です。
- 前記各頂点の画素値が、即ち、唯一の構造の一般的な見解では、特徴の値ベクトル頂点
- これは、エッジの重みが、また、訓練の必要性と最適化のネットワークパラメータを表し、
-
3.3コンボリューションは、図に示します。
- GCNすべての頂点の各コンボリューションは、図示の操作を完了しました
4 GCN分類の効果
5 畳み込みネットワークのトポロジ
- 参考リンク:https://mp.weixin.qq.com/s/356WvVn1Tz0axsKd8LJW4Q
-
トポロジー
- CNNなどは、各層は次の層伝達関数(ReLU、シグモイドなど)を活性化することによって得られたコンボリューションの結果を介して、積層重畳され
- 必ずしもすべての頂点は、新機能が、近い選択した頂点の中心にコンボリューションを再計算する必要があります
- 図では、構造は、図には示されていない、また右側には重みを表すが、画像内の各頂点に対応する特徴ベクトルは、各頂点に対応する、すなわち、画素値、スカラーであります
-
図のパラメータ3の畳み込みは、式の明確な表現に回すときに使用中の式のパラメータ図畳み込み、畳み込み式図第二世代に言及しました
-
- これは、正規化係数を表し、
- Hは、各頂点の特徴ベクトルの層を表す寸法NXF、Nは、頂点の数を示し、Fは、特徴ベクトルの次元を表します
- Wは、エッジ重みを表します
-
式の定性的理解
- 頂点を削除するため、超過した場合に数近隣、化粧ダム頂点の数未満である場合、近傍を決定するために、頂点Vを選択
- 特徴ベクトル近傍の頂点を得る、残りの縁部(重量)の頂点Vは新しい次元特徴ベクトルを与えるために、添加し、次いで乗算され
- 大規模な変更を防止すること、得られた結果を標準化しました
-
-
図畳み込み機能
-