参考リンク:https://www.zhihu.com/question/54504471/answer/611222866
1つのラプラス行列
- 参考リンク:http://bbs.cvmart.net/articles/281/cong-cnn-dao-gcn-de-lian-xi-yu-qu-bie-gcn-cong-ru-men-dao-jing-fang -tong、チー
- L = D - A、Aは、隣接行列であり、Dは、頂点度の対角行列であり、Lはラプラシアン行列であります
カテゴリー1.1ラプラス行列
図3畳み込みパラメータ
- 参考リンク:http://bbs.cvmart.net/articles/281/cong-cnn-dao-gcn-de-lian-xi-yu-qu-bie-gcn-cong-ru-men-dao-jing-fang -tong、チー
-
その第1は、畳み込み描画式、式対角行列で畳み込みトレーニングパラメータマップを、二つのバージョンが、ためにその欠点の簡単な思考の最初のバージョンでGCNのトレーニングは今、主に、もはや使用されません第二のバージョンを使用します
図3.1第一世代の畳み込みトレーニング
-
- 対角線としてパラメータ値の直接対角行列
- これは、活性化関数を表し、
- これは、入力ベクトルを表し、
-
利点
- 見出さ式の中間体は、ラプラシアン行列方程式を除去分解され、もはや計算式の分解に必要な、ラプラシアン行列は、計算量を減少させる、直接使用することができません
- 少数のパラメータ
図3.2第二世代のコンボリューショントレーニング
-
- 変換され、パラメータのいずれかが、必要とされる特徴、すなわち、エッジ重みを初期化します
-
ラプラシアン行列Uおよび特徴簡略化により、精製し
-
- Lはラプラス行列を表します。
- Kは、隣人の頂点を順番の頂点を表し、
-
Xは、例えば、グレースケールのイメージを理解するために、入力特性を表します
- 図グリッド構造、すなわち、画像が配置されている画像の形状が同様であるので、人間の設計を必要とせず、各ボックスは、図2の頂点です。
- 前記各頂点の画素値が、即ち、唯一の構造の一般的な見解では、特徴の値ベクトル頂点
- これは、エッジの重みが、また、ネットワークパラメータを訓練し、最適化する必要性を表しています
-
3.3コンボリューションは、図に示します。
- すべての頂点の各コンボリューションが示す動作を完了したGCN
4 GCN分類の効果
5 畳み込みネットワークのトポロジ
- 参照リンク:https://mp.weixin.qq.com/s/356WvVn1Tz0axsKd8LJW4Q
-
トポロジー
- CNNなどは、各層は次の層伝達関数(ReLU、シグモイドなど)を活性化することによって得られたコンボリューションの結果を介して、積層重畳され
- 必ずしもすべての頂点は、コンボリューションの新機能を再計算が、選択した頂点の中心部に近くなければなりません
- 図では、構造は、図には示されていない、また右側には重みを表すが、画像内の各頂点に対応する特徴ベクトルは、各頂点に対応する、すなわち、画素値、スカラーであります
-
図3の畳み込みのパラメータを挙げる式のパラメータ図畳み込み、使用中のコンボリューション式図第二世代は、式の明確な表現に変わったとき
-
- これは、正規化係数を表し、
- Hは、各頂点の特徴ベクトル、寸法NXFの層を表し、Nは、頂点の数を示し、Fは、特徴ベクトルの次元を表します
- Wは、エッジ重みを表します
-
式の定性的理解
- 頂点を削除するため、超過した場合に数近隣、化粧ダム頂点の数未満である場合、近傍を決定するために、頂点Vを選択
- 機能を得ることは新しい次元特徴ベクトルを与えるために、残りの縁部(重量)の頂点Vを添加した後、乗算され、近傍の頂点ベクトル
- 大規模な変更を防止すること、得られた結果は正規化しました
-
-
図畳み込み機能
-