ネットワーク表現学習の最初の要約(ネットワーク埋め込み)

       ネットワーク埋め込みは、特にDeepWalkをはじめとして、現在非常に注目されている研究の方向性です。フォローアップでは多くの作業が導入されています。データマイニングの分野では、毎年多くの優れた作業が見られます。特に、北京郵電大学の石川さんが異質情報ネットワーク(HIN)を提唱しました。)後部。その後、多くの領域の専門家や教師が浅いモデル(行列因数分解、ランダムウォークなど)、深いモデル(ニューラルネットワークモデルなど)を提案しました。なぜこのように分類できるのか、そして分類とは何かについて戸惑いました。標準?次の改善を行う方法は?

     Deepwalk、Line、node2vecなどはすべて行列分解のカテゴリに属し、すべて浅いモデルに属することが証明されています後でいくつかの論文のレビューを読んだときに、一部の学者が行列分解と言っていることもわかりましたは線形変換であるため、低次元表現には浅い特徴しかないことを学びました。したがって、非線形表現であるより複雑な表現または特徴を学習することを期待して、深いモデルを導入します

     最後に、今日、マトリックス分解に関する他のブロガーの考えや意見を見たとき、私はグレーディングの標準に気づきました。さらに、他のブログコンテンツの固有値と固有ベクトル行列分解を参照できます

   AX = aXの場合、A行列、Xは固有ベクトル、aは固有値です。「行列は線形変換と同等であるため、行列Aにベクトルが乗算され、基本的に線形変換(回転)が実行されます。またはストレッチング)、ベクトルで、この変換の効果は、定数にベクトルを掛けたものです(つまり、ストレッチされただけです)。固有値と固有ベクトルを見つけるとき、それはどのベクトル(固有ベクトル)ができるかを見つけることです行列Aによって線形変換され、ストレッチストレッチのみが行われ、回転は発生しません。ストレッチの程度は、当然、特性値λです。
 

おすすめ

転載: blog.csdn.net/qq_39463175/article/details/106453647