ディープ学習読書ノート(A)

行列分解と呼ばれるものを1?

特異値分解および固有値分解:のAV =λVを満たすために、マトリックス分解はに分割されています

分解特性:式が有効である場合、VはAの固有ベクトル行列である正方符号と、AV =λVに制限は、その後λのみユニーク固有値及び対応する固有ベクトルを含む各行列に対応する固有値です。

特異値分解:パーソナライズされた勧告に使用される任意のマトリックス、PCAの次元削減とNLP、UΣV式= A T  、  ザ・ ある  m個\回メートル 行列が  \シグマ ある  N M \回 主対角線上の要素に加えて、マトリックス全て0であります主対角特異値の各要素は、参照される  V ことがある  n \ n倍 マトリックス。

U、Σ、V 3つの行列を解決する方法

我々は転置とA Aは行列の乗算を行う場合、それはN×Nの正方行列となります  A ^ {T} A 。それはので  A ^ {T} A 、正方形である、そして我々は、固有値と固有ベクトルは、次の式を満たす結果、分解を特徴とすることができます。

私たちが行列取得できるように  A ^ {T} A n個の固有値と対応する固有ベクトルn個のVのを。 A ^ {T} A マトリックスの式V我々 SVDであるN行列V×N、にすべての固有ベクトル。一般的に、我々はそれぞれの特徴ベクトルVはAの右特異ベクトルと呼ばれます

私たちは、乗算、マトリックスんAおよびAの転置した場合、それはM×Mの正方行列となります  AA ^ {T} 。それはので  AA ^ {T} 、正方形である、そして我々は、固有値と固有ベクトルは、次の式を満たす結果、分解を特徴とすることができます。

我々は、マトリックス得ることができるように、  AA ^ {T} U字のm個の固有値及び固有ベクトルに対応するmのを。 AA ^ {T} 式の我々のSVD U-行列であるM行列U×M、にすべての固有ベクトル。一般的に、我々はU Aの各特徴ベクトルは、左特異ベクトルと呼ばれています。

Uと私たちが知るV、今左特異値行列Σを見つけることができません。

Σは、対角上の特異値は0であり、他の場所に加えてあるので、我々はその上にそれぞれ特異値σの要件を必要とします。

私たちは、その点に注意してください。

だから我々は我々の特異値のそれぞれを見つけ、その後、特異値行列Σを見つけることができます。

問題が話していないされての上に、我々はと言う  A ^ {T} A 特徴ベクトルは、当社のSVD行列Vで構成され、

AA ^ {T} 特徴ベクトルは、何に基づいて、当社のSVD行列にUで構成されていますか?これは、私たちが一例としてV行列を証明する必要があり、実際に証明するのは非常に簡単です。

使用の証拠のタイプ  {U ^ U = I} \シグマ^ {T} = \シグマ 。図から分かるように  A ^ {T} A 、特徴ベクトルVで、それは確かに私たちのSVDのマトリックスで構成されています。同様の方法が得られる  AA ^ {T} 特徴ベクトルは、当社のSVDのU行列で構成されています。

さらに、私たちが行列特異値の私達の固有値は行列の二乗に等しいことも見ることができ、それは、固有値と特異値は以下の関係を満たすと言うことです。

これは、私たちができないことを意味する  \ Sigma_ {I} = \ FRAC {Av_ {I}} {U_ {I}} 特異値をすることによって決定することができる計算される  A ^ {T} A 特異値を見つけるために、機能の平方根の値。

SVDアルゴリズムは一般に、推薦、データ削減及びノイズリダクションに使用並列化

 

おすすめ

転載: www.cnblogs.com/elkan/p/10991207.html