行列の因数分解の推薦アルゴリズム

ただ確認するために、この機会を利用し、SVDノートの前の要約を回し

特異値分解

前記行列分解:

AXは、xは、λに対応する固有ベクトルの特性値である=λxを、AはN×N行列であり、λであります

用のn行列Aの特徴量λ1≤λ2≤...≤λn、前記n値が固有ベクトル{X1、X2、...、XNを}対応

次のように行列を分解することができる:\(WΣW= A ^ { - } 1 \。) WがN個の固有ベクトルは、n請求の角度に基づいて、N×N次元の行列、Σ値に及ぶ場合、 N×Nの次元の行列に並びます

特異値分解:

正方行列の特異値分解は必要ありません。

AはM×N行列である行列を仮定し、その後、SVDは、我々は、行列Aを定義:
\ [A =UΣV^ T \] Uは、M×M行列、Vは、に加えて、N×N行列である場合、その他の主対角線上の要素は全て0であり、そしてより満足:
\ [^ TU = U-I、I = V ^ TV \]

行列は正方行列Vである\(A ^ TA \) N特徴ベクトルが張るN×N行列、我々は、行列Aの右特異ベクトルの本明細書で呼ばれる特徴ベクトルを使用しました

行列は正方行列Uれる\(AA ^ T \)は、行列Aの固有ベクトルは、本明細書で言及され、m個の特徴ベクトルスパンM×M行列の特異ベクトルを残し

マトリックス\(Σ\)対角線上に特異値であることに加えて、他の位置は0であります

特異値\(σ_i= Av_i / u_i \) UI及びVIは、それぞれAの右あり、左特異ベクトル

同様に、特異値もでき\(σ_i= \ SQRT {λ_iは } \) λである場合、得られる\(A ^ TA \)\(AA ^ T \)特性値(特性値は、2つの行列であります同じ)

SVDの性質:
:我々は、k番目の特異値とほぼ行列を記述するために対応する約特異ベクトルの最大使用でき
\ [A_ {M×N-} = U_upper {M×M}Σ_{M×N-} V ^ T_を{ N×N}≈U_{M× K}Σ_{K×K} V ^ T_ {K×N} \]行列で近似SVD説明


推奨アプリケーションシステムにおけるSVD

ユーザー機能:実数ベクトルのセットは、ユーザ嗜好がユーザの膜特性のレベルを、B、C、...含む説明(第Xa、Xbを、Xcの、 ...)

フィルムは、特徴(第Xa、Xbを、Xcを、実際のベクトルの集合をフィルムチームは、A、B、Cの属性...コンプライアンス映画の程度を説明します ...)

フィルムの格付けの予測値は、2つのベクトルの内積である[1]

M及びN Mのスコア行列M [3]のように見える物品×N SVDのマトリックスに対応するユーザの数である:
\ [×N M_ {M}の= {U_upper K M×K×K {}Σ_ } V ^ T_ {K×N
} \] 我々はj番目の記事のI番目のユーザの評価を予測したい場合は、\(m_LowのIJを{} \) のみ計算する必要があります\(^ UT_iΣv_j\)

問題:

  1. これは、Mが密な行列のSVDを必要とし、実際のデータは、スパース行列Mであります
  2. 実際のデータ行列Mは非常に時間のブレークダウンを行うために消費し、非常に大きいです

FunkSVD

FunkSVDは、従来のSVDの効率の問題を解決するために、所望の行列分解方法を提案した:
\ [M_ {M×N - } = P ^ T_ {M×K} Q_ {K×N - }の\]
1つの採点\(m_Low {} \のIJ) マトリックスは、対応するように表現、FunkSVDで分解された場合(^ Q T_jp_i \)\損失関数としての平均二乗誤差を使用して、我々は期待する((M_ {IJ} \ -q ^ T_jp_i)^ 2 \) 我々は、望ましい式を最小にするために、アイテムおよびサンプルの全ての組み合わせを考えると、できるだけ小さく:\ [Σ_{I、J}({m_Low T_jp_iのIJ} -q ^)^ 2 \]
オーバーフィッティングを防ぐために、最終的な目標関数を得るために、L2正則化項を加えた:
\ [J(P、Q)= \ underbrace {Argで\;分間} _ {P_I、Q_j} \; \和\ limits_ {I、J}
(M_ {IJ} -q_j ^ Tp_i)^ 2 + \ラムダ(|| || P_I _2 ^ 2 + || || q_j _2 ^ 2)\] λは正則化係数でありますあなたは、パラメータを調整する必要があります。すべての最小引数xのセットを取得する関数f(x)は引数MINF(X)を意味します。


BIgChaos

グローバル効果の除去

類似度行列分解

参考資料

[1]王Yuantao。Netflixの協調フィルタリングアルゴリズムのデータセット[D]。清華大学、2009年。

[2] 原則的に特異値分解(SVD)と次元削減-劉Jianping Pinardの

[3] 協調フィルタリング推薦アルゴリズムにおけるマトリックス分解の応用-劉Jianping Pinardの

[4] オーバーフィッティングを防ぐことができる理由は、正則

[5] マシンがオーバーフィットを防止するために、原則は何正則を使用することを学びますか?ほとんど知られている- - Dengzai明の答え

おすすめ

転載: www.cnblogs.com/lokvahkoor/p/12034621.html